JP2025186541A - Filter Generator - Google Patents
Filter GeneratorInfo
- Publication number
- JP2025186541A JP2025186541A JP2025166213A JP2025166213A JP2025186541A JP 2025186541 A JP2025186541 A JP 2025186541A JP 2025166213 A JP2025166213 A JP 2025166213A JP 2025166213 A JP2025166213 A JP 2025166213A JP 2025186541 A JP2025186541 A JP 2025186541A
- Authority
- JP
- Japan
- Prior art keywords
- frequency
- unit
- correction
- filter
- level
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Stereophonic System (AREA)
- Circuit For Audible Band Transducer (AREA)
Abstract
【課題】頭外定位処理に適したフィルタを生成するフィルタ生成装置を提供する。
【解決手段】処理装置201は、マイク2L、2Rで収音される収音信号に基づいて、周波数特性を取得し、周波数軸を人間の聴覚に近い聴覚尺度として低周波数帯域のデータを補間することで、聴覚尺度で等間隔な軸変換データを生成する周波数特性取得部221と、再生機器の性能を判定する判定部242と、判定部242の判定結果に応じて、レベルレンジを設定するレベルレンジ設定部224と、聴覚尺度の周波数振幅特性に対してレベルレンジに基づいて周波数特性を補正することで、補正特性を算出する補正部225と、補正特性に基づいて、頭外定位処理で用いられる空間音響フィルタ又は前記再生機器からユーザの耳までの特性をキャンセルする逆フィルタを生成するフィルタ生成部230と、を備える。
【選択図】図12
A filter generation device for generating a filter suitable for out-of-head localization processing is provided.
[Solution] The processing device 201 includes a frequency characteristic acquisition unit 221 that acquires frequency characteristics based on the sound signals collected by microphones 2L and 2R, and generates axis-transformed data at equal intervals on the auditory scale by interpolating low-frequency band data using the frequency axis as an auditory scale close to human hearing; a judgment unit 242 that judges the performance of the playback device; a level range setting unit 224 that sets a level range depending on the judgment result of the judgment unit 242; a correction unit 225 that calculates correction characteristics by correcting the frequency characteristics based on the level range with respect to the frequency amplitude characteristics of the auditory scale; and a filter generation unit 230 that generates, based on the correction characteristics, a spatial acoustic filter used in out-of-head localization processing or an inverse filter that cancels the characteristics from the playback device to the user's ears.
[Selected Figure] Figure 12
Description
本開示は、フィルタ生成装置に関する。 This disclosure relates to a filter generation device.
音像定位技術として、ヘッドホンを用いて受聴者の頭部の外側に音像を定位させる頭外
定位技術がある。頭外定位技術では、ヘッドホンから耳までの特性(ヘッドホン特性)を
キャンセルし、1つのスピーカ(モノラルスピーカ)から耳までの2本の特性(空間音響
伝達特性)を与えることにより、音像を頭外に定位させている。
One sound image localization technology is out-of-head localization, which uses headphones to localize a sound image outside the listener's head. Out-of-head localization technology localizes a sound image outside the head by canceling the characteristics from the headphones to the ears (headphone characteristics) and providing two characteristics from one speaker (monaural speaker) to the ears (spatial acoustic transfer characteristics).
ステレオスピーカの頭外定位再生においては、2チャンネル(以下、chと記載)のス
ピーカから発した測定信号(インパルス音等)を聴取者(リスナー)本人の耳に設置した
マイクロフォン(以下、マイクとする)で録音する。そして、測定信号を収音して得られ
た収音信号に基づいて、処理装置がフィルタを生成する。生成したフィルタを2chのオ
ーディオ信号に畳み込むことにより、頭外定位再生を実現することができる。
In out-of-head localization playback using stereo speakers, measurement signals (such as impulse sounds) emitted from two-channel (hereinafter referred to as ch) speakers are recorded by microphones (hereinafter referred to as mics) placed at the ears of the listener. A processing device then generates a filter based on the collected signal obtained by collecting the measurement signal. Out-of-head localization playback can be achieved by convolving the generated filter with the two-channel audio signal.
さらに、ヘッドホンから耳までの特性をキャンセルするフィルタ(逆フィルタともいう
)を生成するために、ヘッドホンから耳元乃至鼓膜までの特性(外耳道伝達関数ECTF
、外耳道伝達特性とも称する)を聴取者本人の耳に設置したマイクで測定する。
Furthermore, in order to generate a filter (also called an inverse filter) that cancels the characteristics from the headphones to the ear, the characteristics from the headphones to the eardrum (external ear canal transfer function ECTF) are calculated.
, also called ear canal transfer characteristics) is measured using a microphone placed in the listener's own ear.
特許文献1には、頭外定位処理を行う装置が開示されている。さらに、特許文献1では
、頭外定位処理が再生信号に対して、DRC(Dynamic Range Compr
ession)処理を行っている。DRC処理において、処理装置が周波数特性を平滑化
している。さらに、処理装置が、平滑化した特性に基づいて帯域分割を行っている。
Patent Document 1 discloses an apparatus for performing out-of-head localization processing. Furthermore, Patent Document 1 discloses that the out-of-head localization processing is performed by applying a dynamic range compensation (DRC) to a playback signal.
In the DRC process, the processing unit smooths the frequency characteristics. Furthermore, the processing unit performs band division based on the smoothed characteristics.
このような頭外定位受聴では、特定の再生機器に限定されずに、処理を行うことが望ま
れる。例えば、再生機器として、ユーザが所有するヘッドホンを用いた場合であっても、
適切に頭外定位処理を行うことが望まれる。あるいは、ユーザが普段使用しているスピー
カを再生機器として設置している環境での空間音響伝達特性を再現することが望まれる。
In such out-of-head localization listening, it is desirable to perform processing without being limited to a specific playback device. For example, even if the playback device is a user's own headphones,
It is desirable to perform appropriate out-of-head localization processing, or to reproduce the spatial acoustic transmission characteristics in an environment where the user's usual speakers are installed as playback equipment.
再生機器を変えてしまうと伝達特性が変化してしまうおそれがある。したがって、ユー
ザが利用している再生機器を用いて、ユーザの個人特性(空間音響伝達特性及び外耳道伝
達特性)を測定することが好ましい。個人特性を測定した場合でも、周波数特性において
急峻なピークやディップが発生するため、頭外定位処理された信号がクリップすることが
ある。
Changing the playback device may change the transfer characteristics. Therefore, it is preferable to measure the user's personal characteristics (spatial acoustic transfer characteristics and ear canal transfer characteristics) using the playback device that the user is currently using. Even when personal characteristics are measured, sharp peaks and dips may occur in the frequency characteristics, which may cause clipping of the out-of-head localization processed signal.
ピークやディップは、スピーカやヘッドホンなどの再生機器の特性、又は、測定環境と
なる部屋の音響特性特性によって変化する。また、ピークやディップは、ユーザ個人の頭
部や耳の形状によっても変化する。よって、ピークやディップのレベルや周波数は、種々
の原因によって変わる。再生機器や測定環境などによって、その特性を確認して、再生機
器や測定環境などに応じた調整を行う必要が生じてしまう。
Peaks and dips vary depending on the characteristics of playback devices such as speakers and headphones, or the acoustic characteristics of the room in which the measurement is performed. Peaks and dips also vary depending on the shape of the user's head and ears. Therefore, the levels and frequencies of peaks and dips vary due to various factors. Depending on the playback device and measurement environment, it becomes necessary to check the characteristics and make adjustments accordingly.
本開示は上記の点に鑑みなされたものであり、頭外定位処理に適したフィルタを生成す
ることができるフィルタ生成装置を提供することを目的とする。
The present disclosure has been made in consideration of the above points, and has an object to provide a filter generation device capable of generating a filter suitable for out-of-head localization processing.
本実施の形態にかかるフィルタ生成装置は、マイクで収音される収音信号に基づいて、周波数特性を取得し、周波数軸を人間の聴覚に近い聴覚尺度として低周波数帯域のデータを補間することで、前記聴覚尺度で等間隔な軸変換データを生成する周波数特性取得部と、再生機器の性能を判定する判定部と、前記判定部の判定結果に応じて、レベルレンジを設定するレベルレンジ設定部と、 前記聴覚尺度の周波数振幅特性に対して前記レベルレンジに基づいて前記周波数特性を補正することで、補正特性を算出する補正部と、前記補正特性に基づいて、頭外定位処理で用いられる空間音響フィルタ又は前記再生機器からユーザの耳までの特性をキャンセルする逆フィルタを生成するフィルタ生成部と、を備えている。 The filter generation device according to this embodiment includes a frequency characteristic acquisition unit that acquires frequency characteristics based on a signal picked up by a microphone and generates axis-transformed data at equal intervals on an auditory scale by interpolating low-frequency band data on the frequency axis, using an auditory scale approximating human hearing; a determination unit that determines the performance of the playback device; a level range setting unit that sets a level range in accordance with the determination result of the determination unit; a correction unit that calculates correction characteristics by correcting the frequency characteristics based on the level range relative to the frequency amplitude characteristics of the auditory scale; and a filter generation unit that generates, based on the correction characteristics, a spatial acoustic filter used in out-of-head localization processing or an inverse filter that cancels the characteristics from the playback device to the user's ears.
本実施の形態にかかるフィルタ生成装置は、マイクで収音される収音信号に基づいて、周波数特性を取得し、周波数軸を人間の聴覚に近い聴覚尺度として低周波数帯域のデータを補間することで、前記聴覚尺度で等間隔な軸変換データを生成する周波数特性取得部と、前記周波数特性における基準レベルを算出するレベル算出部と、前記聴覚尺度の周波数振幅特性に対して前記基準レベルを含む所定のレベルレンジに収まるように、前記周波数特性を補正することで補正特性を算出する補正部と、前記補正特性に基づいて、頭外定位処理で用いられる空間音響フィルタ又は逆フィルタを生成するフィルタ生成部と、を備えている。 The filter generation device according to this embodiment includes a frequency characteristic acquisition unit that acquires frequency characteristics based on a signal picked up by a microphone and generates axis-transformed data at equal intervals on an auditory scale by interpolating low-frequency band data on a frequency axis that is an auditory scale similar to human hearing; a level calculation unit that calculates a reference level for the frequency characteristics; a correction unit that calculates correction characteristics by correcting the frequency characteristics so that the frequency amplitude characteristics of the auditory scale fall within a predetermined level range that includes the reference level; and a filter generation unit that generates a spatial acoustic filter or an inverse filter used in out-of-head localization processing based on the correction characteristics.
本開示によれば、頭外定位処理に適したフィルタを生成することができるフィルタ生成
装置を提供することができる。
According to the present disclosure, it is possible to provide a filter generation device capable of generating a filter suitable for out-of-head localization processing.
本実施の形態にかかる音像定位処理の概要について説明する。本実施の形態にかかる頭
外定位処理は、空間音響伝達特性と外耳道伝達特性を用いて頭外定位処理を行うものであ
る。空間音響伝達特性は、スピーカなどの音源から外耳道までの伝達特性である。外耳道
伝達特性は、ヘッドホン又はイヤホンのスピーカユニットから鼓膜までの伝達特性である
。本実施の形態では、ヘッドホン又はイヤホンを装着していない状態での空間音響伝達特
性を測定し、かつ、ヘッドホン又はイヤホンを装着した状態での外耳道伝達特性を測定し
、それらの測定データを用いて頭外定位処理を実現している。本実施の形態は、空間音響
伝達特性、又は外耳道伝達特性を測定するためのマイクシステムに特徴を有している。
An overview of the sound image localization processing according to this embodiment will be described. The out-of-head localization processing according to this embodiment is performed using spatial acoustic transfer characteristics and ear canal transfer characteristics. The spatial acoustic transfer characteristics are the transfer characteristics from a sound source such as a speaker to the ear canal. The ear canal transfer characteristics are the transfer characteristics from a speaker unit of headphones or earphones to the eardrum. In this embodiment, the spatial acoustic transfer characteristics are measured when headphones or earphones are not worn, and the ear canal transfer characteristics are measured when headphones or earphones are worn, and the out-of-head localization processing is realized using these measurement data. This embodiment is characterized by a microphone system for measuring the spatial acoustic transfer characteristics or the ear canal transfer characteristics.
本実施の形態にかかる頭外定位処理は、パーソナルコンピュータ、スマートホン、タブ
レットPCなどのユーザ端末で実行される。ユーザ端末は、プロセッサ等の処理手段、メ
モリやハードディスクなどの記憶手段、液晶モニタ等の表示手段、タッチパネル、ボタン
、キーボード、マウスなどの入力手段を有する情報処理装置である。ユーザ端末は、デー
タを送受信する通信機能を有していてもよい。さらに、ユーザ端末には、ヘッドホン又は
イヤホンを有する出力手段(出力ユニット)が接続される。ユーザ端末と出力手段との接
続は、有線接続でも無線接続でもよい。
The out-of-head localization processing according to this embodiment is executed by a user terminal such as a personal computer, a smartphone, or a tablet PC. The user terminal is an information processing device having processing means such as a processor, storage means such as a memory or a hard disk, display means such as an LCD monitor, and input means such as a touch panel, buttons, a keyboard, or a mouse. The user terminal may have a communication function for transmitting and receiving data. Furthermore, output means (output unit) having headphones or earphones is connected to the user terminal. The connection between the user terminal and the output means may be wired or wireless.
実施の形態1.
(頭外定位処理装置)
本実施の形態にかかる音場再生装置の一例である、頭外定位処理装置100のブロック
図を図1に示す。頭外定位処理装置100は、ヘッドホン43を装着するユーザUに対し
て音場を再生する。そのため、頭外定位処理装置100は、LchとRchのステレオ入
力信号XL、XRについて、音像定位処理を行う。LchとRchのステレオ入力信号X
L、XRは、CD(Compact Disc)プレイヤーなどから出力されるアナログのオーディオ
再生信号、又は、mp3(MPEG Audio Layer-3)等のデジタルオーディオデータである。なお
、オーディオ再生信号、又はデジタルオーディオデータをまとめて再生信号と称する。す
なわち、LchとRchのステレオ入力信号XL、XRが再生信号となっている。
Embodiment 1.
(Extracranial localization processing device)
A block diagram of an out-of-head localization processing device 100, which is an example of a sound field reproduction device according to this embodiment, is shown in Fig. 1. The out-of-head localization processing device 100 reproduces a sound field for a user U wearing headphones 43. To this end, the out-of-head localization processing device 100 performs sound image localization processing on the left and right channel stereo input signals XL and XR.
L and XR are analog audio playback signals output from a CD (Compact Disc) player or the like, or digital audio data such as MP3 (MPEG Audio Layer-3). Audio playback signals and digital audio data are collectively referred to as playback signals. In other words, the left and right channel stereo input signals XL and XR are playback signals.
なお、頭外定位処理装置100は、物理的に単一な装置に限られるものではなく、一部
の処理が異なる装置で行われてもよい。例えば、一部の処理がスマートホンなどにより行
われ、残りの処理がヘッドホン43に内蔵されたDSP(Digital Signal Processor)など
により行われてもよい。
The out-of-head localization processing device 100 is not limited to being a single physical device, and some of the processing may be performed by different devices. For example, some of the processing may be performed by a smartphone or the like, and the remaining processing may be performed by a DSP (Digital Signal Processor) built into the headphones 43.
頭外定位処理装置100は、頭外定位処理部10、逆フィルタLinvを格納するフィ
ルタ部41、逆フィルタRinvを格納するフィルタ部42、及びヘッドホン43を備え
ている。頭外定位処理部10、フィルタ部41、及びフィルタ部42は、具体的にはプロ
セッサ等により実現可能である。
The out-of-head localization processing device 100 includes an out-of-head localization processing unit 10, a filter unit 41 that stores an inverse filter Linv, a filter unit 42 that stores an inverse filter Rinv, and headphones 43. Specifically, the out-of-head localization processing unit 10, the filter unit 41, and the filter unit 42 can be realized by a processor or the like.
頭外定位処理部10は、空間音響伝達特性Hls、Hlo、Hro、Hrsを格納する
畳み込み演算部11~12、21~22、及び加算器24、25を備えている。畳み込み
演算部11~12、21~22は、空間音響伝達特性を用いた畳み込み処理を行う。頭外
定位処理部10には、CDプレイヤーなどからのステレオ入力信号XL、XRが入力され
る。頭外定位処理部10には、空間音響伝達特性が設定されている。頭外定位処理部10
は、各chのステレオ入力信号XL、XRに対し、空間音響伝達特性のフィルタ(以下、
空間音響フィルタとも称する)を畳み込む。空間音響伝達特性は被測定者の頭部や耳介で
測定した頭部伝達関数HRTFでもよいし、ダミーヘッドまたは第三者の頭部伝達関数で
あってもよい。
The out-of-head localization processing unit 10 includes convolution calculation units 11-12, 21-22 that store spatial acoustic transfer characteristics Hls, Hlo, Hro, and Hrs, and adders 24 and 25. The convolution calculation units 11-12, 21-22 perform convolution processing using the spatial acoustic transfer characteristics. Stereo input signals XL and XR from a CD player or the like are input to the out-of-head localization processing unit 10. The spatial acoustic transfer characteristics are set in the out-of-head localization processing unit 10.
is a filter of spatial acoustic transfer characteristics (hereinafter,
The spatial acoustic transfer characteristic may be a head-related transfer function (HRTF) measured on the subject's head or pinna, or may be a head-related transfer function of a dummy head or a third party.
4つの空間音響伝達特性Hls、Hlo、Hro、Hrsを1セットとしたものを空間
音響伝達関数とする。畳み込み演算部11、12、21、22で畳み込みに用いられるデ
ータが空間音響フィルタとなる。空間音響伝達特性Hls、Hlo、Hro、Hrsを所
定のフィルタ長で切り出すことで、空間音響フィルタが生成される。
A set of four spatial acoustic transfer characteristics Hls, Hlo, Hro, and Hrs is defined as a spatial acoustic transfer function. Data used for convolution in the convolution calculation units 11, 12, 21, and 22 becomes a spatial acoustic filter. A spatial acoustic filter is generated by cutting out the spatial acoustic transfer characteristics Hls, Hlo, Hro, and Hrs with a predetermined filter length.
空間音響伝達特性Hls、Hlo、Hro、Hrsのそれぞれは、インパルス応答測定
などにより、事前に取得されている。例えば、ユーザUが左右の耳にマイクをそれぞれ装
着する。ユーザUの前方に配置された左右のスピーカが、インパルス応答測定を行うため
の、インパルス音をそれぞれ出力する。そして、スピーカから出力されたインパルス音等
の測定信号をマイクで収音する。マイクでの収音信号に基づいて、空間音響伝達特性Hl
s、Hlo、Hro、Hrsが取得される。左スピーカと左マイクとの間の空間音響伝達
特性Hls、左スピーカと右マイクとの間の空間音響伝達特性Hlo、右スピーカと左マ
イクとの間の空間音響伝達特性Hro、右スピーカと右マイクとの間の空間音響伝達特性
Hrsが測定される。
The spatial acoustic transfer characteristics Hls, Hlo, Hro, and Hrs are each acquired in advance by impulse response measurement or the like. For example, a user U wears a microphone on each of his left and right ears. Left and right speakers placed in front of the user U output impulse sounds for impulse response measurement. Then, the measurement signals such as the impulse sounds output from the speakers are picked up by the microphone. The spatial acoustic transfer characteristics Hls, Hlo, Hro, and Hrs are calculated based on the signals picked up by the microphone.
The spatial acoustic transfer characteristic Hls between the left speaker and the left microphone, the spatial acoustic transfer characteristic Hlo between the left speaker and the right microphone, the spatial acoustic transfer characteristic Hro between the right speaker and the left microphone, and the spatial acoustic transfer characteristic Hrs between the right speaker and the right microphone are measured.
そして、畳み込み演算部11は、Lchのステレオ入力信号XLに対して空間音響伝達
特性Hlsに応じた空間音響フィルタを畳み込む。畳み込み演算部11は、畳み込み演算
データを加算器24に出力する。畳み込み演算部21は、Rchのステレオ入力信号XR
に対して空間音響伝達特性Hroに応じた空間音響フィルタを畳み込む。畳み込み演算部
21は、畳み込み演算データを加算器24に出力する。加算器24は2つの畳み込み演算
データを加算して、フィルタ部41に出力する。
The convolution calculation unit 11 then convolves the left channel stereo input signal XL with a spatial acoustic filter according to the spatial acoustic transfer characteristic Hls. The convolution calculation unit 11 outputs the convolution calculation data to the adder 24. The convolution calculation unit 21 convolves the right channel stereo input signal XR
The convolution unit 21 convolves a spatial acoustic filter corresponding to the spatial acoustic transfer characteristic Hro with the signal. The convolution unit 21 outputs the convolution operation data to the adder 24. The adder 24 adds the two pieces of convolution operation data together and outputs the result to the filter unit 41.
畳み込み演算部12は、Lchのステレオ入力信号XLに対して空間音響伝達特性Hl
oに応じた空間音響フィルタを畳み込む。畳み込み演算部12は、畳み込み演算データを
、加算器25に出力する。畳み込み演算部22は、Rchのステレオ入力信号XRに対し
て空間音響伝達特性Hrsに応じた空間音響フィルタを畳み込む。畳み込み演算部22は
、畳み込み演算データを、加算器25に出力する。加算器25は2つの畳み込み演算デー
タを加算して、フィルタ部42に出力する。
The convolution calculation unit 12 calculates the spatial acoustic transfer characteristic H1 for the left channel stereo input signal XL.
The convolution operation unit 12 convolves the Rch stereo input signal XR with a spatial acoustic filter corresponding to the spatial acoustic transfer characteristic Hrs. The convolution operation unit 22 outputs the convolution operation data to the adder 25. The adder 25 adds the two pieces of convolution operation data and outputs the result to the filter unit 42.
フィルタ部41、42にはヘッドホン特性(ヘッドホンの再生ユニットとマイク間の特
性)をキャンセルする逆フィルタLinv、Rinvが設定されている。そして、頭外定
位処理部10での処理が施された再生信号(畳み込み演算信号)に逆フィルタLinv、
Rinvを畳み込む。フィルタ部41で加算器24からのLch信号に対して、Lch側
のヘッドホン特性の逆フィルタLinvを畳み込む。同様に、フィルタ部42は加算器2
5からのRch信号に対して、Rch側のヘッドホン特性の逆フィルタRinvを畳み込
む。逆フィルタLinv、Rinvは、ヘッドホン43を装着した場合に、ヘッドホンユ
ニットからマイクまでの特性をキャンセルする。マイクは、外耳道入口から鼓膜までの間
ならばどこに配置してもよい。
The filter units 41 and 42 are provided with inverse filters Linv and Rinv that cancel headphone characteristics (characteristics between the headphone playback unit and the microphone). The playback signal (convolution signal) processed by the out-of-head localization processing unit 10 is then filtered by the inverse filters Linv and Rinv.
The filter unit 41 convolves the Lch signal from the adder 24 with the inverse filter Linv of the Lch headphone characteristics.
The Rch signal from the headphone amplifier 5 is convolved with an inverse filter Rinv of the Rch headphone characteristics. When the headphones 43 are worn, the inverse filters Linv and Rinv cancel the characteristics from the headphone unit to the microphone. The microphone may be placed anywhere between the entrance of the ear canal and the eardrum.
フィルタ部41は、処理されたLch信号YLをヘッドホン43の左ユニット43Lに
出力する。フィルタ部42は、処理されたRch信号YRをヘッドホン43の右ユニット
43Rに出力する。ユーザUは、ヘッドホン43を装着している。ヘッドホン43は、L
ch信号YLとRch信号YR(以下、Lch信号YLとRch信号YRをまとめてステ
レオ信号とも称する)をユーザUに向けて出力する。これにより、ユーザUの頭外に定位
された音像を再生することができる。
The filter unit 41 outputs the processed Lch signal YL to the left unit 43L of the headphones 43. The filter unit 42 outputs the processed Rch signal YR to the right unit 43R of the headphones 43. A user U wears the headphones 43. The headphones 43 are
The Lch signal YL and the Rch signal YR (hereinafter, the Lch signal YL and the Rch signal YR are also collectively referred to as stereo signals) are output toward the user U. This makes it possible to reproduce a sound image localized outside the head of the user U.
このように、頭外定位処理装置100は、空間音響伝達特性Hls、Hlo、Hro、
Hrsに応じた空間音響フィルタと、ヘッドホン特性の逆フィルタLinv,Rinvを
用いて、頭外定位処理を行っている。以下の説明において、空間音響伝達特性Hls、H
lo、Hro、Hrsに応じた空間音響フィルタと、ヘッドホン特性の逆フィルタLin
v,Rinvとをまとめて頭外定位処理フィルタとする。2chのステレオ再生信号の場
合、頭外定位フィルタは、4つの空間音響フィルタと、2つの逆フィルタとから構成され
ている。そして、頭外定位処理装置100は、ステレオ再生信号に対して合計6個の頭外
定位フィルタを用いて畳み込み演算処理を行うことで、頭外定位処理を実行する。頭外定
位フィルタは、ユーザU個人の測定に基づくものであることが好ましい。例えば,ユーザ
Uの耳に装着されたマイクが収音した収音信号に基づいて、頭外定位フィルタが設定され
ている。
In this way, the out-of-head localization processing device 100 calculates the spatial acoustic transfer characteristics Hls, Hlo, Hro,
The out-of-head localization process is performed using a spatial acoustic filter according to Hrs and inverse filters Linv and Rinv of the headphone characteristics.
Spatial acoustic filters according to lo, Hro, Hrs and inverse filters Lin for headphone characteristics
v and Rinv are collectively referred to as the out-of-head localization processing filter. In the case of a 2-channel stereo playback signal, the out-of-head localization filter is composed of four spatial acoustic filters and two inverse filters. The out-of-head localization processing device 100 then performs out-of-head localization processing by performing convolution operation processing on the stereo playback signal using a total of six out-of-head localization filters. It is preferable that the out-of-head localization filter is based on individual measurements of the user U. For example, the out-of-head localization filter is set based on a sound signal picked up by a microphone attached to the user U's ear.
このように空間音響フィルタと、ヘッドホン特性の逆フィルタLinv,Rinvはオ
ーディオ信号用のフィルタである。これらのフィルタが再生信号(ステレオ入力信号XL
、XR)に畳み込まれることで、頭外定位処理装置100が、頭外定位処理を実行する。
本実施の形態では、空間音響フィルタを生成する処理が技術的特徴の一つとなっている。
具体的には、空間音響フィルタを生成する処理において、周波数特性のレベルレンジ圧縮
が施されている。
In this way, the spatial acoustic filter and the headphone characteristic inverse filters Linv and Rinv are filters for audio signals. These filters are used to filter the playback signal (stereo input signal XL
, XR), the out-of-head localization processing device 100 executes out-of-head localization processing.
In this embodiment, one of the technical features is the process of generating a spatial acoustic filter.
Specifically, in the process of generating the spatial acoustic filter, the level range of the frequency characteristics is compressed.
(空間音響伝達特性の測定装置)
図2を用いて、空間音響伝達特性Hls、Hlo、Hro、Hrsを測定する測定装置
200について説明する。図2は、被測定者1に対して測定を行うための測定構成を模式
的に示す図である。なお、ここでは、被測定者1は、図1のユーザUと同一人物となって
いるが、異なる人物であってもよい。
(Spatial Acoustic Transfer Characteristics Measurement Device)
A measurement device 200 for measuring spatial acoustic transfer characteristics Hls, Hlo, Hro, and Hrs will be described with reference to Fig. 2. Fig. 2 is a diagram schematically illustrating a measurement configuration for measuring a subject 1. Note that, in this example, the subject 1 is the same person as user U in Fig. 1, but may be a different person.
図2に示すように、測定装置200は、ステレオスピーカ5とマイクユニット2を有し
ている。ステレオスピーカ5が測定環境に設置されている。測定環境は、ユーザUの自宅
の部屋やオーディオシステムの販売店舗やショールーム等でもよい。測定環境は、スピー
カや音響の整ったリスニングルームであることが好ましい。
As shown in Fig. 2, the measurement device 200 has a stereo speaker 5 and a microphone unit 2. The stereo speaker 5 is installed in a measurement environment. The measurement environment may be a room in the user U's home, an audio system sales store or showroom, or the like. The measurement environment is preferably a listening room equipped with speakers and acoustics.
本実施の形態では、測定装置200の処理装置201が、空間音響フィルタを適切に生
成するための演算処理を行っている。処理装置201は、例えば、CDプレイヤー等の音
楽プレイヤーなどを有している。処理装置201は、パーソナルコンピュータ(PC)、
タブレット端末、スマートホン等であってもよい。また、処理装置201は、サーバ装置
自体であってもよい。
In this embodiment, the processing device 201 of the measuring device 200 performs arithmetic processing for appropriately generating a spatial acoustic filter. The processing device 201 has, for example, a music player such as a CD player. The processing device 201 can be implemented by a personal computer (PC),
The processing device 201 may be a tablet terminal, a smartphone, etc. The processing device 201 may also be a server device itself.
ステレオスピーカ5は、左スピーカ5Lと右スピーカ5Rを備えている。例えば、被測
定者1の前方に左スピーカ5Lと右スピーカ5Rが設置されている。左スピーカ5Lと右
スピーカ5Rは、インパルス応答測定を行うためのインパルス音等を出力する。以下、本
実施の形態では、音源となるスピーカの数を2(ステレオスピーカ)として説明するが、
測定に用いる音源の数は2に限らず、1以上であればよい。すなわち、1chのモノラル、
または、5.1ch、7.1ch等の、いわゆるマルチチャンネル環境においても同様に、本実施の
形態を適用することができる。
The stereo speakers 5 include a left speaker 5L and a right speaker 5R. For example, the left speaker 5L and the right speaker 5R are placed in front of the subject 1. The left speaker 5L and the right speaker 5R output impulse sounds and the like for measuring impulse responses. In the following description of this embodiment, the number of speakers serving as sound sources is two (stereo speakers), but
The number of sound sources used for measurement is not limited to two, but may be one or more.
Alternatively, this embodiment can be similarly applied to a so-called multi-channel environment such as 5.1ch or 7.1ch.
マイクユニット2は、左のマイク2Lと右のマイク2Rを有するステレオマイクである
。左のマイク2Lは、被測定者1の左耳9Lに設置され、右のマイク2Rは、被測定者1
の右耳9Rに設置されている。具体的には、左耳9L、右耳9Rの外耳道入口から鼓膜ま
での位置にマイク2L、2Rを設置することが好ましい。マイク2L、2Rは、ステレオ
スピーカ5から出力された測定信号を収音して、収音信号を取得する。マイク2L、2R
は収音信号を処理装置201に出力する。被測定者1は、人でもよく、ダミーヘッドでも
よい。すなわち、本実施形態において、被測定者1は人だけでなく、ダミーヘッドを含む
概念である。
The microphone unit 2 is a stereo microphone having a left microphone 2L and a right microphone 2R. The left microphone 2L is placed at the left ear 9L of the subject 1, and the right microphone 2R is placed at the left ear 9L of the subject 1.
Specifically, it is preferable to install the microphones 2L and 2R at positions from the entrance of the ear canal to the eardrum of the left ear 9L and the right ear 9R. The microphones 2L and 2R pick up the measurement signals output from the stereo speakers 5 and obtain the picked-up sound signals.
outputs the collected sound signal to the processing device 201. The subject 1 may be a person or a dummy head. That is, in this embodiment, the subject 1 is a concept that includes not only a person but also a dummy head.
上記のように、左スピーカ5L、右スピーカ5Rで出力されたインパルス音をマイク2
L、2Rで測定することでインパルス応答が測定される。処理装置201は、インパルス
応答測定により取得した収音信号をメモリなどに記憶する。これにより、左スピーカ5L
と左マイク2Lとの間の空間音響伝達特性Hls、左スピーカ5Lと右マイク2Rとの間
の空間音響伝達特性Hlo、右スピーカ5Rと左マイク2Lとの間の空間音響伝達特性H
ro、右スピーカ5Rと右マイク2Rとの間の空間音響伝達特性Hrsが測定される。す
なわち、左スピーカ5Lから出力された測定信号を左マイク2Lが収音することで、空間
音響伝達特性Hlsが取得される。左スピーカ5Lから出力された測定信号を右マイク2
Rが収音することで、空間音響伝達特性Hloが取得される。右スピーカ5Rから出力さ
れた測定信号を左マイク2Lが収音することで、空間音響伝達特性Hroが取得される。
右スピーカ5Rから出力された測定信号を右マイク2Rが収音することで、空間音響伝達
特性Hrsが取得される。
As described above, the impulse sounds output from the left speaker 5L and the right speaker 5R are input to the microphone 2.
The impulse response is measured by measuring the left speaker 5L and the right speaker 2R. The processing device 201 stores the picked-up signal obtained by the impulse response measurement in a memory or the like.
and the left microphone 2L, the spatial acoustic transfer characteristic Hls between the left speaker 5L and the right microphone 2R, the spatial acoustic transfer characteristic Hlo between the right speaker 5R and the left microphone 2L,
ro, and the spatial acoustic transfer characteristic Hrs between the right speaker 5R and the right microphone 2R is measured. That is, the left microphone 2L picks up the measurement signal output from the left speaker 5L, and the spatial acoustic transfer characteristic Hls is acquired.
The spatial acoustic transfer characteristic Hlo is obtained by the left microphone 2L collecting the measurement signal output from the right speaker 5R. The spatial acoustic transfer characteristic Hro is obtained by the left microphone 2L collecting the measurement signal output from the right speaker 5R.
The measurement signal output from the right speaker 5R is picked up by the right microphone 2R, and the spatial acoustic transfer characteristic Hrs is acquired.
また、測定装置200は、収音信号に基づいて、左右のスピーカ5L、5Rから左右の
マイク2L、2Rまでの空間音響伝達特性Hls、Hlo、Hro、Hrsに応じた空間
音響フィルタを生成してもよい。例えば、処理装置201は、空間音響伝達特性Hls、
Hlo、Hro、Hrsを所定のフィルタ長で切り出す。処理装置201は、測定した空
間音響伝達特性Hls、Hlo、Hro、Hrsを補正してもよい。
Furthermore, the measuring device 200 may generate spatial acoustic filters according to spatial acoustic transfer characteristics Hls, Hlo, Hro, and Hrs from the left and right speakers 5L and 5R to the left and right microphones 2L and 2R based on the collected sound signals.
The processing device 201 may extract Hlo, Hro, and Hrs using a predetermined filter length. The processing device 201 may correct the measured spatial acoustic transfer characteristics Hls, Hlo, Hro, and Hrs.
このようにすることで、処理装置201は、頭外定位処理装置100の畳み込み演算に
用いられる空間音響フィルタを生成する。図1で示したように、頭外定位処理装置100
が、左右のスピーカ5L、5Rと左右のマイク2L、2Rとの間の空間音響伝達特性Hl
s、Hlo、Hro、Hrsに応じた空間音響フィルタを用いて頭外定位処理を行う。す
なわち、空間音響フィルタをオーディオ再生信号に畳み込むことにより、頭外定位処理を
行う。
In this way, the processing device 201 generates a spatial acoustic filter used in the convolution operation of the out-of-head localization processing device 100. As shown in FIG.
is the spatial acoustic transfer characteristic Hl between the left and right speakers 5L, 5R and the left and right microphones 2L, 2R.
The out-of-head localization processing is performed using a spatial acoustic filter according to Hs, Hlo, Hro, and Hrs. That is, the out-of-head localization processing is performed by convolving the spatial acoustic filter with the audio playback signal.
処理装置201は、空間音響伝達特性Hls、Hlo、Hro、Hrsのそれぞれに対
応する収音信号に対して同様の処理を実施している。すなわち、空間音響伝達特性Hls
、Hlo、Hro、Hrsに対応する4つの収音信号に対して、それぞれ同様の処理が実
施される。これにより、空間音響伝達特性Hls、Hlo、Hro、Hrsに対応する空
間音響フィルタをそれぞれ生成することができる。
The processing device 201 performs the same processing on the picked-up sound signals corresponding to the spatial acoustic transfer characteristics Hls, Hlo, Hro, and Hrs.
, Hlo, Hro, and Hrs. This allows spatial acoustic filters corresponding to the spatial acoustic transfer characteristics Hls, Hlo, Hro, and Hrs to be generated.
(外耳道伝達特性の測定装置)
外耳道伝達特性の測定装置300について、図3を用いて説明する。図3は、ユーザU
に対して伝達特性を測定するための構成を示している。測定装置300は、逆フィルタを
生成するために、外耳道伝達特性を測定する。測定装置300は、マイクユニット2と、
ヘッドホン43と、処理装置301と、を備えている。なお、ここでは、被測定者1は、
図1のユーザUと同一人物となっているが、異なる人物であってもよい。
(Ear canal transfer characteristic measuring device)
The ear canal transfer characteristic measuring device 300 will be described with reference to FIG.
The measurement device 300 measures the ear canal transfer characteristics in order to generate an inverse filter. The measurement device 300 includes a microphone unit 2 and
The device is equipped with headphones 43 and a processing device 301. Here, the subject 1
Although the user is the same person as user U in FIG. 1, the user may be a different person.
本実施の形態では、測定装置300の処理装置301が、測定結果に応じて、フィルタ
を適切に生成するための演算処理を行っている。処理装置301は、パーソナルコンピュ
ータ(PC)、タブレット端末、スマートホン等であり、メモリ、及びプロセッサを備え
ている。メモリは、処理プログラムや各種パラメータや測定データなどを記憶している。
プロセッサは、メモリに格納された処理プログラムを実行する。プロセッサが処理プログ
ラムを実行することで、各処理が実行される。プロセッサは、例えば、CPU(Central
Processing Unit)、FPGA(Field-Programmable Gate Array)、DSP(Digital Si
gnal Processor),ASIC(Application Specific Integrated Circuit)、又は、GPU
(Graphics Processing Unit)等であってもよい。
In this embodiment, the processing device 301 of the measurement device 300 performs arithmetic processing to appropriately generate a filter according to the measurement results. The processing device 301 is a personal computer (PC), tablet terminal, smartphone, etc., and includes a memory and a processor. The memory stores a processing program, various parameters, measurement data, etc.
The processor executes a processing program stored in the memory. The processor executes the processing program, thereby performing each process. The processor may be, for example, a CPU (Central Processing Unit).
Processing Unit), FPGA (Field-Programmable Gate Array), DSP (Digital Si
gnal Processor), ASIC (Application Specific Integrated Circuit), or GPU
(Graphics Processing Unit), etc.
また、図3の処理装置301は、図2の処理装置301と物理的に同じ処理装置であっ
てもよく、異なる処理装置であってもよい。つまり、図2と図3の測定は、同じ処理装置
を用いて行われる構成に限られるものではない。例えば、図2に示す測定は、リスリング
ルームなどの設置された測定専用の処理装置201で行われ、図3に示す測定はスマート
ホンなどの汎用の処理装置301で行われてもよい。
Furthermore, the processing device 301 in Fig. 3 may be physically the same processing device as the processing device 301 in Fig. 2, or may be a different processing device. In other words, the measurements in Fig. 2 and Fig. 3 are not limited to being performed using the same processing device. For example, the measurement shown in Fig. 2 may be performed using a processing device 201 dedicated to measurement installed in a listening room or the like, and the measurement shown in Fig. 3 may be performed using a general-purpose processing device 301 such as a smartphone.
処理装置301には、マイクユニット2と、ヘッドホン43と、が接続されている。な
お、マイクユニット2は、ヘッドホン43に内蔵されていてもよい。マイクユニット2は
、左マイク2Lと、右マイク2Rとを備えている。左マイク2Lは、ユーザUの左耳9L
に装着される。右マイク2Rは、ユーザUの右耳9Rに装着される。処理装置301は、
頭外定位処理装置100と同じ処理装置であってもよく、異なる処理装置であってよい。
また、ヘッドホン43の代わりにイヤホンを用いることも可能である。
The processing device 301 is connected to a microphone unit 2 and headphones 43. The microphone unit 2 may be built into the headphones 43. The microphone unit 2 includes a left microphone 2L and a right microphone 2R. The left microphone 2L is connected to the left ear 9L of the user U.
The right microphone 2R is attached to the right ear 9R of the user U. The processing device 301
The processing device may be the same as the extracranial localization processing device 100 or may be a different processing device.
It is also possible to use earphones instead of the headphones 43 .
ヘッドホン43は、ヘッドホンバンド43Bと、左ユニット43Lと、右ユニット43
Rとを、有している。ヘッドホンバンド43Bは、左ユニット43Lと右ユニット43R
とを連結する。左ユニット43LはユーザUの左耳9Lに向かって音を出力する。右ユニ
ット43RはユーザUの右耳9Rに向かって音を出力する。ヘッドホン43は密閉型、開
放型、半開放型、または半密閉型等である、ヘッドホンの種類を問わない。マイクユニッ
ト2がユーザUに装着された状態で、ユーザUがヘッドホン43を装着する。すなわち、
左マイク2L、右マイク2Rが装着された左耳9L、右耳9Rにヘッドホン43の左ユニ
ット43L、右ユニット43Rがそれぞれ装着される。ヘッドホンバンド43Bは、左ユ
ニット43Lと右ユニット43Rとをそれぞれ左耳9L、右耳9Rに押し付ける付勢力を
発生する。
The headphones 43 are composed of a headphone band 43B, a left unit 43L, and a right unit 43
The headphone band 43B has a left unit 43L and a right unit 43R.
The left unit 43L outputs sound to the left ear 9L of the user U. The right unit 43R outputs sound to the right ear 9R of the user U. The headphones 43 may be of any type, including closed, open, semi-open, or semi-closed type. With the microphone unit 2 attached to the user U, the user U puts on the headphones 43. That is,
The left unit 43L and right unit 43R of the headphones 43 are attached to the left ear 9L and right ear 9R, respectively, on which the left microphone 2L and right microphone 2R are attached. The headphone band 43B generates a biasing force that presses the left unit 43L and right unit 43R against the left ear 9L and right ear 9R, respectively.
左マイク2Lは、ヘッドホン43の左ユニット43Lから出力された音を収音する。右
マイク2Rは、ヘッドホン43の右ユニット43Rから出力された音を収音する。左マイ
ク2L、及び右マイク2Rのマイク部は、外耳孔近傍の収音位置に配置される。左マイク
2L、及び右マイク2Rは、ヘッドホン43に干渉しないように構成されている。すなわ
ち、左マイク2L、及び右マイク2Rは左耳9L、右耳9Rの適切な位置に配置された状
態で、ユーザUがヘッドホン43を装着することができる。
The left microphone 2L picks up sound output from the left unit 43L of the headphones 43. The right microphone 2R picks up sound output from the right unit 43R of the headphones 43. The microphone portions of the left microphone 2L and the right microphone 2R are placed in sound collection positions near the external ear canals. The left microphone 2L and the right microphone 2R are configured so as not to interfere with the headphones 43. In other words, the user U can wear the headphones 43 with the left microphone 2L and the right microphone 2R placed in appropriate positions on the left ear 9L and right ear 9R.
処理装置301は、ヘッドホン43に対して測定信号を出力する。これにより、ヘッド
ホン43はインパルス音などを発生する。具体的には、左ユニット43Lから出力された
インパルス音を左マイク2Lで測定する。右ユニット43Rから出力されたインパルス音
を右マイク2Rで測定する。測定信号の出力時に、マイク2L、2Rが収音信号を取得す
ることで、インパルス応答測定が実施される。
The processing device 301 outputs a measurement signal to the headphones 43. This causes the headphones 43 to generate impulse sounds and the like. Specifically, the impulse sound output from the left unit 43L is measured by the left microphone 2L. The impulse sound output from the right unit 43R is measured by the right microphone 2R. When the measurement signal is output, the microphones 2L and 2R acquire the picked-up sound signals, thereby performing impulse response measurement.
処理装置301は、マイク2L、2Rからの収音信号に対して、同様の処理を行うこと
で、逆フィルタLinv、Rinvを生成する。
The processing device 301 performs similar processing on the sound signals picked up from the microphones 2L and 2R to generate inverse filters Linv and Rinv.
(レベルレンジ圧縮)
測定装置200と測定装置300の少なくとも一方において、収音信号の周波数特性が
所定のレベルレンジに収まるようにレンジを圧縮する処理が行われる。以下の説明では、
測定装置200において、空間音響伝達特性Hls、Hloに対応する収音信号の周波数
特性のレベルレンジを圧縮する処理について説明を行う。つまり、測定装置200におい
て、空間音響伝達特性Hro、Hrsに対応する収音信号の周波数特性のレベルレンジを
圧縮する処理については、以下に説明する処理と同様であるため説明を適宜、省略する。
同様に、測定装置300において、左右の外耳道伝達特性に対する収音信号の周波数特性
のレベルレンジを圧縮する処理についても、以下に説明する処理と同様であるため、適宜
説明を省略する。
(Level range compression)
At least one of the measurement devices 200 and 300 performs a range compression process so that the frequency characteristics of the picked-up signal fall within a predetermined level range.
The following describes the process of compressing the level range of the frequency characteristics of the picked-up signal corresponding to the spatial acoustic transfer characteristics Hls and Hlo in the measuring device 200. That is, the process of compressing the level range of the frequency characteristics of the picked-up signal corresponding to the spatial acoustic transfer characteristics Hro and Hrs in the measuring device 200 is the same as the process described below, and therefore the description will be omitted as appropriate.
Similarly, the process of compressing the level range of the frequency characteristics of the picked-up signal for the left and right ear canal transfer characteristics in the measuring device 300 is similar to the process described below, and therefore will not be described again as appropriate.
以下、図4は、測定装置200の処理装置201の構成を示すブロック図である。処理
装置201は、測定信号生成部211と、収音信号取得部212と、セグメンタルパワー
取得部215と、周波数特性取得部221と、レベル算出部223と、レベルレンジ設定
部224と、補正部225と、調整部231と、逆変換部232と、を備えている。逆変
換部232と調整部231がフィルタ生成部230として機能する。
4 is a block diagram showing the configuration of the processing device 201 of the measuring device 200. The processing device 201 includes a measurement signal generating unit 211, a picked-up signal acquiring unit 212, a segmental power acquiring unit 215, a frequency characteristic acquiring unit 221, a level calculating unit 223, a level range setting unit 224, a correcting unit 225, an adjusting unit 231, and an inverse transforming unit 232. The inverse transforming unit 232 and the adjusting unit 231 function as a filter generating unit 230.
測定信号生成部211は、D/A変換器やアンプなどを備えており、空間音響伝達特性
や外耳道伝達特性を測定するための測定信号を生成する。測定信号は、例えば、インパル
ス信号やTSP(Time Stretched Pulse)信号等である。ここでは
、測定信号としてインパルス音を用いて、測定装置200がインパルス応答測定を実施し
ている。測定信号生成部211は、測定信号をステレオスピーカ5にそれぞれ出力する。
ここでは、空間音響伝達特性Hls、Hloに対応する収音信号を取得するため、左スピ
ーカ5Lから測定信号が出力される例について説明する。
The measurement signal generator 211 includes a D/A converter, an amplifier, and the like, and generates a measurement signal for measuring the spatial acoustic transfer characteristics and the ear canal transfer characteristics. The measurement signal is, for example, an impulse signal or a TSP (Time Stretched Pulse) signal. Here, the measuring device 200 performs impulse response measurement using an impulse sound as the measurement signal. The measurement signal generator 211 outputs the measurement signal to each of the stereo speakers 5.
Here, an example will be described in which a measurement signal is output from the left speaker 5L to obtain a picked-up signal corresponding to the spatial acoustic transfer characteristics Hls and Hlo.
マイクユニット2の左マイク2L、右マイク2Rがそれぞれ測定信号を収音し、収音信
号を処理装置201に出力する。収音信号取得部212は、左マイク2L、右マイク2R
で収音された収音信号を取得する。なお、収音信号取得部212は、マイク2L、2Rか
らの収音信号をA/D変換するA/D変換器を備えていてもよい。収音信号取得部212
は、収音信号を所定の時間で切り出す。つまり、収音信号取得部212は予め設定された
データ数(時間幅)の収音信号を抽出する。収音信号取得部212は、複数回の測定によ
り得られた信号を同期加算してもよい。左マイク2Lを用いて取得された収音信号をhl
sとし、右マイク2Rを用いて取得された収音信号を収音信号hloとする。収音信号h
ls、hloはそれぞれサンプリング周波数48kHzでサンプリングされた信号である
。また切り出し後の収音信号hls、hloはそれぞれフィルタ長(サンプル数)409
6のフィルタとなっている。もちろん、サンプリング周波数やフィルタ長は上記の値に限
られるものではない。
The left microphone 2L and the right microphone 2R of the microphone unit 2 each pick up a measurement signal and output the picked-up signal to the processing device 201. The picked-up signal acquisition unit 212
The collected signal acquisition unit 212 may include an A/D converter that performs A/D conversion on the collected signals from the microphones 2L and 2R.
The sound pickup signal is cut out at a predetermined time interval. In other words, the sound pickup signal acquisition unit 212 extracts a sound pickup signal of a preset number of data (time width). The sound pickup signal acquisition unit 212 may synchronously add signals obtained by multiple measurements. The sound pickup signal acquired using the left microphone 2L is
The sound signal obtained by using the right microphone 2R is represented by hlo.
The extracted signals hls and hlo are signals sampled at a sampling frequency of 48 kHz.
Of course, the sampling frequency and the filter length are not limited to the above values.
セグメンタルパワー取得部215は、収音信号hlsと収音信号hloのセグメンタル
パワーを取得する。例えば、収音信号hlsと収音信号hloのセグメンタルパワーをh
lsP、hloPとする。セグメンタルパワーhlsPは収音信号hlsに含まれる振幅
値の二乗和となる。セグメンタルパワーhloPは収音信号hloに含まれる振幅値の二
乗和となる。時間領域において、収音信号hlsと収音信号hloがデータ数4096と
すると、4096個の振幅値の二乗和がセグメンタルパワーhlsP、hloPとなる。
The segmental power acquisition unit 215 acquires the segmental power of the picked-up sound signal h ls and the picked-up sound signal h lo. For example, the segmental power of the picked-up sound signal h ls and the picked-up sound signal h lo is
Let hlsP and hloP be the segmental powers. The segmental power hlsP is the sum of squares of the amplitude values contained in the collected signal hls. The segmental power hloP is the sum of squares of the amplitude values contained in the collected signal hlo. In the time domain, if the collected signal hls and the collected signal hlo have 4096 pieces of data, the sum of squares of the 4096 amplitude values will be the segmental powers hlsP and hloP.
周波数特性取得部221は、収音信号hls、hloに基づいて、周波数特性を取得す
る。周波数特性取得部221は、離散フーリエ変換や離散コサイン変換により、収音信号
hls、hloの周波数特性をそれぞれ算出する。周波数特性取得部221は、例えば、
時間領域の収音信号をFFT(高速フーリエ変換)することで、周波数特性を算出する。
周波数特性は、振幅スペクトルと、位相スペクトルとを含んでいる。なお、周波数特性取
得部221は振幅スペクトルの代わりにパワースペクトルを生成してもよい。収音信号h
ls、hloの周波数振幅特性をそれぞれFhls、Fhloとする。周波数特性Fhl
s、Fhloは振幅スペクトルのスペクトルデータとなる。
The frequency characteristic acquisition unit 221 acquires frequency characteristics based on the collected sound signals h ls and h lo. The frequency characteristic acquisition unit 221 calculates the frequency characteristics of the collected sound signals h ls and h lo by discrete Fourier transform or discrete cosine transform. The frequency characteristic acquisition unit 221, for example,
The frequency characteristics are calculated by performing FFT (Fast Fourier Transform) on the time domain picked-up signal.
The frequency characteristics include an amplitude spectrum and a phase spectrum. The frequency characteristics acquisition unit 221 may generate a power spectrum instead of the amplitude spectrum.
The frequency amplitude characteristics of Fhls and Fhlo are Fhls and Fhlo, respectively.
s and Fhlo are the spectrum data of the amplitude spectrum.
レベル算出部223は、周波数特性Fhls、Fhloにおける基準レベルを算出する
。例えば、レベル算出部223は、周波数特性Fhls、Fhloの平均レベル(平均値
)を算出して、基準レベルとする。例えば、フィルタ長(サンプル数)TでFFTされて
いるとすると、周波数振幅特性の各周波数のレベル値(dB)を算出して、平均値を出す
。T点FFT後のreal(実部),imag(虚部)をそれぞれreal[i],imag[i]、とする。ここ
でiは0~(T-1)の整数である。各i点における音圧レベルAmp_dB[i]は以下の式(
1)となる。
Amp_dB[i]=log10(sqrt(real[i]*real[i]+imag[i]*imag[i])) ・・・(1)
(1)において、i=1~(T/2+1)であり、sqrtは平方根である。
The level calculation unit 223 calculates the reference level for the frequency characteristics Fhls and Fhlo. For example, the level calculation unit 223 calculates the average level (mean value) of the frequency characteristics Fhls and Fhlo and sets it as the reference level. For example, if FFT is performed with a filter length (number of samples) T, the level value (dB) of each frequency in the frequency amplitude characteristic is calculated and the average value is obtained. The real (real part) and imag (imaginary part) after T-point FFT are defined as real[i] and imag[i], respectively. Here, i is an integer between 0 and (T-1). The sound pressure level Amp_dB[i] at each i-point is calculated using the following formula (
1)
Amp_dB[i]=log10(sqrt(real[i]*real[i]+imag[i]*imag[i])) ・・・(1)
In (1), i=1 to (T/2+1), and sqrt is the square root.
また、i点における周波数(Hz)をfreq[i]とし、サンプリング周波数をfsとする
と、freq[i]は、以下の式(2)で得られる。
freq[i]=(T/fs)*i ・・・(2)
Furthermore, if the frequency (Hz) at point i is freq[i] and the sampling frequency is fs, freq[i] can be obtained by the following equation (2).
freq[i]=(T/fs)*i...(2)
全周波数帯域での基準レベルAは以下の式(3)で得られる。
周波数特性Fhlsの基準レベルをAhlsとし、周波数特性Fhloの基準レベルと
Ahloとすると、基準レベルAは、(Ahls+Ahlo)/2となる。
If the reference level of the frequency characteristic Fhls is Ahls and the reference level of the frequency characteristic Fhlo is Ahlo, the reference level A is (Ahls+Ahlo)/2.
さらに、レベル算出部223は周波数振幅特性の最大レベルmaxLと最小レベルmi
nLを算出する。最大レベルmaxLは周波数特性Fhls、Fhloの2つのスペクト
ルデータに含まれる振幅値の中での最大値である。最小レベルminLは周波数特性Fh
ls、Fhloの2つのスペクトルデータに含まれる振幅値の中での最小値となる。基準
レベルA、最大レベルmaxL、最小レベルminLは2つの周波数特性Fhls、Fh
loで共通の値となる。
Furthermore, the level calculation unit 223 calculates the maximum level maxL and the minimum level mi of the frequency amplitude characteristic.
The maximum level maxL is the maximum value among the amplitude values included in the two spectrum data of the frequency characteristics Fhls and Fhlo. The minimum level minL is the
The reference level A, maximum level maxL, and minimum level minL are the minimum amplitude values included in the two spectrum data of the frequency characteristics Fhls and Fhlo.
It becomes a common value at lo.
レベルレンジ設定部224は、圧縮するレベルレンジXを設定する。レベルレンジ設定
部224は、例えば、再生機器等に応じてレベルレンジXを入力する。適切な頭外定位効
果を得るためにはX=40dB以上とすることが好ましい。また、再生機器のアンプなど
が音声出力の効率や品質の性能等高性能でない場合、X=20dBとすることもできる。
X=20dB以上40dB以下とすることが好ましいが、特にこの範囲に限られるもので
はない。
The level range setting unit 224 sets the level range X to be compressed. The level range setting unit 224 inputs the level range X according to, for example, the playback device. To obtain an appropriate out-of-head localization effect, it is preferable to set X to 40 dB or more. Furthermore, if the amplifier of the playback device does not have high performance in terms of audio output efficiency or quality, X can be set to 20 dB.
It is preferable that X is 20 dB or more and 40 dB or less, but there is no particular limitation to this range.
補正部225は、基準レベルAを含む所定のレベルレンジXに収まるように、周波数特
性Fhls、Fhloを補正することで補正特性を算出する。つまり、周波数特性の振幅
値がレベルレンジX内に含まれるように、補正部225が、周波数特性Fhls、Fhl
o振幅レベルを圧縮する。例えば、レベルレンジX=40dBの場合、振幅値が基準レベ
ルA±20dBの範囲に収まるように圧縮することで、補正部225が周波数特性Fhl
s、Fhloを補正する。補正部225で補正された特性を補正特性とする。周波数特性
Fhlsの補正特性をNewFhlsとし、周波数特性Fhloの補正特性をNewFh
loとする。
The correction unit 225 calculates the correction characteristics by correcting the frequency characteristics Fhls and Fhlo so that they fall within a predetermined level range X including the reference level A. In other words, the correction unit 225 calculates the correction characteristics by correcting the frequency characteristics Fhls and Fhlo so that the amplitude value of the frequency characteristics falls within the level range X.
For example, when the level range X is 40 dB, the amplitude value is compressed so that it falls within the range of the reference level A ±20 dB, and the correction unit 225 corrects the frequency characteristic Fh1.
The characteristics corrected by the correction unit 225 are called correction characteristics. The correction characteristics for the frequency characteristic Fhls are called NewFhls, and the correction characteristics for the frequency characteristic Fhlo are called NewFh.
Let's say it's lo.
ここで、任意の周波数における補正前の振幅値をLとし、補正後の振幅値をNewLと
する。つまり、周波数特性Fhls、Fhloは補正前の振幅値Lの集合であり、補正特
性NewFhls、NewFhloは、振幅値NewLの集合である。
Here, the amplitude value before correction at an arbitrary frequency is denoted by L, and the amplitude value after correction is denoted by NewL. In other words, the frequency characteristics Fhls and Fhlo are a set of amplitude values L before correction, and the correction characteristics NewFhls and NewFhlo are a set of amplitude values NewL.
例えば、補正部225は以下の式(4)、(5)を用いて、周波数特性を補正すること
ができる。
LがA以上の場合
NewL=A+(L-X)*(X/2)/(maxL-A) ・・・(4)
LがA未満の場合
NewL=A+(L-X)*(X/2)/(A-minL) ・・・(5)
For example, the correction unit 225 can correct the frequency characteristics using the following equations (4) and (5).
When L is equal to or greater than A, NewL=A+(L−X)*(X/2)/(maxL−A) (4)
When L is less than A, NewL=A+(L−X)*(X/2)/(A−minL) (5)
このようにすることで、NewLが基準レベルを中心としたレベルレンジXに収まるよ
うになる。つまり、NewLは(A―(X/2))以上、(A+(X/2))以下の振幅
値となる。そして、補正部225は、補正帯域内の全てのデータ(振幅値L)に対して、
上記の式(1)、(2)を用いて、補正後の振幅値NewLを算出する。補正後の振幅値
NewLの集合が補正特性となる。周波数特性Fhlsの振幅値を補正することで、補正
特性が求められる。また、(1)、(2)を用いて補正することで、補正前の周波数特性
Fhls、Fhloのスペクトル形状を維持しながら、レンジを圧縮することができる。
By doing this, NewL falls within the level range X centered on the reference level. In other words, NewL has an amplitude value greater than or equal to (A-(X/2)) and less than or equal to (A+(X/2)). Then, the correction unit 225 performs the following for all data (amplitude value L) within the correction band:
The corrected amplitude value NewL is calculated using the above equations (1) and (2). The set of corrected amplitude values NewL is the correction characteristic. The correction characteristic is obtained by correcting the amplitude value of the frequency characteristic Fhls. Furthermore, by performing correction using (1) and (2), it is possible to compress the range while maintaining the spectral shapes of the frequency characteristics Fhls and Fhlo before correction.
なお、補正部225によって補正される周波数帯域は全体帯域でもよく、一部の帯域で
も良い。例えば、周波数特性Fhls、Fhloを補正する補正帯域を10Hz~20k
Hzとすることが可能である。つまり、補正部225は、最低周波数(例えば1Hz)以
上10Hz未満の帯域、20kHzより大きく最高周波数以下の帯域では、振幅値を補正
しない。よって、補正帯域以外では、周波数特性Fhls、Fhloの振幅値がそのまま
用いられる。補正帯域は、頭外定位再生するヘッドホン43,つまり、図1のヘッドホン
43の再生帯域に応じて変更しても良い。
The frequency band corrected by the correction unit 225 may be the entire band or a part of the band. For example, the correction band for correcting the frequency characteristics Fhls and Fhlo may be set to 10 Hz to 20 kHz.
Hz. In other words, the correction unit 225 does not correct the amplitude values in the band between the lowest frequency (for example, 1 Hz) and less than 10 Hz, or in the band between 20 kHz and the highest frequency. Therefore, the amplitude values of the frequency characteristics Fhls and Fhlo are used as they are outside the correction band. The correction band may be changed depending on the playback band of the headphones 43 that perform out-of-head localization playback, i.e., the headphones 43 in FIG. 1.
フィルタ生成部230は、補正特性に基づいて、補正フィルタを生成する。具体的には
、フィルタ生成部230は、逆変換部232と、調整部231とを備えている。逆変換部
232は、補正特性を逆変換して、時間領域の補正信号を生成する。逆変換部232は、
逆離散フーリエ変換又は逆離散コサイン変換により、補正特性と位相特性から時間領域の
補正信号を算出する。逆変換部232は、補正特性と位相特性をIFFT(逆高速フーリ
エ変換)することで、時間領域の補正信号を生成する。補正特性NewFhlsから得ら
れた補正信号hls2とする。補正特性NewFhloから得られた補正信号hlo2と
する。補正信号hls2、hlo2は、切り出し後の収音信号と同じフィルタ長のフィル
タとなっている。
The filter generation unit 230 generates a correction filter based on the correction characteristics. Specifically, the filter generation unit 230 includes an inverse transformation unit 232 and an adjustment unit 231. The inverse transformation unit 232 inversely transforms the correction characteristics to generate a correction signal in the time domain.
A time-domain correction signal is calculated from the correction characteristics and phase characteristics by inverse discrete Fourier transform or inverse discrete cosine transform. The inverse transform unit 232 generates a time-domain correction signal by performing IFFT (inverse fast Fourier transform) on the correction characteristics and phase characteristics. The correction signal obtained from the correction characteristics NewFhls is designated as hls2. The correction signal obtained from the correction characteristics NewFhlo is designated as hlo2. The correction signals hls2 and hlo2 are filtered with the same filter length as the extracted picked-up signal.
なお、位相特性は、周波数特性取得部221で算出された位相特性をそのまま用いるこ
とができる。つまり、逆変換部232は、周波数特性Fhlsに対応する位相特性と、補
正特性NewFhlsとに対して、フーリエ逆変換を施すことで、補正信号hls2を生
成する。逆変換部232は、周波数特性Fhloに対応する位相特性と、補正特性New
Fhloとに対して、フーリエ逆変換を施すことで、補正信号hlo2を生成する。
The phase characteristic calculated by the frequency characteristic acquisition unit 221 can be used as is. That is, the inverse transform unit 232 generates the correction signal hls2 by performing an inverse Fourier transform on the phase characteristic corresponding to the frequency characteristic Fhls and the correction characteristic NewFhls.
A correction signal hlo2 is generated by performing an inverse Fourier transform on Fhlo.
セグメンタルパワー取得部215は、補正信号hls2、補正信号hlo2のセグメン
タルパワーをそれぞれ取得する。上記のように、セグメンタルパワーは時間領域の信号の
振幅値の二乗和とすることができる。補正信号hls2のセグメンタルパワーをhls2
Pとし、補正信号hlo2のセグメンタルパワーをhlo2とする。
The segmental power acquisition unit 215 acquires the segmental power of the corrected signal hls2 and the corrected signal hlo2. As described above, the segmental power can be the sum of squares of the amplitude values of the time domain signal. The segmental power of the corrected signal hls2 is acquired by hls2
P, and the segmental power of the correction signal hlo2 is hlo2.
調整部231は、左右のパワー比(エネルギー比)を維持するように、補正信号hls
2、hlo2のパワーを調整する。調整部231は、補正前後でパワー比が一致するよう
に、補正信号を増幅する。例えば、調整部231は、補正信号の振幅値を所定数倍する。
補正信号hls2に対する所定数は、(hlsP/hlsP2)となり、補正信号hlo
2に対する所定数は、(hloP/hloP2)となる。
The adjustment unit 231 adjusts the correction signal hls so as to maintain the power ratio (energy ratio) between the left and right.
2. The power of hlo2 is adjusted. The adjustment unit 231 amplifies the correction signal so that the power ratio before and after correction is the same. For example, the adjustment unit 231 multiplies the amplitude value of the correction signal by a predetermined number.
The predetermined number for the correction signal hls2 is (hlsP/hlsP2), and the correction signal hlo
The predetermined number for 2 is (hloP/hloP2).
パワー比を調整した後の補正信号hls2、hlo2を補正フィルタhls3、hlo
3とする。補正信号hls2の振幅値と所定数(hlsP/hlsP2)の積が補正フィ
ルタhls3の振幅値となる。補正信号hlo2の振幅値と所定数(hloP/hloP
2)の積が補正フィルタhlo3の振幅値となる。したがって、補正フィルタhls3の
セグメンタルパワーは収音信号hlsのセグメンタルパワーと同じになる。補正フィルタ
hlo3のセグメンタルパワーは収音信号hloのセグメンタルパワーと同じになる。
The correction signals hls2 and hlo2 after adjusting the power ratio are passed through the correction filters hls3 and hlo
The product of the amplitude value of the correction signal hls2 and the predetermined number (hlsP/hlsP2) becomes the amplitude value of the correction filter hls3.
2) is the amplitude value of the correction filter hlo3. Therefore, the segmental power of the correction filter hls3 is the same as the segmental power of the picked-up sound signal hls. The segmental power of the correction filter hlo3 is the same as the segmental power of the picked-up sound signal hlo.
このようにすることで、適切な補正フィルタを生成することができる。つまり、処理装
置201が、再生機器に応じた補正フィルタを生成することができる。補正フィルタhl
s3,hlo3が空間音響フィルタとして、図1に示す畳み込み演算部11、12に設定
される。これにより、頭外定位処理装置100が、頭外定位効果の高い再生を行うことが
できる。
In this way, an appropriate correction filter can be generated. That is, the processing device 201 can generate a correction filter that is suitable for the playback device.
s3 and hlo3 are set as spatial acoustic filters in the convolution operation units 11 and 12 shown in Fig. 1. This allows the out-of-head localization processing device 100 to perform reproduction with a high out-of-head localization effect.
具体的には、再生機器に応じたレベルレンジXに収まるように補正特性が生成されてい
る。したがって、再生機器に適した状態での測定や頭外定位処理が可能となる。よって、
頭外定位処理に適したフィルタを生成することができる。
Specifically, the correction characteristics are generated so that the sound falls within a level range X suited to the playback device. This makes it possible to perform measurements and out-of-head localization processing in a state suited to the playback device.
It is possible to generate a filter suitable for out-of-head localization processing.
さらに、上記の実施形態では、調整部231が左右のバランスを調整している。左右の
バランスのよい頭外定位再生を実現することができる。もちろん、調整部231によるパ
ワーバランスの調整は省略することができる。例えば、単一の収音信号hlsについて、
処理装置201が処理を行う場合、調整部231の処理を省略する。この場合、補正信号
hls2がそのまま補正フィルタとして畳み込み演算部11に設定される。
Furthermore, in the above embodiment, the adjustment unit 231 adjusts the left-right balance. Out-of-head localization reproduction with good left-right balance can be realized. Of course, the adjustment of the power balance by the adjustment unit 231 can be omitted. For example, for a single picked-up sound signal hls,
When the processing device 201 performs the processing, the processing of the adjustment unit 231 is omitted. In this case, the correction signal hls2 is set as it is in the convolution operation unit 11 as a correction filter.
処理装置201は、空間音響伝達特性Hro、Hrsを示す収音信号についての処理も
同様に行うことができる。この場合、空間音響伝達特性Hro、Hrsを示す収音信号の
セグメンタルパワー比が補正前後で維持されるように、フィルタ生成部230が補正信号
を調整する。さらに、処理装置201は、両耳の外耳道伝達特性についても同様に処理す
ることができる。処理装置201は、左耳の外耳道伝達特性ECTFLと右耳の外耳道伝
達特性ECTFRとのセグメンタルパワー比が補正前後で維持されるように、フィルタ生
成部230が補正信号を調整する。
The processing device 201 can also process the collected sound signals indicating the spatial acoustic transfer characteristics Hro and Hrs in a similar manner. In this case, the filter generation unit 230 adjusts the correction signal so that the segmental power ratio of the collected sound signals indicating the spatial acoustic transfer characteristics Hro and Hrs is maintained before and after correction. Furthermore, the processing device 201 can also process the ear canal transfer characteristics of both ears in a similar manner. In the processing device 201, the filter generation unit 230 adjusts the correction signal so that the segmental power ratio between the ear canal transfer characteristic ECTFL of the left ear and the ear canal transfer characteristic ECTFR of the right ear is maintained before and after correction.
次に、図5を用いて、本実施の形態にかかるフィルタ生成方法について説明する。図5
は、フィルタ生成方法を示すフローチャートである。
Next, a filter generation method according to this embodiment will be described with reference to FIG.
1 is a flowchart illustrating a filter generation method.
まず、測定装置200が、インパルス音などを用いた伝達特性の測定を行う(S101
)。つまり、測定信号生成部211がインパルス音などの測定信号を左スピーカ5Lから
出力する。収音信号取得部212がマイクユニット2からの収音信号を取得する(S10
2)。収音信号取得部212が、左マイク2Lからの収音信号と右マイク2Rからの収音
信号を所定のフィルタ長で切り出す。これにより、収音信号hls、hloが得られる。
First, the measurement device 200 measures the transfer characteristics using an impulse sound or the like (S101
That is, the measurement signal generating unit 211 outputs a measurement signal such as an impulse sound from the left speaker 5L. The collected sound signal acquiring unit 212 acquires a collected sound signal from the microphone unit 2 (S10
2) The collected sound signal acquisition unit 212 cuts out the collected sound signals from the left microphone 2L and the right microphone 2R using a predetermined filter length, thereby obtaining the collected sound signals hls and hlo.
セグメンタルパワー取得部215が収音信号hls、hloのセグメンタルパワーをそ
れぞれ算出する(S103)。周波数特性取得部221が収音信号をフーリエ変換する(
S104)。これにより、周波数特性Fhls、Fhloが得られる。周波数特性は周波
数振幅特性(振幅スペクトル)であるが、周波数パワー特性(パワースペクトル)であっ
てもよい。
The segmental power acquisition unit 215 calculates the segmental power of each of the picked-up sound signals hls and hlo (S103). The frequency characteristic acquisition unit 221 performs a Fourier transform on the picked-up sound signals (
S104) As a result, the frequency characteristics Fhls and Fhlo are obtained. The frequency characteristics are frequency amplitude characteristics (amplitude spectrum), but may also be frequency power characteristics (power spectrum).
レベル算出部223が基準レベルを算出する(S105)。上記の通り、基準レベルは
2つの周波数特性Fhls、Fhloの振幅値の平均値となる。さらに、レベル算出部2
23が周波数特性Fhls、Fhloの最大レベルと最小レベルを算出する。基準レベル
、最大レベル、最小レベルは、全帯域の振幅値から算出されていてもよく、一部の帯域の
振幅値から算出されていてもよい。
The level calculation unit 223 calculates the reference level (S105). As described above, the reference level is the average value of the amplitude values of the two frequency characteristics Fhls and Fhlo.
23 calculates the maximum and minimum levels of the frequency characteristics Fhls and Fhlo. The reference level, maximum level, and minimum level may be calculated from the amplitude values of the entire band, or may be calculated from the amplitude values of some of the bands.
また、レベルレンジ設定部224が圧縮するレベルレンジを設定する(S106)。レ
ベルレンジは再生機器等の機種、性能などに応じて設定されている。例えば、ユーザ又は
フィルタ生成用のスタッフがレベルレンジXを入力してもよい。そして、補正部225が
周波数特性Fhls、Fhloの振幅値が、基準レベルを含むレベルレンジXに収まるよ
うに、周波数特性Fhls、Fhloを圧縮し、補正する(S107)。これにより、補
正特性NewFhls、NewFhloが得られる。補正特性NewFhls、NewF
hloの振幅値は、レベルレンジXに含まれている。
Further, the level range setting unit 224 sets the level range to be compressed (S106). The level range is set depending on the model, performance, etc. of the playback device. For example, the user or a staff member responsible for generating filters may input the level range X. Then, the correction unit 225 compresses and corrects the frequency characteristics Fhls and Fhlo so that the amplitude values of the frequency characteristics Fhls and Fhlo fall within the level range X including the reference level (S107). As a result, the correction characteristics NewFhls and NewFhlo are obtained.
The amplitude value of hlo is included in the level range X.
次に、逆変換部232が補正特性を逆フーリエ変換する(S108)。逆フーリエ変換
において、周波数振幅特性は補正特性であり、周波数位相特性は、S104のフーリエ変
換で算出された周波数位相特性である。これにより、時間領域の補正信号hls2、補正
信号hlo2が得られる。
Next, the inverse transform unit 232 performs an inverse Fourier transform on the correction characteristics (S108). In the inverse Fourier transform, the frequency amplitude characteristics are the correction characteristics, and the frequency phase characteristics are the frequency phase characteristics calculated by the Fourier transform in S104. As a result, the correction signals hls2 and hlo2 in the time domain are obtained.
調整部231が収音信号hls、hloのセグメンタルパワー比を維持するように、補
正信号hls2、補正信号hlo2の振幅レベルを調整する(S109)。具体的には、
調整部231が、セグメンタルパワー比に応じた所定数を補正信号hls2、補正信号h
lo2にそれぞれ乗じる。これにより、補正フィルタhls3、補正フィルタhlo3が
得られる。調整部231がパワー比を調整することで左右バランスの良いフィルタを生成
することができる。
The adjustment unit 231 adjusts the amplitude levels of the correction signals hls2 and hlo2 so as to maintain the segmental power ratio between the collected sound signals hls and hlo (S109).
The adjustment unit 231 adjusts a predetermined number according to the segmental power ratio to the correction signal hls2 and the correction signal h
As a result, correction filters hls3 and hlo3 are obtained. The adjustment unit 231 adjusts the power ratio, thereby generating a filter with good left-right balance.
(補正の処理例1)
次に、ステップS107の補正ステップの一例について、図6を用いて説明する。図6
は補正部225による補正処理の処理例1を示すフローチャートである。
(Correction Processing Example 1)
Next, an example of the correction step in step S107 will be described with reference to FIG.
10 is a flowchart showing a first example of correction processing by the correction unit 225.
まず、補正部225は、周波数振幅特性のレベル差がレベルレンジX以上か否かを判定
する(S201)。レベル差は、最大値(最大レベルmaxL)と最小値(最小レベルm
inL)のレベル差(maxL-minL)である。最大レベルと最小レベルは、全体帯
域における周波数振幅特性の最大値、最小値であってもよく、一部帯域の最大値、最小値
であってもよい。
First, the correction unit 225 determines whether the level difference of the frequency amplitude characteristic is equal to or greater than the level range X (S201). The level difference is the difference between the maximum value (maximum level maxL) and the minimum value (minimum level m
The maximum level and minimum level may be the maximum and minimum values of the frequency amplitude characteristics in the entire band, or may be the maximum and minimum values of a part of the band.
レベル差がレベルレンジXよりも小さい場合(S201のNO)、補正部225は、補
正せずに処理を終了する。差がレベルレンジXよりも大きい場合(S201のNO)、補
正部225は、各周波数のレベル(振幅値)を基準レベルに向けて圧縮する(S202)
。これにより、各周波数でのレベルが、レベルレンジXに収まるように、周波数特性が補
正される。
If the level difference is smaller than the level range X (NO in S201), the correction unit 225 ends the process without performing correction. If the difference is larger than the level range X (NO in S201), the correction unit 225 compresses the level (amplitude value) of each frequency toward the reference level (S202).
This corrects the frequency characteristics so that the level at each frequency falls within the level range X.
図7は、処理例1の補正前後の周波数振幅特性を示すグラフである。つまり、図7は、
補正前の周波数特性Fhlsと補正特性NewFhlsの振幅スペクトルを示している。
図7に示すように、基準レベルAを中心とするレベルレンジX内に補正後の周波数振幅特
性が収まっている。図7では、基準レベルA=-9.4dB、レベルレンジX=20dB
となっている。さらに、図7では、補正帯域として10Hz~20kHzが設定されてい
る。
7 is a graph showing frequency amplitude characteristics before and after correction in Processing Example 1. That is, FIG.
10 shows the amplitude spectrum of the frequency characteristic Fhls before correction and the corrected characteristic NewFhls.
As shown in Fig. 7, the frequency amplitude characteristics after correction are contained within a level range X centered on a reference level A. In Fig. 7, the reference level A = -9.4 dB, the level range X = 20 dB.
Furthermore, in FIG. 7, the correction band is set to 10 Hz to 20 kHz.
(補正の処理例2)
次に、ステップS107の補正ステップの別の一例について、図8を用いて説明する。
図8は補正部225による補正処理の処理例2を示すフローチャートである。処理例2で
は、補正部225は、基準レベルよりも大きいレベル(振幅値)のみを補正している。
(Correction Processing Example 2)
Next, another example of the correction step of step S107 will be described with reference to FIG.
8 is a flowchart showing a processing example 2 of the correction processing by the correction unit 225. In processing example 2, the correction unit 225 corrects only the levels (amplitude values) that are greater than the reference level.
まず、補正部225が周波数振幅特性のレベル差がレベルレンジX以上か否かを判定す
る(S301)。レベル差は、最大値(最大レベルmaxL)と最小値(最小レベルmi
nL)の差分値(maxL-minL)である。最大レベルと最小レベルは、全体帯域に
おける周波数振幅特性の最大値、最小値であってもよく、一部帯域の最大値、最小値であ
ってもよい。
First, the correction unit 225 determines whether the level difference of the frequency amplitude characteristic is equal to or greater than the level range X (S301). The level difference is the difference between the maximum value (maximum level maxL) and the minimum value (minimum level mi
The maximum level and minimum level may be the maximum and minimum values of the frequency amplitude characteristics in the entire band, or may be the maximum and minimum values of a part of the band.
レベル差がレベルレンジXよりも小さい場合(S301のNO)、補正部225は、補
正せずに処理を終了する。差がレベルレンジXよりも大きい場合(S301のYES)、
補正部225は、各周波数のレベル(振幅値)が基準レベルよりも大きいレベルのみ、基
準レベルに向けて圧縮する(S302)。補正部225は、基準レベルよりも高いレベル
を下げる。
If the level difference is smaller than the level range X (NO in S301), the correction unit 225 ends the process without performing correction. If the difference is larger than the level range X (YES in S301),
The correction unit 225 compresses only the levels (amplitude values) of each frequency that are greater than the reference level toward the reference level (S302). The correction unit 225 reduces the levels that are higher than the reference level.
なお、処理例2では、基準レベルよりも小さいレベルについては、補正部225が補正
を行わない。よって、基準レベルよりも小さい周波数では、補正前後で振幅値が一致する
。
In the processing example 2, the corrector 225 does not perform correction for levels lower than the reference level. Therefore, for frequencies lower than the reference level, the amplitude values before and after correction are the same.
また、処理例2では、補正部225が、基準レベルよりも高いレベルのみを補正したが
、基準レベルよりも低いレベルのみを補正してもよい。換言すると、処理例2では、補正
部225は、基準レベルよりも高いレベル、及び基準レベルよりも低いレベルの一方のみ
を補正する。補正部225が、基準レベル以上のレベル、又は前記基準レベル以下のレベ
ルのいずれかのみで、周波数特性を補正すればよい。
Furthermore, in processing example 2, the correction unit 225 corrects only levels higher than the reference level, but it may also correct only levels lower than the reference level. In other words, in processing example 2, the correction unit 225 corrects only one of levels higher than the reference level and levels lower than the reference level. The correction unit 225 only needs to correct the frequency characteristics at either levels equal to or higher than the reference level or levels equal to or lower than the reference level.
図9は、処理例2の補正前後の周波数振幅特性を示すグラフである。図9では、基準レ
ベルA=-9.4dB、レベルレンジX=20dBとなっている。さらに、図9では、補
正帯域として10Hz~20kHzが設定されている。図9に示すように、基準レベルA
よりも高い振幅値が、レベルレンジX内に補正後の周波数振幅特性が収まっている。この
場合、基準レベルAよりも低いレベルでは、レベルレンジXに収まらないことがあり得る
。換言すると、処理例2では、周波数振幅特性がminレベル以上、(A+(X/2))
以下のレベルレンジに収まる。
FIG. 9 is a graph showing frequency amplitude characteristics before and after correction in Processing Example 2. In FIG. 9, the reference level A is −9.4 dB and the level range X is 20 dB. Furthermore, in FIG. 9, the correction band is set to 10 Hz to 20 kHz. As shown in FIG. 9, the reference level A
The corrected frequency amplitude characteristic falls within the level range X for amplitude values higher than the reference level A. In this case, a level lower than the reference level A may not fall within the level range X. In other words, in the processing example 2, when the frequency amplitude characteristic is equal to or higher than the min level, (A+(X/2))
It falls within the following level ranges:
(補正の処理例3)
処理例3では、周波数振幅特性の周波数軸を対数尺度にしている。周波数軸を対数尺度
に変換する理由について説明する。一般的に人間の感覚量は対数に変換されていると言わ
れている。そのため、聴こえる音の周波数も対数軸で考えることが重要になる。尺度変換
することで、上記の感覚量においてデータが等間隔となるため、全ての周波数帯域でデー
タを等価に扱えるようになる。この結果、数学的な演算、周波数帯域の分割や重み付けが
容易になり、安定した結果を得ることが可能になる。なお、周波数特性取得部221は、
対数尺度に限らず、人間の聴覚に近い尺度(聴覚尺度と称する)へ包絡線データを変換す
ればよい。聴覚尺度としては、対数尺度(Logスケール)、メル(mel)尺度、バー
ク(Bark)尺度、ERB(Equivalent Rectangular Bandwidth)尺度等で軸変換をし
てもよい。
(Correction Processing Example 3)
In processing example 3, the frequency axis of the frequency amplitude characteristic is a logarithmic scale. The reason for converting the frequency axis to a logarithmic scale will be explained. It is generally said that human sensory quantities are converted to logarithms. Therefore, it is important to consider the frequency of audible sounds on a logarithmic scale as well. By converting the scale, data is spaced equally in the above sensory quantities, so that data can be treated equally in all frequency bands. As a result, mathematical operations, frequency band division and weighting become easier, and stable results can be obtained. The frequency characteristic acquisition unit 221
The envelope data may be converted into a scale (called an auditory scale) that is not limited to a logarithmic scale but is closer to human hearing. The auditory scale may be a logarithmic scale (Log scale), a mel scale, a Bark scale, an Equivalent Rectangular Bandwidth (ERB) scale, or the like, for axis conversion.
周波数特性取得部221は、データ補間により、スペクトルデータを聴覚尺度で尺度変
換する。例えば、周波数特性取得部221は、聴覚尺度においてデータ間隔が粗い低周波
数帯域のデータを補間することで、低周波数帯域のデータを密にする。聴覚尺度で等間隔
なデータは、線形尺度(リニアスケール)では低周波数帯域が密、高周波数帯域が粗なデ
ータとなる。このようにすることで、周波数特性取得部221は、聴覚尺度で等間隔な軸
変換データを生成することができる。もちろん、軸変換データは、聴覚尺度において、完
全に等間隔なデータでなくてもよい。このようにすることで、補正部225等が対数尺度
の周波数振幅特性に対して、処理を行う。また、周波数位相特性とサンプル数を合わせる
ために、逆変換前に周波数軸を線形尺度に戻してもよい。
The frequency characteristic acquisition unit 221 performs scale conversion of the spectral data on the auditory scale by data interpolation. For example, the frequency characteristic acquisition unit 221 interpolates data in the low-frequency band, which has coarse data intervals on the auditory scale, to make the data in the low-frequency band denser. Data that is evenly spaced on the auditory scale becomes data that is dense in the low-frequency band and coarse in the high-frequency band on a linear scale. In this way, the frequency characteristic acquisition unit 221 can generate axis-transformed data that is evenly spaced on the auditory scale. Of course, the axis-transformed data does not have to be data that is completely evenly spaced on the auditory scale. In this way, the correction unit 225 and the like perform processing on the frequency amplitude characteristics on the logarithmic scale. Furthermore, in order to match the frequency phase characteristics and the number of samples, the frequency axis may be returned to a linear scale before inverse conversion.
(補正の処理例4)
処理例4では、補正部225が、補正帯域全体を補正するのではなく、レベルレンジX
の上限値を越えたピーク周辺の周波数のみで、振幅値を補正する。処理例4について、図
10を用いて説明する。図10は処理例4を示すフローチャートである。
(Correction Processing Example 4)
In the processing example 4, the correction unit 225 corrects the entire correction band, but corrects the level range X
The amplitude value is corrected only at frequencies around the peak exceeding the upper limit of the amplitude correction factor α. Processing example 4 will be described with reference to Fig. 10. Fig. 10 is a flowchart showing processing example 4.
まず、補正部225が周波数振幅特性のレベル差がレベルレンジX以上か否かを判定す
る(S401)。レベル差は、最大値(最大レベルmaxL)と最小値(最小レベルmi
nL)の差分値(maxL-minL)である。最大レベルと最小レベルは、全体帯域に
おける周波数振幅特性の最大値、最小値であってもよく、一部帯域の最大値、最小値であ
ってもよい。
First, the correction unit 225 determines whether the level difference of the frequency amplitude characteristic is equal to or greater than the level range X (S401). The level difference is the difference between the maximum value (maximum level maxL) and the minimum value (minimum level mi
The maximum level and minimum level may be the maximum and minimum values of the frequency amplitude characteristics in the entire band, or may be the maximum and minimum values of a part of the band.
レベル差がレベルレンジXよりも小さい場合(S401のNO)、補正部225は、補
正せずに処理を終了する。差がレベルレンジXよりも大きい場合(S201のNO)、補
正部225は、レンジの上限値(A+X/2)を超えたピークとなるピーク周波数周辺で
、振幅値を基準レベルに向けて圧縮する(S402)。
If the level difference is smaller than the level range X (NO in S401), the correction unit 225 ends the process without making correction. If the difference is larger than the level range X (NO in S201), the correction unit 225 compresses the amplitude value toward the reference level around the peak frequency that is the peak exceeding the upper limit value (A+X/2) of the range (S402).
例えば、補正部225は、ピーク周波数の前後で上限値と交差する交差周波数を求める
。補正部225は、ピーク周波数よりも低い第1交差周波数とピーク周波数よりも高い第
2交差周波数をそれぞれ算出する。補正部225は、第1交差周波数と第2交差周波数で
規定される周波数帯域において、振幅値を基準レベルに向けて圧縮する。
For example, the correction unit 225 determines crossover frequencies that cross the upper limit before and after the peak frequency. The correction unit 225 calculates a first crossover frequency that is lower than the peak frequency and a second crossover frequency that is higher than the peak frequency. The correction unit 225 compresses the amplitude value toward a reference level in a frequency band defined by the first crossover frequency and the second crossover frequency.
具体的には、補正部225はピーク周波数よりも低周波数側において、レンジの上限値
と交差する第1交差周波数を求める。補正部225は、ピーク周波数よりも高周波数側に
おいて、レンジの上限値と交差する第2交差周波数を求める。補正部225は第1交差周
波数から第2交差周波数までの周波数帯域において、振幅値を補正する。このようにする
ことで、ピーク周辺において、レンジの上限値を超える振幅値を補正することができる。
Specifically, the correction unit 225 determines a first crossover frequency that intersects with the upper limit of the range on the lower frequency side of the peak frequency. The correction unit 225 determines a second crossover frequency that intersects with the upper limit of the range on the higher frequency side of the peak frequency. The correction unit 225 corrects the amplitude values in the frequency band from the first crossover frequency to the second crossover frequency. In this way, it is possible to correct amplitude values that exceed the upper limit of the range around the peak.
図11は、交差周波数で規定された3つの周波数帯域(a)~(c)を示すグラフであ
る。周波数帯域(a)が第1ピークP1を含む周波数帯域である。つまり、周波数帯域(
a)は第1ピークP1の前後の交差周波数で規定されている。周波数帯域(b)が第2ピ
ークP2を含む周波数帯域である。周波数帯域(c)が第3ピークP3を含む周波数帯域
である。また、図11に示すように、1つの周波数帯域が、互いに近接する複数のピーク
を含んでいてもよい。
FIG. 11 is a graph showing three frequency bands (a) to (c) defined by crossover frequencies. The frequency band (a) is the frequency band including the first peak P1.
Frequency band (a) is defined by the crossover frequencies before and after the first peak P1. Frequency band (b) is a frequency band including the second peak P2. Frequency band (c) is a frequency band including the third peak P3. Furthermore, as shown in FIG. 11 , one frequency band may include multiple peaks that are close to each other.
このように処理例4においては、レンジの上限値のみを超えた振幅値のみを基準レベル
に向けて圧縮している。また、補正部225は、レベルレンジXの下限値(A-(X/2
))を下回るディップ周辺の周波数で、振幅値を補正してもよい。この場合も、補正部2
25は下限値を下回るディップ前後で、下限値と交差する交差周波数を求める。補正部2
25は、2つの交差周波数で規定される周波数帯域における振幅値を圧縮すれば良い。も
ちろん、補正部225は、ピークを含む周波数帯域及びディップを含む周波数帯域の両方
で振幅値を圧縮しても良い。あるいは、補正部225は、ピークを含む周波数帯域のみで
振幅値を圧縮してもよく、ディップを含む周波数帯域のみで振幅値を圧縮しても良い。
In this way, in the processing example 4, only the amplitude values that exceed only the upper limit value of the range are compressed toward the reference level.
The amplitude value may be corrected at a frequency around the dip below 1/(1/f).
The correction unit 25 calculates the crossover frequency at which the frequency crosses the lower limit value before and after the dip below the lower limit value.
The correction unit 225 may compress the amplitude values in a frequency band defined by two crossover frequencies. Of course, the correction unit 225 may compress the amplitude values in both the frequency band including the peak and the frequency band including the dip. Alternatively, the correction unit 225 may compress the amplitude values only in the frequency band including the peak, or only in the frequency band including the dip.
(補正の処理例5)
処理例5では、補正部225が異なる手法を用いて補正を行っている。具体的には、移
動平均等の平滑化処理を用いて、振幅値のレベルを補正している。移動平均やSavitzky-G
olayフィルタ、平滑化スプライン、ケプストラム変換、ケプストラム包絡線等の手法を用
いて、周波数特性(スペクトルデータ)を平滑化する。補正部225は、周波数特性に対
して平滑化処理を行うことで周波数特性がレベルレンジXに収まるように補正する。
(Correction Processing Example 5)
In the processing example 5, the correction unit 225 performs correction using a different method. Specifically, the level of the amplitude value is corrected using smoothing processing such as moving average.
The frequency characteristics (spectral data) are smoothed using techniques such as an olay filter, a smoothing spline, a cepstrum transform, a cepstrum envelope, etc. The correction unit 225 performs a smoothing process on the frequency characteristics to correct them so that they fall within the level range X.
(補正の処理例6)
処理例6では、外耳道伝達特性についての収音信号を処理している。つまり、図3に示
す測定装置300が測定を行っている。具体的には、図4に示す処理装置201において
、測定信号生成部211が、スピーカ5Lではなく、ヘッドホン43に測定信号を出力す
る。この場合、左右のマイク2L、2Rが左右の耳の外耳道伝達特性を示す収音信号を収
音する。周波数振幅特性を取得する。基準レベル、最大レベル、最小レベルが2つの周波
数振幅特性から取得される。上記の点以外の内容は、上記の実施形態及び処理例と同様で
あるため、説明を省略する。
(Correction Processing Example 6)
In processing example 6, a collected signal for ear canal transfer characteristics is processed. That is, the measurement is performed by the measuring device 300 shown in FIG. 3. Specifically, in the processing device 201 shown in FIG. 4, the measurement signal generation unit 211 outputs a measurement signal to the headphones 43, not the speaker 5L. In this case, the left and right microphones 2L and 2R collect collected signals indicating the ear canal transfer characteristics of the left and right ears. Frequency amplitude characteristics are acquired. A reference level, a maximum level, and a minimum level are acquired from the two frequency amplitude characteristics. Contents other than those described above are the same as those of the above-mentioned embodiments and processing examples, and therefore description thereof will be omitted.
(補正の処理例7)
処理例7では、5.1chや7.1ch等のマルチチャネルスピーカが用いられている
。そして、チャンネル毎に収音信号のパワー比が維持されるように、調整部231が調整
を行っている。
(Correction Processing Example 7)
In the processing example 7, multi-channel speakers such as 5.1ch or 7.1ch are used, and the adjustment unit 231 performs adjustment so that the power ratio of the picked-up signals is maintained for each channel.
5.1chのマルチチャネルでは、左右のフロントスピーカの、左右のリアスピーカ、
センタースピーカ、サブウーファが用いられる。この場合、フロントスピーカとリアスピ
ーカのパワー比が維持されるように、調整部231が補正信号を調整する。具体的には、
調整部231が、補正前後におけるセグメンタルパワー比が同じになるような係数を各補
正信号に乗じる。
In 5.1ch multi-channel, the left and right front speakers, the left and right rear speakers,
In this case, the adjustment unit 231 adjusts the correction signal so that the power ratio between the front and rear speakers is maintained.
The adjustment unit 231 multiplies each correction signal by a coefficient such that the segmental power ratio before and after correction is the same.
具体的には、測定装置200は、異なるチャンネルのスピーカを用いた測定を順番に行
う。例えば、測定信号生成部211が測定信号を生成して、各チャンネルのスピーカに順
次出力する。収音信号取得部212は、各チャンネルのスピーカからの測定信号を順次収
音することで、取得信号を取得する。周波数特性取得部221は、異なるチャンネルのス
ピーカから出力された測定信号を収音することで得られる収音信号に基づいて、複数の周
波数特性を取得する。
Specifically, the measurement device 200 sequentially performs measurements using speakers of different channels. For example, the measurement signal generator 211 generates measurement signals and outputs them sequentially to the speakers of each channel. The collected signal acquirer 212 acquires acquired signals by sequentially collecting measurement signals from the speakers of each channel. The frequency characteristic acquirer 221 acquires multiple frequency characteristics based on the collected signals obtained by collecting the measurement signals output from the speakers of different channels.
セグメンタルパワー取得部215は、チャンネル毎の収音信号の左右のセグメンタルパ
ワーを算出する。調整部231は、パワー比を維持するように補正信号のレベルを調整す
る。このようにすることで、チャンネル間のバランスの良いフィルタを生成することがで
きる。なお、レベルレンジXはチャンネル毎に異なっていてもよく、チャンネル間で同じ
であってもよい。
The segmental power acquisition unit 215 calculates the left and right segmental powers of the picked-up signal for each channel. The adjustment unit 231 adjusts the level of the correction signal so as to maintain the power ratio. In this way, a filter with good balance between channels can be generated. Note that the level range X may be different for each channel or may be the same for all channels.
なお、チャンネル間でパワー比を維持する処理は、5.1ch等のマルチチャネルに限
らず、図2に示す2chの測定装置についても適用可能である。例えば、左右のスピーカ
での測定を行って、パワー比を維持するように調整してもよい。
The process of maintaining the power ratio between channels is not limited to multi-channels such as 5.1ch, but can also be applied to the 2ch measurement device shown in Fig. 2. For example, measurements may be performed on the left and right speakers, and adjustments may be made to maintain the power ratio.
上記の処理例1~7は、適宜組み合わせることも可能である。例えば、処理例4のよう
にピーク周波数、又はディップ周波数周辺での振幅値を補正する場合において、補正部2
25は、処理例3の周波数軸の軸変換処理や、処理例5の平滑化処理を用いてもよい。
The above processing examples 1 to 7 can be combined as appropriate. For example, in the case of correcting the amplitude value around the peak frequency or the dip frequency as in processing example 4, the correction unit 2
25 may use the frequency axis conversion process of the processing example 3 or the smoothing process of the processing example 5.
このように、本実施の形態によれば、基準レベルを含む所定のレベルレンジXに収まる
ように周波数特性が補正される。よって、様々な再生機器、機材、測定環境であっても、
適切な頭外定位効果を得ることができるフィルタを再生することができる。つまり、頭外
定位処理された信号がクリップしないようなフィルタを自動で補正することができる。ユ
ーザの好みに応じた、スピーカ、ヘッドホン、測定環境に応じた頭外定位受聴を行うこと
ができる。さらに、再生機器に応じた自動補正が可能となる。
In this way, according to this embodiment, the frequency characteristics are corrected so that they fall within a predetermined level range X including the reference level. Therefore, even with various playback devices, equipment, and measurement environments,
It is possible to reproduce a filter that can obtain an appropriate out-of-head localization effect. In other words, it is possible to automatically correct the filter so that the signal processed for out-of-head localization does not clip. It is possible to perform out-of-head localization listening according to the user's preference, speakers, headphones, and measurement environment. Furthermore, automatic correction according to the playback device is possible.
実施の形態2.
実施の形態2に係る装置と方法について、図12を用いて説明する。図12は、処理装
置201の構成を示すブロック図である。実施の形態2について、レベルレンジXを設定
する処理を技術的特徴の一つとしている。したがって、図12に示す処理装置201には
、図4の構成に対して、判定部242が追加されている。判定部242以外の構成及び処
理については、実施の形態1と同様であるため、適宜説明を省略する。
Embodiment 2.
An apparatus and method according to the second embodiment will be described with reference to Fig. 12. Fig. 12 is a block diagram showing the configuration of a processing device 201. One of the technical features of the second embodiment is the process of setting a level range X. Therefore, the processing device 201 shown in Fig. 12 has a determination unit 242 added to the configuration of Fig. 4. The configuration and process other than the determination unit 242 are the same as those of the first embodiment, and therefore will not be described as appropriate.
判定部242は、再生機器の性能を判定する。例えば、判定部242は、再生機器のア
ンプの性能を評価する。レベルレンジ設定部224は、判定部242での判定結果に応じ
て、レベルレンジ設定部224がレベルレンジXを設定する。補正部225は、レベルレ
ンジXに基づいて周波数特性を補正することで、補正特性を算出する。フィルタ生成部2
30は、補正特性に基づいて、補正フィルタを生成する。
The determination unit 242 determines the performance of the playback device. For example, the determination unit 242 evaluates the performance of an amplifier of the playback device. The level range setting unit 224 sets a level range X according to the determination result of the determination unit 242. The correction unit 225 calculates correction characteristics by correcting the frequency characteristics based on the level range X. Filter generation unit 2
30 generates a correction filter based on the correction characteristics.
例えば、判定部242は、周波数特性取得部221が取得した周波数特性に基づいて、
判定を行うことができる。判定部242は、周波数振幅特性の最大レベル(maxL)と
最小レベル(minL)のレベル差(maxL-minL)を検出する。判定部242は
、レベル差に基づいて、再生機器の出力レベル(出力音圧レベル)やS/N比を取得する
。そして、判定部242は、出力レベル又はS/N比に基づいて、性能を判定する。判定
部242は、周波数振幅特性の最大レベルと最小レベルとのレベル差に応じて、レベルレ
ンジXを決定してもよい。
For example, the determination unit 242 determines, based on the frequency characteristics acquired by the frequency characteristics acquisition unit 221,
The determination unit 242 can make a determination. The determination unit 242 detects the level difference (maxL-minL) between the maximum level (maxL) and the minimum level (minL) of the frequency amplitude characteristic. The determination unit 242 acquires the output level (output sound pressure level) and the S/N ratio of the playback device based on the level difference. The determination unit 242 then determines the performance based on the output level or the S/N ratio. The determination unit 242 may determine the level range X according to the level difference between the maximum level and the minimum level of the frequency amplitude characteristic.
例えば、レベル差の大きい再生機器の場合、レベルレンジXはレベル差の80%程度に
する。判定部242は、変数を0.8として設定する。レベル差の小さい再生機器の場合
、レベルレンジXはレベル差の40%程度にする。レベルレンジ設定部224は、判定結
果に応じた変数をレベル差に乗じることで、レベルレンジXを設定する。
For example, for a playback device with a large level difference, the level range X is set to about 80% of the level difference. The determination unit 242 sets the variable to 0.8. For a playback device with a small level difference, the level range X is set to about 40% of the level difference. The level range setting unit 224 sets the level range X by multiplying the level difference by a variable corresponding to the determination result.
また、処理装置201は、変数を用いずにレベルレンジXを設定することが可能である
。例えば、判定部242は、一部の判定帯域におけるレベル差(maxL-minL)を
算出する。判定帯域としては、例えば、100Hz~8kzとすることができる。つまり
、判定部242は、100Hz~8kzにおける最大レベル(maxL)と最小レベル(
minL)を求める。そして、判定部242は、レベル差(maxL-minL)に基づ
いて、判定を行う。あるいは、判定部242は、レベル差をレベルレンジXに変換するた
めの変換式や変換テーブルを有していてもよい。
Furthermore, the processing device 201 can set the level range X without using a variable. For example, the determination unit 242 calculates the level difference (maxL-minL) in a part of the determination band. The determination band can be, for example, 100 Hz to 8 kHz. In other words, the determination unit 242 calculates the maximum level (maxL) and minimum level (
Then, the determination unit 242 makes a determination based on the level difference (maxL-minL). Alternatively, the determination unit 242 may have a conversion formula or a conversion table for converting the level difference into the level range X.
このように、再生機器を用いた測定で得られた収音信号の周波数特性に基づいて、判定
部242が、判定を行っている。判定部242は、周波数特性の最大レベルと最小レベル
とのレベル差に基づいて、判定を行っている。
In this way, the determination unit 242 makes a determination based on the frequency characteristics of the picked-up signal obtained by measurement using a playback device. The determination unit 242 makes a determination based on the level difference between the maximum level and the minimum level of the frequency characteristics.
また、判定部242は、再生機器に関する再生機器情報を取得して、再生機器情報に基
づいて性能を判定しても良い。そして、レベルレンジ設定部224は、再生機器の性能に
応じて、レベルレンジXを設定する。例えば、再生機器のアンプが高性能である場合、レ
ベルレンジ設定部224が、X=40dBと設定する。アンプが低性能である場合、レベ
ルレンジ設定部224が、X=20dBとする。もちろん、判定部242での判定は、高
性能、低性能の2段階に限らず、3段階以上であってもよい。
Alternatively, the determination unit 242 may acquire playback device information about the playback device and determine the performance based on the playback device information. The level range setting unit 224 then sets the level range X according to the performance of the playback device. For example, if the amplifier of the playback device is high performance, the level range setting unit 224 sets X to 40 dB. If the amplifier is low performance, the level range setting unit 224 sets X to 20 dB. Of course, the determination by the determination unit 242 is not limited to two levels, high performance and low performance, and may be three or more levels.
また、判定部242は、再生機器の型番毎に、性能を示すテーブルを有していてもよい
。判定部242は、再生機器の型番を示す再生機器情報を取得する。判定部242は、再
生機器の型番に応じて性能を判定する。再生機器に関する再生機器情報は、例えば、自動
で取得されてもよく、ユーザによって入力されてもよい。例えば、BlueTooth接
続の再生機器の場合は、再生機器に関する情報を、判定部242が自動で取得することが
できる。
Furthermore, the determination unit 242 may have a table indicating the performance for each model number of the playback device. The determination unit 242 acquires playback device information indicating the model number of the playback device. The determination unit 242 determines the performance according to the model number of the playback device. The playback device information regarding the playback device may be acquired automatically or may be input by the user, for example. For example, in the case of a playback device with a Bluetooth connection, the determination unit 242 can automatically acquire information regarding the playback device.
例えば、測定装置200又は測定装置300が、周波数特性を取得するための測定を再
生機器毎に予め行っておく。そして、上記のように、判定部242が、周波数特性のレベ
ル差に応じて性能を判定し、判定結果をテーブルに記憶する。そして、判定部242が、
テーブルを参照して、判定を行うことができる。
For example, the measurement device 200 or the measurement device 300 performs measurements to acquire frequency characteristics for each playback device in advance. Then, as described above, the determination unit 242 determines the performance according to the level difference of the frequency characteristics and stores the determination results in a table.
The determination can be made by referring to the table.
なお、再生機器は、図2に示すスピーカ5L、5Rやそのアンプ、あるいは図3に示す
ヘッドホン43であってもよい。つまり、再生機器は、測定時に用いられる再生機器であ
ってもよい。あるいは、図1に示す頭外定位処理装置におけるヘッドホン43であっても
よい。つまり、再生機器は、頭外定位受聴時に用いられるヘッドホン43やイヤホンであ
ってもよい。実施の形態2においても上記の処理例1~7のいずれか1つ以上を用いるこ
とができる。
The playback device may be the speakers 5L and 5R and their amplifiers shown in Fig. 2, or the headphones 43 shown in Fig. 3. That is, the playback device may be a playback device used during measurement. Alternatively, it may be the headphones 43 in the out-of-head localization processing device shown in Fig. 1. That is, the playback device may be the headphones 43 or earphones used during out-of-head localization listening. In the second embodiment, any one or more of the above processing examples 1 to 7 may be used.
このように、本実施の形態によれば、再生機器の性能に応じたレベルレンジXを自動で
設定することができる。そして、補正部225が、レベルレンジXに基づいて補正を行っ
ている。よって、様々な再生機器、機材、測定環境であっても、適切な頭外定位効果を得
ることができるフィルタを再生することができる。つまり、頭外定位処理された信号がク
リップしないようなフィルタを自動で補正することができる。ユーザの好みに応じた、ス
ピーカ、ヘッドホン、測定環境に応じた頭外定位受聴を行うことができる。さらに、再生
機器に応じた自動補正が可能となる。
As described above, according to this embodiment, it is possible to automatically set the level range X according to the performance of the playback device. Then, the correction unit 225 performs correction based on the level range X. Therefore, it is possible to reproduce a filter that can obtain an appropriate out-of-head localization effect even with various playback devices, equipment, and measurement environments. In other words, it is possible to automatically correct a filter that does not clip the signal that has been processed for out-of-head localization. It is possible to perform out-of-head localization listening according to the user's preferences, speakers, headphones, and measurement environment. Furthermore, automatic correction according to the playback device is possible.
上記処理のうちの一部又は全部は、コンピュータプログラムによって実行されてもよい
。上述したプログラムは、コンピュータに読み込まれた場合に、実施形態で説明された1
又はそれ以上の機能をコンピュータに行わせるための命令群(又はソフトウェアコード)
を含む。プログラムは、非一時的なコンピュータ可読媒体又は実体のある記憶媒体に格納
されてもよい。限定ではなく例として、コンピュータ可読媒体又は実体のある記憶媒体は
、random-access memory(RAM)、read-only memory(ROM)、フラッシュメモリ、solid-
state drive(SSD)又はその他のメモリ技術、CD-ROM、digital versatile disc(DVD)
、Blu-ray(登録商標)ディスク又はその他の光ディスクストレージ、磁気カセット、磁
気テープ、磁気ディスクストレージ又はその他の磁気ストレージデバイスを含む。プログ
ラムは、一時的なコンピュータ可読媒体又は通信媒体上で送信されてもよい。限定ではな
く例として、一時的なコンピュータ可読媒体又は通信媒体は、電気的、光学的、音響的、
またはその他の形式の伝搬信号を含む。
A part or all of the above processes may be executed by a computer program. When the above program is loaded into a computer, it can perform the processes described in the embodiments.
or more functions on a computer (or software code)
The program may be stored on a non-transitory computer-readable medium or a tangible storage medium. By way of example and not limitation, the computer-readable medium or tangible storage medium may include random-access memory (RAM), read-only memory (ROM), flash memory, solid-state memory, etc.
solid-state drive (SSD) or other memory technology, CD-ROM, digital versatile disc (DVD)
, Blu-ray discs or other optical disk storage, magnetic cassettes, magnetic tapes, magnetic disk storage or other magnetic storage devices. The program may be transmitted on a transitory computer-readable medium or communication medium. By way of example and not limitation, transitory computer-readable medium or communication medium may be electrical, optical, acoustic,
or other forms of propagated signals.
以上、本発明者によってなされた発明を実施の形態に基づき具体的に説明したが、本発
明は上記実施の形態に限られたものではなく、その要旨を逸脱しない範囲で種々変更可能
であることは言うまでもない。
The invention made by the inventor has been specifically described above based on an embodiment, but it goes without saying that the present invention is not limited to the above embodiment and can be modified in various ways without departing from the gist of the invention.
U ユーザ
1 被測定者
2 マイクユニット
2L 左マイク
2R右マイク
5 ステレオスピーカ
5L 左スピーカ
5R 右スピーカ
10 頭外定位処理部
11 畳み込み演算部
12 畳み込み演算部
21 畳み込み演算部
22 畳み込み演算部
24 加算器
25 加算器
41 フィルタ部
42 フィルタ部
43 ヘッドホン
200 測定装置
201 処理装置
211 測定信号生成部
212 収音信号取得部
215 セグメンタルパワー取得部
221 周波数特性取得部
223 レベル算出部
224 レベルレンジ設定部
225 補正部
230 フィルタ生成部
231 調整部
232 逆変換部
242 判定部
REFERENCE SIGNS LIST U User 1 Person to be measured 2 Microphone unit 2L Left microphone 2R Right microphone 5 Stereo speakers 5L Left speaker 5R Right speaker 10 Out-of-head localization processing unit 11 Convolution calculation unit 12 Convolution calculation unit 21 Convolution calculation unit 22 Convolution calculation unit 24 Adder 25 Adder 41 Filter unit 42 Filter unit 43 Headphones 200 Measuring device 201 Processing device 211 Measurement signal generation unit 212 Sound pickup signal acquisition unit 215 Segmental power acquisition unit 221 Frequency characteristic acquisition unit 223 Level calculation unit 224 Level range setting unit 225 Correction unit 230 Filter generation unit 231 Adjustment unit 232 Inverse conversion unit 242 Determination unit
Claims (2)
再生機器の性能を判定する判定部と、
前記判定部の判定結果に応じて、レベルレンジを設定するレベルレンジ設定部と、
前記聴覚尺度の周波数振幅特性に対して前記レベルレンジに基づいて前記周波数特性を補正することで、補正特性を算出する補正部と、
前記補正特性に基づいて、頭外定位処理で用いられる空間音響フィルタ又は前記再生機器からユーザの耳までの特性をキャンセルする逆フィルタを生成するフィルタ生成部と、を備えるフィルタ生成装置。 a frequency characteristic acquisition unit that acquires frequency characteristics based on a sound signal collected by a microphone, and interpolates low-frequency band data using a frequency axis as an auditory scale similar to human hearing, thereby generating axis-transformed data at equal intervals on the auditory scale;
a determination unit that determines the performance of the playback device;
a level range setting unit that sets a level range according to the determination result of the determination unit;
a correction unit that calculates a correction characteristic by correcting the frequency characteristic of the frequency amplitude characteristic of the hearing scale based on the level range;
and a filter generation unit that generates, based on the correction characteristics, a spatial acoustic filter used in out-of-head localization processing or an inverse filter that cancels the characteristics from the playback device to the user's ears.
前記周波数特性における基準レベルを算出するレベル算出部と、
前記聴覚尺度の周波数振幅特性に対して前記基準レベルを含む所定のレベルレンジに収まるように、前記周波数特性を補正することで補正特性を算出する補正部と、
前記補正特性に基づいて、頭外定位処理で用いられる空間音響フィルタ又は逆フィルタを生成するフィルタ生成部と、を備えるフィルタ生成装置。 a frequency characteristic acquisition unit that acquires frequency characteristics based on a sound signal collected by a microphone, and interpolates low-frequency band data using a frequency axis as an auditory scale similar to human hearing, thereby generating axis-transformed data at equal intervals on the auditory scale;
a level calculation unit that calculates a reference level in the frequency characteristic;
a correction unit that calculates a correction characteristic by correcting the frequency characteristic so that the frequency amplitude characteristic of the hearing scale falls within a predetermined level range including the reference level;
and a filter generation unit that generates a spatial acoustic filter or an inverse filter used in out-of-head localization processing based on the correction characteristics.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2025166213A JP2025186541A (en) | 2021-09-27 | 2025-10-02 | Filter Generator |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021156784A JP7755780B2 (en) | 2021-09-27 | 2021-09-27 | FILTER GENERATION DEVICE, FILTER GENERATION METHOD, AND PROGRAM |
| JP2025166213A JP2025186541A (en) | 2021-09-27 | 2025-10-02 | Filter Generator |
Related Parent Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2021156784A Division JP7755780B2 (en) | 2021-09-27 | 2021-09-27 | FILTER GENERATION DEVICE, FILTER GENERATION METHOD, AND PROGRAM |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2025186541A true JP2025186541A (en) | 2025-12-23 |
Family
ID=85779303
Family Applications (2)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2021156784A Active JP7755780B2 (en) | 2021-09-27 | 2021-09-27 | FILTER GENERATION DEVICE, FILTER GENERATION METHOD, AND PROGRAM |
| JP2025166213A Pending JP2025186541A (en) | 2021-09-27 | 2025-10-02 | Filter Generator |
Family Applications Before (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2021156784A Active JP7755780B2 (en) | 2021-09-27 | 2021-09-27 | FILTER GENERATION DEVICE, FILTER GENERATION METHOD, AND PROGRAM |
Country Status (1)
| Country | Link |
|---|---|
| JP (2) | JP7755780B2 (en) |
Family Cites Families (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2778418B2 (en) * | 1993-07-29 | 1998-07-23 | ヤマハ株式会社 | Acoustic characteristic correction device |
| JP2008227681A (en) * | 2007-03-09 | 2008-09-25 | Yamaha Corp | Acoustic characteristic correction system |
| JP2008228133A (en) * | 2007-03-15 | 2008-09-25 | Matsushita Electric Ind Co Ltd | Acoustic system |
| JP2012054863A (en) * | 2010-09-03 | 2012-03-15 | Mitsubishi Electric Corp | Sound reproducing apparatus |
| JP6561718B2 (en) * | 2015-09-17 | 2019-08-21 | 株式会社Jvcケンウッド | Out-of-head localization processing apparatus and out-of-head localization processing method |
| WO2018147701A1 (en) * | 2017-02-10 | 2018-08-16 | 가우디오디오랩 주식회사 | Method and apparatus for processing audio signal |
| JP6988758B2 (en) * | 2018-09-28 | 2022-01-05 | 株式会社Jvcケンウッド | Out-of-head localization processing system, filter generator, method, and program |
-
2021
- 2021-09-27 JP JP2021156784A patent/JP7755780B2/en active Active
-
2025
- 2025-10-02 JP JP2025166213A patent/JP2025186541A/en active Pending
Also Published As
| Publication number | Publication date |
|---|---|
| JP7755780B2 (en) | 2025-10-17 |
| JP2023047707A (en) | 2023-04-06 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11115743B2 (en) | Signal processing device, signal processing method, and program | |
| US11997468B2 (en) | Processing device, processing method, reproducing method, and program | |
| JP6866679B2 (en) | Out-of-head localization processing device, out-of-head localization processing method, and out-of-head localization processing program | |
| US12137318B2 (en) | Processing device and processing method | |
| CN110268722B (en) | Filter generation device and filter generation method | |
| US11228837B2 (en) | Processing device, processing method, reproduction method, and program | |
| JP7750003B2 (en) | FILTER GENERATION DEVICE, FILTER GENERATION METHOD, AND PROGRAM | |
| JP7755780B2 (en) | FILTER GENERATION DEVICE, FILTER GENERATION METHOD, AND PROGRAM | |
| US12192742B2 (en) | Filter generation device and filter generation method | |
| JP7639607B2 (en) | Processing device and processing method | |
| JP7677052B2 (en) | Processing device and processing method | |
| US12170884B2 (en) | Processing device and processing method | |
| JP6805879B2 (en) | Filter generator, filter generator, and program | |
| US20260012746A1 (en) | Filter generation device, filter generation method, and out-of-head localization device | |
| JP2024164882A (en) | AGC control device, AGC control method, and program | |
| JP2024097515A (en) | FILTER GENERATION DEVICE, FILTER GENERATION METHOD, AND EXTRAHEAD LOCALIZATION PROCESSING DEVICE |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20251002 |