JP2004135023A - Sound outputting appliance, system, and method - Google Patents
Sound outputting appliance, system, and method Download PDFInfo
- Publication number
- JP2004135023A JP2004135023A JP2002297100A JP2002297100A JP2004135023A JP 2004135023 A JP2004135023 A JP 2004135023A JP 2002297100 A JP2002297100 A JP 2002297100A JP 2002297100 A JP2002297100 A JP 2002297100A JP 2004135023 A JP2004135023 A JP 2004135023A
- Authority
- JP
- Japan
- Prior art keywords
- sound
- head
- listener
- transfer function
- speakers
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 28
- 238000012546 transfer Methods 0.000 claims abstract description 100
- 238000012937 correction Methods 0.000 claims abstract description 77
- 230000005236 sound signal Effects 0.000 claims abstract description 31
- 230000004807 localization Effects 0.000 claims description 18
- 230000008569 process Effects 0.000 claims description 17
- 238000001514 detection method Methods 0.000 claims description 15
- 210000003128 head Anatomy 0.000 description 136
- 238000012545 processing Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 9
- 238000005259 measurement Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 5
- 238000009434 installation Methods 0.000 description 4
- 230000036544 posture Effects 0.000 description 4
- 210000003454 tympanic membrane Anatomy 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Stereophonic System (AREA)
- Circuit For Audible Band Transducer (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、AV再生機器(オーディオ・ビジュアル再生機器)、マルチメディア再生機器等において、任意の空間に仮想的な音像を定位させることの可能な音響出力装置、音響出力システム、及び音響出力方法に関するものである。
【0002】
【従来の技術】
近年、音響・映像分野やマルチメディア分野においては、立体感や臨場感のある音響映像再生が望まれ、これに対応するハードウェアの開発が積極的に行われている。特に音響再生では、聴取者の側方や後方、又は上方や下方、あるいはこれらを組合せた方向にスピーカを配置しなくても、側方や後方、あるいは上方や下方から音響信号が聴こえてくるように仮想的な音像を定位させる音響再生装置が注目されている。また、音像制御において、音像定位をインタラクティブに制御する技術も注目されている。
【0003】
一般に、従来から用いられてきたステレオ音響システムでは、複数のスピーカを用いて音像位置を制御し、聴取者の聴覚に臨場感を与えてきた。
しかし、聴取者の前方の左右にスピーカを設置する従来のスピーカシステムでは、2つのスピーカの間にしか音像が出来ない。
さらに、ヘッドホンを用いた場合には、頭の中に音像が出来る特有の現象(頭内定位)が生じ、聴取者は疲れてしまう場合が多い。
【0004】
一方、音響信号処理技術やDSP(Digital Signal Processor)等のハードウェアの発展に伴い、聴取者前方に左右のスピーカを設置するシステムでも、聴取者前方の任意の位置への音像定位が行われるようになった。
また、ヘッドホンを用いるシステムでは、音像を頭外に定位させる試みもなされている。
そして従来、2チャンネルのスピーカ再生によって音像を定位させる音響信号処理技術として、頭部音響伝達関数の時間領域での畳み込みとクロストークキャンセルを用いる技術が知られている。
【0005】
音像を定位させる音響信号処理技術では、前方音源から聴取者の耳元までの音の伝達特性を意味する頭部音響伝達関数を利用して、音像定位に関する演算を行う。
図9は、音像定位の制御を行う従来の音響再生装置の一例を示すブロック図である。
図9において、音響信号入力部31には、L、Rチャンネルの音響信号が入力される。入力されたL、Rチャンネルの音響信号は、それぞれA/D変換器32でデジタル音響信号に変換され、デジタルフィルタ33に入力される。
そしてデジタルフィルタ33で処理された後、D/A変換器34でアナログ音響信号に変換され、アンプ35を介してL、Rチャンネルのスピーカ36に供給される。スピーカ36は、聴取者の前方の左右に設置されるスピーカである。
【0006】
この音響再生装置において、デジタルフィルタ33には音像位置を制御するために音像定位制御器37が接続されている。
音像定位制御器37により任意所定の音像位置を入力されると、デジタルフィルタ33はA/D変換器32から出力された2チャンネルの各信号に、音像定位制御器37で設定された音像位置に応じた係数を畳み込む。そして、この畳み込まれた音響信号がアンプ35により増幅され、聴取者の前方左右に設置されたスピーカ37により音響信号が再生される。このような音響信号処理を行うことにより、聴取者の前方で左右の任意の位置に音像位置を制御することが可能となる。
【0007】
また、前述のクロストークキャンセルの技術では、逆相の音を混合することによって音像をスピーカの外側に定位させることが可能となる。
例えば、図10では、仮想的な位置の音像から音圧Eの音響信号が放射され、音響信号は聴取者の左右の耳元に、各々yLとyRなる音圧を与えるものとする。
そして、仮想音像から左耳元までの頭部音響伝達関数をTL(Z)、仮想音像から右耳元までの頭部音響伝達関数をTR(Z)とする。仮想音像とyL、yRの関係を頭部音響伝達関数TL(Z)、TR(Z)を用いて表すと、
yL=TL(Z)×E ・・・(式1)
yR=TR(Z)×E ・・・(式2)
となる。
【0008】
図10の仮想的な位置(実際の左右スピーカの外側の位置)に音像を定位させるためには、上記図9のデジタルフィルタ33において、上記(式1)(式2)により得られる音圧yR、yLが仮想音像からのものとなるように畳み込み演算処理により音響信号を補正する。そしてさらに、聴取者に対して実際に設置する前方左右のスピーカからの音をキャンセルする。
即ち、左スピーカから右耳に到達する音及び右スピーカから左耳に到達する音(これらを「クロストーク音」という)をキャンセルすることにより、図10のような仮想音像を作り出すことができる。
具体的には、上記TL(Z)、TR(Z)及び実際のスピーカから耳元までの頭部音響伝達関数を用いて、入力が共通の2つの方向定位フィルターを具備し音像の方向を定める方向定位器と、クロストーク音の影響を除去するフィルター特性を持つフィルターを具備するクロストーク・キャンセラーとに、音響信号を通して、図10の仮想位置に音像を定位させる。
【0009】
例えば以上のような音像定位に関する技術が知られているが、音像定位に関する技術を示した文献としては、次のものが挙げられる。
【0010】
【特許文献1】特開平10−224900号公報
【0011】
【発明が解決しようとする課題】
しかしながら上記のような従来の音響再生装置では、聴取者の前方空間にスピーカを設置するため、聴取者にとって理想的な音場および音像を創出するのに必要な位置にスピーカを取付けることができない場合が多かった。
【0012】
例えば、シートに着座してディスプレイで映像を観ている聴取者の場合、視聴を妨げない場所にスピーカを取付ける必要があり、スピーカの設置場所については制約を受けた。従って、場合によっては、聴取者前方の不本意な場所にスピーカを設置しなければならず、聴取者の位置から任意の空間、例えば聴取者の側方や後方、あるいは上下方向等に音像を自由自在に定位させることが出来なかった。
【0013】
そこで本出願人は先に先行技術として、特願2001―246360において、聴取者の後方空間に設置したスピーカを用いて、任意の空間に自然な音像定位を得ることのできる音響再生装置を提供した。
この発明によれば、本来ならば取り付けが不可能な場所に仮想音源を配置し、この仮想音源から再生音が出力されているように知覚させることができるので、聴取者にとって理想的な音場および音像を作り出すことができる。
しかしながら、この音響再生装置は、再生中に聴取者の頭が動く場合、最適な頭部音響伝達関数が適用できなくなるため、十分な音像定位感を得るのが困難であった。
【0014】
【課題を解決するための手段】
本発明はこのような問題点に鑑みてなされたもので、聴取者の後方空間に設置したスピーカを用いて、任意の空間に自然な音像定位を得ることのできる音響再生装置を実現し、またその際に聴取者の頭部の動きにも対応して音像安定感を得ることができるようにすることを目的とする。
【0015】
このため本発明の音響出力装置は、聴取者の聴取位置の後方空間に設置される複数チャンネルのスピーカに対して、複数チャンネルの音響出力信号を供給する音響出力装置として、複数チャンネルの各音響デジタル入力信号について、上記聴取位置に対して所定方向空間に音像定位させるように、頭部音響伝達関数に基づいた補正処理を行う補正フィルタ手段と、上記補正フィルタ手段で補正処理された複数チャンネルの信号を上記複数チャンネルのスピーカに対して音響出力信号として供給する音響信号出力手段と、上記スピーカの位置と上記聴取者の頭部位置との位置関係を検出するセンサ手段と、上記センサ手段の検出結果に応じて頭部音響伝達関数を選択し、上記補正フィルタ手段の補正処理を制御する制御手段と、を備えるようにする。
この場合、音像定位させる上記所定方向空間とは、上記聴取位置に対する前方空間であるとする。
又、音像定位させる所定方向空間を可変指示する操作手段をさらに備えるようにし、上記制御手段は、上記センサ手段の検出結果と、上記操作手段の操作情報とに応じて頭部音響伝達関数を選択し、上記補正フィルタ手段の補正処理を制御する。
【0016】
本発明の音響出力システムは、上記構成の音響出力装置と、聴取者の聴取位置の後方空間に設置される複数チャンネルのスピーカとから成る。
【0017】
本発明の音響出力方法は、聴取者の聴取位置の後方空間に設置される複数チャンネルのスピーカに対して、複数チャンネルの音響出力信号を供給する際に、上記スピーカの位置と上記聴取者の頭部位置との位置関係を検出し、上記検出結果に応じて頭部音響伝達関数を選択し、複数チャンネルの各音響デジタル入力信号について、上記聴取位置に対して所定方向空間に音像定位させるように、上記選択された頭部音響伝達関数に基づいた補正処理を行い、上記補正処理された複数チャンネルの信号を、上記複数チャンネルのスピーカに対して音響出力信号として供給する。
【0018】
このような本発明によれば、聴取者の後方空間に設置されたスピーカから出力する音響信号を、頭部音響伝達関数に基づいた補正処理を行った音響信号とすることで、聴取位置の前方空間などの所定方向位置に音像定位させる。さらに、リアルタイムで聴取者の頭部の位置を検出しながら適切な頭部音響伝達関数を選択することで安定した音像定位状態を得るものである。
尚、聴取者の後方空間とは、聴取者の左右の耳口を含み、該聴取者の人体の中心軸に平行な平面において、該平面を含み、且つ該平面によって分割される2空間における該聴取者の後頭部を含む方の1空間を意味する。
また頭部音響伝達関数は、音源から人間の一方の耳(鼓膜)に至る伝達系を表す関数であり、頭部、耳介、肩等の反射、回折、共振等を反映している。この頭部音響伝達関数は、測定によって求めることができる。また、それぞれの頭部音響伝達関数は複素数で表される。
【0019】
【発明の実施の形態】
以下、本発明の第1、第2実施の形態としての音響再生装置について図面を参照して詳細に説明する。
【0020】
<第1の実施の形態>
図1には第1の実施の形態としての音響再生装置の構成を示している。
この音響再生装置は、音響デジタル信号入力部1,補正フィルタ部2,音響デジタル信号出力部3,D/A変換器4,出力アンプ5,左右スピーカ6(左チャンネルスピーカ6L、右チャンネルスピーカ6R)、CPU11、記憶部13、赤外線センサ17を有して構成される。
【0021】
音響デジタル信号入力部1には、デジタル音響データのソースとして、例えばCD/MD/DVDなどのAVメディアに対する再生装置から出力されるL、R2チャンネルのデジタル音響データが入力される。
又は、アナログ音響信号のソースとして、例えばFMチューナ等から出力されるアナログ音響信号が、図示されていないA/D変換器においてデジタル音響データに変換され、そのデジタル音響データが音響デジタル信号入力部1に供給されるものであってもよい。
【0022】
音響デジタル信号入力部1に供給されたL、Rチャンネルのデジタル音響データは、補正フィルタ部2に供給されて所定の補正処理が実行される。
補正フィルタ部2の詳細については後述するが、この補正フィルタ部2は、左チャンネル及び右チャンネルのスピーカ6L、6Rにより再生された音像が目的とする位置(図1では仮想音像9の位置)にくるように、デジタル音響データを補正するものである。
また、この補正フィルタ部2は、赤外線センサ17による聴取者の頭部の位置のリアルタイムの検出情報に基づいて制御され、常時、最適な補正処理が実行されるように構成されている。
【0023】
補正フィルタ部2で補正処理されたデジタル音響データは、音響デジタル信号出力部3を介してD/A変換器4に供給され、L、Rチャンネルのアナログ音響信号に変換される。
そしてこのアナログ音響信号は、出力アンプ部5における音量調整用のアッテネータ回路処理やパワーアンプ処理を経て、左および右チャンネルのスピーカ6L、6Rに供給される。
【0024】
スピーカ6L、6Rは、聴取者8の後方空間に配置される。この後方空間は、聴取者8の左右の耳口を含み、該聴取者8の人体の中心軸に平行な平面10において、該平面10を含み、且つ該平面10によって分割される2空間における該聴取者8の後頭部を含む方の一空間を意味する。
【0025】
後方空間に配置されるスピーカ6L、6Rとしては、例えば図2に示すように、シート14のヘッドレストの位置に配置される(あるいはヘッドレストの位置に配置することができる)。
すなわち、シート14に着座した聴取者が対象であるとすれば、スピーカ6L、6Rがこのようにヘッドレスト上或いはヘッドレスト内の左右位置に配設されることで、聴取者8の後方空間に配置されたことになる。
そして、スピーカ6L、6Rからは、CD、MD、DVDあるいは放送などの音響信号が出力されるが、その音響信号により形成される音像は、スピーカ6L、6Rが図2のヘッドレストの位置にあっても、補正フィルタ部2の補正処理により、聴取者8の例えば前方に仮想音像9として位置するようになる。例えば図2のように前方にディスプレイ装置15が配置され、ユーザーが着座して映像を見る場合、そのディスプレイ装置15の位置あたりを仮想音像9の位置とすることができる。
【0026】
なお、図1,図2においては仮想音源としてのスピーカ12L、12Rを示している。ここでいう仮想音源とは、理想とする音場あるいは音像を実現するスピーカであるが、実際には空間中に設置されておらず、つまりスピーカ12L、12Rとは実在しないスピーカである。
一方、実際に設置されているスピーカを実在音源と呼ぶとすると、スピーカ6L、6Rが実在音源のこととなる。
【0027】
後方空間におけるスピーカ6L、6Rの適切な配置位置について図3,図4に示しておく。
図3は後方空間の水平方向を表す上面図としている。
図3に示すように、後方空間は、平面10を含み、かつ平面10から聴取者後方の全ての空間を含む。従って、スピーカ6L、6Rは、この後方空間の中で任意の位置に配置される。
また、図3に示すように、スピーカ6L、6Rの配置位置から聴取者8の左および右の耳口7L、7Rに結ぶ直線について、平面10となす正射影角を角度θ1とし、スピーカ6L、6Rの中心軸Jとなす正射影角を角度θ2とする。この場合、角度θ1および角度θ2は、
0°≦θ1≦90°
−30°≦θ2≦+30°
(但し反時計回りを+と定義)
が望ましい。
角度θ1と角度θ2が上記の条件を満たすようにスピーカ6L、6Rを配置することにより、スピーカ6L、6Rからの音響信号により形成される音像は、一層効果的に補正フィルタ部2の補正処理により、聴取者8の例えば前方に仮想音像9として位置するようになる。
【0028】
図4は、後方空間の垂直方向を表す側面図としている。
図4に示すように、後方空間は、平面10を含み、かつ平面10から聴取者後方の全ての空間を含む。従って、スピーカ6L、6Rは、この後方空間の中で任意の位置に配置される。
また、図4に示すように、スピーカ6L、6Rの配置位置から聴取者8の左および右の耳口7L、7Rに結ぶ直線について、聴取者の左右の耳口を含み、かつ平面10と垂直に直交する平面16となす正射影角を角度θ3とし、スピーカ6L、6Rの中心軸Jとなす正射影角を角度θ4とする。
この場合、角度θ3および角度θ4は、
−90°≦θ3≦90°
−30°≦θ4≦+30°
(但し反時計回りを+と定義)
が望ましい。
角度θ3と角度θ4が上述の条件を満たすようにスピーカ6L、6Rを配置することにより、スピーカ6L、6Rからの音響信号により形成される音像は、一層効果的に補正フィルタ部2の補正処理により、聴取者8の例えば前方に仮想音像9として位置するようになる。
【0029】
また本例の音響再生装置では、図1に示すように赤外線センサ17が設けられる。この赤外線センサはスピーカ6L、6Rと聴取者8の頭部の位置関係、具体的には距離を検出するセンサとされる。
例えば図2に示すように、赤外線センサはシート14のヘッドレスト中央などに配設されることで、スピーカ6L、6Rの位置とシート14に着座した聴取者8の頭部の位置関係を検出する。
赤外線センサ17は、少なくとも赤外線発光部と赤外線受光部を備える構成とされることで、上記位置関係として、スピーカ6L、6Rの位置から聴取者8の頭部の距離を検出することができる。発光部と受光部は別体構成されるものでも良いし、フォトカプラなど一体構成されるものでもよい。
【0030】
図5(a)(b)(c)に、赤外線センサ17によって検出される位置関係の例、即ち距離dを示している。
図示するように、聴取者8がシート14に着座している場合であっても、聴取者8の姿勢によって、その頭部位置とスピーカ6L、6Rの位置の間の距離dは変動する。
赤外線センサ17は、この距離dを検出し、この検出情報を図1に示すCPU11に供給する。
【0031】
なお、赤外線センサ17を高さ方向に複数個配置することで、距離d(水平方向の距離)とともに、着座した聴取者8の頭部の高さ位置を検出できるようにすることもできる。例えば図5(d)(e)に示すように、聴取者8が大人である場合と子供である場合などで、頭部の高さ位置は大きく異なるものとなる。
この場合、スピーカ6L、6Rと頭部の水平方向の距離dが同じであったとしても、子供と大人で頭部の高さ位置が異なれば、実際のスピーカ6L、6Rから頭部までの距離は異なるものとなる。そこで、高さ方向に赤外線センサ17を複数配置し、図5(e)に示すように頭部の高さ、即ちスピーカ6L、6Rと頭部の垂直方向の距離hも検出できるようにすると、多様な身長/座高の聴取者8に対応してより正確にスピーカ6L、6Rと頭部の位置関係を検出できる。
【0032】
また、図示していないが、シート14において聴取者8の頭部が左右にずれる場合も考えられるため、シート14の背もたれの横方向に複数の赤外線センサ17を配置して、左右方向のずれ(距離)を検出できるようにすることも好適である。
【0033】
なお、本例では赤外線センサ17をシート14のヘッドレスト中央に配置するようにしているが、赤外線センサ17の配置位置はどのような場所であっても良い。また、赤外線センサに限られるものでもない。
即ち、少なくとも後方空間に配置されるスピーカ6L、6Rと、聴取者8の頭部の位置関係(少なくとも距離)を検出できるものであればよく、その構成や配置位置は問われない。
例えば自動車内の音響再生システムとする場合、運転席のヘッドレストに配置してもよいし、車内天井や側壁部などに配置してもよい。
【0034】
図1のCPU11は、常時赤外線センサ17からの検出情報、即ち、スピーカ6L、6Rと聴取者8の頭部の位置関係を監視している。
また記憶部13には、各種位置関係において予め測定された頭部音響伝達関数がデータベース化されて格納されている。
頭部音響伝達関数は、音源から人間の一方の耳(鼓膜)に至る伝達系を表す関数であり、頭部、耳介、肩等の反射、回折、共振等を反映している。この頭部音響伝達関数は、測定によって求めることができる。また、それぞれの頭部音響伝達関数は複素数で表される。
【0035】
そして、CPU11は赤外線センサ17からの検出情報により、上記位置関係(距離)を判別すると、その位置関係に基づいて記憶部13におけるデータベースを検索し、位置関係に応じた頭部音響伝達関数を取得する。
そして取得した頭部音響伝達関数(或いは頭部音響伝達関数から算出される補正パラメータ値)を補正フィルタ部2に供給し、補正処理のためのパラメータ(後述する伝達特性Hp(Z), Hm(Z) )を設定する。
【0036】
つまり本例では、上述のように補正フィルタ部2での補正処理により、後方空間に配置されたスピーカ6L、6Rからの再生音声について、前方空間での仮想音像9に定位させるものであるが、さらにスピーカ6L、6Rと聴取者8の頭部の位置関係に応じてリアルタイムで補正処理のパラメータを可変制御することで、聴取者8の姿勢の動きなどに関わらず、仮想音像9への定位状態を安定させるものである。
【0037】
以下、頭部音響伝達関数を用いた補正処理について述べる。
まず、頭部音響伝達関数の測定方法について説明する。
補正フィルタ部2は、上述のように、音像が任意空間に位置するように、デジタル音響信号を補正するものであるが、この補正は、スピーカから聴取者の鼓膜までの聴覚特性も加味した頭部音響伝達関数を用いることにより実現する。
【0038】
この頭部音響伝達関数は、一般に、次のようにして測定することができる。すなわち、
(a)スピーカと、人間の頭部の形をしたダミーヘッドとを配置する。
(b)そのスピーカに、テスト信号として、フーリエ変換すると周波数軸で平坦になるインパルス信号を入力する。なお、このテスト信号は、タイムストレッチドパルス信号などのインパルス関数の性質を持つ信号でもよい。
(c)ダミーヘッドの人工耳におけるインパルス応答を測定する。このインパルス応答が上記(a)の位置関係にあるときの頭部音響伝達関数である。
【0039】
従って、例えば図2のようにシート14にスピーカ6L、6Rが配置された本例の音響再生装置において、頭部音響伝達関数を利用する場合には、
(A)標準的なシートあるいは代表的なシートに、人間の頭の形をしたダミーヘッドを配置する。
(B)実際のスピーカ位置、例えばスピーカ6L、6Rの位置、すなわちシート14のヘッドレストの位置にスピーカを配置し、スピーカ6L、6Rの位置にスピーカがある場合の頭部音響伝達関数を求める。
(C)仮想音源を実現したい位置、例えば仮想的なスピーカ12L、12Rの位置、すなわち、図2のディスプレイ15の左右にスピーカを配置し、スピーカ12L、12Rの位置にスピーカがあるときの頭部音響伝達関数を求める。
【0040】
このようにすれば、補正フィルタ部2により音像の位置を補正するための頭部音響伝達関数を測定できる。
つまり、補正フィルタ部2は、上記(B)(C)の頭部音響伝達関数を基にしてデジタル音響信号を補正するものであり、このデータ補正により、上述のように、シート14のヘッドレストに取付けられているスピーカ6L、6Rによる音像が、仮想音源の位置にあるスピーカ12L、12Rによる音像の位置に補正される。
【0041】
上記(B)の頭部音響伝達関数の測定、つまりスピーカ6L、6Rとダミーヘッドについての頭部音響伝達関数については、シート上での聴取者の各種姿勢や座高等に応じた頭部位置に応じて測定を行う。即ちダミーヘッドの位置を変えながら、頭部の各位置に応じた頭部音響伝達関数を測定して、それらを頭部位置に応じた頭部音響伝達関数としてデータベース化する。
【0042】
また、上記(C)の頭部音響伝達関数の測定、つまり仮想音源を実現したい位置とダミーヘッドについての頭部音響伝達関数については、仮想音源位置とするポイントを設定してスピーカ12L、12Rに相当するスピーカを配して、頭部音響伝達関数を測定するが、その際も、シート上での聴取者の各種姿勢や座高等に応じた頭部位置に応じて測定を行う。そして、それらを頭部位置に応じた頭部音響伝達関数としてデータベース化する。
【0043】
つまり、シート14に着座した聴取者8の頭部位置に応じて、実在音源のスピーカ6L、6Rから聴取者8への頭部音響伝達関数と、仮想音源のスピーカ12L、12Rから聴取者8への頭部音響伝達関数とが、選択できるようなデータベース化がなされ、記憶部13にはこのようなデータベースが格納されるものである。
【0044】
なお、図1に示す第1の実施の形態の例では、仮想音像9を聴取者8の前方正面に固定するものであるが、後述する第2の実施の形態の場合は、仮想音像9の位置を聴取者8が任意に可変設定できるようにするものである。その場合は、例えば仮想音源のスピーカ12L、12Rから聴取者8への頭部音響伝達関数として、仮想音源のスピーカ12L、12Rの位置を各種多様な位置に変えながら上記(C)の測定を行い、データベース化する必要がある。
【0045】
頭部音響伝達関数を用いた補正処理は以下のように行われる。
先ず、上記(A)〜(C)により測定して解析した頭部音響伝達関数が、図5にも示すように、以下の通りであったとする。
【0046】
FLL(Z):仮想音源の左チャンネルのスピーカ12Lから左耳までの頭部音響伝達関数
FLR(Z):仮想音源の左チャンネルのスピーカ12Lから右耳までの頭部音響伝達関数
FRL(Z):仮想音源の右チャンネルのスピーカ12Rから左耳までの頭部音響伝達関数
FRR(Z):仮想音源の右チャンネルのスピーカ12Rから右耳までの頭部音響伝達関数
GLL(Z):実在音源の左チャンネルのスピーカ6Lから左耳までの頭部音響伝達関数
GLR(Z):実在音源の左チャンネルのスピーカ6Lから右耳までの頭部音響伝達関数
GRL(Z):実在音源の右チャンネルのスピーカ6Rから左耳までの頭部音響伝達関数
GRR(Z):実在音源の右チャンネルのスピーカ6Rから右耳までの頭部音響伝達関数
【0047】
ただし、上記のように、仮想音源12L、12Rの位置とは、理想とする音場あるいは音像を実現するスピーカの位置であり、実在音源6L、6Rの位置とは、実際に設置されているスピーカの位置である。また、それぞれの頭部音響伝達関数は複素数で表される。
【0048】
さらに、
XL(Z):左チャンネルの音響入力信号(補正前の音響信号)
XR(Z):右チャンネルの音響入力信号(補正前の音響信号)
YL(Z):左チャンネルの音響出力信号(補正後の音響信号)
YR(Z):右チャンネルの音響出力信号(補正後の音響信号)
とする。
【0049】
ここで、聴取者8の後方に配置した実際のスピーカ6L、6Rにより出力される音圧により、聴取者8の左耳7Lには、YL(Z)・GLL(Z)、及びYR(Z)・GRL(Z)の音圧が得られる。
また、同じく実際のスピーカ6L、6Rにより出力される音圧により、聴取者8の右耳7Rには、YR(Z)・GRR(Z)、及びYL(Z)・GLR(Z)の音圧が得られる。
【0050】
これに対して、仮想音源のスピーカ12L、12Rを実際に配置したとすると、聴取者8の左耳7Lには、XL(Z)・FLL(Z)、及びXR(Z)・FRL(Z)の音圧が得られる。
また、同じくスピーカ12L、12Rにより出力される音圧により、聴取者8の右耳7Rには、XR(Z)・FRR(Z)、及びXL(Z)・FLR(Z)の音圧が得られる。
【0051】
そして、実際のスピーカ6L、6Rにより左耳7L及び右耳7Rで得られる音圧が、仮想音源のスピーカ12L、12Rを実際に配置した場合に左耳7L及び右耳7Rで得られる音圧と同様となるようにすれば、実在音源のスピーカ6L、6Rによって、仮想音源のスピーカ12L、12Rを実際に配置した場合と同一の状態が形成できるものとなる。
即ち、
YL(Z)・GLL(Z)+YR(Z)・GRL(Z)=XL(Z)・FLL(Z)+XR(Z)・FRL(Z) ・・(式3)
YR(Z)・GRR(Z)+YL(Z)・GLR(Z)=XR(Z)・FRR(Z)+XL(Z)・FLR(Z) ・・(式4)
が成立するようにすればよい。
つまり、補正フィルタ部2における補正処理としては、基本的には、左右チャンネルの音響入力信号XL(Z)、XR(Z)について、上記(式3)(式4)が成立する左右チャンネルの音響出力信号YL(Z)、YR(Z)を得るようにすれば、実際のスピーカ6L、6Rを用いて、聴取者8の左耳7L及び右耳7Rに、仮想音源のスピーカ12L、12Rによる仮想音像9を形成できるものである。
【0052】
ここで、補正フィルタ部2におけるデータ処理量を低減するため、上記の頭部音響伝達関数が「左右対称」であり、すなわち、
FLL(Z) =FRR(Z) ・・・(式5)
FLR(Z) =FRL(Z) ・・・(式6)
GLL(Z) =GRR(Z) ・・・(式7)
GLR(Z) =GRL(Z) ・・・(式8)
が成立すると仮定して補正フィルタ部2を構成する。
なお、このように左右対称を仮定するため、頭部音響伝達関数を測定するときのダミーヘッドの設置場所は、シート14の中央、すなわち、実際に設置されている左右のスピーカ6L、6Rの中間が望ましい。また、こうすることによって、シート起因の補正誤差が少なくなり、どのようなシートにおいても補正効果を見込むことができる。
【0053】
そして(式5)(式6)(式7)(式8)の仮定のもとで、仮想音源12L、12Rから音が出ているように補正するには、上記(式3)(式4)を変形した次の(式9)(式10)を満足させればよい。すなわち、FRR(Z)をFLL(Z)に、FRL(Z)をFLR(Z)に、GRR(Z)をGLL(Z)に、GRL(Z)をGLR(Z)に、それぞれ置き換えて、
YL(Z)・GLL(Z)+YR(Z)・GLR(Z)=XL(Z)・FLL(Z)+XR(Z)・FLR(Z) ・・(式9)
YR(Z)・GLL(Z)+YL(Z)・GLR(Z)=XR(Z)・FLL(Z)+XL(Z)・FLR(Z) ・・(式10)
とする。
【0054】
ここで、Hp(Z)、Hm(Z)を、
Hp(Z)=(FLL(Z)+FLR(Z))/(GLL(Z)+GLR(Z)) ・・・(式11)
Hm(Z)=(FLL(Z)−FLR(Z))/(GLL(Z)−GLR(Z)) ・・・(式12)
のように定義すると、上記(式9)(式10)のYL(Z)、YR(Z)は、
YL(Z)=Hp(Z)・(XL(Z)+XR(Z))/2+Hm(Z)・(XL(Z)−XR(Z))/2・・・(式13)
YR(Z)=Hp(Z)・(XL(Z)+XR(Z))/2−Hm(Z)・(XL(Z)−XR(Z))/2・・・(式14)
となる。
ここでいうHp(Z)、Hm(Z)は、補正フィルタ部2に組み込まれる第1デジタルフィルタと第2デジタルフィルタの伝達特性を表す。
【0055】
また、2チャンネルステレオ音響信号の差成分は、ステレオ感、広がり感に強く影響していることが知られている。そして、(式13)(式14)の「Hm(Z)・(XL(Z)−XR(Z))」は、ステレオ音響信号の差成分である。
従って、この「Hm(Z)・(XL(Z)−XR(Z))」項のレベルを制御すると、空間的な広がり感を制御できることになる。
【0056】
そこで(式13)(式14)の「Hm(Z)・(XL(Z)−XR(Z))」項に広がり感を制御するためのパラメータとして、係数kを乗ずると、(式13)(式14)は次の(式15)(式16)のようになる。
YL(Z)=Hp(Z)・(XL(Z)+XR(Z))/2+k・Hm(Z)・(XL(Z)−XR(Z))/2・・・(式15)
YR(Z)=Hp(Z)・(XL(Z)+XR(Z))/2−k・Hm(Z)・(XL(Z)−XR(Z))/2・・・(式16)
【0057】
この(式15)(式16)においては、係数kを大きくすると、「Hm(Z)・(XL(Z)−XR(Z))」項の差成分が強調され、従って、再生音場の広がり感が増強される。
【0058】
そして本例の補正フィルタ部2としては、入力される左右チャンネルの音響入力信号XL(Z)、XR(Z)について、上記(式15)(式16)に示す補正処理を行って左右チャンネルの音響出力信号YL(Z)、YR(Z)を得るようにすればよい。これによって、上記(式9)(式10)が満足されて、スピーカ6L、6Rにより仮想音像9を形成できるものとなる。さらに再生音場の広がり間も制御できる。従って、補正フィルタ部2としては、特性が(式11)(式12)により示される特性Hp(Z)、Hm(Z)のフィルタと、上記(式15)(式16)における加減算を行うための加算回路および減算回路と、係数kの乗算を行うレベル制御回路とを備えて構成できることになる。
【0059】
補正フィルタ部2は、例えばDSPにより構成され、その演算処理により補正処理を行うものとなるが、その処理をハードウェア的に示すと図7のようになる。音響入力信号XL(Z)、XR(Z)は減算回路22および加算回路21に供給されて差信号および和信号が形成される。そして減算回路22の出力である差信号がレベル制御回路24に供給されて(式15)(式16)における係数kに対応するレベル制御が行われる。そして、差信号は(式12)の伝達特性Hm(Z)のFIRフィルタ回路25に供給される。また加算回路21の出力である和信号は(式11)の伝達特性Hp(Z)のFIRフィルタ回路23に供給される。
そして、これら2つのFIRフィルタ回路23,25の出力信号が、レベル制御回路26,27で所定の比率(1/2乗算)されて加算回路28および減算回路29に供給されて音響出力信号YL(Z)、YR(Z)が形成される構成となる。
この音響出力信号YL(Z)、YR(Z)が、図1に示したように音響デジタル信号出力回路3を通じて、次段のD/A変換器4に供給される。
【0060】
また特に本例では上述したように、赤外線センサー17から聴取者の頭部の位置をリアルタイムで検出することにより、CPU11によって常時、最適な頭部音響伝達関数が選択され、補正フィルタ部2に設定される。
つまり、聴取者8の頭部位置の検出結果に応じて、或る1組の頭部音響伝達関数FLL(Z)、FRR(Z)、FLR(Z)、FRL(Z)、GLL(Z)、GRR(Z)、GLR(Z)、GRL(Z)が記憶部13のデータべースから選択される。
但し上記(式5)〜(式8)の仮定によるため、実際には1組の頭部音響伝達関数として、FLL(Z)、FLR(Z)、GLL(Z)、GLR(Z)が選択されればよい。
【0061】
なお、このことから理解されるように、上記(式5)〜(式8)の仮定を採用することは、補正フィルタ部2の演算の簡略化だけでなく、記憶部13のデータベースサイズを小さくでき、また頭部音響伝達関数の測定の簡略化を実現する効果も生ずる。
【0062】
そして、この頭部音響伝達関数FLL(Z)、FLR(Z)、GLL(Z)、GLR(Z)は、(式11)(式12)に示したように、特性Hp(Z)、Hm(Z)を規定するものとなる。
つまりCPU11は、補正フィルタ部2における特性Hp(Z)、Hm(Z)の各FIRフィルタ(図7のFIRフィルタ回路23,25)に対して、赤外線センサ17の検出結果に応じて選択した頭部音響伝達関数FLL(Z)、FLR(Z)、GLL(Z)、GLR(Z)から導かれる特性Hp(Z)、Hm(Z)を設定するように制御する。
【0063】
以上により、本例の音響再生装置では、実在音源のスピーカ6L、6Rが後方空間(例えば、シート14のヘッドレスト)に取付けられていても、仮想音源としてのスピーカ12L、12Rの位置(例えば、シート14の前方に設置されるディスプレイ15の左右位置)にスピーカが配置されている場合と同等の音像を得ることができ、さらに聴取者の頭がゆらいだり、動いたりする場合においても、適切に仮想音源を配置し、この仮想音源から再生音が出力されているように知覚させることができるので、聴取者にとって違和感なく理想的な音場および音像を作り出すことができる。
さらに、このような音場を後方空間のスピーカ6L、6Rで実現できるため、前方空間でのスピーカ配置が不要とでき、スピーカ設置の容易度や自由度性を向上させる。これは、室内、自動車内など多様な空間での音響再生装置の設置に好適なものとなる。
【0064】
また、音像が聴取者の頭内あるいは後方空間に定位してしまうことを防ぎ、音像を任意空間に定位させることができる。
また、小さな高域再生用のサテライトスピーカが併設されている場合に生じる不具合、すなわち、音が分離して聞こえるという不整合性を解消することができ、一つのスピーカから音が出ているように知覚させることができる。
【0065】
また前述のように、音響信号の左および右チャンネルの差成分が、再生音のステレオ感、広がり感に強く影響しているが、図7のように補正フィルタ部2にはレベル制御回路24が設けられており、このレベル制御回路24の係数kの乗算処理によって再生音の空間的な広がり感を強調することができる。
もちろん、例えばCPU11によって、レベル制御回路24の乗算係数kを可変設定することにより、減算回路23から後段のFIRフィルタ回路25に供給される差成分のレベルを可変制御でき、再生音の空間的な広がり感を調整・補正することや、音量レベルに応じて最適な補正を行うこともできる。
【0066】
なお上記説明では、記憶部13においては頭部音響伝達関数をデータベース化して記憶するとしたが、必ずしも測定した頭部音響伝達関数自体を記憶しなくても良い。即ち予め測定した頭部音響伝達関数から、聴取者8の各種の頭部位置状態に応じた特性Hp(Z)、Hm(Z)を算出しておき、FIRフィルタ回路23,25に伝達特性制御値をデータベース化して記憶しておいてもよい。
【0067】
また、複数の頭部音響伝達関数の平均を取ることにより、3以上のスピーカシステムを用いる場合でも、効果的な補正フィルタ部2を作成することができ、従って、スピーカ数を限定しない補正フィルタ部2(音響再生装置)として広く適用させることもできる。
【0068】
<第2の実施の形態>
図8に第2の実施の形態の音響再生装置を示す。なお、この図8の構成は、図1の構成に加えて操作部18が追加されたものである。他の構成は、基本的には図1と同様であるため、重複説明を避ける。
【0069】
この図8において操作部18は、聴取者8等が任意に操作できるものであり、仮想音像9の位置を任意に変化させるためのものである。
例えば聴取者8は、操作部18を操作することで、前方空間において仮想音像9の位置を、例えば仮想音像9a、9bのように変化させることができる。
このためには、操作部18によって指示された仮想音像9の位置を実現する仮想音源のスピーカ12L、12Rからの頭部音響伝達関数が可変的に選択されればよいものとなる。
【0070】
この場合、予め行う頭部音響伝達関数の測定時には、仮想音源のスピーカ12L、12Rから聴取者8への頭部音響伝達関数として、仮想音源のスピーカ12L、12Rの位置を各種多様な位置に変えながら上述した(C)の測定を行い、データベース化して記憶部13に格納しておく。
【0071】
そしてCPU11は、操作部18の操作に応じて、指示された仮想音像9に位置させるためのスピーカ12L、12Rの配置状態で測定された頭部音響伝達関数(FLL(Z)、FLR(Z))を選択する。
なお、操作に応じて選択される頭部音響伝達関数(FLL(Z)、FLR(Z))の組は複数組となる。なぜなら、或る1つのスピーカ12L、12Rの配置状態において、聴取者8の頭部位置を変更しながら複数の頭部音響伝達関数が測定されているためである。
例えば仮想音像9aの位置が指示された場合は、仮想音像9aを実現するためのスピーカ12L、12Rの配置状態(12La、12Raの位置)においてダミーヘッド位置を変えて複数回測定された頭部音響伝達関数が選ばれる。
【0072】
そしてこの場合、さらにCPU11は、赤外線センサ17からの検出情報に応じて、頭部音響伝達関数FLL(Z)、FLR(Z)、GLL(Z)、GLR(Z)を選択する。
つまり、操作部18の操作に応じて選ばれた仮想音像9の位置に対応する頭部音響伝達関数としての複数のFLL(Z)及びFLR(Z)から、現在の聴取者8の頭部位置に応じた1つのFLL(Z)及びFLR(Z)を選択し、また上記第1の実施の形態の場合と同様に1つのGLL(Z)、GLR(Z)を選択する。
このように頭部音響伝達関数FLL(Z)、FLR(Z)、GLL(Z)、GLR(Z)が選択されたら、この選択された頭部音響伝達関数FLL(Z)、FLR(Z)、GLL(Z)、GLR(Z)によって補正フィルタ部2におけるFIRフィルタ回路23,25の伝達特性Hp(Z)、Hm(Z)を制御することは、第1の実施の形態と同様である。
【0073】
すなわちこの第2の実施の形態の場合、仮想音像9の位置を任意に変更できるものとなり、聴取者8の好みに応じて仮想音像位置を移動させたり、或いは室内、自動車内など音響再生装置の設置空間やディスプレイ装置15の配置位置などを含めたリスニング環境に応じて、好適な仮想音像9の位置を調整することなどができる。
【0074】
以上、本発明の実施の形態について説明してきたが、本発明としては更に多様な変形例が考えられる。
上記例では聴取者8の頭部位置として前後方向の動き、高さ方向の差(座高差)についてリアルタイムに対応するものとしたが、横方向のずれや、さらには頭の向きの角度状態を検出できるようにし、それに応じた頭部音響伝達関数が選択されるようにすることも考えられる。
【0075】
またスピーカ6L、6Rの配置は、もちろんシート14に限られるものではなく、聴取者8の後方空間に配置されるのであれば、どのような態様であってもよい。
また、シート14に配置するような例の場合、室内用シート、自動車内のシートだけでなく、列車、船舶、飛行機、劇場などのシートとすることで、多様な環境で臨場感あふれる音響体験を実現させることができる。
【0076】
【発明の効果】
以上の説明から理解されるように本発明によれば、聴取者の後方空間に設置されたスピーカから出力する音響信号を、頭部音響伝達関数に基づいた補正処理を行った音響信号とすることで、聴取位置の前方空間などの所定方向位置に音像定位させるようにし、さらに、上記補正処理のために、聴取者の頭部の位置を検出しながら適切な頭部音響伝達関数を選択するようにしている。
このため、聴取者の頭がゆらいだり、動いたりする場合においても、適切に仮想音源を配置し、この仮想音源から再生音が出力されているように知覚させることができるようになり、聴取者にとって違和感なく理想的で安定した音場および音像を作り出すことができる。
【0077】
また、聴取者の後方空間にスピーカを設置するものであるため、聴取者前方の不本意な場所にスピーカを設置することがないまま、聴取者の位置から任意の空間に自由自在に音像を定位させることができる。
これは室内等においてスピーカ配置に関しての困難性を解消する。また映像表示をともなう場合は、ディスプレイ装置やスクリーンとのスピーカの配置関係にも困ることは無くなるという利点が得られる。
また、後方スピーカ、例えばシートに配設したスピーカにより任意空間に仮想音像を再現することにより、効果的な音響体感が可能となるので、自動車、列車、船舶、飛行機、および室内鑑賞用途としても、生演奏を聴いているような効果的な音楽鑑賞、映画館にいるような臨場感あふれる映画鑑賞を実現させることができるという効果を奏する。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態の音響再生装置の構成例のブロック図である。
【図2】実施の形態におけるシートに配設されるスピーカ及びセンサの説明図である。
【図3】実施の形態の音響再生装置における後方空間の水平方向を表す上面図である。
【図4】実施の形態の音響再生装置における後方空間の垂直方向を表す側面図である。
【図5】実施の形態の音響再生装置における聴取者、実在音源、仮想音源、及び頭部音響伝達関数の説明図である。
【図6】実施の形態の音響再生装置におけるスピーカと聴取者の頭部の位置関係の説明図である。
【図7】実施の形態の音響再生装置の補正処理の説明図である。
【図8】本発明の第2の実施の形態の音響再生装置の構成例のブロック図である。
【図9】従来の音響再生装置の構成例を示すブロック図である。
【図10】仮想的な音像からの音響信号Eの放射の説明図である。
【符号の説明】
1 音響デジタル信号入力部、2 補正フィルタ部、3 音響デジタル信号出力部、4 D/A変換器、5 出力アンプ、6L 左チャンネルスピーカ、6R
右チャンネルスピーカ、17 赤外線センサ、18 操作部[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an audio output device, an audio output system, and an audio output method capable of localizing a virtual sound image in an arbitrary space in an AV playback device (audio / visual playback device), a multimedia playback device, and the like. Things.
[0002]
[Prior art]
2. Description of the Related Art In recent years, in the audio / video field and the multimedia field, it is desired to reproduce an audio / video having a three-dimensional effect and a sense of reality, and hardware corresponding to this is being actively developed. In particular, in sound reproduction, the sound signal can be heard from the side, the rear, or the upper or lower side without arranging the speaker in the side or the rear of the listener, or in the direction above or below, or a combination thereof. A sound reproducing apparatus for localizing a virtual sound image has attracted attention. In the sound image control, a technique for interactively controlling the sound image localization has also attracted attention.
[0003]
In general, in a stereophonic system that has been conventionally used, a sound image position is controlled using a plurality of speakers to give a listener a sense of presence.
However, in a conventional speaker system in which speakers are installed on the left and right in front of a listener, a sound image can be formed only between two speakers.
Furthermore, when headphones are used, a specific phenomenon (intra-head localization) in which a sound image is formed in the head occurs, and the listener is often tired.
[0004]
On the other hand, with the development of hardware such as an audio signal processing technology and a DSP (Digital Signal Processor), even in a system in which left and right speakers are installed in front of a listener, sound image localization to an arbitrary position in front of the listener is performed. Became.
Also, in systems using headphones, attempts have been made to localize the sound image outside the head.
Conventionally, as an acoustic signal processing technique for localizing a sound image by two-channel speaker reproduction, a technique using convolution and crosstalk cancellation of a head acoustic transfer function in a time domain is known.
[0005]
In the acoustic signal processing technology for localizing a sound image, an operation related to sound image localization is performed using a head acoustic transfer function that means a transfer characteristic of a sound from a front sound source to a listener's ear.
FIG. 9 is a block diagram illustrating an example of a conventional sound reproducing device that controls sound image localization.
In FIG. 9, an audio signal of the L and R channels is input to an audio signal input unit 31. The input audio signals of the L and R channels are respectively converted into digital audio signals by the A /
After being processed by the
[0006]
In this sound reproducing device, a sound
When an arbitrary predetermined sound image position is input by the sound
[0007]
Further, in the above-described crosstalk canceling technique, it is possible to localize a sound image outside a speaker by mixing sounds of opposite phases.
For example, in FIG. 10, it is assumed that a sound signal of sound pressure E is emitted from a sound image at a virtual position, and the sound signals give sound pressures of yL and yR to the left and right ears of the listener, respectively.
The head acoustic transfer function from the virtual sound image to the left ear is TL (Z), and the head acoustic transfer function from the virtual sound image to the right ear is TR (Z). When the relationship between the virtual sound image and yL, yR is represented using head-related acoustic transfer functions TL (Z), TR (Z),
yL = TL (Z) × E (Equation 1)
yR = TR (Z) × E (Equation 2)
It becomes.
[0008]
In order to localize the sound image at the virtual position in FIG. 10 (the position outside the actual left and right speakers), the sound pressure yR obtained by (Equation 1) and (Equation 2) in the
That is, a virtual sound image as shown in FIG. 10 can be created by canceling the sound reaching the right ear from the left speaker and the sound reaching the left ear from the right speaker (these are referred to as “crosstalk sounds”).
Specifically, using the above TL (Z), TR (Z) and the head-related acoustic transfer function from the actual speaker to the ear, two directional localization filters having common inputs are used to determine the direction of the sound image. The sound image is localized at the virtual position in FIG. 10 through the acoustic signal by the localizer and a crosstalk canceller having a filter having a filter characteristic for removing the influence of the crosstalk sound.
[0009]
For example, the techniques related to the sound image localization described above are known, and the following literatures show the techniques related to the sound image localization.
[0010]
[Patent Document 1] JP-A-10-224900
[0011]
[Problems to be solved by the invention]
However, in the conventional sound reproducing device as described above, since the speaker is installed in the space in front of the listener, the speaker cannot be mounted at a position necessary to create an ideal sound field and sound image for the listener. There were many.
[0012]
For example, in the case of a listener sitting on a seat and watching a video on a display, it is necessary to mount a speaker in a place where viewing is not hindered, and the installation location of the speaker is restricted. Therefore, in some cases, the speaker must be installed in an undesired place in front of the listener, and the sound image can be freely moved from the position of the listener to an arbitrary space, for example, to the side or back of the listener, or in the vertical direction. I couldn't freely localize.
[0013]
Accordingly, the present applicant has previously provided, as a prior art, a sound reproducing apparatus capable of obtaining a natural sound image localization in an arbitrary space using a speaker installed in a space behind a listener in Japanese Patent Application No. 2001-246360. .
According to the present invention, a virtual sound source can be placed in a place where mounting is impossible, and it can be perceived that a reproduced sound is output from the virtual sound source. And can produce sound images.
However, when the listener's head moves during playback, it is difficult to obtain a sufficient sound image localization feeling because an optimal head-related acoustic transfer function cannot be applied.
[0014]
[Means for Solving the Problems]
The present invention has been made in view of such a problem, and realizes a sound reproducing apparatus that can obtain a natural sound image localization in an arbitrary space by using a speaker installed in a space behind a listener. It is an object of the present invention to be able to obtain a sense of sound image stability corresponding to the movement of the listener's head at that time.
[0015]
Therefore, the sound output device of the present invention is a sound output device that supplies a sound output signal of a plurality of channels to a speaker of a plurality of channels installed in a space behind a listening position of a listener. Correction filter means for performing a correction process based on a head acoustic transfer function so as to localize a sound image in a predetermined direction space with respect to the listening position with respect to the input signal, and a signal of a plurality of channels corrected by the correction filter means Signal output means for supplying a sound output signal to the speakers of the plurality of channels, a sensor means for detecting a positional relationship between a position of the speaker and a head position of the listener, and a detection result of the sensor means Control means for selecting a head-related sound transfer function according to the above, and controlling the correction processing of the correction filter means. That.
In this case, the space in the predetermined direction in which the sound image is localized is a space in front of the listening position.
Further, an operating means for variably instructing a predetermined direction space for sound image localization is further provided, and the control means selects a head acoustic transfer function according to a detection result of the sensor means and operation information of the operating means. Then, the correction processing of the correction filter means is controlled.
[0016]
The sound output system of the present invention includes the sound output device having the above-described configuration, and a plurality of channels of speakers installed in a space behind a listening position of a listener.
[0017]
According to the sound output method of the present invention, when a plurality of channels of sound output signals are supplied to a plurality of channels of speakers installed in a space behind the listener's listening position, the position of the speakers and the head of the listener Detecting the positional relationship with the position of the head, selecting a head-related acoustic transfer function according to the detection result, and for each of the digital audio input signals of a plurality of channels, to localize a sound image in a predetermined direction space with respect to the listening position. And performing a correction process based on the selected head-related acoustic transfer function, and supplying the corrected multi-channel signals to the multi-channel speakers as sound output signals.
[0018]
According to the present invention as described above, the sound signal output from the speaker installed in the space behind the listener is set as the sound signal subjected to the correction processing based on the head-related sound transfer function, so that the sound signal in front of the listening position is obtained. A sound image is localized at a position in a predetermined direction such as a space. Furthermore, a stable sound image localization state is obtained by selecting an appropriate head acoustic transfer function while detecting the position of the listener's head in real time.
The rear space of the listener includes the left and right ear openings of the listener, includes a plane parallel to the central axis of the listener's body, includes the plane, and is divided into two spaces by the plane. It means one space including the back of the listener.
The head acoustic transfer function is a function representing a transmission system from a sound source to one ear (eardrum) of a human, and reflects reflection, diffraction, resonance, and the like of the head, pinna, shoulder, and the like. The head acoustic transfer function can be obtained by measurement. Each head-related transfer function is represented by a complex number.
[0019]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, sound reproducing apparatuses according to first and second embodiments of the present invention will be described in detail with reference to the drawings.
[0020]
<First embodiment>
FIG. 1 shows a configuration of a sound reproducing apparatus according to a first embodiment.
This sound reproducing apparatus includes an audio digital
[0021]
The audio digital
Alternatively, as a source of the analog audio signal, an analog audio signal output from, for example, an FM tuner is converted into digital audio data by an A / D converter (not shown), and the digital audio data is input to the audio digital
[0022]
The digital audio data of the L and R channels supplied to the audio digital
Although the details of the
Further, the
[0023]
The digital audio data corrected by the
The analog audio signal is supplied to the left and
[0024]
The
[0025]
The
That is, assuming that the listener sitting on the
The
[0026]
1 and 2
On the other hand, if the actually installed speakers are called real sound sources, the
[0027]
FIGS. 3 and 4 show appropriate positions of the
FIG. 3 is a top view showing the horizontal direction of the rear space.
As shown in FIG. 3, the rear space includes the
Also, as shown in FIG. 3, an orthogonal projection angle that forms a
0 ° ≦ θ1 ≦ 90 °
-30 ° ≤θ2≤ + 30 °
(However, counterclockwise is defined as +)
Is desirable.
By arranging the
[0028]
FIG. 4 is a side view showing the vertical direction of the rear space.
As shown in FIG. 4, the rear space includes the
As shown in FIG. 4, a straight line connecting the positions of the
In this case, the angle θ3 and the angle θ4 are
-90 ° ≦ θ3 ≦ 90 °
-30 ° ≦ θ4 ≦ + 30 °
(However, counterclockwise is defined as +)
Is desirable.
By arranging the
[0029]
Further, in the sound reproducing device of the present example, an
For example, as shown in FIG. 2, the infrared sensor is disposed at the center of the headrest of the
Since the
[0030]
FIGS. 5A, 5B, and 5C show examples of the positional relationship detected by the
As shown in the drawing, even when the
The
[0031]
By arranging a plurality of
In this case, even if the horizontal distance d between the
[0032]
Although not shown, since the head of the
[0033]
In this example, the
That is, any configuration may be used as long as it can detect at least the positional relationship (at least the distance) between the
For example, in the case of a sound reproduction system in a car, the sound reproduction system may be arranged in a headrest in a driver's seat, or may be arranged in a ceiling or a side wall of the car.
[0034]
The CPU 11 of FIG. 1 constantly monitors the detection information from the
The
The head acoustic transfer function is a function representing a transmission system from a sound source to one ear (eardrum) of a human, and reflects reflection, diffraction, resonance, and the like of the head, pinna, shoulder, and the like. The head acoustic transfer function can be obtained by measurement. Each head-related transfer function is represented by a complex number.
[0035]
When the CPU 11 determines the positional relationship (distance) based on the detection information from the
Then, the acquired head acoustic transfer function (or the correction parameter value calculated from the head acoustic transfer function) is supplied to the
[0036]
That is, in the present example, the sound reproduced from the
[0037]
Hereinafter, the correction processing using the head acoustic transfer function will be described.
First, a method of measuring the head acoustic transfer function will be described.
As described above, the
[0038]
This head-related acoustic transfer function can be generally measured as follows. That is,
(A) A speaker and a dummy head in the shape of a human head are arranged.
(B) An impulse signal that becomes flat on the frequency axis when Fourier-transformed is input to the speaker as a test signal. The test signal may be a signal having the property of an impulse function such as a time stretched pulse signal.
(C) Measure the impulse response of the dummy head at the artificial ear. This is the head-related acoustic transfer function when the impulse response has the positional relationship (a).
[0039]
Therefore, for example, in the case of using the head acoustic transfer function in the sound reproducing device of the present example in which the
(A) A dummy head in the shape of a human head is placed on a standard sheet or a representative sheet.
(B) The speakers are arranged at actual speaker positions, for example, the positions of the
(C) A position where a virtual sound source is desired to be realized, for example, positions of
[0040]
In this way, the head-related transfer function for correcting the position of the sound image by the
That is, the
[0041]
The measurement of the head acoustic transfer function in the above (B), that is, the head acoustic transfer function of the
[0042]
Further, for the measurement of the head acoustic transfer function of (C), that is, for the position where the virtual sound source is to be realized and the head acoustic transfer function of the dummy head, a point is set as the virtual sound source position and the
[0043]
That is, according to the head position of the
[0044]
In the example of the first embodiment shown in FIG. 1, the
[0045]
The correction process using the head acoustic transfer function is performed as follows.
First, it is assumed that the head-related acoustic transfer function measured and analyzed according to the above (A) to (C) is as follows, as shown in FIG.
[0046]
FLL (Z): head acoustic transfer function from the
FLR (Z): head acoustic transfer function from the
FRL (Z): head acoustic transfer function from the
FRR (Z): head acoustic transfer function from the
GLL (Z): head acoustic transfer function from the
GLR (Z): head-related transfer function from the
GRL (Z): head acoustic transfer function from the
GRR (Z): head-related transfer function from the
[0047]
However, as described above, the positions of the
[0048]
further,
XL (Z): left channel sound input signal (sound signal before correction)
XR (Z): right channel audio input signal (audio signal before correction)
YL (Z): left channel sound output signal (corrected sound signal)
YR (Z): right channel sound output signal (corrected sound signal)
And
[0049]
Here, YL (Z), GLL (Z), and YL (Z) are applied to the
In addition, the sound pressure of YL (Z) and GRR (Z) and the sound pressure of YL (Z) and GLR (Z) are applied to the
[0050]
On the other hand, if the
Similarly, sound pressures of XR (Z) and FRR (Z) and XL (Z) and FLR (Z) are obtained in the
[0051]
The sound pressure obtained at the
That is,
YL (Z) · GLL (Z) + YR (Z) · GRL (Z) = XL (Z) · FLL (Z) + XR (Z) · FRL (Z) (3)
YR (Z) · GRR (Z) + YL (Z) · GLR (Z) = XR (Z) · FRR (Z) + XL (Z) · FLR (Z) (Formula 4)
May be satisfied.
That is, the correction processing in the
[0052]
Here, in order to reduce the amount of data processing in the
FLL (Z) = FRR (Z) (Equation 5)
FLR (Z) = FRL (Z) (Equation 6)
GLL (Z) = GRR (Z) (Equation 7)
GLR (Z) = GRL (Z) (Equation 8)
Is satisfied, the
In order to assume the symmetry in this manner, the location of the dummy head when measuring the head-related acoustic transfer function is located at the center of the
[0053]
Then, under the assumptions of (Equation 5), (Equation 6), (Equation 7), and (Equation 8), to correct the sound from the
YL (Z) · GLL (Z) + YR (Z) · GLR (Z) = XL (Z) · FLL (Z) + XR (Z) · FLR (Z) (Equation 9)
YR (Z) · GLL (Z) + YL (Z) · GLR (Z) = XR (Z) · FLL (Z) + XL (Z) · FLR (Z) (Equation 10)
And
[0054]
Here, Hp (Z) and Hm (Z) are
Hp (Z) = (FLL (Z) + FLR (Z)) / (GLL (Z) + GLR (Z)) (Equation 11)
Hm (Z) = (FLL (Z) -FLR (Z)) / (GLL (Z) -GLR (Z)) (Equation 12)
YL (Z) and YR (Z) in the above (Equation 9) and (Equation 10) are defined as
YL (Z) = Hp (Z) · (XL (Z) + XR (Z)) / 2 + Hm (Z) · (XL (Z) −XR (Z)) / 2 (Expression 13)
YR (Z) = Hp (Z) · (XL (Z) + XR (Z)) / 2−Hm (Z) · (XL (Z) −XR (Z)) / 2 (Equation 14)
It becomes.
Here, Hp (Z) and Hm (Z) represent transfer characteristics of the first digital filter and the second digital filter incorporated in the
[0055]
It is known that the difference component of the two-channel stereo sound signal strongly affects the sense of stereo and the sense of spread. “Hm (Z) · (XL (Z) −XR (Z))” in (Equation 13) and (Equation 14) is a difference component of the stereo sound signal.
Therefore, by controlling the level of the “Hm (Z) · (XL (Z) −XR (Z))” term, it is possible to control the sense of spatial expansion.
[0056]
Then, multiplying the “Hm (Z) · (XL (Z) −XR (Z))” term of (Equation 13) and (Equation 14) by a coefficient k as a parameter for controlling the feeling of spread gives (Equation 13) (Equation 14) is as shown in the following (Equation 15) (Equation 16).
YL (Z) = Hp (Z) · (XL (Z) + XR (Z)) / 2 + k · Hm (Z) · (XL (Z) −XR (Z)) / 2 (Equation 15)
YR (Z) = Hp (Z) · (XL (Z) + XR (Z)) / 2−k · Hm (Z) · (XL (Z) −XR (Z)) / 2 (Formula 16)
[0057]
In Equations (15) and (16), when the coefficient k is increased, the difference component of the term “Hm (Z) · (XL (Z) −XR (Z))” is emphasized. Spaciousness is enhanced.
[0058]
Then, the
[0059]
The
Then, the output signals of these two
The sound output signals YL (Z) and YR (Z) are supplied to the D /
[0060]
In particular, in the present embodiment, as described above, by detecting the position of the listener's head from the
In other words, a certain set of head acoustic transfer functions FLL (Z), FRR (Z), FLR (Z), FRL (Z), GLL (Z) according to the detection result of the head position of the
However, FLL (Z), FLR (Z), GLL (Z), and GLR (Z) are actually selected as one set of head acoustic transfer functions because of the assumptions of the above (Equation 5) to (Equation 8). It should be done.
[0061]
As understood from this, adopting the assumptions of the above (Equation 5) to (Equation 8) not only simplifies the operation of the
[0062]
The head acoustic transfer functions FLL (Z), FLR (Z), GLL (Z), and GLR (Z) are, as shown in (Equation 11) and (Equation 12), the characteristics Hp (Z), Hm (Z) will be specified.
In other words, the CPU 11 selects each of the FIR filters (
[0063]
As described above, in the sound reproducing device of this example, even if the
Furthermore, since such a sound field can be realized by the
[0064]
Further, it is possible to prevent the sound image from being localized in the listener's head or in the rear space, and to localize the sound image in an arbitrary space.
In addition, it is possible to eliminate the inconvenience that occurs when a small satellite speaker for high-frequency reproduction is provided, that is, inconsistency in which sound is heard separately, so that sound is output from one speaker. Can be perceived.
[0065]
Further, as described above, the difference component between the left and right channels of the audio signal strongly affects the stereo feeling and the spaciousness of the reproduced sound, but the
Of course, for example, by variably setting the multiplication coefficient k of the
[0066]
In the above description, the head-related transfer function is stored in a database in the
[0067]
Also, by taking the average of a plurality of head-related transfer functions, an effective
[0068]
<Second embodiment>
FIG. 8 shows a sound reproducing apparatus according to the second embodiment. The configuration of FIG. 8 is obtained by adding an
[0069]
In FIG. 8, the
For example, the
For this purpose, the head sound transfer function from the
[0070]
In this case, when the head acoustic transfer function is measured in advance, the positions of the
[0071]
Then, the CPU 11 responds to the operation of the
Note that there are a plurality of sets of head acoustic transfer functions (FLL (Z), FLR (Z)) selected according to the operation. This is because a plurality of head-related acoustic transfer functions are measured while changing the head position of the
For example, when the position of the
[0072]
In this case, the CPU 11 further selects the head acoustic transfer functions FLL (Z), FLR (Z), GLL (Z), and GLR (Z) according to the detection information from the
That is, the current head position of the
When the head-related acoustic transfer functions FLL (Z), FLR (Z), GLL (Z), and GLR (Z) are selected in this manner, the selected head-related acoustic transfer functions FLL (Z), FLR (Z) , GLL (Z) and GLR (Z) controlling the transfer characteristics Hp (Z) and Hm (Z) of the
[0073]
That is, in the case of the second embodiment, the position of the
[0074]
While the embodiments of the present invention have been described above, various other modifications are possible as the present invention.
In the above example, the head position of the
[0075]
The arrangement of the
In addition, in the case of an example in which the seat is arranged on the
[0076]
【The invention's effect】
As understood from the above description, according to the present invention, an acoustic signal output from a speaker installed in a space behind a listener is an acoustic signal subjected to a correction process based on a head acoustic transfer function. Then, the sound image is localized in a predetermined direction position such as a space in front of the listening position, and further, for the correction processing, an appropriate head acoustic transfer function is selected while detecting the position of the listener's head. I have to.
For this reason, even when the listener's head fluctuates or moves, the virtual sound source can be appropriately arranged, and the virtual sound source can be perceived as outputting a reproduced sound. It is possible to create an ideal and stable sound field and sound image without a sense of incongruity.
[0077]
In addition, since the speaker is installed in the space behind the listener, the sound image can be freely located in any space from the listener's position without installing the speaker in an unintended location in front of the listener. Can be done.
This eliminates the difficulty of arranging the speakers indoors. In addition, in the case of displaying an image, there is an advantage that there is no problem in the positional relationship of the speaker with the display device or the screen.
Also, by reproducing a virtual sound image in an arbitrary space by using a rear speaker, for example, a speaker disposed on a seat, an effective acoustic experience can be achieved, so that it can be used for automobiles, trains, ships, airplanes, and indoor viewing applications. The effect is that it is possible to realize an effective music appreciation as if listening to a live performance, and a movie appreciation as if it were in a movie theater.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration example of a sound reproducing device according to a first embodiment of the present invention.
FIG. 2 is an explanatory diagram of a speaker and a sensor provided on a seat in the embodiment.
FIG. 3 is a top view illustrating a horizontal direction of a rear space in the sound reproducing device according to the embodiment;
FIG. 4 is a side view illustrating a vertical direction of a rear space in the sound reproducing device according to the embodiment;
FIG. 5 is an explanatory diagram of a listener, a real sound source, a virtual sound source, and a head acoustic transfer function in the sound reproduction device according to the embodiment;
FIG. 6 is an explanatory diagram of a positional relationship between a speaker and a listener's head in the sound reproducing device according to the embodiment;
FIG. 7 is an explanatory diagram of a correction process of the sound reproducing device according to the embodiment;
FIG. 8 is a block diagram illustrating a configuration example of a sound reproducing device according to a second embodiment of the present invention.
FIG. 9 is a block diagram illustrating a configuration example of a conventional sound reproducing device.
FIG. 10 is an explanatory diagram of radiation of an acoustic signal E from a virtual sound image.
[Explanation of symbols]
Right channel speaker, 17 infrared sensor, 18 operation unit
Claims (5)
複数チャンネルの各音響デジタル入力信号について、上記聴取位置に対して所定方向空間に音像定位させるように、頭部音響伝達関数に基づいた補正処理を行う補正フィルタ手段と、
上記補正フィルタ手段で補正処理された複数チャンネルの信号を、上記複数チャンネルの各スピーカに対して音響出力信号として供給する音響信号出力手段と、
上記スピーカの位置と上記聴取者の頭部位置との位置関係を検出するセンサ手段と、
上記センサ手段の検出結果に応じて頭部音響伝達関数を選択し、上記補正フィルタ手段の補正処理を制御する制御手段と、
を備えたことを特徴とする音響出力装置。As a sound output device for supplying a sound output signal of a plurality of channels to a speaker of a plurality of channels installed in a space behind a listening position of a listener,
For each acoustic digital input signal of a plurality of channels, so as to localize the sound image in a predetermined direction space with respect to the listening position, a correction filter means for performing a correction process based on the head acoustic transfer function,
Sound signal output means for supplying signals of a plurality of channels corrected by the correction filter means as sound output signals to the speakers of the plurality of channels;
Sensor means for detecting the positional relationship between the position of the speaker and the head position of the listener;
Control means for selecting a head acoustic transfer function according to the detection result of the sensor means, and controlling a correction process of the correction filter means;
A sound output device comprising:
上記制御手段は、上記センサ手段の検出結果と、上記操作手段の操作情報とに応じて頭部音響伝達関数を選択し、上記補正フィルタ手段の補正処理を制御することを特徴とする請求項1に記載の音響出力装置。Operating means for variably instructing a predetermined direction space for sound image localization is further provided,
2. The apparatus according to claim 1, wherein the control unit selects a head acoustic transfer function according to a detection result of the sensor unit and operation information of the operation unit, and controls a correction process of the correction filter unit. 3. The sound output device according to claim 1.
複数チャンネルの各音響デジタル入力信号について、上記聴取位置に対して所定方向空間に音像定位させるように、頭部音響伝達関数に基づいた補正処理を行う補正フィルタ手段と、
上記補正フィルタ手段で補正処理された複数チャンネルの信号を、上記複数チャンネルのスピーカに対して音響出力信号として供給する音響信号出力手段と、
上記スピーカの位置と上記聴取者の頭部位置との位置関係を検出するセンサ手段と、
上記センサ手段の検出結果に応じて頭部音響伝達関数を選択し、上記補正フィルタ手段の補正処理を制御する制御手段と、
を備えたことを特徴とする音響出力システム。A multi-channel speaker installed in the space behind the listening position of the listener,
For each acoustic digital input signal of a plurality of channels, so as to localize the sound image in a predetermined direction space with respect to the listening position, a correction filter means for performing a correction process based on the head acoustic transfer function,
Sound signal output means for supplying the signals of the plurality of channels corrected by the correction filter means as sound output signals to the speakers of the plurality of channels;
Sensor means for detecting the positional relationship between the position of the speaker and the head position of the listener;
Control means for selecting a head acoustic transfer function according to the detection result of the sensor means, and controlling a correction process of the correction filter means;
A sound output system comprising:
上記スピーカの位置と上記聴取者の頭部位置との位置関係を検出し、
上記検出結果に応じて頭部音響伝達関数を選択し、
複数チャンネルの各音響デジタル入力信号について、上記聴取位置に対して所定方向空間に音像定位させるように、上記選択された頭部音響伝達関数に基づいた補正処理を行い、
上記補正処理された複数チャンネルの信号を、上記複数チャンネルのスピーカに対して音響出力信号として供給することを特徴とする音響出力方法。When supplying a sound output signal of a plurality of channels to a speaker of a plurality of channels installed in a space behind a listening position of a listener,
Detecting the positional relationship between the position of the speaker and the position of the listener's head,
A head-related sound transfer function is selected according to the detection result,
For each audio digital input signal of a plurality of channels, so as to localize a sound image in a predetermined direction space with respect to the listening position, perform a correction process based on the selected head acoustic transfer function,
A sound output method, wherein the corrected signals of a plurality of channels are supplied as sound output signals to the speakers of the plurality of channels.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002297100A JP2004135023A (en) | 2002-10-10 | 2002-10-10 | Sound outputting appliance, system, and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002297100A JP2004135023A (en) | 2002-10-10 | 2002-10-10 | Sound outputting appliance, system, and method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004135023A true JP2004135023A (en) | 2004-04-30 |
Family
ID=32286884
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002297100A Pending JP2004135023A (en) | 2002-10-10 | 2002-10-10 | Sound outputting appliance, system, and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004135023A (en) |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006279864A (en) * | 2005-03-30 | 2006-10-12 | Clarion Co Ltd | Acoustic system |
JP2007036802A (en) * | 2005-07-28 | 2007-02-08 | Fujitsu Ltd | Information processing apparatus, information processing method, and information processing program |
JP2007067858A (en) * | 2005-08-31 | 2007-03-15 | Sony Corp | Sound signal processor, sound signal processing method and program, and input device |
JP2008270857A (en) * | 2007-04-16 | 2008-11-06 | Sony Corp | Sound reproduction system |
JP2009017094A (en) * | 2007-07-03 | 2009-01-22 | Fujitsu Ten Ltd | Speaker system |
EP1791394A4 (en) * | 2004-09-16 | 2009-10-28 | Panasonic Corp | Sound image localizer |
EP1746862A4 (en) * | 2004-05-13 | 2010-03-31 | Pioneer Corp | Acoustic system |
JP2011205687A (en) * | 2011-06-09 | 2011-10-13 | Pioneer Electronic Corp | Audio regulator |
US8160259B2 (en) | 2006-07-21 | 2012-04-17 | Sony Corporation | Audio signal processing apparatus, audio signal processing method, and program |
US8194898B2 (en) | 2006-09-22 | 2012-06-05 | Sony Corporation | Sound reproducing system and sound reproducing method |
US8311238B2 (en) | 2005-11-11 | 2012-11-13 | Sony Corporation | Audio signal processing apparatus, and audio signal processing method |
US8369531B2 (en) | 2006-01-23 | 2013-02-05 | Sony Corporation | Audio reproducing apparatus and method thereof |
US8368715B2 (en) | 2006-07-21 | 2013-02-05 | Sony Corporation | Audio signal processing apparatus, audio signal processing method, and audio signal processing program |
US8494192B2 (en) | 2005-05-13 | 2013-07-23 | Sony Corporation | Audio reproducing system and method thereof |
JP2014135694A (en) * | 2013-01-11 | 2014-07-24 | Denso Corp | On-vehicle acoustic device |
JP2015070324A (en) * | 2013-09-26 | 2015-04-13 | Kddi株式会社 | Multimedia device and program |
CN104869498A (en) * | 2015-03-25 | 2015-08-26 | 深圳市九洲电器有限公司 | Sound playing control method and system |
WO2019123542A1 (en) * | 2017-12-19 | 2019-06-27 | 株式会社ソシオネクスト | Acoustic system, acoustic control device, and control program |
US10397724B2 (en) | 2017-03-27 | 2019-08-27 | Samsung Electronics Co., Ltd. | Modifying an apparent elevation of a sound source utilizing second-order filter sections |
JPWO2018101279A1 (en) * | 2016-11-29 | 2019-10-24 | ソニー株式会社 | Information processing apparatus, information processing method, and computer program |
US10562426B2 (en) | 2017-12-13 | 2020-02-18 | Lear Corporation | Vehicle head restraint with movement mechanism |
CN112148117A (en) * | 2019-06-27 | 2020-12-29 | 雅马哈株式会社 | Audio processing device and audio processing method |
CN114697803A (en) * | 2020-12-31 | 2022-07-01 | 广州艾美网络科技有限公司 | Sound field adjusting device, sound box and sound equipment |
CN114697691A (en) * | 2020-12-31 | 2022-07-01 | 广州艾美网络科技有限公司 | Integrated audio and video interaction equipment |
WO2023001673A3 (en) * | 2021-07-19 | 2023-04-27 | Kaetel Systems Gmbh | Apparatus and method for providing audio coverage in a room |
CN118748774A (en) * | 2024-08-16 | 2024-10-08 | 比亚迪股份有限公司 | Vehicle sound effect control method, device, equipment, storage medium and vehicle |
-
2002
- 2002-10-10 JP JP2002297100A patent/JP2004135023A/en active Pending
Cited By (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1746862A4 (en) * | 2004-05-13 | 2010-03-31 | Pioneer Corp | Acoustic system |
EP1791394A4 (en) * | 2004-09-16 | 2009-10-28 | Panasonic Corp | Sound image localizer |
US8005245B2 (en) | 2004-09-16 | 2011-08-23 | Panasonic Corporation | Sound image localization apparatus |
JP2006279864A (en) * | 2005-03-30 | 2006-10-12 | Clarion Co Ltd | Acoustic system |
US8494192B2 (en) | 2005-05-13 | 2013-07-23 | Sony Corporation | Audio reproducing system and method thereof |
JP2007036802A (en) * | 2005-07-28 | 2007-02-08 | Fujitsu Ltd | Information processing apparatus, information processing method, and information processing program |
US8265301B2 (en) | 2005-08-31 | 2012-09-11 | Sony Corporation | Audio signal processing apparatus, audio signal processing method, program, and input apparatus |
JP2007067858A (en) * | 2005-08-31 | 2007-03-15 | Sony Corp | Sound signal processor, sound signal processing method and program, and input device |
US8311238B2 (en) | 2005-11-11 | 2012-11-13 | Sony Corporation | Audio signal processing apparatus, and audio signal processing method |
US8369531B2 (en) | 2006-01-23 | 2013-02-05 | Sony Corporation | Audio reproducing apparatus and method thereof |
US8160259B2 (en) | 2006-07-21 | 2012-04-17 | Sony Corporation | Audio signal processing apparatus, audio signal processing method, and program |
US8368715B2 (en) | 2006-07-21 | 2013-02-05 | Sony Corporation | Audio signal processing apparatus, audio signal processing method, and audio signal processing program |
US8194898B2 (en) | 2006-09-22 | 2012-06-05 | Sony Corporation | Sound reproducing system and sound reproducing method |
US8199940B2 (en) | 2007-04-16 | 2012-06-12 | Sony Corporation | Audio reproduction system and speaker apparatus |
JP2008270857A (en) * | 2007-04-16 | 2008-11-06 | Sony Corp | Sound reproduction system |
JP2009017094A (en) * | 2007-07-03 | 2009-01-22 | Fujitsu Ten Ltd | Speaker system |
JP2011205687A (en) * | 2011-06-09 | 2011-10-13 | Pioneer Electronic Corp | Audio regulator |
JP2014135694A (en) * | 2013-01-11 | 2014-07-24 | Denso Corp | On-vehicle acoustic device |
US9191765B2 (en) | 2013-01-11 | 2015-11-17 | Denso Corporation | In-vehicle audio device |
JP2015070324A (en) * | 2013-09-26 | 2015-04-13 | Kddi株式会社 | Multimedia device and program |
CN104869498A (en) * | 2015-03-25 | 2015-08-26 | 深圳市九洲电器有限公司 | Sound playing control method and system |
US11683471B2 (en) | 2016-11-29 | 2023-06-20 | Sony Corporation | Information processing device and information processing method |
JPWO2018101279A1 (en) * | 2016-11-29 | 2019-10-24 | ソニー株式会社 | Information processing apparatus, information processing method, and computer program |
JP7159870B2 (en) | 2016-11-29 | 2022-10-25 | ソニーグループ株式会社 | Information processing device, information processing method, and computer program |
US10397724B2 (en) | 2017-03-27 | 2019-08-27 | Samsung Electronics Co., Ltd. | Modifying an apparent elevation of a sound source utilizing second-order filter sections |
US10602299B2 (en) | 2017-03-27 | 2020-03-24 | Samsung Electronics Co., Ltd. | Modifying an apparent elevation of a sound source utilizing second-order filter sections |
US10562426B2 (en) | 2017-12-13 | 2020-02-18 | Lear Corporation | Vehicle head restraint with movement mechanism |
CN111492667A (en) * | 2017-12-19 | 2020-08-04 | 株式会社索思未来 | Acoustic system, acoustic control device, and control program |
JPWO2019123542A1 (en) * | 2017-12-19 | 2020-12-17 | 株式会社ソシオネクスト | Acoustic systems, acoustic controls and control programs |
US11128975B2 (en) | 2017-12-19 | 2021-09-21 | Socionext Inc. | Acoustic system and acoustic control device |
CN111492667B (en) * | 2017-12-19 | 2021-12-31 | 株式会社索思未来 | Acoustic system, acoustic control device, and control method |
JP7047850B2 (en) | 2017-12-19 | 2022-04-05 | 株式会社ソシオネクスト | Acoustic systems, acoustic controls and control programs |
WO2019123542A1 (en) * | 2017-12-19 | 2019-06-27 | 株式会社ソシオネクスト | Acoustic system, acoustic control device, and control program |
CN112148117A (en) * | 2019-06-27 | 2020-12-29 | 雅马哈株式会社 | Audio processing device and audio processing method |
CN114697691A (en) * | 2020-12-31 | 2022-07-01 | 广州艾美网络科技有限公司 | Integrated audio and video interaction equipment |
CN114697803A (en) * | 2020-12-31 | 2022-07-01 | 广州艾美网络科技有限公司 | Sound field adjusting device, sound box and sound equipment |
CN114697691B (en) * | 2020-12-31 | 2024-01-19 | 广州艾美网络科技有限公司 | Integrated audio/video interaction equipment |
WO2023001673A3 (en) * | 2021-07-19 | 2023-04-27 | Kaetel Systems Gmbh | Apparatus and method for providing audio coverage in a room |
CN118748774A (en) * | 2024-08-16 | 2024-10-08 | 比亚迪股份有限公司 | Vehicle sound effect control method, device, equipment, storage medium and vehicle |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2004135023A (en) | Sound outputting appliance, system, and method | |
AU2001239516B2 (en) | System and method for optimization of three-dimensional audio | |
US8170245B2 (en) | Virtual multichannel speaker system | |
JP5184741B2 (en) | Recovery of central channel information in vehicle multi-channel audio systems | |
US8787602B2 (en) | Device for and a method of processing audio data | |
CN103053180B (en) | For the system and method for audio reproduction | |
AU2001239516A1 (en) | System and method for optimization of three-dimensional audio | |
JP4692803B2 (en) | Sound processor | |
US7978860B2 (en) | Playback apparatus and playback method | |
US20120224729A1 (en) | Directional Electroacoustical Transducing | |
JP5986426B2 (en) | Sound processing apparatus and sound processing method | |
JP3896865B2 (en) | Multi-channel audio system | |
JP2003092799A (en) | Acoustic processor | |
JP4887290B2 (en) | Sound image localization controller | |
JPH0851698A (en) | Surround signal processor and video and audio reproducing device | |
JP2008312096A (en) | Acoustic playback apparatus, and television receiver | |
JP5533282B2 (en) | Sound playback device | |
JP2012227647A (en) | Spatial sound reproduction system by multi-channel sound | |
JP2003061197A (en) | Acoustic device, seat, and transport facilities | |
JP4917946B2 (en) | Sound image localization processor | |
US9402143B2 (en) | Method for processing an audio signal, audio playback system, and processing unit for processing audio signals | |
CN111543068A (en) | Sound processing device, sound processing method, and program | |
Kuhlen et al. | A true spatial sound system for CAVE-like displays using four loudspeakers | |
WO2025110110A1 (en) | Audio reproduction system | |
JP2003061195A (en) | Sound signal reproducing device |