[go: up one dir, main page]

JP2004135023A - Sound outputting appliance, system, and method - Google Patents

Sound outputting appliance, system, and method Download PDF

Info

Publication number
JP2004135023A
JP2004135023A JP2002297100A JP2002297100A JP2004135023A JP 2004135023 A JP2004135023 A JP 2004135023A JP 2002297100 A JP2002297100 A JP 2002297100A JP 2002297100 A JP2002297100 A JP 2002297100A JP 2004135023 A JP2004135023 A JP 2004135023A
Authority
JP
Japan
Prior art keywords
sound
head
listener
transfer function
speakers
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002297100A
Other languages
Japanese (ja)
Inventor
Satoshi Mitamura
三田村 聡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002297100A priority Critical patent/JP2004135023A/en
Publication of JP2004135023A publication Critical patent/JP2004135023A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Stereophonic System (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To enable optimum sound image setting with rear speakers and meet the movements of the listener's head. <P>SOLUTION: A sound signal outputted from a speaker behind a listener is corrected according to a head sound transfer function and then a sound image is localized at a specified position in a specified direction, e.g. in the space in front of the listening position. Further, an optimum head sound transfer function is selected for correction while the position relation between the speaker and the head of the listener is detected. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、AV再生機器(オーディオ・ビジュアル再生機器)、マルチメディア再生機器等において、任意の空間に仮想的な音像を定位させることの可能な音響出力装置、音響出力システム、及び音響出力方法に関するものである。
【0002】
【従来の技術】
近年、音響・映像分野やマルチメディア分野においては、立体感や臨場感のある音響映像再生が望まれ、これに対応するハードウェアの開発が積極的に行われている。特に音響再生では、聴取者の側方や後方、又は上方や下方、あるいはこれらを組合せた方向にスピーカを配置しなくても、側方や後方、あるいは上方や下方から音響信号が聴こえてくるように仮想的な音像を定位させる音響再生装置が注目されている。また、音像制御において、音像定位をインタラクティブに制御する技術も注目されている。
【0003】
一般に、従来から用いられてきたステレオ音響システムでは、複数のスピーカを用いて音像位置を制御し、聴取者の聴覚に臨場感を与えてきた。
しかし、聴取者の前方の左右にスピーカを設置する従来のスピーカシステムでは、2つのスピーカの間にしか音像が出来ない。
さらに、ヘッドホンを用いた場合には、頭の中に音像が出来る特有の現象(頭内定位)が生じ、聴取者は疲れてしまう場合が多い。
【0004】
一方、音響信号処理技術やDSP(Digital Signal Processor)等のハードウェアの発展に伴い、聴取者前方に左右のスピーカを設置するシステムでも、聴取者前方の任意の位置への音像定位が行われるようになった。
また、ヘッドホンを用いるシステムでは、音像を頭外に定位させる試みもなされている。
そして従来、2チャンネルのスピーカ再生によって音像を定位させる音響信号処理技術として、頭部音響伝達関数の時間領域での畳み込みとクロストークキャンセルを用いる技術が知られている。
【0005】
音像を定位させる音響信号処理技術では、前方音源から聴取者の耳元までの音の伝達特性を意味する頭部音響伝達関数を利用して、音像定位に関する演算を行う。
図9は、音像定位の制御を行う従来の音響再生装置の一例を示すブロック図である。
図9において、音響信号入力部31には、L、Rチャンネルの音響信号が入力される。入力されたL、Rチャンネルの音響信号は、それぞれA/D変換器32でデジタル音響信号に変換され、デジタルフィルタ33に入力される。
そしてデジタルフィルタ33で処理された後、D/A変換器34でアナログ音響信号に変換され、アンプ35を介してL、Rチャンネルのスピーカ36に供給される。スピーカ36は、聴取者の前方の左右に設置されるスピーカである。
【0006】
この音響再生装置において、デジタルフィルタ33には音像位置を制御するために音像定位制御器37が接続されている。
音像定位制御器37により任意所定の音像位置を入力されると、デジタルフィルタ33はA/D変換器32から出力された2チャンネルの各信号に、音像定位制御器37で設定された音像位置に応じた係数を畳み込む。そして、この畳み込まれた音響信号がアンプ35により増幅され、聴取者の前方左右に設置されたスピーカ37により音響信号が再生される。このような音響信号処理を行うことにより、聴取者の前方で左右の任意の位置に音像位置を制御することが可能となる。
【0007】
また、前述のクロストークキャンセルの技術では、逆相の音を混合することによって音像をスピーカの外側に定位させることが可能となる。
例えば、図10では、仮想的な位置の音像から音圧Eの音響信号が放射され、音響信号は聴取者の左右の耳元に、各々yLとyRなる音圧を与えるものとする。
そして、仮想音像から左耳元までの頭部音響伝達関数をTL(Z)、仮想音像から右耳元までの頭部音響伝達関数をTR(Z)とする。仮想音像とyL、yRの関係を頭部音響伝達関数TL(Z)、TR(Z)を用いて表すと、
yL=TL(Z)×E ・・・(式1)
yR=TR(Z)×E ・・・(式2)
となる。
【0008】
図10の仮想的な位置(実際の左右スピーカの外側の位置)に音像を定位させるためには、上記図9のデジタルフィルタ33において、上記(式1)(式2)により得られる音圧yR、yLが仮想音像からのものとなるように畳み込み演算処理により音響信号を補正する。そしてさらに、聴取者に対して実際に設置する前方左右のスピーカからの音をキャンセルする。
即ち、左スピーカから右耳に到達する音及び右スピーカから左耳に到達する音(これらを「クロストーク音」という)をキャンセルすることにより、図10のような仮想音像を作り出すことができる。
具体的には、上記TL(Z)、TR(Z)及び実際のスピーカから耳元までの頭部音響伝達関数を用いて、入力が共通の2つの方向定位フィルターを具備し音像の方向を定める方向定位器と、クロストーク音の影響を除去するフィルター特性を持つフィルターを具備するクロストーク・キャンセラーとに、音響信号を通して、図10の仮想位置に音像を定位させる。
【0009】
例えば以上のような音像定位に関する技術が知られているが、音像定位に関する技術を示した文献としては、次のものが挙げられる。
【0010】
【特許文献1】特開平10−224900号公報
【0011】
【発明が解決しようとする課題】
しかしながら上記のような従来の音響再生装置では、聴取者の前方空間にスピーカを設置するため、聴取者にとって理想的な音場および音像を創出するのに必要な位置にスピーカを取付けることができない場合が多かった。
【0012】
例えば、シートに着座してディスプレイで映像を観ている聴取者の場合、視聴を妨げない場所にスピーカを取付ける必要があり、スピーカの設置場所については制約を受けた。従って、場合によっては、聴取者前方の不本意な場所にスピーカを設置しなければならず、聴取者の位置から任意の空間、例えば聴取者の側方や後方、あるいは上下方向等に音像を自由自在に定位させることが出来なかった。
【0013】
そこで本出願人は先に先行技術として、特願2001―246360において、聴取者の後方空間に設置したスピーカを用いて、任意の空間に自然な音像定位を得ることのできる音響再生装置を提供した。
この発明によれば、本来ならば取り付けが不可能な場所に仮想音源を配置し、この仮想音源から再生音が出力されているように知覚させることができるので、聴取者にとって理想的な音場および音像を作り出すことができる。
しかしながら、この音響再生装置は、再生中に聴取者の頭が動く場合、最適な頭部音響伝達関数が適用できなくなるため、十分な音像定位感を得るのが困難であった。
【0014】
【課題を解決するための手段】
本発明はこのような問題点に鑑みてなされたもので、聴取者の後方空間に設置したスピーカを用いて、任意の空間に自然な音像定位を得ることのできる音響再生装置を実現し、またその際に聴取者の頭部の動きにも対応して音像安定感を得ることができるようにすることを目的とする。
【0015】
このため本発明の音響出力装置は、聴取者の聴取位置の後方空間に設置される複数チャンネルのスピーカに対して、複数チャンネルの音響出力信号を供給する音響出力装置として、複数チャンネルの各音響デジタル入力信号について、上記聴取位置に対して所定方向空間に音像定位させるように、頭部音響伝達関数に基づいた補正処理を行う補正フィルタ手段と、上記補正フィルタ手段で補正処理された複数チャンネルの信号を上記複数チャンネルのスピーカに対して音響出力信号として供給する音響信号出力手段と、上記スピーカの位置と上記聴取者の頭部位置との位置関係を検出するセンサ手段と、上記センサ手段の検出結果に応じて頭部音響伝達関数を選択し、上記補正フィルタ手段の補正処理を制御する制御手段と、を備えるようにする。
この場合、音像定位させる上記所定方向空間とは、上記聴取位置に対する前方空間であるとする。
又、音像定位させる所定方向空間を可変指示する操作手段をさらに備えるようにし、上記制御手段は、上記センサ手段の検出結果と、上記操作手段の操作情報とに応じて頭部音響伝達関数を選択し、上記補正フィルタ手段の補正処理を制御する。
【0016】
本発明の音響出力システムは、上記構成の音響出力装置と、聴取者の聴取位置の後方空間に設置される複数チャンネルのスピーカとから成る。
【0017】
本発明の音響出力方法は、聴取者の聴取位置の後方空間に設置される複数チャンネルのスピーカに対して、複数チャンネルの音響出力信号を供給する際に、上記スピーカの位置と上記聴取者の頭部位置との位置関係を検出し、上記検出結果に応じて頭部音響伝達関数を選択し、複数チャンネルの各音響デジタル入力信号について、上記聴取位置に対して所定方向空間に音像定位させるように、上記選択された頭部音響伝達関数に基づいた補正処理を行い、上記補正処理された複数チャンネルの信号を、上記複数チャンネルのスピーカに対して音響出力信号として供給する。
【0018】
このような本発明によれば、聴取者の後方空間に設置されたスピーカから出力する音響信号を、頭部音響伝達関数に基づいた補正処理を行った音響信号とすることで、聴取位置の前方空間などの所定方向位置に音像定位させる。さらに、リアルタイムで聴取者の頭部の位置を検出しながら適切な頭部音響伝達関数を選択することで安定した音像定位状態を得るものである。
尚、聴取者の後方空間とは、聴取者の左右の耳口を含み、該聴取者の人体の中心軸に平行な平面において、該平面を含み、且つ該平面によって分割される2空間における該聴取者の後頭部を含む方の1空間を意味する。
また頭部音響伝達関数は、音源から人間の一方の耳(鼓膜)に至る伝達系を表す関数であり、頭部、耳介、肩等の反射、回折、共振等を反映している。この頭部音響伝達関数は、測定によって求めることができる。また、それぞれの頭部音響伝達関数は複素数で表される。
【0019】
【発明の実施の形態】
以下、本発明の第1、第2実施の形態としての音響再生装置について図面を参照して詳細に説明する。
【0020】
<第1の実施の形態>
図1には第1の実施の形態としての音響再生装置の構成を示している。
この音響再生装置は、音響デジタル信号入力部1,補正フィルタ部2,音響デジタル信号出力部3,D/A変換器4,出力アンプ5,左右スピーカ6(左チャンネルスピーカ6L、右チャンネルスピーカ6R)、CPU11、記憶部13、赤外線センサ17を有して構成される。
【0021】
音響デジタル信号入力部1には、デジタル音響データのソースとして、例えばCD/MD/DVDなどのAVメディアに対する再生装置から出力されるL、R2チャンネルのデジタル音響データが入力される。
又は、アナログ音響信号のソースとして、例えばFMチューナ等から出力されるアナログ音響信号が、図示されていないA/D変換器においてデジタル音響データに変換され、そのデジタル音響データが音響デジタル信号入力部1に供給されるものであってもよい。
【0022】
音響デジタル信号入力部1に供給されたL、Rチャンネルのデジタル音響データは、補正フィルタ部2に供給されて所定の補正処理が実行される。
補正フィルタ部2の詳細については後述するが、この補正フィルタ部2は、左チャンネル及び右チャンネルのスピーカ6L、6Rにより再生された音像が目的とする位置(図1では仮想音像9の位置)にくるように、デジタル音響データを補正するものである。
また、この補正フィルタ部2は、赤外線センサ17による聴取者の頭部の位置のリアルタイムの検出情報に基づいて制御され、常時、最適な補正処理が実行されるように構成されている。
【0023】
補正フィルタ部2で補正処理されたデジタル音響データは、音響デジタル信号出力部3を介してD/A変換器4に供給され、L、Rチャンネルのアナログ音響信号に変換される。
そしてこのアナログ音響信号は、出力アンプ部5における音量調整用のアッテネータ回路処理やパワーアンプ処理を経て、左および右チャンネルのスピーカ6L、6Rに供給される。
【0024】
スピーカ6L、6Rは、聴取者8の後方空間に配置される。この後方空間は、聴取者8の左右の耳口を含み、該聴取者8の人体の中心軸に平行な平面10において、該平面10を含み、且つ該平面10によって分割される2空間における該聴取者8の後頭部を含む方の一空間を意味する。
【0025】
後方空間に配置されるスピーカ6L、6Rとしては、例えば図2に示すように、シート14のヘッドレストの位置に配置される(あるいはヘッドレストの位置に配置することができる)。
すなわち、シート14に着座した聴取者が対象であるとすれば、スピーカ6L、6Rがこのようにヘッドレスト上或いはヘッドレスト内の左右位置に配設されることで、聴取者8の後方空間に配置されたことになる。
そして、スピーカ6L、6Rからは、CD、MD、DVDあるいは放送などの音響信号が出力されるが、その音響信号により形成される音像は、スピーカ6L、6Rが図2のヘッドレストの位置にあっても、補正フィルタ部2の補正処理により、聴取者8の例えば前方に仮想音像9として位置するようになる。例えば図2のように前方にディスプレイ装置15が配置され、ユーザーが着座して映像を見る場合、そのディスプレイ装置15の位置あたりを仮想音像9の位置とすることができる。
【0026】
なお、図1,図2においては仮想音源としてのスピーカ12L、12Rを示している。ここでいう仮想音源とは、理想とする音場あるいは音像を実現するスピーカであるが、実際には空間中に設置されておらず、つまりスピーカ12L、12Rとは実在しないスピーカである。
一方、実際に設置されているスピーカを実在音源と呼ぶとすると、スピーカ6L、6Rが実在音源のこととなる。
【0027】
後方空間におけるスピーカ6L、6Rの適切な配置位置について図3,図4に示しておく。
図3は後方空間の水平方向を表す上面図としている。
図3に示すように、後方空間は、平面10を含み、かつ平面10から聴取者後方の全ての空間を含む。従って、スピーカ6L、6Rは、この後方空間の中で任意の位置に配置される。
また、図3に示すように、スピーカ6L、6Rの配置位置から聴取者8の左および右の耳口7L、7Rに結ぶ直線について、平面10となす正射影角を角度θ1とし、スピーカ6L、6Rの中心軸Jとなす正射影角を角度θ2とする。この場合、角度θ1および角度θ2は、
0°≦θ1≦90°
−30°≦θ2≦+30°
(但し反時計回りを+と定義)
が望ましい。
角度θ1と角度θ2が上記の条件を満たすようにスピーカ6L、6Rを配置することにより、スピーカ6L、6Rからの音響信号により形成される音像は、一層効果的に補正フィルタ部2の補正処理により、聴取者8の例えば前方に仮想音像9として位置するようになる。
【0028】
図4は、後方空間の垂直方向を表す側面図としている。
図4に示すように、後方空間は、平面10を含み、かつ平面10から聴取者後方の全ての空間を含む。従って、スピーカ6L、6Rは、この後方空間の中で任意の位置に配置される。
また、図4に示すように、スピーカ6L、6Rの配置位置から聴取者8の左および右の耳口7L、7Rに結ぶ直線について、聴取者の左右の耳口を含み、かつ平面10と垂直に直交する平面16となす正射影角を角度θ3とし、スピーカ6L、6Rの中心軸Jとなす正射影角を角度θ4とする。
この場合、角度θ3および角度θ4は、
−90°≦θ3≦90°
−30°≦θ4≦+30°
(但し反時計回りを+と定義)
が望ましい。
角度θ3と角度θ4が上述の条件を満たすようにスピーカ6L、6Rを配置することにより、スピーカ6L、6Rからの音響信号により形成される音像は、一層効果的に補正フィルタ部2の補正処理により、聴取者8の例えば前方に仮想音像9として位置するようになる。
【0029】
また本例の音響再生装置では、図1に示すように赤外線センサ17が設けられる。この赤外線センサはスピーカ6L、6Rと聴取者8の頭部の位置関係、具体的には距離を検出するセンサとされる。
例えば図2に示すように、赤外線センサはシート14のヘッドレスト中央などに配設されることで、スピーカ6L、6Rの位置とシート14に着座した聴取者8の頭部の位置関係を検出する。
赤外線センサ17は、少なくとも赤外線発光部と赤外線受光部を備える構成とされることで、上記位置関係として、スピーカ6L、6Rの位置から聴取者8の頭部の距離を検出することができる。発光部と受光部は別体構成されるものでも良いし、フォトカプラなど一体構成されるものでもよい。
【0030】
図5(a)(b)(c)に、赤外線センサ17によって検出される位置関係の例、即ち距離dを示している。
図示するように、聴取者8がシート14に着座している場合であっても、聴取者8の姿勢によって、その頭部位置とスピーカ6L、6Rの位置の間の距離dは変動する。
赤外線センサ17は、この距離dを検出し、この検出情報を図1に示すCPU11に供給する。
【0031】
なお、赤外線センサ17を高さ方向に複数個配置することで、距離d(水平方向の距離)とともに、着座した聴取者8の頭部の高さ位置を検出できるようにすることもできる。例えば図5(d)(e)に示すように、聴取者8が大人である場合と子供である場合などで、頭部の高さ位置は大きく異なるものとなる。
この場合、スピーカ6L、6Rと頭部の水平方向の距離dが同じであったとしても、子供と大人で頭部の高さ位置が異なれば、実際のスピーカ6L、6Rから頭部までの距離は異なるものとなる。そこで、高さ方向に赤外線センサ17を複数配置し、図5(e)に示すように頭部の高さ、即ちスピーカ6L、6Rと頭部の垂直方向の距離hも検出できるようにすると、多様な身長/座高の聴取者8に対応してより正確にスピーカ6L、6Rと頭部の位置関係を検出できる。
【0032】
また、図示していないが、シート14において聴取者8の頭部が左右にずれる場合も考えられるため、シート14の背もたれの横方向に複数の赤外線センサ17を配置して、左右方向のずれ(距離)を検出できるようにすることも好適である。
【0033】
なお、本例では赤外線センサ17をシート14のヘッドレスト中央に配置するようにしているが、赤外線センサ17の配置位置はどのような場所であっても良い。また、赤外線センサに限られるものでもない。
即ち、少なくとも後方空間に配置されるスピーカ6L、6Rと、聴取者8の頭部の位置関係(少なくとも距離)を検出できるものであればよく、その構成や配置位置は問われない。
例えば自動車内の音響再生システムとする場合、運転席のヘッドレストに配置してもよいし、車内天井や側壁部などに配置してもよい。
【0034】
図1のCPU11は、常時赤外線センサ17からの検出情報、即ち、スピーカ6L、6Rと聴取者8の頭部の位置関係を監視している。
また記憶部13には、各種位置関係において予め測定された頭部音響伝達関数がデータベース化されて格納されている。
頭部音響伝達関数は、音源から人間の一方の耳(鼓膜)に至る伝達系を表す関数であり、頭部、耳介、肩等の反射、回折、共振等を反映している。この頭部音響伝達関数は、測定によって求めることができる。また、それぞれの頭部音響伝達関数は複素数で表される。
【0035】
そして、CPU11は赤外線センサ17からの検出情報により、上記位置関係(距離)を判別すると、その位置関係に基づいて記憶部13におけるデータベースを検索し、位置関係に応じた頭部音響伝達関数を取得する。
そして取得した頭部音響伝達関数(或いは頭部音響伝達関数から算出される補正パラメータ値)を補正フィルタ部2に供給し、補正処理のためのパラメータ(後述する伝達特性Hp(Z), Hm(Z) )を設定する。
【0036】
つまり本例では、上述のように補正フィルタ部2での補正処理により、後方空間に配置されたスピーカ6L、6Rからの再生音声について、前方空間での仮想音像9に定位させるものであるが、さらにスピーカ6L、6Rと聴取者8の頭部の位置関係に応じてリアルタイムで補正処理のパラメータを可変制御することで、聴取者8の姿勢の動きなどに関わらず、仮想音像9への定位状態を安定させるものである。
【0037】
以下、頭部音響伝達関数を用いた補正処理について述べる。
まず、頭部音響伝達関数の測定方法について説明する。
補正フィルタ部2は、上述のように、音像が任意空間に位置するように、デジタル音響信号を補正するものであるが、この補正は、スピーカから聴取者の鼓膜までの聴覚特性も加味した頭部音響伝達関数を用いることにより実現する。
【0038】
この頭部音響伝達関数は、一般に、次のようにして測定することができる。すなわち、
(a)スピーカと、人間の頭部の形をしたダミーヘッドとを配置する。
(b)そのスピーカに、テスト信号として、フーリエ変換すると周波数軸で平坦になるインパルス信号を入力する。なお、このテスト信号は、タイムストレッチドパルス信号などのインパルス関数の性質を持つ信号でもよい。
(c)ダミーヘッドの人工耳におけるインパルス応答を測定する。このインパルス応答が上記(a)の位置関係にあるときの頭部音響伝達関数である。
【0039】
従って、例えば図2のようにシート14にスピーカ6L、6Rが配置された本例の音響再生装置において、頭部音響伝達関数を利用する場合には、
(A)標準的なシートあるいは代表的なシートに、人間の頭の形をしたダミーヘッドを配置する。
(B)実際のスピーカ位置、例えばスピーカ6L、6Rの位置、すなわちシート14のヘッドレストの位置にスピーカを配置し、スピーカ6L、6Rの位置にスピーカがある場合の頭部音響伝達関数を求める。
(C)仮想音源を実現したい位置、例えば仮想的なスピーカ12L、12Rの位置、すなわち、図2のディスプレイ15の左右にスピーカを配置し、スピーカ12L、12Rの位置にスピーカがあるときの頭部音響伝達関数を求める。
【0040】
このようにすれば、補正フィルタ部2により音像の位置を補正するための頭部音響伝達関数を測定できる。
つまり、補正フィルタ部2は、上記(B)(C)の頭部音響伝達関数を基にしてデジタル音響信号を補正するものであり、このデータ補正により、上述のように、シート14のヘッドレストに取付けられているスピーカ6L、6Rによる音像が、仮想音源の位置にあるスピーカ12L、12Rによる音像の位置に補正される。
【0041】
上記(B)の頭部音響伝達関数の測定、つまりスピーカ6L、6Rとダミーヘッドについての頭部音響伝達関数については、シート上での聴取者の各種姿勢や座高等に応じた頭部位置に応じて測定を行う。即ちダミーヘッドの位置を変えながら、頭部の各位置に応じた頭部音響伝達関数を測定して、それらを頭部位置に応じた頭部音響伝達関数としてデータベース化する。
【0042】
また、上記(C)の頭部音響伝達関数の測定、つまり仮想音源を実現したい位置とダミーヘッドについての頭部音響伝達関数については、仮想音源位置とするポイントを設定してスピーカ12L、12Rに相当するスピーカを配して、頭部音響伝達関数を測定するが、その際も、シート上での聴取者の各種姿勢や座高等に応じた頭部位置に応じて測定を行う。そして、それらを頭部位置に応じた頭部音響伝達関数としてデータベース化する。
【0043】
つまり、シート14に着座した聴取者8の頭部位置に応じて、実在音源のスピーカ6L、6Rから聴取者8への頭部音響伝達関数と、仮想音源のスピーカ12L、12Rから聴取者8への頭部音響伝達関数とが、選択できるようなデータベース化がなされ、記憶部13にはこのようなデータベースが格納されるものである。
【0044】
なお、図1に示す第1の実施の形態の例では、仮想音像9を聴取者8の前方正面に固定するものであるが、後述する第2の実施の形態の場合は、仮想音像9の位置を聴取者8が任意に可変設定できるようにするものである。その場合は、例えば仮想音源のスピーカ12L、12Rから聴取者8への頭部音響伝達関数として、仮想音源のスピーカ12L、12Rの位置を各種多様な位置に変えながら上記(C)の測定を行い、データベース化する必要がある。
【0045】
頭部音響伝達関数を用いた補正処理は以下のように行われる。
先ず、上記(A)〜(C)により測定して解析した頭部音響伝達関数が、図5にも示すように、以下の通りであったとする。
【0046】
FLL(Z):仮想音源の左チャンネルのスピーカ12Lから左耳までの頭部音響伝達関数
FLR(Z):仮想音源の左チャンネルのスピーカ12Lから右耳までの頭部音響伝達関数
FRL(Z):仮想音源の右チャンネルのスピーカ12Rから左耳までの頭部音響伝達関数
FRR(Z):仮想音源の右チャンネルのスピーカ12Rから右耳までの頭部音響伝達関数
GLL(Z):実在音源の左チャンネルのスピーカ6Lから左耳までの頭部音響伝達関数
GLR(Z):実在音源の左チャンネルのスピーカ6Lから右耳までの頭部音響伝達関数
GRL(Z):実在音源の右チャンネルのスピーカ6Rから左耳までの頭部音響伝達関数
GRR(Z):実在音源の右チャンネルのスピーカ6Rから右耳までの頭部音響伝達関数
【0047】
ただし、上記のように、仮想音源12L、12Rの位置とは、理想とする音場あるいは音像を実現するスピーカの位置であり、実在音源6L、6Rの位置とは、実際に設置されているスピーカの位置である。また、それぞれの頭部音響伝達関数は複素数で表される。
【0048】
さらに、
XL(Z):左チャンネルの音響入力信号(補正前の音響信号)
XR(Z):右チャンネルの音響入力信号(補正前の音響信号)
YL(Z):左チャンネルの音響出力信号(補正後の音響信号)
YR(Z):右チャンネルの音響出力信号(補正後の音響信号)
とする。
【0049】
ここで、聴取者8の後方に配置した実際のスピーカ6L、6Rにより出力される音圧により、聴取者8の左耳7Lには、YL(Z)・GLL(Z)、及びYR(Z)・GRL(Z)の音圧が得られる。
また、同じく実際のスピーカ6L、6Rにより出力される音圧により、聴取者8の右耳7Rには、YR(Z)・GRR(Z)、及びYL(Z)・GLR(Z)の音圧が得られる。
【0050】
これに対して、仮想音源のスピーカ12L、12Rを実際に配置したとすると、聴取者8の左耳7Lには、XL(Z)・FLL(Z)、及びXR(Z)・FRL(Z)の音圧が得られる。
また、同じくスピーカ12L、12Rにより出力される音圧により、聴取者8の右耳7Rには、XR(Z)・FRR(Z)、及びXL(Z)・FLR(Z)の音圧が得られる。
【0051】
そして、実際のスピーカ6L、6Rにより左耳7L及び右耳7Rで得られる音圧が、仮想音源のスピーカ12L、12Rを実際に配置した場合に左耳7L及び右耳7Rで得られる音圧と同様となるようにすれば、実在音源のスピーカ6L、6Rによって、仮想音源のスピーカ12L、12Rを実際に配置した場合と同一の状態が形成できるものとなる。
即ち、
YL(Z)・GLL(Z)+YR(Z)・GRL(Z)=XL(Z)・FLL(Z)+XR(Z)・FRL(Z) ・・(式3)
YR(Z)・GRR(Z)+YL(Z)・GLR(Z)=XR(Z)・FRR(Z)+XL(Z)・FLR(Z) ・・(式4)
が成立するようにすればよい。
つまり、補正フィルタ部2における補正処理としては、基本的には、左右チャンネルの音響入力信号XL(Z)、XR(Z)について、上記(式3)(式4)が成立する左右チャンネルの音響出力信号YL(Z)、YR(Z)を得るようにすれば、実際のスピーカ6L、6Rを用いて、聴取者8の左耳7L及び右耳7Rに、仮想音源のスピーカ12L、12Rによる仮想音像9を形成できるものである。
【0052】
ここで、補正フィルタ部2におけるデータ処理量を低減するため、上記の頭部音響伝達関数が「左右対称」であり、すなわち、
FLL(Z) =FRR(Z)    ・・・(式5)
FLR(Z) =FRL(Z)    ・・・(式6)
GLL(Z) =GRR(Z)    ・・・(式7)
GLR(Z) =GRL(Z)    ・・・(式8)
が成立すると仮定して補正フィルタ部2を構成する。
なお、このように左右対称を仮定するため、頭部音響伝達関数を測定するときのダミーヘッドの設置場所は、シート14の中央、すなわち、実際に設置されている左右のスピーカ6L、6Rの中間が望ましい。また、こうすることによって、シート起因の補正誤差が少なくなり、どのようなシートにおいても補正効果を見込むことができる。
【0053】
そして(式5)(式6)(式7)(式8)の仮定のもとで、仮想音源12L、12Rから音が出ているように補正するには、上記(式3)(式4)を変形した次の(式9)(式10)を満足させればよい。すなわち、FRR(Z)をFLL(Z)に、FRL(Z)をFLR(Z)に、GRR(Z)をGLL(Z)に、GRL(Z)をGLR(Z)に、それぞれ置き換えて、
YL(Z)・GLL(Z)+YR(Z)・GLR(Z)=XL(Z)・FLL(Z)+XR(Z)・FLR(Z)  ・・(式9)
YR(Z)・GLL(Z)+YL(Z)・GLR(Z)=XR(Z)・FLL(Z)+XL(Z)・FLR(Z)  ・・(式10)
とする。
【0054】
ここで、Hp(Z)、Hm(Z)を、
Hp(Z)=(FLL(Z)+FLR(Z))/(GLL(Z)+GLR(Z))    ・・・(式11)
Hm(Z)=(FLL(Z)−FLR(Z))/(GLL(Z)−GLR(Z))    ・・・(式12)
のように定義すると、上記(式9)(式10)のYL(Z)、YR(Z)は、
YL(Z)=Hp(Z)・(XL(Z)+XR(Z))/2+Hm(Z)・(XL(Z)−XR(Z))/2・・・(式13)
YR(Z)=Hp(Z)・(XL(Z)+XR(Z))/2−Hm(Z)・(XL(Z)−XR(Z))/2・・・(式14)
となる。
ここでいうHp(Z)、Hm(Z)は、補正フィルタ部2に組み込まれる第1デジタルフィルタと第2デジタルフィルタの伝達特性を表す。
【0055】
また、2チャンネルステレオ音響信号の差成分は、ステレオ感、広がり感に強く影響していることが知られている。そして、(式13)(式14)の「Hm(Z)・(XL(Z)−XR(Z))」は、ステレオ音響信号の差成分である。
従って、この「Hm(Z)・(XL(Z)−XR(Z))」項のレベルを制御すると、空間的な広がり感を制御できることになる。
【0056】
そこで(式13)(式14)の「Hm(Z)・(XL(Z)−XR(Z))」項に広がり感を制御するためのパラメータとして、係数kを乗ずると、(式13)(式14)は次の(式15)(式16)のようになる。
YL(Z)=Hp(Z)・(XL(Z)+XR(Z))/2+k・Hm(Z)・(XL(Z)−XR(Z))/2・・・(式15)
YR(Z)=Hp(Z)・(XL(Z)+XR(Z))/2−k・Hm(Z)・(XL(Z)−XR(Z))/2・・・(式16)
【0057】
この(式15)(式16)においては、係数kを大きくすると、「Hm(Z)・(XL(Z)−XR(Z))」項の差成分が強調され、従って、再生音場の広がり感が増強される。
【0058】
そして本例の補正フィルタ部2としては、入力される左右チャンネルの音響入力信号XL(Z)、XR(Z)について、上記(式15)(式16)に示す補正処理を行って左右チャンネルの音響出力信号YL(Z)、YR(Z)を得るようにすればよい。これによって、上記(式9)(式10)が満足されて、スピーカ6L、6Rにより仮想音像9を形成できるものとなる。さらに再生音場の広がり間も制御できる。従って、補正フィルタ部2としては、特性が(式11)(式12)により示される特性Hp(Z)、Hm(Z)のフィルタと、上記(式15)(式16)における加減算を行うための加算回路および減算回路と、係数kの乗算を行うレベル制御回路とを備えて構成できることになる。
【0059】
補正フィルタ部2は、例えばDSPにより構成され、その演算処理により補正処理を行うものとなるが、その処理をハードウェア的に示すと図7のようになる。音響入力信号XL(Z)、XR(Z)は減算回路22および加算回路21に供給されて差信号および和信号が形成される。そして減算回路22の出力である差信号がレベル制御回路24に供給されて(式15)(式16)における係数kに対応するレベル制御が行われる。そして、差信号は(式12)の伝達特性Hm(Z)のFIRフィルタ回路25に供給される。また加算回路21の出力である和信号は(式11)の伝達特性Hp(Z)のFIRフィルタ回路23に供給される。
そして、これら2つのFIRフィルタ回路23,25の出力信号が、レベル制御回路26,27で所定の比率(1/2乗算)されて加算回路28および減算回路29に供給されて音響出力信号YL(Z)、YR(Z)が形成される構成となる。
この音響出力信号YL(Z)、YR(Z)が、図1に示したように音響デジタル信号出力回路3を通じて、次段のD/A変換器4に供給される。
【0060】
また特に本例では上述したように、赤外線センサー17から聴取者の頭部の位置をリアルタイムで検出することにより、CPU11によって常時、最適な頭部音響伝達関数が選択され、補正フィルタ部2に設定される。
つまり、聴取者8の頭部位置の検出結果に応じて、或る1組の頭部音響伝達関数FLL(Z)、FRR(Z)、FLR(Z)、FRL(Z)、GLL(Z)、GRR(Z)、GLR(Z)、GRL(Z)が記憶部13のデータべースから選択される。
但し上記(式5)〜(式8)の仮定によるため、実際には1組の頭部音響伝達関数として、FLL(Z)、FLR(Z)、GLL(Z)、GLR(Z)が選択されればよい。
【0061】
なお、このことから理解されるように、上記(式5)〜(式8)の仮定を採用することは、補正フィルタ部2の演算の簡略化だけでなく、記憶部13のデータベースサイズを小さくでき、また頭部音響伝達関数の測定の簡略化を実現する効果も生ずる。
【0062】
そして、この頭部音響伝達関数FLL(Z)、FLR(Z)、GLL(Z)、GLR(Z)は、(式11)(式12)に示したように、特性Hp(Z)、Hm(Z)を規定するものとなる。
つまりCPU11は、補正フィルタ部2における特性Hp(Z)、Hm(Z)の各FIRフィルタ(図7のFIRフィルタ回路23,25)に対して、赤外線センサ17の検出結果に応じて選択した頭部音響伝達関数FLL(Z)、FLR(Z)、GLL(Z)、GLR(Z)から導かれる特性Hp(Z)、Hm(Z)を設定するように制御する。
【0063】
以上により、本例の音響再生装置では、実在音源のスピーカ6L、6Rが後方空間(例えば、シート14のヘッドレスト)に取付けられていても、仮想音源としてのスピーカ12L、12Rの位置(例えば、シート14の前方に設置されるディスプレイ15の左右位置)にスピーカが配置されている場合と同等の音像を得ることができ、さらに聴取者の頭がゆらいだり、動いたりする場合においても、適切に仮想音源を配置し、この仮想音源から再生音が出力されているように知覚させることができるので、聴取者にとって違和感なく理想的な音場および音像を作り出すことができる。
さらに、このような音場を後方空間のスピーカ6L、6Rで実現できるため、前方空間でのスピーカ配置が不要とでき、スピーカ設置の容易度や自由度性を向上させる。これは、室内、自動車内など多様な空間での音響再生装置の設置に好適なものとなる。
【0064】
また、音像が聴取者の頭内あるいは後方空間に定位してしまうことを防ぎ、音像を任意空間に定位させることができる。
また、小さな高域再生用のサテライトスピーカが併設されている場合に生じる不具合、すなわち、音が分離して聞こえるという不整合性を解消することができ、一つのスピーカから音が出ているように知覚させることができる。
【0065】
また前述のように、音響信号の左および右チャンネルの差成分が、再生音のステレオ感、広がり感に強く影響しているが、図7のように補正フィルタ部2にはレベル制御回路24が設けられており、このレベル制御回路24の係数kの乗算処理によって再生音の空間的な広がり感を強調することができる。
もちろん、例えばCPU11によって、レベル制御回路24の乗算係数kを可変設定することにより、減算回路23から後段のFIRフィルタ回路25に供給される差成分のレベルを可変制御でき、再生音の空間的な広がり感を調整・補正することや、音量レベルに応じて最適な補正を行うこともできる。
【0066】
なお上記説明では、記憶部13においては頭部音響伝達関数をデータベース化して記憶するとしたが、必ずしも測定した頭部音響伝達関数自体を記憶しなくても良い。即ち予め測定した頭部音響伝達関数から、聴取者8の各種の頭部位置状態に応じた特性Hp(Z)、Hm(Z)を算出しておき、FIRフィルタ回路23,25に伝達特性制御値をデータベース化して記憶しておいてもよい。
【0067】
また、複数の頭部音響伝達関数の平均を取ることにより、3以上のスピーカシステムを用いる場合でも、効果的な補正フィルタ部2を作成することができ、従って、スピーカ数を限定しない補正フィルタ部2(音響再生装置)として広く適用させることもできる。
【0068】
<第2の実施の形態>
図8に第2の実施の形態の音響再生装置を示す。なお、この図8の構成は、図1の構成に加えて操作部18が追加されたものである。他の構成は、基本的には図1と同様であるため、重複説明を避ける。
【0069】
この図8において操作部18は、聴取者8等が任意に操作できるものであり、仮想音像9の位置を任意に変化させるためのものである。
例えば聴取者8は、操作部18を操作することで、前方空間において仮想音像9の位置を、例えば仮想音像9a、9bのように変化させることができる。
このためには、操作部18によって指示された仮想音像9の位置を実現する仮想音源のスピーカ12L、12Rからの頭部音響伝達関数が可変的に選択されればよいものとなる。
【0070】
この場合、予め行う頭部音響伝達関数の測定時には、仮想音源のスピーカ12L、12Rから聴取者8への頭部音響伝達関数として、仮想音源のスピーカ12L、12Rの位置を各種多様な位置に変えながら上述した(C)の測定を行い、データベース化して記憶部13に格納しておく。
【0071】
そしてCPU11は、操作部18の操作に応じて、指示された仮想音像9に位置させるためのスピーカ12L、12Rの配置状態で測定された頭部音響伝達関数(FLL(Z)、FLR(Z))を選択する。
なお、操作に応じて選択される頭部音響伝達関数(FLL(Z)、FLR(Z))の組は複数組となる。なぜなら、或る1つのスピーカ12L、12Rの配置状態において、聴取者8の頭部位置を変更しながら複数の頭部音響伝達関数が測定されているためである。
例えば仮想音像9aの位置が指示された場合は、仮想音像9aを実現するためのスピーカ12L、12Rの配置状態(12La、12Raの位置)においてダミーヘッド位置を変えて複数回測定された頭部音響伝達関数が選ばれる。
【0072】
そしてこの場合、さらにCPU11は、赤外線センサ17からの検出情報に応じて、頭部音響伝達関数FLL(Z)、FLR(Z)、GLL(Z)、GLR(Z)を選択する。
つまり、操作部18の操作に応じて選ばれた仮想音像9の位置に対応する頭部音響伝達関数としての複数のFLL(Z)及びFLR(Z)から、現在の聴取者8の頭部位置に応じた1つのFLL(Z)及びFLR(Z)を選択し、また上記第1の実施の形態の場合と同様に1つのGLL(Z)、GLR(Z)を選択する。
このように頭部音響伝達関数FLL(Z)、FLR(Z)、GLL(Z)、GLR(Z)が選択されたら、この選択された頭部音響伝達関数FLL(Z)、FLR(Z)、GLL(Z)、GLR(Z)によって補正フィルタ部2におけるFIRフィルタ回路23,25の伝達特性Hp(Z)、Hm(Z)を制御することは、第1の実施の形態と同様である。
【0073】
すなわちこの第2の実施の形態の場合、仮想音像9の位置を任意に変更できるものとなり、聴取者8の好みに応じて仮想音像位置を移動させたり、或いは室内、自動車内など音響再生装置の設置空間やディスプレイ装置15の配置位置などを含めたリスニング環境に応じて、好適な仮想音像9の位置を調整することなどができる。
【0074】
以上、本発明の実施の形態について説明してきたが、本発明としては更に多様な変形例が考えられる。
上記例では聴取者8の頭部位置として前後方向の動き、高さ方向の差(座高差)についてリアルタイムに対応するものとしたが、横方向のずれや、さらには頭の向きの角度状態を検出できるようにし、それに応じた頭部音響伝達関数が選択されるようにすることも考えられる。
【0075】
またスピーカ6L、6Rの配置は、もちろんシート14に限られるものではなく、聴取者8の後方空間に配置されるのであれば、どのような態様であってもよい。
また、シート14に配置するような例の場合、室内用シート、自動車内のシートだけでなく、列車、船舶、飛行機、劇場などのシートとすることで、多様な環境で臨場感あふれる音響体験を実現させることができる。
【0076】
【発明の効果】
以上の説明から理解されるように本発明によれば、聴取者の後方空間に設置されたスピーカから出力する音響信号を、頭部音響伝達関数に基づいた補正処理を行った音響信号とすることで、聴取位置の前方空間などの所定方向位置に音像定位させるようにし、さらに、上記補正処理のために、聴取者の頭部の位置を検出しながら適切な頭部音響伝達関数を選択するようにしている。
このため、聴取者の頭がゆらいだり、動いたりする場合においても、適切に仮想音源を配置し、この仮想音源から再生音が出力されているように知覚させることができるようになり、聴取者にとって違和感なく理想的で安定した音場および音像を作り出すことができる。
【0077】
また、聴取者の後方空間にスピーカを設置するものであるため、聴取者前方の不本意な場所にスピーカを設置することがないまま、聴取者の位置から任意の空間に自由自在に音像を定位させることができる。
これは室内等においてスピーカ配置に関しての困難性を解消する。また映像表示をともなう場合は、ディスプレイ装置やスクリーンとのスピーカの配置関係にも困ることは無くなるという利点が得られる。
また、後方スピーカ、例えばシートに配設したスピーカにより任意空間に仮想音像を再現することにより、効果的な音響体感が可能となるので、自動車、列車、船舶、飛行機、および室内鑑賞用途としても、生演奏を聴いているような効果的な音楽鑑賞、映画館にいるような臨場感あふれる映画鑑賞を実現させることができるという効果を奏する。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態の音響再生装置の構成例のブロック図である。
【図2】実施の形態におけるシートに配設されるスピーカ及びセンサの説明図である。
【図3】実施の形態の音響再生装置における後方空間の水平方向を表す上面図である。
【図4】実施の形態の音響再生装置における後方空間の垂直方向を表す側面図である。
【図5】実施の形態の音響再生装置における聴取者、実在音源、仮想音源、及び頭部音響伝達関数の説明図である。
【図6】実施の形態の音響再生装置におけるスピーカと聴取者の頭部の位置関係の説明図である。
【図7】実施の形態の音響再生装置の補正処理の説明図である。
【図8】本発明の第2の実施の形態の音響再生装置の構成例のブロック図である。
【図9】従来の音響再生装置の構成例を示すブロック図である。
【図10】仮想的な音像からの音響信号Eの放射の説明図である。
【符号の説明】
1 音響デジタル信号入力部、2 補正フィルタ部、3 音響デジタル信号出力部、4 D/A変換器、5 出力アンプ、6L 左チャンネルスピーカ、6R
右チャンネルスピーカ、17 赤外線センサ、18 操作部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an audio output device, an audio output system, and an audio output method capable of localizing a virtual sound image in an arbitrary space in an AV playback device (audio / visual playback device), a multimedia playback device, and the like. Things.
[0002]
[Prior art]
2. Description of the Related Art In recent years, in the audio / video field and the multimedia field, it is desired to reproduce an audio / video having a three-dimensional effect and a sense of reality, and hardware corresponding to this is being actively developed. In particular, in sound reproduction, the sound signal can be heard from the side, the rear, or the upper or lower side without arranging the speaker in the side or the rear of the listener, or in the direction above or below, or a combination thereof. A sound reproducing apparatus for localizing a virtual sound image has attracted attention. In the sound image control, a technique for interactively controlling the sound image localization has also attracted attention.
[0003]
In general, in a stereophonic system that has been conventionally used, a sound image position is controlled using a plurality of speakers to give a listener a sense of presence.
However, in a conventional speaker system in which speakers are installed on the left and right in front of a listener, a sound image can be formed only between two speakers.
Furthermore, when headphones are used, a specific phenomenon (intra-head localization) in which a sound image is formed in the head occurs, and the listener is often tired.
[0004]
On the other hand, with the development of hardware such as an audio signal processing technology and a DSP (Digital Signal Processor), even in a system in which left and right speakers are installed in front of a listener, sound image localization to an arbitrary position in front of the listener is performed. Became.
Also, in systems using headphones, attempts have been made to localize the sound image outside the head.
Conventionally, as an acoustic signal processing technique for localizing a sound image by two-channel speaker reproduction, a technique using convolution and crosstalk cancellation of a head acoustic transfer function in a time domain is known.
[0005]
In the acoustic signal processing technology for localizing a sound image, an operation related to sound image localization is performed using a head acoustic transfer function that means a transfer characteristic of a sound from a front sound source to a listener's ear.
FIG. 9 is a block diagram illustrating an example of a conventional sound reproducing device that controls sound image localization.
In FIG. 9, an audio signal of the L and R channels is input to an audio signal input unit 31. The input audio signals of the L and R channels are respectively converted into digital audio signals by the A / D converter 32 and input to the digital filter 33.
After being processed by the digital filter 33, the signal is converted into an analog sound signal by the D / A converter 34, and is supplied to the L and R channel speakers 36 via the amplifier 35. The speakers 36 are speakers installed on the left and right in front of the listener.
[0006]
In this sound reproducing device, a sound image localization controller 37 is connected to the digital filter 33 for controlling a sound image position.
When an arbitrary predetermined sound image position is input by the sound image localization controller 37, the digital filter 33 adds the two-channel signals output from the A / D converter 32 to the sound image position set by the sound image localization controller 37. Convolve the corresponding coefficients. Then, the convolved sound signal is amplified by the amplifier 35, and the sound signal is reproduced by the speakers 37 installed on the front left and right sides of the listener. By performing such an acoustic signal process, it is possible to control the sound image position at an arbitrary position on the left and right in front of the listener.
[0007]
Further, in the above-described crosstalk canceling technique, it is possible to localize a sound image outside a speaker by mixing sounds of opposite phases.
For example, in FIG. 10, it is assumed that a sound signal of sound pressure E is emitted from a sound image at a virtual position, and the sound signals give sound pressures of yL and yR to the left and right ears of the listener, respectively.
The head acoustic transfer function from the virtual sound image to the left ear is TL (Z), and the head acoustic transfer function from the virtual sound image to the right ear is TR (Z). When the relationship between the virtual sound image and yL, yR is represented using head-related acoustic transfer functions TL (Z), TR (Z),
yL = TL (Z) × E (Equation 1)
yR = TR (Z) × E (Equation 2)
It becomes.
[0008]
In order to localize the sound image at the virtual position in FIG. 10 (the position outside the actual left and right speakers), the sound pressure yR obtained by (Equation 1) and (Equation 2) in the digital filter 33 of FIG. , YL are corrected from the virtual sound image by a convolution operation. Further, the sound from the front left and right speakers actually installed for the listener is canceled.
That is, a virtual sound image as shown in FIG. 10 can be created by canceling the sound reaching the right ear from the left speaker and the sound reaching the left ear from the right speaker (these are referred to as “crosstalk sounds”).
Specifically, using the above TL (Z), TR (Z) and the head-related acoustic transfer function from the actual speaker to the ear, two directional localization filters having common inputs are used to determine the direction of the sound image. The sound image is localized at the virtual position in FIG. 10 through the acoustic signal by the localizer and a crosstalk canceller having a filter having a filter characteristic for removing the influence of the crosstalk sound.
[0009]
For example, the techniques related to the sound image localization described above are known, and the following literatures show the techniques related to the sound image localization.
[0010]
[Patent Document 1] JP-A-10-224900
[0011]
[Problems to be solved by the invention]
However, in the conventional sound reproducing device as described above, since the speaker is installed in the space in front of the listener, the speaker cannot be mounted at a position necessary to create an ideal sound field and sound image for the listener. There were many.
[0012]
For example, in the case of a listener sitting on a seat and watching a video on a display, it is necessary to mount a speaker in a place where viewing is not hindered, and the installation location of the speaker is restricted. Therefore, in some cases, the speaker must be installed in an undesired place in front of the listener, and the sound image can be freely moved from the position of the listener to an arbitrary space, for example, to the side or back of the listener, or in the vertical direction. I couldn't freely localize.
[0013]
Accordingly, the present applicant has previously provided, as a prior art, a sound reproducing apparatus capable of obtaining a natural sound image localization in an arbitrary space using a speaker installed in a space behind a listener in Japanese Patent Application No. 2001-246360. .
According to the present invention, a virtual sound source can be placed in a place where mounting is impossible, and it can be perceived that a reproduced sound is output from the virtual sound source. And can produce sound images.
However, when the listener's head moves during playback, it is difficult to obtain a sufficient sound image localization feeling because an optimal head-related acoustic transfer function cannot be applied.
[0014]
[Means for Solving the Problems]
The present invention has been made in view of such a problem, and realizes a sound reproducing apparatus that can obtain a natural sound image localization in an arbitrary space by using a speaker installed in a space behind a listener. It is an object of the present invention to be able to obtain a sense of sound image stability corresponding to the movement of the listener's head at that time.
[0015]
Therefore, the sound output device of the present invention is a sound output device that supplies a sound output signal of a plurality of channels to a speaker of a plurality of channels installed in a space behind a listening position of a listener. Correction filter means for performing a correction process based on a head acoustic transfer function so as to localize a sound image in a predetermined direction space with respect to the listening position with respect to the input signal, and a signal of a plurality of channels corrected by the correction filter means Signal output means for supplying a sound output signal to the speakers of the plurality of channels, a sensor means for detecting a positional relationship between a position of the speaker and a head position of the listener, and a detection result of the sensor means Control means for selecting a head-related sound transfer function according to the above, and controlling the correction processing of the correction filter means. That.
In this case, the space in the predetermined direction in which the sound image is localized is a space in front of the listening position.
Further, an operating means for variably instructing a predetermined direction space for sound image localization is further provided, and the control means selects a head acoustic transfer function according to a detection result of the sensor means and operation information of the operating means. Then, the correction processing of the correction filter means is controlled.
[0016]
The sound output system of the present invention includes the sound output device having the above-described configuration, and a plurality of channels of speakers installed in a space behind a listening position of a listener.
[0017]
According to the sound output method of the present invention, when a plurality of channels of sound output signals are supplied to a plurality of channels of speakers installed in a space behind the listener's listening position, the position of the speakers and the head of the listener Detecting the positional relationship with the position of the head, selecting a head-related acoustic transfer function according to the detection result, and for each of the digital audio input signals of a plurality of channels, to localize a sound image in a predetermined direction space with respect to the listening position. And performing a correction process based on the selected head-related acoustic transfer function, and supplying the corrected multi-channel signals to the multi-channel speakers as sound output signals.
[0018]
According to the present invention as described above, the sound signal output from the speaker installed in the space behind the listener is set as the sound signal subjected to the correction processing based on the head-related sound transfer function, so that the sound signal in front of the listening position is obtained. A sound image is localized at a position in a predetermined direction such as a space. Furthermore, a stable sound image localization state is obtained by selecting an appropriate head acoustic transfer function while detecting the position of the listener's head in real time.
The rear space of the listener includes the left and right ear openings of the listener, includes a plane parallel to the central axis of the listener's body, includes the plane, and is divided into two spaces by the plane. It means one space including the back of the listener.
The head acoustic transfer function is a function representing a transmission system from a sound source to one ear (eardrum) of a human, and reflects reflection, diffraction, resonance, and the like of the head, pinna, shoulder, and the like. The head acoustic transfer function can be obtained by measurement. Each head-related transfer function is represented by a complex number.
[0019]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, sound reproducing apparatuses according to first and second embodiments of the present invention will be described in detail with reference to the drawings.
[0020]
<First embodiment>
FIG. 1 shows a configuration of a sound reproducing apparatus according to a first embodiment.
This sound reproducing apparatus includes an audio digital signal input unit 1, a correction filter unit 2, an audio digital signal output unit 3, a D / A converter 4, an output amplifier 5, a left and right speaker 6 (left channel speaker 6L, right channel speaker 6R). , A CPU 11, a storage unit 13, and an infrared sensor 17.
[0021]
The audio digital signal input unit 1 receives, as a source of digital audio data, digital audio data of L and R channels output from a playback device for AV media such as CD / MD / DVD.
Alternatively, as a source of the analog audio signal, an analog audio signal output from, for example, an FM tuner is converted into digital audio data by an A / D converter (not shown), and the digital audio data is input to the audio digital signal input unit 1. May be supplied.
[0022]
The digital audio data of the L and R channels supplied to the audio digital signal input unit 1 is supplied to the correction filter unit 2 and a predetermined correction process is performed.
Although the details of the correction filter unit 2 will be described later, the correction filter unit 2 is located at a target position (the position of the virtual sound image 9 in FIG. 1) of the sound images reproduced by the left and right channel speakers 6L and 6R. The digital audio data is corrected as described above.
Further, the correction filter unit 2 is controlled based on real-time detection information of the position of the listener's head by the infrared sensor 17, and is configured to always execute an optimum correction process.
[0023]
The digital audio data corrected by the correction filter unit 2 is supplied to a D / A converter 4 via an audio digital signal output unit 3 and converted into analog audio signals of L and R channels.
The analog audio signal is supplied to the left and right channel speakers 6L and 6R through an attenuator circuit process and a power amplifier process for adjusting the volume in the output amplifier unit 5.
[0024]
The speakers 6L and 6R are arranged in a space behind the listener 8. The rear space includes the left and right ear openings of the listener 8, includes the plane 10 in a plane 10 parallel to the central axis of the body of the listener 8, and includes the plane 10 in two spaces divided by the plane 10. This means one space including the occiput of the listener 8.
[0025]
The speakers 6L and 6R arranged in the rear space are arranged at the position of the headrest of the seat 14 (or can be arranged at the position of the headrest) as shown in FIG. 2, for example.
That is, assuming that the listener sitting on the seat 14 is the target, the speakers 6L and 6R are arranged on the headrest or at the left and right positions in the headrest in this manner, and thus are arranged in the space behind the listener 8. It will be.
The speakers 6L and 6R output audio signals such as CDs, MDs, DVDs, and broadcasts. The sound image formed by the audio signals is obtained when the speakers 6L and 6R are at the positions of the headrests in FIG. Also, the correction processing of the correction filter unit 2 causes the virtual sound image 9 to be positioned, for example, in front of the listener 8. For example, as shown in FIG. 2, the display device 15 is disposed in front, and when the user sits down and watches an image, the position of the display device 15 can be set as the position of the virtual sound image 9.
[0026]
1 and 2 show speakers 12L and 12R as virtual sound sources. The virtual sound source referred to here is a speaker that realizes an ideal sound field or sound image, but is not actually installed in a space, that is, a speaker that does not actually exist in the speakers 12L and 12R.
On the other hand, if the actually installed speakers are called real sound sources, the speakers 6L and 6R are the real sound sources.
[0027]
FIGS. 3 and 4 show appropriate positions of the speakers 6L and 6R in the rear space.
FIG. 3 is a top view showing the horizontal direction of the rear space.
As shown in FIG. 3, the rear space includes the plane 10 and includes all the space behind the listener from the plane 10. Therefore, the speakers 6L and 6R are arranged at arbitrary positions in the rear space.
Also, as shown in FIG. 3, an orthogonal projection angle that forms a plane 10 with respect to a straight line connecting the positions of the speakers 6L and 6R to the left and right ear openings 7L and 7R of the listener 8 is defined as an angle θ1, and the speakers 6L and An orthographic angle formed with the central axis J of 6R is defined as an angle θ2. In this case, the angle θ1 and the angle θ2 are
0 ° ≦ θ1 ≦ 90 °
-30 ° ≤θ2≤ + 30 °
(However, counterclockwise is defined as +)
Is desirable.
By arranging the speakers 6L and 6R so that the angle θ1 and the angle θ2 satisfy the above conditions, the sound image formed by the acoustic signals from the speakers 6L and 6R can be more effectively processed by the correction processing of the correction filter unit 2. , For example, in front of the listener 8 as the virtual sound image 9.
[0028]
FIG. 4 is a side view showing the vertical direction of the rear space.
As shown in FIG. 4, the rear space includes the plane 10 and includes all spaces behind the listener from the plane 10. Therefore, the speakers 6L and 6R are arranged at arbitrary positions in the rear space.
As shown in FIG. 4, a straight line connecting the positions of the speakers 6L and 6R to the left and right ear openings 7L and 7R of the listener 8 includes the left and right ear openings of the listener and is perpendicular to the plane 10. Is an angle θ3, and the orthogonal angle formed between the central axes J of the speakers 6L and 6R is an angle θ4.
In this case, the angle θ3 and the angle θ4 are
-90 ° ≦ θ3 ≦ 90 °
-30 ° ≦ θ4 ≦ + 30 °
(However, counterclockwise is defined as +)
Is desirable.
By arranging the speakers 6L and 6R so that the angle θ3 and the angle θ4 satisfy the above-described conditions, the sound image formed by the acoustic signals from the speakers 6L and 6R can be more effectively processed by the correction processing of the correction filter unit 2. , For example, in front of the listener 8 as the virtual sound image 9.
[0029]
Further, in the sound reproducing device of the present example, an infrared sensor 17 is provided as shown in FIG. This infrared sensor is a sensor that detects the positional relationship between the speakers 6L and 6R and the head of the listener 8, specifically, the distance.
For example, as shown in FIG. 2, the infrared sensor is disposed at the center of the headrest of the seat 14 or the like, and detects the positional relationship between the positions of the speakers 6L and 6R and the head of the listener 8 sitting on the seat 14.
Since the infrared sensor 17 includes at least an infrared light emitting unit and an infrared light receiving unit, the distance between the speakers 6L and 6R and the head of the listener 8 can be detected as the positional relationship. The light emitting unit and the light receiving unit may be configured separately, or may be integrally configured such as a photocoupler.
[0030]
FIGS. 5A, 5B, and 5C show examples of the positional relationship detected by the infrared sensor 17, that is, the distance d.
As shown in the drawing, even when the listener 8 is sitting on the seat 14, the distance d between the head position and the positions of the speakers 6L and 6R varies depending on the posture of the listener 8.
The infrared sensor 17 detects this distance d and supplies this detection information to the CPU 11 shown in FIG.
[0031]
By arranging a plurality of infrared sensors 17 in the height direction, the height position of the head of the seated listener 8 can be detected together with the distance d (the distance in the horizontal direction). For example, as shown in FIGS. 5D and 5E, when the listener 8 is an adult and a child, the height position of the head greatly differs.
In this case, even if the horizontal distance d between the speakers 6L and 6R and the head is the same, if the height position of the head is different between the child and the adult, the actual distance from the speakers 6L and 6R to the head Will be different. In view of this, a plurality of infrared sensors 17 are arranged in the height direction so that the height of the head, that is, the distance h between the speakers 6L and 6R and the head in the vertical direction can be detected as shown in FIG. It is possible to more accurately detect the positional relationship between the speakers 6L and 6R and the head corresponding to the listeners 8 having various heights and sitting heights.
[0032]
Although not shown, since the head of the listener 8 may shift left and right on the seat 14, a plurality of infrared sensors 17 are arranged in the lateral direction of the backrest of the seat 14, and the shift in the left and right direction ( It is also preferable that the distance can be detected.
[0033]
In this example, the infrared sensor 17 is arranged at the center of the headrest of the seat 14, but the infrared sensor 17 may be arranged at any position. Further, the present invention is not limited to the infrared sensor.
That is, any configuration may be used as long as it can detect at least the positional relationship (at least the distance) between the speakers 6L and 6R arranged in the rear space and the head of the listener 8.
For example, in the case of a sound reproduction system in a car, the sound reproduction system may be arranged in a headrest in a driver's seat, or may be arranged in a ceiling or a side wall of the car.
[0034]
The CPU 11 of FIG. 1 constantly monitors the detection information from the infrared sensor 17, that is, the positional relationship between the speakers 6L and 6R and the head of the listener 8.
The storage unit 13 stores a head acoustic transfer function measured in advance in various positional relationships in a database.
The head acoustic transfer function is a function representing a transmission system from a sound source to one ear (eardrum) of a human, and reflects reflection, diffraction, resonance, and the like of the head, pinna, shoulder, and the like. The head acoustic transfer function can be obtained by measurement. Each head-related transfer function is represented by a complex number.
[0035]
When the CPU 11 determines the positional relationship (distance) based on the detection information from the infrared sensor 17, the CPU 11 searches the database in the storage unit 13 based on the positional relationship and obtains a head acoustic transfer function corresponding to the positional relationship. I do.
Then, the acquired head acoustic transfer function (or the correction parameter value calculated from the head acoustic transfer function) is supplied to the correction filter unit 2, and parameters for the correction process (transfer characteristics Hp (Z), Hm (described later) Z))) is set.
[0036]
That is, in the present example, the sound reproduced from the speakers 6L and 6R arranged in the rear space is localized in the virtual sound image 9 in the front space by the correction processing in the correction filter unit 2 as described above. Furthermore, by variably controlling the parameters of the correction processing in real time according to the positional relationship between the speakers 6L and 6R and the head of the listener 8, the localization state to the virtual sound image 9 regardless of the movement of the posture of the listener 8 and the like. Is to stabilize.
[0037]
Hereinafter, the correction processing using the head acoustic transfer function will be described.
First, a method of measuring the head acoustic transfer function will be described.
As described above, the correction filter unit 2 corrects the digital acoustic signal so that the sound image is located in an arbitrary space. The correction is performed by taking into account the auditory characteristics from the speaker to the eardrum of the listener. This is realized by using a partial acoustic transfer function.
[0038]
This head-related acoustic transfer function can be generally measured as follows. That is,
(A) A speaker and a dummy head in the shape of a human head are arranged.
(B) An impulse signal that becomes flat on the frequency axis when Fourier-transformed is input to the speaker as a test signal. The test signal may be a signal having the property of an impulse function such as a time stretched pulse signal.
(C) Measure the impulse response of the dummy head at the artificial ear. This is the head-related acoustic transfer function when the impulse response has the positional relationship (a).
[0039]
Therefore, for example, in the case of using the head acoustic transfer function in the sound reproducing device of the present example in which the speakers 6L and 6R are arranged on the sheet 14 as shown in FIG.
(A) A dummy head in the shape of a human head is placed on a standard sheet or a representative sheet.
(B) The speakers are arranged at actual speaker positions, for example, the positions of the speakers 6L and 6R, that is, the positions of the headrests of the seat 14, and the head acoustic transfer function when the speakers are located at the positions of the speakers 6L and 6R is obtained.
(C) A position where a virtual sound source is desired to be realized, for example, positions of virtual speakers 12L and 12R, that is, heads when speakers are arranged on the left and right of the display 15 in FIG. 2 and the speakers are located at the positions of the speakers 12L and 12R. Find the acoustic transfer function.
[0040]
In this way, the head-related transfer function for correcting the position of the sound image by the correction filter unit 2 can be measured.
That is, the correction filter unit 2 corrects the digital acoustic signal based on the head acoustic transfer functions (B) and (C), and by this data correction, the correction is performed on the headrest of the seat 14 as described above. The sound image by the attached speakers 6L and 6R is corrected to the position of the sound image by the speakers 12L and 12R at the position of the virtual sound source.
[0041]
The measurement of the head acoustic transfer function in the above (B), that is, the head acoustic transfer function of the speakers 6L and 6R and the dummy head, is based on the head position according to various postures and sitting heights of the listener on the seat. Perform measurements as appropriate. That is, the head acoustic transfer function corresponding to each position of the head is measured while changing the position of the dummy head, and these are converted into a database as a head acoustic transfer function corresponding to the head position.
[0042]
Further, for the measurement of the head acoustic transfer function of (C), that is, for the position where the virtual sound source is to be realized and the head acoustic transfer function of the dummy head, a point is set as the virtual sound source position and the speakers 12L and 12R are set. A head-related sound transfer function is measured by arranging a corresponding speaker. In this case, the measurement is performed according to the head position according to various postures, sitting heights, and the like of the listener on the seat. Then, these are made into a database as a head acoustic transfer function corresponding to the head position.
[0043]
That is, according to the head position of the listener 8 sitting on the seat 14, the head acoustic transfer function from the speakers 6L and 6R of the real sound source to the listener 8 and the head sound transfer function from the speakers 12L and 12R of the virtual sound source to the listener 8 A database is formed so that the head acoustic transfer function can be selected, and such a database is stored in the storage unit 13.
[0044]
In the example of the first embodiment shown in FIG. 1, the virtual sound image 9 is fixed to the front of the listener 8, but in the second embodiment described later, the virtual sound image 9 is fixed. This enables the listener 8 to arbitrarily set the position. In this case, for example, as the head acoustic transfer function from the speakers 12L and 12R of the virtual sound source to the listener 8, the measurement of the above (C) is performed while changing the positions of the speakers 12L and 12R of the virtual sound source to various various positions. , Need to be a database.
[0045]
The correction process using the head acoustic transfer function is performed as follows.
First, it is assumed that the head-related acoustic transfer function measured and analyzed according to the above (A) to (C) is as follows, as shown in FIG.
[0046]
FLL (Z): head acoustic transfer function from the left channel speaker 12L of the virtual sound source to the left ear
FLR (Z): head acoustic transfer function from the left channel speaker 12L of the virtual sound source to the right ear
FRL (Z): head acoustic transfer function from the right channel speaker 12R of the virtual sound source to the left ear
FRR (Z): head acoustic transfer function from the right channel speaker 12R of the virtual sound source to the right ear
GLL (Z): head acoustic transfer function from the left channel speaker 6L of the real sound source to the left ear
GLR (Z): head-related transfer function from the speaker 6L of the left channel of the real sound source to the right ear
GRL (Z): head acoustic transfer function from the speaker 6R of the right channel of the real sound source to the left ear
GRR (Z): head-related transfer function from the speaker 6R of the right channel of the real sound source to the right ear
[0047]
However, as described above, the positions of the virtual sound sources 12L and 12R are the positions of the speakers that realize the ideal sound field or sound image, and the positions of the real sound sources 6L and 6R are the speakers that are actually installed. Position. Each head-related transfer function is represented by a complex number.
[0048]
further,
XL (Z): left channel sound input signal (sound signal before correction)
XR (Z): right channel audio input signal (audio signal before correction)
YL (Z): left channel sound output signal (corrected sound signal)
YR (Z): right channel sound output signal (corrected sound signal)
And
[0049]
Here, YL (Z), GLL (Z), and YL (Z) are applied to the left ear 7L of the listener 8 by the sound pressure output from the actual speakers 6L and 6R disposed behind the listener 8. A GRL (Z) sound pressure is obtained.
In addition, the sound pressure of YL (Z) and GRR (Z) and the sound pressure of YL (Z) and GLR (Z) are applied to the right ear 7R of the listener 8 by the sound pressure output from the actual speakers 6L and 6R. Is obtained.
[0050]
On the other hand, if the speakers 12L and 12R of the virtual sound source are actually arranged, the left ear 7L of the listener 8 has XL (Z) · FLL (Z) and XR (Z) · FRL (Z). Is obtained.
Similarly, sound pressures of XR (Z) and FRR (Z) and XL (Z) and FLR (Z) are obtained in the right ear 7R of the listener 8 by sound pressures output from the speakers 12L and 12R. Can be
[0051]
The sound pressure obtained at the left ear 7L and the right ear 7R by the actual speakers 6L and 6R is the same as the sound pressure obtained at the left ear 7L and the right ear 7R when the virtual sound source speakers 12L and 12R are actually arranged. In the same manner, the same state as when the virtual speakers 12L and 12R are actually arranged can be formed by the speakers 6L and 6R of the real sound sources.
That is,
YL (Z) · GLL (Z) + YR (Z) · GRL (Z) = XL (Z) · FLL (Z) + XR (Z) · FRL (Z) (3)
YR (Z) · GRR (Z) + YL (Z) · GLR (Z) = XR (Z) · FRR (Z) + XL (Z) · FLR (Z) (Formula 4)
May be satisfied.
That is, the correction processing in the correction filter unit 2 basically includes, for the left and right channel audio input signals XL (Z) and XR (Z), the left and right channel audio signals that satisfy the above (Equation 3) and (Equation 4). If the output signals YL (Z) and YR (Z) are obtained, the virtual speakers 12L and 12R of the virtual sound source can be provided to the left ear 7L and the right ear 7R of the listener 8 using the actual speakers 6L and 6R. A sound image 9 can be formed.
[0052]
Here, in order to reduce the amount of data processing in the correction filter unit 2, the head acoustic transfer function is “symmetric”, that is,
FLL (Z) = FRR (Z) (Equation 5)
FLR (Z) = FRL (Z) (Equation 6)
GLL (Z) = GRR (Z) (Equation 7)
GLR (Z) = GRL (Z) (Equation 8)
Is satisfied, the correction filter unit 2 is configured.
In order to assume the symmetry in this manner, the location of the dummy head when measuring the head-related acoustic transfer function is located at the center of the seat 14, that is, the middle of the actually installed left and right speakers 6L and 6R. Is desirable. In addition, by doing so, the correction error due to the sheet is reduced, and the correction effect can be expected for any sheet.
[0053]
Then, under the assumptions of (Equation 5), (Equation 6), (Equation 7), and (Equation 8), to correct the sound from the virtual sound sources 12L and 12R, the above (Equation 3) (Equation 4) ) May be modified to satisfy the following (Equation 9) and (Equation 10). That is, FRR (Z) is replaced with FLL (Z), FRL (Z) is replaced with FLR (Z), GRR (Z) is replaced with GLL (Z), and GRL (Z) is replaced with GLR (Z).
YL (Z) · GLL (Z) + YR (Z) · GLR (Z) = XL (Z) · FLL (Z) + XR (Z) · FLR (Z) (Equation 9)
YR (Z) · GLL (Z) + YL (Z) · GLR (Z) = XR (Z) · FLL (Z) + XL (Z) · FLR (Z) (Equation 10)
And
[0054]
Here, Hp (Z) and Hm (Z) are
Hp (Z) = (FLL (Z) + FLR (Z)) / (GLL (Z) + GLR (Z)) (Equation 11)
Hm (Z) = (FLL (Z) -FLR (Z)) / (GLL (Z) -GLR (Z)) (Equation 12)
YL (Z) and YR (Z) in the above (Equation 9) and (Equation 10) are defined as
YL (Z) = Hp (Z) · (XL (Z) + XR (Z)) / 2 + Hm (Z) · (XL (Z) −XR (Z)) / 2 (Expression 13)
YR (Z) = Hp (Z) · (XL (Z) + XR (Z)) / 2−Hm (Z) · (XL (Z) −XR (Z)) / 2 (Equation 14)
It becomes.
Here, Hp (Z) and Hm (Z) represent transfer characteristics of the first digital filter and the second digital filter incorporated in the correction filter unit 2.
[0055]
It is known that the difference component of the two-channel stereo sound signal strongly affects the sense of stereo and the sense of spread. “Hm (Z) · (XL (Z) −XR (Z))” in (Equation 13) and (Equation 14) is a difference component of the stereo sound signal.
Therefore, by controlling the level of the “Hm (Z) · (XL (Z) −XR (Z))” term, it is possible to control the sense of spatial expansion.
[0056]
Then, multiplying the “Hm (Z) · (XL (Z) −XR (Z))” term of (Equation 13) and (Equation 14) by a coefficient k as a parameter for controlling the feeling of spread gives (Equation 13) (Equation 14) is as shown in the following (Equation 15) (Equation 16).
YL (Z) = Hp (Z) · (XL (Z) + XR (Z)) / 2 + k · Hm (Z) · (XL (Z) −XR (Z)) / 2 (Equation 15)
YR (Z) = Hp (Z) · (XL (Z) + XR (Z)) / 2−k · Hm (Z) · (XL (Z) −XR (Z)) / 2 (Formula 16)
[0057]
In Equations (15) and (16), when the coefficient k is increased, the difference component of the term “Hm (Z) · (XL (Z) −XR (Z))” is emphasized. Spaciousness is enhanced.
[0058]
Then, the correction filter unit 2 of the present example performs the correction processing shown in the above (Equation 15) and (Equation 16) on the input audio input signals XL (Z) and XR (Z) of the left and right channels to input the left and right channels. The sound output signals YL (Z) and YR (Z) may be obtained. Thereby, the above (Equation 9) and (Equation 10) are satisfied, and the virtual sound image 9 can be formed by the speakers 6L and 6R. Furthermore, the spread of the reproduction sound field can be controlled. Therefore, the correction filter unit 2 performs addition and subtraction in the above-described (Equation 15) and (Equation 16) with the filters having the characteristics Hp (Z) and Hm (Z) whose characteristics are expressed by (Equation 11) and (Equation 12). , And a level control circuit for multiplying by the coefficient k.
[0059]
The correction filter unit 2 is composed of, for example, a DSP, and performs correction processing by its arithmetic processing. FIG. 7 shows the processing in hardware. The sound input signals XL (Z) and XR (Z) are supplied to a subtraction circuit 22 and an addition circuit 21 to form a difference signal and a sum signal. Then, the difference signal output from the subtraction circuit 22 is supplied to the level control circuit 24, and the level control corresponding to the coefficient k in (Equation 15) and (Equation 16) is performed. Then, the difference signal is supplied to the FIR filter circuit 25 having the transfer characteristic Hm (Z) of (Equation 12). The sum signal output from the adding circuit 21 is supplied to the FIR filter circuit 23 having the transfer characteristic Hp (Z) of (Equation 11).
Then, the output signals of these two FIR filter circuits 23 and 25 are multiplied by a predetermined ratio (1/2 multiplication) by the level control circuits 26 and 27 and supplied to the addition circuit 28 and the subtraction circuit 29, and the sound output signal YL ( Z) and YR (Z) are formed.
The sound output signals YL (Z) and YR (Z) are supplied to the D / A converter 4 of the next stage through the sound digital signal output circuit 3 as shown in FIG.
[0060]
In particular, in the present embodiment, as described above, by detecting the position of the listener's head from the infrared sensor 17 in real time, the CPU 11 always selects the optimal head acoustic transfer function and sets it in the correction filter unit 2. Is done.
In other words, a certain set of head acoustic transfer functions FLL (Z), FRR (Z), FLR (Z), FRL (Z), GLL (Z) according to the detection result of the head position of the listener 8 , GRR (Z), GLR (Z), GRL (Z) are selected from the database of the storage unit 13.
However, FLL (Z), FLR (Z), GLL (Z), and GLR (Z) are actually selected as one set of head acoustic transfer functions because of the assumptions of the above (Equation 5) to (Equation 8). It should be done.
[0061]
As understood from this, adopting the assumptions of the above (Equation 5) to (Equation 8) not only simplifies the operation of the correction filter unit 2, but also reduces the database size of the storage unit 13. Also, there is an effect that the measurement of the head acoustic transfer function can be simplified.
[0062]
The head acoustic transfer functions FLL (Z), FLR (Z), GLL (Z), and GLR (Z) are, as shown in (Equation 11) and (Equation 12), the characteristics Hp (Z), Hm (Z) will be specified.
In other words, the CPU 11 selects each of the FIR filters (FIR filter circuits 23 and 25 in FIG. 7) of the characteristics Hp (Z) and Hm (Z) in the correction filter unit 2 according to the detection result of the infrared sensor 17. Control is performed so as to set characteristics Hp (Z) and Hm (Z) derived from the partial acoustic transfer functions FLL (Z), FLR (Z), GLL (Z), and GLR (Z).
[0063]
As described above, in the sound reproducing device of this example, even if the speakers 6L and 6R of the real sound source are mounted in the rear space (for example, the headrest of the seat 14), the positions of the speakers 12L and 12R as the virtual sound source (for example, the seats) 14 can be obtained in the same manner as when a speaker is arranged at the left and right positions of the display 15 installed in front of the display 14. Even when the listener's head fluctuates or moves, the virtual image is appropriately reproduced. Since the sound source can be arranged and perceived as if the reproduced sound is being output from this virtual sound source, an ideal sound field and sound image can be created without any discomfort for the listener.
Furthermore, since such a sound field can be realized by the speakers 6L and 6R in the rear space, the speaker arrangement in the front space is not required, and the ease and flexibility of speaker installation are improved. This is suitable for installation of the sound reproducing device in various spaces such as indoors and automobiles.
[0064]
Further, it is possible to prevent the sound image from being localized in the listener's head or in the rear space, and to localize the sound image in an arbitrary space.
In addition, it is possible to eliminate the inconvenience that occurs when a small satellite speaker for high-frequency reproduction is provided, that is, inconsistency in which sound is heard separately, so that sound is output from one speaker. Can be perceived.
[0065]
Further, as described above, the difference component between the left and right channels of the audio signal strongly affects the stereo feeling and the spaciousness of the reproduced sound, but the level control circuit 24 is provided in the correction filter unit 2 as shown in FIG. The multiplication of the level control circuit 24 by the coefficient k can emphasize the spatial spread of the reproduced sound.
Of course, for example, by variably setting the multiplication coefficient k of the level control circuit 24 by the CPU 11, the level of the difference component supplied from the subtraction circuit 23 to the subsequent FIR filter circuit 25 can be variably controlled, and the spatial It is also possible to adjust and correct the feeling of spaciousness, and to perform optimum correction according to the volume level.
[0066]
In the above description, the head-related transfer function is stored in a database in the storage unit 13. However, the measured head-related transfer function itself does not always have to be stored. That is, the characteristics Hp (Z) and Hm (Z) according to various head position states of the listener 8 are calculated from the head acoustic transfer function measured in advance, and the transfer characteristic control is performed by the FIR filter circuits 23 and 25. The values may be stored in a database.
[0067]
Also, by taking the average of a plurality of head-related transfer functions, an effective correction filter unit 2 can be created even when three or more speaker systems are used, and therefore, a correction filter unit that does not limit the number of speakers is used. 2 (sound reproduction device).
[0068]
<Second embodiment>
FIG. 8 shows a sound reproducing apparatus according to the second embodiment. The configuration of FIG. 8 is obtained by adding an operation unit 18 to the configuration of FIG. Other configurations are basically the same as those in FIG.
[0069]
In FIG. 8, the operation unit 18 can be arbitrarily operated by the listener 8 and the like, and is for arbitrarily changing the position of the virtual sound image 9.
For example, the listener 8 can change the position of the virtual sound image 9 in the front space by operating the operation unit 18 as, for example, virtual sound images 9a and 9b.
For this purpose, the head sound transfer function from the speakers 12L and 12R of the virtual sound source that realizes the position of the virtual sound image 9 specified by the operation unit 18 may be variably selected.
[0070]
In this case, when the head acoustic transfer function is measured in advance, the positions of the speakers 12L and 12R of the virtual sound source are changed to various positions as the head acoustic transfer function from the speakers 12L and 12R of the virtual sound source to the listener 8. While the above-mentioned measurement (C) is performed, a database is stored in the storage unit 13.
[0071]
Then, the CPU 11 responds to the operation of the operation section 18 by measuring the head-related acoustic transfer functions (FLL (Z), FLR (Z) measured in the arrangement state of the speakers 12L and 12R for positioning the virtual sound image 9 instructed. ).
Note that there are a plurality of sets of head acoustic transfer functions (FLL (Z), FLR (Z)) selected according to the operation. This is because a plurality of head-related acoustic transfer functions are measured while changing the head position of the listener 8 in a certain speaker 12L, 12R arrangement state.
For example, when the position of the virtual sound image 9a is specified, the head acoustics measured a plurality of times by changing the dummy head position in the arrangement state of the speakers 12L and 12R (the positions of 12La and 12Ra) for realizing the virtual sound image 9a. The transfer function is chosen.
[0072]
In this case, the CPU 11 further selects the head acoustic transfer functions FLL (Z), FLR (Z), GLL (Z), and GLR (Z) according to the detection information from the infrared sensor 17.
That is, the current head position of the listener 8 is obtained from a plurality of FLL (Z) and FLR (Z) as head acoustic transfer functions corresponding to the position of the virtual sound image 9 selected in accordance with the operation of the operation unit 18. , And one FLL (Z) and GLR (Z) are selected in the same manner as in the first embodiment.
When the head-related acoustic transfer functions FLL (Z), FLR (Z), GLL (Z), and GLR (Z) are selected in this manner, the selected head-related acoustic transfer functions FLL (Z), FLR (Z) , GLL (Z) and GLR (Z) controlling the transfer characteristics Hp (Z) and Hm (Z) of the FIR filter circuits 23 and 25 in the correction filter unit 2 are the same as in the first embodiment. .
[0073]
That is, in the case of the second embodiment, the position of the virtual sound image 9 can be arbitrarily changed, and the position of the virtual sound image 9 can be moved according to the taste of the listener 8, or the sound reproduction device such as a room or an automobile can be used. A suitable position of the virtual sound image 9 can be adjusted according to the listening environment including the installation space, the arrangement position of the display device 15, and the like.
[0074]
While the embodiments of the present invention have been described above, various other modifications are possible as the present invention.
In the above example, the head position of the listener 8 corresponds to the movement in the front-back direction and the difference in the height direction (seat height difference) in real time. It is also conceivable to enable the detection and to select the head-related transfer function corresponding to the detection.
[0075]
The arrangement of the speakers 6L and 6R is, of course, not limited to the seat 14, and may be in any form as long as it is arranged in the space behind the listener 8.
In addition, in the case of an example in which the seat is arranged on the seat 14, not only the seat for the room, the seat in the car, but also the seat of a train, a ship, an airplane, a theater, and the like, a realistic sound experience in various environments can be provided. Can be realized.
[0076]
【The invention's effect】
As understood from the above description, according to the present invention, an acoustic signal output from a speaker installed in a space behind a listener is an acoustic signal subjected to a correction process based on a head acoustic transfer function. Then, the sound image is localized in a predetermined direction position such as a space in front of the listening position, and further, for the correction processing, an appropriate head acoustic transfer function is selected while detecting the position of the listener's head. I have to.
For this reason, even when the listener's head fluctuates or moves, the virtual sound source can be appropriately arranged, and the virtual sound source can be perceived as outputting a reproduced sound. It is possible to create an ideal and stable sound field and sound image without a sense of incongruity.
[0077]
In addition, since the speaker is installed in the space behind the listener, the sound image can be freely located in any space from the listener's position without installing the speaker in an unintended location in front of the listener. Can be done.
This eliminates the difficulty of arranging the speakers indoors. In addition, in the case of displaying an image, there is an advantage that there is no problem in the positional relationship of the speaker with the display device or the screen.
Also, by reproducing a virtual sound image in an arbitrary space by using a rear speaker, for example, a speaker disposed on a seat, an effective acoustic experience can be achieved, so that it can be used for automobiles, trains, ships, airplanes, and indoor viewing applications. The effect is that it is possible to realize an effective music appreciation as if listening to a live performance, and a movie appreciation as if it were in a movie theater.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration example of a sound reproducing device according to a first embodiment of the present invention.
FIG. 2 is an explanatory diagram of a speaker and a sensor provided on a seat in the embodiment.
FIG. 3 is a top view illustrating a horizontal direction of a rear space in the sound reproducing device according to the embodiment;
FIG. 4 is a side view illustrating a vertical direction of a rear space in the sound reproducing device according to the embodiment;
FIG. 5 is an explanatory diagram of a listener, a real sound source, a virtual sound source, and a head acoustic transfer function in the sound reproduction device according to the embodiment;
FIG. 6 is an explanatory diagram of a positional relationship between a speaker and a listener's head in the sound reproducing device according to the embodiment;
FIG. 7 is an explanatory diagram of a correction process of the sound reproducing device according to the embodiment;
FIG. 8 is a block diagram illustrating a configuration example of a sound reproducing device according to a second embodiment of the present invention.
FIG. 9 is a block diagram illustrating a configuration example of a conventional sound reproducing device.
FIG. 10 is an explanatory diagram of radiation of an acoustic signal E from a virtual sound image.
[Explanation of symbols]
Reference Signs List 1 audio digital signal input unit, 2 correction filter unit, 3 audio digital signal output unit, 4 D / A converter, 5 output amplifier, 6L left channel speaker, 6R
Right channel speaker, 17 infrared sensor, 18 operation unit

Claims (5)

聴取者の聴取位置の後方空間に設置される複数チャンネルのスピーカに対して、複数チャンネルの音響出力信号を供給する音響出力装置として、
複数チャンネルの各音響デジタル入力信号について、上記聴取位置に対して所定方向空間に音像定位させるように、頭部音響伝達関数に基づいた補正処理を行う補正フィルタ手段と、
上記補正フィルタ手段で補正処理された複数チャンネルの信号を、上記複数チャンネルの各スピーカに対して音響出力信号として供給する音響信号出力手段と、
上記スピーカの位置と上記聴取者の頭部位置との位置関係を検出するセンサ手段と、
上記センサ手段の検出結果に応じて頭部音響伝達関数を選択し、上記補正フィルタ手段の補正処理を制御する制御手段と、
を備えたことを特徴とする音響出力装置。
As a sound output device for supplying a sound output signal of a plurality of channels to a speaker of a plurality of channels installed in a space behind a listening position of a listener,
For each acoustic digital input signal of a plurality of channels, so as to localize the sound image in a predetermined direction space with respect to the listening position, a correction filter means for performing a correction process based on the head acoustic transfer function,
Sound signal output means for supplying signals of a plurality of channels corrected by the correction filter means as sound output signals to the speakers of the plurality of channels;
Sensor means for detecting the positional relationship between the position of the speaker and the head position of the listener;
Control means for selecting a head acoustic transfer function according to the detection result of the sensor means, and controlling a correction process of the correction filter means;
A sound output device comprising:
音像定位させる上記所定方向空間とは、上記聴取位置に対する前方空間であることを特徴とする請求項1に記載の音響出力装置。The sound output device according to claim 1, wherein the space in the predetermined direction in which the sound image is localized is a space in front of the listening position. 音像定位させる所定方向空間を可変指示する操作手段をさらに備え、
上記制御手段は、上記センサ手段の検出結果と、上記操作手段の操作情報とに応じて頭部音響伝達関数を選択し、上記補正フィルタ手段の補正処理を制御することを特徴とする請求項1に記載の音響出力装置。
Operating means for variably instructing a predetermined direction space for sound image localization is further provided,
2. The apparatus according to claim 1, wherein the control unit selects a head acoustic transfer function according to a detection result of the sensor unit and operation information of the operation unit, and controls a correction process of the correction filter unit. 3. The sound output device according to claim 1.
聴取者の聴取位置の後方空間に設置される複数チャンネルのスピーカと、
複数チャンネルの各音響デジタル入力信号について、上記聴取位置に対して所定方向空間に音像定位させるように、頭部音響伝達関数に基づいた補正処理を行う補正フィルタ手段と、
上記補正フィルタ手段で補正処理された複数チャンネルの信号を、上記複数チャンネルのスピーカに対して音響出力信号として供給する音響信号出力手段と、
上記スピーカの位置と上記聴取者の頭部位置との位置関係を検出するセンサ手段と、
上記センサ手段の検出結果に応じて頭部音響伝達関数を選択し、上記補正フィルタ手段の補正処理を制御する制御手段と、
を備えたことを特徴とする音響出力システム。
A multi-channel speaker installed in the space behind the listening position of the listener,
For each acoustic digital input signal of a plurality of channels, so as to localize the sound image in a predetermined direction space with respect to the listening position, a correction filter means for performing a correction process based on the head acoustic transfer function,
Sound signal output means for supplying the signals of the plurality of channels corrected by the correction filter means as sound output signals to the speakers of the plurality of channels;
Sensor means for detecting the positional relationship between the position of the speaker and the head position of the listener;
Control means for selecting a head acoustic transfer function according to the detection result of the sensor means, and controlling a correction process of the correction filter means;
A sound output system comprising:
聴取者の聴取位置の後方空間に設置される複数チャンネルのスピーカに対して、複数チャンネルの音響出力信号を供給する際に、
上記スピーカの位置と上記聴取者の頭部位置との位置関係を検出し、
上記検出結果に応じて頭部音響伝達関数を選択し、
複数チャンネルの各音響デジタル入力信号について、上記聴取位置に対して所定方向空間に音像定位させるように、上記選択された頭部音響伝達関数に基づいた補正処理を行い、
上記補正処理された複数チャンネルの信号を、上記複数チャンネルのスピーカに対して音響出力信号として供給することを特徴とする音響出力方法。
When supplying a sound output signal of a plurality of channels to a speaker of a plurality of channels installed in a space behind a listening position of a listener,
Detecting the positional relationship between the position of the speaker and the position of the listener's head,
A head-related sound transfer function is selected according to the detection result,
For each audio digital input signal of a plurality of channels, so as to localize a sound image in a predetermined direction space with respect to the listening position, perform a correction process based on the selected head acoustic transfer function,
A sound output method, wherein the corrected signals of a plurality of channels are supplied as sound output signals to the speakers of the plurality of channels.
JP2002297100A 2002-10-10 2002-10-10 Sound outputting appliance, system, and method Pending JP2004135023A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002297100A JP2004135023A (en) 2002-10-10 2002-10-10 Sound outputting appliance, system, and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002297100A JP2004135023A (en) 2002-10-10 2002-10-10 Sound outputting appliance, system, and method

Publications (1)

Publication Number Publication Date
JP2004135023A true JP2004135023A (en) 2004-04-30

Family

ID=32286884

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002297100A Pending JP2004135023A (en) 2002-10-10 2002-10-10 Sound outputting appliance, system, and method

Country Status (1)

Country Link
JP (1) JP2004135023A (en)

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006279864A (en) * 2005-03-30 2006-10-12 Clarion Co Ltd Acoustic system
JP2007036802A (en) * 2005-07-28 2007-02-08 Fujitsu Ltd Information processing apparatus, information processing method, and information processing program
JP2007067858A (en) * 2005-08-31 2007-03-15 Sony Corp Sound signal processor, sound signal processing method and program, and input device
JP2008270857A (en) * 2007-04-16 2008-11-06 Sony Corp Sound reproduction system
JP2009017094A (en) * 2007-07-03 2009-01-22 Fujitsu Ten Ltd Speaker system
EP1791394A4 (en) * 2004-09-16 2009-10-28 Panasonic Corp Sound image localizer
EP1746862A4 (en) * 2004-05-13 2010-03-31 Pioneer Corp Acoustic system
JP2011205687A (en) * 2011-06-09 2011-10-13 Pioneer Electronic Corp Audio regulator
US8160259B2 (en) 2006-07-21 2012-04-17 Sony Corporation Audio signal processing apparatus, audio signal processing method, and program
US8194898B2 (en) 2006-09-22 2012-06-05 Sony Corporation Sound reproducing system and sound reproducing method
US8311238B2 (en) 2005-11-11 2012-11-13 Sony Corporation Audio signal processing apparatus, and audio signal processing method
US8369531B2 (en) 2006-01-23 2013-02-05 Sony Corporation Audio reproducing apparatus and method thereof
US8368715B2 (en) 2006-07-21 2013-02-05 Sony Corporation Audio signal processing apparatus, audio signal processing method, and audio signal processing program
US8494192B2 (en) 2005-05-13 2013-07-23 Sony Corporation Audio reproducing system and method thereof
JP2014135694A (en) * 2013-01-11 2014-07-24 Denso Corp On-vehicle acoustic device
JP2015070324A (en) * 2013-09-26 2015-04-13 Kddi株式会社 Multimedia device and program
CN104869498A (en) * 2015-03-25 2015-08-26 深圳市九洲电器有限公司 Sound playing control method and system
WO2019123542A1 (en) * 2017-12-19 2019-06-27 株式会社ソシオネクスト Acoustic system, acoustic control device, and control program
US10397724B2 (en) 2017-03-27 2019-08-27 Samsung Electronics Co., Ltd. Modifying an apparent elevation of a sound source utilizing second-order filter sections
JPWO2018101279A1 (en) * 2016-11-29 2019-10-24 ソニー株式会社 Information processing apparatus, information processing method, and computer program
US10562426B2 (en) 2017-12-13 2020-02-18 Lear Corporation Vehicle head restraint with movement mechanism
CN112148117A (en) * 2019-06-27 2020-12-29 雅马哈株式会社 Audio processing device and audio processing method
CN114697803A (en) * 2020-12-31 2022-07-01 广州艾美网络科技有限公司 Sound field adjusting device, sound box and sound equipment
CN114697691A (en) * 2020-12-31 2022-07-01 广州艾美网络科技有限公司 Integrated audio and video interaction equipment
WO2023001673A3 (en) * 2021-07-19 2023-04-27 Kaetel Systems Gmbh Apparatus and method for providing audio coverage in a room
CN118748774A (en) * 2024-08-16 2024-10-08 比亚迪股份有限公司 Vehicle sound effect control method, device, equipment, storage medium and vehicle

Cited By (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1746862A4 (en) * 2004-05-13 2010-03-31 Pioneer Corp Acoustic system
EP1791394A4 (en) * 2004-09-16 2009-10-28 Panasonic Corp Sound image localizer
US8005245B2 (en) 2004-09-16 2011-08-23 Panasonic Corporation Sound image localization apparatus
JP2006279864A (en) * 2005-03-30 2006-10-12 Clarion Co Ltd Acoustic system
US8494192B2 (en) 2005-05-13 2013-07-23 Sony Corporation Audio reproducing system and method thereof
JP2007036802A (en) * 2005-07-28 2007-02-08 Fujitsu Ltd Information processing apparatus, information processing method, and information processing program
US8265301B2 (en) 2005-08-31 2012-09-11 Sony Corporation Audio signal processing apparatus, audio signal processing method, program, and input apparatus
JP2007067858A (en) * 2005-08-31 2007-03-15 Sony Corp Sound signal processor, sound signal processing method and program, and input device
US8311238B2 (en) 2005-11-11 2012-11-13 Sony Corporation Audio signal processing apparatus, and audio signal processing method
US8369531B2 (en) 2006-01-23 2013-02-05 Sony Corporation Audio reproducing apparatus and method thereof
US8160259B2 (en) 2006-07-21 2012-04-17 Sony Corporation Audio signal processing apparatus, audio signal processing method, and program
US8368715B2 (en) 2006-07-21 2013-02-05 Sony Corporation Audio signal processing apparatus, audio signal processing method, and audio signal processing program
US8194898B2 (en) 2006-09-22 2012-06-05 Sony Corporation Sound reproducing system and sound reproducing method
US8199940B2 (en) 2007-04-16 2012-06-12 Sony Corporation Audio reproduction system and speaker apparatus
JP2008270857A (en) * 2007-04-16 2008-11-06 Sony Corp Sound reproduction system
JP2009017094A (en) * 2007-07-03 2009-01-22 Fujitsu Ten Ltd Speaker system
JP2011205687A (en) * 2011-06-09 2011-10-13 Pioneer Electronic Corp Audio regulator
JP2014135694A (en) * 2013-01-11 2014-07-24 Denso Corp On-vehicle acoustic device
US9191765B2 (en) 2013-01-11 2015-11-17 Denso Corporation In-vehicle audio device
JP2015070324A (en) * 2013-09-26 2015-04-13 Kddi株式会社 Multimedia device and program
CN104869498A (en) * 2015-03-25 2015-08-26 深圳市九洲电器有限公司 Sound playing control method and system
US11683471B2 (en) 2016-11-29 2023-06-20 Sony Corporation Information processing device and information processing method
JPWO2018101279A1 (en) * 2016-11-29 2019-10-24 ソニー株式会社 Information processing apparatus, information processing method, and computer program
JP7159870B2 (en) 2016-11-29 2022-10-25 ソニーグループ株式会社 Information processing device, information processing method, and computer program
US10397724B2 (en) 2017-03-27 2019-08-27 Samsung Electronics Co., Ltd. Modifying an apparent elevation of a sound source utilizing second-order filter sections
US10602299B2 (en) 2017-03-27 2020-03-24 Samsung Electronics Co., Ltd. Modifying an apparent elevation of a sound source utilizing second-order filter sections
US10562426B2 (en) 2017-12-13 2020-02-18 Lear Corporation Vehicle head restraint with movement mechanism
CN111492667A (en) * 2017-12-19 2020-08-04 株式会社索思未来 Acoustic system, acoustic control device, and control program
JPWO2019123542A1 (en) * 2017-12-19 2020-12-17 株式会社ソシオネクスト Acoustic systems, acoustic controls and control programs
US11128975B2 (en) 2017-12-19 2021-09-21 Socionext Inc. Acoustic system and acoustic control device
CN111492667B (en) * 2017-12-19 2021-12-31 株式会社索思未来 Acoustic system, acoustic control device, and control method
JP7047850B2 (en) 2017-12-19 2022-04-05 株式会社ソシオネクスト Acoustic systems, acoustic controls and control programs
WO2019123542A1 (en) * 2017-12-19 2019-06-27 株式会社ソシオネクスト Acoustic system, acoustic control device, and control program
CN112148117A (en) * 2019-06-27 2020-12-29 雅马哈株式会社 Audio processing device and audio processing method
CN114697691A (en) * 2020-12-31 2022-07-01 广州艾美网络科技有限公司 Integrated audio and video interaction equipment
CN114697803A (en) * 2020-12-31 2022-07-01 广州艾美网络科技有限公司 Sound field adjusting device, sound box and sound equipment
CN114697691B (en) * 2020-12-31 2024-01-19 广州艾美网络科技有限公司 Integrated audio/video interaction equipment
WO2023001673A3 (en) * 2021-07-19 2023-04-27 Kaetel Systems Gmbh Apparatus and method for providing audio coverage in a room
CN118748774A (en) * 2024-08-16 2024-10-08 比亚迪股份有限公司 Vehicle sound effect control method, device, equipment, storage medium and vehicle

Similar Documents

Publication Publication Date Title
JP2004135023A (en) Sound outputting appliance, system, and method
AU2001239516B2 (en) System and method for optimization of three-dimensional audio
US8170245B2 (en) Virtual multichannel speaker system
JP5184741B2 (en) Recovery of central channel information in vehicle multi-channel audio systems
US8787602B2 (en) Device for and a method of processing audio data
CN103053180B (en) For the system and method for audio reproduction
AU2001239516A1 (en) System and method for optimization of three-dimensional audio
JP4692803B2 (en) Sound processor
US7978860B2 (en) Playback apparatus and playback method
US20120224729A1 (en) Directional Electroacoustical Transducing
JP5986426B2 (en) Sound processing apparatus and sound processing method
JP3896865B2 (en) Multi-channel audio system
JP2003092799A (en) Acoustic processor
JP4887290B2 (en) Sound image localization controller
JPH0851698A (en) Surround signal processor and video and audio reproducing device
JP2008312096A (en) Acoustic playback apparatus, and television receiver
JP5533282B2 (en) Sound playback device
JP2012227647A (en) Spatial sound reproduction system by multi-channel sound
JP2003061197A (en) Acoustic device, seat, and transport facilities
JP4917946B2 (en) Sound image localization processor
US9402143B2 (en) Method for processing an audio signal, audio playback system, and processing unit for processing audio signals
CN111543068A (en) Sound processing device, sound processing method, and program
Kuhlen et al. A true spatial sound system for CAVE-like displays using four loudspeakers
WO2025110110A1 (en) Audio reproduction system
JP2003061195A (en) Sound signal reproducing device