JP2019502296A - 信号処理方法および仮想スピーカアレイにオーディオをレンダリングするシステム - Google Patents
信号処理方法および仮想スピーカアレイにオーディオをレンダリングするシステム Download PDFInfo
- Publication number
- JP2019502296A JP2019502296A JP2018524370A JP2018524370A JP2019502296A JP 2019502296 A JP2019502296 A JP 2019502296A JP 2018524370 A JP2018524370 A JP 2018524370A JP 2018524370 A JP2018524370 A JP 2018524370A JP 2019502296 A JP2019502296 A JP 2019502296A
- Authority
- JP
- Japan
- Prior art keywords
- matrix
- hrir
- state space
- space representation
- hrirs
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
- H04S7/303—Tracking of listener position or orientation
- H04S7/304—For headphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S3/00—Systems employing more than two channels, e.g. quadraphonic
- H04S3/002—Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
- H04S3/004—For headphones
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/008—Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S1/00—Two-channel systems
- H04S1/002—Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
- H04S1/005—For headphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S3/00—Systems employing more than two channels, e.g. quadraphonic
- H04S3/008—Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S3/00—Systems employing more than two channels, e.g. quadraphonic
- H04S3/02—Systems employing more than two channels, e.g. quadraphonic of the matrix type, i.e. in which input signals are combined algebraically, e.g. after having been phase shifted with respect to each other
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/305—Electronic adaptation of stereophonic audio signals to reverberation of the listening space
- H04S7/306—For headphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/01—Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/01—Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/07—Synergistic effects of band splitting and sub-band processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/11—Application of ambisonics in stereophonic audio systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Mathematical Physics (AREA)
- Multimedia (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- General Physics & Mathematics (AREA)
- Algebra (AREA)
- Pure & Applied Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Stereophonic System (AREA)
Abstract
Description
図中、容易な理解および便宜のため、同一の参照記号および任意の略語は、同一または同様な構成もしくは機能を有する要素または作用を識別する。図は以下の詳細な説明において詳細に記載される。
図1は、空間オーディオプレイヤ(本実施例の目的では、環境影響の処理は全て無視する)の最終段階は、どのようにマルチチャンネル供給を仮想スピーカのアレイに取り入れ、その供給を、ヘッドフォンを通じて再生するための信号のペアに符号化するかを示す、例示的なシステム100である。示されるように、Mチャンネルから2チャンネルへの最終的な変換は、M個の個別の1対2エンコーダを使用して行われる。ただし、各エンコーダは、左右の耳の頭部伝達関数(HRTF)のペアである。したがって、システム記述においては、演算子G(z)は次の行列である。
音源とリスナーの左右の耳との間のインパルス応答は、周波数領域に変換された場合、頭部インパルス応答(HRIR)およびHRTFと称される。これらの応答関数は、リスナーが音源の場所を知覚するときに必須の、ディレクションキュー(direction cue)を含む。仮想聴覚ディスプレイを生成するための信号処理は、これらの関数を、空間的に正確な音源の合成において、フィルタとして使用する。VR用途においては、ユーザビュー追跡は、例えば(i)処理資源が限られており、また(ii)低いレイテンシがしばしば必須条件なので、オーディオ合成ができるだけ効率的に実行されることを必要とする。
g=[g0,g1,g2,..,gN−1]とすると、
Y(z)=G(z)X(z) (2)
G(z)=[g0+g1z−1+g2z−2+..+gN−1zN−1] (3)
である。
ハンケルノルム概論
以下の記載では、G(z)を代替システム
しかしながら、課題は、このノルムとシステムのモードとの関係性を同定することが困難であることである。代わりに、以下では誤差についてハンケルノルムの使用を検討するが、その理由は、これがシステムの特性と有効な関係性を有しており、またH∞ノルムに関して上限を与えることが容易に示されるためである。
上記の記載から分かるように、ハンケルノルムは、システムを通じたエネルギー伝達の有効な尺度を提供する。しかしながら、ノルムがシステム次数およびその低減にどのように関連するかを理解するには、状態空間表現によってモデル化したシステムの内部力学を同定する必要がある。線型シフト不変(LSI)システムの状態空間モデルとその伝達関数との間の表現的関連は周知である。n次のSISO(Single−Input−Single−Output)システムを以下の伝達関数で記述すると、
w[k+1]=Aw[k]+Bx[k]
y[k]=Cw[k]+Dx[k] (9)
このシステムのZ変換は
zW(z)=AW(z)+BX(z)
Y(z)=CW(z)+DX(z)
であり、以下を与える。
Y(z)=[C(zI−A)−1B+D]X(z)=G(z)X(z) (10)
システム行列[A,B,C,D]はユニークではなく、代替の状態空間モデルが、例えば、v[k]に関して以下の相似変換を通じて取得され得ることに留意すべきである。可逆行例TεR(n−1)x(n−1),Tv=wに対して、以下を与える。
本実施例の目的では、G(z)は安定したシステムである、すなわち、Sは安定していると仮定され、これは、A=λ(A)の固有値が全て単位円板|λ|<1上に存在することを意味すると理解されるべきである。
(i)到達可能性(可制御性)グラム行列
(ii)可観測性グラム行列
APAT+BBT−P=0
および
ATQA+CTC−Q=0
状態の観測エネルギーは、k≧0に対するw[0]=W0およびx[k]=0によって、軌道y[k]≧0のエネルギーである。以下の式を示すことは容易である。
k<0について、xopt[k]=BT(AT)−(1+k)P−1W0
上記を鑑みると、システムG(z)のハンケルノルムまたは同等にS:[A,B,C,D]を、QおよびPグラム行列に以下のように明確に関連付けることが可能である。
HRTFシステムにとって、適切な相似変換Tを計算することで以下のシステム実現
(i) G(z)から開始して、状態空間システムS:[A,B,C,D]であると決定する(例えば認識する)。
(ii) Sに対して、グラム行列が解かれてPおよびQを得る。
(iii) 線形代数が用いられ、以下の式を与える。
(v) (iv)からのTは、以下のようなシステムの新たな表現を取得するために使用されてよい。
(vii) この平衡モデルでは、信号入力から出力までのエネルギー伝達の重要度に関して状態が順序付けられている。したがって、この構造では、状態の切捨ておよびG(z)の次数の低減は同等に、エネルギー伝達の重要度に関して状態を取り除く。
以下に、FIR構造の状態空間モデルの生成および、上記の平衡システム表現を使用する次数低減を検討する。
Sは
また、比較のため、元のFIR G(z)と3次のIIR近似のインパルス応答が図4に図示される。
仮想スピーカアレイおよびHRIRセット
以下に、CIPICセットの被験者15のHRIRを使用して出力がバイノーラルにミックスダウンされた、図5に図示されるような、スピーカのシンプルな正方形の配置に基づいた例示的なシナリオを記載する。これらは、44.1kHzで抽出された200点のHRIRであり、該セットは、HRIRの各ペア間の両耳間時間差(ITD)の測定値を含む関連データの範囲を含む。HRIRの伝達関数G(z)(例えば上記方程式(3))は、ゼロおよび各応答における開始遅延である複数の首位係数[g0,...,gm]を有し、以下の方程式(12)に示されるようなG(z)を与える。HRIRのペアの左右の開始時間の差は、HRIRのITDへの寄与を主に決定する。典型的な左HRTFの形式は、方程式(12)において与えられ、右HRTFは、同様な形式を有する。
1つ以上の実施形態によれば、平衡実現を使用するSISO(single−input−single−output)IIR近似は、例えば以下を含む容易な処理である。
(i) 各ノードにHRIR(l/r,1:200)を読み込む。
(ii) ケプストラムを使用して最小位相相当を取得し、HHRIR(l/r,1:200)を与える。
(iii) HHRIR(l/r,1:200)のSISO状態空間表現を、S:[A,B,C,D]として構築する。これは199次元の状態空間である。
(iv) 上記の平衡低減方法を使用し、次元rrのSの次数が低減されたバージョンを取得する。例えば、Srr:[Arr,Brr,Crr,Drr]である。
図10乃至図17は、[+/−45度,+/−135度]、Fs=44100Hz、元のFIRは200点、IIR近似値が12次の場合の、CIPICのSubject 15の周波数応答を説明するグラフ表示である。
1つ以上の実施形態によれば、平衡実現を使用するMIMO(multi−input−multi−output)IIR近似は、上記SISOと同様に開始されてよい処理である。例えば、処理は以下を含んでよい。
(i) 各ノードにHRIR(l/r,1:200)を読み込む。
(ii) 上記のようにケプストラムを使用して最小位相相当を取得し、各ノードにHHRIR(l/r,1:200)を与える。
(iii) 各HHRIR(l/r,1:200)のSISO状態空間表現を、Sij:[Aij,Bij,Cij,Dij] for i=1,2 ≡left/right and j=1,2,3,4 ≡Node 1,2,3,4として構築する。各Sijは、199次元の状態空間システムである。ここで、Aij∈R199x199, Bij∈R199x1, Cij∈R1x199,およびDij∈R1x1である。
(iv) 例えば、4x199=796次元の内部状態空間と、4入力および2出力とを有する合成MIMOシステムを構築する。このシステムは、S:[A,B,C,D]であり、ただし、A,B,C,Dは以下のように構造化される。
少なくとも上記の例示的な実装においては、Sijの各々は、Sの生成の前に30次SISOシステムに低減される。この工程で、Sは4x30=120次元のシステムになる。これは、その後、図6に図示されるものと同様、例えばn=12次、4入力、2出力のシステムに低減されてよい。
Y(z)=G(z)X(z)
ここで、G(z)は以下の行列で与えられる。
本開示の1つまたは複数の実施形態によれば、G(z)は、n次のMIMO状態空間システム
図7においては、ITDユニットサブシステムは、遅延線のペアのセットであり、入力チャンネル毎に、1つのペアのみが遅延となり、他は一致する。したがって、z領域において、以下のような入力/出力表現が存在する。
加えて、共通IIR部分を持つカスケードにおける個々の角度依存FIR部分へのこの因数分解が、実験的な研究結果と一致することが留意される。そのような実験は、HRIRが近似の因数分解にいかに適しているかを示した。
Claims (20)
- 人間のリスナーの左耳および右耳に音場をレンダリングする方法であって、前記音場は、複数の仮想スピーカによって生成され、前記方法は、
前記人間のリスナーの頭の前記左耳および前記右耳に前記音場をレンダリングするよう構成されたサウンドレンダリングコンピュータの処理回路が、複数の頭部インパルス応答(HRIR)を取得する工程であって、前記複数のHRIRの各々は、前記複数の仮想スピーカのうちの1つの仮想スピーカと前記人間のリスナーの一方の耳とに関連付けられており、前記複数のHRIRの各々は、前記1つの仮想スピーカにより生成されるオーディオインパルスに応じて生成される、特定のサンプリングレートで生成される左耳または右耳における音場のサンプルを含む工程と、
前記複数のHRIRの各々の第1状態空間表現を生成する工程であって、前記第1状態空間表現は、行列、列ベクトル、および行ベクトルを含み、前記第1状態空間表現の前記行列、前記列ベクトル、および前記行ベクトルの各々は、第1サイズを有する工程と、
状態空間削減演算を実行することで、前記複数のHRIRの各々の第2状態空間表現を生成する工程であって、前記第2空間表現は、行列、列ベクトル、および行ベクトルを含み、前記第2状態空間表現の前記行列、前記列ベクトル、および前記行ベクトルの各々は、第1サイズよりも小さい第2サイズを有する、状態空間削減演算実行工程と、
前記第2状態表現に基づいて複数の頭部伝達関数(HRTF)を生成する工程であって、前記複数のHRTFの各々は、前記複数のHRIRのそれぞれのHRIRに対応しており、それぞれのHRIRに対応しているHRTFは、該HRIRが関連付けられている前記仮想スピーカにより生成される周波数領域音場が乗算されると、前記人間のリスナーの一方の耳にレンダリングされる音場の成分を生成する工程と、を備える方法。 - 前記状態空間削減演算実行工程は、前記複数のHRIRの各HRIRに対して、
該HRIRの前記第1状態空間表現に基づき、それぞれのグラム行列を生成する工程であって、前記グラム行列は、大きさ順に並べられた複数の固有値を有する工程と、
前記グラム行列および前記複数の固有値に基づき、該HRIRの前記第2状態空間表現を生成する工程であって、前記第2サイズは、前記複数の固有値のうち、特定の閾値を超える固有値の数に等しい、工程と、を含む請求項1に記載の方法。 - 前記複数のHRIRの各HRIRの前記第2状態空間表現を生成する工程は、該HRIRの前記第1状態空間表現に基づく前記グラム行列に適用された場合に対角行列を生成する変換行列を形成する工程であって、前記対角行列の各対角要素は、前記複数の固有値のそれぞれの固有値に等しい工程を含む請求項2に記載の方法。
- 前記複数のHRIRの各々に対して、
該HRIRのケプストラムを生成する工程であって、前記ケプストラムは、正の時間に取得された因果的サンプルおよび負の時間に取得された非因果的サンプルを有する工程と、
前記ケプストラムの前記非因果的サンプルの各々に対して、負の時間に取得された該非因果的サンプルを、該負の時間の反対の時間に取得された前記ケプストラムの因果的サンプルに加算することで、位相最小化演算を実行する工程と、
前記ケプストラムの前記非因果的サンプルの各々に対する前記位相最小化演算の実行後に、前記ケプストラムの前記非因果的サンプルの各々をゼロに設定することで、最小位相HRIRを生成する工程と、をさらに備える請求項1に記載の方法。 - MIMO(multiple input, multiple output)状態空間表現を生成する工程であって、前記MIMO状態空間表現は、合成行列、列ベクトル行列、および行ベクトル行列を含み、前記MIMO状態空間表現の前記合成行列は、前記複数のHRIRの各々の第1表現の前記行列を含み、前記MIMO状態空間表現の前記列ベクトル行列は、前記複数のHRIRの各々の第1表現の前記列ベクトルを含み、前記MIMO状態空間表現の前記行ベクトル行列は、前記複数のHRIRの各々の第1表現の前記行ベクトルを含む、MIMO状態空間表現生成工程と、をさらに備え、
前記状態空間削減演算実行工程は、削減合成行列、削減列ベクトル行列、および削減行ベクトル行列を生成する工程であって、前記削減合成行列、削減列ベクトル行列、および削減行ベクトル行列の各々は、前記合成行列、前記列ベクトル行列、および前記行ベクトル行列のサイズよりそれぞれ小さいサイズを有する工程を含む請求項1に記載の方法。 - 前記MIMO状態空間表現生成工程は、
前記MIMO状態空間表現の前記合成行列として第1ブロック行列を形成する工程であって、前記第1ブロック行列は、前記複数の仮想スピーカのうちの1つの仮想スピーカに関連付けられているHRIRの前記第1状態空間表現の行列を、前記第1ブロック行列の対角要素として有し、同様の仮想スピーカに関連付けられているHRIRの前記第1状態空間表現の行列は、前記第1ブロック行列の隣接する対角要素に存在する工程と、
前記MIMO状態空間表現の前記列ベクトル行列として第2ブロック行列を形成する工程であって、前記第2ブロック行列は、前記複数の仮想スピーカのうちの1つの仮想スピーカに関連付けられているHRIRの前記第1状態空間表現の列ベクトルを、前記第2ブロック行列の対角要素として有し、同様の仮想スピーカに関連付けられているHRIRの前記第1状態空間表現の列ベクトルは、前記第2ブロック行列の隣接する対角要素に存在する工程と、
前記MIMO状態空間表現の前記行ベクトル行列として第3ブロック行列を形成する工程であって、前記第3ブロック行列は、前記複数の仮想スピーカのうちの1つの仮想スピーカに関連付けられているHRIRの前記第1状態空間表現の行ベクトルを、前記第3ブロック行列の要素として有し、前記左耳における音をレンダリングするHRIRの前記第1状態空間表現の行ベクトルは、前記第3ブロック行列の第1行の奇数番目の要素に存在しており、前記右耳における音をレンダリングするHRIRの前記第1状態空間表現の行ベクトルは、前記第3ブロック行列の第2行の偶数番目の要素に存在している工程と、を含む請求項5に記載の方法。 - 前記MIMO状態空間表現生成工程の前に、前記複数のHRIRの各HRIRに対して、SISO(single input single output)状態空間削減演算を実行することで、該HRIRの前記第1状態空間表現として、該HRIRのSISO状態空間表現を生成する工程をさらに備える請求項5に記載の方法。
- 前記複数の仮想スピーカの各々に対して、該仮想スピーカに関連付けられている前記複数のHRIRに左HRIRおよび右HRIRが存在しており、前記左HRIRは、該仮想スピーカにより生成される前記周波数領域音場が乗算されると、前記人間のリスナーの前記左耳にレンダリングされる前記音場の前記成分を生成し、前記右HRIRは、該仮想スピーカにより生成される前記周波数領域音場が乗算されると、前記人間のリスナーの前記右耳にレンダリングされる前記音場の前記成分を生成し、
前記複数の仮想スピーカの各々に対して、該仮想スピーカに関連付けられている前記左HRIRと該仮想スピーカに関連付けられている前記右HRIRとの間の両耳間時間差(ITD)が存在しており、前記ITDは、ゼロ値を有する前記左HRIRの前記音場の初期サンプルの数と、ゼロ値を有する前記右HRIRの前記音場の初期サンプルの数との間の差により、前記左HRIRおよび前記右HRIRにおいて顕著になる請求項1に記載の方法。 - 前記複数の仮想スピーカの各々に関連付けられている左HRIRと右HRIRとの間の前記ITDに基づいてITDユニットサブシステム行列を生成する工程と、
前記複数のHRTFに前記ITDユニットサブシステム行列を乗算することで、複数の遅延HRTFを生成する工程と、をさらに備える請求項8に記載の方法。 - 前記複数のHRTFの各々は、有限インパルスフィルタ(FIR)で表され、
前記方法は、前記複数のHRTFの各々に対して変換演算を実行することで、別の複数のHRTFを生成する工程であって、前記別の複数のHRTFの各々が無限インパルス応答フィルタ(IIR)で表される工程をさらに備える請求項1に記載の方法。 - 非一時的な記憶媒体を備えるコンピュータプログラム製品であって、前記コンピュータプログラム製品は、人間のリスナーの左耳および右耳に音場をレンダリングするよう構成されたサウンドレンダリングコンピュータの処理回路により実行された場合、前記処理回路に方法を実行させるコードを含み、前記方法は、
複数の頭部インパルス応答(HRIR)を取得する工程であって、前記複数のHRIRの各々は、複数の仮想スピーカのうちの1つの仮想スピーカと前記人間のリスナーの一方の耳とに関連付けられており、前記複数のHRIRの各々は、前記1つの仮想スピーカにより生成されるオーディオインパルスに応じて生成される、特定のサンプリングレートで生成される左耳または右耳における音場のサンプルを含む工程と、
前記複数のHRIRの各々の第1状態空間表現を生成する工程であって、前記第1状態空間表現は、行列、列ベクトル、および行ベクトルを含み、前記第1状態空間表現の前記行列、前記列ベクトル、および前記行ベクトルの各々は、第1サイズを有する工程と、
状態空間削減演算を実行することで、前記複数のHRIRの各々の第2状態空間表現を生成する工程であって、前記第2空間表現は、行列、列ベクトル、および行ベクトルを含み、前記第2状態空間表現の前記行列、前記列ベクトル、および前記行ベクトルの各々は、第1サイズよりも小さい第2サイズを有する、状態空間削減演算実行工程と、
前記第2状態表現に基づいて複数の頭部伝達関数(HRTF)を生成する工程であって、前記複数のHRTFの各々は、前記複数のHRIRのそれぞれのHRIRに対応しており、それぞれのHRIRに対応しているHRTFは、該HRIRが関連付けられている前記仮想スピーカにより生成される周波数領域音場が乗算されると、前記人間のリスナーの一方の耳にレンダリングされる音場の成分を生成する工程と、を備えるコンピュータプログラム製品。 - 前記状態空間削減演算実行工程は、前記複数のHRIRの各HRIRに対して、
該HRIRの前記第1状態空間表現に基づき、それぞれのグラム行列を生成する工程であって、前記グラム行列は、大きさ順に並べられた複数の固有値を有する工程と、
前記グラム行列および前記複数の固有値に基づき、該HRIRの前記第2状態空間表現を生成する工程であって、前記第2サイズは、前記複数の固有値のうち、特定の閾値を超える固有値の数に等しい、工程と、を含む請求項11に記載のコンピュータプログラム製品。 - 前記複数のHRIRの各HRIRの前記第2状態空間表現を生成する工程は、該HRIRの前記第1状態空間表現に基づく前記グラム行列に適用された場合に対角行列を生成する変換行列を形成する工程であって、前記対角行列の各対角要素は、前記複数の固有値のそれぞれの固有値に等しい工程を含む請求項12に記載のコンピュータプログラム製品。
- 前記方法は、前記複数のHRIRの各々に対して、
該HRIRのケプストラムを生成する工程であって、前記ケプストラムは、正の時間に取得された因果的サンプルおよび負の時間に取得された非因果的サンプルを有する工程と、
前記ケプストラムの前記非因果的サンプルの各々に対して、負の時間に取得された該非因果的サンプルを、該負の時間の反対の時間に取得された前記ケプストラムの因果的サンプルに加算することで、位相最小化演算を実行する工程と、
前記ケプストラムの前記非因果的サンプルの各々に対する前記位相最小化演算の実行後に、前記ケプストラムの前記非因果的サンプルの各々をゼロに設定することで、最小位相HRIRを生成する工程と、をさらに備える請求項11に記載のコンピュータプログラム製品。 - 前記方法は、MIMO(multiple input, multiple output)状態空間表現を生成する工程であって、前記MIMO状態空間表現は、合成行列、列ベクトル行列、および行ベクトル行列を含み、前記MIMO状態空間表現の前記合成行列は、前記複数のHRIRの各々の第1表現の前記行列を含み、前記MIMO状態空間表現の前記列ベクトル行列は、前記複数のHRIRの各々の第1表現の前記列ベクトルを含み、前記MIMO状態空間表現の前記行ベクトル行列は、前記複数のHRIRの各々の第1表現の前記行ベクトルを含む、MIMO状態空間表現生成工程と、をさらに備え、
前記状態空間削減演算実行工程は、削減合成行列、削減列ベクトル行列、および削減行ベクトル行列を生成する工程であって、前記削減合成行列、削減列ベクトル行列、および削減行ベクトル行列の各々は、前記合成行列、前記列ベクトル行列、および前記行ベクトル行列のサイズよりそれぞれ小さいサイズを有する工程を含む請求項1に記載のコンピュータプログラム製品。 - 前記MIMO状態空間表現生成工程は、
前記MIMO状態空間表現の前記合成行列として第1ブロック行列を形成する工程であって、前記第1ブロック行列は、前記複数の仮想スピーカのうちの1つの仮想スピーカに関連付けられているHRIRの前記第1状態空間表現の行列を、前記第1ブロック行列の対角要素として有し、同様の仮想スピーカに関連付けられているHRIRの前記第1状態空間表現の行列は、前記第1ブロック行列の隣接する対角要素に存在する工程と、
前記MIMO状態空間表現の前記列ベクトル行列として第2ブロック行列を形成する工程であって、前記第2ブロック行列は、前記複数の仮想スピーカのうちの1つの仮想スピーカに関連付けられているHRIRの前記第1状態空間表現の列ベクトルを、前記第2ブロック行列の対角要素として有し、同様の仮想スピーカに関連付けられているHRIRの前記第1状態空間表現の列ベクトルは、前記第2ブロック行列の隣接する対角要素に存在する工程と、
前記MIMO状態空間表現の前記行ベクトル行列として第3ブロック行列を形成する工程であって、前記第3ブロック行列は、前記複数の仮想スピーカのうちの1つの仮想スピーカに関連付けられているHRIRの前記第1状態空間表現の行ベクトルを、前記第3ブロック行列の要素として有し、前記左耳における音をレンダリングするHRIRの前記第1状態空間表現の行ベクトルは、前記第3ブロック行列の第1行の奇数番目の要素に存在しており、前記右耳における音をレンダリングするHRIRの前記第1状態空間表現の行ベクトルは、前記第3ブロック行列の第2行の偶数番目の要素に存在している工程と、を含む請求項15に記載のコンピュータプログラム製品。 - 前記複数の仮想スピーカの各々に対して、該仮想スピーカに関連付けられている前記複数のHRIRに左HRIRおよび右HRIRが存在しており、前記左HRIRは、該仮想スピーカにより生成される前記周波数領域音場が乗算されると、前記人間のリスナーの前記左耳にレンダリングされる前記音場の前記成分を生成し、前記右HRIRは、該仮想スピーカにより生成される前記周波数領域音場が乗算されると、前記人間のリスナーの前記右耳にレンダリングされる前記音場の前記成分を生成し、
前記複数の仮想スピーカの各々に対して、該仮想スピーカに関連付けられている前記左HRIRと該仮想スピーカに関連付けられている前記右HRIRとの間の両耳間時間差(ITD)が存在しており、前記ITDは、ゼロ値を有する前記左HRIRの前記音場の初期サンプルの数と、ゼロ値を有する前記右HRIRの前記音場の初期サンプルの数との間の差により、前記左HRIRおよび前記右HRIRにおいて顕著になる請求項11に記載のコンピュータプログラム製品。 - 前記方法は、
前記複数の仮想スピーカの各々に関連付けられている左HRIRと右HRIRとの間の前記ITDに基づいてITDユニットサブシステム行列を生成する工程と、
前記複数のHRTFに前記ITDユニットサブシステム行列を乗算することで、複数の遅延HRTFを生成する工程と、をさらに備える請求項17に記載のコンピュータプログラム製品。 - 前記複数のHRTFの各々は、有限インパルスフィルタ(FIR)で表され、
前記方法は、前記複数のHRTFの各々に対して変換演算を実行することで、別の複数のHRTFを生成する工程であって、前記別の複数のHRTFの各々が無限インパルス応答フィルタ(IIR)で表される工程をさらに備える請求項11記載のコンピュータプログラム製品。 - 人間のリスナーの左耳および右耳に音場をレンダリングするよう構成された電子装置であって、前記電子装置は、
メモリと、
メモリに接続された制御回路と、を備え、前記制御回路は、
複数の頭部インパルス応答(HRIR)を取得する工程であって、前記複数のHRIRの各々は、複数の仮想スピーカのうちの1つの仮想スピーカと前記人間のリスナーの一方の耳とに関連付けられており、前記複数のHRIRの各々は、前記1つの仮想スピーカにより生成されるオーディオインパルスに応じて生成される、特定のサンプリングレートで生成される左耳または右耳における音場のサンプルを含む工程と、
前記複数のHRIRの各々の第1状態空間表現を生成する工程であって、前記第1状態空間表現は、行列、列ベクトル、および行ベクトルを含み、前記第1状態空間表現の前記行列、前記列ベクトル、および前記行ベクトルの各々は、第1サイズを有する工程と、
状態空間削減演算を実行することで、前記複数のHRIRの各々の第2状態空間表現を生成する工程であって、前記第2空間表現は、行列、列ベクトル、および行ベクトルを含み、前記第2状態空間表現の前記行列、前記列ベクトル、および前記行ベクトルの各々は、第1サイズよりも小さい第2サイズを有する工程と、
前記第2状態表現に基づいて複数の頭部伝達関数(HRTF)を生成する工程であって、前記複数のHRTFの各々は、前記複数のHRIRのそれぞれのHRIRに対応しており、それぞれのHRIRに対応しているHRTFは、該HRIRが関連付けられている前記仮想スピーカにより生成される周波数領域音場が乗算されると、前記人間のリスナーの一方の耳にレンダリングされる音場の成分を生成する工程と、を実行するよう構成される電子装置。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662296934P | 2016-02-18 | 2016-02-18 | |
US62/296,934 | 2016-02-18 | ||
US15/426,629 US10142755B2 (en) | 2016-02-18 | 2017-02-07 | Signal processing methods and systems for rendering audio on virtual loudspeaker arrays |
US15/426,629 | 2017-02-07 | ||
PCT/US2017/017000 WO2017142759A1 (en) | 2016-02-18 | 2017-02-08 | Signal processing methods and systems for rendering audio on virtual loudspeaker arrays |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019502296A true JP2019502296A (ja) | 2019-01-24 |
JP6591671B2 JP6591671B2 (ja) | 2019-10-16 |
Family
ID=58057309
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018524370A Active JP6591671B2 (ja) | 2016-02-18 | 2017-02-08 | 信号処理方法および仮想スピーカアレイにオーディオをレンダリングするシステム |
Country Status (8)
Country | Link |
---|---|
US (1) | US10142755B2 (ja) |
EP (1) | EP3351021B1 (ja) |
JP (1) | JP6591671B2 (ja) |
KR (1) | KR102057142B1 (ja) |
AU (1) | AU2017220320B2 (ja) |
CA (1) | CA3005135C (ja) |
GB (1) | GB2549826B (ja) |
WO (1) | WO2017142759A1 (ja) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10142755B2 (en) | 2016-02-18 | 2018-11-27 | Google Llc | Signal processing methods and systems for rendering audio on virtual loudspeaker arrays |
US9992602B1 (en) * | 2017-01-12 | 2018-06-05 | Google Llc | Decoupled binaural rendering |
US10009704B1 (en) | 2017-01-30 | 2018-06-26 | Google Llc | Symmetric spherical harmonic HRTF rendering |
US10158963B2 (en) | 2017-01-30 | 2018-12-18 | Google Llc | Ambisonic audio with non-head tracked stereo based on head position and time |
JP6920144B2 (ja) * | 2017-09-07 | 2021-08-18 | 日本放送協会 | バイノーラル再生用の係数行列算出装置及びプログラム |
JP6889883B2 (ja) * | 2017-09-07 | 2021-06-18 | 日本放送協会 | 音響信号用の制御器設計装置及びプログラム |
US10667072B2 (en) * | 2018-06-12 | 2020-05-26 | Magic Leap, Inc. | Efficient rendering of virtual soundfields |
WO2019241760A1 (en) | 2018-06-14 | 2019-12-19 | Magic Leap, Inc. | Methods and systems for audio signal filtering |
CN113348681B (zh) * | 2019-01-21 | 2023-02-24 | 外部回声公司 | 通过时变递归滤波器结构的虚拟声学渲染的方法与系统 |
US11076257B1 (en) * | 2019-06-14 | 2021-07-27 | EmbodyVR, Inc. | Converting ambisonic audio to binaural audio |
CN110705154B (zh) * | 2019-09-24 | 2020-08-14 | 中国航空工业集团公司西安飞机设计研究所 | 航空器开环气动伺服弹性系统模型均衡降阶的优选方法 |
EP4169266A1 (en) | 2020-06-17 | 2023-04-26 | Telefonaktiebolaget LM ERICSSON (PUBL) | Head-related (hr) filters |
US11496852B2 (en) * | 2020-12-03 | 2022-11-08 | Snap Inc. | Head-related transfer function |
CN112861074B (zh) * | 2021-03-09 | 2022-10-04 | 东北电力大学 | 基于Hankel-DMD的电力系统机电参数提取方法 |
WO2023220164A1 (en) * | 2022-05-10 | 2023-11-16 | Bacch Laboratories, Inc. | Method and device for processing hrtf filters |
CN115209336B (zh) * | 2022-06-28 | 2024-10-29 | 华南理工大学 | 一种多个虚拟源动态双耳声重放方法、装置及存储介质 |
WO2024206901A2 (en) * | 2023-03-31 | 2024-10-03 | Iyo Inc. | Virtual auditory display filters and associated systems, methods, and non-transitory computer-readable media |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006217632A (ja) * | 2005-02-04 | 2006-08-17 | Lg Electronics Inc | 三次元立体音響生成方法、三次元立体音響生成装置及び移動端末機 |
JP2008502200A (ja) * | 2004-06-04 | 2008-01-24 | サムスン エレクトロニクス カンパニー リミテッド | ワイドステレオ再生方法及びその装置 |
WO2014193993A1 (en) * | 2013-05-29 | 2014-12-04 | Qualcomm Incorporated | Filtering with binaural room impulse responses |
US20150213809A1 (en) * | 2014-01-30 | 2015-07-30 | Qualcomm Incorporated | Coding independent frames of ambient higher-order ambisonic coefficients |
JP2015530825A (ja) * | 2012-08-31 | 2015-10-15 | ドルビー ラボラトリーズ ライセンシング コーポレイション | 種々の聴取環境におけるオブジェクトに基づくオーディオのレンダリング及び再生のためのシステム |
Family Cites Families (60)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5757927A (en) * | 1992-03-02 | 1998-05-26 | Trifield Productions Ltd. | Surround sound apparatus |
JPH08502867A (ja) | 1992-10-29 | 1996-03-26 | ウィスコンシン アラムニ リサーチ ファンデーション | 指向性音を作る方法及び装置 |
US6243476B1 (en) * | 1997-06-18 | 2001-06-05 | Massachusetts Institute Of Technology | Method and apparatus for producing binaural audio for a moving listener |
DE102004035046A1 (de) * | 2004-07-20 | 2005-07-21 | Siemens Audiologische Technik Gmbh | Hörhilfe-oder Kommunikationssystem mit virtuellen Signalquellen |
GB0419346D0 (en) | 2004-09-01 | 2004-09-29 | Smyth Stephen M F | Method and apparatus for improved headphone virtualisation |
US8467552B2 (en) | 2004-09-17 | 2013-06-18 | Lsi Corporation | Asymmetric HRTF/ITD storage for 3D sound positioning |
US7634092B2 (en) | 2004-10-14 | 2009-12-15 | Dolby Laboratories Licensing Corporation | Head related transfer functions for panned stereo audio content |
US7715575B1 (en) * | 2005-02-28 | 2010-05-11 | Texas Instruments Incorporated | Room impulse response |
JP4741261B2 (ja) * | 2005-03-11 | 2011-08-03 | 株式会社日立製作所 | ビデオ会議システム、プログラムおよび会議端末 |
JP4608400B2 (ja) * | 2005-09-13 | 2011-01-12 | 株式会社日立製作所 | 音声通話システムおよび音声通話中におけるコンテンツの提供方法 |
EP1982326A4 (en) * | 2006-02-07 | 2010-05-19 | Lg Electronics Inc | DEVICE AND METHOD FOR CODING / DECODING A SIGNAL |
WO2007101958A2 (fr) * | 2006-03-09 | 2007-09-13 | France Telecom | Optimisation d'une spatialisation sonore binaurale a partir d'un encodage multicanal |
FR2899423A1 (fr) * | 2006-03-28 | 2007-10-05 | France Telecom | Procede et dispositif de spatialisation sonore binaurale efficace dans le domaine transforme. |
FR2899424A1 (fr) * | 2006-03-28 | 2007-10-05 | France Telecom | Procede de synthese binaurale prenant en compte un effet de salle |
US8374365B2 (en) * | 2006-05-17 | 2013-02-12 | Creative Technology Ltd | Spatial audio analysis and synthesis for binaural reproduction and format conversion |
US9197977B2 (en) * | 2007-03-01 | 2015-11-24 | Genaudio, Inc. | Audio spatialization and environment simulation |
US9037468B2 (en) * | 2008-10-27 | 2015-05-19 | Sony Computer Entertainment Inc. | Sound localization for user in motion |
KR20100071617A (ko) | 2008-12-19 | 2010-06-29 | 동의과학대학 산학협력단 | 무한 임펄스 응답 필터 머리전달함수를 이용한 입체음향 장치 및 이에 사용되는 디지털 신호 프로세서 |
US8660281B2 (en) * | 2009-02-03 | 2014-02-25 | University Of Ottawa | Method and system for a multi-microphone noise reduction |
US20110026745A1 (en) * | 2009-07-31 | 2011-02-03 | Amir Said | Distributed signal processing of immersive three-dimensional sound for audio conferences |
US9522330B2 (en) * | 2010-10-13 | 2016-12-20 | Microsoft Technology Licensing, Llc | Three-dimensional audio sweet spot feedback |
US20130208900A1 (en) * | 2010-10-13 | 2013-08-15 | Microsoft Corporation | Depth camera with integrated three-dimensional audio |
US20130208897A1 (en) * | 2010-10-13 | 2013-08-15 | Microsoft Corporation | Skeletal modeling for world space object sounds |
US20130208926A1 (en) * | 2010-10-13 | 2013-08-15 | Microsoft Corporation | Surround sound simulation with virtual skeleton modeling |
US20130208899A1 (en) * | 2010-10-13 | 2013-08-15 | Microsoft Corporation | Skeletal modeling for positioning virtual object sounds |
TWI517028B (zh) * | 2010-12-22 | 2016-01-11 | 傑奧笛爾公司 | 音訊空間定位和環境模擬 |
RU2595943C2 (ru) * | 2011-01-05 | 2016-08-27 | Конинклейке Филипс Электроникс Н.В. | Аудиосистема и способ оперирования ею |
JP5704013B2 (ja) * | 2011-08-02 | 2015-04-22 | ソニー株式会社 | ユーザ認証方法、ユーザ認証装置、およびプログラム |
US9641951B2 (en) * | 2011-08-10 | 2017-05-02 | The Johns Hopkins University | System and method for fast binaural rendering of complex acoustic scenes |
US10585472B2 (en) * | 2011-08-12 | 2020-03-10 | Sony Interactive Entertainment Inc. | Wireless head mounted display with differential rendering and sound localization |
US9131305B2 (en) * | 2012-01-17 | 2015-09-08 | LI Creative Technologies, Inc. | Configurable three-dimensional sound system |
US10321252B2 (en) * | 2012-02-13 | 2019-06-11 | Axd Technologies, Llc | Transaural synthesis method for sound spatialization |
GB201211512D0 (en) * | 2012-06-28 | 2012-08-08 | Provost Fellows Foundation Scholars And The Other Members Of Board Of The | Method and apparatus for generating an audio output comprising spartial information |
US9569073B2 (en) * | 2012-11-22 | 2017-02-14 | Razer (Asia-Pacific) Pte. Ltd. | Method for outputting a modified audio signal and graphical user interfaces produced by an application program |
JP5954147B2 (ja) * | 2012-12-07 | 2016-07-20 | ソニー株式会社 | 機能制御装置およびプログラム |
MX2015008836A (es) * | 2013-01-14 | 2015-10-14 | Koninkl Philips Nv | Codificador y decodificador de multiples canales con transmision eficiente de informacion de posicion. |
WO2014111765A1 (en) * | 2013-01-15 | 2014-07-24 | Koninklijke Philips N.V. | Binaural audio processing |
US9973871B2 (en) * | 2013-01-17 | 2018-05-15 | Koninklijke Philips N.V. | Binaural audio processing with an early part, reverberation, and synchronization |
US9820074B2 (en) * | 2013-03-15 | 2017-11-14 | Apple Inc. | Memory management techniques and related systems for block-based convolution |
WO2014145893A2 (en) * | 2013-03-15 | 2014-09-18 | Beats Electronics, Llc | Impulse response approximation methods and related systems |
US9788119B2 (en) * | 2013-03-20 | 2017-10-10 | Nokia Technologies Oy | Spatial audio apparatus |
US9124983B2 (en) * | 2013-06-26 | 2015-09-01 | Starkey Laboratories, Inc. | Method and apparatus for localization of streaming sources in hearing assistance system |
KR101782916B1 (ko) * | 2013-09-17 | 2017-09-28 | 주식회사 윌러스표준기술연구소 | 오디오 신호 처리 방법 및 장치 |
WO2015060652A1 (ko) * | 2013-10-22 | 2015-04-30 | 연세대학교 산학협력단 | 오디오 신호 처리 방법 및 장치 |
US8989417B1 (en) * | 2013-10-23 | 2015-03-24 | Google Inc. | Method and system for implementing stereo audio using bone conduction transducers |
US20150119130A1 (en) * | 2013-10-31 | 2015-04-30 | Microsoft Corporation | Variable audio parameter setting |
WO2015099430A1 (ko) * | 2013-12-23 | 2015-07-02 | 주식회사 윌러스표준기술연구소 | 오디오 신호의 필터 생성 방법 및 이를 위한 파라메터화 장치 |
EP4294055B1 (en) * | 2014-03-19 | 2024-11-06 | Wilus Institute of Standards and Technology Inc. | Audio signal processing method and apparatus |
EP3128766A4 (en) * | 2014-04-02 | 2018-01-03 | Wilus Institute of Standards and Technology Inc. | Audio signal processing method and device |
CN104408040B (zh) | 2014-09-26 | 2018-01-09 | 大连理工大学 | 头相关函数三维数据压缩方法与系统 |
CN106537942A (zh) * | 2014-11-11 | 2017-03-22 | 谷歌公司 | 3d沉浸式空间音频系统和方法 |
KR101627652B1 (ko) * | 2015-01-30 | 2016-06-07 | 가우디오디오랩 주식회사 | 바이노럴 렌더링을 위한 오디오 신호 처리 장치 및 방법 |
JP6434157B2 (ja) * | 2015-04-22 | 2018-12-05 | ホアウェイ・テクノロジーズ・カンパニー・リミテッド | 音声信号処理装置および方法 |
US9464912B1 (en) * | 2015-05-06 | 2016-10-11 | Google Inc. | Binaural navigation cues |
US9609436B2 (en) * | 2015-05-22 | 2017-03-28 | Microsoft Technology Licensing, Llc | Systems and methods for audio creation and delivery |
US9860666B2 (en) * | 2015-06-18 | 2018-01-02 | Nokia Technologies Oy | Binaural audio reproduction |
US9906884B2 (en) * | 2015-07-31 | 2018-02-27 | The University Of North Carolina At Chapel Hill | Methods, systems, and computer readable media for utilizing adaptive rectangular decomposition (ARD) to generate head-related transfer functions |
CN105376690A (zh) * | 2015-11-04 | 2016-03-02 | 北京时代拓灵科技有限公司 | 生成虚拟环绕声的方法和装置 |
US10142755B2 (en) | 2016-02-18 | 2018-11-27 | Google Llc | Signal processing methods and systems for rendering audio on virtual loudspeaker arrays |
US9584946B1 (en) * | 2016-06-10 | 2017-02-28 | Philip Scott Lyren | Audio diarization system that segments audio input |
-
2017
- 2017-02-07 US US15/426,629 patent/US10142755B2/en active Active
- 2017-02-08 JP JP2018524370A patent/JP6591671B2/ja active Active
- 2017-02-08 EP EP17706077.9A patent/EP3351021B1/en active Active
- 2017-02-08 AU AU2017220320A patent/AU2017220320B2/en active Active
- 2017-02-08 CA CA3005135A patent/CA3005135C/en active Active
- 2017-02-08 WO PCT/US2017/017000 patent/WO2017142759A1/en active Application Filing
- 2017-02-08 KR KR1020187013786A patent/KR102057142B1/ko active Active
- 2017-02-20 GB GB1702673.3A patent/GB2549826B/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008502200A (ja) * | 2004-06-04 | 2008-01-24 | サムスン エレクトロニクス カンパニー リミテッド | ワイドステレオ再生方法及びその装置 |
JP2006217632A (ja) * | 2005-02-04 | 2006-08-17 | Lg Electronics Inc | 三次元立体音響生成方法、三次元立体音響生成装置及び移動端末機 |
JP2015530825A (ja) * | 2012-08-31 | 2015-10-15 | ドルビー ラボラトリーズ ライセンシング コーポレイション | 種々の聴取環境におけるオブジェクトに基づくオーディオのレンダリング及び再生のためのシステム |
WO2014193993A1 (en) * | 2013-05-29 | 2014-12-04 | Qualcomm Incorporated | Filtering with binaural room impulse responses |
US20150213809A1 (en) * | 2014-01-30 | 2015-07-30 | Qualcomm Incorporated | Coding independent frames of ambient higher-order ambisonic coefficients |
Also Published As
Publication number | Publication date |
---|---|
KR102057142B1 (ko) | 2019-12-18 |
CA3005135C (en) | 2021-06-22 |
AU2017220320A1 (en) | 2018-06-07 |
CA3005135A1 (en) | 2017-08-24 |
WO2017142759A1 (en) | 2017-08-24 |
EP3351021B1 (en) | 2020-04-08 |
AU2017220320B2 (en) | 2019-04-11 |
GB2549826B (en) | 2020-02-19 |
US20170245082A1 (en) | 2017-08-24 |
US10142755B2 (en) | 2018-11-27 |
GB2549826A (en) | 2017-11-01 |
KR20180067661A (ko) | 2018-06-20 |
GB201702673D0 (en) | 2017-04-05 |
JP6591671B2 (ja) | 2019-10-16 |
EP3351021A1 (en) | 2018-07-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6591671B2 (ja) | 信号処理方法および仮想スピーカアレイにオーディオをレンダリングするシステム | |
CN107094277B (zh) | 用于在虚拟扬声器阵列上渲染音频的信号处理方法和系统 | |
EP2829082B1 (en) | Method and system for head-related transfer function generation by linear mixing of head-related transfer functions | |
JP5111375B2 (ja) | オーディオ信号をエンコーディング及びデコーディングするための装置とその方法 | |
CN106465033B (zh) | 用于处理频域中的信号的设备和方法 | |
CN109545235B (zh) | 对声场的高阶立体混响表示进行压缩和解压缩的方法和设备 | |
KR102226071B1 (ko) | 다채널 오디오 신호의 바이노럴 렌더링 방법 및 장치 | |
JP6495910B2 (ja) | 特異値分解を用いる高次Ambisonics符号化と復号の方法と装置 | |
US9055381B2 (en) | Multi-way analysis for audio processing | |
CN104681034A (zh) | 音频信号处理 | |
JP5753270B2 (ja) | 多チャネルオーディオ信号をダウンミックスする方法及び装置 | |
KR20210071972A (ko) | 신호 처리 장치 및 방법, 그리고 프로그램 | |
KR20200074757A (ko) | 복합 차수 앰비소닉을 이용한 오디오 신호 처리 방법 및 장치 | |
JP6463955B2 (ja) | 三次元音響再生装置及びプログラム | |
CN113691927B (zh) | 音频信号处理方法及装置 | |
KR20250008892A (ko) | 분산 대화형 양이 렌더링 | |
WO2017050482A1 (en) | Rendering system | |
Teal et al. | Efficient projection onto a low-dimensional ball | |
CN118511545A (zh) | 用于上混/重混/下混应用的多声道音频处理 | |
HK1205396B (en) | Method and system for head-related transfer function generation by linear mixing of head-related transfer functions |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180613 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190605 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190611 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190807 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190820 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190918 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6591671 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |