[go: up one dir, main page]

JP7487663B2 - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP7487663B2
JP7487663B2 JP2020550329A JP2020550329A JP7487663B2 JP 7487663 B2 JP7487663 B2 JP 7487663B2 JP 2020550329 A JP2020550329 A JP 2020550329A JP 2020550329 A JP2020550329 A JP 2020550329A JP 7487663 B2 JP7487663 B2 JP 7487663B2
Authority
JP
Japan
Prior art keywords
head
user
information processing
control unit
interface control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020550329A
Other languages
English (en)
Other versions
JPWO2020071200A1 (ja
Inventor
越 沖本
亨 中川
哲 曲谷地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2020071200A1 publication Critical patent/JPWO2020071200A1/ja
Priority to JP2024076575A priority Critical patent/JP2024097913A/ja
Application granted granted Critical
Publication of JP7487663B2 publication Critical patent/JP7487663B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/18Methods or devices for transmitting, conducting or directing sound
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/027Spatial or constructional arrangements of microphones, e.g. in dummy heads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • H04S7/304For headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/40Visual indication of stereophonic sound image

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Otolaryngology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Stereophonic System (AREA)
  • Circuit For Audible Band Transducer (AREA)

Description

本開示は、情報処理装置、情報処理方法、およびプログラムに関する。
近年、音源から両耳までの音の伝達特性を示す頭部伝達関数(Head-Related Transfer Function, HRTF)が注目されている。また、頭部伝達関数の測定を効率的に行うための手法も提案されている。例えば、特許文献1には、頭部伝達関数の測定時間を短縮して被験者の負担を軽減する技術が開示されている。
特開2007-251248号公報
しかし、特許文献1に開示されるような測定方法は、大がかりな測定設備を要することから、一般のユーザが自身の頭部伝達特性を手軽に測定することが困難である。
本開示によれば、ユーザの頭部伝達関数の測定に係るユーザインタフェースを制御するインタフェース制御部、を備え、前記インタフェース制御部は、前記ユーザの頭部の向きを指定方向に誘導するガイド情報の出力を制御する、情報処理装置が提供される。
また、本開示によれば、プロセッサが、ユーザの頭部伝達関数の測定に係るユーザインタフェースを制御すること、を含み、ユーザインタフェースを制御することは、前記ユーザの頭部の向きを指定方向に誘導するガイド情報の出力を制御すること、をさらに含む、情報処理方法が提供される。
また、本開示によれば、コンピュータを、ユーザの頭部伝達関数の測定に係るユーザインタフェースを制御するインタフェース制御部、を備え、前記インタフェース制御部は、前記ユーザの頭部の向きを指定方向に誘導するガイド情報の出力を制御する、情報処理装置、として機能させるためのプログラムが提供される。
本開示の一実施形態に係るユーザインタフェースおよびガイド情報の一例を示す図である。 同実施形態に係る情報処理装置の機能構成例を示すブロック図である。 同実施形態に係るインタフェース制御の具体例を示す図である。 同実施形態に係るインタフェース制御の具体例を示す図である。 同実施形態に係るインタフェース制御の具体例を示す図である。 同実施形態に係るインタフェース制御の具体例を示す図である。 同実施形態に係る情報処理装置を用いた多チャンネルの頭部伝達関数の個人最適化について説明するための図である。 同実施形態に係る多チャンネル測定モードに対応するユーザインタフェースの一例を示す図である。 同実施形態に係るインタフェース制御部による制御の流れを示すフローチャートである。 本開示の一実施形態に係るハードウェア構成例を示す図である。 ダミーヘッドマイクを用いた一般的な頭部伝達関数の測定について説明するための図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.実施形態
1.1.概要
1.2.情報処理装置10の機能構成例
1.3.制御の具体例
1.4.制御の流れ
2.ハードウェア構成例
3.まとめ
<1.実施形態>
<<1.1.概要>>
まず、本開示の一実施形態の概要について説明する。上述したように、近年、音源から両耳までの音の伝達特性を数学的に表す頭部伝達関数が注目されている。頭部伝達関数によれば、例えば、ヘッドフォンなどの音出力装置に音像を立体的に表現させることが可能となる。
なお、頭部伝達関数は、ダミーヘッドマイクを用いて測定されるのが一般的である。ここで、図11を参照して、ダミーヘッドマイクを用いた一般的な頭部伝達関数の測定について説明する。
一般的な頭部伝達関数の測定では、まず、図中左側に示すように、ヘッドフォン50に再現させようとするリファレンス音場RSFに、スピーカ30とダミーヘッドマイク40を設置する。
次に、スピーカ30から測定用信号を再生し、図中央に示すように、ダミーヘッドマイク40の両耳位置にそれぞれ備えられたマイクロフォンで左耳および右耳それぞれの頭部伝達関数を取得する。
次に、図中右側に示すように、再現したい音声信号(ソース信号)に対し、左耳および右耳それぞれの頭部伝達関数を畳み込む処理を行い、左耳用および右耳身用の信号を生成する。上記のように生成した信号をヘッドフォン50に再生させることで、音像を立体的に表現することができる。
以上、ダミーヘッドマイクを用いた頭部伝達関数の測定について説明した。一方、近年においては、ユーザごとに測定した頭部伝達関数を用いることにより、上述のような音像の立体的表現の効果がより高まることが知られている。
しかし、頭部伝達特性の測定には、無響室や試聴室、また大型のスピーカなどの大がかりな測定設備が必要となる。このため、一般のユーザが自身の頭部伝達特性を手軽に測定することが困難な状況にあった。
また、有効な頭部伝達関数を精度高く測定するためには、測定用信号を出力する音源とユーザの両耳との相対位置を明確とすることが求められる。しかし、専門知識に乏しいユーザが自身で頭部伝達関数を測定しようとする場合、測定に適した位置や姿勢を把握することが困難である。
本開示に係る技術思想は上記の点に着目して発想されたものであり、ユーザが自身の頭部伝達特性を精度高く測定することを可能とする。このために、本開示の一実施形態に係る情報処理装置10は、ユーザの頭部伝達関数の測定に係るユーザインタフェースを制御するインタフェース制御部140を備える。また、本開示の一実施形態に係るインタフェース制御部140は、ユーザの頭部の向きを指定方向に誘導するガイド情報の出力を制御すること、を特徴の一つとする。
図1は、本実施形態に係るユーザインタフェースおよびガイド情報の一例を示す図である。図1には、ユーザUが、本実施形態に係る情報処理装置10を用いて自身の頭部伝達関数を測定する際におけるユーザインタフェースの制御例が示されている。なお、図1では、本実施形態に係る情報処理装置10がスマートフォンである場合の一例が示されている。
まず、ユーザUは、図1の左側に示すように、左耳および右耳にマイクロフォン20Lおよび20Rを装着し、情報処理装置10を操作することで、本実施形態に係るユーザインタフェースを起動させる。図1の中央には、ユーザUの操作に基づいて、インタフェース制御部140が表示部110に表示させるGUI(Graphical User Interface)の一例が示されている。このように、本実施形態に係るユーザインタフェースはGUIを含んでよい。
この際、本実施形態に係るインタフェース制御部140は、ユーザUの頭部の向きを指定方向に誘導するガイド情報を出力させることを特徴の一つとする。ここで、上記の指定方向とは、頭部伝達関数の測定に適した方向であってよい。例えば、測定用信号をユーザUの正面方向から出力し、ユーザUの頭部伝達関数を測定したい場合、上記の指定方向は、ユーザUを起点として頭部伝達関数の測定に係る測定用信号を出力する音声出力部170が位置する方向であってよい。すなわち、本実施形態に係る指定方向は、例えば、ユーザUと音声出力部170が対向するように設定され得る。
本実施形態に係るインタフェース制御部140は、ユーザUの頭部の向きを上記のような指定方向に誘導することで、頭部伝達関数の測定に適した両耳の位置でユーザの姿勢を固定させ、精度の高い頭部伝達関数の測定を実現することが可能である。
ここで、本実施形態に係るインタフェース制御部140が出力を制御するガイド情報の一例について説明する。本実施形態に係るガイド情報は、例えば、各種の視覚情報を含む。本実施形態に係るインタフェース制御部140は、ユーザUの頭部の向きを指定方向に誘導するガイドオブジェクトを表示部110に表示させてもよい。
また、本実施形態に係るインタフェース制御部140は、撮影部120により撮影されるユーザUの画像をリアルタイムに表示部110に表示させ、当該画像にガイドオブジェクトを重畳させてもよい。
例えば、図1に示す一例の場合、インタフェース制御部140は、指定方向に応じた頭部形状の枠オブジェクトFFと、枠オブジェクトFFに撮影されている顔の位置を合わせるように誘導するメッセージとを、ガイド情報として表示部110に表示させている。
本実施形態に係るインタフェース制御部140による上記のような制御によれば、ユーザUが自身の画像を確認しながら、容易に枠オブジェクトFFに顔UFの位置を合わせることができ、別段に意識することなく頭部伝達関数の測定に適した姿勢をとることが可能となる。
また、本実施形態に係るインタフェース制御部140は、認識部150により、ユーザUの頭部の向きが指定方向に略一致したと判定されたことに基づいて、頭部伝達関数の測定の開始を示す開始通知情報の出力を制御してよい。この際、認識部150は、例えば、撮影される画像中におけるユーザUの顔UFが、枠オブジェクトFFの内側に収まっていることに基づいて、ユーザUの頭部の向きが指定方向に略一致したと判定してもよい。
図1の右側には、開始通知情報の一例として、インタフェース制御部140が、測定の開始を示すシステム発話SO1を音声出力部170に出力させ、また測定の開始を示すメッセージを表示部110に表示させる場合が示されている。
上記のような開始通知情報によれば、測定開始に際しユーザUが頭部を固定するように誘導することができ、精度の高い頭部伝達関数を測定することが可能となる。
また、本実施形態に係るインタフェース制御部140は、頭部伝達関数の測定処理を開始や中断などを制御してもよい。例えば、本実施形態に係るインタフェース制御部140は、認識部150が、ユーザUの頭部の向きが指定方向に略一致したと判定したことに基づいて、後述する信号処理部160に頭部伝達関数の測定処理を開始させてよい。
また、例えば、本実施形態に係るインタフェース制御部140は、信号処理部160に頭部伝達関数の測定処理を開始させた後、当該測定処理が終了するまでの間に、ユーザUの頭部の向きが指定方向と略一致しなくなったと認識部150が判定した場合、信号処理部160に測定処理を中断させてもよい。
本実施形態に係るインタフェース制御部140が有する上記の機能によれば、測定中にユーザUの頭部の向きが指定方向から逸脱した場合、すなわちユーザUの姿勢が頭部伝達関数の測定に適さない姿勢となった場合には、信号処理部160に測定処理を中断させることで、取得される頭部伝達関数の精度を保つことが可能となる。
なお、インタフェース制御部140は、ユーザUの周囲におけるノイズレベルに基づいて上記のような制御を行うこともできる。例えば、本実施形態に係るインタフェース制御部140は、認識部150が測定したノイズレベルが閾値を超える場合、信号処理部160による頭部伝達関数の測定処理が開始されないよう制御してもよい。
また、例えば、本実施形態に係るインタフェース制御部140は、信号処理部160に頭部伝達関数の測定処理を開始させた後、ノイズレベルが閾値を超えたことが検出された場合、信号処理部160に測定処理を中断させもよい。
本実施形態に係るインタフェース制御部140による上記の制御によれば、ノイズレベルが高い環境で精度の低い頭部伝達関数が取得されることを防止することができる。
また、本実施形態に係るインタフェース制御部140は、例えば、図1に示すように、認識部150が測定したノイズレベルに係るノイズ情報NIを表示部110に表示させてもよい。図1に示す一例の場合、インタフェース制御部140は、ノイズ情報NIをメータとして表示し、現在のノイズレベルと測定を許可するノイズレベル帯(図中におけるハッチング部分)をユーザUに提示している。
上記のような表示によれば、ユーザUに周囲環境におけるノイズレベルが頭部伝達関数の測定に適した状態であるか否かを把握させ、例えば、ノイズレベルが高い場合には、ノイズレベルが低い場所への移動を誘導することが可能となる。
以上、本実施形態に係るインタフェース制御部140が制御するユーザインタフェースの概要について説明した。本実施形態に係るインタフェース制御部140による上述の制御によれば、ユーザを測定に適した姿勢に誘導することで、ユーザが自身の頭部伝達特性を容易かつ精度高く測定することが可能となる。
<<1.2.情報処理装置10の機能構成例>>
次に、本実施形態に係る情報処理装置10の機能構成例について説明する。本実施形態に係る情報処理装置10は、例えば、スマートフォンやタブレットなどのモバイル端末であってもよい。
図2は、本実施形態に係る情報処理装置10の機能構成例を示すブロック図である。図2に示すように、本実施形態に係る情報処理装置10は、表示部110、撮影部120、センサ部130、インタフェース制御部140、認識部150、信号処理部160、および音声出力部170を備える。
(表示部110)
本実施形態に係る表示部110は、インタフェース制御部140による制御に基づいて、頭部伝達関数の測定に係るGUIを表示する。このために、本実施形態に係る。
このために、本実施形態に係る表示部110は、視覚情報を提示する表示デバイスなどを備える。上記の表示デバイスには、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)装置、OLED(Organic Light Emitting Diode)装置、タッチパネルなどが挙げられる。
(撮影部120)
本実施形態に係る撮影部120は、例えば、ユーザの画像などを撮影する機能を有する。このために、本実施形態に係る撮影部120は、画像を撮影することが可能な撮影装置を備える。なお、上記の画像には、静止画像のほか動画像が含まれる。
(センサ部130)
本実施形態に係るセンサ部130は、情報処理装置10や周囲環境に関する種々のセンサ情報を収集する機能を有する。センサ部130が収集したセンサ情報は、認識部150による各種の認識処理に用いられる。本実施形態に係るセンサ部130は、例えば、ジャイロセンサ、加速度センサ、地磁気センサ、マイクロフォンなどを備える。
(インタフェース制御部140)
本実施形態に係るインタフェース制御部140は、ユーザの頭部伝達関数の測定に係るユーザインタフェースを制御する機能を有する。上述したように、本実施形態に係るインタフェース制御部140は、ユーザの頭部の向きを指定方向に誘導するガイド情報の出力を制御すること、を特徴の一つとする。
(認識部150)
本実施形態に係る認識部150は、撮影部120が撮影した画像やセンサ部130が収集したセンサ情報に基づいて、各種の認識処理を行う。例えば、本実施形態に係る認識部150は、ユーザの頭部の向きを認識する。認識部150は、撮影部120が撮影した画像に基づいてユーザの頭部の向きを認識してもよい。
また、上述したように、認識部150は、例えば、撮影された画像中におけるユーザの顔が、枠オブジェクトの内側に収まっていることに基づいて、ユーザの頭部の向きが指定方向に略一致していると判定することもできる。
また、例えば、ユーザが装着するマイクロフォン20がジャイロセンサなどを備える場合、認識部150は、マイクロフォン20から取得したセンサ情報に基づいて、ユーザの頭部の向きを認識してもよい。
また、本実施形態に係る認識部150は、センサ部が収集した音情報に基づいて周囲環境におけるノイズレベルを測定する機能を有する。
(信号処理部160)
本実施形態に係る信号処理部160は、インタフェース制御部140による制御に基づいて頭部伝達関数の測定処理を開始する。例えば、本実施形態に係る信号処理部160は、インタフェース制御部140から入力された測定開始指示に基づいて、音声出力部170に測定用信号を出力させてもよい。
また、本実施形態に係る信号処理部160は、ユーザが装着するマイクロフォン20Lおよび20Rが取得した頭部伝達関数を受信し、当該頭部伝達関数に基づく畳み込み処理を行い左耳および右耳用の音声信号を生成する。なお、本実施形態に係る信号処理部160は、公知の畳み込み技術を用いて音声信号の生成を行うことができる。本実施形態に係る信号処理部160は、例えば、本開示の出願人により出願された特開2014-060691号公報に開示されるような技術を用いてもよい。
(音声出力部170)
本実施形態に係る音声出力部170は、インタフェース制御部140や信号処理部160による制御に基づいて音声を出力する。例えば、本実施形態に係る音声出力部170は、インタフェース制御部140による制御に基づいて、ガイド情報や開始通知情報を出力してよい。また、例えば、本実施形態に係る音声出力部170は、信号処理部160による制御に基づいて測定用信号を出力してよい。
以上、本実施形態に係る情報処理装置10の機能構成例について説明した。なお、図2を用いて説明した上記の構成はあくまで一例であり、本実施形態に係る情報処理装置10の機能構成は係る例に限定されない。例えば、本実施形態に係る情報処理装置10はサーバとして実現され、ネットワークを介して、表示部、撮影部、音声出力部などを備えるモバイル端末の制御を行ってもよい。また、本実施形態に係る情報処理装置10はユーザが耳に装着するマイクロフォンとして実現され、ネットワークを介して、上記モバイル端末を制御してもよい。本実施形態に係る情報処理装置10の機能構成は、仕様や運用に応じて柔軟に変形可能である。
<<1.3.制御の具体例>>
次に、本実施形態に係るインタフェース制御部140による制御について、図3~6を参照して、具体例を挙げながらより詳細に説明する。図3~図6は、本実施形態に係るインタフェース制御の具体例を示す図である。
例えば、図1では、本実施形態に係るインタフェース制御部140が、ガイド情報として頭部形状の枠オブジェクトを表示部110に表示させる場合を述べたが、本実施形態に係るガイド情報は係る例に限定されない。本実施形態に係るガイドオブジェクトは、例えば、頭部に装着される装着品型オブジェクトであってもよい。
図3に示す一例の場合、本実施形態に係るインタフェース制御部140は、頭部形状の枠オブジェクトFFに加え、眼鏡形状の装着品型オブジェクトAOを表示部110に表示させている。
このような装着品型オブジェクトAOを表示部110に表示させることにより、枠オブジェクトFFのみを表示させる場合と比較して、ユーザの頭部の向きに係る誘導効果をより高めることが可能である。
この際、本実施形態に係るインタフェース制御部140は、認識部150がユーザUの顔FFが枠オブジェクトFFの内側に収まっていることに加えユーザの左目LEおよび右目REが装着品型オブジェクトAO内における想定位置に収まっていると認識したことに基づいて、信号処理部160に頭部伝達関数の測定処理を開始させてよい。本実施形態に係るインタフェース制御部140による上記の制御によれば、測定により適した姿勢をユーザUに取らせ、精度の高い頭部伝達関数を測定することができる。
なお、本実施形態に係る装着品型オブジェクトAOは、図3に示すような眼鏡形状に限定されず、例えば、帽子、ヘッドフォン、カチューシャなどの各種の形状を有してよい。
また、図1では、インタフェース制御部140が、開始通知情報として音声出力部170にシステム発話を出力される場合を例に述べたが、本実施形態に係る開始通知情報は係る例に限定されない。本実施形態に係る開始通知情報は、例えば、図3に示すように、ジングルJ、撮影部120によるフラッシュなどの光、メッセージ、画像、記号などであってもよい。また、ユーザUは、表示部110表示される測定用ボタンをタッチすることで、頭部伝達関数の測定を開始できてもよい。
また、本実施形態に係る指定方向は、必ずしもユーザの頭部を起点として音声出力部170が位置する方向に限定されない。本実施形態に係る指定方向は任意の耳の位置で頭部伝達関数を測定するために適宜設定されてよい。
例えば、図4に示す一例の場合、インタフェース制御部140は、ユーザUに横顔を向けるように誘導する枠オブジェクトFFを表示部110に表示させている。このように、本実施形態に係るインタフェース制御部140は、指定方向に応じた頭部形状の枠オブジェクトFFを表示部110に表示させることも可能である。本実施形態に係るインタフェース制御部140が有する上記の機能によれば、種々の指定方向にユーザの頭部の向きを誘導し、多様な耳の位置に対応する頭部伝達関数を測定することが可能となる。
また、本実施形態に係るガイド情報は、音声情報であってもよい。例えば、本実施形態に係るインタフェース制御部140は、ユーザの頭部の向きを指定方向に誘導する音声を音声出力部170に出力させてもよい。
図5には、インタフェース制御部140が、認識部150がユーザUの笑顔を認識したことに基づいて、信号処理部160に頭部伝達関数の測定処理を開始させる場合の一例が示されている。本実施形態に係る認識部150は、このように笑顔認識によりユーザの頭部の方向を認識することも可能である。
この際、インタフェース制御部140は、ガイド情報として、「画面を見て笑ってください」、などのシステム発話SO2を音声出力部170に出力させてもよい。このように、本実施形態に係るインタフェース制御部140は、ガイド情報を視覚情報や音声情報として出力させることで、ユーザの頭部の向きを指定方向に効果的に誘導することができる。
また、上記では、ユーザが情報処理装置10が表示部110の面に備える撮影部120(いわゆるINカメラ)で自身を撮影しながら頭部の向きを調整する場合を述べたが、ユーザの撮影や頭部向きの調整は、協力者により行われてもよい。
図6に示す一例では、協力者Cが情報処理装置10の背面側に設けられる撮影部120(いわゆるOUTカメラ)を用いてユーザUを撮影しながら、ユーザUの頭部向きを調整する場合の一例が示されている。
このように、本実施形態に係る情報処理装置10によれば、協力者による撮影等にも対応することができ、指定方向などの要因からユーザU自身が表示部110を視認できない場合であっても、頭部伝達関数を精度高く測定することができる。
また、この際、本実施形態に係るインタフェース制御部140は、ユーザUや協力者Cなどの操作者がユーザインタフェースを介して選択した撮影部120の位置に基づいて、測定用信号を出力させる音声出力部170を選択することができてよい。
例えば、ユーザUが表示部110側に配置された撮影部120を起動した場合、インタフェース制御部140は、同じく表示部110側に配置された音声出力部170に測定用信号を出力させるよう信号処理部160に指示を行ってよい。
一方、図6に示すように、協力者Cが情報処理装置10の背面に配置された撮影部120を起動した場合、インタフェース制御部140は、同じく情報処理装置10の背面側に配置された音声出力部170に測定用信号を出力させるよう信号処理部160に指示を行ってよい。
本実施形態に係るインタフェース制御部140による上記の制御によれば、ユーザUが装着するマイクロフォン20に、音声出力部170から出力される測定用信号が直接的に伝達するパスを確保することで、精度の高い頭部伝達関数を測定することが可能となる。
以上、本実施形態に係るインタフェース制御の例について具体例を挙げて説明した。なお、本実施形態に係るインタフェース制御部140は、図1、図3~図6に示したユーザインタフェースの他にも頭部伝達関数の測定モードに対応した複数のユーザインタフェースを有してよい。この場合、本実施形態に係るインタフェース制御部140は、選択された頭部伝達関数の測定モードに基づいて、ユーザインタフェースの切り替えを制御することができる。
上記の測定モードは、例えば、測定チャンネル数に応じて設定されてもよい。すなわち、本実施形態に係るインタフェース制御部140は、測定チャンネル数に応じたユーザインタフェースをユーザに提供することが可能である。
図7は、本実施形態に係る情報処理装置10を用いた多チャンネルの頭部伝達関数の個人最適化について説明するための図である。例えば、5チャンネルの頭部伝達関数の個人最適化を行う場合、ユーザUは、図中左側に示すように、上記5チャンネルに対応する5つの位置P1~P5に情報処理装置10を動かし、各位置で頭部伝達関数の測定を行うことを求められる。なお、位置P1~P5は、ユーザUの頭部正面を基準とした相対位置であってよい。
本実施形態に係るインタフェース制御部140は、この際、位置P1~P5で正確に頭部伝達関数が測定できるようユーザの頭部の向きを誘導するユーザインタフェースを表示部110に表示させる。本実施形態に係るインタフェース制御部140が制御する上記のユーザインタフェースによれば、図中右側に示すように、位置P1~P1に対応する5つの音像SI1~SI5を含む仮想音場を再現し、より豊かな音の立体表現を実現することが可能となる。
図8は、本実施形態に係る多チャンネル測定モードに対応するユーザインタフェースの一例を示す図である。本実施形態に係るインタフェース制御部140は、例えば、図示するように、各チャンネルに対応したターゲットT1~T5と、認識部150が認識するユーザの頭部の向きを示すマーカMとを表示部110にリアルタイムに表示させる。
ここで、図中左側に示すように、ユーザの頭部の向きが指定方向、すなわちターゲットT1~T5から逸脱している場合、インタフェース制御部140は、ガイド情報としてシステム発話SO3を出力させることなどにより、ユーザの頭部の向きを誘導してよい。
一方、図中左側に示すように、ユーザの頭部の向きがターゲットT1~T5に略一致した場合、インタフェース制御部140は、開始通知情報としてシステム発話SO4を出力させるなどして、ユーザに測定処理の開始を把握させ、姿勢を維持するように誘導する。本実施形態に係るインタフェース制御部140は、すべてのターゲットTにおいて測定処理が完了するまで、上記のような制御を繰り返してよい。
以上、本実施形態に係る多チャンネルの頭部伝達関数の個人最適化について説明した。このように、本実施形態に係る情報処理装置10によれば、チャンネルの数に依らず、ユーザが自身の頭部伝達特性を容易かつ精度高く測定することが可能となる。
<<1.4.制御の流れ>>
次に、本実施形態に係るインタフェース制御部140による制御の流れについて詳細に説明する。図9は、本実施形態に係るインタフェース制御部140による制御の流れを示すフローチャートである。
図9を参照すると、インタフェース制御部140は、まず、ユーザ操作に基づいて、ユーザインタフェースおよび撮影部120を起動する(S1101)。
次に、インタフェース制御部140は、表示部110や音声出力部170にガイド情報を出力させる(S1102)。
次に、認識部150は、ユーザの頭部の向きと指定方向の略一致を判定しているか否かを判定する(S1103)。認識部150は、ユーザの頭部の向きと指定方向の略一致を判定するまで、ステップS1103における判定処理を繰り返し実行する。
一方、ユーザの頭部の向きと指定方向の略一致を判定した場合(S1103:YES)、認識部150は、周囲環境におけるノイズレベルが閾値以下であるか否かを判定する(S1104)。
ここで、周囲環境におけるノイズレベルが閾値を超えている場合(S1104:NO)、認識部150は、ステップS1103に復帰してもよい。
一方、認識部150が周囲環境におけるノイズレベルが閾値以下であると判定した場合(S1104:YES)、インタフェース制御部140は、信号処理部160に頭部伝達関数の測定処理を開始させる(S1105)。
次に、認識部150は、再び、ユーザの頭部の向きと指定方向の略一致を判定しているか否かを判定する(S1106)。
ここで、ユーザの頭部の向きと指定方向が略一致していないこと、すなわちユーザの頭部の向きが指定方向から逸脱したことが検出された場合(S1106:NO)、インタフェース制御部140は、信号処理部160に頭部伝達関数の測定処理を中止させる(S1109)。
また、認識部150は、周囲環境におけるノイズレベルが閾値以下であるか否かの判定を行う(S1107)。
ここで、周囲環境におけるノイズレベルが閾値を超えたことが検出された場合(S1107:NO)、インタフェース制御部140は、信号処理部160に頭部伝達関数の測定処理を中止させる(S1109)。
一方、周囲環境におけるノイズレベルが閾値以下である場合(S1107:YES)、インタフェース制御部140は、頭部伝達関数の測定処理が終了したか否かを判定する(S1108)。
ここで、頭部伝達関数の測定処理が終了していない場合(S1108:NO)、情報処理装置10はステップS1106に復帰し、以降の判定を繰り返し実行する。
<2.ハードウェア構成例>
次に、本開示の一実施形態に係る情報処理装置10のハードウェア構成例について説明する。図10は、本開示の一実施形態に係る情報処理装置10のハードウェア構成例を示すブロック図である。図10を参照すると、情報処理装置10は、例えば、プロセッサ871と、ROM872と、RAM873と、ホストバス874と、ブリッジ875と、外部バス876と、インタフェース877と、入力装置878と、出力装置879と、ストレージ880と、ドライブ881と、接続ポート882と、通信装置883と、を有する。なお、ここで示すハードウェア構成は一例であり、構成要素の一部が省略されてもよい。また、ここで示される構成要素以外の構成要素をさらに含んでもよい。
(プロセッサ871)
プロセッサ871は、例えば、演算処理装置又は制御装置として機能し、ROM872、RAM873、ストレージ880、又はリムーバブル記録媒体901に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。
(ROM872、RAM873)
ROM872は、プロセッサ871に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM873には、例えば、プロセッサ871に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
(ホストバス874、ブリッジ875、外部バス876、インタフェース877)
プロセッサ871、ROM872、RAM873は、例えば、高速なデータ伝送が可能なホストバス874を介して相互に接続される。一方、ホストバス874は、例えば、ブリッジ875を介して比較的データ伝送速度が低速な外部バス876に接続される。また、外部バス876は、インタフェース877を介して種々の構成要素と接続される。
(入力装置878)
入力装置878には、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力装置878としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。また、入力装置878には、マイクロフォンなどの音声入力装置が含まれる。
(出力装置879)
出力装置879は、例えば、CRT(Cathode Ray Tube)、LCD、又は有機EL等のディスプレイ装置、スピーカ、ヘッドフォン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。また、本開示に係る出力装置879は、触覚刺激を出力することが可能な種々の振動デバイスを含む。
(ストレージ880)
ストレージ880は、各種のデータを格納するための装置である。ストレージ880としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。
(ドライブ881)
ドライブ881は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体901に記録された情報を読み出し、又はリムーバブル記録媒体901に情報を書き込む装置である。
(リムーバブル記録媒体901)
リムーバブル記録媒体901は、例えば、DVDメディア、Blu-ray(登録商標)メディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体901は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。
(接続ポート882)
接続ポート882は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)、RS-232Cポート、又は光オーディオ端子等のような外部接続機器902を接続するためのポートである。
(外部接続機器902)
外部接続機器902は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。
(通信装置883)
通信装置883は、ネットワークに接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB(Wireless USB)用の通信カード、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は各種通信用のモデム等である。
<3.まとめ>
以上説明したように、本開示の一実施形態に係る情報処理装置10は、ユーザの頭部伝達関数の測定に係るユーザインタフェースを制御するインタフェース制御部140を備える。また、本開示の一実施形態に係るインタフェース制御部140は、ユーザの頭部の向きを指定方向に誘導するガイド情報の出力を制御すること、を特徴の一つとする。係る構成によれば、ユーザが自身の頭部伝達特性を精度高く測定することを可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
また、コンピュータに内蔵されるCPU、ROMおよびRAMなどのハードウェアに、情報処理装置10が有する構成と同等の機能を発揮させるためのプログラムも作成可能であり、当該プログラムを記録した、コンピュータに読み取り可能な非一過性の記録媒体も提供され得る。
また、本明細書の情報処理装置10の処理に係る各ステップは、必ずしもフローチャートに記載された順序に沿って時系列に処理される必要はない。例えば、情報処理装置10の処理に係る各ステップは、フローチャートに記載された順序と異なる順序で処理されても、並列的に処理されてもよい。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
ユーザの頭部伝達関数の測定に係るユーザインタフェースを制御するインタフェース制御部、
を備え、
前記インタフェース制御部は、前記ユーザの頭部の向きを指定方向に誘導するガイド情報の出力を制御する、
情報処理装置。
(2)
前記ガイド情報は、視覚情報を含み、
前記インタフェース制御部は、前記ユーザの頭部の向きを前記指定方向に誘導するガイドオブジェクトを表示部に表示させる、
前記(1)に記載の情報処理装置。
(3)
前記インタフェース制御部は、撮影されたユーザの画像をリアルタイムに前記表示部に表示させ、前記ユーザの画像に前記ガイドオブジェクトを重畳させる、前記(2)に記載の情報処理装置。
(4)
前記ガイドオブジェクトは、前記指定方向に応じた頭部形状の枠オブジェクトを含む、前記(2)に記載の情報処理装置。
(5)
前記ガイドオブジェクトは、頭部に装着される装着品型オブジェクトを含む、前記(3)または(4)に記載の情報処理装置。
(6)
前記ガイド情報は、音声情報を含み、
前記インタフェース制御部は、前記ユーザの頭部の向きを前記指定方向に誘導する音声を音声出力部に出力させる、
前記(1)~(5)のいずれかに記載の情報処理装置。
(7)
前記指定方向は、前記ユーザの頭部を起点として前記頭部伝達関数の測定に係る測定用信号を出力する音声出力部が位置する方向を含む、前記(1)~(6)のいずれかに記載の情報処理装置。
(8)
前記インタフェース制御部は、前記ユーザの頭部の向きが前記指定方向に略一致したと判定されたことに基づいて、前記頭部伝達関数の測定の開始を示す開始通知情報の出力を制御する、前記(1)~(5)のいずれかに記載の情報処理装置。
(9)
前記インタフェース制御部は、前記頭部伝達関数の測定モードに基づいて、前記ユーザインタフェースの切り替えを制御する、前記(1)~(8)のいずれかに記載の情報処理装置。
(10)
前記測定モードは、測定チャンネル数に応じて設定される、前記(9)に記載の情報処理装置。
(11)
前記インタフェース制御部は、前記頭部伝達関数の測定に係る測定用信号を出力する音声出力部を備えるモバイル端末に前記ガイド情報を出力させる、前記(1)~(10)のいずれかに記載の情報処理装置。
(12)
前記モバイル端末は、少なくとも2つの撮影部と少なくとも2つの前記音声出力部とを備え、
前記インタフェース制御部は、操作者が前記ユーザインタフェースを介して選択した前記撮影部の位置に基づいて、前記測定用信号を出力させる前記音声出力部を選択する、
前記(11)に記載の情報処理装置。
(13)
前記インタフェース制御部は、前記ユーザの頭部の向きが前記指定方向に略一致したと判定されたことに基づいて、前記頭部伝達関数の測定処理を開始させる、前記(1)~(12)のいずれかに記載の情報処理装置。
(14)
前記インタフェース制御部は、前記頭部伝達関数の測定処理を開始させた後、前記測定処理が終了するまでの間に、前記ユーザの頭部の向きが前記指定方向と略一致しなくなったと判定されたことに基づいて、前記測定処理を中断させる、前記(13)に記載の情報処理装置。
(15)
前記インタフェース制御部は、測定されたノイズレベルが閾値を超える場合、前記測定処理が開始されないよう制御する、前記(13)または(14)に記載の情報処理装置。
(16)
前記インタフェース制御部は、前記頭部伝達関数の測定処理を開始させた後、前記ノイズレベルが閾値を超えたことが検出された場合、前記測定処理を中断させる、前記(15)に記載の情報処理装置。
(17)
前記インタフェース制御部は、測定された前記ノイズレベルに係るノイズ情報の出力を制御する、前記(15)または(16)に記載の情報処理装置。
(18)
前記ユーザの頭部の向きを認識する認識部、をさらに備える、前記(1)~(17)のいずれかに記載の情報処理装置。
(19)
プロセッサが、ユーザの頭部伝達関数の測定に係るユーザインタフェースを制御すること、を含み、
ユーザインタフェースを制御することは、前記ユーザの頭部の向きを指定方向に誘導するガイド情報の出力を制御すること、をさらに含む、
情報処理方法。
(20)
コンピュータを、
ユーザの頭部伝達関数の測定に係るユーザインタフェースを制御するインタフェース制御部、を備え、
前記インタフェース制御部は、前記ユーザの頭部の向きを指定方向に誘導するガイド情報の出力を制御する、
情報処理装置、として機能させるためのプログラム。
10 情報処理装置
110 表示部
120 撮影部
130 センサ部
140 インタフェース制御部
150 認識部
160 信号処理部
170 音声出力部
20 マイクロフォン

Claims (16)

  1. ユーザの頭部伝達関数の測定に係るユーザインタフェースを制御し、前記ユーザの頭部の向きを指定方向に誘導する枠状のガイドオブジェクトとともに、撮影された前記ユーザの画像を表示させ、更に他のガイドオブジェクトを表示させるインタフェース制御部と、
    前記ユーザの頭部の所定の部分の画像が前記ガイドオブジェクト内に収まっているか、及び、前記ユーザの頭部の所定の部分のうちの部分の画像が前記他のガイドオブジェクト内に収まっているかを認識する認識部と、
    を備え、
    前記インタフェース制御部は、前記ユーザの頭部の所定の部分の画像が前記ガイドオブジェクト内に収まっているかについての認識結果、及び、前記ユーザの頭部の所定の部分のうちの部分の画像が前記他のガイドオブジェクト内に収まっているかについての認識結果に基づいて、前記ユーザインタフェースの前記頭部伝達関数の測定処理を制御する、
    情報処理装置。
  2. 前記インタフェース制御部は、前記ユーザの頭部の所定の部分の画像が前記ガイドオブジェクト内に収まっている場合、前記頭部伝達関数の測定処理を開始するように前記ユーザインタフェースを制御する、
    請求項1に記載の情報処理装置。
  3. 前記インタフェース制御部は、撮影された前記ユーザの画像をリアルタイムに表示部に表示させ、前記ユーザの画像に前記ガイドオブジェクトを重畳させる、請求項1に記載の情報処理装置。
  4. 前記ガイドオブジェクトは、前記指定方向に応じた頭部形状の枠オブジェクトを含む、請求項2に記載の情報処理装置。
  5. 前記インタフェース制御部は、前記ユーザの頭部の向きを前記指定方向に誘導する音声を音声出力部に出力させる、
    請求項1に記載の情報処理装置。
  6. 前記指定方向は、前記ユーザの頭部を起点として前記頭部伝達関数の測定に係る測定用信号を出力する音声出力部が位置する方向を含む、請求項1に記載の情報処理装置。
  7. 前記インタフェース制御部は、前記頭部伝達関数の測定モードに基づいて、前記ユーザインタフェースの切り替えを制御する、請求項1に記載の情報処理装置。
  8. 前記測定モードは、測定チャンネル数に応じて設定される、請求項に記載の情報処理装置。
  9. 前記インタフェース制御部は、複数の前記頭部伝達関数を取得するための前記測定処理を制御する、請求項1に記載の情報処理装置。
  10. 前記インタフェース制御部は、前記頭部伝達関数の測定に係る測定用信号を出力する音声出力部を備えるモバイル端末に前記ガイドオブジェクトを出力させる、請求項1に記載の情報処理装置。
  11. 前記モバイル端末は、少なくとも2つの撮影部と少なくとも2つの前記音声出力部とを備え、
    前記インタフェース制御部は、操作者が前記ユーザインタフェースを介して選択した前記撮影部の位置に基づいて、前記測定用信号を出力させる前記音声出力部を選択する、
    請求項10に記載の情報処理装置。
  12. ユーザの頭部伝達関数の測定に係るユーザインタフェースを制御し、前記ユーザの頭部の向きを指定方向に誘導する枠状のガイドオブジェクトとともに、撮影された前記ユーザの画像を表示させるインタフェース制御部と、
    前記ユーザの頭部の所定の部分の画像が前記ガイドオブジェクト内に収まっているかを認識する認識部と、
    を備え、
    前記インタフェース制御部は、
    前記ユーザの頭部の所定の部分の画像が前記ガイドオブジェクト内に収まっていることにより、前記ユーザの頭部の向きが前記指定方向に略一致したと判定されたことに基づいて、前記頭部伝達関数の測定処理を開始させ、
    前記頭部伝達関数の測定処理を開始させた後、前記測定処理が終了するまでの間に、前記ユーザの頭部の向きが前記指定方向と略一致しなくなったと判定されたことに基づいて、前記測定処理を中断させる、
    報処理装置。
  13. 前記インタフェース制御部は、測定されたノイズレベルが閾値を超える場合、前記測定処理が開始されないよう制御する、請求項12に記載の情報処理装置。
  14. 前記インタフェース制御部は、前記頭部伝達関数の測定処理を開始させた後、前記ノイズレベルが閾値を超えたことが検出された場合、前記測定処理を中断させる、請求項13に記載の情報処理装置。
  15. プロセッサが、
    ユーザの頭部伝達関数の測定に係るユーザインタフェースを制御し、前記ユーザの頭部の向きを指定方向に誘導する枠状のガイドオブジェクトとともに、撮影された前記ユーザの画像を表示させ、更に他のガイドオブジェクトを表示させることと、
    前記ユーザの頭部の所定の部分の画像が前記ガイドオブジェクト内に収まっているか、及び、前記ユーザの頭部の所定の部分のうちの部分の画像が前記他のガイドオブジェクト内に収まっているかを認識することと、
    前記ユーザの頭部の所定の部分の画像が前記ガイドオブジェクト内に収まっているかについての認識結果、及び、前記ユーザの頭部の所定の部分のうちの部分の画像が前記他のガイドオブジェクト内に収まっているかについての認識結果に基づいて、前記ユーザインタフェースの前記頭部伝達関数の測定処理を制御することと、
    を含む、
    情報処理方法。
  16. コンピュータを、
    ユーザの頭部伝達関数の測定に係るユーザインタフェースを制御し、前記ユーザの頭部の向きを指定方向に誘導する枠状のガイドオブジェクトとともに、撮影された前記ユーザの画像を表示させ、更に他のガイドオブジェクトを表示させるインタフェース制御部と、
    前記ユーザの頭部の所定の部分の画像が前記ガイドオブジェクト内に収まっているか、及び、前記ユーザの頭部の所定の部分のうちの部分の画像が前記他のガイドオブジェクト内に収まっているかを認識する認識部と、
    を備え、
    前記インタフェース制御部は、
    前記ユーザの頭部の所定の部分の画像が前記ガイドオブジェクト内に収まっているかについての認識結果、及び、前記ユーザの頭部の所定の部分のうちの部分の画像が前記他のガイドオブジェクト内に収まっているかについての認識結果に基づいて、前記ユーザインタフェースの前記頭部伝達関数の測定処理を制御する、
    情報処理装置、
    として機能させるためのプログラム。
JP2020550329A 2018-10-03 2019-09-25 情報処理装置、情報処理方法、およびプログラム Active JP7487663B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024076575A JP2024097913A (ja) 2018-10-03 2024-05-09 情報処理方法、情報処理装置、およびプログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018188473 2018-10-03
JP2018188473 2018-10-03
PCT/JP2019/037515 WO2020071200A1 (ja) 2018-10-03 2019-09-25 情報処理装置、情報処理方法、およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024076575A Division JP2024097913A (ja) 2018-10-03 2024-05-09 情報処理方法、情報処理装置、およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2020071200A1 JPWO2020071200A1 (ja) 2021-09-24
JP7487663B2 true JP7487663B2 (ja) 2024-05-21

Family

ID=70054520

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020550329A Active JP7487663B2 (ja) 2018-10-03 2019-09-25 情報処理装置、情報処理方法、およびプログラム
JP2024076575A Pending JP2024097913A (ja) 2018-10-03 2024-05-09 情報処理方法、情報処理装置、およびプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024076575A Pending JP2024097913A (ja) 2018-10-03 2024-05-09 情報処理方法、情報処理装置、およびプログラム

Country Status (6)

Country Link
US (2) US11775164B2 (ja)
EP (1) EP3862860A4 (ja)
JP (2) JP7487663B2 (ja)
KR (1) KR102759677B1 (ja)
CN (1) CN112789586A (ja)
WO (1) WO2020071200A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102759677B1 (ko) * 2018-10-03 2025-02-03 소니그룹주식회사 정보 처리 장치, 정보 처리 방법 및 프로그램
US11595772B2 (en) 2018-10-10 2023-02-28 Sony Group Corporation Information processing device, information processing method, and information processing program
WO2022059364A1 (ja) * 2020-09-17 2022-03-24 日本電気株式会社 音響処理システム、音響処理方法、および記録媒体
USD1061551S1 (en) * 2022-05-26 2025-02-11 Lg Electronics Inc. Display panel or portion thereof with animated graphical user interface

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120183161A1 (en) 2010-09-03 2012-07-19 Sony Ericsson Mobile Communications Ab Determining individualized head-related transfer functions
JP2017091059A (ja) 2015-11-05 2017-05-25 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置およびログイン制御方法
US20180091921A1 (en) 2016-09-27 2018-03-29 Intel Corporation Head-related transfer function measurement and application
WO2018110269A1 (ja) 2016-12-12 2018-06-21 ソニー株式会社 Hrtf測定方法、hrtf測定装置、およびプログラム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007251248A (ja) 2006-03-13 2007-09-27 Yamaha Corp 頭部伝達関数測定装置
US20130007672A1 (en) * 2011-06-28 2013-01-03 Google Inc. Methods and Systems for Correlating Head Movement with Items Displayed on a User Interface
CN102254164B (zh) * 2011-08-04 2013-05-01 蔡翔 具有提示功能的人脸识别方法
JP6102179B2 (ja) 2012-08-23 2017-03-29 ソニー株式会社 音声処理装置および方法、並びにプログラム
WO2015011898A1 (ja) * 2013-07-22 2015-01-29 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理装置および情報処理装置の制御方法
WO2015062649A1 (en) * 2013-10-30 2015-05-07 Huawei Technologies Co., Ltd. Method and mobile device for processing an audio signal
US20150306330A1 (en) * 2014-04-29 2015-10-29 MaskSelect, Inc. Mask Selection System
WO2016065137A1 (en) 2014-10-22 2016-04-28 Small Signals, Llc Information processing system, apparatus and method for measuring a head-related transfer function
JP6755461B2 (ja) * 2014-11-25 2020-09-16 株式会社NeU 計測システム、頭部装着装置、プログラム、およびサービス提供方法
DE112016005648T5 (de) * 2015-12-11 2018-08-30 Sony Corporation Datenverarbeitungsvorrichtung, datenverarbeitungsverfahren und programm
US10805757B2 (en) * 2015-12-31 2020-10-13 Creative Technology Ltd Method for generating a customized/personalized head related transfer function
US9591427B1 (en) * 2016-02-20 2017-03-07 Philip Scott Lyren Capturing audio impulse responses of a person with a smartphone
US9800990B1 (en) * 2016-06-10 2017-10-24 C Matter Limited Selecting a location to localize binaural sound
CN206610308U (zh) * 2017-01-05 2017-11-03 广州市晶密电子有限公司 一种通过眼睛定位引导来实现脸部识别的数据处理装置
JP7135472B2 (ja) * 2018-06-11 2022-09-13 カシオ計算機株式会社 表示制御装置、表示制御方法及び表示制御プログラム
KR102759677B1 (ko) 2018-10-03 2025-02-03 소니그룹주식회사 정보 처리 장치, 정보 처리 방법 및 프로그램
US11595772B2 (en) 2018-10-10 2023-02-28 Sony Group Corporation Information processing device, information processing method, and information processing program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120183161A1 (en) 2010-09-03 2012-07-19 Sony Ericsson Mobile Communications Ab Determining individualized head-related transfer functions
JP2017091059A (ja) 2015-11-05 2017-05-25 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置およびログイン制御方法
US20180091921A1 (en) 2016-09-27 2018-03-29 Intel Corporation Head-related transfer function measurement and application
WO2018110269A1 (ja) 2016-12-12 2018-06-21 ソニー株式会社 Hrtf測定方法、hrtf測定装置、およびプログラム

Also Published As

Publication number Publication date
US12164762B2 (en) 2024-12-10
EP3862860A1 (en) 2021-08-11
CN112789586A (zh) 2021-05-11
US20220027033A1 (en) 2022-01-27
WO2020071200A1 (ja) 2020-04-09
JP2024097913A (ja) 2024-07-19
US11775164B2 (en) 2023-10-03
KR102759677B1 (ko) 2025-02-03
JPWO2020071200A1 (ja) 2021-09-24
EP3862860A4 (en) 2021-11-17
US20230409185A1 (en) 2023-12-21
KR20210068402A (ko) 2021-06-09

Similar Documents

Publication Publication Date Title
JP7487663B2 (ja) 情報処理装置、情報処理方法、およびプログラム
KR102005071B1 (ko) 웨어러블 디바이스의 상태에 기초하는 컴패니언 통신 디바이스 거동의 변경
CN105874408B (zh) 用手势交互的可穿戴式空间音频系统
JP6143975B1 (ja) 画像の取り込みを支援するためにハプティックフィードバックを提供するためのシステムおよび方法
TWI496480B (zh) 偕同一可攜式電子裝置用於產生多頻道音訊之系統和方法
CN106559686A (zh) 移动终端及其控制方法
JP2015119373A (ja) 画像処理装置および方法、並びにプログラム
WO2017032035A1 (zh) 调节方法、调节装置和终端
JP2019220848A (ja) データ処理装置、データ処理方法及びプログラム
WO2018000764A1 (zh) 一种声道自动匹配的方法、装置以及耳机
JP2016201723A (ja) 頭部伝達関数選択装置、頭部伝達関数選択方法、頭部伝達関数選択プログラム、音声再生装置
CN106685459A (zh) 一种可穿戴设备操作的控制方法及可穿戴设备
CN111510785A (zh) 视频播放的控制方法、装置、终端和计算机可读存储介质
JP2019040005A (ja) 読み上げシステム及び読み上げ方法
KR20160023212A (ko) 글래스 타입의 이동 단말기 및 그 제어방법
KR102138835B1 (ko) 정보 노출 방지 영상 제공 장치 및 방법
JP2018186366A (ja) 会議システム
US10200606B2 (en) Image processing apparatus and control method of the same
CN114339582B (zh) 双通道音频处理、方向感滤波器生成方法、装置以及介质
US12160714B2 (en) Sound processing apparatus, sound processing system, sound processing method, and non-transitory computer readable medium storing program
JP6574295B1 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP7397084B2 (ja) データ作成方法及びデータ作成プログラム
CN114630240A (zh) 方向滤波器的生成方法、音频处理方法、装置及存储介质
JP2024056580A (ja) 情報処理装置及びその制御方法及びプログラム
CN118975274A (zh) 声音增强现实对象再现装置、信息终端系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220905

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240422

R150 Certificate of patent or registration of utility model

Ref document number: 7487663

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150