[go: up one dir, main page]

JP7424156B2 - コンテンツ出力制御装置、コンテンツ出力システム、コンテンツ出力制御方法およびプログラム - Google Patents

コンテンツ出力制御装置、コンテンツ出力システム、コンテンツ出力制御方法およびプログラム Download PDF

Info

Publication number
JP7424156B2
JP7424156B2 JP2020054197A JP2020054197A JP7424156B2 JP 7424156 B2 JP7424156 B2 JP 7424156B2 JP 2020054197 A JP2020054197 A JP 2020054197A JP 2020054197 A JP2020054197 A JP 2020054197A JP 7424156 B2 JP7424156 B2 JP 7424156B2
Authority
JP
Japan
Prior art keywords
content
user
display screen
audio
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020054197A
Other languages
English (en)
Other versions
JP2021157246A5 (ja
JP2021157246A (ja
Inventor
建 小林
利一 藤井
一夫 野村
達弘 ▲鮭▼川
真史 上村
丁珠 崔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2020054197A priority Critical patent/JP7424156B2/ja
Priority to PCT/JP2020/043489 priority patent/WO2021192410A1/ja
Priority to CN202080093491.2A priority patent/CN114981756B/xx
Publication of JP2021157246A publication Critical patent/JP2021157246A/ja
Publication of JP2021157246A5 publication Critical patent/JP2021157246A5/ja
Priority to US17/946,162 priority patent/US12207070B2/en
Application granted granted Critical
Publication of JP7424156B2 publication Critical patent/JP7424156B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本発明は、コンテンツ出力制御装置、コンテンツ出力システム、コンテンツ出力制御方法およびプログラムに関する。
音声出力可能な電子書籍やゲームなど、表示画面にコンテンツ内容を表示することに加えて、音声を出力する技術が知られている(例えば、特許文献1参照)。
特開2016-192211号公報
ところが、このような装置を、例えば公共交通機関などの乗車時に利用している場合、車内放送などの周辺音が聞き取りにくい場合などがある。
本発明は、上記に鑑みてなされたものであって、適切に周辺音の確認を可能にすることを目的とする。
上述した課題を解決し、目的を達成するために、本発明に係るコンテンツ出力制御装置は、ユーザの視線方向を検出する視線検出部と、前記視線検出部の検出結果に基づき、前記ユーザがコンテンツを表示した表示画面を注視しているか否かを判断する注視判断部と、周辺音を取得する周辺音取得部と、前記コンテンツに関する音声を取得する音声取得部と、前記注視判断部が、前記ユーザがコンテンツを表示した表示画面を注視していると判断した場合は、前記音声取得部が取得した前記コンテンツに関する音声を出力し、前記ユーザがコンテンツを表示した表示画面を注視していないと判断した場合は、前記周辺音取得部が取得した周辺音を出力する音声出力制御部と、を備える。
本発明に係るコンテンツ出力システムは、上記のコンテンツ出力制御装置と、周辺音を収音する収音部と、音声を出力する音声出力部と、を備える。
本発明に係るコンテンツ出力制御方法は、音声出力装置を利用しているユーザの視線方向を検出するステップと、視線方向の検出結果に基づき、前記ユーザがコンテンツを表示した表示画面を注視しているか否かを判断するステップと、周辺音を取得するステップと、前記コンテンツに関する音声を取得するステップと、前記ユーザがコンテンツを表示した表示画面を注視していると判断した場合は、前記コンテンツに関する音声を出力し、前記ユーザがコンテンツを表示した表示画面を注視していないと判断した場合は、周辺音を出力するステップと、を含む。
本発明に係るプログラムは、音声出力装置を利用しているユーザの視線方向を検出するステップと、視線方向の検出結果に基づき、前記ユーザがコンテンツを表示した表示画面を注視しているか否かを判断するステップと、周辺音を取得するステップと、前記コンテンツに関する音声を取得するステップと、前記ユーザがコンテンツを表示した表示画面を注視していると判断した場合は、前記コンテンツに関する音声を出力し、前記ユーザがコンテンツを表示した表示画面を注視していないと判断した場合は、周辺音を出力するステップと、をコンピュータに実行させる。
本発明によれば、適切に周辺音の確認できるという効果を奏する。
図1は、第一実施形態に係るコンテンツ出力システムを示す概略図である。 図2は、第一実施形態に係るコンテンツ出力システムを示すブロック図である。 図3は、第一実施形態に係るコンテンツ出力システムにおける処理の流れの一例を示すフローチャートである。 図4は、第一実施形態に係るコンテンツ出力システムにおける処理の流れの他の例を示すフローチャートである。 図5は、第二実施形態に係るコンテンツ出力システムのブロック図である。 図6は、第二実施形態に係るコンテンツ出力システムにおける処理の流れの一例を示すフローチャートである。 図7は、第三実施形態に係るコンテンツ出力システムのブロック図である。 図8は、第三実施形態に係るコンテンツ出力システムにおける処理の流れの一例を示すフローチャートである。
以下に添付図面を参照して、本発明に係るコンテンツ出力システム1の実施形態を詳細に説明する。なお、以下の実施形態により本発明が限定されるものではない。
[第一実施形態]
<コンテンツ出力システム>
図1は、第一実施形態に係るコンテンツ出力システム1を示す概略図である。図2は、第一実施形態に係るコンテンツ出力システム1を示すブロック図である。コンテンツ出力システム1は、音声出力装置としてのヘッドホン10と、例えば、電子書籍端末、スマートフォン、タブレット端末、携帯用音楽再生装置、および、携帯用ゲーム機など、映像および音声で構成されるコンテンツのコンテンツ再生や表示等を行う電子機器30とを含む。言い換えると、コンテンツ出力システム1は、音声出力装置としてのヘッドホン10と電子機器30との組み合わせである。コンテンツ出力システム1は、ユーザが表示画面36を注視しているか否かに応じて、ヘッドホン10から表示画面36に表示したコンテンツに関する音声を出力したり、周辺の音声を出力したりする。
<ヘッドホン>
ヘッドホン10は、例えばオーバーヘッド式で、ユーザの頭に装着する。ヘッドホン10は、電子機器30のコンテンツ出力制御装置40から出力される音声データに基づいて、表示画面36に表示したコンテンツに関する音声を出力する。ヘッドホン10は、コンテンツ出力制御装置40から出力される音声信号に基づいて、周辺音を出力可能である。ヘッドホン10は、電子機器30と有線または無線でデータを送受信可能に接続されている。ヘッドホン10は、左音声出力部11と右音声出力部12とコンテンツ入力部31と左マイクロフォン14と右マイクロフォン15とコンテンツ出力制御装置40とを有する。
左音声出力部11は、左耳用の音声出力部である。左音声出力部11は、左耳を覆う筐体を有する。左音声出力部11は、左耳において聞かせる音声を出力する。左音声出力部11は、コンテンツ出力制御装置40から音声データを取得する。左音声出力部11は、音声データの左チャンネルデータを出力する。左音声出力部11は、音声データの左チャンネルデータをD/A変換して得られた電気信号を音に変換して出力する。
右音声出力部12は、右耳用の音声出力部である。右音声出力部12は、右耳において聞かせる音声を出力する。右音声出力部12は、コンテンツ出力制御装置40から音声データを取得する。右音声出力部12は、音声データの右チャンネルデータを出力する。右音声出力部12は、音声データの右チャンネルデータをD/A変換して得られた電気信号を音に変換して出力する。
左マイクロフォン14は、左音声出力部11の筐体に配置されている。左マイクロフォン14は、周辺音を取得する。周辺音は、例えば第三者の話し声および乗物の騒音などを含む環境音である。左マイクロフォン14は、取得した音声を電子機器30の周辺音取得部52に出力する。
右マイクロフォン15は、右音声出力部12の筐体に配置されている。右マイクロフォン15は、周辺音を取得する。右マイクロフォン15は、取得した音声を電子機器30の周辺音取得部52に出力する。
<電子機器>
電子機器30は、コンテンツ入力部31と、表示部32と、視線センサ33と、コンテンツ出力制御装置40とを有する。
コンテンツ入力部31は、例えば音楽、映像またはゲームなどのコンテンツのコンテンツデータが入力される。コンテンツ入力部31は、例えば図示しない記憶部に記憶されたコンテンツデータが入力されてもよい。コンテンツ入力部31は、外部の記憶装置から、有線または無線でコンテンツデータが入力されてもよい。コンテンツ入力部31に入力されるコンテンツデータは、例えば、音声出力を伴うコンテンツデータであり、動画コンテンツ、ゲームコンテンツ、WEBコンテンツなどである。
コンテンツデータには、コンテンツに関する映像データと音声データとを含む。コンテンツに関する映像データとは、表示画面36に表示するコンテンツの映像データである。コンテンツに関する音声データとは、表示画面36に表示されたコンテンツの映像データに対応して出力する音声の音声データである。コンテンツに関する音声データとは、例えば、電子書籍のテキスト読み上げの音声、WEBページのテキスト読み上げ音声および解説音声などでもよい。
視線センサ33は、電子機器30の表示画面36と同じ方向を向いて配置されている。視線センサ33は、電子機器30の表示画面36と対面している人物の視線を検出するセンサである。視線センサ33は、ユーザが表示画面36を視認している状態では、ユーザの顔と向かい合う位置に配置されている。視線センサ33は、例えば、電子機器30の表示画面36の上部に配置されている。視線センサ33は、撮影した撮影データをコンテンツ出力制御装置40の視線検出部43へ出力する。
視線センサ33は、例えば、赤外LED群で構成された赤外光発光部と、一対の赤外線カメラとを含む。本実施形態では、視線センサ33は、一対の赤外光発光部でユーザの顔方向に赤外光を照射し、赤外線カメラで撮影する。このようにして赤外線カメラで撮影した撮影映像から、後述する視線検出部43が、ユーザの瞳孔と角膜反射の位置とに基づいて、ユーザの視線が表示画面36を向いているか否かを判断する。さらに、ユーザの瞳孔と角膜反射の位置とに基づいて、表示画面36におけるユーザの視線の位置が判断される。視線センサ33は、可視光カメラなど、同様の機能を有する他の構成であってもよい。
表示部32は、コンテンツ入力部31に入力されたコンテンツの映像を表示する。表示部32は、液晶ディスプレイ(LCD:Liquid Crystal Display)または有機EL(Organic Electro-Luminescence)ディスプレイなどを含むディスプレイである。表示部32は、表示制御部42から出力された表示データに基づいて、コンテンツの映像を表示する。表示部32は、映像が表示される表示画面36を備える。
ヘッドホン10には、ヘッドホン10がユーザの頭に装着されているか否かを検出するセンサが備えられていてもよい。具体的には、ヘッドホン10には3軸の加速度センサが備えられ、重力加速度が検出されている方向に基づいて、ヘッドホン10がユーザの頭に装着されていると判断する。さらに、例えばヘッドバンドの開き具合またはイヤーパッドへの圧力などを検出する他のセンサを使用してもよい。
<コンテンツ出力制御装置>
コンテンツ出力制御装置40は、ユーザが表示画面36を注視しているか否かに応じて、ヘッドホン10からコンテンツに関する音声を出力したり、周辺音を出力したりする。コンテンツ出力制御装置40は、例えば、CPU(Central Processing Unit)または映像処理用プロセッサなどで構成された演算処理装置(制御部)である。コンテンツ出力制御装置40は、図示しない記憶部に記憶されているプログラムをメモリにロードして、プログラムに含まれる命令を実行する。コンテンツ出力制御装置40は、映像取得部41と表示制御部42と視線検出部43と注視判断部44と音声処理部50と内部メモリである記憶部とが含まれる。音声処理部50は、音声取得部51と周辺音取得部52と音声出力制御部53とを有する。コンテンツ出力制御装置40は、一または複数の装置で構成されていてもよい。
映像取得部41は、表示部32の表示画面36に出力するためのコンテンツの映像データをコンテンツ入力部31から取得する。
表示制御部42は、映像取得部41が取得したコンテンツの映像データを表示部32の表示画面36に表示させる。
視線検出部43は、視線センサ33が撮影した撮影データに基づいて、ユーザの視線方向を検出する。視線を検出する方法は限定されないが、本実施形態では、角膜反射によって視線を検出する。
注視判断部44は、視線検出部43の検出結果に基づき、ユーザがコンテンツを表示した電子機器30の表示画面36を注視しているか否かを判断する。表示画面36を注視しているとは、ユーザの視線方向に表示画面36が位置した状態、言い換えると、ユーザの視線方向と表示画面36とが交差する状態が、第一所定期間以上継続することをいう。第一所定期間とは、例えば5秒程度である。表示画面36を注視していないとは、ユーザの視線方向が表示画面36と異なる方向に向いている状態、言い換えると、ユーザの視線方向と表示画面36とが交差しない状態が、第二所定期間以上継続することをいう。第二所定期間とは、例えば5秒程度である。
音声取得部51は、左音声出力部11と右音声出力部12とから出力するためのコンテンツに関する音声データをコンテンツ入力部31から取得する。
周辺音取得部52は、左マイクロフォン14と右マイクロフォン15とから、周辺音を取得する。
音声出力制御部53は、ヘッドホン10から音声データを音として出力する制御を行う。より詳しくは、音声出力制御部53は、音声データの左チャンネルデータをD/A変換して増幅した信号を左音声出力部11から出力させる。音声出力制御部53は、音声データの右チャンネルデータをD/A変換して増幅した信号を右音声出力部12から出力させる。
音声出力制御部53は、注視判断部44が、ユーザがコンテンツを表示した表示画面36を注視していると判断した場合は、音声取得部51が取得したコンテンツに関する音声を出力し、ユーザがコンテンツを表示した表示画面36を注視していないと判断した場合は、周辺音取得部52が取得した周辺音を出力する。
音声出力制御部53は、注視判断部44が、ユーザがコンテンツを表示した表示画面36を注視していないと判断した場合は、音声取得部51が取得したコンテンツに関する音声に加えて、周辺音取得部52が取得した周辺音を出力してもよい。この場合は、コンテンツに関する音声とともに周辺音がヘッドホン10から出力される。
次に、図3、図4を用いて、ヘッドホン10における情報処理について説明する。図3は、第一実施形態に係るコンテンツ出力システム1における処理の流れの一例を示すフローチャートである。図4は、第一実施形態に係るコンテンツ出力システム1における処理の流れの他の例を示すフローチャートである。例えば、ヘッドホン10の電源がONになった場合、ヘッドホン10がユーザの頭に装着された場合、ヘッドホン10から音声の出力が開始された場合、または、コンテンツ出力制御処理の開始操作がされた場合などに、図3、図4に示すフローチャートの処理が実行される。
まず、図3に示す処理について説明する。コンテンツ出力制御装置40は、音声出力を伴うコンテンツが表示部32に表示されているか否かを判断する(ステップS101)。より詳しくは、コンテンツ入力部31に入力された、音声および映像からなるコンテンツが再生され、コンテンツの映像が表示部32に表示され、コンテンツの音声がヘッドホン10に出力されているか否かを判断する。言い換えると、音声および映像からなるコンテンツが再生されているか否かを判断する。音声出力を伴うコンテンツが表示部32に表示されている状態とは、表示部32にコンテンツの映像が表示され、コンテンツの音声がヘッドホン10に出力されている状態であり、これらの出力は、コンテンツの再生が終了するまで継続される。
音声出力を伴うコンテンツが表示部32に表示されていると判断する場合(ステップS101でYes)、ステップS102へ進む。音声出力を伴うコンテンツが表示部32に表示されていると判断しない場合(ステップS101でNo)、本処理を終了する。音声出力を伴うコンテンツが表示部32に表示されていると判断する場合(ステップS101でYes)、ユーザが表示画面36を注視しているか否かを判断する(ステップS101)。より詳しくは、注視判断部44によって、視線検出部43の検出結果から、ユーザがコンテンツを表示した電子機器30の表示画面36を注視しているか否かを判断する。注視判断部44によって、ユーザの視線方向に表示画面36が位置した状態が、第一所定期間以上継続いるか否かを判断する。注視判断部44によって、ユーザが表示画面36を注視していると判断する場合(ステップS102でYes)、ステップS103へ進む。注視判断部44によって、ユーザが表示画面36を注視していると判断しない場合(ステップS102でNo)、ステップS104へ進む。
ユーザが表示画面36を注視していると判断する場合(ステップS102でYes)、コンテンツ出力制御装置40は、コンテンツの音声を出力する(ステップS103)。より詳しくは、音声出力制御部53は、音声取得部51が取得した、コンテンツに関する音声をヘッドホン10から出力する。これにより、ヘッドホン10の左音声出力部11と右音声出力部12とからコンテンツの音声が出力される。コンテンツ出力制御装置40は、ステップS105へ進む。
ステップS103の処理は、ステップS101でYesのときに周辺音が出力されていない状態の場合は周辺音が出力されていない状態でコンテンツ音の出力を継続し、ステップS101でYesのときに周辺音が出力されている状態の場合はコンテンツ音の出力を継続し周辺音の出力を停止する。
ユーザが表示画面36を注視していると判断しない場合(ステップS102でNo)、コンテンツ出力制御装置40は、周辺音を出力する(ステップS104)。より詳しくは、音声出力制御部53は、周辺音取得部52が取得した周辺音を出力する。これにより、ヘッドホン10の左音声出力部11と右音声出力部12とから周辺音が出力される。コンテンツ出力制御装置40は、ステップS105へ進む。
ステップS104の処理は、ステップS101でYesのときに周辺音が出力されていない状態の場合は周辺音の出力を開始し、ステップS101でYesのときに周辺音が出力されている状態の場合は周辺音の出力を維持する。
コンテンツ出力制御装置40は、ヘッドホン10や電子機器30などのコンテンツ出力システム1の利用を終了するか否かを判断する(ステップS105)。例えば、ヘッドホン10や電子機器30の電源がOFFになった場合、ヘッドホン10がユーザの頭から取り外された場合、ヘッドホン10への音声の出力が停止された場合、または、コンテンツ出力制御処理の終了操作がされた場合などに、利用を終了すると判断して(ステップS105でYes)、処理を終了する。コンテンツ出力制御装置40は、上記に該当しない場合、利用を終了すると判断せずに(ステップS105でNo)、ステップS101の処理を再度実行する。
つづいて、図4に示す処理について説明する。図4に示すフローチャートのステップS111、ステップS112、ステップS113、ステップS115は、図3に示すフローチャートのステップS101、ステップS102、ステップS103、ステップS105と同様の処理を行う。
ユーザが表示画面36を注視していると判断しない場合(ステップS112でNo)、コンテンツ出力制御装置40は、コンテンツに関する音声とともに、周辺音を出力する(ステップS114)。より詳しくは、音声取得部51が取得したコンテンツに関する音声とともに、周辺音取得部52が取得した周辺音をヘッドホン10の左音声出力部11と右音声出力部12とから出力する。コンテンツ出力制御装置40は、ステップS115へ進む。
ステップS113の処理は、ステップS111でYesのときに周辺音が出力されていない状態の場合は周辺音が出力されていない状態でコンテンツ音の出力を継続し、ステップS111でYesのときにコンテンツ音と周辺音が出力されている状態の場合はコンテンツ音の出力を継続し周辺音の出力を停止する。
ステップS114の処理は、ステップS111でYesのときにコンテンツ音が出力され周辺音が出力されていない状態の場合はコンテンツ音の出力を維持した状態で周辺音の出力を開始し、ステップS111でYesのときにコンテンツ音と周辺音が出力されている状態の場合はコンテンツ音と周辺音の出力を維持する。
ステップS114で、コンテンツ音とともに周辺音を出力する場合は、コンテンツ音の音量はユーザが設定した音量の状態であってもよく、周辺音を出力している期間のコンテンツ音の音量をユーザが設定した音量より低くしてもよい。
このようにして、ヘッドホン10を装着しているユーザが表示画面36を注視している場合、コンテンツに関する音声を出力し、ユーザが表示画面36を注視していない場合、周辺音を出力する。
<効果>
上述したように、本実施形態は、ヘッドホン10を装着しているユーザが表示画面36を注視している場合、コンテンツの音声を出力し、ユーザが表示画面36を注視していない場合、周辺音を出力できる。本実施形態によれば、ユーザが表示画面36を注視することを中断して、ユーザが周辺に注意を向けたと推定される状態となった場合に、適切に周辺音を確認できる。このようにして、本実施形態によれば、ユーザが周辺音を聞きたいときに、ユーザが操作をしなくても、適切に周辺音を確認できる。
本実施形態では、ユーザが表示画面36を注視していない場合、コンテンツの音声とともに周辺音を出力できる。本実施形態によれば、コンテンツの視聴を継続しながら、周辺音を確認できる。
[第二実施形態]
図5、図6を参照しながら、本実施形態に係るコンテンツ出力システム1Aについて説明する。図5は、第二実施形態に係るコンテンツ出力システム1Aのブロック図である。図6は、第二実施形態に係るコンテンツ出力システム1Aにおける処理の流れの一例を示すフローチャートである。コンテンツ出力システム1Aは、基本的な構成は第一実施形態のコンテンツ出力システム1と同様である。以下の説明においては、コンテンツ出力システム1と同様の構成要素には、同一の符号または対応する符号を付し、その詳細な説明は省略する。本実施形態では、電子機器30Aは、GNSS(Global Navigation Satellite System)受信部34Aとコンテンツ出力制御装置40Aの位置情報算出部45Aと判断部46Aとを有する点と、音声出力制御部53Aにおける処理とが、第一実施形態と異なる。
GNSS受信部34Aは、GNSS衛星からのGNSS信号を受信するGNSS受信機などで構成される。GNSS受信部34Aは、受信したGNSS信号を位置情報算出部45Aに出力する。
位置情報算出部45Aは、GNSS受信部34AからGNSS信号を受け付ける。位置情報算出部45Aは、GNSS信号に基づいて、現在位置情報を算出する。位置情報算出部45AおよびGNSS受信部34Aは、GNSS信号に限らず、他の方式の測位衛星システムに対応していてもよい。
判断部46Aは、ユーザが交通機関を利用しているか否かを判断する。例えば、判断部46Aは、位置情報算出部45Aが算出した位置情報に基づいて、ヘッドホン10を装着したユーザの現在位置が、図示しない地図情報の交通機関の位置情報に該当する場合や、移動履歴や移動速度に基づいて、交通機関を利用していると判断してもよい。判断部46Aは、交通機関を利用しているかを判断する方法は限定されず、例えば、ヘッドホン10の周辺のノイズまたは振動を利用するような他の方法によって判断されてもよい。
音声出力制御部53Aは、ユーザが交通機関を利用している場合に、ユーザがコンテンツを表示した表示画面36を注視していると判断した場合は、音声取得部51が取得したコンテンツに関する音声を出力し、ユーザがコンテンツを表示した表示画面36を注視していないと判断した場合は、周辺音取得部52が取得した周辺音を出力する。
次に、図6を用いて、コンテンツ出力システム1Aにおける情報処理について説明する。図6に示すフローチャートのステップS122ないしステップS126、は、図3に示すフローチャートのステップS101ないしステップS105と同様の処理を行う。
コンテンツ出力制御装置40Aは、交通機関を利用しているか否かを判断する(ステップS121)。より詳しくは、判断部46Aによって、位置情報算出部45Aが算出した位置情報に基づいて、ユーザの現在位置が、地図情報の交通機関の位置情報に該当する場合などの判断結果に基づき、交通機関を利用していると判断する。判断部46Aによって、交通機関を利用していると判断する場合(ステップS121でYes)、ステップS122へ進む。判断部46Aによって、交通機関を利用していると判断しない場合(ステップS121でNo)、処理を終了する。
ステップS126における利用終了の判断は、ヘッドホン10または電子機器30Aの利用終了の判断に加えて、コンテンツ出力制御装置40Aは、交通機関の利用を終了するか否かも判断する(ステップS126)。より詳しくは、判断部46Aによって、位置情報算出部45Aが算出した位置情報に基づいて、ユーザの現在位置が、地図情報の交通機関の位置情報から外れる場合など、交通機関の利用が終了していることの検出によって、交通機関の利用を終了すると判断する。判断部46Aによって、交通機関の利用を終了すると判断する場合(ステップS126でYes)、処理を終了する。判断部46Aによって、交通機関の利用を終了すると判断しない場合(ステップS126でNo)、ステップS122へ進む。
<効果>
上述したように、本実施形態は、ヘッドホン10を装着したユーザが交通機関を利用している場合であって、ユーザが表示画面36を注視していない場合には、周辺音を出力する。本実施形態によれば、ヘッドホン10を装着したユーザが交通機関の利用中に、アナウンスなどを聞くために、コンテンツの表示画面36を注視しなくなった場合などに、アナウンスなどの周辺音をヘッドホン10で聞くことができる。本実施形態によれば、不用意に周辺音が出力されることを抑制できる。
[第三実施形態]
図7、図8を参照しながら、本実施形態に係るコンテンツ出力システム1Bについて説明する。図7は、第三実施形態に係るコンテンツ出力システム1Bのブロック図である。図8は、第三実施形態に係るコンテンツ出力システム1Bにおける処理の流れの一例を示すフローチャートである。コンテンツ出力システム1Bは、基本的な構成は第一実施形態のコンテンツ出力システム1と同様である。本実施形態では、電子機器30Bは、撮影部35Bと、コンテンツ出力制御装置40Bの顔検出部47Bとを有する点と、音声出力制御部53Bにおける処理とが、第一実施形態と異なる。
撮影部35Bは、電子機器30Bの表示画面36と対面している人物を撮影する可視光カメラである。撮影部35Bは、ユーザの顔を撮影する。撮影部35Bは、ユーザが表示画面を視認している状態では、ユーザの顔を撮影可能な位置に配置されている。撮影部35Bは、例えば、電子機器30Bの表示画面36の上部に配置されている。撮影部35Bは、撮影した撮影データをコンテンツ出力制御装置40Bの顔検出部47Bへ出力する。撮影部33Aと視線センサ33とは、同一の可視光カメラであってもよい。
顔検出部47Bは、撮影部35Bが撮影した撮影データからユーザの顔を認識し、認識した顔の向きを検出する。より詳しくは、顔検出部47Bは、顔検出部47Bが検出した顔の向きが、表示画面36に対して対向する向きであるか否かを検出する。例えばユーザがコンテンツが表示された表示画面36を注視している場合には、ユーザの顔の向きは表示画面36に対して対向する向きである。例えばユーザが周辺に注意を向けて周りを見回すような場合には、ユーザの顔の向きは表示画面36に対して対向する向きではない。
表示画面36に対して対向する向きとは、ユーザが表示画面36に表示されたコンテンツの画像などを視認可能な向きのことである。表示画面36に対して対向する向きとは、例えば、上下方向視および左右方向視において、ユーザの両眼の中心を通り、ユーザの前方に延びる直線と、表示画面36とが交差する角度が例えば90°±30°程度の範囲など、明らかにユーザが表示画面36を見ているとされる向きが定義されればよい。
音声出力制御部53Bは、注視判断部44によってユーザがコンテンツを表示した表示画面36を注視していると判断したことに加えて、顔検出部47Bが検出した顔の向きが、表示画面36に対して対向する向きである場合に、音声取得部51が取得したコンテンツに関する音声を出力する。音声出力制御部53Bは、注視判断部44によってユーザがコンテンツを表示した表示画面36を注視していないと判断したことに加えて、顔検出部47Bが検出した顔の向きが、表示画面36に対して対向する向きではない場合に、周辺音取得部52が取得した周辺音を出力する。ユーザがコンテンツを表示した表示画面36を注視していない場合でも、ユーザの顔の向きが表示画面36に対して対向する場合、ユーザがコンテンツの視聴を継続する意思があると推定される。この場合、コンテンツの視聴を継続させることが好ましい。これに対して、ユーザがコンテンツを表示した表示画面36を注視しておらず、かつ、ユーザの顔の向きが表示画面36に対して対向していない場合、ユーザは周辺に高い注意を払っていると推定される。この場合、周辺音を確認可能にすることが好ましい。
次に、図8を用いて、コンテンツ出力システム1Bにおける情報処理について説明する。図8に示すフローチャートのステップS131、ステップS132、ステップS134ないしステップS136は、図3に示すフローチャートのステップS101、ステップS102、ステップS103ないしステップS105と同様の処理を行う。
コンテンツ出力制御装置40Bは、ユーザの顔は対向しているか否かを判断する(ステップS133)。より詳しくは、顔検出部47Bが検出した顔の向きが、表示画面36に対して対向する向きである場合(ステップS133でYes)、ステップS134へ進む。顔検出部47Bが検出した顔の向きが、表示画面36に対して対向する向きではない場合(ステップS133でNo)、ステップS135へ進む。
<効果>
上述したように、本実施形態は、ユーザが表示画面36を注視して、かつ、ユーザの顔の向きが表示画面36に対して対向する場合、コンテンツの音声を出力し、ユーザが表示画面36を注視していないで、かつ、ユーザの顔の向きが表示画面36に対して対向する向きではない場合、周辺音取得部52が取得した周辺音を出力できる。本実施形態によれば、ユーザが顔の向きを表示画面36に対向しない向きにして、ユーザが周辺に注意を向けたと状態されるときに、適切に周辺音を確認できる。
図示したコンテンツ出力システム1の各構成要素は、機能概念的なものであり、必ずしも物理的に図示の如く構成されていなくてもよい。すなわち、各装置の具体的形態は、図示のものに限られず、各装置の処理負担や使用状況などに応じて、その全部または一部を任意の単位で機能的または物理的に分散または統合してもよい。
コンテンツ出力システム1の構成は、例えば、ソフトウェアとして、メモリにロードされたプログラムなどによって実現される。上記実施形態では、これらのハードウェアまたはソフトウェアの連携によって実現される機能ブロックとして説明した。すなわち、これらの機能ブロックについては、ハードウェアのみ、ソフトウェアのみ、または、それらの組み合わせによって種々の形で実現できる。
上記に記載した構成要素には、当業者が容易に想定できるもの、実質的に同一のものを含む。さらに、上記に記載した構成は適宜組み合わせが可能である。また、本発明の要旨を逸脱しない範囲において構成の種々の省略、置換または変更が可能である。
上記では、音声出力装置の一例としてヘッドホン10について説明したが、これに限定されない。音声出力装置は、例えば、イヤホンおよび首掛け式のスピーカなどであってもよい。
1 コンテンツ出力システム
10 ヘッドホン(音声出力装置)
11 左音声出力部
12 右音声出力部
14 左マイクロフォン
15 右マイクロフォン
30 電子機器
31 コンテンツ入力部
32 表示部
33 視線センサ
40 コンテンツ出力制御装置
41 映像取得部
42 表示制御部
43 視線検出部
44 注視判断部
50 音声処理部
51 音声取得部
52 周辺音取得部
53 音声出力制御部

Claims (6)

  1. 表示画面と同じ方向を向いて配置されている視線センサによってユーザの視線方向を検出する視線検出部と、
    前記視線検出部の検出結果に基づき、前記ユーザがコンテンツを表示した前記表示画面を注視しているか否かを判断する注視判断部と、
    前記ユーザが装着しているヘッドホンに備えられたマイクロフォンから前記ユーザの周辺音を取得する周辺音取得部と、
    前記ユーザが交通機関を利用していることを判断する判断部と、
    前記コンテンツに関する音声を取得する音声取得部と、
    前記ユーザが交通機関を利用している場合に、前記注視判断部が、前記ユーザがコンテンツを表示した前記表示画面を注視していると判断した場合は、前記音声取得部が取得した前記コンテンツに関する音声を出力し、前記ユーザがコンテンツを表示した前記表示画面を注視していないと判断した場合は、前記周辺音取得部が取得した周辺音を出力する音声出力制御部と、
    を備える、コンテンツ出力制御装置。
  2. 前記音声出力制御部は、前記ユーザがコンテンツを表示した前記表示画面を注視していないと判断した場合は、前記音声取得部が取得した前記コンテンツに関する音声に加えて、前記周辺音取得部が取得した周辺音を出力する、
    請求項1に記載のコンテンツ出力制御装置。
  3. 前記ユーザの顔を認識し、認識した顔の向きを検出する顔検出部、をさらに備え、
    前記音声出力制御部は、前記ユーザがコンテンツを表示した前記表示画面を注視していると判断したことに加えて、前記顔検出部が検出した顔の向きが、前記表示画面に対して対向する向きである場合に、前記音声取得部が取得した前記コンテンツに関する音声を出力し、前記ユーザがコンテンツを表示した前記表示画面を注視していないと判断したことに加えて、前記顔検出部が検出した顔の向きが、前記表示画面に対して対向する向きではない場合に、前記周辺音取得部が取得した周辺音を出力する、
    請求項1または2に記載のコンテンツ出力制御装置。
  4. 請求項1から3のいずれか一項に記載のコンテンツ出力制御装置と、
    周辺音を収音する収音部と、
    音声を出力する音声出力部と、
    を備える、コンテンツ出力システム
  5. 表示画面と同じ方向を向いて配置されている視線センサによって音声出力装置を利用しているユーザの視線方向を検出するステップと、
    視線方向の検出結果に基づき、前記ユーザがコンテンツを表示した前記表示画面を注視しているか否かを判断するステップと、
    前記ユーザが装着しているヘッドホンに備えられたマイクロフォンから前記ユーザの周辺音を取得するステップと、
    前記ユーザが交通機関を利用していることを判断するステップと、
    前記コンテンツに関する音声を取得するステップと、
    前記ユーザが交通機関を利用している場合に、前記ユーザがコンテンツを表示した前記表示画面を注視していると判断した場合は、前記コンテンツに関する音声を出力し、前記ユーザがコンテンツを表示した前記表示画面を注視していないと判断した場合は、周辺音を出力するステップと、
    を含む、コンテンツ出力制御装置が実行するコンテンツ出力制御方法
  6. 表示画面と同じ方向を向いて配置されている視線センサによって音声出力装置を利用しているユーザの視線方向を検出するステップと、
    視線方向の検出結果に基づき、前記ユーザがコンテンツを表示した前記表示画面を注視しているか否かを判断するステップと、
    前記ユーザが装着しているヘッドホンに備えられたマイクロフォンから前記ユーザの周辺音を取得するステップと、
    前記ユーザが交通機関を利用していることを判断するステップと、
    前記コンテンツに関する音声を取得するステップと、
    前記ユーザが交通機関を利用している場合に、前記ユーザがコンテンツを表示した前記表示画面を注視していると判断した場合は、前記コンテンツに関する音声を出力し、前記ユーザがコンテンツを表示した前記表示画面を注視していないと判断した場合は、周辺音を出力するステップと、
    を含む、コンピュータが実行するプログラム。

JP2020054197A 2020-03-25 2020-03-25 コンテンツ出力制御装置、コンテンツ出力システム、コンテンツ出力制御方法およびプログラム Active JP7424156B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020054197A JP7424156B2 (ja) 2020-03-25 2020-03-25 コンテンツ出力制御装置、コンテンツ出力システム、コンテンツ出力制御方法およびプログラム
PCT/JP2020/043489 WO2021192410A1 (ja) 2020-03-25 2020-11-20 音声出力制御装置、音声出力システム、音声出力制御方法およびプログラム
CN202080093491.2A CN114981756B (zh) 2020-11-20 声音输出控制装置、声音输出系统、声音输出控制方法以及计算机可读取的存储介质
US17/946,162 US12207070B2 (en) 2020-03-25 2022-09-16 Sound output control device, sound output system, sound output control method, and computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020054197A JP7424156B2 (ja) 2020-03-25 2020-03-25 コンテンツ出力制御装置、コンテンツ出力システム、コンテンツ出力制御方法およびプログラム

Publications (3)

Publication Number Publication Date
JP2021157246A JP2021157246A (ja) 2021-10-07
JP2021157246A5 JP2021157246A5 (ja) 2022-09-13
JP7424156B2 true JP7424156B2 (ja) 2024-01-30

Family

ID=77917786

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020054197A Active JP7424156B2 (ja) 2020-03-25 2020-03-25 コンテンツ出力制御装置、コンテンツ出力システム、コンテンツ出力制御方法およびプログラム

Country Status (1)

Country Link
JP (1) JP7424156B2 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011203654A (ja) 2010-03-26 2011-10-13 Sony Corp 音声再生装置、音声再生方法およびプログラム
WO2012102130A1 (ja) 2011-01-27 2012-08-02 株式会社ニコン 撮像装置、プログラム、記録媒体およびノイズ低減方法
WO2012165657A1 (ja) 2011-06-03 2012-12-06 日本電気株式会社 音声処理システム、音声処理装置、音声処理方法およびそのプログラム
WO2017056604A1 (ja) 2015-09-29 2017-04-06 ソニー株式会社 情報処理装置及び情報処理方法並びにプログラム
WO2018061491A1 (ja) 2016-09-27 2018-04-05 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
WO2020031767A1 (ja) 2018-08-09 2020-02-13 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
WO2020045328A1 (ja) 2018-08-27 2020-03-05 日本精機株式会社 表示装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2999596B2 (ja) * 1991-07-10 2000-01-17 新日本無線株式会社 補聴器
JP2001018717A (ja) * 1999-07-06 2001-01-23 Matsushita Electric Ind Co Ltd 運転車両周辺監視装置
JP5987538B2 (ja) * 2012-08-03 2016-09-07 株式会社リコー 制御装置、プログラムおよび制御システム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011203654A (ja) 2010-03-26 2011-10-13 Sony Corp 音声再生装置、音声再生方法およびプログラム
WO2012102130A1 (ja) 2011-01-27 2012-08-02 株式会社ニコン 撮像装置、プログラム、記録媒体およびノイズ低減方法
WO2012165657A1 (ja) 2011-06-03 2012-12-06 日本電気株式会社 音声処理システム、音声処理装置、音声処理方法およびそのプログラム
WO2017056604A1 (ja) 2015-09-29 2017-04-06 ソニー株式会社 情報処理装置及び情報処理方法並びにプログラム
WO2018061491A1 (ja) 2016-09-27 2018-04-05 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
WO2020031767A1 (ja) 2018-08-09 2020-02-13 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
WO2020045328A1 (ja) 2018-08-27 2020-03-05 日本精機株式会社 表示装置

Also Published As

Publication number Publication date
JP2021157246A (ja) 2021-10-07

Similar Documents

Publication Publication Date Title
US10219571B1 (en) In helmet sensors providing blind spot awareness
JP6743691B2 (ja) 表示制御装置、表示制御方法およびコンピュータプログラム
CN108028957B (zh) 信息处理装置、信息处理方法和机器可读介质
CN110634189B (zh) 用于在沉浸式混合现实体验期间用户警报的系统和方法
JP6409318B2 (ja) 情報呈示装置及び情報呈示方法
US9351090B2 (en) Method of checking earphone wearing state
US12032155B2 (en) Method and head-mounted unit for assisting a hearing-impaired user
US20170070730A1 (en) Imaging apparatus and imaging method
US9774978B2 (en) Position determination apparatus, audio apparatus, position determination method, and program
CN101203071A (zh) 立体声声音控制设备和立体声声音控制方法
CN110708630B (zh) 控制耳机的方法、装置、设备及存储介质
WO2017175432A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2015071320A (ja) 会話支援装置、会話支援方法及び会話支援プログラム
JP7447602B2 (ja) コンテンツ出力制御装置、コンテンツ出力システム、コンテンツ出力制御方法およびプログラム
US11037519B2 (en) Display device having display based on detection value, program, and method of controlling device
CN114868071B (zh) 在机动车中运行头戴式显示设备的方法、控制设备和头戴式显示设备
JP2020086726A (ja) 運転支援装置、ウェアラブル装置、運転支援方法およびプログラム
JP7424156B2 (ja) コンテンツ出力制御装置、コンテンツ出力システム、コンテンツ出力制御方法およびプログラム
CN109831817B (zh) 终端控制方法、装置、终端及存储介质
FR3047628A1 (fr) Procede d'aide au suivi d'une conversation pour personne malentendante
US12207070B2 (en) Sound output control device, sound output system, sound output control method, and computer-readable storage medium
JP6766403B2 (ja) 頭部装着型表示装置、頭部装着型表示装置の制御方法、コンピュータープログラム
US20190073183A1 (en) Information processing apparatus, information processing method, and program
JP7443877B2 (ja) 音声出力制御装置、音声出力システム、音声出力制御方法およびプログラム
JP2021157245A5 (ja)

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220905

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240101

R150 Certificate of patent or registration of utility model

Ref document number: 7424156

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150