JP7424156B2 - Content output control device, content output system, content output control method, and program - Google Patents
Content output control device, content output system, content output control method, and program Download PDFInfo
- Publication number
- JP7424156B2 JP7424156B2 JP2020054197A JP2020054197A JP7424156B2 JP 7424156 B2 JP7424156 B2 JP 7424156B2 JP 2020054197 A JP2020054197 A JP 2020054197A JP 2020054197 A JP2020054197 A JP 2020054197A JP 7424156 B2 JP7424156 B2 JP 7424156B2
- Authority
- JP
- Japan
- Prior art keywords
- content
- user
- display screen
- audio
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 25
- 238000001514 detection method Methods 0.000 claims description 28
- 230000002093 peripheral effect Effects 0.000 claims description 9
- 238000010586 diagram Methods 0.000 description 9
- 210000003128 head Anatomy 0.000 description 5
- 230000000694 effects Effects 0.000 description 3
- 230000010365 information processing Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 238000010420 art technique Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Description
本発明は、コンテンツ出力制御装置、コンテンツ出力システム、コンテンツ出力制御方法およびプログラムに関する。 The present invention relates to a content output control device, a content output system, a content output control method, and a program.
音声出力可能な電子書籍やゲームなど、表示画面にコンテンツ内容を表示することに加えて、音声を出力する技術が知られている(例えば、特許文献1参照)。 2. Description of the Related Art Techniques for outputting audio in addition to displaying content on a display screen, such as electronic books and games that can output audio, are known (for example, see Patent Document 1).
ところが、このような装置を、例えば公共交通機関などの乗車時に利用している場合、車内放送などの周辺音が聞き取りにくい場合などがある。 However, when such a device is used, for example, while riding on public transportation, it may be difficult to hear surrounding sounds such as in-car announcements.
本発明は、上記に鑑みてなされたものであって、適切に周辺音の確認を可能にすることを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to enable appropriate confirmation of surrounding sounds.
上述した課題を解決し、目的を達成するために、本発明に係るコンテンツ出力制御装置は、ユーザの視線方向を検出する視線検出部と、前記視線検出部の検出結果に基づき、前記ユーザがコンテンツを表示した表示画面を注視しているか否かを判断する注視判断部と、周辺音を取得する周辺音取得部と、前記コンテンツに関する音声を取得する音声取得部と、前記注視判断部が、前記ユーザがコンテンツを表示した表示画面を注視していると判断した場合は、前記音声取得部が取得した前記コンテンツに関する音声を出力し、前記ユーザがコンテンツを表示した表示画面を注視していないと判断した場合は、前記周辺音取得部が取得した周辺音を出力する音声出力制御部と、を備える。 In order to solve the above-mentioned problems and achieve the purpose, a content output control device according to the present invention includes a line-of-sight detecting section that detects the direction of the user's line-of-sight, and a line-of-sight detecting section that detects the direction of the user's line of sight. a gaze determination unit that determines whether or not the user is gazing at a display screen displaying the content; a peripheral sound acquisition unit that acquires ambient sound; an audio acquisition unit that acquires audio related to the content; If it is determined that the user is gazing at a display screen displaying content, the audio acquisition unit outputs the acquired audio related to the content, and it is determined that the user is not gazing at the display screen displaying content. In this case, the apparatus further includes an audio output control section that outputs the ambient sound acquired by the ambient sound acquisition section.
本発明に係るコンテンツ出力システムは、上記のコンテンツ出力制御装置と、周辺音を収音する収音部と、音声を出力する音声出力部と、を備える。 A content output system according to the present invention includes the content output control device described above, a sound collection unit that collects ambient sound, and an audio output unit that outputs audio.
本発明に係るコンテンツ出力制御方法は、音声出力装置を利用しているユーザの視線方向を検出するステップと、視線方向の検出結果に基づき、前記ユーザがコンテンツを表示した表示画面を注視しているか否かを判断するステップと、周辺音を取得するステップと、前記コンテンツに関する音声を取得するステップと、前記ユーザがコンテンツを表示した表示画面を注視していると判断した場合は、前記コンテンツに関する音声を出力し、前記ユーザがコンテンツを表示した表示画面を注視していないと判断した場合は、周辺音を出力するステップと、を含む。 The content output control method according to the present invention includes the steps of: detecting the gaze direction of a user using an audio output device; and determining whether the user is gazing at a display screen displaying content based on the detection result of the gaze direction. a step of determining whether or not the content is displayed; a step of obtaining ambient sound; a step of obtaining audio related to the content; and, if it is determined that the user is not gazing at a display screen displaying content, outputting ambient sound.
本発明に係るプログラムは、音声出力装置を利用しているユーザの視線方向を検出するステップと、視線方向の検出結果に基づき、前記ユーザがコンテンツを表示した表示画面を注視しているか否かを判断するステップと、周辺音を取得するステップと、前記コンテンツに関する音声を取得するステップと、前記ユーザがコンテンツを表示した表示画面を注視していると判断した場合は、前記コンテンツに関する音声を出力し、前記ユーザがコンテンツを表示した表示画面を注視していないと判断した場合は、周辺音を出力するステップと、をコンピュータに実行させる。 The program according to the present invention includes the steps of detecting the line of sight direction of a user using an audio output device, and determining whether or not the user is gazing at a display screen displaying content based on the detection result of the line of sight direction. a step of determining, a step of acquiring ambient sound, a step of acquiring audio related to the content, and if it is determined that the user is gazing at a display screen displaying the content, outputting audio related to the content. , if it is determined that the user is not gazing at the display screen displaying the content, the computer is caused to perform the steps of outputting ambient sound.
本発明によれば、適切に周辺音の確認できるという効果を奏する。 According to the present invention, it is possible to appropriately confirm surrounding sounds.
以下に添付図面を参照して、本発明に係るコンテンツ出力システム1の実施形態を詳細に説明する。なお、以下の実施形態により本発明が限定されるものではない。 DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of a content output system 1 according to the present invention will be described in detail below with reference to the accompanying drawings. Note that the present invention is not limited to the following embodiments.
[第一実施形態]
<コンテンツ出力システム>
図1は、第一実施形態に係るコンテンツ出力システム1を示す概略図である。図2は、第一実施形態に係るコンテンツ出力システム1を示すブロック図である。コンテンツ出力システム1は、音声出力装置としてのヘッドホン10と、例えば、電子書籍端末、スマートフォン、タブレット端末、携帯用音楽再生装置、および、携帯用ゲーム機など、映像および音声で構成されるコンテンツのコンテンツ再生や表示等を行う電子機器30とを含む。言い換えると、コンテンツ出力システム1は、音声出力装置としてのヘッドホン10と電子機器30との組み合わせである。コンテンツ出力システム1は、ユーザが表示画面36を注視しているか否かに応じて、ヘッドホン10から表示画面36に表示したコンテンツに関する音声を出力したり、周辺の音声を出力したりする。
[First embodiment]
<Content output system>
FIG. 1 is a schematic diagram showing a content output system 1 according to the first embodiment. FIG. 2 is a block diagram showing the content output system 1 according to the first embodiment. The content output system 1 includes
<ヘッドホン>
ヘッドホン10は、例えばオーバーヘッド式で、ユーザの頭に装着する。ヘッドホン10は、電子機器30のコンテンツ出力制御装置40から出力される音声データに基づいて、表示画面36に表示したコンテンツに関する音声を出力する。ヘッドホン10は、コンテンツ出力制御装置40から出力される音声信号に基づいて、周辺音を出力可能である。ヘッドホン10は、電子機器30と有線または無線でデータを送受信可能に接続されている。ヘッドホン10は、左音声出力部11と右音声出力部12とコンテンツ入力部31と左マイクロフォン14と右マイクロフォン15とコンテンツ出力制御装置40とを有する。
<Headphones>
The
左音声出力部11は、左耳用の音声出力部である。左音声出力部11は、左耳を覆う筐体を有する。左音声出力部11は、左耳において聞かせる音声を出力する。左音声出力部11は、コンテンツ出力制御装置40から音声データを取得する。左音声出力部11は、音声データの左チャンネルデータを出力する。左音声出力部11は、音声データの左チャンネルデータをD/A変換して得られた電気信号を音に変換して出力する。
The left
右音声出力部12は、右耳用の音声出力部である。右音声出力部12は、右耳において聞かせる音声を出力する。右音声出力部12は、コンテンツ出力制御装置40から音声データを取得する。右音声出力部12は、音声データの右チャンネルデータを出力する。右音声出力部12は、音声データの右チャンネルデータをD/A変換して得られた電気信号を音に変換して出力する。
The right
左マイクロフォン14は、左音声出力部11の筐体に配置されている。左マイクロフォン14は、周辺音を取得する。周辺音は、例えば第三者の話し声および乗物の騒音などを含む環境音である。左マイクロフォン14は、取得した音声を電子機器30の周辺音取得部52に出力する。
The
右マイクロフォン15は、右音声出力部12の筐体に配置されている。右マイクロフォン15は、周辺音を取得する。右マイクロフォン15は、取得した音声を電子機器30の周辺音取得部52に出力する。
The
<電子機器>
電子機器30は、コンテンツ入力部31と、表示部32と、視線センサ33と、コンテンツ出力制御装置40とを有する。
<Electronic equipment>
The
コンテンツ入力部31は、例えば音楽、映像またはゲームなどのコンテンツのコンテンツデータが入力される。コンテンツ入力部31は、例えば図示しない記憶部に記憶されたコンテンツデータが入力されてもよい。コンテンツ入力部31は、外部の記憶装置から、有線または無線でコンテンツデータが入力されてもよい。コンテンツ入力部31に入力されるコンテンツデータは、例えば、音声出力を伴うコンテンツデータであり、動画コンテンツ、ゲームコンテンツ、WEBコンテンツなどである。
The
コンテンツデータには、コンテンツに関する映像データと音声データとを含む。コンテンツに関する映像データとは、表示画面36に表示するコンテンツの映像データである。コンテンツに関する音声データとは、表示画面36に表示されたコンテンツの映像データに対応して出力する音声の音声データである。コンテンツに関する音声データとは、例えば、電子書籍のテキスト読み上げの音声、WEBページのテキスト読み上げ音声および解説音声などでもよい。 The content data includes video data and audio data related to the content. The video data related to the content is the video data of the content displayed on the display screen 36. The audio data related to the content is the audio data of the audio output corresponding to the video data of the content displayed on the display screen 36. The audio data related to the content may be, for example, the audio of text reading of an electronic book, the audio of text reading of a web page, and the audio of commentary.
視線センサ33は、電子機器30の表示画面36と同じ方向を向いて配置されている。視線センサ33は、電子機器30の表示画面36と対面している人物の視線を検出するセンサである。視線センサ33は、ユーザが表示画面36を視認している状態では、ユーザの顔と向かい合う位置に配置されている。視線センサ33は、例えば、電子機器30の表示画面36の上部に配置されている。視線センサ33は、撮影した撮影データをコンテンツ出力制御装置40の視線検出部43へ出力する。
The line of
視線センサ33は、例えば、赤外LED群で構成された赤外光発光部と、一対の赤外線カメラとを含む。本実施形態では、視線センサ33は、一対の赤外光発光部でユーザの顔方向に赤外光を照射し、赤外線カメラで撮影する。このようにして赤外線カメラで撮影した撮影映像から、後述する視線検出部43が、ユーザの瞳孔と角膜反射の位置とに基づいて、ユーザの視線が表示画面36を向いているか否かを判断する。さらに、ユーザの瞳孔と角膜反射の位置とに基づいて、表示画面36におけるユーザの視線の位置が判断される。視線センサ33は、可視光カメラなど、同様の機能を有する他の構成であってもよい。
The line-of-
表示部32は、コンテンツ入力部31に入力されたコンテンツの映像を表示する。表示部32は、液晶ディスプレイ(LCD:Liquid Crystal Display)または有機EL(Organic Electro-Luminescence)ディスプレイなどを含むディスプレイである。表示部32は、表示制御部42から出力された表示データに基づいて、コンテンツの映像を表示する。表示部32は、映像が表示される表示画面36を備える。
The
ヘッドホン10には、ヘッドホン10がユーザの頭に装着されているか否かを検出するセンサが備えられていてもよい。具体的には、ヘッドホン10には3軸の加速度センサが備えられ、重力加速度が検出されている方向に基づいて、ヘッドホン10がユーザの頭に装着されていると判断する。さらに、例えばヘッドバンドの開き具合またはイヤーパッドへの圧力などを検出する他のセンサを使用してもよい。
The
<コンテンツ出力制御装置>
コンテンツ出力制御装置40は、ユーザが表示画面36を注視しているか否かに応じて、ヘッドホン10からコンテンツに関する音声を出力したり、周辺音を出力したりする。コンテンツ出力制御装置40は、例えば、CPU(Central Processing Unit)または映像処理用プロセッサなどで構成された演算処理装置(制御部)である。コンテンツ出力制御装置40は、図示しない記憶部に記憶されているプログラムをメモリにロードして、プログラムに含まれる命令を実行する。コンテンツ出力制御装置40は、映像取得部41と表示制御部42と視線検出部43と注視判断部44と音声処理部50と内部メモリである記憶部とが含まれる。音声処理部50は、音声取得部51と周辺音取得部52と音声出力制御部53とを有する。コンテンツ出力制御装置40は、一または複数の装置で構成されていてもよい。
<Content output control device>
The content
映像取得部41は、表示部32の表示画面36に出力するためのコンテンツの映像データをコンテンツ入力部31から取得する。
The
表示制御部42は、映像取得部41が取得したコンテンツの映像データを表示部32の表示画面36に表示させる。
The
視線検出部43は、視線センサ33が撮影した撮影データに基づいて、ユーザの視線方向を検出する。視線を検出する方法は限定されないが、本実施形態では、角膜反射によって視線を検出する。
The line-of-
注視判断部44は、視線検出部43の検出結果に基づき、ユーザがコンテンツを表示した電子機器30の表示画面36を注視しているか否かを判断する。表示画面36を注視しているとは、ユーザの視線方向に表示画面36が位置した状態、言い換えると、ユーザの視線方向と表示画面36とが交差する状態が、第一所定期間以上継続することをいう。第一所定期間とは、例えば5秒程度である。表示画面36を注視していないとは、ユーザの視線方向が表示画面36と異なる方向に向いている状態、言い換えると、ユーザの視線方向と表示画面36とが交差しない状態が、第二所定期間以上継続することをいう。第二所定期間とは、例えば5秒程度である。
The
音声取得部51は、左音声出力部11と右音声出力部12とから出力するためのコンテンツに関する音声データをコンテンツ入力部31から取得する。
The
周辺音取得部52は、左マイクロフォン14と右マイクロフォン15とから、周辺音を取得する。
The surrounding
音声出力制御部53は、ヘッドホン10から音声データを音として出力する制御を行う。より詳しくは、音声出力制御部53は、音声データの左チャンネルデータをD/A変換して増幅した信号を左音声出力部11から出力させる。音声出力制御部53は、音声データの右チャンネルデータをD/A変換して増幅した信号を右音声出力部12から出力させる。
The audio
音声出力制御部53は、注視判断部44が、ユーザがコンテンツを表示した表示画面36を注視していると判断した場合は、音声取得部51が取得したコンテンツに関する音声を出力し、ユーザがコンテンツを表示した表示画面36を注視していないと判断した場合は、周辺音取得部52が取得した周辺音を出力する。
If the
音声出力制御部53は、注視判断部44が、ユーザがコンテンツを表示した表示画面36を注視していないと判断した場合は、音声取得部51が取得したコンテンツに関する音声に加えて、周辺音取得部52が取得した周辺音を出力してもよい。この場合は、コンテンツに関する音声とともに周辺音がヘッドホン10から出力される。
If the
次に、図3、図4を用いて、ヘッドホン10における情報処理について説明する。図3は、第一実施形態に係るコンテンツ出力システム1における処理の流れの一例を示すフローチャートである。図4は、第一実施形態に係るコンテンツ出力システム1における処理の流れの他の例を示すフローチャートである。例えば、ヘッドホン10の電源がONになった場合、ヘッドホン10がユーザの頭に装着された場合、ヘッドホン10から音声の出力が開始された場合、または、コンテンツ出力制御処理の開始操作がされた場合などに、図3、図4に示すフローチャートの処理が実行される。
Next, information processing in the
まず、図3に示す処理について説明する。コンテンツ出力制御装置40は、音声出力を伴うコンテンツが表示部32に表示されているか否かを判断する(ステップS101)。より詳しくは、コンテンツ入力部31に入力された、音声および映像からなるコンテンツが再生され、コンテンツの映像が表示部32に表示され、コンテンツの音声がヘッドホン10に出力されているか否かを判断する。言い換えると、音声および映像からなるコンテンツが再生されているか否かを判断する。音声出力を伴うコンテンツが表示部32に表示されている状態とは、表示部32にコンテンツの映像が表示され、コンテンツの音声がヘッドホン10に出力されている状態であり、これらの出力は、コンテンツの再生が終了するまで継続される。
First, the processing shown in FIG. 3 will be explained. The content
音声出力を伴うコンテンツが表示部32に表示されていると判断する場合(ステップS101でYes)、ステップS102へ進む。音声出力を伴うコンテンツが表示部32に表示されていると判断しない場合(ステップS101でNo)、本処理を終了する。音声出力を伴うコンテンツが表示部32に表示されていると判断する場合(ステップS101でYes)、ユーザが表示画面36を注視しているか否かを判断する(ステップS101)。より詳しくは、注視判断部44によって、視線検出部43の検出結果から、ユーザがコンテンツを表示した電子機器30の表示画面36を注視しているか否かを判断する。注視判断部44によって、ユーザの視線方向に表示画面36が位置した状態が、第一所定期間以上継続いるか否かを判断する。注視判断部44によって、ユーザが表示画面36を注視していると判断する場合(ステップS102でYes)、ステップS103へ進む。注視判断部44によって、ユーザが表示画面36を注視していると判断しない場合(ステップS102でNo)、ステップS104へ進む。
If it is determined that content accompanied by audio output is being displayed on the display unit 32 (Yes in step S101), the process advances to step S102. If it is not determined that content accompanied by audio output is being displayed on the display unit 32 (No in step S101), this process ends. If it is determined that content with audio output is being displayed on the display unit 32 (Yes in step S101), it is determined whether the user is gazing at the display screen 36 (step S101). More specifically, the
ユーザが表示画面36を注視していると判断する場合(ステップS102でYes)、コンテンツ出力制御装置40は、コンテンツの音声を出力する(ステップS103)。より詳しくは、音声出力制御部53は、音声取得部51が取得した、コンテンツに関する音声をヘッドホン10から出力する。これにより、ヘッドホン10の左音声出力部11と右音声出力部12とからコンテンツの音声が出力される。コンテンツ出力制御装置40は、ステップS105へ進む。
If it is determined that the user is gazing at the display screen 36 (Yes in step S102), the content
ステップS103の処理は、ステップS101でYesのときに周辺音が出力されていない状態の場合は周辺音が出力されていない状態でコンテンツ音の出力を継続し、ステップS101でYesのときに周辺音が出力されている状態の場合はコンテンツ音の出力を継続し周辺音の出力を停止する。 In the process of step S103, if the result in step S101 is Yes and the ambient sound is not being output, the output of the content sound is continued while the peripheral sound is not being output. is being output, the output of the content sound is continued and the output of the surrounding sound is stopped.
ユーザが表示画面36を注視していると判断しない場合(ステップS102でNo)、コンテンツ出力制御装置40は、周辺音を出力する(ステップS104)。より詳しくは、音声出力制御部53は、周辺音取得部52が取得した周辺音を出力する。これにより、ヘッドホン10の左音声出力部11と右音声出力部12とから周辺音が出力される。コンテンツ出力制御装置40は、ステップS105へ進む。
If it is not determined that the user is gazing at the display screen 36 (No in step S102), the content
ステップS104の処理は、ステップS101でYesのときに周辺音が出力されていない状態の場合は周辺音の出力を開始し、ステップS101でYesのときに周辺音が出力されている状態の場合は周辺音の出力を維持する。 In the process of step S104, if the answer is Yes in step S101 and the surrounding sound is not being output, output of the surrounding sound is started, and if the answer is Yes in step S101 and the ambient sound is being output, the output of the surrounding sound is started. Maintains ambient sound output.
コンテンツ出力制御装置40は、ヘッドホン10や電子機器30などのコンテンツ出力システム1の利用を終了するか否かを判断する(ステップS105)。例えば、ヘッドホン10や電子機器30の電源がOFFになった場合、ヘッドホン10がユーザの頭から取り外された場合、ヘッドホン10への音声の出力が停止された場合、または、コンテンツ出力制御処理の終了操作がされた場合などに、利用を終了すると判断して(ステップS105でYes)、処理を終了する。コンテンツ出力制御装置40は、上記に該当しない場合、利用を終了すると判断せずに(ステップS105でNo)、ステップS101の処理を再度実行する。
The content
つづいて、図4に示す処理について説明する。図4に示すフローチャートのステップS111、ステップS112、ステップS113、ステップS115は、図3に示すフローチャートのステップS101、ステップS102、ステップS103、ステップS105と同様の処理を行う。 Next, the processing shown in FIG. 4 will be explained. Steps S111, S112, S113, and S115 in the flowchart shown in FIG. 4 perform the same processing as steps S101, S102, S103, and S105 in the flowchart shown in FIG.
ユーザが表示画面36を注視していると判断しない場合(ステップS112でNo)、コンテンツ出力制御装置40は、コンテンツに関する音声とともに、周辺音を出力する(ステップS114)。より詳しくは、音声取得部51が取得したコンテンツに関する音声とともに、周辺音取得部52が取得した周辺音をヘッドホン10の左音声出力部11と右音声出力部12とから出力する。コンテンツ出力制御装置40は、ステップS115へ進む。
If it is not determined that the user is gazing at the display screen 36 (No in step S112), the content
ステップS113の処理は、ステップS111でYesのときに周辺音が出力されていない状態の場合は周辺音が出力されていない状態でコンテンツ音の出力を継続し、ステップS111でYesのときにコンテンツ音と周辺音が出力されている状態の場合はコンテンツ音の出力を継続し周辺音の出力を停止する。 The process of step S113 is to continue outputting the content sound when the ambient sound is not being output when the answer is Yes in step S111, and to continue outputting the content sound when the ambient sound is not being output. If the ambient sound is being output, the output of the content sound is continued and the output of the ambient sound is stopped.
ステップS114の処理は、ステップS111でYesのときにコンテンツ音が出力され周辺音が出力されていない状態の場合はコンテンツ音の出力を維持した状態で周辺音の出力を開始し、ステップS111でYesのときにコンテンツ音と周辺音が出力されている状態の場合はコンテンツ音と周辺音の出力を維持する。 In the process of step S114, if the content sound is outputted and the surrounding sound is not outputted when the answer is Yes in step S111, output of the surrounding sound is started while the output of the content sound is maintained, and if the answer is Yes in the step S111. If the content sound and ambient sound are being output at the time of , the output of the content sound and ambient sound is maintained.
ステップS114で、コンテンツ音とともに周辺音を出力する場合は、コンテンツ音の音量はユーザが設定した音量の状態であってもよく、周辺音を出力している期間のコンテンツ音の音量をユーザが設定した音量より低くしてもよい。 In step S114, when the ambient sound is output together with the content sound, the volume of the content sound may be set by the user, and the volume of the content sound during the period when the ambient sound is output is set by the user. You can set the volume to a lower level.
このようにして、ヘッドホン10を装着しているユーザが表示画面36を注視している場合、コンテンツに関する音声を出力し、ユーザが表示画面36を注視していない場合、周辺音を出力する。
In this way, when the user wearing the
<効果>
上述したように、本実施形態は、ヘッドホン10を装着しているユーザが表示画面36を注視している場合、コンテンツの音声を出力し、ユーザが表示画面36を注視していない場合、周辺音を出力できる。本実施形態によれば、ユーザが表示画面36を注視することを中断して、ユーザが周辺に注意を向けたと推定される状態となった場合に、適切に周辺音を確認できる。このようにして、本実施形態によれば、ユーザが周辺音を聞きたいときに、ユーザが操作をしなくても、適切に周辺音を確認できる。
<Effect>
As described above, this embodiment outputs the audio of the content when the user wearing the
本実施形態では、ユーザが表示画面36を注視していない場合、コンテンツの音声とともに周辺音を出力できる。本実施形態によれば、コンテンツの視聴を継続しながら、周辺音を確認できる。 In this embodiment, when the user is not looking at the display screen 36, ambient sounds can be output together with the audio of the content. According to this embodiment, it is possible to check surrounding sounds while continuing to view content.
[第二実施形態]
図5、図6を参照しながら、本実施形態に係るコンテンツ出力システム1Aについて説明する。図5は、第二実施形態に係るコンテンツ出力システム1Aのブロック図である。図6は、第二実施形態に係るコンテンツ出力システム1Aにおける処理の流れの一例を示すフローチャートである。コンテンツ出力システム1Aは、基本的な構成は第一実施形態のコンテンツ出力システム1と同様である。以下の説明においては、コンテンツ出力システム1と同様の構成要素には、同一の符号または対応する符号を付し、その詳細な説明は省略する。本実施形態では、電子機器30Aは、GNSS(Global Navigation Satellite System)受信部34Aとコンテンツ出力制御装置40Aの位置情報算出部45Aと判断部46Aとを有する点と、音声出力制御部53Aにおける処理とが、第一実施形態と異なる。
[Second embodiment]
A
GNSS受信部34Aは、GNSS衛星からのGNSS信号を受信するGNSS受信機などで構成される。GNSS受信部34Aは、受信したGNSS信号を位置情報算出部45Aに出力する。
The
位置情報算出部45Aは、GNSS受信部34AからGNSS信号を受け付ける。位置情報算出部45Aは、GNSS信号に基づいて、現在位置情報を算出する。位置情報算出部45AおよびGNSS受信部34Aは、GNSS信号に限らず、他の方式の測位衛星システムに対応していてもよい。
The position
判断部46Aは、ユーザが交通機関を利用しているか否かを判断する。例えば、判断部46Aは、位置情報算出部45Aが算出した位置情報に基づいて、ヘッドホン10を装着したユーザの現在位置が、図示しない地図情報の交通機関の位置情報に該当する場合や、移動履歴や移動速度に基づいて、交通機関を利用していると判断してもよい。判断部46Aは、交通機関を利用しているかを判断する方法は限定されず、例えば、ヘッドホン10の周辺のノイズまたは振動を利用するような他の方法によって判断されてもよい。
The determining
音声出力制御部53Aは、ユーザが交通機関を利用している場合に、ユーザがコンテンツを表示した表示画面36を注視していると判断した場合は、音声取得部51が取得したコンテンツに関する音声を出力し、ユーザがコンテンツを表示した表示画面36を注視していないと判断した場合は、周辺音取得部52が取得した周辺音を出力する。
If the audio output control unit 53A determines that the user is gazing at the display screen 36 on which content is displayed while the user is using transportation, the audio output control unit 53A outputs audio related to the content acquired by the
次に、図6を用いて、コンテンツ出力システム1Aにおける情報処理について説明する。図6に示すフローチャートのステップS122ないしステップS126、は、図3に示すフローチャートのステップS101ないしステップS105と同様の処理を行う。
Next, information processing in the
コンテンツ出力制御装置40Aは、交通機関を利用しているか否かを判断する(ステップS121)。より詳しくは、判断部46Aによって、位置情報算出部45Aが算出した位置情報に基づいて、ユーザの現在位置が、地図情報の交通機関の位置情報に該当する場合などの判断結果に基づき、交通機関を利用していると判断する。判断部46Aによって、交通機関を利用していると判断する場合(ステップS121でYes)、ステップS122へ進む。判断部46Aによって、交通機関を利用していると判断しない場合(ステップS121でNo)、処理を終了する。
The content
ステップS126における利用終了の判断は、ヘッドホン10または電子機器30Aの利用終了の判断に加えて、コンテンツ出力制御装置40Aは、交通機関の利用を終了するか否かも判断する(ステップS126)。より詳しくは、判断部46Aによって、位置情報算出部45Aが算出した位置情報に基づいて、ユーザの現在位置が、地図情報の交通機関の位置情報から外れる場合など、交通機関の利用が終了していることの検出によって、交通機関の利用を終了すると判断する。判断部46Aによって、交通機関の利用を終了すると判断する場合(ステップS126でYes)、処理を終了する。判断部46Aによって、交通機関の利用を終了すると判断しない場合(ステップS126でNo)、ステップS122へ進む。
In addition to determining whether to end the use of the
<効果>
上述したように、本実施形態は、ヘッドホン10を装着したユーザが交通機関を利用している場合であって、ユーザが表示画面36を注視していない場合には、周辺音を出力する。本実施形態によれば、ヘッドホン10を装着したユーザが交通機関の利用中に、アナウンスなどを聞くために、コンテンツの表示画面36を注視しなくなった場合などに、アナウンスなどの周辺音をヘッドホン10で聞くことができる。本実施形態によれば、不用意に周辺音が出力されることを抑制できる。
<Effect>
As described above, in this embodiment, when the user wearing the
[第三実施形態]
図7、図8を参照しながら、本実施形態に係るコンテンツ出力システム1Bについて説明する。図7は、第三実施形態に係るコンテンツ出力システム1Bのブロック図である。図8は、第三実施形態に係るコンテンツ出力システム1Bにおける処理の流れの一例を示すフローチャートである。コンテンツ出力システム1Bは、基本的な構成は第一実施形態のコンテンツ出力システム1と同様である。本実施形態では、電子機器30Bは、撮影部35Bと、コンテンツ出力制御装置40Bの顔検出部47Bとを有する点と、音声出力制御部53Bにおける処理とが、第一実施形態と異なる。
[Third embodiment]
The
撮影部35Bは、電子機器30Bの表示画面36と対面している人物を撮影する可視光カメラである。撮影部35Bは、ユーザの顔を撮影する。撮影部35Bは、ユーザが表示画面を視認している状態では、ユーザの顔を撮影可能な位置に配置されている。撮影部35Bは、例えば、電子機器30Bの表示画面36の上部に配置されている。撮影部35Bは、撮影した撮影データをコンテンツ出力制御装置40Bの顔検出部47Bへ出力する。撮影部33Aと視線センサ33とは、同一の可視光カメラであってもよい。
The photographing
顔検出部47Bは、撮影部35Bが撮影した撮影データからユーザの顔を認識し、認識した顔の向きを検出する。より詳しくは、顔検出部47Bは、顔検出部47Bが検出した顔の向きが、表示画面36に対して対向する向きであるか否かを検出する。例えばユーザがコンテンツが表示された表示画面36を注視している場合には、ユーザの顔の向きは表示画面36に対して対向する向きである。例えばユーザが周辺に注意を向けて周りを見回すような場合には、ユーザの顔の向きは表示画面36に対して対向する向きではない。
The
表示画面36に対して対向する向きとは、ユーザが表示画面36に表示されたコンテンツの画像などを視認可能な向きのことである。表示画面36に対して対向する向きとは、例えば、上下方向視および左右方向視において、ユーザの両眼の中心を通り、ユーザの前方に延びる直線と、表示画面36とが交差する角度が例えば90°±30°程度の範囲など、明らかにユーザが表示画面36を見ているとされる向きが定義されればよい。 The direction facing the display screen 36 refers to the direction in which the user can visually recognize the image of the content displayed on the display screen 36. The direction facing the display screen 36 is, for example, the angle at which the display screen 36 intersects a straight line that passes through the center of the user's eyes and extends in front of the user in the vertical and horizontal directions. The direction in which the user is clearly viewing the display screen 36 may be defined, such as a range of about 90°±30°.
音声出力制御部53Bは、注視判断部44によってユーザがコンテンツを表示した表示画面36を注視していると判断したことに加えて、顔検出部47Bが検出した顔の向きが、表示画面36に対して対向する向きである場合に、音声取得部51が取得したコンテンツに関する音声を出力する。音声出力制御部53Bは、注視判断部44によってユーザがコンテンツを表示した表示画面36を注視していないと判断したことに加えて、顔検出部47Bが検出した顔の向きが、表示画面36に対して対向する向きではない場合に、周辺音取得部52が取得した周辺音を出力する。ユーザがコンテンツを表示した表示画面36を注視していない場合でも、ユーザの顔の向きが表示画面36に対して対向する場合、ユーザがコンテンツの視聴を継続する意思があると推定される。この場合、コンテンツの視聴を継続させることが好ましい。これに対して、ユーザがコンテンツを表示した表示画面36を注視しておらず、かつ、ユーザの顔の向きが表示画面36に対して対向していない場合、ユーザは周辺に高い注意を払っていると推定される。この場合、周辺音を確認可能にすることが好ましい。
In addition to determining that the user is gazing at the display screen 36 on which content is displayed by the
次に、図8を用いて、コンテンツ出力システム1Bにおける情報処理について説明する。図8に示すフローチャートのステップS131、ステップS132、ステップS134ないしステップS136は、図3に示すフローチャートのステップS101、ステップS102、ステップS103ないしステップS105と同様の処理を行う。
Next, information processing in the
コンテンツ出力制御装置40Bは、ユーザの顔は対向しているか否かを判断する(ステップS133)。より詳しくは、顔検出部47Bが検出した顔の向きが、表示画面36に対して対向する向きである場合(ステップS133でYes)、ステップS134へ進む。顔検出部47Bが検出した顔の向きが、表示画面36に対して対向する向きではない場合(ステップS133でNo)、ステップS135へ進む。
The content
<効果>
上述したように、本実施形態は、ユーザが表示画面36を注視して、かつ、ユーザの顔の向きが表示画面36に対して対向する場合、コンテンツの音声を出力し、ユーザが表示画面36を注視していないで、かつ、ユーザの顔の向きが表示画面36に対して対向する向きではない場合、周辺音取得部52が取得した周辺音を出力できる。本実施形態によれば、ユーザが顔の向きを表示画面36に対向しない向きにして、ユーザが周辺に注意を向けたと状態されるときに、適切に周辺音を確認できる。
<Effect>
As described above, in this embodiment, when the user is gazing at the display screen 36 and the direction of the user's face is opposite to the display screen 36, the audio of the content is output, and the user looks at the display screen 36. When the user is not gazing at the user and the direction of the user's face is not facing the display screen 36, the ambient sound acquired by the ambient
図示したコンテンツ出力システム1の各構成要素は、機能概念的なものであり、必ずしも物理的に図示の如く構成されていなくてもよい。すなわち、各装置の具体的形態は、図示のものに限られず、各装置の処理負担や使用状況などに応じて、その全部または一部を任意の単位で機能的または物理的に分散または統合してもよい。 Each component of the illustrated content output system 1 is functionally conceptual, and does not necessarily have to be physically configured as illustrated. In other words, the specific form of each device is not limited to what is shown in the diagram, and all or part of it may be functionally or physically distributed or integrated into arbitrary units depending on the processing load and usage status of each device. It's okay.
コンテンツ出力システム1の構成は、例えば、ソフトウェアとして、メモリにロードされたプログラムなどによって実現される。上記実施形態では、これらのハードウェアまたはソフトウェアの連携によって実現される機能ブロックとして説明した。すなわち、これらの機能ブロックについては、ハードウェアのみ、ソフトウェアのみ、または、それらの組み合わせによって種々の形で実現できる。 The configuration of the content output system 1 is realized by, for example, a program loaded into a memory as software. The above embodiments have been described as functional blocks realized by cooperation of these hardware or software. That is, these functional blocks can be realized in various forms using only hardware, only software, or a combination thereof.
上記に記載した構成要素には、当業者が容易に想定できるもの、実質的に同一のものを含む。さらに、上記に記載した構成は適宜組み合わせが可能である。また、本発明の要旨を逸脱しない範囲において構成の種々の省略、置換または変更が可能である。 The components described above include those that can be easily imagined by those skilled in the art and that are substantially the same. Furthermore, the configurations described above can be combined as appropriate. Furthermore, various omissions, substitutions, or changes in the configuration are possible without departing from the gist of the present invention.
上記では、音声出力装置の一例としてヘッドホン10について説明したが、これに限定されない。音声出力装置は、例えば、イヤホンおよび首掛け式のスピーカなどであってもよい。
Although the
1 コンテンツ出力システム
10 ヘッドホン(音声出力装置)
11 左音声出力部
12 右音声出力部
14 左マイクロフォン
15 右マイクロフォン
30 電子機器
31 コンテンツ入力部
32 表示部
33 視線センサ
40 コンテンツ出力制御装置
41 映像取得部
42 表示制御部
43 視線検出部
44 注視判断部
50 音声処理部
51 音声取得部
52 周辺音取得部
53 音声出力制御部
1
11 Left
Claims (6)
前記視線検出部の検出結果に基づき、前記ユーザがコンテンツを表示した前記表示画面を注視しているか否かを判断する注視判断部と、
前記ユーザが装着しているヘッドホンに備えられたマイクロフォンから前記ユーザの周辺音を取得する周辺音取得部と、
前記ユーザが交通機関を利用していることを判断する判断部と、
前記コンテンツに関する音声を取得する音声取得部と、
前記ユーザが交通機関を利用している場合に、前記注視判断部が、前記ユーザがコンテンツを表示した前記表示画面を注視していると判断した場合は、前記音声取得部が取得した前記コンテンツに関する音声を出力し、前記ユーザがコンテンツを表示した前記表示画面を注視していないと判断した場合は、前記周辺音取得部が取得した周辺音を出力する音声出力制御部と、
を備える、コンテンツ出力制御装置。 a line-of-sight detection unit that detects the user's line-of-sight direction using a line-of-sight sensor disposed facing the same direction as the display screen ;
a gaze determination unit that determines whether the user is gazing at the display screen on which content is displayed based on the detection result of the gaze detection unit;
an ambient sound acquisition unit that acquires ambient sounds of the user from a microphone provided in headphones worn by the user ;
a determination unit that determines that the user uses transportation;
an audio acquisition unit that acquires audio related to the content;
When the user is using transportation, if the gaze determining unit determines that the user is gazing at the display screen on which content is displayed, the user may be gazing at the display screen on which content is displayed. an audio output control unit that outputs audio and, when determining that the user is not gazing at the display screen on which content is displayed, outputs the ambient sound acquired by the ambient sound acquisition unit;
A content output control device comprising:
請求項1に記載のコンテンツ出力制御装置。 If the audio output control unit determines that the user is not gazing at the display screen on which content is displayed, the audio output control unit may output audio data acquired by the surrounding sound acquisition unit in addition to the audio related to the content acquired by the audio acquisition unit. Outputs surrounding sounds,
The content output control device according to claim 1.
前記音声出力制御部は、前記ユーザがコンテンツを表示した前記表示画面を注視していると判断したことに加えて、前記顔検出部が検出した顔の向きが、前記表示画面に対して対向する向きである場合に、前記音声取得部が取得した前記コンテンツに関する音声を出力し、前記ユーザがコンテンツを表示した前記表示画面を注視していないと判断したことに加えて、前記顔検出部が検出した顔の向きが、前記表示画面に対して対向する向きではない場合に、前記周辺音取得部が取得した周辺音を出力する、In addition to determining that the user is gazing at the display screen on which content is displayed, the audio output control unit determines that the face direction detected by the face detection unit is facing the display screen. If the orientation is the same, the audio acquisition unit outputs the audio related to the acquired content, and in addition to determining that the user is not gazing at the display screen on which the content is displayed, the face detection unit detects outputting the peripheral sound acquired by the peripheral sound acquisition unit when the direction of the face is not facing the display screen;
請求項1または2に記載のコンテンツ出力制御装置。The content output control device according to claim 1 or 2.
周辺音を収音する収音部と、
音声を出力する音声出力部と、
を備える、コンテンツ出力システム。 A content output control device according to any one of claims 1 to 3;
A sound collection unit that collects surrounding sounds;
an audio output section that outputs audio;
A content output system comprising :
視線方向の検出結果に基づき、前記ユーザがコンテンツを表示した前記表示画面を注視しているか否かを判断するステップと、
前記ユーザが装着しているヘッドホンに備えられたマイクロフォンから前記ユーザの周辺音を取得するステップと、
前記ユーザが交通機関を利用していることを判断するステップと、
前記コンテンツに関する音声を取得するステップと、
前記ユーザが交通機関を利用している場合に、前記ユーザがコンテンツを表示した前記表示画面を注視していると判断した場合は、前記コンテンツに関する音声を出力し、前記ユーザがコンテンツを表示した前記表示画面を注視していないと判断した場合は、周辺音を出力するステップと、
を含む、コンテンツ出力制御装置が実行するコンテンツ出力制御方法。 detecting the direction of the line of sight of a user using the audio output device with a line of sight sensor placed facing in the same direction as the display screen;
determining whether the user is gazing at the display screen on which content is displayed based on the detection result of the gaze direction;
acquiring ambient sounds of the user from a microphone provided in headphones worn by the user;
determining that the user uses transportation;
obtaining audio related to the content;
When the user is using transportation, if it is determined that the user is gazing at the display screen on which content is displayed, a sound related to the content is output, and a sound related to the content is output. If it is determined that the user is not looking at the display screen, outputting ambient sound;
A content output control method executed by a content output control device .
視線方向の検出結果に基づき、前記ユーザがコンテンツを表示した前記表示画面を注視しているか否かを判断するステップと、determining whether the user is gazing at the display screen on which content is displayed based on the detection result of the gaze direction;
前記ユーザが装着しているヘッドホンに備えられたマイクロフォンから前記ユーザの周辺音を取得するステップと、acquiring ambient sounds of the user from a microphone provided in headphones worn by the user;
前記ユーザが交通機関を利用していることを判断するステップと、determining that the user uses transportation;
前記コンテンツに関する音声を取得するステップと、obtaining audio related to the content;
前記ユーザが交通機関を利用している場合に、前記ユーザがコンテンツを表示した前記表示画面を注視していると判断した場合は、前記コンテンツに関する音声を出力し、前記ユーザがコンテンツを表示した前記表示画面を注視していないと判断した場合は、周辺音を出力するステップと、When the user is using transportation, if it is determined that the user is gazing at the display screen on which content is displayed, a sound related to the content is output, and a sound related to the content is output. If it is determined that the user is not looking at the display screen, outputting ambient sound;
を含む、コンピュータが実行するプログラム。A program that a computer runs, including.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020054197A JP7424156B2 (en) | 2020-03-25 | 2020-03-25 | Content output control device, content output system, content output control method, and program |
PCT/JP2020/043489 WO2021192410A1 (en) | 2020-03-25 | 2020-11-20 | Voice output control device, voice output system, voice output control method, and program |
CN202080093491.2A CN114981756A (en) | 2020-03-25 | 2020-11-20 | Audio output control device, audio output system, audio output control method, and program |
US17/946,162 US12207070B2 (en) | 2020-03-25 | 2022-09-16 | Sound output control device, sound output system, sound output control method, and computer-readable storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020054197A JP7424156B2 (en) | 2020-03-25 | 2020-03-25 | Content output control device, content output system, content output control method, and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021157246A JP2021157246A (en) | 2021-10-07 |
JP2021157246A5 JP2021157246A5 (en) | 2022-09-13 |
JP7424156B2 true JP7424156B2 (en) | 2024-01-30 |
Family
ID=77917786
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020054197A Active JP7424156B2 (en) | 2020-03-25 | 2020-03-25 | Content output control device, content output system, content output control method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7424156B2 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011203654A (en) | 2010-03-26 | 2011-10-13 | Sony Corp | Voice reproducing device, voice reproduction method, and program |
WO2012102130A1 (en) | 2011-01-27 | 2012-08-02 | 株式会社ニコン | Imaging device, program, recording media, and noise reduction method |
WO2012165657A1 (en) | 2011-06-03 | 2012-12-06 | 日本電気株式会社 | Speech processing system, speech processing device, speech processing method, and program therefor |
WO2017056604A1 (en) | 2015-09-29 | 2017-04-06 | ソニー株式会社 | Information processing device, information processing method, and program |
WO2018061491A1 (en) | 2016-09-27 | 2018-04-05 | ソニー株式会社 | Information processing device, information processing method, and program |
WO2020031767A1 (en) | 2018-08-09 | 2020-02-13 | ソニー株式会社 | Information processing device, information processing method, and program |
WO2020045328A1 (en) | 2018-08-27 | 2020-03-05 | 日本精機株式会社 | Display device |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2999596B2 (en) * | 1991-07-10 | 2000-01-17 | 新日本無線株式会社 | hearing aid |
JP2001018717A (en) * | 1999-07-06 | 2001-01-23 | Matsushita Electric Ind Co Ltd | Device for monitoring ambient condition of vehicle in operation |
JP5987538B2 (en) * | 2012-08-03 | 2016-09-07 | 株式会社リコー | Control device, program and control system |
-
2020
- 2020-03-25 JP JP2020054197A patent/JP7424156B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011203654A (en) | 2010-03-26 | 2011-10-13 | Sony Corp | Voice reproducing device, voice reproduction method, and program |
WO2012102130A1 (en) | 2011-01-27 | 2012-08-02 | 株式会社ニコン | Imaging device, program, recording media, and noise reduction method |
WO2012165657A1 (en) | 2011-06-03 | 2012-12-06 | 日本電気株式会社 | Speech processing system, speech processing device, speech processing method, and program therefor |
WO2017056604A1 (en) | 2015-09-29 | 2017-04-06 | ソニー株式会社 | Information processing device, information processing method, and program |
WO2018061491A1 (en) | 2016-09-27 | 2018-04-05 | ソニー株式会社 | Information processing device, information processing method, and program |
WO2020031767A1 (en) | 2018-08-09 | 2020-02-13 | ソニー株式会社 | Information processing device, information processing method, and program |
WO2020045328A1 (en) | 2018-08-27 | 2020-03-05 | 日本精機株式会社 | Display device |
Also Published As
Publication number | Publication date |
---|---|
JP2021157246A (en) | 2021-10-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10219571B1 (en) | In helmet sensors providing blind spot awareness | |
US9247779B1 (en) | Enhanced global positioning system (GPS) based functionality for helmets | |
JP6743691B2 (en) | Display control device, display control method, and computer program | |
CN108028957B (en) | Information processing apparatus, information processing method, and machine-readable medium | |
JP6409318B2 (en) | Information presentation device and information presentation method | |
US9351090B2 (en) | Method of checking earphone wearing state | |
US12032155B2 (en) | Method and head-mounted unit for assisting a hearing-impaired user | |
CN110634189A (en) | System and method for user alerts during immersive mixed reality experience | |
US9774978B2 (en) | Position determination apparatus, audio apparatus, position determination method, and program | |
CN110708630B (en) | Method, device and equipment for controlling earphone and storage medium | |
WO2017175432A1 (en) | Information processing apparatus, information processing method, and program | |
JP2015071320A (en) | Conversation support device, conversation support method, and conversation support program | |
JP2017158083A (en) | Information processing device, control method, and program | |
JP2020154569A (en) | Display device, display control method, and display system | |
JP7447602B2 (en) | Content output control device, content output system, content output control method, and program | |
US11037519B2 (en) | Display device having display based on detection value, program, and method of controlling device | |
CN114868071B (en) | Method for operating a head-mounted display device in a motor vehicle, control device, and head-mounted display device | |
EP3113505A1 (en) | A head mounted audio acquisition module | |
JP7424156B2 (en) | Content output control device, content output system, content output control method, and program | |
CN109831817B (en) | Terminal control method, device, terminal and storage medium | |
FR3047628A1 (en) | METHOD FOR MONITORING CONVERSATION FOR A MISSING PERSON | |
US12207070B2 (en) | Sound output control device, sound output system, sound output control method, and computer-readable storage medium | |
US11074034B2 (en) | Information processing apparatus, information processing method, and program | |
JP6766403B2 (en) | Head-mounted display device, head-mounted display device control method, computer program | |
JP7443877B2 (en) | Audio output control device, audio output system, audio output control method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220905 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230131 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231219 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240101 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7424156 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |