[go: up one dir, main page]

JP2021034744A - 映像提示装置およびプログラム - Google Patents

映像提示装置およびプログラム Download PDF

Info

Publication number
JP2021034744A
JP2021034744A JP2019148569A JP2019148569A JP2021034744A JP 2021034744 A JP2021034744 A JP 2021034744A JP 2019148569 A JP2019148569 A JP 2019148569A JP 2019148569 A JP2019148569 A JP 2019148569A JP 2021034744 A JP2021034744 A JP 2021034744A
Authority
JP
Japan
Prior art keywords
image
video
unit
presentation
playback
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019148569A
Other languages
English (en)
Other versions
JP7403256B2 (ja
Inventor
数馬 吉野
Kazuma Yoshino
数馬 吉野
裕之 川喜田
Hiroyuki Kawakita
裕之 川喜田
小出 大一
Daiichi Koide
大一 小出
健介 久富
Kensuke Hisatomi
健介 久富
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2019148569A priority Critical patent/JP7403256B2/ja
Publication of JP2021034744A publication Critical patent/JP2021034744A/ja
Application granted granted Critical
Publication of JP7403256B2 publication Critical patent/JP7403256B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)

Abstract

【課題】人の身体や、視聴ユーザーの近傍の物などを、バーチャル空間内に表示させることのできる映像提示装置を提供する。【解決手段】映像提示装置は、再生用の映像である再生用映像を取得する再生用映像取得部と、自装置の周辺の映像である周辺映像を取得する周辺映像取得部と、前記周辺映像に含まれる所定の被写体を認識する認識部と、前記周辺映像に対応する距離情報を取得する距離情報取得部と、前記距離情報に基づいて前記再生用映像を提示すべき領域であるか否かを表すマスク情報であって、且つ、前記認識部が認識した前記被写体が存在する領域であるか否かを表すマスク情報を生成するマスク生成部と、前記マスク生成部が生成した前記マスク情報に基づいて、少なくとも前記再生用映像を出力する提示部とを備える。【選択図】図1

Description

本発明は、映像提示装置およびプログラムに関する。
バーチャルリアリティに関する研究および開発が進んでいる。バーチャルリアリティ型のコンテンツとして、360度カメラを利用して全周を撮影した実写コンテンツも多くみられるようになった。これらにより、ユーザーに対して、あたかも別の場所に居るかのような体験を提供することも可能となった。バーチャルリアリティ型のコンテンツの提供には、例えば、ヘッドマウントディスプレイ(HMD)等が使用される。
また、バーチャルリアリティ型のコンテンツが提供する仮想空間を複数のユーザーが一緒に体験するための技術も提案されている。複数のユーザーが仮想空間を一緒に体験することにより、ユーザーは、ヘッドマウントディスプレイで視野全体を覆う形での一人だけの体験ではなく、他のユーザーと楽しみを共有しながら仮想空間を体験することもできる。
例えば、非特許文献1および非特許文献2で示される技術では、他のユーザーのアバターを仮想空間に表示する。また、非特許文献3に記載された技術では、実写映像から切り出した遠隔地の他のユーザーを仮想空間に表示することも提案されている。
また、バーチャルリアリティ型コンテンツを視聴するユーザーの位置や姿勢等に応じた映像を生成して提示する装置も開発されている。例えば、特許文献1には、立体映像表示装置の構成例が記載されている。その立体映像表示装置は、ユーザーが装着する頭部装着型表示装置の個別の位置姿勢を計測する位置姿勢計測装置を備えている。そして、両眼映像生成手段は、上記の位置姿勢計測装置によって計測された位置姿勢に従って、ユーザーが3次元の原映像を観察した場合における、各ユーザーの左目に入る左目映像と、右目に入る右目映像とを生成する。これにより、その立体映像表示装置は、ユーザーの位置および姿勢に応じた映像を表示している。
また、特許文献2には、撮像された現実空間における物体の移動速度に応じて、生成する画像の透明度を決定する画像処理装置が記載されている。
特開2016−019170号公報 特開2018−063567号公報
"Facebook Spaces",Beta,Facebook, Inc.,2019年更新,2019年8月8日ダウンロード,URL https://www.facebook.com/spaces 「まだ使ってないの? 『Facebook Spaces』が切り拓くVRの可能性」,投稿者 caug5,株式会社CAPA,2018年5月8日,2019年8月8日ダウンロード,URL https://www.capa.co.jp/archives/22169 Simon N.B Gunkel,Marleen D.W. Dohmen,Hans Stokking,Omar Niamut," 360-degree photo-realistic VR conferencing", the 26th IEEE Conference on Virtual Reality and 3D User Interfaces, posters, 2 pages, Mar.2019.
しかしながら、コンテンツの世界に没入しているかのような効果をより一層得るという目的では、仮想空間を単に他のユーザーと一緒に楽しんだり活用したりするだけでなく、現実空間において一緒に存在している他のユーザーと仮想空間を共有しているかのような感覚を生じさせることが効果的である。そのためには、視聴するユーザー自身の身体の少なくとも一部や、当該ユーザーがいる場所の状況や、同時に同一コンテンツを視聴している他のユーザーの姿などの少なくとも一部がコンテンツの一部として提示されると、より一層、当該コンテンツの世界に没入しているかのような効果が得られることが期待される。
本発明は、上記の課題認識に基づいて行なわれたものであり、視聴ユーザー自身の身体や、視聴ユーザーが存在している場所や、同時に視聴している他のユーザーの姿などの少なくとも一部をバーチャル空間内に表示させることのできる映像提示装置およびプログラムを提供しようとするものである。
[1]上記の課題を解決するため、本発明の一態様による映像提示装置は、再生用の映像である再生用映像を取得する再生用映像取得部と、自装置の周辺の映像である周辺映像を取得する周辺映像取得部と、前記周辺映像に含まれる所定の被写体を認識する認識部と、前記周辺映像に対応する距離情報を取得する距離情報取得部と、前記距離情報に基づいて前記再生用映像を提示すべき領域であるか否かを表すマスク情報であって、且つ、前記認識部が認識した前記被写体が存在する領域であるか否かを表すマスク情報を生成するマスク生成部と、前記マスク生成部が生成した前記マスク情報に基づいて、少なくとも前記再生用映像を出力する提示部と、を備える。
[2]また、本発明の一態様は、上記の映像提示装置において、前記提示部が出力する再生用映像の時間方向の再生位置を、他の映像提示装置との間で同期させる同期部、をさらに備えるものである。
[3]また、本発明の一態様は、上記の映像提示装置において、前記提示部は、前記マスク情報に基づいて、画面内の領域ごとに、前記再生用映像または前記周辺映像の少なくともいずれかを表示するように出力する、ものである。
[4]また、本発明の一態様は、上記の映像提示装置において、前記周辺映像取得部が取得した前記周辺映像のうち、一部のみを切り出す提示領域抽出部、をさらに備え、前記認識部は、前記提示領域抽出部が切り出す前の前記周辺映像を基に前記所定の被写体を認識し、前記提示部は、前記提示領域抽出部によって切り出された前記周辺映像を出力する、ものである。
[5]また、本発明の一態様は、上記の映像提示装置において、前記マスク生成部は、前記再生用映像と前記周辺映像とを混合して提示する領域における混合比率の情報を含んだ前記マスク情報を生成し、前記提示部は、前記再生用映像と前記周辺映像とを混合して提示する領域においては、前記混合比率の情報に基づいて、前記再生用映像と前記周辺映像とが混合するように出力する、ものである。
[6]また、本発明の一態様は、上記の映像提示装置において、前記提示部は、前記再生用映像の透過度を可変とする機能を有し、前記マスク情報に応じた透過度で前記再生用映像を出力する、ものである。
[7]また、本発明の一態様は、上記の映像提示装置において、前記透過度は、0以上且つ1以下の実数であり、前記提示部は、前記マスク情報に応じた透過度で前記再生用映像を出力する、ものである。
[8]また、本発明の一態様は、上記の映像提示装置において、当該映像提示装置は、哺乳類生物(例えば、人)の頭部に装着するタイプの装置であり、当該映像提示装置の位置および姿勢を検知する位置および姿勢検知部、をさらに備え、前記提示部は、全周映像である前記再生用映像のうちの、前記位置および姿勢検知部が検知した位置および姿勢に応じた部分映像を出力する、ものである。
[9]また、本発明の一態様は、再生用の映像である再生用映像を取得する再生用映像取得過程と、自装置の周辺の映像である周辺映像を取得する周辺映像取得過程と、前記周辺映像に含まれる所定の被写体を認識する認識過程と、前記周辺映像に対応する距離情報を取得する距離取得過程と、前記距離情報に基づいて前記再生用映像を提示すべき領域であるか否かを表すマスク情報であって、且つ、前記認識部が認識した前記被写体が存在する領域であるか否かを表すマスク情報を生成するマスク生成過程と、前記マスク生成過程で生成した前記マスク情報に基づいて、少なくとも前記再生用映像を出力する提示過程と、の処理をコンピューターに実行させるプログラムである。
本発明によれば、バーチャルリアリティの世界への没入感をより一層増すことが可能となる。
本発明の第1実施形態による映像提示装置の概略機能構成を示すブロック図である。 第1実施形態による複数の映像提示装置が相互に連携するシステムの構成例を示す概略図である。 第1実施形態による映像提示装置が提示する映像に関して、周辺映像取得部が取得した映像を提示するか、再生用映像取得部が取得した映像を提示するかの、領域ごとの区別を表す概略図(3次元空間を平面視した平面図)である。 第1実施形態による提示領域抽出部による画像処理(切り出し)の例を示す概略図である。 第1実施形態による映像提示装置による、周辺映像取得部によって取得された映像と、再生用映像取得部5によって取得された映像との提示方法の例を示す概略図である。(A)は3次元空間を横から見た図であり、(B)は映像提示装置からの距離とマスクデータの値との関係を示すグラフである。 第1実施形態による映像提示装置が提示する映像の構成例を示す概略図である。 第1実施形態による映像提示装置が提示する映像の1フレーム分についての処理の手順を示すフローチャートである。 本発明の第2実施形態による映像提示装置の概略機能構成を示すブロック図である。 第2実施形態による映像提示装置51が提示する映像の構成例を示す概略図である。
[第1実施形態]
次に、本発明の第1実施形態について、図面を参照しながら説明する。第1実施形態による映像提示装置は、ビデオシースルー方式を用いる。ビデオシースルー方式については、後で説明する。
図1は、本実施形態による映像提示装置の概略機能構成を示すブロック図である。図示するように、映像提示装置1は、処理部2と、周辺映像取得部3と、距離情報取得部4と、再生用映像取得部5と、位置・姿勢取得部6と、同期部7と、ディスプレイ装置9とを含んで構成される。また、上記の処理部2は、認識部21と、提示領域抽出部22と、マスク生成部23と、提示部24と、を含んで構成される。映像提示装置1が備える上記の各機能部の少なくとも一部の機能は、電子回路を用いて実現され得る。また、それらの各機能部の一部または全部が、コンピューターと、プログラムとを用いて実現されてもよい。各機能部は、必要に応じて、記憶手段を有する。記憶手段は、例えば、電子回路上において所定の状態を維持するフリップフロップや、プログラムを用いる場合のプログラム上の変数や、プログラムの実行によりアロケーションされるメモリーである。また、必要に応じて、磁気ハードディスク装置やソリッドステートドライブ(SSD)といった不揮発性の記憶手段を用いるようにしてもよい。各部の機能は、次の通りである。
映像提示装置1は、例えば、哺乳類生物(例えば、人)の頭部に装着するタイプの装置として実現される。つまり、映像提示装置1は、映像表示装置と外部測定装置と、映像を処理するための機能(例えば、コンピューターを用いて実現される)が一体化したヘッドマウントディスプレイとして実現され得る。映像提示装置1は、ビデオシースルーあるいは光学シースルーの方式を用いて、実空間に映像(再生用映像)を重畳する用途で使用される。本実施形態では、映像提示装置1は、ビデオシースルー方式を実現する。
処理部2は、周辺映像取得部3や、距離情報取得部4や、再生用映像取得部5や、位置・姿勢取得部6や、同期部7からの情報を処理し、ディスプレイ装置9に表示させる映像を計算し、出力する。処理部2は、ヘッドマウント型の映像提示装置1内に内蔵されてもよく、ヘッドマウント型の本体とは別体として(例えば、PCとして)実現されてもよい。
周辺映像取得部3は、映像提示装置51(自装置)の周辺の映像である周辺映像を取得する。周辺映像取得部3は、例えば、ステレオカメラを用いて実現される。また、周辺映像取得部3が用いる映像取得手段が、視野角の広い、いわゆる魚眼カメラであってもよい。
距離情報取得部4は、周辺映像取得部3が取得する映像(周辺画像)に対応する距離情報(デプスマップ)を取得する。距離情報取得部4は、周辺映像取得部3とは別の装置として、周辺画像に対応する距離画像を取得するものであってもよい。また、距離情報取得部4は、魚眼ステレオカメラを用いて実現される周辺映像取得部3から、魚眼画像を得て距離情報を算出するものであってもよい。なお、距離画像を取得することそのものは、既存技術を利用して実現可能である。
つまり、周辺映像取得部3と距離情報取得部4とは、あわせて、自装置の視点から(つまり、ほぼ、映像提示装置1を頭部に装着するユーザーの視点から)、RGBD(R:赤、G:緑、B:青、D:距離)情報を取得する。
再生用映像取得部5は、再生用の映像を取得する。再生用映像は、例えば、全天周(あるいは全周)を撮影した360度実写映像のコンテンツである。また、再生用映像は、一部または全部に、コンピューターグラフィクスを用いた映像であってもよい。再生用映像取得部5は、例えば、DVDやブルーレイディスクやハードディスク装置などといった記録媒体から、再生用映像を取得する。あるいは、再生用映像取得部5が、通信や放送等の信号で配信される再生用映像を取得するものであってもよい。再生用映像は、時系列のフレーム用画像と、適宜必要とされる音声とから成る。
位置・姿勢取得部6は、自装置(映像提示装置1)の位置および姿勢を検知するものである。ここで、位置は、3次元空間における位置座標で表される情報である。また、姿勢は、映像提示装置1の向きを、例えば3次元の角度の情報で表した情報である。位置・姿勢取得部6は、例えば、ジャイロセンサーを内蔵することにより、位置および姿勢を取得するようにしてもよい。また、ステレオカメラの画像からも自己位置推定ができるため、位置・姿勢取得部6は、周辺映像取得部3が取得した映像から、位置および姿勢を算出してもよい。また、位置・姿勢取得部6は、外部からのビーコン信号を受信することによって、あるいは実空間内の場所を特定するためにクロックと同期して外部から発せられる赤外線等の信号を受信することによって、位置や姿勢を取得するようにしてもよい。また、位置・姿勢取得部6は、外部(例えば、コンテンツの視聴空間である部屋内)に設けられた複数のカメラが自装置(映像提示装置1)を撮影して、求められた位置および姿勢の情報を受信するようにしてもよい。
同期部7は、他の映像提示装置1との間で相互に通信することにより、随時、情報を交換する。同期部7は、自装置(映像提示装置1)が他の映像提示装置1と同期して同一の映像コンテンツを再生する際に、提示部24がディスプレイ装置9に表示させる再生用映像の時間方向の再生位置を、他の映像提示装置1との間で同期させる。具体的には、例えば、所定の時間間隔で、映像提示装置1の同期部7間相互で、再生するコンテンツの相対時間位置の情報を交換する。映像提示装置1は、自装置の同期部7が他装置から受信した時間情報に基づいて、再生する映像コンテンツの出力のタイミングを調整する。
また、同期部7は、他の映像提示装置1と同期して同一の映像コンテンツの再生を開始する際に、自装置の位置および姿勢の情報を他の映像提示装置1に送信する。また、同期部7は、他の映像提示装置1から、その装置の位置および姿勢の情報を受信する。ここで、「他の装置」は1台であってもよいし、2台以上であってもよい。このように、同期部7が他の映像提示装置1の位置および姿勢の情報を取得することにより、再生するバーチャルリアリティコンテンツの映像の切り出し(位置および姿勢に基づく)方を、他の映像提示装置1と整合させることが可能となる。複数の映像提示装置1による協調動作のための構成については、後でも説明する。
ディスプレイ装置9は、提示部24が出力する映像を、表示する。提示部24が出力する映像には、周辺映像と再生用映像のいずれもが含まれる可能性がある。ディスプレイ装置9は、画面上の領域ごとに、提示部24から渡される映像を表示する。なお、ディスプレイ装置9は、例えば立体視のためのステレオ表示を行うものであってもよい。
認識部21は、周辺映像取得部3が取得した周辺映像内の、所定の被写体(例えば、人)を認識する処理を行う。認識部21は、機械学習により、映像における所定被写体の特徴を予め学習済みである。認識部21は、学習済みのモデルを参照することにより、周辺映像内においてその被写体が映っている箇所(画像内の領域の座標等の情報)を特定し、その情報を出力する。認識部21は、認識処理の結果として、周辺映像内の領域の位置情報を、マスク生成部23に渡す。
提示領域抽出部22は、周辺映像取得部3が取得した周辺映像から、提示領域の映像(画像)を切り出す。提示領域の映像は、周辺映像全体の一部のみ(例えば、中心付近の部分)であってもよい。これにより、周辺映像取得部3が取得する映像の視野角と、ディスプレイ装置9に表示する映像の視野角とを、合わせることができる。提示領域抽出部22は、切り出した映像(画像)を、提示部24に渡す。なお、提示領域抽出部22が提示領域の映像を抽出する方法については、後で別の図を参照しながら説明する。提示領域抽出部22の処理は、後述するように、中心射影の処理を含んでよい。
提示領域抽出部22は、また、抽出前の周辺画像と、抽出して切り出した画像との位置関係の情報を、マスク生成部23に渡す。言い換えれば、提示領域抽出部22は、中心射影等の手法を用いて映像を切り出した際の、周辺映像取得部3が取得した映像と、ディスプレイ装置9の視野角に合わせた映像との、位置の対応関係を、マスク生成部23に伝える。これにより、マスク生成部23は、提示用の座標系に合ったマスク情報を生成できるようになる。
周辺映像取得部3が用いるカメラとして、魚眼レンズ等の広角のレンズを選定した場合に、映像提示装置1を装着したユーザーの頭が動いても、広い範囲の映像を捉えているため、認識部21が所定の被写体を正しく認識できる可能性が高まる。つまり、認識部21が人等の被写体を認識する場合に、その被写体をトラッキングしやすくなる。つまり、認識精度が安定する。一方で、視野角が広すぎる場合には、ディスプレイ装置9の視野角と合わない場合もあり得るが、提示領域抽出部22の処理により、それら両者の視野角を合わせることが可能となる。
マスク生成部23は、マスク情報を生成する。マスク情報は、距離情報取得部4から渡される距離情報に基づいて再生用映像を提示すべき領域であるか否かを表す。また、マスク情報は、認識部21が認識した被写体が存在する領域であるか否かを表す。本実施形態では、マスク情報は、周辺画像を表示すべき領域であるか、再生用画像を表示すべき領域であるかを表す情報である。マスク生成部23は、再生用映像と周辺映像とを混合して提示する領域における混合比率の情報を含んだマスク情報を生成してよい。
上記のように、マスク生成部23は、距離に基づくマスクと、認識結果に基づくマスクとを生成する。これにより、提示部24は、次のような提示を行えるようになる。例えば、自分自身の身体や、同一の空間内で同一のバーチャルリアリティコンテンツを一緒に体験している他者の身体を、バーチャルリアリティ映像の中に提示することができる。認識部21によって認識される所定の被写体(人等)に関しては、自装置からの距離に関わらず、周辺映像の表示が行われるようにすることができる。特定の被写体(人等)以外に関しては、距離に基づく提示が行われる。つまり、自装置から比較的近い範囲の物は、周辺映像に含まれる形で、バーチャルリアリティ空間の中に提示される。また、自装置から比較的遠い範囲に存在する物は、周辺映像に含まれる形では提示されない。そのように自装置から比較的遠い範囲に存在する物が存在する領域では、再生用映像が提示される。
ここで、「比較的近い範囲」とは、例えば、人がその場から動くことなく(例えば、着座のまま)手を伸ばして触れられる範囲である。例えば、1メートル以内程度の範囲である。逆に「比較的遠い範囲」とは、例えば、2メートル以上程度の範囲である。その中間の距離の範囲(1メートル以上且つ2メートル以下)では、近距離用の周辺映像と、遠距離用の再生用映像とを混合した映像を提示することが考えられる。
提示部24は、マスク生成部23が生成したマスク情報に基づいて、少なくとも再生用映像を出力する。また、同じくマスク情報に基づいて、近距離の領域では、周辺映像を出力する。なお、提示部24が再生用映像を提示する場合、再生用映像全体の中から、映像提示装置1の位置および姿勢に基づいて適切な部分の映像を切り出して、表示させるようにする。つまり、提示部24は、全周映像である再生用映像のうちの、位置・姿勢取得部6が検知した位置および姿勢に応じた部分映像を出力するようにしてよい。
提示部24は、再生用映像と周辺映像とを混合して提示する領域においては、マスク情報の混合比率の値に基づいて、再生用映像と周辺映像とが混合するように、それらを出力する。つまり、提示部24は、マスク情報に基づいて、画面内の領域ごとに、再生用映像または周辺映像の少なくともいずれかを表示するように出力する。また、提示部24は、上記の混合比率に基づいて、両映像を混合して表示するように出力してもよい。
図2は、複数の映像提示装置1が相互に連携するシステムの構成例を示す概略図である。図示するように、複数の映像提示装置1は、相互に通信しながら連携動作することが可能である。なお、同図では、一例として3台の映像提示装置1が同時に稼働している状況を示しているが、連携動作する映像提示装置1の数は、任意である。図示する状況では、3台の映像提示装置1は、同一の空間(例えば、同一の部屋)内で同時に稼働する。各々の映像提示装置1は、1人のユーザーによって使用される。図示する例では、3台の映像提示装置1は、無線ルーター31を通して、且つサーバー装置32を介して相互に情報を交換する。具体的には、各々の映像提示装置1の同期部7同士が、通信により、相互に情報を交換する。
複数の映像提示装置1同士が交換する主な情報は、次の2種類である。
第1は、映像提示装置1の位置および姿勢である。コンテンツ再生開始時において、映像提示装置1は、自装置の位置および姿勢の情報を他の映像提示装置1に通知する。同時に、映像提示装置1は、他装置の位置および姿勢の情報を受け取る。このように複数の映像提示装置1のそれぞれが他の映像提示装置1の位置および姿勢の情報を取得することにより、それらの映像提示装置1が同時に同一コンテンツを再生する場合に、再生用映像から切り出す部分映像を、映像提示装置1間で整合させることが可能となる。
第2は、再生用映像を再生する際の、映像提示装置1間での再生タイミングを合わせるための情報である。具体的には、例えば、映像提示装置1は、コンテンツの再生の時間位置の情報を相互に交換する。このような情報交換を、所定の時間間隔ごとに行うようにしてもよい。これにより、複数の映像提示装置1間で、同じタイミングで同一のコンテンツを再生することが可能となる。
なお、図2では複数台の映像提示装置1が相互に連携して動作する構成を示したが、映像提示装置1は、他の映像提示装置1と連携する形態ではなく、単独の形態でも動作し得るものである。また、複数台の映像提示装置1のうちの例えば1台がサーバーの機能を兼ね備えるようにして、各々の映像提示装置1の情報を収集したり、収集した情報を各々の映像提示装置1に配信したりする形態としてもよい。
図3は、映像提示装置1が提示する映像に関して、周辺映像取得部3が取得した映像を提示するか、再生用映像取得部5が取得した映像を提示するかの、領域ごとの区別を表す概略図である。同図は、映像提示装置1を使用する空間(例えば、部屋内)を平面視した平面図である。
同図において、符号100は、部屋等の領域である。領域100は、例えば、壁等によって囲われていてもよい。符号101は、領域100内で、映像提示装置1を使用することによって映像を視聴しようとするユーザーである。また、符号102および103のそれぞれは、ユーザー101とは別の人である。人102は、ユーザー101の比較的近くに存在している。人103は、ユーザー101から比較的遠い位置に存在している。また、符号108は、領域100内の床上に置かれているテーブルである。また、符号121は、領域100内で、且つ、ユーザー101から所定の距離内にある範囲の副領域である。副領域121は、破線で示されている。
本実施形態では、前述の通り、提示部24は、所定距離内にある物体が存在する領域等と、距離に関わらず人であると認識された領域に関しては、周辺映像取得部3によって取得された映像を提示する。また、提示部24は、上記領域(所定距離内にある物体が存在する領域等と、距離に関わらず人であると認識された領域)以外の領域に関しては、再生用映像取得部5によって取得された映像を提示する。つまり、図3においてハッチングで示した領域に関しては、ユーザー101が使用する映像提示装置1の提示部24は、周辺映像取得部3によって取得された映像を提示する。ここで、「ハッチングで示した領域」とは、境界線131の内側であって且つ領域100内である領域と、境界線132の内側である領域(なお、その領域はすべて領域100内である)とである。
なお、映像提示装置1は、3次元空間内における距離に基づいて、周辺映像取得部3によって取得された映像と、再生用映像取得部5によって取得された映像の、いずれの映像を表示するかを制御する。また、映像提示装置1は、3次元空間内において撮像された像の認識結果(人を含む領域であるか否か)に応じて、周辺映像取得部3によって取得された映像と、再生用映像取得部5によって取得された映像の、いずれの映像を表示するかを制御する。ここで説明した図3は、3次元空間のうちの高さ方向の次元を省略して、平面図に投射した状態を表している。
図4は、提示領域抽出部22による画像処理の例を示す概略図である。同図(A)は、周辺映像取得部3が撮影する視野角(FOV,Field of View)での画像の例を示す。同図(B)は、同図(A)の画像を基に、提示領域抽出部22が抽出した結果の視野角での画像の例である。図示するように、周辺映像取得部3が、例えば焦点距離の短いレンズ(例えば、魚眼レンズ、またはそれに近いレンズ)を使用して、非常に広い視野角の画像(映像)を撮影するようにしてよい。提示領域抽出部22は、そのような広い視野角の画像をから、例えば中心射影により、ディスプレイ装置9(例えば、ヘッドマウントディスプレイ)の視野角に合わせた切り出しを行う。なお、ここでの射影の方式は中心射影には限定されず、例えば平行射影等を用いてもよい。
図5は、映像提示装置1による、周辺映像取得部3によって取得された映像と、再生用映像取得部5によって取得された映像との提示方法の例を示す概略図である。同図は、映像提示装置1が、周辺映像取得部3によって取得された映像(便宜的に、「実空間映像」と呼ぶ)を提示する領域と、再生用映像取得部5によって取得された映像(便宜的に、「バーチャル映像」と呼ぶ)を提示する領域と、これらの実空間映像とバーチャル映像とを混合した映像(便宜的に、「混合映像」と呼ぶ)を提示する領域とを示す。
同図(A)は、映像提示装置1を使用してコンテンツを視聴するユーザー101からの距離と、提示する映像との関係を示す概略図である。この図における横軸は、ユーザー101からの距離を表す。ユーザー101からの距離d(単位は、メートル(m))に応じて、R1、R2、R3という3つの領域に分かれている。0≦d<1の範囲は、領域R1である。領域R1に関しては、映像提示装置1は、実空間映像(real)を提示する。1≦d<2の範囲は、領域R2である。領域R2に関しては、映像提示装置1は、混合映像(mixed)を提示する。2≦dの範囲は、領域R3である。領域R3に関しては、映像提示装置1は、バーチャル映像(virtual)を提示する。
同図(B)は、同図(A)に示す表示方法を実現するためのマスクデータの例を示すグラフである。このグラフの横軸は、映像提示装置1のユーザーからの距離である。またこのグラフの縦軸は、マスクデータの値mである。m=0.0は、実空間映像のみを表示する(つまり、バーチャル映像の比率が0.0である)ことに対応する。m=1.0は、バーチャル映像のみを表示する(つまり、バーチャル映像の比率が1.0である)ことに対応する。0.0<m<1.0の範囲にあるmは、混合映像の表示におけるバーチャル映像の比率を表す。同図(B)に示す例では、0≦d<1の場合(領域R1)に、m=0.0である。また、1≦d<2の場合(領域R2)に、0.0<m<1.0で、mは可変である。一例として、m=d−1.0である。また、2≦dの場合(領域R3)に、m=1.0である。
つまり、マスク生成部23は、距離情報取得部4から渡される距離画像に基づき、距離dに応じたマスク値(バーチャル映像の割合)mの値を画素値とするマスク画像を生成する。また、提示部24は、マスク生成部23から渡されるマスク画像の各画素の値(mの値)に応じて、実空間映像、バーチャル映像、または混合映像(混合比率はmに依る)を適宜提示する。
ここで、図5では、認識部21による認識処理の結果を省略している。実際には、認識部21の認識処理の結果に基づき、人が存在している領域では、映像提示装置1からの距離には依らず、実空間映像を提示する。つまり、人が存在している領域に関して、マスク生成部23が生成するマスク画像では、m=0.0である。
なお、図5では、混合映像を表示する領域において、例として、m=d−1.0とした。しかしながら、mとdとの関係はこの数式で表す関係に限定されない。mとdとを、その他の対応関係としてもよい。なお、mの値を、dの値に対して広義単調増加としてよい。
また、図5では、混合映像を表示する領域として領域R2が設けられている。しかしながら、混合映像を表示する領域が必ずしも設けられなくてもよい。一例として、d≦1.5の範囲においては領域R1(実空間映像を表示する領域であり、m=0.0である)として、1.5<dの範囲においては領域R3(バーチャル映像を表示する領域であり、m=1.0である)としてもよい。
図6は、本実施形態の映像提示装置1が提示する映像の構成例を示す概略図である。図示するように、映像提示装置1の提示部24は、(1)の再生用映像(バーチャル映像映像)と、(2)の周辺映像(実空間映像)とを合成した結果である提示映像を提示する。同図において、符号301は、再生用映像である。この再生用映像301は、元の全天周映像の一部を切り出して得られた映像である。また、符号302は、周辺映像である。また、符号303は、映像提示装置1からの距離と、周辺映像の認識結果とに基づいて生成されたマスク映像である。周辺映像302とマスク映像303とを合成して、マスクされた周辺映像304が得られる。マスク映像303の白の部分は、周辺映像302のために割り当てた領域である。マスク映像303のハッチング部分は、再生用映像301のために割り当てた領域である。そして、再生用映像301と、マスクされた周辺映像304とを合成することにより、提示映像305が得られる。なお、再生用映像301のサイズとマスクされた周辺映像304のサイズとは異なり、再生用映像301のサイズのほうが大きい。マスクされた周辺映像304は、再生用映像301の所定の一部領域に合成される。提示部24は、このように、ビデオシースルー方式で合成した提示映像を、ディスプレイ装置9に表示する。提示部24は、このビデオシースルー方式においては、全天周映像(再生用映像)の中に、映像提示装置1のユーザー自身の身体の映像と、当該ユーザー自身の近傍(所定距離内)の周辺映像と、同じ空間内(部屋内)に存在している人(例えば、同一のコンテンツを同時に視聴、体験している人)の身体の映像とを、重畳する。こういったビデオシースルー方式の映像を表示するのに向いているのは、例えば、ユーザーの頭部に装着するタイプのヘッドマウントディスプレイである。
図7は、映像提示装置1が提示する映像の1フレーム分についての処理の手順を示すフローチャートである。なお、具体的な処理の手順としては、同図に提示する処理と等価な内容の他の手順を用いてもよい。以下、このフローチャートに沿って手順を説明する。
ステップS11において、周辺映像取得部3は、1フレーム分の周辺映像を取得し、その画像を処理部2に転送する。
ステップS12において、距離情報取得部4は、映像の1フレーム分に相当する距離画像(デプスマップ)を取得し、その距離画像を処理部2に転送する。
ステップS13において、認識部21は、周辺映像取得部3から渡された周辺映像の1フレーム分に基づいて、認識処理を行い、人が映っている領域を特定する。認識部21は、周辺映像における人の領域の位置情報を出力する。認識部21は、認識処理の結果をマスク生成部23に渡す。
ステップS14において、提示領域抽出部22は、ステップS11において周辺映像取得部3から渡された周辺映像の1フレーム分の画像を、中心射影画像に変換する。
ステップS15において、提示領域抽出部22は、ステップS14で変換した結果である中心射影画像から、提示領域を抽出する。提示領域とは、中心射影画像のうち、ディスプレイ装置9に表示する部分の領域である。提示領域抽出部22は、抽出した提示領域の画像を、提示部24に渡す。また、提示領域抽出部22は、抽出した提示領域の位置に関する情報を、マスク生成部23に渡す。
ステップS16において、マスク生成部23は、距離情報取得部4から受け取った距離画像と、認識部21から受け取った人の映っている領域の位置情報とに基づいて、映像の提示のためのマスクを生成する。マスクは、例えば、画素ごとの、バーチャル映像の比率の値(m;0.0≦m≦.0)のマトリックスであってよい。また、マスクのデータを別の形態で表すようにしてもよい。マスクは、言い換えれば、バーチャル映像と実空間映像とを合成する際の透過度の値のマトリックスである。マスク生成部23は、生成したマスクを、提示部24に渡す。
ステップS17において、提示部24は、マスク生成部23から渡されたマスクのデータに基づいて、周辺映像取得部3が取得した画像(実空間映像)と、再生用映像取得部5が取得した画像(バーチャル映像)とを合成する。このとき、提示部24は、再生用映像取得部5から渡される全周映像のフレームのうち、位置・姿勢取得部6から渡される当該映像提示装置1自身の位置および姿勢に基づく所定部分のみを、提示のために切り出す。そして、提示部24は、画素ごとに、上記の混合比率(m)による混合を行う。
ステップS18において、提示部24は、ステップS17の処理で合成された画像をディスプレイ装置9に表示させる。
以上、このフローチャートに示した一連の処理が、映像の1フレーム分の処理である。映像提示装置は、毎フレーム、この一連の処理を行う。このようにして、提示部24は、再生用映像取得部5が取得した再生用映像と、周辺映像取得部が取得した周辺映像とを合成して、動画として提示する。
このフローチャートに示した処理のバリエーションの例は、次の通りである。
例えば、ステップS13における認識処理を、ステップS14で変換した結果である中心射影画像に基づいて行うようにしてもよい。
例えば、ステップS14における中心射影画像への変換処理を行わないようにしてもよい。
例えば、ステップS16のマスク生成の処理において、距離に基づくマスクと、認識結果に基づくマスクとを、別々に作成してから後で合成してもよいし、それらの両マスクを最初から1枚のマスクのデータとして作成してもよい。
例えば、ステップS16のマスク生成の処理において、混合映像を表示する領域(0.0<m<1.0である領域)がないようにしてもよい。その場合、距離や画像認識結果に応じて、m=0.0の領域とm=1.0の領域との境界においてmの値が不連続的に変化する。
また、例えば、論理的な矛盾が生じない範囲内で、フローチャートに示した各処理の順序を変えてもよい。
本実施形態による映像提示装置1の構成および処理をまとめると、次の通りである。
映像提示装置1は、少なくとも、再生用映像取得部5と、周辺映像取得部3と、認識部21と、距離情報取得部4と、マスク生成部23と、提示部24とを備える。再生用映像取得部5は、再生用の映像である再生用映像を取得する。周辺映像取得部3は、自装置の周辺の映像である周辺映像を取得する。認識部21は、前記周辺映像に含まれる所定の被写体(例えば、人)を認識する。距離情報取得部4は、前記周辺映像に対応する距離情報を取得する。マスク生成部23は、マスク情報を生成する。マスク情報は、前記距離情報に基づいて前記再生用映像を提示すべき領域であるか否かを表す。また、マスク情報は、認識部21が認識した前記被写体が存在する領域であるか否かを表す。提示部24は、マスク生成部23が生成した前記マスク情報に基づいて、少なくとも前記再生用映像を出力する。なお、マスク情報は、例えば、画面上の位置に対応して、再生用映像を提示すべき領域であるか、周辺映像(あるいは、周辺の状況)を提示すべき領域であるかを表す。また、マスク情報が、再生用映像と周辺映像との混合比率の情報(数値)を持っていてもよい。典型的な場合において、比較的短距離の領域と、所定の被写体が認識されている領域とにおいて、周辺映像を提示することとする。また、比較的長距離の領域において、再生用映像を提示することとする。なお、それらの中間の距離の領域において、両映像を混合して提示するようにしてもよい。混合比率は、例えば、距離に応じたリニアな値としてもよい。
映像提示装置1が、同期部7を備えてもよい。同期部7は、提示部24が出力する再生用映像の時間方向の再生位置を、他の映像提示装置との間で同期させる。自映像提示装置と、他映像提示装置とは、通信により、随時情報を交換できる。
提示部24は、前記マスク情報に基づいて、画面内の領域ごとに、前記再生用映像または前記周辺映像の少なくともいずれかを表示するように出力する。提示部24は、上記の混合比率に基づいて、両映像を混合して表示するように出力してもよい。
映像提示装置1が、提示領域抽出部22を備えてもよい。提示領域抽出部22は、周辺映像取得部3が取得した前記周辺映像のうち、一部(例えば、中心の部分)のみを切り出す機能を有する。この場合も、認識部21は、提示領域抽出部22が切り出す前の周辺映像を基に前記の被写体の認識処理を行ってもよい。一方で、提示部24は、提示領域抽出部22によって切り出された部分の周辺映像を表示するように出力する。
マスク生成部23は、前記再生用映像と前記周辺映像とを混合して提示する領域における混合比率の情報を含んだ前記マスク情報を生成してよい。提示部24は、前記再生用映像と前記周辺映像とを混合して提示する領域においては、マスク情報の混合比率の値に基づいて、前記再生用映像と前記周辺映像とが混合するように出力する。
当該映像提示装置1は、一例として、哺乳類生物(例えば、人等)の頭部に装着するタイプの装置である。 映像提示装置1は、当該映像提示装置1の位置および姿勢を検知する位置および姿勢検知部(位置・姿勢取得部6)をさらに備えてよい。提示部24は、全周映像である再生用映像のうちの、位置・姿勢取得部6が検知した位置および姿勢に応じた部分映像を出力するようにしてよい。
以上、説明したように、本実施形態によれば、バーチャルリアリティの映像コンテンツ(例えば、実写360度映像のバーチャルリアリティ等)を提示する際、視聴者自身の身体や、視聴者の近傍の物体や、他の人(例えば、同一のコンテンツを視聴する人)の身体を、自然な形で一緒に提示する。これにより、コンテンツへの没入感や、他の人との状況の共有を、より一層楽しむことができるようになる。
つまり、映像提示装置1を使用するユーザーにとっては、ユーザー自身の身体がそのままの状態で画面に表示されることで、バーチャルリアリティ空間内でより現実感のある体験をすることができる。また、ユーザーは、同じ空間にいる他の人と一緒にバーチャルリアリティ体験を共有することができる。また、ステレオで表示する場合、現実の距離感を保持したままコンテンツを提示できる。また、ヘッドマウント型の装置構成として場合に、ユーザーは、映像提示装置1を身に着けてコンテンツを視聴することができ、その自由な行動が妨げられない。例えば、ユーザー自身の身体を計測するための外部センサー等の都合でユーザーの行動範囲が制約されない。また、ユーザーは、自己から比較的近距離にある現実の物を、実際に触った感覚を得ながら、操作することができる。これにより、例えばバーチャルリアリティ映像を見ながら食事をするなどのような、「ながら見」も可能となる。
[第2実施形態]
次に、本発明の第2実施形態について説明する。なお、前実施形態において既に説明した事項については以下において説明を省略する場合がある。ここでは、本実施形態に特有の事項を中心に説明する。第2実施形態による映像提示装置は、光学シースルー方式を用いる。光学シースルー方式については、後で説明する。
図8は、本実施形態による映像提示装置の概略機能構成を示すブロック図である。この映像提示装置51は、前実施形態で説明した映像提示装置1と一部類似の構成を有する。映像提示装置51は、映像提示装置1における処理部2に代えて、処理部52を備える。また、映像提示装置51は、映像提示装置1におけるディスプレイ装置9に代えて、ディスプレイ装置59を備える。本実施形態の処理部52の特徴は、第1実施形態における提示部24に代えて提示部74を有する点である。また、処理部52は、第1実施形態における提示領域抽出部22に代えて提示領域抽出部22を有する。
ディスプレイ装置59は、光学シースルー方式による提示に適したタイプの装置である。つまり、ディスプレイ装置59は、全画面のうちの一部の領域においては再生用映像取得部5が取得した再生用映像を表示する。また、ディスプレイ装置59は、上記の再生用映像を表示しない領域においては、映像提示装置51を使用するユーザーが、当該ユーザー自身の周辺を、光学的に見ることができるようにする。ディスプレイ装置59は、一形態として、表示画面が持つ画素の各々について、RGB信号に基づく再生用映像の一部(当該画素部分)を表示するか、画素を透過状態としてユーザーの目で周辺の状況を視認できるようにするかを制御する機能を有する。
提示領域抽出部72は、周辺映像取得部3が取得した映像の中の提示すべき領域を抽出する。提示領域抽出部72は、周辺映像取得部3が取得した広い視野角の映像のうち、例えば中心射影により、ディスプレイ装置59の視野角に合わせた切り出しを行う。本実施形態では、提示領域抽出部72は、切り出した映像そのものを提示部74に渡すことはしない。前述の通り、本実施形態では光学シースルー方式を用いるため、周辺映像取得部3が取得した映像自体をディスプレイ59に表示させる必要がないためである。ただし、提示領域抽出部72は、中心射影により映像を切り出した際の、周辺映像取得部3が取得した映像と、ディスプレイ装置59の視野角に合わせた映像との、位置の対応関係を、マスク生成部23に伝える。
提示部74は、マスク生成部23が生成したマスクに基づき、再生用映像取得部5が取得した映像を提示する。本実施形態では、提示部74は、周辺映像をディスプレイ装置59に表示させる代わりに、再生用映像の透過度(m)を制御して、視聴者がマスクに表されている透過度で実空間を見ることができるようにする。
つまり、提示部74は、再生用映像の透過度を可変とする機能を有する。提示部74は、マスク情報に応じた透過度で再生用映像を出力する。周辺映像に相当する状況を提示すべき箇所においては、提示部74は、再生用映像を透過とする。これにより、視聴者は、実空間を視認することが可能となる。また、透過度を、0以上且つ1以下の実数としてよい。その中間の領域(透過度が0より大きく、1より小さい領域)において、提示部74は、マスク情報の数値に応じた透過度で再生用映像を出力する。つまり、提示部74は、再生用映像と実空間とが所定の混合比率で混合した状態で視聴者に視認されるよう、映像出力を制御する。このような機能を有することにより、提示部74は、光学シースルーを実現する。言い換えれば、提示部74は、提示する全天周映像のうち、自分の身体および同じ空間内で一緒に体験している人の身体と、近傍部分とをマスクして、再生用映像を提示する。
本実施形態による映像提示装置51の処理の手順は、基本的には、前実施形態での処理の手順と同様である。ただし、本実施形態では、周辺映像取得部3が取得した周辺映像をディスプレイ装置に表示する代わりに、映像提示装置51は、映像内の当該領域において、視聴者が、実空間を見ることができるように映像の提示を制御する。
図9は、本実施形態の映像提示装置51が提示する映像の構成例を示す概略図である。図示するように、映像提示装置51の提示部74は、(1)の実空間と、(2)の再生用映像(マスクされる部分あり)との組み合わせである(3)の提示映像(光学シースルー方式)を、ユーザーに対して提示する。同図において、符号311は、ディスプレイ装置59を透過してユーザーの目で見える実空間である。また、符号312は、再生用映像である。この再生用映像312は、元の全天周映像の一部を切り出して得られた映像である。また、符号313は、映像提示装置51からの距離と、周辺映像の認識結果とに基づいて生成されたマスク映像である。マスク映像313の白の部分は、ユーザーに実空間(符号311)を見せるように割り当てた領域である。マスク映像313のハッチング部分は、再生用映像312のために割り当てた領域である。提示部74は、再生用映像312のうちのマスク部分(マスク映像313において白で示される領域)をマスクするよう制御する。即ち、ディスプレイ装置59において、再生用映像312のうちのマスク部分には、何も表示されず(符号314の状態)、当該部分が透過状態となる。これにより、マスク部分については、ユーザーは透過状態となっているディスプレイ装置9の画面を通して、実空間(符号311)を視認する。つまり、ユーザーは、提示映像(符号315)として、マスクされた再生用映像314とマスク部分の実空間とが合成された状態の映像を視認する。なお、再生用映像312のサイズとマスク映像313のサイズとは異なり、再生用映像312のサイズのほうが大きい。マスク映像313は、再生用映像311の所定の一部領域に割り当てられる。提示部74は、このように、光学シースルー方式で合成した提示映像(符号315)を、ディスプレイ装置59に表示する。提示部74は、この光学シースルー方式においては、得られる効果として、全天周映像(再生用映像)から切り出された映像の中に、映像提示装置1のユーザー自身の身体(ディスプレイ装置59を透過して視認され得る実空間)と、当該ユーザー自身の近傍(所定距離内)の実空間(ディスプレイ装置59を透過して視認され得る実空間)と、同じ空間内(部屋内)に存在している人(例えば、同一のコンテンツを同時に視聴、体験している人)の身体(ディスプレイ装置59を透過して視認され得る実空間)とが、透過して視認可能な状態での提示を行う。こういった光学シースルー方式の映像を表示するのに向いているのは、例えば、ユーザーの頭部に装着するタイプのヘッドマウントディスプレイである。特に、ディスプレイ画面上の各画素を、透過状態にするか、再生用画像内の画素を表示している状態にするかを制御することのできるヘッドマウントディスプレイである。
本実施形態に特有の構成をまとめると、次の通りである。
提示部74は、再生用映像の透過度を可変とする機能を有する。提示部74は、マスク情報に応じた透過度で再生用映像を出力する。周辺映像に相当する状況を提示すべき箇所においては、提示部74は、再生用映像を透過とする。これにより、視聴者は、実空間を視認することが可能となる。また、透過度を、0以上且つ1以下の実数としてよい。その中間の領域(透過度が0より大きく、1より小さい領域)において、提示部74は、マスク情報の数値に応じた透過度で前記再生用映像を出力する。つまり、提示部74は、再生用映像と実空間とが所定の混合比率で混合した状態で視聴者に視認されるよう、映像出力を制御する。
以上、説明したように、本実施形態によれば、光学シースルー方式により、第1実施形態と同様の、あるいは第1実施形態と類似の、コンテンツ提示方法を実現することが可能となる。
なお、上述した各実施形態における映像提示装置が有する機能の少なくとも一部をコンピューターで実現することができる。その場合、この機能を実現するためのプログラムをコンピューター読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピューターシステムに読み込ませ、実行することによって実現しても良い。なお、ここでいう「コンピューターシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM、DVD−ROM、USBメモリー等の可搬媒体、コンピューターシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピューター読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、一時的に、動的にプログラムを保持するもの、その場合のサーバーやクライアントとなるコンピューターシステム内部の揮発性メモリーのように、一定時間プログラムを保持しているものも含んでも良い。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピューターシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
なお、上記の実施形態の変形例を実施するようにしてもよい。
変形例の一例として、同期部7を持たない映像提示装置を実施してもよい。この場合、複数の映像提示装置間で情報を交換して、同一のコンテンツを同時に提示するための同期を図ることはできない。
変形例の別の一例として、提示領域抽出部72が提示領域の抽出を行わないようにしてもよい。例えば、周辺映像取得部3が取得する周辺映像の視野角と、ディスプレイ装置に周辺映像を表示させるときの視野角とが、同一である場合、または近い場合には、両者の視野角をあわせるための提示領域抽出部72の処理を省略することができる。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
本発明は、例えば、映像コンテンツを提示するための装置や、映像コンテンツを提示するサービス等に利用することができる。但し、本発明の利用範囲はここに例示したものには限られない。
1 映像提示装置
2 処理部
3 周辺映像取得部
4 距離情報取得部
5 再生用映像取得部
6 位置・姿勢取得部
7 同期部
9 ディスプレイ装置
21 認識部
22 提示領域抽出部
23 マスク生成部
24 提示部
31 無線ルーター
51 映像提示装置
52 処理部
59 ディスプレイ装置
72 提示領域抽出部
74 提示部

Claims (9)

  1. 再生用の映像である再生用映像を取得する再生用映像取得部と、
    自装置の周辺の映像である周辺映像を取得する周辺映像取得部と、
    前記周辺映像に含まれる所定の被写体を認識する認識部と、
    前記周辺映像に対応する距離情報を取得する距離情報取得部と、
    前記距離情報に基づいて前記再生用映像を提示すべき領域であるか否かを表すマスク情報であって、且つ、前記認識部が認識した前記被写体が存在する領域であるか否かを表すマスク情報を生成するマスク生成部と、
    前記マスク生成部が生成した前記マスク情報に基づいて、少なくとも前記再生用映像を出力する提示部と、
    を備える映像提示装置。
  2. 前記提示部が出力する再生用映像の時間方向の再生位置を、他の映像提示装置との間で同期させる同期部、
    をさらに備える請求項1に記載の映像提示装置。
  3. 前記提示部は、前記マスク情報に基づいて、画面内の領域ごとに、前記再生用映像または前記周辺映像の少なくともいずれかを表示するように出力する、
    請求項1または2に記載の映像提示装置。
  4. 前記周辺映像取得部が取得した前記周辺映像のうち、一部のみを切り出す提示領域抽出部、
    をさらに備え、
    前記認識部は、前記提示領域抽出部が切り出す前の前記周辺映像を基に前記所定の被写体を認識し、
    前記提示部は、前記提示領域抽出部によって切り出された前記周辺映像を出力する、
    請求項3に記載の映像提示装置。
  5. 前記マスク生成部は、前記再生用映像と前記周辺映像とを混合して提示する領域における混合比率の情報を含んだ前記マスク情報を生成し、
    前記提示部は、前記再生用映像と前記周辺映像とを混合して提示する領域においては、前記混合比率の情報に基づいて、前記再生用映像と前記周辺映像とが混合するように出力する、
    請求項4に記載の映像提示装置。
  6. 前記提示部は、前記再生用映像の透過度を可変とする機能を有し、前記マスク情報に応じた透過度で前記再生用映像を出力する、
    請求項1または2に記載の映像提示装置。
  7. 前記透過度は、0以上且つ1以下の実数であり、
    前記提示部は、前記マスク情報に応じた透過度で前記再生用映像を出力する、
    請求項6に記載の映像提示装置。
  8. 当該映像提示装置は、哺乳類生物の頭部に装着するタイプの装置であり、
    当該映像提示装置の位置および姿勢を検知する位置および姿勢検知部、
    をさらに備え、
    前記提示部は、全周映像である前記再生用映像のうちの、前記位置および姿勢検知部が検知した位置および姿勢に応じた部分映像を出力する、
    請求項1から7までのいずれか一項に記載の映像提示装置。
  9. 再生用の映像である再生用映像を取得する再生用映像取得過程と、
    自装置の周辺の映像である周辺映像を取得する周辺映像取得過程と、
    前記周辺映像に含まれる所定の被写体を認識する認識過程と、
    前記周辺映像に対応する距離情報を取得する距離取得過程と、
    前記距離情報に基づいて前記再生用映像を提示すべき領域であるか否かを表すマスク情報であって、且つ、前記認識過程で認識した前記被写体が存在する領域であるか否かを表すマスク情報を生成するマスク生成過程と、
    前記マスク生成過程で生成した前記マスク情報に基づいて、少なくとも前記再生用映像を出力する提示過程と、
    の処理をコンピューターに実行させるプログラム。
JP2019148569A 2019-08-13 2019-08-13 映像提示装置およびプログラム Active JP7403256B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019148569A JP7403256B2 (ja) 2019-08-13 2019-08-13 映像提示装置およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019148569A JP7403256B2 (ja) 2019-08-13 2019-08-13 映像提示装置およびプログラム

Publications (2)

Publication Number Publication Date
JP2021034744A true JP2021034744A (ja) 2021-03-01
JP7403256B2 JP7403256B2 (ja) 2023-12-22

Family

ID=74677696

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019148569A Active JP7403256B2 (ja) 2019-08-13 2019-08-13 映像提示装置およびプログラム

Country Status (1)

Country Link
JP (1) JP7403256B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023040326A (ja) * 2021-09-10 2023-03-23 Kddi株式会社 光透過率を制御可能なレンズを搭載したスマートグラス
JP2024170038A (ja) * 2023-05-26 2024-12-06 Fairy Devices株式会社 携帯端末、プログラム、方法、およびシステム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013257716A (ja) * 2012-06-12 2013-12-26 Sony Computer Entertainment Inc 障害物回避装置および障害物回避方法
JP2018007180A (ja) * 2016-07-07 2018-01-11 日本電信電話株式会社 映像表示装置、映像表示方法及び映像表示プログラム
US20180373412A1 (en) * 2017-06-26 2018-12-27 Facebook, Inc. Virtual reality safety bounding box
JP2019516180A (ja) * 2016-04-12 2019-06-13 アール−ストール インコーポレイテッド 仮想化環境内にイメージを提示するための方法及び装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013257716A (ja) * 2012-06-12 2013-12-26 Sony Computer Entertainment Inc 障害物回避装置および障害物回避方法
JP2019516180A (ja) * 2016-04-12 2019-06-13 アール−ストール インコーポレイテッド 仮想化環境内にイメージを提示するための方法及び装置
JP2018007180A (ja) * 2016-07-07 2018-01-11 日本電信電話株式会社 映像表示装置、映像表示方法及び映像表示プログラム
US20180373412A1 (en) * 2017-06-26 2018-12-27 Facebook, Inc. Virtual reality safety bounding box

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023040326A (ja) * 2021-09-10 2023-03-23 Kddi株式会社 光透過率を制御可能なレンズを搭載したスマートグラス
JP2024170038A (ja) * 2023-05-26 2024-12-06 Fairy Devices株式会社 携帯端末、プログラム、方法、およびシステム
JP7627443B2 (ja) 2023-05-26 2025-02-06 Fairy Devices株式会社 携帯端末、プログラム、方法、およびシステム

Also Published As

Publication number Publication date
JP7403256B2 (ja) 2023-12-22

Similar Documents

Publication Publication Date Title
US10684467B2 (en) Image processing for head mounted display devices
US9842433B2 (en) Method, apparatus, and smart wearable device for fusing augmented reality and virtual reality
KR100809479B1 (ko) 혼합 현실 환경을 위한 얼굴 착용형 디스플레이 장치
US10049496B2 (en) Multiple perspective video system and method
US20120200667A1 (en) Systems and methods to facilitate interactions with virtual content
KR102358997B1 (ko) 다자간 확장현실 체험을 위한 서비스 플랫폼
US20240153226A1 (en) Information processing apparatus, information processing method, and program
JP2007042073A (ja) 映像提示システム、映像提示方法、該映像提示方法をコンピュータに実行させるためのプログラム、および記憶媒体
US20230260235A1 (en) Information processing apparatus, information processing method, and information processing system
KR101687174B1 (ko) Vr 기기에서의 이벤트 발생에 의한 메시지 표시방법 및 그 장치
JP2021512402A (ja) マルチビューイング仮想現実ユーザインターフェース
US20230386147A1 (en) Systems and Methods for Providing Real-Time Composite Video from Multiple Source Devices Featuring Augmented Reality Elements
US11907434B2 (en) Information processing apparatus, information processing system, and information processing method
JP7403256B2 (ja) 映像提示装置およびプログラム
US20240163414A1 (en) Information processing apparatus, information processing method, and system
US11187895B2 (en) Content generation apparatus and method
EP3654099A2 (en) Method for projecting immersive audiovisual content
US11405531B2 (en) Data processing
JP2015136069A (ja) 映像配信システム、映像配信方法及び映像配信プログラム
CN113376858B (zh) 一种基于全息沙盘的全息展示方法及装置
JP7614765B2 (ja) コンテンツ提示装置、及びプログラム
CN105630170B (zh) 一种信息处理方法及电子设备
US20240331317A1 (en) Information processing device, information processing system and method
US10671150B2 (en) Data processing
HK40019111A (en) Method for projecting immersive audiovisual content

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20190906

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220713

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230608

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230810

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231212

R150 Certificate of patent or registration of utility model

Ref document number: 7403256

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150