図1はヘッドマウントディスプレイ100の外観例を示す。この例においてヘッドマウントディスプレイ100は、出力機構部102および装着機構部104で構成される。装着機構部104は、ユーザが被ることにより頭部を一周し装置の固定を実現する装着バンド106を含む。出力機構部102は、ヘッドマウントディスプレイ100をユーザが装着した状態において左右の目を覆うような形状の筐体108を含み、内部には装着時に目に正対するように表示パネルを備える。
筐体108内部にはさらに、ヘッドマウントディスプレイ100の装着時に表示パネルとユーザの目との間に位置し、画像を拡大して見せる接眼レンズを備える。ヘッドマウントディスプレイ100はさらに、装着時にユーザの耳に対応する位置にスピーカーやイヤホンを備えてよい。またヘッドマウントディスプレイ100はモーションセンサを内蔵し、ヘッドマウントディスプレイ100を装着したユーザの頭部の並進運動や回転運動、ひいては各時刻の位置や姿勢を検出してもよい。
ヘッドマウントディスプレイ100はさらに、筐体108の前面にステレオカメラ110、中央に広視野角の単眼カメラ111、左上、右上、左下、右下の四隅に広視野角の4つのカメラ112を備え、ユーザの顔の向きに対応する方向の実空間を動画撮影する。本実施の形態では、ステレオカメラ110が撮影した画像を即時表示させることにより、ユーザが向いた方向の実空間の様子をそのまま見せるモードを提供する。以後、このようなモードを「シースルーモード」と呼ぶ。コンテンツの画像を表示していない期間、ヘッドマウントディスプレイ100は基本的にシースルーモードへ移行する。
ヘッドマウントディスプレイ100が自動でシースルーモードへ移行することにより、ユーザはコンテンツの開始前、終了後、中断時などに、ヘッドマウントディスプレイ100を外すことなく周囲の状況を確認できる。シースルーモードへの移行タイミングはこのほか、ユーザが明示的に移行操作を行ったときなどでもよい。これによりコンテンツの鑑賞中であっても、任意のタイミングで一時的に実空間の画像へ表示を切り替えることができ、コントローラを見つけて手に取るなど必要な作業を行える。
ステレオカメラ110、単眼カメラ111、4つのカメラ112による撮影画像の少なくともいずれかは、コンテンツの画像としても利用できる。例えば写っている実空間と対応するような位置、姿勢、動きで、仮想オブジェクトを撮影画像に合成して表示することにより、拡張現実(AR:Augmented Reality)や複合現実(MR:Mixed Reality)を実現できる。このように撮影画像を表示に含めるか否かによらず、撮影画像の解析結果を用いて、描画するオブジェクトの位置、姿勢、動きを決定づけることができる。
例えば、撮影画像にステレオマッチングを施すことにより対応点を抽出し、三角測量の原理で被写体の距離を取得してもよい。あるいはSLAM(Simultaneous Localization and Mapping)により周囲の空間に対するヘッドマウントディスプレイ100、ひいてはユーザの頭部の位置や姿勢を取得してもよい。また物体認識や物体深度測定なども行える。これらの処理により、ユーザの視点の位置や視線の向きに対応する視野で仮想世界を描画し表示させることができる。
なお本実施の形態のヘッドマウントディスプレイ100は、ユーザの顔の位置や向きに対応する視野で実空間を撮影するカメラを備えれば、実際の形状は図示するものに限らない。また、シースルーモードにおいて左目の視野、右目の視野の画像を擬似的に生成すれば、ステレオカメラ110の代わりに単眼カメラを用いることもできる。
図2は、本実施の形態におけるコンテンツ処理システムの構成例を示す。ヘッドマウントディスプレイ100は、無線通信またはUSB Type-Cなどの周辺機器を接続するインターフェース300によりコンテンツ処理装置200に接続される。コンテンツ処理装置200には平板型ディスプレイ302が接続される。コンテンツ処理装置200は、さらにネットワークを介してサーバに接続されてもよい。その場合、サーバは、複数のユーザがネットワークを介して参加できるゲームなどのオンラインアプリケーションをコンテンツ処理装置200に提供してもよい。
コンテンツ処理装置200は基本的に、コンテンツのプログラムを処理し、表示画像を生成してヘッドマウントディスプレイ100や平板型ディスプレイ302に送信する。ある態様においてコンテンツ処理装置200は、ヘッドマウントディスプレイ100を装着したユーザの頭部の位置や姿勢に基づき視点の位置や視線の方向を特定し、それに対応する視野の表示画像を所定のレートで生成する。
ヘッドマウントディスプレイ100は当該表示画像のデータを受信し、コンテンツの画像として表示する。この限りにおいて画像を表示する目的は特に限定されない。例えばコンテンツ処理装置200は、電子ゲームを進捗させつつゲームの舞台である仮想世界を表示画像として生成してもよいし、仮想世界か実世界かに関わらず観賞や情報提供のために静止画像または動画像を表示させてもよい。
なおコンテンツ処理装置200とヘッドマウントディスプレイ100の距離やインターフェース300の通信方式は限定されない。例えばコンテンツ処理装置200は、個人が所有するゲーム装置などのほか、クラウドゲームなど各種配信サービスを提供する企業などのサーバや、任意の端末にデータを送信する家庭内サーバなどでもよい。したがってコンテンツ処理装置200とヘッドマウントディスプレイ100の間の通信は上述した例のほか、インターネットなどの公衆ネットワークやLAN(Local Area Network)、携帯電話キャリアネットワーク、街中にあるWi-Fiスポット、家庭にあるWi-Fiアクセスポイントなど、任意のネットワークやアクセスポイントを経由して実現してもよい。
図3は、本実施の形態のコンテンツ処理システムにおけるデータの経路を模式的に示している。ヘッドマウントディスプレイ100は上述のとおりステレオカメラ110と表示パネル122を備える。ただし上述のとおりカメラはステレオカメラ110に限らず、単眼カメラ111や4つのカメラ112のいずれかまたは組み合わせであってもよい。以後の説明も同様である。表示パネル122は、液晶ディスプレイや有機ELディスプレイなどの一般的な表示機構を有するパネルであり、ヘッドマウントディスプレイ100を装着したユーザの目の前に画像を表示する。またヘッドマウントディスプレイ100は内部に、画像処理用集積回路120を備える。
画像処理用集積回路120は例えば、CPUを含む様々な機能モジュールを搭載したシステムオンチップである。なおヘッドマウントディスプレイ100はこのほか、上述のとおりジャイロセンサ、加速度センサ、角加速度センサなどのモーションセンサや、DRAM(Dynamic Random Access Memory)などのメインメモリ、ユーザに音声を聞かせるオーディオ回路、周辺機器を接続するための周辺機器インターフェース回路などが備えられてよいが、ここでは図示を省略している。
拡張現実や複合現実を遮蔽型のヘッドマウントディスプレイで実現する場合、一般にはステレオカメラ110などによる撮影画像を、コンテンツを処理する主体に取り込み、そこで仮想オブジェクトと合成して表示画像を生成する。図示するシステムにおいてコンテンツを処理する主体はコンテンツ処理装置200のため、矢印Bに示すように、ステレオカメラ110で撮影された画像は、画像処理用集積回路120を経て一旦、コンテンツ処理装置200に送信される。
そして仮想オブジェクトが合成されるなどしてヘッドマウントディスプレイ100に返され、表示パネル122に表示される。一方、本実施の形態では矢印Aに示すように、撮影画像を対象としたデータの経路を設ける。例えばシースルーモードにおいては、ステレオカメラ110で撮影された画像を、画像処理用集積回路120で適宜処理し、そのまま表示パネル122に表示させる。このとき画像処理用集積回路120は、撮影画像を表示に適した形式に補正する処理のみ実施する。
あるいはさらに、画像処理用集積回路120において、コンテンツ処理装置200が生成した画像と撮影画像を合成したうえ、表示パネル122に表示させる。このようにすると、ヘッドマウントディスプレイ100からコンテンツ処理装置200へは、撮影画像のデータの代わりに、撮影画像から取得した、実空間に係る情報のみを送信すればよくなる。またコンテンツ処理装置200からヘッドマウントディスプレイ100へは、合成すべき画像のデータのみを送信すればよくなる。
矢印Aの経路によれば、矢印Bと比較しデータの伝送経路が格段に短縮する。また上述のようにヘッドマウントディスプレイ100とコンテンツ処理装置200の間で伝送すべきデータのサイズを小さくできる。結果として、画像の撮影から表示までの時間を短縮できるとともに、伝送に要する消費電力を軽減させることができる。
図4は、画像処理用集積回路120において、撮影画像から表示画像を生成する処理を説明するための図である。実空間において、物が置かれたテーブルがユーザの前にあるとする。ステレオカメラ110はそれを撮影することにより、左視点の撮影画像16a、右視点の撮影画像16bを取得する。ステレオカメラ110の両視点の間隔により、撮影画像16a、16bには、同じ被写体の像に視差が生じている。
また、カメラのレンズにより、被写体の像には歪曲収差が発生する。一般には、そのようなレンズ歪みを補正し、歪みのない左視点の画像18a、右視点の画像18bを生成する(S10)。ここで元の画像16a、16bにおける位置座標(x,y)の画素が、補正後の画像18a、18bにおける位置座標(x+Δx,y+Δy)へ補正されたとすると、その変位ベクトル(Δx,Δy)は次の一般式で表せる。
ここでrは、画像平面におけるレンズの光軸から対象画素までの距離、(Cx,Cy)はレンズの光軸の位置である。またk1、k2、k3、・・・はレンズ歪み係数でありレンズの設計に依存する。次数の上限は特に限定されない。なお本実施の形態においてレンズ歪みの補正に用いる式を式1に限定する趣旨ではない。平板型ディスプレイに表示させたり画像解析をしたりする場合、このように補正された一般的な画像が用いられる。一方、ヘッドマウントディスプレイ100において、接眼レンズを介して見た時に歪みのない画像18a、18bが視認されるためには、接眼レンズによる歪みと逆の歪みを与えておく必要がある。
例えば画像の四辺が糸巻き状に凹んで見えるレンズの場合、画像を樽型に湾曲させておく。したがって歪みのない画像18a、18bを接眼レンズに対応するように歪ませ、表示パネル122のサイズに合わせて左右に接続することにより、最終的な表示画像22が生成される(S12)。表示画像22の左右の領域における被写体の像と、補正前の歪みのない画像18a、18bにおける被写体の像の関係は、カメラのレンズ歪みを有する画像と歪みを補正した画像の関係と同等である。
したがって式1の変位ベクトル(Δx,Δy)の逆ベクトルにより、表示画像22における歪みのある像を生成できる。ただし当然、レンズに係る変数は接眼レンズの値とする。本実施の形態の画像処理用集積回路120は、このような2つのレンズを踏まえた歪みの除去と付加を、一度の計算で完了させる(S14)。詳細には、元の撮影画像16a、16b上の画素が、補正によって表示画像22のどの位置に変位するかを示す変位ベクトルを画像平面に表した変位ベクトルマップを作成しておく。
カメラのレンズによる歪みを除去する際の変位ベクトルを(Δx,Δy)、接眼レンズのために歪みを付加する際の変位ベクトルを(-Δx’,-Δy’)とすると、変位ベクトルマップが各位置で保持する変位ベクトルは(Δx-Δx’,Δy-Δy’)となる。なお変位ベクトルは、画素の変位の方向と変位量を定義するのみであるため、事前にそれらのパラメータを決定できるものであれば、レンズ歪みに起因する補正に限らず様々な補正や組み合わせを、同様の構成で容易に実現できる。
表示画像22を生成する際は変位ベクトルマップを参照して、撮影画像16a、16bの各位置の画素を変位ベクトル分だけ移動させる。なお撮影画像16a、16bをそれぞれ補正して左目用、右目用の表示画像を生成し、後から接続して表示画像22を生成してもよい。撮影画像16a、16bと表示画像22は、歪みの分の変位はあるものの像が表れる位置や形状に大きな変化はないため、画像平面の上の行から順に撮影画像の画素値が取得されるのと並行して、その画素値を取得し補正を施すことができる。そして上の段から順に、補正処理と並行して後段の処理に供することにより、低遅延での表示を実現できる。
図5は、画像処理用集積回路120において、コンテンツ処理装置200から送信された仮想オブジェクトを撮影画像に合成して表示画像を生成する処理を説明するための図である。同図右上の画像26は、図4で説明したように撮影画像を補正した画像である。ただしこの態様ではそれをそのまま表示せず、コンテンツ処理装置200から送信された、仮想オブジェクトの画像24と合成して最終的な表示画像28とする。この例では猫のオブジェクトを合成する。
図示するようにコンテンツ処理装置200は、撮影画像と融合する適切な位置に猫のオブジェクトを描画した画像24を生成する。この際、左目用、右目用に視差のある画像を生成したうえ、図4のS12に示したのと同様に、ヘッドマウントディスプレイ100の接眼レンズを踏まえた歪みを与える。コンテンツ処理装置200は、歪みを与えた左右の画像を接続してなる画像24をヘッドマウントディスプレイ100に送信する。
ヘッドマウントディスプレイ100の画像処理用集積回路120は、撮影画像を補正してなる画像26に、コンテンツ処理装置200から送信された画像24内の猫のオブジェクトをはめ込むことにより合成し、表示画像28を生成する。画像24において適切な位置にオブジェクトを描画することにより、例えば実物体であるテーブルの上に猫のオブジェクトが立っているような状態の画像が表示される。表示画像28を、接眼レンズを介して見ることにより、ユーザには画像29のような像が立体的に視認される。
なお仮想オブジェクトの画像24など合成すべき画像のデータの生成元や送信元はコンテンツ処理装置200に限らない。例えばネットワークを介してコンテンツ処理装置200またはヘッドマウントディスプレイ100に接続したサーバを生成元や送信元としてもよいし、ヘッドマウントディスプレイ100に内蔵された、画像処理用集積回路120とは異なるモジュールを生成元や送信元としてもよい。コンテンツ処理装置200を含め、それらの装置を「画像生成装置」と捉えることもできる。また合成処理を実施し表示装置を生成する装置をヘッドマウントディスプレイ100と別に設けてもよい。
図6は、画像処理用集積回路120が画像を合成するために、コンテンツ処理装置200が送信するデータの内容を説明するための図である。(a)は、合成すべき仮想オブジェクトを表示形式で表した画像(以下、「グラフィクス画像」と呼ぶ)50と、グラフィクス画像50の透明度を表すα値を画像平面に表したα画像52からなるデータである。ここでα値は、0のときを透明、1のときを不透明、その中間値を数値に応じた濃さの半透明とする一般的なパラメータである。
図示する例で猫のオブジェクトのみを不透明に合成する場合は、猫のオブジェクトの領域のα値を1、その他の領域のα値を0としたα画像を生成する。画像処理用集積回路120は、撮影画像を補正してなる画像と、コンテンツ処理装置200から送信されたグラフィクス画像50を次の演算により合成し、表示画像を生成する。
Fout=(1-α)Fi+αFo
ここでFi、Foはそれぞれ、補正された撮影画像およびグラフィクス画像50における同じ位置の画素値、αはα画像における同じ位置のα値、Foutは表示画像における同じ位置の画素値である。なお実際には、赤、緑、青の3チャンネルの画像ごとに上記演算を実施する。
(b)は、グラフィクス画像において、合成すべき仮想オブジェクト以外の領域を、緑など所定色の塗り潰しとした画像54からなるデータである。この場合、画像処理用集積回路120は、画像54のうち画素値が当該所定色以外の領域のみを合成対象とし、撮影画像の画素と置換する。結果として図示する例では、猫のオブジェクトの領域のみが撮影画像の画素と置換され、その他の領域は撮影画像が残った表示画像が生成される。このような合成手法はクロマキー合成として知られている。
コンテンツ処理装置200は、ヘッドマウントディスプレイ100から撮影画像における被写体の位置や姿勢に係る情報を取得し、当該被写体との位置関係を踏まえて仮想オブジェクトを描画することによりグラフィクス画像を生成する。それと同時に、α画像52を生成したり、仮想オブジェクト以外の領域を所定色で塗りつぶしたりすることで、合成処理に必要な情報(以下、「合成情報」と呼ぶ)を生成する。これらをヘッドマウントディスプレイ100に送信して合成させることにより、全体として伝送すべきデータ量を削減できる。
図7は、コンテンツ処理装置200からヘッドマウントディスプレイ100へ、合成用のデータを伝送するためのシステム構成のバリエーションを示している。(a)は、コンテンツ処理装置200とヘッドマウントディスプレイ100を、DisplayPortなどの標準規格により有線接続するケースを示している。(b)は、コンテンツ処理装置200とヘッドマウントディスプレイ100の間に中継装置310を設け、コンテンツ処理装置200と中継装置310を有線接続し、中継装置310とヘッドマウントディスプレイ100をWi-Fi(登録商標)などにより無線接続するケースを示している。
(a)の構成の場合、ヘッドマウントディスプレイ100にケーブルが接続されるため、コンテンツ処理装置200が設置型であればユーザの動きが阻害され得る一方、比較的高いビットレートを確保できる。(b)の構成の場合、無線通信においてフレームレートに対応するデータを伝送するには、データの圧縮率を有線の場合より高める必要があるが、ユーザの可動範囲を広げられる。本実施の形態では、これらのシステム構成に対応できるようにすることで、通信環境や求められる処理性能に応じた最適化を行えるようにする。
図8は、本実施の形態の画像処理用集積回路120の回路構成を示している。ただし本実施の形態に係る構成のみ図示し、その他は省略している。画像処理用集積回路120は、入出力インターフェース30、CPU32、信号処理回路42、画像補正回路34、画像解析回路46、復号回路48、合成回路36、およびディスプレイコントローラ44を備える。
入出力インターフェース30は有線通信によりコンテンツ処理装置200と、無線通信により中継装置310と通信を確立し、そのいずれかとデータの送受信を実現する。本実施の形態において入出力インターフェースは、画像の解析結果やモーションセンサの計測値などをコンテンツ処理装置200に送信する。この際も中継装置310を中継してよい。また入出力インターフェース30は、コンテンツ処理装置200がそれに応じて生成したグラフィクス画像と合成情報のデータを、コンテンツ処理装置200あるいは中継装置310から受信する。
CPU32は、画像信号、センサ信号などの信号や、命令やデータを処理して出力するメインプロセッサであり、他の回路を制御する。信号処理回路42は、ステレオカメラ110の左右のイメージセンサから撮影画像のデータを所定のフレームレートで取得し、それぞれにデモザイク処理などの必要な処理を施す。信号処理回路42は、画素値が決定した画素列順に、画像補正回路34、画像解析回路46にデータを供給する。
画像補正回路34は上述のとおり、撮影画像における各画素を、変位ベクトル分だけ変位させることにより補正する。変位ベクトルマップにおいて変位ベクトルを設定する対象は、撮影画像平面の全ての画素でもよいし、所定間隔の離散的な画素のみでもよい。後者の場合、画像補正回路34はまず、変位ベクトルが設定されている画素について変位先を求め、それらの画素との位置関係に基づき、残りの画素の変位先を補間により求める。
色収差を補正する場合、赤、緑、青の原色ごとに変位ベクトルが異なるため、変位ベクトルマップを3つ準備する。また画像補正回路34は表示画像のうち、このような画素の変位によって値が決定しない画素については、周囲の画素値を適宜補間して画素値を決定する。画像補正回路34は、そのようにして決定した画素値をバッファメモリに格納していく。そしてシースルーモードにおいては、画像平面の上の行から順に、画素値の決定とともにディスプレイコントローラ44へデータを出力していく。画像合成時は、同様にして合成回路36にデータを出力していく。
画像解析回路46は、撮影画像を解析することにより所定の情報を取得する。例えば左右の撮影画像を用いてステレオマッチングにより被写体の距離を求め、それを画像平面に画素値として表したデプスマップを生成する。SLAMによりヘッドマウントディスプレイの位置や姿勢を取得してもよい。このほか、画像解析の内容として様々に考えられることは当業者には理解されるところである。画像解析回路46は取得した情報を、入出力インターフェース30を介して順次、コンテンツ処理装置200に送信する。
復号回路48は、入出力インターフェース30が受信した合成用のデータを復号伸張する。上述のとおり、他の装置との通信が有線か無線かによって通信帯域が変化するため、本実施の形態ではそれに応じて合成用のデータの構造や圧縮方式を切り替える。したがって復号回路48は、受信したデータに適した方式を適宜選択して復号伸張を施す。復号回路48は復号伸張したデータを順次、合成回路36に供給する。
合成回路36は図5に示したように、画像補正回路34から供給された撮影画像と、復号回路48から供給されたグラフィクス画像を合成し表示画像とする。合成には上述のとおり、アルファブレンドまたはクロマキー合成のいずれを採用してもよい。コンテンツ処理装置200から、グラフィクス画像とα画像を統合した画像のデータが送信された場合、合成回路36はそれらを分離してグラフィクス画像とα画像を復元したうえでアルファブレンドを実施する。
中継装置310から、所定方向に縮小されたグラフィクス画像とα画像のデータがそれぞれ送信された場合、合成回路36はそれらの画像を当該所定方向に拡大して復元したうえでアルファブレンドを実施する。なお画像補正回路34は必要に応じて、合成後の表示画像に対し色収差補正を実施する。そして合成回路36または画像補正回路34は、画像平面の上の行から順に、画素値の決定とともにディスプレイコントローラ44へデータを出力していく。
図9は、コンテンツ処理装置200の内部回路構成を示している。コンテンツ処理装置200は、CPU(Central Processing Unit)222、GPU(Graphics Processing Unit)224、メインメモリ226を含む。これらの各部は、バス230を介して相互に接続されている。バス230にはさらに入出力インターフェース228が接続されている。
入出力インターフェース228には、USBやPCIeなどの周辺機器インターフェースや、有線又は無線LANのネットワークインターフェースからなる通信部232、ハードディスクドライブや不揮発性メモリなどの記憶部234、ヘッドマウントディスプレイ100へのデータを出力する出力部236、ヘッドマウントディスプレイ100からのデータを入力する入力部238、磁気ディスク、光ディスクまたは半導体メモリなどのリムーバブル記録媒体を駆動する記録媒体駆動部240が接続される。
CPU222は、記憶部234に記憶されているオペレーティングシステムを実行することによりコンテンツ処理装置200の全体を制御する。CPU222はまた、リムーバブル記録媒体から読み出されてメインメモリ226にロードされた、あるいは通信部232を介してダウンロードされた各種プログラムを実行する。GPU224は、ジオメトリエンジンの機能とレンダリングプロセッサの機能とを有し、CPU222からの描画命令に従って描画処理を行い、出力部236に出力する。メインメモリ226はRAM(Random Access Memory)により構成され、処理に必要なプログラムやデータを記憶する。
図10は、本実施の形態におけるコンテンツ処理装置200の機能ブロックの構成を示している。同図および後述の図11、12に示す機能ブロックは、ハードウェア的にはCPU、GPU、各種メモリなどの構成で実現でき、ソフトウェア的には、記録媒体などからメモリにロードした、データ入力機能、データ保持機能、画像処理機能、通信機能などの諸機能を発揮するプログラムで実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
コンテンツ処理装置200は、ヘッドマウントディスプレイ100または中継装置310とデータの送受信を行う通信部258、合成用のデータを生成する合成用データ生成部250、および、生成されたデータを圧縮符号化する圧縮符号化部260を備える。通信部258は有線でヘッドマウントディスプレイ100または中継装置310と通信を確立し、ヘッドマウントディスプレイ100が行った撮影画像の解析結果を受信する。通信部258はまた、合成用データ生成部250が生成した合成用データをヘッドマウントディスプレイ100または中継装置310に送信する。
合成用データ生成部250は、位置姿勢予測部252、画像描画部254、および合成情報統合部256を含む。位置姿勢予測部252は、ヘッドマウントディスプレイ100が行った撮影画像の解析結果に基づき、所定時間後の被写体の位置や姿勢を予測する。本実施の形態では、撮影画像はヘッドマウントディスプレイ100側で処理するため、低遅延での表示が可能である。一方、撮影画像の解析結果を装置間で送信し、コンテンツ処理装置200でそれに対応したグラフィクス画像を生成するには一定の時間を要する。
そのため当該グラフィクス画像をヘッドマウントディスプレイ100で合成する際、合成先の撮影画像のフレームは、解析の元となったフレームより後のフレームとなる。そこで画像解析に用いたフレームと、合成先のフレームとの時間差をあらかじめ計算しておき、位置姿勢予測部252は、当該時間差分だけ後の、被写体の位置や姿勢を予測する。予測結果に基づき生成されたグラフィクス画像をヘッドマウントディスプレイ100において撮影画像と合成することにより、グラフィクスと撮影画像にずれの少ない表示画像を生成できる。
なお被写体の位置や姿勢は、ステレオカメラ110の撮像面に対する相対的なものでよい。したがって予測に用いる情報は、撮影画像の解析結果に限らず、ヘッドマウントディスプレイ100が内蔵するモーションセンサの計測値などでもよいし、それらを適宜組み合わせてもよい。また被写体の位置や姿勢の予測には、一般的な技術のいずれを採用してもよい。
画像描画部254は、予測された被写体の位置や姿勢の情報に基づき、それに対応するようにグラフィクス画像を生成する。上述のとおり画像表示の目的は特に限定されないため、画像描画部254は例えば並行して電子ゲームを進捗させ、その状況と、予測された被写体の位置や姿勢に基づき仮想オブジェクトを描画する。ただし画像描画部254が実施する処理は、コンピュータグラフィクスの描画に限定されない。例えばあらかじめ取得しておいた静止画や動画を再生したり切り取ったりして合成すべき画像としてもよい。画像描画部254はグラフィクス画像の生成と同時に合成情報も生成する。
合成情報統合部256は、グラフィクス画像と合成情報を統合することにより合成用データとする。合成情報がα画像の場合、合成情報統合部256は、グラフィクス画像とα画像を1つの画像平面で表すことにより統合する。クロマキー合成の場合は、描画したオブジェクト以外の領域を所定色で塗りつぶすことが、合成情報統合部256における統合処理となる。
いずれにしろ合成情報統合部256は、グラフィクス画像に合成情報を含めて画像のデータとして扱えるようにする。圧縮符号化部260は、グラフィクス画像と合成情報が統合されてなる合成用の画像データを所定の方式で圧縮符号化する。コンテンツ処理装置200からヘッドマウントディスプレイ100あるいは中継装置310への送信を有線通信で実現することにより、比較的圧縮率の低い可逆圧縮でも送信が可能である。可逆圧縮の例として、ハフマン符号化やランレングス符号化を用いることができる。また圧縮符号化部260は有線通信であっても、合成用の画像データを不可逆圧縮してもよい。
図11は、本実施の形態における中継装置310の機能ブロックの構成を示している。中継装置310は、コンテンツ処理装置200及びヘッドマウントディスプレイ100と通信を確立しデータの送受信を行う通信部312、コンテンツ処理装置200から送信された合成用のデータを必要に応じて分離するデータ分離部314、合成用のデータを適切に圧縮し直す圧縮符号化部316を備える。
通信部312は有線でコンテンツ処理装置200と通信を確立し、合成用のデータを受信する。このデータは上述のとおり、グラフィクス画像と合成情報を統合したものである。通信部312はまた、ヘッドマウントディスプレイ100と無線で通信を確立し、適切に圧縮し直された合成用のデータをヘッドマウントディスプレイ100に送信する。
データ分離部314はまず、コンテンツ処理装置200から送信された合成用のデータを復号伸張する。コンテンツ処理装置200から可逆圧縮されたデータを送信するようにすることで、元のグラフィクス画像と合成情報を統合した画像が復元される。そして合成情報がα画像の場合、データ分離部314は、当該統合された画像を、グラフィクス画像とα画像に分離する。
一方、クロマキー合成用の画像が送信された場合、データ分離部314は分離処理を省略できる。あるいはデータ分離部314は、クロマキー合成用の画像において、オブジェクトが描画されている領域の画素値を1、所定色で塗りつぶされているその他の領域の画素値を0とするα画像を生成することで分離処理を実施してもよい。この場合、以後の処理はα画像が送信された場合と同様となる。
圧縮符号化部316は第1圧縮部318と第2圧縮部320を含む。データ分離部314が分離したデータのうち、第1圧縮部318はグラフィクス画像を圧縮符号化し、第2圧縮部320はα画像を圧縮符号化する。このα画像は、クロマキー合成用の画像から生成したものでもよい。第1圧縮部318と第2圧縮部320では、圧縮符号化の方式を異ならせる。好適には第1圧縮部318は、第2圧縮部320より圧縮率の高い非可逆圧縮を実施し、第2圧縮部320は可逆圧縮を実施する。
中継装置310は、ヘッドマウントディスプレイ100を通信ケーブルから解放する役割を担う。そのため送信データをできるだけ圧縮する必要があるが、α画像をグラフィクス画像と同様に非可逆圧縮してしまうと、最も重要な輪郭部分などに誤差が含まれ、合成結果に悪影響を及ぼすことが考えられる。そこで、一旦統合して有線にて送出されたグラフィクス画像とα画像を分離し、それぞれに適切な符号化処理を施すことにより、全体としてデータサイズを軽減させる。これにより無線通信によっても遅延の少ないデータ伝送を実現する。
なおコンテンツ処理装置200からクロマキー合成用の画像が送信され、データ分離部314において対応するα画像を生成しなかった場合、画像全体を第1圧縮部318により高い圧縮率で圧縮符号化してよい。ただしこの場合、ヘッドマウントディスプレイ100において復号された画像には誤差が含まれ得る。その結果、所定色で塗りつぶした領域の画素値が微小量、変化し、合成時に撮影画像の画素が当該画素値に置換されてしまうことが考えられる。
そこでヘッドマウントディスプレイ100の合成回路36は、合成しない領域(画素値を置換しない領域)であることを判定する基準として画素値に幅をもたせる。例えば塗りつぶし色の画素値が赤、緑、青の順で(Cr,Cg,Cb)であるとすると、(Cr±Δr,Cg±Δg,Cb±Δb)の範囲の画素値であれば撮影画像に合成しない。ここで画素値のマージン(Δr,Δg,Δb)は、実験などにより最適値を設定する。これによりクロマキー合成用の画像を比較的高い圧縮率で圧縮符号化しても、合成処理の精度の悪化を抑えることができる。
図12は、ヘッドマウントディスプレイが内蔵する画像処理装置128の機能ブロックの構成を示している。この機能ブロックは上述のとおり、ハードウェア的には図8で示した画像処理用集積回路120などの構成で実現でき、ソフトウェア的には、記録媒体などからメインメモリなどにロードした、データ入力機能、データ保持機能、画像処理機能、通信機能などの諸機能を発揮するプログラムで実現される。
この例で画像処理装置128は、信号処理部150、画像解析部152、第1補正部156、信号処理部158、合成部160、第2補正部162、画像表示制御部164を備える。信号処理部150は図8の信号処理回路42で実現され、ステレオカメラ110のイメージセンサから撮影画像のデータを取得し、必要な処理を施す。画像解析部152は図8のCPU32、画像解析回路46、入出力インターフェース30で実現され、撮影画像を解析し所定の情報を取得してコンテンツ処理装置200に送信する。
例えば左右の撮影画像を用いてステレオマッチングにより被写体の距離を求め、それを画像平面に画素値として表したデプスマップを生成する。SLAMによりヘッドマウントディスプレイの位置や姿勢を取得してもよい。このほか、画像解析の内容として様々に考えられることは当業者には理解されるところである。ただし場合によっては、信号処理部150が処理した撮影画像のデータそのものをコンテンツ処理装置200に送信してもよい。
この場合、信号処理部150は図8の入出力インターフェース30を含む。また画像解析部152による解析結果やヘッドマウントディスプレイ100が内蔵する図示しないモーションセンサの計測値は、画像変形処理に用いてもよい。すなわちヘッドマウントディスプレイ100内部での処理やコンテンツ処理装置200とのデータ転送に要した時間におけるユーザの視線の動きをそれらのパラメータに基づき特定し、変位ベクトルマップに動的に反映させてもよい。
信号処理部150はさらに、撮影画像を所定の手法で高精細化する超解像処理を実施してもよい。例えば撮影画像を画像平面の水平および垂直方向に、1画素より小さい幅でずらした画像と、ずらす前の画像とを合成することにより鮮明化する。このほか超解像には様々な手法が提案されており、そのいずれを採用してもよい。
第1補正部156は、図8のCPU32、画像補正回路34で実現され、図4のS14のように撮影画像を補正して、接眼レンズのための歪みを有する表示画像を生成する。ただしコンテンツ処理装置200から送信された画像を合成する場合、第1補正部156では色収差補正を行わない。すなわち、全ての原色について同じ歪みを与える。表示パネルを見る人間の目の特性を考慮し、緑色に対し生成しておいた変位ベクトルマップを用いて、赤、緑、青の全ての画像を補正する。加えてイメージセンサが取得するRAW画像がベイヤ配列の場合、最も画素密度の高い緑色を用いることができる。
撮影画像を別の画像と合成せずに表示するシースルーモードの場合は、上述のように第1補正部156において、一度に色収差補正まで実施した表示画像を生成してよい。すなわち赤、緑、青のそれぞれに対し準備した変位ベクトルマップを用いて、各色の撮影画像を補正する。信号処理部158は図8のCPU32、入出力インターフェース30、復号回路48で実現され、コンテンツ処理装置200または中継装置310から送信されたデータを復号伸張する。
合成部160は図8のCPU32と合成回路36により実現され、第1補正部156により補正された撮影画像に、コンテンツ処理装置200などから送信されたグラフィクス画像を合成する。合成部160は必要に応じて、グラフィクス画像とα画像を分離したり、縮小されているグラフィクス画像とα画像を所定方向に拡大して復元したりする。
第2補正部162は図8のCPU32、画像補正回路34で実現され、合成部160から入力された画像を補正する。ただし第2補正部162は、表示画像に対しなすべき補正のうち未実施の補正、具体的には色収差の補正のみを実施する。従来技術において、コンテンツ処理装置200で合成までなされた表示画像をヘッドマウントディスプレイ100に送信して表示する場合、歪みのない合成画像を生成したうえで、接眼レンズのための補正とともに色収差補正を行うのが一般的である。一方、本実施の形態では、撮影画像とそれに合成すべき画像のデータ経路が異なるため、補正処理を2段階に分離する。
すなわちコンテンツ処理装置200から送信される画像と撮影画像に対し、接眼レンズに対応する共通の歪みを与えておき、合成後に色別に補正する。第2補正部162では、合成後の画像のうち赤、青の画像に対し、さらに必要な補正を施して画像を完成させる。人の視感度が最も高い波長帯である緑を基準として最初に補正を行ったうえで拡大縮小、超解像、合成などを行い、その後に赤と青の収差を補正することにより、色にじみや輪郭の異常が視認されにくくなる。ただし補正に用いる色の順序を限定する趣旨ではない。色収差の補正を合成後に残しておくことにより、合成の境界線を明確に定義できる。
すなわち色収差を補正した後に合成すると、クロマキー用の画像やα画像で設定した境界線が原色によっては誤差を含み、合成後の輪郭に色にじみを生じさせる。色ずれのない状態で合成したあとに、色収差補正により画素を微小量ずらすことにより、輪郭ににじみのない表示画像を生成できる。画像の拡大縮小、超解像、合成などの処理では一般的に、バイリニアやトライリニアなどのフィルター処理が用いられる。色収差を補正した後にこれらのフィルター処理を実施すると、色収差補正の結果がミクロなレベルで破壊され、表示時に色にじみや異常な輪郭が発生する。第2補正部162の処理を表示の直前とすることで、そのような問題を回避できる。画像表示制御部164は図5のディスプレイコントローラ44で実現され、そのようにして生成された表示画像を順次、表示パネル122に出力する。
なおコンテンツ処理装置200の圧縮符号化部260、中継装置310のデータ分離部314および圧縮符号化部316、および画像処理装置128の信号処理部158は、画像平面を分割してなる単位領域ごとに圧縮符号化、復号伸張、動き補償を行ってよい。ここで単位領域は、例えば画素の1行分、2行分など、所定行数ごとに横方向に分割してなる領域、あるいは、16×16画素、64×64画素など、縦横双方向に分割してなる矩形領域などとする。
このとき上記機能ブロックはそれぞれ、単位領域分の処理対象のデータが取得される都度、圧縮符号化処理および復号伸張処理を開始し、処理後のデータを当該単位領域ごとに出力する。表示画像の全画素数より少ない、単位領域の画素のデータの単位で、圧縮符号化および復号伸張を含む一連の処理に関わる機能ブロックが入出力制御を行うことで、一連のデータを低遅延で処理し転送できる。
図13は、コンテンツ処理装置200がグラフィック画像とα画像を統合してなる画像の構成を例示している。(a)の構成は、1フレーム分の画像平面において、グラフィクス画像が表される範囲56以外の領域58に、α画像のデータを埋め込んでいる。すなわち上述のとおり、ヘッドマウントディスプレイ100に表示させる画像は、接眼レンズのための歪みを与えているため、グラフィクス画像の範囲56は矩形にならない。
一方、伝送するデータは、横方向と縦方向の幅が規定された矩形の平面を前提としているため、グラフィクス画像の範囲56との間に使用されない領域58が生じる。そこでコンテンツ処理装置200の合成情報統合部256は、当該領域58にα値を埋め込む。例えば右側に拡大して示すように、α画像のラスタ順の画素列を、領域58を埋め尽くすように左から右、上から下へ配置していく。
(b)の構成は、α画像とグラフィクス画像をそれぞれ縦方向に縮小して上下に接続することにより1つの画像平面としている。(c)の構成は、グラフィクス画像とα画像をそれぞれ横方向に縮小して左右に接続することにより1つの画像平面としている。(b)と(c)の構成において、グラフィクス画像とα画像の縮小率は同じでも異なっていてもよい。いずれにしろこれらの構成によれば、α値のチャンネルをサポートしていない規格によっても容易にα画像の伝送が可能になる。なお(b)と(c)の構成においてグラフィクス画像は図示するような歪みを与えた画像でなくてもよい。すなわち当該画像は、平板型ディスプレイに表示させることを前提として生成された歪みのない画像でもよい。
なおこれらの構成において、α画像の解像度を、グラフィクス画像の解像度より低くしてもよい。例えば(a)の構成では、接眼レンズの歪み具合によっては領域58の面積が十分でない場合がある。そこでα画像を縦横双方向に1/2、あるいは1/4などに縮小することにより、グラフィクス画像とともに1フレーム分の画像平面に収められるようにする。あるいはα画像については、描画したオブジェクトを含む所定領域のデータのみを送信対象としてもよい。
すなわち合成時にα値が重要となるのは、合成するオブジェクトの領域とその輪郭近傍であり、オブジェクトからかけ離れた領域は撮影画像のままとすることが明らかである。そこで(a)に図示するように、オブジェクトを含む所定範囲の領域60のα画像のみを切り取って埋め込みの対象とする。ここで所定範囲の領域とは、例えば、仮想オブジェクトの外接矩形または、それに所定幅のマージン領域を加えた領域などである。この場合、領域60の位置やサイズに係る情報も同時に埋め込む。複数の仮想オブジェクトを描画する場合は当然、切り取るα画像の領域も複数となる。
図14は、コンテンツ処理装置200がグラフィクス画像に統合する、α画像の画素値のデータ構造を例示している。ここでは、グラフィクス画像の各画素値を24ビット(赤(R)、緑(G)、青(B)の輝度をそれぞれ8ビット)で表す場合を想定している。図において「A」と表記された矩形が、1つのα値を表すビット幅である。(a)のデータ構造は、α値を1ビットとすることで、8×3=24画素分のα値を、画像上の1画素のデータとしている。同様に(b)、(c)、(d)のデータ構造はそれぞれ、α値を2ビット、4ビット、8ビットとすることで、12画素分、6画素分、3画素分のα値を、画像上の1画素のデータとしている。
一方、(e)、(f)、(g)のデータ構造は、各色に1画素分のα値を対応づけている。すなわちα値を表すビット数は1ビット、2ビット、4ビットと異なるが、どの構造においても、1×3=3画素分のα値を、画像上の1画素のデータとしている。半透明の合成をしない場合、α値は0か1のため、(a)または(e)のデータ構造で十分となる。そのほか、透明度に求める階調、解像度、送信対象の領域面積などを考慮し、適切なデータ構造を選択する。
また実際の表示画像は、赤、緑、青の各チャンネルの画像に対し、オブジェクトの像に微小量の位置ずれを与えておく色収差補正を行うことで、視覚上でそれらが一致して見えるようにする必要がある。コンテンツ処理装置200において生成する画像についても、そのような色収差補正を実施する場合は、像の位置ずれに伴いα画像も各色に対し生成しておく必要がある。この場合、α画像そのものが赤、緑、青のチャンネルを持つことになる。したがって図示するデータ構造において赤、緑、青の各チャンネルには、赤のα値、緑のα値、青のα値をそれぞれ格納する。
結果として画像上の1画素に格納できるα値のデータサイズは、上述した、全色に共通のα値を設定するケースの1/3となる。ただしコンテンツ処理装置200で色収差補正をせず、ヘッドマウントディスプレイ100において合成した後に色収差補正を実施することも考えられる。この場合は全色に共通のα値を設定できるため、1画素により多くの情報を格納できる。
図15は、図13の(a)に示したように、グラフィクス画像が表されない領域にα画像のデータを埋め込んで送信する場合の処理の手順を示している。送信データをこのような構成とした場合、α画像の取り出しが比較的複雑となるため、図7の(a)に示すように、コンテンツ処理装置200から有線で直接、ヘッドマウントディスプレイ100に送信することが望ましい。これによりデータを可逆圧縮でき、高精度な合成を実現できる。
ヘッドマウントディスプレイ100の合成部160は、そのようにα画像が埋め込まれた画像70のデータを取得すると、それをグラフィックス画像と分離する。具体的には画像平面の上の行から順に、画素列を左から右へ走査しながらα値を表す範囲の画素値を取り出す。ここでα値を表す領域においては、図14に示すように1画素に複数のα値が格納されている。したがって合成部160は、それらを分解して1画素とし、α画像74の平面にラスタ順に並べていく。
例えば図示するy行目において、左端の画素からx0までの画素値を読み出し、次にx1からx2までと、x3から右端までの画素値を読み出す。このように画像平面においてα値を表す画素の範囲は、接眼レンズの設計などに基づき行ごとに導出し、コンテンツ処理装置200と共有しておく。α値を埋め込む画素の範囲を画像平面に表したマップを作成しておき、コンテンツ処理装置200とヘッドマウントディスプレイ100で共有してもよい。これにより、グラフィクス画像72とα画像74が分離されるため、合成部160は図5に示すように、α値を用いてグラフィクス画像を撮影画像と合成することにより表示画像を生成する。なおグラフィクス画像72と撮影画像に色収差補正がされていない場合、合成部160は合成後の画像に色収差補正を実施する。以後説明する態様でも同様である。
図16は、図13の(b)に示したように、α画像とグラフィクス画像をそれぞれ縦方向に縮小し上下に接続して送信する場合の処理の手順を示している。この場合、図7の(a)に示すように、コンテンツ処理装置200から有線で直接、ヘッドマウントディスプレイ100に送信してもよいし、(b)に示すように、一旦、中継装置310に送信し、中継装置310からヘッドマウントディスプレイ100へ無線で送信してもよい。図16では後者のケースを示している。
中継装置310のデータ分離部314は、コンテンツ処理装置200から画像76のデータを取得すると、それをα画像80とグラフィクス画像78に切り離す。そのためデータ分離部314には、α画像とグラフィックス画像の縦方向の縮小率によって定まる両者の境界線の位置をあらかじめ設定しておく。切り離されたα画像80とグラフィクス画像78は縦方向に縮小された状態のまま、圧縮符号化部316において圧縮符号化される。上述のとおりグラフィクス画像78は高圧縮率、α画像80は低圧縮率の符号化方式を選択する。
そして通信部312は、圧縮符号化された2種類のデータを無線によりヘッドマウントディスプレイ100に送信する。ただし実際には、中継装置310は画像76の上の行から順に取得していき、取得と並行して上の行から順に圧縮符号化しヘッドマウントディスプレイ100に送信する。したがって図示する例では、まずα画像80のデータが送信され、その後にグラフィクス画像78のデータが送信されることになる。
ヘッドマウントディスプレイ100の信号処理部158は当該2種類のデータを、それぞれに対応する方式で復号伸張する。合成部160は復号伸張後のα画像80とグラフィクス画像78を取得し、それを縦方向に拡大することにより、元のサイズのα画像84とグラフィクス画像82とする。なお送信されたデータにおいて、1画素に複数のα値が格納されている場合、合成部160はそれを適宜分解してα画像84を生成する。そして合成部160は図5に示すように、α画像84を用いてグラフィクス画像82を撮影画像と合成することにより表示画像を生成する。
図17は、図13の(c)に示したように、グラフィクス画像とα画像をそれぞれ横方向に縮小し左右に接続して送信する場合の処理の手順を示している。この場合も、図7の(a)に示すように、コンテンツ処理装置200から有線で直接、ヘッドマウントディスプレイ100に送信してもよいし、(b)に示すように一旦、中継装置310に送信し、中継装置310からヘッドマウントディスプレイ100へ無線で送信してもよい。図17では後者のケースを示している。
中継装置310のデータ分離部314は、コンテンツ処理装置200から画像86のデータを取得すると、それをグラフィクス画像88とα画像90に切り離す。そのためデータ分離部314には、グラフィックス画像とα画像の横方向の縮小率によって定まる両者の境界線の位置をあらかじめ設定しておく。切り離されたグラフィクス画像88とα画像90は横方向に縮小された状態のまま、圧縮符号化部316において圧縮符号化される。上述のとおりグラフィクス画像88は高圧縮率で、α画像90は低圧縮率の符号化方式を選択する。
そして通信部312は、圧縮符号化された2種類のデータを無線によりヘッドマウントディスプレイ100に送信する。ただし実際には、中継装置310は画像86の上の行から順に取得していき、取得と並行して上の行から順に圧縮符号化しヘッドマウントディスプレイに送信する。したがって図示する例では、1行分のグラフィクス画像のデータと1行分のα画像のデータが交互に送信されることになる。
ヘッドマウントディスプレイ100の信号処理部158は当該2種類のデータを、それぞれに対応する方式で復号伸張する。合成部160は復号伸張後のグラフィクス画像88とα画像90を取得し、それを横方向に拡大することにより、元のサイズのグラフィクス画像92とα画像94とする。なお送信されたデータにおいて1画素に複数のα値が格納されている場合、合成部160はそれを適宜分解してα画像94を生成する。そして合成部160は図5に示すように、α画像94を用いてグラフィクス画像92を撮影画像と合成することにより表示画像を生成する。
ヘッドマウントディスプレイ100において立体視を適切に実現するには、表示画像に精度よく両眼視差が与えられていることが重要となる。図16に示したように、縦方向に縮小した画像を接続して送信する場合、横方向の解像度は維持されるため、立体視においては有利である。一方、図16の態様では上述のとおり、全領域のα画像が伝送されてからグラフィクス画像の伝送が開始されることになる。したがってヘッドマウントディスプレイ100においても合成部160は、全領域のα画像を取得してから、その後に取得するグラフィクス画像の合成を開始せざるを得ず、α画像を取得する期間の遅延が生じる。
データサイズが小さいα画像を先に送信することにより、グラフィクス画像を先に送信するより遅延時間を短縮できるが、いずれにしろ双方のデータが揃うまでの待機時間が発生する。これを踏まえグラフィクス画像とα画像を縦方向に縮小する場合、コンテンツ処理装置200は、グラフィクス画像とα画像を1行または複数行ずつ交互に接続して送信してもよい。このようにすると、双方のデータが揃うまでの待機時間をより短縮できる。
図17に示したように、横方向に縮小した画像を接続して送信する場合は、横方向の解像度が低下することにより両眼視差に誤差が含まれ、立体視に影響を与える可能性がある。一方で、上述のとおり、1行にグラフィクス画像とα画像のデータが含まれるため、1行ごとの合成を効率的に進捗させることができ、遅延時間を最短にできる。このように図16と図17に示した構成の特性を踏まえ、求められる立体視の精度や許容される遅延時間などのバランスに応じて、適切な構成を選択する。
以上述べた本実施の形態によれば、カメラを備えたヘッドマウントディスプレイにコンテンツの画像を表示させる技術において、コンテンツ処理装置から送信された画像を表示させる経路と別に、撮影画像をヘッドマウントディスプレイ内で処理して表示させる経路を設ける。拡張現実や複合現実を実現する場合は、ヘッドマウントディスプレイから撮影画像の解析結果のみをコンテンツ処理装置に送信し、コンテンツ処理装置がそれに応じて描画したグラフィクス画像を、ヘッドマウントディスプレイで撮影画像と合成する。
これにより、コンテンツ処理装置において高精細な画像を描画できる一方、ヘッドマウントディスプレイとの間で伝送すべきデータのサイズを軽減でき、各処理やデータ伝送に要する時間や消費電力を軽減できる。また合成に必要なα画像をグラフィクス画像とともに送信する場合、それらを統合して1つの画像データとすることにより、α画像のデータ伝送をサポートしていない通信規格であっても送信が可能となる。この際、送信対象の画像平面のうち、グラフィクス画像に与えている歪みにより生じる間隙領域にα画像を埋め込み、有線通信により送信することにより、グラフィクス画像を劣化させずに合成することができる。
あるいはグラフィクス画像とα画像を縦方向または横方向に縮小して接続し1つの画像データとして送信する。この場合、一旦、中継装置において両者を分離し、グラフィクス画像を高圧縮率で圧縮符号化するとともに、α画像は可逆圧縮してヘッドマウントディスプレイに送信する。これにより合成時の精度への影響を抑えつつ、伝送すべきデータサイズを軽減させることができる。結果としてヘッドマウントディスプレイへのデータ伝送を無線で実現でき、ユーザの可動範囲を広げることができる。
以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。