JP2011081630A - 画像生成装置、画像生成方法、および、プログラム - Google Patents
画像生成装置、画像生成方法、および、プログラム Download PDFInfo
- Publication number
- JP2011081630A JP2011081630A JP2009233797A JP2009233797A JP2011081630A JP 2011081630 A JP2011081630 A JP 2011081630A JP 2009233797 A JP2009233797 A JP 2009233797A JP 2009233797 A JP2009233797 A JP 2009233797A JP 2011081630 A JP2011081630 A JP 2011081630A
- Authority
- JP
- Japan
- Prior art keywords
- image
- main object
- eye
- eye image
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Controls And Circuits For Display Device (AREA)
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
【課題】複数視点からの視差画像を、適切な距離感の立体的画像として観視者に提示すること。
【解決手段】画像生成装置であって、観視者の右眼で視認されるべき右眼用画像と、観視者の左眼で視認されるべき左眼用画像とを取得する画像取得部と、右眼用画像および左眼用画像に含まれる主要オブジェクトを特定する主要オブジェクト特定部と、右眼用画像に含まれる主要オブジェクトの位置と、左眼用画像に含まれる主要オブジェクトの位置との表示画面上における位置の差であるズレ量を、予め定められた所定値にすべく、右眼用画像および左眼用画像の少なくとも一方における主要オブジェクトの位置を変更する主要オブジェクト位置変更部とを備える。
【選択図】図1
【解決手段】画像生成装置であって、観視者の右眼で視認されるべき右眼用画像と、観視者の左眼で視認されるべき左眼用画像とを取得する画像取得部と、右眼用画像および左眼用画像に含まれる主要オブジェクトを特定する主要オブジェクト特定部と、右眼用画像に含まれる主要オブジェクトの位置と、左眼用画像に含まれる主要オブジェクトの位置との表示画面上における位置の差であるズレ量を、予め定められた所定値にすべく、右眼用画像および左眼用画像の少なくとも一方における主要オブジェクトの位置を変更する主要オブジェクト位置変更部とを備える。
【選択図】図1
Description
本発明は、画像生成装置、画像生成方法、および、プログラムに関する。
特殊なメガネを用いずに裸眼で立体(3D)画像を視認させる技術の一つとして、表示面の前面にパララックスバリアまたはレンチキュラレンズを用いる技術が知られている。例えば、表示面に表示した右眼用画像および左眼用画像を、パララックスバリアまたはレンチキュラレンズによりそれぞれ右眼および左眼に指向して射出する技術が知られている(例えば、特許文献1参照)。
例えば複眼カメラで撮像された画像では、無限遠の被写体のオブジェクトは左右の画像で位置ズレはなく、複眼カメラにより近い被写体のオブジェクトは左右の画像で位置がずれている。このような画像を表示面に立体表示すると、無限遠の被写体が表示面に存在し、近くの被写体が表示面より手前に存在するように見える。このため、被写体の前後の間隔が実際よりは著しく狭まって見えることになり、場合によっては全く不自然に見えてしまう。
上記課題を解決するために、本発明の一態様においては、観視者の右眼で視認されるべき右眼用画像と、観視者の左眼で視認されるべき左眼用画像とを取得する画像取得部と、右眼用画像および左眼用画像に含まれる主要オブジェクトを特定する主要オブジェクト特定部と、右眼用画像に含まれる主要オブジェクトの位置と、左眼用画像に含まれる主要オブジェクトの位置との表示画面上における位置の差であるズレ量を、予め定められた所定値にすべく、右眼用画像および左眼用画像の少なくとも一方における主要オブジェクトの位置を変更する主要オブジェクト位置変更部とを備える。
主要オブジェクト位置変更部は、ズレ量を小さくすべく、右眼用画像および左眼用画像の少なくとも一方における主要オブジェクトの位置を変更してよい。
主要オブジェクト位置変更部は、ズレ量をなくすべく、右眼用画像および左眼用画像の少なくとも一方における主要オブジェクトの位置を変更してよい。
主要オブジェクト位置変更部は、右眼用画像に含まれる主要オブジェクトの表示画面における位置を、左眼用画像に含まれる主要オブジェクトの表示画面における位置より、観視者から見て左にすべく、右眼用画像および左眼用画像の少なくとも一方における主要オブジェクトの位置を変更してよい。
主要オブジェクト位置変更部は、ズレ量を観視者の眼幅より小さくすべく、右眼用画像および左眼用画像の少なくとも一方における主要オブジェクトの位置を変更してよい。
右眼用画像および左眼用画像の少なくとも一方から、主要オブジェクトの画像領域をトリミングするトリミング部をさらに備え、主要オブジェクト位置変更部は、トリミング部がトリミングした主要オブジェクトの画像領域の位置を変更してよい。
主要オブジェクトの画像領域より、主要オブジェクトの画像領域の他の画像領域に対してより大きいぼかし処理を施すぼかし処理部をさらに備えてよい。
右眼用画像および左眼用画像に含まれるオブジェクトまでの距離を取得するオブジェクト取得部をさらに備え、ぼかし処理部は、主要オブジェクトの画像領域より、主要オブジェクトより遠くに位置するオブジェクトの画像領域に対してより大きいぼかし処理を施してよい。
主要オブジェクト位置変更部が主要オブジェクトの位置を変更した後の右眼用画像および左眼用画像を表示する表示部をさらに備えてよい。
表示部が表示している右眼用画像および左眼用画像を観視している観視者の指示に基づいて、ズレ量の所定値を決定する所定値決定部とをさらに備えてよい。
画像取得部は、複眼カメラで撮像された右眼用画像および左眼用画像を取得してよい。
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
図1は、一実施形態に係る表示装置10の構成例を示す図である。表示装置10は、観視者に立体的画像を提示する。具体的には、表示装置10は、観視者の右眼で視認されるべき右眼用画像と観視者の左眼で視認されるべき左眼用画像とを生成して、生成した右眼用画像および左眼用画像を、それぞれ観視者の右眼および観視者の左眼に提示することにより、立体的画像を観視者に提示する。
ここで、表示装置10は、デジタルフォトフレーム、テレビ受像機およびパーソナルコンピュータ用のモニタ等の表示装置であってよい。また、表示装置10は、デジタルスチルカメラ、デジタルビデオカメラなどの撮像機器の表示デバイスであってよく、携帯電話機などの携帯機器の表示デバイスであってもよい。ここで、デジタルスチルカメラおよびデジタルビデオカメラは、いわゆる複眼カメラであってよい。すなわち、撮像機器は、複数の視点から被写体を撮像して、複数の視点からの撮像画像を表示デバイスに表示してよい。
表示装置10は、画像取得部100、画像生成部110、画像処理部120、表示部140、画像案内部150、トリミング部112、主要オブジェクト位置変更部114、主要オブジェクト特定部160、オブジェクト距離取得部170、所定値決定部180、入力部192、および、観視者特定部194を備える。表示装置10が備える構成要素のうち、画像案内部150を除く機能ブロックは、右眼用画像および左眼用画像を生成する画像生成装置として機能することができる。例えば、画像取得部100、画像生成部110、画像処理部120、表示部140、トリミング部112、主要オブジェクト位置変更部114、主要オブジェクト特定部160、オブジェクト距離取得部170、所定値決定部180、入力部192、および、観視者特定部194を備える機能ブロックが、画像生成装置として機能することができる。
画像取得部100は、表示部140に表示されるべき表示画像の元となる入力画像を取得する。例えば、画像取得部100は、記憶媒体が記憶している1以上の画像を、入力画像として記憶媒体から取得してよい。画像取得部100は、外部インターフェイスを通じて外部から供給される画像を、入力画像として取得してもよい。また、画像取得部100が入力画像として取得する画像は、静止画であってよく、静止画が連続した動画であってもよい。画像取得部100は複数の入力画像を取得して、画像生成部110に供給する。
ここで、入力画像は、右眼および左眼にそれぞれ対応する2視点からの画像である2つの2次元画像であるとする。具体的には、入力画像は、いわゆる複眼カメラにより2視点から撮像されて得られた2つの2次元画像であってよい。すなわち画像取得部100は、複眼カメラで撮像された右眼用画像および左眼用画像を取得してよい。また、入力画像は撮像画像に限られない。入力画像とは、2視点からのグラフィック画像(例えば、CG画像など)などのような、2視点からの非撮像画像を含む概念とする。すなわち、画像取得部100は、観視者の右眼で視認されるべき右眼用画像と、観視者の左眼で視認されるべき左眼用画像とを取得する。
画像生成部110は、画像取得部100から取得した入力画像を用いて、表示部140に表示されるべき表示画像に含まれる右眼用画像および左眼用画像を生成する。具体的には、画像生成部110は、画像内の少なくとも1つのオブジェクトにおいて対応する対応点の表示画面上における左右方向の位置がズレている右眼用画像と左眼用画像とを生成する。画像生成部110による具体的な処理は後述する。本明細書において、右眼用画像と左眼用画像とにおける対応するオブジェクトの対応点の表示画面上の位置の差を、ズレ量と呼ぶ。また、左右方向とは、観視者の右眼および左眼に沿う方向とする。画像生成部110は、生成した右眼用画像および左眼用画像を画像処理部120に供給する。
画像処理部120は、画像生成部110が生成した右眼用画像および左眼用画像に所定の画像処理を施して表示画像を生成して、表示部140に供給する。例えば、画像処理部120は、右眼用画像および左眼用画像の少なくとも一方にぼかし処理を施してよい。例えば、画像処理部120は、画像の部分領域毎に複数の画素値を平均化することにより、右眼用画像および左眼用画像の少なくとも一方にぼかし処理を施してよい。画像処理部120においてぼかし処理を実行する機能ブロックは、ぼかし処理部として機能することができる。
鮮明な右眼用画像および左眼用画像を観視者に提示するよりも、ぼかし処理を施した場合の方が、観視者は小さな負担で立体的な像を認識することができる場合がある。具体的には、2次元の表示面に表示された擬似的な立体画像である表示画像が観視者に与える空間情報は、実際の3次元空間の物体が与える空間情報とは完全に一致しておらず、観視者は表示画像から得られた視覚的情報に多少の矛盾を感じてしまう場合がある。
観視者の脳は、右眼用画像および左眼用画像を融合して1つの立体的な像を認識しようとするが、右眼用画像および左眼用画像がどちらも鮮明であると矛盾が際立ってしまい、きちんと融合できなくなってしまう場合がある。また、表示画像をきちんと融合するのに観視者の脳に多大の負担をかけてしまい、観視者が疲れてしまう場合がある。
右眼用画像および左眼用画像がどちらも鮮明な場合と比べると、画像処理部120が左眼用画像または右眼用画像の少なくとも一方をぼかすことによって矛盾を低減することができる。画像がぼかされたとしても、ぼけた画像を他方の画像に合わせて観視者の脳が都合良く認識することができるので、比較的容易に表示画像を立体的な像として認識することができる。また、観視者の脳は、ぼけた画像を鮮明なものとして都合良く認識することもできるので、観視者が認識する像の画質も実質的に劣化しない。
画像処理部120によるぼかし処理により、観視者は小さな負担で表示画像を鮮明な立体的画像として認識することができる。このため、観視者は、表示装置10が提供する立体的画像を比較的長時間にわたって鑑賞し続けることができる。
なお、画像処理部120は、入力画像、右眼用画像、および左眼用画像の少なくともいずれかの鮮明度を算出して、鮮明度が予め定められた値より大きいことを条件として、右眼用画像および左眼用画像の少なくとも一方にぼかし処理を施してよい。例えば、画像処理部120は、右眼用画像および左眼用画像の少なくとも一方が有する空間周波数成分に基づいて、鮮明度を決定してよい。例えば、画像処理部120は、予め定められた空間周波数より高い空間周波数領域においてより高い空間周波数成分を入力画像が有している場合に、より大きい値の鮮明度を決定してよい。
また、画像処理部120は、右眼用画像および左眼用画像のそれぞれを、所定の方向において所定の幅を有する複数のストライプ画像に分割する。そして、画像処理部120は、右眼用画像のストライプ画像および左眼用画像のストライプ画像を、所定の画像配列方向に交互に配列して表示画像を生成する。
画像処理部120が生成した表示画像は、表示部140に供給される。表示部140は、画像生成部110が生成した、観視者の右眼で視認されるべき右眼用画像、および観視者の左眼で視認されるべき左眼用画像を表示する。具体的には、表示部140は、右眼用画像のストライプ画像および左眼用画像のストライプ画像が交互に配列された表示画像を表示する。以下に説明するように、表示部140に表示された右眼用画像からの各ストライプ画像(R)は、画像案内部150により観視者の右眼に指向され、表示部140に表示された左眼用画像からの各ストライプ画像(L)は、画像案内部150により観視者の左眼に指向される。
画像案内部150は、透過部および遮光部が交互に配置された、いわゆるパララックスバリアであってよい。例えば、画像案内部150は、交互に配置された透過部および遮光部を有する。透過部および遮光部は、当該延伸方向と直交するバリア配列方向に交互に配置され、表示部140が表示した右眼用画像および左眼用画像の対応するストライプ画像を異なる方向に射出させ、観視者の右眼および左眼にそれぞれ提示する。このような構成により、裸眼の観視者に立体的画像を提示することができる。
以上の説明のように、表示画像に含まれる右眼用画像と左眼用画像とにおいて、対応するオブジェクトの対応点の表示部140の表示画面上における位置の差が存在する場合に、観視者は表示画像を立体的に認識することができる。例えば、右眼用画像と左眼用画像とにおける対応するオブジェクトの対応点が観視者の瞳孔間距離に近い量だけずれていると、観視者の左眼および右眼の視線は実質的に平行状態となる。これにより、あたかも無限遠を見ているような像を観視者に認識させることができる。
以下に説明するように、表示装置10は、入力画像に含まれる主要オブジェクトの位置を調整することによって、観視者に望ましい距離感の表示画像を提示することができる。主要オブジェクトは、主要オブジェクト特定部160により特定される。具体的には、主要オブジェクト特定部160は、入力画像に含まれる右眼用画像および左眼用画像から主要オブジェクトを特定する。
具体的には、主要オブジェクト特定部160は、主要オブジェクトとして抽出されるべきオブジェクトのテンプレート画像と入力画像とをテンプレートマッチング等により比較して、当該比較結果に基づき主要オブジェクトを特定してよい。例えば、主要オブジェクト特定部160は、人物の顔画像と入力画像とを比較して、予め定められた値より大きい一致度が得られたオブジェクトを主要オブジェクトとして特定してよい。
また、入力画像が撮像された画像であり、フォーカス情報が付帯されている場合には、主要オブジェクト特定部160は、フォーカス位置のオブジェクトを主要オブジェクトとして特定してよい。主要オブジェクト特定部160は、フォーカス位置のオブジェクトだけでなく、結果的にフォーカスが合っているオブジェクトを主要オブジェクトとして特定してもよい。入力画像が撮像された画像である場合には、主要被写体のオブジェクトは、主要オブジェクトの一例であるといえる。
他にも、主要オブジェクト特定部160は、中央の画像領域のオブジェクトを主要オブジェクトとして特定してもよい。例えば、上述のテンプレートマッチング、フォーカス位置に基づいて主要オブジェクトを特定できなかったことを条件として、中央の画像領域のオブジェクトを主要オブジェクトとして特定してよい。また、主要オブジェクトが存在する位置情報など、主要オブジェクトを特定する情報が入力画像に付帯されている場合には、主要オブジェクト特定部160は、当該情報により特定されるオブジェクトを主要オブジェクトとして特定してよい。
主要オブジェクト位置変更部114は、入力画像に含まれる右眼用画像に含まれる主要オブジェクトの位置と、入力画像に含まれる左眼用画像に含まれる主要オブジェクトの位置との表示画面上における位置の差であるズレ量を、予め定められた所定値にすべく、当該右眼用画像および当該左眼用画像の少なくとも一方における主要オブジェクトの位置を変更する。具体的には、主要オブジェクト位置変更部114は、ズレ量を小さくすべく、右眼用画像および左眼用画像の少なくとも一方における主要オブジェクトの位置を変更する。主要オブジェクト位置変更部114は、ズレ量をなくすべく、右眼用画像および左眼用画像の少なくとも一方における主要オブジェクトの位置を変更してもよい。そして、表示部140は、主要オブジェクト位置変更部114が主要オブジェクトの位置を変更した後の右眼用画像および左眼用画像を表示する。
なお、主要オブジェクト位置変更部114は、右眼用画像に含まれる主要オブジェクトの表示画面における位置を、左眼用画像に含まれる主要オブジェクトの表示画面における位置より、観視者から見て左にすべく、右眼用画像および左眼用画像の少なくとも一方における主要オブジェクトの位置を変更してよい。この場合に、ズレ量を観視者の眼幅より小さくすべく、主要オブジェクト位置変更部114は、右眼用画像および左眼用画像の少なくとも一方における主要オブジェクトの位置を変更することが望ましい。以上の制御により、観視者は、表示面と観視者との中間点よりも表示面側に主要オブジェクトが存在するように見える。
なお、主要オブジェクトのズレ量は、所定値決定部180により決定される。例えば、所定値決定部180は、表示部が表示している右眼用画像および左眼用画像を観視している観視者の指示に基づいて、ズレ量の所定値を決定する。当該指示は、入力部192により観視者から入力され、所定値決定部180に供給されてよい。所定値決定部180が観視者の指示に基づきズレ量を決定することで、観視者毎に望ましいズレ量を決定することができる。例えば、主要オブジェクトが表示面よりも遠方に存在しているように見えることを好む観視者と、表示面よりも近方に存在しているように見えることを好む観視者とで、ズレ量の符号および大きさを異ならせることができる。
なお、所定値決定部180は、観視者を識別する識別情報に対応づけて所定値を記憶してよい。また、観視者特定部194は、表示部140を観視している観視者を特定して、当該観視者を識別する識別情報を所定値決定部180に供給する。所定値決定部180は、観視者特定部194から受け取った識別情報に対応づけて記憶している所定値を、主要オブジェクトのズレ量として決定してよい。本制御により、望ましいズレ量を観視者に何度も入力させることを未然に防ぐことができ、観視者の負担を軽減することができる。なお、観視者特定部194は、観視者の眼幅を示す情報を特定して、特定した情報を画像生成部110に供給してよい。一例として、観視者の眼幅は、観視者を撮像して得られた画像に含まれる観視者の顔画像に基づき特定できる。
画像生成部110における具体的な処理を説明すると、トリミング部112は、右眼用画像および左眼用画像の少なくとも一方から、主要オブジェクトの画像領域をトリミングする。そして、主要オブジェクト位置変更部114は、トリミング部112がトリミングした主要オブジェクトの画像領域の位置を変更することで、上述した主要オブジェクトのズレ量を調整する。以上説明した画像生成部110の処理によれば、ズレ量を調整しない場合にくらべて、遠景のオブジェクトを表示面よりも遠方に移動させ、主要オブジェクトを表示面の方向に移動させることができる。これにより、表示装置10は、奥行き感をより強く感じることができる立体的画像を観視者に提示することができる。
また、オブジェクト距離取得部170は、右眼用画像および左眼用画像に含まれる被写体までの距離を取得する。例えば、入力画像が撮像画像である場合に、オブジェクト距離取得部170は、入力画像に付帯されたフォーカス情報などの距離情報を取得してよい。また、当該距離情報は、入力画像の作成者により定められていてもよい。そして、画像処理部120は、主要オブジェクトの画像領域より、主要オブジェクトより遠くに位置する被写体の画像領域に対してより大きいぼかし処理を施す。画像処理部120が、主要オブジェクトの画像領域より、当該主要オブジェクトの画像領域以外の画像領域に対してより大きいぼかし処理を施すことで、遠近感をより強調した表示画像を観視者に提示することができる。
図2は、画像処理部120の動作例を説明する図である。上述したように画像処理部120は、左眼用画像および右眼用画像を、複数のストライプ画像(L1、L2、L3、・・・、および、R1、R2、R3、・・・)に分割する。本例の画像処理部120は、水平方向の配列方向に沿って、所定の間隔で左眼用画像および右眼用画像を分割する。
画像処理部120は、生成したストライプ画像を、右眼用画像および左眼用画像で交互に配列方向に配置して表示画像を生成する。なお、表示部140は、表示画像に含まれる右眼用画像および左眼用画像を同時に表示するので、画像処理部120は、左眼用画像および右眼用画像のそれぞれについて、ストライプ画像の配列方向における表示画素数を略半分にする。より具体的には、画像処理部120は、左眼用画像および右眼用画像のそれぞれのストライプ画像を、配列方向に1つおきに用いる。
図3は、画像案内部150を説明する図である。画像案内部150は、表示部140の観視者側に設けられたバリア部310およびバリア制御部320を有する。バリア部310は、右眼用画像と左眼用画像とを異なる方向へ案内する。
具体的には、バリア部310は、表示部140の観視者側に、所定の配列方向に沿って交互に設けられた透過部312および遮光部314を含む。透過部312は、左眼用画像の1つのストライプ画像、および、右眼用画像の1つのストライプ画像の組み合わせに対して1つずつ形成される。それぞれの透過部312は、対応する左眼用画像のストライプ画像を、観視者の左眼の方向に射出し、対応する右眼用画像のストライプ画像を、観視者の右眼の方向に射出する。
バリア部310は、複数のシャッタ素子が配置されることにより形成されてよい。具体的には、バリア部310は、水平方向および垂直方向に沿ってマトリクス状に配置された複数のシャッタ素子を含んでよい。バリア制御部320は、これらのシャッタ素子のオン/オフを個別に設定することで、透過部および遮光部の延伸方向および配列方向を制御する。つまり、バリア制御部320は、透過部を形成すべき領域のシャッタ素子をオン状態とし、遮光部を形成すべき領域のシャッタ素子をオフ状態とすることで、任意の方向に透過部および遮光部を形成する。このように、バリア制御部320は、複数のシャッタ素子に光を透過させるか否かを制御することにより、光を遮光する遮光部314と光を透過する透過部312とをストライプ状に交互に形成させる。
ここで、立体的画像ではなくいわゆる2次元の画像を観視者に提示する場合には、バリア制御部320は、表示部140上の2次元画像の表示領域に対応する全シャッタ素子を実質的にオン状態にする。これにより、表示部140に表示された2次元画像は透過部により透過され、観視者の右眼および左眼により視認される。なお、遮光部314と透過部312とが交互に配列された状態でも、ズレ量のない同一の右眼用画像および左眼用画像から表示画像を生成することで、2次元の画像を観視者に提示することができる。
なお、本図で例示したパララックスバリア方式の画像案内部150の他に、レンチキュラレンズ方式の画像案内部150を例示することができる。例えば、バリア部310による画像の案内方向を制御することに替えて、レンチキュラレンズにより、画像の案内方向を異ならせることができる。具体的には、複数の右眼用ストライプ画像と複数の左眼用ストライプ画像とを異なる方向へ案内するレンズアレイにより、対応する左眼用画像のストライプ画像を観視者の左眼の方向に指向させ、対応する右眼用画像のストライプ画像を観視者の右眼の方向に指向させることができる。これにより、画像案内部150は、複数の右眼用ストライプ画像と複数の左眼用ストライプ画像とを異なる方向へ案内することができる。
図4は、画像生成部110および画像処理部120の動作例を説明する図である。図4は、入力画像に含まれる左眼用画像410および右眼用画像420から、表示画像430を生成するまでの処理例を模式的に示す。ここでは、主要オブジェクトに対するズレ量として0が決定されたとする。つまり、左眼用画像410および右眼用画像420から、主要オブジェクトが表示面の位置に存在するように見える表示画像430が生成される。
トリミング部112は、主要オブジェクト450aおよび主要オブジェクト450bのズレ量が0になるよう、左眼用画像410および右眼用画像420をトリミングする。そして、主要オブジェクト位置変更部114は、主要オブジェクトのズレ量が0になるよう、トリミングされて得られた左眼用画像412を左にシフトさせるとともに、トリミングされて得られた右眼用画像422を右にシフトさせる。そして、図3に説明されたように、画像処理部120が左眼用画像412および右眼用画像422から複数のストライプ画像を生成して表示画像430を生成する。
表示画像430には、同じ位置に表示される主要オブジェクト450と、遠方に位置する背景オブジェクト440が含まれる。背景オブジェクト440aは観視者の左眼に指向され、背景オブジェクト440bは観視者の右眼に指向される。一方で、観視者の左眼に指向される主要オブジェクト450aおよび観視者の右眼に指向される主要オブジェクト450bは、表示画像430において同じ位置に存在する。このため、観視者は、主要オブジェクト450が表示面の位置に存在するように見え、背景オブジェクト440は表示面より遠方に存在するように見える。これにより、表示装置10は、距離感をより強調した表示画像430を観視者に提示することができる。
なお、ここでは、左眼用画像410および右眼用画像420の全体をシフトさせて主要オブジェクトのズレ量を調整する制御例を説明した。他の制御例としては、主要オブジェクトを含む一部の画像領域をトリミングしてシフトさせることにより、主要オブジェクトのズレ量を調整してもよい。
図5は、入力画像における主要オブジェクトと背景オブジェクトとの位置関係を説明する図である。ここでは、背景オブジェクトは実質的に無限遠に存在する被写体のオブジェクトであるとする。
入力画像を表示装置10にそのまま表示すると、表示装置10の表示面の左右方向に同位置に存在する背景オブジェクト(R2、L2)は、観視者には表示面の位置に存在するように認識される。このため、観視者には背景オブジェクトが遠方に存在するようには感じられない。一方、入力画像に含まれる右眼用画像内の主要オブジェクトR1は、入力画像に含まれる左眼用画像内の主要オブジェクトL1より左方に位置している。このため、観視者には、表示面より観視者側の位置500に主要オブジェクトが存在するように見える。しかしながら、主要オブジェクトの認識位置は背景オブジェクトの認識位置とは大差がないので、観視者はスケール感を感じにくい。
図6は、画像生成部110によりズレ量が制御された表示画像における主要オブジェクトと背景オブジェクトとの位置関係を説明する図である。図示されるように、画像生成部110により入力画像に含まれる右眼用画像が右方にシフトされ、入力画像に含まれる左眼用画像が左方にシフトされることで、主要オブジェクトのズレ量が0に調整される。これにより観視者には、主要オブジェクトが表示面の位置に存在するように見える。一方、右眼に指向される背景オブジェクトR2と左眼に指向される背景オブジェクトL2との間でズレ量が生じることで、観視者には背景オブジェクトが表示面より遠方の位置600に存在するように見える。したがって、主要オブジェクトと背景オブジェクトとの間の距離差が拡大して遠近感がより強調され、観視者はより大きなスケール感を感じることができる。
図7は、画像処理部120によるぼかし処理の対象領域の一例を示す。ここではオブジェクト距離取得部170が取得した距離情報に基づき、主要オブジェクト以外の領域のオブジェクトが主要オブジェクトより遠方に位置する旨が判断されたとする。この場合に、画像処理部120は、主要オブジェクト450以外の領域に対してぼかし処理を施す。
画像処理部120は、主要オブジェクト450以外の領域である背景領域に対して、ぼかし処理の強度を異ならせてもよい。具体的には、オブジェクト距離取得部170は、背景領域内に含まれる複数のオブジェクトのそれぞれについて、オブジェクトまでの距離を取得してよい。そして画像処理部120は、より遠方のオブジェクトに対して、より大きい強度でぼかし処理を施してよい。これにより、遠近感がより強調された表示画像を観視者に提示することができる。
図8は、表示装置10の動作例を示すフローチャートである。S802において、観視者特定部194により観視者が特定される。S804において、所定値決定部180は、主要オブジェクトに対するズレ量を決定する。具体的には、所定値決定部180は、S802において特定された観視者の識別情報に対応づけて予め記憶しているズレ量を、主要オブジェクトに対するズレ量として決定する。
S806において、画像取得部100は、右眼用画像および左眼用画像を含む入力画像を取得する。S808において、主要オブジェクト特定部160は、入力画像に含まれる右眼用画像および左眼用画像から主要オブジェクトをそれぞれ特定する。例えばS808において、観視者が注目し易い予め定められた特定のオブジェクト(例えば、人物、動物の頭部のオブジェクトなど)に類似するオブジェクトを画像認識等により抽出して、抽出したオブジェクトを主要オブジェクトとして特定する。
S810において、オブジェクト距離取得部170は、オブジェクトの距離情報を抽出する。具体的には、入力画像に付帯されたフォーカス情報などの距離情報を入力画像から抽出する。S812において、画像生成部110は、主要オブジェクトの位置が調整された右眼用画像および左眼用画像を生成する。S812において、具体的には、画像生成部110はS804で決定されたズレ量だけ主要オブジェクトの対応点がずれている右眼用画像および左眼用画像を生成する。
S814において、画像処理部120は右眼用画像および左眼用画像から表示画像を生成して、表示部140に表示させる。このとき画像処理部120は、S810で抽出した距離情報に従って、右眼用画像および左眼用画像における主要オブジェクトより遠方のオブジェクトの領域にぼかし処理を施して、表示画像を生成する。
S816において、画像表示を終了するか否かを判断する。例えば、所定の全入力画像について画像を提示した場合に(YES)、画像表示を終了する旨を判断してよい。提示していないものが存在する場合に(NO)、次の入力画像を選択すべくS806の処理に移行する。
図9は、他の実施形態に係るコンピュータ800のハードウェア構成の一例を示す。コンピュータ800は、与えられるプログラムに応じて、図1から図8に関連して説明した画像取得部100、画像生成部110、画像処理部120、表示部140、トリミング部112、主要オブジェクト位置変更部114、主要オブジェクト特定部160、オブジェクト距離取得部170、所定値決定部180、入力部192、観視者特定部194として機能する。また、コンピュータ800は、バリア制御部320として更に機能してもよい。
本実施形態に係るコンピュータ800は、ホスト・コントローラ2082により相互に接続されるCPU2000、RAM2020、グラフィック・コントローラ2075、及び表示装置2080を有するCPU周辺部と、入出力コントローラ2084によりホスト・コントローラ2082に接続される通信インターフェイス2030、ハードディスクドライブ2040、及びCD−ROMドライブ2060を有する入出力部と、入出力コントローラ2084に接続されるROM2010、フレキシブルディスク・ドライブ2050、及び入出力チップ2070を有するレガシー入出力部とを備える。
ホスト・コントローラ2082は、RAM2020と、高い転送レートでRAM2020をアクセスするCPU2000及びグラフィック・コントローラ2075とを接続する。CPU2000は、ROM2010及びRAM2020に格納されたプログラムに基づいて動作し、各部の制御を行う。グラフィック・コントローラ2075は、CPU2000等がRAM2020内に設けたフレーム・バッファ上に生成する画像データを取得し、表示装置2080上に表示させる。これに代えて、グラフィック・コントローラ2075は、CPU2000等が生成する画像データを格納するフレーム・バッファを、内部に含んでもよい。
入出力コントローラ2084は、ホスト・コントローラ2082と、比較的高速な入出力装置である通信インターフェイス2030、ハードディスクドライブ2040、CD−ROMドライブ2060を接続する。通信インターフェイス2030は、ネットワークを介して他の装置と通信する。ハードディスクドライブ2040は、コンピュータ800内のCPU2000が使用するプログラム及びデータを格納する。CD−ROMドライブ2060は、CD−ROM2095からプログラム又はデータを読み取り、RAM2020を介してハードディスクドライブ2040に提供する。
また、入出力コントローラ2084には、ROM2010と、フレキシブルディスク・ドライブ2050、及び入出力チップ2070の比較的低速な入出力装置とが接続される。ROM2010は、コンピュータ800が起動時に実行するブート・プログラム、及び/又は、コンピュータ800のハードウェアに依存するプログラム等を格納する。フレキシブルディスク・ドライブ2050は、フレキシブルディスク2090からプログラム又はデータを読み取り、RAM2020を介してハードディスクドライブ2040に提供する。入出力チップ2070は、フレキシブルディスク・ドライブ2050を入出力コントローラ2084へと接続すると共に、例えばパラレル・ポート、シリアル・ポート、キーボード・ポート、マウス・ポート等を介して各種の入出力装置を入出力コントローラ2084へと接続する。
RAM2020を介してハードディスクドライブ2040に提供されるプログラムは、フレキシブルディスク2090、CD−ROM2095、又はICカード等の記録媒体に格納されて利用者によって提供される。プログラムは、記録媒体から読み出され、RAM2020を介してコンピュータ800内のハードディスクドライブ2040にインストールされ、CPU2000において実行される。
コンピュータ800にインストールされ、コンピュータ800により実行されるプログラムは、CPU2000等に働きかけて、コンピュータ800を、画像取得部100、画像生成部110、画像処理部120、表示部140、トリミング部112、主要オブジェクト位置変更部114、主要オブジェクト特定部160、オブジェクト距離取得部170、所定値決定部180、入力部192、観視者特定部194などとして機能させる。これらのプログラムに記述された情報処理は、コンピュータ800に読込まれることにより、ソフトウェアと上述した各種のハードウェア資源とが協働した具体的手段である画像取得部100、画像生成部110、画像処理部120、表示部140、トリミング部112、主要オブジェクト位置変更部114、主要オブジェクト特定部160、オブジェクト距離取得部170、所定値決定部180、入力部192、観視者特定部194などとして機能する。そして、これらの具体的手段によって、本実施形態におけるコンピュータ800の使用目的に応じた情報の演算又は加工を実現することにより、使用目的に応じた特有の画像取得部100、画像生成部110、画像処理部120、表示部140、トリミング部112、主要オブジェクト位置変更部114、主要オブジェクト特定部160、オブジェクト距離取得部170、所定値決定部180、入力部192、観視者特定部194などが構築される。
一例として、コンピュータ800と外部の装置等との間で通信を行う場合には、CPU2000は、RAM2020上にロードされた通信プログラムを実行し、通信プログラムに記述された処理内容に基づいて、通信インターフェイス2030に対して通信処理を指示する。通信インターフェイス2030は、CPU2000の制御を受けて、RAM2020、ハードディスクドライブ2040、フレキシブルディスク2090、又はCD−ROM2095等の記憶装置上に設けた送信バッファ領域等に記憶された送信データを読み出してネットワークへと送信し、もしくは、ネットワークから受信した受信データを記憶装置上に設けた受信バッファ領域等へと書き込む。このように、通信インターフェイス2030は、DMA(ダイレクト・メモリ・アクセス)方式により記憶装置との間で送受信データを転送してもよく、これに代えて、CPU2000が転送元の記憶装置又は通信インターフェイス2030からデータを読み出し、転送先の通信インターフェイス2030又は記憶装置へとデータを書き込むことにより送受信データを転送してもよい。
また、CPU2000は、ハードディスクドライブ2040、CD−ROMドライブ2060(CD−ROM2095)、フレキシブルディスク・ドライブ2050(フレキシブルディスク2090)等の外部記憶装置に格納されたファイルまたはデータベース等の中から、全部または必要な部分をDMA転送等によりRAM2020へと読み込ませ、RAM2020上のデータに対して各種の処理を行う。そして、CPU2000は、処理を終えたデータを、DMA転送等により外部記憶装置へと書き戻す。このような処理において、RAM2020は、外部記憶装置の内容を一時的に保持するものとみなせるから、本実施形態においてはRAM2020および外部記憶装置等をメモリ、記憶部、または記憶装置等と総称する。本実施形態における各種のプログラム、データ、テーブル、データベース等の各種の情報は、このような記憶装置上に格納されて、情報処理の対象となる。なお、CPU2000は、RAM2020の一部をキャッシュメモリに保持し、キャッシュメモリ上で読み書きを行うこともできる。このような形態においても、キャッシュメモリはRAM2020の機能の一部を担うから、本実施形態においては、区別して示す場合を除き、キャッシュメモリもRAM2020、メモリ、及び/又は記憶装置に含まれるものとする。
また、CPU2000は、RAM2020から読み出したデータに対して、プログラムの命令列により指定された、本実施形態中に記載した各種の演算、情報の加工、条件判断、情報の検索・置換等を含む各種の処理を行い、RAM2020へと書き戻す。例えば、CPU2000は、条件判断を行う場合においては、本実施形態において示した各種の変数が、他の変数または定数と比較して、大きい、小さい、以上、以下、等しい等の条件を満たすかどうかを判断し、条件が成立した場合(又は不成立であった場合)に、異なる命令列へと分岐し、またはサブルーチンを呼び出す。
また、CPU2000は、記憶装置内のファイルまたはデータベース等に格納された情報を検索することができる。例えば、第1属性の属性値に対し第2属性の属性値がそれぞれ対応付けられた複数のエントリが記憶装置に格納されている場合において、CPU2000は、記憶装置に格納されている複数のエントリの中から第1属性の属性値が指定された条件と一致するエントリを検索し、そのエントリに格納されている第2属性の属性値を読み出すことにより、所定の条件を満たす第1属性に対応付けられた第2属性の属性値を得ることができる。
以上に示したプログラム又はモジュールは、外部の記録媒体に格納されてもよい。記録媒体としては、フレキシブルディスク2090、CD−ROM2095の他に、DVD又はCD等の光学記録媒体、MO等の光磁気記録媒体、テープ媒体、ICカード等の半導体メモリ等を用いることができる。また、専用通信ネットワーク又はインターネットに接続されたサーバシステムに設けたハードディスク又はRAM等の記憶装置を記録媒体として使用し、ネットワークを介してプログラムをコンピュータ800に提供してもよい。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
10 表示装置、100 画像取得部、110 画像生成部、120 画像処理部、140 表示部、150 画像案内部、112 トリミング部、114 主要オブジェクト位置変更部、160 主要オブジェクト特定部、170 オブジェクト距離取得部、180 所定値決定部、192 入力部、194 観視者特定部、310 バリア部、312 透過部、314 遮光部、320 バリア制御部、410 左眼用画像、420 右眼用画像、412 左眼用画像、422 右眼用画像、440 背景オブジェクト、450 主要オブジェクト、430 表示画像、500 位置、600 位置、800 コンピュータ、2000 CPU、2010 ROM、2020 RAM、2030 通信インターフェイス、2040 ハードディスクドライブ、2050 フレキシブルディスク・ドライブ、2060 CD−ROMドライブ、2070 入出力チップ、2075 グラフィック・コントローラ、2080 表示装置、2082 ホスト・コントローラ、2084 入出力コントローラ、2090 フレキシブルディスク、2095 CD−ROM
Claims (13)
- 観視者の右眼で視認されるべき右眼用画像と、観視者の左眼で視認されるべき左眼用画像とを取得する画像取得部と、
前記右眼用画像および前記左眼用画像に含まれる主要オブジェクトを特定する主要オブジェクト特定部と、
前記右眼用画像に含まれる前記主要オブジェクトの位置と、前記左眼用画像に含まれる前記主要オブジェクトの位置との表示画面上における位置の差であるズレ量を、予め定められた所定値にすべく、前記右眼用画像および前記左眼用画像の少なくとも一方における前記主要オブジェクトの位置を変更する主要オブジェクト位置変更部と
を備える画像生成装置。 - 前記主要オブジェクト位置変更部は、前記ズレ量を小さくすべく、前記右眼用画像および前左眼用画像の少なくとも一方における前記主要オブジェクトの位置を変更する請求項1に記載の画像生成装置。
- 前記主要オブジェクト位置変更部は、前記ズレ量をなくすべく、前記右眼用画像および前記左眼用画像の少なくとも一方における前記主要オブジェクトの位置を変更する請求項1に記載の画像生成装置。
- 前記主要オブジェクト位置変更部は、前記右眼用画像に含まれる前記主要オブジェクトの前記表示画面における位置を、前記左眼用画像に含まれる前記主要オブジェクトの前記表示画面における位置より、観視者から見て左にすべく、前記右眼用画像および前記左眼用画像の少なくとも一方における前記主要オブジェクトの位置を変更する請求項1に記載の画像生成装置。
- 前記主要オブジェクト位置変更部は、前記ズレ量を観視者の眼幅より小さくすべく、前記右眼用画像および前記左眼用画像の少なくとも一方における前記主要オブジェクトの位置を変更する請求項4に記載の画像生成装置。
- 前記右眼用画像および前記左眼用画像の少なくとも一方から、前記主要オブジェクトの画像領域をトリミングするトリミング部
をさらに備え、
前記主要オブジェクト位置変更部は、前記トリミング部がトリミングした前記主要オブジェクトの前記画像領域の位置を変更する請求項1から5のいずれかに記載の画像生成装置。 - 前記主要オブジェクトの画像領域より、前記主要オブジェクトの前記画像領域の他の画像領域に対してより大きいぼかし処理を施すぼかし処理部
をさらに備える請求項1から6のいずれかに記載の画像生成装置。 - 前記右眼用画像および前記左眼用画像に含まれるオブジェクトまでの距離を取得するオブジェクト距離取得部
をさらに備え、
前記ぼかし処理部は、前記主要オブジェクトの画像領域より、前記主要オブジェクトより遠くに位置するオブジェクトの画像領域に対してより大きいぼかし処理を施す請求項7に記載の画像生成装置。 - 前記主要オブジェクト位置変更部が前記主要オブジェクトの位置を変更した後の前記右眼用画像および前記左眼用画像を表示する表示部
をさらに備える請求項1から8のいずれかに記載の画像生成装置。 - 前記表示部が表示している前記右眼用画像および前記左眼用画像を観視している観視者の指示に基づいて、ズレ量の前記所定値を決定する所定値決定部と
をさらに備える請求項9に記載の画像生成装置。 - 前記画像取得部は、複眼カメラで撮像された前記右眼用画像および前記左眼用画像を取得する請求項1から10のいずれかに記載の画像生成装置。
- 観視者の右眼で視認されるべき右眼用画像と、観視者の左眼で視認されるべき左眼用画像とを取得する画像取得段階と、
前記右眼用画像および前記左眼用画像に含まれる主要オブジェクトを特定する主要オブジェクト特定段階と、
前記右眼用画像に含まれる前記主要オブジェクトの位置と、前記左眼用画像に含まれる前記主要オブジェクトの位置との表示画面上における位置の差であるズレ量を、予め定められた所定値にすべく、前記右眼用画像および前記左眼用画像の少なくとも一方における前記主要オブジェクトの位置を変更する主要オブジェクト位置変更段階と
を備える画像生成方法。 - 画像生成装置用のプログラムであって、コンピュータを、
観視者の右眼で視認されるべき右眼用画像と、観視者の左眼で視認されるべき左眼用画像とを取得する画像取得部、
前記右眼用画像および前記左眼用画像に含まれる主要オブジェクトを特定する主要オブジェクト特定部、
前記右眼用画像に含まれる前記主要オブジェクトの位置と、前記左眼用画像に含まれる前記主要オブジェクトの位置との表示画面上における位置の差であるズレ量を、予め定められた所定値にすべく、前記右眼用画像および前記左眼用画像の少なくとも一方における前記主要オブジェクトの位置を変更する主要オブジェクト位置変更部
として機能させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009233797A JP2011081630A (ja) | 2009-10-07 | 2009-10-07 | 画像生成装置、画像生成方法、および、プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009233797A JP2011081630A (ja) | 2009-10-07 | 2009-10-07 | 画像生成装置、画像生成方法、および、プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011081630A true JP2011081630A (ja) | 2011-04-21 |
Family
ID=44075613
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009233797A Withdrawn JP2011081630A (ja) | 2009-10-07 | 2009-10-07 | 画像生成装置、画像生成方法、および、プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011081630A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012153378A1 (ja) * | 2011-05-06 | 2012-11-15 | 富士通株式会社 | 立体視画像生成装置、立体視画像生成方法、立体視画像生成プログラム |
JP2013008001A (ja) * | 2011-05-26 | 2013-01-10 | Sony Corp | 表示装置および方法、並びにプログラム |
JP2015008394A (ja) * | 2013-06-25 | 2015-01-15 | Kddi株式会社 | 情報端末装置 |
WO2020149143A1 (ja) * | 2019-01-15 | 2020-07-23 | 富士フイルム株式会社 | 立体画像表示体 |
CN111670401A (zh) * | 2018-02-01 | 2020-09-15 | 京瓷株式会社 | 平视显示器、平视显示器用显示装置以及移动体 |
CN112584128A (zh) * | 2019-09-30 | 2021-03-30 | 北京芯海视界三维科技有限公司 | 实现3d显示的方法、装置及3d显示终端 |
-
2009
- 2009-10-07 JP JP2009233797A patent/JP2011081630A/ja not_active Withdrawn
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012153378A1 (ja) * | 2011-05-06 | 2012-11-15 | 富士通株式会社 | 立体視画像生成装置、立体視画像生成方法、立体視画像生成プログラム |
US9854223B2 (en) | 2011-05-06 | 2017-12-26 | Fujitsu Limited | Stereoscopic moving picture generating apparatus and stereoscopic moving picture generating method |
JP2013008001A (ja) * | 2011-05-26 | 2013-01-10 | Sony Corp | 表示装置および方法、並びにプログラム |
US9842570B2 (en) | 2011-05-26 | 2017-12-12 | Saturn Licensing Llc | Display device and method, and program |
JP2015008394A (ja) * | 2013-06-25 | 2015-01-15 | Kddi株式会社 | 情報端末装置 |
CN111670401A (zh) * | 2018-02-01 | 2020-09-15 | 京瓷株式会社 | 平视显示器、平视显示器用显示装置以及移动体 |
CN111670401B (zh) * | 2018-02-01 | 2022-07-22 | 京瓷株式会社 | 平视显示器、平视显示器用显示装置以及移动体 |
WO2020149143A1 (ja) * | 2019-01-15 | 2020-07-23 | 富士フイルム株式会社 | 立体画像表示体 |
CN112584128A (zh) * | 2019-09-30 | 2021-03-30 | 北京芯海视界三维科技有限公司 | 实现3d显示的方法、装置及3d显示终端 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5476910B2 (ja) | 画像生成装置、画像生成方法、および、プログラム | |
EP3115873B1 (en) | Head-mounted display device and computer program | |
US9280951B2 (en) | Stereoscopic image display device, image processing device, and stereoscopic image processing method | |
US8791989B2 (en) | Image processing apparatus, image processing method, recording method, and recording medium | |
US10237539B2 (en) | 3D display apparatus and control method thereof | |
US9154762B2 (en) | Stereoscopic image system utilizing pixel shifting and interpolation | |
US9679415B2 (en) | Image synthesis method and image synthesis apparatus | |
US11956415B2 (en) | Head mounted display apparatus | |
KR100918294B1 (ko) | 입체 시화상(視畵像) 표시장치, 입체 시화상 표시방법 및컴퓨터 프로그램 | |
KR20120075829A (ko) | 적응적 부화소 렌더링 장치 및 방법 | |
JP2011081630A (ja) | 画像生成装置、画像生成方法、および、プログラム | |
US20160180514A1 (en) | Image processing method and electronic device thereof | |
JP5396877B2 (ja) | 画像処理装置、プログラム、画像処理方法、および記録方法 | |
JP2010259017A (ja) | 表示装置、表示方法、および表示プログラム | |
EP3038061A1 (en) | Apparatus and method to display augmented reality data | |
JP2019118004A (ja) | 情報処理装置、情報処理方法、および記録媒体 | |
CN104735436A (zh) | 单摄像头立体成像方法及电子设备 | |
JP6170725B2 (ja) | 画像処理装置、及びプログラム | |
US8983125B2 (en) | Three-dimensional image processing device and three dimensional image processing method | |
JP2011085868A (ja) | 画像生成装置、画像生成方法およびプログラム | |
JP2011082698A (ja) | 画像生成装置、画像生成方法、および、プログラム | |
JP5817091B2 (ja) | 表示装置、画像処理装置およびプログラム | |
JP5663854B2 (ja) | 表示装置、表示方法、および、プログラム | |
JP5428723B2 (ja) | 画像生成装置、画像生成方法、および、プログラム | |
JP5868055B2 (ja) | 画像処理装置および画像処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20130108 |