JP5405264B2 - 表示制御プログラム、ライブラリプログラム、情報処理システム、および、表示制御方法 - Google Patents
表示制御プログラム、ライブラリプログラム、情報処理システム、および、表示制御方法 Download PDFInfo
- Publication number
- JP5405264B2 JP5405264B2 JP2009241314A JP2009241314A JP5405264B2 JP 5405264 B2 JP5405264 B2 JP 5405264B2 JP 2009241314 A JP2009241314 A JP 2009241314A JP 2009241314 A JP2009241314 A JP 2009241314A JP 5405264 B2 JP5405264 B2 JP 5405264B2
- Authority
- JP
- Japan
- Prior art keywords
- virtual camera
- background image
- display
- image
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 81
- 230000010365 information processing Effects 0.000 title claims description 27
- 239000011159 matrix material Substances 0.000 claims description 66
- 230000000694 effects Effects 0.000 claims description 51
- 230000008859 change Effects 0.000 claims description 13
- 230000004044 response Effects 0.000 claims description 8
- 238000012545 processing Methods 0.000 description 59
- 230000006870 function Effects 0.000 description 54
- 230000008569 process Effects 0.000 description 48
- 238000009877 rendering Methods 0.000 description 48
- 230000000007 visual effect Effects 0.000 description 30
- 238000010586 diagram Methods 0.000 description 27
- 230000004888 barrier function Effects 0.000 description 12
- 239000011521 glass Substances 0.000 description 9
- 230000004048 modification Effects 0.000 description 9
- 238000012986 modification Methods 0.000 description 9
- 238000003860 storage Methods 0.000 description 7
- 239000000758 substrate Substances 0.000 description 7
- 239000013598 vector Substances 0.000 description 7
- 238000004519 manufacturing process Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 101150013335 img1 gene Proteins 0.000 description 4
- 101150071665 img2 gene Proteins 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000010287 polarization Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 230000035790 physiological processes and functions Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000003892 spreading Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Stereoscopic And Panoramic Photography (AREA)
Description
本発明のある局面によれば、典型的には、立体表示を含むアプリケーションなどを制作する場合であっても、平面表示のみを含むアプリケーションと同様の作業量で済むような環境を提供することを目的とする。そこで、まず、本発明に係る概要および概念について、図1〜図4を参照して説明する。
図1は、従来から存在する平面表示処理(立体表示でないという意味で、「平面表示」と称す。)を説明するための図である。図1を参照して、オブジェクトOBJ1およびOBJ2を含む3次元仮想空間を表示装置10に表示する場合を考える。この場合には、オブジェクトOBJ1およびOBJ2が配置された3次元仮想空間内のいずれかの位置に仮想カメラ300が設定される。そして、3次元仮想空間内のオブジェクトOBJ1およびOBJ2などを、仮想カメラ300で仮想的に撮影することで、画像を生成する。なお、以下の説明では、3次元仮想空間内に含まれる各種オブジェクトを(平面または立体)表示するために生成される画像を、後述する背景を表示するために生成される画像と対比する観点から、「オブジェクト画像」とも称す。
本発明に係る実施の形態に従う立体表示処理では、上述の図1に示すオブジェクト画像および背景画像の表示制御に要するパラメータと同様のパラメータを指定することで、表示装置10における立体表示に必要な、一対のオブジェクト画像(右オブジェクト画像および左オブジェクト画像)と、一対の背景画像(右背景画像および左背景画像)とが生成される。
(i) 本明細書において、「立体表示」とは、画像に含まれる少なくとも一部の対象物をユーザに立体的に視認させることができるように、当該画像を表現することを意味する。典型的には、視差を有する一対の平面2次元画像(ステレオ画像)をユーザに視認させて、眼や脳の生理的な働きを利用することで、当該ユーザに立体感を感じさせる。
(ii) 本明細書において、「右」および「左」とは、ユーザがいずれの眼で視認するかを区別するために使用される。すなわち、上述した「右オブジェクト画像」および「右背景画像」は、ユーザが右眼で視認されることが予定されている画像であることを示し、上述した「左オブジェクト画像」および「左背景画像」は、ユーザが左眼で視認されることが予定されている画像であることを示す。また、表示装置10に表示される画像のうち、ユーザが右眼で視認されることが予定されている画像を「右表示画像」と称し、ユーザが左眼で視認されることが予定されている画像を「左表示画像」と称する。
(iii) 本明細書において、「視体積」とは、以下のような範囲を意味する。図3は、本発明の実施の形態に従う仮想カメラの視野範囲を説明するための図である。図3を参照して、本実施の形態に従う仮想カメラは、3次元仮想空間のうちカメラ方向の所定範囲(図3においてハッチング表示されている範囲)にあるオブジェクトのみをレンダリングする。言い換えれば、仮想カメラの視野角(図3において破線で囲む範囲)の外になる範囲はレンダリングされない。また、仮想カメラに対して、近傍側に「ニアクリップ面」が設定され、遠方側に「ファークリップ面」が設定される。これらのニアクリップ面およびファークリップ面は、仮想カメラのカメラ方向の線に対して垂直となるように設定される。このニアクリップ面とファークリップ面との間に存在するオブジェクトであり、かつ、仮想カメラの視野角の内に含まれるオブジェクトがレンダリング対象となる。
(iv) 表示装置10において立体表示を行なう場合には、表示装置10の表示面の位置に対応する平面(3次元仮想空間の中で、立体表示を見るユーザが表示装置10の表示面の位置に存在すると感じる面)である「基準仮想面」が3次元仮想空間内に設定される(図3参照)。なお、基準仮想面は、「3次元仮想空間の中で、立体表示を見るユーザが表示装置10の表示面から所定のオフセットを持った位置に存在すると感じる面」としてもよい。
(v) 上述したように、本実施の形態においては、視差を有する一対の平面2次元画像を表示装置10に表示させることで、ユーザに立体感を感じさせる。この一対の平面2次元画像内のあるオブジェクトについての視差量が大きくなればなるほど、当該オブジェクトはユーザにとってより大きな立体感をもって視認されることになるが、視差量が一定値を超えて大きくなると、逆にユーザは立体感を感じにくくなる。そのため、表示装置10で立体表示を行なう際には、視差量を適切な範囲に維持する必要がある。以下では、ユーザが表示装置10において立体表示を気持ちよく受け入れることができる、表示面上における右オブジェクト画像と左オブジェクト画像との間の最大視差量を「限界視差量」と称す。この立体感を気持ちよく感じられるしきい値、すなわち限界視差量は、表示装置10の表示面についての実画面幅、ユーザの眼の実間隔、およびユーザから表示装置10の表示面までの実距離などによって決まる。
図4は、本発明の実施の形態に従う立体表示処理に係る機能を示す模式図である。図4を参照して、本発明の実施の形態に従う立体表示処理は、基準仮想カメラ設定機能40と、オブジェクト画像生成機能50と、背景画像生成機能60と、表示データ生成機能70とを含む。
上述のように、ユーザに注目してもらいたいオブジェクトのレンダリング(オブジェクト画像の生成)と、当該オブジェクトの背景として表示される画像のレンダリング(背景画像の生成)とを独立に行なう処理は、たとえば、シューティングゲームやアクションゲームのような、ユーザが特定のキャラクタオブジェクトを操作して楽しむようなアプリケーションに適切である。たとえば、ゲーム進行に伴って、表示装置10の表示面の奥側に向かってスクロール表示がなされるようなシューティングゲームを考えると、自キャラクタ(たとえば、戦闘機など)や敵キャラクタなどは、ユーザ操作に応じて、表示装置10の表示面での表示位置や表示態様を変化させてレンダリングする必要があるが、背景(たとえば、空、水平線、太陽、宇宙空間など)はほぼ固定した内容でレンダリングすることが好ましい。これは、現実空間においても、たとえば、空、水平線、太陽、宇宙空間などは、実質的に無限遠の位置にあるので、視点が変化した場合であっても、その見え方がそれほど大きく変化しないためである。このような現実空間での実際の見え方を表示装置10において表現できるように、ユーザに注目してもらいたいオブジェクトの移動とは独立して、背景画像は、ほぼ固定した状態(あるいは、よりスクロール速度の遅い状態)でレンダリングされる。
[b1.表示装置]
表示装置10としては、ユーザに向けて立体表示が可能なデバイスであれば、任意の型式の表示デバイスを採用することができる。すなわち、表示装置10としては、視差を有する2つの画像をユーザがそれぞれの眼で視認できるようなデバイスであればよい。典型的には、例えば、前面視差バリアタイプの液晶表示デバイスやレンチキュラータイプの表示デバイスなどを用いることができる。あるいは、表示装置10として、それに含まれる主波長成分の異なる2つの画像をそれぞれ独立に表示するとともに、透過波長範囲の異なる2つのカラーフィルタがそれぞれ組込まれたメガネをユーザに装着させることで、立体表示を行なう構成を採用してもよい。これに類似の構成として、偏光方向を異ならせて2つの画像をそれぞれ表示するとともに、当該2つの偏光方向に対応する偏光フィルタがそれぞれ組込まれたメガネをユーザに装着させることで、立体表示を行なう構成であってもよい。
図6は、本発明の実施の形態に従う情報処理システム1の内部構成を示すブロック図である。図6を参照して、本実施の形態に従う情報処理システム1は、プロセッサによる処理が可能なコンピュータの典型例である。なお、情報処理システム1としては、パーソナルコンピュータ、ワークステーション、携帯端末、PDA(Personal Digital Assistance)、携帯電話、携帯型ゲーム装置などとして実現してもよい。
図7は、本発明の実施の形態に従う情報処理システム1において実装されるプログラム構成の一例を示す図である。
図8は、図7に示す立体表示用ライブラリ218について入出力されるデータ項目を説明するための図である。本実施の形態に従う立体表示用ライブラリ218は、表示装置10における立体表示に係るモードとして、2つのモード(「アプリケーション優先モード」および「リアルモード」)が選択的可能になっている。これらの2つのモードについての詳細は後述するが、立体表示用ライブラリ218を利用するときには、上記2つのモードの一方を示すモード情報が指定される。その上で、以下に示すような、パラメータが立体表示用ライブラリ218に入力される。
以下、立体表示用ライブラリ218での処理内容を含めた、右オブジェクト画像および左オブジェクト画像の生成処理の詳細について説明する。
図9は、本発明の実施の形態に従うオブジェクト画像生成処理の対象となる3次元仮想空間の一例を示す模式図である。図10は、図9に示す状態において生成されるオブジェクト画像(右オブジェクト画像および左オブジェクト画像)の生成処理を示す模式図である。図11は、図10に示す右仮想カメラ302および左仮想カメラ304によってそれぞれ生成されるオブジェクト画像の一例を示す図である。
「アプリケーション優先モード」においては、アプリケーションの制作者は、平面表示のみを利用する(立体表示を利用しない)アプリケーションを制作する場合と同様に、1つの基準仮想カメラ(図2および図3に示す基準仮想カメラ300)の配置位置および視体積(描画範囲)を指定する(図8に示す(1)基準仮想カメラ情報)。同時に、制作者は、指定した視体積に含まれる空間内のいずれの平面位置が、表示装置10において立体表示をした際にその表示面付近に位置するように表示したいかを指定する(図8に示す(2)基準仮想面情報)。さらに、制作者は、右オブジェクト画像と左オブジェクト画像との間に生じる視差量を評価して、ユーザが表示装置10での立体表示を気持ちよく受け入れることができることを保証するための視差判定面を指定する(図8に示す(3)視差判定面情報)。
以下の説明においては、(1)基準仮想カメラ情報、(5)右仮想カメラ情報、および、(6)左仮想カメラ情報は、いずれもカメラ行列として定義される例を示す。先に、このカメラ行列について説明する。
基準仮想面は、図9に示すように、基準仮想カメラ300を基準として設定される。以下の説明においては、(2)基準仮想面情報として、基準仮想カメラ300から設定される基準仮想面までの基準仮想カメラ300のカメラ方向301(基準カメラ方向)に沿った仮想空間距離Dとして定義される例を示す。
図13は、本発明の実施の形態に従う右仮想カメラ302および左仮想カメラ304の設定処理を2次元的に説明するための図である。図14は、図13に示す右仮想カメラおよび左仮想カメラの設定処理の処理結果に応じて設定される視体積を示す図である。
次に、図13および図14を参照して、基準仮想カメラ300の設定に応答して、右仮想カメラ302および左仮想カメラ304がどのように設定されるかについて説明する。
「リアルモード」においては、アプリケーションの制作者は、平面表示のみを利用する(立体表示を利用しない)アプリケーションを制作する場合と同様に、1つの基準仮想カメラ(図2および図3に示す基準仮想カメラ300)の配置位置および視体積(描画範囲)を指定する(図8に示す(1)基準仮想カメラ情報)。同時に、制作者は、指定した視体積に含まれる空間内のいずれの平面位置が、表示装置10において立体表示をした際にその表示面付近に位置するように表示したいかを指定する(図8に示す(2)基準仮想面情報)。
図15は、この発明の実施の形態に従うリアルモードにおける処理内容を説明するための図である。このリアルモードでは、図15(A)に示すように、ユーザが表示装置10に対峙して表示面を見る場合の光学的な関係と等価なレンダリング処理がなされる。すなわち、ユーザの右眼と左眼との間の実距離L1、ユーザの両眼から表示装置10の表示面までの実距離L2、および表示装置10の表示面の実画面幅L3で規定される位置関係に対応して、右仮想カメラおよび左仮想カメラの設定位置および視体積が決定される。
上述した、アプリケーション優先モードおよびリアルモードにおいて決定される、右仮想カメラ302と左仮想カメラ304との間の仮想空間距離Dfは、必ずしもそのまま用いるのではなく、その後に所定の条件(アプリケーションによって許容される値やユーザ操作など)によって、さらに調整された後に用いられてもよい。その場合には、仮想空間距離Dfは、アプリケーションなどから与えられた条件下における、右仮想カメラ302と左仮想カメラ304との間の最大値を示す。すなわち、右仮想カメラ302と左仮想カメラ304との間の仮想空間距離Dfは、表示装置10に表示される右オブジェクト画像と左オブジェクト画像との間に生じ得る最大視差を定めるパラメータであり、アプリケーションなどによって設定される条件下における限界視差量に応じて、その最大値が制限されることになる。
なお、スライダー1062による調整幅の最大値に、右仮想カメラ302と左仮想カメラ304との間の仮想空間距離Df(最大値)が全く一致しなくともよい。たとえば、仮想空間距離Df(最大値)に所定の定数α(0<α<1)を乗じた値をスライダー1062による調整幅の最大値に対応付けてもよい。この場合には、スライダー1062によって与えられる調整値をγとすると、立体感調整後の仮想空間距離Df’は、以下のような式で表わすことができる。
このようなユーザによるスライダー1062の操作に応答して、上述のような処理によって設定された右仮想カメラ302および左仮想カメラ304の配置位置の少なくとも一方が変更される。そして、右仮想カメラ302および/または左仮想カメラ304の位置が変更されると、右仮想カメラ302および/または左仮想カメラ304の視野範囲(視体積)も再設定される。
上述の実施の形態においては、右仮想カメラおよび左仮想カメラを設定する際に、基準仮想カメラ300の配置位置を基準線350に沿って右側および左側にそれぞれ等距離だけ移動させる処理について例示した。しかしながら、いずれか一方の仮想カメラを基準仮想カメラ300の配置位置に固定しておき、他方の仮想カメラのみを移動させるようにしてもよい。以下、このような場合の処理について例示する。
再度図8を参照して、立体表示用ライブラリ218は、右仮想カメラ302および左仮想カメラ304の設定値を算出するだけでなく、所定処理の結果値を戻り値としてアプリケーションなどに返す。本実施の形態においては、立体表示用ライブラリ218は、右仮想カメラ302と左仮想カメラ304との間の位置関係を示す情報を戻り値として返す。以下の説明では、この位置関係の典型例として、3次元仮想空間内における右仮想カメラ302と左仮想カメラ304との間の仮想空間距離Dfを用いる場合の処理例について説明する。
したがって、戻り値RVは、以下のように算出することができる。
これらのパラメータのうち、仮想空間距離NWおよび仮想空間距離LNについては、立体表示用ライブラリ218に入力される(1)基準仮想カメラ情報(図8参照)に基づいて算出され、仮想空間距離Dについては、立体表示用ライブラリ218に入力される(2)基準仮想面情報に基づいて算出される。また、仮想空間距離Dfについては、上述したように、右仮想カメラ302および左仮想カメラ304の設定処理の結果として決定される。
[d1.概要]
次に、上述した立体表示用ライブラリ218からの戻り値に基づいて、右背景画像および左背景画像を生成する処理(背景画像生成処理)について説明する。
以下、表示装置10に表示されるサイズより大きなサイズを有する原背景画像BG(図1および図2参照)を用いて、右背景画像および左背景画像を生成する処理例について説明する。図21は、本発明の実施の形態に従う背景画像の生成処理を説明するための模式図である。
なお、描画範囲の幅WPおよび幅WPから算出される距離WDとしては、表示装置10の表示面の実表示幅(物理的な長さ)を示す単位(たとえば、[mm])を用いてもよいが、処理の容易性から、レンダリングされる背景画像の画素数を単位として用いることが好ましい。また、戻り値RVは規格化されているので、無次元の値である。
上述の説明では、原背景画像BGに対して、右背景画像として出力すべき右描画範囲412および左背景画像として出力すべき左描画範囲414を指定する構成について例示したが、背景として表示される背景オブジェクトを含む3次元仮想空間に対して、背景画像を生成するための仮想カメラを設定し、当該設定した仮想カメラを用いて背景画像を生成するようにしてもよい。以下、このような処理例について、説明する。
上述の説明では、基本的には予め定義された原背景画像BGのうち、アプリケーションの進行などに応じた範囲が背景画像として出力される処理について説明したが、原背景画像BG自体の内容をアプリケーションの進行やユーザ操作などに応じて、逐次更新してもよい。但し、このような場合であっても、アプリケーションの制作者は、平面表示のみを利用するアプリケーションを開発する場合と同様に、背景として表示させたい描画範囲を指定するだけで、立体表示の背景として表示させるための右背景画像および左背景画像をそれぞれ容易に生成することができる。
次に、上述した処理によって生成される、右オブジェクト画像と左オブジェクト画像、および、右背景画像と左背景画像を用いて、表示装置10での画像表示に使用されるデータ(右表示画像および左表示画像)を生成するための処理について説明する。
次に、図26および図27を参照して、本実施の形態に従うプログラムの処理内容について説明する。なお、図26および図27に示す各ステップは、典型的には、情報処理システム1のCPU100がプログラムを実行することで提供される。
図26は、本発明の実施の形態に従うプログラムのメインルーチンを示すフローチャートである。図26に示すフローチャートにおいては、アプリケーションの進行に伴って、図1に示すような、3次元仮想空間内のオブジェクトを表示装置10で平面表示する場合と同様のパラメータを指定することで、表示装置10において立体表示を行なう場合の処理について説明する。
図27は、本発明の実施の形態に従う立体表示用ライブラリ218の処理内容を示すフローチャートである。図27を参照して、CPU100は、まず、初期化処理を実行する(ステップS100)。この初期化処理には、表示装置10の表示面の実サイズ、ユーザの眼の実間隔、ユーザから表示装置10の表示面までの実距離、ユーザが立体表示を気持ちよく受け入れることができる限界の深さなどの初期値が所定の設定値にセットされる。これらの設定値を設定する方法としては、表示装置10のハードウェア(あるいは、ファームウェア)に予め登録されている想定値を指定する態様、アプリケーションによって指定する態様、および、ユーザが設定する態様などを利用してもよい。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
Claims (16)
- 立体表示が可能な表示装置を制御するための表示制御プログラムであって、前記表示制御プログラムは、前記表示装置のコンピュータを、
第1の仮想空間内のオブジェクトを第1の右仮想カメラおよび第1の左仮想カメラでそれぞれ仮想的に撮影することで、前記オブジェクトを前記表示装置で立体表示するために用いられる、右オブジェクト画像および左オブジェクト画像を生成するオブジェクト画像生成手段、
前記表示装置において背景表示に用いられる右背景画像および左背景画像を生成する背景画像生成手段、ならびに
前記右オブジェクト画像と前記左オブジェクト画像、および、前記右背景画像と前記左背景画像を用いて、前記表示装置での画像表示に使用されるデータを生成する表示データ生成手段として機能させ、
前記オブジェクト画像生成手段は、前記第1の仮想空間内に設定される第1の基準仮想カメラに応じて、当該第1の基準仮想カメラを通り、かつ、当該第1の基準仮想カメラのカメラ方向に垂直な直線上に、前記第1の右仮想カメラおよび前記第1の左仮想カメラを設定し、
前記背景画像生成手段は、仮想空間における前記第1の右仮想カメラと前記第1の左仮想カメラとの間の距離に基づいて、両背景画像が、前記第1の右仮想カメラと前記第1の左仮想カメラとの間の位置関係に応じた相対関係を有するように、前記右背景画像および前記左背景画像を表示制御する、表示制御プログラム。 - 立体表示が可能な表示装置を制御するための表示制御プログラムであって、前記表示制御プログラムは、前記表示装置のコンピュータを、
第1の仮想空間内のオブジェクトを第1の右仮想カメラおよび第1の左仮想カメラでそれぞれ仮想的に撮影することで、前記オブジェクトを前記表示装置で立体表示するために用いられる、右オブジェクト画像および左オブジェクト画像を生成するオブジェクト画像生成手段、
前記表示装置において背景表示に用いられる右背景画像および左背景画像を生成する背景画像生成手段、ならびに
前記右オブジェクト画像と前記左オブジェクト画像、および、前記右背景画像と前記左背景画像を用いて、前記表示装置での画像表示に使用されるデータを生成する表示データ生成手段として機能させ、
前記オブジェクト画像生成手段は、前記第1の仮想空間内に設定される第1の基準仮想カメラに応じて、当該第1の基準仮想カメラを通り、かつ、当該第1の基準仮想カメラのカメラ方向に垂直な直線上に、前記第1の右仮想カメラおよび前記第1の左仮想カメラを設定し、
前記背景画像生成手段は、両背景画像が、前記第1の右仮想カメラと前記第1の左仮想カメラとの間の位置関係の変更に応じて、前記右背景画像と前記左背景画像との相対関係が変更されるように、前記右背景画像および前記左背景画像を表示制御する、表示制御プログラム。 - 前記背景画像生成手段は、仮想空間における前記第1の右仮想カメラと前記第1の左仮想カメラとの間の距離に基づいて、前記右背景画像および前記左背景画像を表示制御する、請求項2に記載の表示制御プログラム。
- 前記右背景画像および前記左背景画像は、共通の画像を用いて生成される画像であり、
前記右背景画像および前記左背景画像は、両画像間の対応箇所が一対の仮想カメラの距離に応じた視差で表示されるように表示制御される、請求項1または3に記載の表示制御プログラム。 - 前記背景画像生成手段は、前記第1の基準仮想カメラの視体積に含まれ、当該第1の基準仮想カメラのカメラ方向に垂直な仮想平面である、基準仮想平面領域の幅を基準とした、前記第1の右仮想カメラと前記第1の左仮想カメラとの間の距離の比に応じて、前記右背景画像および前記左背景画像を生成する、請求項1、3、4のいずれか1項に記載の表示制御プログラム。
- 前記背景画像生成手段は、前記表示装置に表示されるサイズより大きなサイズを有する原背景画像に対して、前記右背景画像として出力すべき右描画範囲を設定するとともに、当該右描画範囲を、当該右描画範囲の幅に前記第1の右仮想カメラと前記第1の左仮想カメラとの間の距離の比を乗じて得られる距離だけずらした位置に、前記左背景画像として出力すべき左描画範囲を設定する、請求項5に記載の表示制御プログラム。
- 前記背景画像生成手段は、前記第1の右仮想カメラと前記第1の左仮想カメラとの間の距離に基づいて、背景オブジェクトを含む第2の仮想空間内に設定される第2の基準仮想カメラを基準として、前記背景オブジェクトを仮想的に撮影することで右背景画像を生成するための第2の右仮想カメラおよび第2の左仮想カメラを設定する、請求項1、3、4、5のいずれか1項に記載の表示制御プログラム。
- 前記第2の基準仮想カメラ、前記第2の右仮想カメラ、および前記第2の左仮想カメラの各々は、プロジェクション行列およびビュー行列として定義される、請求項7に記載の表示制御プログラム。
- 前記第1の基準仮想カメラ、前記第1の右仮想カメラ、および前記第1の左仮想カメラの各々は、プロジェクション行列およびビュー行列として定義される、請求項1〜8のいずれか1項に記載の表示制御プログラム。
- 前記オブジェクト画像生成手段は、前記表示装置において提供される立体感の程度を示す指示に応じて、前記第1の右仮想カメラと前記第1の左仮想カメラとの間の位置関係を決定する、請求項1〜9のいずれか1項に記載の表示制御プログラム。
- 前記表示制御プログラムは、前記表示装置のコンピュータを、前記表示装置において提供される立体感の程度を示す要求を受付ける入力手段としてさらに機能させ、
前記オブジェクト画像生成手段は、前記入力手段を介して立体感の程度の変更が指示されると、当該指示に応じて、前記第1の右仮想カメラと前記第1の左仮想カメラとの間の位置関係を変更する、請求項10に記載の表示制御プログラム。 - 立体表示が可能な表示装置のコンピュータ上で、アプリケーションプログラムと協働するライブラリプログラムであって、前記ライブラリプログラムは、前記コンピュータを、
第1の仮想空間内における第1の基準仮想カメラの設定値の入力に応答して、前記第1の仮想空間内のオブジェクトをそれぞれ仮想的に撮影することで、前記オブジェクトを前記表示装置で立体表示するために用いられる、右オブジェクト画像を生成するための第1の右仮想カメラの設定値、および、左オブジェクト画像を生成するための第1の左仮想カメラの設定値を出力する設定値出力手段、および
前記第1の右仮想カメラと前記第1の左仮想カメラとの間の位置関係を示す値、を出力する位置関係出力手段として機能させ、
前記設定値出力手段は、当該第1の基準仮想カメラを通り、かつ、当該第1の基準仮想カメラのカメラ方向に垂直な直線上に、前記第1の右仮想カメラおよび前記第1の左仮想カメラを設定し、
前記第1の右仮想カメラと前記第1の左仮想カメラとの間の距離に基づいて、前記表示装置において背景表示に用いられる右背景画像および左背景画像が生成される、ライブラリプログラム。 - 立体表示が可能な表示装置と、
第1の仮想空間内のオブジェクトを第1の右仮想カメラおよび第1の左仮想カメラでそれぞれ仮想的に撮影することで、前記オブジェクトを前記表示装置で立体表示するために用いられる、右オブジェクト画像および左オブジェクト画像を生成するオブジェクト画像生成手段と、
前記表示装置において背景表示に用いられる右背景画像および左背景画像を生成する背景画像生成手段と、
前記右オブジェクト画像と前記左オブジェクト画像、および、前記右背景画像と前記左背景画像を用いて、前記表示装置での画像表示に使用されるデータを生成する表示データ生成手段とを備え、
前記オブジェクト画像生成手段は、前記第1の仮想空間内に設定される第1の基準仮想カメラに応じて、当該第1の基準仮想カメラを通り、かつ、当該第1の基準仮想カメラのカメラ方向に垂直な直線上に、前記第1の右仮想カメラおよび前記第1の左仮想カメラを設定し、
前記背景画像生成手段は、仮想空間における前記第1の右仮想カメラと前記第1の左仮想カメラとの間の距離に基づいて、両背景画像の間が、前記第1の右仮想カメラと前記第1の左仮想カメラとの間の位置関係に応じた相対関係を有するように、前記右背景画像および前記左背景画像を表示制御する、情報処理システム。 - 立体表示が可能な表示装置と、
第1の仮想空間内のオブジェクトを第1の右仮想カメラおよび第1の左仮想カメラでそれぞれ仮想的に撮影することで、前記オブジェクトを前記表示装置で立体表示するために用いられる、右オブジェクト画像および左オブジェクト画像を生成するオブジェクト画像生成手段と、
前記表示装置において背景表示に用いられる右背景画像および左背景画像を生成する背景画像生成手段と、
前記右オブジェクト画像と前記左オブジェクト画像、および、前記右背景画像と前記左背景画像を用いて、前記表示装置での画像表示に使用されるデータを生成する表示データ生成手段とを備え、
前記オブジェクト画像生成手段は、前記第1の仮想空間内に設定される第1の基準仮想カメラに応じて、当該第1の基準仮想カメラを通り、かつ、当該第1の基準仮想カメラのカメラ方向に垂直な直線上に、前記第1の右仮想カメラおよび前記第1の左仮想カメラを設定し、
前記背景画像生成手段は、両背景画像が、前記第1の右仮想カメラと前記第1の左仮想カメラとの間の位置関係の変更に応じて、前記右背景画像と前記左背景画像との相対関係が変更されるように、前記右背景画像および前記左背景画像を表示制御する、情報処理システム。 - 立体表示が可能な表示装置を制御する表示制御方法であって、
第1の仮想空間内のオブジェクトを第1の右仮想カメラおよび第1の左仮想カメラでそれぞれ仮想的に撮影することで、前記オブジェクトを前記表示装置で立体表示するために用いられる、右オブジェクト画像および左オブジェクト画像を生成するオブジェクト画像生成ステップと、
前記表示装置において背景表示に用いられる右背景画像および左背景画像を生成する背景画像生成ステップと、
前記右オブジェクト画像と前記左オブジェクト画像、および、前記右背景画像と前記左背景画像を用いて、前記表示装置での画像表示に使用されるデータを生成する表示データ生成ステップとを備え、
前記オブジェクト画像生成ステップは、前記第1の仮想空間内に設定される第1の基準仮想カメラに応じて、当該第1の基準仮想カメラを通り、かつ、当該第1の基準仮想カメラのカメラ方向に垂直な直線上に、前記第1の右仮想カメラおよび前記第1の左仮想カメラを設定するステップを含み、
前記背景画像生成ステップは、仮想空間における前記第1の右仮想カメラと前記第1の左仮想カメラとの間の距離に基づいて、両背景画像の間が、前記第1の右仮想カメラと前記第1の左仮想カメラとの間の位置関係に応じた相対関係を有するように、前記右背景画像および前記左背景画像を表示制御するステップを含む、表示制御方法。 - 立体表示が可能な表示装置を制御する表示制御方法であって、
第1の仮想空間内のオブジェクトを第1の右仮想カメラおよび第1の左仮想カメラでそれぞれ仮想的に撮影することで、前記オブジェクトを前記表示装置で立体表示するために用いられる、右オブジェクト画像および左オブジェクト画像を生成するオブジェクト画像生成ステップと、
前記表示装置において背景表示に用いられる右背景画像および左背景画像を生成する背景画像生成ステップと、
前記右オブジェクト画像と前記左オブジェクト画像、および、前記右背景画像と前記左背景画像を用いて、前記表示装置での画像表示に使用されるデータを生成する表示データ生成ステップとを備え、
前記オブジェクト画像生成ステップは、前記第1の仮想空間内に設定される第1の基準仮想カメラに応じて、当該第1の基準仮想カメラを通り、かつ、当該第1の基準仮想カメラのカメラ方向に垂直な直線上に、前記第1の右仮想カメラおよび前記第1の左仮想カメラを設定するステップを含み、
前記背景画像生成ステップは、両背景画像が、前記第1の右仮想カメラと前記第1の左仮想カメラとの間の位置関係の変更に応じて、前記右背景画像と前記左背景画像との相対関係が変更されるように、前記右背景画像および前記左背景画像を表示制御するステップを含む、表示制御方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009241314A JP5405264B2 (ja) | 2009-10-20 | 2009-10-20 | 表示制御プログラム、ライブラリプログラム、情報処理システム、および、表示制御方法 |
EP12160332.8A EP2480000B1 (en) | 2009-10-20 | 2010-10-19 | Display control program, library program, information processing system, and display control method |
EP10188033A EP2323414A3 (en) | 2009-10-20 | 2010-10-19 | Display control program, library program, information processing system, and display control method |
US12/907,248 US9019261B2 (en) | 2009-10-20 | 2010-10-19 | Storage medium storing display control program, storage medium storing library program, information processing system, and display control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009241314A JP5405264B2 (ja) | 2009-10-20 | 2009-10-20 | 表示制御プログラム、ライブラリプログラム、情報処理システム、および、表示制御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011091486A JP2011091486A (ja) | 2011-05-06 |
JP5405264B2 true JP5405264B2 (ja) | 2014-02-05 |
Family
ID=43448523
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009241314A Active JP5405264B2 (ja) | 2009-10-20 | 2009-10-20 | 表示制御プログラム、ライブラリプログラム、情報処理システム、および、表示制御方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9019261B2 (ja) |
EP (2) | EP2323414A3 (ja) |
JP (1) | JP5405264B2 (ja) |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5409107B2 (ja) * | 2009-05-13 | 2014-02-05 | 任天堂株式会社 | 表示制御プログラム、情報処理装置、表示制御方法、および情報処理システム |
JP5405264B2 (ja) | 2009-10-20 | 2014-02-05 | 任天堂株式会社 | 表示制御プログラム、ライブラリプログラム、情報処理システム、および、表示制御方法 |
JP4754031B2 (ja) | 2009-11-04 | 2011-08-24 | 任天堂株式会社 | 表示制御プログラム、情報処理システム、および立体表示の制御に利用されるプログラム |
EP2355526A3 (en) | 2010-01-14 | 2012-10-31 | Nintendo Co., Ltd. | Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method |
US9693039B2 (en) | 2010-05-27 | 2017-06-27 | Nintendo Co., Ltd. | Hand-held electronic device |
JP5522018B2 (ja) * | 2010-12-15 | 2014-06-18 | 富士通株式会社 | 画像処理装置、画像処理方法及び画像処理プログラム |
EP2506587A2 (en) * | 2011-03-31 | 2012-10-03 | Fujifilm Corporation | Stereoscopic display apparatus |
FR2974435A1 (fr) * | 2011-04-22 | 2012-10-26 | France Telecom | Procede et dispositif de creation d'images stereoscopiques |
EP2710804A1 (en) * | 2011-05-19 | 2014-03-26 | Thomson Licensing | Automatic conversion of a stereoscopic image in order to allow a simultaneous stereoscopic and monoscopic display of said image |
US9259645B2 (en) * | 2011-06-03 | 2016-02-16 | Nintendo Co., Ltd. | Storage medium having stored therein an image generation program, image generation method, image generation apparatus and image generation system |
KR20130081569A (ko) * | 2012-01-09 | 2013-07-17 | 삼성전자주식회사 | 3d 영상을 출력하기 위한 장치 및 방법 |
US8884928B1 (en) * | 2012-01-26 | 2014-11-11 | Amazon Technologies, Inc. | Correcting for parallax in electronic displays |
JP2013211672A (ja) * | 2012-03-30 | 2013-10-10 | Namco Bandai Games Inc | 曲面投影立体視装置 |
JP5773944B2 (ja) * | 2012-05-22 | 2015-09-02 | 株式会社ソニー・コンピュータエンタテインメント | 情報処理装置および情報処理方法 |
JP6071105B2 (ja) * | 2012-09-27 | 2017-02-01 | 株式会社ニデック | 視標呈示装置 |
US20140104137A1 (en) * | 2012-10-16 | 2014-04-17 | Google Inc. | Systems and methods for indirectly associating logical and physical display content |
JP6396310B2 (ja) * | 2012-11-23 | 2018-09-26 | キャデンス メディカル イメージング インコーポレイテッドCadens Medical Imaging Inc. | 第一レンダリング投影と第二レンダリング投影との間のトランジションをユーザーに表示するための方法および装置 |
JP6066066B2 (ja) * | 2013-02-20 | 2017-01-25 | 株式会社ジオ技術研究所 | 立体視画像出力システム |
US10078228B2 (en) | 2016-09-29 | 2018-09-18 | Jeremy Paul Willden | Three-dimensional imaging system |
US10369472B1 (en) | 2017-03-30 | 2019-08-06 | Electronic Arts Inc. | Virtual environment mapping system |
US10969740B2 (en) | 2017-06-27 | 2021-04-06 | Nvidia Corporation | System and method for near-eye light field rendering for wide field of view interactive three-dimensional computer graphics |
US11182951B2 (en) * | 2018-02-23 | 2021-11-23 | Sony Group Corporation | 3D object modeling using scale parameters and estimated distance |
CN110910438B (zh) * | 2018-09-17 | 2022-03-22 | 中国科学院沈阳自动化研究所 | 一种超高分辨率双目图像的高速立体匹配算法 |
US11620800B2 (en) | 2019-03-27 | 2023-04-04 | Electronic Arts Inc. | Three dimensional reconstruction of objects based on geolocation and image data |
US11887253B2 (en) | 2019-07-24 | 2024-01-30 | Electronic Arts Inc. | Terrain generation and population system |
US11335058B2 (en) * | 2020-10-13 | 2022-05-17 | Electronic Arts Inc. | Spatial partitioning for graphics rendering |
CN112929651B (zh) * | 2021-01-25 | 2025-01-24 | 北京信息科技大学 | 一种显示方法、装置、电子设备及存储介质 |
TWI812566B (zh) * | 2022-12-28 | 2023-08-11 | 宏碁股份有限公司 | 立體影像深度調整方法與裝置 |
CN118941754A (zh) * | 2024-10-15 | 2024-11-12 | 山东捷瑞信息技术产业研究院有限公司 | 基于场景边界动态计算场景虚拟摄像机裁剪平面的方法 |
Family Cites Families (81)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0425985B1 (en) | 1989-10-25 | 1997-06-11 | Hitachi, Ltd. | Stereoscopic imaging system |
US5065236A (en) | 1990-11-02 | 1991-11-12 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Stereoscopic camera and viewing systems with undistorted depth presentation and reduced or eliminated erroneous acceleration and deceleration perceptions, or with perceptions produced or enhanced for special effects |
EP0563737B1 (en) | 1992-03-23 | 1997-09-10 | Canon Kabushiki Kaisha | Multilens imaging apparatus with correction of misregistration |
US5309522A (en) | 1992-06-30 | 1994-05-03 | Environmental Research Institute Of Michigan | Stereoscopic determination of terrain elevation |
JP2849313B2 (ja) | 1993-09-21 | 1999-01-20 | キヤノン株式会社 | 画像記録再生装置 |
JPH0759119A (ja) | 1993-08-20 | 1995-03-03 | Seiko Epson Corp | 疑似立体映像表示装置 |
DE69417824T4 (de) | 1993-08-26 | 2000-06-29 | Matsushita Electric Industrial Co., Ltd. | Stereoskopischer Abtastapparat |
JPH07143524A (ja) | 1993-11-19 | 1995-06-02 | Honda Motor Co Ltd | 車載用ステレオ画像表示装置 |
US5510832A (en) | 1993-12-01 | 1996-04-23 | Medi-Vision Technologies, Inc. | Synthesized stereoscopic imaging system and method |
US6118475A (en) * | 1994-06-02 | 2000-09-12 | Canon Kabushiki Kaisha | Multi-eye image pickup apparatus, and method and apparatus for measuring or recognizing three-dimensional shape |
JP3157384B2 (ja) | 1994-06-20 | 2001-04-16 | 三洋電機株式会社 | 立体映像装置 |
EP0696144A3 (en) | 1994-08-02 | 1996-04-24 | Canon Kk | Image pickup device with a plurality of lenses and a unit for extracting matching points |
TW282527B (ja) | 1994-11-11 | 1996-08-01 | Nintendo Co Ltd | |
JPH08136855A (ja) | 1994-11-11 | 1996-05-31 | Nintendo Co Ltd | 画像表示装置、画像表示システムおよびそれに用いられるプログラムカートリッジ |
TW269094B (en) | 1994-11-11 | 1996-01-21 | Nitendo Kk | Three dimensional visual image display device and electric game apparatus, memory device thereof |
JP2716388B2 (ja) | 1994-12-26 | 1998-02-18 | 日本電気株式会社 | 立体画像用ディスプレイ装置 |
JPH08205201A (ja) | 1995-01-31 | 1996-08-09 | Sony Corp | 疑似立体視方法 |
KR100414629B1 (ko) | 1995-03-29 | 2004-05-03 | 산요덴키가부시키가이샤 | 3차원표시화상생성방법,깊이정보를이용한화상처리방법,깊이정보생성방법 |
JPH08331607A (ja) | 1995-03-29 | 1996-12-13 | Sanyo Electric Co Ltd | 三次元表示画像生成方法 |
JP2848291B2 (ja) | 1995-08-24 | 1999-01-20 | 松下電器産業株式会社 | 立体tv装置 |
JP3579162B2 (ja) | 1995-06-29 | 2004-10-20 | 松下電器産業株式会社 | 立体cg画像生成装置 |
US6005607A (en) | 1995-06-29 | 1999-12-21 | Matsushita Electric Industrial Co., Ltd. | Stereoscopic computer graphics image generating apparatus and stereoscopic TV apparatus |
EP0772350A3 (en) * | 1995-10-30 | 1997-07-23 | Photron Kk | Overlay device and method for producing composite images |
US6088006A (en) * | 1995-12-20 | 2000-07-11 | Olympus Optical Co., Ltd. | Stereoscopic image generating system for substantially matching visual range with vergence distance |
US6163337A (en) | 1996-04-05 | 2000-12-19 | Matsushita Electric Industrial Co., Ltd. | Multi-view point image transmission method and multi-view point image display method |
JP3733359B2 (ja) | 1996-04-05 | 2006-01-11 | 松下電器産業株式会社 | 視差推定方法、画像伝送方法、画像表示方法、多視点画像伝送方法、多視点画像復元方法および視差推定装置 |
US6389179B1 (en) | 1996-05-28 | 2002-05-14 | Canon Kabushiki Kaisha | Image combining apparatus using a combining algorithm selected based on an image sensing condition corresponding to each stored image |
JPH09322199A (ja) * | 1996-05-29 | 1997-12-12 | Olympus Optical Co Ltd | 立体映像ディスプレイ装置 |
EP0817125B1 (en) | 1996-06-26 | 2004-09-08 | Matsushita Electric Industrial Co., Ltd. | Stereoscopic computer graphics moving image generating apparatus |
JP3934211B2 (ja) | 1996-06-26 | 2007-06-20 | 松下電器産業株式会社 | 立体cg動画像生成装置 |
US6198484B1 (en) | 1996-06-27 | 2001-03-06 | Kabushiki Kaisha Toshiba | Stereoscopic display system |
US6310733B1 (en) * | 1996-08-16 | 2001-10-30 | Eugene Dolgoff | Optical elements and methods for their manufacture |
JP3532709B2 (ja) | 1996-10-29 | 2004-05-31 | 株式会社東芝 | 動画像符号化方法および装置 |
JPH1127703A (ja) | 1997-06-30 | 1999-01-29 | Canon Inc | 表示装置及びその制御方法 |
US6762794B1 (en) | 1997-12-03 | 2004-07-13 | Canon Kabushiki Kaisha | Image pick-up apparatus for stereoscope |
JP4149037B2 (ja) * | 1998-06-04 | 2008-09-10 | オリンパス株式会社 | 映像システム |
JP3420504B2 (ja) | 1998-06-30 | 2003-06-23 | キヤノン株式会社 | 情報処理方法 |
US6064354A (en) * | 1998-07-01 | 2000-05-16 | Deluca; Michael Joseph | Stereoscopic user interface method and apparatus |
JP2000078615A (ja) | 1998-09-02 | 2000-03-14 | Sanyo Electric Co Ltd | ディジタル放送受信機 |
JP3619063B2 (ja) | 1999-07-08 | 2005-02-09 | キヤノン株式会社 | 立体画像処理装置、その方法、立体視パラメータ設定装置、その方法そしてコンピュータプログラム記憶媒体 |
GB2354389A (en) * | 1999-09-15 | 2001-03-21 | Sharp Kk | Stereo images with comfortable perceived depth |
EP1085769B1 (en) | 1999-09-15 | 2012-02-01 | Sharp Kabushiki Kaisha | Stereoscopic image pickup apparatus |
JP3728160B2 (ja) * | 1999-12-06 | 2005-12-21 | キヤノン株式会社 | 奥行き画像計測装置及び方法、並びに複合現実感提示システム |
JP2001195582A (ja) | 2000-01-12 | 2001-07-19 | Mixed Reality Systems Laboratory Inc | 画像検出装置、画像検出方法、立体表示装置、表示コントローラ、立体表示システムおよびプログラム記憶媒体 |
GB0010685D0 (en) * | 2000-05-03 | 2000-06-28 | Koninkl Philips Electronics Nv | Autostereoscopic display driver |
JP4590686B2 (ja) | 2000-05-12 | 2010-12-01 | ソニー株式会社 | 立体画像表示装置 |
JP2002095018A (ja) | 2000-09-12 | 2002-03-29 | Canon Inc | 画像表示制御装置及び画像表示システム、並びに画像データの表示方法 |
GB0105801D0 (en) | 2001-03-09 | 2001-04-25 | Koninkl Philips Electronics Nv | Apparatus |
JP4610799B2 (ja) * | 2001-06-25 | 2011-01-12 | オリンパス株式会社 | 立体観察システム、及び内視鏡装置 |
US20030113012A1 (en) | 2001-08-17 | 2003-06-19 | Byoungyi Yoon | Method and system for controlling a screen ratio based on a photographing ratio |
TW584815B (en) | 2001-09-13 | 2004-04-21 | Silicon Integrated Sys Corp | Method for removing noise regions in a stereo 3D display system |
JP2003107603A (ja) * | 2001-09-28 | 2003-04-09 | Namco Ltd | 立体視画像生成装置、立体視画像生成情報および情報記憶媒体 |
US8369607B2 (en) * | 2002-03-27 | 2013-02-05 | Sanyo Electric Co., Ltd. | Method and apparatus for processing three-dimensional images |
JP3749227B2 (ja) | 2002-03-27 | 2006-02-22 | 三洋電機株式会社 | 立体画像処理方法および装置 |
US7679616B2 (en) | 2002-04-25 | 2010-03-16 | Sharp Kabushiki Kaisha | Image data generation apparatus for adding attribute information regarding image pickup conditions to image data, image data reproduction apparatus for reproducing image data according to added attribute information, and image data recording medium related thereto |
JP4115188B2 (ja) | 2002-07-19 | 2008-07-09 | キヤノン株式会社 | 仮想空間描画表示装置 |
JP3973525B2 (ja) | 2002-09-24 | 2007-09-12 | シャープ株式会社 | 2d(2次元)及び3d(3次元)表示機能を備える電子機器 |
WO2004030376A1 (ja) * | 2002-09-27 | 2004-04-08 | Sharp Kabushiki Kaisha | 立体画像表示装置、立体画像記録装置および立体画像記録方法 |
JP4228646B2 (ja) * | 2002-10-02 | 2009-02-25 | 株式会社セガ | 立体視画像生成方法および立体視画像生成装置 |
EP1408703A3 (en) | 2002-10-10 | 2004-10-13 | Fuji Photo Optical Co., Ltd. | Electronic stereoscopic imaging system |
JP4190263B2 (ja) | 2002-11-25 | 2008-12-03 | 三洋電機株式会社 | 立体視用映像提供方法及び立体映像表示装置 |
US20060203085A1 (en) | 2002-11-28 | 2006-09-14 | Seijiro Tomita | There dimensional image signal producing circuit and three-dimensional image display apparatus |
JPWO2004084560A1 (ja) | 2003-03-20 | 2006-06-29 | 富田 誠次郎 | 立体映像撮影表示システム |
JP3962699B2 (ja) | 2003-03-20 | 2007-08-22 | 株式会社ソフィア | 遊技機 |
JP2004294861A (ja) | 2003-03-27 | 2004-10-21 | Sanyo Electric Co Ltd | 立体映像表示装置 |
JP4179946B2 (ja) | 2003-08-08 | 2008-11-12 | オリンパス株式会社 | 立体内視鏡装置 |
JP2005165614A (ja) * | 2003-12-02 | 2005-06-23 | Canon Inc | 画像合成装置および画像合成方法 |
GB0329312D0 (en) * | 2003-12-18 | 2004-01-21 | Univ Durham | Mapping perceived depth to regions of interest in stereoscopic images |
US8094927B2 (en) * | 2004-02-27 | 2012-01-10 | Eastman Kodak Company | Stereoscopic display system with flexible rendering of disparity map according to the stereoscopic fusing capability of the observer |
JP3770497B2 (ja) * | 2004-03-31 | 2006-04-26 | 任天堂株式会社 | 携帯ゲーム機およびゲームプログラム |
JP2005353047A (ja) * | 2004-05-13 | 2005-12-22 | Sanyo Electric Co Ltd | 立体画像処理方法および立体画像処理装置 |
EP1877982A1 (en) * | 2005-04-25 | 2008-01-16 | Yappa Corporation | 3d image generation and display system |
JP2007044244A (ja) | 2005-08-10 | 2007-02-22 | Seiko Epson Corp | 表示装置、遊技機、及び表示装置の制御方法 |
KR100893616B1 (ko) | 2006-04-17 | 2009-04-20 | 삼성모바일디스플레이주식회사 | 전자 영상 기기, 2d/3d 영상 표시 장치 및 그 구동방법 |
JP5011842B2 (ja) | 2006-06-22 | 2012-08-29 | 株式会社ニコン | 画像再生装置 |
JP4892405B2 (ja) | 2007-05-18 | 2012-03-07 | キヤノン株式会社 | 画像処理装置および方法 |
JP4982862B2 (ja) | 2007-09-07 | 2012-07-25 | 株式会社バンダイナムコゲームス | プログラム、情報記憶媒体及び画像生成システム |
JP5409107B2 (ja) * | 2009-05-13 | 2014-02-05 | 任天堂株式会社 | 表示制御プログラム、情報処理装置、表示制御方法、および情報処理システム |
JP2011035592A (ja) * | 2009-07-31 | 2011-02-17 | Nintendo Co Ltd | 表示制御プログラムおよび情報処理システム |
JP5405264B2 (ja) | 2009-10-20 | 2014-02-05 | 任天堂株式会社 | 表示制御プログラム、ライブラリプログラム、情報処理システム、および、表示制御方法 |
JP4754031B2 (ja) * | 2009-11-04 | 2011-08-24 | 任天堂株式会社 | 表示制御プログラム、情報処理システム、および立体表示の制御に利用されるプログラム |
-
2009
- 2009-10-20 JP JP2009241314A patent/JP5405264B2/ja active Active
-
2010
- 2010-10-19 US US12/907,248 patent/US9019261B2/en active Active
- 2010-10-19 EP EP10188033A patent/EP2323414A3/en not_active Ceased
- 2010-10-19 EP EP12160332.8A patent/EP2480000B1/en active Active
Also Published As
Publication number | Publication date |
---|---|
US9019261B2 (en) | 2015-04-28 |
EP2480000A2 (en) | 2012-07-25 |
EP2480000A3 (en) | 2012-08-01 |
EP2323414A3 (en) | 2011-06-01 |
US20110090215A1 (en) | 2011-04-21 |
JP2011091486A (ja) | 2011-05-06 |
EP2323414A2 (en) | 2011-05-18 |
EP2480000B1 (en) | 2016-08-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5405264B2 (ja) | 表示制御プログラム、ライブラリプログラム、情報処理システム、および、表示制御方法 | |
JP4754031B2 (ja) | 表示制御プログラム、情報処理システム、および立体表示の制御に利用されるプログラム | |
CN107209565B (zh) | 用于显示固定大小的增强现实对象的方法和系统 | |
US20110032252A1 (en) | Storage medium storing display control program for controlling display capable of providing three-dimensional display and information processing system | |
KR100812905B1 (ko) | 입체 화상 처리 방법, 장치 및 컴퓨터 판독가능 기록 매체 | |
US7321682B2 (en) | Image generation system, image generation method, program, and information storage medium | |
KR101675961B1 (ko) | 적응적 부화소 렌더링 장치 및 방법 | |
US8749547B2 (en) | Three-dimensional stereoscopic image generation | |
TW201029440A (en) | Image processing device, program, image processing method, recording method, and recording medium | |
US20120306860A1 (en) | Image generation system, image generation method, and information storage medium | |
US20120306857A1 (en) | Computer readable medium storing information processing program of generating a stereoscopic image | |
US20230290046A1 (en) | Multiview display system and method employing multiview image convergence plane tilt | |
US7680322B2 (en) | Method of fabricating printed material for stereoscopic viewing, and printed material for stereoscopic viewing | |
JP5950701B2 (ja) | 画像表示システム、パズルゲームシステム、画像表示方法、パズルゲーム方法、画像表示装置、パズルゲーム装置、画像表示プログラム、および、パズルゲームプログラム | |
US20240073391A1 (en) | Information processing apparatus, information processing method, and program | |
KR101425321B1 (ko) | 적응형 렌즈 어레이를 구비하는 3차원 집적 영상 디스플레이 시스템 및 적응형 렌즈 어레이에 대한 요소 영상 생성 방법 | |
JPH10172004A (ja) | 立体画像表示方法 | |
KR100893381B1 (ko) | 실시간 입체영상 생성방법 | |
JP6601392B2 (ja) | 表示制御装置、表示制御方法、及び、プログラム | |
CN119536865A (zh) | 虚拟场景显示方法及其装置、设备 | |
CN116033137A (zh) | 显示屏的处理方法、装置、非易失性存储介质及电子设备 | |
CN120070719A (zh) | 三维场景重建方法、装置、设备和存储介质 | |
JP2019139376A (ja) | 仮想空間画像提示システム、仮想空間画像提示方法及びプログラム | |
JP2018186319A (ja) | 立体画像表示制御装置、立体画像表示制御方法及び立体画像表示制御プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120918 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130520 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130528 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130726 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131015 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131030 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5405264 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |