JPH0778267A - 陰影を表示する方法及びコンピュータ制御表示システム - Google Patents
陰影を表示する方法及びコンピュータ制御表示システムInfo
- Publication number
- JPH0778267A JPH0778267A JP6180467A JP18046794A JPH0778267A JP H0778267 A JPH0778267 A JP H0778267A JP 6180467 A JP6180467 A JP 6180467A JP 18046794 A JP18046794 A JP 18046794A JP H0778267 A JPH0778267 A JP H0778267A
- Authority
- JP
- Japan
- Prior art keywords
- depth map
- pixel
- depth
- scene
- texture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 35
- 238000009877 rendering Methods 0.000 claims abstract description 24
- 230000002452 interceptive effect Effects 0.000 claims abstract description 7
- 230000003287 optical effect Effects 0.000 claims description 24
- 230000008569 process Effects 0.000 claims description 20
- 238000013507 mapping Methods 0.000 claims description 16
- 238000012545 processing Methods 0.000 claims description 5
- 230000003139 buffering effect Effects 0.000 claims description 4
- 230000006870 function Effects 0.000 description 14
- 230000000694 effects Effects 0.000 description 13
- 230000000007 visual effect Effects 0.000 description 10
- 238000006243 chemical reaction Methods 0.000 description 7
- 238000003860 storage Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000012804 iterative process Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 102100035893 CD151 antigen Human genes 0.000 description 1
- 101000946874 Homo sapiens CD151 antigen Proteins 0.000 description 1
- 206010065042 Immune reconstitution inflammatory syndrome Diseases 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000005266 casting Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 230000009182 swimming Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
Landscapes
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Generation (AREA)
- Processing Or Creating Images (AREA)
- Digital Computer Display Output (AREA)
Abstract
(57)【要約】
【目的】 対話式画像生成のために陰影付きシーンを生
成する方法及び装置を提供する。 【構成】 画素ごとに陰影付け係数を生成することによ
り陰影付けを実行するのであるが、この係数はシーンを
レンダリングするときに使用される。本発明は画像生成
システムのZバッファ機能と投影テクスチャマッピング
機能を利用する。
成する方法及び装置を提供する。 【構成】 画素ごとに陰影付け係数を生成することによ
り陰影付けを実行するのであるが、この係数はシーンを
レンダリングするときに使用される。本発明は画像生成
システムのZバッファ機能と投影テクスチャマッピング
機能を利用する。
Description
【0001】
【産業上の利用分野】本発明はコンピュータ生成グラフ
ィックスの分野に関し、特に、三次元陰影付きシーンの
生成に関する。
ィックスの分野に関し、特に、三次元陰影付きシーンの
生成に関する。
【0002】
【従来の技術】複雑なモデルに陰影を追加すると、その
モデルの幾何学的形状の理解度を大幅に向上させること
ができる。人間の視覚系統は陰影を奥行形状を知る手が
かりとして使用する。その結果、陰影はレンダリングさ
れる物体の三次元的性質を伝達し且つコンピュータ生成
シーンに現実性を加える上で非常に有用である。一般
に、陰影付けは隠面消去に類似している。隠面消去で
は、別の物体の背後にある物体又はその一部分を暗くす
る。隠面消去の場合、物体を暗くするか否かを判定する
ための基準点は視点である。陰影付けについては、別の
物体の陰に入る物体又はその一部分を暗くする。陰影付
けの場合には、物体を暗くするか否かを判定するための
基準点は光源点である。
モデルの幾何学的形状の理解度を大幅に向上させること
ができる。人間の視覚系統は陰影を奥行形状を知る手が
かりとして使用する。その結果、陰影はレンダリングさ
れる物体の三次元的性質を伝達し且つコンピュータ生成
シーンに現実性を加える上で非常に有用である。一般
に、陰影付けは隠面消去に類似している。隠面消去で
は、別の物体の背後にある物体又はその一部分を暗くす
る。隠面消去の場合、物体を暗くするか否かを判定する
ための基準点は視点である。陰影付けについては、別の
物体の陰に入る物体又はその一部分を暗くする。陰影付
けの場合には、物体を暗くするか否かを判定するための
基準点は光源点である。
【0003】陰影付け効果を生成する様々な技法は、F
oley他による文献「Computer Graph
ics Principles and Practi
ces Second Edition」(Addis
on−Wesley Publishing Comp
any刊、745〜756ページ)の中に記載されてい
る。Williamsの論文「Casting Cur
ved Shodows on Curved Sur
faces」(Proceedings ofSIGG
RAPH ’78、283〜291ページ、1978
年)に記載されているそのような技法の1つは2回のパ
スを使用する。第1のパスでは、陰影マップを作成す
る。陰影マップは、投影点として光源を有するZバッフ
ァ(一般には、隠面消去のために使用される)に類似し
ている。この場合、陰影マップは光源からレンダリング
すべきシーンを構成するオブジェクトまでの距離を識別
する。陰影マップは、光源を原点として有する三次元
(x,y,z)光座標系において生成される。光座標系
のx,y座標は陰影マップを索引付けするために使用さ
れる。第2のパスでは、観察者の視点からシーンをレン
ダリングする。これは、典型的には、視点を原点として
有する三次元座標系(たとえば、視界座標系)で実行さ
れる。この第2のパスの間、オブジェクト画素が視界に
入ったと確定されるたびに、それが陰になっているか否
かを判定するために試験を実行する。これは、まず、オ
ブジェクト画素をクリップ座標系座標から光座標系座標
に変換することによって実行される。先に述べた通り、
光座標系座標は陰影バッファに対する索引と、深度座標
とを含む。次に、陰影バッファの索引付け値を深度座標
と比較する。深度座標が陰影マップ中の値より光源から
遠い場合、その点から光源をブロックする物が何か存在
しており、その画素は陰に入っているものとして陰影付
けされる。そうでなければ、点は光源から見えており、
照明されているものとして陰影付けされる。
oley他による文献「Computer Graph
ics Principles and Practi
ces Second Edition」(Addis
on−Wesley Publishing Comp
any刊、745〜756ページ)の中に記載されてい
る。Williamsの論文「Casting Cur
ved Shodows on Curved Sur
faces」(Proceedings ofSIGG
RAPH ’78、283〜291ページ、1978
年)に記載されているそのような技法の1つは2回のパ
スを使用する。第1のパスでは、陰影マップを作成す
る。陰影マップは、投影点として光源を有するZバッフ
ァ(一般には、隠面消去のために使用される)に類似し
ている。この場合、陰影マップは光源からレンダリング
すべきシーンを構成するオブジェクトまでの距離を識別
する。陰影マップは、光源を原点として有する三次元
(x,y,z)光座標系において生成される。光座標系
のx,y座標は陰影マップを索引付けするために使用さ
れる。第2のパスでは、観察者の視点からシーンをレン
ダリングする。これは、典型的には、視点を原点として
有する三次元座標系(たとえば、視界座標系)で実行さ
れる。この第2のパスの間、オブジェクト画素が視界に
入ったと確定されるたびに、それが陰になっているか否
かを判定するために試験を実行する。これは、まず、オ
ブジェクト画素をクリップ座標系座標から光座標系座標
に変換することによって実行される。先に述べた通り、
光座標系座標は陰影バッファに対する索引と、深度座標
とを含む。次に、陰影バッファの索引付け値を深度座標
と比較する。深度座標が陰影マップ中の値より光源から
遠い場合、その点から光源をブロックする物が何か存在
しており、その画素は陰に入っているものとして陰影付
けされる。そうでなければ、点は光源から見えており、
照明されているものとして陰影付けされる。
【0004】この技法に伴う第1の問題点は、第2のパ
スの間にオブジェクト画素をクリップ座標系座標から光
座標系座標に変換するために、計算を実行する必要があ
ることである。対話方式で画像を生成するためには、そ
のような計算を最小限に抑えることが望ましい。そうし
ないと、画像の対話式操作の結果、その画像のレンダリ
ングに許容しえないほどの遅延を生じるおそれがある。
この技法に関わる第2の問題点は、様々なアーティファ
クトが発生するために、陰影付き画像に様々なひずみを
引き起こしやすいということである。Williams
の文献に記載されている基本技法の改善をパーセンテー
ジ・クローサー・フィルタリングという。パーセンテー
ジ・クローサー・フィルタリングは、Reeve,Sa
lesin及びCookによる論文「Renderin
g Antialiased Shadows wit
h Depth Mops」(Proceedings
of SIGGRAPH ’87、283〜291ペ
ージ、1987年)の中に記載されている。パーセンテ
ージ・クローサー・フィルタリングにおいては、各々の
深度座標を陰影マップの所定の領域と比較し、より近接
している値の百分率を使用して、1つの画素に関わる陰
影付けの量を確定する。パーセンテージ・クローサー・
フィルタリングは改善にはなるが、様々なアーティファ
クトやひずみは残っている。
スの間にオブジェクト画素をクリップ座標系座標から光
座標系座標に変換するために、計算を実行する必要があ
ることである。対話方式で画像を生成するためには、そ
のような計算を最小限に抑えることが望ましい。そうし
ないと、画像の対話式操作の結果、その画像のレンダリ
ングに許容しえないほどの遅延を生じるおそれがある。
この技法に関わる第2の問題点は、様々なアーティファ
クトが発生するために、陰影付き画像に様々なひずみを
引き起こしやすいということである。Williams
の文献に記載されている基本技法の改善をパーセンテー
ジ・クローサー・フィルタリングという。パーセンテー
ジ・クローサー・フィルタリングは、Reeve,Sa
lesin及びCookによる論文「Renderin
g Antialiased Shadows wit
h Depth Mops」(Proceedings
of SIGGRAPH ’87、283〜291ペ
ージ、1987年)の中に記載されている。パーセンテ
ージ・クローサー・フィルタリングにおいては、各々の
深度座標を陰影マップの所定の領域と比較し、より近接
している値の百分率を使用して、1つの画素に関わる陰
影付けの量を確定する。パーセンテージ・クローサー・
フィルタリングは改善にはなるが、様々なアーティファ
クトやひずみは残っている。
【0005】
【発明が解決しようとする課題】従って、本発明の第1
の目的は、対話方式の画像生成に使用しうる陰影付け技
法を提供することである。
の目的は、対話方式の画像生成に使用しうる陰影付け技
法を提供することである。
【0006】
【課題を解決するための手段】対話式画像生成プロセス
の一部として、三次元空間で陰影付け効果を発生させる
方法及び装置を説明する。陰影は、レンダリングされる
オブジェクトの三次元的性質を伝達し且つコンピュータ
生成シーンに現実性を加えるのに非常に有用である。本
発明は、陰影効果を発生させるために、Zバッファリン
グと投影テクスチャマッピングの要素を取り入れてい
る。
の一部として、三次元空間で陰影付け効果を発生させる
方法及び装置を説明する。陰影は、レンダリングされる
オブジェクトの三次元的性質を伝達し且つコンピュータ
生成シーンに現実性を加えるのに非常に有用である。本
発明は、陰影効果を発生させるために、Zバッファリン
グと投影テクスチャマッピングの要素を取り入れてい
る。
【0007】陰影効果を得るための原理過程は、Zバッ
ファリングを使用して光源の視点からシーンをレンダリ
ングして、前記Zバッファから二次元深度マップを生成
する過程と;深度マップをテクスチャマッピング記憶装
置に記憶する過程と;観察者の視点からシーンをレンダ
リングする過程と;視界に入る画素ごとに、前記深度マ
ップに対する索引と、深度値とを生成する過程と;深度
マップ索引に基づいて、深度マップから所定数の深度マ
ップサンプルを検索する過程と;前記深度値を深度マッ
プサンプルの各々と比較して、どの深度マップサンプル
がレンダリング画素を陰影付けするかを判定し且つ深度
マップ比較の結果から加重平均陰影係数を生成する過程
と;後のレンダリングに備えて陰影係数を記憶する過程
である。次に、表面及び/又は陰影付けの情報を利用し
てシーンをレンダリングする。オブジェクト点をレンダ
リングするとき、計算上の画素の強さを陰影係数の関数
として修正し、それにより、現実的な陰影効果を発生さ
せる。
ファリングを使用して光源の視点からシーンをレンダリ
ングして、前記Zバッファから二次元深度マップを生成
する過程と;深度マップをテクスチャマッピング記憶装
置に記憶する過程と;観察者の視点からシーンをレンダ
リングする過程と;視界に入る画素ごとに、前記深度マ
ップに対する索引と、深度値とを生成する過程と;深度
マップ索引に基づいて、深度マップから所定数の深度マ
ップサンプルを検索する過程と;前記深度値を深度マッ
プサンプルの各々と比較して、どの深度マップサンプル
がレンダリング画素を陰影付けするかを判定し且つ深度
マップ比較の結果から加重平均陰影係数を生成する過程
と;後のレンダリングに備えて陰影係数を記憶する過程
である。次に、表面及び/又は陰影付けの情報を利用し
てシーンをレンダリングする。オブジェクト点をレンダ
リングするとき、計算上の画素の強さを陰影係数の関数
として修正し、それにより、現実的な陰影効果を発生さ
せる。
【0008】オブジェクトとして、深度マップの値を深
度マップ索引に対する距離関数の傾きに従って決まる量
だけオフセットする。さらに、スポットライト効果を得
るために、光源のビーム横断面に対応するテクスチャを
利用してシーンをレンダリングしても良い。このプロセ
スの一部として、光源からオブジェクトまでの距離の関
数を使用して、距離及び大気効果によって光の強さを減
衰しても良い。複数の光源に対して陰影生成プロセスを
繰り返すことができ、このとき、レンダリングパスの総
数を減らすために最適化が可能である。シーンを再び描
くとき、シーンのオブジェクトと光源に対して観察者の
みが移動しているのであれば、陰影深度マップを再び描
く必要はない。
度マップ索引に対する距離関数の傾きに従って決まる量
だけオフセットする。さらに、スポットライト効果を得
るために、光源のビーム横断面に対応するテクスチャを
利用してシーンをレンダリングしても良い。このプロセ
スの一部として、光源からオブジェクトまでの距離の関
数を使用して、距離及び大気効果によって光の強さを減
衰しても良い。複数の光源に対して陰影生成プロセスを
繰り返すことができ、このとき、レンダリングパスの総
数を減らすために最適化が可能である。シーンを再び描
くとき、シーンのオブジェクトと光源に対して観察者の
みが移動しているのであれば、陰影深度マップを再び描
く必要はない。
【0009】
【実施例】陰影付きシーンの対話型生成のための方法及
び装置を説明する。以下の説明中、本発明を完全に理解
させるために、非投影テクスチャの反復などの数多くの
特定の詳細な事項を挙げる。しかしながら、そのような
特定の詳細な事項がなくとも本発明を実施しうることは
当業者には明白であろう。また、場合によっては、本発
明を無用にわかりにくくしないために、周知の演算機能
を実行する回路などのインプリメンテーション上の特定
の詳細な事項を詳細には示していない。
び装置を説明する。以下の説明中、本発明を完全に理解
させるために、非投影テクスチャの反復などの数多くの
特定の詳細な事項を挙げる。しかしながら、そのような
特定の詳細な事項がなくとも本発明を実施しうることは
当業者には明白であろう。また、場合によっては、本発
明を無用にわかりにくくしないために、周知の演算機能
を実行する回路などのインプリメンテーション上の特定
の詳細な事項を詳細には示していない。
【0010】好ましい実施例におけるコンピュータ制御
グラフィックスシステムの概要 図1を参照して、好ましい実施例のコンピュータ制御グ
ラフィックスシステムを説明する。本発明は、カリフォ
ルニア州マウンテンビューのSiliconGraph
ics,Inc.から入手可能であるIRIS(登録商
標)シリーズのシステムに属するシステムの1つのよう
に、三次元画像を生成するコンピュータ制御グラフィッ
クスシステムにおいて使用するために実現されている。
一般に、本発明は、隠面消去のためのZバッファリング
及び正確な透視テクスチャマッピングを実行するどのよ
うなコンピュータ制御グラフィックスシステムで実現さ
れても良い。いずれにしても、好ましい実施例により利
用しうるコンピュータシステムは、通常は、そのコンピ
ュータシステムの様々なコンポーネントの間で情報を通
信するバス構造又は他の通信手段101と、前記バスと
結合して情報を処理するプロセッサ手段102と、前記
バス101と結合し、前記プロセッサ102に関わる情
報及び命令を記憶するランダムアクセスメモリ(RA
M)又は他の記憶装置103(一般には主メモリと呼ば
れる)と、前記バス101と結合し、前記プロセッサ1
02に関わる静的情報及び命令を記憶する読取り専用メ
モリ(ROM)又は他の静的記憶装置104と、前記1
01と結合して情報及び命令を記憶する磁気ディスク及
びディスクドライブなどのデータ記憶装置105と、前
記バス101と結合し、情報及び指令選択を前記プロセ
ッサ102へ通信する英数字キー及びその他のキーを含
む英数字入力装置106と、前記バス101に結合し、
情報及び指令選択を前記プロセッサ102へ通信すると
共に、カーソルの動きを制御するマウス、トラックボー
ル、カーソル制御キーなどのカーソル制御装置107と
を具備する。加えて、システムが情報の永久コピーを作
成するプリンタなどのハードコピー装置108を含んで
いると有用である。ハードコピー装置108はバス10
1を介してプロセッサ102と結合している。
グラフィックスシステムの概要 図1を参照して、好ましい実施例のコンピュータ制御グ
ラフィックスシステムを説明する。本発明は、カリフォ
ルニア州マウンテンビューのSiliconGraph
ics,Inc.から入手可能であるIRIS(登録商
標)シリーズのシステムに属するシステムの1つのよう
に、三次元画像を生成するコンピュータ制御グラフィッ
クスシステムにおいて使用するために実現されている。
一般に、本発明は、隠面消去のためのZバッファリング
及び正確な透視テクスチャマッピングを実行するどのよ
うなコンピュータ制御グラフィックスシステムで実現さ
れても良い。いずれにしても、好ましい実施例により利
用しうるコンピュータシステムは、通常は、そのコンピ
ュータシステムの様々なコンポーネントの間で情報を通
信するバス構造又は他の通信手段101と、前記バスと
結合して情報を処理するプロセッサ手段102と、前記
バス101と結合し、前記プロセッサ102に関わる情
報及び命令を記憶するランダムアクセスメモリ(RA
M)又は他の記憶装置103(一般には主メモリと呼ば
れる)と、前記バス101と結合し、前記プロセッサ1
02に関わる静的情報及び命令を記憶する読取り専用メ
モリ(ROM)又は他の静的記憶装置104と、前記1
01と結合して情報及び命令を記憶する磁気ディスク及
びディスクドライブなどのデータ記憶装置105と、前
記バス101と結合し、情報及び指令選択を前記プロセ
ッサ102へ通信する英数字キー及びその他のキーを含
む英数字入力装置106と、前記バス101に結合し、
情報及び指令選択を前記プロセッサ102へ通信すると
共に、カーソルの動きを制御するマウス、トラックボー
ル、カーソル制御キーなどのカーソル制御装置107と
を具備する。加えて、システムが情報の永久コピーを作
成するプリンタなどのハードコピー装置108を含んで
いると有用である。ハードコピー装置108はバス10
1を介してプロセッサ102と結合している。
【0011】好ましい実施例のコンピュータシステムに
はフレームバッファ109も結合しており、そのフレー
ムバッファ109はさらに表示装置110、好ましくは
高分解能のカラー図形画像又は単色図形画像を表示する
ことができる表示装置に結合している。フレームバッフ
ァ109は、表示装置110を駆動するための画素デー
タを記憶している。表示装置110はグラフィックスサ
ブシステム111に結合している。グラフィックスサブ
システム111は、フレームバッファ109に記憶され
ている画素データを生成するために使用される。グラフ
ィックスサブシステム111はバス101と結合して、
プロセッサ102及びフレームバッファ109と通信し
ている。別の実施例においては、フレームバッファ10
9を含むようにグラフィックスサブシステム111を実
現しても良い。
はフレームバッファ109も結合しており、そのフレー
ムバッファ109はさらに表示装置110、好ましくは
高分解能のカラー図形画像又は単色図形画像を表示する
ことができる表示装置に結合している。フレームバッフ
ァ109は、表示装置110を駆動するための画素デー
タを記憶している。表示装置110はグラフィックスサ
ブシステム111に結合している。グラフィックスサブ
システム111は、フレームバッファ109に記憶され
ている画素データを生成するために使用される。グラフ
ィックスサブシステム111はバス101と結合して、
プロセッサ102及びフレームバッファ109と通信し
ている。別の実施例においては、フレームバッファ10
9を含むようにグラフィックスサブシステム111を実
現しても良い。
【0012】現時点で好ましい実施例におけるグラフィ
ックスサブシステム111は、1つ又は複数のテクスチ
ャマップを記憶する記憶手段、たとえば、ダイナミック
ランダムアクセスメモリ(DRAM)をさらに含んでい
るであろう。グラフィックスサブシステム111は、レ
ンダリングプロセス及びZバッファリングの間に正確な
透視テクスチャマッピング、すなわち、画素ごとの分割
を実行する処理手段をさらに含むであろう。グラフィッ
クスサブシステム111は、座標系間の変換、陰影係数
の生成及び本発明のその他の処理要求を実行するための
処理素子をさらに含んでいるであろう。
ックスサブシステム111は、1つ又は複数のテクスチ
ャマップを記憶する記憶手段、たとえば、ダイナミック
ランダムアクセスメモリ(DRAM)をさらに含んでい
るであろう。グラフィックスサブシステム111は、レ
ンダリングプロセス及びZバッファリングの間に正確な
透視テクスチャマッピング、すなわち、画素ごとの分割
を実行する処理手段をさらに含むであろう。グラフィッ
クスサブシステム111は、座標系間の変換、陰影係数
の生成及び本発明のその他の処理要求を実行するための
処理素子をさらに含んでいるであろう。
【0013】本発明の現時点で好ましい実施例のグラフ
ィックスサブシステムにより実現されるレンダリングプ
ロセスの概要 好ましい実施例のプロセッサはグラフィックスサブシス
テム111に3Dオブジェクトの視覚記述を提供する。
この視覚記述は線引き指令及びワールド座標頂点データ
の形態をとる。ワールド座標系は、3Dオブジェクトが
記述される座標系である。視覚記述は、複素数照明計算
に際して使用されるオブジェクトのジオメトリック位置
と、色と、面垂直ベクトルとを記述する。本発明の現時
点で好ましい実施例のグラフィックスアーキテクチャ
は、表示装置110の画素ごとに特定画素値を計算する
ために、変換及びその他のグラフィックス演算を実行す
る。プロセッサからのオブジェクトデータは、画面への
表示に先立って、1)ジオメトリサブシステム、2)走
査変換サブシステム、3)ラスタサブシステム及び4)
表示サブシステムという4つのパイプライン化サブシス
テムにより処理される。
ィックスサブシステムにより実現されるレンダリングプ
ロセスの概要 好ましい実施例のプロセッサはグラフィックスサブシス
テム111に3Dオブジェクトの視覚記述を提供する。
この視覚記述は線引き指令及びワールド座標頂点データ
の形態をとる。ワールド座標系は、3Dオブジェクトが
記述される座標系である。視覚記述は、複素数照明計算
に際して使用されるオブジェクトのジオメトリック位置
と、色と、面垂直ベクトルとを記述する。本発明の現時
点で好ましい実施例のグラフィックスアーキテクチャ
は、表示装置110の画素ごとに特定画素値を計算する
ために、変換及びその他のグラフィックス演算を実行す
る。プロセッサからのオブジェクトデータは、画面への
表示に先立って、1)ジオメトリサブシステム、2)走
査変換サブシステム、3)ラスタサブシステム及び4)
表示サブシステムという4つのパイプライン化サブシス
テムにより処理される。
【0014】ジオメトリサブシステムは32ビット又は
64ビットのグラフィックデータをプロセッサから受
け、それをスクリーンスペースデータに変換する。スク
リーンスペースデータは、表示モニタスクリーンの可視
平面に対応するスクリーン座標系におけるオブジェクト
の位置を定義する。そこで、走査変換サブシステムは
点、線、多角形及びメッシュを分類し、それにより、画
素データを生成する。この画素データをラスタサブシス
テムへ送信し、そこで、Zバッファが隠面を消去する。
画素が画像ビット平面、すなわち、フレームバッファに
書込まれる間に、ラスタサブシステムは画素ごとに様々
なブレンディング機能とテクスチャリング機能をも実行
する。最後に、表示サブシステムはフレームバッファを
読取り、カラーモニタに画素を表示する。
64ビットのグラフィックデータをプロセッサから受
け、それをスクリーンスペースデータに変換する。スク
リーンスペースデータは、表示モニタスクリーンの可視
平面に対応するスクリーン座標系におけるオブジェクト
の位置を定義する。そこで、走査変換サブシステムは
点、線、多角形及びメッシュを分類し、それにより、画
素データを生成する。この画素データをラスタサブシス
テムへ送信し、そこで、Zバッファが隠面を消去する。
画素が画像ビット平面、すなわち、フレームバッファに
書込まれる間に、ラスタサブシステムは画素ごとに様々
なブレンディング機能とテクスチャリング機能をも実行
する。最後に、表示サブシステムはフレームバッファを
読取り、カラーモニタに画素を表示する。
【0015】本発明のグラフィックスアーキテクチャを
通して、広範に並列性が利用されている。ジオメトリサ
ブシステムの複数命令複数データ(MIMD)編成によ
り、12個までのプリミティブを同時に処理できる。走
査変換サブシステムとラスタサブシステムのMIMD編
成では、毎秒3億2千万個までの画素を処理することが
できる。本発明のグラフィックスサブシステムは、画素
ごとに256ビットから1024ビットの範囲の構成を
もつ高分解能フレームバッファを構成するために、4メ
ガビットDRAMを使用する。この大容量は、進んだレ
ンダリング機能を支援するために、色、深度及び他の数
多くの専用データフィールドの記憶を可能にする。
通して、広範に並列性が利用されている。ジオメトリサ
ブシステムの複数命令複数データ(MIMD)編成によ
り、12個までのプリミティブを同時に処理できる。走
査変換サブシステムとラスタサブシステムのMIMD編
成では、毎秒3億2千万個までの画素を処理することが
できる。本発明のグラフィックスサブシステムは、画素
ごとに256ビットから1024ビットの範囲の構成を
もつ高分解能フレームバッファを構成するために、4メ
ガビットDRAMを使用する。この大容量は、進んだレ
ンダリング機能を支援するために、色、深度及び他の数
多くの専用データフィールドの記憶を可能にする。
【0016】現時点で好ましいグラフィックスサブシス
テムの先に説明したアーキテクチャの中で、走査変換サ
ブシステムとラスタサブシステムにおいて本発明の諸面
を実現しても良い。たとえば、陰影を生成するための全
プロセスをラスタサブシステムの中に完全に組込んでも
良い。あるいは、その機能性を2つのサブシステムの間
で分割しても良い。そのような代替実現構成は当業者に
は明白であろうし、本発明の趣旨からの逸脱を生じない
であろう。以下にさらに詳細に説明する通り、深度マッ
プを作成し、それをテクスチャマップ記憶装置に記憶さ
せ、投影テクスチャマッピングシステムを使用してアク
セスされる。さらに、投影スポットライト効果が望まれ
る場合には、ライトの横断面をテクスチャマップとして
利用しても良い。投影テクスチャマッピングを組込んで
いない陰影生成システムにおいて本発明の様々な面を実
現しても良い。いずれにしても、陰影を生成するために
投影テクスチャマッピングを使用することの利点は、以
下の説明の中で明白になるであろう。
テムの先に説明したアーキテクチャの中で、走査変換サ
ブシステムとラスタサブシステムにおいて本発明の諸面
を実現しても良い。たとえば、陰影を生成するための全
プロセスをラスタサブシステムの中に完全に組込んでも
良い。あるいは、その機能性を2つのサブシステムの間
で分割しても良い。そのような代替実現構成は当業者に
は明白であろうし、本発明の趣旨からの逸脱を生じない
であろう。以下にさらに詳細に説明する通り、深度マッ
プを作成し、それをテクスチャマップ記憶装置に記憶さ
せ、投影テクスチャマッピングシステムを使用してアク
セスされる。さらに、投影スポットライト効果が望まれ
る場合には、ライトの横断面をテクスチャマップとして
利用しても良い。投影テクスチャマッピングを組込んで
いない陰影生成システムにおいて本発明の様々な面を実
現しても良い。いずれにしても、陰影を生成するために
投影テクスチャマッピングを使用することの利点は、以
下の説明の中で明白になるであろう。
【0017】投影テクスチャマッピング 本発明の現時点で好ましい実施例は、 年 月
日に出願され且つ本出願と同一の譲受人に譲渡されて
いる名称「Method and Apparatus
For Generating Computer
Graphics Images Incorpora
ting Projected Textures」に
よる同時係属出願第 号に記載されているよう
な投影テクスチャマッピング機能を利用する。
日に出願され且つ本出願と同一の譲受人に譲渡されて
いる名称「Method and Apparatus
For Generating Computer
Graphics Images Incorpora
ting Projected Textures」に
よる同時係属出願第 号に記載されているよう
な投影テクスチャマッピング機能を利用する。
【0018】三次元シーンの画像を生成するには、その
シーンの投影を見出し且つそれを二次元スクリーンに再
投影することが必要である。テクスチャマッピングされ
た面から成るシーンの場合は、これは面の投影点がスク
リーンに現れるべきか否かを判定することのみならず、
テクスチャ画像のどの部分を投影点と関連させるべきか
を判定することをも含む。本発明の現時点で好ましい実
施例で利用する投影テクスチャマッピング機能は、可変
性をもって位置決めされる投影点に基づいてテクスチャ
マップ座標を生成する。その効果は、たとえば、建物の
側面にスライドを映写するように、レンダリングすべき
シーンのオブジェクトにテクスチャを投影することであ
る。現時点で好ましい実施例においては、オブジェクト
(ジオメトリックプリミティブ)の頂点についてテクス
チャマップ座標を生成する。続いて、反復プロセスの中
で補間によって後続するテクスチャ座標を生成する。
シーンの投影を見出し且つそれを二次元スクリーンに再
投影することが必要である。テクスチャマッピングされ
た面から成るシーンの場合は、これは面の投影点がスク
リーンに現れるべきか否かを判定することのみならず、
テクスチャ画像のどの部分を投影点と関連させるべきか
を判定することをも含む。本発明の現時点で好ましい実
施例で利用する投影テクスチャマッピング機能は、可変
性をもって位置決めされる投影点に基づいてテクスチャ
マップ座標を生成する。その効果は、たとえば、建物の
側面にスライドを映写するように、レンダリングすべき
シーンのオブジェクトにテクスチャを投影することであ
る。現時点で好ましい実施例においては、オブジェクト
(ジオメトリックプリミティブ)の頂点についてテクス
チャマップ座標を生成する。続いて、反復プロセスの中
で補間によって後続するテクスチャ座標を生成する。
【0019】三次元シーンの画像を現実的に出現させる
べき場合、三次元から二次元への投影は透視投影でなけ
ればならない。透視投影に際しては、テクスチャマップ
座標を得るために除算演算を実行することが必要であ
る。典型的には、投影に先立って複雑シーンを複数の多
角形に変換する。それらの多角形の投影後の頂点は投影
後の多角形の境界辺を確定する。走査変換は、スクリー
ン上の、各多角形の中に入る画素を数え上げるために反
復を使用する。投影平面におけるこの反復は、投影多角
形のテクスチャマップに索引付けするパラメータ(テク
スチャ座標)に同次変化を導入する。線形反復をより単
純にするためにその同次変化を無視してしまうと、生成
される画像はシーンアニメーションの間にテクスチャの
「スイミング」などの不都合な効果をもたらすおそれの
ある不正確なものになる。テクスチャ座標の正確な補間
のためには、投影テクスチャマッピングされる多角形の
画素ごとに共通分母によって各々の座標を除算しなけれ
ばならない。以下の説明で明白になるであろうが、既存
の技法との相違点は除数の値の一般化である。
べき場合、三次元から二次元への投影は透視投影でなけ
ればならない。透視投影に際しては、テクスチャマップ
座標を得るために除算演算を実行することが必要であ
る。典型的には、投影に先立って複雑シーンを複数の多
角形に変換する。それらの多角形の投影後の頂点は投影
後の多角形の境界辺を確定する。走査変換は、スクリー
ン上の、各多角形の中に入る画素を数え上げるために反
復を使用する。投影平面におけるこの反復は、投影多角
形のテクスチャマップに索引付けするパラメータ(テク
スチャ座標)に同次変化を導入する。線形反復をより単
純にするためにその同次変化を無視してしまうと、生成
される画像はシーンアニメーションの間にテクスチャの
「スイミング」などの不都合な効果をもたらすおそれの
ある不正確なものになる。テクスチャ座標の正確な補間
のためには、投影テクスチャマッピングされる多角形の
画素ごとに共通分母によって各々の座標を除算しなけれ
ばならない。以下の説明で明白になるであろうが、既存
の技法との相違点は除数の値の一般化である。
【0020】現時点で好ましい実施例で利用する投影テ
クスチャマッピングは、レンダリングすべき面へのテク
スチャマップの任意の投影を実行する。先に説明した通
り、テクスチャマップをシーンに、すなわち、シーンを
構成している複数のオブジェクトに投影する。続いて、
そのシーンをビュースクリーンへと投影する。図2は、
それらの基本概念を示す。図2を参照すると、テクスチ
ャマップ202が投影光源点201から面203に投影
されている。テクスチャマップ202と投影光源点20
1は、三次元スペース内の任意の点で任意の関係を有す
る。これにより、面203へのテクスチャマップ202
のスケーリングと透視図が実行される。テクスチャマッ
プ202上の半円形206は面203に投影されて、投
影半円形207を作成する。そこで、テクスチャマップ
202と投影光源点201の位置を変える場合には、半
円形207もそれに対応して移動するであろう。視覚画
像を作成すべきときには、面203を視点205に対し
てビュースクリーン204に投影する。ビュースクリー
ン204には、投影面203aが示されている。
クスチャマッピングは、レンダリングすべき面へのテク
スチャマップの任意の投影を実行する。先に説明した通
り、テクスチャマップをシーンに、すなわち、シーンを
構成している複数のオブジェクトに投影する。続いて、
そのシーンをビュースクリーンへと投影する。図2は、
それらの基本概念を示す。図2を参照すると、テクスチ
ャマップ202が投影光源点201から面203に投影
されている。テクスチャマップ202と投影光源点20
1は、三次元スペース内の任意の点で任意の関係を有す
る。これにより、面203へのテクスチャマップ202
のスケーリングと透視図が実行される。テクスチャマッ
プ202上の半円形206は面203に投影されて、投
影半円形207を作成する。そこで、テクスチャマップ
202と投影光源点201の位置を変える場合には、半
円形207もそれに対応して移動するであろう。視覚画
像を作成すべきときには、面203を視点205に対し
てビュースクリーン204に投影する。ビュースクリー
ン204には、投影面203aが示されている。
【0021】投影テクスチャマップ座標の生成 テクスチャマップはs索引及びt索引によりアドレス指
定される。本発明の現時点で好ましい実施例では、テク
スチャマップのs索引とt索引は、可変性をもって位置
決めされる投影光源点から単位距離にある基準平面で定
義される。投影光源点からの投影の方向をqとする。テ
クスチャは、sとtをシーンオブジェクトの頂点のq座
標と乗算するような環境へと投影される。系(sq,t
q,q)は、シーンオブジェクトの(x,y,z)系の
線形変換によって生成できる三次元スペースにおける直
交座標系を形成する。
定される。本発明の現時点で好ましい実施例では、テク
スチャマップのs索引とt索引は、可変性をもって位置
決めされる投影光源点から単位距離にある基準平面で定
義される。投影光源点からの投影の方向をqとする。テ
クスチャは、sとtをシーンオブジェクトの頂点のq座
標と乗算するような環境へと投影される。系(sq,t
q,q)は、シーンオブジェクトの(x,y,z)系の
線形変換によって生成できる三次元スペースにおける直
交座標系を形成する。
【0022】観察者の座標系において非投影テクスチャ
に関わる座標の反復を実行する場合には、深度座標にz
に代わるwと名前付けする。観察者の3D座標系からス
クリーンへの変換は逆投影であるので、xとyをwで除
算して、スクリーン座標を求める。テクスチャを真に二
次元で定義するときには、その逆投影を考慮する必要が
ある。そのために、sとtをwで除算することになり、
従って、量s/w、t/w及びl/wが反復されるので
ある。それらの量を同次テクスチャ座標と呼ぶ。画素ご
とに、初めの2つの量を第3の量で除算して、テクスチ
ャマップを索引付けするための正しいs値とt値を得
る。
に関わる座標の反復を実行する場合には、深度座標にz
に代わるwと名前付けする。観察者の3D座標系からス
クリーンへの変換は逆投影であるので、xとyをwで除
算して、スクリーン座標を求める。テクスチャを真に二
次元で定義するときには、その逆投影を考慮する必要が
ある。そのために、sとtをwで除算することになり、
従って、量s/w、t/w及びl/wが反復されるので
ある。それらの量を同次テクスチャ座標と呼ぶ。画素ご
とに、初めの2つの量を第3の量で除算して、テクスチ
ャマップを索引付けするための正しいs値とt値を得
る。
【0023】投影テクスチャの反復は同様である。これ
は、反復される量がsq/w、tq/w及びq/wであ
ることを除いて、先の非投影テクスチャの場合と同一で
ある。テクスチャは投影光源点から1単位距離だけ離れ
ている平面で定義されているので、テクスチャには角減
衰が含まれている。スケーリング済投影テクスチャを発
生させるために変化させて良いのは、この1単位距離で
ある。そこで、距離に起因する減衰は索引付き値と、q
方向に沿った投影光源点からのオブジェクト距離の何ら
かの関数との乗算である。
は、反復される量がsq/w、tq/w及びq/wであ
ることを除いて、先の非投影テクスチャの場合と同一で
ある。テクスチャは投影光源点から1単位距離だけ離れ
ている平面で定義されているので、テクスチャには角減
衰が含まれている。スケーリング済投影テクスチャを発
生させるために変化させて良いのは、この1単位距離で
ある。そこで、距離に起因する減衰は索引付き値と、q
方向に沿った投影光源点からのオブジェクト距離の何ら
かの関数との乗算である。
【0024】次に、反復プロセスについて説明する。説
明を助けるために、視界座標系、クリップ座標系、スク
リーン座標系、光座標系及びテクスチャ座標系という5
つの座標系を導入する。視界座標系は、目を原点とし
て、観察者の視界に沿って方向付けられている三次元座
標系である。クリップ座標系は、x,y,z及びwの各
座標を伴う三次元空間の同次表現である。この座標系の
原点は視点と呼ばれる点である。クリップ座標系という
用語は、クリッピングが頻繁に実行されるのがこの座標
系であるために使用される。スクリーン座標系は、シー
ンが投影される二次元スクリーンを表わす。スクリーン
座標はxとyをwで除算することによって視界座標から
得られる。すなわち、スクリーン座標はxs=x/w及
びys=y/wにより示される(上つき文字のsはスク
リーン座標を指示するために使用される)。
明を助けるために、視界座標系、クリップ座標系、スク
リーン座標系、光座標系及びテクスチャ座標系という5
つの座標系を導入する。視界座標系は、目を原点とし
て、観察者の視界に沿って方向付けられている三次元座
標系である。クリップ座標系は、x,y,z及びwの各
座標を伴う三次元空間の同次表現である。この座標系の
原点は視点と呼ばれる点である。クリップ座標系という
用語は、クリッピングが頻繁に実行されるのがこの座標
系であるために使用される。スクリーン座標系は、シー
ンが投影される二次元スクリーンを表わす。スクリーン
座標はxとyをwで除算することによって視界座標から
得られる。すなわち、スクリーン座標はxs=x/w及
びys=y/wにより示される(上つき文字のsはスク
リーン座標を指示するために使用される)。
【0025】光座標系は、座標xl,yl,zl及びwlを
伴う第2の同次座標系である(上つき文字のlは光座標
を指示するために使用されており、wl は先に挙げたq
に対応する)。光座標系の原点は光源、すなわち、投影
光源点にある。最後に、テクスチャ座標系はテクスチャ
マップに対応する。テクスチャ座標はxlとyl をwlで
除算することにより光座標から得られる。すなわち、x
t=xl/wl及びyt=yl/wlとなる(上つき文字のt
はテクスチャ座標を指示するために使用される)。走査
変換される多角形上の1点を(xs,ys)とすれば、そ
の目標は対応するテクスチャ座標(xt,yt)を見出す
ことである。
伴う第2の同次座標系である(上つき文字のlは光座標
を指示するために使用されており、wl は先に挙げたq
に対応する)。光座標系の原点は光源、すなわち、投影
光源点にある。最後に、テクスチャ座標系はテクスチャ
マップに対応する。テクスチャ座標はxlとyl をwlで
除算することにより光座標から得られる。すなわち、x
t=xl/wl及びyt=yl/wlとなる(上つき文字のt
はテクスチャ座標を指示するために使用される)。走査
変換される多角形上の1点を(xs,ys)とすれば、そ
の目標は対応するテクスチャ座標(xt,yt)を見出す
ことである。
【0026】図3は、本発明において実行される通りに
ジオメトリックプリミティブ頂点に関わるテクスチャマ
ップ座標を生成するためのステップを要約して示す。図
3を参照して説明すると、ステップ301では、投影光
源点を識別する。先に述べた通り、投影光源点は可変性
をもって位置決めされても良く、その点は光座標系の原
点として作用する。ジオメトリックプリミティブの頂点
から光座標系の座標を容易に作成するために、ステップ
302では変換マトリクスを作成する。本質的には、ス
テップ301及び302は特定の1つのシーンのレンダ
リングのために実行されるセットアップ機能である。そ
れ以降のステップは、それぞれ、ジオメトリックプリミ
ティブの頂点ごとに実行される。
ジオメトリックプリミティブ頂点に関わるテクスチャマ
ップ座標を生成するためのステップを要約して示す。図
3を参照して説明すると、ステップ301では、投影光
源点を識別する。先に述べた通り、投影光源点は可変性
をもって位置決めされても良く、その点は光座標系の原
点として作用する。ジオメトリックプリミティブの頂点
から光座標系の座標を容易に作成するために、ステップ
302では変換マトリクスを作成する。本質的には、ス
テップ301及び302は特定の1つのシーンのレンダ
リングのために実行されるセットアップ機能である。そ
れ以降のステップは、それぞれ、ジオメトリックプリミ
ティブの頂点ごとに実行される。
【0027】走査変換中の処理に備えて頂点を受け取っ
たとき、ステップ303では、ワールド座標系の頂点座
標を光座標、すなわち、(xl,yl,wl )に変換す
る。次のステップ304では、光座標を中間テクスチャ
マップ座標、すなわち、(xl/wl ,yl/wl)に変
換する。先に述べた通り、テクスチャマップ座標は、単
に線形x座標及び線形y座標を方向座標で除算すること
によって取り出される。ステップ303及び304はテ
クスチャマップをレンダリングすべきシーンに有効に投
影させる。描示されるシーンのビュースクリーンへの逆
投影を考慮に入れるために、ステップ305では、中間
テクスチャ座標をクリップ座標系の深度座標で除算する
ことにより、スクリーン点に対応する最終テクスチャ座
標、すなわち、(xe/w)/(we/w),(ye/
w)/(we/w)を作成する。
たとき、ステップ303では、ワールド座標系の頂点座
標を光座標、すなわち、(xl,yl,wl )に変換す
る。次のステップ304では、光座標を中間テクスチャ
マップ座標、すなわち、(xl/wl ,yl/wl)に変
換する。先に述べた通り、テクスチャマップ座標は、単
に線形x座標及び線形y座標を方向座標で除算すること
によって取り出される。ステップ303及び304はテ
クスチャマップをレンダリングすべきシーンに有効に投
影させる。描示されるシーンのビュースクリーンへの逆
投影を考慮に入れるために、ステップ305では、中間
テクスチャ座標をクリップ座標系の深度座標で除算する
ことにより、スクリーン点に対応する最終テクスチャ座
標、すなわち、(xe/w)/(we/w),(ye/
w)/(we/w)を作成する。
【0028】図4は、様々な座標系の相互関係を示す。
図4を参照すると、視界座標系における線分401と、
その線分の二次元スクリーン410への投影とが示され
ている。視界座標系の原点は視点407である。
図4を参照すると、視界座標系における線分401と、
その線分の二次元スクリーン410への投影とが示され
ている。視界座標系の原点は視点407である。
【0029】線分401は処理すべき多角形の1スパン
を表現している。線分は端点Q1 402と、端点Q2 4
03とを有する。線分401上の1点、たとえば、点Q
404は端点Q1 402と端点Q2 403の補間によっ
て見出せるであろう。点Q404が視界座標(x,y,
z,w)を有していると仮定すると、それに対応するス
クリーン座標はスクリーン座標点405の(x/w,y
/w)により与えられる。
を表現している。線分は端点Q1 402と、端点Q2 4
03とを有する。線分401上の1点、たとえば、点Q
404は端点Q1 402と端点Q2 403の補間によっ
て見出せるであろう。点Q404が視界座標(x,y,
z,w)を有していると仮定すると、それに対応するス
クリーン座標はスクリーン座標点405の(x/w,y
/w)により与えられる。
【0030】同様に、点Q404は光座標系では座標
(xl,yl,zl,wl)を有する。光座標系の原点は光
源点408にある。テクスチャマップ409の対応する
テクスチャ座標は、テクスチャマップ座標406の(x
e/we,ye/we)により与えられる。
(xl,yl,zl,wl)を有する。光座標系の原点は光
源点408にある。テクスチャマップ409の対応する
テクスチャ座標は、テクスチャマップ座標406の(x
e/we,ye/we)により与えられる。
【0031】先に論じた通り、その目標はスクリーン座
標が与えられた場合にテクスチャマップ座標を見出すこ
とである。視界座標では、線分401の端点はQ1 40
2及びQ2 403により表示される。その値は、Q1 =
(x1,y1,z1,w1)及びQ2 =(x2,y2,z2,
w2)によって与えられる。線分に沿った1点Q404
は線形補間を経て識別され、任意のt∈[0,1](こ
こでは、tは線形補間重み値である)に対して、視界座
標では、 Q=(1−t)Q1 +Q2 (1) と書き表わすことができる。スクリーン座標では、Qs 1
=Q1/w1 及びQs 2=Q2/w2としたとき、対応する
投影点は、 Qs =(1−ts)Qs 1 +ts Qs 2 (2) と書き表わされる。
標が与えられた場合にテクスチャマップ座標を見出すこ
とである。視界座標では、線分401の端点はQ1 40
2及びQ2 403により表示される。その値は、Q1 =
(x1,y1,z1,w1)及びQ2 =(x2,y2,z2,
w2)によって与えられる。線分に沿った1点Q404
は線形補間を経て識別され、任意のt∈[0,1](こ
こでは、tは線形補間重み値である)に対して、視界座
標では、 Q=(1−t)Q1 +Q2 (1) と書き表わすことができる。スクリーン座標では、Qs 1
=Q1/w1 及びQs 2=Q2/w2としたとき、対応する
投影点は、 Qs =(1−ts)Qs 1 +ts Qs 2 (2) と書き表わされる。
【0032】Qs が与えられたときにQの光座標系座標
を見出すためには、ts に対応するtの値(通常はt≠
ts) を確定しなければならない。これは、 Qs =(1-ts)Q1/w1+tsQ2/w2 ={(1-t)Q1+tQ2}/{(1-t)w1+tw2} (3) であることに注目し且つtに関して解くことにより実行
される。これは、1−ts =a/(a+b)及びts =
b/(a+b)となるようにスクリーン座標a及びbを
選択することによって最も容易に実行可能である。ま
た、視界座標A及びBは、(1ーt)=A/(A+B)
及びt=B/(A+B)となるように選択される。式3
は、 Qs =(aQ1/w1+bQ2/w2)/(a+b) =(AQ1+BQ2)/(Aw1+Bw2) (4) となる。A=aw2 及びB=bw1 はこの等式を満た
し、ts に対応するt、すなわち、Qを確定できること
が確定されている。
を見出すためには、ts に対応するtの値(通常はt≠
ts) を確定しなければならない。これは、 Qs =(1-ts)Q1/w1+tsQ2/w2 ={(1-t)Q1+tQ2}/{(1-t)w1+tw2} (3) であることに注目し且つtに関して解くことにより実行
される。これは、1−ts =a/(a+b)及びts =
b/(a+b)となるようにスクリーン座標a及びbを
選択することによって最も容易に実行可能である。ま
た、視界座標A及びBは、(1ーt)=A/(A+B)
及びt=B/(A+B)となるように選択される。式3
は、 Qs =(aQ1/w1+bQ2/w2)/(a+b) =(AQ1+BQ2)/(Aw1+Bw2) (4) となる。A=aw2 及びB=bw1 はこの等式を満た
し、ts に対応するt、すなわち、Qを確定できること
が確定されている。
【0033】光座標と視界座標との関係も類似している
(線形+変換)ので、それらを関係づける同次マトリク
スMが存在する。 Ql =MQ=AQl 1/(A+B)+BQl 2/(A+B) (5) 式中、Ql 1 =(xl 1,yl 1,zl 1,wl 1)及びQl 2 =
(xl 2,yl 2,zl 2,wl 2)は、視界座標におけるQ1
及びQ2により与えられる点の光座標である。
(線形+変換)ので、それらを関係づける同次マトリク
スMが存在する。 Ql =MQ=AQl 1/(A+B)+BQl 2/(A+B) (5) 式中、Ql 1 =(xl 1,yl 1,zl 1,wl 1)及びQl 2 =
(xl 2,yl 2,zl 2,wl 2)は、視界座標におけるQ1
及びQ2により与えられる点の光座標である。
【0034】最終的には、 Qt =Ql/wl (6) =(AQl 1+BQl 2)/(Awl 1+Bwl 2) =(aQl 1/w1+bQl 2/w2)/{a(wl 1/w1)+b(wl 2/w2)} が得られる。式6は、スクリーン座標中の1つの線分に
沿った線形補間点に対応するテクスチャ座標を表わして
いる。1つの画素におけるそれらの座標を得るために、
値xl/w,yl/w及びwl/wを各画素で線形補間し
且つ除算すると、 xl/wl =(xl/w)/(wl/w) 及び yl/wl =(yl/w)/(wl/w) (7) となる。1つの多角形を通してwl が一定であれば、式
7は次のようになる。 s=(s/w)/(l/w) 及び t=(t/w)/(l/w) (8) 式中、s=xl/wl 及びt=yl/wl と設定してあ
る。式8は、単純に多角形の頂点に割当てられているテ
クスチャ座標の反復を決定するものである。これは、依
然として、多角形に含まれる画素ごとの除算を示唆して
いる。式7により示唆されているより一般的な投影テク
スチャの状況が除算をl/wではなく、wl/wとする
ことのみを要求することは重要である。従って、テクス
チャを対話式でスケーリングし且つ操作して、レンダリ
ングすべきシーンの様々に異なる部分に投影することが
できる。さらに、投影テクスチャは特定の空間基準をも
って定義されるので、多角形頂点へのテクスチャ座標の
手動操作による割当ては全く不要である。
沿った線形補間点に対応するテクスチャ座標を表わして
いる。1つの画素におけるそれらの座標を得るために、
値xl/w,yl/w及びwl/wを各画素で線形補間し
且つ除算すると、 xl/wl =(xl/w)/(wl/w) 及び yl/wl =(yl/w)/(wl/w) (7) となる。1つの多角形を通してwl が一定であれば、式
7は次のようになる。 s=(s/w)/(l/w) 及び t=(t/w)/(l/w) (8) 式中、s=xl/wl 及びt=yl/wl と設定してあ
る。式8は、単純に多角形の頂点に割当てられているテ
クスチャ座標の反復を決定するものである。これは、依
然として、多角形に含まれる画素ごとの除算を示唆して
いる。式7により示唆されているより一般的な投影テク
スチャの状況が除算をl/wではなく、wl/wとする
ことのみを要求することは重要である。従って、テクス
チャを対話式でスケーリングし且つ操作して、レンダリ
ングすべきシーンの様々に異なる部分に投影することが
できる。さらに、投影テクスチャは特定の空間基準をも
って定義されるので、多角形頂点へのテクスチャ座標の
手動操作による割当ては全く不要である。
【0035】陰影付きシーンの生成 陰影付けは、陰影係数の導入によって、レンダリングプ
ロセスに組込まれる。この陰影係数は1つの画素のどれ
ほどの面積が陰影の中に入るかを指示するもので、その
画素の最終カラーを得るための各光源の寄与を確定する
ために使用される。現時点で好ましい実施例において
は、陰影係数は範囲[0,1]にあり、1の値は画素が
完全に陰影に入っていることを指示している。陰影の
「強さ」は光源からの離間距離と、光源の数とによって
変化するので、陰影係数を計算するときには、そのよう
な変数を考慮に入れることが必要である。
ロセスに組込まれる。この陰影係数は1つの画素のどれ
ほどの面積が陰影の中に入るかを指示するもので、その
画素の最終カラーを得るための各光源の寄与を確定する
ために使用される。現時点で好ましい実施例において
は、陰影係数は範囲[0,1]にあり、1の値は画素が
完全に陰影に入っていることを指示している。陰影の
「強さ」は光源からの離間距離と、光源の数とによって
変化するので、陰影係数を計算するときには、そのよう
な変数を考慮に入れることが必要である。
【0036】1つの光源に関する陰影係数は、2ステッ
ププロセスである。複数の光源を有するシーンについて
は、そのプロセスを光源ごとに繰り返すことになる。第
1のステップでは、深度マップを作成する。第2のステ
ップでは、その深度マップを使用して1つの光源に関わ
る陰影係数を生成するのであるが、このステップはシー
ンのレンダリング中に実行されても良い。図6aのフロ
ーチャートに関連して、深度マップの作成を説明する。
まず、ステップ601では、Zバッファ隠面消去技法を
使用して、光源の視点からシーンの画像をレンダリング
する。このレンダリングの目的は、隠面を消去してある
シーンについて光座標の深度値を含むZバッファを生成
することである。深度値は、画像中の各画素におけるz
l の値である。Zバッファは、光源からの極値距離を指
示する十分に「高い」値を含むように初期設定されるこ
とに注意すべきである。次に、ステップ602では、Z
バッファの各々の値を所定のオフセット量だけバイアス
しても良い。以下にさらに詳細に説明するが、このステ
ップはオプションである。次に、ステップ603では、
深度マップとして使用するために、Zバッファをテクス
チャマップ記憶装置に記憶させる。深度マップ中の値を
深度マップサンプルという。深度マップはテクスチャマ
ップ記憶装置に記憶されるため、最大の深度マップは最
大のテクスチャマップと同じ大きさとなる。
ププロセスである。複数の光源を有するシーンについて
は、そのプロセスを光源ごとに繰り返すことになる。第
1のステップでは、深度マップを作成する。第2のステ
ップでは、その深度マップを使用して1つの光源に関わ
る陰影係数を生成するのであるが、このステップはシー
ンのレンダリング中に実行されても良い。図6aのフロ
ーチャートに関連して、深度マップの作成を説明する。
まず、ステップ601では、Zバッファ隠面消去技法を
使用して、光源の視点からシーンの画像をレンダリング
する。このレンダリングの目的は、隠面を消去してある
シーンについて光座標の深度値を含むZバッファを生成
することである。深度値は、画像中の各画素におけるz
l の値である。Zバッファは、光源からの極値距離を指
示する十分に「高い」値を含むように初期設定されるこ
とに注意すべきである。次に、ステップ602では、Z
バッファの各々の値を所定のオフセット量だけバイアス
しても良い。以下にさらに詳細に説明するが、このステ
ップはオプションである。次に、ステップ603では、
深度マップとして使用するために、Zバッファをテクス
チャマップ記憶装置に記憶させる。深度マップ中の値を
深度マップサンプルという。深度マップはテクスチャマ
ップ記憶装置に記憶されるため、最大の深度マップは最
大のテクスチャマップと同じ大きさとなる。
【0037】先に述べた通り、バイアスするステップ6
02はオプションである。所定のオフセットは、深度マ
ップの索引に対する距離関数の傾き(たとえば、レンダ
リングすべき画素が一部を成している三角形の傾き)に
よって決まる量である。オフセットを別の方法で説明す
ると、深度マップの各サンプル位置における深度マップ
サンプルの変化の速度に比例するということになる。こ
の所定の量が、典型的には正確な自己陰影付けを実行す
るために手動操作で導入される「ファッジ係数」に十分
に近似していることは実験によって確定されている。そ
のようなバイアスなしで陰影付けを実行するために深度
マップを使用しても良いのであるが、ある程度までは現
実性が犠牲になってしまう。あるいは、たとえば、画素
の反復中などの後の時点でオフセットを追加しても良
い。
02はオプションである。所定のオフセットは、深度マ
ップの索引に対する距離関数の傾き(たとえば、レンダ
リングすべき画素が一部を成している三角形の傾き)に
よって決まる量である。オフセットを別の方法で説明す
ると、深度マップの各サンプル位置における深度マップ
サンプルの変化の速度に比例するということになる。こ
の所定の量が、典型的には正確な自己陰影付けを実行す
るために手動操作で導入される「ファッジ係数」に十分
に近似していることは実験によって確定されている。そ
のようなバイアスなしで陰影付けを実行するために深度
マップを使用しても良いのであるが、ある程度までは現
実性が犠牲になってしまう。あるいは、たとえば、画素
の反復中などの後の時点でオフセットを追加しても良
い。
【0038】バイアスは、レンダリングされるオブジェ
クトを光源に向かって押し出し、自己陰影付けオブジェ
クトに関してレンダリングシーンの現実性を向上させる
という結果をもたらす。一般に、オフセットは深度マッ
プの各サンプル位置における深度座標の変化の速度に比
例している。このオフセットはK* max(|dz/d
x|,|dz/dy|)、すなわち、ユーザーが規定し
たスケーリング係数Kに、dz/dx,dz/dyの絶
対値のうち大きいほうの値を乗算した値として定義され
る。式中、dz/dxはx方向の深度座標の変化の速度
であり、また、dz/dyはy方向の深度座標の変化の
速度である。この手段によるバイアスは、任意のシーン
に従ったバイアス値の選択を要求していた従来のRee
ves他の技法と比較した場合の改善である。
クトを光源に向かって押し出し、自己陰影付けオブジェ
クトに関してレンダリングシーンの現実性を向上させる
という結果をもたらす。一般に、オフセットは深度マッ
プの各サンプル位置における深度座標の変化の速度に比
例している。このオフセットはK* max(|dz/d
x|,|dz/dy|)、すなわち、ユーザーが規定し
たスケーリング係数Kに、dz/dx,dz/dyの絶
対値のうち大きいほうの値を乗算した値として定義され
る。式中、dz/dxはx方向の深度座標の変化の速度
であり、また、dz/dyはy方向の深度座標の変化の
速度である。この手段によるバイアスは、任意のシーン
に従ったバイアス値の選択を要求していた従来のRee
ves他の技法と比較した場合の改善である。
【0039】生成された深度マップを使用して、多重パ
スレンダリングプロセスの中で陰影を生成する。パス1
は、周囲照明のみを使用してシーンの隠面消去画像を生
成する。パス2では、陰影試験を実行し、陰影係数を生
成する。パス2で試験される値は、1)反復される深度
マップ索引に基づいて深度マップから取り出される所定
数の深度マップサンプルと、2)レンダリングすべき画
素の反復深度座標である。次に、反復深度マップ座標
と、所定数の深度マップサンプルの各々との比較によっ
て、陰影係数を設定する。陰影係数の生成は、反復深度
マップ索引に対して陰影に入っていないサンプルの加重
平均である。パス3は全照明を伴ってシーンを描くが、
その場合、陰影の中に入っているシーンの各部分は陰影
係数の関数として黒いままである。様々なパス、たとえ
ば、パス2とパス3を組合わせること、あるいは、全て
の機能を1回のパスで実行することは当業者には明白で
あろう。
スレンダリングプロセスの中で陰影を生成する。パス1
は、周囲照明のみを使用してシーンの隠面消去画像を生
成する。パス2では、陰影試験を実行し、陰影係数を生
成する。パス2で試験される値は、1)反復される深度
マップ索引に基づいて深度マップから取り出される所定
数の深度マップサンプルと、2)レンダリングすべき画
素の反復深度座標である。次に、反復深度マップ座標
と、所定数の深度マップサンプルの各々との比較によっ
て、陰影係数を設定する。陰影係数の生成は、反復深度
マップ索引に対して陰影に入っていないサンプルの加重
平均である。パス3は全照明を伴ってシーンを描くが、
その場合、陰影の中に入っているシーンの各部分は陰影
係数の関数として黒いままである。様々なパス、たとえ
ば、パス2とパス3を組合わせること、あるいは、全て
の機能を1回のパスで実行することは当業者には明白で
あろう。
【0040】図6bは、陰影係数を生成するステップを
さらに詳細に示すフローチャートである。ステップ60
4では、観察者の視点からシーンをレンダリングする。
ステップ605では、ジオメトリックプリミティブの反
復を経てシーンをレンダリングしている間に、深度マッ
プを索引付けするために、深度マップ座標を生成する。
現時点で好ましい実施例においては、深度マップをテク
スチャマップ記憶装置に記憶するので、深度マップ座標
はテクスチャマップ座標であるかのように生成される。
いずれにしても、それらの座標は深度マップを索引付け
するために必要な二次元座標(すなわち、反復深度マッ
プ索引)と、反復深度値の双方を含む。反復深度値は、
厳密には、深度マップの生成中に計算された光源−オブ
ジェクト間距離である。ステップ606では、オブジェ
クトを描いている間に、反復深度マップ索引を使用して
検索した複数の深度マップサンプルと反復深度値を比較
する。反復深度値が検索した深度マップサンプルより光
源から遠ければ、対応する画素の一部分は暗くなってい
る、すなわち、陰になっている可能性がある。いずれに
せよ、深度マップサンプルと反復深度値との比較に基づ
いて、陰影係数を生成する。現時点で好ましい実施例に
おいては、比較されるのは4個又は16個の、反復深度
マップ索引に最も近い座標値である。しかしながら、別
の数のサンプルを使用しても、本発明の趣旨から逸脱す
ることにはならないであろう。それらの比較の結果を利
用して、陰に入っていない深度マップサンプルから加重
平均陰影係数を形成する。ステップ607においては、
陰影係数は、オブジェクト点がシーン中の他のオブジェ
クトにより光源からどの程度まで陰影付けされているか
を表わす。陰影係数の生成については以下にさらに詳細
に説明する。次に、ステップ608では、この値を記憶
してシーンの陰影係数マップを形成する。現時点で好ま
しい実施例においては、陰影係数値をフレームバッファ
に記憶させる。後のパスで使用するために記憶すること
をせず、直ちに(すなわち、同一のパスの中で)陰影係
数を利用することは当業者には明白であろう。
さらに詳細に示すフローチャートである。ステップ60
4では、観察者の視点からシーンをレンダリングする。
ステップ605では、ジオメトリックプリミティブの反
復を経てシーンをレンダリングしている間に、深度マッ
プを索引付けするために、深度マップ座標を生成する。
現時点で好ましい実施例においては、深度マップをテク
スチャマップ記憶装置に記憶するので、深度マップ座標
はテクスチャマップ座標であるかのように生成される。
いずれにしても、それらの座標は深度マップを索引付け
するために必要な二次元座標(すなわち、反復深度マッ
プ索引)と、反復深度値の双方を含む。反復深度値は、
厳密には、深度マップの生成中に計算された光源−オブ
ジェクト間距離である。ステップ606では、オブジェ
クトを描いている間に、反復深度マップ索引を使用して
検索した複数の深度マップサンプルと反復深度値を比較
する。反復深度値が検索した深度マップサンプルより光
源から遠ければ、対応する画素の一部分は暗くなってい
る、すなわち、陰になっている可能性がある。いずれに
せよ、深度マップサンプルと反復深度値との比較に基づ
いて、陰影係数を生成する。現時点で好ましい実施例に
おいては、比較されるのは4個又は16個の、反復深度
マップ索引に最も近い座標値である。しかしながら、別
の数のサンプルを使用しても、本発明の趣旨から逸脱す
ることにはならないであろう。それらの比較の結果を利
用して、陰に入っていない深度マップサンプルから加重
平均陰影係数を形成する。ステップ607においては、
陰影係数は、オブジェクト点がシーン中の他のオブジェ
クトにより光源からどの程度まで陰影付けされているか
を表わす。陰影係数の生成については以下にさらに詳細
に説明する。次に、ステップ608では、この値を記憶
してシーンの陰影係数マップを形成する。現時点で好ま
しい実施例においては、陰影係数値をフレームバッファ
に記憶させる。後のパスで使用するために記憶すること
をせず、直ちに(すなわち、同一のパスの中で)陰影係
数を利用することは当業者には明白であろう。
【0041】先に述べた通り、反復深度マップ索引に最
も近い4つの深度マップサンプルとの比較によって、陰
影係数は生成される。陰影係数の生成を図7に示す。ま
ず、陰影係数を生成するための数式は、 ΣDij Wij により与えられる。式中、Dijは深度マップサンプルに
対応する2進値であり、Wijは重みである。Zij<Z*
ijであるとき、値Dij=1である。すなわち、対応する
深度マップサンプルが反復深度値より小さいとき、サン
プルは陰に入っていない。Zij>Z* ijであるときに
は、Dij=0である。すなわち、対応する深度マップサ
ンプルが反復深度マップ座標以上であるときには、サン
プルは陰に入っている。図7を参照して説明すると、深
度マップ座標701は陰影マップへ索引付けされる。こ
の深度マップ座標は反復深度マップ索引(i+dx,j
+dy)と、反復深度値Z* とを有する。反復深度マッ
プ索引のdx及びdyは反復値の小数部に対応する。い
ずれにせよ、最も近い4つのサンプル702〜705
は、それぞれ、(i,j,Zij),(i+1,j,Zi
+1j),(i,j+1,Zij+1)及び(i+1,j
+1,Zi+1j+1)の深度マップ座標を有するものと
して指示されている。そこで、次のようにして重みを計
算する。 Wij =(1−dx)(1−dy) Wi+1j =dx(1−dy) Wij+1 =(1−dx)dy Wi+1,j+1 =dxdy
も近い4つの深度マップサンプルとの比較によって、陰
影係数は生成される。陰影係数の生成を図7に示す。ま
ず、陰影係数を生成するための数式は、 ΣDij Wij により与えられる。式中、Dijは深度マップサンプルに
対応する2進値であり、Wijは重みである。Zij<Z*
ijであるとき、値Dij=1である。すなわち、対応する
深度マップサンプルが反復深度値より小さいとき、サン
プルは陰に入っていない。Zij>Z* ijであるときに
は、Dij=0である。すなわち、対応する深度マップサ
ンプルが反復深度マップ座標以上であるときには、サン
プルは陰に入っている。図7を参照して説明すると、深
度マップ座標701は陰影マップへ索引付けされる。こ
の深度マップ座標は反復深度マップ索引(i+dx,j
+dy)と、反復深度値Z* とを有する。反復深度マッ
プ索引のdx及びdyは反復値の小数部に対応する。い
ずれにせよ、最も近い4つのサンプル702〜705
は、それぞれ、(i,j,Zij),(i+1,j,Zi
+1j),(i,j+1,Zij+1)及び(i+1,j
+1,Zi+1j+1)の深度マップ座標を有するものと
して指示されている。そこで、次のようにして重みを計
算する。 Wij =(1−dx)(1−dy) Wi+1j =dx(1−dy) Wij+1 =(1−dx)dy Wi+1,j+1 =dxdy
【0042】5つ以上のサンプルを使用する場合には、
深度マップ座標がサンプルの「中央」に来るようにサン
プルを選択する。
深度マップ座標がサンプルの「中央」に来るようにサン
プルを選択する。
【0043】スポットライト効果を発生するために、光
源ビームの横断面に対応するテクスチャと陰影付けを組
合わせても良い。この場合、深度マップと投影されるテ
クスチャは同じ原点(すなわち、光源)を有する。この
プロセスの一部として、光源からオブジェクトまでの距
離の関数を使用して、距離及び大気の効果による光の強
さを減衰させても良い。光源ビームに関するシーンの陰
影付けを図8a〜図8dに示す。図8aは、スポットラ
イトと陰影を導入すべき生成可能なシーン(いす)の1
例である。図8bは、図8aのシーンの深度マップをグ
ラフにより示す。図8cは、照明源として利用されるス
ポットライト強さマップを示す。図8dは、図8aのシ
ーンにスポットライトと陰影の効果を取り入れた結果を
示す。
源ビームの横断面に対応するテクスチャと陰影付けを組
合わせても良い。この場合、深度マップと投影されるテ
クスチャは同じ原点(すなわち、光源)を有する。この
プロセスの一部として、光源からオブジェクトまでの距
離の関数を使用して、距離及び大気の効果による光の強
さを減衰させても良い。光源ビームに関するシーンの陰
影付けを図8a〜図8dに示す。図8aは、スポットラ
イトと陰影を導入すべき生成可能なシーン(いす)の1
例である。図8bは、図8aのシーンの深度マップをグ
ラフにより示す。図8cは、照明源として利用されるス
ポットライト強さマップを示す。図8dは、図8aのシ
ーンにスポットライトと陰影の効果を取り入れた結果を
示す。
【0044】陰影生成プロセスを単一の光源に関して説
明したが、複数の光源に対してそのプロセスを繰り返す
ことができ、その場合、レンダリングパスの総数を減ら
すために最適化が可能である。シーンを再び描く場合、
シーンのオブジェクトと光源に対して観察者のみが移動
しているのであれば、陰影深度マップを再生成する必要
はない。以上、対話式画像生成システムにおいて陰影付
きシーンを生成する方法及び装置を開示した。
明したが、複数の光源に対してそのプロセスを繰り返す
ことができ、その場合、レンダリングパスの総数を減ら
すために最適化が可能である。シーンを再び描く場合、
シーンのオブジェクトと光源に対して観察者のみが移動
しているのであれば、陰影深度マップを再生成する必要
はない。以上、対話式画像生成システムにおいて陰影付
きシーンを生成する方法及び装置を開示した。
【図1】 本発明の現時点で好ましい実施例を実現しう
るコンピュータシステムのブロック線図。
るコンピュータシステムのブロック線図。
【図2】 本発明の現時点で好ましい実施例で実行され
るようにテクスチャマップを1つのシーンに投影し且つ
そのシーンをビュースクリーンに再投影するという概念
を示す線図。
るようにテクスチャマップを1つのシーンに投影し且つ
そのシーンをビュースクリーンに再投影するという概念
を示す線図。
【図3】 本発明の現時点で好ましい実施例で実行しう
るようにテクスチャマップ座標を生成するステップを示
すフローチャート。
るようにテクスチャマップ座標を生成するステップを示
すフローチャート。
【図4】 本発明の現時点で好ましい実施例で利用する
クリップ座標系、スクリーン座標系、光座標系及びテク
スチャ座標系を示す線図。
クリップ座標系、スクリーン座標系、光座標系及びテク
スチャ座標系を示す線図。
【図5】 本発明の現時点で好ましい実施例で実行しう
るようにレンダリング中に投影テクスチャマッピングを
実行するステップを示すフローチャート。
るようにレンダリング中に投影テクスチャマッピングを
実行するステップを示すフローチャート。
【図6】 本発明の現時点で好ましい実施例で実行しう
るように陰影付きシーンを生成するために使用される深
度マップを生成するステップを示すフローチャート
(a)と本発明の現時点で好ましい実施例で実行しうる
ように、陰影付きシーンを生成するために使用される陰
影係数を生成するステップを示すフローチャート
(b)。
るように陰影付きシーンを生成するために使用される深
度マップを生成するステップを示すフローチャート
(a)と本発明の現時点で好ましい実施例で実行しうる
ように、陰影付きシーンを生成するために使用される陰
影係数を生成するステップを示すフローチャート
(b)。
【図7】 本発明の現時点で好ましい実施例で見られる
ような反復テクスチャマップ索引点と4つの深度マップ
サンプルとの関係を示す図。
ような反復テクスチャマップ索引点と4つの深度マップ
サンプルとの関係を示す図。
【図8】 本発明の現時点で好ましい実施例のコンピュ
ータ制御グラフィックスシステムにより生成しうるよう
なレンダリングシーンを示す図。
ータ制御グラフィックスシステムにより生成しうるよう
なレンダリングシーンを示す図。
101…バス、102…プロセッサ、103…RAM、
104…ROM、105…データ記憶装置、106…英
数字入力装置、107…カーソル制御装置、108…ハ
ードコピー装置、109…フレームバッファ、110…
表示装置、111…グラフィックスサブシステム、20
1…投影光源、202…テクスチャマップ、203…
面、203a…投影面、204…ビュースクリーン、2
05…視点。
104…ROM、105…データ記憶装置、106…英
数字入力装置、107…カーソル制御装置、108…ハ
ードコピー装置、109…フレームバッファ、110…
表示装置、111…グラフィックスサブシステム、20
1…投影光源、202…テクスチャマップ、203…
面、203a…投影面、204…ビュースクリーン、2
05…視点。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 ロルフ・エイ・ファン・ワイデンフェルト アメリカ合衆国 94110 カリフォルニア 州・サン フランシスコ・ドロリース・ 1236
Claims (3)
- 【請求項1】 複数のグラフィックプリミティブからそ
れぞれ構成されている三次元シーンを対話方式で表示す
るコンピュータ制御表示システムで、光源が原因となる
陰影をシーン中に表示する方法において、 a)前記光源を原点として有する光座標系の中で、それ
ぞれが対応する画素位置におけるグラフィックプリミテ
ィブと前記光源との間の最小深度を識別している複数個
のサンプルを有する深度マップを生成する過程と; b)前記シーンの各グラフィックプリミティブを処理し
て観察者の視点から前記シーンをレンダリングする過程
とから成り、その処理は、 c)1つのグラフィックプリミティブに対応する画素を
識別する過程と; d)画素ごとに、その画素が見えるか否かを判定する過
程と; e)見えない画素を無視する過程と; f)見える画素ごとに、 前記画素について、反復深度マップ索引と、反復深度値
とから構成される光座標系座標を生成する過程と;前記
反復深度マップ索引に基づいて所定数の深度マップサン
プルを取り出す過程と;前記所定数の深度マップサンプ
ルの各々を前記反復深度値と比較して、前記画素に関わ
る陰影係数を生成する過程とを実行することにより、陰
影係数を生成する過程と; g)前記陰影係数に基づいて前記画素を陰影付けする過
程とを含む方法。 - 【請求項2】 位置が変化するように定義される光源原
点を伴う三次元(x,y,z)光座標系の中で動作し、
前記光座標系の(x,y)座標により索引付けされる二
次元テクスチャマップを、複数のグラフィックプリミテ
ィブから構成されるレンダリングすべき三次元シーンへ
投影する対話式投影テクスチャマッピング手段を具備す
るコンピュータ制御表示システムで前記投影テクスチャ
マッピング手段を使用して陰影を有するシーンをレンダ
リングする方法において、 a)光源の位置を前記光座標系の原点として確定する過
程と; b)光座標系の中で、それぞれが対応する画素位置にお
けるグラフィックプリミティブと前記光源との間の最小
深度を識別している複数の深度マップサンプルから構成
される深度マップを生成する過程と; c)前記深度マップをテクスチャマップとしてアクセス
するために記憶する過程と; d)1つのグラフィックプリミティブに対応する全ての
画素について、その画素が観察者の視点から見えるよう
に確定する過程と; e)前記見える画素について、(x,y)座標が反復深
度マップ索引であり且つ前記(z)座標は反復深度値で
あるような前記見える画素に関わる光座標系座標の生成
を含めて、前記見える画素を求めて前記深度マップのテ
クスチャマップルックアップを実行する過程と; f)前記反復深度マップ索引に基づいて、前記深度マッ
プから複数の深度マップサンプルを取り出す過程と; g)反復深度値との比較に基づいて、陰に入る前記検索
した深度マップサンプルの各々に第1の2進値を割当て
且つ陰に入らない前記検索した深度マップサンプルの各
々に第2の2進値を割当てる過程と; h)前記2進値から前記画素に関わる加重平均を生成す
る過程と; i)対応する陰影係数に基づいて前記画素をレンダリン
グする過程とから成る方法。 - 【請求項3】 陰影付きシーンを対話方式で生成するコ
ンピュータ制御表示システムにおいて、 スクリーン座標からテクスチャマップ索引及び反復深度
値を生成するテクスチャマッピング手段と、 視点に最も近接しているジオメトリックプリミティブの
表面点を識別するZバッファリング手段と;1つの画素
のどれほどの量が陰に入っているかを識別する陰影係数
に基づいて、画素をレンダリングするレンダリング手段
と;前記テクスチャマッピング手段及び前記Zバッファ
リング手段に結合し、陰影係数を計算する陰影係数生成
手段であって、 それぞれが対応する画素位置におけるグラフィックプリ
ミティブと光源との間の最短距離を識別している複数の
サンプルから構成される深度マップを前記Zバッファリ
ング手段を利用して生成する手段と;前記深度マップを
テクスチャとして記憶する手段と;前記投影テクスチャ
マッピング手段を利用して、前記深度マップをアクセス
する手段と;前記テクスチャマップ索引に基づいて所定
数の深度マップサンプルを識別する手段と;前記所定数
の深度マップサンプル及び前記光座標系座標から、前記
陰影係数を表わす加重平均を生成する手段とからさらに
構成されている陰影係数生成手段とを具備するコンピュ
ータ制御表示システム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US089,799 | 1979-10-31 | ||
US8979993A | 1993-07-09 | 1993-07-09 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0778267A true JPH0778267A (ja) | 1995-03-20 |
Family
ID=22219638
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP6180467A Pending JPH0778267A (ja) | 1993-07-09 | 1994-07-11 | 陰影を表示する方法及びコンピュータ制御表示システム |
Country Status (2)
Country | Link |
---|---|
US (1) | US5742749A (ja) |
JP (1) | JPH0778267A (ja) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0878099A2 (en) | 1996-02-01 | 1998-11-18 | RT-Set Ltd. | Chroma keying studio system |
EP1044432A1 (en) * | 1997-12-05 | 2000-10-18 | Dynamic Digital Depth Research Pty. Ltd. | Improved image conversion and encoding techniques |
JP2002074387A (ja) * | 2000-08-23 | 2002-03-15 | Nintendo Co Ltd | Zテクスチャリングを用いるイメージ生成方法 |
JP2002190032A (ja) * | 2000-12-20 | 2002-07-05 | Namco Ltd | ゲームシステム、プログラム及び情報記憶媒体 |
KR100482391B1 (ko) * | 1996-05-10 | 2005-08-31 | 소니 컴퓨터 엔터테인먼트 인코포레이티드 | 화상정보처리시스템및방법,및화상처리시스템및방법 |
JP2010191916A (ja) * | 2009-02-20 | 2010-09-02 | Nintendo Co Ltd | 描画処理装置、および、描画処理プログラム |
JP2012522283A (ja) * | 2009-03-27 | 2012-09-20 | トムソン ライセンシング | 画像における陰影生成方法 |
JP2016091238A (ja) * | 2014-10-31 | 2016-05-23 | 株式会社スクウェア・エニックス | プログラム、記録媒体、輝度演算装置及び輝度演算方法 |
CN114283267A (zh) * | 2018-02-11 | 2022-04-05 | 鲸彩在线科技(大连)有限公司 | 一种阴影图确定方法及装置 |
Families Citing this family (87)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5949428A (en) * | 1995-08-04 | 1999-09-07 | Microsoft Corporation | Method and apparatus for resolving pixel data in a graphics rendering system |
US5990904A (en) * | 1995-08-04 | 1999-11-23 | Microsoft Corporation | Method and system for merging pixel fragments in a graphics rendering system |
US5864342A (en) * | 1995-08-04 | 1999-01-26 | Microsoft Corporation | Method and system for rendering graphical objects to image chunks |
US5870097A (en) | 1995-08-04 | 1999-02-09 | Microsoft Corporation | Method and system for improving shadowing in a graphics rendering system |
US5977977A (en) * | 1995-08-04 | 1999-11-02 | Microsoft Corporation | Method and system for multi-pass rendering |
US5852443A (en) * | 1995-08-04 | 1998-12-22 | Microsoft Corporation | Method and system for memory decomposition in a graphics rendering system |
US6256040B1 (en) | 1996-06-21 | 2001-07-03 | Namco, Ltd. | Three-dimensional game machine and information storage medium |
US5870098A (en) * | 1997-02-26 | 1999-02-09 | Evans & Sutherland Computer Corporation | Method for rendering shadows on a graphical display |
US6163320A (en) * | 1998-05-29 | 2000-12-19 | Silicon Graphics, Inc. | Method and apparatus for radiometrically accurate texture-based lightpoint rendering technique |
US6236413B1 (en) * | 1998-08-14 | 2001-05-22 | Silicon Graphics, Inc. | Method and system for a RISC graphics pipeline optimized for high clock speeds by using recirculation |
US6437782B1 (en) * | 1999-01-06 | 2002-08-20 | Microsoft Corporation | Method for rendering shadows with blended transparency without producing visual artifacts in real time applications |
JP3599268B2 (ja) * | 1999-03-08 | 2004-12-08 | 株式会社ソニー・コンピュータエンタテインメント | 画像処理方法、画像処理装置及び記録媒体 |
US6618048B1 (en) | 1999-10-28 | 2003-09-09 | Nintendo Co., Ltd. | 3D graphics rendering system for performing Z value clamping in near-Z range to maximize scene resolution of visually important Z components |
US6717577B1 (en) | 1999-10-28 | 2004-04-06 | Nintendo Co., Ltd. | Vertex cache for 3D computer graphics |
US20030063383A1 (en) * | 2000-02-03 | 2003-04-03 | Costales Bryan L. | Software out-of-focus 3D method, system, and apparatus |
JP3310257B2 (ja) * | 2000-03-24 | 2002-08-05 | 株式会社コナミコンピュータエンタテインメントジャパン | ゲームシステム及びゲーム用プログラムを記録したコンピュータ読み取り可能な記録媒体 |
US6791544B1 (en) * | 2000-04-06 | 2004-09-14 | S3 Graphics Co., Ltd. | Shadow rendering system and method |
CA2315302A1 (en) * | 2000-07-13 | 2002-01-13 | Paul A. Halmshaw | Three dimensional imaging system |
US7348977B2 (en) * | 2000-07-19 | 2008-03-25 | Pixar | Subsurface scattering approximation methods and apparatus |
US6760024B1 (en) * | 2000-07-19 | 2004-07-06 | Pixar | Method and apparatus for rendering shadows |
JP4443012B2 (ja) | 2000-07-27 | 2010-03-31 | 株式会社バンダイナムコゲームス | 画像生成装置、方法および記録媒体 |
US20050091666A1 (en) * | 2000-08-14 | 2005-04-28 | Transvirtual Technologies, Inc. | Portable operating environment for information devices |
US6700586B1 (en) | 2000-08-23 | 2004-03-02 | Nintendo Co., Ltd. | Low cost graphics with stitching processing hardware support for skeletal animation |
US7576748B2 (en) * | 2000-11-28 | 2009-08-18 | Nintendo Co. Ltd. | Graphics system with embedded frame butter having reconfigurable pixel formats |
US6707458B1 (en) | 2000-08-23 | 2004-03-16 | Nintendo Co., Ltd. | Method and apparatus for texture tiling in a graphics system |
US6811489B1 (en) | 2000-08-23 | 2004-11-02 | Nintendo Co., Ltd. | Controller interface for a graphics system |
US6664962B1 (en) * | 2000-08-23 | 2003-12-16 | Nintendo Co., Ltd. | Shadow mapping in a low cost graphics system |
US6937245B1 (en) * | 2000-08-23 | 2005-08-30 | Nintendo Co., Ltd. | Graphics system with embedded frame buffer having reconfigurable pixel formats |
US6636214B1 (en) | 2000-08-23 | 2003-10-21 | Nintendo Co., Ltd. | Method and apparatus for dynamically reconfiguring the order of hidden surface processing based on rendering mode |
US7196710B1 (en) | 2000-08-23 | 2007-03-27 | Nintendo Co., Ltd. | Method and apparatus for buffering graphics data in a graphics system |
US7538772B1 (en) | 2000-08-23 | 2009-05-26 | Nintendo Co., Ltd. | Graphics processing system with enhanced memory controller |
US6828980B1 (en) | 2000-10-02 | 2004-12-07 | Nvidia Corporation | System, method and computer program product for z-texture mapping |
US6731298B1 (en) * | 2000-10-02 | 2004-05-04 | Nvidia Corporation | System, method and article of manufacture for z-texture mapping |
US7439975B2 (en) | 2001-09-27 | 2008-10-21 | International Business Machines Corporation | Method and system for producing dynamically determined drop shadows in a three-dimensional graphical user interface |
US6903741B2 (en) * | 2001-12-13 | 2005-06-07 | Crytek Gmbh | Method, computer program product and system for rendering soft shadows in a frame representing a 3D-scene |
US6876362B1 (en) * | 2002-07-10 | 2005-04-05 | Nvidia Corporation | Omnidirectional shadow texture mapping |
GB2392072B (en) * | 2002-08-14 | 2005-10-19 | Autodesk Canada Inc | Generating Image Data |
TW200414737A (en) * | 2002-09-27 | 2004-08-01 | Matsushita Electric Ind Co Ltd | Contents transmission system |
GB2393887B (en) * | 2002-10-04 | 2005-10-26 | Criterion Software Ltd | Three-dimensional computer graphics |
AU2002952874A0 (en) * | 2002-11-25 | 2002-12-12 | Dynamic Digital Depth Research Pty Ltd | 3D image synthesis from depth encoded source view |
US7106326B2 (en) * | 2003-03-03 | 2006-09-12 | Sun Microsystems, Inc. | System and method for computing filtered shadow estimates using reduced bandwidth |
JP4193979B2 (ja) * | 2003-03-17 | 2008-12-10 | 任天堂株式会社 | シャドウボリューム生成プログラム及びゲーム装置 |
CA2525977C (en) * | 2003-05-30 | 2012-06-26 | Karl Johann Schmidt | Rendering of soft shadows using depth maps |
US6967663B1 (en) * | 2003-09-08 | 2005-11-22 | Nvidia Corporation | Antialiasing using hybrid supersampling-multisampling |
US7567248B1 (en) * | 2004-04-28 | 2009-07-28 | Mark William R | System and method for computing intersections between rays and surfaces |
US7508390B1 (en) * | 2004-08-17 | 2009-03-24 | Nvidia Corporation | Method and system for implementing real time soft shadows using penumbra maps and occluder maps |
KR100603601B1 (ko) * | 2004-11-08 | 2006-07-24 | 한국전자통신연구원 | 다시점 콘텐츠 생성 장치 및 그 방법 |
FR2887061B1 (fr) * | 2005-06-08 | 2007-08-17 | Sagem | Procede d'analyse d'une presence dans un espace |
US7636089B2 (en) * | 2005-09-09 | 2009-12-22 | Microsoft Corporation | Photo mantel view and animation |
US9563980B2 (en) * | 2005-11-18 | 2017-02-07 | Autodesk, Inc. | Grip manipulatable shadows in 3D models |
US7412663B2 (en) * | 2005-11-30 | 2008-08-12 | Microsoft Corporation | Dynamic reflective highlighting of a glass appearance window frame |
US7418668B2 (en) * | 2005-11-30 | 2008-08-26 | Microsoft Corporation | Glass appearance window frame colorization |
US8462156B1 (en) | 2005-12-22 | 2013-06-11 | Nvidia Corporation | Method and system for generating shadows in a graphics processing unit |
US7891818B2 (en) | 2006-12-12 | 2011-02-22 | Evans & Sutherland Computer Corporation | System and method for aligning RGB light in a single modulator projector |
US8134556B2 (en) * | 2007-05-30 | 2012-03-13 | Elsberg Nathan | Method and apparatus for real-time 3D viewer with ray trace on demand |
US7990377B2 (en) * | 2007-06-26 | 2011-08-02 | Microsoft Corporation | Real-time rendering of light-scattering media |
US8009168B2 (en) * | 2007-06-26 | 2011-08-30 | Microsoft Corporation | Real-time rendering of light-scattering media |
US8190403B2 (en) * | 2007-06-26 | 2012-05-29 | Microsoft Corporation | Real-time rendering of light-scattering media |
US7940269B2 (en) * | 2007-06-29 | 2011-05-10 | Microsoft Corporation | Real-time rendering of light-scattering media |
US7940268B2 (en) * | 2007-06-29 | 2011-05-10 | Microsoft Corporation | Real-time rendering of light-scattering media |
US20090079758A1 (en) * | 2007-09-25 | 2009-03-26 | Max-Planck-Gesellschaft Zur Forderung Per Wissenschaften E.V. | Method and device for generating shadow maps |
US8358317B2 (en) | 2008-05-23 | 2013-01-22 | Evans & Sutherland Computer Corporation | System and method for displaying a planar image on a curved surface |
US8702248B1 (en) | 2008-06-11 | 2014-04-22 | Evans & Sutherland Computer Corporation | Projection method for reducing interpixel gaps on a viewing surface |
US8077378B1 (en) | 2008-11-12 | 2011-12-13 | Evans & Sutherland Computer Corporation | Calibration system and method for light modulation device |
US8686999B2 (en) * | 2009-02-02 | 2014-04-01 | Microsoft Corporation | Dynamic fragment coverage antialiasing |
US20110018876A1 (en) * | 2009-07-21 | 2011-01-27 | Zebra Imaging, Inc. | Systems and Methods for Determining Lighting for 3D Geometry |
JP5256153B2 (ja) * | 2009-09-16 | 2013-08-07 | 株式会社コナミデジタルエンタテインメント | 画像処理装置、画像処理装置の制御方法、及びプログラム |
US8643701B2 (en) * | 2009-11-18 | 2014-02-04 | University Of Illinois At Urbana-Champaign | System for executing 3D propagation for depth image-based rendering |
US20130100135A1 (en) * | 2010-07-01 | 2013-04-25 | Thomson Licensing | Method of estimating diffusion of light |
US8723865B1 (en) * | 2010-08-06 | 2014-05-13 | Nvidia Corporation | System and method for rendering a volumetric shadow |
FR2965652A1 (fr) | 2010-09-30 | 2012-04-06 | Thomson Licensing | Procede d’estimation de la quantite de lumiere recue en un point d’un environnement virtuel |
US9300946B2 (en) | 2011-07-08 | 2016-03-29 | Personify, Inc. | System and method for generating a depth map and fusing images from a camera array |
US9641826B1 (en) | 2011-10-06 | 2017-05-02 | Evans & Sutherland Computer Corporation | System and method for displaying distant 3-D stereo on a dome surface |
US9324183B2 (en) | 2011-11-29 | 2016-04-26 | Apple Inc. | Dynamic graphical interface shadows |
US8872853B2 (en) | 2011-12-01 | 2014-10-28 | Microsoft Corporation | Virtual light in augmented reality |
US9311751B2 (en) | 2011-12-12 | 2016-04-12 | Microsoft Technology Licensing, Llc | Display of shadows via see-through display |
EP2954495B1 (en) * | 2013-02-06 | 2020-12-02 | Square Enix Holdings Co., Ltd. | Information processing apparatus, method of controlling the same, program, and storage medium |
US9652892B2 (en) | 2013-10-29 | 2017-05-16 | Microsoft Technology Licensing, Llc | Mixed reality spotlight |
EP3021286B1 (en) | 2014-11-13 | 2017-09-27 | Thomson Licensing | Device and method to compute shadow in a 3D scene |
US10388061B2 (en) | 2017-02-22 | 2019-08-20 | Microsoft Technology Licensing, Llc | Generation of lighting data for a three-dimensional entity |
US10403029B2 (en) * | 2017-05-03 | 2019-09-03 | Microsoft Technology Licensing, Llc | Methods and systems for multistage post-rendering image transformation |
US10748272B2 (en) * | 2017-05-18 | 2020-08-18 | Applied Materials Israel Ltd. | Measuring height difference in patterns on semiconductor wafers |
US10922878B2 (en) * | 2017-10-04 | 2021-02-16 | Google Llc | Lighting for inserted content |
CN109767487A (zh) * | 2019-01-04 | 2019-05-17 | 北京达佳互联信息技术有限公司 | 人脸三维重建方法、装置、电子设备及存储介质 |
CN112675545B (zh) * | 2021-01-07 | 2022-12-13 | 腾讯科技(深圳)有限公司 | 地表仿真画面的显示方法和装置、存储介质及电子设备 |
CN113052947B (zh) * | 2021-03-08 | 2022-08-16 | 网易(杭州)网络有限公司 | 一种渲染方法、装置、电子设备和存储介质 |
CN114904272A (zh) * | 2022-05-30 | 2022-08-16 | 网易(杭州)网络有限公司 | 一种游戏渲染方法、装置、电子设备和介质 |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
IL72685A (en) * | 1983-08-30 | 1988-08-31 | Gen Electric | Advanced video object generator |
US4586038A (en) * | 1983-12-12 | 1986-04-29 | General Electric Company | True-perspective texture/shading processor |
US4821212A (en) * | 1984-08-08 | 1989-04-11 | General Electric Company | Three dimensional texture generator for computed terrain images |
JPH0746391B2 (ja) * | 1984-09-14 | 1995-05-17 | 株式会社日立製作所 | 図形シエ−デイング装置 |
US5239624A (en) * | 1985-06-19 | 1993-08-24 | Pixar | Pseudo-random point sampling techniques in computer graphics |
JPH0814854B2 (ja) * | 1985-10-11 | 1996-02-14 | 株式会社日立製作所 | 三次元図形表示装置 |
JPH0756678B2 (ja) * | 1985-11-01 | 1995-06-14 | 株式会社日立製作所 | 対話形形状モデリングシステム |
US4928250A (en) * | 1986-07-02 | 1990-05-22 | Hewlett-Packard Company | System for deriving radiation images |
US5025405A (en) * | 1986-08-15 | 1991-06-18 | Hewlett-Packard Company | Method of interpolating pixel values |
JPH01501178A (ja) * | 1986-09-11 | 1989-04-20 | ヒューズ・エアクラフト・カンパニー | 写実的画面形成用デジタル式視覚感知シミュレーション・システム |
US4807158A (en) * | 1986-09-30 | 1989-02-21 | Daleco/Ivex Partners, Ltd. | Method and apparatus for sampling images to simulate movement within a multidimensional space |
US5361386A (en) * | 1987-12-04 | 1994-11-01 | Evans & Sutherland Computer Corp. | System for polygon interpolation using instantaneous values in a variable |
GB2223384B (en) * | 1988-07-14 | 1992-05-06 | Daikin Ind Ltd | Method and apparatus for applying shadowing operation to figures to be drawn for displaying on crt-display |
US5367615A (en) * | 1989-07-10 | 1994-11-22 | General Electric Company | Spatial augmentation of vertices and continuous level of detail transition for smoothly varying terrain polygon density |
US5224208A (en) * | 1990-03-16 | 1993-06-29 | Hewlett-Packard Company | Gradient calculation for texture mapping |
CA2040273C (en) * | 1990-04-13 | 1995-07-18 | Kazu Horiuchi | Image displaying system |
US5179638A (en) * | 1990-04-26 | 1993-01-12 | Honeywell Inc. | Method and apparatus for generating a texture mapped perspective view |
US5321797A (en) * | 1990-06-11 | 1994-06-14 | Eastman Kodak Company | Apparatus and method for performing coordinate transformation employing stored values and interpolation |
US5333245A (en) * | 1990-09-07 | 1994-07-26 | Modacad, Inc. | Method and apparatus for mapping surface texture |
JPH07104597B2 (ja) * | 1990-09-18 | 1995-11-13 | 大日本スクリーン製造株式会社 | 画像処理装置 |
JP3141245B2 (ja) * | 1990-11-01 | 2001-03-05 | ソニー株式会社 | 画像の表示方法 |
US5268996A (en) * | 1990-12-20 | 1993-12-07 | General Electric Company | Computer image generation method for determination of total pixel illumination due to plural light sources |
US5305430A (en) * | 1990-12-26 | 1994-04-19 | Xerox Corporation | Object-local sampling histories for efficient path tracing |
US5307450A (en) * | 1991-02-19 | 1994-04-26 | Silicon Graphics, Inc. | Z-subdivision for improved texture mapping |
US5537638A (en) * | 1991-10-25 | 1996-07-16 | Hitachi, Ltd. | Method and system for image mapping |
US5345541A (en) * | 1991-12-20 | 1994-09-06 | Apple Computer, Inc. | Method and apparatus for approximating a value between two endpoint values in a three-dimensional image rendering device |
US5282262A (en) * | 1992-04-09 | 1994-01-25 | Sony Corporation | Method and apparatus for transforming a two-dimensional video signal onto a three-dimensional surface |
US5469535A (en) * | 1992-05-04 | 1995-11-21 | Midway Manufacturing Company | Three-dimensional, texture mapping display system |
-
1994
- 1994-07-11 JP JP6180467A patent/JPH0778267A/ja active Pending
-
1996
- 1996-02-20 US US08/603,691 patent/US5742749A/en not_active Expired - Lifetime
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0878099A2 (en) | 1996-02-01 | 1998-11-18 | RT-Set Ltd. | Chroma keying studio system |
KR100482391B1 (ko) * | 1996-05-10 | 2005-08-31 | 소니 컴퓨터 엔터테인먼트 인코포레이티드 | 화상정보처리시스템및방법,및화상처리시스템및방법 |
EP1044432A1 (en) * | 1997-12-05 | 2000-10-18 | Dynamic Digital Depth Research Pty. Ltd. | Improved image conversion and encoding techniques |
EP1044432A4 (en) * | 1997-12-05 | 2007-02-21 | Dynamic Digital Depth Res Pty | IMPROVED IMAGE TRANSFORMATION AND CODING TECHNIQUES |
JP2002074387A (ja) * | 2000-08-23 | 2002-03-15 | Nintendo Co Ltd | Zテクスチャリングを用いるイメージ生成方法 |
JP2002190032A (ja) * | 2000-12-20 | 2002-07-05 | Namco Ltd | ゲームシステム、プログラム及び情報記憶媒体 |
JP4610729B2 (ja) * | 2000-12-20 | 2011-01-12 | 株式会社バンダイナムコゲームス | ゲームシステム、プログラム及び情報記憶媒体 |
JP2010191916A (ja) * | 2009-02-20 | 2010-09-02 | Nintendo Co Ltd | 描画処理装置、および、描画処理プログラム |
JP2012522283A (ja) * | 2009-03-27 | 2012-09-20 | トムソン ライセンシング | 画像における陰影生成方法 |
JP2016091238A (ja) * | 2014-10-31 | 2016-05-23 | 株式会社スクウェア・エニックス | プログラム、記録媒体、輝度演算装置及び輝度演算方法 |
CN114283267A (zh) * | 2018-02-11 | 2022-04-05 | 鲸彩在线科技(大连)有限公司 | 一种阴影图确定方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
US5742749A (en) | 1998-04-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH0778267A (ja) | 陰影を表示する方法及びコンピュータ制御表示システム | |
CN111508052B (zh) | 三维网格体的渲染方法和装置 | |
US5805782A (en) | Method and apparatus for projective texture mapping rendered from arbitrarily positioned and oriented light source | |
US5704024A (en) | Method and an apparatus for generating reflection vectors which can be unnormalized and for using these reflection vectors to index locations on an environment map | |
US5613048A (en) | Three-dimensional image synthesis using view interpolation | |
US5224208A (en) | Gradient calculation for texture mapping | |
US6184891B1 (en) | Fog simulation for partially transparent objects | |
Zwicker et al. | EWA splatting | |
EP0447227B1 (en) | Method for Generating Addresses to Textured Graphics Primitives Stored in RIP Maps | |
US6133901A (en) | Method and system for width independent antialiasing | |
KR970003325B1 (ko) | 화소 영상 렌더링 방법 및 컴퓨터 그래픽 디스플레이 시스템 | |
US8035641B1 (en) | Fast depth of field simulation | |
US6888544B2 (en) | Apparatus for and method of rendering 3D objects with parametric texture maps | |
US20040061700A1 (en) | Image processing apparatus and method of same | |
WO1996036011A1 (en) | Graphics system utilizing homogeneity values for depth for occlusion mapping and texture mapping | |
US7324107B2 (en) | Single level MIP filtering algorithm for anisotropic texturing | |
CN110706325B (zh) | 一种三维海底环境实时动态渲染方法和渲染系统 | |
Schilling | Towards real-time photorealistic rendering: challenges and solutions | |
US7133052B1 (en) | Morph map based simulated real-time rendering | |
EP1058912B1 (en) | Subsampled texture edge antialiasing | |
US6906729B1 (en) | System and method for antialiasing objects | |
US5926183A (en) | Efficient rendering utilizing user defined rooms and windows | |
GB2592604A (en) | Image generation system and method | |
US6894696B2 (en) | Method and apparatus for providing refractive transparency in selected areas of video displays | |
Meyer et al. | Real-time reflection on moving vehicles in urban environments |