JPH0831140B2 - 高速画像生成表示方法 - Google Patents
高速画像生成表示方法Info
- Publication number
- JPH0831140B2 JPH0831140B2 JP2098948A JP9894890A JPH0831140B2 JP H0831140 B2 JPH0831140 B2 JP H0831140B2 JP 2098948 A JP2098948 A JP 2098948A JP 9894890 A JP9894890 A JP 9894890A JP H0831140 B2 JPH0831140 B2 JP H0831140B2
- Authority
- JP
- Japan
- Prior art keywords
- coordinate system
- target
- display
- viewpoint
- obj
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000000034 method Methods 0.000 title claims description 20
- 239000000470 constituent Substances 0.000 description 34
- 238000010586 diagram Methods 0.000 description 28
- 230000033001 locomotion Effects 0.000 description 21
- 238000012545 processing Methods 0.000 description 20
- 238000004364 calculation method Methods 0.000 description 16
- 210000001747 pupil Anatomy 0.000 description 16
- 239000013598 vector Substances 0.000 description 15
- 210000001508 eye Anatomy 0.000 description 13
- 238000001514 detection method Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 10
- 239000011159 matrix material Substances 0.000 description 9
- 210000005252 bulbus oculi Anatomy 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 8
- 230000004438 eyesight Effects 0.000 description 7
- 230000004304 visual acuity Effects 0.000 description 7
- 230000000694 effects Effects 0.000 description 5
- 210000003128 head Anatomy 0.000 description 5
- 230000009466 transformation Effects 0.000 description 4
- 101100365087 Arabidopsis thaliana SCRA gene Proteins 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 239000011505 plaster Substances 0.000 description 2
- 210000001525 retina Anatomy 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Landscapes
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
Description
表示するようなコンピュータグラフィックス、すなわち
高速画像生成表示方法に関する。
る、いわゆるコンピュータグラフィックスの技術は、科
学技術計算のシミュレーションを初めとして様々な分野
に利用されつつあるが、高精度化、すなわち、画像の高
品質化と高速化は相反する条件にあり、同時にこれを満
たす技術は現在のところ見当たらない。つまり、品質の
高い画像を生成しようとすると、画像生成のために膨大
な計算時間を必要とし、逆に高速、たとえば毎秒数10枚
の画像を表示するリアルタイム表示を目的とすると粗い
計算をせざるを得なくなり、生成画像の品質が悪くな
る。
的符号化通信と呼ばれる画像通信の分野にも広がりつつ
ある。この方法では、送信側は画像認識により、送信対
象の3次元構造情報を抽出し、その特徴をパラメータ化
して伝送する。受信側では、予め3次元構造情報(デー
タベース)を用意しておき、伝送されてくる特徴パラメ
ータに基づいて、該3次元データベースを高速に変換し
て表示する。これらの通信方法では、受信側は送信側の
3次元構造情報を基にして、任意の視点からの画像を自
在に生成して表示することができるため、以下のような
多くの利点をもつ。
像を表示することにより、運動視が実現できる。ここ
で、運動視とは、頭を動かした際に眼球の網膜上に映る
画像の変化から空間を知覚する人の潜在能力のことであ
り、日常、前後関係が分かりにくい視覚状況下で頭を動
かして認識を高めようとすることはよく経験することで
ある。すなわち、運動視をコンピュータグラフィックス
により人工的に実現することにより、スクリーン上の画
像の立体感が向上することが期待され、臨場感豊かな表
示が可能となる。
からの画像を生成して表示することにより、両眼立体視
を実現できる。人の両目は約6cmの距離を隔てて位置す
るため、頭を動かさなくとも、各目の網膜には別々な像
が投影される。この異なった2つの像の対応関係は視差
情報と呼ばれ、人はこれを利用して空間の立体感覚を得
ている。この視差情報をもつ画像をコンピュータグラフ
ィックスで実現することにより、スクリーン上の画像の
立体感がさらに向上する。
話するような画像も容易に生成できる。
はいくつかの困難がある。第1には、送信側における画
像認識および特徴パラメータの抽出であり、第2には、
受信側での高速でかつ広視野を高解像度で表示する画像
生成表示方法である。通信では、実時間の処理が本質的
な命題であり、従来のコンピュータグラフィックスに比
べて高速化への要求は高い。
に説明する。
明するための図である。第15図において、スクリーンS1
は、このスクリーンS1の中心を原点とする表示基準座標
系X(w)−Y(w)−Z(w)で表わされる。なお、
この座標系は以下の各座標系の位置関係を記述する機能
をもち、原点はスクリーンS1の中心でなくてもよいもの
とする。視点座標系X(e)−Y(e)−Z(e)は、
表示基準座標系X(w)−Y(w)−Z(w)からみて
位置と座標軸の回転角が既知になっている。表示対象物
体objは3次元構造をもち、この対象の構造点Pi(obj)
は対象座標系X(obj)−Y(obj)−Z(obj)で表わ
されているものとする。
とき、このPi点がスクリーンS1上のどの位置に表示され
るかについて考える。表示基準座標系X(w)−Y
(w)−Z(w)に対して、対象座標系X(obj)−Y
(obj)−Z(obj)は既知としているので、対象座標系
X(obj)−Y(obj)−Z(obj)で表わされる構造点P
i(pbj)は表示基準座標系X(w)−Y(w)−Z
(w)で、Pi(w)=M1・Pi(obj)のように示され
る。
ある。また、視点座標系X(e)−Y(e)−Z(e)
も表示基準座標系X(w)−Y(w)−Z(w)で表わ
すことができると仮定しているので、この変換マトリッ
クスをM2とすると、表示基準座標系X(w)−Y(w)
−Z(w)からみた構造点Pi(w)は、視点座標系X
(e)−Y(e)−Z(e)からみて、 Pi(e)=M2-1・Pi(w)=M1・M2-1・Pi(obj) と表わすことができる。このように、表示基準座標系X
(w)−Y(w)−Z(w)と対象座標系X(obj)−
Y(obj)−Z(obj)および表示基準座標系X(w)−
Y(w)−Z(w)と視点座標系X(e)−Y(e)−
Z(e)との関係がわかれば、対象座標系で示された構
造点Pi(obj)は視点座標系で自在に表わすことができ
る。
リーン上の点を求めるために、正規透視座標系と呼ばれ
るX(np)−Y(np)−Z(np)を考える。この座標系
は視点座標系のZ(e)軸上に原点O(np)があり、視
点座標系でハッチした視野ピラミッドと呼ばれる領域A,
B,C,D,A(∞),B(∞),C(∞),D(∞)が、一点鎖線
で示した直方体A,B,C,D,A′(∞),B′(∞),C′
(∞),D′(∞)に一致する対応関係がある。直方体の
Z(np)軸方向は1に正規化してあるものとする。すな
わち、Z(np)=0点は、Z(e)軸のhに対応し、Z
(np)=1の点はZ(e)=∞に対応する。この条件で
第10図に示す棒状物体objは正規透視座標系X(np)−
Y(np)−Z(np)では一点鎖線で示すように、Z(n
p)軸の大きな方では断面が小さくなる。この視点座標
系と正規透視座標系との変換は4×4のマトリックスM3
で示すことができる。したがって、Pi(np)は、 Pi(np)=M3・Pi(e) で表わすことができる。ここで、Pi(np)をA,B,C,D面
に平行投影すると、点線で示すξi(s)が得られる。
(np)−Y(np)−Z(np)は表示基準座標系X(w)
−Y(w)−Z(w)と原点および軸方向が重なってい
るものとしている。したがって、視点座標系のZ(e)
軸は、表示基準座標系のZ(w)軸と同一方向である。
応する。したがって、ξi(s)がすなわち視点O
(e)から見たスクリーンへの投影像である。このよう
に、構造点Pi(obj)からξi(s)へは3つの行列演
算と平行投影が必要である。
場合について説明する。第15図において、O′(e)は
移動した視点位置である。この移動した点を原点とし、
O′(e)−O(w)線をZ′(e)軸とする新しい視
点座標系X′(e)−Y′(e)−Z′(e)を考え
る。表示基準座標系X(w)−Y(w)−Z(w)から
見た該新視点座標系の位置を既知とすると、X(e)−
Y(e)−Z(e)からX′(e)−Y′(e)−Z′
(e)への変換はマトリックスM4を介して可能である。
したがって、新視点座標系から見た構造点Piは、Pi
(e)′=M4・Pi(e)=M4・M1・M2-1・Pi(obj)で
表わされる。
(e)′に前述の正規透視投影変換マトリックスM3をか
けると、Pi′(np)が得られ、これを平行投影するとξ
i*(s)が得られる。ここで、表示基準座標系から見
た新視点座標系X′(e)−Y′(e)−Z′(e)の
位置が既知のため、ξi*(s)とO′(e)とを結ぶ
線がスクリーンと交わる点を求めることは容易である。
この点ξi′(s)がすなわち、視点O′から見たスク
リーンへの投影像である。このように、構造点Pi(ob
j)からξi′(s)へは4つの行列演算と平行投影な
どが必要である。
Z(w)において、対象座標系X(obj)−Y(obj)−
Z(obj)の位置が記述された表示対象、また対象座標
系において各構造点Pi(obj)の座標が記述された表示
対象は、任意の視点からスクリーンに透視投影できる。
しかし、上述のごとく、多くの行列演算を表示対象の構
成点の全てについて行なう必要があるため、計算時間が
膨大になる。マトリックスの演算はハードウェア化する
ことにより、かなり高速にはなるが、構成点の数が数10
00点以上になるとリアルタイムの処理が難しくなる。ま
た、表示対象の位置によって無駄な処理が多く行なわ
れ、処理速度を制限している。これについて以下に示
す。
Z(e)軸方向に見たものであり、第18図は第17図に示
した表示対象を示す図である。
る。表示対象は、第18図に示すように3次元構造をも
ち、構造点Piとその点がつくる構造面Liなどによって構
成されている。この表示対象が表示基準座標系において
近くにある場合を第17図(A)で示し、遠くにある場合
を第17図(B)で示し、それぞれobj1,obj2とする。第1
5図および第16図で説明した方法により、スクリーンS1
には表示対象h−obj1,h−obj2が投影される。各構成点
のスクリーン座標上の対応する画素に信号を送り表示す
ることができる。obj2は遠方にあるため、h−obj1に比
べて各構成点間の距離が小さい。この間隔が画素間隔よ
りも十分小さくなれば、その画素の中にはいるいくつか
の構成点を全て計算する必要がなくなる。また、人の目
には視力特性があり、スクリーンS1面においてこの眼の
分解能以下の間隔で各構成点を計算しても意味がない。
ず、また利用者の視力特性を考慮することなく、対象の
全ての構成点について計算するため、表示速度が遅くな
り、複雑な対象をリアルタイムで表示することが困難と
なる。
現する際に特に問題となる。立体視コンピュータグラフ
ィックスとは、利用者の右目,左目を視点として、3次
元表示対象を見たときのスクリーンへの透視画像を別々
に計算し、これを時分割などにより利用者の左右の各目
に対応したスクリーンに投影することにより、利用者に
立体的と感じさせる表示を行なう手法である。
識されるため、本来大きな物体(たとえば、ビルディン
グなど)は大きく、小さな物体(たとえば、虫など)は
小さくモデリングする必要が出てくる。立体視でないコ
ンピュータグラフィックスでは、物体を大きくモデリン
グしなくても視点の近くに配置することが大きく見せる
工夫が可能である。ところが、立体視では奥行き間隔が
視差情報により与えられるため、小さなものを手前にお
いても、大きな物体とは認識されず、そのとおり小さな
ものが手前にあるように見えてしまう。
は、その物体が視点の近くに来てスクリーン一杯に広が
る場合も想定すると細部に至るまで細かくモデル化する
必要がある。一方、該物体が視点から遠くに離れた場合
には、第17図(B)に示すように、スクリーンの一部分
にその全体が表示されるにもかかわらず、近くにある場
合と同じ計算量を必要とする不合理がある。
ついて述べたが、コンピュータグラフィックスがリアル
タイムであっても、応用によっては不都合がある。臨場
感通信では、仮想的な空間をコンピュータグラフィック
スにより人工的に作り、この中に実際に居る感覚で該仮
想空間とは様々な相互作用をすることになる。この際求
められるのは、単に高速というだけでなく、観測者の動
きに同期してスクリーンの画像を変化する特性である。
しかし、コンピュータグラフィックスでは画像を生成す
るための時間が必ず残るため、毎秒数10枚の画像を生成
し、表示できても、観測者の動きに対して各画像を生成
する遅れ時間があれば、違和感を生じ、仮想空間との一
体感が得られない。
信や立体視コンピュータグラフィックスに必要なリアル
タイムで精度の高いコンピュータグラフィックス表示
を、計算量を大幅に少なくすることにより実現し得る高
速画像生成表示方法を提供することである。
タグラフィックスなどにおいて、画像を生成してから表
示するまでの時間遅れを少なくし、違和感のない自然な
表示を実現し得る高速画像生成表示方法を提供すること
である。
くとも1つの基準として、異なる複数の詳細度で記述
し、(a)操作者の視点を検出し、(b)次の画像表示
時刻における操作者の視点を予測し、(c)予測した視
点から対象までの距離を少なくとも1つのパラメータと
して対象の詳細度を設定し、(d)設定された詳細度に
より指定される対象のモデルと、予測した視点とに基づ
いて対象を2次元画面に投影した画像を生成して表示
し、これらの(a)〜(d)を繰返すようにしたもので
ある。
点を検出しするとともに、次の画像表示時刻における操
作者の視点を予測し、予測した視点から対象までの距離
を少なくとも1つのパラメータとして対象の詳細度を設
定し、設定された詳細度により指定される対象のモデル
と予測した視点とに基づいて対象を2次元画面に投影し
た画像を繰返し生成して表示することにより、特に遠く
の物体について計算量を大幅に減らして高速化を図り、
自然な画像を得る。
1図に示した表示対象の階層的なモデリング例を示す図
である。
明する。ベクトルVO1,VO2はそれぞれ表示基準座標系X
(w)−Y(w)−Z(w)の原点O(w)から表示対
象obj1,obj2の対象座標系原点(obj1,obj2)へのベクト
ルである。また、第10図に示した従来例と比較して、異
なる点は表示対象の構造データの持ち方である。第2図
に表示対象の階層的なモデリング例を示す。第2図に示
した例では、表示対象は複数の構造点(k1j,k2j,k3j
…;j=1…)とこの構造点の集合により作られる構造面
(l1j)は4つの構造点により囲まれる面として定義さ
れる)などにより記述される。各構造点は対象座標系X
(obj)−Y(obj)−Z(obj)により表わされる。第
2図での階層の設定は、各構造点間の距離または構造面
の大きさが所定の大きさを越える毎に構造点の数を減ら
して行き、全体で3段階の階層としている。このよう
な、構造点と該点を結ぶ線分により表わされるデータ構
造をワイヤフレーム構造と呼ぶ。
れた表示対象の階層度を表示基準座標系の原点O(w)
からの対象座標系原点までの距離を1つのパラメータと
して適応的に選択して表示する。
の原点O(w)からの対象座標系原点までの距離を1つ
のパラメータとして適応的に選択して表示した例を示す
図である。第3図において、領域Th1,Th2,Th3は表示
基準座標系の原点O(w)からの距離が所定の値の領域
である。領域Th1の内側に対象座標系の原点を含む該対
象(たとえばobj1)は第2図(b)に示すモデリング階
層を用い、領域Th3の内側に対象座標系の原点を含む該
対象は第2図(c)を用いてそれぞれh−obj2,h−obj3
のように表示する。
近くにある場合には、スクリーンS1にはh−obj1のよう
に大きく、遠くにある場合にはh−obj3のように小さく
表示される。このときのモデリングの階層は近くにある
ときには細かく、遠くにあるときには粗く選択される。
したがって、観察者にはh−obj1およびh−obj3ともに
必要十分に精細に感じられる。obj2,obj3の透視投影変
換の計算速度はobj1の場合よりはるかに速く、したがっ
て、スクリーンS1全体を表示するに必要な計算量は従来
より大幅に少なくなる。この効果は、特に背景の表示対
象が複雑になるほど高くなる。実際の空間では観測者の
近くにある対象より、遠くにある対象の方がはるかに多
い。したがって、臨場感が高い画像を高速に生成するこ
とができる。
示基準座標系の原点O(w)からの対象座標系原点まで
の距離をパラメータとしたが、たとえば対象が大きい場
合、対象座標系原点から該対象の構造面までの距離が大
きくなるため、ある構造面と他の構造面との距離が大き
く離れ、一方は手前に、他方は遠くに位置することもあ
り得る。このような場合、対象座標系の原点以外の点ま
での距離をパラメータとして用いるほうが合理的なこと
がある。
形成されていて、各部分の構造物に個別の対象座標系を
設定できる例を示す図である。第4図において、表示基
準座標系の原点または視点位置はKで表わされ、主たる
対象座標系はCor−M−objで表わされ、この位置ベクト
ルはVOで表わされ、主たる対象座標系Cor−M−objの一
部または主たる対象座標系Cor−M−objに連結された対
象obj2の副対象座標系はCor−S−objで表わされる。主
たる対象座標系Cor−M−objからみて副対象座標系Cor
−S−objの位置はベクトルVO1で与えられる。この例で
は、対象obj2の位置はV0+Vo1=V2で表わされる。精細
と非精細のモデリング階層の分割を視点位置Kからの距
離Thにより行なうとする。対象obj2の原点O(obj2)は
距離Thの内側にあるため、構造点間の間隔が密なモデル
が選ばれる。対象obj1の原点O(obj1)は距離Thの外側
にあるため、粗なモデルが選ばれる。なお、対象obj1の
中の破線は選択されなかった候補点(線)である。
る。この第5図に示した実施例では、視点が眼球であ
り、移動する場合であって、説明の簡略化のために表示
対象を表示基準座標系で静止しているものとする。な
お、第5図の太い実線で示した部分が従来技術にない新
規な手段である。
で眼球の視点を検出する。対象座標系設定手段20は表示
基準座標系で表示対象の原点位置と回転角(角度)を指
定する。距離計算手段30は視点検出手段10の検出出力と
対象座標系設定手段20で指定された原点位置および回転
角に応じて、視点から対象座標系原点までの距離を計算
する。3次元階層化データベース80は表示対象物体の構
成面が領域の大きさを1つのパラメータとして階層的に
記述されている。構成点/構成面生成手段40は表示すべ
き対象座標系の原点位置と前述の距離とを入力として受
け、3次元階層化データベース80によって示される構成
面データを参照しながら、表示基準座標系において立体
構造を持つ3次元モデルを生成する。なお、第5図の点
線で示す部分は距離をパラメータとして階層度を選択す
る処理手段100を構成している。
を入力として、表示対象を2次元スクリーン画面に透視
投影する。表示画像生成手段60は3次元階層化データベ
ース80に対して物体の指定,構成面の指定,階層の指定
を行なうことによって得られる構成面データを参照しな
がら、対象の構成面に着色などの模様付けをする。表示
手段70はレンチキュラースクリーンなどが用いられ、対
象物体を表示する。なお、第5図に示した実施例では、
構成点/構成面を生成するにあたって、上述の距離によ
り構成面の精細度に重みづけを行なうが、この操作は構
成点/構成面生成手段40により、予め定められている基
準値Thと距離とを比較しながら、所定の階層の構成面を
3次元階層化データベース80から引き出すことによって
行なわれる。
るためのフロー図である。
的な動作について説明する。いま、前述の第1図および
第3図に示すように、表示基準座標系において、対象ob
j1,obj2,obj3は所定の位置にあるように見える画像をス
クリーン上に生成するものとする。視点の位置は瞳孔位
置であり、したがって、視点は動くものとする。また、
対象は説明の簡単のために表示基準座標系において静止
しており、対象の3次元構造データは第2図に示したよ
うに、対象座標系で記述されておりかつ構成面は領域の
大きさをパラメータとして階層化されている。
て、対象座標系設定手段20によって対象座標系原点の位
置ベクトルVobj-i=(Xobj-i,Yobj-i,Zobj-i)と対象
座標系の回転角Robj-i=(αobj-i,βobj-i,
γobj-i)とが設定されて処理手段100に与えられる。ス
テップSP2において、視点検出手段10によって検出され
た視点位置Voe=(Xoe,Yoe,Zoe)が処理手段100に与え
られる。処理手段100はステップSP3において、視点検出
手段10から与えられたその時刻における視点位置ベクト
ルVoeを読取り、対象座標系原点の位置ベクトルVobj-i
と視点位置ベクトルVoeとを用いて、2点間の距離dis
obj-i=|Vobj-i−Voe|を演算する。処理手段100はステ
ップSP4において、計算した距離disobj-iと基準値Th2と
比較する。処理手段100は距離disobj-iが基準値Th2より
も大きいことを判別すると、ステップSP5において、3
次元階層化データベース80から第3図に示した対象obj3
のように、第2図(c)に示した階層度の低いモデルを
選択する。そして、処理手段100は対象座標系原点の位
置ベクトルVobj-iの位置に、対象座標系の回転角Robj-i
の角度で3次元モデルを生成する。
sobj-iが基準値Th2よりも小さいことを判別すれば、ス
テップSP7において、2点間の距離disobj-iと基準値Th1
と比較する。処理手段100は2点間の距離disobj-iが基
準値Th1よりも大きいことを判別すると、ステップSP8に
おいて3次元階層化データベース80から第2図(b)に
示した階層度のモデルを選択し、ステップSP9におい
て、前述のステップSP6と同様にして3次元モデルを生
成する。さらに、処理手段100は2点間の距離disobj-i
が基準値Th1よりも小さければ、ステップSP10におい
て、3次元階層化データベース80から第2図(a)に示
した階層度の高いモデルを選択し、ステップSP11におい
て、3次元モデルを生成する。
デルが生成されると、透視投影変換手段50はその対象の
透視投影変換画像hobj-1,hobj-2,hobj-3を生成する。
ステップSP13において、表示画像生成手段は3次元階層
化データベース80に蓄積された各構成面の模様データを
読取り、2次元画面の対象構成面に模様付けする。この
ようにして生成された対象画像はステップSP14において
表示手段70に表示される。
ラメータとして用いる他の例を示す図であり、第8図は
階層的にモデリングされた表示対象を示す図である。
階層的にモデリングされており、さらに、第8図(c)
に示す階層の構成面a1,a2…aiは、その面の中心の位置
が対象座標系でVa1,Va2…Vaiのように表わされている
ものとする。第5図において、各構成面aiを作るには、
該構成面までの距離を対象座標系原点の位置ベクトルVO
と、中心位置Vaiの和として求め、該VO+Vaiを距離Th1,
Th2と比較して該構成面の階層を選択する。構成面a1に
は第8図(a)に示した表示対象が選択され、構成面a2
には第8図(b)に示す表示対象が選択され、構成面a3
には第8図(c)に示す表示対象が選択される。このよ
うにして対象座標系の任意の点までの距離をパラメータ
とすることができる。
(w)−Y(w)−Z(w)の原点O(w)を起点とし
て、対象座標系の任意の点までの距離をパラメータとし
たが、視点の原点(O(e)またはO′(e)など)を
起点としてもよい。この場合表示対象が動かなくても視
点が動いた場合、その都度階層度を変更する手数はある
が、対象の細部を認識する人の視力特性が視点からの距
離に大きく依存することを考慮すると、より合理的な階
層度選択ができるといえる。また、両眼立体視コンピュ
ータグラフィックスなどでは、表示対象がスクリーンS1
の手前に表示される場合もあるが、このような場合、第
1図に示したように、原点O(w)からの距離をパラメ
ータとすると、視点O(e)の近くにある物体にもかか
わらず、スクリーンS1のすぐ後ろ(奥)にある物体よ
り、粗い階層が選択されるという不合理も生ずることに
なる。したがって、計算の複雑さがあるが、視点から対
象座標系の原点までの距離をパラメータとする方法も有
効である。
とすることは、前述の第2図で説明したように、構造点
間の距離,構造面積,体積などというような領域に関す
る尺度が所定の大きさを越える毎にデータ数を減らして
いく階層化を意味する。また、領域の大きさ以外を他の
パラメータとしてもよい。たとえば、表示対象が人物像
のような場合、頬,鼻,耳などに比べて目や口元は人の
表情を決定する重要な部分である。したがって、これら
の部分は他の部分より精細にモデル化するのが合理的で
ある。このように、領域の大きさに加えて表示部分の意
味を重要度などをパラメータに加えることができる。
する点である場合の他、表示対象の部分領域の構造を規
定する特徴データであってもよい。たとえば、部分領域
が顔の頬ような自由曲面である場合、この領域のモデリ
ングには、自由曲面の記述式を用い、その式が表わす曲
面の制御パラメータを階層化データとして用いてもよ
い。一例として、第2図にドットで示す部分領域が曲面
である場合、これを記述するのにBezier曲面式を用い、
この制御点を階層化データとしてもよい。
わすことができる。Bezier曲線は次式で表わされる。
わす。Pjは制御点と呼ばれ、その位置が座標の形で与え
られる。Bezier曲線は制御点の線形結合の形をしてい
る。
る。第9図(a)に示した例は2次と3次(n=2,3)
の場合であり、次式で表わされる。
=1のとき、終りの制御点(n=2の場合はP2,n=3の
場合はP3)に到達する。曲線はこの間を制御点の近くを
滑らかに連結する。制御点の数を増やすことは、次数を
増やすことに相当し、曲線の表現力が増す。
される。
i,j+1の作用をなす。
す。3次の場合、POOからP33まで16個の制御点を用意し
ておくことにより、この間を滑らかに結ぶ自由曲面が生
成される。
述するに十分な制御点を選択すれば、細かい滑らかな表
面をもつ面となる。一方、部分領域を大きくとり、制御
点の数を少なくすれば、粗い表面の面となる。以上、部
分領域の中の制御点の数をパラメータとして階層化する
例を示した。
u,vの値の取り方により決まる。そこで、所定の制御点
を決めておき、u,vがとる間隔を階層パラメータとして
もよい。すなわち、第9図(d)において、制御点が16
個で一定としても、u,vの間隔Δの決め方によって構成
面は粗にも密にもある。間隔Δを小さくすれば該構成面
は第9図(d)よりさらに分割され、小さな構成面が多
く生ずる。このように、Δをパラメータとして領域の大
きさを階層化することもできる。
すように、ワイヤフレームを透視投影した点と線を表示
する単純な方法の他に、構造面には色データを用意し
ておき、表示の際に色づけする。各構造面にはテクス
チャマップと呼ばれる絵柄をデータとして用意してお
き、この絵柄を構造面の方向、位置によって回転,移
動,縮小,拡大などの処理を施してスクリーン上に表示
する。表示基準座標系において、所定の所に光源を仮
定し、視点からみた各構成面の該光による陰影を構成面
ごとに計算して表示することなどが可能である。
化する場合について説明する。この石膏像を細部までわ
かるようにモデル化するためには、制御点の数は約5000
必要であった。すなわち、この5000個の制御点を第9図
(d)に示すように、4×4の制御点のかたまりに分割
し、さらに、この4×4の制御点で決まる部分領域内を
u,vの値を選ぶことにより10分割して細分化する。この
ようにして、50万個の構造点による構造面が形成され
る。この程度分割して表示面を作ると、細部まで細かく
認識できる画像が得られる。
は数10〜100程度でよく、さらにu,vも数分割でよい。つ
まり、100程度の構造点で表現できる。このように、人
物程度の対象でも表示する環境,必要性により100〜数1
000倍のデータ量の差がある。つまり、階層化は、領域
の大きさに関して、多様に選択可能である。
するためのブロック図である。この第10図に示したブロ
ック図は、以下の点を除いて前述の第5図と同じであ
る。すなわち、処理手段101は、第5図に示した処理手
段100に比べて対象の構成面の階層上位を生成する手段3
1が設けられるとともに、距離形成手段32は視点から対
象構成面の基点までの距離を計算する。生成手段31はた
とえば第3図に示した対象obj1,obj2,obj3の主たる面を
生成する。ここで、主たる面とは。第8図(c)または
(d)に示すような粗いモデルの構成面である。第8図
においては、各構成面の位置は対象座標系において構成
面の中心(基点)までのベクトルで表わされており、構
成面の角度はその面の法線方向が位置ベクトルとなす角
度で表わされている。対象座標系で表わされた構成面ob
j−i−jは対象座標系の位置Vobj-iおよび角度Robj-i
がわかれば簡単な座標変換で求めることができる。
のフロー図である。この第11図に示したフロー図は、こ
の前述の第6図に示したフロー図に、新たにステップSP
21が設けられるとともに、ステップSP3に代えてSP22が
設けられる。ステップSP21においては、ステップSP1で
対象座標系設定手段20によって対象座標系位置Vobj-iと
角度Robj-iが設定されると、各対象obj−iについて、
対象座標系位置Vobj-iに角度Robj-iで階層度(c)の3
次元モデルが生成され、対象obj−iの各構成面jの基
点位置Vobj-i-jが計算される。ステップSP2において視
点検出手段10によって視点位置Voeが検出されると、ス
テップSP22において、処理手段101の距離計算手段32は
視点から各対象の各構成面の基点までの距離disobj-i-j
=|Vobj-i-j−Voe|を計算する。そして、ステップSP4
〜SP11において、距離が基準値Thk(k=1,2)と比較さ
れる。それ以外の動作は第6図と同じである。
図において、表示対象obj1,obj2は第8図に示したもの
と同じである。各構成点,構成面データは、その対象の
対象座標系X(obji)−Y(obji)−Z(obji)を表示
基準座標系X(w)−Y(w)−Z(w)の関係が既知
であれば、表示基準座標系で表わすことができる。2つ
の視点O(e)R,O(e)Lは、各観察者の左右眼球光
学系の主点に対応する。また、O(e)Rの添字(−
0)は現在の視点であり、(+1)は次に移動する視点
であり、(−1),(−2)はそれぞれ前の視点であ
る。第12図では、毎秒10〜30枚程度の画像が生成表示さ
れる場合を示しており、したがって、(+1)(0)
(−1)(−2)の各点は100〜33msec程度の間隔であ
る。位置ベクトルV(obj1),V(obj2)は視点から見た
表示対象の対称座標系原点の位置ベクトルである。この
位置ベクトルの長さ、すなわち距離は簡単に求めること
ができる。
場合のように、該距離で決めることとする。視点がO
(e)R(0)の位置にあるとき、表示対象obj1,obj2
のモデルはV(obj1)(0),V(obj2)(0)の長さに
よってそれぞれ第6図(c),(d)に示した表示対象
が選択され、スクリーンS1にh−obj1−R(0),h−ob
j2−R(0)のように投影される。
点位置は瞳孔の中心位置に近いため、瞳孔を2台のカメ
ラでとらえることができれば、ステレオ画像計測などに
より、表示基準座標系でこの位置を求めることが容易で
ある。なお、瞳孔の効率的な抽出方法については、本願
発明者らによる「画像撮影装置」(特願平1−18138
7),瞳孔の位置計測については「視線検出方式」(特
願平1−296900)を用いることによって可能となる。
眼球の回転運動は視力と密接な関係にある。頭部が固定
された状態で視標がゆっくり動くとき、視線は視標の動
きに連動して同じ方向に滑らかに動く。逆に固定された
視標を注視しながら頭部を動かすと視線は逆の方向に滑
らかに動く。このように、視線が滑らかに動くとき、人
の視力は停止した視標を観察した場合と大きな変化はな
い。また、このとき、表示基準座標系で見た瞳孔の動き
も滑らかである。したがって、瞳孔の位置,速度などの
軌跡から瞳孔の次の動きを予測することは可能である。
そこで、そのような予測された瞳孔の位置を視点として
表示対象の透視画像を予め生成しておくことにより、瞳
孔の動きに同期して、すなわち遅れ時間なしで表示が可
能である。
1),O(e)R(−0)は滑らかに変化する瞳孔の位置
である。この位置データから次の画像が表示される前記
100〜33msec後の視点の位置O(e)R(+1)を予測
することは可能である。第12図では、視点は時間ととも
にスクリーンに、すなわち、表示対象に近づいており、
したがって、V(obj1)(+1)、V(obj2)(+1)
の長さは短くなっている。したがって、モデルの階層は
表示対象obj1については第8図(b)が選択され、表示
対象obj2については第8図(b)が選択される。したが
って、O(e)R(+1)から見たスクリーンS1への透
視投影画像として、第12図に示すようなh−obj1−R
(+1),h−obj2−R(+1)が準備される。この画像
はh−obj1−R(0),h−obj2−R(0)に比べ1つ階
層が上がった分だけ精細になっている。この画像は100
〜30msec後に提示されるため、観測者には表示遅れによ
る違和感が生じない。
急に動いた場合、瞳孔の予測位置は異なるため、この方
法は一見不合理と感じられる。しかし、以下のような理
由により、問題はない。すなわち、前述のごとく、視力
は視線の動きと密接であり、視線が急に変化したとき、
人の視力は低下し、回復するのに200msec以上の時間を
必要とする。したがって、仮に予測した視点が間違って
いる場合でも、生成され表示された画像について観測者
の視力が大きく低下しているため違和感は生じない。視
力が回復するまでに、正しい瞳孔位置を計測し、その点
からの透視投影画像を生成して表示すればよい。
従してリアルタイムで生成される。したがって、観察者
は頭部を動かし、表示対象objを上下,左右様々な方向
から見ることができる。また、2つの画像は視差情報を
もっているので、この対象を立体的に知覚することがで
きる。
に、両眼立体視表示装置を用いることができる。この装
置の具体例については、本願発明者らによる「立体表示
装置」(特願平2−18051)などが可能である。この装
置の構成は、表示面にレンチキュラーレンズと称される
蒲鉾状レンズシートを設け、その各レンズの背面には焦
点を挟んで両側に右目用の画素,左目用の画素を配置し
たものである。すなわち、2つの画素は1組として1つ
の蒲鉾レンズに対向して配置される。2つの画素から出
る光はそのレンズにより空間的に分離され、観測者の左
右の目に別々に入射する。このようにして、特別な装置
を装着することなく立体視が可能となる。
ロック図である。この実施例は、第12図に示した原理に
基づいて、視点の動きに同期して画像を生成して表示す
る。このために、この実施例は、前述の第10図に示した
実施例に比べて新たに予測視点検出手段11と、視点の動
きのデータベース12と、対象座標系原点と予測視点との
距離計算手段33と、1画面先における対象の構成点/構
成面生成手段41と、1画面先の表示時刻における2次投
影画面を生成する透視投影変換手段51とが設けられる。
予測視点検出手段11は視点検出手段10の検出出力に応じ
て、視点の振る舞いに関するデータベース12を参照しな
がら、次の画像表示時刻における視点、すなわち瞳孔の
位置を推定する。対象座標系原点と予測視点との距離計
算手段33は対象座標系原点の位置とその予測された視点
との間の距離を計算する。構成点/構成面生成手段41は
生成手段40と同様にして、対象座標系設定手段20によっ
て指定される対象座標系の位置に3次元モデルを生成す
る。そして、生成手段41は距離計算手段33によって予測
された距離と基準値Thを比較しながら、3次元階層化デ
ータベース80から適当な階層の構成面データを取り込
み、次の画面の表示時刻における3次元モデルを生成す
る。透視投影変換手段51は次の画面の表示時刻における
2次元投影画面を生成する。それ以外の動作は前述の第
5図と同じであるため説明を省略する。
図に示した例は、コンピュータグラフィックス画像を臨
場感豊かに観測できるようにしたものである。視点は瞳
孔または虹彩の中心位置に対応している。この視点また
は視線は図示しない視線検出装置によって視点検出1が
行われるとともに、図示しない検出装置によって手の位
置および形状の検出2が行われる。これらのデータは意
図理解処理部3に与えられて解析され、観測者の注視し
ている対象および次に行なおうとしている作業などが推
定される。この情報を基にして、3次元形状データベー
ス4を参照しつつ3次元モデル世界6の更新5が行なわ
れ、3次元モデル世界6が高速で生成され、実時間立体
コンピュータグラフィックスによって画像生成7が行な
われ、スクリーン8に投影変換され、実時間でスクリー
ンに表示される。
原点または視点から遠くにある物体について計算量を大
幅に減らすことができる。逆に、この余った時間で近く
にある物体について細かい部分まで精細に計算できる。
これらにより、高速で品質の高い画像生成表示が可能と
なる。また、この発明は背景が複雑になるほど効果的で
ある。一例として、会議室をコンピュータグラフィック
スで生成し、その会議室の中に人物像を生成する臨場感
会議などへの利用では、複雑になる背景を粗くモデル化
するため、数100倍の高速化が期待できる。しかも、瞳
孔を視点とし、この動きを予測した表示により、眼球の
動きに同期した画像が生成されるため、画像表示の遅れ
による違和感が少なく、画像との一体感が向上した質の
高い運動視コンピュータグラフィックス画像表示が可能
となる。さらに、両眼立体視コンピュータグラフィック
スについても高速・高品質な表示が可能となる。さら
に、この発明によれば、臨場感豊かな知的符号化通信の
コンピュータグラフィックス処理部分,立体視コンピュ
ータグラフィックスに特に利用効果が大きい。その他高
速性と高品質性を要求される多くのコンピュータグラフ
ィックス分野に利用可能である。
2図は第1図に示した表示対象の階層的なモデリングを
示す図である。第3図は表示座標系の原点O(w)から
の対象座標系原点までの距離を1つのパラメータとして
階層を適応的に選択して表示した例を示す図である。第
4図は表示対象が大きく複数の構造物の組合わせで形成
されていて、各部分構造物に個別の対象座標系を設定で
きる例を示す図である。第5図はこの発明の一実施例の
概略ブロック図である。第6図は第5図に示した実施例
の動作を説明するためのフロー図である。第7図は対象
座標系において原点以外の点の距離をパラメータとして
用いる他の例を示す図である。第8図は階層的にモデリ
ングされた表示対象を示す図である。第9図は2次およ
び3次のBezier曲面を示す図である。第10図はこの発明
の他の実施例を示す概略ブロック図である。第11図は第
10図に示した実施例の動作を説明するためのフロー図で
ある。第12図はこの発明の他の例を示す図である。第13
図は第12図に示した例を実現するためのブロック図であ
る。第14図はこの発明の応用例を示す図である。第15図
は従来の代表的な3次元画像生成表示方法を示す図であ
る。第16図は第15図に示した座標系をY(w)軸上から
見た図である。第17図は第15図に示した座標系をY
(e)軸上でかつZ(e)軸方向に見たものである。第
18図は第17図に示した表示対象を示す図である。 図において、obj1は表示基準座標系で既知な表示対象,P
i(obj)は対象座標系で示された表示対象の構造点、S1
はスクリーン、h−objは透視投影画像、O(e)は視
点、epはスクリーン注視点、eoは空間注視点、Thは階層
選択基準を示す。
Claims (1)
- 【請求項1】立体構造を持つ対象を、面の大きさを少な
くとも1つの基準として、異なる複数の詳細度で記述
し、 (a)操作者の視点を検出し、 (b)次の画像表示時刻における操作者の視点を予測
し、 (c)予測した視点から対象までの距離を少なくとも1
つのパラメータとして対象の詳細度を設定し、 (d)設定された詳細度により指定される対象のモデル
と、予測した視点とに基づいて対象を2次元画面に投影
した画像を生成して表示し、 前記(a)〜(d)を繰返すことを特徴とする、高速画
像生成表示方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2098948A JPH0831140B2 (ja) | 1990-04-13 | 1990-04-13 | 高速画像生成表示方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2098948A JPH0831140B2 (ja) | 1990-04-13 | 1990-04-13 | 高速画像生成表示方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH03296176A JPH03296176A (ja) | 1991-12-26 |
JPH0831140B2 true JPH0831140B2 (ja) | 1996-03-27 |
Family
ID=14233325
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2098948A Expired - Lifetime JPH0831140B2 (ja) | 1990-04-13 | 1990-04-13 | 高速画像生成表示方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0831140B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9778464B2 (en) | 2013-02-19 | 2017-10-03 | Mirama Service Inc. | Shape recognition device, shape recognition program, and shape recognition method |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0737119A (ja) * | 1993-07-19 | 1995-02-07 | Nec Corp | 分子情報の図形表示方法 |
TW335466B (en) * | 1995-02-28 | 1998-07-01 | Hitachi Ltd | Data processor and shade processor |
JP3529138B2 (ja) | 1995-04-27 | 2004-05-24 | 株式会社セガ | 画像処理装置、画像処理方法及びこれを用いたゲーム装置並びに記憶媒体 |
JP3792202B2 (ja) * | 2003-02-12 | 2006-07-05 | 富士通株式会社 | 三次元画像表示方法及びそれに使用する三次元画像表示装置 |
JP2011070387A (ja) * | 2009-09-25 | 2011-04-07 | Mitsubishi Electric Corp | 3次元形状表示装置およびプログラム |
JP2017018245A (ja) * | 2015-07-09 | 2017-01-26 | 株式会社スクウェア・エニックス | ビデオゲーム処理プログラム及びビデオゲーム処理装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2667835B2 (ja) * | 1987-10-09 | 1997-10-27 | 株式会社日立製作所 | コンピユータグラフイツクス表示装置 |
-
1990
- 1990-04-13 JP JP2098948A patent/JPH0831140B2/ja not_active Expired - Lifetime
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9778464B2 (en) | 2013-02-19 | 2017-10-03 | Mirama Service Inc. | Shape recognition device, shape recognition program, and shape recognition method |
Also Published As
Publication number | Publication date |
---|---|
JPH03296176A (ja) | 1991-12-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20240265650A1 (en) | Head-mounted display with pass-through imaging | |
Holloway | Registration errors in augmented reality systems | |
EP3057066B1 (en) | Generation of three-dimensional imagery from a two-dimensional image using a depth map | |
Manetta et al. | Glossary of virtual reality terminology | |
US8217990B2 (en) | Stereoscopic picture generating apparatus | |
US20050083248A1 (en) | Mobile face capture and image processing system and method | |
Ohya et al. | Real-time reproduction of 3D human images in virtual space teleconferencing | |
CN115176215A (zh) | 用于空间计算的逼真角色配置 | |
US20140160122A1 (en) | Creating a virtual representation based on camera data | |
JP5833526B2 (ja) | 映像コミュニケーションシステム及び映像コミュニケーション方法 | |
US6501468B1 (en) | Stereoscopic display device and recording media recorded program for image processing of the display device | |
JPH0831140B2 (ja) | 高速画像生成表示方法 | |
Saraiji et al. | Real-time egocentric superimposition of operator's own body on telexistence avatar in virtual environment | |
JPH07101461B2 (ja) | 視線追従形高速画像生成表示方法 | |
JP2020031413A (ja) | 表示装置、移動体、移動体制御システム、これらの製造方法、および映像の表示方法 | |
KR20220131762A (ko) | 가상현실에서 정교한 3 차원 조작을 위한 가상 거울의 자동 제어 방법 및 그를 위한 장치 | |
Pastoor et al. | Mixed reality displays | |
Liu et al. | Depth perception optimization based on multi-viewing spaces | |
CN113409469A (zh) | 一种融合现实互动系统和方法 | |
JPH05250445A (ja) | 三次元モデルデータ生成装置 | |
Hopf et al. | Novel autostereoscopic single-user displays with user interaction | |
CN117193530B (zh) | 基于虚拟现实技术的智能座舱沉浸式用户体验方法及系统 | |
JP7527081B1 (ja) | 画像表示システム | |
WO2023040551A9 (zh) | 一种在显示屏上显示图像的方法、电子设备与装置 | |
Yoon et al. | Real Space 3D Mesh Transformation Preprocessing System for AR Services |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080327 Year of fee payment: 12 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090327 Year of fee payment: 13 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100327 Year of fee payment: 14 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100327 Year of fee payment: 14 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110327 Year of fee payment: 15 |
|
EXPY | Cancellation because of completion of term | ||
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110327 Year of fee payment: 15 |