[go: up one dir, main page]

JP2004227073A - Information selection method and information selection program - Google Patents

Information selection method and information selection program Download PDF

Info

Publication number
JP2004227073A
JP2004227073A JP2003011204A JP2003011204A JP2004227073A JP 2004227073 A JP2004227073 A JP 2004227073A JP 2003011204 A JP2003011204 A JP 2003011204A JP 2003011204 A JP2003011204 A JP 2003011204A JP 2004227073 A JP2004227073 A JP 2004227073A
Authority
JP
Japan
Prior art keywords
user
information
virtual
information selection
model house
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003011204A
Other languages
Japanese (ja)
Inventor
Hiroyuki Yamada
裕之 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fukui Computer Holdings Inc
Original Assignee
Fukui Computer Holdings Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fukui Computer Holdings Inc filed Critical Fukui Computer Holdings Inc
Priority to JP2003011204A priority Critical patent/JP2004227073A/en
Publication of JP2004227073A publication Critical patent/JP2004227073A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】本発明は、リアルな疑似体験(バーチャルウォークスルー)を可能とする情報選出方法及び情報選出プログラムを提供することを課題とする。また、本発明は、仮想空間から現実空間をイメージすることができる情報を選出する情報選出方法、及び情報選出プログラムを提供することを課題とする。
【解決手段】本発明における情報選出プログラム20では、マウス8やジョイスティックの操作により、仮想モデルハウス内におけるユーザ位置及びユーザの視線方向の移動指示を受け付ける処理と、ユーザ位置及びユーザの視線方向、即ち、マウス8操作に伴うポインタの動作に基づき仮想モデルハウスにおけるユーザの仮想視界を求める処理とが実行される。
【選択図】 図1
An object of the present invention is to provide an information selection method and an information selection program that enable a realistic simulated experience (virtual walkthrough). It is another object of the present invention to provide an information selection method and an information selection program for selecting information capable of imaging a real space from a virtual space.
According to an information selection program (20) of the present invention, a process of receiving a movement instruction of a user position and a user's line of sight in a virtual model house by operating a mouse (8) and a joystick; And a process of obtaining a virtual view of the user in the virtual model house based on the operation of the pointer accompanying the operation of the mouse 8.
[Selection diagram] Fig. 1

Description

【0001】
【発明の属する技術分野】
本発明は、ユーザがコンピュータの画面に表示された仮想空間を仮想移動する際に伴う情報の選出方法及び選出プログラムに関する。
【0002】
【従来の技術】
近年、三次元コンピュータグラフィックス(Computer Graphics:以下、CGと称す)が一般化されてきている。このCGは、コンピュータの表示画面上に仮想空間を表示し、この仮想空間をユーザが仮想移動するバーチャルウォークスルーを可能にした。
【0003】
バーチャルウォークスルーを好適に利用することができる例として、モデルハウスのバーチャル見学を挙げることができる。
【0004】
従来のモデルハウスのバーチャル見学では、ユーザがマウスなどのポインティングデバイスをコンピュータの画面に表示された仮想モデルハウス内で移動させる。このポインティングデバイスはユーザの視点に相当するものであり、ポインティングデバイスの移動に伴い、ユーザがあたかもモデルハウス内を移動しているかのように、コンピュータに表示される画面が変化するようになっていた。
【0005】
また、従来のモデルハウスバーチャル見学では、ポインティングデバイスを仮想モデルハウス内の家具や建具に設定すると、それらの属性情報が画面にポップアップ表示されるようになっていた。
【0006】
このようなモデルハウスバーチャル見学により、ユーザは実際にモデルハウスに出向くことなく、ユーザのコンピュータを利用してモデルハウスの見学をリアルに体験することができた。
【特許文献1】
特開2002−269591号公報
【0007】
【発明が解決しようとする課題】
ところが、従来のモデルハウスのバーチャル見学では、ポインティングデバイスをコンピュータに表示された仮想モデルハウス内の家具や建具の部品上に設定しなければ、それらの属性情報を見ることができなかった。
【0008】
そのため、モデルハウス見学を仮想空間で行っているにも係わらず、パソコンの操作という現実の操作を行うことにより、モデルハウスの見学をより現実に近い状態で体験することができなかった。
【0009】
また、実際のモデルハウスでは、キッチン壁に汚れ難く掃除し易いタイルを用いたり、床の光沢を抑えて落ち着いた雰囲気としたり、使用頻度の高い建具の把手を大きめにしたりと、種々の工夫をしている。
【0010】
しかし、従来のモデルハウスのバーチャル見学では、当然モデルハウス及びモデルハウス内部に設置された家具や建具がCGで作成されるため、微妙な質感や、建具のディテールまで、忠実に再現することは困難であった。そのため、バーチャル見学で得られる情報量が少なく、実際の雰囲気や住み心地などをイメージしにくいという傾向があった。
【0011】
そこで、本発明は、上記事項に鑑みてなされたものであり、リアルな疑似体験を可能とする情報選出方法及び情報選出プログラムを提供することを課題とする。
【0012】
また、本発明は、仮想移動時に表示する情報を適切に選出する情報選出方法、及び情報選出プログラムを提供することを課題とする。
【0013】
【課題を解決するための手段】
本発明は、前記課題を解決する為に以下の手段を採用した。すなわち、本発明は、表示手段を有するコンピュータに表示される仮想空間内を指示手段の操作に応じてユーザの仮想移動を行う際に、前記仮想空間内の特定位置及び特定方向と対応付けた情報を該ユーザの移動に応じてコンピュータが選出する方法であって、前記ユーザの移動指示を受け付けるステップと、前記仮想空間内におけるユーザ位置及び前記ユーザの視線方向に基づき前記仮想空間におけるユーザの仮想視界を求めるステップと、前記仮想視界を前記表示手段に表示するステップと、前記情報が対応付けられた位置と、前記ユーザ位置とを比較するステップと、前記情報が対応付けられた方向と、前記ユーザの視線方法とを比較するステップと、前記比較の結果、前記情報が対応付けられた位置から所定の範囲内に前記ユーザが位置し、前記ユーザの視線方向と前記情報が対応付けられた方向とが所定角度以内である場合に、前記情報を選出するステップと、を含む。
【0014】
指示手段としては、パソコンの操作を行うマウスやトラックパッド等を好適に用いることができる。これらの指示手段を操作すると、仮想空間上のユーザの位置を移動させ、これに伴い表示手段上に表示される仮想視界も移動する。
【0015】
これによって、ユーザは、あたかも自分の目で現実空間を視認しているかのごとく仮想空間内を視認することができる。
【0016】
また、ユーザの位置又は視線が、仮想空間内の特定位置及び特定方向に近づくとこれらに対応付けられた情報が選出され表示されることにより、ユーザは特別な操作なしで様々な情報を得ることができる。
【0017】
また、本発明は、前記情報が、前記仮想空間で想定している空間において、前記特定位置に相当する位置から前記特定方向に相当する方向を撮影した画像であることを特徴とする。
【0018】
例えば、仮想空間がモデルハウスである場合、画像は、モデルハウスの外観やモデルハウス内部の建具等をデジタルカメラなどで撮影した画像である。
【0019】
また、本発明は、前記ユーザの位置と前記特定位置との間に、遮蔽物が存在する場合には前記情報を選出しないことを特徴とする。尚、遮蔽物は、壁、床、天井などの躯体であると好ましい。
【0020】
これにより、目標物と視点との間に遮蔽物があっても遮蔽物を透過し目標物が見えてしまうという状態を防ぐことができる。つまり、本発明によれば、仮想空間をモデルハウスとすると、壁があるのに隣の部屋の情報が選出されたり、天井があるのに二階の部屋の情報が選出されたりすることを防ぐことができる。これによって、ユーザは、仮想空間内において、よりリアルな仮想移動を行うことができる。
【0021】
また、本発明は、表示手段を有するコンピュータに表示される仮想空間内を指示手段の操作によりユーザが仮想移動する際に、前記仮想空間内の特定位置及び特定方向と対応付けた情報を該ユーザの移動に応じて選出するプログラムでもある。
【0022】
このプログラムは、コンピュータが、前記ユーザの移動指示を受け付けるステップと、前記仮想空間内におけるユーザ位置及び前記ユーザの視線方向に基づき前記仮想空間におけるユーザの仮想視界を求めるステップと、前記仮想視界を前記表示手段に表示するステップと、前記情報が対応付けられた位置と、前記ユーザ位置とを比較するステップと、前記情報が対応付けられた方向と、前記ユーザの視線方法とを比較するステップと、前記比較の結果、前記情報が対応付けられた位置から所定の範囲内に前記ユーザが位置し、前記ユーザの視線方向と前記情報が対応付けられた方向とが所定角度以内である場合に、前記情報を選出するステップとを実行するプログラムである。
【0023】
また、本発明の情報選出プログラムは、前記情報が、前記仮想空間で想定している空間において、前記特定位置に相当する位置から前記特定方向に相当する方向を撮影した画像であることを特徴とする。
【0024】
さらに、本発明の情報プログラムは、前記ユーザの位置と前記特定位置との間に、遮蔽物が存在する場合には前記情報を選出しないことを特徴とする。
【0025】
また、本発明の情報プログラムは、前記遮蔽物が、壁、床、天井などの躯体であると好ましい。
【0026】
また、本発明における情報選出プログラムは、ユーザ端末で実行されるだけでなく、インターネットなどのネットワークを介して接続されたサーバで実行してもよい。
【0027】
【発明の実施の形態】
以下、本実施形態における情報選出方法及び情報選出プログラムの説明を行う。
【0028】
本実施形態の情報選出プログラムは、表示部(表示手段)を有するユーザ端末に表示される仮想モデルハウス内を指示部(指示手段)の操作により仮想移動(以下、ウォークスルーと称す)する際に情報を選出する。
【0029】
本実施形態の情報選出プログラムは、仮想モデルハウスの見学ウォークスルーをユーザ端末上で行うための主要なプログラムと共に実行されるプログラムである。
(1)ハードウェア構成
【0030】
まず初めに、本実施形態の情報選出プログラムが実行されるユーザ端末のハードウェア構成から説明する。
【0031】
図1に本実施形態におけるユーザ端末1のハードウェア構成のブロック図を示す。図1に示すように、本実施形態のユーザ端末1は、既存のパソコンの構成と同様の構成である。
【0032】
本実施形態のユーザ端末1は、各種プログラムを実行しユーザ端末1の制御を行うCPU(中央処理装置)2と、ユーザ端末1の制御に必要なプログラムが格納されたROM(Read Only Memory)3と、CPU2での処理を一時的に記憶するRAM(Random Access Memory)4と、各種データやプログラムを格納するHD(Hard Disk)5と、処理内容をユーザに視認させるべき表示部6と、ユーザが各種データを入力する入力部7と、ユーザ端末1における各種操作を行う操作部8とを備えている。
【0033】
表示部6には、CRT(Cathod−ray Tube)や液晶表示装置が好適に使用される。
【0034】
入力部7には、キーボードを好適に用いることができる。キーボードは、ユーザにより各種条件やデータを入力する入力デバイスとして使用される。
【0035】
操作部8には、マウスやジョイスティックを好適に用いることができる。マウスとジョイスティックは、表示部6に表示された画面上のポインタを操作するポインティングデバイスとして使用される。これらを用いて操作することによりポインタを円滑に操作することができる。
【0036】
HD5は、各種データのみを格納するデータフォルダ9と、各種プログラムのみを格納するプログラムフォルダ10とを有している。
【0037】
以上が、本実施形態のユーザ端末1のハードウェア構成である。
(2)データ構造及びプログラム説明
【0038】
次に、本実施形態におけるHD5に格納された各種プログラム及び各種データのデータ構造について説明する。
【0039】
本実施形態のHD5内に格納されたデータフォルダは、モデルハウスの形状・内装・外装・間取り・見積もり等モデルハウスの仕様に関するデータを格納する仕様データファイル11,3DCGで作成したモデルハウスのデータを格納する3DCGモデルハウスデータファイル12,モデルハウス内に設置する家具やオプション等の建具の3DCGのデータを格納する3DCG建具データファイル13,建具のメーカ・サイズ・色・材質等の属性データを格納する属性データファイル14,建具を実際に撮影したときの画像データファイル15等を有している。
【0040】
さらに、データフォルダは、建具を実際に撮影した撮影点の位置情報を格納する撮影点位置データファイル16と、マウス8やジョイスティックの操作に伴うポインタの位置情報、即ち、現実空間におけるユーザの位置に関する位置情報を格納する視点位置データファイル17とを有している。
【0041】
これらの撮影点位置データファイル16及び視点位置データファイル17内に格納された各位置情報は、例えばSVG(Scalable Vector Graphics)ビューア等の平面上での座標と方向線分とを含んでいる。
【0042】
即ち、撮影点の位置情報には、撮影点の位置(座標)と、該撮影点から撮影した方向の情報が含まれている。
【0043】
プログラムフォルダ10には、仮想モデルハウスの見学(ウオークスルー)を行うためのウォークスループログラム19と、このプログラムの実行に伴い情報を選出するための情報選出プログラム20と、ユーザ端末1の表示部6で仮想モデルハウスのウォークスルーを行う際の画面・画像の制御を行う画像表示プログラム21とが格納されている。
【0044】
画像表示プログラム21は、例えば、SVGビューア上での位置情報取得処理プログラム、SVGビューアの平面図上への視点位置描画処理プログラム、SVGビューア上への視点方向線分描画処理プログラム、SVGビューア上の視点方向線分に基づくXVL(eXtensible Virtual world description Language)3ビューアの視点情報変更処理プログラム、その他の各種画像表示視点変換プログラムが格納されている。
【0045】
ウォークスループログラム19は、作成された3DCG仮想モデルハウスデータを読み込んで、ユーザが仮想モデルハウス内の仮想見学を体験することができるようにするプログラムである。
【0046】
情報選出プログラム20は、ウォークスループログラム19に基づいて行われるウォークスルーに伴いユーザに供給する情報を適宜に選出する処理を行うプログラムである。
【0047】
例えば、視点が変われば3DCG仮想モデルハウスデータのデータ順も通常変わることになる。つまり、画面上でポインタが移動することにより3DCG仮想モデルハウスデータのデータ順が変わる。そこで、本実施形態の情報選出プログラム20では、ユーザがユーザ端末1の表示部6に表示されている3DCGモデルハウス内でのユーザの視点又は位置の情報(マウス,ジョイスティックによる画面上の指示位置)を認識すると、当該視点の位置情報に基づく可視可能な範囲のチェック処理を行う。
【0048】
これらの処理によって、視点がどの位置にあっても正しくソートされるように、自分がいる位置からモデルを見たときに、手前からどういう順に並んでいるか、即ちポリゴン単位で視点から遠いものから順に描いていくZソートを実現することができる。
【0049】
そこで、情報選出プログラム20は、ユーザの視点又はユーザの位置に対応する画面を表示部6に表示する処理を実行する。
【0050】
以上が、本実施形態における各種プログラム及び各種データの説明である。
(3)画像選出原理
【0051】
次に、本実施形態における情報選出プログラム20によって画面上に適宜情報を表示する選出原理を説明する。
【0052】
図2に仮想モデルハウス見学ウォークスルーのイメージ図を示す。図2中における黒丸(●)はユーザの視点(ユーザ位置)、白丸(○)は撮影点であり、矢印はこれらの方向(視線方向或は撮影方向)を示す。また、黒太線はモデルハウス内の壁(躯体)を表す線分である。
【0053】
撮影点の位置情報には、撮影位置の座標,撮影方向,この位置からこの方向に向かってデジタルカメラ等により現実のモデルハウス又はモデルハウス内の建具等を撮影した画像の情報(画像データファイルのファイル名)が含まれている。
【0054】
本実施形態の情報選出プログラム20は、[1]撮影点の位置と視点の位置との間に遮蔽物がない,[2]撮影点の方向と視点の方向との差が小さい,[3]撮影点の位置と視点の位置との差が小さい、という条件に基づき現実のモデルハウス又はモデルハウス内の建具などを撮影した画像の情報を選出する。
【0055】
[1]撮影点の位置と視点の位置との間に遮蔽物がないという条件で画像を選出する場合
【0056】
図3に、撮影点の位置と視点の位置との間に遮蔽物がないという条件で画像を選出する場合の仮想モデルハウス見学ウォークスルーのイメージ図を示す。図3には、撮影点A,B,C,Dと視点Pと壁を表す黒太線Hとが表示されている。
【0057】
情報選出プログラム20は、座標上に表示された視点の位置と各撮影点の位置とを線(図3中に示す破線L1,L2,L3,L4)で結ぶ処理を行う。
【0058】
このとき、情報選出プログラム20は、破線と壁を表す線分とが交わり交点ができていると判断すると、その破線の一端である撮影点の画像選出処理は行わない。図3中では、撮影点Dがこの撮影点に相当する。視点Pと撮影点Dとを結ぶ線を破線L4とすると、破線L4と黒太線Hとが交り交点ができている。そのため、撮影点Dに含まれた画像の情報は選出されない。
【0059】
[2]撮影点の方向と視点の方向との差が小さいという条件で画像を選出する場合
【0060】
図4に、撮影点の方向と視点の方向との差が小さいという条件で画像を選出する場合の仮想モデルハウス見学ウォークスルーのイメージ図を示す。図4には、図3と同じく撮影点A,B,Cと視点Pと壁を表す黒太線Hとが表示されている。また、各撮影点における撮影方向を実線で示した矢印R1,R2,R3とにより示す。また、視点の方向、即ち視線方向を矢印Sで示す。
【0061】
情報選出プログラム20は、視線方向Sと撮影点における撮影方向R1,R2,R3とを比較する処理を行う。
【0062】
このとき、情報選出プログラム20が、双方の方向が全く異なる方向を向いている(所定の角度範囲に入っていない)と判断すると、全く異なる方向を向いている撮影点の画像選出処理を行わない。図4中では、撮影点Cがこの撮影点に相当する。視点Pからの視線方向Sと撮影点Cの撮影方向R3とは全く異なる方向を向いている。そのため、撮影点Cに含まれた画像の情報は選出されない。
【0063】
[3]視点から撮影点までの距離が小さいという条件で画像を選出する場合
【0064】
図5に、視点から撮影点までの距離が小さいという条件で画像を選出する場合の仮想モデルハウス見学ウォークスルーのイメージ図を示す。
【0065】
図5には、図3又は図4と同じく撮影点A,B,Cと視点Pとが表示されている。また、視点から各撮影点までの距離T1,T2が表示されている。
【0066】
情報選出プログラム20は、視点の位置と各撮影点A,Bの位置とを比較して視点から撮影点A迄の距離T1と、視点から撮影点Bまでの距離T2とを求め、この距離T1,T2が所定の範囲内に入っているか否かを判定する。
【0067】
これによりウォークスルー時、即ち視点が移動したときに、上記条件で絞りこむことにより、適切な情報を選出できる。
【0068】
以上が、本実施形態における情報選出プログラム20によって画面上に適宜の情報を表示する選出原理である。尚、上述した条件[1]又は[2]により撮影点の絞り込みを行った結果、複数の撮影点が該当する場合、本実施形態の情報選出プログラムは、[3]により視点からの距離が最も短い撮影点の画像を選出する。
(4)仮想モデルハウス見学のウォークスルー処理
【0069】
次に、ユーザが本実施の形態に係る仮想モデルハウス見学をユーザ端末1で実行する手順と処理内容との説明を行う。
【0070】
図6に本実施形態に係る仮想モデルハウス見学のウォークスルーの処理手順のフローチャートを示す。
【0071】
図7〜図14に仮想モデルハウス見学のウォークスルーに伴いユーザ端末1の表示部6に表示される画面を示す。
【0072】
まず、ユーザは、キーボード7やマウス8等を使ってウォークスループログラム19の実行を開始する指示を入力する。
【0073】
ユーザ端末1内のCPU2は、この入力指示を受け(S01)て、ウォークスループログラム19をHD5から抽出し実行する(S02)。ウォークスループログラム19を実行すると同時に、CPU2は情報選出プログラム20及び画像表示プログラム21を実行する。
【0074】
プログラムの起動が開始すると、ウォークスループログラム19に基づき仮想モデルハウス見学のウォークスルー体験を開始する旨を表示するトップページ画面をユーザ端末1の表示部6に表示する(S03)。
【0075】
図7にトップページ画面Aを示す。トップページ画面Aにおいて、ユーザは見学を希望する仮想モデルハウスを条件に基づき選択する。仮想モデルハウスは、様々な条件によって分類されているとする。条件としては、例えば、「地域」,「仕様」,「会社」,「設計者」,「値段」というような条件を挙げることができる。
【0076】
そして、ユーザは、見学を希望する仮想モデルハウスの条件をマウス8やキーボード7にて入力する。
【0077】
ユーザ端末1のCPU2は、この指示を受けて、HD5内に格納されたデータフォルダ中の3DCGモデルハウスデータファイル12からユーザによって入力された条件を満たす仮想モデルハウスの3DCGデータを抽出し表示部6に一覧出力する(S04)。
【0078】
図8に仮想モデルハウスの3DCG画像の一覧画面Bを示す。尚、一覧画面Bには、仮想モデルハウスの3DCGだけでなく、仮想モデルハウスの平面間取り図を同時に出力すると好ましい。ユーザはこの画面Bからウォークスルー見学を希望する仮想モデルハウスを選択する。尚、選択操作は、選択した仮想モデルハウスの画面上の3DCG画像をマウス8によってクリックしたり、キーボード7から所定のコマンドを入力したりする。
【0079】
CPU2は、ユーザの選択操作により出力された指示を受けて、ユーザから要求のあった仮想モデルハウスの3DCGデータのみを表示部6に出力する(S05)。
【0080】
ユーザは、要求した仮想モデルハウスの3DCGが表示部6に表示された後、見学ウォークスルーを行う。
【0081】
図9にユーザから要求のあった仮想モデルハウスの外観を示す3DCG画像の画面Cを示す。この画面Cにおいて、マウス8又はジョイスティック等の指示部の画面での指示位置を表すポインタ30を3DCG仮想モデルハウスに近づく方向に動かす。
【0082】
ユーザがポインタ30を3DCG仮想モデルハウスに近づけていくと、CPU2は、このポインタ30の移動指示を受ける(S06)。CPU2は、この指示を受けて、指示位置の情報をユーザの視点位置情報として視点位置データファイル17に格納する(S07)。
【0083】
それと同時に、CPU2は、視点位置の変化に伴い表示すべき仮想モデルハウスの3DCG画像のデータを抽出し表示部6に順次出力する(S08)。
【0084】
図10にポインタ30の移動に伴い表示部6に表示された仮想モデルハウスの外観を示す3DCG画像の画面Dを示す。この画面Dにおいて、ユーザが仮想モデルハウスの玄関ドア部分を指定してマウス8をクリックする又はジョイスティックを操作すると、CPU2はドア方向へ移動する視点位置情報を視点位置データファイル17に蓄積する。
【0085】
ここで、CPU2は、接触・衝突判定を行う。接触・衝突判定として、BSP(Binary Space Partition),PVS(Potential Visible Set),Lightmapを行う。
【0086】
BSPでは、空間を平面で所定の空間数に分割して二分岐で管理し、結果をデータフォルダに格納する。PVSでは、可視判定の結果を保持し、例えば、空間Aから空間Bが見えるかどうかというようなことに関して、全ての空間に対する計算を行い、計算結果をビットの配列で保持して圧縮する。Lightmapでは、ライティングの結果の陰影をビットマップとして保存する。そして、格納・保持したデータ群から、接触・衝突判定に最適なデータ構造を採用するようになっている。
【0087】
つまり、CPU2は、上述したような接触・衝突判定を行い、仮想モデルハウス内を動いているポインタ30が画面D上の玄関ドアに接触したことを検知する。CPU2は、玄関ドアの接触を検知後、玄関ドアを開放したときの3DCG画像を3DCGモデルハウスデータファイル12から抽出し、表示部6に出力する。このように、画面が切り替わることにより、ユーザは実際にドアが開いたように感じることができる。
【0088】
また、玄関内にポインタ30を移動することに伴い、ユーザの視線方向も玄関内に移動する。これにより、ユーザは、実際に玄関に入って床の上を歩いているような感覚でモデルハウスを見学することができる。
【0089】
図11にポインタ30の移動に伴い表示部6に表示された仮想モデルハウス内部の3DCG画像の画面Eを示す。この画面Eにおいて、ユーザがさらに内部に入りキッチンへ向かう方向にポインタ30を移動させると、CPU2は移動した視点位置情報を視点位置データファイル17に蓄積する。そして、CPU2は、この視点位置情報に対応する仮想モデルハウスの3DCG画像をモデルハウス3DCGデータファイルから抽出し、表示部6に表示する。
【0090】
図12に3DCG仮想モデルハウスのキッチンの画面Fを示す。画面Fにおいて、ユーザがキッチンのシンク部分にポインタ30を移動させると、CPU2はこの視点位置情報を視点位置データファイル17に格納する。尚、玄関からキッチンまでのウォークスルー処理は、ステップ06とステップ07と同様の処理であるため説明を省略する。
【0091】
ここで、CPU2は、情報選出プログラム20の画像選出原理に基づき、現実のモデルルームを撮影した画像を表示するための選出処理を行う。
【0092】
まず初めに、上述した画像選出原理に基づき、遮蔽物があるか否かの判定、視点(ポインタ)方向と撮影点における撮影方向との比較、視点から撮影点までの距離の判定を含む判定処理を行う(S09)。
【0093】
CPU2は、これらの判定により、抽出された撮影点の画像を選出する(S10)。本実施形態では、図12に示すキッチンの中のシンクの画像を選出することとして説明する。尚、本実施形態では、実際のシンクを撮影した画像とともに、シンクの属性を表す属性情報も選出し出力するとして説明する。
【0094】
CPU2は、シンクの3DCGデータに関連づけられた、シンクの撮影画像及び属性情報を画像データファイル15及び属性データファイル14から抽出し表示部6に表示する(S11)。
【0095】
図11にシンクの画像と属性情報とを表示した画面Gを示す。画面Gに示すように、画面に表示された画像は、シンクを実際にデジタルカメラなどで撮影した画像である。また、属性情報は、シンクの材質,色,選択可能なオプション情報を含んでいる。尚、CPU2が、ポインタ30の指示可能範囲中に撮影点の位置は含まれていないと判断した場合、これらの画像及び属性情報は表示されない。
【0096】
最後に、ユーザが見学を終了する場合は、表示画面中の「終了」のアイコンをマウス8やキーボード7により選択する。
【0097】
CPU2は、終了指示を受けて(S12)ウォークスループログラム19、情報選出プログラム20、画像表示プログラム21の起動を停止する(S13)。
【0098】
これによって、ユーザは仮想モデルハウスの見学ウォークスルーを終了することができる。尚、本実施形態では、「終了」のアイコンは、ユーザが見学している仮想モデルハウスの各画面において表示されているとする。このことにより、ユーザは仮想モデルハウス全体を見学することなく、ウォークスルーを終了することができる。
【0099】
尚、上記説明では、建具に関する画像及び属性情報のみを表示するとして説明したが、モデルハウス全体又は全ての建具に関する画像及び属性情報を表示するようにしてもよい。
【0100】
このように、本実施形態に係る情報選出プログラム20によって、ウォークスルーの最中に建具にポインタ30を設定するという操作を行うことなく、建具に関する情報を表示させることができる。これによって、スムーズにウォークスルーを行うことが可能となる。
【0101】
また、本実施形態に係る情報選出プログラム20によって、建具を実際に撮影した画像がウォークスルー中の画面上に表示されるため、ユーザは、より現実的な仮想モデルハウスの見学を行うことができる。
<その他>
【0102】
さらに、本実施形態は以下の発明を開示する。また、以下の発明(以下付記と称す)の何れかに含まれる構成要素を他の付記の構成要素と組み合わせても良い。
(付記1)
表示手段を有するコンピュータに表示される仮想空間内を指示手段の操作に応じてユーザの仮想移動を行う際に、前記仮想空間内の特定位置及び特定方向と対応付けた情報を該ユーザの移動に応じて選出する方法であって、
前記ユーザの移動指示を受け付けるステップと、
前記仮想空間内におけるユーザ位置及び前記ユーザの視線方向に基づき前記仮想空間におけるユーザの仮想視界を求めるステップと、
前記仮想視界を前記表示手段に表示するステップと、
前記情報が対応付けられた位置と、前記ユーザ位置とを比較するステップと、前記情報が対応付けられた方向と、前記ユーザの視線方法とを比較するステップと、
前記比較の結果、前記情報が対応付けられた位置から所定の範囲内に前記ユーザが位置し、前記ユーザの視線方向と前記情報が対応付けられた方向とが所定角度以内である場合に、前記情報を選出するステップと、
を含む情報選出方法。
(付記2)
前記情報が、前記仮想空間で想定している空間において、前記特定位置に相当する位置から前記特定方向に相当する方向を撮影した画像である付記1記載の情報選出方法。
(付記3)
前記ユーザの位置と前記特定位置との間に、遮蔽物が存在する場合には前記情報を選出しない付記1又は2に記載の情報選出方法。
(付記4)
前記遮蔽物が、壁、床、天井などの躯体であることを特徴とする付記3に記載の情報選出方法。
(付記5)
表示手段を有するコンピュータに表示される仮想空間内を指示手段の操作に応じてユーザの仮想移動を行う際に、前記仮想空間内の特定位置及び特定方向と対応付けた情報を該ユーザの移動に応じて選出するプログラムであって、
コンピュータが、
前記ユーザの移動指示を受け付けるステップと、
前記仮想空間内におけるユーザ位置及び前記ユーザの視線方向に基づき前記仮想空間におけるユーザの仮想視界を求めるステップと、
前記仮想視界を前記表示手段に表示するステップと、
前記情報が対応付けられた位置と、前記ユーザ位置とを比較するステップと、前記情報が対応付けられた方向と、前記ユーザの視線方法とを比較するステップと、
前記比較の結果、前記情報が対応付けられた位置から所定の範囲内に前記ユーザが位置し、前記ユーザの視線方向と前記情報が対応付けられた方向とが所定角度以内である場合に、前記情報を選出するステップと、
を実行可能な情報選出プログラム。
(付記6)
前記情報が、前記仮想空間で想定している空間において、前記特定位置に相当する位置から前記特定方向に相当する方向を撮影した画像である付記5記載の情報選出プログラム。
(付記7)
前記ユーザの位置と前記特定位置との間に、遮蔽物が存在する場合には前記情報を選出しない付記5又は6に記載の情報選出方法。
(付記8)
前記遮蔽物が、壁、床、天井などの躯体であることを特徴とする付記7に記載の情報選出方法。
【0103】
【発明の効果】
以上のことにより、本発明によれば、リアルな疑似体験(ウォークスルー)を可能とする情報選出方法及び情報選出プログラムを提供することが可能となる。
【0104】
また、本発明によれば、仮想移動時に表示する情報を適切に選出する情報選出方法、及び情報選出プログラムを提供することができる。
【図面の簡単な説明】
【図1】本実施形態に係るユーザ端末のハードウェア構成のブロック図である。
【図2】本実施形態における仮想モデルハウス見学ウォークスルーのイメージ図である。
【図3】本実施形態における撮影点の位置と視点の位置との間に遮蔽物がないという条件で画像を選出する場合の仮想モデルハウス見学ウォークスルーのイメージ図である。
【図4】本実施形態における撮影点の方向と視点の方向との差が小さいという条件で画像を選出する場合の仮想モデルハウス見学ウォークスルーのイメージ図である。
【図5】本実施の形態に係る視点から撮影点までの距離が小さいという条件で画像を選出する場合の仮想モデルハウス見学ウォークスルーのイメージ図である。
【図6】本実施形態に係る仮想モデルハウス見学のウォークスルーの処理手順のフローチャートである。
【図7】本実施形態のトップページ画面Aである。
【図8】本実施形態に係る仮想モデルハウスの3DCG画像の一覧画面Bである。
【図9】本実施形態に係る仮想モデルハウスの外観を示す3DCG画像の画面Cである。
【図10】本実施形態に係るポインタ30の移動に伴い表示部に表示された仮想モデルハウスの外観を示す3DCG画像の画面Dである。
【図11】本実施形態に係るポインタ30の移動に伴い表示部に表示された仮想モデルハウス内部の3DCG画像の画面Eである。
【図12】本実施形態に係る3DCG仮想モデルハウスのキッチンの画面Fである。
【図13】本実施形態に係るシンクの画像と属性情報とを表示した画面Gである。
【符号の説明】
1 ユーザ端末
2 CPU
3 ROM
4 RAM
5 HD
6 表示部
7 入力部(キーボード)
8 操作部(マウス)
9 データフォルダ
10 プログラムフォルダ
11 仕様データファイル
12 3DCGモデルハウスデータファイル
13 3DCG建具データファイル
14 属性データファイル
15 画像データファイル
16 撮影点位置データファイル
17 視点位置データファイル
19 ウォークスループログラム
20 情報選出プログラム
21 画像表示プログラム
30 ポインタ
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a method and a program for selecting information involved when a user virtually moves in a virtual space displayed on a screen of a computer.
[0002]
[Prior art]
In recent years, three-dimensional computer graphics (hereinafter, referred to as CG) have been generalized. This CG displays a virtual space on a display screen of a computer, and enables a virtual walkthrough in which a user virtually moves in the virtual space.
[0003]
An example where the virtual walkthrough can be suitably used is a virtual tour of a model house.
[0004]
In a conventional virtual tour of a model house, a user moves a pointing device such as a mouse in a virtual model house displayed on a computer screen. This pointing device corresponds to the viewpoint of the user, and the screen displayed on the computer changes as if the user were moving in the model house with the movement of the pointing device. .
[0005]
In a conventional model house virtual tour, when a pointing device is set on furniture or fittings in a virtual model house, their attribute information is displayed in a pop-up on a screen.
[0006]
By such a model house virtual tour, the user could actually experience the model house tour using the user's computer without actually going to the model house.
[Patent Document 1]
JP-A-2002-269591
[0007]
[Problems to be solved by the invention]
However, in a conventional virtual tour of a model house, unless a pointing device is set on furniture and fittings in the virtual model house displayed on a computer, it is impossible to see the attribute information of those components.
[0008]
Therefore, even though the model house tour is performed in a virtual space, it is not possible to experience the model house tour in a state closer to reality by performing a real operation of operating a personal computer.
[0009]
Also, in the actual model house, various ideas such as using tiles that are easy to clean and easy to clean on the kitchen wall, suppressing the gloss of the floor to create a calm atmosphere, and increasing the handle of frequently used fittings, etc. are doing.
[0010]
However, in the conventional virtual tour of the model house, since the model house and the furniture and fittings installed inside the model house are created by CG, it is difficult to faithfully reproduce the subtle texture and the details of the fittings. Met. Therefore, the amount of information obtained by the virtual tour is small, and it tends to be difficult to imagine the actual atmosphere, living comfort, and the like.
[0011]
In view of the above, an object of the present invention is to provide an information selection method and an information selection program that enable a realistic simulated experience.
[0012]
It is another object of the present invention to provide an information selection method and an information selection program for appropriately selecting information to be displayed during virtual movement.
[0013]
[Means for Solving the Problems]
The present invention employs the following means in order to solve the above problems. That is, according to the present invention, when a user performs a virtual movement in a virtual space displayed on a computer having a display means in response to an operation of an instruction means, information associated with a specific position and a specific direction in the virtual space A method in which the computer selects the user in accordance with the movement of the user, wherein the step of receiving the user's movement instruction; and a virtual field of view of the user in the virtual space based on a user position in the virtual space and a gaze direction of the user. Determining, the step of displaying the virtual field of view on the display means, the step of comparing the position associated with the information with the user position, the direction associated with the information, and the user Comparing the line-of-sight method with the user, and as a result of the comparison, the user is within a predetermined range from a position associated with the information. And location, when the direction in which the information and line-of-sight direction of the user associated is within a predetermined angle, including the steps of selecting the information.
[0014]
As the instruction means, a mouse or a trackpad for operating a personal computer can be suitably used. When these instruction means are operated, the position of the user in the virtual space is moved, and accordingly, the virtual field of view displayed on the display means also moves.
[0015]
This allows the user to visually recognize the inside of the virtual space as if the user were visually recognizing the real space.
[0016]
In addition, when the position or the line of sight of the user approaches a specific position and a specific direction in the virtual space, the information corresponding to these is selected and displayed, so that the user can obtain various information without any special operation. Can be.
[0017]
Further, the invention is characterized in that the information is an image obtained by photographing a direction corresponding to the specific direction from a position corresponding to the specific position in a space assumed in the virtual space.
[0018]
For example, when the virtual space is a model house, the image is an image obtained by photographing the appearance of the model house, fittings inside the model house, and the like with a digital camera or the like.
[0019]
Further, the present invention is characterized in that the information is not selected when a shield exists between the position of the user and the specific position. Note that the shield is preferably a frame such as a wall, a floor, or a ceiling.
[0020]
Thereby, even if there is a shield between the target and the viewpoint, it is possible to prevent a situation in which the target is seen through the shield. In other words, according to the present invention, if the virtual space is a model house, it is possible to prevent the information of the next room from being selected even if there is a wall, or the information of the room on the second floor from being selected even if there is a ceiling. Can be. Thereby, the user can perform more realistic virtual movement in the virtual space.
[0021]
Further, the present invention provides a method in which when a user virtually moves in a virtual space displayed on a computer having a display means by operating an instruction means, information associated with a specific position and a specific direction in the virtual space is associated with the user. It is also a program to select according to the movement of.
[0022]
The program, the computer receives the user's movement instruction, obtaining the user's virtual view in the virtual space based on the user's position in the virtual space and the user's line of sight, Displaying on a display means, a position where the information is associated, and a step of comparing the user position, and a direction in which the information is associated, and comparing the user's gaze method, As a result of the comparison, when the user is located within a predetermined range from the position where the information is associated, and the line of sight of the user and the direction with which the information is associated are within a predetermined angle, And a step of selecting information.
[0023]
Further, the information selection program according to the present invention is characterized in that the information is an image obtained by photographing a direction corresponding to the specific direction from a position corresponding to the specific position in a space assumed in the virtual space. I do.
[0024]
Further, the information program according to the present invention is characterized in that the information is not selected when a shield exists between the position of the user and the specific position.
[0025]
In the information program of the present invention, it is preferable that the shield is a frame such as a wall, a floor, or a ceiling.
[0026]
Further, the information selection program according to the present invention may be executed not only by a user terminal but also by a server connected via a network such as the Internet.
[0027]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an information selection method and an information selection program according to the present embodiment will be described.
[0028]
The information selection program according to the present embodiment is used when a virtual movement (hereinafter referred to as a walk-through) is performed by operating an instruction unit (instruction unit) in a virtual model house displayed on a user terminal having a display unit (display unit). Select information.
[0029]
The information selection program of the present embodiment is a program that is executed together with a main program for performing a tour walk-through of a virtual model house on a user terminal.
(1) Hardware configuration
[0030]
First, the hardware configuration of the user terminal on which the information selection program of the present embodiment is executed will be described.
[0031]
FIG. 1 shows a block diagram of a hardware configuration of the user terminal 1 in the present embodiment. As shown in FIG. 1, the user terminal 1 of the present embodiment has a configuration similar to the configuration of an existing personal computer.
[0032]
The user terminal 1 according to the present embodiment includes a CPU (Central Processing Unit) 2 that executes various programs and controls the user terminal 1, and a ROM (Read Only Memory) 3 in which programs necessary for controlling the user terminal 1 are stored. A RAM (Random Access Memory) 4 for temporarily storing processing in the CPU 2, an HD (Hard Disk) 5 for storing various data and programs, a display unit 6 for allowing the user to visually recognize the processing contents, Has an input unit 7 for inputting various data, and an operation unit 8 for performing various operations on the user terminal 1.
[0033]
For the display unit 6, a CRT (Cathod-ray Tube) or a liquid crystal display device is suitably used.
[0034]
A keyboard can be suitably used for the input unit 7. The keyboard is used as an input device for inputting various conditions and data by the user.
[0035]
As the operation unit 8, a mouse or a joystick can be suitably used. The mouse and the joystick are used as a pointing device for operating a pointer on the screen displayed on the display unit 6. By operating with these, the pointer can be smoothly operated.
[0036]
The HD 5 has a data folder 9 for storing only various data, and a program folder 10 for storing only various programs.
[0037]
The above is the hardware configuration of the user terminal 1 of the present embodiment.
(2) Data structure and program description
[0038]
Next, the data structure of various programs and various data stored in the HD 5 according to the present embodiment will be described.
[0039]
The data folder stored in the HD 5 according to the present embodiment stores data on the specifications of the model house, such as the shape, interior, exterior, layout, and estimation of the model house, and data of the model house created by the 3DCG. 3DCG model house data file 12, a 3DCG fitting data file 13 for storing 3DCG data of fittings such as furniture and options installed in the model house, and an attribute for storing attribute data such as maker, size, color, and material of the fittings. It has a data file 14, an image data file 15 when a fitting is actually photographed, and the like.
[0040]
Further, the data folder includes a photographing point position data file 16 for storing position information of photographing points at which the fittings are actually photographed, and position information of pointers associated with operation of the mouse 8 and the joystick, that is, positions related to the position of the user in the real space And a viewpoint position data file 17 for storing information.
[0041]
Each position information stored in the photographing point position data file 16 and the viewpoint position data file 17 includes, for example, coordinates on a plane such as an SVG (Scalable Vector Graphics) viewer and direction lines.
[0042]
That is, the position information of the photographing point includes the position (coordinates) of the photographing point and information on the direction in which the photographing point is photographed.
[0043]
The program folder 10 includes a walk-through program 19 for performing a tour (walk-through) of the virtual model house, an information selection program 20 for selecting information in accordance with the execution of the program, and a display unit 6 of the user terminal 1. And an image display program 21 for controlling screens and images when performing a walk-through of the virtual model house.
[0044]
The image display program 21 includes, for example, a position information acquisition processing program on the SVG viewer, a viewpoint position drawing program on the plan view of the SVG viewer, a viewpoint direction line segment drawing processing program on the SVG viewer, and a program on the SVG viewer. A viewpoint information change processing program of an XVL (extensible virtual world description language) 3 viewer based on a viewpoint direction line segment, and other various image display viewpoint conversion programs are stored.
[0045]
The walk-through program 19 is a program that reads the created 3DCG virtual model house data and allows the user to experience a virtual tour in the virtual model house.
[0046]
The information selection program 20 is a program for performing a process of appropriately selecting information to be supplied to the user in accordance with the walkthrough performed based on the walkthrough program 19.
[0047]
For example, if the viewpoint changes, the data order of the 3DCG virtual model house data usually changes. That is, as the pointer moves on the screen, the data order of the 3DCG virtual model house data changes. Therefore, in the information selection program 20 of the present embodiment, the user's viewpoint or position information in the 3DCG model house displayed on the display unit 6 of the user terminal 1 (pointed position on the screen by a mouse or a joystick). Is recognized, a check process of a visible range based on the position information of the viewpoint is performed.
[0048]
By these processes, when the model is viewed from the position where the user is, it is arranged in what order from the front, that is, in order from the one farthest from the viewpoint in polygon units so that the model is sorted correctly regardless of the position of the viewpoint It is possible to realize a Z sort to be drawn.
[0049]
Therefore, the information selection program 20 executes a process of displaying a screen corresponding to the user's viewpoint or the user's position on the display unit 6.
[0050]
The above is the description of various programs and various data in the present embodiment.
(3) Image selection principle
[0051]
Next, a description will be given of a selection principle for appropriately displaying information on a screen by the information selection program 20 in the present embodiment.
[0052]
FIG. 2 shows an image diagram of the virtual model house tour walk-through. In FIG. 2, black circles (●) indicate the user's viewpoint (user position), white circles (○) indicate shooting points, and arrows indicate these directions (the direction of the line of sight or the shooting direction). The thick black line is a line segment representing a wall (frame) in the model house.
[0053]
The position information of the photographing point includes the coordinates of the photographing position, the photographing direction, and information of an image of a real model house or a fitting in the model house photographed by a digital camera or the like from this position in this direction (the image data file). File name).
[0054]
The information selection program 20 according to the present embodiment includes: [1] no obstruction between the position of the shooting point and the position of the viewpoint; [2] a small difference between the direction of the shooting point and the direction of the viewpoint; [3] Based on the condition that the difference between the position of the photographing point and the position of the viewpoint is small, information on an image of a real model house or a fitting in the model house is selected.
[0055]
[1] When selecting an image under the condition that there is no obstruction between the position of the shooting point and the position of the viewpoint
[0056]
FIG. 3 shows an image diagram of a virtual model house tour walk-through when an image is selected under the condition that there is no obstruction between the position of the photographing point and the position of the viewpoint. FIG. 3 shows photographing points A, B, C, and D, a viewpoint P, and a thick black line H representing a wall.
[0057]
The information selection program 20 performs a process of connecting the position of the viewpoint displayed on the coordinates and the position of each shooting point with a line (dashed lines L1, L2, L3, L4 shown in FIG. 3).
[0058]
At this time, if the information selection program 20 determines that the dashed line intersects with the line segment representing the wall, the information selection program 20 does not perform the image selection processing of the photographing point which is one end of the dashed line. In FIG. 3, the photographing point D corresponds to this photographing point. Assuming that a line connecting the viewpoint P and the photographing point D is a dashed line L4, an intersection is formed between the dashed line L4 and the thick black line H. Therefore, information of the image included in the photographing point D is not selected.
[0059]
[2] When selecting an image under the condition that the difference between the direction of the shooting point and the direction of the viewpoint is small
[0060]
FIG. 4 shows an image diagram of a virtual model house tour walk-through when an image is selected under the condition that the difference between the direction of the photographing point and the direction of the viewpoint is small. In FIG. 4, the photographing points A, B, and C, the viewpoint P, and a thick black line H representing a wall are displayed as in FIG. The shooting directions at each shooting point are indicated by solid arrows R1, R2, and R3. The direction of the viewpoint, that is, the direction of the line of sight is indicated by an arrow S.
[0061]
The information selection program 20 performs a process of comparing the line-of-sight direction S with the shooting directions R1, R2, and R3 at the shooting point.
[0062]
At this time, when the information selection program 20 determines that the two directions are completely different directions (not within the predetermined angle range), the image selection processing of the photographing points that are completely different directions is not performed. . In FIG. 4, the photographing point C corresponds to this photographing point. The viewing direction S from the viewpoint P and the shooting direction R3 of the shooting point C are completely different. Therefore, information of the image included in the photographing point C is not selected.
[0063]
[3] When selecting an image on condition that the distance from the viewpoint to the shooting point is small
[0064]
FIG. 5 shows an image diagram of a virtual model house tour walk-through when an image is selected under the condition that the distance from the viewpoint to the shooting point is small.
[0065]
FIG. 5 shows the photographing points A, B, and C and the viewpoint P as in FIG. 3 or FIG. Further, distances T1 and T2 from the viewpoint to each photographing point are displayed.
[0066]
The information selection program 20 compares the position of the viewpoint with the positions of the photographing points A and B to obtain a distance T1 from the viewpoint to the photographing point A and a distance T2 from the viewpoint to the photographing point B. , T2 are within a predetermined range.
[0067]
Thus, at the time of walk-through, that is, when the viewpoint moves, appropriate information can be selected by narrowing down under the above conditions.
[0068]
The above is the selection principle of displaying appropriate information on the screen by the information selection program 20 in the present embodiment. If a plurality of photographing points are found as a result of narrowing down photographing points according to the above-mentioned condition [1] or [2], the information selection program according to the present embodiment determines that the distance from the viewpoint is the smallest according to [3]. Select images with short shooting points.
(4) Walk-through processing for a virtual model house tour
[0069]
Next, a procedure for a user to execute a virtual model house tour according to the present embodiment on the user terminal 1 and a process content will be described.
[0070]
FIG. 6 shows a flowchart of a processing procedure of a walk-through of a virtual model house tour according to the present embodiment.
[0071]
7 to 14 show screens displayed on the display unit 6 of the user terminal 1 along with the virtual model house tour walk-through.
[0072]
First, the user inputs an instruction to start execution of the walk-through program 19 using the keyboard 7, the mouse 8, and the like.
[0073]
The CPU 2 in the user terminal 1 receives this input instruction (S01), extracts the walk-through program 19 from the HD 5, and executes it (S02). At the same time as executing the walk-through program 19, the CPU 2 executes the information selection program 20 and the image display program 21.
[0074]
When the start of the program is started, a top page screen displaying that the walk-through experience of the virtual model house tour is started based on the walk-through program 19 is displayed on the display unit 6 of the user terminal 1 (S03).
[0075]
FIG. 7 shows a top page screen A. On the top page screen A, the user selects a virtual model house for which a visit is desired based on conditions. It is assumed that the virtual model houses are classified according to various conditions. Examples of the condition include conditions such as “region”, “specifications”, “company”, “designer”, and “price”.
[0076]
Then, the user inputs the conditions of the virtual model house desired to be observed with the mouse 8 and the keyboard 7.
[0077]
In response to this instruction, the CPU 2 of the user terminal 1 extracts 3DCG data of the virtual model house that satisfies the conditions input by the user from the 3DCG model house data file 12 in the data folder stored in the HD 5 and displays it on the display unit 6. A list is output (S04).
[0078]
FIG. 8 shows a list screen B of 3DCG images of the virtual model house. It is preferable that the list screen B simultaneously output not only the 3DCG of the virtual model house but also the floor plan of the virtual model house. The user selects a virtual model house for which a walk-through tour is desired from this screen B. Note that the selection operation is performed by clicking the 3D CG image on the screen of the selected virtual model house with the mouse 8 or inputting a predetermined command from the keyboard 7.
[0079]
In response to the instruction output by the user's selection operation, the CPU 2 outputs only the 3D CG data of the virtual model house requested by the user to the display unit 6 (S05).
[0080]
After the 3D CG of the requested virtual model house is displayed on the display unit 6, the user performs a tour walk-through.
[0081]
FIG. 9 shows a screen C of a 3D CG image showing the appearance of the virtual model house requested by the user. On the screen C, the pointer 30 indicating the designated position on the screen of the pointing unit such as the mouse 8 or the joystick is moved in a direction approaching the 3DCG virtual model house.
[0082]
When the user moves the pointer 30 closer to the 3DCG virtual model house, the CPU 2 receives an instruction to move the pointer 30 (S06). Upon receiving this instruction, the CPU 2 stores information on the pointed position in the viewpoint position data file 17 as viewpoint position information of the user (S07).
[0083]
At the same time, the CPU 2 extracts the data of the 3D CG image of the virtual model house to be displayed according to the change of the viewpoint position and sequentially outputs the data to the display unit 6 (S08).
[0084]
FIG. 10 shows a screen 3D of a 3D CG image showing the appearance of the virtual model house displayed on the display unit 6 as the pointer 30 moves. In this screen D, when the user designates the entrance door portion of the virtual model house and clicks the mouse 8 or operates the joystick, the CPU 2 stores the viewpoint position information moving in the door direction in the viewpoint position data file 17.
[0085]
Here, the CPU 2 performs a contact / collision determination. As the contact / collision determination, BSP (Binary Space Partition), PVS (Potential Visible Set), and Lightmap are performed.
[0086]
In the BSP, a space is divided into a predetermined number of spaces on a plane, managed in two branches, and the result is stored in a data folder. In the PVS, the result of the visibility determination is held, and, for example, whether or not the space B is visible from the space A is calculated for all the spaces, and the calculation result is held and compressed in an array of bits. In Lightmap, a shadow resulting from lighting is stored as a bitmap. Then, from the stored / held data group, a data structure optimal for contact / collision determination is adopted.
[0087]
That is, the CPU 2 performs the contact / collision determination as described above, and detects that the pointer 30 moving in the virtual model house has contacted the entrance door on the screen D. After detecting the contact of the entrance door, the CPU 2 extracts a 3DCG image when the entrance door is opened from the 3DCG model house data file 12 and outputs it to the display unit 6. By switching the screens in this manner, the user can feel as if the door was actually opened.
[0088]
In addition, as the pointer 30 moves into the entrance, the line of sight of the user also moves into the entrance. This allows the user to tour the model house as if he were actually entering the entrance and walking on the floor.
[0089]
FIG. 11 shows a screen E of a 3DCG image inside the virtual model house displayed on the display unit 6 with the movement of the pointer 30. When the user further enters the screen E and moves the pointer 30 in a direction toward the kitchen, the CPU 2 stores the moved viewpoint position information in the viewpoint position data file 17. Then, the CPU 2 extracts a 3D CG image of the virtual model house corresponding to the viewpoint position information from the 3D CG data file of the model house, and displays it on the display unit 6.
[0090]
FIG. 12 shows a screen F of the kitchen of the 3DCG virtual model house. When the user moves the pointer 30 to the kitchen sink on the screen F, the CPU 2 stores this viewpoint position information in the viewpoint position data file 17. Note that the walk-through process from the entrance to the kitchen is the same process as Steps 06 and 07, and a description thereof will be omitted.
[0091]
Here, based on the image selection principle of the information selection program 20, the CPU 2 performs a selection process for displaying an image obtained by photographing a real model room.
[0092]
First, based on the above-described image selection principle, a determination process including determining whether or not there is an obstruction, comparing the viewpoint (pointer) direction with the shooting direction at the shooting point, and determining the distance from the viewpoint to the shooting point. Is performed (S09).
[0093]
Based on these determinations, the CPU 2 selects an image of the extracted photographing point (S10). In the present embodiment, description will be made assuming that a sink image in the kitchen shown in FIG. 12 is selected. In the present embodiment, description will be made on the assumption that attribute information indicating the attribute of the sink is selected and output together with the image obtained by photographing the actual sink.
[0094]
The CPU 2 extracts the photographed image of the sink and the attribute information associated with the 3DCG data of the sink from the image data file 15 and the attribute data file 14 and displays them on the display unit 6 (S11).
[0095]
FIG. 11 shows a screen G displaying a sink image and attribute information. As shown in the screen G, the image displayed on the screen is an image of the sink actually taken by a digital camera or the like. The attribute information includes the material and color of the sink and optional information that can be selected. If the CPU 2 determines that the position of the photographing point is not included in the pointing range of the pointer 30, these images and attribute information are not displayed.
[0096]
Finally, when the user ends the tour, the user selects the “end” icon on the display screen with the mouse 8 or the keyboard 7.
[0097]
Upon receiving the end instruction (S12), the CPU 2 stops the activation of the walk-through program 19, the information selection program 20, and the image display program 21 (S13).
[0098]
Thereby, the user can end the tour walkthrough of the virtual model house. In the present embodiment, it is assumed that the “end” icon is displayed on each screen of the virtual model house that the user is visiting. Thereby, the user can end the walkthrough without observing the entire virtual model house.
[0099]
In the above description, only the image and attribute information relating to the fittings are described. However, the image and attribute information relating to the entire model house or all fittings may be displayed.
[0100]
As described above, the information selection program 20 according to the present embodiment can display information on a fitting without performing an operation of setting the pointer 30 on the fitting during the walk-through. Thereby, it is possible to perform a walk-through smoothly.
[0101]
In addition, the information selection program 20 according to the present embodiment displays an image of a fitting that is actually photographed on the screen during the walk-through, so that the user can tour a more realistic virtual model house. .
<Others>
[0102]
Further, the present embodiment discloses the following invention. Further, components included in any of the following inventions (hereinafter, referred to as supplementary notes) may be combined with other supplementary components.
(Appendix 1)
When performing a user's virtual movement in a virtual space displayed on a computer having a display means in response to an operation of an instruction means, information associated with a specific position and a specific direction in the virtual space is used for the movement of the user. Is a method of selecting according to
Receiving a movement instruction of the user;
Obtaining a virtual view of the user in the virtual space based on a user position in the virtual space and a gaze direction of the user;
Displaying the virtual field of view on the display means;
A step of comparing the position where the information is associated with the user position, and a step of comparing the direction in which the information is associated and the gaze method of the user;
As a result of the comparison, when the user is located within a predetermined range from the position where the information is associated, and the line of sight of the user and the direction with which the information is associated are within a predetermined angle, Selecting information;
Information selection method including.
(Appendix 2)
The information selection method according to claim 1, wherein the information is an image obtained by photographing a direction corresponding to the specific direction from a position corresponding to the specific position in a space assumed in the virtual space.
(Appendix 3)
The information selection method according to Supplementary Note 1 or 2, wherein the information is not selected when a shield exists between the position of the user and the specific position.
(Appendix 4)
4. The information selection method according to claim 3, wherein the shield is a skeleton such as a wall, a floor, or a ceiling.
(Appendix 5)
When performing a user's virtual movement in a virtual space displayed on a computer having a display means in response to an operation of an instruction means, information associated with a specific position and a specific direction in the virtual space is used for the movement of the user. A program to be selected according to
Computer
Receiving a movement instruction of the user;
Obtaining a virtual view of the user in the virtual space based on a user position in the virtual space and a gaze direction of the user;
Displaying the virtual field of view on the display means;
A step of comparing the position where the information is associated with the user position, and a step of comparing the direction in which the information is associated and the gaze method of the user;
As a result of the comparison, when the user is located within a predetermined range from the position where the information is associated, and the line of sight of the user and the direction with which the information is associated are within a predetermined angle, Selecting information;
Executable information selection program.
(Appendix 6)
The information selection program according to claim 5, wherein the information is an image obtained by photographing a direction corresponding to the specific direction from a position corresponding to the specific position in a space assumed in the virtual space.
(Appendix 7)
The information selection method according to Supplementary Note 5 or 6, wherein the information is not selected when a shield exists between the position of the user and the specific position.
(Appendix 8)
8. The information selection method according to claim 7, wherein the shield is a frame such as a wall, a floor, or a ceiling.
[0103]
【The invention's effect】
As described above, according to the present invention, it is possible to provide an information selection method and an information selection program that enable a realistic pseudo experience (walk-through).
[0104]
Further, according to the present invention, it is possible to provide an information selection method and an information selection program for appropriately selecting information to be displayed during virtual movement.
[Brief description of the drawings]
FIG. 1 is a block diagram of a hardware configuration of a user terminal according to an embodiment.
FIG. 2 is an image diagram of a virtual model house tour walk-through in the present embodiment.
FIG. 3 is an image diagram of a virtual model house tour walk-through in a case where an image is selected under the condition that there is no obstruction between the position of a shooting point and the position of a viewpoint in the present embodiment.
FIG. 4 is an image diagram of a virtual model house tour walk-through in a case where an image is selected under a condition that a difference between a direction of a photographing point and a direction of a viewpoint in the present embodiment is small.
FIG. 5 is an image diagram of a virtual model house tour walk-through when an image is selected under a condition that a distance from a viewpoint to a shooting point is small according to the present embodiment.
FIG. 6 is a flowchart of a walk-through processing procedure for a virtual model house tour according to the present embodiment.
FIG. 7 is a top page screen A of the embodiment.
FIG. 8 is a list screen B of 3D CG images of the virtual model house according to the embodiment.
FIG. 9 is a screen C of a 3D CG image showing the appearance of the virtual model house according to the embodiment.
FIG. 10 is a screen 3D of a 3D CG image showing the appearance of the virtual model house displayed on the display unit in accordance with the movement of the pointer 30 according to the embodiment.
FIG. 11 is a screen E of a 3D CG image inside the virtual model house displayed on the display unit as the pointer 30 moves according to the embodiment.
FIG. 12 is a screen F of a kitchen of the 3DCG virtual model house according to the embodiment.
FIG. 13 is a screen G displaying a sink image and attribute information according to the embodiment.
[Explanation of symbols]
1 User terminal
2 CPU
3 ROM
4 RAM
5 HD
6 Display
7 Input unit (keyboard)
8 Operation unit (mouse)
9 Data folder
10 Program folder
11 Specification data file
12 3DCG model house data file
13 3DCG fittings data file
14 Attribute data file
15 Image data file
16 Shooting point position data file
17 viewpoint position data file
19 Walkthrough Program
20 Information Selection Program
21 Image display program
30 pointer

Claims (8)

表示手段を有するコンピュータに表示される仮想空間内を指示手段の操作に応じてユーザの仮想移動を行う際に、前記仮想空間内の特定位置及び特定方向と対応付けた情報を該ユーザの移動に応じてコンピュータが選出する方法であって、
前記ユーザの移動指示を受け付けるステップと、
前記仮想空間内におけるユーザ位置及び前記ユーザの視線方向に基づき前記仮想空間におけるユーザの仮想視界を求めるステップと、
前記仮想視界を前記表示手段に表示するステップと、
前記情報が対応付けられた位置と、前記ユーザ位置とを比較するステップと、前記情報が対応付けられた方向と、前記ユーザの視線方法とを比較するステップと、
前記比較の結果、前記情報が対応付けられた位置から所定の範囲内に前記ユーザが位置し、前記ユーザの視線方向と前記情報が対応付けられた方向とが所定角度以内である場合に、前記情報を選出するステップと、
を含む情報選出方法。
When performing a user's virtual movement in a virtual space displayed on a computer having a display means in response to an operation of an instruction means, information associated with a specific position and a specific direction in the virtual space is used for the movement of the user. A method in which the computer is elected accordingly,
Receiving a movement instruction of the user;
Obtaining a virtual view of the user in the virtual space based on a user position in the virtual space and a gaze direction of the user;
Displaying the virtual field of view on the display means;
A step of comparing the position where the information is associated with the user position, and a step of comparing the direction in which the information is associated and the gaze method of the user;
As a result of the comparison, when the user is located within a predetermined range from the position where the information is associated, and the line of sight of the user and the direction with which the information is associated are within a predetermined angle, Selecting information;
Information selection method including.
前記情報が、前記仮想空間で想定している空間において、前記特定位置に相当する位置から前記特定方向に相当する方向を撮影した画像である請求項1記載の情報選出方法。2. The information selection method according to claim 1, wherein the information is an image obtained by photographing a direction corresponding to the specific direction from a position corresponding to the specific position in a space assumed in the virtual space. 前記ユーザの位置と前記特定位置との間に、遮蔽物が存在する場合には前記情報を選出しない請求項1又は2に記載の情報選出方法。3. The information selection method according to claim 1, wherein the information is not selected when a shield exists between the position of the user and the specific position. 4. 前記遮蔽物が、壁、床、天井などの躯体であることを特徴とする請求項3に記載の情報選出方法。4. The information selection method according to claim 3, wherein the shield is a frame such as a wall, a floor, or a ceiling. 表示手段を有するコンピュータに表示される仮想空間内を指示手段の操作によりユーザが仮想移動する際に、前記仮想空間内の特定位置及び特定方向と対応付けた情報を該ユーザの移動に応じて選出するプログラムであって、
コンピュータが、
前記ユーザの移動指示を受け付けるステップと、
前記仮想空間内におけるユーザ位置及び前記ユーザの視線方向に基づき前記仮想空間におけるユーザの仮想視界を求めるステップと、
前記仮想視界を前記表示手段に表示するステップと、
前記情報が対応付けられた位置と、前記ユーザ位置とを比較するステップと、前記情報が対応付けられた方向と、前記ユーザの視線方法とを比較するステップと、
前記比較の結果、前記情報が対応付けられた位置から所定の範囲内に前記ユーザが位置し、前記ユーザの視線方向と前記情報が対応付けられた方向とが所定角度以内である場合に、前記情報を選出するステップと、
を実行可能な情報選出プログラム。
When a user virtually moves in a virtual space displayed on a computer having a display means by operating an instruction means, information associated with a specific position and a specific direction in the virtual space is selected according to the movement of the user. Program that
Computer
Receiving a movement instruction of the user;
Obtaining a virtual view of the user in the virtual space based on a user position in the virtual space and a gaze direction of the user;
Displaying the virtual field of view on the display means;
A step of comparing the position where the information is associated with the user position, and a step of comparing the direction in which the information is associated and the gaze method of the user;
As a result of the comparison, when the user is located within a predetermined range from the position where the information is associated, and the line of sight of the user and the direction with which the information is associated are within a predetermined angle, Selecting information;
Executable information selection program.
前記情報が、前記仮想空間で想定している空間において、前記特定位置に相当する位置から前記特定方向に相当する方向を撮影した画像である請求項5記載の情報選出プログラム。6. The information selection program according to claim 5, wherein the information is an image obtained by photographing a direction corresponding to the specific direction from a position corresponding to the specific position in a space assumed in the virtual space. 前記ユーザの位置と前記特定位置との間に、遮蔽物が存在する場合には前記情報を選出しない請求項5又は6に記載の情報選出方法。The information selection method according to claim 5, wherein the information is not selected when a shield exists between the position of the user and the specific position. 前記遮蔽物が、壁、床、天井などの躯体であることを特徴とする請求項7に記載の情報選出方法。8. The information selection method according to claim 7, wherein the shield is a frame such as a wall, a floor, or a ceiling.
JP2003011204A 2003-01-20 2003-01-20 Information selection method and information selection program Pending JP2004227073A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003011204A JP2004227073A (en) 2003-01-20 2003-01-20 Information selection method and information selection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003011204A JP2004227073A (en) 2003-01-20 2003-01-20 Information selection method and information selection program

Publications (1)

Publication Number Publication Date
JP2004227073A true JP2004227073A (en) 2004-08-12

Family

ID=32900175

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003011204A Pending JP2004227073A (en) 2003-01-20 2003-01-20 Information selection method and information selection program

Country Status (1)

Country Link
JP (1) JP2004227073A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016027480A (en) * 2012-04-27 2016-02-18 キヤノンマーケティングジャパン株式会社 Information processing system, information processing apparatus, control method of the system, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016027480A (en) * 2012-04-27 2016-02-18 キヤノンマーケティングジャパン株式会社 Information processing system, information processing apparatus, control method of the system, and program

Similar Documents

Publication Publication Date Title
US8314790B1 (en) Layer opacity adjustment for a three-dimensional object
US8677282B2 (en) Multi-finger touch adaptations for medical imaging systems
US8577762B2 (en) Detail-in-context lenses for interacting with objects in digital image presentations
CN111530073B (en) Game map display control method, storage medium and electronic device
US8478026B2 (en) Method and system for transparency adjustment and occlusion resolution for urban landscape visualization
US8350872B2 (en) Graphical user interfaces and occlusion prevention for fisheye lenses with line segment foci
JP2015501044A (en) Method and system for capturing and moving 3D models of real world objects and correctly scaled metadata
JP2002513480A (en) Techniques for creating and modifying 3D models and correlating such models with 2D pictures
JP2011095797A (en) Image processing device, image processing method and program
JP2000298685A (en) Selection navigator
JP2022105083A (en) Method and device for displaying view of three-dimensional space, and storage medium
US11562545B2 (en) Method and device for providing augmented reality, and computer program
Tatzgern Situated visualization in augmented reality
EP4002293A1 (en) Image display device, method, and program
CN119303299A (en) Map processing method in game, electronic device and computer-readable storage medium
Fadzli et al. VoxAR: 3D modelling editor using real hands gesture for augmented reality
US7116341B2 (en) Information presentation apparatus and method in three-dimensional virtual space and computer program therefor
Shen et al. CUDA-based real-time hand gesture interaction and visualization for CT volume dataset using leap motion
EP4002159A1 (en) Image display device, method, and program
TW543323B (en) Multiple camera control system
CN109643182A (en) Information processing method and device, cloud processing equipment and computer program product
JP2004227073A (en) Information selection method and information selection program
JPH1166351A (en) Object movement control method and apparatus in three-dimensional virtual space and recording medium recording object movement control program
JP2020166526A (en) Work support device, work support method, program, and object detection model
JP2001117958A (en) Arrangement management device and arrangement simulation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081028

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090303