JPH11316855A - How to display buildings using CG images - Google Patents
How to display buildings using CG imagesInfo
- Publication number
- JPH11316855A JPH11316855A JP12134798A JP12134798A JPH11316855A JP H11316855 A JPH11316855 A JP H11316855A JP 12134798 A JP12134798 A JP 12134798A JP 12134798 A JP12134798 A JP 12134798A JP H11316855 A JPH11316855 A JP H11316855A
- Authority
- JP
- Japan
- Prior art keywords
- image
- user
- building
- displayed
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Studio Circuits (AREA)
Abstract
(57)【要約】
【課題】 CG画像上に建築物の画像とともに人物像を
表示することのできる表示方法、並びに該表示方法をコ
ンピュータに実行させるためのプログラムを記録したコ
ンピュータ読取可能な記録媒体を提供すること。
【解決手段】 建築物Zに関する3次元形状データを予
め作成してコンピュータ15に記憶させておき、上記3
次元形状データに対する視点位置を静止または所望方向
へ移動させることにより、上記建築物ZをCG画像によ
り静止画または動画として表示させるようにしたCG画
像による建築物の表示方法において、予め人物像U1a
を撮影しておき、この人物像U1aを上記CG画像内に
上記建築物Zと同一の縮尺で表示するようにしたもの。
(57) Abstract: A display method capable of displaying a person image together with an image of a building on a CG image, and a computer-readable recording medium storing a program for causing a computer to execute the display method To provide. SOLUTION: Three-dimensional shape data relating to a building Z is created in advance and stored in a computer 15, and
In a method of displaying a building by a CG image in which the building Z is displayed as a still image or a moving image by a CG image by moving the viewpoint position with respect to the three-dimensional shape data in a static or desired direction, a person image U1a is used in advance.
And the person image U1a is displayed in the CG image at the same scale as the building Z.
Description
【0001】[0001]
【産業上の利用分野】本発明は、予めCADシステム等
で作成した建築物に関する3次元形状データに基づいて
上記建築物をCG画像により静止画または動画として表
示するに当たり、上記CG画像内にユーザの画像等の人
物像を表示できるようにしたCG画像による建築物の表
示方法、並びに該表示方法をコンピュータに実行させる
ためのプログラムを記録したコンピュータ読取可能な記
録媒体に関するものである。BACKGROUND OF THE INVENTION The present invention relates to displaying a building as a still image or a moving image using a CG image on the basis of three-dimensional shape data on the building created in advance by a CAD system or the like. The present invention relates to a method of displaying a building by a CG image capable of displaying a human image such as an image of a building, and a computer-readable recording medium storing a program for causing a computer to execute the display method.
【0002】[0002]
【従来の技術】住宅の設計に際しては、敷地条件やユー
ザの好み、希望に応じて、建築様式、床面積、間取り等
を個別に検討するようにしているが、その場合、平面図
等の設計図面を提示するのみでは、ユーザは自らが建築
しようとする住宅の細部に関する具体的なイメージが得
られにくい問題がある。2. Description of the Related Art When designing a house, the building style, floor area, floor plan, etc. are individually considered according to site conditions, user preferences, and desires. There is a problem in that it is difficult for the user to obtain a specific image of the details of the house he intends to build by merely presenting the drawing.
【0003】そこで、従来、住宅の設計図面をCAD(C
omputer Aided Design) システムにより作成した後、こ
の設計図面に基づいて上記住宅の3次元形状データを作
成し、更に、この3次元形状データにデータ統合及び色
付け等の処理を施すことにより、上記住宅を表すコンピ
ュータグラフィックス(Computer Graphics) による画像
(以下、CG画像という)をスクリーン等の表示装置上
に表示させるとともに、上記3次元形状データに対して
設定した視点位置をマウス等の入力手段を用いて所望の
方向へ移動させながらコンピュータにリアルタイムの演
算を行わせることにより、上記住宅の内外を歩行してい
るのと同様の動画を上記表示装置上に表示させ、CG画
像上で、いわゆる、ウォークスルーを行うことが提案さ
れている(特開平9-106408号公報参照) 。[0003] Therefore, conventionally, the design drawing of the house is CAD (C
omputer Aided Design) system, and then creates three-dimensional shape data of the house based on the design drawing, and further performs processing such as data integration and coloring on the three-dimensional shape data. A computer graphics image (hereinafter, referred to as a CG image) is displayed on a display device such as a screen, and the viewpoint position set for the three-dimensional shape data is input using an input means such as a mouse. By moving the computer in real time while moving in a desired direction, the same moving image as walking inside and outside the house is displayed on the display device, and a so-called walk-through is displayed on the CG image. (See Japanese Patent Application Laid-Open No. 9-106408).
【0004】上記の表示方法によれば、住宅の各部が3
次元の動画として実物同様に表示されるので、ユーザは
間取りや家具の配置等が適切であるかを的確に判断する
ことができるとともに、内装材の色、柄や各種材料の質
感に至るまで、CG画像上で確認できる等の利点があ
る。According to the above display method, each part of the house is 3
Since it is displayed like a real thing as a three-dimensional video, the user can accurately judge whether the layout and arrangement of furniture are appropriate, and even the color of the interior material, the pattern and the texture of various materials, There are advantages such as confirmation on a CG image.
【0005】[0005]
【発明が解決しようとする課題】ところで、上記のCG
画像による建築物の表示方法では、ユーザは実際の住宅
に対するCG画像の縮尺が分からないため、各部屋の広
さや天井、棚の高さ等に関する感覚が得られにくく、広
さや高さ等を把握しにくい問題を有していた。また、C
G画像上に部屋や家具が表示されるのみであるので、殺
風景な印象を与えがちであった。The above-mentioned CG
In the method of displaying buildings using images, since the user does not know the scale of the CG image of the actual house, it is difficult to obtain a sense of the size of each room, the height of the ceiling, the height of the shelves, etc., and grasp the size, height, etc. Had a difficult problem. Also, C
Since only the room and the furniture are displayed on the G image, they tend to give a murky landscape impression.
【0006】[0006]
【課題を解決するための手段】本発明は前記の課題を解
決して、CG画像上に建築物の画像とともにユーザの画
像等の人物像を表示することのできる表示方法、並びに
該表示方法をコンピュータに実行させるためのプログラ
ムを記録したコンピュータ読取可能な記録媒体を提供す
ることを目的とする。そのため、本発明の請求項1のC
G画像による建築物の表示方法は、建築物に関する3次
元形状データを予め作成してコンピュータに記憶させて
おき、上記3次元形状データに対する視点位置を静止ま
たは所望方向へ移動させることにより、上記建築物をC
G画像により静止画または動画として表示させるように
した建築物に関するCG画像の表示方法において、予め
人物像を撮影しておき、この人物像を上記CG画像内に
上記建築物と同一の縮尺で表示するようにしたことを特
徴とするものである。上記視点位置の静止または移動
は、例えば、マウス等の入力手段により上記コンピュー
タに指示することができる。According to the present invention, there is provided a display method capable of displaying a human image such as an image of a user together with an image of a building on a CG image by solving the above-mentioned problems, and a display method thereof. It is an object of the present invention to provide a computer-readable recording medium on which a program to be executed by a computer is recorded. Therefore, C of claim 1 of the present invention
The method of displaying a building using a G image is such that the three-dimensional shape data relating to the building is created in advance and stored in a computer, and the viewpoint position with respect to the three-dimensional shape data is stationary or moved in a desired direction. Things C
In a method of displaying a CG image related to a building, which is displayed as a still image or a moving image using a G image, a human image is captured in advance, and the human image is displayed in the CG image at the same scale as the building. It is characterized by doing so. The stationary or moving of the viewpoint position can be instructed to the computer by input means such as a mouse, for example.
【0007】請求項2のCG画像による建築物の表示方
法は、請求項1の表示方法において、上記建築物は特定
のユーザが建築しようとする建築物であり、上記人物像
は当該ユーザを撮影した画像であることを特徴とするも
のである。According to a second aspect of the present invention, there is provided a method for displaying a building by using a CG image, wherein the building is a building that a specific user intends to build, and the person image is a photograph of the user. The image is characterized in that it is an image that has been rendered.
【0008】請求項3のCG画像による建築物の表示方
法は、請求項1または2の表示方法において、上記CG
画像は3次元画像であることを特徴とするものである。According to a third aspect of the present invention, there is provided a method for displaying a building by using a CG image according to the first or second aspect.
The image is a three-dimensional image.
【0009】請求項4のCG画像による建築物の表示方
法は、請求項2または3の表示方法において、上記ユー
ザの身体の動きを検出し、検出した身体の動きに応じて
上記CG画像内のユーザの画像が動くように表示を行う
ことを特徴としている。According to a fourth aspect of the present invention, in the display method of a building according to the second or third aspect, the movement of the user's body is detected and the CG image in the CG image is detected in accordance with the detected movement of the body. It is characterized in that display is performed so that a user's image moves.
【0010】請求項5の建築物に関するCG画像の表示
方法は、請求項4の表示方法において、上記ユーザはヘ
ッドマウントディスプレーを装着し、該ヘッドマウント
ディスプレーにより上記建築物のCG画像を見ながら自
らの身体を動かすとともに、上記ユーザの身体の動きに
合わせて該ユーザの画像が動くように上記ヘッドマウン
トディスプレー以外の表示装置によりCG画像の表示を
行うことを特徴とするものである。According to a fifth aspect of the present invention, in the display method of the fourth aspect, the user wears a head-mounted display and looks at the CG image of the building by the head-mounted display. And displaying a CG image on a display device other than the head mounted display so that the image of the user moves in accordance with the movement of the body of the user.
【0011】請求項6の記録媒体は、請求項1乃至5の
いずれかに記載したCG画像による建築物の表示方法を
コンピュータに実行させるためのプログラムを記録した
コンピュータ読取可能な記録媒体であることを特徴とす
るものである。According to a sixth aspect of the present invention, there is provided a computer-readable recording medium storing a program for causing a computer to execute the method for displaying a building by a CG image according to any one of the first to fifth aspects. It is characterized by the following.
【0012】[0012]
【発明の実施の形態】以下、本発明の実施の形態を図面
に基づいて説明する。まず、住宅建築会社内等に設けら
れ、該住宅建築会社等がユーザの建築予定の住宅をCG
画像により表示する表示室(プレゼンテーションルー
ム)の構成につき述べる。図1及び図2に示すように、
表示室1は、その前部の壁2に、遮光シャッタ3a付き
の上下方向に細長い窓3を有し、且つ前部近傍の壁2と
図示しない天井との間に上下幅の狭い通気用の間隙4を
有する以外には、外部光が侵入しにくい暗室状の構成と
されている。表示室1の四方の壁2の上端部近傍には、
室内側へ水平に張り出す張出部5が形成され、張出部5
の下面には、所定の間隔で小型の照明器具6が設けられ
る一方、表示室1の前記不図示の天井には、図示しない
大型の照明器具が取り付けられている。Embodiments of the present invention will be described below with reference to the drawings. First, it is provided in a house building company or the like.
The configuration of a display room (presentation room) for displaying images will be described. As shown in FIGS. 1 and 2,
The display room 1 has a vertically elongated window 3 with a light-shielding shutter 3a on a front wall 2 thereof, and a narrow vertical ventilation hole between the front vicinity wall 2 and a ceiling (not shown). Except for having the gap 4, it has a dark-room-like configuration in which external light hardly penetrates. In the vicinity of the upper end of the four walls 2 of the display room 1,
An overhanging portion 5 that extends horizontally to the indoor side is formed.
Small lighting fixtures 6 are provided at predetermined intervals on the lower surface of the display room 1, while large lighting fixtures (not shown) are attached to the ceiling (not shown) of the display room 1.
【0013】表示室1の後方に、壁2を隔てて投影室7
が形成されている。図3にも示すように、表示室1と投
影室7間の壁2の中央部には、サイズが100インチ以
上、具体的には、例えば、125インチ程度の大画面の
スクリーン8(画素数は1280×1024ドット程
度)が埋め込まれている。スクリーン8は、例えば、投
影室7側に、光を効率的に集める加工(フレネルレン
ズ)が施される一方、表示室1側に前記光を水平方向へ
広げる縦スジの加工(レンティキュラーレンズ)が施さ
れたフレネルレンティキュラースクリーン等からなる。Behind the display room 1, the projection room 7 is separated by the wall 2.
Are formed. As shown in FIG. 3, a large screen 100 having a size of 100 inches or more, specifically, for example, about 125 inches (the number of pixels) is provided at the center of the wall 2 between the display room 1 and the projection room 7. Is about 1280 × 1024 dots). The screen 8 is provided with, for example, a process for efficiently collecting light (Fresnel lens) on the projection room 7 side, and a vertical stripe process (Lenticular lens) for spreading the light in the horizontal direction on the display room 1 side. And a Fresnel lenticular screen and the like.
【0014】投影室7内に配置された載置台10上に
は、3本の投射管11aを有するプロジェクタ11(投
影機)が設置されている。プロジェクタ11とスクリー
ン8との間には、反射ミラー12が配置され、プロジェ
クタ11からの投影像が反射ミラー12で反射された
後、スクリーン8に投影室7側から投影され、このスク
リーン8への投影像を表示室1側から鑑賞できるように
なっている。なお、投影室7のスペースを充分に確保で
きる場合は、反射ミラー12を使用せずにプロジェクタ
11からスクリーン8に直接投影するようにしても良
い。表示室1及び投影室7には、各々ドアDが開閉自在
に設けられている。A projector 11 (projector) having three projection tubes 11a is installed on a mounting table 10 arranged in the projection room 7. A reflection mirror 12 is disposed between the projector 11 and the screen 8. After a projection image from the projector 11 is reflected by the reflection mirror 12, the image is projected onto the screen 8 from the projection room 7 side. The projected image can be viewed from the display room 1 side. If the space in the projection room 7 can be sufficiently secured, the projector 11 may directly project onto the screen 8 without using the reflection mirror 12. Each of the display room 1 and the projection room 7 is provided with a door D that can be freely opened and closed.
【0015】図3に示すように、表示室1内には、スク
リーン8上のCG画像を鑑賞するユーザUが着座するた
めの複数の椅子13及びテーブル14等が適宜配置され
ている。また、図4に示すように、表示室1の片隅に
は、CG画像を生成するワークステーション15(コン
ピュータ)が設置されている。As shown in FIG. 3, in the display room 1, a plurality of chairs 13 and a table 14 for a user U who watches a CG image on a screen 8 to be seated are appropriately arranged. As shown in FIG. 4, a workstation 15 (computer) for generating a CG image is provided at one corner of the display room 1.
【0016】ワークステーション15は、テーブル16
上に載置されたCRT17(CathodeRay Tube) 、キーボ
ード18、マウス19、フルカラーのプリンタ21、及
びテーブル16の下方に配置された入出力兼演算装置2
2等を備え、予め図示しないCADシステムにより作成
されたユーザUの建築予定の住宅(建築物)に関する3
次元形状データと、住宅建築会社等の係員であるオペレ
ータOによるキーボード18及びマウス19の入力操作
とに応じて、CG画像用データをリアルタイムで生成
し、これに基づいて、CRT17及びスクリーン8に、
上記住宅に関するCG画像を静止画または動画として表
示できるようになっている。なお、ワークステーション
15の操作は、ユーザU自身が行うようにしてもよい。The workstation 15 has a table 16
A CRT 17 (Cathode Ray Tube) mounted thereon, a keyboard 18, a mouse 19, a full-color printer 21, and an I / O / arithmetic unit 2 disposed below the table 16
3 relating to a house (building) scheduled to be constructed by the user U created by a CAD system (not shown) in advance.
CG image data is generated in real time in accordance with the dimensional shape data and the input operation of the keyboard 18 and the mouse 19 by the operator O who is a clerk of a house building company or the like, and based on this, the CRT 17 and the screen 8
The CG image relating to the house can be displayed as a still image or a moving image. The operation of the workstation 15 may be performed by the user U himself.
【0017】入出力兼演算装置22は、図5に仮想的に
透視状態の斜視図を示すように、システムバススロッ
ト、グラフィックススロット、VMEバススロット等を
含むバス及びグラフィックススロット22aと、SCS
I−IIドライブスロット等を含むドライブスロット22
bと、電源ユニット22c等を内蔵している。前記バス
及びグラフィックススロット22aは、更に、CPU、
メモリ等を含んでいてもよい。As shown in a perspective view of a virtual perspective view in FIG. 5, the input / output / arithmetic unit 22 includes a bus including a system bus slot, a graphics slot, a VME bus slot and the like, a graphics slot 22a, an SCS
Drive slots 22 including I-II drive slots, etc.
b, a power supply unit 22c, and the like. The bus and graphics slot 22a further includes a CPU,
It may include a memory or the like.
【0018】図6にブロック構成図を示すように、上記
入出力兼演算装置22は、複数個、例えば、2乃至24
個程度のCPU23(150MHz) と、容量が64M
B乃至16GB程度、標準的には128MB程度のメイ
ンメモリ24と、I/Oシステム群25とを備え、これ
らは同期式のシステムバス26(1.2GB/s、25
6bit)と、入出力バス27(320MB/s)とに
より相互に連結されて、データの送受信を行えるように
なっている。As shown in the block diagram of FIG. 6, the input / output / arithmetic unit 22 has a plurality of units, for example, 2 to 24 units.
About 23 CPUs (150MHz) and 64M capacity
A main memory 24 of about B to 16 GB, typically about 128 MB, and an I / O system group 25 are provided. These are a synchronous system bus 26 (1.2 GB / s, 25 GB).
6 bits) and an input / output bus 27 (320 MB / s) so that data can be transmitted and received.
【0019】I/Oシステム群25は、グラフィックス
インターフェース28、所定数のHIOスロット30、
Ethernet31、VME64バス32及びSCS
I−IIインターフェース33を備えている。グラフィッ
クスインターフェース28は、補助画像処理部34(Re
ality Engine2)を介して前記CRT17(画面サイズ
は、例えば、21インチ)に接続されると共に、図示し
ないが、前記プロジェクタ11にも接続されている。前
記補助画像処理部34はグラフィックスインターフェー
ス28からの画像データに対して、周知のアンチエリア
シング、テクスチャマッピング等の処理を施した後、C
RT17等に出力するものである。The I / O system group 25 includes a graphics interface 28, a predetermined number of HIO slots 30,
Ethernet 31, VME64 bus 32 and SCS
An I-II interface 33 is provided. The graphics interface 28 includes an auxiliary image processing unit 34 (Re
The CRT 17 (the screen size is, for example, 21 inches) via the Quality Engine 2), and is also connected to the projector 11 (not shown). The auxiliary image processing unit 34 performs well-known processing such as anti-aliasing and texture mapping on the image data from the graphics interface 28,
It is output to RT17 and the like.
【0020】HIOスロット30は、グラフィックスや
SCSI−II等の入出力装置を接続するための、機器増
設用のスロット(差込み口)で、空いているHIOスロ
ット30に各種拡張ボードを追加実装して、機能アップ
を図ることができるようになっている。例えば、グラフ
ィックスとして、今一つの補助画像処理部34を追加す
ることにより、2系統のグラフィックス処理系統を具備
することができ、複数画面への出力の高速化を実現でき
る。The HIO slot 30 is a slot (insertion port) for adding equipment for connecting input / output devices such as graphics and SCSI-II. Various expansion boards are additionally mounted on the vacant HIO slot 30. Therefore, the function can be improved. For example, by adding another auxiliary image processing unit 34 as graphics, two graphics processing systems can be provided, and the speed of output to a plurality of screens can be increased.
【0021】Ethernet31は、LAN(Local A
rea Network)を接続するための接続ポートであり、この
Ethernet31を用いて他のコンピュータ、例え
ば、CADシステムと接続することにより、フロッピー
ディスク等の物理的な媒体を介さずに、CADシステム
と直接、3次元形状データ等の送受信を行うことが可能
になる。VME64バス32は、ある種のコンピュータ
の拡張規格であって、接続部位の形状、信号線の配置等
を取り決めることにより、各種の拡張機器の接続性を保
証するものである。なお、上記SCSI−IIインターフ
ェース33に接続されたハードディスク35には、本発
明に係るCG画像による建築物の表示方法をワークステ
ーション15に実行させるためのプログラムが、図示し
ないCDROM等の記録媒体から予めインストールされ
ている。The Ethernet 31 is a LAN (Local A)
A connection port for connecting to a CAD system without using a physical medium such as a floppy disk by connecting to another computer, for example, a CAD system using the Ethernet 31. Transmission and reception of three-dimensional shape data and the like can be performed. The VME64 bus 32 is an extended standard for a certain type of computer, and guarantees the connectivity of various types of extended devices by arranging the shape of connection parts, the arrangement of signal lines, and the like. The hard disk 35 connected to the SCSI-II interface 33 stores a program for causing the workstation 15 to execute the method for displaying a building using CG images according to the present invention from a recording medium such as a CDROM (not shown) in advance. Installed.
【0022】図3に示すように、表示室1内に配置され
た載置台36上には、ユーザUが、いわゆる、バーチャ
ルリアリティの技術を用いて、仮想的にCG画像内に入
り込んで各種作業や歩行を行う場合に使用するヘッドマ
ウントディスプレー(以下、HMDという)37と、2
つの手袋型検出装置38とが準備されている。HMD3
7及び各手袋型検出装置38は、各々接続線40、41
を介して中継制御装置42に接続されるとともに、中継
制御装置42は接続線43を介してワークステーション
15に接続されている。なお、HMD37及び手袋型検
出装置38は、中継制御装置42を介さずに直接ワーク
ステーション15に接続されていてもよい。また、表示
室1内には、ユーザUの3次元写真を撮影するための3
次元カメラ44が配置され、3次元カメラ44は接続線
45によりワークステーション15に接続されている。As shown in FIG. 3, on a mounting table 36 arranged in the display room 1, a user U virtually enters a CG image using a so-called virtual reality technique to perform various operations. Head mount display (hereinafter referred to as HMD) 37 and 2
And two glove-type detectors 38 are provided. HMD3
7 and each glove-type detecting device 38 are connected to connecting wires 40 and 41, respectively.
And the relay control device 42 is connected to the workstation 15 via a connection line 43. Note that the HMD 37 and the glove-type detection device 38 may be directly connected to the workstation 15 without going through the relay control device 42. Also, in the display room 1, there is a 3D photograph for taking a three-dimensional photograph of the user U.
A three-dimensional camera 44 is arranged, and the three-dimensional camera 44 is connected to the workstation 15 by a connection line 45.
【0023】上記HMD37の構成は周知であるが、以
下簡単に説明する。図7に示すように、HMD37は、
装着状態でユーザUの両目の前方に位置する画像表示部
46と、ユーザUの両耳に装着される2個のヘッドホン
47と、画像表示部46及びヘッドホン47等を連結す
るフレーム48と、フレーム48の上部に取り付けら
れ、ユーザUの頭部の向きを検出する検出センサ50と
を有する。The configuration of the HMD 37 is well known, but will be briefly described below. As shown in FIG. 7, the HMD 37
An image display unit 46 positioned in front of both eyes of the user U in a mounted state, two headphones 47 mounted on both ears of the user U, a frame 48 connecting the image display unit 46 and the headphones 47, and a frame; And a detection sensor 50 that is attached to the upper part of the head 48 and detects the direction of the head of the user U.
【0024】図8に示すように、画像表示部46はレン
ズ等からなる光学系51と、液晶ディスプレーまたは小
型のCRT等からなる表示部本体52とを備え、ユーザ
Uの右目と左目に対し、互いに視差を有するCG画像が
表示されることにより、図中、Tの位置(目からその焦
点距離Fだけ離れた位置)に虚像が作り出される。これ
により、ユーザUには、図中、Xの位置に目的物が存在
するかのような視覚効果が与えられる。As shown in FIG. 8, the image display unit 46 includes an optical system 51 composed of a lens and the like, and a display unit main body 52 composed of a liquid crystal display or a small CRT. By displaying CG images having parallax with each other, a virtual image is created at a position T (a position distant from the eye by the focal length F) in the figure. As a result, the user U is given a visual effect as if the target object exists at the position X in the figure.
【0025】図9に示すように、手袋型検出装置38も
周知の構成を有するものであって、ユーザUの手に装着
する手袋53の表面に、位置及び姿勢を検出する磁気的
な空間位置姿勢検出センサ54と、各手指の折り曲げ状
態を検出する複数の光ファイバセンサ55とを取り付け
たもの(例えば、VPL社のデータグローブ(商品
名))である。なお、手袋型検出装置38は、例えば、
上記光ファイバセンサ55の代わりに導電性インクを用
いたもの(例えば、Virtual Technologies社のサイバー
グローブ(商品名))等であってもよい。As shown in FIG. 9, the glove-type detecting device 38 also has a well-known structure, and has a magnetic spatial position for detecting a position and a posture on the surface of the glove 53 worn on the hand of the user U. This is a sensor (for example, a data glove (trade name) manufactured by VPL) equipped with a posture detection sensor 54 and a plurality of optical fiber sensors 55 for detecting a bent state of each finger. The glove type detection device 38 is, for example,
A sensor using conductive ink instead of the optical fiber sensor 55 (for example, Cyber Globe (trade name) manufactured by Virtual Technologies) may be used.
【0026】図10に示すように、上記3次元カメラ4
4も周知の構成を有するものであって、蓋体56により
開閉可能な発光部57から照射される図示しないスリッ
ト状のレーザ光で被写体、つまり、ユーザUの身体表面
をスキャンし、その反射光をCCDカメラ58で受光す
ることにより、3次元の凹凸形状を読み取り、フルカラ
ーの3次元画像を作成するもの(例えば、ミノルタ株式
会社のVIVID700(商品名))である。As shown in FIG.
4 also has a well-known configuration, and scans an object, that is, the body surface of the user U, with a slit-shaped laser beam (not shown) emitted from a light emitting unit 57 that can be opened and closed by a lid 56, and reflects the reflected light. Is received by a CCD camera 58 to read a three-dimensional uneven shape to create a full-color three-dimensional image (for example, VIVID700 (trade name) of Minolta Co., Ltd.).
【0027】ワークステーション15を用いて表示室1
内でユーザUの建築予定の住宅Zに関するCG画像を作
成、表示する場合、図11のフローチャートに示すよう
に、まず、表示室1以外の部屋等に配置された住宅CA
Dシステムで、前記住宅Zの平面図を作成する(S
1)。係る住宅Zの一例としての2階建住宅の1階部分
の平面図を図12に、2階部分の平面図を図13に各々
示す。各平面図には、前記住宅Zの平面形状や間取り等
が表されている。Display room 1 using workstation 15
When creating and displaying a CG image relating to a house Z scheduled to be built by the user U within the house, first, as shown in the flowchart of FIG.
In the D system, a plan view of the house Z is created (S
1). FIG. 12 is a plan view of the first floor of a two-story house as an example of the house Z, and FIG. 13 is a plan view of the second floor. Each plan view shows the plan shape, floor plan, and the like of the house Z.
【0028】続いて、前記住宅CADシステムで住宅Z
の3次元形状データ(3次元モデル)を作成する(図1
1中S2)。係る3次元形状データに基いて表された前
記住宅Zの斜視図、北立面図及び西立面図を各々図14
乃至図16に示す。Subsequently, the house CAD system is used for the house Z.
Create three-dimensional shape data (three-dimensional model)
S2 in 1). FIG. 14 shows a perspective view, a north elevation view, and a west elevation view of the house Z expressed based on the three-dimensional shape data.
16 to FIG.
【0029】また、外構CADシステムで、前記住宅Z
に付属する塀や門等の外構(図示せず)を表す3次元形
状データを作成する一方(図11中S3)、一般CAD
システムで、前記建築予定の住宅Zに隣接する実在の住
宅、道路或いは遠景の住宅、ビルディング等の実在の近
隣環境(図示せず)に関する3次元形状データを作成す
る(S4)。Further, in the exterior CAD system, the house Z
While creating three-dimensional shape data representing the exterior (not shown) of a fence, a gate, etc. attached to the computer (S3 in FIG. 11), the general CAD
The system creates three-dimensional shape data related to a real neighboring environment (not shown) such as a real house adjacent to the house Z to be built, a house in a road or a distant view, and a building (S4).
【0030】更に、一般CADシステムで屋外及び屋内
の点景部品、例えば、屋外の樹木、自動車等の車両、
石、自転車、道路標識等(図示せず)や、屋内の家具、
調度類、装飾品、絵画等に関する3次元形状データを予
め作成し(S5)、これらを点景部品用のライブラリー
に蓄えておく(S6)。以上がCG画像の表示に先立っ
て行うべきCADシステムによる画像データの作成であ
る。なお、前記住宅CADシステム及び外構CADシス
テムは、各々住宅Z及び外構に関する3次元形状データ
を作成するための各種データベース等を備えたCADシ
ステムである。Further, in the general CAD system, outdoor and indoor scene parts, for example, outdoor trees, vehicles such as automobiles,
Stones, bicycles, road signs, etc. (not shown), indoor furniture,
Three-dimensional shape data relating to furnishings, decorations, paintings, and the like is created in advance (S5), and these are stored in a library for scene parts (S6). The above is the generation of the image data by the CAD system to be performed prior to the display of the CG image. The house CAD system and the exterior CAD system are CAD systems provided with various databases for creating three-dimensional shape data relating to the house Z and the exterior, respectively.
【0031】ワークステーション15で前記CADデー
タに基いて、住宅Z、外構、点景部品及び当該住宅Zの
近隣環境等をCG画像として作成、表示する場合、前記
住宅Z、外構等について各種CADシステムで各々作成
した3次元形状データをワークステーション15の入出
力兼演算装置22に読み込む(図11中S7)。以後、
ワークステーション15によりデータ統合及び画像調整
のための処理を行うが、この処理方法としては、(a)
手作業による処理と、(b)自動化処理との2通りがあ
る。When the house 15 creates and displays CG images of the house Z, the outside structure, the scenery parts, and the surrounding environment of the house Z based on the CAD data, various types of the house Z, the outside structure, and the like are used. The three-dimensional shape data created by the CAD system is read into the input / output and arithmetic unit 22 of the workstation 15 (S7 in FIG. 11). Since then
The processing for data integration and image adjustment is performed by the workstation 15. The processing method includes (a)
There are two types of processing: manual processing and (b) automation processing.
【0032】その内、(a)の手作業による場合、ま
ず、前記住宅Z、外構、点景部品等に関する各種形状デ
ータを、レンダリングソフトを用いて、以後のCG画像
の作成、表示処理の際に読み取り可能なファイル形式に
コンバートする(S8)。続いて、CADデータからコ
ンバートされた面に対し、各面単位或いは隣接する複数
の面のグループ単位をマウス等で選択し、素材情報を設
定することにより、色付けを行う(S9)。In the case of the manual operation (a), first, various shape data relating to the house Z, the exterior, the scenery parts, and the like are used for rendering and display processing of a CG image using rendering software. At this time, the file is converted into a readable file format (S8). Subsequently, for each surface converted from the CAD data, each surface or a group of a plurality of adjacent surfaces is selected with a mouse or the like, and material information is set, thereby performing coloring (S9).
【0033】本発明では、主として、(b)の自動化処
理で形状コンバートを行うことを想定しているが、この
場合、前記CADシステムにおいて、前記住宅Zに関す
る3次元形状データに、予め、建物仕様情報が付加され
る。該建物仕様情報には、前記住宅Zの建物形式(例え
ば、形式I、形式II等)、外装材の色彩(外装材の素材
は住宅Zの種類により決定される)、屋根材の種類と色
彩等、住宅Zの外観を決定する上で重要な情報が含まれ
る。In the present invention, it is mainly assumed that the shape conversion is performed by the automation processing of (b). In this case, in the CAD system, the three-dimensional shape data relating to the house Z is stored in advance in the building specification. Information is added. The building specification information includes the building type (for example, type I, type II, etc.) of the house Z, the color of the exterior material (the material of the exterior material is determined by the type of the house Z), the type and color of the roof material. For example, important information for determining the appearance of the house Z is included.
【0034】前記(b)の自動化処理においては、ワー
クステーション15でコンバートプログラムにより、形
状コンバート及び色付け作業が行われる(S10)。こ
こでは、コンバート後の3次元形状データが、パース図
(3次元透写図)としてではなく、ファイルとして出力
される。すなわち、前記パース図では、視点から見えな
い部分の描画は行われないが、本発明ではCG画像用の
出力であるため、作成される3次元データの全てがファ
イルとして出力される。In the automation processing of the above (b), a work conversion and a coloring work are performed in the work station 15 by a conversion program (S10). Here, the converted three-dimensional shape data is output not as a perspective view (three-dimensional perspective view) but as a file. That is, in the perspective view, a portion that cannot be seen from the viewpoint is not drawn, but in the present invention, since it is an output for a CG image, all of the created three-dimensional data is output as a file.
【0035】前記ファイル出力において、住宅Zの各部
位、例えば、壁、床、サッシ等はCAD上では別個のも
のとしてデータ保存されている。ここでは、各々の部位
の3次元形状データの出力の際に、どの部位の形状デー
タであるかを示す情報が、部位名称又は番号によって、
前記形状データに内部情報として埋め込まれる。以下に
その例を示す。 部位名称(又は番号):壁 3次元形状データ(壁) ... ... 3次元形状データの終り 部位名称(又は番号):サッシ 3次元形状データ(サッシ) ... ... 3次元形状データの終り 部位名称(又は番号):床 3次元形状データ(床) ... ... 3次元形状データの終りIn the file output, each part of the house Z, for example, a wall, a floor, a sash, etc., is stored as data separately on the CAD. Here, at the time of outputting the three-dimensional shape data of each part, information indicating which part is the shape data is represented by a part name or a number.
It is embedded as internal information in the shape data. An example is shown below. Part name (or number): wall 3D shape data (wall). . . . . . End of 3D shape data Site name (or number): sash 3D shape data (sash). . . . . . End of 3D shape data Site name (or number): floor 3D shape data (floor). . . . . . End of 3D shape data
【0036】一方、前記住宅Zの各部位にいかなる素材
が使用され、従って、各部位がいかなる色彩を呈するか
等の情報は、前記3次元形状データには含まれず、別
途、素材情報ファイルにより提供される。この素材情報
ファイルは、例えば、各住宅Zが属する建物形式毎に準
備されており、前記コンバートプログラムによって、前
記CADシステムの3次元形状データに含まれた前記建
物仕様情報が読み込まれ、これに基いて、当該住宅Zの
建物形式に合致した素材情報ファイルが選択される。On the other hand, information such as what material is used for each part of the house Z and what color each part presents is not included in the three-dimensional shape data but provided separately by a material information file. Is done. This material information file is prepared, for example, for each building type to which each house Z belongs, and the conversion specification program reads the building specification information included in the three-dimensional shape data of the CAD system. Then, a material information file that matches the building type of the house Z is selected.
【0037】各素材情報ファイルには、前述した壁、サ
ッシ等の各部位名称と、各部位で標準的に使用される素
材(当該部位が屋根材であれば、例えば、カラーベスト
で、色彩はブラウン等)と、該素材に対応するCGソフ
ト上での属性情報(例えば、反射係数0.4、テクスチ
ャマッピングはYANE、RGBが600mm×400
mm相当、張り込みはZ軸下から上へ)とが対応表とし
て記憶されている。Each material information file contains the names of the respective parts such as the above-mentioned walls and sashes, and the materials used as standard in each part (for example, if the part is a roofing material, it is a color vest and the color is Brown and the like and attribute information on the CG software corresponding to the material (for example, a reflection coefficient of 0.4, texture mapping of YANE, RGB of 600 mm × 400)
mm, and the sticking is from the bottom to the top of the Z axis) is stored as a correspondence table.
【0038】又、これらの素材情報ファイルのマスター
となる、全ての情報を有するマスターファイルがバック
アップファイルとして備えられている。そして、例え
ば、前記住宅Zの一部の部位の素材又は色彩等を前記素
材情報ファイルに記憶されたもの以外のものに変更した
い場合、前記マスターファイルから所望の情報を呼び出
して前記素材情報ファイル中の情報の一部と置換するこ
とができる。Further, a master file having all information, which is a master of these material information files, is provided as a backup file. Then, for example, when it is desired to change the material or color of a part of the house Z to a material other than the material stored in the material information file, the desired information is called from the master file and Can be replaced with part of the information.
【0039】例えば、図17中A部に示すように、当該
住宅Zに関する建物仕様情報の建物形式が形式I、外装
材が種類I(色彩はオフグレー)、屋根材が平瓦(色彩
はブラック)である場合、素材情報ファイルとしては、
建物形式に基づき、図17中B部に示す形式I用のもの
が選択される。ここでは、形式I用の素材情報ファイル
の標準的な外装材として、種類I(色彩はペールグレ
ー)が登録されており、前記建物仕様情報中の外装材と
は相違している。この場合、図17中C部に示す前記マ
スターファイルから建物仕様情報に対応した外装材に関
する情報C1が呼び出され、前記素材情報ファイル中の
外装材に関する情報B1に代えて記憶される。前記3次
元形状データのファイルと、この素材情報ファイルと
は、以後、セットとして取り扱われる。For example, as shown in part A in FIG. 17, the building type of the building specification information for the house Z is type I, the exterior material is type I (color is off-gray), and the roof material is flat tile (color is black). , As the material information file,
Based on the building type, the type I shown in part B of FIG. 17 is selected. Here, type I (color is pale gray) is registered as a standard exterior material of the material information file for format I, which is different from the exterior material in the building specification information. In this case, information C1 relating to the exterior material corresponding to the building specification information is called from the master file shown in part C in FIG. 17, and stored instead of information B1 relating to the exterior material in the material information file. The file of the three-dimensional shape data and the material information file are hereinafter treated as a set.
【0040】その後、前記外構、点景部品及び近隣環境
に関する各3次元形状データに対しても、ワークステー
ション15で各々(a)の手作業又は(b)の自動処理
によって形状コンバート及び色付け作業が行われた後、
コンバート済の住宅Z、外構、点景部品等に関するファ
イル及びそれらに対応する前記素材情報ファイルがCG
ソフトに読み込まれ、前記住宅Z、外構、点景部品等を
全て同一画面に合成状態で表示できるように、各種ファ
イルの統合処理が行われて、全体の構成が作成される
(図11中S11)。続いて、統合されたファイルに対
し、ラジオシティ法等により前記住宅Z等の画像に日向
又は日陰等に応じた陰影を付与するための演算が行わ
れ、且つ照明計算、日当り計算等の各種演算が行われる
(S12)。After that, the workstation 15 also converts the three-dimensional shape data relating to the exterior, the scenery parts and the surrounding environment to the shape conversion and coloring work by manual work (a) or automatic processing (b). Is done,
Files relating to the converted house Z, exterior, scenery parts, etc. and the corresponding material information files are CG.
The entire configuration is created by performing integration processing of various files such that the house Z, the exterior, the scenery parts, and the like are read by the software and all of them can be displayed in a combined state on the same screen (FIG. 11). S11). Subsequently, the integrated file is subjected to an operation for adding a shade corresponding to the sun or the shade to the image of the house Z or the like by the radiosity method or the like, and various operations such as a lighting calculation and a daylight calculation are performed. Is performed (S12).
【0041】続いて、前記3次元形状データのファイル
に基いて、前記ワークステーション15でCG画像の表
示用ソフトを用い、前記3次元形状データに対して設定
した仮想的な視点位置を、オペレータOによるマウス1
9等での入力操作に応じて停止又は所望方向へ移動させ
ると、この視点位置の移動に伴ってリアルタイムの演算
が行われ、該演算により得られたCG画像用データがス
クリーン8及びCRT17に出力されることにより、各
時点で前記視点位置に対応する所望位置から前記住宅
Z、外構、点景部品等を見た状態を疑似的に再現するC
G画像が動画又は静止画として表示され、いわゆるウォ
ークスルーが行われる(S13)。Subsequently, based on the file of the three-dimensional shape data, the virtual viewpoint position set for the three-dimensional shape data is set by the operator O using the CG image display software at the workstation 15. Mouse 1 by
When the camera is stopped or moved in a desired direction in response to an input operation at 9 or the like, real-time calculation is performed in accordance with the movement of the viewpoint position, and CG image data obtained by the calculation is output to the screen 8 and the CRT 17. By doing so, C reproduces a state in which the house Z, the exterior, the scenery parts, and the like are viewed from a desired position corresponding to the viewpoint position at each time.
The G image is displayed as a moving image or a still image, and a so-called walk-through is performed (S13).
【0042】次に、ウォークスルーに際して、上記ワー
クステーション15で前記視点位置を移動させる手順を
説明する。図18に示すように、CRT17上にはカー
ソルGが表示され、このカーソルGは、例えば、キーボ
ード18上の4個のカーソルキー18aを選択的に操作
することにより、CRT17の画面17a上で上下方向
及び/又は左右方向へ移動可能である。Next, a description will be given of a procedure for moving the viewpoint position at the work station 15 during the walk-through. As shown in FIG. 18, a cursor G is displayed on the CRT 17, and this cursor G is moved up and down on the screen 17 a of the CRT 17 by, for example, selectively operating four cursor keys 18 a on the keyboard 18. It can be moved in the direction and / or left and right.
【0043】そして、ウォークスルーを行わせるための
仮想的な視点位置は、カーソルGを前記画面17a上で
上方へ移動させると前記視点位置が高くなり、カーソル
Gを下方へ移動させると前記視点位置が低くなると共
に、カーソルGを右又は左方向へ移動させると、それに
応じて視点の向き(視線)が右又は左方向へ旋回するよ
うになっている。更に、マウス19に付属した、左ボタ
ン19aを押圧すると視点位置が前進し、中ボタン19
bを押圧すると視点位置の前後方向への移動が停止し、
右ボタン19cを押圧すると視点位置が後退するように
なっている。When the cursor G is moved upward on the screen 17a, the viewpoint position becomes higher. When the cursor G is moved downward, the virtual viewpoint position becomes higher. Is lowered, and when the cursor G is moved rightward or leftward, the direction of the viewpoint (the line of sight) turns rightward or leftward accordingly. Further, when the left button 19a attached to the mouse 19 is pressed, the viewpoint position moves forward, and the middle button 19a is moved.
Pressing b stops the movement of the viewpoint position in the front-back direction,
When the right button 19c is pressed, the viewpoint position moves backward.
【0044】図19にCG画像としてスクリーン8に表
示された前記住宅Zの昼間における外観の一例を示す。
ここでは、上記ラジオシティ法等に基づく演算により外
壁W等に陰影が付与されており、図中ドットの付された
部分が陰になっている。CRT17上でカーソルGを移
動させ、且つ、マウス19の各ボタン19a乃至19c
を操作することによって、上記視点の向きを転換させ、
或いは、視点位置を画面の奥行き方向で移動させると、
実際に、ユーザUの建築予定の住宅Zの外部及び内部を
歩き回っているのと同様の視聴覚効果を与える動画がC
G画像として生成され、この動画は陰影を付与された状
態で表示される。FIG. 19 shows an example of the appearance of the house Z in the daytime displayed on the screen 8 as a CG image.
Here, a shadow is given to the outer wall W and the like by an operation based on the radiosity method and the like, and a portion with a dot in the figure is shaded. Move the cursor G on the CRT 17, and press the buttons 19a to 19c of the mouse 19.
By changing the direction of the viewpoint,
Or, if you move the viewpoint in the depth direction of the screen,
Actually, the moving image that gives the same audio-visual effect as walking around the outside and inside of the house Z scheduled to be constructed by the user U is C.
This moving image is generated as a G image, and is displayed in a shaded state.
【0045】カーソルキー18a及びマウス19の各ボ
タン19a乃至19cを操作することにより、例えば、
玄関を通過して、前記視点位置を屋内へ移動させると、
上記3次元形状データに基いてワークステーション15
で演算が行われ、該演算により生成されたCG画像用デ
ータに基づいて例えば、図20に示すように、屋内Iの
状況がスクリーン8及びCRT17上に表示される。そ
して、視点位置を屋内で、順次、移動又は停止させるこ
とにより、図21に示す洋室J、図22に示すキッチン
K及び図23に示す浴室Y等の各部屋が、順次、動画又
は静止画として表示される。By operating the cursor keys 18a and the buttons 19a to 19c of the mouse 19, for example,
Passing the entrance and moving the viewpoint position indoors,
Workstation 15 based on the three-dimensional shape data
, And based on the CG image data generated by the calculation, for example, as shown in FIG. 20, the state of the indoor I is displayed on the screen 8 and the CRT 17. Then, by sequentially moving or stopping the viewpoint position indoors, the rooms such as the Western-style room J shown in FIG. 21, the kitchen K shown in FIG. 22, and the bathroom Y shown in FIG. Is displayed.
【0046】キーボード18及びマウス19によって視
点位置を移動させる操作と、前記CG画像の表示の切換
わりとの対応関係につき、図12の平面図を参照しなが
ら説明する。例えば、今、視点位置がP点、つまり、食
堂M内にあり、視線が矢印Q方向を向いているものとす
ると、図示しないが、画面上にはキッチンKの仕切りK
1が表示されている。ここで、キッチンKの方向に接近
するのであれば、マウス19上の前進用の左ボタン19
aを押圧すれば良い。一方、例えば、視点の向きを居間
Nの方向へ転換するのであれば、カーソルキー18aで
カーソルGを左側に移動させれば良い。上記ウォークス
ルー中に生じる任意の静止画は、プリンタ21等でカラ
ー印刷でき、この印刷中にもウォークスルーは継続して
行える。The correspondence between the operation of moving the viewpoint position by the keyboard 18 and the mouse 19 and the switching of the display of the CG image will be described with reference to the plan view of FIG. For example, assuming that the viewpoint position is now at point P, that is, in the dining room M, and the line of sight is in the direction of arrow Q, the partition K of the kitchen K is displayed on the screen, although not shown.
1 is displayed. Here, if approaching in the direction of the kitchen K, the forward left button 19 on the mouse 19
What is necessary is just to press a. On the other hand, for example, if the direction of the viewpoint is changed to the direction of the living room N, the cursor G may be moved to the left with the cursor key 18a. Any still image generated during the walk-through can be printed in color by the printer 21 or the like, and the walk-through can be continuously performed during the printing.
【0047】スクリーン8上のCG画像は2次元的な画
像として鑑賞することもできるが、これを3次元の立体
像として鑑賞できるようにすれば、空間の広さ感等が把
握し易くなるので、実際の住宅Zの内外を歩き回って観
察している状態に一層近似した画像を得ることができ
る。立体像を得る方法としては、図3に示すように、例
えば、各ユーザUに液晶シャッターメガネ60を着用さ
せる方法がある。液晶シャッターメガネ60を用いて立
体像を得る原理は周知であるが、以下で簡単に説明す
る。The CG image on the screen 8 can be viewed as a two-dimensional image. However, if the CG image can be viewed as a three-dimensional image, the sense of space and the like can be easily grasped. Thus, it is possible to obtain an image that is more similar to a state in which the user walks inside and outside the actual house Z and observes. As a method for obtaining a three-dimensional image, as shown in FIG. 3, for example, there is a method in which each user U wears liquid crystal shutter glasses 60. The principle of obtaining a three-dimensional image using the liquid crystal shutter glasses 60 is well known, but will be briefly described below.
【0048】図24に示すように、スクリーン8等の表
示装置には、右目用映像信号Rと左目用映像信号Lとが
交互に供給される一方、液晶シャッターメガネ60の右
目用シャッター60aを開く右目用シャッター開信号R
Oと、左目用シャッター60bを開く左目用シャッター
開信号LOとが、右目用シャッター60aと左目用シャ
ッター60bとに交互に供給される。そして、液晶シャ
ッターメガネ60を着用したユーザUが、右目と左目で
交互に右目用映像信号Rと左目用映像信号Lとを視認す
ることにより、CG画像が立体像として認識される。な
お、液晶シャッターメガネ60の代わりに、例えば、公
知の偏光メガネ(図示せず)を用いて、立体像を得るこ
ともできる。As shown in FIG. 24, the display device such as the screen 8 is supplied with the right-eye video signal R and the left-eye video signal L alternately, while opening the right-eye shutter 60a of the liquid crystal shutter glasses 60. Right eye shutter open signal R
O and a left-eye shutter open signal LO for opening the left-eye shutter 60b are alternately supplied to the right-eye shutter 60a and the left-eye shutter 60b. Then, the user U wearing the liquid crystal shutter glasses 60 alternately recognizes the right-eye video signal R and the left-eye video signal L with the right eye and the left eye, whereby the CG image is recognized as a stereoscopic image. Note that, instead of the liquid crystal shutter glasses 60, for example, well-known polarizing glasses (not shown) can be used to obtain a stereoscopic image.
【0049】次に、上述のウォークスルーを行っている
途中で、いわゆる、バーチャルリアリティの技術を用
い、自らが建築しようとする住宅Zを表すCG画像内に
いずれかのユーザU、例えば、主婦であるユーザU1が
仮想的に入り込んで、各種作業や歩行を行う場合の操
作、制御手順を説明する。この場合、上記ユーザU1の
CG画像中での作業や歩行を他のユーザU2、U3に鑑
賞させるため、ユーザU1の画像を住宅Zの画像ととも
にスクリーン8上にCG画像により表示する必要上、図
10に示したように、予め、3次元カメラ44を用い
て、ユーザU1の3次元写真を撮影し、ワークステーシ
ョン15に3次元画像データを取り込んでおく必要があ
る。Next, during the above-described walk-through, using a so-called virtual reality technique, any user U, for example, a housewife, in a CG image representing a house Z he or she intends to build. Operations and control procedures when a certain user U1 virtually enters and performs various tasks and walking will be described. In this case, in order to allow the other users U2 and U3 to appreciate the work and walking in the CG image of the user U1, it is necessary to display the image of the user U1 together with the image of the house Z on the screen 8 as a CG image. As shown in FIG. 10, it is necessary to take a three-dimensional photograph of the user U1 using the three-dimensional camera 44 in advance and load the three-dimensional image data into the workstation 15.
【0050】その際、3次元カメラ44による撮影は、
被写体であるユーザU1の正面ばかりでなく、左右側面
及び背面等複数の方向(好ましくは、少なくとも4方
向)から行い、撮影済の複数方向の画像データを接続線
45を介してワークステーション15に入力し、ワーク
ステーション15でこれらの画像データを貼り合わせて
当該ユーザU1の全身を表す3次元画像データを作成す
る。また、ユーザU1の画像と住宅Zの画像をスクリー
ン8上に同一縮尺で表示する必要があるので、3次元カ
メラ44がユーザU1の身体寸法を測定する機能を有し
ない場合、ユーザU1の身長(cm)を表す数値をオペ
レータOがキーボード18を用いてワークステーション
15に入力する。At this time, shooting by the three-dimensional camera 44
The image data is taken not only from the front of the user U1 as the subject, but also from a plurality of directions (preferably at least four directions) such as the left and right sides and the back, and image data of the photographed directions is input to the workstation 15 via the connection line 45. Then, these image data are pasted together at the workstation 15 to create three-dimensional image data representing the whole body of the user U1. Since the image of the user U1 and the image of the house Z need to be displayed on the screen 8 at the same scale, if the three-dimensional camera 44 does not have a function of measuring the body dimensions of the user U1, the height of the user U1 ( cm) into the workstation 15 using the keyboard 18.
【0051】ユーザU1がCG画像内で仮想的に作業ま
たは歩行を行う場合、当該ユーザU1の3次元画像デー
タをワークステーション15に取り込んだ後、図25に
示すように、ユーザU1がHMD37と手袋型検出装置
38とを装着する。この状態で、オペレータOが、スク
リーン8及びCRT17の表示モードを、住宅Zのみを
表示する通常モードからユーザ参加モードに切り換える
と、スクリーン8及びCRT17上にユーザU1の画像
が表示される。When the user U1 virtually works or walks in the CG image, the user U1 captures the three-dimensional image data of the user U1 into the workstation 15, and then, as shown in FIG. The mold detection device 38 is mounted. In this state, when the operator O switches the display mode of the screen 8 and the CRT 17 from the normal mode in which only the house Z is displayed to the user participation mode, an image of the user U1 is displayed on the screen 8 and the CRT 17.
【0052】この表示モードの切換は、例えば、オペレ
ータOがキーボード18上の所定のキー18bを押圧操
作することにより行うことができる。スクリーン8及び
CRT17上におけるユーザU1の画像の初期表示位置
は、ここでは、スクリーン8及びCRT17の中央位置
に設定されている。例えば、上述のウォークスルーでス
クリーン8上にキッチンKを表示している状態で、この
キッチンK内にユーザU1の画像を表示させたい場合、
ユーザU1を表示したい位置が画面の中央に来るように
カーソルキー18a及びマウス19を用いて調整した上
で上記キー18bを押圧操作すると、図25に示すよう
に、スクリーン8の中央位置にユーザU1の画像U1a
(人物像)が表示される。The switching of the display mode can be performed, for example, by the operator O pressing a predetermined key 18b on the keyboard 18. The initial display position of the image of the user U1 on the screen 8 and the CRT 17 is set at the center position of the screen 8 and the CRT 17 here. For example, when the kitchen K is displayed on the screen 8 in the above-described walk-through, and the user U1 is to be displayed in the kitchen K,
When the user presses the key 18b after adjusting using the cursor key 18a and the mouse 19 so that the position where the user U1 is to be displayed is at the center of the screen, the user U1 is positioned at the center of the screen 8 as shown in FIG. Image U1a
(Person image) is displayed.
【0053】このユーザU1の画像U1aは、3次元カ
メラ44で撮影された3次元画像データに基づいて、ワ
ークステーション15によりキッチンKの画像と合成さ
れてCG画像により表示される。他のユーザU2、U3
が液晶シャッターメガネ60を着用している場合、ユー
ザU1の画像U1aも3次元画像として認識される。The image U1a of the user U1 is combined with the image of the kitchen K by the workstation 15 based on the three-dimensional image data photographed by the three-dimensional camera 44 and displayed as a CG image. Other users U2, U3
Is wearing the liquid crystal shutter glasses 60, the image U1a of the user U1 is also recognized as a three-dimensional image.
【0054】ここで、スクリーン8上での画像U1aの
向きは、表示室1内の現実のユーザU1をスクリーン8
を含む平面に投影した向きとなるようにワークステーシ
ョン15で調整される。例えば、図25のように、スク
リーン8を含む平面を基準として、現実のユーザU1が
左を向いている場合、スクリーン8上でユーザU1の画
像U1aは左を向くように表示され、図27のように、
上記スクリーン8を含む平面とユーザU1の後ろ姿とが
平行を成している場合、スクリーン8上の画像U1aと
してはユーザU1の後ろ姿が表示される。なお、現実の
ユーザU1の体の向きは、HMD37上の前記検出セン
サ50により検出され、ワークステーション15に入力
される。Here, the orientation of the image U1a on the screen 8 is determined by the actual user U1 in the display room 1
Is adjusted by the workstation 15 so as to be in the direction projected on the plane including. For example, as shown in FIG. 25, when the real user U1 is facing left with respect to the plane including the screen 8, the image U1a of the user U1 is displayed on the screen 8 so as to face left. like,
When the plane including the screen 8 and the back of the user U1 are parallel, the back of the user U1 is displayed as the image U1a on the screen 8. Note that the actual body orientation of the user U1 is detected by the detection sensor 50 on the HMD 37 and input to the workstation 15.
【0055】上記のように、現実のユーザU1が表示室
1内で垂直軸回りに回転すると、スクリーン8上でユー
ザU1の画像U1aがそれに応じて回転するように表示
される他、現実のユーザU1が表示室1内で前後左右へ
歩行すると、ユーザU1の位置の移動がHMD37上の
検出センサ50または手袋型検出装置38上の空間位置
姿勢検出センサ54で検出され、これに応じて、画像U
1aが、現実のユーザU1の移動に対応してスクリーン
8上で移動するように動的な表示が行われる。また、現
実のユーザU1が手または手指を動かすと、それらの動
きが手袋型検出装置38で検出され、スクリーン8上の
画像U1aの手または手指が動くように表示が行われ
る。なお、スクリーン8上のユーザU1の画像U1a
は、前記3次元カメラ44から入力された3次元画像デ
ータに基づいて、HMD37及び手袋型検出装置38を
装着していない状態で表示される。As described above, when the real user U1 rotates around the vertical axis in the display room 1, the image U1a of the user U1 is displayed on the screen 8 so as to rotate accordingly. When U1 walks back and forth and left and right in the display room 1, the movement of the position of the user U1 is detected by the detection sensor 50 on the HMD 37 or the spatial position / posture detection sensor 54 on the glove type detection device 38, and the image is accordingly displayed. U
Dynamic display is performed so that 1a moves on the screen 8 in response to the actual movement of the user U1. In addition, when the real user U1 moves his / her hand or finger, the movement is detected by the glove-type detection device 38, and a display is performed so that the hand or finger of the image U1a on the screen 8 moves. The image U1a of the user U1 on the screen 8
Is displayed in a state where the HMD 37 and the glove type detection device 38 are not mounted, based on the three-dimensional image data input from the three-dimensional camera 44.
【0056】一方、ユーザU1自身に対しては、HMD
37によりキッチンK内の状況がCG画像により表示さ
れるが、この場合のCG画像の視点位置はユーザU1自
身の視点位置であり、スクリーン8上に表示されるCG
画像の視点位置(前述のようにオペレータOがワークス
テーション15のカーソルキー18a及びマウス19で
設定)とは相違している。すなわち、図25のスクリー
ン8上に表示されるCG画像を第1のCG画像とする
と、HMD37により表示されるのは、視点位置の異な
る第2のCG画像であって、この第2のCG画像は、上
記第1のCG画像中の画像U1aの位置にユーザU1が
当該画像U1aの向きで立っていると仮定した場合にユ
ーザU1が見る景色を表示する。On the other hand, for the user U1 himself, the HMD
37, the situation in the kitchen K is displayed by a CG image. In this case, the viewpoint position of the CG image is the viewpoint position of the user U1, and the CG displayed on the screen 8
The viewpoint position differs from the viewpoint position of the image (set by the operator O using the cursor key 18a and the mouse 19 of the workstation 15 as described above). That is, assuming that the CG image displayed on the screen 8 in FIG. 25 is the first CG image, what is displayed by the HMD 37 is the second CG image having a different viewpoint position, and this second CG image Displays the view seen by the user U1 when it is assumed that the user U1 is standing at the position of the image U1a in the first CG image in the direction of the image U1a.
【0057】スクリーン8に図25のCG画像が表示さ
れる時に、現実のユーザU1が着用しているHMD37
に表示されるCG画像を図26に示す。このように、ワ
ークステーション15では、スクリーン8用とHMD3
7用の2種類の視点位置の異なるCG画像がリアルタイ
ムで生成され、一方のCG画像が変更されると、それに
対応して他方のCG画像も変更される。その場合、HM
D37に表示される初期画像(図26の画像)は、オペ
レータOがスクリーン8上のCG画像(図25)の表示
モードを上記ユーザ参加モードに切り換えた時点でのス
クリーン8の表示内容及びその時点で現実のユーザU1
がいずれの向きを向いているかにより自動的に決定され
る。なお、HMD37用のCG画像を生成するためのユ
ーザU1の視点位置(視線の向き)は、前記検出センサ
50により検出される。When the CG image of FIG. 25 is displayed on the screen 8, the HMD 37 worn by the real user U1
FIG. 26 shows the CG image displayed on the screen. As described above, the workstation 15 uses the screen 8 and the HMD 3
The two types of CG images having different viewpoint positions for 7 are generated in real time, and when one CG image is changed, the other CG image is changed correspondingly. In that case, HM
The initial image (the image in FIG. 26) displayed on D37 is the display content of the screen 8 at the time when the display mode of the CG image (FIG. 25) on the screen 8 is switched to the user participation mode and the time. And the real user U1
Is automatically determined depending on which direction is facing. Note that the viewpoint position (the direction of the line of sight) of the user U1 for generating the CG image for the HMD 37 is detected by the detection sensor 50.
【0058】ユーザU1はHMD37に表示されるCG
画像を見ながら、実際にキッチンK内に居るのと同様に
歩行や作業を行うことができる。例えば、ユーザU1が
CG画像内の棚61に向かって手を伸ばしてみたい場
合、図25及び図26に示す状態から現実のユーザU1
が体の向きを変えると、図27に示すように、スクリー
ン8上の画像U1aの向きが転換されるとともに、図2
8に示すように、ユーザU1が装着しているHMD37
に表示されるCG画像もユーザU1の頭部の動きに応じ
て切り換えられ、斜め上方に棚61が表示される。The user U1 receives the CG displayed on the HMD 37.
While looking at the image, walking and work can be performed in the same manner as when actually in the kitchen K. For example, when the user U1 wants to reach for the shelf 61 in the CG image, the user U1 changes from the state shown in FIGS.
27 changes the body orientation, the orientation of the image U1a on the screen 8 is changed as shown in FIG.
As shown in FIG. 8, the HMD 37 worn by the user U1
Are switched according to the movement of the head of the user U1, and the shelf 61 is displayed diagonally above.
【0059】図27に示すように、現実のユーザU1が
HMD37の表示内容を見ながら棚61が表示されてい
る斜め上方へ向けて手を伸ばすと、それに応じて、スク
リーン8上の画像U1aにおいてもユーザU1の手が斜
め上方の棚61に向かって伸び、また、図28のよう
に、HMD37にも、ユーザU1の手62を示すCG画
像が斜め上方に伸びる状況が表示される。なお、ワーク
ステーション15によるHMD37用のCG画像の表示
においては、通常、肉眼で外界を観察している場合と同
様、ユーザU1の頭部は表示しないが、ユーザU1の
手、足、胴体等は、現実のユーザU1の視線の向きに応
じて表示するものである。As shown in FIG. 27, when the real user U1 reaches his hand diagonally upward while the shelf 61 is displayed while watching the display contents of the HMD 37, the image U1a on the screen 8 is correspondingly displayed. Also, the situation where the hand of the user U1 extends obliquely upward toward the shelf 61, and the CG image showing the hand 62 of the user U1 extends obliquely upward is displayed on the HMD 37 as shown in FIG. In the display of the CG image for the HMD 37 by the workstation 15, the head of the user U1 is not normally displayed as in the case of observing the outside world with the naked eye. , According to the direction of the line of sight of the real user U1.
【0060】ユーザU1が棚61の扉61aを開きたい
場合、HMD37に表示される把手61bを仮想的に摘
んで手前に引く動作を行うと、係る動作が手袋型検出装
置38で検出され、図29に示すように、スクリーン8
上で扉61aを開く様子が表示されるとともに、図30
に示すように、HMD37にもその様子が表示される。
このように、ユーザU1がCG画像内に仮想的に入り込
んで、キッチンKの棚61に手を伸ばす等の作業をして
みることにより、棚61の高さが適切であるか否かの判
断が行え、また、キッチンK内に居る積もりになってH
MD37に表示されるCG画像を見ながら前後左右へ歩
行してみることにより、キッチンKの大きさが適切であ
るか否かの判断がより的確に行えると同時に、他のユー
ザU2、U3はスクリーン8に表示されるCG画像を見
てユーザU1の動きを観察することにより、キッチンK
の構成が適切であるか否かの判断を行える。When the user U1 wants to open the door 61a of the shelf 61, he or she virtually picks up the handle 61b displayed on the HMD 37 and pulls it toward the user. As shown in FIG.
The state in which the door 61a is opened is displayed above, and FIG.
As shown in FIG.
In this way, the user U1 virtually enters the CG image and reaches for the shelf 61 of the kitchen K, for example, to determine whether the height of the shelf 61 is appropriate. Can be performed, and when he is in the kitchen K
By walking back and forth and right and left while looking at the CG image displayed on the MD 37, it is possible to more accurately determine whether or not the size of the kitchen K is appropriate, and at the same time, the other users U2 and U3 can use the screen. By observing the movement of the user U1 while watching the CG image displayed on the
Can be determined whether or not the configuration is appropriate.
【0061】なお、スクリーン8上にユーザU1の画像
U1aを表示している状態でも、オペレータOがカーソ
ルキー18aまたはマウス19を操作することにより、
上述したと同様にウォークスルーを行うことができる。
CG画像内での仮想的な作業または歩行を終了する場
合、オペレータOが再度前記キー18bを押圧すると、
ユーザU1の画像U1aがスクリーン8上から削除さ
れ、住宅Z(キッチンK)のみがCG画像により表示さ
れる。Note that even when the image U1a of the user U1 is displayed on the screen 8, the operator O operates the cursor key 18a or the mouse 19 to
Walk-through can be performed as described above.
When ending virtual work or walking in the CG image, when the operator O presses the key 18b again,
The image U1a of the user U1 is deleted from the screen 8, and only the house Z (kitchen K) is displayed as a CG image.
【0062】上記したCG画像内での作業または歩行
は、キッチンK以外の他の部屋や屋外においても行うこ
とができ、例えば、ウォークスルーで子供室を表示して
いる場合は、子供であるユーザU2がCG画像内での作
業や歩行を行う等、各部屋や場所毎に使用頻度の高いユ
ーザUがCG画像内での仮想的な作業、歩行を行うこと
ができる。その場合、HMD37以外に手袋型検出装置
38を着用するのみでは、スクリーン8上に表示される
ユーザUの画像の動きが、垂直軸回りの体の回転と手の
動き程度に限定される不満があるが、例えば、図31に
示すようなデータスーツ63(例えば、VPL社製のも
の)を用いて身体の各部の動きを検出し、それに応じ
て、ワークステーション15で所定の演算を行うことに
より、スクリーン8上でのユーザUの画像も身体の各部
が動くように表示することができる。なお、データスー
ツ63は、図32にセンサの一部を○印で示すように、
ユーザUの頭部以外の全身を覆うスーツ本体63a上に
数10個程度の動き検出用のセンサ63bを取り付けて
なるものである。The above-described work or walking in the CG image can be performed in a room other than the kitchen K or outside. For example, when a child room is displayed in a walk-through, a user who is a child For example, the user U who frequently uses each room or place can perform virtual work or walking in the CG image, such as U2 performing work or walking in the CG image. In this case, if the user wears only the glove type detection device 38 in addition to the HMD 37, the dissatisfaction that the movement of the image of the user U displayed on the screen 8 is limited to the degree of the rotation of the body about the vertical axis and the movement of the hand is dissatisfied. However, for example, by using a data suit 63 (for example, manufactured by VPL) as shown in FIG. 31, the movement of each part of the body is detected, and the workstation 15 performs a predetermined calculation accordingly. The image of the user U on the screen 8 can also be displayed so that each part of the body moves. Note that the data suit 63 has a part of the sensor shown in FIG.
About ten tens of motion detection sensors 63b are mounted on a suit body 63a covering the whole body other than the head of the user U.
【0063】また、身体の動きを検出する数個程度のカ
メラを有するモーションキャプチャ装置(例えば、Moti
on Analysis 社製のHiRES(商品名))を用いれ
ば、データスーツ63を着用した場合のように、スーツ
本体63aによって身体を拘束することなく、身体各部
の動きを検出して、スクリーン8上のユーザUの画像が
動くように表示することができる。A motion capture device (for example, Moti
OnHis (trade name) manufactured by On Analysis Co., Ltd.), the movement of each part of the body is detected without restricting the body by the suit body 63a, as in the case of wearing the data suit 63, and the screen 8 The image of the user U can be displayed so as to move.
【0064】なお、上記では、スクリーン8及びCRT
17へのユーザUの画像の表示を開始する際には、自動
的に画面の中央にユーザUの画像が挿入されるように設
定したが、例えば、上記ウォークスルーのための視点位
置の移動をジョイスティック等マウス19以外の入力装
置で行うようにすれば、ユーザUの画像の初期表示位置
を、マウス19によりオペレータOが任意(例えば、画
面の右隅、左隅等)に設定することができる。In the above description, the screen 8 and the CRT
When the display of the image of the user U on the display unit 17 is started, the image of the user U is set to be automatically inserted in the center of the screen. By using an input device other than the mouse 19 such as a joystick, the operator O can set the initial display position of the image of the user U to an arbitrary position (for example, the right corner or the left corner of the screen) with the mouse 19.
【0065】上記実施の形態では、スクリーン8上にユ
ーザUの画像を表示する際に、手袋型検出装置38等で
ユーザUの体の動きを検出して、ユーザUの画像が動く
ように表示するようにしたが、スクリーン8上にユーザ
Uの画像を固定状態(不動状態)で表示するようにして
もよく、その場合でも、ユーザUの画像を住宅Zと同一
縮尺で表示することにより、住宅の各部の高さや広さ等
を判断する目安とできるものである。また、ユーザU自
身の画像を表示する代わりに、例えば、予めワークステ
ーション15に記憶させたモデルやキャラクター等の画
像を、必要により身体寸法を明示しながら、例えば、固
定状態で表示するようにしてもよい。住宅及びユーザの
画像を2次元画像として表示する場合は、ユーザの画像
の撮影用に、上記3次元カメラ44に代えて2次元的な
ディジタルカメラを用いることができる。また、本発明
の表示方法は、住宅以外のオフィスビル等の各種建築物
にも適用することができる。In the above embodiment, when the image of the user U is displayed on the screen 8, the movement of the body of the user U is detected by the glove type detection device 38 or the like, and the image of the user U is displayed so as to move. However, the image of the user U may be displayed on the screen 8 in a fixed state (immobile state). Even in this case, the image of the user U is displayed at the same scale as the house Z, It can be used as a guide to determine the height and size of each part of the house. Instead of displaying the image of the user U itself, for example, an image of a model, a character, or the like stored in advance in the workstation 15 is displayed in a fixed state, for example, while clearly indicating body dimensions as necessary. Is also good. When displaying images of a house and a user as a two-dimensional image, a two-dimensional digital camera can be used in place of the three-dimensional camera 44 for capturing an image of the user. Further, the display method of the present invention can be applied to various buildings other than houses, such as office buildings.
【0066】表示装置としては、スクリーン8を用いて
裏側の投影室7から投影するようにしたが、投影室7を
省略するとともにスクリーン8への表示を表示室1内か
ら行うようにしてもよく、或いは、スクリーン8の代わ
る表示装置として大画面のハイビジョンテレビ等を用い
ても良い。また、上述のウォークスルーは、住宅建築会
社等に設けた表示室1で行う以外に、例えば、ユーザの
家庭でパーソナルコンピュータを用いて行うこともで
き、その場合、ユーザが建築しようとする住宅のCAD
データ、ウォークスルー用のプログラム等を予め住宅建
築会社等がCD−ROMやMO(光磁気)ディスク等の
適宜の記録媒体に記録してユーザに配付すればよく、上
記パーソナルコンピュータを用いたウォークスルー中に
ユーザの画像を固定状態で表示させるのであれば、当該
ユーザの画像を住宅建築会社等で撮影して上記記録媒体
に記録しておくか、ユーザ自身がディジタルカメラで撮
影して上記パーソナルコンピュータに入力すればよい。As the display device, the projection is performed from the rear projection room 7 using the screen 8, but the projection room 7 may be omitted and the display on the screen 8 may be performed from the display room 1. Alternatively, a large-screen high-vision television or the like may be used as a display device instead of the screen 8. In addition to the above-described walk-through, in addition to the display room 1 provided in a home building company or the like, for example, the walk-through can be performed using a personal computer at the user's home. CAD
The data, walk-through program, etc. may be recorded in advance by a housing construction company or the like on an appropriate recording medium such as a CD-ROM or MO (magneto-optical) disk and distributed to the user. If the image of the user is to be displayed in a fixed state, the image of the user is photographed by a home building company or the like and recorded on the recording medium, or the user himself is photographed by a digital camera and the personal computer Should be entered.
【0067】[0067]
【発明の効果】本発明の請求項1のCG画像による建築
物の表示方法は、建築物に関する3次元形状データを予
め作成してコンピュータに記憶させておき、上記3次元
形状データに対する視点位置を静止または所望方向へ移
動させることにより、上記建築物をCG画像により静止
画または動画として表示させるようにした建築物に関す
るCG画像の表示方法において、予め人物像を撮影して
おき、この人物像を上記CG画像内に上記建築物と同一
の縮尺で表示するようにしたものであるから、上記CG
画像内に表示される人物像の大きさを目安として、各部
屋の広さや天井、棚等の各部の高さ等をより正確に把握
することができるようになる利点があり、且つCG画像
内に人画像が表示されることにより、より現実の居住空
間に近い印象を与えることができる。According to the first aspect of the present invention, there is provided a method for displaying a building by using a CG image, wherein three-dimensional shape data relating to the building is created in advance and stored in a computer, and a viewpoint position with respect to the three-dimensional shape data is determined. In the method of displaying a CG image related to a building in which the building is displayed as a still image or a moving image by a CG image by moving the building in a desired or stationary direction, a person image is captured in advance, and this person image is taken. Since the same scale as the building is displayed in the CG image, the CG
There is an advantage that the size of each room, the height of each part such as a ceiling, a shelf, and the like can be more accurately grasped by using the size of a human image displayed in the image as a guide, and the CG image has an advantage. By displaying a human image on the screen, an impression closer to a real living space can be given.
【0068】請求項2のCG画像による建築物の表示方
法は、請求項1の表示方法において、上記建築物は特定
のユーザが建築しようとする建築物であり、上記人物像
は当該ユーザを撮影した画像であるから、請求項1の利
点に加えて、ユーザは自らが建築しようとする住宅の内
外を実際に歩行しているのと同様の体験を行うことがで
き、間取りや各部屋の広さ等が適切であるかを的確に判
断できるようになる。According to a second aspect of the present invention, there is provided a method for displaying a building by using a CG image, wherein the building is a building to be built by a specific user, and the person image is a photograph of the user. In addition to the advantages of claim 1, the user can experience the same experience as actually walking inside and outside a house he or she intends to build, and can plan the layout and increase the size of each room. It is possible to accurately determine whether or not the degree is appropriate.
【0069】請求項3のCG画像による建築物の表示方
法は、請求項1または2の表示方法において、上記CG
画像は3次元画像であるので、上記建築物を2次元画像
として表示する場合に比べて、一層リアルに表示するこ
とができ、人物像を表示することと相まって、広さや高
さ等を的確に判断できるようになる。A display method of a building by a CG image according to claim 3 is the display method according to claim 1 or 2, wherein
Since the image is a three-dimensional image, it can be displayed more realistically than when displaying the above-mentioned building as a two-dimensional image. Be able to judge.
【0070】請求項4のCG画像による建築物の表示方
法は、請求項2または3の表示方法において、上記ユー
ザの身体の動きを検出し、検出した身体の動きに応じて
上記CG画像内のユーザの画像が動くように表示を行う
ようにしたので、CG画像中の人物の描写が一層精彩を
増す利点がある。According to a fourth aspect of the present invention, there is provided a method for displaying a building based on a CG image according to the second or third aspect, wherein the movement of the user's body is detected and the CG image in the CG image is detected in accordance with the detected movement of the body. Since the display is performed so that the user's image moves, there is an advantage that the depiction of the person in the CG image is further enhanced.
【0071】請求項5の建築物に関するCG画像の表示
方法は、請求項4の表示方法において、上記ユーザはヘ
ッドマウントディスプレーを装着し、該ヘッドマウント
ディスプレーにより上記建築物のCG画像を見ながら自
らの身体を動かすとともに、上記ユーザの身体の動きに
合わせて該ユーザの画像が動くように上記ヘッドマウン
トディスプレー以外の表示装置によりCG画像の表示を
行うようにしたので、ユーザは、例えば、ヘッドマウン
トディスプレーでCG画像内の棚を見ながら、該棚に手
を伸ばす動作を行うと、その動きが検出されて上記他の
表示装置上でユーザの手の動きが表示されるとともに、
ユーザ自身はヘッドマウントディスプレーにより、上記
棚の高さが適切であるか否かを自らの手を表すCG画像
を見ながら確認することができる。According to a fifth aspect of the present invention, there is provided a method of displaying a CG image relating to a building according to the fourth aspect of the present invention, wherein the user wears a head-mounted display and looks at the CG image of the building with the head-mounted display. The CG image is displayed on a display device other than the head mounted display so that the image of the user moves in accordance with the movement of the body of the user while moving the body of the user. When an operation of reaching for the shelf is performed while looking at the shelf in the CG image on the display, the movement is detected and the movement of the user's hand is displayed on the other display device,
The user himself / herself can use the head mounted display to check whether the height of the shelf is appropriate or not while viewing a CG image representing his / her hand.
【0072】請求項6の記録媒体は、請求項1乃至5の
いずれかに記載したCG画像による建築物の表示方法を
コンピュータに実行させるためのプログラムを記録した
コンピュータ読取可能な記録媒体であるから、係る記録
媒体から上記プログラムをコンピュータにインストール
することにより、上記した有益な建築物の表示方法をコ
ンピュータに実行させることができるようになる。The recording medium of claim 6 is a computer-readable recording medium that records a program for causing a computer to execute the method of displaying a building by a CG image according to any one of claims 1 to 5. By installing the program from the recording medium into the computer, the computer can execute the useful building display method described above.
【図1】本発明方法によりCG画像の表示を行う表示室
及び投影室を示す概略水平断面図。FIG. 1 is a schematic horizontal sectional view showing a display room and a projection room for displaying a CG image according to the method of the present invention.
【図2】上記表示室を後方から見た状態を示す斜視図。FIG. 2 is a perspective view showing a state where the display chamber is viewed from the rear.
【図3】上記表示室を前方から見た状態を示す斜視図。FIG. 3 is a perspective view showing a state where the display chamber is viewed from the front.
【図4】上記表示室内のワークステーションの設置され
たコーナを示す斜視図。FIG. 4 is a perspective view showing a corner where a workstation in the display room is installed.
【図5】上記ワークステーションの入出力兼演算装置を
透視状態で示す斜視図。FIG. 5 is a perspective view showing the input / output and arithmetic unit of the workstation in a see-through state.
【図6】上記入出力兼演算装置を示すブロック構成図。FIG. 6 is a block diagram showing the input / output and arithmetic unit.
【図7】上記CG画像中にユーザが仮想的に入り込んで
作業等を行う際に使用するヘッドマウントディスプレー
を示す側面図。FIG. 7 is a side view showing a head mount display used when a user virtually enters the CG image and performs work or the like.
【図8】上記ヘッドマウントディスプレーの動作原理を
示す説明図。FIG. 8 is an explanatory view showing the operation principle of the head mount display.
【図9】上記ヘッドマウントディスプレーとともに使用
する手袋型検出装置を示す斜視図。FIG. 9 is a perspective view showing a glove type detection device used with the head mounted display.
【図10】3次元カメラを用いてユーザの3次元写真を
撮影する様子を示す斜視図。FIG. 10 is a perspective view showing a state in which a three-dimensional photograph of a user is taken using a three-dimensional camera.
【図11】本発明によるCG画像の作成表示に先立って
CADシステムで住宅に関する3次元形状データを作成
した後、レンダリングソフトで読み取り可能な状態にコ
ンバートする手順を示すフローチャート。FIG. 11 is a flowchart showing a procedure for creating three-dimensional shape data relating to a house with a CAD system prior to creation and display of a CG image according to the present invention, and then converting the data into a state readable by rendering software.
【図12】上記CG画像の表示に先立ってCADシステ
ムで作成された2階建住宅の1階部分を示す平面図。FIG. 12 is a plan view showing the first floor of a two-story house created by a CAD system prior to the display of the CG image.
【図13】上記CADシステムで作成された2階建住宅
の2階部分を示す平面図。FIG. 13 is a plan view showing the second floor of a two-story house created by the CAD system.
【図14】上記CADシステムで作成された2階建住宅
の斜視図。FIG. 14 is a perspective view of a two-story house created by the CAD system.
【図15】上記CADシステムで作成された2階建住宅
の北立面図。FIG. 15 is a north elevation view of a two-story house created by the CAD system.
【図16】上記CADシステムで作成された2階建住宅
の西立面図FIG. 16 is a west elevation of a two-story house created by the CAD system.
【図17】自動処理で形状コンバートを行う場合に使用
される素材情報ファイルの作成手順を示す説明図。FIG. 17 is an explanatory diagram showing a procedure for creating a material information file used when performing shape conversion by automatic processing.
【図18】上記ワークステーションの要部を示す正面
図。FIG. 18 is a front view showing a main part of the workstation.
【図19】本発明方法により住宅を陰影を付してCG画
像により表示した画面を示す正面図。FIG. 19 is a front view showing a screen displaying a house as a CG image with shading by the method of the present invention.
【図20】上記住宅の屋内をCG画像により表示した画
面を示す正面図。FIG. 20 is a front view showing a screen displaying the indoors of the house by a CG image.
【図21】上記住宅内の洋室をCG画像により表示した
画面を示す部分正面図。FIG. 21 is a partial front view showing a screen on which a Western room in the house is displayed by a CG image.
【図22】上記住宅内のキッチンをCG画像により表示
した画面を示す部分正面図。FIG. 22 is a partial front view showing a screen on which the kitchen in the house is displayed by a CG image.
【図23】上記住宅内の浴室をCG画像により表示した
画面を示す部分正面図。FIG. 23 is a partial front view showing a screen on which a bathroom in the house is displayed by a CG image.
【図24】液晶シャッターメガネを用いて3次元画像を
得る原理を示す説明図。FIG. 24 is an explanatory diagram showing the principle of obtaining a three-dimensional image using liquid crystal shutter glasses.
【図25】上記表示室のスクリーン上にキッチンととも
にユーザの画像をCG画像により表示させた状態を示す
説明図。FIG. 25 is an explanatory diagram showing a state in which a user's image is displayed as a CG image together with the kitchen on the screen of the display room.
【図26】上記ユーザが装着したヘッドマウントディス
プレーを用いてキッチン内の状況をCG画像により表示
した状態を示す説明図。FIG. 26 is an explanatory diagram showing a state in which the situation in the kitchen is displayed as a CG image using the head mounted display worn by the user.
【図27】図25においてユーザが体の向きを変えた場
合に上記スクリーンに表示されるCG画像を示す説明
図。FIG. 27 is an explanatory diagram showing a CG image displayed on the screen when the user changes the body orientation in FIG. 25;
【図28】図27の表示に対応して上記ヘッドマウント
ディスプレーに表示されるCG画像を示す説明図。FIG. 28 is an explanatory diagram showing a CG image displayed on the head mount display corresponding to the display of FIG. 27;
【図29】上記ユーザが仮想的に棚の扉を開く作業を行
った場合に上記スクリーンに表示されるCG画像を示す
説明図。FIG. 29 is an explanatory diagram showing a CG image displayed on the screen when the user has virtually opened the shelf door;
【図30】図29の表示に対応して上記ヘッドマウント
ディスプレーに表示されるCG画像を示す説明図。FIG. 30 is an explanatory view showing a CG image displayed on the head mount display corresponding to the display of FIG. 29;
【図31】ユーザが全身に装着するデータスーツを示す
概略斜視図。FIG. 31 is a schematic perspective view showing a data suit worn by the user on the whole body.
【図32】上記データスーツ上のセンサの配置を示す説
明図。FIG. 32 is an explanatory diagram showing the arrangement of sensors on the data suit.
15 ワークステーション(コンピュータ) 37 ヘッドマウントディスプレー U1 ユーザ U1a ユーザの画像(人物像) Z 住宅(建築物) 15 Workstation (computer) 37 Head-mounted display U1 User U1a User's image (portrait) Z House (building)
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 FI G06F 15/60 680B ──────────────────────────────────────────────────の Continued on the front page (51) Int.Cl. 6 Identification code FIG06F 15/60 680B
Claims (6)
作成してコンピュータに記憶させておき、上記3次元形
状データに対する視点位置を静止または所望方向へ移動
させることにより、上記建築物をCG画像により静止画
または動画として表示させるようにしたCG画像による
建築物の表示方法において、 予め人物像を撮影しておき、この人物像を上記CG画像
内に上記建築物と同一の縮尺で表示するようにしたこと
を特徴とするCG画像による建築物の表示方法。1. A three-dimensional shape data relating to a building is created in advance and stored in a computer, and the viewpoint is stationary or moved in a desired direction with respect to the three-dimensional shape data. In a method of displaying a building using a CG image that is displayed as a still image or a moving image, a person image is captured in advance, and this person image is displayed in the CG image at the same scale as the building. A method for displaying a building by using a CG image.
とする建築物であり、上記人物像は当該ユーザを撮影し
た画像であることを特徴とする請求項1記載のCG画像
による建築物の表示方法。2. The building according to claim 1, wherein the building is a building that a specific user intends to build, and the person image is an image of the user. Display method.
特徴とする請求項1または2記載のCG画像による建築
物の表示方法。3. The method according to claim 1, wherein the CG image is a three-dimensional image.
した身体の動きに応じて上記CG画像内のユーザの画像
が動くように表示を行うことを特徴とする請求項2また
は3記載のCG画像による建築物の表示方法。4. The apparatus according to claim 2, wherein the movement of the user's body is detected, and display is performed such that the image of the user in the CG image moves according to the detected movement of the body. How to display buildings using CG images.
ーを装着し、該ヘッドマウントディスプレーにより上記
建築物のCG画像を見ながら自らの身体を動かすととも
に、上記ユーザの身体の動きに合わせて該ユーザの画像
が動くように上記ヘッドマウントディスプレー以外の表
示装置によりCG画像の表示を行うことを特徴とする請
求項4記載のCG画像による建築物の表示方法。5. The user wears a head-mounted display, moves his / her own body while looking at a CG image of the building using the head-mounted display, and displays the image of the user in accordance with the movement of the user's body. The method for displaying a building according to a CG image according to claim 4, wherein the CG image is displayed on a display device other than the head mounted display so as to move.
G画像による建築物の表示方法をコンピュータに実行さ
せるためのプログラムを記録したコンピュータ読取可能
な記録媒体。6. The C according to claim 1, wherein
A computer-readable recording medium in which a program for causing a computer to execute a method of displaying a building using a G image is recorded.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP12134798A JP3786154B2 (en) | 1998-04-30 | 1998-04-30 | Display method of building by CG image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP12134798A JP3786154B2 (en) | 1998-04-30 | 1998-04-30 | Display method of building by CG image |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH11316855A true JPH11316855A (en) | 1999-11-16 |
JP3786154B2 JP3786154B2 (en) | 2006-06-14 |
Family
ID=14809034
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP12134798A Expired - Fee Related JP3786154B2 (en) | 1998-04-30 | 1998-04-30 | Display method of building by CG image |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3786154B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001282880A (en) * | 2000-03-30 | 2001-10-12 | Misawa Homes Co Ltd | Virtual construction method for house, virtual construction system and recording medium |
JP2003308344A (en) * | 2002-04-18 | 2003-10-31 | Gifu Prefecture | Device and method for supporting design of indoor space |
JP2009276561A (en) * | 2008-05-14 | 2009-11-26 | Sanyo Electric Co Ltd | Projection image display apparatus and image display system |
JP2016058066A (en) * | 2014-09-09 | 2016-04-21 | 北京尓宜居科技有限責任公司 | Automatic display method of installation plan of decorative tile and marble |
JP2016189194A (en) * | 2016-05-23 | 2016-11-04 | 京セラ株式会社 | Display device, control method, and control program |
JP2018072992A (en) * | 2016-10-26 | 2018-05-10 | 株式会社コロプラ | Information processing method and equipment and program making computer execute the information processing method |
US10341642B2 (en) | 2012-09-27 | 2019-07-02 | Kyocera Corporation | Display device, control method, and control program for stereoscopically displaying objects |
-
1998
- 1998-04-30 JP JP12134798A patent/JP3786154B2/en not_active Expired - Fee Related
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001282880A (en) * | 2000-03-30 | 2001-10-12 | Misawa Homes Co Ltd | Virtual construction method for house, virtual construction system and recording medium |
JP2003308344A (en) * | 2002-04-18 | 2003-10-31 | Gifu Prefecture | Device and method for supporting design of indoor space |
JP2009276561A (en) * | 2008-05-14 | 2009-11-26 | Sanyo Electric Co Ltd | Projection image display apparatus and image display system |
US10341642B2 (en) | 2012-09-27 | 2019-07-02 | Kyocera Corporation | Display device, control method, and control program for stereoscopically displaying objects |
JP2016058066A (en) * | 2014-09-09 | 2016-04-21 | 北京尓宜居科技有限責任公司 | Automatic display method of installation plan of decorative tile and marble |
JP2016189194A (en) * | 2016-05-23 | 2016-11-04 | 京セラ株式会社 | Display device, control method, and control program |
JP2018072992A (en) * | 2016-10-26 | 2018-05-10 | 株式会社コロプラ | Information processing method and equipment and program making computer execute the information processing method |
Also Published As
Publication number | Publication date |
---|---|
JP3786154B2 (en) | 2006-06-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH09106411A (en) | Surface material switching display method of building by CG image | |
US10291848B2 (en) | Image display system and image display method | |
JP6629528B2 (en) | Virtual reality display system, virtual reality display method, and computer program | |
JP2022105083A (en) | Method and device for displaying view of three-dimensional space, and storage medium | |
JPH09138816A (en) | Method of selecting and adjusting upholstery by CG image | |
EP4244820A1 (en) | Image processing method, recording medium, and image processing system | |
JP3786154B2 (en) | Display method of building by CG image | |
JP2004227332A (en) | Information display method | |
JP2014164003A (en) | Virtual indoor space display device | |
JP2006040053A (en) | Image processing method and program | |
KR102533399B1 (en) | Media content production system based on 3D game engine for media facade implementation | |
JPH09106412A (en) | Illumination status switching display method of building by CG image | |
JP2003157290A (en) | Processing method and processing system for image simulation, image simulation processing program, and recording medium | |
JPH09106414A (en) | Condition items related to buildings and display method of CG images | |
JPH09106409A (en) | Method of creating and displaying CG image of building and its scenic parts | |
JPH09106408A (en) | How to create and display CG images of buildings | |
JP3337355B2 (en) | Cross-section display method of buildings using CG images | |
Morikawa et al. | HyperMirror: a Video-Mediated communication system | |
JPH09106410A (en) | Method of creating and displaying CG image of building and its neighboring environment | |
Koleva et al. | Developing mixed reality boundaries | |
JP3358778B2 (en) | Display method of buildings by stereoscopic photographs and stereoscopic photographs for displaying buildings | |
JPH09159413A (en) | Image processor and modeling unit | |
WO2011093555A1 (en) | Method for generating video frames for producing 3d images | |
JPH09106463A (en) | Method of creating and displaying CG image of building and its exterior | |
WO2016203772A1 (en) | Image processing system, method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050809 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20051011 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20051213 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060113 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060314 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060314 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |