JP2004005272A - 仮想空間移動制御装置及び制御方法並びに制御プログラム - Google Patents
仮想空間移動制御装置及び制御方法並びに制御プログラム Download PDFInfo
- Publication number
- JP2004005272A JP2004005272A JP2002160761A JP2002160761A JP2004005272A JP 2004005272 A JP2004005272 A JP 2004005272A JP 2002160761 A JP2002160761 A JP 2002160761A JP 2002160761 A JP2002160761 A JP 2002160761A JP 2004005272 A JP2004005272 A JP 2004005272A
- Authority
- JP
- Japan
- Prior art keywords
- virtual space
- viewpoint
- information
- touch
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Position Input By Displaying (AREA)
Abstract
【課題】ユーザが指等による簡単な操作によって、種々の仮想空間移動操作を行うことができる仮想空間移動制御装置及び制御方法並びに制御プログラムを提供する。
【解決手段】表示手段の表示画面に表示される仮想空間画像を移動させる仮想空間移動制御システムにおいて、前記表示画面において行われる、複数の指示部位からなる指示体のタッチ操作またはドラック操作を検出する検出処理と、前記検出手段の検出結果に基づいて、前記仮想空間画像の視点位置情報を生成する視点位置情報生成処理と、前記視点位置情報が指示する視点から見た仮想空間画像データを生成し、前記表示手段へ出力する立体画像生成処理とを行う。
【選択図】図1
【解決手段】表示手段の表示画面に表示される仮想空間画像を移動させる仮想空間移動制御システムにおいて、前記表示画面において行われる、複数の指示部位からなる指示体のタッチ操作またはドラック操作を検出する検出処理と、前記検出手段の検出結果に基づいて、前記仮想空間画像の視点位置情報を生成する視点位置情報生成処理と、前記視点位置情報が指示する視点から見た仮想空間画像データを生成し、前記表示手段へ出力する立体画像生成処理とを行う。
【選択図】図1
Description
【0001】
【発明の属する技術分野】
本発明は、仮想空間内の移動制御装置及び制御方法並びに制御プログラムに関し、具体的には、ユーザがコンピュータ端末上に表示された該仮想空間を移動する際に、仮想空間移動画像処理に必要な仮想空間移動情報を生成し、CG(コンピュータ・グラフィック)モデルを移動制御するための仮想空間移動制御装置及び制御方法並びに制御プログラムに関する。
【0002】
【従来の技術】
近年、CGを用いて表現された、サイバースペースと呼ばれる仮想空間が提供されている。ユーザは、コンピュータ端末上に表示される仮想空間内を移動しながら、情報を体感的に取得することができる。これらコンピュータ端末上の仮想空間内を移動するためのマン・マシン・インターフェイスとして、マウス、ジョイスティック等が一般的である。
【0003】
マウスは、仮想空間の表示領域をカーソルにより移動操作すると、この操作に基づいて空間内の移動情報に変換するのに用いられる。また、ジョイスティックは、スティック部分を傾けた方向及び角度に基づいて、空間内の移動情報に変換するのに用いられる。しかし、従来のインターフェイス装置である、マウスやジョイスティックは、コンピュータに触れたことがないユーザにとっては、仮想空間の移動動作を実現するための手段としては、必ずしも直感的に理解できるものではない。
【0004】
上述のマウスやジョイスティックと同様の操作を行うためのマン・マシン・インターフェイスとして、タッチパネル等を用いたものがある。この場合、指等で仮想空間内の移動位置を直接指定することにより、表示を変更することが可能である。しかし、通常のタッチパネルにおいて、マウスやジョイスティックによる仮想空間内の移動操作と同様の操作を指だけで行うことはできず、別の操作が必要となるので、操作が煩雑であり直感的な操作ができなかった。
【0005】
【発明が解決しようとする課題】
この発明はこのような事情を考慮してなされたもので、その目的は、ユーザが指等による簡単な操作によって、種々の仮想空間移動操作を行うことができる仮想空間移動制御装置及び制御方法並びに制御プログラムを提供することにある。
【0006】
【課題を解決するための手段】
この発明は上記の課題を解決すべくなされたもので、請求項1に記載の発明は、表示手段の表示画面に表示される仮想空間画像を移動させる仮想空間移動制御装置において、前記表示画面において行われる、複数の指示部位からなる指示体のタッチ操作またはドラック操作を検出する検出手段と、前記検出手段の検出結果に基づいて、前記仮想空間画像の視点位置情報を生成する視点位置情報生成手段と、前記視点位置情報が指示する視点から見た仮想空間画像データを生成し、前記表示手段へ出力する立体画像生成手段とを具備することを特徴とする。
【0007】
請求項2に記載の発明は、仮想空間画像が表示された所定の表示領域を、複数の指示部位からなる指示体によりタッチ操作またはドラッグ操作する複数の指示部位の数及び前記複数の指示部位それぞれのタッチ位置を検出する操作検出部と、前記複数の指示部位の数及び前記複数の指示部位それぞれのタッチ位置に基づいて、前記仮想空間画像の視点を移動させる視点移動情報を生成し、前記表示部に出力する情報制御部と、前記情報制御部から出力された前記移動情報に基づいて前記仮想空間を表示する表示部とを具備することを特徴とする。
【0008】
請求項3に記載の発明は、請求項2に記載の発明において、前記情報制御部は、前記複数の指示部位の一指示部位によりタッチ操作されたタッチ位置を受けて、前記タッチ位置に視点の位置を変更する視点移動情報を生成することを特徴とする。
【0009】
請求項4に記載の発明は、請求項2または請求項3に記載の発明において、前記情報制御部は、前記複数の指示部位の一指示部位によりドラック操作された開始点から終点への距離及び方向の時系列データを受けて、該開始点から終点への距離及び方向の時系列データに基づいて、視点を移動させる視点移動情報を生成することを特徴とする。
【0010】
請求項5に記載の発明は、請求項2から請求項4のいずれかの項に記載の発明において、前記表示部は、2次元の仮想空間画像により作成された仮想平面空間及び3次元の仮想空間画像により作成された仮想空間を同時に表示し、前記情報制御部は、前記仮想平面空間にアイコン表示された前記仮想空間の視点アイコンが、前記複数の指示部位の一指示部位によりドラック操作された開始点から終点への距離及び方向の時系列データを受けて、該ドラック操作された開始点から終点への距離及び方向の時系列データに基づいて、前記仮想空間の視点を移動させる視点移動情報を生成する。
【0011】
請求項6に記載の発明は、請求項2から請求項4のいずれかの項に記載の発明において、前記表示部は、2次元の仮想空間画像により作成された仮想平面空間及び3次元の仮想空間画像により作成された仮想空間を同時に表示し、前記情報制御部は、前記仮想平面空間にアイコン表示された前記仮想空間の視点の視野角アイコンが、前記複数の指示部位の一指示部位によりドラック操作された回転角をうけて、該回転角分だけ視野角を回転させる視点移動情報を生成することを特徴とする。
【0012】
請求項7に記載の発明は、請求項2に記載の発明において、前記情報制御部は、先にタッチ操作された第一のタッチ位置から後にタッチ操作された第二のタッチ位置への距離及び方向のデータを受けて、該第一のタッチ位置から第二のタッチ位置への距離及び方向に基づいて、視点を移動させるための視点移動情報を生成することを特徴とする。
【0013】
請求項8に記載の発明は、請求項7に記載の発明において、前記情報制御部は、前記第一のタッチ位置と前記第二のタッチ位置に基づいて,前記第一のタッチ位置と前記第二のタッチ位置を結ぶ線を所定の割合で分割する分割点の位置を算出し、該分割点の位置の時系列的変化に基づいて,視点を移動させる速度または加速度を変更する視点移動情報を生成することを特徴とする。
【0014】
請求項9に記載の発明は、請求項2に記載の発明において、前記表示部は、2次元の仮想空間画像により作成された仮想平面空間及び3次元の仮想空間画像により作成された仮想空間を同時に表示し、前記情報制御部は、前記複数の指示部位の二指示部位によりタッチ操作された二指示部位間の距離の時系列データを受けて、該タッチ操作された二指示部位間の距離の時系列的変化に基づいて、前記仮想平面を拡大縮小表示する拡大縮小情報を生成することを特徴とする。
【0015】
請求項10に記載の発明は、請求項2に記載の発明において、前記情報制御部は、タッチ操作された第1〜nのタッチ位置の中心点の位置の時系列データを受けて、該第1〜nのタッチ位置の中心となる点の位置の時系列的変化に基づいて、視点を移動させるための視点移動情報を生成することを特徴とする。
【0016】
請求項11に記載の発明は、請求項2に記載の発明において、前記表示部は、さらに前記仮想空間における視点を操作するための操作アイコンを表示し、前記情報制御部は、前記操作アイコンが具備するドラック部がドラック操作された開始点から終点への距離及び方向の時系列データを受けて、該開始点から終点への距離及び方向の時系列的変化に基づいて、視点を移動させるための視点移動情報を生成することを特徴とする。
【0017】
請求項12に記載の発明は、表示手段の表示画面に表示される仮想空間画像を移動させる仮想空間移動制御システムにおいて、前記表示画面において行われる、複数の指示部位からなる指示体のタッチ操作またはドラック操作を検出する検出処理と、前記検出手段の検出結果に基づいて、前記仮想空間画像の視点位置情報を生成する視点位置情報生成処理と、前記視点位置情報が指示する視点から見た仮想空間画像データを生成し、前記表示手段へ出力する立体画像生成処理とを具備することを特徴とする。
【0018】
請求項13に記載の発明は、表示画面に表示される仮想空間画像を移動させる仮想空間制御システムにおいて、前記操作検出部は、仮想空間画像が表示された所定の表示領域を、複数の指示部位からなる指示体によりタッチ操作またはドラッグ操作する複数の指示部位の数及び前記複数の指示部位それぞれのタッチ位置を検出し、前記情報制御部は、前記複数の指示部位の数及び前記複数の指示部位それぞれのタッチ位置に基づいて、前記仮想空間画像の視点を移動させる視点移動情報を生成し、前記表示部に出力し、前記表示部は、前記情報制御部から出力された前記移動情報に基づいて前記仮想空間を表示することを特徴とする。
【0019】
請求項14に記載の発明は、請求項13に記載の発明において、前記情報制御部は、前記複数の指示部位の一指示部位によりタッチ操作されたタッチ位置を受けて、前記タッチ位置に視点の位置を変更する視点移動情報を生成することを特徴とする。
【0020】
請求項15に記載の発明は、請求項13または請求項15に記載の発明において、前記情報制御部は、前記複数の指示部位の一指示部位によりドラック操作された開始点から終点への距離及び方向の時系列データを受けて、該開始点から終点への距離及び方向の時系列データに基づいて、視点を移動させる視点移動情報を生成することを特徴とする。
【0021】
請求項16に記載の発明は、請求項13から請求項15のいずれかの項に記載の発明において、前記表示部は、2次元の仮想空間画像により作成された仮想平面空間及び3次元の仮想空間画像により作成された仮想空間を同時に表示し、前記情報制御部は、前記仮想平面空間にアイコン表示された前記仮想空間の視点アイコンが、前記複数の指示部位の一指示部位によりドラック操作された開始点から終点への距離及び方向の時系列データを受けて、該ドラック操作された開始点から終点への距離及び方向の時系列データに基づいて、前記仮想空間の視点を移動させる視点移動情報を生成することを特徴とする。
【0022】
請求項17に記載の発明は、請求項13から請求項15のいずれかの項に記載の発明において、前記表示部は、2次元の仮想空間画像により作成された仮想平面空間及び3次元の仮想空間画像により作成された仮想空間を同時に表示し、前記情報制御部は、前記仮想平面空間にアイコン表示された前記仮想空間の視点の視野角アイコンが、前記複数の指示部位の一指示部位によりドラック操作された回転角をうけて、該回転角分だけ視野角を回転させる視点移動情報を生成することを特徴とする。
【0023】
請求項18に記載の発明は、請求項13に記載の発明において、前記情報制御部は、先にタッチ操作された第一のタッチ位置から後にタッチ操作された第二のタッチ位置への距離及び方向のデータを受けて、該第一のタッチ位置から第二のタッチ位置への距離及び方向に基づいて、視点を移動させるための視点移動情報を生成することを特徴とする。
【0024】
請求項19に記載の発明は、請求項18に記載の発明において、前記情報制御部は、前記第一のタッチ位置と前記第二のタッチ位置に基づいて,前記第一のタッチ位置と前記第二のタッチ位置を結ぶ線分を所定の割合で分割する分割点の位置を算出し、該分割点の位置の時系列的変化に基づいて,視点を移動させる速度または加速度を変更する視点移動情報を生成することを特徴とする。
【0025】
請求項20に記載の発明は、請求項13に記載の発明において、前記表示部は、2次元の仮想空間画像により作成された仮想平面空間及び3次元の仮想空間画像により作成された仮想空間を同時に表示し、前記情報制御部は、前記複数の指示部位の二指示部位によりタッチ操作された二指示部位間の距離の時系列データを受けて、該タッチ操作された二指示部位間の距離の時系列的変化に基づいて、前記仮想平面を拡大縮小表示する拡大縮小情報を生成することを特徴とする。
【0026】
請求項21に記載の発明は、請求項13に記載の発明において、前記情報制御部は、タッチ操作された第1〜nのタッチ位置の中心点の位置の時系列データを受けて、該第1〜nのタッチ位置の中心となる点の位置の時系列的変化に基づいて、視点を移動させるための視点移動情報を生成することを特徴とする。
【0027】
請求項22に記載の発明は、請求項13に記載の発明において、前記表示部は、さらに前記仮想空間における視点を操作するための操作アイコンを表示し、前記情報制御部は、前記操作アイコンが具備するドラック部がドラック操作された開始点から終点への距離及び方向の時系列データを受けて、該開始点から終点への距離及び方向の時系列的変化に基づいて、視点を移動させるための視点移動情報を生成することを特徴とする。
【0028】
請求項23に記載の発明は、表示手段の表示画面に表示される仮想空間画像を移動させる仮想空間移動制御装置において用いられるプログラムであって、前記表示画面において行われる、複数の指示部位からなる指示体のタッチ操作またはドラック操作を検出する検出手段と、前記検出手段の検出結果に基づいて、前記仮想空間画像の視点位置情報を生成する視点位置情報生成手段と、前記視点位置情報が指示する視点から見た仮想空間画像データを生成し、前記表示手段へ出力する立体画像生成手段とを具備することを特徴とする仮想空間移動制御装置を実行するためのプログラムである。
【0029】
請求項24に記載の発明は、仮想空間画像が表示された所定の表示領域を、複数の指示部位からなる指示体によりタッチ操作またはドラッグ操作する複数の指示部位の数及び前記複数の指示部位それぞれのタッチ位置を検出する操作検出部と、前記複数の指示部位の数及び前記複数の指示部位それぞれのタッチ位置に基づいて、前記仮想空間画像の視点を移動させる視点移動情報を生成し、前記表示部に出力する情報制御部と、前記情報制御部から出力された前記移動情報に基づいて前記仮想空間を表示する表示部とを具備することを特徴とする仮想空間移動制御装置を実行するためのプログラムである。
【0030】
請求項25に記載の発明は、表示手段の表示画面に表示される仮想空間画像を移動させる仮想空間移動制御装置において用いられるプログラムを記録した記録媒体であって、前記表示画面において行われる、複数の指示部位からなる指示体のタッチ操作またはドラック操作を検出する検出手段と、前記検出手段の検出結果に基づいて、前記仮想空間画像の視点位置情報を生成する視点位置情報生成手段と、前記視点位置情報が指示する視点から見た仮想空間画像データを生成し、前記表示手段へ出力する立体画像生成手段とを具備することを特徴とする仮想空間移動制御装置を実行するためのプログラムを記録した記録媒体である。
【0031】
請求項26に記載の発明は、仮想空間画像が表示された所定の表示領域を、複数の指示部位からなる指示体によりタッチ操作またはドラッグ操作する複数の指示部位の数及び前記複数の指示部位それぞれのタッチ位置を検出する操作検出部と、前記複数の指示部位の数及び前記複数の指示部位それぞれのタッチ位置に基づいて、前記仮想空間画像の視点を移動させる視点移動情報を生成し、前記表示部に出力する情報制御部と、前記情報制御部から出力された前記移動情報に基づいて前記仮想空間を表示する表示部とを具備することを特徴とする仮想空間移動制御装置を実行するためのプログラムを記録した記録媒体である。
【0032】
【発明の実施の形態】
以下、図面を参照し、この発明の一実施形態について説明する。図1は、本実施形態における、仮想空間移動制御装置の構成図である。符号1は、CGモデルにより作成された仮想空間を表示する表示部である。符号2は、表示部1の所定の表示領域を指等の複数の指示部位からなる指示体によりタッチ操作またはドラッグ操作すると、タッチ操作またはドラッグ操作する複数の指示部位の数及び複数の指示部位それぞれのタッチ位置を検出する操作検出部である。符号3は、検出された複数の指示部位の数及び複数の指示部位それぞれのタッチ位置に基づいて、仮想空間の表示における視点を移動させる視点移動情報を生成し、表示部に出力する情報制御部である。
【0033】
次に本実施形態の仮想空間移動制御装置の動作について説明する。
操作検出部2は、図1に示すように表示部1の左右に設置されており、光学式座標検出方式によって、表示部の表面を一定間隔毎に高速走査する。表示部上において、指示部位によりタッチ操作またはドラッグ操作すると、走査光が遮られることにより、操作検出部2は、光を遮る指示部位の数及び方向を検出する。この光を遮る指示部位の方向を異なる操作検出部において検出した検出結果を受けて、情報制御部3は、三角測量の原理より指示部位の正確な指示位置座標を算出する。そして、情報制御部3は、算出したそれぞれの指示部位の位置座標に基づいて、指示部位間の距離を算出する。
情報制御部3は、光を遮る指示部位の数、指示部位それぞれの位置座標、指示部位間の距離に基づいて、仮想空間の表示における視点を移動させる視点移動情報を生成し、表示部1に出力する。表示部1は、情報制御部から出力された移動情報に基づいて、仮想空間を表示する。
【0034】
以上説明したように、本実施形態の構成により、仮想空間に表示されるCGモデルに対して、所定領域内での複数の指示部位からなる指示体のタッチ操作またはドラッグ操作に基づいて、仮想空間の表示における視点を移動させるための移動情報を生成し、移動情報をCGモデルに反映させることが可能となる。
【0035】
次に本実施形態の仮想空間移動制御装置の具体的な処理手順について説明する。図2は、図1の表示部に表示された都市の2次元仮想平面空間及び3次元仮想平面空間を示す概観図である。2次元仮想平面空間には都市の地図が表示され、また、この地図上には、3次元仮想空間における視点を示す視点表示アイコンが表示される。視点表示アイコンは、視点の位置座標を示しアイコンの回転の中心部分となる視点アイコン4及び3次元仮想空間における視野角を示す視野角アイコン5からなる。
2次元仮想平面空間及び3次元仮想空間は、同一の位置座標により表示され、視点が移動する場合は、互いに連動して移動表示される。また、3次元仮想空間は、さらに垂直方向の高さを示す座標値及び視点の方向を規定するロール角、ヘディング角、ピッチ角及び画角により表示される。
【0036】
情報制御部3は、ユーザが何本の指で操作をしたか、タッチ操作かドラック操作か、どの表示領域でどの対象に対して操作をしたかについて判定をし、位置座標、垂直座標、ロール角、ヘディング角、ピッチ角及び画角の変更からなる移動情報を作成する。以下にその具体的な個々の処理について説明する。
【0037】
仮想空間移動制御装置が起動すると、情報制御部3は、住所入力画面を表示し、ユーザが入力した住所に基づいて、表示部1に2次元仮想平面空間画像である周辺地図及び入力された住所の位置に視点表示アイコンを表示する。次に、該視点表示アイコンの位置から見た3次元仮想空間画像を表示する。
次に操作検出部2が、表示部上において、指示部位によりタッチ操作またはドラッグ操作されたことを検出した場合の具体的な動作について説明する。
まずタッチ操作またはドラッグ操作場所が、2次元平面空間である場合について、図3の情報制御部3における処理のフローチャートを参照して説明する。
(1)タッチ操作による視点移動操作
ユーザが2次元仮想平面空間の都市の地図を1本の指でタッチ操作すると(図3のステップSa1で1本、及びステップSa2で捜査対象が地図、及びステップ3でタッチ操作)、操作検出部2は、タッチ位置を検出し、情報制御部3に出力する。情報制御部3は、タッチ位置の検出を受けて、タッチ位置に視点の位置を変更し、視点を移動させる視点移動情報を生成し、表示部1に出力する。表示部1は、情報制御部3から出力された視点移動情報に基づいて、都市の地図上の視点表示アイコンを移動した2次元仮想平面空間及び移動先の視点から見える3次元仮想空間を表示する(ステップS1参照)。
【0038】
(2)ドラック操作による地図移動操作
ユーザが2次元仮想平面空間の都市の地図を1本の指でドラック操作すると(ステップSa1で1本、及びステップSa2で捜査対象が地図、及びステップ3でドラック操作)、操作検出部2は、ドラック操作の開始点から終点への距離及び方向を時系列的に検出し、情報制御部3に出力する。情報制御部3は、開始点から終点への距離及び方向の検出を受けて、地図をドラック操作の開始点から終点への距離分だけ、ドラック操作の開始点から終点への方向へ移動させる視点移動情報を生成し、表示部1に出力する。表示部1は、情報制御部3から出力された視点移動情報に基づいて、ドラック操作した分だけ地図が移動した2次元仮想平面空間を表示する(ステップS2参照)。
【0039】
(3)ドラック操作による視点移動操作
ユーザが2次元仮想平面空間の都市の地図上に表示された視点アイコン4を1本の指でドラック操作すると(ステップSa1で1本、及びステップSa2で捜査対象が視点アイコン)、操作検出部2は、ドラック操作の開始点から終点への距離及び方向を時系列的に検出し、情報制御部3に出力する。情報制御部3は、開始点から終点への距離及び方向に基づいて、ドラック操作の終点部に視点表示アイコン及び3次元仮想空間の視点を移動させる視点移動情報を生成し、表示部1に出力する。表示部1は、情報制御部3から出力された視点移動情報に基づいて、ドラック操作の終点部に視点表示アイコンが移動した2次元仮想平面空間及び移動先の視点から見える3次元仮想空間を表示する(ステップS3及びステップ4を参照)。
【0040】
(4)視野角移動操作
ユーザが2次元仮想平面空間の都市の地図上に表示された視点表示アイコンの視野角アイコンを1本の指でドラック操作すると(ステップSa1で1本、及びステップSa2で捜査対象が視野角アイコン)、操作検出部2は、ドラック操作の開始点から終点への距離、方向及び回転角を検出し、情報制御部3に出力する。情報制御部3は、開始点から終点への距離及び方向に基づいて、ドラック操作の終点部に視野角アイコンを回転移動し、3次元仮想空間の視点を検出した回転角ぶんだけ回転させる視点移動情報を生成し、表示部1に出力する。表示部1は、情報制御部3から出力された視点移動情報に基づいて、ドラック操作の終点部に視野角アイコンが回転した2次元仮想平面空間及び回転移動した視点から見える3次元仮想空間を表示する(ステップS5及びステップ6を参照)。
【0041】
(5)拡大・縮小操作
ユーザが2次元仮想平面空間の都市の地図を2本の指でタッチ操作すると(ステップSa1で2本の場合)、操作検出部2は、2本の指間の距離を時系列的に検出し、情報制御部3に出力する。情報制御部3は、2本の指が近づくと2本の指間の距離が縮むことを受けて(ステップSa4で距離が縮んだ)、地図を縮小表示する拡大縮小情報を生成し、表示部1に出力する。また、2本の指の距離が離れると2本の指間の距離が伸びることを受けて(ステップSa4で距離が縮んだ場合)、地図を拡大表示する拡大縮小情報を生成し、表示部1に出力する。表示部1は、情報制御部3から出力された拡大縮小情報に基づいて、拡大縮小表示した3次元仮想空間及び2次元仮想平面空間を表示する。(ステップS7及びステップ8を参照)
【0042】
次にタッチ操作またはドラッグ操作場所が、3次元空間である場合について、図4の情報制御部3における処理のフローチャートを参照して説明する。
(6)タッチ操作による視点方向移動操作
ユーザが3次元仮想空間の都市の立体図を1本の指でタッチ操作すると(図3のステップSb1で1本、及びステップSb2でタッチ操作)、操作検出部2は、タッチ位置を検出し、情報制御部3に出力する。情報制御部3は、タッチ位置の検出を受けて、視点方向をタッチ位置に変更するために視点方向を規定するロール角、ヘディング角、ピッチ角を変更する視点方向情報及び視野角アイコンを回転させる視点移動情報を生成し、表示部1に出力する。表示部1は、情報制御部3から出力された視点方向情報に基づいて、3次元仮想空間の都市の立体図において視点方向をタッチ位置に変更した3次元仮想空間を表示する(ステップS9を参照)。また視野角アイコンを回転させる視点移動情報に基づいて、視野角アイコンが回転した2次元仮想平面空間を表示する(ステップS10を参照)。
【0043】
(7)ドラック操作による視点方向移動操作
ユーザが3次元仮想空間の都市の立体図を1本の指でドラック操作すると(図4のステップSb1で1本、及びステップSb2でドラック操作)、操作検出部2は、ドラック操作の開始点から終点への距離及び方向を検出し、情報制御部3に出力する。情報制御部3は、ドラック操作の開始点から終点への距離及び方向の検出を受けて、ドラック操作の開始点から終点の方向へドラック操作の開始点から終点への距離分だけ、視点方向を変更するために視点方向を規定するロール角、ヘディング角、ピッチ角を変更する視点方向情報を生成し、表示部1に出力する。表示部1は、情報制御部3から出力された視点方向情報に基づいて、3次元仮想空間の都市の立体図において視点方向をドラック操作の開始点から終点の方向へドラック操作の開始点から終点への距離分だけ変更した3次元仮想空間を表示する(ステップS11を参照)。また視野角アイコンを回転させる視点移動情報に基づいて、視野角アイコンが回転した2次元仮想平面空間を表示する(ステップS12を参照)。
【0044】
(8)右前方・左前方、右後方・左後方への視点移動操作
ユーザが3次元仮想空間の都市の立体図を2本の指でタッチ操作すると(図4のステップSb1で2本)、操作検出部2は、先にタッチ操作された第一のタッチ位置から後にタッチ操作された第二のタッチ位置への距離及び方向を時系列的に検出し、情報制御部3に出力する。情報制御部3は、第一のタッチ位置と第二のタッチ位置に基づいて,第一のタッチ位置と第二のタッチ位置の中点の位置を算出する。そして、情報制御部3は、第一のタッチ位置から該中点への距離及び方向に基づいて、第一のタッチ位置から該中点の方向へ視点を移動させる速度または加速度等の視点移動情報を生成し、表示部1に出力する。
【0045】
たとえば、第二のタッチ位置が、第一のタッチ位置から見て右上である場合(ステップSb3で右、及びステップSb4で上)、右前方に視点を移動させる視点移動情報を生成し、表示部1に出力する。また、第二のタッチ位置が、第一のタッチ位置から見て右下である場合(ステップSb3で右、及びステップSb4で下)、左後方に視点を移動させる視点移動情報を生成し、表示部1に出力する。なお、第二のタッチ位置が、第一のタッチ位置から見て左上、あるいは、左下である場合も上述の処理手順に従って、情報制御部3は視点移動情報を生成し、表示部1に出力する。
【0046】
また、情報制御部3は、さらに第一のタッチ位置と第二のタッチ位置を結ぶ線分を所定の割合で分割する分割点の位置を算出し、分割点の位置が移動した場合、この分割点の移動距離及び移動方向に基づいて,視点を移動させる速度または加速度等の視点移動情報を生成し、表示部1に出力する。
たとえば、分割点の位置が時系列的に上方に移動した場合、情報制御部3は、該中点の移動距離に基づいて,視点を移動させる速度または加速度を大きくする視点移動情報を生成し、表示部1に出力する。
また、分割点の位置が時系列的に下方に移動した場合、情報制御部3は、該中点の移動距離に基づいて,視点を移動させる速度または加速度を小さくする視点移動情報を生成し、表示部1に出力する。
なお、上述の分割点は,第一のタッチ位置と第二のタッチ位置を結ぶ線分を所定の割合で内分する内分点、または第一のタッチ位置と第二のタッチ位置を結ぶ線分を所定の割合で外分する外分点であってもよい。
表示部1は、情報制御部3から出力された視点移動情報に基づいて、時系列的に変更された視点から見える3次元仮想空間及び視点表示アイコンが時系列的に移動した2次元仮想平面空間を表示する(ステップS13〜S20)。
【0047】
(9)垂直上方・下方への視点移動操作
ユーザが3次元仮想空間の都市の立体図を3本以上のn本の指でタッチ操作すると(ステップSb5で3本)、操作検出部2は、タッチ操作された第1〜nのタッチ位置の中心となる点の位置を時系列的に検出し、情報制御部3に出力する。情報制御部3は、第1〜nのタッチ位置の中心点の位置の時系列的変化に基づいて、垂直方向に垂直移動させる視点移動情報を生成し、表示部1に出力する。たとえば、第1〜nのタッチ位置の中心点を、タッチ操作後、上に移動させた場合、情報制御部3は、視点位置を垂直上方に移動させる視点移動情報を生成し、表示部1に出力する。また、第1〜nのタッチ位置の中心点を、タッチ操作後、下に移動させた場合、情報制御部3は、視点位置を垂直下方に移動させる視点移動情報を生成し、表示部1に出力する。表示部1は、情報制御部3から出力された視点移動情報に基づいて、垂直上方または、垂直下方に移動した視点から見える3次元仮想空間を表示する(ステップS21〜S22)。
【0048】
以上説明したように、2次元平面空間、または3次元空間に対して、1本、2本、または3本以上の指で視点移動、視点方向移動、前進・後退、上昇・下降、右回転・左回転、拡大・縮小等の操作を現実空間での操作イメージに近い操作方法で行うことができるので、ユーザに仮想空間移動操作との一体感を与えることができる。
【0049】
次に、上記実施形態における仮想空間移動制御装置を不動産紹介システムに用いた例について説明する。図3は、近隣地区にある建物(工場・銀行・ビル、官公庁、学校、ホテル、病院、駅ビル、娯楽・デパート、駅、構想集合住宅等)を調べる操作画面を示す図である。図3に示す目的物選択ボタンにより、ユーザが目的の建物を選択すると、2次元仮想平面の地図及び3次元仮想平面空間における立体図において、目的の建物のみが、他の建物と識別可能な色に変更されて表示される。また、実際に人間が現在の位置から目的物まで移動する際の移動経路が図2に示すように表示される。これにより、ユーザは、目的の建物までの距離や方角を感覚的に理解することができる。
【0050】
また、図5には、上述の操作と同様の操作を、操作する指の数に応じて割当てた、半球状の3つの操作アイコンが表示され、操作アイコン6は1本指操作、操作アイコン7は2本指操作、操作アイコン8は3本以上の指の操作に対応する。各操作アイコン6〜8には、半球中心部にドラック部6a、6b、6cが表示させる。ユーザが操作アイコンのドラック部をドラック操作すると、操作検出部2は、ドラック操作の開始点から終点への距離及び方向を時系列的に検出し、情報制御部3に出力する。情報制御部3は、ドラック操作の開始点から終点への距離及び方向の時系列的変化に基づいて、視点を移動させるための視点移動情報を生成し、表示部1に出力する。表示部1は、情報制御部3から出力された視点移動情報に基づいて仮想空間表示する。
【0051】
これにより、指等のある程度幅がある指示体でタッチ操作またはドラック操作する場合に、タッチ操作またはドラック操作している表示部分が、見えないという問題点を解決することができる。すなわち、上述の操作アイコンにより、表示画面と近い領域ではあるが、重なってはいない部分で上記実施例における一連の仮想空間移動制御過程を実行することができる。
【0052】
図6に仮想空間移動制御装置を不動産紹介システムに用いた例における、マンションの外観紹介の例を示す。3次元仮想空間にCGで表示された高層マンションは、前述の実施例における、視点の上昇・下降、右回転・左回転操作により様々な視点からマンションの外観を見ることが可能である。
【0053】
図7は、図6のマンションの18階部分の1806号室から外を見た場合の様子を示す図である。図6の階表示アイコンで、目的の階及び部屋を選択することで、目的の部屋の窓の位置に視点が移動するように視点情報が生成され、表示部において、目的の窓からの眺望を仮想空間内で楽しむことができる。
【0054】
さらに、図8は、上述のマンションにおける、室内の様子を示す図である。2次元仮想平面空間には、部屋の配置図が表示されている。また3次元仮想空間には、部屋の配置図上に表示された視点表示アイコンの位置から見た部屋の立体図が表示されている。このような室内空間においても、上述の仮想空間制御装置は適用可能であり、2次元平面空間、または3次元空間に対して、1本、2本、または3本以上の指で視点移動、視点方向移動、前進・後退、上昇・下降、右回転・左回転、拡大・縮小等の操作を現実空間での操作イメージに近い操作方法で行うことができ、ユーザが指等による簡単な操作によって種々の仮想空間移動操作を行うことができることは言うまでもない。
【0055】
なお、上述の仮想空間移動制御装置は内部に、コンピュータシステムを有している。上述した仮想空間移動制御に関する一連の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしても良い。
【0056】
【発明の効果】
以上説明したように請求項1及び請求項12に記載の発明によれば、表示手段の表示画面に表示される仮想空間画像を移動させる仮想空間移動制御システムにおいて、前記表示画面において行われる、複数の指示部位からなる指示体のタッチ操作またはドラック操作を検出する検出処理と、前記検出手段の検出結果に基づいて、前記仮想空間画像の視点位置情報を生成する視点位置情報生成処理と、前記視点位置情報が指示する視点から見た仮想空間画像データを生成し、前記表示手段へ出力する立体画像生成処理とを行うので、ユーザが指等による簡単な操作によって、種々の仮想空間移動操作を行うことができる効果が得られる。
【0057】
請求項2及び請求項13に記載の発明によれば、表示画面に表示される仮想空間画像を移動させる仮想空間移動制御システムにおいて、操作検出部は、仮想空間画像が表示された所定の表示領域を、複数の指示部位からなる指示体によりタッチ操作またはドラッグ操作する複数の指示部位の数及び複数の指示部位それぞれのタッチ位置を検出し、情報制御部は、複数の指示部位の数及び前記複数の指示部位それぞれのタッチ位置に基づいて、仮想空間画像の視点を移動させる視点移動情報を生成し、表示部に出力し、表示部は、情報制御部から出力された前記移動情報に基づいて前記仮想空間を表示するので、複数の指示部位の数及び複数の指示部位それぞれのタッチ位置に基づいて、様々な仮想空間移動操作を割り当てることが可能であり、さらに、ユーザが指等による簡単な操作によって、種々の仮想空間移動操作を行うことができる効果が得られる。
【0058】
請求項11及び請求項22に記載の発明によれば、表示部は、さらに前記仮想空間における視点を操作するための操作アイコンを表示し、情報制御部は、操作アイコンが具備するドラック部がドラック操作された開始点から終点への距離及び方向の時系列データを受けて、開始点から終点への距離及び方向の時系列的変化に基づいて、視点を移動させるための視点移動情報を生成するので、タッチ操作またはドラック操作により表示部分が隠れてしまわないという効果を得ることができる。
【図面の簡単な説明】
【図1】本実施形態における、仮想空間移動制御装置の構成図である。
【図2】表示部に表示された都市の2次元仮想平面空間及び3次元仮想平面空間を示す概観図である。
【図3】タッチ操作またはドラッグ操作が2次元平面空間で行われた場合の情報制御部3における処理のフローチャートである。
【図4】タッチ操作またはドラッグ操作が3次元空間で行われた場合の情報制御部3における処理のフローチャートである。
【図5】近隣地区にある建物を調べる操作画面を示す図である。
【図6】仮想空間移動制御装置を不動産紹介システムに用いた例における、マンションの外観紹介を表示した図である。
【図7】図6のマンションの18階部分の1806号室から外を見た場合の様子を示す図である。
【図8】図7のマンションの室内の様子を示す図である。
【符号の説明】
1…表示部
2…操作検出部
3…情報制御部
4…視点アイコン
5…視野角アイコン
6…1本指操作アイコン
7…2本指操作アイコン
8…3本指操作アイコン
【発明の属する技術分野】
本発明は、仮想空間内の移動制御装置及び制御方法並びに制御プログラムに関し、具体的には、ユーザがコンピュータ端末上に表示された該仮想空間を移動する際に、仮想空間移動画像処理に必要な仮想空間移動情報を生成し、CG(コンピュータ・グラフィック)モデルを移動制御するための仮想空間移動制御装置及び制御方法並びに制御プログラムに関する。
【0002】
【従来の技術】
近年、CGを用いて表現された、サイバースペースと呼ばれる仮想空間が提供されている。ユーザは、コンピュータ端末上に表示される仮想空間内を移動しながら、情報を体感的に取得することができる。これらコンピュータ端末上の仮想空間内を移動するためのマン・マシン・インターフェイスとして、マウス、ジョイスティック等が一般的である。
【0003】
マウスは、仮想空間の表示領域をカーソルにより移動操作すると、この操作に基づいて空間内の移動情報に変換するのに用いられる。また、ジョイスティックは、スティック部分を傾けた方向及び角度に基づいて、空間内の移動情報に変換するのに用いられる。しかし、従来のインターフェイス装置である、マウスやジョイスティックは、コンピュータに触れたことがないユーザにとっては、仮想空間の移動動作を実現するための手段としては、必ずしも直感的に理解できるものではない。
【0004】
上述のマウスやジョイスティックと同様の操作を行うためのマン・マシン・インターフェイスとして、タッチパネル等を用いたものがある。この場合、指等で仮想空間内の移動位置を直接指定することにより、表示を変更することが可能である。しかし、通常のタッチパネルにおいて、マウスやジョイスティックによる仮想空間内の移動操作と同様の操作を指だけで行うことはできず、別の操作が必要となるので、操作が煩雑であり直感的な操作ができなかった。
【0005】
【発明が解決しようとする課題】
この発明はこのような事情を考慮してなされたもので、その目的は、ユーザが指等による簡単な操作によって、種々の仮想空間移動操作を行うことができる仮想空間移動制御装置及び制御方法並びに制御プログラムを提供することにある。
【0006】
【課題を解決するための手段】
この発明は上記の課題を解決すべくなされたもので、請求項1に記載の発明は、表示手段の表示画面に表示される仮想空間画像を移動させる仮想空間移動制御装置において、前記表示画面において行われる、複数の指示部位からなる指示体のタッチ操作またはドラック操作を検出する検出手段と、前記検出手段の検出結果に基づいて、前記仮想空間画像の視点位置情報を生成する視点位置情報生成手段と、前記視点位置情報が指示する視点から見た仮想空間画像データを生成し、前記表示手段へ出力する立体画像生成手段とを具備することを特徴とする。
【0007】
請求項2に記載の発明は、仮想空間画像が表示された所定の表示領域を、複数の指示部位からなる指示体によりタッチ操作またはドラッグ操作する複数の指示部位の数及び前記複数の指示部位それぞれのタッチ位置を検出する操作検出部と、前記複数の指示部位の数及び前記複数の指示部位それぞれのタッチ位置に基づいて、前記仮想空間画像の視点を移動させる視点移動情報を生成し、前記表示部に出力する情報制御部と、前記情報制御部から出力された前記移動情報に基づいて前記仮想空間を表示する表示部とを具備することを特徴とする。
【0008】
請求項3に記載の発明は、請求項2に記載の発明において、前記情報制御部は、前記複数の指示部位の一指示部位によりタッチ操作されたタッチ位置を受けて、前記タッチ位置に視点の位置を変更する視点移動情報を生成することを特徴とする。
【0009】
請求項4に記載の発明は、請求項2または請求項3に記載の発明において、前記情報制御部は、前記複数の指示部位の一指示部位によりドラック操作された開始点から終点への距離及び方向の時系列データを受けて、該開始点から終点への距離及び方向の時系列データに基づいて、視点を移動させる視点移動情報を生成することを特徴とする。
【0010】
請求項5に記載の発明は、請求項2から請求項4のいずれかの項に記載の発明において、前記表示部は、2次元の仮想空間画像により作成された仮想平面空間及び3次元の仮想空間画像により作成された仮想空間を同時に表示し、前記情報制御部は、前記仮想平面空間にアイコン表示された前記仮想空間の視点アイコンが、前記複数の指示部位の一指示部位によりドラック操作された開始点から終点への距離及び方向の時系列データを受けて、該ドラック操作された開始点から終点への距離及び方向の時系列データに基づいて、前記仮想空間の視点を移動させる視点移動情報を生成する。
【0011】
請求項6に記載の発明は、請求項2から請求項4のいずれかの項に記載の発明において、前記表示部は、2次元の仮想空間画像により作成された仮想平面空間及び3次元の仮想空間画像により作成された仮想空間を同時に表示し、前記情報制御部は、前記仮想平面空間にアイコン表示された前記仮想空間の視点の視野角アイコンが、前記複数の指示部位の一指示部位によりドラック操作された回転角をうけて、該回転角分だけ視野角を回転させる視点移動情報を生成することを特徴とする。
【0012】
請求項7に記載の発明は、請求項2に記載の発明において、前記情報制御部は、先にタッチ操作された第一のタッチ位置から後にタッチ操作された第二のタッチ位置への距離及び方向のデータを受けて、該第一のタッチ位置から第二のタッチ位置への距離及び方向に基づいて、視点を移動させるための視点移動情報を生成することを特徴とする。
【0013】
請求項8に記載の発明は、請求項7に記載の発明において、前記情報制御部は、前記第一のタッチ位置と前記第二のタッチ位置に基づいて,前記第一のタッチ位置と前記第二のタッチ位置を結ぶ線を所定の割合で分割する分割点の位置を算出し、該分割点の位置の時系列的変化に基づいて,視点を移動させる速度または加速度を変更する視点移動情報を生成することを特徴とする。
【0014】
請求項9に記載の発明は、請求項2に記載の発明において、前記表示部は、2次元の仮想空間画像により作成された仮想平面空間及び3次元の仮想空間画像により作成された仮想空間を同時に表示し、前記情報制御部は、前記複数の指示部位の二指示部位によりタッチ操作された二指示部位間の距離の時系列データを受けて、該タッチ操作された二指示部位間の距離の時系列的変化に基づいて、前記仮想平面を拡大縮小表示する拡大縮小情報を生成することを特徴とする。
【0015】
請求項10に記載の発明は、請求項2に記載の発明において、前記情報制御部は、タッチ操作された第1〜nのタッチ位置の中心点の位置の時系列データを受けて、該第1〜nのタッチ位置の中心となる点の位置の時系列的変化に基づいて、視点を移動させるための視点移動情報を生成することを特徴とする。
【0016】
請求項11に記載の発明は、請求項2に記載の発明において、前記表示部は、さらに前記仮想空間における視点を操作するための操作アイコンを表示し、前記情報制御部は、前記操作アイコンが具備するドラック部がドラック操作された開始点から終点への距離及び方向の時系列データを受けて、該開始点から終点への距離及び方向の時系列的変化に基づいて、視点を移動させるための視点移動情報を生成することを特徴とする。
【0017】
請求項12に記載の発明は、表示手段の表示画面に表示される仮想空間画像を移動させる仮想空間移動制御システムにおいて、前記表示画面において行われる、複数の指示部位からなる指示体のタッチ操作またはドラック操作を検出する検出処理と、前記検出手段の検出結果に基づいて、前記仮想空間画像の視点位置情報を生成する視点位置情報生成処理と、前記視点位置情報が指示する視点から見た仮想空間画像データを生成し、前記表示手段へ出力する立体画像生成処理とを具備することを特徴とする。
【0018】
請求項13に記載の発明は、表示画面に表示される仮想空間画像を移動させる仮想空間制御システムにおいて、前記操作検出部は、仮想空間画像が表示された所定の表示領域を、複数の指示部位からなる指示体によりタッチ操作またはドラッグ操作する複数の指示部位の数及び前記複数の指示部位それぞれのタッチ位置を検出し、前記情報制御部は、前記複数の指示部位の数及び前記複数の指示部位それぞれのタッチ位置に基づいて、前記仮想空間画像の視点を移動させる視点移動情報を生成し、前記表示部に出力し、前記表示部は、前記情報制御部から出力された前記移動情報に基づいて前記仮想空間を表示することを特徴とする。
【0019】
請求項14に記載の発明は、請求項13に記載の発明において、前記情報制御部は、前記複数の指示部位の一指示部位によりタッチ操作されたタッチ位置を受けて、前記タッチ位置に視点の位置を変更する視点移動情報を生成することを特徴とする。
【0020】
請求項15に記載の発明は、請求項13または請求項15に記載の発明において、前記情報制御部は、前記複数の指示部位の一指示部位によりドラック操作された開始点から終点への距離及び方向の時系列データを受けて、該開始点から終点への距離及び方向の時系列データに基づいて、視点を移動させる視点移動情報を生成することを特徴とする。
【0021】
請求項16に記載の発明は、請求項13から請求項15のいずれかの項に記載の発明において、前記表示部は、2次元の仮想空間画像により作成された仮想平面空間及び3次元の仮想空間画像により作成された仮想空間を同時に表示し、前記情報制御部は、前記仮想平面空間にアイコン表示された前記仮想空間の視点アイコンが、前記複数の指示部位の一指示部位によりドラック操作された開始点から終点への距離及び方向の時系列データを受けて、該ドラック操作された開始点から終点への距離及び方向の時系列データに基づいて、前記仮想空間の視点を移動させる視点移動情報を生成することを特徴とする。
【0022】
請求項17に記載の発明は、請求項13から請求項15のいずれかの項に記載の発明において、前記表示部は、2次元の仮想空間画像により作成された仮想平面空間及び3次元の仮想空間画像により作成された仮想空間を同時に表示し、前記情報制御部は、前記仮想平面空間にアイコン表示された前記仮想空間の視点の視野角アイコンが、前記複数の指示部位の一指示部位によりドラック操作された回転角をうけて、該回転角分だけ視野角を回転させる視点移動情報を生成することを特徴とする。
【0023】
請求項18に記載の発明は、請求項13に記載の発明において、前記情報制御部は、先にタッチ操作された第一のタッチ位置から後にタッチ操作された第二のタッチ位置への距離及び方向のデータを受けて、該第一のタッチ位置から第二のタッチ位置への距離及び方向に基づいて、視点を移動させるための視点移動情報を生成することを特徴とする。
【0024】
請求項19に記載の発明は、請求項18に記載の発明において、前記情報制御部は、前記第一のタッチ位置と前記第二のタッチ位置に基づいて,前記第一のタッチ位置と前記第二のタッチ位置を結ぶ線分を所定の割合で分割する分割点の位置を算出し、該分割点の位置の時系列的変化に基づいて,視点を移動させる速度または加速度を変更する視点移動情報を生成することを特徴とする。
【0025】
請求項20に記載の発明は、請求項13に記載の発明において、前記表示部は、2次元の仮想空間画像により作成された仮想平面空間及び3次元の仮想空間画像により作成された仮想空間を同時に表示し、前記情報制御部は、前記複数の指示部位の二指示部位によりタッチ操作された二指示部位間の距離の時系列データを受けて、該タッチ操作された二指示部位間の距離の時系列的変化に基づいて、前記仮想平面を拡大縮小表示する拡大縮小情報を生成することを特徴とする。
【0026】
請求項21に記載の発明は、請求項13に記載の発明において、前記情報制御部は、タッチ操作された第1〜nのタッチ位置の中心点の位置の時系列データを受けて、該第1〜nのタッチ位置の中心となる点の位置の時系列的変化に基づいて、視点を移動させるための視点移動情報を生成することを特徴とする。
【0027】
請求項22に記載の発明は、請求項13に記載の発明において、前記表示部は、さらに前記仮想空間における視点を操作するための操作アイコンを表示し、前記情報制御部は、前記操作アイコンが具備するドラック部がドラック操作された開始点から終点への距離及び方向の時系列データを受けて、該開始点から終点への距離及び方向の時系列的変化に基づいて、視点を移動させるための視点移動情報を生成することを特徴とする。
【0028】
請求項23に記載の発明は、表示手段の表示画面に表示される仮想空間画像を移動させる仮想空間移動制御装置において用いられるプログラムであって、前記表示画面において行われる、複数の指示部位からなる指示体のタッチ操作またはドラック操作を検出する検出手段と、前記検出手段の検出結果に基づいて、前記仮想空間画像の視点位置情報を生成する視点位置情報生成手段と、前記視点位置情報が指示する視点から見た仮想空間画像データを生成し、前記表示手段へ出力する立体画像生成手段とを具備することを特徴とする仮想空間移動制御装置を実行するためのプログラムである。
【0029】
請求項24に記載の発明は、仮想空間画像が表示された所定の表示領域を、複数の指示部位からなる指示体によりタッチ操作またはドラッグ操作する複数の指示部位の数及び前記複数の指示部位それぞれのタッチ位置を検出する操作検出部と、前記複数の指示部位の数及び前記複数の指示部位それぞれのタッチ位置に基づいて、前記仮想空間画像の視点を移動させる視点移動情報を生成し、前記表示部に出力する情報制御部と、前記情報制御部から出力された前記移動情報に基づいて前記仮想空間を表示する表示部とを具備することを特徴とする仮想空間移動制御装置を実行するためのプログラムである。
【0030】
請求項25に記載の発明は、表示手段の表示画面に表示される仮想空間画像を移動させる仮想空間移動制御装置において用いられるプログラムを記録した記録媒体であって、前記表示画面において行われる、複数の指示部位からなる指示体のタッチ操作またはドラック操作を検出する検出手段と、前記検出手段の検出結果に基づいて、前記仮想空間画像の視点位置情報を生成する視点位置情報生成手段と、前記視点位置情報が指示する視点から見た仮想空間画像データを生成し、前記表示手段へ出力する立体画像生成手段とを具備することを特徴とする仮想空間移動制御装置を実行するためのプログラムを記録した記録媒体である。
【0031】
請求項26に記載の発明は、仮想空間画像が表示された所定の表示領域を、複数の指示部位からなる指示体によりタッチ操作またはドラッグ操作する複数の指示部位の数及び前記複数の指示部位それぞれのタッチ位置を検出する操作検出部と、前記複数の指示部位の数及び前記複数の指示部位それぞれのタッチ位置に基づいて、前記仮想空間画像の視点を移動させる視点移動情報を生成し、前記表示部に出力する情報制御部と、前記情報制御部から出力された前記移動情報に基づいて前記仮想空間を表示する表示部とを具備することを特徴とする仮想空間移動制御装置を実行するためのプログラムを記録した記録媒体である。
【0032】
【発明の実施の形態】
以下、図面を参照し、この発明の一実施形態について説明する。図1は、本実施形態における、仮想空間移動制御装置の構成図である。符号1は、CGモデルにより作成された仮想空間を表示する表示部である。符号2は、表示部1の所定の表示領域を指等の複数の指示部位からなる指示体によりタッチ操作またはドラッグ操作すると、タッチ操作またはドラッグ操作する複数の指示部位の数及び複数の指示部位それぞれのタッチ位置を検出する操作検出部である。符号3は、検出された複数の指示部位の数及び複数の指示部位それぞれのタッチ位置に基づいて、仮想空間の表示における視点を移動させる視点移動情報を生成し、表示部に出力する情報制御部である。
【0033】
次に本実施形態の仮想空間移動制御装置の動作について説明する。
操作検出部2は、図1に示すように表示部1の左右に設置されており、光学式座標検出方式によって、表示部の表面を一定間隔毎に高速走査する。表示部上において、指示部位によりタッチ操作またはドラッグ操作すると、走査光が遮られることにより、操作検出部2は、光を遮る指示部位の数及び方向を検出する。この光を遮る指示部位の方向を異なる操作検出部において検出した検出結果を受けて、情報制御部3は、三角測量の原理より指示部位の正確な指示位置座標を算出する。そして、情報制御部3は、算出したそれぞれの指示部位の位置座標に基づいて、指示部位間の距離を算出する。
情報制御部3は、光を遮る指示部位の数、指示部位それぞれの位置座標、指示部位間の距離に基づいて、仮想空間の表示における視点を移動させる視点移動情報を生成し、表示部1に出力する。表示部1は、情報制御部から出力された移動情報に基づいて、仮想空間を表示する。
【0034】
以上説明したように、本実施形態の構成により、仮想空間に表示されるCGモデルに対して、所定領域内での複数の指示部位からなる指示体のタッチ操作またはドラッグ操作に基づいて、仮想空間の表示における視点を移動させるための移動情報を生成し、移動情報をCGモデルに反映させることが可能となる。
【0035】
次に本実施形態の仮想空間移動制御装置の具体的な処理手順について説明する。図2は、図1の表示部に表示された都市の2次元仮想平面空間及び3次元仮想平面空間を示す概観図である。2次元仮想平面空間には都市の地図が表示され、また、この地図上には、3次元仮想空間における視点を示す視点表示アイコンが表示される。視点表示アイコンは、視点の位置座標を示しアイコンの回転の中心部分となる視点アイコン4及び3次元仮想空間における視野角を示す視野角アイコン5からなる。
2次元仮想平面空間及び3次元仮想空間は、同一の位置座標により表示され、視点が移動する場合は、互いに連動して移動表示される。また、3次元仮想空間は、さらに垂直方向の高さを示す座標値及び視点の方向を規定するロール角、ヘディング角、ピッチ角及び画角により表示される。
【0036】
情報制御部3は、ユーザが何本の指で操作をしたか、タッチ操作かドラック操作か、どの表示領域でどの対象に対して操作をしたかについて判定をし、位置座標、垂直座標、ロール角、ヘディング角、ピッチ角及び画角の変更からなる移動情報を作成する。以下にその具体的な個々の処理について説明する。
【0037】
仮想空間移動制御装置が起動すると、情報制御部3は、住所入力画面を表示し、ユーザが入力した住所に基づいて、表示部1に2次元仮想平面空間画像である周辺地図及び入力された住所の位置に視点表示アイコンを表示する。次に、該視点表示アイコンの位置から見た3次元仮想空間画像を表示する。
次に操作検出部2が、表示部上において、指示部位によりタッチ操作またはドラッグ操作されたことを検出した場合の具体的な動作について説明する。
まずタッチ操作またはドラッグ操作場所が、2次元平面空間である場合について、図3の情報制御部3における処理のフローチャートを参照して説明する。
(1)タッチ操作による視点移動操作
ユーザが2次元仮想平面空間の都市の地図を1本の指でタッチ操作すると(図3のステップSa1で1本、及びステップSa2で捜査対象が地図、及びステップ3でタッチ操作)、操作検出部2は、タッチ位置を検出し、情報制御部3に出力する。情報制御部3は、タッチ位置の検出を受けて、タッチ位置に視点の位置を変更し、視点を移動させる視点移動情報を生成し、表示部1に出力する。表示部1は、情報制御部3から出力された視点移動情報に基づいて、都市の地図上の視点表示アイコンを移動した2次元仮想平面空間及び移動先の視点から見える3次元仮想空間を表示する(ステップS1参照)。
【0038】
(2)ドラック操作による地図移動操作
ユーザが2次元仮想平面空間の都市の地図を1本の指でドラック操作すると(ステップSa1で1本、及びステップSa2で捜査対象が地図、及びステップ3でドラック操作)、操作検出部2は、ドラック操作の開始点から終点への距離及び方向を時系列的に検出し、情報制御部3に出力する。情報制御部3は、開始点から終点への距離及び方向の検出を受けて、地図をドラック操作の開始点から終点への距離分だけ、ドラック操作の開始点から終点への方向へ移動させる視点移動情報を生成し、表示部1に出力する。表示部1は、情報制御部3から出力された視点移動情報に基づいて、ドラック操作した分だけ地図が移動した2次元仮想平面空間を表示する(ステップS2参照)。
【0039】
(3)ドラック操作による視点移動操作
ユーザが2次元仮想平面空間の都市の地図上に表示された視点アイコン4を1本の指でドラック操作すると(ステップSa1で1本、及びステップSa2で捜査対象が視点アイコン)、操作検出部2は、ドラック操作の開始点から終点への距離及び方向を時系列的に検出し、情報制御部3に出力する。情報制御部3は、開始点から終点への距離及び方向に基づいて、ドラック操作の終点部に視点表示アイコン及び3次元仮想空間の視点を移動させる視点移動情報を生成し、表示部1に出力する。表示部1は、情報制御部3から出力された視点移動情報に基づいて、ドラック操作の終点部に視点表示アイコンが移動した2次元仮想平面空間及び移動先の視点から見える3次元仮想空間を表示する(ステップS3及びステップ4を参照)。
【0040】
(4)視野角移動操作
ユーザが2次元仮想平面空間の都市の地図上に表示された視点表示アイコンの視野角アイコンを1本の指でドラック操作すると(ステップSa1で1本、及びステップSa2で捜査対象が視野角アイコン)、操作検出部2は、ドラック操作の開始点から終点への距離、方向及び回転角を検出し、情報制御部3に出力する。情報制御部3は、開始点から終点への距離及び方向に基づいて、ドラック操作の終点部に視野角アイコンを回転移動し、3次元仮想空間の視点を検出した回転角ぶんだけ回転させる視点移動情報を生成し、表示部1に出力する。表示部1は、情報制御部3から出力された視点移動情報に基づいて、ドラック操作の終点部に視野角アイコンが回転した2次元仮想平面空間及び回転移動した視点から見える3次元仮想空間を表示する(ステップS5及びステップ6を参照)。
【0041】
(5)拡大・縮小操作
ユーザが2次元仮想平面空間の都市の地図を2本の指でタッチ操作すると(ステップSa1で2本の場合)、操作検出部2は、2本の指間の距離を時系列的に検出し、情報制御部3に出力する。情報制御部3は、2本の指が近づくと2本の指間の距離が縮むことを受けて(ステップSa4で距離が縮んだ)、地図を縮小表示する拡大縮小情報を生成し、表示部1に出力する。また、2本の指の距離が離れると2本の指間の距離が伸びることを受けて(ステップSa4で距離が縮んだ場合)、地図を拡大表示する拡大縮小情報を生成し、表示部1に出力する。表示部1は、情報制御部3から出力された拡大縮小情報に基づいて、拡大縮小表示した3次元仮想空間及び2次元仮想平面空間を表示する。(ステップS7及びステップ8を参照)
【0042】
次にタッチ操作またはドラッグ操作場所が、3次元空間である場合について、図4の情報制御部3における処理のフローチャートを参照して説明する。
(6)タッチ操作による視点方向移動操作
ユーザが3次元仮想空間の都市の立体図を1本の指でタッチ操作すると(図3のステップSb1で1本、及びステップSb2でタッチ操作)、操作検出部2は、タッチ位置を検出し、情報制御部3に出力する。情報制御部3は、タッチ位置の検出を受けて、視点方向をタッチ位置に変更するために視点方向を規定するロール角、ヘディング角、ピッチ角を変更する視点方向情報及び視野角アイコンを回転させる視点移動情報を生成し、表示部1に出力する。表示部1は、情報制御部3から出力された視点方向情報に基づいて、3次元仮想空間の都市の立体図において視点方向をタッチ位置に変更した3次元仮想空間を表示する(ステップS9を参照)。また視野角アイコンを回転させる視点移動情報に基づいて、視野角アイコンが回転した2次元仮想平面空間を表示する(ステップS10を参照)。
【0043】
(7)ドラック操作による視点方向移動操作
ユーザが3次元仮想空間の都市の立体図を1本の指でドラック操作すると(図4のステップSb1で1本、及びステップSb2でドラック操作)、操作検出部2は、ドラック操作の開始点から終点への距離及び方向を検出し、情報制御部3に出力する。情報制御部3は、ドラック操作の開始点から終点への距離及び方向の検出を受けて、ドラック操作の開始点から終点の方向へドラック操作の開始点から終点への距離分だけ、視点方向を変更するために視点方向を規定するロール角、ヘディング角、ピッチ角を変更する視点方向情報を生成し、表示部1に出力する。表示部1は、情報制御部3から出力された視点方向情報に基づいて、3次元仮想空間の都市の立体図において視点方向をドラック操作の開始点から終点の方向へドラック操作の開始点から終点への距離分だけ変更した3次元仮想空間を表示する(ステップS11を参照)。また視野角アイコンを回転させる視点移動情報に基づいて、視野角アイコンが回転した2次元仮想平面空間を表示する(ステップS12を参照)。
【0044】
(8)右前方・左前方、右後方・左後方への視点移動操作
ユーザが3次元仮想空間の都市の立体図を2本の指でタッチ操作すると(図4のステップSb1で2本)、操作検出部2は、先にタッチ操作された第一のタッチ位置から後にタッチ操作された第二のタッチ位置への距離及び方向を時系列的に検出し、情報制御部3に出力する。情報制御部3は、第一のタッチ位置と第二のタッチ位置に基づいて,第一のタッチ位置と第二のタッチ位置の中点の位置を算出する。そして、情報制御部3は、第一のタッチ位置から該中点への距離及び方向に基づいて、第一のタッチ位置から該中点の方向へ視点を移動させる速度または加速度等の視点移動情報を生成し、表示部1に出力する。
【0045】
たとえば、第二のタッチ位置が、第一のタッチ位置から見て右上である場合(ステップSb3で右、及びステップSb4で上)、右前方に視点を移動させる視点移動情報を生成し、表示部1に出力する。また、第二のタッチ位置が、第一のタッチ位置から見て右下である場合(ステップSb3で右、及びステップSb4で下)、左後方に視点を移動させる視点移動情報を生成し、表示部1に出力する。なお、第二のタッチ位置が、第一のタッチ位置から見て左上、あるいは、左下である場合も上述の処理手順に従って、情報制御部3は視点移動情報を生成し、表示部1に出力する。
【0046】
また、情報制御部3は、さらに第一のタッチ位置と第二のタッチ位置を結ぶ線分を所定の割合で分割する分割点の位置を算出し、分割点の位置が移動した場合、この分割点の移動距離及び移動方向に基づいて,視点を移動させる速度または加速度等の視点移動情報を生成し、表示部1に出力する。
たとえば、分割点の位置が時系列的に上方に移動した場合、情報制御部3は、該中点の移動距離に基づいて,視点を移動させる速度または加速度を大きくする視点移動情報を生成し、表示部1に出力する。
また、分割点の位置が時系列的に下方に移動した場合、情報制御部3は、該中点の移動距離に基づいて,視点を移動させる速度または加速度を小さくする視点移動情報を生成し、表示部1に出力する。
なお、上述の分割点は,第一のタッチ位置と第二のタッチ位置を結ぶ線分を所定の割合で内分する内分点、または第一のタッチ位置と第二のタッチ位置を結ぶ線分を所定の割合で外分する外分点であってもよい。
表示部1は、情報制御部3から出力された視点移動情報に基づいて、時系列的に変更された視点から見える3次元仮想空間及び視点表示アイコンが時系列的に移動した2次元仮想平面空間を表示する(ステップS13〜S20)。
【0047】
(9)垂直上方・下方への視点移動操作
ユーザが3次元仮想空間の都市の立体図を3本以上のn本の指でタッチ操作すると(ステップSb5で3本)、操作検出部2は、タッチ操作された第1〜nのタッチ位置の中心となる点の位置を時系列的に検出し、情報制御部3に出力する。情報制御部3は、第1〜nのタッチ位置の中心点の位置の時系列的変化に基づいて、垂直方向に垂直移動させる視点移動情報を生成し、表示部1に出力する。たとえば、第1〜nのタッチ位置の中心点を、タッチ操作後、上に移動させた場合、情報制御部3は、視点位置を垂直上方に移動させる視点移動情報を生成し、表示部1に出力する。また、第1〜nのタッチ位置の中心点を、タッチ操作後、下に移動させた場合、情報制御部3は、視点位置を垂直下方に移動させる視点移動情報を生成し、表示部1に出力する。表示部1は、情報制御部3から出力された視点移動情報に基づいて、垂直上方または、垂直下方に移動した視点から見える3次元仮想空間を表示する(ステップS21〜S22)。
【0048】
以上説明したように、2次元平面空間、または3次元空間に対して、1本、2本、または3本以上の指で視点移動、視点方向移動、前進・後退、上昇・下降、右回転・左回転、拡大・縮小等の操作を現実空間での操作イメージに近い操作方法で行うことができるので、ユーザに仮想空間移動操作との一体感を与えることができる。
【0049】
次に、上記実施形態における仮想空間移動制御装置を不動産紹介システムに用いた例について説明する。図3は、近隣地区にある建物(工場・銀行・ビル、官公庁、学校、ホテル、病院、駅ビル、娯楽・デパート、駅、構想集合住宅等)を調べる操作画面を示す図である。図3に示す目的物選択ボタンにより、ユーザが目的の建物を選択すると、2次元仮想平面の地図及び3次元仮想平面空間における立体図において、目的の建物のみが、他の建物と識別可能な色に変更されて表示される。また、実際に人間が現在の位置から目的物まで移動する際の移動経路が図2に示すように表示される。これにより、ユーザは、目的の建物までの距離や方角を感覚的に理解することができる。
【0050】
また、図5には、上述の操作と同様の操作を、操作する指の数に応じて割当てた、半球状の3つの操作アイコンが表示され、操作アイコン6は1本指操作、操作アイコン7は2本指操作、操作アイコン8は3本以上の指の操作に対応する。各操作アイコン6〜8には、半球中心部にドラック部6a、6b、6cが表示させる。ユーザが操作アイコンのドラック部をドラック操作すると、操作検出部2は、ドラック操作の開始点から終点への距離及び方向を時系列的に検出し、情報制御部3に出力する。情報制御部3は、ドラック操作の開始点から終点への距離及び方向の時系列的変化に基づいて、視点を移動させるための視点移動情報を生成し、表示部1に出力する。表示部1は、情報制御部3から出力された視点移動情報に基づいて仮想空間表示する。
【0051】
これにより、指等のある程度幅がある指示体でタッチ操作またはドラック操作する場合に、タッチ操作またはドラック操作している表示部分が、見えないという問題点を解決することができる。すなわち、上述の操作アイコンにより、表示画面と近い領域ではあるが、重なってはいない部分で上記実施例における一連の仮想空間移動制御過程を実行することができる。
【0052】
図6に仮想空間移動制御装置を不動産紹介システムに用いた例における、マンションの外観紹介の例を示す。3次元仮想空間にCGで表示された高層マンションは、前述の実施例における、視点の上昇・下降、右回転・左回転操作により様々な視点からマンションの外観を見ることが可能である。
【0053】
図7は、図6のマンションの18階部分の1806号室から外を見た場合の様子を示す図である。図6の階表示アイコンで、目的の階及び部屋を選択することで、目的の部屋の窓の位置に視点が移動するように視点情報が生成され、表示部において、目的の窓からの眺望を仮想空間内で楽しむことができる。
【0054】
さらに、図8は、上述のマンションにおける、室内の様子を示す図である。2次元仮想平面空間には、部屋の配置図が表示されている。また3次元仮想空間には、部屋の配置図上に表示された視点表示アイコンの位置から見た部屋の立体図が表示されている。このような室内空間においても、上述の仮想空間制御装置は適用可能であり、2次元平面空間、または3次元空間に対して、1本、2本、または3本以上の指で視点移動、視点方向移動、前進・後退、上昇・下降、右回転・左回転、拡大・縮小等の操作を現実空間での操作イメージに近い操作方法で行うことができ、ユーザが指等による簡単な操作によって種々の仮想空間移動操作を行うことができることは言うまでもない。
【0055】
なお、上述の仮想空間移動制御装置は内部に、コンピュータシステムを有している。上述した仮想空間移動制御に関する一連の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしても良い。
【0056】
【発明の効果】
以上説明したように請求項1及び請求項12に記載の発明によれば、表示手段の表示画面に表示される仮想空間画像を移動させる仮想空間移動制御システムにおいて、前記表示画面において行われる、複数の指示部位からなる指示体のタッチ操作またはドラック操作を検出する検出処理と、前記検出手段の検出結果に基づいて、前記仮想空間画像の視点位置情報を生成する視点位置情報生成処理と、前記視点位置情報が指示する視点から見た仮想空間画像データを生成し、前記表示手段へ出力する立体画像生成処理とを行うので、ユーザが指等による簡単な操作によって、種々の仮想空間移動操作を行うことができる効果が得られる。
【0057】
請求項2及び請求項13に記載の発明によれば、表示画面に表示される仮想空間画像を移動させる仮想空間移動制御システムにおいて、操作検出部は、仮想空間画像が表示された所定の表示領域を、複数の指示部位からなる指示体によりタッチ操作またはドラッグ操作する複数の指示部位の数及び複数の指示部位それぞれのタッチ位置を検出し、情報制御部は、複数の指示部位の数及び前記複数の指示部位それぞれのタッチ位置に基づいて、仮想空間画像の視点を移動させる視点移動情報を生成し、表示部に出力し、表示部は、情報制御部から出力された前記移動情報に基づいて前記仮想空間を表示するので、複数の指示部位の数及び複数の指示部位それぞれのタッチ位置に基づいて、様々な仮想空間移動操作を割り当てることが可能であり、さらに、ユーザが指等による簡単な操作によって、種々の仮想空間移動操作を行うことができる効果が得られる。
【0058】
請求項11及び請求項22に記載の発明によれば、表示部は、さらに前記仮想空間における視点を操作するための操作アイコンを表示し、情報制御部は、操作アイコンが具備するドラック部がドラック操作された開始点から終点への距離及び方向の時系列データを受けて、開始点から終点への距離及び方向の時系列的変化に基づいて、視点を移動させるための視点移動情報を生成するので、タッチ操作またはドラック操作により表示部分が隠れてしまわないという効果を得ることができる。
【図面の簡単な説明】
【図1】本実施形態における、仮想空間移動制御装置の構成図である。
【図2】表示部に表示された都市の2次元仮想平面空間及び3次元仮想平面空間を示す概観図である。
【図3】タッチ操作またはドラッグ操作が2次元平面空間で行われた場合の情報制御部3における処理のフローチャートである。
【図4】タッチ操作またはドラッグ操作が3次元空間で行われた場合の情報制御部3における処理のフローチャートである。
【図5】近隣地区にある建物を調べる操作画面を示す図である。
【図6】仮想空間移動制御装置を不動産紹介システムに用いた例における、マンションの外観紹介を表示した図である。
【図7】図6のマンションの18階部分の1806号室から外を見た場合の様子を示す図である。
【図8】図7のマンションの室内の様子を示す図である。
【符号の説明】
1…表示部
2…操作検出部
3…情報制御部
4…視点アイコン
5…視野角アイコン
6…1本指操作アイコン
7…2本指操作アイコン
8…3本指操作アイコン
Claims (26)
- 表示手段の表示画面に表示される仮想空間画像を移動させる仮想空間移動制御装置において、
前記表示画面において行われる、複数の指示部位からなる指示体のタッチ操作またはドラック操作を検出する検出手段と、
前記検出手段の検出結果に基づいて、前記仮想空間画像の視点位置情報を生成する視点位置情報生成手段と、
前記視点位置情報が指示する視点から見た仮想空間画像データを生成し、前記表示手段へ出力する立体画像生成手段と
を具備することを特徴とする仮想空間移動制御装置。 - 仮想空間画像が表示された所定の表示領域を、複数の指示部位からなる指示体によりタッチ操作またはドラッグ操作する複数の指示部位の数及び前記複数の指示部位それぞれのタッチ位置を検出する操作検出部と、
前記複数の指示部位の数及び前記複数の指示部位それぞれのタッチ位置に基づいて、前記仮想空間画像の視点を移動させる視点移動情報を生成し、前記表示部に出力する情報制御部と、
前記情報制御部から出力された前記移動情報に基づいて前記仮想空間を表示する表示部と、
を具備することを特徴とする仮想空間移動制御装置。 - 前記情報制御部は、前記複数の指示部位の一指示部位によりタッチ操作されたタッチ位置を受けて、前記タッチ位置に視点の位置を変更する視点移動情報を生成することを特徴とする請求項2に記載の仮想空間移動制御装置。
- 前記情報制御部は、前記複数の指示部位の一指示部位によりドラック操作された開始点から終点への距離及び方向の時系列データを受けて、該開始点から終点への距離及び方向の時系列データに基づいて、視点を移動させる視点移動情報を生成することを特徴とする請求項2または請求項3に記載の仮想空間移動制御装置。
- 前記表示部は、2次元の仮想空間画像により作成された仮想平面空間及び3次元の仮想空間画像により作成された仮想空間を同時に表示し、前記情報制御部は、前記仮想平面空間にアイコン表示された前記仮想空間の視点アイコンが、前記複数の指示部位の一指示部位によりドラック操作された開始点から終点への距離及び方向の時系列データを受けて、該ドラック操作された開始点から終点への距離及び方向の時系列データに基づいて、前記仮想空間の視点を移動させる視点移動情報を生成することを特徴とする請求項2から請求項4のいずれかの項に記載の仮想空間移動制御装置。
- 前記表示部は、2次元の仮想空間画像により作成された仮想平面空間及び3次元の仮想空間画像により作成された仮想空間を同時に表示し、前記情報制御部は、前記仮想平面空間にアイコン表示された前記仮想空間の視点の視野角アイコンが、前記複数の指示部位の一指示部位によりドラック操作された回転角をうけて、該回転角分だけ視野角を回転させる視点移動情報を生成することを特徴とする請求項2から請求項4のいずれかの項に記載の仮想空間移動制御装置。
- 前記情報制御部は、先にタッチ操作された第一のタッチ位置から後にタッチ操作された第二のタッチ位置への距離及び方向のデータを受けて、該第一のタッチ位置から第二のタッチ位置への距離及び方向に基づいて、視点を移動させるための視点移動情報を生成することを特徴とする請求項2に記載の仮想空間移動制御装置。
- 前記情報制御部は、前記第一のタッチ位置と前記第二のタッチ位置に基づいて,前記第一のタッチ位置と前記第二のタッチ位置を結ぶ線分を所定の割合で分割する分割点の位置を算出し、該分割点の位置の時系列的変化に基づいて,視点を移動させる速度または加速度を変更する視点移動情報を生成することを特徴とする請求項7に記載の仮想空間移動制御装置。
- 前記表示部は、2次元の仮想空間画像により作成された仮想平面空間及び3次元の仮想空間画像により作成された仮想空間を同時に表示し、前記情報制御部は、前記複数の指示部位の二指示部位によりタッチ操作された二指示部位間の距離の時系列データを受けて、該タッチ操作された二指示部位間の距離の時系列的変化に基づいて、前記仮想平面を拡大縮小表示する拡大縮小情報を生成することを特徴とする請求項2に記載の仮想空間移動制御装置。
- 前記情報制御部は、タッチ操作された第1〜nのタッチ位置の中心点の位置の時系列データを受けて、該第1〜nのタッチ位置の中心となる点の位置の時系列的変化に基づいて、視点を移動させるための視点移動情報を生成することを特徴とする請求項2に記載の仮想空間移動制御装置。
- 前記表示部は、さらに前記仮想空間における視点を操作するための操作アイコンを表示し、
前記情報制御部は、前記操作アイコンが具備するドラック部がドラック操作された開始点から終点への距離及び方向の時系列データを受けて、該開始点から終点への距離及び方向の時系列的変化に基づいて、視点を移動させるための視点移動情報を生成することを特徴とする請求項2に記載の仮想空間移動制御装置。 - 表示手段の表示画面に表示される仮想空間画像を移動させる仮想空間移動制御システムにおいて、
前記表示画面において行われる、複数の指示部位からなる指示体のタッチ操作またはドラック操作を検出する検出処理と、
前記検出手段の検出結果に基づいて、前記仮想空間画像の視点位置情報を生成する視点位置情報生成処理と、
前記視点位置情報が指示する視点から見た仮想空間画像データを生成し、前記表示手段へ出力する立体画像生成処理と
を具備することを特徴とする仮想空間移動制御方法。 - 表示画面に表示される仮想空間画像を移動させる仮想空間移動制御システムにおいて、
前記操作検出部は、仮想空間画像が表示された所定の表示領域を、複数の指示部位からなる指示体によりタッチ操作またはドラッグ操作する複数の指示部位の数及び前記複数の指示部位それぞれのタッチ位置を検出し、
前記情報制御部は、前記複数の指示部位の数及び前記複数の指示部位それぞれのタッチ位置に基づいて、前記仮想空間画像の視点を移動させる視点移動情報を生成し、前記表示部に出力し、
前記表示部は、前記情報制御部から出力された前記移動情報に基づいて前記仮想空間を表示する
ことを特徴とする仮想空間移動制御方法。 - 前記情報制御部は、前記複数の指示部位の一指示部位によりタッチ操作されたタッチ位置を受けて、前記タッチ位置に視点の位置を変更する視点移動情報を生成することを特徴とする請求項13に記載の仮想空間移動制御方法。
- 前記情報制御部は、前記複数の指示部位の一指示部位によりドラック操作された開始点から終点への距離及び方向の時系列データを受けて、該開始点から終点への距離及び方向の時系列データに基づいて、視点を移動させる視点移動情報を生成することを特徴とする請求項13または請求項14に記載の仮想空間移動制御方法。
- 前記表示部は、2次元の仮想空間画像により作成された仮想平面空間及び3次元の仮想空間画像により作成された仮想空間を同時に表示し、
前記情報制御部は、前記仮想平面空間にアイコン表示された前記仮想空間の視点アイコンが、前記複数の指示部位の一指示部位によりドラック操作された開始点から終点への距離及び方向の時系列データを受けて、該ドラック操作された開始点から終点への距離及び方向の時系列データに基づいて、前記仮想空間の視点を移動させる視点移動情報を生成することを特徴とする請求項13から請求項15のいずれかの項に記載の仮想空間移動制御方法。 - 前記表示部は、2次元の仮想空間画像により作成された仮想平面空間及び3次元の仮想空間画像により作成された仮想空間を同時に表示し、
前記情報制御部は、前記仮想平面空間にアイコン表示された前記仮想空間の視点の視野角アイコンが、前記複数の指示部位の一指示部位によりドラック操作された回転角をうけて、該回転角分だけ視野角を回転させる視点移動情報を生成することを特徴とする請求項13から請求項15のいずれかの項に記載の仮想空間移動制御方法。 - 前記情報制御部は、先にタッチ操作された第一のタッチ位置から後にタッチ操作された第二のタッチ位置への距離及び方向のデータを受けて、該第一のタッチ位置から第二のタッチ位置への距離及び方向に基づいて、視点を移動させるための視点移動情報を生成することを特徴とする請求項13に記載の仮想空間移動制御方法。
- 前記情報制御部は、前記第一のタッチ位置と前記第二のタッチ位置に基づいて,前記第一のタッチ位置と前記第二のタッチ位置を結ぶ線分を所定の割合で分割する分割点の位置を算出し、該分割点の位置の時系列的変化に基づいて,視点を移動させる速度または加速度を変更する視点移動情報を生成することを特徴とする請求項18に記載の仮想空間移動制御方法。
- 前記表示部は、2次元の仮想空間画像により作成された仮想平面空間及び3次元の仮想空間画像により作成された仮想空間を同時に表示し、
前記情報制御部は、前記複数の指示部位の二指示部位によりタッチ操作された二指示部位間の距離の時系列データを受けて、該タッチ操作された二指示部位間の距離の時系列的変化に基づいて、前記仮想平面を拡大縮小表示する拡大縮小情報を生成することを特徴とする請求項13に記載の仮想空間移動制御方法。 - 前記情報制御部は、タッチ操作された第1〜nのタッチ位置の中心点の位置の時系列データを受けて、該第1〜nのタッチ位置の中心となる点の位置の時系列的変化に基づいて、視点を移動させるための視点移動情報を生成することを特徴とする請求項13に記載の仮想空間移動制御方法。
- 前記表示部は、さらに前記仮想空間における視点を操作するための操作アイコンを表示し、
前記情報制御部は、前記操作アイコンが具備するドラック部がドラック操作された開始点から終点への距離及び方向の時系列データを受けて、該開始点から終点への距離及び方向の時系列的変化に基づいて、視点を移動させるための視点移動情報を生成することを特徴とする請求項13に記載の仮想空間移動制御方法。 - 表示手段の表示画面に表示される仮想空間画像を移動させる仮想空間移動制御装置において用いられるプログラムであって、
前記表示画面において行われる、複数の指示部位からなる指示体のタッチ操作またはドラック操作を検出する検出手段と、
前記検出手段の検出結果に基づいて、前記仮想空間画像の視点位置情報を生成する視点位置情報生成手段と、
前記視点位置情報が指示する視点から見た仮想空間画像データを生成し、前記表示手段へ出力する立体画像生成手段と
を具備することを特徴とする仮想空間移動制御装置を実行するためのプログラム。 - 仮想空間画像が表示された所定の表示領域を、複数の指示部位からなる指示体によりタッチ操作またはドラッグ操作する複数の指示部位の数及び前記複数の指示部位それぞれのタッチ位置を検出する操作検出部と、
前記複数の指示部位の数及び前記複数の指示部位それぞれのタッチ位置に基づいて、前記仮想空間画像の視点を移動させる視点移動情報を生成し、前記表示部に出力する情報制御部と、
前記情報制御部から出力された前記移動情報に基づいて前記仮想空間を表示する表示部と、
を具備することを特徴とする仮想空間移動制御装置を実行するためのプログラム。 - 表示手段の表示画面に表示される仮想空間画像を移動させる仮想空間移動制御装置において用いられるプログラムを記録した記録媒体であって、
前記表示画面において行われる、複数の指示部位からなる指示体のタッチ操作またはドラック操作を検出する検出手段と、
前記検出手段の検出結果に基づいて、前記仮想空間画像の視点位置情報を生成する視点位置情報生成手段と、
前記視点位置情報が指示する視点から見た仮想空間画像データを生成し、前記表示手段へ出力する立体画像生成手段と
を具備することを特徴とする仮想空間移動制御装置を実行するためのプログラムを記録した記録媒体。 - 仮想空間画像が表示された所定の表示領域を、複数の指示部位からなる指示体によりタッチ操作またはドラッグ操作する複数の指示部位の数及び前記複数の指示部位それぞれのタッチ位置を検出する操作検出部と、
前記複数の指示部位の数及び前記複数の指示部位それぞれのタッチ位置に基づいて、前記仮想空間画像の視点を移動させる視点移動情報を生成し、前記表示部に出力する情報制御部と、
前記情報制御部から出力された前記移動情報に基づいて前記仮想空間を表示する表示部と、
を具備することを特徴とする仮想空間移動制御装置を実行するためのプログラムを記録した記録媒体。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002160761A JP2004005272A (ja) | 2002-05-31 | 2002-05-31 | 仮想空間移動制御装置及び制御方法並びに制御プログラム |
US10/447,828 US7477243B2 (en) | 2002-05-31 | 2003-05-29 | Apparatus for controlling the shift of virtual space and method and program for controlling same |
DE60324224T DE60324224D1 (de) | 2002-05-31 | 2003-06-02 | Gerät und Verfahren zur Bestimmung der Blickpunktverschiebung in einem virtuellen Raum |
EP03253456A EP1369822B1 (en) | 2002-05-31 | 2003-06-02 | Apparatus and method for controlling the shift of the viewpoint in a virtual space |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002160761A JP2004005272A (ja) | 2002-05-31 | 2002-05-31 | 仮想空間移動制御装置及び制御方法並びに制御プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004005272A true JP2004005272A (ja) | 2004-01-08 |
Family
ID=29545619
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002160761A Pending JP2004005272A (ja) | 2002-05-31 | 2002-05-31 | 仮想空間移動制御装置及び制御方法並びに制御プログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US7477243B2 (ja) |
EP (1) | EP1369822B1 (ja) |
JP (1) | JP2004005272A (ja) |
DE (1) | DE60324224D1 (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006008947A1 (ja) | 2004-07-20 | 2006-01-26 | Vodafone K.K. | 移動体通信端末、アプリケーションプログラム、画像表示制御装置、電子機器及び画像表示制御方法 |
JP2007157023A (ja) * | 2005-12-08 | 2007-06-21 | Nippon Telegr & Teleph Corp <Ntt> | オブジェクト検索装置およびオブジェクト検索方法 |
JP2008256567A (ja) * | 2007-04-05 | 2008-10-23 | Denso Corp | 地図表示装置 |
JP2011014045A (ja) * | 2009-07-03 | 2011-01-20 | Sony Corp | 地図情報表示装置、地図情報表示方法およびプログラム |
KR20110049873A (ko) * | 2008-08-22 | 2011-05-12 | 구글 인코포레이티드 | 이동 장치 상의 삼차원 환경에서의 네비게이션 |
JP2012177809A (ja) * | 2011-02-25 | 2012-09-13 | Geo Technical Laboratory Co Ltd | 3次元地図表示システム |
JP2013020008A (ja) * | 2011-07-08 | 2013-01-31 | Mic Ware:Kk | 地図表示装置、地図表示方法、プログラム、およびデータ構造 |
JP2013236374A (ja) * | 2012-05-03 | 2013-11-21 | Harman Internatl Industries Inc | 仮想カメラを対話形式で制御するシステムおよび方法 |
Families Citing this family (54)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001195491A (ja) * | 1999-11-02 | 2001-07-19 | Matsushita Electric Works Ltd | 住空間関連商品の販売支援方法と課金方法及びそのためのシステムと記録媒体 |
US6803906B1 (en) * | 2000-07-05 | 2004-10-12 | Smart Technologies, Inc. | Passive touch system and method of detecting user input |
US7269632B2 (en) * | 2001-06-05 | 2007-09-11 | Xdyne, Inc. | Networked computer system for communicating and operating in a virtual reality environment |
US6954197B2 (en) * | 2002-11-15 | 2005-10-11 | Smart Technologies Inc. | Size/scale and orientation determination of a pointer in a camera-based touch system |
US8508508B2 (en) | 2003-02-14 | 2013-08-13 | Next Holdings Limited | Touch screen signal processing with single-point calibration |
US8456447B2 (en) | 2003-02-14 | 2013-06-04 | Next Holdings Limited | Touch screen signal processing |
US7629967B2 (en) | 2003-02-14 | 2009-12-08 | Next Holdings Limited | Touch screen signal processing |
US7532206B2 (en) * | 2003-03-11 | 2009-05-12 | Smart Technologies Ulc | System and method for differentiating between pointers used to contact touch surface |
US7411575B2 (en) * | 2003-09-16 | 2008-08-12 | Smart Technologies Ulc | Gesture recognition method and touch system incorporating the same |
US8319735B2 (en) * | 2003-10-01 | 2012-11-27 | Snap-On Technologies, Inc. | User interface for diagnostic instrument |
US7274356B2 (en) * | 2003-10-09 | 2007-09-25 | Smart Technologies Inc. | Apparatus for determining the location of a pointer within a region of interest |
US7355593B2 (en) * | 2004-01-02 | 2008-04-08 | Smart Technologies, Inc. | Pointer tracking across multiple overlapping coordinate input sub-regions defining a generally contiguous input region |
US7460110B2 (en) * | 2004-04-29 | 2008-12-02 | Smart Technologies Ulc | Dual mode touch system |
US7492357B2 (en) * | 2004-05-05 | 2009-02-17 | Smart Technologies Ulc | Apparatus and method for detecting a pointer relative to a touch surface |
US7538759B2 (en) | 2004-05-07 | 2009-05-26 | Next Holdings Limited | Touch panel display system with illumination and detection provided from a single edge |
US8120596B2 (en) * | 2004-05-21 | 2012-02-21 | Smart Technologies Ulc | Tiled touch system |
US7823068B2 (en) * | 2006-02-28 | 2010-10-26 | Mark Anthony Ogle Cowtan | Internet-based, dual-paned virtual tour presentation system with orientational capabilities and versatile tabbed menu-driven area for multi-media content delivery |
US9442607B2 (en) * | 2006-12-04 | 2016-09-13 | Smart Technologies Inc. | Interactive input system and method |
EP2135155B1 (en) | 2007-04-11 | 2013-09-18 | Next Holdings, Inc. | Touch screen system with hover and click input methods |
JP4926826B2 (ja) * | 2007-05-25 | 2012-05-09 | キヤノン株式会社 | 情報処理方法および情報処理装置 |
US8094137B2 (en) * | 2007-07-23 | 2012-01-10 | Smart Technologies Ulc | System and method of detecting contact on a display |
US20090040186A1 (en) * | 2007-08-07 | 2009-02-12 | Esenther Alan W | Method and System for Displaying Multiple Synchronized Images |
EP2195726A1 (en) | 2007-08-30 | 2010-06-16 | Next Holdings, Inc. | Low profile touch panel systems |
CN101802760B (zh) | 2007-08-30 | 2013-03-20 | 奈克斯特控股有限公司 | 具有改进照明的光学触摸屏 |
KR101445196B1 (ko) * | 2007-11-23 | 2014-09-29 | 삼성전자주식회사 | 터치 스크린을 가지는 휴대 단말기의 문자 입력 방법 및장치 |
US8405636B2 (en) | 2008-01-07 | 2013-03-26 | Next Holdings Limited | Optical position sensing system and optical position sensor assembly |
EP2297704B1 (en) | 2008-04-14 | 2014-04-09 | Google, Inc. | Panning using virtual surfaces |
US8836646B1 (en) | 2008-04-24 | 2014-09-16 | Pixar | Methods and apparatus for simultaneous user inputs for three-dimensional animation |
US10180714B1 (en) | 2008-04-24 | 2019-01-15 | Pixar | Two-handed multi-stroke marking menus for multi-touch devices |
US20090278794A1 (en) * | 2008-05-09 | 2009-11-12 | Smart Technologies Ulc | Interactive Input System With Controlled Lighting |
US8902193B2 (en) * | 2008-05-09 | 2014-12-02 | Smart Technologies Ulc | Interactive input system and bezel therefor |
US20090278795A1 (en) * | 2008-05-09 | 2009-11-12 | Smart Technologies Ulc | Interactive Input System And Illumination Assembly Therefor |
US20090277697A1 (en) * | 2008-05-09 | 2009-11-12 | Smart Technologies Ulc | Interactive Input System And Pen Tool Therefor |
WO2009155071A2 (en) | 2008-05-28 | 2009-12-23 | Google Inc. | Motion-controlled views on mobile computing devices |
US8339378B2 (en) * | 2008-11-05 | 2012-12-25 | Smart Technologies Ulc | Interactive input system with multi-angle reflector |
US20100321319A1 (en) * | 2009-06-17 | 2010-12-23 | Hefti Thierry | Method for displaying and updating a view of a graphical scene in response to commands via a touch-sensitive device |
US20110043538A1 (en) * | 2009-08-18 | 2011-02-24 | Sony Ericsson Mobile Communications Ab | Method and Arrangement for Zooming on a Display |
US20110095989A1 (en) * | 2009-10-23 | 2011-04-28 | Smart Technologies Ulc | Interactive input system and bezel therefor |
TWI426464B (zh) * | 2009-12-30 | 2014-02-11 | Univ Nat Taiwan | 四維資訊展示方法及裝置 |
EP2362302B1 (en) * | 2010-02-26 | 2018-06-06 | Alcatel Lucent | Method for controlling motions of an object in a 3-dimensional virtual environment |
GB2487039A (en) * | 2010-10-11 | 2012-07-11 | Michele Sciolette | Visualizing Illustrated Books And Comics On Digital Devices |
US9026359B2 (en) * | 2010-11-01 | 2015-05-05 | Nokia Corporation | Visually representing a three-dimensional environment |
WO2013021440A1 (ja) * | 2011-08-05 | 2013-02-14 | 株式会社東芝 | 画像処理装置、画像表示装置、画像処理方法およびプログラム |
US9026951B2 (en) * | 2011-12-21 | 2015-05-05 | Apple Inc. | Device, method, and graphical user interface for selection of views in a three-dimensional map based on gesture inputs |
US10191641B2 (en) | 2011-12-29 | 2019-01-29 | Apple Inc. | Device, method, and graphical user interface for navigation of information in a map-based interface |
US9400592B2 (en) | 2012-03-26 | 2016-07-26 | Sharp Laboratories Of America, Inc. | Methods, systems and apparatus for digital-marking-surface space and display management |
US10108693B2 (en) | 2013-03-14 | 2018-10-23 | Xdyne, Inc. | System and method for interacting with virtual maps |
EP2983139A4 (en) * | 2013-04-04 | 2016-12-28 | Sony Corp | IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD, AND PROGRAM |
US9330504B2 (en) * | 2013-04-30 | 2016-05-03 | Hover Inc. | 3D building model construction tools |
JP6518582B2 (ja) * | 2015-12-21 | 2019-05-22 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置および操作受付方法 |
EP3605300A4 (en) * | 2017-03-22 | 2020-02-26 | Sony Corporation | IMAGE PROCESSING DEVICE AND METHOD, AND PROGRAM |
AU2017204099A1 (en) * | 2017-06-16 | 2019-01-17 | Canon Kabushiki Kaisha | System and method of configuring a virtual camera |
AU2017204643B2 (en) | 2017-07-07 | 2020-05-14 | Canon Kabushiki Kaisha | Method, apparatus and system for encoding and decoding video data |
JP6419278B1 (ja) | 2017-09-19 | 2018-11-07 | キヤノン株式会社 | 制御装置、制御方法、及びプログラム |
Family Cites Families (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3632866A (en) * | 1969-10-22 | 1972-01-04 | Bell Telephone Labor Inc | Three-dimensional display |
DE69031298T2 (de) * | 1989-11-14 | 1998-01-15 | Canon Kk | Aufzeichnungsgerät |
US5029144A (en) * | 1990-07-05 | 1991-07-02 | The United States Of America As Represented By The Secretary Of The Navy | Synthetic aperture active underwater imaging system |
JPH07117868B2 (ja) * | 1991-04-30 | 1995-12-18 | インターナショナル・ビジネス・マシーンズ・コーポレイション | タツチ型作動キーボード定義方法及び装置 |
US5483261A (en) | 1992-02-14 | 1996-01-09 | Itu Research, Inc. | Graphical input controller and method with rear screen image detection |
US5999185A (en) * | 1992-03-30 | 1999-12-07 | Kabushiki Kaisha Toshiba | Virtual reality control using image, model and control data to manipulate interactions |
EP0626635B1 (en) | 1993-05-24 | 2003-03-05 | Sun Microsystems, Inc. | Improved graphical user interface with method for interfacing to remote devices |
CA2124505C (en) * | 1993-07-21 | 2000-01-04 | William A. S. Buxton | User interface having simultaneously movable tools and cursor |
JPH07230352A (ja) | 1993-09-16 | 1995-08-29 | Hitachi Ltd | タッチ位置検出装置及びタッチ指示処理装置 |
JPH0863326A (ja) | 1994-08-22 | 1996-03-08 | Hitachi Ltd | 画像処理装置及び方法 |
JP3284866B2 (ja) | 1996-02-05 | 2002-05-20 | 日本電信電話株式会社 | 3次元仮想空間内での任意画面抽出システム |
JPH09231004A (ja) | 1996-02-23 | 1997-09-05 | Yazaki Corp | 情報処理装置 |
KR100594558B1 (ko) * | 1996-05-02 | 2006-06-30 | 가부시키가이샤 세가 | 게임 장치, 게임 장치용 방법 및 컴퓨터 판독가능 매체 |
US20010040586A1 (en) * | 1996-07-25 | 2001-11-15 | Kabushiki Kaisha Sega Enterprises | Image processing device, image processing method, game device, and craft simulator |
US6154211A (en) * | 1996-09-30 | 2000-11-28 | Sony Corporation | Three-dimensional, virtual reality space display processing apparatus, a three dimensional virtual reality space display processing method, and an information providing medium |
EP0837418A3 (en) | 1996-10-18 | 2006-03-29 | Kabushiki Kaisha Toshiba | Method and apparatus for generating information input using reflected light image of target object |
JP3692683B2 (ja) * | 1997-02-14 | 2005-09-07 | 株式会社セガ | ゲーム装置 |
JPH10336505A (ja) * | 1997-04-01 | 1998-12-18 | Sony Corp | 画像表示装置及び画像表示方法 |
US6750848B1 (en) * | 1998-11-09 | 2004-06-15 | Timothy R. Pryor | More useful man machine interfaces and applications |
JPH1173271A (ja) | 1997-08-28 | 1999-03-16 | Sharp Corp | 指示装置、処理装置および記憶媒体 |
JP3123501B2 (ja) * | 1998-03-16 | 2001-01-15 | 日本電気株式会社 | 空間視点制御装置 |
US6552722B1 (en) * | 1998-07-17 | 2003-04-22 | Sensable Technologies, Inc. | Systems and methods for sculpting virtual objects in a haptic virtual reality environment |
JP3646582B2 (ja) * | 1998-09-28 | 2005-05-11 | 富士通株式会社 | 電子情報表示方法、電子情報閲覧装置および電子情報閲覧プログラム記憶媒体 |
US6614422B1 (en) * | 1999-11-04 | 2003-09-02 | Canesta, Inc. | Method and apparatus for entering data using a virtual input device |
US6710770B2 (en) | 2000-02-11 | 2004-03-23 | Canesta, Inc. | Quasi-three-dimensional method and apparatus to detect and localize interaction of user-object and virtual transfer device |
AU2001227797A1 (en) * | 2000-01-10 | 2001-07-24 | Ic Tech, Inc. | Method and system for interacting with a display |
JP4803883B2 (ja) | 2000-01-31 | 2011-10-26 | キヤノン株式会社 | 位置情報処理装置及びその方法及びそのプログラム。 |
US7218430B2 (en) * | 2000-10-20 | 2007-05-15 | Robert G Batchko | Combinatorial optical processor |
JP4589007B2 (ja) * | 2002-04-12 | 2010-12-01 | ヘンリー ケイ. オバーマイヤー, | 多軸ジョイスティックおよびそのためのトランスデューサー手段 |
JP2006513503A (ja) * | 2002-11-29 | 2006-04-20 | ブラッコ イメージング ソチエタ ペル アチオニ | 三次元表示における複数箇所を管理する装置及び方法 |
US8555165B2 (en) * | 2003-05-08 | 2013-10-08 | Hillcrest Laboratories, Inc. | Methods and systems for generating a zoomable graphical user interface |
-
2002
- 2002-05-31 JP JP2002160761A patent/JP2004005272A/ja active Pending
-
2003
- 2003-05-29 US US10/447,828 patent/US7477243B2/en not_active Expired - Fee Related
- 2003-06-02 EP EP03253456A patent/EP1369822B1/en not_active Expired - Lifetime
- 2003-06-02 DE DE60324224T patent/DE60324224D1/de not_active Expired - Lifetime
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8619028B2 (en) | 2004-07-20 | 2013-12-31 | Vodafone Group Plc | Mobile communication terminal, application program, image display control apparatus, electronic apparatus, and image display control method |
WO2006008947A1 (ja) | 2004-07-20 | 2006-01-26 | Vodafone K.K. | 移動体通信端末、アプリケーションプログラム、画像表示制御装置、電子機器及び画像表示制御方法 |
JP2007157023A (ja) * | 2005-12-08 | 2007-06-21 | Nippon Telegr & Teleph Corp <Ntt> | オブジェクト検索装置およびオブジェクト検索方法 |
JP2008256567A (ja) * | 2007-04-05 | 2008-10-23 | Denso Corp | 地図表示装置 |
KR20110049873A (ko) * | 2008-08-22 | 2011-05-12 | 구글 인코포레이티드 | 이동 장치 상의 삼차원 환경에서의 네비게이션 |
JP2012501016A (ja) * | 2008-08-22 | 2012-01-12 | グーグル インコーポレイテッド | モバイルデバイス上の3次元環境内でのナビゲーション |
KR101665034B1 (ko) * | 2008-08-22 | 2016-10-24 | 구글 인코포레이티드 | 이동 장치 상의 삼차원 환경에서의 네비게이션 |
JP2011014045A (ja) * | 2009-07-03 | 2011-01-20 | Sony Corp | 地図情報表示装置、地図情報表示方法およびプログラム |
US9251722B2 (en) | 2009-07-03 | 2016-02-02 | Sony Corporation | Map information display device, map information display method and program |
US10755604B2 (en) | 2009-07-03 | 2020-08-25 | Sony Corporation | Map information display device, map information display method and program |
JP2012177809A (ja) * | 2011-02-25 | 2012-09-13 | Geo Technical Laboratory Co Ltd | 3次元地図表示システム |
JP2013020008A (ja) * | 2011-07-08 | 2013-01-31 | Mic Ware:Kk | 地図表示装置、地図表示方法、プログラム、およびデータ構造 |
JP2013236374A (ja) * | 2012-05-03 | 2013-11-21 | Harman Internatl Industries Inc | 仮想カメラを対話形式で制御するシステムおよび方法 |
Also Published As
Publication number | Publication date |
---|---|
EP1369822A3 (en) | 2004-03-31 |
DE60324224D1 (de) | 2008-12-04 |
US7477243B2 (en) | 2009-01-13 |
EP1369822A2 (en) | 2003-12-10 |
EP1369822B1 (en) | 2008-10-22 |
US20040051709A1 (en) | 2004-03-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2004005272A (ja) | 仮想空間移動制御装置及び制御方法並びに制御プログラム | |
US11422694B2 (en) | Disambiguation of multitouch gesture recognition for 3D interaction | |
US10852913B2 (en) | Remote hover touch system and method | |
EP2042978B1 (en) | Method and apparatus for selecting an object within a user interface by performing a gesture | |
US10290155B2 (en) | 3D virtual environment interaction system | |
US9323420B2 (en) | Floor selection on an interactive digital map | |
US20170205985A1 (en) | Expanding a 3d stack of floor maps at a rate proportional to a speed of a pinch gesture | |
EP2612220B1 (en) | Method and apparatus for interfacing | |
US9128612B2 (en) | Continuous determination of a perspective | |
JPWO2007135835A1 (ja) | 画像操作装置、画像操作方法、及び画像操作プログラム | |
JP2004054590A (ja) | 仮想空間描画表示装置、及び仮想空間描画表示方法 | |
CN104137043A (zh) | 用于在图形用户界面(gui)上进行人机交互的方法 | |
US9936168B2 (en) | System and methods for controlling a surveying device | |
US11226734B1 (en) | Triggering multiple actions from a single gesture | |
JP6174646B2 (ja) | 仮想空間内のオブジェクトを3軸操作するためのコンピュータ・プログラム | |
JP5815577B2 (ja) | 情報共有支援装置 | |
JPH0863620A (ja) | 図形処理方法及び図形処理装置 | |
JP6002346B1 (ja) | ゲームにおけるオブジェクト画像表示のためのプログラム、方法、電子装置及びシステム | |
WO2024153966A1 (en) | Method and system for performing a six degree of freedom manipulation of a virtual entity in the 3d space | |
JPH05274421A (ja) | カーソル制御装置 | |
JP3496677B2 (ja) | 地図データ表示装置 | |
JPH06348816A (ja) | 3次元図形処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050217 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050308 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050425 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20051004 |