JP2000350859A - Marker placement method and mixed reality device - Google Patents
Marker placement method and mixed reality deviceInfo
- Publication number
- JP2000350859A JP2000350859A JP11164716A JP16471699A JP2000350859A JP 2000350859 A JP2000350859 A JP 2000350859A JP 11164716 A JP11164716 A JP 11164716A JP 16471699 A JP16471699 A JP 16471699A JP 2000350859 A JP2000350859 A JP 2000350859A
- Authority
- JP
- Japan
- Prior art keywords
- marker
- player
- mixed reality
- markers
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
(57)【要約】
【課題】 複数プレーヤにより共通の複合現実空間を共
有する場合でも、プレーヤごとのマーカが確実に検出可
能な複合現実空間におけるマーカの配置方法を提供する
こと。
【解決手段】 あるプレーヤのみが使用すべきマーカ
は、他のプレーヤからは見えない位置に配置する。複合
現実空間を利用するアプリケーションで使用する現実物
体を利用することも可能である。
(57) [Problem] To provide a marker arrangement method in a mixed reality space in which a marker for each player can be reliably detected even when a common mixed reality space is shared by a plurality of players. SOLUTION: A marker to be used only by a certain player is arranged at a position invisible to other players. It is also possible to use a real object used in an application that uses a mixed reality space.
Description
【0001】[0001]
【発明の属する技術分野】本発明は、複合現実空間を提
示する際に位置指標として用いられるマーカを配置する
方法に関し、特に複合現実空間を複数のプレーヤが共有
する場合でもマーカの検出が容易なマーカ配置方法及び
それを用いた複合現実感装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for arranging a marker used as a position index when presenting a mixed reality space, and more particularly, to easily detect a marker even when a plurality of players share the mixed reality space. The present invention relates to a marker arrangement method and a mixed reality apparatus using the same.
【0002】[0002]
【従来の技術】近年、現実空間と仮想空間の継ぎ目のな
い結合を目的とした複合現実感(Mixed Reallity、M
R)に関する研究が盛んになっている。MRは従来、現
実空間と切り離された状況でのみ体験可能であったバー
チャルリアリティ(VR)の世界と現実空間との共存を
目的とし、VRを増強する技術として注目されている。2. Description of the Related Art In recent years, mixed reality (Mixed Reality, M
Research on R) is active. Conventionally, MR aims at coexistence of a virtual reality (VR) world and a real space, which can be experienced only in a state separated from the real space, and is attracting attention as a technology for enhancing the VR.
【0003】複合現実感を実現する装置として代表的な
ものは、ヘッドマウントディスプレイ(HMD)であ
る。すなわち、現実空間と仮想空間をHMDに合成して
表示することにより、複合現実感を実現するものであ
る。また、HMDを用いたMRの方式としては、半透過
型(シースルー型)のヘッドマウントディスプレイ(H
MD)にCG等の画像を重畳する光学シースルー方式
と、HMDに装着したビデオカメラで撮影した画像デー
タにCG等の画像を合成した後、HMDに表示するビデ
オシースルー方式がある。A typical device for realizing mixed reality is a head mounted display (HMD). That is, mixed reality is realized by combining the real space and the virtual space on the HMD and displaying them. As a method of MR using an HMD, a transflective (see-through) head-mounted display (H
There is an optical see-through method in which an image such as CG is superimposed on the MD), and a video see-through method in which an image such as CG is combined with image data taken by a video camera mounted on the HMD and then displayed on the HMD.
【0004】MRの用途としては、患者の体内の様子を
透過しているように医師に提示する医療補助の用途や、
工場において製品の組み立て手順を実物に重ねて表示す
る作業補助の用途など、今までのVRとは質的に全く異
なった新たな分野が期待されている。[0004] Applications of MR include medical assistance for presenting to a physician such that the inside of a patient's body is transparent,
New fields that are completely different in quality from conventional VRs are expected, such as the use of work assistance to display the assembly procedure of a product on a real product in a factory.
【0005】これらの応用に対して共通に要求されるの
は、現実空間と仮想空間の間の”ずれ”をいかにして取
り除くかという技術である。”ずれ”は位置ずれ、時間
ずれ、質的ずれに分類可能であり、この中でももっとも
基本的な要求といえる位置ずれの解消については、従来
から多くの取り組みが行われてきた。[0005] A common requirement for these applications is a technique for removing the "shift" between the real space and the virtual space. The "shift" can be classified into a position shift, a time shift, and a qualitative shift, and among them, many efforts have been made to eliminate the position shift, which is the most basic requirement.
【0006】特にビデオシースルー方式MRの場合、位
置ずれを補正する方法として画像処理の手法が比較的容
易に適用できるため、画像処理を利用した位置合わせに
ついて従来提案がなされている。In particular, in the case of the video see-through type MR, since an image processing method can be applied relatively easily as a method of correcting a position shift, a positioning method using image processing has been conventionally proposed.
【0007】具体的には、現実空間の所定位置に、画像
処理によって検出しやすい色で印付けされたマーカを配
置し、プレーヤが装着したカメラで撮影した画像から検
出したマーカ位置によって視点位置を計算する方法や、
画像中のマーカ位置によって位置姿勢センサの出力信号
を補正する方法などである。Specifically, a marker marked in a color that is easily detected by image processing is arranged at a predetermined position in the real space, and the viewpoint position is determined by the marker position detected from an image taken by a camera mounted by the player. How to calculate,
For example, there is a method of correcting the output signal of the position and orientation sensor based on the marker position in the image.
【0008】[0008]
【発明が解決しようとする課題】画像データ中のマーカ
を検出し、その結果によってプレーヤの位置姿勢を推定
する場合には、マーカは、画像中に適度な大きさかつほ
ぼ均一な間隔で現れる必要がある。また、視点位置の計
算には十分な個数のマーカが同時に画像中で検出される
必要があるため、画像中である程度狭い間隔で観測され
るようにマーカを配置する必要がある。When detecting markers in image data and estimating the position and orientation of the player based on the results, the markers need to appear in the image at an appropriate size and at substantially uniform intervals. There is. Further, since a sufficient number of markers need to be detected in the image at the same time for the calculation of the viewpoint position, it is necessary to arrange the markers so as to be observed at a certain narrow interval in the image.
【0009】一方、マーカの追跡精度や識別精度を上げ
るためには,画像中である程度広い間隔で観測されるよ
うにマーカを配置する必要がある。On the other hand, in order to improve the tracking accuracy and the identification accuracy of the markers, it is necessary to arrange the markers so that they can be observed at a certain wide interval in the image.
【0010】プレーヤが一人の場合であれば、このよう
な条件を満たすようにマーカを配置することは困難では
ないが、複数のプレーヤが共通の複合現実空間を共有す
るようなアプリケーションにおいては、あるプレーヤか
らは等間隔で観測可能に配置されたマーカが、他のプレ
ーヤからは等間隔に観測されないことが起こりうる。If there is only one player, it is not difficult to arrange markers so as to satisfy such conditions. However, in an application in which a plurality of players share a common mixed reality space, there are certain applications. It is possible that markers arranged so as to be observable at equal intervals from a player are not observed at equal intervals from other players.
【0011】そのため、特開平11−84307号公報
では、2人のプレーヤが現実物体であるテーブル上で仮
想のパックを打ち合うエアホッケーゲームにおいて、プ
レーヤごとに異なる色のマーカを設けることによって、
各プレーヤからマーカが好適な配置と大きさで観測でき
るように構成している。[0011] Therefore, in Japanese Patent Application Laid-Open No. 11-84307, in an air hockey game in which two players hit a virtual puck on a table which is a real object, markers of different colors are provided for each player.
It is configured such that the marker can be observed from each player with a suitable arrangement and size.
【0012】しかしながら、同一複合現実空間を共有す
るプレーヤが増えると、色分けによるマーカ配置が困難
になってくる。すなわち、画像処理によって色を検出す
るためには、マーカと背景物体の色および異なるユーザ
間のマーカの色はそれぞれ画像処理によって容易に検
出、分離が可能な色である必要があるが、使用する色が
増加するとこの条件をみたすことが困難になり、抽出誤
りやマーカ相互の識別誤りの発生原因となる。However, as the number of players sharing the same mixed reality space increases, it becomes more difficult to arrange markers by color coding. That is, in order to detect colors by image processing, the colors of the marker and the background object and the colors of the markers between different users need to be colors that can be easily detected and separated by image processing, respectively. When the number of colors increases, it becomes difficult to satisfy this condition, which causes an extraction error and an identification error between markers.
【0013】図10は、複数色のマーカを用いた際の誤
認識原因について説明する図である。図10において、
横軸は赤、縦軸は緑を示し、説明を簡略化するために青
色の軸を省略して記載してある。図において、領域Aは
マーカtypeA(赤色マーカ)の色分布を定義する領
域、領域BはマーカtypeB(橙色マーカ)の色分布
を定義する領域をそれぞれ示している。このように、プ
レーヤが増加し、似た色をマーカとして使用した場合、
光源の位置や撮影の角度によって例えば赤色マーカを観
測したにもかかわらず,領域Bの(即ち橙色マーカの)
色として検出されてしまう可能性があり、誤検出のもと
となってしまう。FIG. 10 is a diagram for explaining the cause of erroneous recognition when using markers of a plurality of colors. In FIG.
The horizontal axis indicates red and the vertical axis indicates green, and the blue axis is omitted to simplify the description. In the drawing, an area A indicates an area defining the color distribution of the marker type A (red marker), and an area B indicates an area defining the color distribution of the marker type B (orange marker). Thus, if the number of players increases and similar colors are used as markers,
For example, despite observing the red marker depending on the position of the light source and the angle of shooting, the area B (that is, the orange marker) is observed.
It may be detected as a color, resulting in erroneous detection.
【0014】また、各プレーヤごとに異なる色のマーカ
を複数配置することによって現実空間に非常に多くのマ
ーカが存在することになり、プレーヤの視界が煩雑にな
る上、複合現実空間を体感する上で臨場感などを損なう
原因となる。Further, by arranging a plurality of markers of different colors for each player, a very large number of markers exist in the real space, which complicates the player's field of view and allows the player to experience the mixed reality space. This may cause a loss of realism.
【0015】本発明の目的は、上述の課題を解決し、複
数プレーヤにより共通の複合現実空間を共有する場合で
も、プレーヤごとのマーカが確実に検出可能な複合現実
空間におけるマーカの配置方法を提供することにある。An object of the present invention is to solve the above-mentioned problems, and to provide a marker arrangement method in a mixed reality space in which a marker for each player can be reliably detected even when a plurality of players share a common mixed reality space. Is to do.
【0016】また、本発明の別の目的は、プレーヤが増
加してもマーカの数が単純に増加しない複合現実空間に
おけるマーカの配置方法を提供することにある。Another object of the present invention is to provide a marker arrangement method in a mixed reality space in which the number of markers does not simply increase even if the number of players increases.
【0017】また、本発明の別の目的は本発明による複
合現実空間におけるマーカ配置方法を利用した複合現実
感装置を提供することにある。Another object of the present invention is to provide a mixed reality apparatus using a marker arrangement method in a mixed reality space according to the present invention.
【0018】[0018]
【課題を解決するための手段】すなわち、本発明の要旨
は、複合現実空間を生成する際の位置指標として、現実
空間に配置するマーカの配置方法であって、複合現実空
間を互いに異なる移動可能範囲内で観察する複数のプレ
ーヤが、複合現実空間を観察した際、他のプレーヤのみ
が使用すべきマーカが観察されない様な位置関係でマー
カを配置することを特徴とするマーカ配置方法に存す
る。That is, the gist of the present invention is a method of arranging a marker to be arranged in a real space as a position index when generating a mixed reality space, wherein the mixed real space can be moved differently from each other. The present invention resides in a marker arranging method characterized in that when a plurality of players observing within a range observe a mixed reality space, markers are arranged in a positional relationship such that a marker to be used only by another player is not observed.
【0019】また、本発明の別の要旨は、本発明のマー
カ配置方法によって配置されたマーカを用いてプレーヤ
の位置情報の算出及び/または補正を行うことを特徴と
する複合現実感装置に存する。Another aspect of the present invention resides in a mixed reality apparatus characterized in that position information of a player is calculated and / or corrected using markers arranged by the marker arranging method of the present invention. .
【0020】また、本発明の別の要旨は、本発明による
複合現実空間におけるマーカ配置方法方法をコンピュー
タ装置が実行可能なプログラムとして格納した記憶媒体
に存する。Further, another gist of the present invention resides in a storage medium storing a marker arranging method in a mixed reality space according to the present invention as a program executable by a computer device.
【0021】[0021]
【発明の実施の形態】以下、図面を参照して本発明のマ
ーカ配置方法の好ましい実施形態について説明する。本
実施形態は、3人のプレーヤーが同一仮想空間を共有し
て行う複合現実感ゲームであるが、本発明による複合現
実空間におけるマーカ配置方法は、その他任意の用途に
適用することができる。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a preferred embodiment of a marker arranging method according to the present invention will be described with reference to the drawings. The present embodiment is a mixed reality game played by three players sharing the same virtual space, but the marker arrangement method in the mixed reality space according to the present invention can be applied to any other applications.
【0022】図1は、本発明によるマーカ配置方法を適
用した複合現実感ゲームを実施するための複合現実感装
置の構成を示す図である。図1は、プレーヤが3人の場
合の構成を示している。複合現実感装置は、各プレーヤ
ごとに設けられたプレーヤ処理部100〜300と、各
プレーヤ処理部に接続された制御部400とから構成さ
れており、プレーヤの増減によって制御部400に接続
されるプレーヤ処理部も増減する。FIG. 1 is a diagram showing a configuration of a mixed reality apparatus for executing a mixed reality game to which a marker arrangement method according to the present invention is applied. FIG. 1 shows a configuration in a case where there are three players. The mixed reality device includes player processing units 100 to 300 provided for each player and a control unit 400 connected to each player processing unit, and is connected to the control unit 400 by increasing or decreasing the number of players. The player processing unit also increases or decreases.
【0023】プレーヤ処理部100〜300はそれぞれ
同一の構成を有しており、プレーヤの体に装着されたセ
ンサや表示装置などの入出力部分(102、103、1
05、1011、1021、1022)と、センサから
収集した信号処理及びこの信号処理結果と制御部から供
給される他プレーヤの情報を元にして表示装置に表示す
べき画像を生成する回路部分(101、104、10
6、107)とから構成される。The player processing units 100 to 300 have the same configuration, and include input / output units (102, 103, 1) such as a sensor and a display device mounted on the player's body.
05, 1011, 1021, and 1022) and a circuit portion (101) for generating an image to be displayed on the display device based on the signal processing collected from the sensor and the result of the signal processing and information of another player supplied from the control section. , 104, 10
6, 107).
【0024】以下、図1と本実施形態において各プレー
ヤが装着する入出力機器の種類と装着場所を示す図2を
参照して、プレーヤ処理部の構成を説明する。図2に示
すように、本実施形態において各プレーヤは、頭部に現
実空間と仮想空間とを合成して表示するための表示装置
である頭部装着型画像表示装置(以下HMDと言う)1
05を装着する。本発明においてHMDはビデオシース
ルー型でも光学シースルー型でもよいが、以下の説明で
はビデオシースルー型HMDを用いた場合を例にして説
明する。Hereinafter, the configuration of the player processing unit will be described with reference to FIG. 1 and FIG. 2 showing the types and locations of input / output devices to be mounted by each player in the present embodiment. As shown in FIG. 2, in this embodiment, each player has a head-mounted image display device (hereinafter, referred to as an HMD) 1 which is a display device for combining and displaying a real space and a virtual space on the head.
05 is attached. In the present invention, the HMD may be a video see-through type or an optical see-through type. However, in the following description, an example in which a video see-through type HMD is used will be described.
【0025】HMD105の目に近い部分には、2つの
小型ビデオカメラ103が設けられている。このビデオ
カメラ103で撮影された、プレーヤの視点とほぼ同一
の視点による映像は、画像入力部104を介して後述す
る画像合成部106に供給され、仮想空間画像と重畳さ
れてプレーヤのHMD105に表示される。また、画像
入力部104は画像合成部106の他に、入力画像を頭
部位置検出部101へ供給する。Two small video cameras 103 are provided near the eyes of the HMD 105. The video captured by the video camera 103 from a viewpoint substantially the same as the viewpoint of the player is supplied to an image synthesizing unit 106 to be described later via the image input unit 104, and is superimposed on the virtual space image and displayed on the HMD 105 of the player. Is done. The image input unit 104 supplies the input image to the head position detection unit 101 in addition to the image synthesis unit 106.
【0026】また、プレーヤの頭部にはさらに、例えば
磁気センサからなる頭部位置姿勢センサ1011が装着
されている。頭部位置姿勢センサ1011は、例えばH
MD105を利用して装着することができる。頭部位置
姿勢センサ1011の出力信号は頭部位置姿勢計測部1
01に入力される。頭部位置姿勢計測部101は、画像
入力部104から供給される画像を用いて位置補正用の
マーカを検出し、頭部位置姿勢センサ1011より供給
される信号を補正することで、プレーヤの視点位置、姿
勢を推定する。Further, a head position / posture sensor 1011 composed of, for example, a magnetic sensor is mounted on the head of the player. The head position / posture sensor 1011 is, for example, H
It can be mounted using the MD 105. The output signal of the head position / posture sensor 1011 is the head position / posture measurement unit 1
01 is input. The head position / posture measuring unit 101 detects a marker for position correction using the image supplied from the image input unit 104, and corrects the signal supplied from the head position / posture sensor 1011 to obtain the viewpoint of the player. Estimate the position and orientation.
【0027】一方、プレーヤの腕には、対話操作入力装
置102が装着されている。対話操作入力装置102
は、装着された部位の位置、姿勢を検出する位置姿勢セ
ンサ1021と、装着部位の動きに応じてオン・オフす
るスイッチ(トリガ)1022とを有し、プレーヤが所
定の動作を行うことによってコマンド入力を行うための
装置である。On the other hand, the interactive operation input device 102 is mounted on the arm of the player. Interactive operation input device 102
Has a position / orientation sensor 1021 for detecting the position and orientation of the mounted part, and a switch (trigger) 1022 for turning on / off in accordance with the movement of the mounted part. The command is issued when the player performs a predetermined operation. It is a device for inputting.
【0028】以下の説明においては、複数のプレーヤ
(本実施形態では3人)が同一の複合現実空間を共有
し、複合現実空間上に出現する敵からの攻撃を避けなが
ら、敵を撃破し、時間あるいは敵の攻撃によるダメージ
が所定量に達するまでに撃破した敵の数あるいは点数を
競うゲームであって、対話操作入力装置102を用いて
以下のようなコマンド入力が可能な場合を例にして説明
する。In the following description, a plurality of players (three players in the present embodiment) share the same mixed reality space and defeat the enemy while avoiding attacks from the enemy appearing in the mixed reality space. A game in which the number of enemies or points defeated until the time or the damage by the enemy attack reaches a predetermined amount is competed, and the following command input is possible using the interactive operation input device 102. explain.
【0029】・コマンド1(照準コマンド) 照準位置を仮想空間上で指し示す照準線を表示するコマ
ンド。手の甲を上にした状態で、肘よりも手首を上方に
位置させることにより入力する。 ・コマンド2(射撃コマンド) 照準線が示す照準位置を射撃するコマンド。照準コマン
ドにより照準線が表示された状態で、一定の加速度以上
で腕(肘から手のひらにかけて)を前後に往復移動させ
ることにより入力する。 ・コマンド3(防御コマンド) 相手方の攻撃を防御するコマンド。手の甲を相手方に向
けた状態で、指先を上方に向けることにより入力する。 ・コマンド4(リセットコマンド) 射撃コマンドを入力した後、再度照準コマンドを入力す
る際に入力するコマンド。腕を下に垂らした状態にする
ことで入力する。Command 1 (aiming command) A command for displaying an aiming line indicating an aiming position in a virtual space. With the back of the hand up, the input is made by placing the wrist above the elbow. -Command 2 (shooting command) A command for shooting at the aiming position indicated by the aiming line. While the aiming line is displayed by the aiming command, the input is performed by reciprocating the arm (from the elbow to the palm) back and forth at a certain acceleration or more. -Command 3 (defense command) A command to defend the opponent's attack. With the back of the hand facing the other party, input is performed by pointing the fingertip upward. -Command 4 (reset command) A command that is input when a shooting command is input and then an aiming command is input again. Input by placing the arm down.
【0030】すなわち、本実施形態のゲームにおけるプ
レーヤの動作としては通常、照準コマンド→射撃コマン
ド→リセットコマンド→照準コマンドというサイクルで
コマンドの入力を繰り返し、このサイクルの中で必要に
応じて防御コマンドを入力することになる。That is, as the operation of the player in the game of the present embodiment, command input is normally repeated in a cycle of aiming command → shooting command → reset command → aiming command, and in this cycle, defense commands are issued as necessary. Will be entered.
【0031】対話操作入力装置102によって入力され
たコマンドは、画像生成部107に供給される。The command input by the interactive operation input device 102 is supplied to the image generation unit 107.
【0032】画像生成部107は、頭部位置姿勢計測部
101から供給されるプレーヤの頭部位置及び姿勢情報
と対話操作入力装置102から供給されるコマンド情報
を制御部400へ転送する。また、プレーヤの頭部位置
・姿勢情報及びコマンド情報と、制御部400から受信
した他プレーヤの頭部位置・姿勢情報並びにコマンド情
報とモデル情報、敵キャラクタの位置、移動方向、状態
情報、空間内に配置された障害物の位置、形状などの情
報を用いて、対応するプレーヤのHMD105に表示す
べき仮想空間画像を作成し、画像合成部106へ出力す
る。The image generation unit 107 transfers the player's head position and posture information supplied from the head position / posture measurement unit 101 and command information supplied from the interactive operation input device 102 to the control unit 400. Also, the player's head position / posture information and command information, the other player's head position / posture information and command information and model information received from the control unit 400, the position, moving direction, state information, and space in the enemy character A virtual space image to be displayed on the HMD 105 of the corresponding player is created by using information such as the position and shape of the obstacle arranged in the.
【0033】画像合成部106は、プレーヤの視点に近
い位置に取り付けられたビデオカメラ103の画像(実
空間画像)と、画像生成部107が作成した仮想空間画
像とを合成し、プレーヤのHMD105に供給する。The image synthesizing unit 106 synthesizes the image (real space image) of the video camera 103 attached at a position close to the viewpoint of the player and the virtual space image created by the image generating unit 107, and outputs the synthesized image to the HMD 105 of the player. Supply.
【0034】制御部400は、上述のようなプレーヤ処
理部100〜300が接続された複合現実空間管理部1
と、現実物体位置計測部2とから構成されている。複合
現実空間管理部1は、各プレーヤ処理部100〜300
から受信したプレーヤの頭部位置、姿勢に関する情報
と、対話操作入力装置102の位置、姿勢及びコマンド
情報とを配信するとともに、仮想空間上に表示する敵キ
ャラクタの生成、消滅、制御及び射撃コマンドによる射
撃の当たり判定等のゲーム処理を行う。敵キャラクタの
モデルや位置、移動方向及び、状態(撃破されたか等)
の情報も各プレーヤの情報とともに接続される全てのユ
ーザに配信される。The control unit 400 is a mixed reality space management unit 1 to which the player processing units 100 to 300 described above are connected.
And a real object position measurement unit 2. The mixed reality space management unit 1 includes player processing units 100 to 300
And information on the position and posture of the player's head and the position, posture and command information of the interactive operation input device 102 received from the player, and generate, delete, control, and shoot commands for the enemy character displayed in the virtual space. The game processing such as the hit determination of the shooting is performed. Model, position, moving direction, and state of the enemy character (whether destroyed, etc.)
Is distributed to all connected users together with the information of each player.
【0035】また、図3に示すように、ゲームの難易度
を調整するために射撃の障害となるような現実物体31
〜33を配置する様な場合には、この現実物体31〜3
3の形状及び位置に関する情報も複合現実空間管理部1
が管理する。Further, as shown in FIG. 3, a real object 31 which may be an obstacle to shooting in order to adjust the difficulty of the game.
To 33, the real objects 31 to 3
Information on the shape and position of the mixed reality space management unit 1
Manages.
【0036】図3(a)はあるプレーヤから見たゲーム
フィールド(複合現実空間)の斜視図、図3(b)はそ
の上面図をそれぞれ示す。図3においては、(現実空間
の)テーブル30の上に、3つの現実空間物体31〜3
3を障害物として配置した場合を示す。本実施形態にお
いては、上述のように対話操作入力装置102を用いた
照準コマンドの入力動作が、肘より手首を高くする動作
であるため、一般的な体型において腰の高さ程度の高さ
を有するテーブル30の上に現実空間物体を配置してい
るが、対話操作入力装置によるコマンド入力動作によっ
てはテーブルが不要であることは言うまでもない。FIG. 3A is a perspective view of a game field (mixed reality space) viewed from a certain player, and FIG. 3B is a top view thereof. In FIG. 3, three real space objects 31 to 3 are placed on a table 30 (in the real space).
3 shows a case where 3 is arranged as an obstacle. In this embodiment, since the input operation of the aiming command using the interactive operation input device 102 is an operation of raising the wrist above the elbow as described above, the height of the waist is about the height of the general body type. Although the real space object is arranged on the table 30 having the same, it goes without saying that the table is not necessary depending on the command input operation by the interactive operation input device.
【0037】図3において、現実空間物体31、32は
固定、33は可動とされている。可動の現実空間物体が
あると、ゲームの難易度を動的に変化させることができ
る。例えば、可動現実物体33がランダムなスピードで
左右に移動すれば、標的である敵キャラクタの射撃は静
的な現実物体31、32のみが配置されている場合より
も更に難しくなる。可動現実物体の移動制御は、複合現
実空間管理部1が行っても、他の制御回路によって行っ
てもよい。この場合、可動物体のモデルは複合現実空間
管理部1が管理し、またその位置は可動物体33に設け
た物体位置センサ331を現実物体位置計測部2によっ
て計測することになる。In FIG. 3, real space objects 31, 32 are fixed, and 33 is movable. If there is a movable real space object, the difficulty of the game can be dynamically changed. For example, if the movable real object 33 moves to the left and right at a random speed, shooting of the enemy character as the target becomes more difficult than when only the static real objects 31 and 32 are arranged. The movement control of the movable real object may be performed by the mixed reality space management unit 1 or by another control circuit. In this case, the model of the movable object is managed by the mixed reality space management unit 1, and its position is measured by the object position sensor 331 provided on the movable object 33 by the real object position measurement unit 2.
【0038】以上説明したような複合現実感装置は、制
御部400をサーバー、プレーヤ処理部100〜300
(の回路部分)をクライアントとするクライアント=サ
ーバーシステムによって実現することができる。個々の
プレーヤに関する処理をクライアントで分散して処理す
ることにより、プレーヤの増減に柔軟に対処可能であ
る。より具体的に述べれば、プレーヤ処理部はビデオ入
出力機能及び各種センサからの信号受信機能を有する汎
用コンピュータ装置により、制御部400も各プレーヤ
処理部と通信可能なインタフェースと、物体位置計測部
2からの計測信号受信機能を有する汎用コンピュータ装
置により実現できる。In the mixed reality apparatus as described above, the control unit 400 includes a server and the player processing units 100 to 300.
It can be realized by a client-server system in which (the circuit part of) is a client. By distributing the processing for each player in the client, it is possible to flexibly cope with an increase or decrease in the number of players. More specifically, the player processing unit is a general-purpose computer device having a video input / output function and a function of receiving signals from various sensors. The control unit 400 also has an interface capable of communicating with each player processing unit, and an object position measurement unit 2. It can be realized by a general-purpose computer device having a function of receiving a measurement signal from a computer.
【0039】ただし、3次元の画像表示に関する演算を
実時間で行う必要があるため、この様な演算に特化した
アクセラレータ(いわゆる3Dアクセラレータ)等を有
する比較的高速なコンピュータ装置を用いることが好ま
しい。また、制御部400とプレーヤ処理部100〜3
00との通信も100BASE−Tなど容量の大きな回
線による接続が好ましい。通信回線の容量が小さいとプ
レーヤ数の増加に伴い処理速度の低下が大きくなる。However, since it is necessary to perform calculations relating to three-dimensional image display in real time, it is preferable to use a relatively high-speed computer device having an accelerator (so-called 3D accelerator) specialized for such calculations. . The control unit 400 and the player processing units 100 to 3
The communication with 00 is also preferably connected by a line having a large capacity such as 100BASE-T. If the capacity of the communication line is small, the processing speed is greatly reduced as the number of players increases.
【0040】(マーカ配置方法)図4は、本実施形態に
おけるマーカ配置の一例を示す斜視図である。本実施形
態のゲームにおいては、現実物体による障害物を配置す
るが、その障害物を利用してマーカを配置することによ
り、各プレーヤの移動範囲内において視野に入るマーカ
を制限しつつ、前述の条件を満たすことが可能となる。(Marker Arrangement Method) FIG. 4 is a perspective view showing an example of marker arrangement in this embodiment. In the game of the present embodiment, obstacles due to real objects are arranged. By arranging markers by using the obstacles, while limiting the markers that are in the field of view within the movement range of each player, The condition can be satisfied.
【0041】図5(a)〜(c)はそれぞれ、図4にお
けるプレーヤA,B,Cからみることのできるマーカを
抽出して示した図である。このように、各プレーヤから
見えるマーカはそれぞれほぼ均等の間隔かつ視点位置の
計算に必要な数観察されるが、他プレーヤ用のマーカは
視認されないため、色を変える必要がない。また、図4
に示すように複数のプレーヤ間で同じマーカを共有する
ことも可能となる。FIGS. 5A to 5C respectively show markers extracted from the players A, B, and C in FIG. In this way, the markers visible from each player are observed at substantially equal intervals and at the number required for calculating the viewpoint position, but the markers for other players are not visually recognized, so there is no need to change the color. FIG.
It is also possible to share the same marker among a plurality of players as shown in FIG.
【0042】図6(a)〜(c)は、障害物を利用しな
い場合に各プレーヤから観察されるマーカを図5(a)
〜(c)に対応して示した図である。本発明によるマー
カ配置方法によって、各プレーヤが観察するマーカの数
が非常に少なくなり、かつ前述の条件を満たすようにな
ることが図5と図6との対比から明快に理解される。FIGS. 6A to 6C show the markers observed from each player when no obstacle is used.
It is the figure shown corresponding to (c). It can be clearly understood from the comparison between FIG. 5 and FIG. 6 that the marker arrangement method according to the present invention greatly reduces the number of markers observed by each player and satisfies the above-described conditions.
【0043】プレーヤが増加した場合にはマーカを設け
る現実物体の形状(断面形状や高低等)を変化させた
り、色を追加するなどの方法で対処することができる。
色を増やす場合も従来の様に1プレーヤに1色を割り当
てるわけではないので、少ない色で多数のプレーヤに対
するマーカを配置することが可能となる。When the number of players increases, it can be dealt with by changing the shape (cross-sectional shape, height, etc.) of the real object on which the marker is provided, or by adding a color.
Even when the number of colors is increased, one color is not assigned to one player as in the related art, so that it is possible to arrange markers for many players with few colors.
【0044】マーカの配置位置の決定は、人手に頼って
も良いが、あらかじめ現実物体のモデルと各プレーヤの
視点位置移動可能範囲のモデルを生成しておき、対象と
なるプレーヤから見える範囲でかつ他のプレーヤの視線
が遮られる範囲を求めることによって決定することがで
きる。さらに、設けたいマーカの数と配置規則を用いて
位置を算出するようにしても良い。逆に、このような条
件を満たすような障害物形状及び/または配置を算出す
るように構成しても良い。The placement of the marker may be determined manually, but a model of the real object and a model of the movable range of the viewpoint position of each player are generated in advance, and the marker is located within the range visible from the target player. The determination can be made by obtaining a range in which the line of sight of another player is blocked. Further, the position may be calculated using the number of markers to be provided and the arrangement rule. Conversely, it may be configured to calculate an obstacle shape and / or arrangement that satisfies such a condition.
【0045】また、障害物などマーカの配置に利用でき
る物体がない場合であっても、アプリケーション上問題
にならない位置に現実物体を配置し、現実物体の存在を
仮想空間画像で隠すことにより、プレーヤはマーカ用の
現実物体を意識することなく複合現実空間を体験するこ
とが可能となる。仮想空間画像によるマーカ等の隠蔽に
ついては後で詳述する。Further, even when there is no object such as an obstacle that can be used for marker placement, the real object is arranged at a position that does not cause a problem in the application, and the existence of the real object is hidden by the virtual space image. Makes it possible to experience a mixed reality space without being conscious of a marker real object. The concealment of the marker and the like by the virtual space image will be described later in detail.
【0046】(マーカの検出)次にマーカの検出方法に
ついて説明する。図8は、図7に示す領域Aに含まれる
色を有するtypeAのマーカ(赤色マーカ)を検出す
る処理の流れを示すフローチャートである。マーカ検出
処理及び検出したマーカの情報の利用はいずれも頭部位
置姿勢計測部101が行う。(Detection of Marker) Next, a method of detecting a marker will be described. FIG. 8 is a flowchart illustrating a flow of a process of detecting a marker (a red marker) of type A having a color included in the area A illustrated in FIG. Both the marker detection processing and the use of the detected marker information are performed by the head position / posture measurement unit 101.
【0047】まず、ビデオカメラ103で撮影された画
像を、画像入力部104を介して取得する(ステップS
701)。そして、2値化処理を行う(ステップS70
2)。具体的には、図7(青の軸は省略して記載)に示
される領域Aに含まれる画素を1、それ以外を0とす
る。すなわち、 Ii: 入力カラー画像Iを構成するi番目の画素 Ri,Gi,Bi: Iiを構成するR、G、B各色の値 ITHi: 2値画像のi番目の画素値 RminA、GminA,BminA: 領域Aを定義するR、G、Bそれぞれの最小値 RmaxA、GmaxA,BmaxA: 領域Aを定義するR、G、Bそれぞれの最大値 とすると、各Iiごとに、RminA<Ri<Rmax
AかつGminA<Gi<GmaxAかつBminA<
Bi<BmaxAを満たすIiに対応するITHiに
1、それ以外のIiに対応するITHiを0として、二
値画像ITHを形成する。First, an image captured by the video camera 103 is obtained via the image input unit 104 (step S).
701). Then, a binarization process is performed (step S70).
2). Specifically, the pixel included in the area A shown in FIG. 7 (illustrated by omitting the blue axis) is 1 and the others are 0. That is, Ii: the i-th pixel Ri, Gi, Bi constituting the input color image I: the value of each color of R, G, B constituting Ii ITHi: the i-th pixel value RminA, GminA, BminA of the binary image: RmaxA, GmaxA, BmaxA: RmaxA, GmaxA, BmaxA: RminA <Ri <Rmax for each Ii, where RminA <Ri <Rmax
A and GminA <Gi <GmaxA and BminA <
A binary image ITH is formed by setting 1 to ITHi corresponding to Ii satisfying Bi <BmaxA and setting 0 to ITHi corresponding to other Ii.
【0048】ついで、二値画像ITHにラベリング処理
を行い、マーカ領域(クラスタ)を抽出する(ステップ
S703)。そして、各クラスタの重心(Xn,Yn)
と面積anを算出して(ステップS704)、頭部位置
姿勢計測部101内部の、視点位置姿勢推定モジュール
(図示せず)へ出力する(ステップS705)。視点位
置姿勢推定モジュールにおいては、あらかじめ登録され
ているマーカの絶対座標と、画像から検出されたマーカ
位置(クラスタ重心)とから、頭部位置姿勢センサ10
11の出力信号の補正を行い、プレーヤの視点位置及び
姿勢を算出する。Next, a labeling process is performed on the binary image ITH to extract a marker area (cluster) (step S703). Then, the center of gravity (Xn, Yn) of each cluster
And the area an are calculated (step S704), and output to a viewpoint position / posture estimation module (not shown) inside the head position / posture measurement unit 101 (step S705). In the viewpoint position and orientation estimation module, the head position and orientation sensor 10 is determined based on the absolute coordinates of the markers registered in advance and the marker positions (cluster centroids) detected from the image.
11 to correct the output signal and calculate the viewpoint position and attitude of the player.
【0049】図8においては、ある1色(赤色)のマー
カを検出する場合の処理について説明したが、プレーヤ
数が増加し、複数色のマーカが存在する場合には、2値
化画像を生成する際の閾値を変えて各色ごとの検出処理
を繰り返し行う。In FIG. 8, the processing in the case of detecting a certain one-color (red) marker has been described. However, when the number of players increases and a plurality of color markers exist, a binarized image is generated. The detection process for each color is repeatedly performed while changing the threshold value at the time of execution.
【0050】(マーカの消去)前述の通り、マーカは本
来頭部位置姿勢センサ1011の出力が正確であれば不
要なものである。さらに、マーカをプレーヤが認識する
ことにより臨場感を損なうおそれがあるなど、複合現実
空間においてマーカの存在は認識されないことが望まし
い。(Erase of Marker) As described above, a marker is essentially unnecessary if the output of the head position / posture sensor 1011 is accurate. Further, it is desirable that the presence of the marker in the mixed reality space is not recognized, for example, the presence of the marker may be impaired by the player's recognition of the marker.
【0051】そのため、本発明においては、プレーヤに
マーカの存在を意識させないように見かけ上マーカを消
去することを特徴とする。マーカを見かけ上消去する方
法としては、種々の方法が考えられるが、マーカに仮想
画像を重畳してプレーヤに表示する方法が処理の負荷や
違和感が小さいことから好ましい。Therefore, the present invention is characterized in that the marker is apparently erased so that the player is not conscious of the presence of the marker. Various methods are conceivable as a method of apparently erasing the marker, but a method of superimposing the virtual image on the marker and displaying it to the player is preferable because the processing load and uncomfortable feeling are small.
【0052】図9は、マーカの消去方法を説明する図で
ある。図9(a)は、本実施形態におけるマーカ配置方
法で配置した、プレーヤAに対するマーカを表したもの
で、図5(a)に対応する。このようにテーブル及び障
害物といった現実物体に配置されたマーカを消去するに
は、まずマーカを配置する前に配置の予定される場所を
ビデオやデジタルカメラ、スチルカメラ等で撮影し、画
像データをテクスチャとして取得しておく。そして、マ
ーカの配置後、プレーヤのHMDに表示する画像データ
のうち、マーカ部分に相当する画像データをあらかじめ
取得しておいたテクスチャ画像で置き換えるか、重畳し
て画像データを表示する(図9(b))。FIG. 9 is a view for explaining a marker erasing method. FIG. 9A illustrates markers for the player A arranged by the marker arrangement method according to the present embodiment, and corresponds to FIG. In order to erase a marker placed on a real object such as a table and an obstacle in this way, first, before placing the marker, the place where the marker is to be placed is photographed with a video, digital camera, still camera, etc. Get it as a texture. Then, after arranging the marker, of the image data displayed on the HMD of the player, the image data corresponding to the marker portion is replaced with a previously acquired texture image or is superimposed to display the image data (FIG. 9 ( b)).
【0053】このように画像データを置き換え/重畳す
ることにより、プレーヤはマーカの存在を認識すること
なく、ゲームに集中することが可能となる。テクスチャ
として用意する画像データは、実際に使用される条件
(光源位置や明るさ)の元で取得することが、視覚上の
違和感を低減する上で好ましいが、同じ材質の現実物体
に配置されるマーカを消去するテクスチャ画像を1つの
共通テクスチャとしてもよい。By replacing / superimposing the image data in this manner, the player can concentrate on the game without recognizing the presence of the marker. It is preferable to obtain the image data prepared as the texture under the conditions actually used (the light source position and the brightness) in order to reduce a sense of visual discomfort, but they are arranged on a real object of the same material. The texture image from which the marker is deleted may be one common texture.
【0054】また、障害物を使用しないアプリケーショ
ンにおいて、マーカ配置のためのみに現実物体を配置し
たような場合や、個々のマーカに対して画像データを置
き換え/重畳するのが困難な場合などは、図9(c)の
ように、現実物体をすべて覆うような画像91を用いる
こともできる。この場合、どのような画像データを用い
るかは、アプリケーションによって適宜定めればよい。
たとえば、ゲームアプリケーションにおいては、逆にこ
の画像91を利用して、仮想空間におけるステージの様
なものを形成しても良いし、現実空間との差を感じさせ
たくないアプリケーションであれば現実空間で撮影した
物体のデータにすればよい。もちろん、2次元画像デー
タでなく、3次元物体のデータとすることも可能であ
る。In an application that does not use obstacles, when a real object is placed only for marker placement, or when it is difficult to replace / superimpose image data on individual markers, etc. As shown in FIG. 9C, an image 91 that covers all the real objects can be used. In this case, what kind of image data is used may be appropriately determined by an application.
For example, in a game application, the image 91 may be used to form a stage or the like in a virtual space, or in an application where the user does not want to feel a difference from the real space. What is necessary is just to use the data of the photographed object. Of course, it is also possible to use three-dimensional object data instead of two-dimensional image data.
【0055】[0055]
【他の実施形態】上述の実施形態では、マーカから得ら
れる情報は頭部位置姿勢センサ1011の誤差補正のた
めに用いていたが、頭部位置姿勢センサ1011を用い
ることなく、マーカから得られる情報のみからプレーヤ
の視点位置姿勢を求める事も可能であり、そのような用
途にも本発明を適用することが可能である。また、上述
の実施形態はビデオシースルー方式の複合現実感装置で
あったが、本発明は光学シースルー方式の複合現実感装
置にも同様に適用可能であることは言うまでもない。[Other Embodiments] In the above embodiment, information obtained from a marker is used for error correction of the head position / posture sensor 1011. However, information obtained from the marker can be obtained without using the head position / posture sensor 1011. The viewpoint position and orientation of the player can be obtained from only the information, and the present invention can be applied to such a use. Although the above-described embodiment is a video see-through mixed reality device, it goes without saying that the present invention can be similarly applied to an optical see-through mixed reality device.
【0056】また、上述の実施形態においては、トリガ
1022を使用せず、対話操作入力装置の動きを検出し
てコマンドを入力したが、プレーヤがトリガ1022を
用いて各種コマンドを入力するようにしても、動作検出
とトリガのオン・オフとを組み合わせても良い。さら
に、対話操作入力装置に、プレーヤの動作に応じてオン
・オフするようなスイッチを組み込んでトリガとして用
いることもできる。Further, in the above-described embodiment, the command is input by detecting the movement of the interactive operation input device without using the trigger 1022, but the player inputs various commands using the trigger 1022. Alternatively, the operation detection and the trigger on / off may be combined. Further, a switch that turns on and off according to the operation of the player may be incorporated in the interactive operation input device and used as a trigger.
【0057】本発明の目的は、上述した実施形態の機能
を実現するソフトウェアのプログラムコードを記録した
記憶媒体(または記録媒体)を、システムあるいは装置
に供給し、そのシステムあるいは装置のコンピュータ
(またはCPUやMPU)が記憶媒体に格納されたプログラム
コードを読み出し実行することによっても、達成される
ことは言うまでもない。この場合、記憶媒体から読み出
されたプログラムコード自体が前述した実施形態の機能
を実現することになり、そのプログラムコードを記憶し
た記憶媒体は本発明を構成することになる。また、コン
ピュータが読み出したプログラムコードを実行すること
により、前述した実施形態の機能が実現されるだけでな
く、そのプログラムコードの指示に基づき、コンピュー
タ上で稼働しているオペレーティングシステム(OS)など
が実際の処理の一部または全部を行い、その処理によっ
て前述した実施形態の機能が実現される場合も含まれる
ことは言うまでもない。An object of the present invention is to supply a storage medium (or a recording medium) storing a program code of software for realizing the functions of the above-described embodiments to a system or an apparatus, and to provide a computer (or CPU) of the system or the apparatus. And MPU) read out and execute the program code stored in the storage medium. In this case, the program code itself read from the storage medium implements the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention. By executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an operating system (OS) running on the computer based on the instruction of the program code. It goes without saying that a case where some or all of the actual processing is performed and the functions of the above-described embodiments are realized by the processing is also included.
【0058】さらに、記憶媒体から読み出されたプログ
ラムコードが、コンピュータに挿入された機能拡張カー
ドやコンピュータに接続された機能拡張ユニットに備わ
るメモリに書込まれた後、そのプログラムコードの指示
に基づき、その機能拡張カードや機能拡張ユニットに備
わるCPUなどが実際の処理の一部または全部を行い、そ
の処理によって前述した実施形態の機能が実現される場
合も含まれることは言うまでもない。Further, after the program code read from the storage medium is written into the memory provided in the function expansion card inserted into the computer or the function expansion unit connected to the computer, the program code is read based on the instruction of the program code. Needless to say, the CPU included in the function expansion card or the function expansion unit performs part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.
【0059】[0059]
【発明の効果】以上説明したように、本発明によれば、
複合現実感装置において位置あわせのために用いられる
マーカを、複数のプレーヤで同一の複合現実空間を共有
するような場合であっても、必要な位置的、数的条件を
満たしながら配置することが可能となる。また、プレー
ヤ毎にマーカの色を変える必要がないため、プレーヤの
数が増加した場合でも、誤検出の確率を抑制することが
できる。As described above, according to the present invention,
Even when multiple players share the same mixed reality space, the markers used for alignment in the mixed reality device can be arranged while satisfying the necessary positional and numerical conditions. It becomes possible. Further, since it is not necessary to change the color of the marker for each player, the probability of erroneous detection can be suppressed even when the number of players increases.
【0060】さらに、もともと配置された現実空間物体
を利用することができるため、アプリケーションによっ
てはマーカを配置するための物体を設ける必要がないと
いう効果も有する。Further, since the originally placed real space object can be used, there is an effect that it is not necessary to provide an object for arranging the marker depending on the application.
【図1】本発明によるマーカ配置方法を適用可能な複合
現実感装置の構成例を示すブロック図である。FIG. 1 is a block diagram showing a configuration example of a mixed reality apparatus to which a marker arrangement method according to the present invention can be applied.
【図2】プレーヤが装着する装置の種類と装着部位を説
明する図である。FIG. 2 is a diagram illustrating types of devices to be mounted by a player and mounting portions.
【図3】本発明の実施形態におけるゲームを説明する図
である。FIG. 3 is a diagram illustrating a game according to the embodiment of the present invention.
【図4】本発明によるマーカ配置方法を説明する図であ
る。FIG. 4 is a diagram illustrating a marker arrangement method according to the present invention.
【図5】図4の配置により各プレーヤから観察されるマ
ーカを示す図である。5 is a diagram showing markers observed from each player according to the arrangement shown in FIG. 4;
【図6】障害物を利用せずに図4と同様のマーカを配置
した場合に各プレーヤから観察されるマーカを示す図で
ある。FIG. 6 is a diagram showing markers observed from each player when markers similar to those in FIG. 4 are arranged without using an obstacle.
【図7】本発明の実施形態における、赤色マーカの色領
域を示す図である。FIG. 7 is a diagram showing a color area of a red marker in the embodiment of the present invention.
【図8】カラー画像データから図7に示す色領域のマー
カを検出する処理の手順を示すフローチャートである。FIG. 8 is a flowchart illustrating a procedure of a process for detecting a marker in the color area shown in FIG. 7 from the color image data.
【図9】マーカの消去方法を説明する図である。FIG. 9 is a diagram illustrating a marker erasing method.
【図10】マーカの色数を増やした際の誤検出について
説明する図である。FIG. 10 is a diagram illustrating erroneous detection when the number of marker colors is increased.
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2C001 AA00 AA07 AA17 BA00 BA06 BB00 BB06 BC00 BC06 CA00 CA09 CC00 CC01 5C061 AA29 AB11 AB12 AB14 AB18 9A001 DD12 HH23 HH29 JJ76 KK62 ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 2C001 AA00 AA07 AA17 BA00 BA06 BB00 BB06 BC00 BC06 CA00 CA09 CC00 CC01 5C061 AA29 AB11 AB12 AB14 AB18 9A001 DD12 HH23 HH29 JJ76 KK62
Claims (8)
して、現実空間に配置するマーカの配置方法であって、 前記複合現実空間を互いに異なる移動可能範囲内で観察
する複数のプレーヤが、前記複合現実空間を観察した
際、他のプレーヤのみが使用すべきマーカが観察されな
い様な位置関係でマーカを配置することを特徴とするマ
ーカ配置方法。1. A method of arranging a marker to be arranged in a real space as a position index when presenting a mixed reality space, wherein a plurality of players observing the mixed reality space within different movable ranges are provided. A marker arrangement method, comprising: arranging markers in such a positional relationship that a marker to be used only by another player is not observed when observing a mixed reality space.
カは、当該プレーヤが使用するマーカと色、形状及び大
きさが類似のマーカであることを特徴とする請求項1記
載のマーカ配置方法。2. The marker arrangement method according to claim 1, wherein the marker used only by the other player is a marker similar in color, shape and size to the marker used by the player.
他のプレーヤからは現実物体によって隠れる位置に配置
することを特徴とする請求項1または請求項2に記載の
マーカ配置方法。3. A marker used only by a certain player is:
3. The marker arrangement method according to claim 1, wherein the marker is arranged at a position hidden by a real object from other players.
用したアプリケーションのために配置されたものである
ことを特徴とする請求項3記載のマーカ配置方法。4. The marker arrangement method according to claim 3, wherein the physical object is arranged for an application using the mixed reality space.
するマーカを含むことを特徴とする請求項1乃至請求項
4のいずれかに記載のマーカ配置方法。5. The marker arrangement method according to claim 1, wherein the markers arranged include markers shared by a plurality of players.
とする請求項1乃至請求項5のいずれかに記載のマーカ
配置方法。6. The marker arranging method according to claim 1, wherein said markers have a common color.
のマーカ配置方法によって配置されたマーカを用いてプ
レーヤの位置姿勢情報の算出及び/または補正を行うこ
とを特徴とする複合現実感装置。7. A mixed reality wherein the position and orientation information of the player is calculated and / or corrected using the markers arranged by the marker arrangement method according to claim 1. Description: apparatus.
のマーカ配置方法をコンピュータ装置が実行可能なプロ
グラムとして格納した記憶媒体。8. A storage medium storing the marker arrangement method according to claim 1 as a program executable by a computer device.
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP11164716A JP2000350859A (en) | 1999-06-11 | 1999-06-11 | Marker placement method and mixed reality device |
| US09/506,382 US7084887B1 (en) | 1999-06-11 | 2000-02-18 | Marker layout method, mixed reality apparatus, and mixed reality space image generation method |
| US11/087,500 US7408561B2 (en) | 1999-06-11 | 2005-03-24 | Marker layout method, mixed reality apparatus, and mixed reality space image generation method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP11164716A JP2000350859A (en) | 1999-06-11 | 1999-06-11 | Marker placement method and mixed reality device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2000350859A true JP2000350859A (en) | 2000-12-19 |
Family
ID=15798540
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP11164716A Pending JP2000350859A (en) | 1999-06-11 | 1999-06-11 | Marker placement method and mixed reality device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2000350859A (en) |
Cited By (31)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005157611A (en) * | 2003-11-25 | 2005-06-16 | Canon Inc | Image processing apparatus and method |
| WO2006023268A3 (en) * | 2004-08-19 | 2007-07-12 | Sony Computer Entertainment Inc | Portable augmented reality device and method |
| US7639233B2 (en) | 2002-07-27 | 2009-12-29 | Sony Computer Entertainment Inc. | Man-machine interface using a deformable device |
| US7874917B2 (en) | 2003-09-15 | 2011-01-25 | Sony Computer Entertainment Inc. | Methods and systems for enabling depth and direction detection when interfacing with a computer program |
| US7883415B2 (en) | 2003-09-15 | 2011-02-08 | Sony Computer Entertainment Inc. | Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion |
| US8072470B2 (en) | 2003-05-29 | 2011-12-06 | Sony Computer Entertainment Inc. | System and method for providing a real-time three-dimensional interactive environment |
| US8142288B2 (en) | 2009-05-08 | 2012-03-27 | Sony Computer Entertainment America Llc | Base station movement detection and compensation |
| US8287373B2 (en) | 2008-12-05 | 2012-10-16 | Sony Computer Entertainment Inc. | Control device for communicating visual information |
| US8310656B2 (en) | 2006-09-28 | 2012-11-13 | Sony Computer Entertainment America Llc | Mapping movements of a hand-held controller to the two-dimensional image plane of a display screen |
| US8313380B2 (en) | 2002-07-27 | 2012-11-20 | Sony Computer Entertainment America Llc | Scheme for translating movements of a hand-held controller into inputs for a system |
| US8323106B2 (en) | 2008-05-30 | 2012-12-04 | Sony Computer Entertainment America Llc | Determination of controller three-dimensional location using image analysis and ultrasonic communication |
| US8342963B2 (en) | 2009-04-10 | 2013-01-01 | Sony Computer Entertainment America Inc. | Methods and systems for enabling control of artificial intelligence game characters |
| US8368753B2 (en) | 2008-03-17 | 2013-02-05 | Sony Computer Entertainment America Llc | Controller with an integrated depth camera |
| US8393964B2 (en) | 2009-05-08 | 2013-03-12 | Sony Computer Entertainment America Llc | Base station for position location |
| US8527657B2 (en) | 2009-03-20 | 2013-09-03 | Sony Computer Entertainment America Llc | Methods and systems for dynamically adjusting update rates in multi-player network gaming |
| US8542907B2 (en) | 2007-12-17 | 2013-09-24 | Sony Computer Entertainment America Llc | Dynamic three-dimensional object mapping for user-defined control device |
| US8570378B2 (en) | 2002-07-27 | 2013-10-29 | Sony Computer Entertainment Inc. | Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera |
| US8686939B2 (en) | 2002-07-27 | 2014-04-01 | Sony Computer Entertainment Inc. | System, method, and apparatus for three-dimensional input control |
| US8781151B2 (en) | 2006-09-28 | 2014-07-15 | Sony Computer Entertainment Inc. | Object detection using video input combined with tilt angle information |
| US8840470B2 (en) | 2008-02-27 | 2014-09-23 | Sony Computer Entertainment America Llc | Methods for capturing depth data of a scene and applying computer actions |
| JP2014219822A (en) * | 2013-05-08 | 2014-11-20 | 大日本印刷株式会社 | Content display device, content display method, program, and content display system |
| US8961313B2 (en) | 2009-05-29 | 2015-02-24 | Sony Computer Entertainment America Llc | Multi-positional three-dimensional controller |
| US8976265B2 (en) | 2002-07-27 | 2015-03-10 | Sony Computer Entertainment Inc. | Apparatus for image and sound capture in a game environment |
| JP2015060071A (en) * | 2013-09-18 | 2015-03-30 | コニカミノルタ株式会社 | Image display device, image display method, and image display program |
| US9393487B2 (en) | 2002-07-27 | 2016-07-19 | Sony Interactive Entertainment Inc. | Method for mapping movements of a hand-held controller to game commands |
| JP2016145733A (en) * | 2015-02-06 | 2016-08-12 | キヤノン株式会社 | Information processing device and method thereof |
| US9474968B2 (en) | 2002-07-27 | 2016-10-25 | Sony Interactive Entertainment America Llc | Method and system for applying gearing effects to visual tracking |
| US9573056B2 (en) | 2005-10-26 | 2017-02-21 | Sony Interactive Entertainment Inc. | Expandable control device via hardware attachment |
| US9682319B2 (en) | 2002-07-31 | 2017-06-20 | Sony Interactive Entertainment Inc. | Combiner method for altering game gearing |
| US10279254B2 (en) | 2005-10-26 | 2019-05-07 | Sony Interactive Entertainment Inc. | Controller having visually trackable object for interfacing with a gaming system |
| USRE48417E1 (en) | 2006-09-28 | 2021-02-02 | Sony Interactive Entertainment Inc. | Object direction using video input combined with tilt angle information |
-
1999
- 1999-06-11 JP JP11164716A patent/JP2000350859A/en active Pending
Cited By (41)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9393487B2 (en) | 2002-07-27 | 2016-07-19 | Sony Interactive Entertainment Inc. | Method for mapping movements of a hand-held controller to game commands |
| US9381424B2 (en) | 2002-07-27 | 2016-07-05 | Sony Interactive Entertainment America Llc | Scheme for translating movements of a hand-held controller into inputs for a system |
| US7639233B2 (en) | 2002-07-27 | 2009-12-29 | Sony Computer Entertainment Inc. | Man-machine interface using a deformable device |
| US8570378B2 (en) | 2002-07-27 | 2013-10-29 | Sony Computer Entertainment Inc. | Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera |
| US8976265B2 (en) | 2002-07-27 | 2015-03-10 | Sony Computer Entertainment Inc. | Apparatus for image and sound capture in a game environment |
| US8686939B2 (en) | 2002-07-27 | 2014-04-01 | Sony Computer Entertainment Inc. | System, method, and apparatus for three-dimensional input control |
| US9474968B2 (en) | 2002-07-27 | 2016-10-25 | Sony Interactive Entertainment America Llc | Method and system for applying gearing effects to visual tracking |
| US10406433B2 (en) | 2002-07-27 | 2019-09-10 | Sony Interactive Entertainment America Llc | Method and system for applying gearing effects to visual tracking |
| US10099130B2 (en) | 2002-07-27 | 2018-10-16 | Sony Interactive Entertainment America Llc | Method and system for applying gearing effects to visual tracking |
| US10220302B2 (en) | 2002-07-27 | 2019-03-05 | Sony Interactive Entertainment Inc. | Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera |
| US8313380B2 (en) | 2002-07-27 | 2012-11-20 | Sony Computer Entertainment America Llc | Scheme for translating movements of a hand-held controller into inputs for a system |
| US9682319B2 (en) | 2002-07-31 | 2017-06-20 | Sony Interactive Entertainment Inc. | Combiner method for altering game gearing |
| US8072470B2 (en) | 2003-05-29 | 2011-12-06 | Sony Computer Entertainment Inc. | System and method for providing a real-time three-dimensional interactive environment |
| US11010971B2 (en) | 2003-05-29 | 2021-05-18 | Sony Interactive Entertainment Inc. | User-driven three-dimensional interactive gaming environment |
| US8303411B2 (en) | 2003-09-15 | 2012-11-06 | Sony Computer Entertainment Inc. | Methods and systems for enabling depth and direction detection when interfacing with a computer program |
| US8251820B2 (en) | 2003-09-15 | 2012-08-28 | Sony Computer Entertainment Inc. | Methods and systems for enabling depth and direction detection when interfacing with a computer program |
| US8758132B2 (en) | 2003-09-15 | 2014-06-24 | Sony Computer Entertainment Inc. | Methods and systems for enabling depth and direction detection when interfacing with a computer program |
| US7883415B2 (en) | 2003-09-15 | 2011-02-08 | Sony Computer Entertainment Inc. | Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion |
| US7874917B2 (en) | 2003-09-15 | 2011-01-25 | Sony Computer Entertainment Inc. | Methods and systems for enabling depth and direction detection when interfacing with a computer program |
| JP2005157611A (en) * | 2003-11-25 | 2005-06-16 | Canon Inc | Image processing apparatus and method |
| US8547401B2 (en) | 2004-08-19 | 2013-10-01 | Sony Computer Entertainment Inc. | Portable augmented reality device and method |
| US10099147B2 (en) | 2004-08-19 | 2018-10-16 | Sony Interactive Entertainment Inc. | Using a portable device to interface with a video game rendered on a main display |
| WO2006023268A3 (en) * | 2004-08-19 | 2007-07-12 | Sony Computer Entertainment Inc | Portable augmented reality device and method |
| US9573056B2 (en) | 2005-10-26 | 2017-02-21 | Sony Interactive Entertainment Inc. | Expandable control device via hardware attachment |
| US10279254B2 (en) | 2005-10-26 | 2019-05-07 | Sony Interactive Entertainment Inc. | Controller having visually trackable object for interfacing with a gaming system |
| US8310656B2 (en) | 2006-09-28 | 2012-11-13 | Sony Computer Entertainment America Llc | Mapping movements of a hand-held controller to the two-dimensional image plane of a display screen |
| US8781151B2 (en) | 2006-09-28 | 2014-07-15 | Sony Computer Entertainment Inc. | Object detection using video input combined with tilt angle information |
| USRE48417E1 (en) | 2006-09-28 | 2021-02-02 | Sony Interactive Entertainment Inc. | Object direction using video input combined with tilt angle information |
| US8542907B2 (en) | 2007-12-17 | 2013-09-24 | Sony Computer Entertainment America Llc | Dynamic three-dimensional object mapping for user-defined control device |
| US8840470B2 (en) | 2008-02-27 | 2014-09-23 | Sony Computer Entertainment America Llc | Methods for capturing depth data of a scene and applying computer actions |
| US8368753B2 (en) | 2008-03-17 | 2013-02-05 | Sony Computer Entertainment America Llc | Controller with an integrated depth camera |
| US8323106B2 (en) | 2008-05-30 | 2012-12-04 | Sony Computer Entertainment America Llc | Determination of controller three-dimensional location using image analysis and ultrasonic communication |
| US8287373B2 (en) | 2008-12-05 | 2012-10-16 | Sony Computer Entertainment Inc. | Control device for communicating visual information |
| US8527657B2 (en) | 2009-03-20 | 2013-09-03 | Sony Computer Entertainment America Llc | Methods and systems for dynamically adjusting update rates in multi-player network gaming |
| US8342963B2 (en) | 2009-04-10 | 2013-01-01 | Sony Computer Entertainment America Inc. | Methods and systems for enabling control of artificial intelligence game characters |
| US8393964B2 (en) | 2009-05-08 | 2013-03-12 | Sony Computer Entertainment America Llc | Base station for position location |
| US8142288B2 (en) | 2009-05-08 | 2012-03-27 | Sony Computer Entertainment America Llc | Base station movement detection and compensation |
| US8961313B2 (en) | 2009-05-29 | 2015-02-24 | Sony Computer Entertainment America Llc | Multi-positional three-dimensional controller |
| JP2014219822A (en) * | 2013-05-08 | 2014-11-20 | 大日本印刷株式会社 | Content display device, content display method, program, and content display system |
| JP2015060071A (en) * | 2013-09-18 | 2015-03-30 | コニカミノルタ株式会社 | Image display device, image display method, and image display program |
| JP2016145733A (en) * | 2015-02-06 | 2016-08-12 | キヤノン株式会社 | Information processing device and method thereof |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP3530772B2 (en) | Mixed reality device and mixed reality space image generation method | |
| US7408561B2 (en) | Marker layout method, mixed reality apparatus, and mixed reality space image generation method | |
| JP2000350859A (en) | Marker placement method and mixed reality device | |
| US6972734B1 (en) | Mixed reality apparatus and mixed reality presentation method | |
| JP3413127B2 (en) | Mixed reality device and mixed reality presentation method | |
| US9892563B2 (en) | System and method for generating a mixed reality environment | |
| US8696458B2 (en) | Motion tracking system and method using camera and non-camera sensors | |
| KR101251701B1 (en) | One or more computer-readable media that store information that enables a device to execute a process for gaming stereo video. | |
| EP1060772A2 (en) | Apparatus and method to represent mixed reality space shared by plural operators, game apparatus using mixed reality apparatus and interface method thereof | |
| US20170315364A1 (en) | Virtual object display device, method, program, and system | |
| GB2376397A (en) | Virtual or augmented reality | |
| US20030032484A1 (en) | Game apparatus for mixed reality space, image processing method thereof, and program storage medium | |
| US7095422B2 (en) | Image processing system, image processing apparatus, and display apparatus | |
| US20120094773A1 (en) | Storage medium having stored thereon game program, image processing apparatus, image processing system, and image processing method | |
| CN109568944A (en) | Game processing method, game processing equipment, game processing system and recording medium | |
| JP2002229730A (en) | Information processing unit, complex reality providing device and method thereof, and storage medium | |
| JP3584229B2 (en) | Video experience system and information processing method | |
| JP3413128B2 (en) | Mixed reality presentation method | |
| JP7748522B2 (en) | Information processing system, information processing method, and information processing program | |
| US11944897B2 (en) | Device including plurality of markers | |
| TW202144983A (en) | Method of interacting with virtual creature in virtual reality environment and virtual object operating system | |
| US10918949B2 (en) | Systems and methods to provide a sports-based interactive experience | |
| CN115715886A (en) | Aiming display automation for head mounted display applications | |
| JP4282112B2 (en) | Virtual object control method, virtual object control apparatus, and recording medium | |
| CN110737326A (en) | Virtual object display method and device, terminal equipment and storage medium |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20030516 |