JP2015041126A - Information processing device and information processing method - Google Patents
Information processing device and information processing method Download PDFInfo
- Publication number
- JP2015041126A JP2015041126A JP2013170282A JP2013170282A JP2015041126A JP 2015041126 A JP2015041126 A JP 2015041126A JP 2013170282 A JP2013170282 A JP 2013170282A JP 2013170282 A JP2013170282 A JP 2013170282A JP 2015041126 A JP2015041126 A JP 2015041126A
- Authority
- JP
- Japan
- Prior art keywords
- information processing
- marker
- image
- camera
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 182
- 238000003672 processing method Methods 0.000 title claims description 7
- 239000003550 marker Substances 0.000 claims abstract description 169
- 230000033001 locomotion Effects 0.000 claims description 59
- 238000012545 processing Methods 0.000 claims description 29
- 230000006870 function Effects 0.000 claims description 23
- 238000010191 image analysis Methods 0.000 claims description 17
- 230000035945 sensitivity Effects 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 3
- 238000004458 analytical method Methods 0.000 claims 1
- 230000006399 behavior Effects 0.000 claims 1
- 238000000034 method Methods 0.000 abstract description 64
- 238000009877 rendering Methods 0.000 abstract 1
- 238000003860 storage Methods 0.000 description 28
- 238000001514 detection method Methods 0.000 description 26
- 230000009471 action Effects 0.000 description 22
- 230000008569 process Effects 0.000 description 22
- 241000282326 Felis catus Species 0.000 description 20
- 230000008859 change Effects 0.000 description 16
- 238000013500 data storage Methods 0.000 description 12
- 230000004044 response Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 238000013459 approach Methods 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 241000333074 Eucalyptus occidentalis Species 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 238000003780 insertion Methods 0.000 description 3
- 230000037431 insertion Effects 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 238000003066 decision tree Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000005057 finger movement Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000985694 Polypodiopsida Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/214—Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
- A63F13/2145—Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/426—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/428—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
- A63F13/525—Changing parameters of virtual cameras
- A63F13/5258—Changing parameters of virtual cameras by dynamically adapting the position of the virtual camera to keep a game object or game character in its viewing frustum, e.g. for tracking a character or a ball
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/65—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は、ユーザ操作に応じて情報処理を実施する情報処理装置および情報処理方法に関する。 The present invention relates to an information processing apparatus and an information processing method for performing information processing in response to a user operation.
携帯型のゲーム機やPDA(Personal Digital Assistant)等の情報処理装置が普及している。近年では、多くの情報処理装置が通信機能を搭載し、またスマートフォンのように、携帯電話やPDA等の機能を一つにまとめた多機能型の情報処理装置も登場している。このような情報処理装置は大容量のメモリおよび高速プロセッサを搭載しており、ユーザは、アプリケーションプログラムを情報処理装置にインストールすることで、様々なアプリケーションを楽しめるようになっている。 Information processing apparatuses such as portable game machines and PDAs (Personal Digital Assistants) are widely used. In recent years, many information processing apparatuses are equipped with a communication function, and a multifunctional information processing apparatus in which functions of a mobile phone, a PDA, and the like are integrated into one has appeared, such as a smartphone. Such an information processing apparatus includes a large-capacity memory and a high-speed processor, and a user can enjoy various applications by installing an application program in the information processing apparatus.
例えば情報処理装置に備えたカメラによって実写した画像に3次元グラフィックスにより描画したオブジェクトを重畳させて表示画像とすることにより、現実世界と仮想世界を融合させた拡張現実(AR:Augmented Reality)の技術も提案されている(例えば特許文献1参照)。 For example, augmented reality (AR) that merges the real world and the virtual world by superimposing an object drawn with 3D graphics on an image captured by a camera equipped with an information processing device to create a display image. A technique has also been proposed (see, for example, Patent Document 1).
ARの技術の利用は、ユーザの動き認識に基づく仮想世界の構築とは異なるアプローチによって現実世界と仮想世界を融合させているといえる。これらの技術は、単に見た目の楽しさを提供するばかりでなく、直感的かつ容易に装置を操作したり出力結果を理解したりするのに有益と考えられる。しかしながら現状のARの適用範囲は限定的であり、より広い範囲への応用が求められている。 The use of AR technology can be said to be a fusion of the real world and the virtual world through an approach different from the construction of a virtual world based on user motion recognition. These techniques not only provide visual enjoyment, but may be useful for intuitively and easily operating the device and understanding the output results. However, the current application range of AR is limited, and application to a wider range is required.
本発明はこのような課題に鑑みてなされたものであり、その目的は、情報処理においてARの技術を効果的に利用できる技術を提供することにある。 The present invention has been made in view of such problems, and an object thereof is to provide a technique that can effectively use the AR technique in information processing.
本発明のある態様は情報処理装置に関する。この情報処理装置は、実空間を撮影中のカメラから当該撮影画像のデータを取得する撮影画像取得部と、撮影画像を解析し、被写空間に存在するマーカを検出する画像解析部と、カメラと被写空間との相対的な位置関係を特定し、被写空間に対応する3次元座標系とカメラの視野に対応するスクリーンを定義する空間定義部と、検出されたマーカに対応する情報処理を実行するとともに、3次元座標系に、マーカに対応する仮想のオブジェクトを配置する情報処理部と、スクリーンに仮想のオブジェクトを投影してなるオブジェクト画像を撮影画像に重畳して出力画像を生成し、表示装置に出力する出力画像生成部と、を備え、情報処理部は、仮想のオブジェクトとして、情報処理に対するユーザ操作手段である操作用オブジェクトを配置することを特徴とする。 One embodiment of the present invention relates to an information processing apparatus. The information processing apparatus includes a captured image acquisition unit that acquires data of the captured image from a camera that is capturing a real space, an image analysis unit that analyzes the captured image and detects a marker present in the captured space, a camera A relative position relationship between the object space and the object space, a space definition unit that defines a three-dimensional coordinate system corresponding to the object space and a screen corresponding to the field of view of the camera, and information processing corresponding to the detected marker And an information processing unit that arranges a virtual object corresponding to the marker in the three-dimensional coordinate system and an object image formed by projecting the virtual object on the screen is superimposed on the captured image to generate an output image An output image generation unit that outputs to a display device, and the information processing unit arranges an operation object that is a user operation means for information processing as a virtual object. It is characterized in.
本発明の別の態様は情報処理方法に関する。この情報処理方法は、情報処理装置が撮影画像を用いて行う情報処理方法であって、実空間を撮影中のカメラから当該撮影画像のデータを取得しメモリに格納するステップと、撮影画像を解析し、被写空間に存在するマーカを検出するステップと、カメラと被写空間との相対的な位置関係を特定し、被写空間に対応する3次元座標系とカメラの視野に対応するスクリーンを定義するステップと、検出されたマーカに対応する情報処理を実行するとともに、3次元座標系に、マーカに対応する仮想のオブジェクトを配置するステップと、スクリーンに仮想のオブジェクトを投影してなるオブジェクト画像を、メモリより読み出した撮影画像に重畳して出力画像を生成し、表示装置に出力するステップと、を含み、配置するステップは、仮想のオブジェクトとして、情報処理に対するユーザ操作手段である操作用オブジェクトを配置することを特徴とする。 Another aspect of the present invention relates to an information processing method. This information processing method is an information processing method performed by an information processing device using a photographed image, the step of acquiring data of the photographed image from a camera that is photographing a real space and storing it in a memory, and analyzing the photographed image Detecting a marker existing in the object space, identifying a relative positional relationship between the camera and the object space, and a screen corresponding to the field of view of the camera and a three-dimensional coordinate system corresponding to the object space. An object image formed by projecting a virtual object on a screen, defining a step, executing information processing corresponding to the detected marker, placing a virtual object corresponding to the marker in a three-dimensional coordinate system Are superimposed on the captured image read from the memory, and an output image is generated and output to the display device. As objects, characterized by arranging the operation object is a user operation means to the information processing.
なお、以上の構成要素の任意の組み合わせ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。 It should be noted that any combination of the above-described constituent elements and a conversion of the expression of the present invention between a method, an apparatus, a system, a recording medium, a computer program, etc. are also effective as an aspect of the present invention.
本発明によると、ARの技術をゲームなどの情報処理に有効に活用できる。 According to the present invention, AR technology can be effectively used for information processing such as games.
まず本実施の形態の情報処理装置の外観構成例および回路構成例を説明する。ただしここで示す情報処理装置は一例であり、他の種類の電子機器、端末装置であってもよい。 First, an external configuration example and a circuit configuration example of the information processing apparatus according to the present embodiment will be described. However, the information processing apparatus shown here is an example, and other types of electronic devices and terminal apparatuses may be used.
図1(a)は、情報処理装置10の前面を示す。情報処理装置10は、横長の筐体により形成され、ユーザが把持する左右の領域は、円弧状の外郭を有している。情報処理装置10の前面には、矩形のタッチパネル50が設けられる。タッチパネル50は、表示装置20と、表示装置20の表面を覆う透明な前面タッチパッド21から構成される。表示装置20は有機EL(Electro-Liminescence)パネルであり、画像を表示する。なお表示装置20は液晶パネルなどの表示手段であってもよい。前面タッチパッド21は、同時にタッチされた複数ポイントの検出機能をもつマルチタッチパッドであって、タッチパネル50はマルチタッチスクリーンとして構成される。
FIG. 1A shows the front surface of the
タッチパネル50の右側には、菱形の頂点にそれぞれ位置する△ボタン22a、○ボタン22b、×ボタン22c、□ボタン22d(以下、総称する場合には「操作ボタン22」とよぶ)が設けられ、タッチパネル50の左側には、上キー23a、左キー23b、下キー23c、右キー23d(以下、総称する場合には「方向キー23」とよぶ)が設けられる。ユーザは方向キー23を操作して、上下左右および斜方の8方向を入力できる。
On the right side of the
方向キー23の下側には左スティック24aが設けられ、また操作ボタン22の下側には右スティック24bが設けられる。ユーザは左スティック24aまたは右スティック24b(以下、総称する場合には「アナログスティック24」とよぶ)を傾動して、方向および傾動量を入力する。筐体の左右頂部には、Lボタン26a、Rボタン26bが設けられる。操作ボタン22、方向キー23、アナログスティック24、Lボタン26a、Rボタン26bは、ユーザが操作する操作手段を構成する。
A
操作ボタン22の近傍に、前面カメラ30が設けられる。左スティック24aの左側および右スティック24bの右側には、それぞれ音声を出力する左スピーカ25aおよび右スピーカ25b(以下、総称する場合には「スピーカ25」とよぶ)が設けられる。また左スティック24aの下側にHOMEボタン27が設けられ、右スティック24bの下側にSTARTボタン28およびSELECTボタン29が設けられる。
A
図1(b)は、情報処理装置10の背面を示す。情報処理装置10の背面には、背面カメラ31および背面タッチパッド32が設けられる。背面タッチパッド32は、前面タッチパッド21と同様に、マルチタッチパッドとして構成される。情報処理装置10は、前面および背面において、2つのカメラおよびタッチパッドを搭載している。
FIG. 1B shows the back surface of the
図2(a)は、情報処理装置10の上面を示す。既述したように、情報処理装置10の上面の左右端側に、Lボタン26a、Rボタン26bがそれぞれ設けられる。Lボタン26aの右側には電源ボタン33が設けられ、ユーザは、電源ボタン33を押下することで、電源をオンまたはオフする。なお情報処理装置10は、操作手段が操作されない時間(無操作時間)が所定時間続くと、サスペンド状態に遷移する電力制御機能を有している。情報処理装置10がサスペンド状態に入ると、ユーザは電源ボタン33を押下することで、情報処理装置10をサスペンド状態からアウェイク状態に復帰させることができる。
FIG. 2A shows the top surface of the
ゲームカードスロット34は、ゲームカードを差し込むための差込口であり、この図では、ゲームカードスロット34がスロットカバーにより覆われている状態が示される。なおゲームカードスロット34の近傍に、ゲームカードがアクセスされているときに点滅するLEDランプが設けられてもよい。アクセサリ端子35は、周辺機器(アクセサリ)を接続するための端子であり、この図ではアクセサリ端子35が端子カバーにより覆われている状態が示される。アクセサリ端子35とRボタン26bの間には、ボリュームを調整するための−ボタン36aと+ボタン36bが設けられている。
The
図2(b)は、情報処理装置10の下面を示す。メモリカードスロット37は、メモリカードを差し込むための差込口であり、この図では、メモリカードスロット37が、スロットカバーにより覆われている状態が示される。情報処理装置10の下面において、音声入出力端子38、マイク39およびマルチユース端子40が設けられる。マルチユース端子40はUSB(Universal Serial Bus)に対応し、USBケーブルを介して他の機器と接続できる。
FIG. 2B shows the lower surface of the
図2(c)は、情報処理装置10の左側面を示す。情報処理装置10の左側面には、SIMカードの差込口であるSIMカードスロット41が設けられる。
FIG. 2C shows the left side surface of the
図3は、情報処理装置10の回路構成を示す。各構成はバス92によって互いに接続されている。無線通信モジュール71はIEEE802.11b/g等の通信規格に準拠した無線LANモジュールによって構成され、無線アクセスポイントなどを介してインターネットなどの外部ネットワークに接続する。なお無線通信モジュール71は、ブルートゥース(登録商標)プロトコルの通信機能を有してもよい。携帯電話モジュール72は、ITU(International Telecommunication Union;国際電気通信連合)によって定められたIMT−2000(International Mobile Telecommunication 2000)規格に準拠した第3世代(3rd Generation)デジタル携帯電話方式に対応し、携帯電話網4に接続する。SIMカードスロット41には、携帯電話の電話番号を特定するための固有のID番号が記録されたSIMカード74が挿入される。SIMカード74がSIMカードスロット41に挿入されることで、携帯電話モジュール72は、携帯電話網4との間で通信可能となる。
FIG. 3 shows a circuit configuration of the
CPU(Central Processing Unit)60は、メインメモリ64にロードされたプログラムなどを実行する。GPU(Graphics Processing Unit)62は、画像処理に必要な計算を実行する。メインメモリ64は、RAM(Random Access Memory)などにより構成され、CPU60が使用するプログラムやデータなどを記憶する。ストレージ66は、NAND型フラッシュメモリ(NAND-type flash memory)などにより構成され、内蔵型の補助記憶装置として利用される。
A CPU (Central Processing Unit) 60 executes a program loaded in the main memory 64. A GPU (Graphics Processing Unit) 62 performs calculations necessary for image processing. The main memory 64 is configured by a RAM (Random Access Memory) or the like, and stores programs and data used by the
モーションセンサ67は、情報処理装置10の動きを検出し、地磁気センサ68は、3軸方向の地磁気を検出する。GPS制御部69は、GPS衛星からの信号を受信し、現在位置を算出する。前面カメラ30および背面カメラ31は、画像を撮像し、画像データを入力する。前面カメラ30および背面カメラ31は、CMOSイメージセンサ(Complementary Metal Oxide Semiconductor Image Sensor)によって構成される。
The
表示装置20は、有機EL表示装置であり、陰極および陽極に電圧を印加することで発光する発光素子を有する。省電力モードでは、電極間に印加する電圧を通常よりも低くすることで、表示装置20を減光状態とすることができ、電力消費を抑えられる。なお表示装置20はバックライトを備えた液晶パネル表示装置であってもよい。省電力モードでは、バックライトの光量を下げることで、液晶パネル表示装置を減光状態として、電力消費を抑えることができる。
The
インタフェース90において、操作部70は、情報処理装置10における各種操作手段を含み、具体的には、操作ボタン22、方向キー23、アナログスティック24、Lボタン26a、Rボタン26b、HOMEボタン27、STARTボタン28、SELECTボタン29、電源ボタン33、−ボタン36a、+ボタン36bを含む。前面タッチパッド21および背面タッチパッド32は、マルチタッチパッドであり、前面タッチパッド21は、表示装置20の表面に重ね合わせて配置される。スピーカ25は、情報処理装置10の各機能により生成される音声を出力し、マイク39は、情報処理装置10の周辺の音声を入力する。音声入出力端子38は、外部のマイクからステレオ音声を入力し、外部のヘッドホンなどへステレオ音声を出力する。
In the interface 90, the
ゲームカードスロット34には、ゲームファイルを記録したゲームカード76が差し込まれる。ゲームカード76は、データの書込可能な記録領域を有しており、ゲームカードスロット34に装着されると、メディアドライブにより、データの書込み/読出しが行われる。メモリカードスロット37には、メモリカード78が差し込まれる。メモリカード78は、メモリカードスロット37に装着されると、外付け型の補助記憶装置として利用される。マルチユース端子40は、USB端子として利用でき、USBケーブル80を接続されて、他のUSB機器とデータの送受信を行う。アクセサリ端子35には、周辺機器が接続される。
A
情報処理装置10は、ゲームや電子データ作成などの情報処理、電子書籍、ウェブページ、ビデオ、音楽など各種コンテンツの出力、通信などをユーザ操作に応じて実行する。このとき、必要なプログラムを内部の各種記憶装置からメインメモリ64にロードしたうえ、CPU60の制御のもと、情報処理装置10内で全ての処理を実施してもよいし、ネットワークを介して接続したサーバに処理の一部を要求し、その結果を受信しながら実施してもよい。このように情報処理装置10が実行する処理の種類や処理形態は様々考えられ特に限定されるものではないが、以下、ゲームを実行する場合を例に説明する。
The
以下に述べる一実施形態において、ユーザはあるゲームを実施したいとき、部屋に設置したテーブルなど任意の場所に当該ゲームに対応づけられた図柄のカードを置き、情報処理装置10の背面カメラ31などでリアルタイムに撮影する。情報処理装置10は当該カードの存在を撮影画像から検出すると、それに対応づけられたゲームを起動する。ユーザは実空間の撮影を続行し、情報処理装置10は当該実空間の撮影画像に、ゲームに用いる道具やキャラクタなどのオブジェクトをコンピュータグラフィックスによって描画した画像を重畳して表示装置20に表示する。ユーザは実空間を撮影しながら情報処理装置10を操作することによりゲームを進捗させる。これにより、例えば自分の部屋を舞台に仮想的なキャラクタと対戦ゲームを楽しむことができる。
In one embodiment described below, when a user wants to execute a certain game, a card of a pattern associated with the game is placed in an arbitrary place such as a table installed in a room, and the
なおゲームを開始するきっかけとなる上記カードは、撮影画像によって検出が可能であり、事前にゲームと対応づけることができるものであればよく、所定の図柄のカード以外に、所定の絵、文字、図形の少なくともいずれかを記載したカードや立体物でよい。また所定の形状を有するカードや立体物でもよい。あるいは所定の形状、絵、文字、図形の少なくともいずれかを表示させたディスプレイや当該ディスプレイを有する電子装置などでもよい。以後、これらを総称して「マーカ」と呼ぶ。マーカは単体で用いるほか、複数のマーカの組み合わせによって一つのゲームを選択できるようにしてもよい。またマーカと対応づける対象は、ゲーム単位でなくてもよく、ゲームを含むアプリケーションなどゲームより大きい単位や、ゲーム内で入力すべきコマンド、ゲームの環境を決定づける各種パラメータ、描画するキャラクタ、オブジェクトなどゲームより小さい単位でもよい。 In addition, the said card | curd used as the opportunity to start a game should just be a thing which can be detected with a picked-up image and can be matched with a game in advance, A predetermined picture, character, It may be a card or a three-dimensional object that describes at least one of the figures. Moreover, the card | curd and solid thing which have a predetermined shape may be sufficient. Alternatively, a display on which at least one of a predetermined shape, a picture, a character, and a figure is displayed, or an electronic device having the display may be used. Hereinafter, these are collectively referred to as “markers”. The marker may be used alone, or one game may be selected by combining a plurality of markers. The target to be associated with the marker does not have to be a game unit, but a game unit such as an application including a game, which is larger than a game, a command to be input in the game, various parameters for determining the game environment, a character to be drawn, an object Smaller units may be used.
図4は、情報処理装置10の機能ブロックを示す。この図では特に、図3のCPU60、GPU62、メインメモリ64、ストレージ66によって実現される機能を制御部100として示している。制御部100に含まれる各機能ブロックは、ハードウェア的には、上記のとおりCPU60、GPU62、メインメモリ64などで構成することができ、ソフトウェア的には、情報処理装置10内の各種記憶装置や装着された記録媒体からメインメモリ64にロードしたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
FIG. 4 shows functional blocks of the
制御部100は、ユーザ操作に係る情報を取得する入力情報取得部102、撮影画像のデータを取得する撮影画像取得部104、撮影画像のデータを記憶する撮影画像記憶部106、撮影画像を解析してマーカ検出、空間定義を行う画像解析部108、検出するマーカに係る情報を記憶するマーカ対応情報記憶部109、マーカに対応した情報処理を行う情報処理部114、描画するオブジェクトに係る情報を記憶するオブジェクトデータ記憶部116、撮影画像にオブジェクトの画像を重畳するなどして出力画像を生成する出力画像生成部118を含む。
The
入力情報取得部102は、情報処理装置10に対してなされたユーザ操作に係る情報を、操作部70、前面タッチパッド21、およびモーションセンサ67からそれぞれ入力信号として受信する。そして各入力信号をあらかじめ定めた規則に則り操作内容の情報に変換したうえ、撮影画像取得部104、画像解析部108、情報処理部114に供給する。後述するように本実施の形態では表示装置20に表示された画像世界とのインタラクションによる操作を基本とするため、好適には情報処理装置10が備える操作部70を介した操作は、初期操作など最低限の場面に止める。
The input
撮影画像取得部104は、ユーザによる処理の開始操作に応じて背面カメラ31に撮影を開始させることにより撮影画像のデータを取得する。背面カメラ31を利用することにより、ユーザは表示装置20を見ながら情報処理装置10を動かして視野を変化させたりゲームを進捗させたりするための操作を自然なかたちで行える。撮影画像取得部104は、撮影画像のデータを所定のレートでリアルタイムに取得し、適宜識別番号を付与したうえ、画像解析部108に供給するとともに撮影画像記憶部106に格納していく。当該識別番号は、以後の一連の処理において処理対象の撮影画像を識別するため、各機能ブロック間で伝達していく。
The captured
画像解析部108は、カメラの視野に存在するマーカを検出するマーカ検出部110、実空間に存在する物とカメラの位置や姿勢を追跡しグラフィックス描画に用いる座標系を定義する空間定義部112を含む。マーカ検出部110は、マーカ対応情報記憶部109に登録されたマーカの情報に基づき、撮影画像中のマーカを検出する。マーカ検出技術としては、コンピュータビジョンなどの分野でこれまでに提案されている様々な対象物認識手法のいずれかを採用してよい。
The
例えばあらかじめ準備したマーカ画像と撮影画像とをブロックマッチングしたり、特徴量を照合したりすることにより、撮影画像を部分領域ごとにスコアリングし、スコアの高い領域にマーカの存在を推定する。特徴量に基づく認識手法として、Random Forest法やRandom Ferns法が利用できる。具体的には、準備したマーカ画像からランダムにサンプリングした局所パッチを用いて学習した決定木群を作成しておき、撮影画像から検出した特徴点を含む局所パッチを当該決定木群に入力する。そしてリーフノードにおける出力結果によってマーカの存在確率分布を取得する。 For example, by performing block matching between a marker image prepared in advance and a captured image, or by comparing feature amounts, the captured image is scored for each partial region, and the presence of the marker is estimated in a region having a high score. Random Forest method and Random Ferns method can be used as a recognition method based on feature quantity. Specifically, a decision tree group learned using local patches randomly sampled from the prepared marker image is created, and a local patch including feature points detected from the captured image is input to the decision tree group. Then, the presence probability distribution of the marker is acquired from the output result at the leaf node.
あるいは、特徴点の周囲の輝度勾配を比較するSURF(Speeded Up Robust Features)法などを利用してもよい。マーカ対応情報記憶部109には、マーカ検出に用いる手法に応じた、マーカの特徴を表すデータ格納しておく。なお上記の技術は、マーカ検出のための専用コードなどをマーカに記載する必要がなく、いかなる画像や立体物でもマーカとして利用できる可能性がある、という点で顕著な効果を奏するが、本実施の形態をそれに限定する主旨ではない。すなわち専用コードを記載したマーカを使用し、マーカ検出部110はそれを読み取ることでマーカ検出を行ってもよい。
Alternatively, a SURF (Speeded Up Robust Features) method for comparing luminance gradients around feature points may be used. The marker correspondence
空間定義部112は、撮影画像を解析することにより、撮影対象である実空間(被写空間)に存在する物が構成する環境形状と、それを撮影しているカメラの位置および姿勢を追跡する。そして被写空間中に3次元のワールド座標系を定義し、さらにカメラの動きに応じて逐次、カメラ座標系を定義する。環境形状とカメラの位置や姿勢を追跡する技術として、例えばSLAM(Simultaneous Localization And Mapping)法を利用する。
The
SLAM法は、撮影画像から検出した特徴点を含む局所パッチごとに、特徴点の動きを追跡し、それに基づき所定の状態変数を各時間ステップで更新する手法である。状態変数をカメラの位置や姿勢(回転角)、移動速度、角速度、被写空間に存在する物の少なくとも1つの特徴点の位置、などとすることにより、被写空間とカメラのセンサ面との位置関係(距離および角度)、ひいてはワールド座標系とカメラ座標系との位置関係が撮影画像ごとに取得できる。 The SLAM method is a method of tracking the movement of a feature point for each local patch including a feature point detected from a captured image, and updating a predetermined state variable at each time step based on the tracking. By using the state variables as the camera position and orientation (rotation angle), moving speed, angular velocity, the position of at least one feature point of the object existing in the object space, etc., the object space and the sensor surface of the camera The positional relationship (distance and angle) and thus the positional relationship between the world coordinate system and the camera coordinate system can be acquired for each captured image.
そのほか、カメラをステレオカメラとしたり、別途赤外線照射手段と赤外線センサを設けたりして、既知の手法でカメラから被写体までの距離を取得し環境形状などを取得してもよい。あるいは、情報処理装置10に備えられたモーションセンサ67や地磁気センサ68の出力信号に基づき、カメラの位置や姿勢を算出してもよい。マーカ検出部110、空間定義部112が行う画像解析はこのように様々な手段が考えられ、例えば特許文献1にも記載されていることから、ここでは詳細な説明は省略する。
In addition, the camera may be a stereo camera, or an infrared irradiation unit and an infrared sensor may be provided separately, and the distance from the camera to the subject may be acquired by a known method to acquire the environmental shape and the like. Alternatively, the position and orientation of the camera may be calculated based on output signals from the
情報処理部114は、マーカ検出部110が検出したマーカに対応づけられたゲームなどの情報処理を実行する。そのためマーカ対応情報記憶部109には、マーカと、それが検出されたときに開始するゲームとを対応づけて格納しておく。マーカ対応情報記憶部109にはさらに、各ゲームにおいて描画すべきオブジェクトを対応づけて格納しておく。情報処理部114は、空間定義部112が定義したワールド座標系における各オブジェクトの配置を決定し、出力画像生成部118にオブジェクトの描画を含む出力画像の生成を要求する。
The
出力画像生成部118は、情報処理部114からの要求に従い、撮影画像記憶部106から撮影画像のデータを読み出したうえ、オブジェクトを撮影画像上に描画して出力画像を生成する。オブジェクトのモデルデータは識別情報とともにオブジェクトデータ記憶部116に格納しておく。ここで行われる描画処理は、ワールド座標系に配置されたオブジェクトを、カメラの位置および姿勢から定義したカメラ座標系に変換し、スクリーンに投影するものであり、基本的な処理手順は一般的なコンピュータグラフィックスと同様でよい。生成した出力画像のデータは、フレームメモリを介して表示装置20に出力し即時表示させる。なお撮影画像においてマーカが検出されない期間、出力画像生成部118は撮影画像をそのまま出力画像としてよい。
In accordance with a request from the
オブジェクトデータ記憶部116にはさらに、オブジェクトとして含まれるキャラクタの動作を規定する情報も格納しておく。具体例は後に述べるが、本実施の形態ではカメラとキャラクタとの距離、相対角度が逐次特定できるため、それらのパラメータが所定の条件を満たしたとき、キャラクタが所定の動作(以後、「特定動作」と呼ぶ)を行うようにする。これにより、ユーザが動かすカメラと仮想キャラクタとのインタラクションを実現する。
The object
図5は、本実施の形態における情報処理装置10の使用環境例を説明するための図である。同図において実空間120はテーブル122が設置され、その上には時計124と鉛筆立て126が置かれている。このような実空間120において、ユーザはテーブル122にマーカ128aを置き、それを情報処理装置10の背面カメラ31で撮影する。この例ではマーカ128aは、ネコの絵が描かれたカードとしている。背面カメラ31の視野は、例えば点線矩形130で示した領域である。
FIG. 5 is a diagram for explaining an example of a use environment of the
図6は実空間と、オブジェクト描画のための座標系の関係を例示しており、図5の実空間120を右上から見た状態を示している。図5で示した通り、テーブル122上には時計124、鉛筆立て126、マーカ128aが置かれており、カメラのセンサ面がスクリーン140と一致するとする。上記の通りマーカ検出部110によって、撮影画像中にマーカ128aが検出されると、空間定義部112は、当該マーカの実際のサイズをマーカ対応情報記憶部109から読み出し、撮影画像中のマーカの像と比較する。これにより、マーカ128aからスクリーン140までの距離および回転角、ひいてはカメラの位置および姿勢の初期値を導出できる。
FIG. 6 illustrates the relationship between the real space and the coordinate system for drawing the object, and shows a state where the
マーカ128aの中央を原点として、図示するxyz座標のようにワールド座標系を定義すれば、ワールド座標系とカメラ座標系との関係が決定し、結果としてワールド座標系に配置したオブジェクトのスクリーン140への投影が可能になる。さらに空間定義部112によって、撮影画像における、マーカ128a、テーブル122、時計124、鉛筆立て126などの像による特徴点をSLAM法などにより追跡することにより、カメラがいかに移動したり姿勢を変化させたりしても両座標系の関係は逐次求められる。これにより、カメラの移動に応じたオブジェクト画像の変化も正確に表現できる。なおワールド座標系は図示するものに限らないが、マーカ128aの画像平面がテーブル上面や床面であると推定し、当該面を基準面として定義することにより、オブジェクトをその上に置くように表現できる。
If the world coordinate system is defined like the xyz coordinates shown with the center of the
次にこれまで述べた構成による情報処理装置10の動作について述べる。図7は情報処理装置10がマーカ検出をきっかけとして、オブジェクト描画を伴うゲームを実行する処理手順を示すフローチャートである。なお以後説明する例では、情報処理装置はマーカに反応してゲームそのものを開始するのでなく、ゲームに関連する様々なモード選択を受け付けたうえでゲームやそれ以外の機能の処理を開始する。したがってそれらを包括する概念として、情報処理装置10が開始する対象を「アプリケーション」と呼ぶ。
Next, the operation of the
図7のフローチャートは例えば、ユーザが情報処理装置10の電源を投入したとき、あるいは処理開始の操作を操作部70などを介して行ったときなどに開始される。まず撮影画像取得部104は、背面カメラ31に撮影を開始させることにより、撮影画像のデータ取得を開始する(S10)。以後、撮影画像取得部104は所定のレートで撮影画像(画像フレーム)を順次取得していく。
The flowchart of FIG. 7 is started, for example, when the user turns on the
撮影画像のデータは画像解析部108に供給されるとともに撮影画像記憶部106に格納される。出力画像生成部118はまず、当該撮影画像のデータを撮影画像記憶部106から読み出し、表示装置20に出力することにより、電子ファインダと同様、撮影画像をそのまま表示させる(S12)。これによりユーザは、背面カメラ31で撮影した画像を表示装置20で確認しながら情報処理装置10を動かし、所望の視野を得ることができる。
The captured image data is supplied to the
並行して画像解析部108のマーカ検出部110は、撮影画像を解析することによりマーカ検出処理を行う(S14)。そのためマーカ検出部110は、マーカ対応情報記憶部109に登録されている、各マーカの特徴を表すデータを参照する。マーカが検出されない期間、画像解析部108からその旨の通知を受けることにより、出力画像生成部118は撮影画像をそのまま表示装置20に出力し続ける(S16のN、S12)。マーカが検出されたら(S16のY)、空間定義部112は、図6に示したようにワールド座標系を決定したうえ、カメラの位置、姿勢に応じてスクリーン140をワールド座標系に対して設定する(S18)。カメラの位置や姿勢は常時変化する可能性があるため、以後、上述のSLAM法などによってその動きを追跡する。
In parallel, the
一方、マーカ検出部110は、検出したマーカに対応づけられたアプリケーションを、マーカ対応情報記憶部109を参照することにより特定し、当該アプリケーションの識別情報を情報処理部114に通知する(S20)。それに応じて情報処理部114は出力画像生成部118との協働により、通知されたアプリケーションを実行する(S22)。
On the other hand, the
ここでは上述のとおり、アプリケーションに対応づけられたキャラクタやゲームの道具などのオブジェクトをワールド座標系に配置し、それをスクリーン140に投影することにより描画したうえ、撮影画像に重畳して出力画像を生成する。さらにカメラの移動に応じてキャラクタに特定動作をさせたり、ユーザ操作に応じてゲームを進捗させたりする。生成した出力画像は順次、表示装置20で表示することにより、カメラの動きやゲームなどの処理の進捗に応じて変化する画像を表示できる。
Here, as described above, an object such as a character or a game tool associated with an application is placed in the world coordinate system, and is drawn by projecting it onto the
アプリケーションの処理が終了したら、ユーザが撮影を終了させるなど全体的な処理の停止操作を行うまで撮影を続行してマーカ検出を行い、対応するアプリケーションを実行する(S26のN、S12〜S22)。撮影を終了させる操作がなされたら一連の処理を終了する(S26のY)。 When the processing of the application is completed, the shooting is continued until the user performs an overall process stop operation such as the end of shooting, and marker detection is performed, and the corresponding application is executed (N in S26, S12 to S22). When an operation for ending the shooting is performed, a series of processing ends (Y in S26).
図8は、図7のS22におけるアプリケーションの実行段階で表示装置20に表示される画面例を示している。同図は例えば、図5で示した実空間120を撮影し、マーカ128aが検出された結果、実行を開始したアプリケーションの一画面である。画面例148おいて、撮影画像に含まれるマーカ128bの上に、アプリケーション、あるいはマーカ128aに対応づけられたオブジェクトであるネコのキャラクタ150aが描画されている。さらにマーカ128bを囲むように、アイコン152a、152b、152cが描画されている。ここで「アイコン」とは、該当領域を指示することにより対応づけられた処理が開始されたり対応する項目が選択されたりするものであれば、その使用目的、開始される処理や選択対象の種類、形状などは限定されない。したがって図示するようなボタンのグラフィックスも「アイコン」と呼ぶ。
FIG. 8 shows an example of a screen displayed on the
アイコン152a、152b、152cはアプリケーションで実行する機能を選択するためのものであり、遊び方の説明書きを表示する「遊び方」アイコン152a、所定のキャラクタとゲームで対戦する「対戦」アイコン152b、複数のキャラクタ同士の対戦を観戦する「観戦」アイコン152cで構成される。上記の通りキャラクタ150aおよびアイコン152a、152b、152cはまず、ワールド座標系に配置された後、カメラのセンサ面と一致するスクリーンに投影して描画するため、マーカ128bと同一平面であるテーブル上に置かれているように表現できる。
The
情報処理部114は、表示画面中、アイコン152a、152b、152cの位置に対応する前面タッチパッド21内の領域を、各アイコンが表す機能に対応づける。これにより、ユーザが所望のアイコンの位置で前面タッチパッド21にタッチすることにより、情報処理部114は、対応する機能の処理を開始する。アイコン152a、152b、152cは実世界のテーブルに置かれているように描画されるため、カメラの視野が変化すると画面におけるアイコンの位置も変化する。従って情報処理部114は、出力画像生成部118から各アイコンの描画領域に係る情報を常時取得し、前面タッチパッド21における各アイコンの検知領域をカメラの動きに応じて更新していく。
The
キャラクタ150aは3次元コンピュータグラフィックスの手法によって立体的に表現することが望ましい。またユーザが操作を行っていない期間であっても体を動かしたりまばたきしたりすることにより生き物としての臨場感を演出する。なおアイコン152a、152b、152cも立体形状としてもよい。
It is desirable that the
図9は、図7のS16およびS20でマーカ検出部110がマーカ検出および対応アプリケーション特定を行う際に参照する、マーカ対応情報記憶部109に格納されたデータの構造例を示している。マーカ対応情報300は、識別情報欄302、特徴量情報欄304、サイズ欄306、および対応アプリケーション欄308を含む。識別情報欄302には、登録するマーカごとに付与した識別番号を格納する。
FIG. 9 shows an example of the structure of data stored in the marker correspondence
特徴量情報欄304には、マーカのテンプレート画像、あるいはその特徴量を表すデータの識別情報を格納する。同図の場合「ネコ画像」、「キツネ画像」など、画像の名前が示されている。画像や特徴量などのデータ本体は画像の名前と対応づけて別途格納しておく。特徴量情報欄304には画像の名前以外に、画像データや特徴量データの識別番号、それらのデータ自体、あるいは当該データの格納アドレスを示すポインタなどを格納してもよい。
The feature
サイズ欄306には、各マーカのサイズを格納する。同図の場合、長方形のカードをマーカとして使用する場合を想定しているため、「縦の長さ×横の長さ(mm)」なるフォーマットで記載しているが、マーカの形状によってフォーマットは様々であってよい。サイズと形状など複数種類のパラメータの組み合わせでもよい。対応アプリケーション欄308には、各マーカに対応づけるアプリケーションの識別情報を格納する。同図では「エアホッケーゲーム」、「トランプゲーム」などゲームの名前が示されているが、アプリケーションの識別番号、ソフトウェア本体、あるいは当該ソフトウェアの格納アドレスを示すポインタなどを格納してもよい。
The
マーカ検出部110は、特徴量情報欄304の識別情報に基づき、登録されている各マーカ画像またはその特徴量を読み出し、それを用いて撮影画像中のマーカを検出する。検出に上記手法を用いることにより、拡大率の変化に対しても高い頑健性でマーカを検出できる。またマーカ検出部110は、検出されたマーカに対応づけられているアプリケーションを、対応アプリケーション欄308を参照して特定する。一方、空間定義部112は、サイズ欄306に記載されたマーカのサイズに基づき、実空間の単位長さに合わせてワールド座標系を定義するとともに、マーカを含む被写体とカメラとの位置関係を取得する。
The
なお同図に示すように、マーカとアプリケーションは一対一に対応していなくてもよい。具体的には、マーカ対応情報300において識別情報「001」のマーカと識別情報「002」のマーカはいずれも「エアホッケーゲーム」に対応している。このようにすることで、同じアプリケーションであってもマーカの図柄の差などによって登場させるキャラクタや衣装を変化させたり、ゲームのバージョンや難易度、BGMなどを異ならせたりすることができる。
As shown in the figure, the marker and the application do not have to correspond one-to-one. Specifically, in the
逆に複数のマーカの組み合わせを1つのアプリケーションに対応させてもよい。このようにすると、複数のマーカを集めたときだけ所定のアプリケーションやゲームを実行できる状況を作り出すことができ、マーカ収集の楽しみも提供できる。この場合、マーカとしてカードや立体物など複数の個体の組み合わせを設定する以外に、スタンプラリーのように1枚のカードに集めた複数の印影の組み合わせなどを利用してもよい。 Conversely, a combination of a plurality of markers may correspond to one application. In this way, it is possible to create a situation in which a predetermined application or game can be executed only when a plurality of markers are collected, and enjoyment of marker collection can also be provided. In this case, in addition to setting a combination of a plurality of individuals such as a card or a three-dimensional object as a marker, a combination of a plurality of seals collected on a single card, such as a stamp rally, may be used.
また同図の識別情報「001」のマーカと識別情報「002」のマーカのようにマーカのサイズを異ならせることにより、ゲームを行う場、つまりエアホッケーゲームにおけるエアホッケー台のような、ゲーム環境を表すオブジェクトのサイズを変化させてもよい。本実施の形態では、上記のとおりマーカのサイズに基づき、ワールド座標系における単位長さを実空間の単位長さに対応させることができる。これにより、実空間での任意のサイズを想定して各オブジェクトを描画することができる。上記のように複数のマーカの組み合わせを1つのアプリケーションに対応させる場合は、置かれたマーカ同士の間隔によってオブジェクトのサイズを変化させられるようにしてもよい。 Also, the game environment, such as an air hockey table in an air hockey game, by changing the size of the markers, such as the identification information “001” marker and the identification information “002” marker in FIG. You may change the size of the object which represents. In the present embodiment, the unit length in the world coordinate system can correspond to the unit length in the real space based on the marker size as described above. Thus, each object can be drawn assuming an arbitrary size in the real space. As described above, when a combination of a plurality of markers is associated with one application, the size of the object may be changed depending on the interval between the placed markers.
図10は、図7のS22で情報処理部114がマーカに対応するアプリケーションを実行する処理手順例を示すフローチャートである。なおアプリケーションの内容によって処理手順や処理の内容を様々に変形できることは当業者には理解されるところであり、本実施の形態をこれに限る主旨ではない。また図9のフローチャートは特にアプリケーションそのものに対する処理手順を示しており、並行してなされるカメラの位置や姿勢の変化に対する処理については後に述べる。
FIG. 10 is a flowchart illustrating a processing procedure example in which the
まず検出したマーカに対応するアプリケーションに係る情報がマーカ検出部110から通知されると、情報処理部114は、当該アプリケーションに対応づけられたキャラクタやアイコンなどを特定し、出力画像生成部118がそれらのオブジェクトを撮影画像上に描画する(S30)。各オブジェクトのモデリングデータは、情報処理部114からの要求に従いオブジェクトデータ記憶部116から読み出す。これにより表示される初期画面は、例えば図8で示した画面例148である。
First, when information related to the application corresponding to the detected marker is notified from the
このような画面に対し、ユーザが「遊び方」アイコン152aの部分にタッチすることにより説明書きの表示を要求したら(S32のY)、出力画像生成部118はオブジェクトデータ記憶部116から説明書きの画像を読み出して撮影画像に重畳する(S34)。このとき説明書きの画像を平面的に表すのではなく、撮影画像における実空間の世界を壊すことなく表示することが望ましい。例えば撮影画像中、マーカの像が表れている四角形の領域に、説明書きの画像をテクスチャマッピングすることにより、マーカの位置に説明書きのカードが置かれたように表現する。
When the user requests display of the explanatory note by touching the “how to play”
ユーザが、説明書きの表示を終了させる操作を行うまで表示を継続する(S36のN、S34)。説明書きを表示させた状態で、キャラクタとの対戦を開始する所定の操作がなされたら、S42〜S48の対戦モードへ移行する(36のY、S40のY)。一方、キャラクタ同士の対戦を観戦するための所定の操作がなされたら、S52〜S58の観戦モードへ移行する(S36のY、S40のN、S50のY)。それ以外に説明書きの表示を終了させる操作がなされたら、アプリケーションそのものを終了させる操作がなされないうちは、S30で表示させた初期画面に表示を戻す(S36のY、S40のN、S50のN、S38のN、S30)。なお説明書きの表示とともに、初期画面へ表示を戻すためのアイコンなどを表示してもよい。 The display is continued until the user performs an operation to end the display of the explanatory note (N in S36, S34). When a predetermined operation for starting a battle with the character is performed in a state where the explanatory note is displayed, the battle mode is shifted to the battle mode of S42 to S48 (Y of 36, Y of S40). On the other hand, when a predetermined operation for watching a battle between characters is performed, the process proceeds to the watching mode of S52 to S58 (Y in S36, N in S40, Y in S50). If an operation for terminating the display of the explanatory note is performed, the display is returned to the initial screen displayed in S30 (Y in S36, N in S40, N in S50), unless an operation for terminating the application itself is performed. , S38 N, S30). An icon for returning the display to the initial screen may be displayed together with the description.
一方、S30で表示した初期画面に対し、ユーザが「対戦」アイコン152bの部分にタッチした場合も、S42〜S48の対戦モードへ移行する(S32のN、S40のY)。また当該初期画面に対し、ユーザが「観戦」アイコン152cの部分にタッチしたら、S52〜S58の観戦モードへ移行する(S32のN、S40のN、S50のY)。
On the other hand, when the user touches the “battle”
対戦モードではまず、対戦時に描画すべきオブジェクトの初期位置およびサイズをワールド座標系で決定し、それをスクリーンに投影することにより撮影画像に重畳する(S42)。そして情報処理装置10に対するユーザ操作に応じて道具や相手キャラクタのオブジェクトを適宜動かしながらゲームを進捗させる(S44)。情報処理部114がオブジェクトの動きを算出し、出力画像生成部118が所定のフレームレートで撮影画像上に当該オブジェクトを描画していくことで表示画像を更新する(S46)。
In the battle mode, first, the initial position and size of the object to be drawn during the battle are determined in the world coordinate system, and are projected onto the screen to be superimposed on the captured image (S42). Then, the game is advanced while appropriately moving the tool and the object of the opponent character according to the user operation on the information processing apparatus 10 (S44). The
本実施の形態では、情報処理装置10に設けられたカメラでの実空間の撮影および表示がユーザインターフェースの一部を構成している。そのためゲームにおけるユーザ操作の手段としてもモーションセンサ67が検知する情報処理装置10自体の動きを活用することにより、カメラ撮影を含む一連の動作に統一感が生まれ、ユーザの理解が容易になる。ただしその他の操作手段も適宜利用してよい。S44とS46の処理を、対戦が終了するかユーザが終了操作を行うまで継続する(S48のN、S44、S46)。対戦が終了するなどしたら、アプリケーションそのものを終了させる操作がなされないうちは、S30で表示した初期画面に表示を戻す(S48のY、S38のN、S30)。
In the present embodiment, shooting and display of a real space with a camera provided in the
観戦モードではまず、観戦時に描画すべきオブジェクトの初期位置およびサイズをワールド座標系で決定し、それをスクリーンに投影することにより撮影画像に重畳する(S52)。この場合、複数のキャラクタ同士が対戦を開始する状況が表示される。そしてキャラクタがそれぞれに設定されたレベルに応じて対戦するように、ゲームを自動で進捗させる(S54)。 In the watching mode, first, an initial position and a size of an object to be drawn at the time of watching are determined in the world coordinate system, and are projected onto the screen to be superimposed on the photographed image (S52). In this case, a situation in which a plurality of characters start a battle is displayed. Then, the game is automatically advanced so that the characters battle each other according to the set level (S54).
情報処理部114がオブジェクトの動きを算出し、出力画像生成部118が所定のフレームレートで撮影画像上に当該オブジェクトを描画していくことで表示画像を更新する(S56)。S54とS56の処理を、キャラクタ同士の対戦が終了するかユーザが観戦を終了させる操作を行うまで継続する(S58のN、S54、S56)。観戦が終了するなどしたら、アプリケーションそのものを終了させる操作がなされないうちは、S30で表示した初期画面に表示を戻す(S58のY、S38のN、S30)。いずれかの段階でアプリケーションを終了させる操作がなされたら、アプリケーションの処理を終了する(S38のY)。なおアプリケーションの終了操作はアプリケーションの実行中、随時受け付けてよい。
The
図11は、図10のS34で表示される説明書きの表示画面例を示している。この画面は、例えば図8で示した初期画面において「遊び方」アイコン152aがタッチされた後に表示される。またこの例は、図5で示した実空間120の撮影画像に基づき、図9で示したマーカ対応情報300のうち識別情報「001」のマーカが検出され、「エアホッケーゲーム」のアプリケーションが実行されていることを想定している。
FIG. 11 shows an example of the explanatory note display screen displayed in S34 of FIG. This screen is displayed after the “how to play”
画面例160では撮影画像上に、説明書きの画像164a、ネコのキャラクタ150b、説明書きを前のページへ戻すアイコン162a、次のページへ進めるアイコン162bが描画されている。説明書きの画像164aを表示するため、画像164bのような画像データをオブジェクトデータ記憶部116に格納しておく。説明書きの画像は複数ページにより構成してよく、その場合にアイコン162a、162bを描画する。上述のとおり、説明書きの画像を本来マーカが写っている領域にテクスチャマッピングすることにより、図示するように実空間におけるテーブルに置かれているように表現できる。
In the screen example 160, an
なお説明書きの画像として準備する画像は、図示するような静止画でもよいし、動画でもよい。また本実施の形態ではゲームを含むアプリケーションを想定しているため、その遊び方を説明する画像を表示したが、表示する内容をこれに限定する主旨ではない。すなわち電子書籍、ウェブページ、映画などアプリケーションの内容によって表示する内容も異なってよい。 The image prepared as the description image may be a still image as shown in the figure or a moving image. In this embodiment, since an application including a game is assumed, an image explaining how to play is displayed. However, the content to be displayed is not limited to this. That is, the contents displayed may vary depending on the contents of the application such as an electronic book, a web page, and a movie.
アイコン162a、アイコン162b、キャラクタ150bは、図8で説明したのと同様の手順により描画する。アイコン162a、162bによりページを戻したり送ったりする操作がなされたら、説明書きの画像164aを前や次のページの画像にクロスフェードさせるなどして自然な表現で入れ替える。あるいはページめくりのアニメーションを挿入するなどしてもよい。キャラクタ150bは、図8で示した初期画面における状態から、説明書きが見えるように立ち上がり、移動した状態としている。さらにキャラクタ150bが、説明書きの入れ替えやページめくりをしているように表現してもよい。
The
図12は、図11で示した画面例160が表示されている状態から、実空間においてユーザがカメラをマーカに近づけた場合の画面の変化例を示している。画面例170において、説明書きの画像164c、アイコン162c、162d、キャラクタ150cは、図11の画面例160における説明書きの画像164a、アイコン162a、162b、キャラクタ150bと同じオブジェクトである。
FIG. 12 shows an example of a screen change when the user brings the camera closer to the marker in the real space from the state in which the screen example 160 shown in FIG. 11 is displayed. In the screen example 170, the
本実施の形態では、ワールド座標系におけるオブジェクトの位置が決定しているため、カメラを近づけると実空間の物と同様、アップで写されたり一部が視野からはみ出したりする。これにより、説明書きやアイコンなども実際にテーブルなどに置かれている印象を与えられる。例えば画面例160の状態では説明書きが小さくて読みづらい場合などに、カメラを近づけることにより説明書きを近くで見た状態とすることができる。 In the present embodiment, since the position of the object in the world coordinate system is determined, when the camera is brought close to the object, the object is taken up or part of the field of view is projected, like an object in real space. This gives the impression that the description and icons are actually placed on the table. For example, in the state of the screen example 160, when the explanatory note is small and difficult to read, it is possible to make the explanatory note viewed close by bringing the camera closer.
図13は、図10のS46で表示される対戦モードでの画面例を示している。この画面は例えば、図8で示した初期画面において、「対戦」アイコン152bがタッチされた直後や対戦中に表示される。この例も図11と同様に「エアホッケーゲーム」のアプリケーションが実行されていることを想定している。
FIG. 13 shows a screen example in the battle mode displayed in S46 of FIG. This screen is displayed, for example, immediately after the “battle”
画面例180では撮影画像上に、エアホッケー台182、パック186、マレット184a、184b、ネコのキャラクタ150cが描画されている。この対戦モードでは、ユーザが情報処理装置10を動かすと、手前にあるマレット184bがエアホッケー台182上で情報処理装置10と同じ方向に動き、それによってパック186を打ち返すことができる。
In the
情報処理装置10の動きはモーションセンサ67により検出し、その動き量や速度を、画面に描画したマレット184bの動き量や速度に変換する。その変換規則もオブジェクトデータ記憶部116に格納しておき、情報処理部114が参照することにより各時間ステップにおけるマレットの動きや、それに当たってはね返るパックの動きを決定する。これにより、打ち返す瞬間にマレットを左右に動かしてパックの打ち返し角度を変えたり、マレットを前に動かしてスマッシュしたり、といったように、実際のエアホッケーと同様に、パックの動きに変化をつけることができる。
The movement of the
対戦相手のネコのキャラクタ150cは、この例では図8の初期画面などで描画したキャラクタと同一としている。対戦モードでは当該キャラクタ150cを、エアホッケー台を挟んでカメラ、つまりユーザに対峙するように描画する。ネコのキャラクタ150cも仮想的な情報処理装置を把持し、それを動かすことによって自分のマレット184aを動かしているようにする。これにより、実際に仮想的なキャラクタと対戦している臨場感を演出できる。
In this example, the opponent's
エアホッケー台182は、撮影画像に写るマーカ128cに対し所定の向きおよび位置にあるように描画する。同図のエアホッケー台182は天板のみが空中に浮いている状態を示しているが、天板より下の部分も加えて立体構造として表してもよいし、スコアボードなどをさらに表してもよい。エアホッケー台182の天板部分を透明または半透明とすることにより、撮影画像の隠蔽部分が少なくなり、実空間で行われている印象をより与えることができる。エアホッケー台182はマーカ128cの直上などに配置してもよいが、天板部分を透明または半透明とした場合は、マーカの図柄によりパック186などが見づらくならないよう、ずらして配置することが望ましい。
The air hockey table 182 draws the
上記のSLAM法になどより、撮影画像中の特徴点を追跡する場合、時計や鉛筆立てなどマーカ周辺の物体にも基づいてカメラとワールド座標系との相対関係が特定できる。そのため一旦、マーカが検出され、それに対応するようにエアホッケー台182を配置すれば、ゲーム操作などによりマーカが視野から外れたり、ユーザがマーカを取り去ったりしても、周辺の物との相対位置によって、ワールド座標系における同じ位置にあるようにエアホッケー台182を描画することができる。キャラクタやアイコンなどその他のオブジェクトについても同様である。
When tracking feature points in a captured image using the above-mentioned SLAM method, the relative relationship between the camera and the world coordinate system can be specified based on objects around the marker such as a clock or a pencil stand. Therefore, once the marker is detected and the
図14は、図10のS56で表示される観戦モードでの画面例を示している。この画面は例えば、図8で示した初期画面において「観戦」アイコン152cがタッチされた直後や観戦中に表示される。この例も図11や図13と同様、「エアホッケーゲーム」のアプリケーションが実行されていることを想定している。
FIG. 14 shows a screen example in the watching mode displayed in S56 of FIG. This screen is displayed, for example, immediately after the “watching”
画面例190では撮影画像上に、エアホッケー台194、パック198、マレット196a、196b、ネコのキャラクタ150d、キツネのキャラクタ192が描画されている。この観戦モードでは、ネコのキャラクタ150dとキツネのキャラクタ192がエアホッケー台194を挟んで対峙するように描画する。そしてそれぞれが、仮想的な情報処理装置を動かすことにより、各自のマレット196a、196bを動かしているようにする。ユーザはカメラの位置や姿勢を変化させることにより、様々な距離や角度からこの模様を観戦することができる。同図の場合、実空間にあるマーカ128dの直上にエアホッケー台を配置しているため、ユーザの実際の動きとしては、マーカ128dを中心にカメラの距離や角度を変化させることになる。
In the screen example 190, an air hockey table 194, a
同図の例でネコのキャラクタ150dは、図8の初期画面や図13の対戦モードにおいて描画したキャラクタと同一としている。例えばユーザが、対戦モードによってネコのキャラクタ150dと対戦を繰り返すことにより、ネコのキャラクタ150dに設定されたレベルが上がるようにする。つまりユーザが、ネコのキャラクタ150dを訓練して選手にするような状況を演出する。そして観戦モードで他のキャラクタと戦わせることにより、いわば自分が育てたネコのキャラクタ150dを対外試合に参加させるような気持ちで応援したり、さらに対戦モードで強くしたりする、といった楽しみを提供できる。
In the example of the figure, the
図15は、図10のS30、S34、S42、S52で、情報処理部114がマーカに対応して描画するオブジェクトを特定する際に参照する、マーカ対応情報記憶部109に格納されたデータの構造例を示している。なおこの例は、図9のマーカ対応情報300で示したように、同じアプリケーションであってもマーカによって描画するキャラクタを変化させる態様を想定している。上記の通りマーカによってキャラクタ以外の要素を変化させてもよいし、変化させずにアプリケーションによって全ての要素が一意に定まるようにしてもよい。後者の場合、マーカによる処理の分岐は図9のマーカ対応情報300を参照してアプリケーションを特定した時点で完了するため、情報処理部114はマーカ対応情報記憶部109を参照しなくてよい。
FIG. 15 shows the structure of data stored in the marker correspondence
オブジェクト情報400は、アプリケーション欄402、マーカ欄404、第1キャラクタ欄406、第2キャラクタ欄408、表示アイコン欄410、説明画像欄412、道具欄414を含む。アプリケーション欄402には、アプリケーションの識別情報を格納する。当該識別情報は、図9のマーカ対応情報300における対応アプリケーション欄308に格納された識別情報に対応する。同図では「エアホッケーゲーム」、「トランプゲーム」などゲームの名前が示されているが図9のマーカ対応情報300と同様、アプリケーションの識別番号、ソフトウェア本体、あるいは当該ソフトウェアの格納アドレスを示すポインタなどを格納してよい。
The
マーカ欄404にはマーカの識別番号を格納する。当該識別番号は、図9のマーカ対応情報300における識別情報欄302に格納された識別番号に対応する。検出されたマーカに対応するアプリケーションの識別情報と当該マーカの識別番号とをマーカ検出部110から通知された際、情報処理部114はそれらに基づき、描画すべきオブジェクトをオブジェクト情報400から特定する。
The
第1キャラクタ欄406には、図10の例では全てのモードで登場する第1キャラクタの識別情報を格納する。第2キャラクタ欄408には、図10の例では観戦モードにおける対戦相手とする第2キャラクタの識別情報を格納する。同図の場合、第1キャラクタ欄406および第2キャラクタ欄408には、「ネコ」、「キツネ」など、キャラクタモデルの名前が示されているが、識別番号などでもよい。各キャラクタのモデリングデータは、キャラクタの識別情報と対応づけてオブジェクトデータ記憶部116格納しておく。表示アイコン欄410、説明画像欄412、道具欄414についても表記の仕方やデータ本体との関係は同様である。
The
なおマーカによって第1キャラクタ、第2キャラクタのいずれか一方のみを変化させるようにしたり、2つのマーカによって第1キャラクタと第2キャラクタをそれぞれ独立に指定できるようにしてもよい。表示アイコン欄410には、図10のS30で描画するアイコンの識別情報を格納する。同図の場合、「遊び方」、「対戦」、「観戦」など、アイコンの名前が示されている。これらは図8の画面例148における「遊び方」アイコン152a、「対戦」アイコン152b、「観戦」アイコン152cとそれぞれ対応している。
Note that only one of the first character and the second character may be changed by the marker, or the first character and the second character may be independently specified by the two markers. The
説明画像欄412には、図10のS34で描画する説明書きの画像の識別情報を格納する。同図の場合、「ホッケー操作(1),(2),・・・」など、複数ページにわたる説明書きの画像群の名前が示されている。そのうちの1ページが図11の説明書きの画像164a、164bに対応している。道具欄414には、図10の例では対戦モードや観戦モードで描画するゲームの道具オブジェクトの識別情報を格納する。同図の場合、「エアホッケー台」、「マレット」、「パック」など、道具オブジェクトのモデルの名前が示されている。これらのオブジェクトは、図13、図14の画面例におけるエアホッケー台182、194、パック186、198、マレット184a、184b、196a、196bに対応する。
The
情報処理部114は、アプリケーションの各モードにおいて描画すべきオブジェクトをオブジェクト情報400を参照して特定し、出力画像生成部118に描画を要求する。出力画像生成部118はオブジェクトデータ記憶部116に格納されているモデリングデータを識別情報に基づき読み出して、各オブジェクトを描画する。情報処理部114はこのとき、空間定義部112が定義したワールド座標系におけるマーカの位置およびサイズに基づき描画すべきオブジェクトを配置する。例えば上記のように、同じアプリケーションであっても複数のサイズのマーカを準備しておくことにより、マーカのサイズに応じてキャラクタやエアホッケー台などのオブジェクトのサイズを変化させてもよい。
The
あるいはマーカのサイズによらず、ゲームの実行状況やユーザの要求に従い、オブジェクトのサイズを変化させてもよい。例えば観戦モードにおいて自分が育てたキャラクタが対戦相手のキャラクタに勝ったとき、育てたキャラクタを実空間における人間と同程度の大きさとし、道具オブジェクトも実物大としたうえで対戦できる特別な対戦モードを提供するようにしてもよい。 Alternatively, the size of the object may be changed according to the game execution status or the user's request regardless of the size of the marker. For example, in the watching mode, when the character you grew up wins the opponent's character, you can set up a special battle mode that allows you to play with the raised character as big as a human in real space and the tool object also being real size You may make it provide.
図16は、上記特別な対戦モードにおいて表示される画面の例を示している。画面例200は、基本的には図13で示した、通常の対戦モードにおける画面例180と同じ構成を有する。ただし、エアホッケー台202が実物大となり、ネコのキャラクタ150eも人間と同程度のサイズとなっている点が異なる。そのためユーザは、図13の場合と比較し、マーカ128dが置かれたテーブルから後退した位置で実空間を撮影している状態となっている。エアホッケー台202のサイズ変化に応じ、その配置も適宜調整する。同図では、マーカ128dの上に重なるようにエアホッケー台202を配置している。
FIG. 16 shows an example of a screen displayed in the special battle mode. The screen example 200 basically has the same configuration as the screen example 180 in the normal battle mode shown in FIG. However, the difference is that the air hockey table 202 is the actual size, and the
図17は、このようにオブジェクトのサイズを変化させることを許容した場合に、図10の対戦モード時にオブジェクトを描画する処理手順を示すフローチャートである。情報処理部114はまず、ワールド座標系におけるオブジェクトのサイズと配置を決定する(S70)。オブジェクトのサイズは上記の通り、マーカのサイズから所定の規則に従い一意に導出したり、特別な対戦モード対する設定値を参照したりして決定する。
FIG. 17 is a flowchart showing a processing procedure for drawing an object in the battle mode of FIG. 10 when it is allowed to change the size of the object in this way. The
次に情報処理部114は、マレットのように情報処理装置10の動きを反映して動く道具オブジェクトがある場合に、情報処理装置10の動きに対する当該道具オブジェクトの動きの感度を調整する(S72)。エアホッケーゲームを例にとると、図13で示したような卓上サイズのエアホッケー台と、図16で示したような実物大のエアホッケー台とでは、マレットの可動幅が大きく異なる。このため情報処理装置10の移動量からマレットの移動量への換算規則をサイズによらず固定としてしまうと、大きいサイズのときに情報処理装置10を不自然なほど大きく動かす必要が生じたり、小さいサイズのときにマレットが意図に反して動きすぎてしまったりすることが考えられる。
Next, when there is a tool object that moves reflecting the movement of the
そこでこのような道具オブジェクトがある場合は、オブジェクトのサイズに応じて感度を調整することが望ましい。ここで「感度」は、情報処理装置の動きに対する道具オブジェクトの反応の大きさを表すパラメータであればよく、移動量の割合、速度の割合、加速度の割合など、用いる変数は特に限定されない。 Therefore, when there is such a tool object, it is desirable to adjust the sensitivity according to the size of the object. Here, the “sensitivity” may be a parameter indicating the magnitude of the response of the tool object to the movement of the information processing apparatus, and variables to be used are not particularly limited, such as a movement amount ratio, a speed ratio, and an acceleration ratio.
定性的にはオブジェクトのサイズが大きいほど、情報処理装置10の動きに対するマレットの動きを小さくする。例えば、情報処理装置10の速度Vaに対して求められるマレットの速度Vmの比率Vm/Vaが、オブジェクトのサイズの倍率に反比例するようにする。つまりマレットの速度Vmはオブジェクトのサイズの倍率Sと情報処理装置10の速度Vaから次のように求める。
Vm=kVa/S
ここでkは基準のサイズS=1のときの速度比率であり、実験などに基づきあらかじめ算出しておく。
Qualitatively, the larger the size of the object, the smaller the movement of the mallet relative to the movement of the
Vm = kVa / S
Here, k is a speed ratio when the reference size S = 1, and is calculated in advance based on an experiment or the like.
ただし上式は一例に過ぎず、感度調整は様々な手法で行ってよい。例えば情報処理装置10の動き量からエアホッケー台の幅に対するマレットの動き量の割合を算出するようにしてもよい。S70とS72の処理により、オブジェクトのサイズ、位置、情報処理装置10の動きに対するオブジェクトの動きが決定されるため、ゲーム開始時にはそれに従いオブジェクトを配置して描画し、以後、ユーザ操作やゲームの進捗に応じてオブジェクトを移動させながら描画処理を繰り返す(S74)。
However, the above formula is only an example, and sensitivity adjustment may be performed by various methods. For example, the ratio of the mallet movement amount to the air hockey table width may be calculated from the movement amount of the
次に、カメラとキャラクタの距離、相対角度に応じてキャラクタに特定動作をさせる態様について説明する。図18はオブジェクトデータ記憶部116に格納され、情報処理部114がアプリケーション実行時にキャラクタに特定動作をさせるために参照するデータの構造例を示している。特定動作設定情報500は、キャラクタ欄502、対象部位欄504、相対角しきい値欄506、距離しきい値欄508、動作欄510を含む。キャラクタ欄502には、動作主体であるキャラクタの識別情報を格納する。同図の場合「ネコ」などキャラクタモデルの名前が示されている。当該識別情報は、図15のオブジェクト情報400における第1キャラクタ欄406などに格納された識別情報に対応する。
Next, a mode in which the character performs a specific action according to the distance and relative angle between the camera and the character will be described. FIG. 18 shows an example of the structure of data stored in the object
対象部位欄504、相対角しきい値欄506、距離しきい値欄508には、各キャラクタに特定動作をさせる条件の組み合わせを格納する。この条件はキャラクタとカメラとの距離や相対角度に対して自由に設定できるため、条件の内容や表現形式は他にも様々考えられる。同図の場合、キャラクタの部位ごとに、当該部位に所定角度以内でカメラが近づいた、といった状況を判定するための条件を例として示している。
The
図19は、図18の特定動作設定情報500で設定する条件の表し方を説明するための図である。部位210はキャラクタの頭部や手など、条件を設定する部位を表している。そして当該部位の基準点212(同図の場合は頂点)における法線ベクトルn1とカメラのセンサ面に対応するスクリーン214の法線ベクトルn2がなす角度θ(0≦θ≦180°)、および基準点212とスクリーン214の中心との距離Aに対ししきい値を設定する。角度θが180°に近づくほど当該基準点212をのぞき込むかたちとなるため、典型的には角度θがしきい値以上となり、距離Aがしきい値以下となったとき、特定動作を発生させる。
FIG. 19 is a diagram for describing how to express the conditions set in the specific
図18に戻り、対象部位欄504には条件を設定する対象部位とその基準点、相対角しきい値欄506には角度θのしきい値、距離しきい値欄508には距離Aのしきい値を格納する。そして動作欄510には、対象部位に対し設定した条件を満たしたときキャラクタが行う特定動作の識別情報を格納する。同図の設定例では、ネコのキャラクタの頭頂部を覗くようにカメラが動いたら、当該ネコのキャラクタはカメラの方向へジャンプする(特定動作設定情報500の2行目)。
Returning to FIG. 18, the
手先を覗くようにカメラが動いたら、当該キャラクタは握っているアイテムをカメラ方向へ差し出す動作をすることでユーザが当該アイテムを獲得する(特定動作設定情報500の3行目)。口元へカメラが近づいたら当該キャラクタはゲーム攻略に係るヒントなどをしゃべるようにする(特定動作設定情報500の4行目)。なお動作欄510に記載した特定動作の識別情報に対応させて、実際のキャラクタの動きを制御するプログラムなどを別途、オブジェクトデータ記憶部116に格納しておく。
When the camera moves so as to look into the hand, the character acquires the item by performing an operation of pushing out the gripped item in the direction of the camera (third line of the specific motion setting information 500). When the camera approaches the mouth, the character speaks a hint or the like related to the game strategy (the fourth line of the specific action setting information 500). Note that a program for controlling the movement of the actual character is stored in the object
このような条件をキャラクタごとに設定することにより、キャラクタに個性や特徴を与えるとともに、ユーザが何気なく行った情報処理装置10の移動でキャラクタの思わぬ反応が返ってきたり有益な情報を得たりする楽しみを提供することができる。本実施の形態では、オブジェクトとカメラという個体同士の距離、相対角度に対して条件を設定できるため、リアクションとしてのオブジェクトの動作も豊富なバリエーションで準備できる。時々刻々変化するオブジェクトの位置や姿勢に対し、高い自由度で情報処理装置の位置や姿勢を変化させられるため、それらの組み合わせを入力値とすることにより、偶発的な出力結果を楽しむことができる。
By setting such conditions for each character, personality and characteristics are given to the character, and unexpected movement of the character is returned or useful information is obtained by the movement of the
図20は、情報処理部114と出力画像生成部118がカメラの位置や姿勢の変化に対し表示画像を更新する処理手順を示すフローチャートである。この処理は、図10で示したアプリケーションを実行する処理と並行して行われる。まず情報処理部114は、空間定義部112からカメラの位置や姿勢にかかる情報を常時取得することで、それらが変化したか否かを監視する(S80)。変化がなければそのまま監視のみ継続する(S80のN)。
FIG. 20 is a flowchart illustrating a processing procedure in which the
変化があったら(S80のY)、出力画像生成部118は、新しいカメラ座標系を空間定義部112から取得する(S82)。これは図6におけるスクリーン140をカメラの位置、姿勢の変化に対応させて移動させたことを意味する。次に図18の特定動作設定情報500を参照し、その時点で描画しているオブジェクトとカメラとの距離、相対角度が、設定された条件を満たしているか否かを判定する(S84)。満たしていなければ(S84のN)、出力画像生成部118が、各オブジェクトを移動後のスクリーンに投影して描画し直し、撮影画像に重畳することによって表示画像を更新する(S88)。この場合も当然、アプリケーション処理に応じたオブジェクトの動きは表現する。
If there is a change (Y in S80), the output
一方、特定動作を行う条件を満たしている場合(S84のY)、情報処理部114は、当該条件に対応づけられた特定動作の識別情報を特定動作設定情報500から取得する。そして当該識別情報に対応する動作発生用のプログラムなどに基づき、特定動作を行うようにキャラクタを動かす(S86)。そして出力画像生成部118は、移動後のスクリーンに、特定動作をしているキャラクタを含む各オブジェクトを投影して描画し直し、撮影画像に重畳することによって表示画像を更新する(S88)。
On the other hand, when the condition for performing the specific action is satisfied (Y in S84), the
次に、図8の画面例148のように表示させたアイコンを操作する別の方法について説明する。上記の実施形態では、表示画面上のアイコンの位置で前面タッチパッド21にタッチすることにより、対応する処理が開始された。一方、本実施の形態では実空間でマーカが置かれているテーブルなどの平面上にアイコンも置かれているように表現する。そこで別の操作方法として、画面上でアイコンが置かれているように見える実空間での位置に実際に手を伸ばしてテーブルなどの平面をタッチすることによりアイコンがタッチされたと認識するようにする。
Next, another method for operating the icon displayed as in the screen example 148 of FIG. 8 will be described. In the above embodiment, the corresponding process is started by touching the
図21は実空間での指の動きによりアイコン操作を実現する態様における表示画面の例を示している。この例は、図8で示した画面例148が表示されている状態でユーザがカメラの視野内に右手222を出した状態である。ユーザの左手は当然、情報処理装置10を把持して当該実空間を撮影しており、図8の場合よりテーブル側に寄った状態となっている。画面例220では、マーカ128a、ユーザの右手222を含む撮影画像と、コンピュータグラフィックスで描画したネコのキャラクタ150a、アイコン152cなどが混在している。
FIG. 21 shows an example of a display screen in a mode in which icon operation is realized by finger movement in real space. In this example, the user has put out the
この方法では、撮影画像におけるユーザの右手222を既存の手認識技術によって認識する。そしてその指が、撮影画像中のアイコン152cの領域で所定のしきい値より長い時間停止したら、タッチがなされたと判定する。あるいは指の特徴点をSLAM法などにより追跡することにより、実空間で指がテーブル上のアイコン152cに対応する領域をタッチしたことを判定する。タッチがなされたと判定されたら、情報処理部114は当該アイコンに対応する処理を開始する。
In this method, the user's
手認識や特徴点の追跡は、画像解析部108で随時行う。そのため、実空間での指の動きからタッチ判定を行う場合は、情報処理部114は、現在表示中のアイコンのワールド座標系における位置を画像解析部108に逐次、通知しておく。そして画像解析部108が3次元空間でのタッチ判定を行い、その結果を情報処理部114に通知する。撮影画像中でタッチ判定を行う場合は、情報処理部114は画像解析部108から撮影画像における指の位置を随時取得し、自らがタッチ判定を行う。
Hand recognition and feature point tracking are performed at any time by the
図21の画面例220では、実空間に存在するテーブル上に仮想的に描画したアイコン152cが置かれ、さらにその上にユーザの実際の右手222が存在する、という、撮影画像に描画オブジェクトが挟まれた状態となる。そこで出力画像生成部118は、アイコン152cのうち右手222に隠れる部分を一般的な隠面消去処理により消去する。右手222の輪郭線も上記手認識技術や既存の輪郭線追跡技術によって特定できる。さらに出力画像生成部118は、指がアイコン152cに近づいていくのに応じて、指の影224をつけることにより臨場感を演出する。この処理も、一般的なシャドウイング手法により実現できる。このとき、大局照明モデルを用いてもよいし、撮影画像から光源を推定することでレイトレーシング法などによって影をつけてもよい。
In the screen example 220 of FIG. 21, a drawing object is sandwiched in a photographed image in which a virtually drawn
以上述べた本実施の形態によれば、ユーザがカメラを備えた情報処理装置を用いて実空間に置いたマーカを撮影することにより、当該情報処理装置でマーカに対応する情報処理を開始するようにする。当該情報処理においては、撮影中の実空間にコンピュータグラフィックスで描画したオブジェクトが存在するように、撮影画像にオブジェクトの画像を重畳する。そして情報処理装置の動きに応じてゲームに用いる道具などのオブジェクトが動くようにする。 According to the present embodiment described above, the information processing apparatus corresponding to the marker is started by the information processing apparatus by photographing the marker placed in the real space using the information processing apparatus provided with the camera. To. In the information processing, the object image is superimposed on the photographed image so that the object drawn by computer graphics exists in the real space being photographed. Then, an object such as a tool used in the game is moved according to the movement of the information processing apparatus.
さらにキャラクタの動作が、カメラの位置とキャラクタとの距離、相対角度によって変化するようにする。これらのことにより、実空間に表れた仮想的な物体を動かしながらキャラクタと遊んだりコミュニケーションをとったりする、という複雑な状況を、情報処理装置を把持して動かす、というシンプルな動作で作り出すことができる。 Further, the motion of the character is changed depending on the distance and relative angle between the camera position and the character. With these things, it is possible to create a complex situation in which a virtual object appearing in real space is played and communicated with a character while communicating with a simple operation of grasping and moving an information processing device. .
また描画するオブジェクトとして、アイコンや説明書きも含め、それらも実空間に置かれているように描画する。アイコンは、情報処理装置に備えた表示画面上のタッチパッド、あるいはアイコンが仮想的に置かれている実空間内の面にタッチすることによって操作できるようにする。このようにすることで、全ての操作や情報表示を表示画面内に存在する、拡張現実空間で行えるようになり、その世界観を維持したユーザインターフェースを実現できる。また一般的な入力装置やカーソルで操作するのと比較し、より自然かつ直感的な操作が可能となる。 As objects to be drawn, icons and explanations are drawn as if they were placed in the real space. The icon can be operated by touching a touch pad on a display screen provided in the information processing apparatus or a surface in a real space where the icon is virtually placed. In this way, all operations and information display can be performed in the augmented reality space existing in the display screen, and a user interface that maintains the world view can be realized. In addition, more natural and intuitive operation is possible compared to a general input device or a cursor.
描画するオブジェクトは、サイズが既知のマーカに対応して生成するため、オブジェクトの実空間での大きさを仮定したうえでの描画が可能である。したがって、キャラクタを実際の人間と同じ大きさにしたり道具を実物大にしたりすることも可能となり、その結果表示される画面の世界では、自分の部屋などでキャラクタと実際に遊んでいるような状況を作り出すことができる。このようにオブジェクトのサイズを可変としたとき、情報処理装置の動きに対する道具などのオブジェクトの動きの感度をサイズに応じて調整することにより、サイズが変更しても操作性を維持することができる。 Since an object to be drawn is generated corresponding to a marker whose size is known, it is possible to draw on the assumption of the size of the object in the real space. Therefore, it is also possible to make the character the same size as an actual human or make the tool full size, and in the resulting screen world, you can actually play with the character in your room etc. Can produce. Thus, when the size of the object is variable, the operability can be maintained even if the size is changed by adjusting the sensitivity of the movement of the object such as the tool with respect to the movement of the information processing apparatus according to the size. .
以上、本発明を実施の形態をもとに説明した。この実施の形態は例示であり、それらの各構成要素や各処理プロセスの組み合わせにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。 The present invention has been described based on the embodiments. This embodiment is an exemplification, and it will be understood by those skilled in the art that various modifications can be made to combinations of the respective constituent elements and processing processes, and such modifications are within the scope of the present invention. is there.
10 情報処理装置、 20 表示装置、 21 前面タッチパッド、 31 背面カメラ、 60 CPU、 62 GPU、 64 メインメモリ、 66 ストレージ、 67 モーションセンサ、 70 操作部、 100 制御部、 102 入力情報取得部、 104 撮影画像取得部、 106 撮影画像記憶部、 108 画像解析部、109 マーカ対応情報記憶部、 110 マーカ検出部、 112 空間定義部、 114 情報処理部、 116 オブジェクトデータ記憶部、 118 出力画像生成部。
DESCRIPTION OF
Claims (14)
前記撮影画像を解析し、被写空間に存在するマーカを検出する画像解析部と、
前記カメラと被写空間との相対的な位置関係を特定し、被写空間に対応する3次元座標系と前記カメラの視野に対応するスクリーンを定義する空間定義部と、
検出されたマーカに対応する情報処理を実行するとともに、前記3次元座標系に、前記マーカに対応する仮想のオブジェクトを配置する情報処理部と、
前記スクリーンに前記仮想のオブジェクトを投影してなるオブジェクト画像を前記撮影画像に重畳して出力画像を生成し、表示装置に出力する出力画像生成部と、
を備え、
前記情報処理部は、前記仮想のオブジェクトとして、前記情報処理に対するユーザ操作手段である操作用オブジェクトを配置することを特徴とする情報処理装置。 A captured image acquisition unit that acquires data of the captured image from a camera that is capturing a real space;
An image analysis unit that analyzes the captured image and detects a marker present in the subject space;
Identifying a relative positional relationship between the camera and the subject space, and defining a three-dimensional coordinate system corresponding to the subject space and a screen corresponding to the field of view of the camera;
An information processing unit that executes information processing corresponding to the detected marker and arranges a virtual object corresponding to the marker in the three-dimensional coordinate system;
An output image generating unit that generates an output image by superimposing an object image formed by projecting the virtual object on the screen on the captured image, and outputs the output image to a display device;
With
The information processing apparatus arranges an operation object as a user operation means for the information processing as the virtual object.
前記情報処理部は、前記画像解析部における解析結果により、前記操作用オブジェクトの配置位置に対応する実空間の位置をユーザが指示したことを認識したとき、当該操作用オブジェクトに対応する処理を開始することを特徴とする請求項1に記載の情報処理装置。 The image analysis unit further detects a user's finger by analyzing the captured image,
When the information processing unit recognizes from the analysis result in the image analysis unit that the user has instructed the position of the real space corresponding to the arrangement position of the operation object, the information processing unit starts processing corresponding to the operation object. The information processing apparatus according to claim 1, wherein:
前記情報処理部は、表示中の出力画像における前記操作用オブジェクトの領域にユーザが触れたことを前記タッチパッドを介して認識したとき、当該操作用オブジェクトに対応する処理を開始することを特徴とする請求項1に記載の情報処理装置。 A touch pad that covers a screen of the display device and detects a contact operation;
The information processing unit starts processing corresponding to an operation object when the user recognizes that the user has touched the region of the operation object in the output image being displayed through the touchpad. The information processing apparatus according to claim 1.
前記情報処理部は、前記操作用オブジェクトとして可動オブジェクトを配置し、前記情報処理装置の動きに係る情報を前記センサから取得して、当該動きを反映するように前記可動オブジェクトを前記3次元座標系において動かすことを特徴とする請求項1に記載の情報処理装置。 A sensor for detecting movement of the information processing apparatus;
The information processing unit arranges a movable object as the operation object, acquires information on the movement of the information processing apparatus from the sensor, and moves the movable object to the three-dimensional coordinate system so as to reflect the movement. The information processing apparatus according to claim 1, wherein the information processing apparatus is moved.
実空間を撮影中のカメラから当該撮影画像のデータを取得しメモリに格納するステップと、
前記撮影画像を解析し、被写空間に存在するマーカを検出するステップと、
前記カメラと被写空間との相対的な位置関係を特定し、被写空間に対応する3次元座標系と前記カメラの視野に対応するスクリーンを定義するステップと、
検出されたマーカに対応する情報処理を実行するとともに、前記3次元座標系に、前記マーカに対応する仮想のオブジェクトを配置するステップと、
前記スクリーンに前記仮想のオブジェクトを投影してなるオブジェクト画像を、前記メモリより読み出した前記撮影画像に重畳して出力画像を生成し、表示装置に出力するステップと、
を含み、
前記配置するステップは、前記仮想のオブジェクトとして、前記情報処理に対するユーザ操作手段である操作用オブジェクトを配置することを特徴とする情報処理方法。 An information processing method performed by an information processing device using a captured image,
Acquiring data of the photographed image from a camera that is photographing a real space and storing the data in a memory;
Analyzing the captured image and detecting a marker present in the subject space;
Identifying a relative positional relationship between the camera and the subject space, defining a three-dimensional coordinate system corresponding to the subject space and a screen corresponding to the field of view of the camera;
Performing information processing corresponding to the detected marker and placing a virtual object corresponding to the marker in the three-dimensional coordinate system;
An object image formed by projecting the virtual object on the screen is superimposed on the captured image read from the memory to generate an output image and output to a display device;
Including
The information processing method characterized in that the step of arranging arranges an operation object as a user operation means for the information processing as the virtual object.
前記撮影画像を解析し、被写空間に存在するマーカを検出する機能と、
前記カメラと被写空間との相対的な位置関係を特定し、被写空間に対応する3次元座標系と前記カメラの視野に対応するスクリーンを定義する機能と、
検出されたマーカに対応する情報処理を実行するとともに、前記3次元座標系に、前記マーカに対応する仮想のオブジェクトを配置する機能と、
前記スクリーンに前記仮想のオブジェクトを投影してなるオブジェクト画像を前記撮影画像に重畳して出力画像を生成し、表示装置に出力する機能と、
をコンピュータに実現させ、
前記配置する機能は、前記仮想のオブジェクトとして、前記情報処理に対するユーザ操作手段である操作用オブジェクトを配置することを特徴とするコンピュータプログラム。 A function of acquiring data of the photographed image from a camera that is photographing a real space;
A function of analyzing the captured image and detecting a marker present in the subject space;
A function for identifying a relative positional relationship between the camera and the subject space, and defining a three-dimensional coordinate system corresponding to the subject space and a screen corresponding to the field of view of the camera;
A function of executing information processing corresponding to the detected marker and arranging a virtual object corresponding to the marker in the three-dimensional coordinate system;
A function of generating an output image by superimposing an object image formed by projecting the virtual object on the screen on the captured image, and outputting the output image to a display device;
Is realized on a computer,
The computer program is characterized in that the function to arrange arranges an operation object which is a user operation means for the information processing as the virtual object.
前記撮影画像を解析し、被写空間に存在するマーカを検出する機能と、
前記カメラと被写空間との相対的な位置関係を特定し、被写空間に対応する3次元座標系と前記カメラの視野に対応するスクリーンを定義する機能と、
検出されたマーカに対応する情報処理を実行するとともに、前記3次元座標系に、前記マーカに対応する仮想のオブジェクトを配置する機能と、
前記スクリーンに前記仮想のオブジェクトを投影してなるオブジェクト画像を前記撮影画像に重畳して出力画像を生成し、表示装置に出力する機能と、
をコンピュータに実現させ、
前記配置する機能は、前記仮想のオブジェクトとして、前記情報処理に対するユーザ操作手段である操作用オブジェクトを配置するコンピュータプログラムを記録したことを特徴とするコンピュータにて読み取り可能な記録媒体。 A function of acquiring data of the photographed image from a camera that is photographing a real space;
A function of analyzing the captured image and detecting a marker present in the subject space;
A function for identifying a relative positional relationship between the camera and the subject space, and defining a three-dimensional coordinate system corresponding to the subject space and a screen corresponding to the field of view of the camera;
A function of executing information processing corresponding to the detected marker and arranging a virtual object corresponding to the marker in the three-dimensional coordinate system;
A function of generating an output image by superimposing an object image formed by projecting the virtual object on the screen on the captured image, and outputting the output image to a display device;
Is realized on a computer,
The computer-readable recording medium is characterized in that the function to be arranged records a computer program for arranging an operation object as a user operation means for the information processing as the virtual object.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013170282A JP2015041126A (en) | 2013-08-20 | 2013-08-20 | Information processing device and information processing method |
PCT/JP2014/002529 WO2015025442A1 (en) | 2013-08-20 | 2014-05-13 | Information processing device and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013170282A JP2015041126A (en) | 2013-08-20 | 2013-08-20 | Information processing device and information processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015041126A true JP2015041126A (en) | 2015-03-02 |
Family
ID=52483242
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013170282A Pending JP2015041126A (en) | 2013-08-20 | 2013-08-20 | Information processing device and information processing method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2015041126A (en) |
WO (1) | WO2015025442A1 (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016047085A (en) * | 2014-08-27 | 2016-04-07 | 株式会社テクノクラフト | Character cooperation application device |
JP2018124926A (en) * | 2017-02-03 | 2018-08-09 | Kddi株式会社 | Terminal device, method for controlling terminal device, and computer program |
JP2018163458A (en) * | 2017-03-24 | 2018-10-18 | 日本電気株式会社 | Portable terminal, server device, information processing system, control method and program |
JP2019200811A (en) * | 2019-07-30 | 2019-11-21 | 富士通株式会社 | Display control method, information processing apparatus, and display control program |
JP2020533699A (en) * | 2017-09-11 | 2020-11-19 | ナイキ イノベイト シーブイ | Equipment, systems, and methods for target search and for using geocaching |
US11509653B2 (en) | 2017-09-12 | 2022-11-22 | Nike, Inc. | Multi-factor authentication and post-authentication processing system |
WO2023120372A1 (en) * | 2021-12-21 | 2023-06-29 | 株式会社セガ | Program and information processing device |
US11961106B2 (en) | 2017-09-12 | 2024-04-16 | Nike, Inc. | Multi-factor authentication and post-authentication processing system |
US12367510B2 (en) | 2024-03-07 | 2025-07-22 | Nike, Inc. | Multi-factor authentication and post-authentication processing system |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6362634B2 (en) * | 2016-02-05 | 2018-07-25 | 株式会社バンダイナムコエンターテインメント | Image generation system, game device, and program |
JP6916460B2 (en) * | 2016-08-31 | 2021-08-11 | カシオ計算機株式会社 | Object display system, user terminal device, object display method and program |
JP7012485B2 (en) * | 2016-12-27 | 2022-01-28 | 株式会社ワコム | Image information processing device and image information processing method |
CN107320955B (en) * | 2017-06-23 | 2021-01-29 | 武汉秀宝软件有限公司 | AR venue interface interaction method and system based on multiple clients |
US20220253196A1 (en) * | 2019-03-29 | 2022-08-11 | Sony Group Corporation | Information processing apparatus, information processing method, and recording medium |
US11380011B2 (en) * | 2019-04-23 | 2022-07-05 | Kreatar, Llc | Marker-based positioning of simulated reality |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6408257B1 (en) * | 1999-08-31 | 2002-06-18 | Xerox Corporation | Augmented-reality display method and system |
JP5671349B2 (en) * | 2011-01-06 | 2015-02-18 | 任天堂株式会社 | Image processing program, image processing apparatus, image processing system, and image processing method |
US20130293585A1 (en) * | 2011-01-18 | 2013-11-07 | Kyocera Corporation | Mobile terminal and control method for mobile terminal |
JP5791433B2 (en) * | 2011-08-31 | 2015-10-07 | 任天堂株式会社 | Information processing program, information processing system, information processing apparatus, and information processing method |
-
2013
- 2013-08-20 JP JP2013170282A patent/JP2015041126A/en active Pending
-
2014
- 2014-05-13 WO PCT/JP2014/002529 patent/WO2015025442A1/en active Application Filing
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016047085A (en) * | 2014-08-27 | 2016-04-07 | 株式会社テクノクラフト | Character cooperation application device |
JP2018124926A (en) * | 2017-02-03 | 2018-08-09 | Kddi株式会社 | Terminal device, method for controlling terminal device, and computer program |
JP2018163458A (en) * | 2017-03-24 | 2018-10-18 | 日本電気株式会社 | Portable terminal, server device, information processing system, control method and program |
JP7286750B2 (en) | 2017-09-11 | 2023-06-05 | ナイキ イノベイト シーブイ | Apparatus, system and method for target search and for using geocaching |
JP2020533699A (en) * | 2017-09-11 | 2020-11-19 | ナイキ イノベイト シーブイ | Equipment, systems, and methods for target search and for using geocaching |
JP7001818B2 (en) | 2017-09-11 | 2022-01-20 | ナイキ イノベイト シーブイ | Devices, systems, and methods for target search and for using geocaching |
JP2022050473A (en) * | 2017-09-11 | 2022-03-30 | ナイキ イノベイト シーブイ | Devices, systems, and methods for target search and for using geocaching |
US11410191B2 (en) | 2017-09-11 | 2022-08-09 | Nike, Inc. | Apparatus, system, and method for target search and using geocaching |
US11978076B2 (en) | 2017-09-11 | 2024-05-07 | Nike, Inc. | Apparatus, system, and method for target search and using geocaching |
US11509653B2 (en) | 2017-09-12 | 2022-11-22 | Nike, Inc. | Multi-factor authentication and post-authentication processing system |
US11961106B2 (en) | 2017-09-12 | 2024-04-16 | Nike, Inc. | Multi-factor authentication and post-authentication processing system |
JP2019200811A (en) * | 2019-07-30 | 2019-11-21 | 富士通株式会社 | Display control method, information processing apparatus, and display control program |
WO2023120372A1 (en) * | 2021-12-21 | 2023-06-29 | 株式会社セガ | Program and information processing device |
US12367510B2 (en) | 2024-03-07 | 2025-07-22 | Nike, Inc. | Multi-factor authentication and post-authentication processing system |
Also Published As
Publication number | Publication date |
---|---|
WO2015025442A1 (en) | 2015-02-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2015025442A1 (en) | Information processing device and information processing method | |
CN110147231B (en) | Combined special effect generation method and device and storage medium | |
CN110276840B (en) | Multi-virtual-role control method, device, equipment and storage medium | |
JP6158406B2 (en) | System for enabling video capture of interactive applications on mobile devices | |
WO2018077206A1 (en) | Augmented reality scene generation method, device, system and equipment | |
WO2019153824A1 (en) | Virtual object control method, device, computer apparatus, and storage medium | |
JP5436912B2 (en) | PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE | |
JP5256269B2 (en) | Data generation apparatus, data generation apparatus control method, and program | |
CN111158469A (en) | Viewing angle switching method, device, terminal device and storage medium | |
CN108525298B (en) | Image processing method, image processing device, storage medium and electronic equipment | |
JP5654430B2 (en) | Use of a portable game device to record or change a game or application running in a home game system in real time | |
JP5602618B2 (en) | Image processing program, image processing apparatus, image processing system, and image processing method | |
JP5739671B2 (en) | Information processing program, information processing apparatus, information processing system, and information processing method | |
JP5627973B2 (en) | Program, apparatus, system and method for game processing | |
US8947365B2 (en) | Storage medium storing image processing program for implementing image processing according to input coordinate, and information processing device | |
CN106873767B (en) | Operation control method and device for virtual reality application | |
CN108694073B (en) | Control method, device and equipment of virtual scene and storage medium | |
EP2394710A2 (en) | Image generation system, image generation method, and information storage medium | |
JP2012090904A (en) | Game device, control method for the same, and program | |
CN115193042B (en) | Display control method, device, electronic device and storage medium | |
WO2015162991A1 (en) | Image fusion system, information processing device, information terminal, and information processing method | |
CN113194329B (en) | Live interaction method, device, terminal and storage medium | |
CN113769397A (en) | Virtual object setting method, device, equipment, medium and program product | |
JP2006314633A (en) | Game program and game machine | |
CN116339598A (en) | Course display method, device, equipment and storage medium |