[go: up one dir, main page]

JP4724740B2 - Input processing program and input processing apparatus - Google Patents

Input processing program and input processing apparatus Download PDF

Info

Publication number
JP4724740B2
JP4724740B2 JP2008290211A JP2008290211A JP4724740B2 JP 4724740 B2 JP4724740 B2 JP 4724740B2 JP 2008290211 A JP2008290211 A JP 2008290211A JP 2008290211 A JP2008290211 A JP 2008290211A JP 4724740 B2 JP4724740 B2 JP 4724740B2
Authority
JP
Japan
Prior art keywords
virtual
dimensional
moving
dimensional space
display screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2008290211A
Other languages
Japanese (ja)
Other versions
JP2009093666A (en
Inventor
秀樹 紺野
嘉孝 味岡
靖 海老澤
潔 水木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=40665520&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP4724740(B2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2008290211A priority Critical patent/JP4724740B2/en
Publication of JP2009093666A publication Critical patent/JP2009093666A/en
Application granted granted Critical
Publication of JP4724740B2 publication Critical patent/JP4724740B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、入力処理プログラムおよび入力処理装置に関し、より特定的には、仮想3次元空間に対して表示画面上の2次元座標を入力するデバイスを用いて操作する入力処理プログラムおよび入力処理装置に関する。   The present invention relates to an input processing program and an input processing device, and more specifically to an input processing program and an input processing device that operate using a device that inputs a two-dimensional coordinate on a display screen to a virtual three-dimensional space. .

従来、表示画面に表示される仮想3次元空間に対して、当該表示画面上の2次元座標を入力するタッチパネルを用いて操作する技術が開示されている(例えば、特許文献1および2参照)。これらの技術は、いずれも表示画面上に仮想3次元空間を表示し、当該表示画面に関連してタッチパネル等を設ける。そして、ユーザのタッチパネルの押下位置に基づいて3次元空間内のXおよびY座標を決定し、ユーザがタッチパネルを押圧する大きさに基づいて3次元空間内のZ座標(奥行方向)を決定する。
特開平11−7372号公報 特開2004−70920号公報
Conventionally, a technique for operating a virtual three-dimensional space displayed on a display screen using a touch panel for inputting two-dimensional coordinates on the display screen has been disclosed (see, for example, Patent Documents 1 and 2). Each of these technologies displays a virtual three-dimensional space on a display screen, and a touch panel or the like is provided in association with the display screen. Then, the X and Y coordinates in the three-dimensional space are determined based on the pressed position of the user's touch panel, and the Z coordinate (depth direction) in the three-dimensional space is determined based on the size with which the user presses the touch panel.
Japanese Patent Laid-Open No. 11-7372 JP 2004-70920 A

しかしながら、上述した従来技術では、タッチパネル等の押圧する大きさを検出するために、感圧素子等の押圧検出機能を新たに設ける必要があり、装置自体が複雑となりコスト増加の原因となる。また、ユーザが仮想3次元空間内の奥行方向に対して大きな入力をするとき、タッチパネルを強く押下しなければならないので、タッチパネルに多大な負荷がかかることになる。そのため、タッチパネルが故障しやすくなったり、寿命が短くなったりするといった問題があった。   However, in the above-described prior art, it is necessary to newly provide a pressure detection function such as a pressure sensitive element in order to detect the size of the touch panel or the like to be pressed, which complicates the apparatus itself and causes an increase in cost. Further, when the user makes a large input with respect to the depth direction in the virtual three-dimensional space, the touch panel must be pressed down strongly, so that a great load is applied to the touch panel. For this reason, there has been a problem that the touch panel is liable to break down or the life is shortened.

それ故に、本発明の目的は、表示画面上の2次元座標を入力するデバイスからの入力に基づいて仮想3次元空間に対する座標を求める入力処理プログラムおよび入力処理装置を提供することである。   SUMMARY OF THE INVENTION Therefore, an object of the present invention is to provide an input processing program and an input processing device that obtain coordinates for a virtual three-dimensional space based on an input from a device that inputs two-dimensional coordinates on a display screen.

上記目的を達成するために、本発明は以下の構成を採用した。なお、括弧内の参照符号やステップ番号等は、本発明の理解を助けるために、後述する図面との対応関係を示したものであって、本発明の範囲を何ら限定するものではない。   In order to achieve the above object, the present invention employs the following configuration. Note that the reference numerals, step numbers, and the like in parentheses indicate correspondence with the drawings described later in order to help understanding of the present invention, and do not limit the scope of the present invention.

1の発明は、入力処理装置(1)のコンピュータ(21)に実行されるプログラムである。入力処理装置は、表示画面(12)と、その表示画面上に対応する2次元座標を入力するポインティングデバイス(13)とを備え、その表示画面に仮想3次元空間を表示する。プログラムは、仮想面設定ステップ(S53)、2次元座標検出ステップ(S54)、仮想面上移動ステップ(S54)、3次元空間内移動ステップ(S59)、および表示制御ステップ(S57)をコンピュータに実行させる。仮想面設定ステップは、仮想3次元空間内に仮想面を設定する。2次元座標検出ステップは、ポインティングデバイスから入力された2次元座標を検出する。仮想面上移動ステップは、2次元座標検出ステップが検出した2次元座標に基づいて、仮想面所定のオブジェクトを移動させる。3次元空間内移動ステップは、所定の入力条件に応じて、オブジェクトを仮想面から離れた仮想3次元空間内を移動させる。表示制御ステップは、仮想面上移動ステップまたは3次元空間内移動ステップによって移動するオブジェクトを仮想3次元空間内で表現して表示画面に表示する。なお、ポインティングデバイスは、表示画面上での2次元座標を指定する入力装置であり、例えば、タッチパネル、マウス、トラックパッド、トラックボールなどで実現される。そして、それぞれの入力装置で用いられる座標系は、タッチパネル座標系や画面座標系である。 The first invention is a program executed by the computer (21) of the input processing device (1) . The input processing device includes a display screen (12) and a pointing device (13) for inputting corresponding two-dimensional coordinates on the display screen, and displays a virtual three-dimensional space on the display screen. The program executes a virtual surface setting step (S53), a two-dimensional coordinate detection step (S54), a virtual surface movement step (S54), a three-dimensional space movement step (S59), and a display control step (S57). Let Virtual plane setting step sets a virtual plane in a virtual three-dimensional space. In the two-dimensional coordinate detection step, two-dimensional coordinates input from the pointing device are detected. Virtual plane moving step, on the basis of the two-dimensional coordinate two-dimensional coordinate detection step detects, moves a predetermined object on the virtual plane. 3-dimensional space within the moving step, in response to a predetermined input condition, moves the virtual three-dimensional space away an object from the virtual plane. In the display control step, an object that is moved by the movement step on the virtual plane or the movement step in the three-dimensional space is expressed in the virtual three-dimensional space and displayed on the display screen. The pointing device is an input device that designates two-dimensional coordinates on the display screen, and is realized by, for example, a touch panel, a mouse, a track pad, or a track ball. A coordinate system used in each input device is a touch panel coordinate system or a screen coordinate system.

第2の発明は、表示画面、ポインティングデバイス、仮想面設定手段、2次元座標検出手段、仮想面上移動手段、3次元空間内移動手段、および表示制御手段を備える入力処理装置である。表示画面は、仮想3次元空間を表示する。ポインティングデバイスは、表示画面上に対応する2次元座標を入力する。仮想面設定手段は、仮想3次元空間内に仮想面を設定する。2次元座標検出手段は、ポインティングデバイスから入力された2次元座標を検出する。仮想面上移動手段は、2次元座標検出手段が検出した2次元座標に基づいて、仮想面所定のオブジェクトを移動させる。3次元空間内移動手段は、所定の入力条件に応じて、オブジェクトを仮想面から離れた仮想3次元空間内を移動させる。表示制御手段は、仮想面上移動手段または3次元空間内移動手段によって移動するオブジェクトを仮想3次元空間内で表現して表示画面に表示する。 A second invention is an input processing apparatus including a display screen, a pointing device, a virtual plane setting unit, a two-dimensional coordinate detection unit, a virtual plane moving unit, a three-dimensional space moving unit, and a display control unit. The display screen displays a virtual three-dimensional space. The pointing device inputs corresponding two-dimensional coordinates on the display screen. Virtual plane setting means sets a virtual plane in a virtual three-dimensional space. The two-dimensional coordinate detection means detects a two-dimensional coordinate input from the pointing device. Virtual-surface moving means, based on the 2-dimensional coordinates are two-dimensional coordinate detection means has detected, it is moved a predetermined object on the virtual plane. 3D space moving means, in response to a predetermined input condition, moves the virtual three-dimensional space away an object from the virtual plane. The display control means expresses the object moved by the moving means on the virtual plane or the moving means in the three-dimensional space in the virtual three-dimensional space and displays it on the display screen.

上記第1の発明によれば、表示画面上の2次元座標を入力するポインティングデバイスからの入力座標に応じて仮想面上をオブジェクトが移動し、所定の入力条件に応じて仮想面から仮想3次元空間内に当該オブジェクトが移動するような入力制御を実現できる。 According to the first aspect, the upper virtual plane object is moved in response to the input coordinate from a pointing device for inputting 2-dimensional coordinates on the display screen, the virtual from virtual plane in response to a predetermined input condition It is possible to realize input control such that the object moves in the three-dimensional space.

また、本発明の入力制御装置によれば、上述した入力制御プログラムと同様の効果を得ることができる。   Further, according to the input control device of the present invention, the same effect as the above-described input control program can be obtained.

図面を参照して、本発明の一実施形態に係るゲームプログラムを実行するゲーム装置について説明する。なお、図1は、本発明のゲームプログラムを実行するゲーム装置1の外観図である。ここでは、ゲーム装置1の一例として、携帯ゲーム装置を示す。また、以下の説明で用いるゲームプログラムが本発明の入力処理プログラムの一例であり、ゲーム装置1が本発明の入力処理装置の一例である。   A game device that executes a game program according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is an external view of a game apparatus 1 that executes the game program of the present invention. Here, a portable game device is shown as an example of the game device 1. The game program used in the following description is an example of the input processing program of the present invention, and the game apparatus 1 is an example of the input processing apparatus of the present invention.

図1において、本実施形態のゲーム装置1は、2つの液晶表示器(LCD)11および12を所定の配置位置となるように、ハウジング18に収納して構成される。具体的には、第1液晶表示器(以下、「LCD」という)11および第2LCD12を互いに上下に配置して収納する場合は、ハウジング18が下部ハウジング18aおよび上部ハウジング18bから構成され、上部ハウジング18bが下部ハウジング18aの上辺の一部で回動自在に支持される。上部ハウジング18bは、第1LCD11の平面形状よりも少し大きな平面形状を有し、一方主面から第1LCD11の表示画面を露出するように開口部が形成される。下部ハウジング18aは、その平面形状が上部ハウジング18bよりも横長に選ばれ、横方向の略中央部に第2LCD12の表示画面を露出する開口部が形成され、第2LCD12を挟む何れか一方にスピーカ15の音抜き孔が形成されるとともに、第2LCD12を挟む左右に操作スイッチ部14が装着される。   In FIG. 1, the game apparatus 1 of the present embodiment is configured by housing two liquid crystal displays (LCD) 11 and 12 in a housing 18 so as to be in a predetermined arrangement position. Specifically, in the case where the first liquid crystal display (hereinafter referred to as “LCD”) 11 and the second LCD 12 are placed one above the other, the housing 18 includes a lower housing 18a and an upper housing 18b. 18b is rotatably supported by a part of the upper side of the lower housing 18a. The upper housing 18b has a planar shape slightly larger than the planar shape of the first LCD 11, and an opening is formed so as to expose the display screen of the first LCD 11 from one main surface. The lower housing 18a has a planar shape that is longer than that of the upper housing 18b, an opening that exposes the display screen of the second LCD 12 is formed in a substantially central portion in the horizontal direction, and the speaker 15 is sandwiched between either of the two LCDs 12. The sound switch hole 14 is formed, and the operation switch unit 14 is mounted on the left and right sides of the second LCD 12.

操作スイッチ部14は、第2LCD12の右横における下部ハウジング18aの一方主面に装着される動作スイッチ(Aボタン)14aおよび動作スイッチ(Bボタン)14bと、第2LCD12の左横における下部ハウジング18aの一方主面に装着される方向指示スイッチ(十字キー)14cと、スタートスイッチ14dと、セレクトスイッチ14eと、側面スイッチ14fおよび14gとを含む。動作スイッチ14aおよび14bは、例えばサッカーゲーム等のスポーツゲームにおいてはパスやシュートを行う等の指示、アクションゲームにおいてはジャンプ、パンチ、武器を動かす等の指示、ロールプレイングゲーム(RPG)やシミュレーションRPGにおいてはアイテムの取得、武器またはコマンドの選択決定等の指示入力に使用される。方向指示スイッチ14cは、プレイヤによって操作スイッチ部14を用いて操作可能なプレイヤオブジェクト(またはプレイヤキャラクタ)の移動方向を指示したり、カーソルの移動方向を指示したりする等のゲーム画面における方向指示に用いられる。側面スイッチ(Lボタン)14fおよび側面スイッチ(Rボタン)14gは、下部ハウジング18aにおける上部面(上部側面)の左右に設けられる。また、必要に応じて、動作スイッチをさらに追加してもかまわない。   The operation switch unit 14 includes an operation switch (A button) 14a and an operation switch (B button) 14b mounted on one main surface of the lower housing 18a on the right side of the second LCD 12, and a lower housing 18a on the left side of the second LCD 12. On the other hand, it includes a direction indicating switch (cross key) 14c mounted on the main surface, a start switch 14d, a select switch 14e, and side switches 14f and 14g. The operation switches 14a and 14b are, for example, instructions such as passing and shooting in a sports game such as a soccer game, instructions such as jumping, punching and moving a weapon in an action game, role playing games (RPG) and simulation RPG. Is used to input instructions for obtaining items, selecting weapons or commands, etc. The direction indicating switch 14c is used to indicate a direction on the game screen, such as instructing the moving direction of a player object (or player character) that can be operated by the player using the operation switch unit 14, or instructing the moving direction of the cursor. Used. The side switch (L button) 14f and the side switch (R button) 14g are provided on the left and right of the upper surface (upper side surface) of the lower housing 18a. Further, if necessary, an operation switch may be further added.

また、第2LCD12の上面には、本発明の入力装置の一例としてタッチパネル13(図1における破線領域)が装着される。タッチパネル13は、例えば、抵抗膜方式、光学式(赤外線方式)、静電容量結合式の何れの種類でもよく、その上面をスタイラス16(または指でも可)で押圧操作、移動操作、または撫でる操作をしたとき、スタイラス16の座標位置を検出して座標データを出力する2次元ポインティングデバイスである。   Further, on the upper surface of the second LCD 12, a touch panel 13 (broken area in FIG. 1) is mounted as an example of the input device of the present invention. The touch panel 13 may be, for example, any type of resistive film type, optical type (infrared type), and capacitive coupling type, and the upper surface of the touch panel 13 is pressed, moved, or stroked with a stylus 16 (or a finger). This is a two-dimensional pointing device that detects the coordinate position of the stylus 16 and outputs coordinate data.

上部ハウジング18bの側面近傍には、必要に応じてタッチパネル13を操作するスタイラス16を収納するための収納孔(図1における二点破線領域)が形成される。この収納孔には、スタイラス16が収納される。下部ハウジング18aの側面の一部には、ゲームプログラムを記憶したメモリ(例えば、ROM)を内蔵したゲームカートリッジ17(以下、単にカートリッジ17と記載する)を着脱自在に装着するためのカートリッジ挿入部(図1における一点破線領域)が形成される。カートリッジ17は、ゲームプログラムを記憶する情報記憶媒体であり、例えば、ROMまたはフラッシュメモリのような不揮発性半導体メモリが用いられる。カートリッジ挿入部の内部には、カートリッジ17と電気的に接続するためのコネクタ(図2参照)が内蔵される。さらに、下部ハウジング18a(または上部ハウジング18bでも可)には、CPU等の各種電子部品を実装した電子回
路基板が収納される。なお、ゲームプログラムを記憶する情報記憶媒体としては、上記不揮発性半導体メモリに限らず、CD−ROM、DVD、あるいはそれらに類する光学式ディスク状記憶媒体でもよい。
In the vicinity of the side surface of the upper housing 18b, a storage hole (a two-dot broken line region in FIG. 1) for storing the stylus 16 that operates the touch panel 13 as necessary is formed. The stylus 16 is stored in the storage hole. In a part of the side surface of the lower housing 18a, a cartridge insertion portion (for inserting a game cartridge 17 (hereinafter simply referred to as a cartridge 17) having a built-in memory (for example, ROM) storing a game program in a detachable manner. A one-dot broken line region in FIG. 1) is formed. The cartridge 17 is an information storage medium for storing a game program, and for example, a nonvolatile semiconductor memory such as a ROM or a flash memory is used. A connector (see FIG. 2) for electrical connection with the cartridge 17 is built in the cartridge insertion portion. Furthermore, an electronic circuit board on which various electronic components such as a CPU are mounted is accommodated in the lower housing 18a (or the upper housing 18b). The information storage medium for storing the game program is not limited to the non-volatile semiconductor memory, but may be a CD-ROM, a DVD, or an optical disk storage medium similar to them.

図2は、ゲーム装置1のブロック図である。図2において、ハウジング18に収納される電子回路基板20には、CPUコア21が実装される。CPUコア21には、所定のバスを介して、コネクタ28が接続されるとともに、入出力インターフェース(I/F)回路27、第1グラフィック処理ユニット(第1GPU)24、第2グラフィック処理ユニット(第2GPU)26、WRAM22、およびLCDコントローラ29が接続される。コネクタ28には、カートリッジ17が着脱自在に接続される。カートリッジ17は、ゲームプログラムを格納するための記憶媒体であり、具体的には、ゲームプログラムを記憶するROM171とバックアップデータを書き換え可能に記憶するRAM172とを搭載する。カートリッジ17のROM171に記憶されたゲームプログラムは、WRAM22にロードされ、当該WRAM22にロードされたゲームプログラムがCPUコア21によって実行される。CPUコア21は、ゲームプログラムを実行して得られる一時的なデータや画像を生成するためのデータをWRAM22に記憶する。I/F回路27には、操作スイッチ部14およびタッチパネル13が接続されるとともに、スピーカ15が接続される。   FIG. 2 is a block diagram of the game apparatus 1. In FIG. 2, a CPU core 21 is mounted on an electronic circuit board 20 accommodated in a housing 18. A connector 28 is connected to the CPU core 21 via a predetermined bus, and an input / output interface (I / F) circuit 27, a first graphic processing unit (first GPU) 24, and a second graphic processing unit (first graphic processor unit). 2GPU) 26, WRAM 22, and LCD controller 29 are connected. The cartridge 17 is detachably connected to the connector 28. The cartridge 17 is a storage medium for storing a game program. Specifically, the cartridge 17 includes a ROM 171 for storing the game program and a RAM 172 for storing backup data in a rewritable manner. The game program stored in the ROM 171 of the cartridge 17 is loaded into the WRAM 22, and the game program loaded into the WRAM 22 is executed by the CPU core 21. The CPU core 21 stores temporary data obtained by executing the game program and data for generating an image in the WRAM 22. The I / F circuit 27 is connected to the operation switch unit 14 and the touch panel 13 and to the speaker 15.

第1GPU24には、第1ビデオRAM(第1VRAM)23が接続され、第2GPU26には、第2ビデオRAM(第2VRAM)25が接続される。第1GPU24は、CPUコア21からの指示に応じて、WRAM22に記憶されている、画像を生成するためのデータに基づいて第1のゲーム画像を生成し、第1VRAM23に描画(格納)する。第2GPU26は、CPUコア21からの指示に応じて、WRAM22に記憶されている、画像を生成するためのデータに基づいて第2のゲーム画像を生成し、第2VRAM25に描画(格納)する。第1VRAM23および第2VRAM25はLCDコントローラ29に接続される。   A first video RAM (first VRAM) 23 is connected to the first GPU 24, and a second video RAM (second VRAM) 25 is connected to the second GPU 26. In response to an instruction from the CPU core 21, the first GPU 24 generates a first game image based on data for generating an image stored in the WRAM 22 and draws (stores) it in the first VRAM 23. In response to an instruction from the CPU core 21, the second GPU 26 generates a second game image based on data for generating an image stored in the WRAM 22, and draws (stores) it in the second VRAM 25. The first VRAM 23 and the second VRAM 25 are connected to the LCD controller 29.

LCDコントローラ29は、レジスタ291を含む。レジスタ291は、CPUコア21からの指示に応じて0または1の値を記憶する。LCDコントローラ29は、レジスタ291の値が0の場合は、第1VRAM23に描画されたゲーム画像を第1LCD11に出力し、第2VRAM25に描画されたゲーム画像を第2LCD12に出力する。また、レジスタ291の値が1の場合は、第1VRAM23に描画されたゲーム画像を第2LCD12に出力し、第2VRAM25に描画されたゲーム画像を第1LCD11に出力する。   The LCD controller 29 includes a register 291. The register 291 stores a value of 0 or 1 according to an instruction from the CPU core 21. When the value of the register 291 is 0, the LCD controller 29 outputs the game image drawn in the first VRAM 23 to the first LCD 11 and outputs the game image drawn in the second VRAM 25 to the second LCD 12. When the value of the register 291 is 1, the game image drawn in the first VRAM 23 is output to the second LCD 12, and the game image drawn in the second VRAM 25 is output to the first LCD 11.

I/F回路27は、操作スイッチ部14、タッチパネル13、およびスピーカ15などの外部入出力装置とCPUコア21との間のデータの受け渡しを行う回路である。タッチパネル13(タッチパネル用のデバイスドライバを含む)は、第2VRAM25の座標系に対応する座標系を有し、スタイラス16によって入力(指示)された位置に対応する位置座標のデータを出力するものである。なお、本実施例では、第2LCD12の表示画面の解像度は256dot×192dotであり、タッチパネル13の検出精度も第2LCD12の表示画面に対応した256dot×192dotとして説明するが、タッチパネル13の検出精度は第2LCD12の表示画面の解像度よりも低いものであってもよいし、高いものであってもよい。   The I / F circuit 27 is a circuit that transfers data between the CPU core 21 and an external input / output device such as the operation switch unit 14, the touch panel 13, and the speaker 15. The touch panel 13 (including a touch panel device driver) has a coordinate system corresponding to the coordinate system of the second VRAM 25 and outputs position coordinate data corresponding to the position input (instructed) by the stylus 16. . In this embodiment, the resolution of the display screen of the second LCD 12 is 256 dots × 192 dots, and the detection accuracy of the touch panel 13 is described as 256 dots × 192 dots corresponding to the display screen of the second LCD 12, but the detection accuracy of the touch panel 13 is the first. The resolution of the display screen of the 2LCD 12 may be lower or higher.

以下、図3および図4を参照して、上記ゲーム装置1によって実行されるゲームプログラムによるゲーム処理の流れを、具体的な表示画面例を参照しながら説明する。なお、本実施例では、ゲーム装置1によって実行されるゲームがゲーム空間にアイテムを投げ入れるゲームの場合について説明するが、本発明はこのようなゲームに限定されるものではな
い。なお、図3は、ゲーム空間に投入するためのアイテムIの初期位置を決定する様子を示す第2LCD12の表示画面例である。図4(a)は、アイテムIをゲーム空間に投げ入れる操作の様子を示す第2LCD12の表示画面例である。図4(b)は、投げ入れられたアイテムIのゲーム空間内における移動動作の様子を示す第2LCD12の表示画面例である。
Hereinafter, with reference to FIG. 3 and FIG. 4, the flow of the game process by the game program executed by the game apparatus 1 will be described with reference to a specific display screen example. In addition, although a present Example demonstrates the case where the game performed by the game device 1 is a game which throws an item into game space, this invention is not limited to such a game. FIG. 3 is an example of a display screen on the second LCD 12 showing a state in which the initial position of the item I to be inserted into the game space is determined. FIG. 4A is an example of a display screen on the second LCD 12 showing an operation of throwing the item I into the game space. FIG. 4B is an example of a display screen on the second LCD 12 showing the state of movement of the thrown item I in the game space.

図3において、第2LCD12には仮想3次元ゲーム空間の様子が表示され、当該ゲーム空間に投入されるアイテムI(図3ではフライングディスクが示されている)が表示される。後述により明らかとなるが、第2LCD12には所定のカメラ視点に基づいた視体積に応じたゲーム空間が表示され、アイテムIは、当該視体積内に設定された仮想投影面に投影されている。プレイヤは、タッチパネル13を用いて第2LCD12に表示されたアイテムIの位置をタッチ操作して、ゲーム空間内においてアイテムIを移動させることができる。具体的には、プレイヤは、タッチパネル13を用いて第2LCD12に表示されたアイテムIをドラッグするタッチ操作(第2LCD12上でアイテムIと重なったタッチパネル13をタッチ操作し、そのままの状態でタッチ操作位置を移動させる)を行うと、タッチパネル13からの入力座標に応じた仮想投影面の位置にアイテムIが移動する。例えば、図3では、プレイヤがアイテムIを図示A方向に移動させた一例を示している。つまり、プレイヤは、アイテムIに対してドラッグするタッチ操作を行うことによって、アイテムIを仮想投影面上で移動させることができる。   In FIG. 3, the state of the virtual three-dimensional game space is displayed on the second LCD 12, and an item I (a flying disc is shown in FIG. 3) to be inserted into the game space is displayed. As will be described later, a game space corresponding to the viewing volume based on a predetermined camera viewpoint is displayed on the second LCD 12, and the item I is projected onto a virtual projection plane set in the viewing volume. The player can move the item I in the game space by touching the position of the item I displayed on the second LCD 12 using the touch panel 13. Specifically, the player performs a touch operation for dragging the item I displayed on the second LCD 12 using the touch panel 13 (the touch operation on the touch panel 13 overlapping the item I on the second LCD 12 is performed, and the touch operation position is left as it is. Is moved), the item I moves to the position of the virtual projection plane corresponding to the input coordinates from the touch panel 13. For example, FIG. 3 shows an example in which the player moves the item I in the direction A in the figure. That is, the player can move the item I on the virtual projection plane by performing a touch operation of dragging the item I.

プレイヤがアイテムIをドラッグするタッチ操作を行った後、タッチパネル13に対するタッチ操作を終了(つまり、タッチ操作しているスタイラス16等をタッチパネル13から離す)した場合、アイテムIが上記仮想投影面からゲーム空間内に投げ入れられる。図4(a)に示すように、プレイヤがアイテムIを図示B方向にドラッグするタッチ操作を行い、図示C点で当該タッチ操作を終了してスタイラス16等をタッチパネル13から離したとする。この場合、タッチ操作を終了する直前のタッチパネル13からの2次元座標情報に基づいて、アイテムIが上記仮想投影面からゲーム空間内に投げ入れられる。図4(b)に示すように、図示C点でタッチ操作を終了する直前のタッチパネル13による2次元座標情報(ベクトルB)に基づいて、仮想3次元ゲーム空間に設定された3次元座標情報(移動ベクトルD)が算出され、当該移動ベクトルDに基づいてアイテムIが仮想投影面を離れてゲーム空間内を移動する。   After the player performs the touch operation of dragging the item I, when the touch operation on the touch panel 13 is terminated (that is, the touched stylus 16 or the like is released from the touch panel 13), the item I is played from the virtual projection plane. It is thrown into the space. As shown in FIG. 4A, it is assumed that the player performs a touch operation of dragging the item I in the B direction in the figure, ends the touch operation at the point C in the figure, and releases the stylus 16 and the like from the touch panel 13. In this case, based on the two-dimensional coordinate information from the touch panel 13 immediately before the end of the touch operation, the item I is thrown into the game space from the virtual projection plane. As shown in FIG. 4B, based on the two-dimensional coordinate information (vector B) by the touch panel 13 immediately before the touch operation at the point C shown in the figure, the three-dimensional coordinate information (vector B) set in the virtual three-dimensional game space ( A movement vector D) is calculated, and based on the movement vector D, the item I leaves the virtual projection plane and moves in the game space.

次に、図5を参照して、第2LCD12に表示される仮想3次元ゲーム空間および仮想投影面について説明する。なお、図5は、仮想3次元ゲーム空間および仮想投影面を説明するための概念図である。   Next, the virtual three-dimensional game space and the virtual projection plane displayed on the second LCD 12 will be described with reference to FIG. FIG. 5 is a conceptual diagram for explaining the virtual three-dimensional game space and the virtual projection plane.

図5において、カメラ視点Pを基準として手前側クリップ面S1および奥側クリップ面S2が設定される。そして、第2LCD12には、仮想3次元ゲーム空間のうち、手前側クリップ面S1および奥側クリップ面S2で挟まれた視体積に設定される空間が表示される。仮想投影面S3は、上記視体積内に設定され、例えば手前側クリップ面S1に対して平行に配置される。そして、手前側クリップ面S1においてタッチパネル13のタッチパネル座標系が設定され、タッチパネル13からの入力座標が仮想投影面S3に投影される。なお、説明を簡単にするためにタッチパネル座標系が設定される手前側クリップ面S1と仮想投影面S3とが互いに平行の平面とするが、手前側クリップ面S1と仮想投影面S3とが平行でなくても入力座標の投影を同様に行うことができることは言うまでもない。また、仮想投影面S3が平面でなく球面等であっても入力座標の投影を同様に行うことができることは言うまでもない。   In FIG. 5, the near-side clip surface S1 and the back-side clip surface S2 are set with the camera viewpoint P as a reference. Then, the second LCD 12 displays a space set in the visual volume sandwiched between the near-side clip surface S1 and the back-side clip surface S2 in the virtual three-dimensional game space. The virtual projection plane S3 is set within the viewing volume, and is arranged in parallel with, for example, the near-side clip plane S1. Then, the touch panel coordinate system of the touch panel 13 is set on the near-side clip plane S1, and the input coordinates from the touch panel 13 are projected onto the virtual projection plane S3. In order to simplify the explanation, the near-side clip surface S1 and the virtual projection surface S3 on which the touch panel coordinate system is set are parallel to each other, but the near-side clip surface S1 and the virtual projection surface S3 are parallel to each other. Needless to say, the projection of the input coordinates can be performed in the same manner even without them. It goes without saying that the input coordinates can be similarly projected even if the virtual projection surface S3 is not a flat surface but a spherical surface or the like.

次に、図6および図7を参照して、2次元座標で示されるタッチパネル座標系から3次元座標で示されるゲーム空間座標系への座標変換について説明する。図6(a)は、タッ
チパネル13に設定されたタッチパネル座標系に設定されるベクトルv(vx、vy)を示す概念図である。図6(b)は、仮想3次元ゲーム空間に設定された3次元座標に設定されるベクトルV(Vx、Vy、Vz)を示す概念図である。図7は、座標変換の際に用いられる定数a〜fの設定例である。
Next, with reference to FIGS. 6 and 7, coordinate conversion from a touch panel coordinate system indicated by two-dimensional coordinates to a game space coordinate system indicated by three-dimensional coordinates will be described. FIG. 6A is a conceptual diagram showing a vector v (vx, vy) set in the touch panel coordinate system set in the touch panel 13. FIG. 6B is a conceptual diagram showing a vector V (Vx, Vy, Vz) set to the three-dimensional coordinates set in the virtual three-dimensional game space. FIG. 7 is an example of setting constants a to f used for coordinate conversion.

図6(a)において、タッチパネル13に対してタッチパネル座標系における点q1(x1、y1)から点q2(x2、y2)までタッチ操作されたとき、点q1からq2まで結ぶベクトルv(vx、vy)が得られる。ここで、
vx=x2−x1
vy=y2−y1
である。
In FIG. 6A, when a touch operation is performed on the touch panel 13 from a point q1 (x1, y1) to a point q2 (x2, y2) in the touch panel coordinate system, a vector v (vx, vy) connecting the points q1 to q2 is operated. ) Is obtained. here,
vx = x2-x1
vy = y2-y1
It is.

そして、本実施例では、プレイヤがタッチパネル13に対して所定条件と一致する操作を行った際、当該操作を行う直前に設定された上記2次元ベクトルv(vx、vy)を座標変換して図6(b)に示すような3次元ベクトルV(Vx、Vy、Vz)を算出する。ここで、2次元ベクトルv(vx、vy)から3次元ベクトルV(Vx、Vy、Vz)への座標変換は、   In the present embodiment, when the player performs an operation on the touch panel 13 that matches the predetermined condition, the two-dimensional vector v (vx, vy) set immediately before the operation is coordinate-transformed. A three-dimensional vector V (Vx, Vy, Vz) as shown in FIG. Here, the coordinate transformation from the two-dimensional vector v (vx, vy) to the three-dimensional vector V (Vx, Vy, Vz) is

Figure 0004724740
によって行われる。上記式に用いられている定数a〜fは、図7に示すようにゲーム空間に投入するアイテム毎に設定されている。例えば、アイテムIがフライングディスクの場合、定数a=1.0、b=0、c=0、d=0.5、e=0、f=2.0に設定されており、座標変換後ベクトルV(Vx、Vy、Vz)は、Vx=vx、Vy=0.5vy、Vz=2vyによって算出される。このように、本実施例の座標変換では、2次元座標系で設定される2点間の移動量(ベクトルv)として示される2軸それぞれに対する数値を用いて、3次元座標系で設定される移動量(ベクトルV)の3軸それぞれに対する数値が算出される。また、ゲーム空間に投入するアイテム毎に座標変換する定数が異なるため、座標変換においてアイテム毎の特性を表すことができる。
Figure 0004724740
Is done by. The constants a to f used in the above formula are set for each item to be input into the game space as shown in FIG. For example, when the item I is a flying disc, constants a = 1.0, b = 0, c = 0, d = 0.5, e = 0, f = 2.0 are set, and the vector after coordinate conversion is set. V (Vx, Vy, Vz) is calculated by Vx = vx, Vy = 0.5 vy, and Vz = 2 vy. As described above, in the coordinate conversion of this embodiment, the value is set in the three-dimensional coordinate system using the numerical values for the two axes shown as the movement amount (vector v) between the two points set in the two-dimensional coordinate system. Numerical values for the three axes of the movement amount (vector V) are calculated. In addition, since the constant for coordinate conversion is different for each item put into the game space, the characteristics for each item can be expressed in the coordinate conversion.

次に、図8および図9を用いて、アイテムIが仮想投影面を離れて仮想ゲーム空間内を移動する際の移動軌跡の算出について説明する。なお、図8は、アイテムIに初期設定される傾斜角度に応じたアイテムIの画面表示例である。図9は、アイテムIが仮想投影面を離れて仮想ゲーム空間内を移動する際に設定される移動ベクトルおよび法線ベクトルの概念図である。   Next, the calculation of the movement trajectory when the item I leaves the virtual projection plane and moves in the virtual game space will be described with reference to FIGS. FIG. 8 is a screen display example of the item I corresponding to the inclination angle that is initially set for the item I. FIG. 9 is a conceptual diagram of movement vectors and normal vectors that are set when the item I leaves the virtual projection plane and moves in the virtual game space.

図8において、上述したようにプレイヤがタッチパネル13を用いて第2LCD12に表示されたアイテムIをドラッグするタッチ操作を行うと、タッチパネル13からの入力座標に応じた仮想投影面の位置にアイテムIが移動する。そして、タッチパネル13に対する図示xm方向(図8における横方向)の位置に応じて、アイテムIに初期設定される傾斜角度θが設定される。具体的には、タッチパネル13の中央をxm=0として、右方向を+xm、左方向を−xmとする。そして、傾斜角度θが
θ=jxm+k(j、kは定数)
で求められる。なお、タッチパネル13に対して縦方向となる図8における上方向を傾斜角度θ=0°とする。そして、第2LCD12には、傾斜角度θにアイテムIの法線方向を合わせて表示される。すなわち、アイテムIは、タッチパネル13に対する横方向の位置に応じてその法線方向を傾斜させて表示される。そして、初期設定されたアイテムIの
傾斜角度θに基づいて、法線ベクトルn=(sinθ、cosθ、0)が初期設定される。
In FIG. 8, when the player performs a touch operation by dragging the item I displayed on the second LCD 12 using the touch panel 13 as described above, the item I is placed at the position of the virtual projection plane corresponding to the input coordinates from the touch panel 13. Moving. Then, the inclination angle θ that is initially set for the item I is set according to the position in the illustrated xm direction (lateral direction in FIG. 8) with respect to the touch panel 13. Specifically, the center of the touch panel 13 is xm = 0, the right direction is + xm, and the left direction is -xm. And the inclination angle θ is θ = jxm + k (j and k are constants)
Is required. In addition, the upward direction in FIG. Then, the second LCD 12 is displayed with the normal direction of the item I aligned with the inclination angle θ. That is, the item I is displayed with its normal direction inclined according to the position in the lateral direction with respect to the touch panel 13. Then, the normal vector n = (sin θ, cos θ, 0) is initialized based on the initially set inclination angle θ of the item I.

上述したように、アイテムIが仮想投影面を離れて3次元ゲーム空間内に投げ入れる操作をされた後、当該アイテムIは、ゲーム空間を移動ベクトルおよび法線ベクトルに基づいて移動する。図9において、アイテムIに設定される移動ベクトルおよび法線ベクトルは、ゲーム処理を行う1フレーム毎に算出される。具体的には、新たなフレーム(i+1)における法線ベクトルn(i+1)は、直前のフレーム(i)で設定された法線ベクトルn(i)、移動ベクトルV(i)、および定数αを用いて、   As described above, after the item I leaves the virtual projection plane and is thrown into the three-dimensional game space, the item I moves in the game space based on the movement vector and the normal vector. In FIG. 9, the movement vector and normal vector set for item I are calculated for each frame in which the game process is performed. Specifically, the normal vector n (i + 1) in the new frame (i + 1) includes the normal vector n (i), the movement vector V (i), and the constant α set in the previous frame (i). make use of,

Figure 0004724740
で算出される。また、新たなフレーム(i+1)における移動ベクトルV(i+1)は、直前のフレーム(i)で設定された法線ベクトルn(i)、移動ベクトルV(i)、重力ベクトルg、および定数βを用いて、
Figure 0004724740
Is calculated by In addition, the movement vector V (i + 1) in the new frame (i + 1) includes the normal vector n (i), the movement vector V (i), the gravity vector g, and the constant β set in the immediately preceding frame (i). make use of,

Figure 0004724740
で算出される。
Figure 0004724740
Is calculated by

次に、図10および図11を参照して、本発明のゲームプログラムによってゲーム装置1で実行されるタッチパネル13から入力される情報に基づいた処理について説明する。なお、図10および図11は、当該ゲームプログラムを実行することによってゲーム装置1が処理する動作を示すフローチャートである。なお、これらの処理を実行するためのプログラムは、ROM171に格納されたゲームプログラムに含まれており、ゲーム装置1の電源がオンになったときに、ROM171からWRAM22に読み出されて、CPUコア21によって実行される。   Next, with reference to FIG. 10 and FIG. 11, processing based on information input from the touch panel 13 executed on the game apparatus 1 by the game program of the present invention will be described. FIG. 10 and FIG. 11 are flowcharts showing operations performed by the game apparatus 1 by executing the game program. A program for executing these processes is included in the game program stored in the ROM 171 and is read from the ROM 171 to the WRAM 22 when the power of the game apparatus 1 is turned on. 21 is executed.

まず、ゲーム装置1の電源(図示せず)がONされると、CPUコア21によってブートプログラム(図示せず)が実行され、これによりカートリッジ17に格納されているゲームプログラムがWRAM22にロードされる。当該ロードされたゲームプログラムがCPUコア21に実行されることによって、図10および図11に示すステップ(図10および図11では「S」と略称する)が実行される。なお、上記ゲームプログラムを実行することによって、当該ゲームプログラムに応じたゲーム画像などが第1LCD11および第2LCD12に描画されるが、ゲーム内容についての詳細な説明を省略し、ここではタッチパネル13から入力される情報に基づいてアイテムが移動する処理について詳述する。   First, when a power source (not shown) of the game apparatus 1 is turned on, a boot program (not shown) is executed by the CPU core 21, and thereby a game program stored in the cartridge 17 is loaded into the WRAM 22. . When the loaded game program is executed by the CPU core 21, the steps shown in FIGS. 10 and 11 (abbreviated as “S” in FIGS. 10 and 11) are executed. By executing the game program, a game image or the like corresponding to the game program is drawn on the first LCD 11 and the second LCD 12, but a detailed description of the game content is omitted, and is input from the touch panel 13 here. A process for moving an item based on the information is described in detail.

図10において、CPUコア21がゲーム処理を開始すると各種の初期設定をした後、ゲームを開始する。そして、CPUコア21は、アイテム指示フラグがオンしているか否かを判断する(ステップ51)。そして、CPUコア21は、アイテム指示フラグがオンであれば処理を次のステップ52に進め、アイテム指示フラグがオフであれば処理を次のステップ58に進める。ここで、アイテム指示フラグは、プレイヤがタッチパネル13を
用いてアイテムI(図3参照)をタッチしているか否かを区別するフラグであり、プレイヤがアイテムIをタッチしているときにオンに設定される。
In FIG. 10, when the CPU core 21 starts the game process, the game is started after various initial settings are made. Then, the CPU core 21 determines whether or not the item instruction flag is on (step 51). Then, the CPU core 21 proceeds to the next step 52 if the item instruction flag is on, and proceeds to the next step 58 if the item instruction flag is off. Here, the item instruction flag is a flag for distinguishing whether or not the player is touching the item I (see FIG. 3) using the touch panel 13, and is set to ON when the player is touching the item I. Is done.

ステップ52において、CPUコア21は、タッチパネル13から入力があるか否かを判断する。そして、CPUコア21は、タッチパネル13から入力がある場合に処理を次のステップ53に進め、タッチパネル13からの入力がない場合に処理を次のステップ71に進める。   In step 52, the CPU core 21 determines whether or not there is an input from the touch panel 13. Then, the CPU core 21 proceeds to the next step 53 when there is an input from the touch panel 13, and proceeds to the next step 71 when there is no input from the touch panel 13.

ステップ53において、CPUコア21は、仮想3次元ゲーム空間内に仮想投影面S3(図9参照)を設定し、処理を次のステップに進める。なお、仮想投影面S3については、上述したとおりであるので、ここでは詳細な説明を省略する。   In step 53, the CPU core 21 sets a virtual projection plane S3 (see FIG. 9) in the virtual three-dimensional game space, and advances the processing to the next step. Since the virtual projection plane S3 is as described above, detailed description thereof is omitted here.

次に、CPUコア21は、タッチパネル13からの入力座標を検出し、検出した座標に対応する仮想投影面S3上の2次元座標位置に、アイテムIの表示位置を合わせる(ステップ54;図3)。そして、CPUコア21は、入力座標のx座標値(タッチパネル13の横方向の座標;図8に示すxm方向)に基づいて、アイテムIの傾き角度θを算出する(ステップ55;図8)。そして、CPUコア21は、上記ステップ55で算出された傾き角度θに基づいて、アイテムIの初期設定における法線ベクトルnを算出する(ステップ56)。ここで、CPUコア21は、アイテムIの法線ベクトルnをn=(sinθ、cosθ、0)で算出する。そして、CPUコア21は、ステップ55で算出された傾き角度θに応じてアイテムIを傾斜させて、第2LCD12に対するアイテム表示制御処理を行い(ステップ57;図8)、ゲームを継続する場合(ステップ63でNo)に上記ステップ51に戻って処理を繰り返す。これらステップ51〜57をCPUコア21が繰り返すことによって、プレイヤのタッチパネル13のタッチ操作に応じてアイテムIが仮想投影面S3上を移動する。   Next, the CPU core 21 detects the input coordinates from the touch panel 13, and matches the display position of the item I with the two-dimensional coordinate position on the virtual projection plane S3 corresponding to the detected coordinates (step 54; FIG. 3). . Then, the CPU core 21 calculates the inclination angle θ of the item I based on the x coordinate value of the input coordinates (the horizontal coordinate of the touch panel 13; the xm direction shown in FIG. 8) (step 55; FIG. 8). Then, the CPU core 21 calculates the normal vector n in the initial setting of the item I based on the inclination angle θ calculated in step 55 (step 56). Here, the CPU core 21 calculates the normal vector n of the item I by n = (sin θ, cos θ, 0). Then, the CPU core 21 performs the item display control process for the second LCD 12 by tilting the item I according to the tilt angle θ calculated in step 55 (step 57; FIG. 8), and continues the game (step) The process returns to step 51 and the process is repeated. When the CPU core 21 repeats these steps 51 to 57, the item I moves on the virtual projection plane S3 in accordance with the touch operation of the touch panel 13 by the player.

一方、図11を参照して、アイテム指示フラグがオン(ステップ51でYes)でタッチパネル13からの入力がない(ステップ52でNo)の場合の処理について説明する。ステップ52でタッチパネル13からの入力がないと判断した場合、CPUコア21は、直前の2フレームにおいてタッチパネル13からの入力があったか否かを判断する(ステップ71)。そして、直前の2フレームにおいてタッチパネル13からの入力があった場合、CPUコア21は、処理を次のステップ72に進める。一方、直前の2フレームの何れかにおいてタッチパネル13からの入力がなかった場合、CPUコア21は、処理を次のステップ63に進める。   On the other hand, with reference to FIG. 11, a process when the item instruction flag is on (Yes in Step 51) and there is no input from the touch panel 13 (No in Step 52) will be described. When determining in step 52 that there is no input from the touch panel 13, the CPU core 21 determines whether or not there is an input from the touch panel 13 in the previous two frames (step 71). If there is an input from the touch panel 13 in the previous two frames, the CPU core 21 advances the processing to the next step 72. On the other hand, if there is no input from the touch panel 13 in any of the previous two frames, the CPU core 21 advances the processing to the next step 63.

ステップ72において、CPUコア21は、直前の2フレームにおいてタッチパネル13からの入力されたそれぞれの入力座標を用いて、2フレーム間の座標変化量を算出する。具体的には、直前の2フレームにおける入力座標が点q1(x1、y1)および点q2(x2、y2)の場合、座標変化量として点q1からq2まで結ぶベクトルv(vx、vy)を算出する。ここで、
vx=x2−x1
vy=y2−y1
である。そして、CPUコア21は、処理を次のステップに進める。
In step 72, the CPU core 21 calculates the coordinate change amount between the two frames using the respective input coordinates inputted from the touch panel 13 in the immediately preceding two frames. Specifically, when the input coordinates in the previous two frames are the point q1 (x1, y1) and the point q2 (x2, y2), a vector v (vx, vy) connecting the points q1 to q2 is calculated as the coordinate change amount. To do. here,
vx = x2-x1
vy = y2-y1
It is. Then, the CPU core 21 advances the processing to the next step.

次に、CPUコア21は、上記ステップ72で求めた座標変化量(ベクトルv)に基づいて、アイテムIに対する仮想3次元ゲーム空間内の移動速度(移動ベクトルV)を算出し(ステップ73)、処理を次のステップに進める。ステップ73においては、上述した2次元座標系で設定される2点間の移動量(ベクトルv)として示される2軸それぞれに対する数値を用いて、3次元座標系で設定される移動量(ベクトルV)の3軸それぞれに対する数値を算出する座標変換が用いられる。ここで、座標変換に用いられる定数a〜f
は、上述したようにアイテムIの種類に応じて設定される。
Next, the CPU core 21 calculates a moving speed (movement vector V) in the virtual three-dimensional game space for the item I based on the coordinate change amount (vector v) obtained in step 72 (step 73). The process proceeds to the next step. In step 73, using the numerical values for the two axes shown as the movement amount (vector v) between two points set in the two-dimensional coordinate system described above, the movement amount (vector V) set in the three-dimensional coordinate system. ) Is used to calculate numerical values for each of the three axes. Here, constants a to f used for coordinate transformation
Is set according to the type of item I as described above.

次に、CPUコア21は、アイテム指示フラグをオフにして(ステップ74)、処理をステップ57に進める。これらステップ71〜74をCPUコア21が実行することによって、2次元座標系で設定される2点間の移動量が3次元座標系で設定される移動量(ベクトルV)に座標変換される。   Next, the CPU core 21 turns off the item instruction flag (step 74), and advances the processing to step 57. When the CPU core 21 executes these steps 71 to 74, the movement amount between two points set in the two-dimensional coordinate system is coordinate-converted into the movement amount (vector V) set in the three-dimensional coordinate system.

一方、図10に戻って、アイテム指示フラグがオフ(ステップ51でNo)の場合の処理について説明する。ステップ51でアイテム指示フラグがオフと判断した場合、CPUコア21は、アイテムIが仮想投影面を離れて3次元ゲーム空間内を移動中か否かを判断する(ステップ58)。ここで、CPUコア21は、例えばアイテムIに移動ベクトルVが設定されている場合にアイテムIが3次元ゲーム空間内を移動中であると判断する。そして、CPUコア21は、アイテムIがゲーム空間内を移動中である場合、処理を次のステップ59に進める。一方、CPUコア21は、アイテムIがゲーム空間内を移動していない場合(例えば、プレイヤがタッチパネル13に最初にタッチしたときや、全くタッチパネル13に触れていないとき等)、処理を次のステップ60に進める。   On the other hand, returning to FIG. 10, the processing when the item instruction flag is off (No in step 51) will be described. If it is determined in step 51 that the item instruction flag is OFF, the CPU core 21 determines whether or not the item I is moving in the three-dimensional game space leaving the virtual projection plane (step 58). Here, the CPU core 21 determines that the item I is moving in the three-dimensional game space when the movement vector V is set for the item I, for example. If the item I is moving in the game space, the CPU core 21 advances the process to the next step 59. On the other hand, when the item I is not moving in the game space (for example, when the player first touches the touch panel 13 or when the player does not touch the touch panel 13 at all), the CPU core 21 performs the next step. Proceed to 60.

ステップ59において、CPUコア21は、3次元ゲーム空間内のアイテムIの移動軌跡を算出する。CPUコア21は、アイテムIの移動軌跡の算出にあたって、上述したように直前のフレームにおいて算出された法線ベクトルnおよび移動ベクトルVを用いて、新たなフレームの法線ベクトルnおよび移動ベクトルVを算出する(図9参照)。そして、CPUコア21は、ステップ59で算出された法線ベクトルnおよび移動ベクトルVに応じてアイテムIを移動させて、第2LCD12に対するアイテム表示制御処理を行い(ステップ57;図4(b))、ゲームを継続する場合(ステップ63でNo)に上記ステップ51に戻って処理を繰り返す。これらステップ51、58、59、および57をCPUコア21が繰り返すことによって、仮想投影面を離れて仮想ゲーム空間内を移動するアイテムIが表現される。   In step 59, the CPU core 21 calculates the movement locus of the item I in the three-dimensional game space. When calculating the movement trajectory of the item I, the CPU core 21 uses the normal vector n and the movement vector V calculated in the immediately preceding frame as described above to calculate the normal vector n and the movement vector V of the new frame. Calculate (see FIG. 9). Then, the CPU core 21 moves the item I according to the normal vector n and the movement vector V calculated in step 59, and performs an item display control process for the second LCD 12 (step 57; FIG. 4B). When the game is continued (No in step 63), the process returns to step 51 and the process is repeated. When the CPU core 21 repeats these steps 51, 58, 59, and 57, the item I that moves away from the virtual projection plane and moves in the virtual game space is expressed.

一方、ステップ60において、CPUコア21は、タッチパネル13から入力があるか否かを判断する。そして、CPUコア21は、タッチパネル13から入力がある場合に処理を次のステップ61に進め、タッチパネル13からの入力がない場合に処理を次のステップ63に進める。   On the other hand, in step 60, the CPU core 21 determines whether or not there is an input from the touch panel 13. Then, the CPU core 21 proceeds to the next step 61 when there is an input from the touch panel 13, and proceeds to the next step 63 when there is no input from the touch panel 13.

ステップ61において、CPUコア21は、プレイヤが第2LCD12上でアイテムIと重なったタッチパネル13をタッチ操作したか否かを判断する。そして、CPUコア21は、プレイヤがアイテムIをタッチ操作している場合、アイテム指示フラグをオンして(ステップ62)、処理をステップ63に進める。一方、CPUコア21は、プレイヤがアイテムIをタッチ操作していない場合、そのまま処理をステップ63に進める。   In step 61, the CPU core 21 determines whether or not the player has touched the touch panel 13 that overlaps the item I on the second LCD 12. Then, when the player is touching the item I, the CPU core 21 turns on the item instruction flag (step 62) and advances the process to step 63. On the other hand, if the player has not touched the item I, the CPU core 21 proceeds to step 63 as it is.

ステップ63では、CPUコア21は、ゲームを継続するか否かを判断する。そして、CPUコア21は、ゲームを継続する場合に上記ステップ51に戻って処理を繰り返し、ゲームを終了する場合に当該サブルーチンによる処理を終了する。なお、上記ステップ51〜63の処理がゲーム処理を行う単位時間(例えば、1フレーム)毎に繰り返される。   In step 63, the CPU core 21 determines whether or not to continue the game. Then, the CPU core 21 returns to step 51 to repeat the process when continuing the game, and terminates the processing by the subroutine when ending the game. In addition, the process of the said steps 51-63 is repeated for every unit time (for example, 1 frame) which performs a game process.

なお、上述した説明では、仮想3次元ゲーム空間に対する移動ベクトルVの算出を、プレイヤがタッチパネル13からスタイラス16等を離す(ステップ52でNo)ことを条件として行ったが、他の条件に応じて算出を行ってもかまわない。例えば、プレイヤが操作スイッチ部14(例えば動作スイッチ(Aボタン)14a)を押下することを条件として、移動ベクトルVの算出を行ってもかまわない。   In the above description, the movement vector V with respect to the virtual three-dimensional game space is calculated on the condition that the player releases the stylus 16 and the like from the touch panel 13 (No in step 52). However, depending on other conditions Calculation may be performed. For example, the movement vector V may be calculated on the condition that the player presses the operation switch unit 14 (for example, the operation switch (A button) 14a).

また、上述した説明では、仮想投影面S3を手前側クリップ面S1に対して平行に配置した平面として説明したが、仮想投影面S3と手前側クリップ面S1とは平行でなくてもかまわない。仮想投影面S3が手前側クリップ面S1に対して斜めの平面であっても、入力座標の投影を同様に行って仮想投影面S3上の2次元座標(X軸、Y軸)を設定することができる。この場合、仮想投影面S3に垂直な方向を第3軸(Z軸)として、仮想3次元ゲーム空間に対する移動ベクトルVを上述した座標変換を用いて同様に算出することができる。   In the above description, the virtual projection plane S3 is described as a plane arranged in parallel with the near-side clip plane S1, but the virtual projection plane S3 and the near-side clip plane S1 may not be parallel. Even if the virtual projection plane S3 is an oblique plane with respect to the near-side clip plane S1, the input coordinates are similarly projected to set the two-dimensional coordinates (X axis, Y axis) on the virtual projection plane S3. Can do. In this case, the movement vector V with respect to the virtual three-dimensional game space can be similarly calculated using the coordinate transformation described above, with the direction perpendicular to the virtual projection plane S3 as the third axis (Z axis).

このように、本発明のゲーム装置によれば、表示画面上の2次元座標を入力するタッチパネルからの入力座標に応じて仮想投影面上をアイテムが移動し、所定の条件(タッチパネルから離す操作)に基づいて仮想投影面から仮想3次元ゲーム空間に当該アイテムが投げ入れられるゲームを実現できる。また、仮想投影面上に設定されている2次元座標の変化量(ベクトルv)に基づいて、当該仮想投影面に垂直な成分を算出するため、2次元座標の変化量から3次元座標の変化量(ベクトルV)を容易に求めることができる。したがって。従来技術のように押圧検出機能を設けることなく簡単な構成で2次元座標から3次元座標への変換を行うことができる。また、押圧を検出しないので、タッチパネル等の入力手段に多大な負担がかかることがなく、故障が多くなったり寿命が短くなったりするといったデバイス信頼性の低下を回避することができる。   As described above, according to the game device of the present invention, the item moves on the virtual projection plane in accordance with the input coordinates from the touch panel for inputting the two-dimensional coordinates on the display screen, and the predetermined condition (operation to release the touch panel) Based on the above, it is possible to realize a game in which the item is thrown into the virtual three-dimensional game space from the virtual projection plane. Further, since the component perpendicular to the virtual projection plane is calculated based on the change amount (vector v) of the two-dimensional coordinates set on the virtual projection plane, the change of the three-dimensional coordinates from the change amount of the two-dimensional coordinates. The quantity (vector V) can be easily determined. Therefore. Conversion from two-dimensional coordinates to three-dimensional coordinates can be performed with a simple configuration without providing a pressure detection function as in the prior art. In addition, since pressing is not detected, a great burden is not imposed on input means such as a touch panel, and a decrease in device reliability such as an increase in failure or a shortened life can be avoided.

なお、上記実施例では、表示画面上の2次元座標を入力する入力装置としてタッチパネルを用いたが、他のポインティングデバイスを用いてもかまわない。ここで、ポインティングデバイスは、表示画面上での入力位置や座標を指定する入力装置であり、例えば、マウス、トラックパッド、トラックボールなどを入力装置として使用し、入力装置から出力される出力値から計算された画面座標系の情報を用いれば、本発明を同様に実現することができる。なお、マウス等のポインティングデバイスの場合、タッチ状態と非タッチ状態とをクリックボタンのオンオフに対応させ、マウス等から出力される出力値から座標を計算する処理をゲーム装置等で行えばよい。   In the above embodiment, the touch panel is used as the input device for inputting the two-dimensional coordinates on the display screen, but other pointing devices may be used. Here, the pointing device is an input device that specifies an input position and coordinates on the display screen. For example, a mouse, a trackpad, a trackball, or the like is used as an input device, and an output value output from the input device is used. If the information of the calculated screen coordinate system is used, the present invention can be similarly realized. Note that in the case of a pointing device such as a mouse, the game device or the like may perform processing for calculating coordinates from output values output from the mouse or the like in correspondence with the touch button and the non-touch button on / off.

また、上記実施例では、ゲーム装置1にタッチパネル13が一体的に設けられているが、ゲーム装置とタッチパネルとを別体にして構成しても、本発明を実現できることは言うまでもない。また、上記実施例では表示器を2つ設けたが、表示器は1つであってもかまわない。すなわち、上記実施例において、第1LCD11を設けず単に第2LCD12のみを設けるようにしてもよい。また、上記実施例において、第2LCD12を設けず第1LCD11の上面にタッチパネル13を設けても良い。   Moreover, in the said Example, although the touchscreen 13 was integrally provided in the game device 1, it cannot be overemphasized that even if it comprises a game device and a touchscreen separately, this invention can be implement | achieved. In the above embodiment, two displays are provided, but one display may be used. That is, in the above embodiment, the first LCD 11 may not be provided, and only the second LCD 12 may be provided. In the above embodiment, the touch panel 13 may be provided on the upper surface of the first LCD 11 without providing the second LCD 12.

また、上記実施例では、ゲーム装置1にタッチパネル13が一体的に設けられているが、タッチパネルを入力装置の1つとする一般的なパーソナルコンピュータなどの情報処理装置でもかまわない。この場合、この情報処理装置のコンピュータが実行するプログラムは、典型的にゲームに用いられるゲームプログラムに限らず、上述した方式で得られた2次元座標値が上記情報処理装置に対する操作処理に用いられる汎用的な入力処理プログラムである。   Further, in the above embodiment, the touch panel 13 is integrally provided on the game apparatus 1, but an information processing apparatus such as a general personal computer having the touch panel as one of input devices may be used. In this case, the program executed by the computer of the information processing apparatus is not limited to a game program typically used for a game, and two-dimensional coordinate values obtained by the above-described method are used for operation processing on the information processing apparatus. It is a general-purpose input processing program.

本発明の入力処理プログラムおよび入力処理装置は、簡単な構成で2次元座標から3次元座標への変換を行うことができ、表示画面上の2次元座標を入力するポインティングデバイスを用いて操作するゲームや入力処理等に適用できる。   INDUSTRIAL APPLICABILITY The input processing program and the input processing apparatus of the present invention can perform conversion from two-dimensional coordinates to three-dimensional coordinates with a simple configuration, and are operated using a pointing device that inputs two-dimensional coordinates on a display screen. And input processing.

本発明の一実施形態に係るゲームプログラムを実行するゲーム装置1の外観図1 is an external view of a game apparatus 1 that executes a game program according to an embodiment of the present invention. 図1のゲーム装置1のブロック図Block diagram of game device 1 of FIG. ゲーム空間に投入するためのアイテムIの初期位置を決定する様子を示す第2LCD12の表示画面例Display screen example of the second LCD 12 showing how to determine the initial position of the item I to be inserted into the game space アイテムIをゲーム空間に投げ入れる操作の様子および投げ入れられたアイテムIのゲーム空間内における移動動作の様子を示す第2LCD12の表示画面例Example of a display screen on the second LCD 12 showing an operation of throwing the item I into the game space and a moving operation of the thrown item I in the game space 仮想3次元ゲーム空間および仮想投影面を説明するための概念図Conceptual diagram for explaining a virtual three-dimensional game space and a virtual projection plane ベクトルv(vx、vy)およびベクトルV(Vx、Vy、Vz)を示す概念図Conceptual diagram showing vector v (vx, vy) and vector V (Vx, Vy, Vz) 座標変換の際に用いられる定数a〜fの設定例Example of setting constants a to f used for coordinate conversion アイテムIに初期設定される傾斜角度に応じたアイテムIの画面表示例Screen display example of item I according to the inclination angle initially set to item I アイテムIが仮想投影面を離れて仮想ゲーム空間内を移動する際に設定される移動ベクトルおよび法線ベクトルの概念図Conceptual diagram of movement vector and normal vector set when item I moves away from the virtual projection plane and moves in the virtual game space 本発明のゲームプログラムを実行することによってゲーム装置1が処理する動作を示すフローチャートThe flowchart which shows the operation | movement which the game device 1 processes by running the game program of this invention. 本発明のゲームプログラムを実行することによってゲーム装置1が処理する動作を示すフローチャートThe flowchart which shows the operation | movement which the game device 1 processes by running the game program of this invention.

符号の説明Explanation of symbols

1…ゲーム装置
11…第1LCD
12…第2LCD
13…タッチパネル
14…操作スイッチ部
15…スピーカ
16…スタイラス
17…カートリッジ
171…ROM
172…RAM
18…ハウジング
20…電子回路基板
21…CPUコア
22…WRAM
23…第1VRAM
24…第1GPU
25…第2VRAM
26…第2GPU
27…I/F回路
28…コネクタ
29…LCDコントローラ
291…レジスタ
1 ... Game device 11 ... 1st LCD
12 ... Second LCD
13 ... Touch panel 14 ... Operation switch 15 ... Speaker 16 ... Stylus 17 ... Cartridge 171 ... ROM
172 ... RAM
18 ... Housing 20 ... Electronic circuit board 21 ... CPU core 22 ... WRAM
23. First VRAM
24 ... 1st GPU
25. Second VRAM
26 ... 2nd GPU
27 ... I / F circuit 28 ... Connector 29 ... LCD controller 291 ... Register

Claims (6)

表示画面と、当該表示画面上に対応する2次元座標を入力するポインティングデバイスとを備え、当該表示画面に仮想3次元空間を表示する入力処理装置のコンピュータに実行されるプログラムであって、
前記コンピュータに、
前記仮想3次元空間内に仮想面を設定する仮想面設定ステップ、
前記ポインティングデバイスから入力された2次元座標を検出する2次元座標検出ステップ、
前記2次元座標検出ステップが検出した2次元座標に基づいて、前記仮想面上で所定のオブジェクトを移動させる仮想面上移動ステップ、
所定の入力条件に応じて、前記仮想面上移動ステップにより前記仮想面上で移動する前記オブジェクトを前記仮想面から離れた前記仮想3次元空間内移動させる3次元空間内移動ステップ、および
前記仮想面上移動ステップまたは前記3次元空間内移動ステップによって移動する前記オブジェクトを前記仮想3次元空間内で表現して前記表示画面に表示する表示制御ステップを実行させる、入力処理プログラム。
A program that is executed by a computer of an input processing device that includes a display screen and a pointing device that inputs corresponding two-dimensional coordinates on the display screen, and displays a virtual three-dimensional space on the display screen,
In the computer,
A virtual surface setting step of setting a virtual surface in the virtual three-dimensional space;
A two-dimensional coordinate detection step of detecting a two-dimensional coordinate input from the pointing device;
A movement step on a virtual surface for moving a predetermined object on the virtual surface based on the two-dimensional coordinates detected by the two-dimensional coordinate detection step;
In response to a predetermined input condition, the said object moving on the virtual plane by a virtual plane moving step, 3-dimensional space moving step moves in distant from the virtual plane the virtual three-dimensional space, and the An input processing program for executing a display control step of expressing the object moving in the virtual three-dimensional space in the virtual three-dimensional space and displaying it on the display screen by the moving step on the virtual plane or the moving step in the three-dimensional space.
前記3次元空間内移動ステップは、前記仮想面上で移動するオブジェクトを前記2次元座標に基づいて決定される任意の方向に従って、前記仮想3次元空間内を移動させる、請求項1に記載の入力処理プログラム。  The input according to claim 1, wherein the moving step in the three-dimensional space moves the object moving on the virtual plane in the virtual three-dimensional space according to an arbitrary direction determined based on the two-dimensional coordinates. Processing program. 前記3次元空間内移動ステップは、前記2次元座標に基づいて前記オブジェクトの前記仮想3次元空間内における移動の計算の際に用いる初期設定を行う、請求項1に記載の入力処理プログラム。The input processing program according to claim 1, wherein the moving step in the three-dimensional space performs an initial setting used when calculating the movement of the object in the virtual three-dimensional space based on the two-dimensional coordinates. 仮想3次元空間を表示する表示画面と、
前記表示画面上に対応する2次元座標を入力するポインティングデバイスと、
前記仮想3次元空間内に仮想面を設定する仮想面設定手段と、
前記ポインティングデバイスから入力された2次元座標を検出する2次元座標検出手段と、
前記2次元座標検出手段が検出した2次元座標に基づいて、前記仮想面上で所定のオブジェクトを移動させる仮想面上移動手段と、
所定の入力条件に応じて、前記仮想面上移動ステップにより前記仮想面上で移動する前記オブジェクトを前記仮想面から離れた前記仮想3次元空間内移動させる3次元空間内移動手段と、
前記仮想面上移動手段または前記3次元空間内移動手段によって移動する前記オブジェクトを前記仮想3次元空間内で表現して前記表示画面に表示する表示制御手段とを備える、入力処理装置。
A display screen for displaying a virtual three-dimensional space;
A pointing device for inputting corresponding two-dimensional coordinates on the display screen;
Virtual surface setting means for setting a virtual surface in the virtual three-dimensional space;
Two-dimensional coordinate detection means for detecting two-dimensional coordinates input from the pointing device;
Based on the two-dimensional coordinates detected by the two-dimensional coordinate detection means, a moving means on the virtual surface for moving a predetermined object on the virtual surface;
In response to a predetermined input condition, the object moving on the virtual surface by moving step on the virtual surface, the three-dimensional space moving means for moving in the virtual three-dimensional space away from the virtual plane,
An input processing apparatus comprising: display control means for expressing the object moved by the moving means on the virtual plane or the moving means in the three-dimensional space in the virtual three-dimensional space and displaying it on the display screen.
仮想3次元空間を表示する表示画面と、当該表示画面上に対応する2次元座標を入力するポインティングデバイスとを備える入力処理装置に実行される入力処理方法であって、  An input processing method executed by an input processing apparatus including a display screen that displays a virtual three-dimensional space and a pointing device that inputs corresponding two-dimensional coordinates on the display screen,
前記仮想3次元空間内に仮想面を設定する仮想面設定ステップ、  A virtual surface setting step of setting a virtual surface in the virtual three-dimensional space;
前記ポインティングデバイスから入力された2次元座標を検出する2次元座標検出ステップ、  A two-dimensional coordinate detection step of detecting a two-dimensional coordinate input from the pointing device;
前記2次元座標検出ステップで検出された2次元座標に基づいて、前記仮想面上で所定のオブジェクトを移動させる仮想面上移動ステップ、  A movement step on the virtual surface for moving a predetermined object on the virtual surface based on the two-dimensional coordinates detected in the two-dimensional coordinate detection step;
所定の入力条件に応じて、前記仮想面上移動ステップにより前記仮想面上で移動する前記オブジェクトを、前記仮想面から離れた前記仮想3次元空間内で移動させる3次元空間内移動ステップ、および  A moving step in a three-dimensional space for moving the object moving on the virtual surface in the virtual three-dimensional space away from the virtual surface according to a predetermined input condition; and
前記仮想面上移動ステップまたは前記3次元空間内移動ステップによって移動する前記オブジェクトを前記仮想3次元空間内で表現して前記表示画面に表示する表示制御ステップを含む、入力処理方法。  An input processing method, comprising: a display control step of displaying the object moving by the moving step on the virtual plane or the moving step in the three-dimensional space in the virtual three-dimensional space and displaying the object on the display screen.
仮想3次元空間を表示する表示画面と、  A display screen for displaying a virtual three-dimensional space;
前記表示画面上に対応する2次元座標を入力するポインティングデバイスと、  A pointing device for inputting corresponding two-dimensional coordinates on the display screen;
前記仮想3次元空間内に仮想面を設定する仮想面設定手段と、  Virtual surface setting means for setting a virtual surface in the virtual three-dimensional space;
前記ポインティングデバイスから入力された2次元座標を検出する2次元座標検出手段と、  Two-dimensional coordinate detection means for detecting two-dimensional coordinates input from the pointing device;
前記2次元座標検出手段が検出した2次元座標に基づいて、前記仮想面上で所定のオブジェクトを移動させる仮想面上移動手段と、  Based on the two-dimensional coordinates detected by the two-dimensional coordinate detection means, a moving means on the virtual surface for moving a predetermined object on the virtual surface;
所定の入力条件に応じて、前記仮想面上移動ステップにより前記仮想面上で移動する前記オブジェクトを、前記仮想面から離れた前記仮想3次元空間内で移動させる3次元空間内移動手段と、  A three-dimensional space moving means for moving the object moving on the virtual surface in the virtual three-dimensional space away from the virtual surface according to a predetermined input condition;
前記仮想面上移動手段または前記3次元空間内移動手段によって移動する前記オブジェクトを前記仮想3次元空間内で表現して前記表示画面に表示する表示制御手段とを備える、入力処理システム。  An input processing system, comprising: display control means for displaying the object moved by the moving means on the virtual plane or the moving means in the three-dimensional space in the virtual three-dimensional space and displayed on the display screen.
JP2008290211A 2008-11-12 2008-11-12 Input processing program and input processing apparatus Expired - Lifetime JP4724740B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008290211A JP4724740B2 (en) 2008-11-12 2008-11-12 Input processing program and input processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008290211A JP4724740B2 (en) 2008-11-12 2008-11-12 Input processing program and input processing apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2004304961A Division JP4388878B2 (en) 2004-10-19 2004-10-19 Input processing program and input processing apparatus

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2009038398A Division JP4724758B2 (en) 2009-02-20 2009-02-20 Input processing program and input processing apparatus

Publications (2)

Publication Number Publication Date
JP2009093666A JP2009093666A (en) 2009-04-30
JP4724740B2 true JP4724740B2 (en) 2011-07-13

Family

ID=40665520

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008290211A Expired - Lifetime JP4724740B2 (en) 2008-11-12 2008-11-12 Input processing program and input processing apparatus

Country Status (1)

Country Link
JP (1) JP4724740B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101833783B (en) * 2010-04-28 2012-04-25 深圳市五巨科技有限公司 Method and device for realizing desktop pattern of mobile terminal

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6340967A (en) * 1986-08-06 1988-02-22 Nec Corp Plane input device
JPH05165565A (en) * 1991-12-18 1993-07-02 Hitachi Ltd Coordinate input method
JPH11232010A (en) * 1998-02-18 1999-08-27 Dainippon Screen Mfg Co Ltd Method and device for three-dimensional instruction
JP4109745B2 (en) * 1998-03-24 2008-07-02 株式会社レクサー・リサーチ Object moving arrangement apparatus and method in three-dimensional space display system

Also Published As

Publication number Publication date
JP2009093666A (en) 2009-04-30

Similar Documents

Publication Publication Date Title
US8907896B2 (en) Storage medium having input processing program stored thereon and input processing device
JP3734820B1 (en) GAME PROGRAM, GAME DEVICE, AND INPUT DEVICE
JP4471761B2 (en) GAME PROGRAM, GAME DEVICE, AND INPUT DEVICE
JP3833228B2 (en) GAME DEVICE AND GAME PROGRAM
JP2006034516A (en) Game program, game machine, and input device
JP2006252185A (en) GAME PROGRAM AND GAME DEVICE
JP4358181B2 (en) GAME PROGRAM AND GAME DEVICE
JP4658544B2 (en) GAME PROGRAM, GAME DEVICE, AND INPUT DEVICE
JP4121492B2 (en) GAME DEVICE AND GAME PROGRAM
US7466304B2 (en) Image processing apparatus, storage medium having image processing program stored thereon, game apparatus and storage medium having game program stored thereon
JP4724758B2 (en) Input processing program and input processing apparatus
US8926427B2 (en) Video game with screen flip and dual sets of collision data
JP4724740B2 (en) Input processing program and input processing apparatus
JP5354820B2 (en) Input processing program and input processing apparatus
JP4726965B2 (en) Input processing program and input processing apparatus
JP4302767B2 (en) Input processing program and input processing apparatus
JP4730975B2 (en) Input processing program and input processing apparatus
JP5363524B2 (en) Input processing program and input processing apparatus
JP5827671B2 (en) GAME PROGRAM AND GAME DEVICE
JP5705671B2 (en) GAME PROGRAM AND GAME DEVICE

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100909

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110314

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110411

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140415

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4724740

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140415

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140415

Year of fee payment: 3

R157 Certificate of patent or utility model (correction)

Free format text: JAPANESE INTERMEDIATE CODE: R157

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term