[go: up one dir, main page]

JP4563267B2 - Network game system, network game control method, game device, game control method, and program - Google Patents

Network game system, network game control method, game device, game control method, and program Download PDF

Info

Publication number
JP4563267B2
JP4563267B2 JP2005190330A JP2005190330A JP4563267B2 JP 4563267 B2 JP4563267 B2 JP 4563267B2 JP 2005190330 A JP2005190330 A JP 2005190330A JP 2005190330 A JP2005190330 A JP 2005190330A JP 4563267 B2 JP4563267 B2 JP 4563267B2
Authority
JP
Japan
Prior art keywords
trajectory
viewpoint
moving object
data indicating
game device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2005190330A
Other languages
Japanese (ja)
Other versions
JP2007007065A (en
Inventor
裕行 芦田
伸浩 小野寺
新太郎 大里
肇 和久田
岳彦 島田
圭悟 福島
裕之 恵阪
強 沖野
晋平 牧野
賢 下村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2005190330A priority Critical patent/JP4563267B2/en
Publication of JP2007007065A publication Critical patent/JP2007007065A/en
Application granted granted Critical
Publication of JP4563267B2 publication Critical patent/JP4563267B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Description

本発明はネットワークゲームシステム、ネットワークゲーム制御方法、ゲーム装置、ゲーム制御方法及びプログラムに関し、特にネットワークゲームにおける弾道その他のオブジェクトの軌道制御に関する。   The present invention relates to a network game system, a network game control method, a game device, a game control method, and a program, and more particularly to trajectory control of a ballistic or other object in a network game.

通信ネットワークに接続された複数のゲーム端末により、共通の仮想3次元空間を共有するタイプのネットワークゲームでは、一般的に、プレイヤの操作対象となるゲームキャラクタ等、各ゲーム端末に対応するオブジェクトが仮想3次元空間に配置され、それらオブジェクトに従動する視点から仮想3次元空間を見た様子が各ゲーム端末のゲーム画面に表示される。このようなゲームでは、プレイヤは自分が使用しているゲーム端末のゲーム画面を見ながら、仮想3次元空間の状況を把握し、適切なゲーム操作を行う。   In a network game of a type in which a common virtual three-dimensional space is shared by a plurality of game terminals connected to a communication network, generally, an object corresponding to each game terminal such as a game character to be operated by a player is virtual. A state in which the virtual three-dimensional space is viewed from a viewpoint arranged in the three-dimensional space and following these objects is displayed on the game screen of each game terminal. In such a game, the player grasps the state of the virtual three-dimensional space while performing an appropriate game operation while looking at the game screen of the game terminal used by the player.

上記のように、ゲーム画面を生成するために用いる各視点は、仮想3次元空間においてそれぞれオブジェクトに従動する。具体的なオブジェクトと視点との位置関係は、大別すると、オブジェクトの内部等、オブジェクトに極めて近い位置に配置される一人称視点の関係と、オブジェクトの後ろ上空等、オブジェクトから離れた位置に配置される二人称視点の関係と、に分けられる。   As described above, each viewpoint used to generate a game screen follows an object in the virtual three-dimensional space. The specific positional relationship between the object and the viewpoint can be broadly classified as a first-person viewpoint that is positioned very close to the object, such as the inside of the object, and a position that is far from the object, such as the sky above the object. And the relationship of the second person viewpoint.

このうち、前者では、ゲーム画面に対応するオブジェクト自身は表示されないか、表示されるとしても極めて限定的にしか表示されない。このため、特に、ゲーム画面に対応するオブジェクトのうち、視点から遠い部分に対して他のオブジェクトが接近しても、そのことをゲーム画面からプレイヤが十分に把握することができないという問題があった。   Among these, in the former, the object corresponding to the game screen itself is not displayed, or even if it is displayed, it is displayed only very limitedly. For this reason, in particular, there is a problem in that even if another object approaches a part far from the viewpoint among objects corresponding to the game screen, the player cannot sufficiently grasp this from the game screen. .

例えば、各ゲーム端末に対応したプレイヤキャラクタオブジェクトが共通の仮想3次元空間において銃で弾を撃ち合うネットワークガンシューティングゲームを例にとると、上記一人称視点を採用した場合、ゲーム画面には、該ゲーム画面を映し出すゲーム端末に対応したプレイヤキャラクタオブジェクトの画像は表示されないか、或いは表示されるとしても銃をもった手だけしか表示されないことが多い。この場合、他のプレイヤキャラクタオブジェクトの銃から弾が発射され、それが前記プレイヤキャラクタオブジェクトの足に当たろうとしていても、ゲーム画面から、視野範囲外、すなわちゲーム画面外に弾が向かっているということは直ちに理解できても、それが当該ゲーム画面を映し出すゲーム端末に対応したプレイヤキャラクタオブジェクトの足に当たろうとしていることは直ちには理解できない。   For example, in the case of a network gun shooting game in which player character objects corresponding to each game terminal shoot bullets with a gun in a common virtual three-dimensional space, when the first person viewpoint is adopted, the game screen includes the game screen. In many cases, an image of a player character object corresponding to a game terminal that displays the image is not displayed, or even if it is displayed, only a hand with a gun is displayed. In this case, even if a bullet is fired from the gun of another player character object and it is about to hit the foot of the player character object, it is said that the bullet is pointing out of the field of view, that is, outside the game screen. Even if it can be understood immediately, it cannot be immediately understood that the player character object corresponding to the game terminal displaying the game screen is hit.

本発明は上記課題に鑑みてなされたものであって、その目的は、仮想3次元空間を表示するために用いる視点をオブジェクトに設定した場合に、該オブジェクトに他のオブジェクトが接触しようとしていることを直ちにゲーム画面からプレイヤに理解させることができるネットワークゲームシステム、ネットワークゲーム制御方法、ゲーム装置、ゲーム制御方法及びプログラムを提供することにある。   The present invention has been made in view of the above problems, and its purpose is that, when a viewpoint used to display a virtual three-dimensional space is set for an object, another object is about to contact the object. Is to provide a network game system, a network game control method, a game device, a game control method, and a program that allow a player to immediately understand the game from the game screen.

上記課題を解決するために、本発明に係るネットワークゲームシステムは、通信ネットワークにより相互に通信接続され、仮想3次元空間を共有する第1及び第2ゲーム装置を含む。ここで、前記仮想3次元空間には、前記第1ゲーム装置に対応する第1視点設定オブジェクト、前記第2ゲーム装置に対応する第2視点設定オブジェクト、及び移動オブジェクトが配置される。   In order to solve the above problems, a network game system according to the present invention includes first and second game devices that are connected to each other via a communication network and share a virtual three-dimensional space. Here, a first viewpoint setting object corresponding to the first game device, a second viewpoint setting object corresponding to the second game device, and a moving object are arranged in the virtual three-dimensional space.

そして、前記第1ゲーム装置は、前記移動オブジェクトの軌道を決定する手段と、前記第1視点設定オブジェクトに設定された視点から前記仮想3次元空間を見た様子を表示する手段と、を含む。一方、前記第2ゲーム装置は、前記移動オブジェクトの軌道を取得する手段と、前記移動オブジェクトの軌道と前記第2視点設定オブジェクトの位置に基づき、前記第2視点設定オブジェクトに設定された所定範囲に前記移動オブジェクトが進入するか否かを判断する手段と、前記移動オブジェクトが前記所定範囲に進入する場合に、前記軌道を前記第2視点設定オブジェクトに設定された視点の位置に基づいて補正する手段と、前記第2視点設定オブジェクトに設定された前記視点から前記仮想3次元空間を見た様子を表示する手段と、を含む。   The first game device includes means for determining a trajectory of the moving object, and means for displaying a state in which the virtual three-dimensional space is viewed from the viewpoint set in the first viewpoint setting object. On the other hand, the second game device has a predetermined range set for the second viewpoint setting object based on the means for acquiring the trajectory of the moving object, and the trajectory of the moving object and the position of the second viewpoint setting object. Means for determining whether or not the moving object enters; and means for correcting the trajectory based on a viewpoint position set in the second viewpoint setting object when the moving object enters the predetermined range. And means for displaying a state of viewing the virtual three-dimensional space from the viewpoint set in the second viewpoint setting object.

また、本発明に係るネットワークゲーム制御方法は、通信ネットワークにより相互に通信接続され、仮想3次元空間を共有する第1及び第2ゲーム装置を用いたネットワークゲーム制御方法であって、前記仮想3次元空間には、前記第1ゲーム装置に対応する第1視点設定オブジェクト、前記第2ゲーム装置に対応する第2視点設定オブジェクト、及び移動オブジェクトが配置される。   A network game control method according to the present invention is a network game control method using first and second game devices that are connected to each other via a communication network and share a virtual three-dimensional space, the virtual three-dimensional A first viewpoint setting object corresponding to the first game device, a second viewpoint setting object corresponding to the second game device, and a moving object are arranged in the space.

そして、前記第1ゲーム装置は、前記移動オブジェクトの軌道を決定するステップと、前記第1視点設定オブジェクトに設定された視点から前記仮想3次元空間を見た様子を表示するステップと、を実行する。一方、前記第2ゲーム装置は、前記移動オブジェクトの軌道を取得するステップと、前記移動オブジェクトの軌道と前記第2視点設定オブジェクトの位置に基づき、前記第2視点設定オブジェクトに設定された所定範囲に前記移動オブジェクトが進入するか否かを判断するステップと、前記移動オブジェクトが前記所定範囲に進入する場合に、前記軌道を前記第2視点設定オブジェクトに設定された視点の位置に基づいて補正するステップと、前記第2視点設定オブジェクトに設定された前記視点から前記仮想3次元空間を見た様子を表示するステップと、を実行する。   Then, the first game device executes a step of determining a trajectory of the moving object, and a step of displaying a state of viewing the virtual three-dimensional space from the viewpoint set in the first viewpoint setting object. . On the other hand, the second game device obtains a trajectory of the moving object, and within a predetermined range set for the second viewpoint setting object based on the trajectory of the moving object and the position of the second viewpoint setting object. Determining whether or not the moving object enters, and correcting the trajectory based on a viewpoint position set in the second viewpoint setting object when the moving object enters the predetermined range; And a step of displaying the virtual three-dimensional space viewed from the viewpoint set in the second viewpoint setting object.

以上のようにして、前記第1ゲーム装置と前記第2ゲーム装置とで、前記移動オブジェクトが前記所定範囲に進入する場合に、異なる軌道により前記移動オブジェクトが前記仮想3次元空間を移動する様子が表示されるようになっている。   As described above, when the moving object enters the predetermined range between the first game device and the second game device, the moving object moves in the virtual three-dimensional space according to different trajectories. It is displayed.

本発明によれば、移動オブジェクトが第2視点設定オブジェクトに設定された所定範囲に進入する場合に、移動オブジェクトの軌道が該第2視点設定オブジェクトに設定された視点の位置に基づいて補正される。このため、移動オブジェクトが視野範囲内を移動するようにでき、第2ゲーム装置において、ゲーム画面から、第2視点設定オブジェクトに移動オブジェクトが接触しようとしていることを、プレイヤに直ちに理解させることができる。また、第1ゲーム装置では、移動オブジェクトの軌道を設定すると、その軌道の通りに移動する移動オブジェクトが表示されるので、プレイヤの違和感を生じさせずに済む。   According to the present invention, when the moving object enters the predetermined range set in the second viewpoint setting object, the trajectory of the moving object is corrected based on the viewpoint position set in the second viewpoint setting object. . Therefore, the moving object can be moved within the field of view, and in the second game device, the player can immediately understand that the moving object is coming into contact with the second viewpoint setting object from the game screen. . In the first game device, when the trajectory of the moving object is set, the moving object that moves along the trajectory is displayed, so that the player does not feel uncomfortable.

また、本発明に係るゲーム装置は、視点設定オブジェクトに設定された視点から該視点設定オブジェクト及び移動オブジェクトが配置された仮想3次元空間を見た様子を表示するゲーム装置であって、前記移動オブジェクトの軌道を取得する軌道取得手段と、前記移動オブジェクトの軌道と前記視点設定オブジェクトの位置に基づき、前記視点設定オブジェクトに設定された所定範囲に前記移動オブジェクトが進入するか否かを判断する進入判断手段と、前記移動オブジェクトが前記所定範囲に進入する場合に、前記軌道を前記視点の位置に基づいて補正する軌道補正手段と、を含むことを特徴とする。   The game device according to the present invention is a game device that displays a view of a virtual three-dimensional space in which the viewpoint setting object and the moving object are arranged from the viewpoint set in the viewpoint setting object, the moving object A trajectory acquisition means for acquiring a trajectory of the moving object, and an entry determination for determining whether or not the moving object enters the predetermined range set in the viewpoint setting object based on the trajectory of the moving object and the position of the viewpoint setting object And trajectory correcting means for correcting the trajectory based on the position of the viewpoint when the moving object enters the predetermined range.

また、本発明に係るゲーム制御方法は、視点設定オブジェクトに設定された視点から該視点設定オブジェクト及び移動オブジェクトが配置された仮想3次元空間を見た様子を表示するゲーム制御方法であって、前記移動オブジェクトの軌道を取得する軌道取得ステップと、前記移動オブジェクトの軌道と前記視点設定オブジェクトの位置に基づき、前記視点設定オブジェクトに設定された所定範囲に前記移動オブジェクトが進入するか否かを判断する進入判断ステップと、前記移動オブジェクトが前記所定範囲に進入する場合に、前記軌道を前記視点の位置に基づいて補正する軌道補正ステップと、を含むことを特徴とする。   The game control method according to the present invention is a game control method for displaying a view of a virtual three-dimensional space in which the viewpoint setting object and the moving object are arranged from the viewpoint set in the viewpoint setting object, A trajectory acquisition step for acquiring a trajectory of the moving object, and determining whether or not the moving object enters a predetermined range set in the viewpoint setting object based on the trajectory of the moving object and the position of the viewpoint setting object. An approach determining step; and a trajectory correcting step of correcting the trajectory based on the position of the viewpoint when the moving object enters the predetermined range.

また、本発明に係るプログラムは、視点設定オブジェクトに設定された視点から該視点設定オブジェクト及び移動オブジェクトが配置された仮想3次元空間を見た様子を表示するゲーム装置としてコンピュータを機能させるためのプログラムであって、前記移動オブジェクトの軌道を取得する軌道取得手段、前記移動オブジェクトの軌道と前記視点設定オブジェクトの位置に基づき、前記視点設定オブジェクトに設定された所定範囲に前記移動オブジェクトが進入するか否かを判断する進入判断手段、及び前記移動オブジェクトが前記所定範囲に進入する場合に、前記軌道を前記視点の位置に基づいて補正する軌道補正手段として前記コンピュータを機能させるためのプログラムである。コンピュータは、例えば業務用ゲーム機、家庭用ゲーム機、携帯ゲーム機、パーソナルコンピュータ、各種サーバコンピュータ、携帯情報端末、携帯電話機等である。また、プログラムは、CD−ROM、DVD−ROMその他のコンピュータ読み取り可能な情報記憶媒体に格納されてもよい。   Further, the program according to the present invention is a program for causing a computer to function as a game device that displays a view of a virtual three-dimensional space in which the viewpoint setting object and the moving object are arranged from the viewpoint set in the viewpoint setting object. A trajectory acquisition means for acquiring a trajectory of the moving object, whether the moving object enters a predetermined range set in the viewpoint setting object based on the trajectory of the moving object and the position of the viewpoint setting object. And a program for causing the computer to function as trajectory correcting means for correcting the trajectory based on the position of the viewpoint when the moving object enters the predetermined range. The computer is, for example, an arcade game machine, a home game machine, a portable game machine, a personal computer, various server computers, a portable information terminal, a mobile phone, or the like. The program may be stored in a CD-ROM, DVD-ROM, or other computer-readable information storage medium.

本発明によれば、移動オブジェクトが視点設定オブジェクトに設定された所定範囲に進入する場合に、移動オブジェクトの軌道が該視点設定オブジェクトに設定された視点の位置に基づいて補正される。このため、移動オブジェクトが視野範囲内を移動するようにでき、ゲーム画面から、視点設定オブジェクトに移動オブジェクトが接触しようとしていることをプレイヤに直ちに理解させることができる。   According to the present invention, when the moving object enters the predetermined range set in the viewpoint setting object, the trajectory of the moving object is corrected based on the viewpoint position set in the viewpoint setting object. Therefore, the moving object can be moved within the visual field range, and the player can immediately understand from the game screen that the moving object is in contact with the viewpoint setting object.

なお、前記軌道補正手段は、前記軌道を前記視点側にずらすようにしてもよい。こうすれば、容易に移動オブジェクトが視野範囲内を移動するようにできる。   The trajectory correcting unit may shift the trajectory toward the viewpoint. In this way, the moving object can easily move within the visual field range.

また、前記軌道取得手段は、他のゲーム装置から通信ネットワークを介して前記移動オブジェクトの軌道を取得するようにしてもよい。   In addition, the trajectory acquisition unit may acquire the trajectory of the moving object from another game device via a communication network.

さらに、前記視点設定オブジェクトは、プレイヤの操作対象であるゲームキャラクタオブジェクトであってよく、前記移動オブジェクトは、他のプレイヤの操作対象であるゲームキャラクタオブジェクトから発射される弾丸オブジェクトであってよい。こうすれば、弾丸オブジェクトがゲームキャラクタオブジェクトに接触することをゲーム画面から直ちに理解することができる、興趣溢れるシューティングゲームを実現できる。   Further, the viewpoint setting object may be a game character object that is an operation target of a player, and the moving object may be a bullet object fired from a game character object that is an operation target of another player. In this way, it is possible to realize an interesting shooting game that can immediately understand from the game screen that the bullet object contacts the game character object.

以下、本発明の一実施形態について図面に基づき詳細に説明する。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.

図1は、本発明の一実施形態に係るゲーム装置の外観を示す斜視図である。同図に示すゲーム装置10は各種遊技場に配置される業務用機であり、筐体12の下に該筐体12から前方に延びる基台18が取り付けられており、この基台18のさらに前方には基台18よりも薄いゲームステージ20が取り付けられている。ゲームステージ20の中央には足形52が描かれており、この足形52にプレイヤが足を合わせて立つと、筐体12に対して正対するようになっている。   FIG. 1 is a perspective view showing an appearance of a game device according to an embodiment of the present invention. The game apparatus 10 shown in FIG. 1 is a business machine arranged in various game halls. A base 18 extending forward from the housing 12 is attached to the bottom of the housing 12. A game stage 20 thinner than the base 18 is attached to the front. A footprint 52 is drawn at the center of the game stage 20, and the player faces the housing 12 when the player stands with this footprint 52.

基台18の最前方、すなわちゲームステージ20が取り付けられる箇所はスロープが形成されており、このスロープにフットコントローラ50が設けられている。フットコントローラ50の内部には感圧センサが内蔵されており、ゲームステージ20上に立ったプレイヤが左右どちらかの足を前に出し、フットコントローラ50上を踏むと、その旨が装置内部に通知されるようになっている。   A slope is formed in the forefront of the base 18, that is, a place where the game stage 20 is attached, and a foot controller 50 is provided on this slope. A pressure-sensitive sensor is built in the foot controller 50, and when a player standing on the game stage 20 puts his / her left or right foot forward and steps on the foot controller 50, a notification to that effect is given to the inside of the apparatus. It has come to be.

筐体12は一般的な成人の身長よりも高く形成されており、その上部には略矩形の枠体14が取り付けられている。枠体14は、その前側が後ろ側よりも高い位置となるよう、やや斜めに配置されている。枠対14の奥側は筐体12の頂部に固定されており、さらに左右には一対の支持棒16の頂部に固定されている。これら一対の支持棒16は筐体12の左右側面に固定されている。そして、枠体14の前側には超音波発信器17及び超音波受信器13,15が設けられている。すなわち、筐体12に向かって左側上方に超音波受信器15が、右側上方に超音波受信器13が、中央上方に超音波発信器17が設けられている。超音波発信器17と超音波受信器13,15は同一直線上に配置されており、超音波発信器17は超音波受信器13,15のちょうど真ん中に取り付けられている。ゲーム装置10では、超音波発信器17から下方に超音波を発射し、その反射波を超音波受信器13,15で検知するまでの時間を計測するようにしている。これにより、超音波発信器17からプレイヤの頭までの距離とプレイヤの頭から超音波受信器13までの距離とを足し合わせた距離と、超音波発信器17からプレイヤの頭までの距離とプレイヤの頭から超音波受信器15までの距離とを足し合わせた距離と、の2つの距離を取得するようになっている。そして、これら2つの距離から、ゲームステージ20に立ったプレイヤの姿勢を検知するようになっている。   The housing 12 is formed higher than a general adult's height, and a substantially rectangular frame 14 is attached to the upper portion thereof. The frame body 14 is disposed slightly obliquely so that the front side is higher than the rear side. The back side of the frame pair 14 is fixed to the top of the housing 12, and further fixed to the top of the pair of support bars 16 on the left and right. The pair of support bars 16 are fixed to the left and right side surfaces of the housing 12. An ultrasonic transmitter 17 and ultrasonic receivers 13 and 15 are provided on the front side of the frame body 14. That is, an ultrasonic receiver 15 is provided on the upper left side toward the housing 12, an ultrasonic receiver 13 is provided on the upper right side, and an ultrasonic transmitter 17 is provided on the upper center side. The ultrasonic transmitter 17 and the ultrasonic receivers 13 and 15 are arranged on the same straight line, and the ultrasonic transmitter 17 is attached in the middle of the ultrasonic receivers 13 and 15. In the game apparatus 10, ultrasonic waves are emitted downward from the ultrasonic transmitter 17, and the time until the reflected waves are detected by the ultrasonic receivers 13 and 15 is measured. Thus, the distance obtained by adding the distance from the ultrasonic transmitter 17 to the player's head and the distance from the player's head to the ultrasonic receiver 13, the distance from the ultrasonic transmitter 17 to the player's head, and the player The two distances are obtained by adding the distance from the head to the ultrasonic receiver 15 together. Then, from these two distances, the posture of the player standing on the game stage 20 is detected.

筐体12におけるプレイヤの眼前にはゲーム画面を表示するモニタ24が正対しており、その上部には広告板22が取り付けられている。モニタ24の下方は前方に迫り出し、迫り出し部26が形成されている。迫り出し部26の最前面にはゲーム効果音やゲーム音楽を出力するスピーカ28が取り付けられている。また、モニタ24の下方には、筐体幅よりも狭い幅の屈曲した縦長の板部材であるフロントプレート38の上端が取り付けられている。このフロントプレート38の下端は、基台18の上面に取り付けられ、基台18上に立設されている。フロントプレート38は基台18から略垂直に立ち上がった後、筐体12側に折れ曲がり、上述のように上端がモニタ24の下方に取り付けられている。   A monitor 24 that displays a game screen faces the player 12 in front of the player, and an advertisement board 22 is attached to the upper part thereof. A lower portion of the monitor 24 is pushed forward, and a protruding portion 26 is formed. A speaker 28 for outputting game sound effects and game music is attached to the forefront portion 26. Further, below the monitor 24, an upper end of a front plate 38, which is a vertically long plate member having a width narrower than the casing width, is attached. The lower end of the front plate 38 is attached to the upper surface of the base 18 and is erected on the base 18. The front plate 38 rises substantially vertically from the base 18 and then bends toward the housing 12, and the upper end is attached below the monitor 24 as described above.

フロントプレート38の前面には選択ボタン34,36及び決定ボタン32が取り付けられており、プレイヤはこれらのボタンを押下することで各種の選択操作を行うことができるようになっている。また、選択ボタン34,36及び決定ボタン32の下方にはガンホルダも形成されており、非使用時にガンコントローラ30を掛けておくことができるようになっている。   Selection buttons 34 and 36 and a determination button 32 are attached to the front surface of the front plate 38, and the player can perform various selection operations by pressing these buttons. A gun holder is also formed below the selection buttons 34 and 36 and the determination button 32 so that the gun controller 30 can be hooked when not in use.

ガンコントローラ30のグリップ部には信号ケーブル48及び保持ケーブル42の各一端が取り付けられている。信号ケーブル48の他端は筐体12内部に導入されており、ガンコントローラ30の銃身内部に設けられた光センサの検知結果(銃身方向の検知に用いられる)、及びトリガ信号が信号ケーブル48により筐体12内部に通知されている。また、保持ケーブル42の他端は筐体12の下部に強固に取り付けられており、ガンコントローラ30が容易に持ち去られないようにしている。   Each end of the signal cable 48 and the holding cable 42 is attached to the grip portion of the gun controller 30. The other end of the signal cable 48 is introduced into the housing 12, and the detection result (used for detecting the barrel direction) of the optical sensor provided inside the barrel of the gun controller 30 and the trigger signal are transmitted by the signal cable 48. This is notified inside the housing 12. Further, the other end of the holding cable 42 is firmly attached to the lower portion of the housing 12 so that the gun controller 30 is not easily taken away.

筐体12の下部にはコイン投入部40及びコイン返却部44が設けられており、またその下方にはコイン投入部40から投入され、内部の図示しないコイン箱に溜まったコインを回収するコイン回収扉46が設けられている。   A coin insertion unit 40 and a coin return unit 44 are provided in the lower part of the housing 12, and a coin collection unit that collects coins that are inserted from the coin insertion unit 40 and collected in a coin box (not shown) inside the housing 12. A door 46 is provided.

以上の構成を有するゲーム装置10では、プレイヤは足形52に自分の足を合わせてゲームステージ20上に立ち、ガンコントローラ30を手にしてモニタ24に表示される敵に銃身を向け、トリガを引く。すると、仮想3次元空間において弾丸オブジェクトが射出され、敵に向かって飛んでいく。また、同様に敵からも弾丸オブジェクトが自身に向かって射出される。このとき、プレイヤが頭を左右にずらしたり、或いは体を屈めて頭を下げたりすると、弾丸オブジェクトを避けることができるようになっている。   In the game apparatus 10 having the above-described configuration, the player stands on the game stage 20 with his / her foot in the footstep 52, holds the gun controller 30 in his hand, points the barrel at the enemy displayed on the monitor 24, and pulls the trigger. . Then, a bullet object is ejected in the virtual three-dimensional space and flies toward the enemy. Similarly, a bullet object is ejected from the enemy toward itself. At this time, if the player shifts his / her head from side to side, or bends and lowers his / her head, the bullet object can be avoided.

また、図2に示すように、このゲーム装置10は通信ネットワークに接続されており、他のゲーム装置10と共にネットワークシューティングゲームシステムを構成している。すなわち、同図に示すように、このネットワークシューティングゲームシステム60では、インターネット等の通信ネットワーク62に複数のゲーム装置10(ここではゲーム装置10−1〜10−nのn台)が接続されており、さらにロビーサーバ64も接続されている。各ゲーム装置10にはクライアント機能10aに加えて、サーバ機能10bも備えられており、ロビーサーバ64は、現在アクセスしてきているゲーム装置10の中からネットワークシューティングゲームに参加させる複数のゲーム装置10を決定する。例えばロビーサーバ64は、各ゲーム装置10のプレイヤのゲーム習熟度を取得して、それにより同程度のゲーム習熟度のプレイヤによりプレイされている複数のゲーム装置10を選択し、それらを同じネットワークシューティングゲームに参加させる。また、ロビーサーバ64は、こうして決定されるゲーム装置10の中から一台をゲームサーバとして選出する。そして、当該ゲーム装置10のサーバ機能10bを介して、当該ゲーム装置10のクライアント機能10a及び他のゲーム装置10のクライアント機能10aは仮想3次元空間の現在の状況を示すデータ等を授受し、それによりシューティングゲームの舞台となる仮想3次元空間を共有するようになっている。   As shown in FIG. 2, the game apparatus 10 is connected to a communication network, and constitutes a network shooting game system together with other game apparatuses 10. That is, as shown in the figure, in this network shooting game system 60, a plurality of game apparatuses 10 (here, n game apparatuses 10-1 to 10-n) are connected to a communication network 62 such as the Internet. Furthermore, a lobby server 64 is also connected. Each game apparatus 10 is provided with a server function 10b in addition to the client function 10a, and the lobby server 64 has a plurality of game apparatuses 10 that participate in the network shooting game among the game apparatuses 10 that are currently accessed. decide. For example, the lobby server 64 acquires the game proficiency level of the player of each game device 10, thereby selecting a plurality of game devices 10 played by players of the same game proficiency level, and using them for the same network shooting. Engage in the game. The lobby server 64 selects one game device 10 as a game server from the game devices 10 thus determined. Then, through the server function 10b of the game apparatus 10, the client function 10a of the game apparatus 10 and the client function 10a of the other game apparatus 10 exchange data indicating the current state of the virtual three-dimensional space, and the like. Therefore, the virtual three-dimensional space that is the stage of the shooting game is shared.

図3は、各ゲーム装置10のモニタ24に表示されるゲーム画面の一例を示している。このネットワークシューティングゲームシステム60では、各ゲーム装置10にプレイヤキャラクタオブジェクトが関連づけられており、ゲームに参加しているゲーム装置10に関連づけられたプレイヤキャラクタオブジェクトの全てが仮想3次元空間に配置されている。そして、ゲーム装置10では、該ゲーム装置10に関連づけられたプレイヤキャラクタオブジェクトの眼の位置に設けられた視点から仮想3次元空間を見た様子が、モニタ24にゲーム画面として表示されるようになっている。また、ゲーム画面には、自分の状況を示す自ステータス画像70及び他の参加者の状況を示す他ステータス画像66が表示されている。また、ゲーム開始からの経過時間を示す経過時間画像68も表示されている。   FIG. 3 shows an example of a game screen displayed on the monitor 24 of each game apparatus 10. In the network shooting game system 60, a player character object is associated with each game apparatus 10, and all of the player character objects associated with the game apparatus 10 participating in the game are arranged in a virtual three-dimensional space. . In the game apparatus 10, a state in which the virtual three-dimensional space is viewed from the viewpoint provided at the eye position of the player character object associated with the game apparatus 10 is displayed on the monitor 24 as a game screen. ing. In addition, on the game screen, a self-status image 70 indicating the status of the player and an other status image 66 indicating the status of other participants are displayed. An elapsed time image 68 showing the elapsed time from the start of the game is also displayed.

仮想3次元空間には、同図に示すように自動車オブジェクト72や建造物オブジェクト78や地面オブジェクト76のような静的オブジェクト(時間が経過すると位置や姿勢を変えないオブジェクト)の他に、プレイヤキャラクタオブジェクト(視点設定オブジェクト)74や弾丸オブジェクト(移動オブジェクト)80,82のような動的オブジェクト(時間が経過するとプログラムやゲーム操作に従って位置や姿勢を変えるオブジェクト)が配置されている。同図に示すゲーム画面は、あるプレイヤキャラクタオブジェクトの眼の位置に配置された視点から仮想3次元空間を見た様子を示しており、略中央にプレイヤキャラクタオブジェクト74が表示されている。また、その手前にプレイヤキャラクタオブジェクト74が手にしている玩具銃から発射されたペイントボール(樹脂製の小球であり、内部にペンキが封入されたもの)を示す弾丸オブジェクト80が表示されている。また、プレイヤキャラクタオブジェクト74の周囲には、当該ゲーム画面を表示するゲーム装置10に関連づけられたプレイヤキャラクタオブジェクト(不図示)により発射された弾丸オブジェクト82も表示されている。   In the virtual three-dimensional space, as shown in the figure, in addition to static objects such as a car object 72, a building object 78, and a ground object 76 (an object whose position and posture do not change over time), a player character Dynamic objects such as objects (viewpoint setting objects) 74 and bullet objects (moving objects) 80 and 82 (objects whose positions and orientations change according to programs and game operations over time) are arranged. The game screen shown in the figure shows a state in which the virtual three-dimensional space is viewed from the viewpoint arranged at the eye position of a certain player character object, and the player character object 74 is displayed at substantially the center. In addition, a bullet object 80 indicating a paintball (resin-made small ball with paint encapsulated therein) fired from a toy gun held by the player character object 74 is displayed in front of it. . A bullet object 82 fired by a player character object (not shown) associated with the game apparatus 10 that displays the game screen is also displayed around the player character object 74.

また、本実施形態においては、弾丸オブジェクト80,82はペイントボールをシミュレートしたものであり、弾丸オブジェクト80,82が他のオブジェクト、例えば自動車オブジェクト72、建造物オブジェクト78、地面オブジェクト76、プレイヤキャラクタオブジェクト74等に当たると、破裂して内部のペンキが同オブジェクトに付着する様子が表現されるようになっている。ここでは、地面オブジェクト76及び自動車オブジェクト72上にペンキ跡オブジェクト84が配置されており、それらオブジェクトに弾丸オブジェクトが当たったことが示されている。特に、本実施形態では、弾丸オブジェクトがそれらオブジェクトに当たる際の方向(接触方向)を演算しており、この方向と接触面の方向(水平方向又は法線方向)とのなす角に応じたテクスチャ画像をペンキ跡オブジェクト84の表示に用いている。具体的には、接触方向と接触面の水平方向とのなす角が90度に近づくほど、円形に近いペンキ跡を示すテクスチャ画像を用いてペンキ跡オブジェクト84を表示している。また、接触方向と接触面の水平方向とのなす角が零度に近づくほど、横に延びたペンキ跡を示すテクスチャ画像を用いてペンキ跡オブジェクト84を表示している。このとき、ペンキ跡の延びる方向、すなわちペンキ跡オブジェクト84の配置方向は弾丸オブジェクトの接触方向に合致するようになっている。これにより、プレイヤはゲーム画面に表されたペンキ跡オブジェクト84を見て、仮想3次元空間のどこから発射された弾丸オブジェクトにより付着したものかを直ちに把握することができる。   In this embodiment, the bullet objects 80 and 82 simulate a paintball, and the bullet objects 80 and 82 are other objects such as a car object 72, a building object 78, a ground object 76, and a player character. When it hits the object 74 or the like, the state of bursting and the internal paint adhering to the object is expressed. Here, a paint mark object 84 is arranged on the ground object 76 and the car object 72, and it is shown that a bullet object hits these objects. In particular, in this embodiment, the direction (contact direction) when a bullet object hits these objects is calculated, and a texture image corresponding to the angle formed by this direction and the direction of the contact surface (horizontal direction or normal direction) Is used to display the paint mark object 84. Specifically, the paint mark object 84 is displayed using a texture image indicating a paint mark that is nearly circular as the angle between the contact direction and the horizontal direction of the contact surface approaches 90 degrees. Further, the paint mark object 84 is displayed using a texture image indicating a paint mark extending horizontally as the angle between the contact direction and the horizontal direction of the contact surface approaches zero degrees. At this time, the direction in which the paint mark extends, that is, the direction in which the paint mark object 84 is arranged matches the contact direction of the bullet object. As a result, the player can immediately grasp where the bullet object fired from the virtual three-dimensional space is attached by looking at the paint mark object 84 displayed on the game screen.

以下、各ゲーム装置10の内部処理について詳細に説明する。   Hereinafter, the internal processing of each game apparatus 10 will be described in detail.

図4は、ゲーム装置10のハードウェア構成図である。同図に示すように、このゲーム装置10はコンピュータゲームシステムであり、CPUやメモリ等により構成された制御部98を中心に構成されている。制御部98には、ガンコントローラ30、超音波発信器17、超音波受信器13,15、フットコントローラ50、記憶部90、ディスク読み取り装置94、通信部92、音声処理部102及び表示制御部100が接続されている。   FIG. 4 is a hardware configuration diagram of the game apparatus 10. As shown in the figure, this game apparatus 10 is a computer game system, and is configured around a control unit 98 constituted by a CPU, a memory, and the like. The control unit 98 includes a gun controller 30, an ultrasonic transmitter 17, ultrasonic receivers 13 and 15, a foot controller 50, a storage unit 90, a disk reading device 94, a communication unit 92, an audio processing unit 102, and a display control unit 100. Is connected.

ガンコントローラ30は、ガン型のゲームコントローラであり、プレイヤがトリガを引いたタイミング、及びそのタイミングでのガンコントローラ30の指向方向(具体的にはモニタ24のどの位置をガンコントローラ30の銃身が向いているか)が制御部98に入力されるようになっている。超音波発信器17は、制御部98からの指示に従って超音波を発する。また、制御部98では超音波発信器17に超音波の発信を指示したタイミングから計時を開始する。さらに、超音波受信器13,15は、超音波発信器17から発せられた超音波を受信して、その受信波形を制御部98に渡す。そして、制御部98では、超音波受信器13,15から渡される受信波形に基づいて、プレイヤの頭での反射波が超音波受信器13,15に入射するタイミングを判断している。フットコントローラ50からは、プレイヤがフットコントローラ50を踏んだ旨が制御部98に通知されている。   The gun controller 30 is a gun-type game controller, and the timing at which the player pulls the trigger and the pointing direction of the gun controller 30 at that timing (specifically, the position of the gun controller 30 on which position of the monitor 24 is directed). Is input to the control unit 98. The ultrasonic transmitter 17 emits ultrasonic waves according to instructions from the control unit 98. Further, the control unit 98 starts timing from the timing when the ultrasonic transmitter 17 is instructed to transmit ultrasonic waves. Further, the ultrasonic receivers 13 and 15 receive the ultrasonic wave emitted from the ultrasonic transmitter 17 and pass the received waveform to the control unit 98. Then, the control unit 98 determines the timing at which the reflected wave from the player's head enters the ultrasonic receivers 13 and 15 based on the received waveforms passed from the ultrasonic receivers 13 and 15. The foot controller 50 notifies the control unit 98 that the player has stepped on the foot controller 50.

記憶部90は、ハードディスク記憶装置やRAM等の各種データ記憶手段により構成されており、クライアント機能10a及びサーバ機能10bを実現するためのプログラムが格納されている。   The storage unit 90 includes various data storage means such as a hard disk storage device and a RAM, and stores programs for realizing the client function 10a and the server function 10b.

ディスク読み取り装置94は、CD−ROMやDVD−ROM等のコンピュータ読み取り可能な情報記憶媒体であるディスク96からデータを読み取り、制御部98に供給する。ここでは、ゲーム装置10で実行される各種プログラムがディスク96からゲーム装置10に供給され、記憶部90にインストールされるものとする。   The disk reader 94 reads data from a disk 96 that is a computer-readable information storage medium such as a CD-ROM or a DVD-ROM, and supplies the data to the controller 98. Here, it is assumed that various programs executed on the game apparatus 10 are supplied from the disk 96 to the game apparatus 10 and installed in the storage unit 90.

通信部92は、通信ネットワーク62に接続されており、ゲームサーバとして動作するゲーム装置10から、ネットワークシューティングゲームに参加している他のゲーム装置10の状況を示すデータ(後述する位置データ及び弾道データ)を受信する。また、自機(当該ゲーム装置10)の状況を示すデータ(後述する位置データ及び弾道データ)をゲームサーバとして動作するゲーム装置10に送信する。さらに、当該ゲーム装置10がサーバとして動作する場合には、他のゲーム装置10のクライアント機能10aからデータを受信すると、それをさらに他のゲーム装置10のクライアント機能10aに配信する。   The communication unit 92 is connected to the communication network 62 and receives data indicating the status of other game devices 10 participating in the network shooting game (position data and ballistic data described later) from the game device 10 operating as a game server. ). Further, data (position data and ballistic data described later) indicating the situation of the own device (the game device 10) is transmitted to the game device 10 operating as a game server. Further, when the game apparatus 10 operates as a server, when data is received from the client function 10a of another game apparatus 10, it is further distributed to the client function 10a of the other game apparatus 10.

音声処理部102にはスピーカ28,28が接続されており、制御部98からの制御に従ってゲーム効果音、ゲーム音楽その他の音声を出力する。例えば、弾丸オブジェクトの射出時には弾丸射出音を出力する。表示制御部100にはモニタ24が接続されており、制御部98からの制御に従って、例えば図3に示されるようなゲーム画面を表示出力する。   Speakers 28 and 28 are connected to the sound processing unit 102, and output game sound effects, game music and other sounds according to control from the control unit 98. For example, a bullet injection sound is output when a bullet object is emitted. A monitor 24 is connected to the display control unit 100 and displays and outputs a game screen as shown in FIG. 3, for example, according to control from the control unit 98.

図5は、本ゲーム装置10の機能ブロック図である。ゲーム装置10は上記のように公知の構成を有するコンピュータゲームシステムであり、所定のプログラムを実行することにより種々の機能を実現している。同図に示すように、このゲーム装置10は、機能的には通信制御部200、他キャラクタ弾道データ記憶部202、他キャラクタ位置データ記憶部204、自キャラクタ弾道データ記憶部206、自キャラクタ位置データ記憶部208、左右シフト量更新部210、プレイヤ姿勢判定部212、基礎位置設定部216、自キャラクタ弾道データ生成部218、当たり予想部220、弾道データ補正部222、ゲーム画像生成部214を含んで構成されている。これらの機能は、ディスク96からゲーム装置10に供給されるプログラムを制御部98によって実行することにより実現されている。   FIG. 5 is a functional block diagram of the game apparatus 10. The game apparatus 10 is a computer game system having a known configuration as described above, and implements various functions by executing predetermined programs. As shown in the figure, this game apparatus 10 functionally includes a communication control unit 200, another character ballistic data storage unit 202, another character position data storage unit 204, own character ballistic data storage unit 206, own character position data. A storage unit 208, a left / right shift amount update unit 210, a player posture determination unit 212, a base position setting unit 216, a player character ballistic data generation unit 218, a hit prediction unit 220, a ballistic data correction unit 222, and a game image generation unit 214 are included. It is configured. These functions are realized by the control unit 98 executing a program supplied from the disk 96 to the game apparatus 10.

まず、自キャラクタ弾道データ生成部218は、ガンコントローラ30からの入力に基づいて弾道データを生成する。すなわち、ガンコントローラ30から銃身方向を示すデータが入力されると、その時点の自キャラクタの位置座標(仮想3次元空間における絶対座標)を自キャラクタ位置データ記憶部208の記憶内容に基づいて生成する。この位置座標を弾丸オブジェクトの射出位置とし、それをガンコントローラ30から入力される銃身方向(射出方向)とともに弾道データとして自キャラクタ弾道データ記憶部206に格納する。図11(b)には、自キャラクタ弾道データ記憶部206に格納されるデータの構成が示されている。自キャラクタ弾道データ記憶部206に記憶された弾道データは通信制御部200により、サーバ機能10bを実行するゲーム装置10に送信される。サーバ機能10bを実行するゲーム装置10では、受信した弾道データをネットワークシューティングゲームに参加する他のゲーム装置10に配信する。そして、このデータは各ゲーム装置10の通信制御部200により受信され、他キャラクタ弾道データ記憶部202に格納される。図11(a)には、他キャラクタ弾道データ記憶部202に格納されるデータの構成が示されている。   First, the player character ballistic data generation unit 218 generates ballistic data based on the input from the gun controller 30. That is, when data indicating the barrel direction is input from the gun controller 30, the position coordinates (absolute coordinates in the virtual three-dimensional space) of the own character at that time are generated based on the stored contents of the own character position data storage unit 208. . This position coordinate is used as the bullet object injection position, and is stored in the own character ballistic data storage unit 206 as ballistic data together with the barrel direction (injection direction) input from the gun controller 30. FIG. 11B shows the structure of data stored in the own character ballistic data storage unit 206. The ballistic data stored in the player character ballistic data storage unit 206 is transmitted by the communication control unit 200 to the game apparatus 10 that executes the server function 10b. The game apparatus 10 that executes the server function 10b distributes the received ballistic data to other game apparatuses 10 that participate in the network shooting game. This data is received by the communication control unit 200 of each game apparatus 10 and stored in the other character trajectory data storage unit 202. FIG. 11A shows the configuration of data stored in the other character ballistic data storage unit 202.

他キャラクタ弾道データ記憶部202に新たに他のゲーム装置10で生成された弾道データが格納されると、当たり予想部220は、他キャラクタ弾道データ記憶部202に格納された弾道データと、自キャラクタ位置データ記憶部208の記憶内容に基づいて算出される、当該ゲーム装置10に関連づけられたプレイヤキャラクタオブジェクトの位置座標(絶対座標)と、に基づいて、弾丸オブジェクトが該プレイヤキャラクタオブジェクトに当たるか否かを予測する。すなわち、弾道データにより示される弾丸オブジェクトの予測軌道が、プレイヤキャラクタオブジェクトに設定されたヒットチェック(干渉判定)用の領域(不図示)に進入するか否かを判断する。弾丸オブジェクトの軌道は直線状であってもよいし、放物線状であってもよい。その他、種々の軌道を採用することができる。   When the ballistic data newly generated by the other game apparatus 10 is stored in the other character ballistic data storage unit 202, the hit prediction unit 220, the ballistic data stored in the other character ballistic data storage unit 202, and the own character Whether or not the bullet object hits the player character object based on the position coordinates (absolute coordinates) of the player character object associated with the game apparatus 10 calculated based on the stored contents of the position data storage unit 208 Predict. That is, it is determined whether or not the predicted trajectory of the bullet object indicated by the trajectory data enters a hit check (interference determination) area (not shown) set for the player character object. The trajectory of the bullet object may be linear or parabolic. In addition, various trajectories can be employed.

弾道データ補正部222は、弾丸オブジェクトが前記ヒットチェック用の領域に進入する場合、すなわち弾丸オブジェクト306がプレイヤキャラクタPCの所定箇所に当たると評価される場合(図12(a)参照)に、他キャラクタ弾道データ記憶部202に格納された弾道データを、当該ゲーム装置10に関連づけられたプレイヤキャラクタオブジェクトPCの眼の位置に設定された視点VPの位置座標に基づいて補正する(図12(b)参照)。具体的には、軌道データ補正部222は、弾道データのうち射出方向304をプレイヤキャラクタPCの眼の位置に設定された視点VPの位置の側にずらして補正後の射出方向304aを得る。すなわち、弾丸オブジェクト306の射出位置と視点VPとを結ぶベクトルと、弾丸オブジェクト306の射出方向304のベクトルと、のなす角が小さくなるように、弾道データを構成する射出方向304(ベクトルデータ)を補正する。そして、補正後のデータを他キャラクタ弾道データ記憶部202に格納する。こうすれば、弾丸オブジェクト306はプレイヤキャラクタPCの視野範囲302内を移動することになり、仮想3次元空間の様子をスクリーン300に投影してゲーム画面を生成した場合に、弾丸オブジェクト306がそこに確実に表されることになる。   When the bullet object enters the hit check area, that is, when it is evaluated that the bullet object 306 hits a predetermined position of the player character PC (see FIG. 12A), the ballistic data correction unit 222 The ballistic data stored in the ballistic data storage unit 202 is corrected based on the position coordinates of the viewpoint VP set at the eye position of the player character object PC associated with the game apparatus 10 (see FIG. 12B). ). Specifically, the trajectory data correction unit 222 shifts the emission direction 304 of the ballistic data to the position of the viewpoint VP set as the eye position of the player character PC to obtain the corrected emission direction 304a. That is, the injection direction 304 (vector data) constituting the ballistic data is set so that the angle formed by the vector connecting the injection position of the bullet object 306 and the viewpoint VP and the vector of the injection direction 304 of the bullet object 306 becomes small. to correct. Then, the corrected data is stored in the other character ballistic data storage unit 202. In this way, the bullet object 306 moves within the visual field range 302 of the player character PC, and when the game screen is generated by projecting the state of the virtual three-dimensional space onto the screen 300, the bullet object 306 is present there. It will definitely be represented.

また、ゲーム装置10では、図6に示すようにゲームの舞台となる仮想3次元空間に複数の基礎位置が設定されており、これらの位置座標及びIDが予め記憶されている。そして、各ゲームキャラクタオブジェクトは、いずれかの基礎位置を基準(配置基準位置)として、その実際の設置位置が決定されるようになっている。基礎位置設定部216は、当該ゲーム装置10に関連づけられたプレイヤキャラクタオブジェクトの基礎位置を配置基準位置として選択する。具体的には、ゲーム開始時には、予め定められた基礎位置を配置基準位置として選択する。そして、プレイヤ姿勢判定部212によりプレイヤがゲームステージ20上で左又は右に大きく体をずらしたまま所定時間以上経過したと判断すると、そのずらした向きに対応する仮想3次元空間の方向に設定されている基礎位置に配置基準位置を変更する。また、フットコントローラ50が踏まれると、プレイヤキャラクタの前方にある基礎位置に配置基準位置を変更する。   In the game apparatus 10, as shown in FIG. 6, a plurality of basic positions are set in a virtual three-dimensional space serving as a game stage, and these position coordinates and IDs are stored in advance. Each game character object has its actual installation position determined based on any base position (placement reference position). The base position setting unit 216 selects the base position of the player character object associated with the game apparatus 10 as the placement reference position. Specifically, at the start of the game, a predetermined basic position is selected as the arrangement reference position. When the player posture determination unit 212 determines that a predetermined time or more has elapsed with the body largely shifted left or right on the game stage 20, the player posture determination unit 212 sets the direction of the virtual three-dimensional space corresponding to the shifted direction. Change the placement reference position to the base position. Further, when the foot controller 50 is stepped on, the arrangement reference position is changed to the basic position in front of the player character.

さらに、基礎位置設定部216は、当該ゲーム装置10に関連づけられたプレイヤキャラクタオブジェクトが姿勢を向ける相手を、仮想3次元空間に配置された他のプレイヤキャラクタオブジェクトに中から選択し、そのプレイヤキャラクタに係る基礎位置を指向位置として管理している。具体的には、他キャラクタ位置データ記憶部204は、他のゲーム装置10において選択された基礎位置(配置基準位置)を格納しており、この中から1つを指向位置として選択している。基礎位置設定部216の選択結果(当該ゲーム装置10に関連づけられたプレイヤキャラクタオブジェクトの配置基準位置及び指向位置)は、いずれも自キャラクタ位置データ記憶部208に格納されている。   Further, the base position setting unit 216 selects, from among the other player character objects arranged in the virtual three-dimensional space, an opponent to which the player character object associated with the game apparatus 10 is directed, and assigns the player character to the player character. Such a base position is managed as a pointing position. Specifically, the other character position data storage unit 204 stores a basic position (arrangement reference position) selected in the other game apparatus 10 and selects one as a pointing position. The selection results of the base position setting unit 216 (the arrangement reference position and the pointing position of the player character object associated with the game apparatus 10) are both stored in the own character position data storage unit 208.

図10は、配置基準位置の再選択の方法を説明する図である。同図に示すように仮想3次元空間に基礎位置P1〜P6が配置されている場合、プレイヤキャラクタオブジェクトの現在位置SP’を通り、指向位置に配置された相手プレイヤキャラクタオブジェクト(相手オブジェクト)の位置を中心とする軌道250を算出する。この軌道250は、プレイヤの頭が筐体12に向かって左側にずれているとき平面視で反時計回りに延びる。また、右側にずれているとき平面視で時計回りに延びる。そして、軌道250に最も近い基礎位置(ここではP3)を新しい配置基準位置に選出する。   FIG. 10 is a diagram for explaining a method for reselecting the arrangement reference position. As shown in the figure, when the base positions P1 to P6 are arranged in the virtual three-dimensional space, the position of the opponent player character object (the opponent object) arranged at the pointing position through the current position SP ′ of the player character object. Is calculated. The track 250 extends counterclockwise in plan view when the player's head is shifted to the left side toward the housing 12. Moreover, when it has shifted | deviated to the right side, it extends clockwise by planar view. Then, the base position (here P3) closest to the trajectory 250 is selected as a new placement reference position.

プレイヤ姿勢判定部212は、超音波発信器17、超音波受信器13,15を用いて、ゲームステージ20上に立つプレイヤの姿勢を判定する。すなわち、図8に示すように、超音波発信器17から超音波を発射し、プレイヤMの頭を反射して超音波受信器13,15に入射するまでの各時間を計測し、そこから超音波発信器17からプレイヤMの頭に至る距離l0とプレイヤMの頭から超音波受信器13に至る距離l1との和(l0+l1)、及び超音波発信器17からプレイヤMの頭に至る距離l0とプレイヤMの頭から超音波受信器15に至る距離l2との和(l0+l2)を取得する。さらに、図中Lの長さは既知であるから、これらの情報を元に、プレイヤMの頭の位置を特定するデータ(x及びy)を算出する。そして、yの値(プレイヤの頭の左右のシフト量)の絶対値が所定値以上の状態が所定時間以上継続する場合には、基礎位置設定部216にプレイヤの頭のずれ方向を通知する。これを受けて、基礎位置設定部216は配置基準位置の再選択を行う。   The player posture determination unit 212 determines the posture of the player standing on the game stage 20 using the ultrasonic transmitter 17 and the ultrasonic receivers 13 and 15. That is, as shown in FIG. 8, an ultrasonic wave is emitted from the ultrasonic wave transmitter 17, each time from when the head of the player M is reflected and incident on the ultrasonic wave receivers 13 and 15 is measured, and from there The sum (10 + l1) of the distance l0 from the sound wave transmitter 17 to the head of the player M and the distance l1 from the head of the player M to the ultrasonic receiver 13, and the distance l0 from the ultrasonic wave transmitter 17 to the head of the player M And the sum (l0 + l2) of the distance l2 from the head of the player M to the ultrasonic receiver 15 is acquired. Further, since the length L in the figure is known, data (x and y) for specifying the position of the head of the player M is calculated based on these pieces of information. If the absolute value of the value of y (the shift amount of the left and right of the player's head) exceeds a predetermined value for a predetermined time or longer, the basic position setting unit 216 is notified of the player's head misalignment direction. In response, the base position setting unit 216 reselects the placement reference position.

一方、プレイヤ姿勢判定部212は、yの値の絶対値が所定値以上の状態が所定時間以上継続していない場合、当該yの値を左右シフト量更新部210に渡す。そして、左右シフト量更新部210は、このyの値に基づいてプレイヤキャラクタオブジェクトのシフト量を算出し、自キャラクタ位置データ記憶部208に記憶する。シフト量は、例えばプレイヤ姿勢判定部212から渡されるyの値そのものであってもよいし、順次生成されるyの値に平滑化等の各種処理を施してシフト量を算出してもよい。   On the other hand, if the state where the absolute value of the y value is greater than or equal to the predetermined value has not continued for a predetermined time or longer, the player posture determination unit 212 passes the y value to the left / right shift amount update unit 210. Then, the left / right shift amount update unit 210 calculates the shift amount of the player character object based on the value of y, and stores it in the own character position data storage unit 208. The shift amount may be, for example, the y value itself passed from the player attitude determination unit 212, or the shift amount may be calculated by performing various processes such as smoothing on the sequentially generated y value.

図9(b)には、自キャラクタ位置データ記憶部208に記憶されるデータの構成が示されている。同図に示すように、位置データは、配置基準位置として基礎位置設定部216により選択された基礎位置を識別する基礎位置ID、左右シフト量更新部210により設定されたシフト量、指向位置として基礎位置設定部216により選択された基礎位置を識別する基礎位置ID(ロック基礎位置ID)を含んで構成されている。   FIG. 9B shows the configuration of data stored in the own character position data storage unit 208. As shown in the figure, the position data includes a basic position ID for identifying a basic position selected by the basic position setting unit 216 as an arrangement reference position, a shift amount set by the left / right shift amount update unit 210, and a basic position as a pointing position. A base position ID (lock base position ID) for identifying the base position selected by the position setting unit 216 is included.

図7は、シフト量、配置基準位置、プレイヤキャラクタの現在位置の関係を示している。同図において、太線の矢印はプレイヤキャラクタオブジェクトの姿勢を示している。同図においてSPは配置基準位置を示しており、SP’は最大距離のシフト後のプレイヤキャラクタオブジェクトの位置を示しており、EPは指向位置として選択された基礎位置を示している。プレイヤキャラクタオブジェクトは配置基準位置SPを中心として、左右シフト量更新部210により設定されるシフト量だけ、指向位置EPを指向した状態で左右に移動するようになっている。ここでは、プレイヤキャラクタのシフト方向を、配置基準位置SPから指向位置EPに向かう方向に対して垂直としたが、他の方向にシフトさせるようにしてもよい。また、シフト量は左右ともに一定距離(ここではともにL)に制限されている。   FIG. 7 shows the relationship between the shift amount, the arrangement reference position, and the current position of the player character. In the figure, a thick arrow indicates the posture of the player character object. In the drawing, SP indicates the arrangement reference position, SP ′ indicates the position of the player character object after the maximum distance shift, and EP indicates the base position selected as the directivity position. The player character object moves to the left and right in the state where the pointing position EP is directed by the shift amount set by the left and right shift amount updating unit 210 with the arrangement reference position SP as the center. Here, the shift direction of the player character is perpendicular to the direction from the arrangement reference position SP to the pointing position EP, but may be shifted in another direction. Further, the shift amount is limited to a certain distance (L in this case) on both the left and right sides.

自キャラクタ位置データ記憶部208に格納されたデータは、通信制御部200によりサーバ機能10bを実行するゲーム装置10に送信される。このゲーム装置10は受信したデータをネットワークゲームに参加する他のゲーム装置10に配信する。通信制御部200では、こうして配信される位置データを受信すると、他キャラクタ位置データ記憶部204に格納する。図9(a)には、他キャラクタ位置データ記憶部204に格納されるデータの構成が示されている。   The data stored in the player character position data storage unit 208 is transmitted by the communication control unit 200 to the game apparatus 10 that executes the server function 10b. This game apparatus 10 distributes the received data to other game apparatuses 10 participating in the network game. When the communication control unit 200 receives the position data thus distributed, the communication control unit 200 stores it in the other character position data storage unit 204. FIG. 9A shows the configuration of data stored in the other character position data storage unit 204.

ゲーム画像生成部214は、他キャラクタ弾道データ記憶部202、他キャラクタ位置データ記憶部204、自キャラクタ弾道データ記憶部206、自キャラクタ位置データ記憶部208の各記憶内容に基づき、モニタ24に表示するゲーム画面を描画する。具体的には、他キャラクタ弾道データ記憶部202から弾道データを読み出し、該弾道データが示す仮想3次元空間内の軌道上に弾丸オブジェクを配置し、それを時間経過とともに移動させる。同様に、自キャラクタ弾道データ記憶部206から弾道データを読み出し、該弾道データが示す仮想3次元空間内の軌道上に弾丸オブジェクトを配置し、それを時間経過とともに移動させる。   The game image generation unit 214 displays on the monitor 24 based on the storage contents of the other character ballistic data storage unit 202, the other character position data storage unit 204, the own character ballistic data storage unit 206, and the own character position data storage unit 208. Draw a game screen. Specifically, the ballistic data is read from the other character ballistic data storage unit 202, the bullet object is placed on the trajectory in the virtual three-dimensional space indicated by the ballistic data, and is moved with time. Similarly, the ballistic data is read from the own character ballistic data storage unit 206, a bullet object is placed on the trajectory in the virtual three-dimensional space indicated by the ballistic data, and is moved with the passage of time.

さらに、他キャラクタ位置データ記憶部204から位置データを読み出し、この位置データにより示される仮想3次元空間内の位置に他のゲーム装置10に関連づけられたプレイヤキャラクタオブジェクトを配置する。このとき、プレイヤキャラクタオブジェクトの姿勢は、指向位置(ロック基礎位置ID)に基づいて、現在位置から該指向位置を向くように決定する。また、シフト量だけ配置基準位置からシフトした位置にプレイヤキャラクタオブジェクトを配置する。同様に、自キャラクタ位置データ記憶部208から位置データを読み出し、この位置データにより示される仮想3次元空間内の位置に当該ゲーム装置10に関連づけられたプレイヤキャラクタオブジェクトを配置する。このときも、プレイヤキャラクタオブジェクトの姿勢は、指向位置(ロック基礎位置ID)に基づいて、現在位置から該指向位置を向くように決定する。また、シフト量だけ配置基準位置からシフトした位置にプレイヤキャラクタオブジェクトを配置する。   Further, the position data is read from the other character position data storage unit 204, and the player character object associated with the other game apparatus 10 is arranged at the position in the virtual three-dimensional space indicated by the position data. At this time, the posture of the player character object is determined so as to face the pointing position from the current position based on the pointing position (lock base position ID). Further, the player character object is arranged at a position shifted from the arrangement reference position by the shift amount. Similarly, position data is read from the player character position data storage unit 208, and a player character object associated with the game apparatus 10 is placed at a position in the virtual three-dimensional space indicated by the position data. Also at this time, the posture of the player character object is determined so as to face the pointing position from the current position based on the pointing position (lock base position ID). Further, the player character object is arranged at a position shifted from the arrangement reference position by the shift amount.

さらに、このゲーム装置10では、弾丸オブジェクトが他のオブジェクトに接触したか否かを判断する。そして、他のオブジェクトに接触していればその弾丸オブジェクトに係る弾道データを他キャラクタ弾道データ記憶部202又は自キャラクタ弾道データ206から削除する。そして、接触位置にペンキ跡を示す画像を表示する。このため、仮想3次元空間における弾丸オブジェクトが他のオブジェクトに接触した(当たった)位置にペンキ跡オブジェクトを配置している。   Furthermore, in this game apparatus 10, it is determined whether or not the bullet object has contacted another object. If it is in contact with another object, the ballistic data related to the bullet object is deleted from the other character ballistic data storage unit 202 or the own character ballistic data 206. Then, an image showing a paint mark is displayed at the contact position. For this reason, the paint mark object is arranged at a position where the bullet object contacts (hits) another object in the virtual three-dimensional space.

ペンキ跡オブジェクトの表示方法としては、以下に示す2通りが採用されている。すなわち、建造物オブジェクト78等の静的オブジェクトについては、図13に示すように、弾丸オブジェクト400が静的オブジェクト402に接触する場合に、図15に示すように、その接触位置404を中心とした箇所を静的オブジェクト402から切り取る。この際、図16に示すように、弾丸オブジェクト400の軌道から接触方向408を算出し、それを静的オブジェクト402に射影してベクトル409を得るとともに、ベクトル409と接触方向408とのなす角θを算出しておく。   The following two methods are employed for displaying the paint mark object. That is, for a static object such as a building object 78, as shown in FIG. 13, when the bullet object 400 contacts the static object 402, as shown in FIG. Cut the part from the static object 402. At this time, as shown in FIG. 16, the contact direction 408 is calculated from the trajectory of the bullet object 400 and projected onto the static object 402 to obtain a vector 409, and the angle θ formed between the vector 409 and the contact direction 408. Is calculated in advance.

そして、接触位置404を中心とした箇所を静的オブジェクト402から切り取る際、その切り取り箇所の向きを当該ベクトル409に従って決定する。その後、切り取ったペンキ跡オブジェクト406を構成するポリゴンを細分割し(図17参照)、そこにペンキ跡を示すテクスチャ画像をマッピングする。このとき、ペンキ跡を示すテクスチャ画像を予め複数用意しておき、それぞれを上記なす角θの範囲と関連づけて記憶しておく(図18参照)。そして、ペンキ跡オブジェクト406には、上記のようにして算出したなす角θに応じたテクスチャ画像を選択的に読み出し、マッピングする(図19参照)。その後、ペンキ跡オブジェクト406を元の静的オブジェクト402における弾丸オブジェクト400の接触位置に配置する。   Then, when a portion centered on the contact position 404 is cut out from the static object 402, the direction of the cut portion is determined according to the vector 409. Thereafter, the polygons constituting the cut paint mark object 406 are subdivided (see FIG. 17), and a texture image showing the paint marks is mapped there. At this time, a plurality of texture images showing paint marks are prepared in advance and stored in association with the range of the angle θ formed above (see FIG. 18). A texture image corresponding to the angle θ calculated as described above is selectively read out and mapped onto the paint mark object 406 (see FIG. 19). Thereafter, the paint mark object 406 is arranged at the contact position of the bullet object 400 in the original static object 402.

一方、プレイヤキャラクタオブジェクト等の動的オブジェクトについては、図20に示すように、動的オブジェクト500の周囲に該動的オブジェクトをすっぽりと包含する不可視のポリゴンモデル(ペンキ跡オブジェクト)502を配置しておく。このポリゴンモデル502は図21に示すように、動的オブジェクト500そのものよりも細かいポリゴンの組合せにより構成されており、任意の箇所に任意のテクスチャをマッピングできるようになっている。そして、弾丸オブジェクト400が動的オブジェクト500に接触する場合に、その接触位置に応じたポリゴンモデル502の位置を特定し(図22参照)、そこに図18のようにして予め準備されたペンキ跡テクスチャ画像をマッピングする(図23参照)。このときも、弾丸オブジェクト400の動的オブジェクト500に対する接触方向と、その接触面の方向と、のなす角に応じたテクスチャ画像を選択的に読み出し、接触箇所にマッピングする。   On the other hand, for a dynamic object such as a player character object, as shown in FIG. 20, an invisible polygon model (paint mark object) 502 that completely surrounds the dynamic object 500 is arranged around the dynamic object 500. deep. As shown in FIG. 21, the polygon model 502 is configured by a combination of polygons finer than the dynamic object 500 itself, and can map an arbitrary texture at an arbitrary position. Then, when the bullet object 400 contacts the dynamic object 500, the position of the polygon model 502 corresponding to the contact position is specified (see FIG. 22), and there is a paint mark prepared in advance as shown in FIG. The texture image is mapped (see FIG. 23). Also at this time, the texture image corresponding to the angle formed by the contact direction of the bullet object 400 with respect to the dynamic object 500 and the direction of the contact surface is selectively read and mapped to the contact location.

その後、ゲーム画像生成部214では、当該ゲーム装置10に関連づけられたプレイヤキャラクタオブジェクトの眼の位置に配置された視点から、仮想3次元空間を見た様子を画像化し、それをモニタ24により表示する。   Thereafter, in the game image generation unit 214, an image of the virtual three-dimensional space viewed from the viewpoint arranged at the eye position of the player character object associated with the game apparatus 10 is displayed on the monitor 24. .

以上説明したネットワークゲームシステムによれば、弾丸オブジェクトがプレイヤキャラクタオブジェクトに接触することが予測される場合に、弾丸オブジェクトの軌道を補正して、弾丸オブジェクトがプレイヤキャラクタ上に設定された視点に向かって移動するようにしたので、該視点から仮想3次元空間を見た様子をモニタ24に表示することで、弾丸オブジェクトが迫りくる様子を示すことができる。   According to the network game system described above, when a bullet object is predicted to come into contact with the player character object, the trajectory of the bullet object is corrected so that the bullet object moves toward the viewpoint set on the player character. Since the movement is made, the state in which the bullet object is approaching can be shown by displaying on the monitor 24 the state of viewing the virtual three-dimensional space from the viewpoint.

また、各プレイヤキャラクタオブジェクトの位置を、予め定めた複数の基礎位置のいずれかに拘束しておき、それらの姿勢を、他のプレイヤキャラクタオブジェクトが拘束された基礎位置に基づいて算出するので、通信ネットワーク62のトラフィックの増大を抑えつつ、複数のゲーム装置10の間でそれらゲーム装置10に関連づけられたオブジェクトの位置及び姿勢を共有することができる。   In addition, since the position of each player character object is constrained to any of a plurality of predetermined base positions, and their postures are calculated based on the base positions where other player character objects are constrained, communication While suppressing an increase in traffic on the network 62, it is possible to share the positions and postures of the objects associated with the game apparatuses 10 among the plurality of game apparatuses 10.

さらに、弾丸オブジェクトが他のオブジェクトに接触した場合に、接触方向と接触面の方向とに応じた内容のテクスチャ画像がマッピングされたペンキ跡オブジェクトを表示するようにしたので、弾丸オブジェクトがどこから発射されたものであるかを、プレイヤはゲーム画面から直ちに理解することができるようになる。   Furthermore, when a bullet object touches another object, a paint mark object with a texture image mapped according to the contact direction and the direction of the contact surface is displayed, so where the bullet object is fired from. It is possible for the player to immediately understand whether or not the game is on the game screen.

本発明の実施形態に係るゲーム装置の外観斜視図である。1 is an external perspective view of a game device according to an embodiment of the present invention. 本発明の実施形態に係るネットワークシューティングゲームシステムの全体構成図である。1 is an overall configuration diagram of a network shooting game system according to an embodiment of the present invention. ゲーム画面の一例を示す図である。It is a figure which shows an example of a game screen. ゲーム装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of a game device. ゲーム装置の機能ブロック図である。It is a functional block diagram of a game device. 仮想3次元空間に設定された複数の基礎位置を示す図である。It is a figure which shows the some basic position set to the virtual three-dimensional space. プレイヤキャラクタオブジェクトの位置及び姿勢の決定方法を示す図である。It is a figure which shows the determination method of the position and attitude | position of a player character object. プレイヤの姿勢判断の手法を説明する図である。It is a figure explaining the method of a posture judgment of a player. プレイヤキャラクタオブジェクトの位置データの構成を示す図である。It is a figure which shows the structure of the position data of a player character object. 基礎位置(配置基準位置)の変更方向を示す図である。It is a figure which shows the change direction of a basic position (arrangement reference position). 弾丸オブジェクトの軌道データの構成を示す図である。It is a figure which shows the structure of the trajectory data of a bullet object. 軌道データの補正方法を示す図である。It is a figure which shows the correction method of orbit data. 静的オブジェクトに対するペンキ跡の表示方法を説明する図である。It is a figure explaining the display method of the paint trace with respect to a static object. 静的オブジェクトに対するペンキ跡の表示方法を説明する図である。It is a figure explaining the display method of the paint trace with respect to a static object. 静的オブジェクトに対するペンキ跡の表示方法を説明する図である。It is a figure explaining the display method of the paint trace with respect to a static object. 静的オブジェクトに対するペンキ跡の表示方法を説明する図である。It is a figure explaining the display method of the paint trace with respect to a static object. 静的オブジェクトに対するペンキ跡の表示方法を説明する図である。It is a figure explaining the display method of the paint trace with respect to a static object. 静的オブジェクトに対するペンキ跡の表示方法を説明する図である。It is a figure explaining the display method of the paint trace with respect to a static object. 静的オブジェクトに対するペンキ跡の表示方法を説明する図である。It is a figure explaining the display method of the paint trace with respect to a static object. 動的オブジェクトに対するペンキ跡の表示方法を説明する図である。It is a figure explaining the display method of the paint trace with respect to a dynamic object. 動的オブジェクトに対するペンキ跡の表示方法を説明する図である。It is a figure explaining the display method of the paint trace with respect to a dynamic object. 動的オブジェクトに対するペンキ跡の表示方法を説明する図である。It is a figure explaining the display method of the paint trace with respect to a dynamic object. 動的オブジェクトに対するペンキ跡の表示方法を説明する図である。It is a figure explaining the display method of the paint trace with respect to a dynamic object.

符号の説明Explanation of symbols

10 ゲーム装置、10a クライアント機能、10b サーバ機能、12 筐体、13,15 超音波受信器、14 枠体、16 支持棒、17 超音波発信器、18 基台、20 ゲームステージ、22 広告板、24 モニタ、26 迫り出し部、28 スピーカ、30 ガンコントローラ、32 決定ボタン、34,36 選択ボタン、38 フロントプレート、40 コイン投入部、42 保持ケーブル、44 コイン返却部、46 コイン回収扉、48 信号ケーブル、50 フットコントローラ、52 足形、60 ネットワークシューティングゲームシステム、62 通信ネットワーク、64 ロビーサーバ、66 他ステータス画像、68 経過時間画像、70 自ステータス画像、72 自動車オブジェクト、74 プレイヤキャラクタオブジェクト、76 地面オブジェクト、78 建造物オブジェクト、80,82,306,400 弾丸オブジェクト、84,406 ペンキ跡オブジェクト、90 記憶部、92 通信部、94 ディスク読み取り装置、96 ディスク、98 制御部、100 表示制御部、102 音声処理部、200 通信制御部、202 他キャラクタ弾道データ記憶部、204 他キャラクタ位置データ記憶部、206 自キャラクタ弾道データ記憶部、208 自キャラクタ位置データ記憶部、210 左右シフト量更新部、212 プレイヤ姿勢判定部、214 ゲーム画像生成部、216 基礎位置設定部、218 自キャラクタ弾道データ生成部、220 当たり予想部、222 弾道データ補正部、250 軌道、300 スクリーン、302 視野範囲、304,304a 射出方向、402 静的オブジェクト、404 接触位置、408 接触方向、409 ベクトル、500 動的オブジェクト、502 ポリゴンモデル。   10 game devices, 10a client function, 10b server function, 12 housing, 13, 15 ultrasonic receiver, 14 frame, 16 support rod, 17 ultrasonic transmitter, 18 base, 20 game stage, 22 billboard, 24 monitor, 26 projection part, 28 speaker, 30 gun controller, 32 determination button, 34, 36 selection button, 38 front plate, 40 coin insertion part, 42 holding cable, 44 coin return part, 46 coin recovery door, 48 signal Cable, 50 Foot Controller, 52 Foot, 60 Network Shooting Game System, 62 Communication Network, 64 Lobby Server, 66 Other Status Image, 68 Elapsed Time Image, 70 Own Status Image, 72 Car Object, 74 Player Character Object , 76 Ground object, 78 Building object, 80, 82, 306, 400 Bullet object, 84, 406 Paint mark object, 90 Storage unit, 92 Communication unit, 94 Disc reader, 96 disc, 98 Control unit, 100 Display Control unit, 102 voice processing unit, 200 communication control unit, 202 other character ballistic data storage unit, 204 other character position data storage unit, 206 own character ballistic data storage unit, 208 own character position data storage unit, 210 update left / right shift amount , 212 player posture determination unit, 214 game image generation unit, 216 base position setting unit, 218 own character ballistic data generation unit, 220 hit prediction unit, 222 ballistic data correction unit, 250 trajectory, 300 screen, 302 field of view range, 3 4,304a emission direction, 402 static objects, 404 contact position, 408 contact direction, 409 vectors, 500 dynamic objects, 502 polygon model.

Claims (7)

通信ネットワークにより相互に通信接続され、仮想3次元空間を共有する第1及び第2ゲーム装置を含み、
前記仮想3次元空間には、前記第1ゲーム装置に対応する第1視点設定オブジェクト、前記第2ゲーム装置に対応する第2視点設定オブジェクト、及び移動オブジェクトが配置され、
前記第1ゲーム装置は、
前記第1視点設定オブジェクトに対応する位置を示すデータを記憶する記憶手段と、
前記第1ゲーム装置に含まれる記憶手段に記憶されている前記第1視点設定オブジェクトに対応する位置を示すデータと、コントローラから入力される射出方向を示すデータと、に基づいて、前記移動オブジェクトの軌道を示すデータを生成する軌道データ生成手段と、
前記移動オブジェクトの軌道を示すデータを送信する軌道データ送信手段と、
前記軌道データ生成手段により生成された前記移動オブジェクトの軌道を示すデータに基づく、前記第1視点設定オブジェクトに設定された視点から前記仮想3次元空間を見た様子を表示部に表示させる表示制御手段と、を含み、
前記第2ゲーム装置は、
前記第2視点設定オブジェクトに対応する位置を示すデータを記憶する記憶手段と、
前記第1ゲーム装置により送信された前記移動オブジェクトの軌道を示すデータを取得する軌道取得手段と、
前記移動オブジェクトの軌道を示すデータと、前記第2ゲーム装置に含まれる記憶手段に記憶されている前記第2視点設定オブジェクトの位置を示すデータとに基づき、前記第2視点設定オブジェクトに設定された所定範囲に前記移動オブジェクトが進入するか否かを判断する進入判断手段と、
前記移動オブジェクトが前記所定範囲に進入する場合に、前記移動オブジェクトの軌道を示すデータを前記第2視点設定オブジェクトに設定された視点の位置に基づいて補正する軌道補正手段と、
前記軌道補正手段による補正後の前記移動オブジェクトの軌道を示すデータに基づく、前記第2視点設定オブジェクトに設定された前記視点から前記仮想3次元空間を見た様子を表示部に表示させる表示制御手段と、を含み、
前記第1ゲーム装置と前記第2ゲーム装置とで、前記移動オブジェクトが前記所定範囲に進入する場合に、異なる軌道により前記移動オブジェクトが前記仮想3次元空間を移動する様子が表示される、
ことを特徴とするネットワークゲームシステム。
Including a first game device and a second game device that are connected to each other by a communication network and share a virtual three-dimensional space;
Wherein the virtual three-dimensional space, the first viewpoint specifying object corresponding to the first game device, the second viewpoint setting object corresponding to the previous SL second game device, and the moving object is located,
The first game device includes:
Storage means for storing data indicating a position corresponding to the first viewpoint setting object;
Based on the data indicating the position corresponding to the first viewpoint setting object stored in the storage means included in the first game device, and the data indicating the injection direction input from the controller, the moving object Trajectory data generating means for generating data indicating the trajectory;
Orbit data transmitting means for transmitting data indicating the trajectory of the moving object;
Display control means for displaying on the display unit a state in which the virtual three-dimensional space is viewed from the viewpoint set in the first viewpoint setting object based on the data indicating the trajectory of the moving object generated by the trajectory data generation means And including
The second game device includes:
Storage means for storing data indicating a position corresponding to the second viewpoint setting object;
Trajectory acquisition means for acquiring data indicating the trajectory of the moving object transmitted by the first game device ;
Based on the data indicating the trajectory of the moving object and the data indicating the position of the second viewpoint setting object stored in the storage means included in the second game device, the second viewpoint setting object is set. Entry determination means for determining whether or not the moving object enters a predetermined range;
Orbit correction means for correcting data indicating the trajectory of the moving object based on the position of the viewpoint set in the second viewpoint setting object when the moving object enters the predetermined range;
Display control means for displaying on the display unit a state in which the virtual three-dimensional space is viewed from the viewpoint set in the second viewpoint setting object based on data indicating the trajectory of the moving object after correction by the trajectory correction means. And including
In the first game device and the second game device, when the moving object enters the predetermined range, a state in which the moving object moves in the virtual three-dimensional space by different trajectories is displayed.
A network game system characterized by that.
請求項1に記載のネットワークゲームシステムにおいて、The network game system according to claim 1,
前記視点設定オブジェクトは、プレイヤの操作対象であるゲームキャラクタオブジェクトであり、The viewpoint setting object is a game character object that is an operation target of the player,
前記移動オブジェクトは、他のプレイヤの操作対象であるゲームキャラクタオブジェクトから発射される弾丸オブジェクトである、The moving object is a bullet object fired from a game character object that is an operation target of another player.
ことを特徴とするネットワークゲームシステム。A network game system characterized by that.
通信ネットワークにより相互に通信接続され、仮想3次元空間を共有する第1及び第2ゲーム装置が実行するネットワークゲーム制御方法であって、
前記仮想3次元空間には、前記第1ゲーム装置に対応する第1視点設定オブジェクト、前記第2ゲーム装置に対応する第2視点設定オブジェクト、及び移動オブジェクトが配置され、
前記第1ゲーム装置は、前記第1視点設定オブジェクトの位置を示すデータを記憶する記憶手段を含み、
前記第2ゲーム装置は、前記第2視点設定オブジェクトの位置を示すデータを記憶する記憶手段を含み、
前記第1ゲーム装置に含まれる軌道データ生成手段が、前記第1ゲーム装置に含まれる記憶手段に記憶されている前記第1視点設定オブジェクトに対応する位置を示すデータと、コントローラから入力される射出方向を示すデータと、に基づいて、前記移動オブジェクトの軌道を示すデータを生成するステップと、
前記第1ゲーム装置に含まれる軌道データ送信手段が、前記移動オブジェクトの軌道を示すデータを送信するステップと、
前記第1ゲーム装置に含まれる表示制御手段が、前記軌道データ生成手段により生成された前記移動オブジェクトの軌道を示すデータに基づく、前記第1視点設定オブジェクトに設定された視点から前記仮想3次元空間を見た様子を表示部に表示させるステップと、
前記第2ゲーム装置に含まれる軌道取得手段が、前記第1ゲーム装置により送信された前記移動オブジェクトの軌道を示すデータを取得するステップと、
前記第2ゲーム装置に含まれる進入判断手段が、前記移動オブジェクトの軌道を示すデータ前記第2ゲーム装置に含まれる記憶手段に記憶されている前記第2視点設定オブジェクトの位置を示すデータとに基づき、前記第2視点設定オブジェクトに設定された所定範囲に前記移動オブジェクトが進入するか否かを判断するステップと、
前記第2ゲーム装置に含まれる軌道補正手段が、前記移動オブジェクトが前記所定範囲に進入する場合に、前記移動オブジェクトの軌道を示すデータを前記第2視点設定オブジェクトに設定された視点の位置に基づいて補正するステップと、
前記第2ゲーム装置に含まれる表示制御手段が、前記軌道補正手段による補正後の前記移動オブジェクトの軌道を示すデータに基づく、前記第2視点設定オブジェクトに設定された前記視点から前記仮想3次元空間を見た様子を表示部に表示させるステップと、を含み、
前記第1ゲーム装置と前記第2ゲーム装置とで、前記移動オブジェクトが前記所定範囲に進入する場合に、異なる軌道により前記移動オブジェクトが前記仮想3次元空間を移動する様子が表示される
ことを特徴とするネットワークゲーム制御方法。
A network game control method executed by a first game device and a second game device that are connected to each other by a communication network and share a virtual three-dimensional space,
Wherein the virtual three-dimensional space, the first viewpoint specifying object corresponding to the first game device, the second viewpoint setting object corresponding to the previous SL second game device, and the moving object is located,
The first game device includes storage means for storing data indicating a position of the first viewpoint setting object,
The second game device includes storage means for storing data indicating a position of the second viewpoint setting object,
The trajectory data generation means included in the first game device includes data indicating a position corresponding to the first viewpoint setting object stored in the storage means included in the first game device, and injection input from the controller Generating data indicating the trajectory of the moving object based on the data indicating the direction ;
A trajectory data transmitting means included in the first game device transmits data indicating a trajectory of the moving object;
The virtual three-dimensional space from the viewpoint set in the first viewpoint setting object based on the data indicating the trajectory of the moving object generated by the trajectory data generating means, the display control means included in the first game device A step of displaying on the display part the appearance of seeing,
A trajectory acquisition means included in the second game device acquires data indicating the trajectory of the moving object transmitted by the first game device ;
The entry determination means included in the second game device includes data indicating the trajectory of the moving object and data indicating the position of the second viewpoint setting object stored in the storage means included in the second game device. A step of determining whether or not the moving object enters a predetermined range set in the second viewpoint setting object;
When the moving object enters the predetermined range , the trajectory correcting means included in the second game device uses data indicating the trajectory of the moving object based on the viewpoint position set in the second viewpoint setting object. And correcting step,
The virtual three-dimensional space from the viewpoint set in the second viewpoint setting object based on the data indicating the trajectory of the moving object corrected by the trajectory correcting means, the display control means included in the second game device Displaying the appearance of seeing on the display unit ,
In the first game device and the second game device, when the moving object enters the predetermined range, a state in which the moving object moves in the virtual three-dimensional space by different trajectories is displayed .
A network game control method characterized by the above.
視点設定オブジェクトに設定された視点から該視点設定オブジェクト及び移動オブジェクトが配置された仮想3次元空間を見た様子を表示するゲーム装置であって、
前記視点設定オブジェクトの位置を示すデータを記憶する記憶手段と、
通信ネットワークにより通信接続された、前記仮想3次元空間を共有する他のゲーム装置から送信された、前記移動オブジェクトの軌道を示すデータを取得する軌道取得手段と、
前記移動オブジェクトの軌道を示すデータ、前記記憶手段に記憶されている前記視点設定オブジェクトの位置を示すデータと、に基づき、前記視点設定オブジェクトに設定された所定範囲に前記移動オブジェクトが進入するか否かを判断する進入判断手段と、
前記移動オブジェクトが前記所定範囲に進入する場合に、前記移動オブジェクトの軌道を示すデータを前記視点の位置に基づいて補正する軌道補正手段と、を含み、
前記軌道補正手段が、前記軌道を前記視点側にずらして前記軌道が前記視点の視野範囲内に向かうよう、前記移動オブジェクトの軌道を示すデータを補正する、
ことを特徴とするゲーム装置。
A game device for displaying a view of a virtual three-dimensional space in which the viewpoint setting object and the moving object are arranged from the viewpoint set in the viewpoint setting object,
Storage means for storing data indicating the position of the viewpoint setting object;
Trajectory acquisition means for acquiring data indicating the trajectory of the moving object , transmitted from another game device that shares the virtual three-dimensional space and is connected by communication network ;
Whether the moving object enters the predetermined range set in the viewpoint setting object based on the data indicating the trajectory of the moving object and the data indicating the position of the viewpoint setting object stored in the storage unit Entry determination means for determining whether or not,
Trajectory correction means for correcting data indicating the trajectory of the moving object based on the position of the viewpoint when the moving object enters the predetermined range ,
The trajectory correction unit corrects data indicating the trajectory of the moving object so that the trajectory is shifted toward the viewpoint and the trajectory is in the visual field range of the viewpoint;
A game device characterized by that.
請求項に記載のゲーム装置において、
前記視点設定オブジェクトは、プレイヤの操作対象であるゲームキャラクタオブジェクトであり、
前記移動オブジェクトは、他のプレイヤの操作対象であるゲームキャラクタオブジェクトから発射される弾丸オブジェクトである、
ことを特徴とするゲーム装置。
The game device according to claim 4 ,
The viewpoint setting object is a game character object that is an operation target of the player,
The moving object is a bullet object fired from a game character object that is an operation target of another player.
A game device characterized by that.
視点設定オブジェクトに設定された視点から該視点設定オブジェクト及び移動オブジェクトが配置された仮想3次元空間を見た様子を表示するゲーム装置が実行するゲーム制御方法であって、
前記ゲーム装置は、軌道取得手段と、進入判断手段と、軌道補正手段と、前記視点設定オブジェクトの位置を示すデータを記憶する記憶手段と、を含み、
前記軌道取得手段が、通信ネットワークにより通信接続された、前記仮想3次元空間を共有する他のゲーム装置から送信された、前記移動オブジェクトの軌道を示すデータを取得するステップと、
前記進入判断手段が、前記移動オブジェクトの軌道を示すデータと前記視点設定オブジェクトの位置に基づき、前記視点設定オブジェクトに設定された所定範囲に前記移動オブジェクトが進入するか否かを判断するステップと、
前記軌道補正手段が、前記移動オブジェクトが前記所定範囲に進入する場合に、前記移動オブジェクトの軌道を示すデータを前記視点の位置に基づいて補正する補正ステップと、を含み、
前記補正ステップでは、前記軌道補正手段が、前記軌道を前記視点側にずらして前記軌道が前記視点の視野範囲内に向かうよう、前記移動オブジェクトの軌道を示すデータを補正する、
を含むことを特徴とするゲーム制御方法。
A game control method executed by a game device that displays a view of a virtual three-dimensional space in which the viewpoint setting object and the moving object are arranged from the viewpoint set in the viewpoint setting object,
The game device includes a trajectory acquisition unit, an entry determination unit, a trajectory correction unit, and a storage unit that stores data indicating the position of the viewpoint setting object,
Said track obtaining means, communicatively connected by a communication network, said transmitted the virtual three-dimensional space from the other game device for sharing, and Luz step to obtain data indicating a trajectory of the moving object,
The approach determining means, based on the position of the data indicating a trajectory of the moving object the viewpoint setting object, Luz step to determine whether the moving object in a predetermined range set in the viewpoint setting object enters When,
The trajectory correction means includes a correction step of correcting data indicating the trajectory of the moving object based on the position of the viewpoint when the moving object enters the predetermined range ;
In the correction step, the trajectory correction unit corrects data indicating the trajectory of the moving object so that the trajectory is shifted toward the viewpoint and the trajectory is within the visual field range of the viewpoint.
A game control method comprising:
視点設定オブジェクトに設定された視点から該視点設定オブジェクト及び移動オブジェクトが配置された仮想3次元空間を見た様子を表示するゲーム装置としてコンピュータを機能させるためのプログラムであって、
前記コンピュータは、制御手段と、前記視点設定オブジェクトの位置を示すデータを記憶する記憶手段と、を含み、
通信ネットワークにより通信接続された、前記仮想3次元空間を共有する他のゲーム装置から送信された、前記移動オブジェクトの軌道を示すデータを取得する軌道取得手段、
前記移動オブジェクトの軌道を示すデータと前記視点設定オブジェクトの位置に基づき、前記視点設定オブジェクトに設定された所定範囲に前記移動オブジェクトが進入するか否かを判断する進入判断手段、及び
前記移動オブジェクトが前記所定範囲に進入する場合に、前記移動オブジェクトの軌道を示すデータを前記視点の位置に基づいて補正する軌道補正手段、として前記制御手段を機能させ、
前記軌道補正手段が、前記軌道を前記視点側にずらして前記軌道が前記視点の視野範囲内に向かうよう、前記移動オブジェクトの軌道を示すデータを補正する、
ことを特徴とするプログラム。
A program for causing a computer to function as a game device that displays a view of a virtual three-dimensional space in which the viewpoint setting object and the moving object are arranged from the viewpoint set in the viewpoint setting object,
The computer includes control means and storage means for storing data indicating the position of the viewpoint setting object,
Trajectory acquisition means for acquiring data indicating the trajectory of the moving object , transmitted from another game device sharing the virtual three-dimensional space, connected by communication via a communication network ;
Based on the data indicating the trajectory of the moving object and the position of the viewpoint setting object, an entry determination means for determining whether or not the moving object enters a predetermined range set in the viewpoint setting object; and When entering the predetermined range, the control means functions as a trajectory correction means for correcting data indicating the trajectory of the moving object based on the position of the viewpoint,
The trajectory correction unit corrects data indicating the trajectory of the moving object so that the trajectory is shifted toward the viewpoint and the trajectory is in the visual field range of the viewpoint;
A program characterized by that .
JP2005190330A 2005-06-29 2005-06-29 Network game system, network game control method, game device, game control method, and program Expired - Lifetime JP4563267B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005190330A JP4563267B2 (en) 2005-06-29 2005-06-29 Network game system, network game control method, game device, game control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005190330A JP4563267B2 (en) 2005-06-29 2005-06-29 Network game system, network game control method, game device, game control method, and program

Publications (2)

Publication Number Publication Date
JP2007007065A JP2007007065A (en) 2007-01-18
JP4563267B2 true JP4563267B2 (en) 2010-10-13

Family

ID=37746302

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005190330A Expired - Lifetime JP4563267B2 (en) 2005-06-29 2005-06-29 Network game system, network game control method, game device, game control method, and program

Country Status (1)

Country Link
JP (1) JP4563267B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6357304B2 (en) * 2013-08-21 2018-07-11 株式会社三共 Game machine
JP6441517B1 (en) * 2018-01-26 2018-12-19 株式会社コロプラ Program, information processing apparatus, and method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001017746A (en) * 2000-01-01 2001-01-23 Namco Ltd Game device and information storage medium
WO2002047780A1 (en) * 2000-12-14 2002-06-20 Sega Corporation Game machine, communication game system, and recorded medium
JP3442754B2 (en) * 2001-08-10 2003-09-02 株式会社コナミコンピュータエンタテインメント東京 Gun shooting game apparatus, computer control method and program
JP3325265B1 (en) * 2001-08-31 2002-09-17 コナミ株式会社 Shooting game device, program, and game control method

Also Published As

Publication number Publication date
JP2007007065A (en) 2007-01-18

Similar Documents

Publication Publication Date Title
JP3561463B2 (en) Virtual camera viewpoint movement control method and 3D video game apparatus in 3D video game
KR101686576B1 (en) Virtual reality system and audition game system using the same
US7059962B2 (en) Gun shooting game device, method of controlling computer and program
US8100770B2 (en) Game controller, storage medium storing game program, and game apparatus
US6509896B1 (en) Image processor, image processing method, medium and game machine
CN100542645C (en) Image generating device and image display method
JP6697846B2 (en) Game system, server system and program
JP4861699B2 (en) NETWORK GAME SYSTEM, NETWORK GAME SYSTEM CONTROL METHOD, GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
US10653959B2 (en) Image processing apparatus and image processing method for displaying video image capable of achieving improved operability and realism, and non-transitory storage medium encoded with computer readable program for controlling image processing apparatus
US9526987B2 (en) Storage medium, game apparatus, game system and game controlling method
US20020190981A1 (en) Image generation device and information storage medium
JP2002052243A (en) Competition type video game
JP2010264171A (en) GAME PROGRAM AND GAME DEVICE
US7744466B2 (en) Storage medium storing a game program, game apparatus and game controlling method
JP4563266B2 (en) NETWORK GAME SYSTEM, GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
JP5841352B2 (en) GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME PROCESSING METHOD
JP4563267B2 (en) Network game system, network game control method, game device, game control method, and program
JP4861706B2 (en) NETWORK GAME SYSTEM, NETWORK GAME SYSTEM CONTROL METHOD, GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
JP4445707B2 (en) Virtual camera viewpoint movement control method and 3D video game apparatus in 3D video game
JP2012239777A (en) Information processing program, information processor, information processing system, and information processing method
HK1114042B (en) Network game system, network game system control method, game machine and game machine control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100512

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100720

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100728

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130806

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4563267

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130806

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140806

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term