JP2011215886A - Program, information storage medium, and image generation device - Google Patents
Program, information storage medium, and image generation device Download PDFInfo
- Publication number
- JP2011215886A JP2011215886A JP2010083446A JP2010083446A JP2011215886A JP 2011215886 A JP2011215886 A JP 2011215886A JP 2010083446 A JP2010083446 A JP 2010083446A JP 2010083446 A JP2010083446 A JP 2010083446A JP 2011215886 A JP2011215886 A JP 2011215886A
- Authority
- JP
- Japan
- Prior art keywords
- look
- auto
- virtual camera
- target
- moving object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 claims description 77
- 238000004364 calculation method Methods 0.000 claims description 17
- 230000006870 function Effects 0.000 claims description 17
- 230000007123 defense Effects 0.000 claims description 5
- 238000000034 method Methods 0.000 description 32
- 230000008569 process Effects 0.000 description 29
- 238000010586 diagram Methods 0.000 description 23
- 239000003550 marker Substances 0.000 description 16
- 238000003384 imaging method Methods 0.000 description 8
- 230000000007 visual effect Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 6
- 230000009466 transformation Effects 0.000 description 6
- 238000001514 detection method Methods 0.000 description 5
- 238000002156 mixing Methods 0.000 description 5
- 230000004913 activation Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 230000007717 exclusion Effects 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 230000007704 transition Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 230000001154 acute effect Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000012634 fragment Substances 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 239000000470 constituent Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000004148 unit process Methods 0.000 description 1
Landscapes
- Processing Or Creating Images (AREA)
Abstract
【課題】入力情報により仮想空間でプレーヤキャラクタの自由移動が可能なゲームの画像を生成する画像生成装置において、注目対象対となる移動体オブジェクトを画面内にとらえやすいサポート機能を提供すること。
【解決手段】本プログラムは、仮想カメラ又はプレーヤキャラクタを制御する制御情報に基づき仮想カメラの配置制御を行う仮想カメラ配置制御部と、オートルック条件を満たす移動体オブジェクトが存在するか否か検索し、オートルック条件を満たす1つの移動体オブジェクトをオートルック対象として設定するオートルック対象設定部としてコンピュータを機能させ、前記仮想カメラ配置制御部は、オートルック対象が設定されていない場合には、前記移動入力情報に基づき仮想カメラの向きを制御し、オートルック対象が設定されている場合には、当該オートルック対象の移動体オブジェクトの画像が、生成される画像の所与の位置に設定されたルック範囲に入るまで、仮想カメラを回転させるルック回転制御を行う。
【選択図】図21An image generation apparatus that generates an image of a game in which a player character can freely move in a virtual space by using input information, and provides a support function that makes it easy to capture a moving object as a target pair on the screen.
The program searches a virtual camera arrangement control unit that performs virtual camera arrangement control based on control information for controlling a virtual camera or a player character, and whether or not a moving object that satisfies an auto-look condition exists. , Causing the computer to function as an autolook target setting unit that sets one mobile object that satisfies the autolook condition as an autolook target, and the virtual camera arrangement control unit, when the autolook target is not set, When the orientation of the virtual camera is controlled based on the movement input information and the auto-look target is set, the image of the mobile object subject to auto-look is set at a given position in the generated image. Look rotation control is performed to rotate the virtual camera until it enters the look range.
[Selection] Figure 21
Description
本発明は、プログラム、情報記憶媒体、及び、画像生成装置に関する。 The present invention relates to a program, an information storage medium, and an image generation apparatus.
従来より、キャラクタなどのオブジェクトが配置設定されるオブジェクト空間内(仮想的な3次元空間)において仮想カメラ(所与の視点)から見える画像を生成する画像生成装置(ゲームシステム)が知られており、いわゆる仮想現実を体験できるものとして人気が高い。 Conventionally, there has been known an image generation device (game system) that generates an image that can be viewed from a virtual camera (a given viewpoint) in an object space (virtual three-dimensional space) in which an object such as a character is set. It is popular as a place to experience so-called virtual reality.
例えば、プレーヤが入力部を用いて、オブジェクト空間(3次元空間)において、弾を発射させて敵キャラクタを射撃するシューティングゲームの画像を生成する画像生成装置が存在する。 For example, there is an image generation apparatus in which a player uses an input unit to generate an image of a shooting game in which a bullet is fired to shoot an enemy character in an object space (three-dimensional space).
このような画像生成装置では、プレーヤの入力操作に基づいてプレーヤキャラクタをゲーム空間内で自由に移動させることをできるものがあり、人気が高い。 Among such image generation apparatuses, there is one that can freely move a player character in a game space based on an input operation of the player, and is popular.
かかる画像生成装置においては、プレーヤの入力に基づいてプレーヤキャラクタの位置や向きとともに仮想カメラの位置や向き等も変化するため、プレーヤの移動中に標的とする敵キャラクタを画面内に捕らえることが難しいという問題があった。 In such an image generating apparatus, the position and orientation of the virtual camera change together with the position and orientation of the player character based on the input of the player, so that it is difficult to capture the target enemy character on the screen while the player is moving. There was a problem.
本発明は、以上のような課題を解決するためになされたものである。本発明のいくつかの態様によれば、入力情報により仮想空間でプレーヤキャラクタの自由移動が可能なゲームの画像を生成する画像生成装置において、注目対象となる移動体オブジェクトを画面内にとらえやすいサポート機能を提供することができる。 The present invention has been made to solve the above-described problems. According to some aspects of the present invention, in an image generation apparatus that generates an image of a game in which a player character can freely move in a virtual space based on input information, support that makes it easy to capture a mobile object to be noticed on the screen Function can be provided.
(1)本発明は、
移動体オブジェクトが存在する仮想空間を仮想カメラから見た画像を生成するためのプログラムであって、
仮想カメラ又はプレーヤキャラクタを制御する制御情報に基づき仮想カメラの配置制御を行う仮想カメラ配置制御部と、
仮想空間に存在する移動体オブジェクトの中にオートルック条件を満たす移動体オブジェクトが存在するか否か検索し、オートルック条件を満たす1つの移動体オブジェクトをオートルック対象として設定するオートルック対象設定部と、
仮想空間を仮想カメラから見た画像を生成する画像生成部と、してコンピュータを機能させ、
前記仮想カメラ配置制御部は、
オートルック対象が設定されていない場合には、前記移動入力情報に基づき仮想カメラの向きを制御し、オートルック対象が設定されている場合には、当該オートルック対象の移動体オブジェクトの画像が、生成される画像の所与の位置に設定されたルック範囲に入るまで、仮想カメラを回転(旋回)させるルック回転(旋回)制御を行うことを特徴とする。
(1) The present invention
A program for generating an image obtained by viewing a virtual space where a moving object exists from a virtual camera,
A virtual camera placement control unit that controls placement of the virtual camera based on control information for controlling the virtual camera or the player character;
An auto-look target setting unit that searches whether there is a mobile object that satisfies the auto-look condition among the mobile objects that exist in the virtual space, and sets one mobile object that satisfies the auto-look condition as an auto-look target When,
The computer functions as an image generation unit that generates an image of the virtual space viewed from a virtual camera,
The virtual camera arrangement control unit
When the auto-look target is not set, the orientation of the virtual camera is controlled based on the movement input information, and when the auto-look target is set, the image of the mobile object that is the auto-look target is Look rotation (turning) control is performed to rotate (turn) the virtual camera until a look range set at a given position of the generated image is entered.
本発明は、コンピュータ読み取り可能な情報記憶媒体であって、上記各部として、コンピュータを機能させるプログラムを記憶した情報記憶媒体、上記各部を含む画像生成装置に関係する。 The present invention relates to a computer-readable information storage medium, and relates to an information storage medium that stores a program that causes a computer to function as each unit, and an image generation apparatus that includes each unit.
移動体オブジェクトのルック基準点がルック範囲に入るまで仮想カメラの向きを回転(旋回)させてもよい。なおルック範囲の位置は、生成された画像の固定位置でもよいし、外部からの設定や内部のパラメータによって、又はランダムに変化する位置でもよい。またルック範囲の大きさは、固定でもよいし、外部からの設定や内部のパラメータによって、又はランダムに変化してもよい。またルック範囲の数は、生成された画像に対して1つ設定されてもよいし、複数設定されてもよいし、外部からの設定や内部のパラメータによって、又はランダムに変化させてもよい。 The direction of the virtual camera may be rotated (turned) until the look reference point of the moving object enters the look range. Note that the position of the look range may be a fixed position of the generated image, or may be a position that changes randomly according to external settings or internal parameters. Further, the size of the look range may be fixed, may be changed according to external settings or internal parameters, or randomly. In addition, the number of look ranges may be set to one for a generated image, a plurality of look ranges may be set, or may be changed according to external settings or internal parameters, or at random.
ルック回転(旋回)制御は、プレーヤによるオートルック発動指示入力を受け付けた場合に行うようにしてもよい。オートルック対象が設定されていても、プレーヤによるオートルック発動指示入力があるまでは、ルック回転(旋回)制御を行わない構成も本発明の範囲内である。 The look rotation (turning) control may be performed when an auto-look activation instruction input from the player is received. Even if the auto-look target is set, a configuration in which the look rotation (turning) control is not performed until the auto-look activation instruction is input by the player is within the scope of the present invention.
仮想カメラの位置はオートルック対象の設定の有無に関わらず、入力情報に基づき演算してもよい。入力情報によって移動するプレーヤキャラクタが存在する場合には、仮想カメラをプレーヤキャラクタに追従させるようにしてもよい。また 仮想カメラの位置が固定されていて、入力情報に基づき仮想カメラの向きだけを変化させる画像生成装置にも適用可能である。 The position of the virtual camera may be calculated based on the input information regardless of whether auto-look target is set. When there is a player character that moves according to the input information, the virtual camera may be caused to follow the player character. Further, the present invention can be applied to an image generating apparatus in which the position of the virtual camera is fixed and only the orientation of the virtual camera is changed based on input information.
本発明はプレーヤキャラクタが存在するが1人称視点の画像が生成される場合(FPSの場合)プレーヤキャラクタが存在し3人称視点の画像が生成される場合(TPSの場合)のいずれの場合にも適用可能である。またプレーヤキャラクタは、入力情報によって仮想空間内を自由に移動する制御が行われる構成でもよい。仮想カメラはプレーヤキャラクタに追従して移動する構成でもよく、この場合プレーヤキャラクタを移動させるための入力情報に基づき仮想カメラの移動や配置制御が行われる。 The present invention is applicable to any case where a player character exists but a first-person viewpoint image is generated (in the case of FPS) and a third-person viewpoint image is generated (in the case of TPS). Applicable. Further, the player character may be configured to be controlled to freely move in the virtual space according to the input information. The virtual camera may be configured to move following the player character. In this case, the virtual camera is moved and arranged based on input information for moving the player character.
本発明によれば、入力情報により仮想空間でプレーヤキャラクタの自由移動が可能なゲームの画像を生成する画像生成装置において、注目対象となる移動体オブジェクトを画面内にとらえやすいサポート機能を提供することができる。 According to the present invention, in an image generating apparatus that generates an image of a game in which a player character can freely move in a virtual space based on input information, a support function that makes it easy to capture a moving object to be noticed on the screen is provided. Can do.
(2)このプログラム、情報記憶媒体、画像生成装置は、
指示位置又は指示方向を指示する入力情報に基づき、仮想空間における指示位置又は指示方向を演算する指示位置又は指示方向演算部をさらに含み、
前記オートルック対象設定部は、
移動体オブジェクトの位置と指示位置又は指示方向に基づきオートルック条件を満たす1つの移動体オブジェクトをオートルック対象として決定してもよい。
(2) This program, information storage medium, and image generation device
An instruction position or instruction direction calculator for calculating the instruction position or instruction direction in the virtual space based on the input information indicating the instruction position or instruction direction;
The auto look target setting unit
One moving object that satisfies the auto look condition may be determined as an auto look target based on the position of the moving object and the designated position or direction.
(3)このプログラム、情報記憶媒体、画像生成装置は、
前記オートルック対象設定部は、
仮想空間に配置された移動体オブジェクトについてオートルック条件を満たすか否か判定し、オートルック条件を満たす移動体オブジェクトをオートルック対象候補として選択し、選択されたオートルック対象候補からオートルック対象を決定してもよい。
(3) This program, information storage medium, and image generation device
The auto look target setting unit
Determines whether or not the auto-look condition is satisfied for the moving object placed in the virtual space, selects a mobile object that satisfies the auto-look condition as an auto-look target candidate, and selects the auto-look target from the selected auto-look target candidates You may decide.
オートルック条件として複数の条件を設定し、すべての条件を満たした場合にオートルック条件を満たすと判定する場合でもよいし、複数の条件の1つでも満たした場合にオートルック条件を満たすと判定する場合でもよい。 Multiple conditions may be set as auto look conditions, and it may be determined that the auto look condition is satisfied when all the conditions are satisfied, or the auto look condition is determined when at least one of the multiple conditions is satisfied. You may do it.
例えばオートルック条件として、プレーヤキャラクタが攻撃を行ってヒットした敵キャラクタの移動体オブジェクトであることを条件としてもよい。この様にするとプレーヤキャラクタが一度弾を当てた敵キャラクタはオートルック対象となるので、弾を複数発当てなければ倒せないという設定の場合に、最初の一発を当てることが出来れば、2発目以降はより当て易くすることが出来るようになる。 For example, the auto-look condition may be that the player character is a moving object of an enemy character hit by an attack. In this way, the enemy character once hit by the player character is subject to auto-look, so if you can hit the first shot in the setting that you can not defeat unless you hit multiple bullets, After the eyes can be made easier.
(4)このプログラム、情報記憶媒体、画像生成装置は、
前記オートルック対象設定部は、
いずれかの移動体オブジェクトがオートルック対象として設定されている場合は、キャンセルイベントが発生するまでは、オートルック対象を変更しないでもよい。
(4) This program, information storage medium, and image generation device
The auto look target setting unit
If any mobile object is set as an autolook target, the autolook target may not be changed until a cancel event occurs.
プレーヤの入力によってオートルックモードになり、プレーヤのオートルック解除入力によりオートルックモードが解除される場合には、プレーヤのオートルック解除入力はキャンセルイベントとなる。オートルックモードが発動されていない場合にはオートルックモードを変更できるようにし、オートルックモードが発動されている場合には、キャンセルイベントが発生するまでは、オートルック対象を変更しないようにしてもよい。 When the auto-look mode is set by the player input and the auto-look mode is canceled by the player auto-release cancel input, the player auto-look cancel input becomes a cancel event. When the auto look mode is not activated, the auto look mode can be changed. When the auto look mode is activated, the auto look target may not be changed until the cancel event occurs. Good.
また例えばオートルック対象の移動体オブジェクトがライフ0になった場合や消滅した場合、画面外(FPSの場合にはプレーヤキャラクタの視野外、TPSの場合には表示範囲外でもよい)になった場合等もキャンセルイベントとしてもよい。 Also, for example, when the auto-look target mobile object becomes 0 life or disappears, it goes out of the screen (in the case of FPS, outside the player character's field of view, or in the case of TPS, it may be out of the display range). Etc. may be canceled events.
このようにするとオートルック対象が煩雑に切り替えられることにより生じる仮想カメラの回転(旋回)を減らすことができるので、オートルック中も見やすい画像を提供することができる。 In this way, since the rotation (turning) of the virtual camera caused by the complicated switching of the autolook target can be reduced, an easy-to-view image can be provided even during autolook.
(5)このプログラム、情報記憶媒体、画像生成装置は、
前記オートルック対象設定部は、
前記仮想空間内において仮想カメラ又はプレーヤキャラクタと移動体オブジェクトを結ぶ線分上に障害物があるか否かを判断し、障害物がある場合には当該移動体オブジェクトはオートルック条件を満たさないと判断してもよい。
(5) This program, information storage medium, and image generation device
The auto look target setting unit
In the virtual space, it is determined whether there is an obstacle on a line segment connecting the virtual camera or the player character and the moving object, and if there is an obstacle, the moving object must satisfy the auto-look condition. You may judge.
仮想カメラ又はプレーヤキャラクタと移動体オブジェクトを結ぶ線分は、例えば直線でもよいし、所与の起動を描く曲線(弾道曲線や弓なりの曲線や放物線等)でもよい。この様にすると見えているオブジェクトを優先的にオートルック対象とすることができる。 The line segment connecting the virtual camera or player character and the moving object may be, for example, a straight line, or a curved line (ballistic curve, bow-shaped curve, parabola, etc.) depicting a given activation. In this way, the visible object can be preferentially set as an auto-look target.
(6)このプログラム、情報記憶媒体、画像生成装置は、
移動体オブジェクトまたはその少なくとも1つの代表点に有効時間を設定し、設定されている有効時間がなくなるまで有効時間をデクリメントする有効時間演算部をさらに含み、
前記オートルック対象設定部は、
有効時間が残っていない移動体オブジェクトまたは代表点はオートルック条件を満たさないと判断してもよい。
(6) The program, the information storage medium, and the image generation device
An effective time calculation unit that sets an effective time for the moving object or at least one representative point thereof, and decrements the effective time until the set effective time is exhausted;
The auto look target setting unit
It may be determined that a moving object or a representative point with no valid time remaining does not satisfy the auto-look condition.
例えば所定の条件を満たす移動体オブジェクトまたはその少なくとも1つの代表点に有効時間を設定してもよい。例えば移動体オブジェクトが敵か味方かのいずれかの属性情報を有する場合、敵属性を有することを所定の条件としてもよい。 For example, a valid time may be set for a moving object that satisfies a predetermined condition or at least one representative point thereof. For example, when the moving object has attribute information of either an enemy or a friend, the predetermined condition may be that the moving object has an enemy attribute.
(7)このプログラム、情報記憶媒体、画像生成装置は、
前記オートルック対象設定部は、
プレーヤキャラクタと移動体オブジェクトの距離が有効範囲内にないものは、オートルック条件を満たさないと判断してもよい。
(7) This program, information storage medium, and image generation device
The auto look target setting unit
If the distance between the player character and the moving object is not within the effective range, it may be determined that the auto-look condition is not satisfied.
(8)このプログラム、情報記憶媒体、画像生成装置は、
前記オートルック対象設定部は、
プレーヤキャラクタのアイテム、属性、発生するイベントの種類、ゲームステージの種類の少なくとも1つに基づき、前記有効範囲を変化させてもよい。
(8) This program, information storage medium, and image generation device
The auto look target setting unit
The effective range may be changed based on at least one of the item, attribute, type of event to be generated, and type of game stage.
(9)このプログラム、情報記憶媒体、画像生成装置は、
前記仮想カメラ配置制御部は、
オートルック対象の移動体オブジェクトの画像が、生成される画像の所定の位置に設定され前記ルック範囲を内包する第2の範囲に含まれなくなった場合には、前記オートルック対象の移動体オブジェクトの画像が前記ルック範囲又は前記第2の範囲に含まれるように仮想カメラを回転(旋回)させる追尾制御を行ってもよい。
(9) This program, information storage medium, and image generation device
The virtual camera arrangement control unit
When the image of the mobile object subject to auto-look is not included in the second range including the look range set at a predetermined position of the generated image, Tracking control for rotating (turning) the virtual camera so that the image is included in the look range or the second range may be performed.
(10)このプログラム、情報記憶媒体、画像生成装置は、
移動体オブジェクトを構成する少なくとも1つの代表点に対して有効/無効フラグを設定するフラグ設定部をさらに含み、
前記オートルック対象設定部は、
有効フラグの設定されている代表点がない移動体オブジェクトは、オートルック条件を満たさないと判断してもよい。
(10) The program, the information storage medium, and the image generation device
A flag setting unit for setting a valid / invalid flag for at least one representative point constituting the moving object;
The auto look target setting unit
A mobile object that does not have a representative point for which an effective flag is set may be determined not to satisfy the auto-look condition.
(11)このプログラム、情報記憶媒体、画像生成装置は、
前記仮想カメラ配置制御部は、
オートルック対象の移動体オブジェクトの有効フラグの設定されている代表点が前記ルック範囲又は前記第2の範囲に含まれるように仮想カメラを回転(旋回)させてもよい。
(11) The program, the information storage medium, and the image generation device
The virtual camera arrangement control unit
The virtual camera may be rotated (turned) so that the representative point in which the valid flag of the auto-look target moving object is set is included in the look range or the second range.
(12)このプログラム、情報記憶媒体、画像生成装置は、
前記仮想カメラ配置制御部は、
所与のイベントに基づきオートルックモードが発動されると、オートルック対象が設定されている場合にはルック回転(旋回)制御が行なわれ、オートルックモードが発動されていない場合には入力情報に基づき仮想カメラの向きを制御してもよい。
(12) The program, the information storage medium, and the image generation device
The virtual camera arrangement control unit
When the auto look mode is activated based on a given event, look rotation (turning) control is performed when the auto look target is set, and input information is entered when the auto look mode is not activated. Based on this, the orientation of the virtual camera may be controlled.
所与のイベントとはプレーヤからのオートルックモード移行指示入力でもよい。 The given event may be an auto-look mode transition instruction input from the player.
(13)このプログラム、情報記憶媒体、画像生成装置は、
オートルックモードが発動されていない場合に、オートルック対象の移動体オブジェクトに対して、オートルック対象であることを示す特別表示を行う表示制御部とを、さらに含んでもよい。
(13) The program, the information storage medium, and the image generation device
When the auto look mode is not activated, a display control unit that performs a special display indicating that the object is an auto look target may be further included.
通常モードからオートルックモードに移行すると、特別表示を中止してもよい。特別表示とはプレーヤキャラクタの側にマーカー等のマーク画像表示を行うことでもよいし、プレーヤキャラクタ自体の輝度や色を特別状態にしたり、ブリンク表示したりすることでもよい。 When the normal mode is switched to the auto look mode, the special display may be stopped. The special display may be a mark image display such as a marker on the player character side, or the player character itself may be in a special state or blinked.
また特別表示として通常状態でマーカー画像を表示している場合には、オートルックモードに移行した場合には、マーカー画像を表示はしているが、目立ないように(プレーヤキャラクタ自体の表示の邪魔にならないように)変化させてもよい。 When the marker image is displayed in the normal state as a special display, the marker image is displayed when the mode is shifted to the auto look mode, but the marker image is not noticeable (the display of the player character itself). It may be changed (so as not to get in the way).
(14)このプログラム、情報記憶媒体、画像生成装置は、
入力情報に基づきプレーヤキャラクタの移動を制御するプレーヤキャラクタ移動制御部をさらに含み、
前記プレーヤキャラクタ移動制御部は、
オートルック対象が設定されていない場合には、プレーヤキャラクタの向きを基準方向としてプレーヤキャラクタの移動方向を制御し、オートルック対象が設定されている場合には、プレーヤキャラクタと前記オートルック対象の移動体オブジェクトを結ぶ方向を基準方向としてプレーヤキャラクタの移動方向を制御してもよい。
(14) The program, the information storage medium, and the image generation device
A player character movement control unit for controlling movement of the player character based on the input information;
The player character movement control unit
When the auto-look target is not set, the player character's moving direction is controlled with the player character's orientation as the reference direction. When the auto-look target is set, the player character and the auto-look target move The moving direction of the player character may be controlled using the direction connecting the body objects as a reference direction.
オートルック中は、仮想カメラは、敵キャラクタをそのカメラの画角内に収めるように追尾しているが、本願ではプレーヤキャラクタはプレーヤが自由に移動させることが可能となっている。そのため、プレーヤがプレーヤキャラクタをまっすぐに移動させる操作を行うと、オートルック対象が設定されていない場合には、プレーヤキャラクタの向いている方向まっすぐな方向として移動させ、オートルック中はプレーヤキャラクタと前記オートルック対象の移動体オブジェクトを結ぶ方向をまっすぐな方向として、オートルック対象キャラクタの位置に向かうように移動させる。 During auto look, the virtual camera tracks the enemy character so that it falls within the angle of view of the camera, but in this application, the player character can freely move the player character. Therefore, when the player performs an operation for moving the player character straight, if the auto-look target is not set, the player character moves the player character in a straight direction. The direction connecting the mobile objects to be auto-looked is set as a straight direction and moved toward the position of the auto-look target character.
(15)このプログラム、情報記憶媒体、画像生成装置は、
攻撃情報に基づきプレーヤキャラクタにダメージを与えるダメージを演算するダメージ演算部をさらに含み、
前記ダメージ演算部は、
オートルック対象が設定されている場合には、プレーヤキャラクタや敵キャラクタが受けるダメージ量や、プレーヤキャラクタや敵キャラクタの攻撃能力や防御能力に関するパラメータを、オートルック対象が設定されていない場合に比べて変化させる処理を行ってもよい。
(15) The program, the information storage medium, and the image generation device
A damage calculation unit for calculating damage that damages the player character based on the attack information;
The damage calculator is
When the auto-look target is set, the amount of damage received by the player character and enemy character and the parameters related to the attack and defense abilities of the player character and enemy character are compared to those when the auto-look target is not set. You may perform the process to change.
例えばオートルック対象が設定されている場合には、オートルック対象が設定されていない場合に比べてプレーヤキャラクタが攻撃を受けた場合のダメージ量を減らす処理を行ってもよいし、その逆でもよい。また例えばオートルック対象が設定されている場合には、オートルック対象が設定されていない場合に比べて敵キャラクタが受けるダメージ量を減らす処理を行ってもよいし、その逆でもよい。また例えばオートルック対象が設定されている場合には、オートルック対象が設定されていない場合に比べてプレーヤキャラクタの攻撃能力や防御能力に関するパラメータをアップさせてもよいし、その逆でもよい。また例えばオートルック対象が設定されている場合には、オートルック対象が設定されていない場合に比べて敵キャラクタの攻撃能力や防御能力に関するパラメータをアップさせてもよいし、その逆でもよい。 For example, when the auto look target is set, the damage amount when the player character is attacked may be reduced as compared to when the auto look target is not set, and vice versa. . For example, when the auto-look target is set, the amount of damage that the enemy character receives may be reduced compared to when the auto-look target is not set, and vice versa. Further, for example, when the auto-look target is set, the parameters related to the attacking ability and defense ability of the player character may be increased compared to when the auto-look target is not set, and vice versa. Further, for example, when the auto-look target is set, the parameters related to the attacking ability and defense ability of the enemy character may be increased compared to when the auto-look target is not set, and vice versa.
この様に、オートルック対象が設定されている場合には、オートルック対象が設定されていない場合に比べて、プレーヤキャラクタに有利にパラメータを設定してもよいし、プレーヤキャラクタに不利にパラメータを設定してもよい。 As described above, when the auto-look target is set, the parameter may be set to be advantageous to the player character compared to the case where the auto-look target is not set, or the parameter is disadvantageously set to the player character. It may be set.
以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。 Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.
1.構成
図1に本実施形態の画像生成装置(コンピュータ、端末、ゲーム装置)の機能ブロック図の例を示す。なお本実施形態の画像生成装置は図1の構成要素(各部)の一部を省略した構成としてもよい。
1. Configuration FIG. 1 shows an example of a functional block diagram of an image generation device (computer, terminal, game device) of this embodiment. Note that the image generation apparatus of the present embodiment may have a configuration in which some of the components (each unit) in FIG. 1 are omitted.
入力部160は、プレーヤからの入力情報を入力するための機器であり、プレーヤの入力情報を処理部に出力する。本実施形態の入力部160は、プレーヤの入力情報(入力信号)を検出する検出部162を備える。入力部160は、例えば、レバー、ボタン、ステアリング、マイク、タッチパネル型ディスプレイなどがある。 The input unit 160 is a device for inputting input information from the player, and outputs the input information of the player to the processing unit. The input unit 160 of this embodiment includes a detection unit 162 that detects input information (input signal) of the player. The input unit 160 includes, for example, a lever, a button, a steering, a microphone, a touch panel display, and the like.
また、入力部160は、3軸の加速度を検出する加速度センサや、角速度を検出するジャイロセンサ、撮像部を備えた入力機器でもよい。例えば、入力機器は、プレーヤが把持して動かすものであってもよいし、プレーヤが身につけて動かすものであってもよい。また、入力機器には、プレーヤが把持する刀型コントローラや銃型コントローラ、あるいはプレーヤが身につける(プレーヤが手に装着する)グローブ型コントローラなど実際の道具を模して作られたコントローラも含まれる。また入力機器には、入力機器と一体化されている画像生成装置、携帯型画像生成装置、携帯電話なども含まれる。 The input unit 160 may be an input device including an acceleration sensor that detects triaxial acceleration, a gyro sensor that detects angular velocity, and an imaging unit. For example, the input device may be one that the player holds and moves, or one that the player wears and moves. Input devices also include controllers made by imitating actual tools such as sword-type controllers and gun-type controllers held by players, or glove-type controllers worn by players (attached to hands by players) It is. The input device also includes an image generation device, a portable image generation device, a mobile phone, and the like that are integrated with the input device.
検出部162は、入力部160からの入力情報を検出する処理を行う。例えば、検出部162は、入力部160の引き金(トリガ)が引かれることによって発生する入力信号を、入力情報(攻撃入力情報)として検出する。例えば、検出部162は、入力部160から照準(ガンサイト)の位置を指示する入力情報(指示入力情報)を検出する。 The detection unit 162 performs processing for detecting input information from the input unit 160. For example, the detection unit 162 detects an input signal generated when a trigger (trigger) of the input unit 160 is pulled as input information (attack input information). For example, the detection unit 162 detects input information (instruction input information) indicating the position of the aim (gun site) from the input unit 160.
例えば、入力部160が、液晶ディスプレイと、プレーヤの接触位置を検出するためのタッチパネルとが積層されたタッチパネル型ディスプレイである場合には、タッチペンなどの指示入力機器や指先の接触位置情報を入力情報として検出する。 For example, when the input unit 160 is a touch panel type display in which a liquid crystal display and a touch panel for detecting the contact position of the player are stacked, the input information on the input position of the instruction input device such as a touch pen or the fingertip is input information. Detect as.
また、入力部160が撮像部を備える入力機器である場合には、撮像画像におおける指示位置情報を入力情報として検出する。より具体的に説明すると、撮像部は、赤外線フィルタ、レンズ、撮像素子(イメージセンサ)、画像処理回路を含む。ここで、赤外線フィルタは、入力機器の前方に配置され、表示部190に関連付けられて配置されている光源(2つの光源)から入射する光から赤外線のみを通過させる。また、レンズは、赤外線フィルタを透過した赤外線を集光して撮像素子へ出射する。また、撮像素子は、例えば、CMOSセンサやCCDのような固体撮像素子であり、レンズが集光した赤外線を撮像して撮像画像を生成する。そして、撮像素子で生成された撮像画像は、画像処理回路で処理される。例えば、撮像部を備える入力機器は、撮像素子から得られた撮像画像を処理して高輝度部分を検知し、撮像画像における光源の位置情報(指示位置情報)を入力情報として検出する。 Further, when the input unit 160 is an input device including an imaging unit, instruction position information in the captured image is detected as input information. More specifically, the imaging unit includes an infrared filter, a lens, an imaging element (image sensor), and an image processing circuit. Here, the infrared filter is disposed in front of the input device, and allows only infrared light to pass through from light incident from light sources (two light sources) disposed in association with the display unit 190. The lens condenses the infrared light transmitted through the infrared filter and emits it to the image sensor. The imaging device is a solid-state imaging device such as a CMOS sensor or a CCD, for example, and images captured infrared light collected by the lens to generate a captured image. The captured image generated by the image sensor is processed by the image processing circuit. For example, an input device including an imaging unit processes a captured image obtained from an imaging element to detect a high-luminance portion, and detects position information (indicated position information) of a light source in the captured image as input information.
記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAM、VRAMなどにより実現できる。 The storage unit 170 serves as a work area for the processing unit 100, the communication unit 196, and the like, and its function can be realized by a RAM, a VRAM, or the like.
情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。情報記憶媒体180には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)を記憶することができる。 The information storage medium 180 (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), magneto-optical disk (MO), magnetic disk, hard disk, and magnetic tape. Alternatively, it can be realized by a memory (ROM). The processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. The information storage medium 180 can store a program for causing a computer to function as each unit of the present embodiment (a program for causing a computer to execute processing of each unit).
表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、CRT、LCD、タッチパネル型ディスプレイ、或いはHMD(ヘッドマウントディスプレイ)などにより実現できる。音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。 The display unit 190 outputs an image generated according to the present embodiment, and its function can be realized by a CRT, LCD, touch panel display, HMD (head mounted display), or the like. The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by a speaker, headphones, or the like.
通信部196は外部(例えば他の画像生成装置)との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。 The communication unit 196 performs various controls for communicating with the outside (for example, another image generation apparatus), and the function is realized by various processors or hardware such as a communication ASIC, a program, or the like. it can.
なお、サーバが有する情報記憶媒体や記憶部に記憶されている本実施形態の各部としてコンピュータを機能させるためのプログラムやデータを、ネットワークを介して受信し、受信したプログラムやデータを情報記憶媒体180や記憶部170に記憶してもよい。このようにプログラムやデータを受信して画像生成装置を機能させる場合も本発明の範囲内に含む。 Note that a program or data for causing a computer to function as each unit of the present embodiment stored in the information storage medium or storage unit of the server is received via the network, and the received program or data is received by the information storage medium 180. Or may be stored in the storage unit 170. The case of receiving the program and data and causing the image generating apparatus to function is also included in the scope of the present invention.
処理部100(プロセッサ)は、入力部160からの入力情報やプログラムなどに基づいて、ゲーム処理、画像生成処理、或いは音生成処理などの処理を行う。 The processing unit 100 (processor) performs processing such as game processing, image generation processing, or sound generation processing based on input information from the input unit 160, a program, and the like.
この処理部100は記憶部170内の主記憶部172をワーク領域として各種処理を行う。処理部100の機能は各種プロセッサ(CPU、GPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。 The processing unit 100 performs various processes using the main storage unit 172 in the storage unit 170 as a work area. The functions of the processing unit 100 can be realized by hardware such as various processors (CPU, GPU, DSP, etc.), ASIC (gate array, etc.), and programs.
処理部100は、オブジェクト空間設定部110、仮想カメラ配置制御部111、オートルック対象設定部112、演算処理部113(指示位置又は指示方向演算部113−1、ダメージ演算部113−2、有効時間演算部113−3を含む)、移動・動作処理部114、ゲーム演算部115、表示制御部116、フラグ設定部118、画像生成部(描画部)120、音処理部130を含む。なおこれらの一部を省略する構成としてもよい。 The processing unit 100 includes an object space setting unit 110, a virtual camera arrangement control unit 111, an auto look target setting unit 112, an arithmetic processing unit 113 (instructed position or instruction direction calculating unit 113-1, a damage calculating unit 113-2, an effective time. Calculation unit 113-3), movement / motion processing unit 114, game calculation unit 115, display control unit 116, flag setting unit 118, image generation unit (drawing unit) 120, and sound processing unit 130. Note that some of these may be omitted.
オブジェクト空間設定部110は、キャラクタ(敵オブジェクト)の他に、建物、球場、車、樹木、柱、壁、マップ(地形)などの表示物を、オブジェクト空間に配置設定する処理を行う。 In addition to the character (enemy object), the object space setting unit 110 performs a process of arranging and setting display objects such as a building, a stadium, a car, a tree, a pillar, a wall, and a map (terrain) in the object space.
ここでオブジェクト空間とは、仮想的なゲーム空間であり、2次元空間、3次元空間の両方を含む。2次元空間とは、例えば2次元座標(X,Y)においてオブジェクトが配置される空間であり、3次元空間とは、例えば3次元座標(X,Y,Z)においてオブジェクトが配置される空間である。 Here, the object space is a virtual game space and includes both a two-dimensional space and a three-dimensional space. The two-dimensional space is a space in which an object is arranged at, for example, two-dimensional coordinates (X, Y), and the three-dimensional space is a space in which an object is arranged at, for example, three-dimensional coordinates (X, Y, Z). is there.
例えば、オブジェクト空間設定部110は、オブジェクト空間を3次元空間とした場合には、ワールド座標系にオブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェスなどのプリミティブで構成されるオブジェクト)を配置する。また、例えば、ワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。 For example, when the object space is a three-dimensional space, the object space setting unit 110 arranges an object (an object composed of a primitive such as a polygon, a free-form surface, or a subdivision surface) in the world coordinate system. Also, for example, the position and rotation angle (synonymous with direction and direction) of the object in the world coordinate system is determined, and the rotation angle (X, Y, Z axis rotation) is determined at that position (X, Y, Z). Position the object at (Angle).
仮想カメラ配置制御部111は、仮想カメラ又はプレーヤキャラクタを制御する制御情報に基づき仮想カメラの配置制御を行うもので、オートルック対象が設定されていない場合には、前記移動入力情報に基づき仮想カメラの向きを制御し、オートルック対象が設定されている場合には、当該オートルック対象の移動体オブジェクトの画像が、生成される画像の所与の位置に設定されたルック範囲に入るまで、仮想カメラを回転させるルック回転制御を行う。 The virtual camera arrangement control unit 111 controls the arrangement of the virtual camera based on the control information for controlling the virtual camera or the player character. When the auto look target is not set, the virtual camera arrangement control unit 111 controls the virtual camera based on the movement input information. When the auto-look target is set, the virtual object object is in virtual until the image of the auto-look target moving object enters the look range set at a given position in the generated image. Look rotation control to rotate the camera.
オートルック対象設定部112は、仮想空間に存在する移動体オブジェクトの中にオートルック条件を満たす移動体オブジェクトが存在するか否か検索し、オートルック条件を満たす1つの移動体オブジェクトをオートルック対象として設定する。 The auto-look target setting unit 112 searches for a mobile object satisfying the auto-look condition among the mobile objects existing in the virtual space, and selects one mobile object that satisfies the auto-look condition as an auto-look target. Set as.
指示位置又は指示方向演算部113−1は、指示位置又は指示方向を指示する入力情報に基づき、仮想空間における指示位置又は指示方向を演算し、オートルック対象設定部112は、移動体オブジェクトの位置と指示位置又は指示方向に基づきオートルック条件を満たす1つの移動体オブジェクトをオートルック対象として決定してもよい。 The instruction position or instruction direction calculation unit 113-1 calculates the instruction position or instruction direction in the virtual space based on the input information indicating the instruction position or instruction direction, and the auto look target setting unit 112 calculates the position of the moving object. One moving object that satisfies the auto look condition may be determined as the auto look target based on the designated position or the designated direction.
またオートルック対象設定部112は、仮想空間に配置された移動体オブジェクトについてオートルック条件を満たすか否か判定し、オートルック条件を満たす移動体オブジェクトをオートルック対象候補として選択し、選択されたオートルック対象候補からオートルック対象を決定してもよい。 Further, the auto look target setting unit 112 determines whether or not the auto object that satisfies the auto look condition is satisfied for the mobile object arranged in the virtual space, selects the auto object that satisfies the auto look condition as the auto look target candidate, and is selected. The auto look target may be determined from the auto look target candidates.
またオートルック対象設定部112は、いずれかの移動体オブジェクトがオートルック対象として設定されている場合は、キャンセルイベントが発生するまでは、オートルック対象を変更しないようにしてもよい。 Further, when any mobile object is set as an autolook target, the autolook target setting unit 112 may not change the autolook target until a cancel event occurs.
またオートルック対象設定部112は、前記仮想空間内において仮想カメラ又はプレーヤキャラクタと移動体オブジェクトを結ぶ線分上に障害物があるか否かを判断し、障害物がある場合には当該移動体オブジェクトはオートルック条件を満たさないと判断してもよい。 Further, the autolook target setting unit 112 determines whether or not there is an obstacle on the line segment connecting the virtual camera or the player character and the moving object in the virtual space, and if there is an obstacle, the moving object The object may be determined not to satisfy the autolook condition.
有効時間演算部113−3は、移動体オブジェクトまたはその少なくとも1つの代表点に有効時間を設定し、設定されている有効時間がなくなるまで有効時間をデクリメントする処理を行い、オートルック対象設定部112は、有効時間が残っていない移動体オブジェクトまたは代表点はオートルック条件を満たさないと判断してもよい。 The effective time calculation unit 113-3 sets the effective time for the moving object or at least one representative point thereof, performs a process of decrementing the effective time until the set effective time is exhausted, and the autolook target setting unit 112. May determine that a moving object or representative point for which no valid time remains does not satisfy the auto-look condition.
またオートルック対象設定部112は、プレーヤキャラクタと移動体オブジェクトの距離が有効範囲内にないものは、オートルック条件を満たさないと判断してもよい。 The auto-look target setting unit 112 may determine that the auto-look condition is not satisfied if the distance between the player character and the moving object is not within the effective range.
またオートルック対象設定部112は、プレーヤキャラクタのアイテム、属性、発生するイベントの種類、ゲームステージの種類の少なくとも1つに基づき、前記有効範囲を変化させてもよい。 The autolook target setting unit 112 may change the effective range based on at least one of the item, attribute, type of event to be generated, and type of game stage of the player character.
また仮想カメラ配置制御部111は、オートルック対象の移動体オブジェクトの画像が、生成される画像の所定の位置に設定され前記ルック範囲を内包する第2の範囲に含まれなくなった場合には、前記オートルック対象の移動体オブジェクトの画像が前記ルック範囲又は前記第2の範囲に含まれるように仮想カメラを回転させる追尾制御を行ってもよい。 Further, the virtual camera arrangement control unit 111, when the image of the mobile object subject to auto look is not included in the second range including the look range set at a predetermined position of the generated image, You may perform tracking control which rotates a virtual camera so that the image of the mobile object of the auto look target may be included in the look range or the second range.
またフラグ設定部118は、移動体オブジェクトを構成する少なくとも1つの代表点に対して有効/無効フラグを設定する処理を行い、オートルック対象設定部は、有効フラグの設定されている代表点がない移動体オブジェクトは、オートルック条件を満たさないと判断してもよい。 The flag setting unit 118 performs a process of setting a valid / invalid flag for at least one representative point constituting the moving object, and the autolook target setting unit has no representative point for which the valid flag is set. It may be determined that the moving object does not satisfy the auto look condition.
また仮想カメラ配置制御部111は、オートルック対象の移動体オブジェクトの有効フラグの設定されている代表点が前記ルック範囲又は前記第2の範囲に含まれるように仮想カメラを回転させてもよい。 Further, the virtual camera arrangement control unit 111 may rotate the virtual camera so that the representative point in which the valid flag of the mobile object subject to auto-look is set is included in the look range or the second range.
また仮想カメラ配置制御部111は、所与のイベントに基づきオートルックモードが発動されると、オートルック対象が設定されている場合にはルック回転制御が行なわれ、オートルックモードが発動されていない場合には入力情報に基づき仮想カメラの向きを制御してもよい。 Further, when the auto look mode is activated based on a given event, the virtual camera arrangement control unit 111 performs look rotation control when the auto look target is set, and the auto look mode is not activated. In some cases, the orientation of the virtual camera may be controlled based on the input information.
表示制御部116は、オートルックモードが発動されていない場合に、オートルック対象の移動体オブジェクトに対して、オートルック対象であることを示す特別表示を行うようにしてもよい。 When the auto look mode is not activated, the display control unit 116 may perform a special display indicating that the auto look target mobile object is the auto look target.
ダメージ演算部113−2は、オートルック対象が設定されている場合には、プレーヤキャラクタや敵キャラクタが受けるダメージ量や、プレーヤキャラクタや敵キャラクタの攻撃能力や防御能力に関するパラメータを、オートルック対象が設定されていない場合に比べて変化させる処理を行う。 When the auto-look target is set, the damage calculation unit 113-2 sets parameters relating to the amount of damage received by the player character or enemy character and the attack and defense abilities of the player character or enemy character. Process to change compared to when not set.
移動・動作処理部114は、オブジェクト空間において、オブジェクトを移動・動作させる処理を行う。すなわち入力部160から入力された入力情報や、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)などに基づいて、オブジェクトをオブジェクト空間内で移動させたり、オブジェクトを動作(モーション、アニメーション)させたりする処理を行う。具体的には、オブジェクトの移動情報(位置、回転角度、移動速度、加速度、移動量、移動方向などの移動パラメータ)や動作情報(オブジェクトを構成する各パーツの位置、或いは回転角度)を、1フレーム(例えば、1/60秒)毎に順次求める処理を行う。なおフレームは、オブジェクトの移動・動作処理や画像生成処理を行う時間の単位である。 The movement / motion processing unit 114 performs processing for moving / moving an object in the object space. That is, based on input information input from the input unit 160, a program (movement / motion algorithm), various data (motion data), etc., the object is moved in the object space, or the object is moved (motion, animation). Process. Specifically, object movement information (movement parameters such as position, rotation angle, movement speed, acceleration, movement amount, movement direction) and operation information (positions or rotation angles of parts constituting the object) are set to 1 A process of sequentially obtaining each frame (for example, 1/60 second) is performed. Note that a frame is a unit of time for performing object movement / motion processing and image generation processing.
移動・動作処理部114は、入力情報に基づきプレーヤキャラクタの移動を制御するプレーヤキャラクタ移動制御部として機能し、オートルック対象が設定されていない場合には、プレーヤキャラクタの向きを基準方向としてプレーヤキャラクタの移動方向を制御し、オートルック対象が設定されている場合には、プレーヤキャラクタと前記オートルック対象の移動体オブジェクトを結ぶ方向を基準方向としてプレーヤキャラクタの移動方向を制御してもよい。 The movement / motion processing unit 114 functions as a player character movement control unit that controls the movement of the player character based on the input information. When the auto-look target is not set, the player character is set with the direction of the player character as a reference direction. When the auto-look target is set, the direction of the player character may be controlled with the direction connecting the player character and the auto-look target moving object as a reference direction.
ゲーム演算部115は、種々のゲーム処理を行う。例えば、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、ゲーム終了条件が満たされた場合にゲームを終了する処理、最終ステージをクリアした場合にはエンディングを進行させる処理などがある。 The game calculation unit 115 performs various game processes. For example, a process for starting a game when a game start condition is satisfied, a process for advancing the game, a process for ending a game when the game end condition is satisfied, and an ending when the final stage is cleared There is processing.
また、ゲーム演算部115は、プレーヤキャラクタの所与のパラメータ(体力値)が所定値(0)に達したか否かを判断する処理を行い、プレーヤキャラクタの所与のパラメータ(体力値)が所定値(0)に達した場合に、ゲーム終了と判定する処理を行う。 In addition, the game calculation unit 115 determines whether or not the given parameter (physical strength value) of the player character has reached a predetermined value (0), and the given parameter (physical strength value) of the player character is When the predetermined value (0) is reached, a process for determining that the game has ended is performed.
画像生成部120は、処理部100で行われる種々の処理の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に出力する。画像生成部120が生成する画像は、いわゆる2次元画像であってもよいし、いわゆる3次元画像であってもよい。 The image generation unit 120 performs drawing processing based on the results of various processes performed by the processing unit 100, thereby generating an image and outputting the image to the display unit 190. The image generated by the image generation unit 120 may be a so-called two-dimensional image or a so-called three-dimensional image.
2次元画像を生成する場合には、例えば、オブジェクト(スプライト)毎に優先度を設定し、設定された優先度が低いオブジェクトから順に描画する。オブジェクト同士が重なる場合には、優先度が低いオブジェクトの上に、優先度の高いオブジェクトを描画する。 In the case of generating a two-dimensional image, for example, a priority is set for each object (sprite), and rendering is performed in order from an object having a lower priority. When objects overlap, an object with a high priority is drawn on an object with a low priority.
いわゆる3次元ゲーム画像を生成する場合には、まずオブジェクト(モデル)の各頂点の頂点データ(頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値
等)を含むオブジェクトデータ(モデルデータ)が入力され、入力されたオブジェクトデータに含まれる頂点データに基づいて、頂点処理(頂点シェーダによるシェーディング)が行われる。なお頂点処理を行うに際して、必要に応じてポリゴンを再分割するための頂点生成処理(テッセレーション、曲面分割、ポリゴン分割)を行うようにしてもよい。
When generating a so-called three-dimensional game image, first, object data (model data) including vertex data (vertex position coordinates, texture coordinates, color data, normal vector, α value, etc.) of each vertex of the object (model) ) Is input, and vertex processing (shading by a vertex shader) is performed based on the vertex data included in the input object data. When performing the vertex processing, vertex generation processing (tessellation, curved surface division, polygon division) for re-dividing the polygon may be performed as necessary.
頂点処理では、頂点処理プログラム(頂点シェーダプログラム、第1のシェーダプログラム)に従って、頂点の移動処理や、座標変換、例えばワールド座標変換、視野変換(カメラ座標変換)、クリッピング処理、透視変換(投影変換)、ビューポート変換等のジオメトリ処理が行われ、その処理結果に基づいて、オブジェクトを構成する頂点群について与えられた頂点データを変更(更新、調整)する。 In the vertex processing, according to the vertex processing program (vertex shader program, first shader program), vertex movement processing, coordinate transformation, for example, world coordinate transformation, visual field transformation (camera coordinate transformation), clipping processing, perspective transformation (projection transformation) ), Geometry processing such as viewport conversion is performed, and based on the processing result, the vertex data given to the vertex group constituting the object is changed (updated or adjusted).
そして、頂点処理後の頂点データに基づいてラスタライズ(走査変換)が行われ、ポリゴン(プリミティブ)の面とピクセルとが対応づけられる。そしてラスタライズに続いて、画像を構成するピクセル(表示画面を構成するフラグメント)を描画するピクセル処理(ピクセルシェーダによるシェーディング、フラグメント処理)が行われる。ピクセル処理では、ピクセル処理プログラム(ピクセルシェーダプログラム、第2のシェーダプログラム)に従って、テクスチャの読出し(テクスチャマッピング)、色データの設定/変更、半透明合成、アンチエイリアス等の各種処理を行って、画像を構成するピクセルの最終的な描画色を決定し、透視変換されたオブジェクトの描画色を描画バッファ(ピクセル単位で画像情報を記憶できるバッファ。VRAM、レンダリングターゲット)に出力(描画)する。すなわち、ピクセル処理では、ピクセルデータ、ボクセルデータなどの画素データ(色(RGB)、α値、Z値、輝度等)をピクセル単位で設定あるいは変更するパーピクセル処理を行う。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラから見える画像を生成することができる。 Then, rasterization (scan conversion) is performed based on the vertex data after the vertex processing, and the surface of the polygon (primitive) is associated with the pixel. Subsequent to rasterization, pixel processing (shading or fragment processing by a pixel shader) for drawing pixels (fragments forming a display screen) constituting an image is performed. In pixel processing, according to a pixel processing program (pixel shader program, second shader program), various processes such as texture reading (texture mapping), color data setting / change, translucent composition, anti-aliasing, etc. are performed, and an image is processed. The final drawing color of the constituent pixels is determined, and the drawing color of the perspective-transformed object is output (drawn) to a drawing buffer (a buffer that can store image information in units of pixels; VRAM, rendering target). That is, in pixel processing, per-pixel processing for setting or changing pixel data (color (RGB), α value, Z value, luminance, etc.) such as pixel data and voxel data in units of pixels is performed. Thereby, an image that can be seen from the virtual camera (given viewpoint) in the object space is generated. When there are a plurality of virtual cameras (viewpoints), it is possible to generate an image that can be seen from each virtual camera.
仮想カメラ配置制御部111は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点)の制御処理を行う。具体的には、3次元の画像を生成する場合には、ワールド座標系における仮想カメラの位置(X、Y、Z)又は回転角度(例えば、X、Y、Z軸の各軸の正方向からみて時計回りに回る場合における回転角度)を制御する処理を行う。要するに、視点位置、視線方向、画角を制御する処理を行う。また、仮想カメラ制御部110は、仮想カメラを、予め決められた回転角度で回転させてもよい。この場合には、仮想カメラの位置又は回転角度を特定するための仮想カメラデータに基づいて仮想カメラを制御する。なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラについて上記の制御処理が行われる。 The virtual camera arrangement control unit 111 performs virtual camera (viewpoint) control processing for generating an image that can be seen from a given (arbitrary) viewpoint in the object space. Specifically, when generating a three-dimensional image, the virtual camera position (X, Y, Z) or rotation angle (for example, from the positive direction of each of the X, Y, and Z axes) in the world coordinate system is used. (Rotation angle when turning clockwise) is controlled. In short, processing for controlling the viewpoint position, the line-of-sight direction, and the angle of view is performed. Further, the virtual camera control unit 110 may rotate the virtual camera at a predetermined rotation angle. In this case, the virtual camera is controlled based on the virtual camera data for specifying the position or rotation angle of the virtual camera. When there are a plurality of virtual cameras (viewpoints), the above control process is performed for each virtual camera.
本実施形態では、プレーヤキャラクタの視点(一人称視点)に基づいて画像を生成するFPS(First Person Shooting)でもよいし、画面に主人公が登場して、これをユーザが操作するタイプのTPS(Third Person Shooting)でもよい。また、本実施形態では、仮想カメラの移動、向き、画角はプログラム又は入力部160の入力情報に基づいて仮想カメラの移動、向き、画角を制御される。 In the present embodiment, FPS (First Person Shooting) that generates an image based on the viewpoint (first person viewpoint) of the player character may be used, or a TPS (Third Person) of a type in which the hero appears on the screen and is operated by the user. Shooting). In the present embodiment, the movement, orientation, and angle of view of the virtual camera are controlled based on information input from the program or the input unit 160.
例えば仮想カメラによりオブジェクト(例えば、プレーヤキャラクタ)を後方から撮影する場合には、オブジェクトの位置、向きの変化に仮想カメラが追従するように、仮想カメラの位置、仮想カメラの向きを制御する。この場合には、移動・動作処理部114で得られたオブジェクトの位置、向き又は速度などの情報に基づいて、仮想カメラを制御できる。或いは、仮想カメラを、予め決められた向きに設定したり、予め決められた移動経路で移動させる制御を行ってもよい。この場合には、仮想カメラの位置(移動経路)又は向きを特定するための仮想カメラデータに基づいて仮想カメラを制御する。なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラについて上記の制御処理が行われる。 For example, when an object (for example, a player character) is photographed from behind using a virtual camera, the position of the virtual camera and the orientation of the virtual camera are controlled so that the virtual camera follows changes in the position and orientation of the object. In this case, the virtual camera can be controlled based on information such as the position, orientation, or speed of the object obtained by the movement / motion processing unit 114. Alternatively, the virtual camera may be set in a predetermined direction or may be controlled to move along a predetermined movement route. In this case, the virtual camera is controlled based on the virtual camera data for specifying the position (movement path) or orientation of the virtual camera. When there are a plurality of virtual cameras (viewpoints), the above control process is performed for each virtual camera.
なお頂点処理やピクセル処理は、シェーディング言語によって記述されたシェーダプログラムによって、ポリゴン(プリミティブ)の描画処理をプログラム可能にするハードウェア、いわゆるプログラマブルシェーダ(頂点シェーダやピクセルシェーダ)により実現される。プログラマブルシェーダでは、頂点単位の処理やピクセル単位の処理がプログラム可能になることで描画処理内容の自由度が高く、従来のハードウェアによる固定的な描画処理に比べて表現力を大幅に向上させることができる。 The vertex processing and pixel processing are realized by hardware that enables polygon (primitive) drawing processing to be programmed by a shader program written in a shading language, so-called programmable shaders (vertex shaders and pixel shaders). Programmable shaders can be programmed with vertex-level processing and pixel-level processing, so that the degree of freedom of drawing processing is high, and expressive power is greatly improved compared to conventional hardware-based fixed drawing processing. Can do.
そして画像生成部120は、オブジェクトを描画する際に、ジオメトリ処理、テクスチャマッピング、隠面消去処理、αブレンディング等を行う。 The image generation unit 120 performs geometry processing, texture mapping, hidden surface removal processing, α blending, and the like when drawing an object.
ジオメトリ処理では、オブジェクトに対して、座標変換、クリッピング処理、透視投影変換、或いは光源計算等の処理が行われる。そして、ジオメトリ処理後(透視投影変換後)のオブジェクトデータ(オブジェクトの頂点の位置座標、テクスチャ座標、色データ(輝度データ)、法線ベクトル、或いはα値等)は、記憶部170に保存される。 In the geometry processing, processing such as coordinate conversion, clipping processing, perspective projection conversion, or light source calculation is performed on the object. Then, the object data (positional coordinates of object vertices, texture coordinates, color data (luminance data), normal vector, α value, etc.) after geometry processing (after perspective projection conversion) is stored in the storage unit 170. .
テクスチャマッピングは、記憶部170に記憶されるテクスチャ(テクセル値)をオブジェクトにマッピングするための処理である。具体的には、オブジェクトの頂点に設定(付与)されるテクスチャ座標等を用いて記憶部170からテクスチャ(色(RGB)、α値などの表面プロパティ)を読み出す。そして、2次元の画像であるテクスチャをオブジェクトにマッピングする。この場合に、ピクセルとテクセルとを対応づける処理や、テクセルの補間としてバイリニア補間などを行う。 Texture mapping is a process for mapping a texture (texel value) stored in the storage unit 170 to an object. Specifically, the texture (surface properties such as color (RGB) and α value) is read from the storage unit 170 using texture coordinates or the like set (given) to the vertex of the object. Then, a texture that is a two-dimensional image is mapped to an object. In this case, processing for associating pixels with texels, bilinear interpolation or the like is performed as texel interpolation.
隠面消去処理としては、描画ピクセルのZ値(奥行き情報)が格納されるZバッファ(奥行きバッファ)を用いたZバッファ法(奥行き比較法、Zテスト)による隠面消去処理を行うことができる。すなわちオブジェクトのプリミティブに対応する描画ピクセルを描画する際に、Zバッファに格納されるZ値を参照する。そして参照されたZバッファのZ値と、プリミティブの描画ピクセルでのZ値とを比較し、描画ピクセルでのZ値が、仮想カメラから見て手前側となるZ値(例えば小さなZ値)である場合には、その描画ピクセルの描画処理を行うとともにZバッファのZ値を新たなZ値に更新する。 As the hidden surface removal processing, hidden surface removal processing can be performed by a Z buffer method (depth comparison method, Z test) using a Z buffer (depth buffer) in which Z values (depth information) of drawing pixels are stored. . That is, when drawing pixels corresponding to the primitive of the object are drawn, the Z value stored in the Z buffer is referred to. Then, the Z value of the referenced Z buffer is compared with the Z value at the drawing pixel of the primitive, and the Z value at the drawing pixel is a Z value (for example, a small Z value) on the near side when viewed from the virtual camera. In some cases, the drawing process of the drawing pixel is performed and the Z value of the Z buffer is updated to a new Z value.
αブレンディング(α合成)は、α値(A値)に基づく半透明合成処理(通常αブレンディング、加算αブレンディング又は減算αブレンディング等)のことである。 なお、α値は、各ピクセル(テクセル、ドット)に関連づけて記憶できる情報であり、例えば色情報以外のプラスアルファの情報である。α値は、マスク情報、半透明度(透明度、不透明度と等価)、バンプ情報などとして使用できる。 α blending (α synthesis) is a translucent synthesis process (usually α blending, addition α blending, subtraction α blending, or the like) based on an α value (A value). The α value is information that can be stored in association with each pixel (texel, dot), for example, plus alpha information other than color information. The α value can be used as mask information, translucency (equivalent to transparency and opacity), bump information, and the like.
音処理部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。 The sound processing unit 130 performs sound processing based on the results of various processes performed by the processing unit 100, generates a game sound such as BGM, sound effect, or sound, and outputs the game sound to the sound output unit 192.
なお、本実施形態の画像生成装置は、1人のプレーヤのみがプレイできるシングルプレーヤモード用の装置にしてもよいし、複数のプレーヤがプレイできるマルチプレーヤモードを備える装置にしてもよい。 Note that the image generation apparatus of the present embodiment may be an apparatus for a single player mode that can be played by only one player, or an apparatus that has a multiplayer mode that can be played by a plurality of players.
例えば、図22に示すように、マルチプレーヤモードの場合には、プレーヤそれぞれの入力部160−1、160−2を用意し、各入力部160−1、160−2が指示する照準位置に基づいて敵キャラクタ等のヒット処理を行う。また、本実施形態では、マルチプレーヤモードの場合には、複数のプレーヤに提供するデータ、表示出力用画像、演算処理用画像、ゲーム音を、1つの画像生成装置を用いて生成している。なお、画像生成装置が他の画像生成装置とネットワークを介して入力情報などのデータを送受信し、受信したデータと入力部160からの入力情報とに基づいて、画像生成処理を行うようにしてもよい。 For example, as shown in FIG. 22, in the multiplayer mode, input units 160-1 and 160-2 for each player are prepared, and based on the aiming positions indicated by the input units 160-1 and 160-2. To hit the enemy characters. In the present embodiment, in the multiplayer mode, data provided to a plurality of players, display output images, arithmetic processing images, and game sounds are generated using a single image generation device. It should be noted that the image generation apparatus transmits / receives data such as input information to / from other image generation apparatuses via the network, and performs image generation processing based on the received data and input information from the input unit 160. Good.
2.本実施の形態の手法
(1)オートルックモード
オートルック機能はプレーヤのターゲッティングの補助を行うことを目的とした機能である。オートルック条件を満たす移動体オブジェクト(例えばプレーヤが認識している敵オブジェクト)を選択し、その移動体オブジェクトのルック基準点が画面中央に来るように仮想カメラをルックさせ、追尾する。
2. Method of this embodiment
(1) Auto Look Mode The auto look function is a function intended to assist the player in targeting. A moving object that satisfies the auto-look condition (for example, an enemy object recognized by the player) is selected, and the virtual camera is looked up and tracked so that the look reference point of the moving object is at the center of the screen.
入力部に設けられたオートルックボタンを押すとオートルックモードが発動し、離すとオートルックモードは終了する。ここではオートルックモード以外の状態を通常モードと呼ぶ。オートルックボタンを押し続けることにより、オートルックモードを継続することができる。 When the auto look button provided in the input unit is pressed, the auto look mode is activated, and when released, the auto look mode is terminated. Here, a state other than the auto look mode is called a normal mode. By continuing to hold down the auto look button, the auto look mode can be continued.
本実施の形態では、通常モードにおいてはプレーヤの入力操作による仮想カメラの旋回操作ができるようにし、オートルックモードにおいてはプレーヤの入力によるカメラ旋回操作はできないようにしてもよい。 In the present embodiment, the virtual camera may be turned by the player's input operation in the normal mode, and the camera turning operation by the player's input may be disabled in the autolook mode.
(2)画面範囲の設定
図2(A)(B)は、オートルックを行うにあたっての画面範囲の設定について説明するための図である。
(2) Setting of Screen Range FIGS. 2A and 2B are diagrams for explaining the setting of the screen range when performing auto-look.
図2(A)は、描画領域(画面と考えてもよい)240に対する第1の判定ライン210、第2の判定ライン220、画面外判定ライン230を示している。第1の判定ライン310は、オートルックを発動させた場合に、オートルック対象の移動体オブジェクトのルック基準点(移動体オブジェクトの位置や移動体オブジェクトの代表点の位置)がこの範囲内に入るまでカメラを自動で追従させるための境界線である。本実施の形態では、オートルック対象が設定されていない場合には、前記移動入力情報に基づき仮想カメラの向きを制御し、オートルック対象が設定されている場合には、当該オートルック対象の移動体オブジェクトの画像が、生成される画像の所定の位置に設定されたルック範囲に入るまで、仮想カメラを回転(旋回)させるルック回転(旋回)制御を行う。すなわち生成される画像は描画領域240に描画され、ルック範囲がこの第1の判定ライン210で囲まれたエリアである。 FIG. 2A shows a first determination line 210, a second determination line 220, and an out-of-screen determination line 230 for a drawing area (which may be considered as a screen) 240. In the first determination line 310, when auto-look is activated, the look reference point (the position of the mobile object or the position of the representative point of the mobile object) of the mobile object subject to auto-look falls within this range. It is a boundary line to make the camera follow automatically. In the present embodiment, when the auto look target is not set, the orientation of the virtual camera is controlled based on the movement input information, and when the auto look target is set, the movement of the auto look target is set. Look rotation (turning) control is performed to rotate (turn) the virtual camera until the image of the body object enters the look range set at a predetermined position of the generated image. That is, the generated image is drawn in the drawing area 240, and the look range is an area surrounded by the first determination line 210.
また第2の判定ライン220は、オートルックモードにおいてルック回転(旋回)制御が行われた後に追尾のためのカメラの回転(旋回)を始める境界線であり、移動体オブジェクトのルック基準点がこれより外に出ると追尾のためのカメラの回転(旋回)が行われる。本実施の形態では、オートルック対象の移動体オブジェクトの画像が、生成される画像の所定の位置に設定され前記ルック範囲を内包する第2の範囲に含まれなくなった場合には、前記オートルック対象の移動体オブジェクトの画像が前記ルック範囲又は前記第2の範囲に含まれるように仮想カメラを回転(旋回)させる追尾制御を行う。 The second determination line 220 is a boundary line for starting the rotation (turning) of the camera for tracking after the look rotation (turning) control is performed in the auto look mode, and the look reference point of the moving object is the boundary line. When going outside, the camera is rotated (turned) for tracking. In the present embodiment, when the image of the moving object to be auto-looked is not included in the second range that is set at a predetermined position of the generated image and includes the look range, the auto-look Tracking control is performed to rotate (turn) the virtual camera so that the image of the target moving object is included in the look range or the second range.
画面外判定ライン230は、これより外は画面外と判定する境界線である。各範囲については長方形の上、下、左、右の各ボーダーラインを設定できる。 The outside-of-screen determination line 230 is a boundary line that determines that the outside is outside the screen. For each range, you can set the top, bottom, left, and right border lines of the rectangle.
図2(B)の250−1と250−2は第1の画角との画像と第2の画角の画像(画角の異なる画像)を示している。本実施の形態では第1の画角において上記各ラインで設定される範囲210−1,220−1、230−1と、 第2の画角において上記各ラインで設定される範囲210−2,220−2、230−2とは、描画領域(画面と考えてもよい)240に対して同じ範囲を保っている。 In FIG. 2B, reference numerals 250-1 and 250-2 denote an image with the first angle of view and an image with the second angle of view (images with different angles of view). In the present embodiment, ranges 210-1, 220-1, 230-1 set for each line at the first angle of view, and ranges 210-2, 210-2, 230-1 set for each line at the second angle of view. 220-2 and 230-2 maintain the same range with respect to the drawing area 240 (which may be considered as a screen).
(3)各移動体オブジェクトの設定
図19は、本実施の形態の移動体オブジェクトに関連づけて設定されている各種情報の一例について説明するための図である。なおここでは、本実施の形態の処理に関連のある情報について説明している。
(3) Setting of Each Moving Object FIG. 19 is a diagram for explaining an example of various information set in association with the moving object of this embodiment. Here, information related to the processing of the present embodiment is described.
本実施の形態では、各移動体オブジェクトの属性情報(普遍的に設定されている属性でもよいし、ゲーム状況に応じて変化する属性でもよい)520や、パラメータ(位置情報530や回転情報540やルック有効時間550や代表点の有効/無効フラグ560等)を各移動体オブジェクトの識別IDであるオブジェクトID510に関連づけて記憶している。属性情報520は、例えば性別、種類、敵味方等の各移動体オブジェクトの属性に関する情報であり、普遍的に設定されている属性でもよいし、ゲーム状況に応じて変化する属性でもよい。位置情報530は、移動体オブジェクトの仮想空間における位置座標(x1、y1,z1)である。回転情報540は、移動体オブジェクトの向きを3軸方向の回転で表したものである。ルック有効時間550は、オートルック対象候補であると判断された移動体オブジェクトに設定される有効時間であり、有効時間が0(設定されていない場合を含む)であると、オートルック対象候補にならないことを示している。代表点の有効/無効フラグ560は、移動体オブジェクトの代表点に対応づけて設定された有効/無効を示すフラグであり、オートルック対象候補にするかしないかを判断するために使用されるフラグ情報である。移動体オブジェクトは少なくとも1つの代表点を有している。有効/無効フラグは代表点毎に有しているため、移動体オブジェクトOB1のように代表点が1つのものは有効/無効フラグは1つ有しており、移動体オブジェクトOB2のように複数の代表点を持つものは有効/無効フラグも複数有している。代表点が複数ある場合には構造体の配列構造でデータを持たせるようにしてもよい。すなわち予め代表点の配列を定めておき、その配列に応じた配列で有効/無効フラグを格納すればよい。代表点として移動体オブジェクトの関節点を用いてもよい。 In the present embodiment, the attribute information of each moving object (which may be a universally set attribute or an attribute that changes according to the game situation) 520, parameters (position information 530, rotation information 540, Look valid time 550, representative point valid / invalid flag 560, etc.) are stored in association with object ID 510, which is the identification ID of each moving object. The attribute information 520 is information related to the attributes of each moving object such as sex, type, and enemy ally, and may be a universally set attribute or an attribute that changes according to the game situation. The position information 530 is position coordinates (x1, y1, z1) of the moving object in the virtual space. The rotation information 540 represents the direction of the moving object by rotation in three axis directions. The look valid time 550 is a valid time set for a moving object that is determined to be an autolook target candidate, and if the valid time is 0 (including a case where it is not set), Indicates that it must not be. The representative point validity / invalidity flag 560 is a flag indicating validity / invalidity set in association with the representative point of the moving object, and is a flag used to determine whether or not to be an autolook target candidate. Information. The moving object has at least one representative point. Since the valid / invalid flag is provided for each representative point, an object having one representative point such as the moving object OB1 has one valid / invalid flag, and a plurality of objects such as the moving object OB2. Those having representative points also have a plurality of valid / invalid flags. When there are a plurality of representative points, the data may be held in an array structure of structures. That is, the arrangement of representative points may be determined in advance, and the valid / invalid flag may be stored in an arrangement corresponding to the arrangement. A joint point of a moving object may be used as a representative point.
本実施の形態ではオートルックを行うにあたって、移動体オブジェクトの複数の代表点(例えば関節)を基準点とし、ONになっている関節に対してオートルックを行うようにしてもよい。 In the present embodiment, when performing auto-look, a plurality of representative points (for example, joints) of the moving object may be used as reference points, and auto-look may be performed for joints that are turned on.
例えば図3(A)に示すように移動体オブジェクト310に対して、複数の代表点312−1〜312−15を設定し、各代表点に対応させて、有効/無効フラグを設定してもよい。有効フラグの設定されている代表点がない移動体オブジェクトは、オートルック条件を満たさないと判断してもよい。またオートルック対象の移動体オブジェクトの有効フラグの設定されている代表点のスクリーン座標系における位置が生成される画像内のルック有効範囲内に含まれるように仮想カメラの向き制御してもよい。 For example, as shown in FIG. 3A, a plurality of representative points 312-1 to 312-15 are set for the moving object 310, and the valid / invalid flag is set corresponding to each representative point. Good. A mobile object that does not have a representative point for which an effective flag is set may be determined not to satisfy the auto-look condition. Further, the orientation of the virtual camera may be controlled so that the position of the representative point in which the valid flag of the moving object to be auto-looked is set is included in the look valid range in the generated image.
図3(A)では代表点312−4に対応する有効/無効フラグが、有効となっており、それ以外の代表点の有効/無効フラグは無効となっている。 In FIG. 3A, the valid / invalid flag corresponding to the representative point 312-4 is valid, and the valid / invalid flags of other representative points are invalid.
図3(B)では代表点312−4、312−14,312−15に対応する有効/無効フラグが、有効となっており、それ以外の代表点の有効/無効フラグは無効となっている。 In FIG. 3B, the valid / invalid flags corresponding to the representative points 312-4, 312, and 312-15 are valid, and the valid / invalid flags of the other representative points are invalid. .
これらの有効フラグを有する移動体オブジェクトをオートルック対象候補として選択してもよい。 A mobile object having these valid flags may be selected as an autolook target candidate.
すべての代表点(関節)の有効/無効フラグが無効の移動体オブジェクトは、オートルック対象としない。また複数の代表点(関節)が有効フラグを有する移動体オブジェクトに対しては、例えば照準位置との距離が最も近い代表点(関節)をオートルック対象としてもよい。 A mobile object in which the valid / invalid flag of all representative points (joints) is invalid is not subject to auto-look. For a moving object having a plurality of representative points (joints) having an effective flag, for example, the representative point (joint) closest to the aiming position may be set as an auto-look target.
移動体オブジェクトの代表点の有効/無効フラグの設定は、所定の規則に従って行うようにしてもよい。 The valid / invalid flag of the representative point of the moving object may be set according to a predetermined rule.
例えば大型の移動体オブジェクトに複数の代表点(関節)を設けるようにしてもよい。この様にすると大型のオブジェクトの目標位置を部分毎に設定できる。 For example, a plurality of representative points (joints) may be provided on a large moving object. In this way, the target position of a large object can be set for each part.
(4)オートルックや追尾の動作
図4は、オートルック対象の移動体オブジェクトに対する仮想カメラの回転(旋回)動作について説明するための図である。
(4) Auto Look and Tracking Operation FIG. 4 is a diagram for explaining the rotation (turning) operation of the virtual camera with respect to the auto-look target moving object.
オートルックモード中、オートルック条件を満たす移動体オブジェクト310がいる場合は、当該移動体オブジェクト310がルック範囲320に収まるように仮想カメラの回転(旋回)動作を行う。なおオートルックモード中でもオートルック条件を満たす対象がいない場合は、仮想カメラの回転(旋回)動作は行われず、カメラ固定状態で対象が現れるのをその場で待っている状態になる。 In the auto look mode, when there is a moving object 310 that satisfies the auto look condition, the virtual camera is rotated (turned) so that the moving object 310 falls within the look range 320. Note that if there is no target that satisfies the auto-look condition even in the auto-look mode, the virtual camera is not rotated (turned), and is in a state of waiting for the target to appear in the camera fixed state.
画像330−1、320−2に示すように、オートルック対象となる移動体オブジェクト310が決まったら当該移動体オブジェクト310のルック基準点312(移動体オブジェクトの代表点、代表点が複数ある場合にはいずれかの代表点)が仮想カメラの中心に来るように仮想カメラを回転(旋回)させる。なおルック範囲320の中央が仮想カメラの中心となるようにしてもよい。そして画像330−3に示すように、ルック基準点312がルック範囲(ルック判定ライン)320内に入った時点で、カメラの回転(旋回)動作は終了する。 As shown in the images 330-1 and 320-2, when the mobile object 310 to be auto-looked is determined, the look reference point 312 of the mobile object 310 (when there are a plurality of representative points and representative points of the mobile object) Rotate (turn) the virtual camera so that one of the representative points is at the center of the virtual camera. The center of the look range 320 may be the center of the virtual camera. Then, as shown in an image 330-3, when the look reference point 312 enters the look range (look determination line) 320, the rotation (turning) operation of the camera ends.
このときの仮想カメラの回転(旋回)速度のパラメータは外部から調整可能にしてもよい。 The parameter of the rotation (turning) speed of the virtual camera at this time may be adjustable from the outside.
オートルック対象となる移動体オブジェクト310のルック基準点312がルック範囲(ルック判定ライン)320内に入った後は追尾制御を行う。追尾に移行しなかった場合、その移動体オブジェクト310に対するオートルックは終了してもよい。 After the look reference point 312 of the moving object 310 to be auto-looked enters the look range (look determination line) 320, tracking control is performed. If the transition is not made to tracking, the auto look for the moving object 310 may end.
なおルック開始から時間をカウントして、カウントした時間がルック限界時間を超えた場合、対象LOST扱いとし、ルックをキャンセルしてもよい。またオートルック対象が死亡した場合にもオートルックや追尾は解除する。 Note that the time may be counted from the start of the look, and if the counted time exceeds the look limit time, the look may be canceled as a target LOST. AutoLook and tracking are also canceled when the AutoLook target dies.
またプレーヤの入力によりオートルックモードが発動されている場合には、オートルック対象を固定し、オートルック対象が死亡する、追尾可能範囲から出るなどしない限りオートルック対象を切り替えることは行わないようにする。例えばオートルック対象を最も近い場所のオートルック対象候補を切り替える制御が頻繁に行われると、オートルック対象に近い場所に別のオートルック対象候補がいた場合に、対象切り替えに伴い仮想カメラの回転(旋回)が行われ、画面が激しく振動する現象が発生する可能性がある。しかし本実施の形態のようにオートルック対象を固定することで、かかる現象を防止することができる。 Also, when the auto-look mode is activated by player input, the auto-look target is fixed, and the auto-look target is not switched unless the auto-look target dies or goes out of the trackable range. To do. For example, if control is frequently performed to switch the autolook target candidate closest to the autolook target, if there is another autolook target candidate near the autolook target, the virtual camera rotation ( May cause a phenomenon that the screen vibrates violently. However, this phenomenon can be prevented by fixing the autolook target as in the present embodiment.
ズーム時は、ズーム倍率に応じて、画面のスクロールが通常時と同じ程度になるように、オートロック時の仮想カメラの旋回速度に倍率をかけるようにしてもよい。ズーム倍率が高くなるほど、仮想カメラの旋回速度は遅くなるように、オートロック時の仮想カメラの旋回速度に倍率をかけるようにしてもよい。 During zooming, a magnification may be applied to the turning speed of the virtual camera at the time of auto-lock so that the screen scrolls to the same extent as in normal times according to the zoom magnification. The magnification may be applied to the turning speed of the virtual camera at the time of auto-lock so that the turning speed of the virtual camera becomes slower as the zoom magnification becomes higher.
図5は(A)(B)(C)は追尾中の仮想カメラの動作について説明するための図である。 5A, 5B, and 5C are diagrams for explaining the operation of the virtual camera that is being tracked.
図5(A)の画像330−3は、オートルックが完了した時点の画像であり、この時点から追尾制御が行われる。図5(B)の画像330−4、330−5に示すように、追尾制御中は、オートルック対象となる移動体オブジェクト310のルック基準点312が第2の判定ラインで囲まれた第2のエリア340より外に出ると、その移動体オブジェクト310を仮想カメラ中央へ収めるようにオートロック時の旋回速度でカメラを回転(旋回)させて追尾し、移動体オブジェクト310が第2のエリア340に入った時点でカメラの回転(旋回)を中止してもよい。 An image 330-3 in FIG. 5A is an image at the time when auto-look is completed, and tracking control is performed from this point. As shown in the images 330-4 and 330-5 in FIG. 5B, during tracking control, the second reference line 312 surrounds the look reference point 312 of the moving object 310 to be auto-looked. When moving outside the area 340, the camera is rotated (turned) at the turning speed at the time of auto-lock so that the moving object 310 is placed in the center of the virtual camera, and the moving object 310 is moved to the second area 340. The camera rotation (turning) may be stopped when entering.
図5(C)に示すように、追尾中に、移動体オブジェクト310のルック基準点312ユニットが画面外に出てしまった場合、追尾を解除し、対象LOST扱いにする。 As shown in FIG. 5C, if the look reference point 312 unit of the moving object 310 goes out of the screen during tracking, the tracking is canceled and the target LOST is handled.
オートルック制御中や追尾制御中に仮想カメラの旋回限界にきた場合、カメラの旋回限界に従い旋回しないようにする。例えば図6に示すように、オートルック対象となる移動体オブジェクト310を追尾中に、仮想カメラ360の向きが旋回可能範囲350の旋回限界352に来た場合には、たとえ前記移動体オブジェクト310を第2の判定ラインで囲まれた第2のエリア340内にとらえることができなくても、旋回動作を中止させる。 When the turning limit of the virtual camera is reached during auto look control or tracking control, the turning is not performed according to the turning limit of the camera. For example, as shown in FIG. 6, when the orientation of the virtual camera 360 comes to the turning limit 352 of the turnable range 350 while tracking the moving object 310 to be auto-looked, the moving object 310 is Even if it cannot be captured in the second area 340 surrounded by the second determination line, the turning operation is stopped.
(5)オートルック条件とオートルック対象候補の選出
オートルック条件を満たす移動体オブジェクトをオートルック対象候補として選出し、選出されたオートルック対象候補から、オートルック対象を決定してもよい。以下オートルック条件とオートルック候補の選出手法について説明する。
(5) Selection of Autolook Condition and Autolook Target Candidate A mobile object that satisfies the autolook condition may be selected as an autolook target candidate, and the autolook target may be determined from the selected autolook target candidate. The auto-look condition and auto-look candidate selection method will be described below.
例えば所定時間毎に移動体オブジェクトがオートルック条件を満たすか否か判断し、オートルック条件を満たす移動体オブジェクトに、ルック有効時間を設定するようにしてもよい。この様にするとルック有効時間が設定されているか否かでオートルック条件を満たしているかいなか判断することができる。従って、ルック有効時間がセットされている移動体オブジェクトの中からオートルック対象を決定することができる。この様にするとオートルック条件判断のタイミングとオートルック対象決定のタイミングが異なってもよいので、処理負荷を分散させることができる。 For example, it may be determined whether the mobile object satisfies the auto-look condition every predetermined time, and the look effective time may be set for the mobile object that satisfies the auto-look condition. In this way, it can be determined whether or not the auto look condition is satisfied depending on whether or not the look valid time is set. Therefore, it is possible to determine an auto-look target from among the mobile objects for which the look effective time is set. In this way, the timing of determining the auto look condition and the timing of determining the auto look target may be different, so that the processing load can be distributed.
ルック有効時間は、移動体オブジェクト毎に設定されるようにしてもよい。オートルック条件は、例えば以下のような条件でもよい。 The look valid time may be set for each moving object. The auto look condition may be, for example, the following condition.
例えばオンライン対戦では、味方の移動体オブジェクトはオートルックの対象外にしてもよい。すなわち移動体オブジェクトの属性が味方でないことをオートルック条件としてもよい。そして移動体オブジェクトの属性が味方である場合にはオートルック条件を満たさないとして、ルック有効時間をセットしない、又は数値0をセットしてもよい。 For example, in an online match, a friendly mobile object may be excluded from auto-look. That is, it is good also as an auto look condition that the attribute of a mobile object is not a friend. If the attribute of the moving object is a friend, the look valid time may not be set or the numerical value 0 may be set as not satisfying the auto look condition.
またプレーヤの視界範囲内に存在する移動体オブジェクト以外はオートルックの対象外にしてもよい。例えば所定時間毎に、プレーヤの視界範囲内に存在する移動体オブジェクトについて、ルック有効時間がセットされていない移動体オブジェクトについては、移動体オブジェクトと仮想カメラ360の間にレイを飛ばして、その移動体オブジェクトが見えているかの判定をし(レイ判定)、見えているオブジェクトにルック有効時間を設定する処理を行ってもよい。すでにルック有効時間がセットされている移動体オブジェクトやプレーヤの視界範囲外の移動体オブジェクトについてはレイ判定は行わない。 Further, objects other than the moving object existing within the player's field of view may be excluded from the auto look target. For example, for a moving object that exists within the player's field of view every predetermined time, for a moving object that does not have a valid look time, a ray is skipped between the moving object and the virtual camera 360 to move the object. It may be determined whether a body object is visible (ray determination), and a process of setting a look effective time for the visible object may be performed. Ray determination is not performed for a mobile object that already has a valid look time or a mobile object that is outside the player's field of view.
図7は、移動体オブジェクトに対するレイチェックについて説明するための図である。 FIG. 7 is a diagram for explaining ray check for a moving object.
移動体オブジェクトの代表点が1つの場合には1つの代表点に対して仮想カメラからレイをとばし、レイ上に障害物がなければ、見えていると判断する。 When there is one representative point of the moving object, the ray is skipped from the virtual camera to one representative point, and if there is no obstacle on the ray, it is determined that it is visible.
移動体オブジェクトの代表点が複数ある場合、例えば図7に示すように有効フラグを有する代表点312−4,312−14、312−15が複数ある場合、複数の代表点に対してレイ370−4,370−14、370−15を飛ばして、レイチェックを行う。 When there are a plurality of representative points of the moving object, for example, when there are a plurality of representative points 312-4, 312-14, and 312-15 having valid flags as shown in FIG. 4,370-14, 370-15 are skipped and a ray check is performed.
レイチェックでレイが貫通する障害物があれば、その代表点は見えないと判断する。移動体オブジェクトに複数の代表点がある場合は、すべての代表点が見える場合にルック有効時間をセットしてもよいし、一つでも見える代表点があればルック有効時間をセットしてもよいし、見える代表点が所定割合以上あればルック有効時間をセットしてもよい。 If there is an obstacle that the ray penetrates in the ray check, it is determined that the representative point cannot be seen. When there are a plurality of representative points in the moving object, the look valid time may be set when all representative points are visible, or the look valid time may be set if there is one representative point that can be seen. If the visible representative points are equal to or greater than a predetermined ratio, the look valid time may be set.
図8は仮想カメラの視界範囲と移動体オブジェクトの位置関係を示す図である。 FIG. 8 is a diagram showing the positional relationship between the visual field range of the virtual camera and the moving object.
プレーヤの視界範囲とは可能カメラ360の視界範囲370と考えてよいので、仮想空間内に存在する移動体オブジェクト390、392,394,396をその位置情報に基づき可能カメラ360の視界範囲370にあるか否か判断する。ここでは、移動体オブジェクト390,392は可能カメラ360の視界範囲370にあるので、ルック有効時間がセットされ、移動体オブジェクト394,396は可能カメラ360の視界範囲370外なので、ルック有効時間がセットされない、又は数値0がセットされる。 Since the player's view range may be considered as the view range 370 of the possible camera 360, the moving object 390, 392, 394, 396 existing in the virtual space is in the view range 370 of the possible camera 360 based on the position information. Determine whether or not. Here, since the mobile object 390, 392 is in the view range 370 of the possible camera 360, the look effective time is set, and since the mobile object 394, 396 is outside the view range 370 of the possible camera 360, the look effective time is set. Is not set or the value 0 is set.
図9(A)は、移動体オブジェクト398がプレーヤキャラクタ300に攻撃を行う様子を示す図であり、図9(B)は、移動体オブジェクト398がプレーヤキャラクタ300にダメージを与える様子を示す図である。 FIG. 9A is a diagram showing how the moving object 398 attacks the player character 300, and FIG. 9B is a diagram showing how the moving object 398 damages the player character 300. is there.
オンラインゲームの場合には、図9(A)に示すように、プレーヤキャラクタ300を攻撃対象として攻撃を行った移動体オブジェクト398をオートルックの対象候補としてもよい。従ってプレーヤキャラクタ300を攻撃対象として攻撃を行った移動体オブジェクト398にルック有効時間がセットされていない場合、攻撃時にルック有効時間をセットしてもよい。この条件に関しては、攻撃がヒットしたしないに関わらずルック有効時間をセットしてもよい。またこの条件に関しては、レイチェックは行わないでもよい。 In the case of an online game, as shown in FIG. 9A, a moving object 398 that has attacked the player character 300 as an attack target may be set as an autolook target candidate. Accordingly, when the effective look time is not set for the moving object 398 that has attacked the player character 300 as an attack target, the effective look time may be set during the attack. Regarding this condition, the look valid time may be set regardless of whether or not the attack is hit. In addition, ray check may not be performed for this condition.
また図9(B)に示すように、プレーヤキャラクタ300にダメージを与えた移動体オブジェクト398にレイが通ればオートルックの対象候補としてもよい。従ってプレーヤキャラクタ300にダメージを与えた移動体オブジェクト398にルック有効時間がセットされていない場合、レイチェックを行い、レイが通ればルック有効時間をセットしてもよい。 As shown in FIG. 9B, if a ray passes through a moving object 398 that has damaged the player character 300, it may be a candidate for an auto look. Therefore, if the valid look time is not set for the moving object 398 that has damaged the player character 300, ray check may be performed, and if the ray passes, the look valid time may be set.
ルック有効時間のセットは有効フラグがセットされている代表点に対して行うものであるから、そもそもオートルックの対象外である場合には当該移動体オブジェクトの代表点に無効フラグをセットしておいてもよい。 Since the look valid time is set for the representative point for which the valid flag is set, the invalid flag is set at the representative point of the moving object if it is not subject to auto-look. May be.
セットされたルック有効時間は、以下の条件で時間の制御を行うようにしてもよい。図10(A)に示すように、仮想カメラ360の視界範囲370外にいる移動体オブジェクト404、406については、セットされているルック有効時間をカウントダウン(デクリメント)する。 The set look valid time may be controlled under the following conditions. As shown in FIG. 10A, for the mobile objects 404 and 406 that are outside the field of view 370 of the virtual camera 360, the set look valid time is counted down (decremented).
また視界範囲内の移動体オブジェクトについても、レイが通らないものについてはカウントダウンしてもよい。例えば図10(B)に示すように、仮想カメラ360の視界範囲370内にいる移動体オブジェクト412、414に対して、それぞれレイ422、424を飛ばしてレイチェックを行う。そして移動体オブジェクト414のように障害物430がありレイ424が通らないものについてもセットされているルック有効時間をカウントダウン(デクリメント)する。 As for the moving object within the field of view range, it may be counted down if the ray does not pass through. For example, as shown in FIG. 10B, the ray check is performed on the moving objects 412 and 414 within the field-of-view range 370 of the virtual camera 360 by skipping the rays 422 and 424, respectively. Then, the set valid look-up time is counted down (decremented) even for objects that have an obstacle 430 and do not pass the ray 424, such as the moving object 414.
また仮想カメラ360の視界範囲370でレイが通っているユニットのルック有効時間が所定の値(例えば見えている場合の最低値として予定している値)以下になっていた場合には所定の値に再設定する。 In addition, when the effective look time of the unit in which the ray passes in the view range 370 of the virtual camera 360 is less than or equal to a predetermined value (for example, a value planned as the minimum value when visible), the predetermined value is used. Reset to.
またオートルックモード発動開始時、オートルック対象のルック有効時間のタイマーが所定の値(例えばルック時の最低値)以下であった場合には、所定の値(例えばルック時の最低値)に再設定する。この様にするとオートルックモード発動開始したときに、障害物に隠れてすぐに有効時間が0になるのを防止することができる。 In addition, when the auto look mode activation start time is less than or equal to a predetermined value (for example, the minimum value at the time of look), it is reset to a predetermined value (for example, the minimum value at the time of look). Set. In this way, it is possible to prevent the effective time from becoming zero immediately after being hidden by an obstacle when the auto look mode is activated.
またプレーヤキャラクタが攻撃対象になって発砲されたり、ダメージを受けた時、それを行った移動体オブジェクトに対して、ルック有効時間を所定の値(例えば攻撃時にセットするタイマー値)をセットしなおしてもよい。 Also, when a player character is fired as an attack target or receives damage, the look valid time is reset to a predetermined value (for example, a timer value that is set at the time of attack) for the moving object that performed the attack. May be.
移動体オブジェクト死亡時には、その移動体オブジェクトに対して設定されたルック有効時間をリセットしてもよい(数値0を設定する)。 When the mobile object dies, the look valid time set for the mobile object may be reset (a numerical value of 0 is set).
(6)オートルック対象の決定
オートルック対象の決定は、オートルックボタンが押されていない間(オートルックモードが発動されていない間)も定期的に随時行い、オートルック対象の移動体オブジェクトの識別ID等をオートルック対象情報として記憶しておく。
(6) Determination of auto-look target The auto-look target is determined periodically as needed while the auto-look button is not pressed (when the auto-look mode is not activated). Identification ID etc. are memorize | stored as autolook object information.
図20はオートルックモードの処理の流れ示すフローチャートである。 FIG. 20 is a flowchart showing a flow of processing in the auto look mode.
オートルックモード移行入力があると以下の処理を行う(ステップS10)。 When there is an auto-look mode transition input, the following processing is performed (step S10).
キャンセルイベントが発生すれば処理を終了する(ステップS20でYの場合)。 If a cancel event occurs, the process ends (in the case of Y in step S20).
オートルック対象情報がセットされている場合には(ステップS30)、オートルック対象情報に設定されている移動体オブジェクトのルック基準点がルック範囲に入るまで仮想カメラを旋回させる(ステップS40)。 When the auto look target information is set (step S30), the virtual camera is turned until the look reference point of the moving object set in the auto look target information enters the look range (step S40).
キャンセルイベントが発生すれば処理を終了する(ステップS50)
オートルック対象情報に設定されている移動体オブジェクトのルック基準点が第2の範囲外になった場合(ステップS60)、オートルック対象情報に設定されている移動体オブジェクトのルック基準点がルック範囲に入るまで仮想カメラを旋回させる制御を行い(ステップS70)、ステップS50に戻って再び移行のステップを実行する。
If a cancel event occurs, the process is terminated (step S50).
When the look reference point of the mobile object set in the auto-look target information is outside the second range (step S60), the look reference point of the mobile object set in the auto-look target information is the look range. Control is performed to turn the virtual camera until it enters (step S70), and the process returns to step S50 to execute the transition step again.
図21は、オートルックの対象を決定する処理の流れを示すフローチャートである。 FIG. 21 is a flowchart showing a flow of processing for determining an auto-look target.
まず移動体オブジェクトのルック有効時間のチェックを行い、ルック有効時間が0の(又はセットされていない)移動体オブジェクトをオートルック対象候補から除外する(ステップS110)。例えば図11に示すように、移動体オブジェクト610,620、630のルック有効時間が、それぞれ5sec(612参照)、0sec(622参照)、3sec(624参照)である場合、ルック有効時間が0secである移動体オブジェクト620(622参照)をオートルック対象候補から除外する。なおオートルック対象候補は、初期設定としてプレーヤキャラクタを除くすべての移動体オブジェクトを設定しておいてもよい。 First, the look effective time of the mobile object is checked, and the mobile object whose look valid time is 0 (or not set) is excluded from the autolook target candidates (step S110). For example, as shown in FIG. 11, when the effective look times of the moving object 610, 620, and 630 are 5 sec (see 612), 0 sec (see 622), and 3 sec (see 624), the look valid time is 0 sec. A moving object 620 (see 622) is excluded from candidates for auto-look. Note that the autolook target candidates may be set with all moving objects except the player character as an initial setting.
次に代表点(関節)の有効状況をチェックし、有効な代表点(関節)が1つもない移動体オブジェクトをオートルック対象候補から除外する(ステップS120)。例えば図12に示すように、移動体オブジェクト640は有効な代表点(関節)が1つもなく、移動体オブジェクト650は有効な代表点(関節)が1つ(652)、移動体オブジェクト660は有効な代表点が3つ(662,664,666)ある場合には、有効な代表(関節)が1つもない移動体オブジェクト640をオートルック候補から除外する。 Next, the effective state of the representative point (joint) is checked, and a mobile object having no effective representative point (joint) is excluded from the autolook target candidates (step S120). For example, as shown in FIG. 12, the moving object 640 has no effective representative point (joint), the moving object 650 has one effective representative point (joint) (652), and the moving object 660 is effective. If there are three representative points (662, 664, 666), the mobile object 640 having no effective representative (joint) is excluded from the auto-look candidates.
次にプレーヤキャラクタからの距離をチェックして、プレーヤキャラクタから一定距離(ルック有効距離と呼ぶ)より離れた移動体オブジェクトをオートルック対象候補から除外する(ステップS130)。図13は、ルック有効距離について説明するための図である。ルック有効距離はプレーヤキャラクタ670からの距離であり、例えばルック有効距離がr1とするとプレーヤキャラクタの位置から半径r1のエリアをルック有効エリア680として、そのルック有効エリア680内に入っていない(位置座表がない)移動体オブジェクトはオートルック対象候補から除外する。例えば移動体オブジェクト720、730はルック有効エリア680内に入っていない(位置座表がない)ので、オートルック対象候補から除外する。 Next, the distance from the player character is checked, and a moving object that is separated from the player character by a certain distance (referred to as a look effective distance) is excluded from the autolook target candidates (step S130). FIG. 13 is a diagram for explaining the look effective distance. The look effective distance is a distance from the player character 670. For example, when the look effective distance is r1, the area having the radius r1 from the position of the player character is set as the look effective area 680 and is not included in the look effective area 680 (position position). Mobile objects that do not have a table are excluded from auto-look candidates. For example, the mobile objects 720 and 730 are excluded from the auto-look target candidates because they do not enter the look effective area 680 (there are no position maps).
なおこのルック有効距離は、プレーヤキャラクタのアイテム、属性等により変化させてもよい。例えば、プレーヤの使用中の武器が通常のピストルである場合とライフルである場合には、射程距離が長いライフルの場合のほうがピストルの場合に比べてルック有効距離が長くなるようにしてもよい。例えばピストルの場合のルック有効距離がr1の場合、ライフルの場合のルック有効距離r2(r2>r1)としてもよい。この場合、例えば移動体オブジェクト730はルック有効エリア680内に入っていない(位置座表がない)ので、オートルック対象候補から除外されることになる。 The look effective distance may be changed depending on the item, attribute, etc. of the player character. For example, when the weapon used by the player is a normal pistol and a rifle, the look effective distance may be longer for a rifle with a longer range than for a pistol. For example, if the look effective distance in the case of a pistol is r1, the look effective distance r2 (r2> r1) in the case of a rifle may be used. In this case, for example, the moving object 730 is not included in the look effective area 680 (there is no position map), and is therefore excluded from the autolook target candidates.
上記除外処理によりオートルック対象候補が存在しない場合には(ステップS140でNの場合)、対象なしで処理を終了する。 If the auto-look target candidate does not exist due to the exclusion process (N in step S140), the process ends without target.
オートルック対象候補の移動体オブジェクトが存在する場合(ステップS140でYの場合)には、視野範囲内にオートルック対象候補の移動体オブジェクトが存在するか否か判断する(ステップS150)。存在する場合には照準位置に最も近いオートルック対象候補の移動体オブジェクトを検索して、オートルック対象として設定する(ステップS160)。図14(A)(B)(C)は、照準位置に最も近い移動体オブジェクトを検索する処理について説明するための図である。オートルック対象候補の移動体オブジェクトの中から、視野範囲内にいる移動体オブジェクトに対して検索を行う。視野範囲内にいるかどうかは、各移動体オブジェクト820、830、840,850のルック基準点822、832、842、852が画面外判定ライン230より内側にあるか否かで判定する。3次元的な位置関係で判断してもよいし、スクリーン座標系へ投影変換後の2次元的な位置関係に基づき判断してもよい。 If there is a mobile object that is an autolook target candidate (Y in step S140), it is determined whether or not there is a mobile object that is an autolook target candidate in the field of view (step S150). If it exists, the mobile object of the auto look target candidate closest to the aiming position is searched and set as the auto look target (step S160). FIGS. 14A, 14B, and 14C are diagrams for describing processing for searching for a moving object closest to the aiming position. A search is performed for a mobile object within the field of view from among the mobile objects that are candidates for autolook. Whether or not it is within the field of view is determined by whether or not the look reference points 822, 832, 842, and 852 of the respective moving object 820, 830, 840, and 850 are inside the out-of-screen determination line 230. The determination may be made based on a three-dimensional positional relationship, or based on the two-dimensional positional relationship after projection conversion to the screen coordinate system.
図14(A)では移動体オブジェクト820、830、840のルック基準点822、832、842が画面外判定ライン230より内側にあるので、移動体オブジェクト820、830、840は視野範囲内にいると判断する。 In FIG. 14A, since the look reference points 822, 832, and 842 of the moving objects 820, 830, and 840 are inside the outside-of-screen determination line 230, the moving objects 820, 830, and 840 are within the visual field range. to decide.
そして照準位置が仮想空間内の位置座標で与えられる場合には、図14(B)に示すように、仮想空間(3次元空間)内における各移動体オブジェクト820、830、840のルック基準点822、832、842と照準の中心位置810との距離824、834、844を測り、この距離が最も近い移動体オブジェクトをオートルック対象とする。ここでは移動体オブジェクト820のルック基準点822と照準位置810の距離824が最も短いので、移動体オブジェクト820がオートルック対象となっている。 When the aiming position is given by position coordinates in the virtual space, as shown in FIG. 14B, look reference points 822 of the respective moving object 820, 830, 840 in the virtual space (three-dimensional space). , 832 and 842 and the distances 824, 834 and 844 between the center position 810 of the aiming are measured, and the moving object having the closest distance is set as the auto look target. Here, since the distance 824 between the look reference point 822 and the aiming position 810 of the moving object 820 is the shortest, the moving object 820 is an auto-look target.
図18(A)は照準位置の求め方を説明するための図である。照準位置810は、照準方向860と、銃口の位置(仮想カメラの位置又はプレーヤキャラクタの位置)850、飛距離Lにより求めることができる。 FIG. 18A is a diagram for explaining how to obtain the aiming position. The aiming position 810 can be obtained from the aiming direction 860, the muzzle position (virtual camera position or player character position) 850, and the flight distance L.
図18(B)は照準方向860が与えられている場合のオートルック対象の選び方について説明するための図である。照準方向860が与えられている場合には、仮想空間(3次元空間)内における各移動体オブジェクト820、830、840のルック基準点822、832、842と仮想カメラ(プレーヤキャラクタ)850を結ぶ方向824、834、844と照準方向860とのなす角度θ1、θ2、θ3を測り、この角度が最も小さい(鋭角な)移動体オブジェクトをオートルック対象とする。ここでは移動体オブジェクト820のルック基準点822と仮想カメラ(プレーヤキャラクタ)850を結ぶ方向824と照準方向との那須角度θ1が最も鋭角であるので移動体オブジェクト820がオートルック対象となっている。 FIG. 18B is a diagram for explaining how to select an autolook target when the aiming direction 860 is given. When the aiming direction 860 is given, the direction connecting the look reference points 822, 832, and 842 of the moving object 820, 830, and 840 and the virtual camera (player character) 850 in the virtual space (three-dimensional space). The angles θ1, θ2, and θ3 formed by 824, 834, and 844 and the aiming direction 860 are measured, and the moving object having the smallest (acute angle) angle is set as an autolook target. Here, since the Nasu angle θ1 between the direction 824 connecting the look reference point 822 of the moving object 820 and the virtual camera (player character) 850 and the aiming direction is the most acute angle, the moving object 820 is an auto-look target.
ステップS150で視野範囲内にオートルック対象候補が存在しない場合にはプレーヤキャラクタに最も近いオートルック対象候補の移動体オブジェクトを検索して、オートルック対象として設定する(ステップS170)。図15に示すようにプレーヤキャラクタの視野範囲内750に移動体オブジェクトが存在しない場合には、視野範囲外に存在する移動体オブジェクト770、780,790とプレーヤキャラクタ670との距離l1,l2,l3を比較し、l1<l2<l3なので、プレーヤキャラクタに最も近い移動体オブジェクト770をオートルック対象として設定する。 If there is no autolook target candidate in the field of view in step S150, the mobile object of the autolook target candidate closest to the player character is searched and set as the autolook target (step S170). As shown in FIG. 15, when there is no moving object within the player character's visual field range 750, the distances l 1, l 2, and 13 between the moving object 770, 780, 790 and the player character 670 that exist outside the visual field range Since l1 <l2 <l3, the moving object 770 closest to the player character is set as an autolook target.
(7)オートルック対象へのマーカー表示
図16は、オートルック対象となる移動体オブジェクトに対するマーカー表示例を示す図である。本実施の形態では、オートルック対象となる移動体オブジェクト820には、2Dでマーカー表示890を行う。2Dのマーカーは、マーカーの中心が、ルック基準点822になるように表示してもよい。
(7) Marker Display on Auto Look Target FIG. 16 is a diagram showing a marker display example for a moving object that is an auto look target. In the present embodiment, marker display 890 is performed in 2D on the moving object 820 to be auto-looked. The 2D marker may be displayed such that the center of the marker is the look reference point 822.
なおオートルック対象へのマーカー表示は、オートルックモードを発動していないときに表示することが好ましい。そしてオートルックモード中は表示を消し、オートルックモードを解除した場合は、画面外に出現させてから対象に移動するようにしてもよい。オートルック対象が変わった場合は、マーカーはそちらへ移動する。 In addition, it is preferable to display the marker display for the auto look target when the auto look mode is not activated. Then, the display is turned off during the auto look mode, and when the auto look mode is canceled, it may be moved to the target after appearing outside the screen. If the autolook target changes, the marker moves to it.
図17は、オートルック対象切り替え時のマーカー移動について説明するための図である。オートルック対象が変わった場合は、マーカーはそちらへ移動するように動かす。すなわち、オートルック対象が移動体オブジェクト820から移動体オブジェクト830に切り替わった場合にはマーカー画像890も併せて瞬時に切り替わるのではなく、移動体オブジェクト820から移動体オブジェクト830に移動する表示制御が行われる。 FIG. 17 is a diagram for explaining marker movement during auto-look target switching. If the auto-look target changes, move the marker to move there. That is, when the auto-look target is switched from the moving object 820 to the moving object 830, the marker image 890 is not switched at the same time, but display control for moving from the moving object 820 to the moving object 830 is performed. Is called.
なお本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。例えば、明細書又は図面中の記載において広義や同義な用語として引用された用語は、明細書又は図面中の他の記載においても広義や同義な用語に置き換えることができる。 The present invention is not limited to that described in the above embodiment, and various modifications can be made. For example, terms cited as broad or synonymous terms in the description in the specification or drawings can be replaced with broad or synonymous terms in other descriptions in the specification or drawings.
例えば上記実施の形態は、複数のプレーヤが参加するマルチプレーヤゲームとして構成することができる。マルチプレーヤゲームは、ネットワークで接続された他のゲーム装置又はサーバと接続されたゲーム装置で実行され、他のゲーム装置又はサーバとゲームデータのやりとりを行うようにして実現してもよい。 For example, the above embodiment can be configured as a multiplayer game in which a plurality of players participate. The multiplayer game may be realized by being executed on a game device connected to another game device or server connected via a network, and exchanging game data with the other game device or server.
この様なマルチプレーヤゲームの場合、所与のプレーヤのプレーヤキャラクタが、他のプレーヤのプレーヤキャラクタのオートルック対象となった場合に、その旨を通知するための警告メッセージや警告表示を行うようにしてもよい。例えばオートルック対象である所与のプレーヤキャラクタに対応するプレーヤのゲーム画面に「ねらわれています」等の警告メッセージの表示を行うようにしてもよい。 In such a multi-player game, when a player character of a given player is subject to auto-look for another player's player character, a warning message or a warning display for notifying that effect is performed. May be. For example, a warning message such as “Aimed” may be displayed on the game screen of the player corresponding to a given player character that is subject to auto-look.
上記実施の形態では、ゲーム装置が撮影装置である場合を例にとり説明したがこれに限られない。例えばゲーム装置は、業務用ゲームシステム、家庭用ゲームシステム、携帯型ゲームシステム等のいずれのタイプでも構成可能であり、ゲームの種類もシューティングゲームやレースゲームやロールプレイングゲームやパズルゲーム等の種々のゲームシステムに適用できる。 In the above embodiment, the case where the game apparatus is a photographing apparatus has been described as an example, but the present invention is not limited thereto. For example, the game device can be configured by any type of business game system, home game system, portable game system, and the like, and the type of game is various, such as a shooting game, a race game, a role playing game, and a puzzle game. Applicable to game systems.
100 処理部、110 オブジェクト空間設定部、111 仮想カメラ配置制御部、
112 オートルック対象設定部、113 演算処理部、113−1 指示位置又は指示方向演算部、113−2 ダメージ演算部、113−3 有効時間演算部、114 移動・動作処理部、115 ゲーム演算部、116 表示制御部、120 画像生成部、130 音処理部、160 入力部、162 検出部、180 情報記憶媒体、190 表示部、170 記憶部、172 主記憶部、192 音出力部、196 通信部
100 processing unit, 110 object space setting unit, 111 virtual camera arrangement control unit,
112 auto look target setting unit, 113 calculation processing unit, 113-1 pointing position or pointing direction calculation unit, 113-2 damage calculation unit, 113-3 effective time calculation unit, 114 movement / motion processing unit, 115 game calculation unit, 116 display control unit, 120 image generation unit, 130 sound processing unit, 160 input unit, 162 detection unit, 180 information storage medium, 190 display unit, 170 storage unit, 172 main storage unit, 192 sound output unit, 196 communication unit
Claims (17)
仮想カメラ又はプレーヤキャラクタを制御する制御情報に基づき仮想カメラの配置制御を行う仮想カメラ配置制御部と、
仮想空間に存在する移動体オブジェクトの中にオートルック条件を満たす移動体オブジェクトが存在するか否か検索し、オートルック条件を満たす1つの移動体オブジェクトをオートルック対象として設定するオートルック対象設定部と、
仮想空間を仮想カメラから見た画像を生成する画像生成部と、してコンピュータを機能させ、
前記仮想カメラ配置制御部は、
オートルック対象が設定されていない場合には、前記移動入力情報に基づき仮想カメラの向きを制御し、オートルック対象が設定されている場合には、当該オートルック対象の移動体オブジェクトの画像が、生成される画像の所与の位置に設定されたルック範囲に入るまで、仮想カメラを回転させるルック回転制御を行うことを特徴とするプログラム。 A program for generating an image obtained by viewing a virtual space where a moving object exists from a virtual camera,
A virtual camera placement control unit that controls placement of the virtual camera based on control information for controlling the virtual camera or the player character;
An auto-look target setting unit that searches whether there is a mobile object that satisfies the auto-look condition among the mobile objects that exist in the virtual space, and sets one mobile object that satisfies the auto-look condition as an auto-look target When,
The computer functions as an image generation unit that generates an image of the virtual space viewed from a virtual camera,
The virtual camera arrangement control unit
When the auto-look target is not set, the orientation of the virtual camera is controlled based on the movement input information, and when the auto-look target is set, the image of the mobile object that is the auto-look target is A program for performing look rotation control for rotating a virtual camera until a look range set at a given position of a generated image is entered.
指示位置又は指示方向を指示する入力情報に基づき、仮想空間における指示位置又は指示方向を演算する指示位置又は指示方向演算部をさらに含み、
前記オートルック対象設定部は、
移動体オブジェクトの位置と指示位置又は指示方向に基づきオートルック条件を満たす1つの移動体オブジェクトをオートルック対象として決定することを特徴とするプログラム。 In claim 1,
An instruction position or instruction direction calculator for calculating the instruction position or instruction direction in the virtual space based on the input information indicating the instruction position or instruction direction;
The auto look target setting unit
A program for determining, as an auto-look target, one mobile object that satisfies the auto-look condition based on the position of the mobile object and the indicated position or direction.
前記オートルック対象設定部は、
仮想空間に配置された移動体オブジェクトについてオートルック条件を満たすか否か判定し、オートルック条件を満たす移動体オブジェクトをオートルック対象候補として選択し、選択されたオートルック対象候補からオートルック対象を決定することを特徴とするプログラム。 In claim 1 or 2,
The auto look target setting unit
Determines whether or not the auto-look condition is satisfied for the moving object placed in the virtual space, selects a mobile object that satisfies the auto-look condition as an auto-look target candidate, and selects the auto-look target from the selected auto-look target candidates A program characterized by deciding.
前記オートルック対象設定部は、
いずれかの移動体オブジェクトがオートルック対象として設定されている場合は、キャンセルイベントが発生するまでは、オートルック対象を変更しないことを特徴とするプログラム。 In any one of Claims 1 thru | or 3,
The auto look target setting unit
A program characterized in that when any moving object is set as an auto-look target, the auto-look target is not changed until a cancel event occurs.
前記オートルック対象設定部は、
前記仮想空間内において仮想カメラ又はプレーヤキャラクタと移動体オブジェクトを結ぶ線分上に障害物があるか否かを判断し、障害物がある場合には当該移動体オブジェクトはオートルック条件を満たさないと判断することを特徴とするプログラム。 In any one of Claims 1 thru | or 4,
The auto look target setting unit
In the virtual space, it is determined whether there is an obstacle on a line segment connecting the virtual camera or the player character and the moving object, and if there is an obstacle, the moving object must satisfy the auto-look condition. A program characterized by judgment.
移動体オブジェクトまたはその少なくとも1つの代表点に有効時間を設定し、設定されている有効時間がなくなるまで有効時間をデクリメントする有効時間演算部をさらに含み、
前記オートルック対象設定部は、
有効時間が残っていない移動体オブジェクトまたは代表点はオートルック条件を満たさないと判断することを特徴とするプログラム。 In any one of Claims 1 thru | or 5,
An effective time calculation unit that sets an effective time for the moving object or at least one representative point thereof, and decrements the effective time until the set effective time is exhausted;
The auto look target setting unit
A program characterized by determining that a moving object or representative point for which no valid time remains does not satisfy the auto-look condition.
前記オートルック対象設定部は、
プレーヤキャラクタと移動体オブジェクトの距離が有効範囲内にないものは、オートルック条件を満たさないと判断することを特徴とするプログラム。 In any one of Claims 1 thru | or 6.
The auto look target setting unit
A program characterized in that if the distance between the player character and the moving object is not within the effective range, it is determined that the auto-look condition is not satisfied.
前記オートルック対象設定部は、
プレーヤキャラクタのアイテム、属性、発生するイベントの種類、ゲームステージの種類の少なくとも1つに基づき、前記有効範囲を変化させることを特徴とするプログラム。 In claim 7,
The auto look target setting unit
A program for changing the effective range based on at least one of an item, an attribute, an event type to be generated, and a game stage type.
前記仮想カメラ配置制御部は、
オートルック対象の移動体オブジェクトの画像が、生成される画像の所定の位置に設定され前記ルック範囲を内包する第2の範囲に含まれなくなった場合には、前記オートルック対象の移動体オブジェクトの画像が前記ルック範囲又は前記第2の範囲に含まれるように仮想カメラを回転させる追尾制御を行うことを特徴とするプログラム。 In any one of Claims 1 thru | or 8.
The virtual camera arrangement control unit
When the image of the mobile object subject to auto-look is not included in the second range including the look range set at a predetermined position of the generated image, A program for performing tracking control for rotating a virtual camera so that an image is included in the look range or the second range.
移動体オブジェクトを構成する少なくとも1つの代表点に対して有効/無効フラグを設定するフラグ設定部をさらに含み、
前記オートルック対象設定部は、
有効フラグの設定されている代表点がない移動体オブジェクトは、オートルック条件を満たさないと判断することを特徴とするプログラム。 In any one of Claims 1 thru | or 9,
A flag setting unit for setting a valid / invalid flag for at least one representative point constituting the moving object;
The auto look target setting unit
A program characterized by determining that a moving object without a representative point having a valid flag set does not satisfy the auto-look condition.
前記仮想カメラ配置制御部は、
オートルック対象の移動体オブジェクトの有効フラグの設定されている代表点が前記ルック範囲又は前記第2の範囲に含まれるように仮想カメラを回転させることを特徴とするプログラム。 In claim 10,
The virtual camera arrangement control unit
A program for rotating a virtual camera so that a representative point in which a valid flag of a moving object subject to auto-look is set is included in the look range or the second range.
前記仮想カメラ配置制御部は、
所与のイベントに基づきオートルックモードが発動されると、オートルック対象が設定されている場合にはルック回転制御が行なわれ、オートルックモードが発動されていない場合には入力情報に基づき仮想カメラの向きを制御することを特徴とするプログラム。 In any one of Claims 1 thru | or 11,
The virtual camera arrangement control unit
When the auto look mode is activated based on a given event, the look rotation control is performed when the auto look target is set, and the virtual camera based on the input information when the auto look mode is not activated. A program characterized by controlling the orientation of the program.
オートルックモードが発動されていない場合に、オートルック対象の移動体オブジェクトに対して、オートルック対象であることを示す特別表示を行う表示制御部とを、さらに含むことを特徴とするプログラム。 In any one of Claims 1 thru | or 11,
A program, further comprising: a display control unit for performing a special display indicating that an object is to be auto-looked on a mobile object to be auto-looked when the auto-look mode is not activated.
入力情報に基づきプレーヤキャラクタの移動を制御するプレーヤキャラクタ移動制御部をさらに含み、
前記プレーヤキャラクタ移動制御部は、
オートルック対象が設定されていない場合には、プレーヤキャラクタの向きを基準方向としてプレーヤキャラクタの移動方向を制御し、オートルック対象が設定されている場合には、プレーヤキャラクタと前記オートルック対象の移動体オブジェクトを結ぶ方向を基準方向としてプレーヤキャラクタの移動方向を制御することを特徴とするプログラム。 In any one of Claims 1 thru | or 13.
A player character movement control unit for controlling movement of the player character based on the input information;
The player character movement control unit
When the auto-look target is not set, the player character's moving direction is controlled with the player character's orientation as the reference direction. When the auto-look target is set, the player character and the auto-look target move A program for controlling a moving direction of a player character using a direction connecting body objects as a reference direction.
攻撃情報に基づきプレーヤキャラクタにダメージを与えるダメージを演算するダメージ演算部をさらに含み、
前記ダメージ演算部は、
オートルック対象が設定されている場合には、プレーヤキャラクタや敵キャラクタが受けるダメージ量や、プレーヤキャラクタや敵キャラクタの攻撃能力や防御能力に関するパラメータを、オートルック対象が設定されていない場合に比べて変化させる処理を行うことを特徴とするプログラム。 In any one of Claims 1 thru | or 14.
A damage calculation unit for calculating damage that damages the player character based on the attack information;
The damage calculator is
When the auto-look target is set, the amount of damage received by the player character and enemy character and the parameters related to the attack and defense abilities of the player character and enemy character are compared to those when the auto-look target is not set. A program characterized by performing processing to be changed.
仮想カメラ又はプレーヤキャラクタを制御する制御情報に基づき仮想カメラの配置制御を行う仮想カメラ配置制御部と、
仮想空間に存在する移動体オブジェクトの中にオートルック条件を満たす移動体オブジェクトが存在するか否か検索し、オートルック条件を満たす1つの移動体オブジェクトをオートルック対象として設定するオートルック対象設定部と、
仮想空間を仮想カメラから見た画像を生成する画像生成部と、を含み、
前記仮想カメラ配置制御部は、
オートルック対象が設定されていない場合には、前記移動入力情報に基づき仮想カメラの向きを制御し、オートルック対象が設定されている場合には、当該オートルック対象の移動体オブジェクトの画像が、生成される画像の所与の位置に設定されたルック範囲に入るまで、仮想カメラを回転させるルック回転制御を行うことを特徴とする画像生成装置。 An image generation device that generates an image of a virtual space in which a moving object is present viewed from a virtual camera,
A virtual camera placement control unit that controls placement of the virtual camera based on control information for controlling the virtual camera or the player character;
An auto-look target setting unit that searches whether there is a mobile object that satisfies the auto-look condition among the mobile objects that exist in the virtual space, and sets one mobile object that satisfies the auto-look condition as an auto-look target When,
An image generation unit that generates an image of a virtual space viewed from a virtual camera,
The virtual camera arrangement control unit
When the auto-look target is not set, the orientation of the virtual camera is controlled based on the movement input information, and when the auto-look target is set, the image of the mobile object that is the auto-look target is An image generation apparatus characterized by performing look rotation control for rotating a virtual camera until a look range set at a given position of a generated image is entered.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010083446A JP2011215886A (en) | 2010-03-31 | 2010-03-31 | Program, information storage medium, and image generation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010083446A JP2011215886A (en) | 2010-03-31 | 2010-03-31 | Program, information storage medium, and image generation device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011215886A true JP2011215886A (en) | 2011-10-27 |
Family
ID=44945549
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010083446A Pending JP2011215886A (en) | 2010-03-31 | 2010-03-31 | Program, information storage medium, and image generation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011215886A (en) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014236817A (en) * | 2013-06-06 | 2014-12-18 | 株式会社セガ | Game device and program |
JP2015150063A (en) * | 2014-02-12 | 2015-08-24 | 株式会社バンダイナムコエンターテインメント | Program and game apparatus |
JP2015532739A (en) * | 2012-07-26 | 2015-11-12 | クアルコム,インコーポレイテッド | Expansion of tangible objects such as user interface controllers |
KR101582296B1 (en) * | 2015-06-26 | 2016-01-04 | 주식회사 레드덕 | Automatic aiming system and method for mobile game |
CN109690633A (en) * | 2016-09-14 | 2019-04-26 | 株式会社万代南梦宫娱乐 | Simulation system, processing method and information storage medium |
JP2020039947A (en) * | 2019-12-12 | 2020-03-19 | グリー株式会社 | Provision of online shooting game, game server and control program therefor |
JP2020514920A (en) * | 2017-03-17 | 2020-05-21 | ユニティ アイピーアール エイピーエスUnity Ipr Aps | Method and system for automated camera collision and composition storage |
CN111760285A (en) * | 2020-08-13 | 2020-10-13 | 腾讯科技(深圳)有限公司 | Virtual scene display method, device, equipment and medium |
CN112473138A (en) * | 2020-12-10 | 2021-03-12 | 网易(杭州)网络有限公司 | Game display control method and device, readable storage medium and electronic equipment |
WO2021147496A1 (en) * | 2020-01-21 | 2021-07-29 | 腾讯科技(深圳)有限公司 | Method and apparatus for using virtual prop, and device and storage meduim |
US11123638B2 (en) | 2016-06-10 | 2021-09-21 | Nintendo Co., Ltd. | Non-transitory storage medium having stored therein information processing program, information processing device, information processing system, and information processing method |
US11192035B2 (en) | 2013-04-05 | 2021-12-07 | Gree, Inc. | Method and apparatus for providing online shooting game |
CN114404956A (en) * | 2022-01-04 | 2022-04-29 | 腾讯科技(深圳)有限公司 | Information acquisition method and device, storage medium and electronic equipment |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1997036261A1 (en) * | 1996-03-28 | 1997-10-02 | Sega Enterprises, Ltd. | An image processor, a game machine using the image processor, a method of image processing and a medium |
WO1998001824A1 (en) * | 1996-07-04 | 1998-01-15 | Sega Enterprises, Ltd. | Image processor, game machine, image display method, and recording medium |
JP2001149643A (en) * | 1999-09-16 | 2001-06-05 | Sony Computer Entertainment Inc | Object display method in three-dimensional game, information recording medium, and entertainment device |
JP2008272123A (en) * | 2007-04-26 | 2008-11-13 | Namco Bandai Games Inc | PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE |
JP2010005209A (en) * | 2008-06-27 | 2010-01-14 | Taito Corp | Lock-on condition setting program and game machine |
JP2010017395A (en) * | 2008-07-11 | 2010-01-28 | Namco Bandai Games Inc | Program, information storage medium, and game machine |
-
2010
- 2010-03-31 JP JP2010083446A patent/JP2011215886A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1997036261A1 (en) * | 1996-03-28 | 1997-10-02 | Sega Enterprises, Ltd. | An image processor, a game machine using the image processor, a method of image processing and a medium |
WO1998001824A1 (en) * | 1996-07-04 | 1998-01-15 | Sega Enterprises, Ltd. | Image processor, game machine, image display method, and recording medium |
JP2001149643A (en) * | 1999-09-16 | 2001-06-05 | Sony Computer Entertainment Inc | Object display method in three-dimensional game, information recording medium, and entertainment device |
JP2008272123A (en) * | 2007-04-26 | 2008-11-13 | Namco Bandai Games Inc | PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE |
JP2010005209A (en) * | 2008-06-27 | 2010-01-14 | Taito Corp | Lock-on condition setting program and game machine |
JP2010017395A (en) * | 2008-07-11 | 2010-01-28 | Namco Bandai Games Inc | Program, information storage medium, and game machine |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015532739A (en) * | 2012-07-26 | 2015-11-12 | クアルコム,インコーポレイテッド | Expansion of tangible objects such as user interface controllers |
US11712634B2 (en) | 2013-04-05 | 2023-08-01 | Gree, Inc. | Method and apparatus for providing online shooting game |
US11192035B2 (en) | 2013-04-05 | 2021-12-07 | Gree, Inc. | Method and apparatus for providing online shooting game |
JP2014236817A (en) * | 2013-06-06 | 2014-12-18 | 株式会社セガ | Game device and program |
JP2015150063A (en) * | 2014-02-12 | 2015-08-24 | 株式会社バンダイナムコエンターテインメント | Program and game apparatus |
KR101582296B1 (en) * | 2015-06-26 | 2016-01-04 | 주식회사 레드덕 | Automatic aiming system and method for mobile game |
WO2016208930A1 (en) * | 2015-06-26 | 2016-12-29 | 주식회사 레드덕 | Automatic aiming system and method for mobile game |
US11123638B2 (en) | 2016-06-10 | 2021-09-21 | Nintendo Co., Ltd. | Non-transitory storage medium having stored therein information processing program, information processing device, information processing system, and information processing method |
JP7137294B2 (en) | 2016-06-10 | 2022-09-14 | 任天堂株式会社 | Information processing program, information processing device, information processing system, and information processing method |
CN109690633A (en) * | 2016-09-14 | 2019-04-26 | 株式会社万代南梦宫娱乐 | Simulation system, processing method and information storage medium |
CN109690633B (en) * | 2016-09-14 | 2023-02-28 | 株式会社万代南梦宫娱乐 | Simulation system, processing method, and information storage medium |
JP2020514920A (en) * | 2017-03-17 | 2020-05-21 | ユニティ アイピーアール エイピーエスUnity Ipr Aps | Method and system for automated camera collision and composition storage |
US11508116B2 (en) | 2017-03-17 | 2022-11-22 | Unity IPR ApS | Method and system for automated camera collision and composition preservation |
JP7128170B2 (en) | 2019-12-12 | 2022-08-30 | グリー株式会社 | Provision of online shooting games, game servers and their control programs |
JP2020039947A (en) * | 2019-12-12 | 2020-03-19 | グリー株式会社 | Provision of online shooting game, game server and control program therefor |
WO2021147496A1 (en) * | 2020-01-21 | 2021-07-29 | 腾讯科技(深圳)有限公司 | Method and apparatus for using virtual prop, and device and storage meduim |
US12311266B2 (en) | 2020-01-21 | 2025-05-27 | Tencent Technology (Shenzhen) Company Limited | Method and apparatus for using virtual prop, device, and storage medium |
CN111760285A (en) * | 2020-08-13 | 2020-10-13 | 腾讯科技(深圳)有限公司 | Virtual scene display method, device, equipment and medium |
CN111760285B (en) * | 2020-08-13 | 2023-09-26 | 腾讯科技(深圳)有限公司 | Virtual scene display method, device, equipment and medium |
CN112473138A (en) * | 2020-12-10 | 2021-03-12 | 网易(杭州)网络有限公司 | Game display control method and device, readable storage medium and electronic equipment |
CN112473138B (en) * | 2020-12-10 | 2023-11-17 | 网易(杭州)网络有限公司 | Game display control method and device, readable storage medium and electronic equipment |
CN114404956A (en) * | 2022-01-04 | 2022-04-29 | 腾讯科技(深圳)有限公司 | Information acquisition method and device, storage medium and electronic equipment |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011215886A (en) | Program, information storage medium, and image generation device | |
JP5597837B2 (en) | Program, information storage medium, and image generation apparatus | |
US8556695B2 (en) | Information storage medium, image generation device, and image generation method | |
US8574071B2 (en) | Information storage medium and image generation system | |
US9345972B2 (en) | Information storage medium, image generation system, and image generation method | |
JP5390115B2 (en) | Program, game system | |
JP5411473B2 (en) | Program and game device | |
US8556716B2 (en) | Image generation system, image generation method, and information storage medium | |
JP2012212237A (en) | Image generation system, server system, program, and information storage medium | |
JP5520443B2 (en) | Program, information storage medium, and game system | |
JP2016140378A (en) | Game machine, game system, and program | |
JP2011053838A (en) | Program, information storage medium, and image generation device | |
JP2012210243A (en) | Program, information storage medium, terminal, and server | |
JP2019136358A (en) | Game system and program | |
JP2012215934A (en) | Program, information storage medium, terminal, and server | |
JP2023115237A (en) | Game system, program, and game providing method | |
JP2014061039A (en) | Program, information storage medium, game apparatus, and server device | |
JP2017118979A (en) | Game device and program | |
JP5597869B2 (en) | Program, information storage medium, and image generation apparatus | |
US20190147664A1 (en) | Application control program, application control method, and application control system | |
JP2011255114A (en) | Program, information storage medium, and image generation system | |
JP2020054879A (en) | Game machine, game system, and program | |
JP7667356B1 (en) | Program, method and information processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130326 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140120 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140129 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140813 |