JP6407324B2 - GAME PROGRAM AND GAME DEVICE - Google Patents
GAME PROGRAM AND GAME DEVICE Download PDFInfo
- Publication number
- JP6407324B2 JP6407324B2 JP2017025670A JP2017025670A JP6407324B2 JP 6407324 B2 JP6407324 B2 JP 6407324B2 JP 2017025670 A JP2017025670 A JP 2017025670A JP 2017025670 A JP2017025670 A JP 2017025670A JP 6407324 B2 JP6407324 B2 JP 6407324B2
- Authority
- JP
- Japan
- Prior art keywords
- effect expression
- feature point
- game
- sound
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 230000000694 effects Effects 0.000 claims description 189
- 230000014509 gene expression Effects 0.000 claims description 174
- 238000012545 processing Methods 0.000 claims description 52
- 230000008859 change Effects 0.000 claims description 7
- 238000004148 unit process Methods 0.000 claims 1
- 238000000034 method Methods 0.000 description 27
- 230000008569 process Effects 0.000 description 24
- 238000010521 absorption reaction Methods 0.000 description 23
- 230000007613 environmental effect Effects 0.000 description 9
- 230000009471 action Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 6
- 238000005266 casting Methods 0.000 description 5
- 230000007704 transition Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 239000004575 stone Substances 0.000 description 4
- 239000000463 material Substances 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000007123 defense Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 241001342895 Chorus Species 0.000 description 1
- 241000238631 Hexapoda Species 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 235000019994 cava Nutrition 0.000 description 1
- HAORKNGNJCEJBX-UHFFFAOYSA-N cyprodinil Chemical compound N=1C(C)=CC(C2CC2)=NC=1NC1=CC=CC=C1 HAORKNGNJCEJBX-UHFFFAOYSA-N 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008929 regeneration Effects 0.000 description 1
- 238000011069 regeneration method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
Description
本発明は、ゲームプログラムおよびゲーム装置に関する。 The present invention relates to a game program and a game device.
近年、仮想空間内にて、プレイヤキャラクタを操作してゲームを進行させるアクションゲームが市販されている。この種のアクションゲームでは、ゲームの面白さ、興奮度、リアル感などの向上のために背景音楽(BGM)、仮想空間に応じた環境音(例えば雨、風などの周囲の音)等のゲーム音による演出が行われる。 In recent years, an action game in which a game is progressed by operating a player character in a virtual space is commercially available. In this type of action game, games such as background music (BGM) and environmental sounds (for example, ambient sounds such as rain and wind) according to the virtual space are used to improve the fun, excitement, and realism of the game. Production by sound is performed.
このようなゲーム音による演出をより効果的に行うために、プレイヤキャラクタが位置している領域に応じて、その都度、環境音等の所定のゲーム音を加工する処理を行う構成が知られている(例えば、特許文献1参照)。 In order to perform such a game sound effect more effectively, a configuration is known in which processing for processing a predetermined game sound such as an environmental sound is performed each time in accordance with the area where the player character is located. (For example, refer to Patent Document 1).
しかし、特許文献1のような構成では、例えば、プレイヤキャラクタの位置から壁等の遮蔽物までの距離、天井までの高さ、地面または遮蔽物の材質(吸音率等)といった領域内におけるより詳細な環境の変化をゲーム音に反映することが難しい。プレイヤキャラクタの位置に応じてその周囲の状況(遮蔽物までの距離等)をレイキャストして取得することもできるが、処理負荷が大きくなってしまう。ゲーム音による演出のために処理負荷が大きくなると、ゲーム音以外の処理にも影響を与えてしまいゲーム全体の進行を阻害するおそれもある。
However, in the configuration as in
このような問題は、ゲーム音だけでなく、光の照射、風、雨等のエフェクト表現においても同様に生じ得る。 Such a problem may occur not only in the game sound but also in the effect expression such as light irradiation, wind, and rain.
そこで本発明は、エフェクト表現による演出のための処理負荷の増大を抑制しつつ、エフェクト表現による多彩な演出を行うことができるゲームプログラムおよびゲーム装置を提供することを目的とする。 Accordingly, an object of the present invention is to provide a game program and a game apparatus capable of performing various effects by effect expression while suppressing an increase in processing load for effects by effect expression.
本発明の一の態様に係るゲームプログラムは、仮想空間に配置した仮想カメラで撮像した画像をゲーム画面として表示する表示部と、ゲームを進行させるコンピュータとを備えたゲームシステムにおいて前記コンピュータに実行させるゲームプログラムであって、前記コンピュータを、前記仮想空間を生成する仮想空間生成手段、前記仮想カメラの向きまたは位置を制御する仮想カメラ制御手段、予め記憶された少なくとも1つのエフェクト表現データを用いてエフェクト表現を実行するエフェクト表現手段、および前記仮想空間上に配置された複数の特徴点のうち、少なくとも、前記仮想カメラの位置に付随して設定されるエフェクト表現の取得位置に最も近い位置にある特徴点の情報を取得する特徴点情報取得手段、として機能させ、前記エフェクト表現手段は、取得した特徴点の情報に基づいて、前記エフェクト表現データを加工するエフェクト表現変更手段を含み、前記特徴点の情報は、当該特徴点の位置から最も近い遮蔽物が位置する基準方向を含み、前記エフェクト表現変更手段は、取得した特徴点における前記基準方向と前記仮想カメラの向きとの角度に応じて前記エフェクト表現データを加工する。 A game program according to an aspect of the present invention causes a computer to execute in a game system including a display unit that displays an image captured by a virtual camera arranged in a virtual space as a game screen, and a computer that advances the game. A game program, wherein the computer uses virtual space generation means for generating the virtual space, virtual camera control means for controlling the orientation or position of the virtual camera, and at least one effect expression data stored in advance. Of the plurality of feature points arranged in the virtual space, the effect expression means for executing the expression, and at least the feature closest to the acquisition position of the effect expression set in association with the position of the virtual camera Function as a feature point information acquisition means for acquiring point information, and The effect expression means includes effect expression change means for processing the effect expression data based on the acquired feature point information, and the feature point information is a reference on which a shield closest to the position of the feature point is located. The effect expression changing means processes the effect expression data according to an angle between the reference direction at the acquired feature point and the orientation of the virtual camera.
前記エフェクト表現変更手段は、取得した特徴点における前記基準方向と前記仮想カメラの向きとの角度に応じて前記エフェクト表現データを加工してもよい。 The effect expression changing unit may process the effect expression data according to an angle between the reference direction and the direction of the virtual camera at the acquired feature point.
前記エフェクト表現変更手段は、前記基準方向と前記仮想カメラの向きとの角度が小さいほど前記エフェクト表現データに基づくエフェクト表現の出力を大きくしてもよい。 The effect expression changing means may increase the output of the effect expression based on the effect expression data as the angle between the reference direction and the orientation of the virtual camera is smaller.
前記特徴点の情報は、当該特徴点に対して前記基準方向を含む所定の複数の方向において対向する遮蔽物の複数の表面位置に基づいて画される所定の基準領域の位置情報を含み、前記エフェクト表現変更手段は、前記エフェクト表現の取得位置の前記仮想カメラの向きを基準とする所定の方向における前記エフェクト表現の取得位置が含まれる基準領域の境界までの距離に基づいて前記エフェクト表現データを加工してもよい。 The feature point information includes position information of a predetermined reference area defined based on a plurality of surface positions of a shielding object facing the feature point in a plurality of predetermined directions including the reference direction, The effect expression changing means is configured to convert the effect expression data based on a distance to a boundary of a reference area including the acquisition position of the effect expression in a predetermined direction with respect to the orientation of the virtual camera of the acquisition position of the effect expression. It may be processed.
前記基準領域は、前記複数の表面位置のうち、前記特徴点と対向する遮蔽物の表面位置との距離が所定の規定距離以上である場合、前記特徴点から当該対向する方向に前記規定距離離れた位置が前記基準領域を画する境界線に含まれるように設定されてもよい。 The reference region is separated from the feature point in the facing direction when the distance between the surface position of the shielding object facing the feature point is equal to or greater than a predetermined specified distance among the plurality of surface positions. The position may be set so as to be included in the boundary line defining the reference area.
前記基準領域の境界は、前記基準方向に直交する線分を一辺に含む矩形状に形成されてもよい。 The boundary of the reference region may be formed in a rectangular shape including a line segment orthogonal to the reference direction on one side.
前記エフェクト表現変更手段は、前記音の聴取位置から前記仮想カメラの向きを含む直交する4方向において前記基準領域の境界までの距離を取得し、取得した4つの距離に基づいて前記エフェクト表現データを加工してもよい。 The effect expression changing means acquires a distance from the sound listening position to a boundary of the reference area in four orthogonal directions including the direction of the virtual camera, and the effect expression data is obtained based on the acquired four distances. It may be processed.
また、本発明の他の態様に係るゲーム装置は、上記のゲームプログラムを記憶したプログラム記憶部と、前記プログラム記憶部に記憶されたプログラムを実行するコンピュータとを備えている。 A game device according to another aspect of the present invention includes a program storage unit that stores the above-described game program, and a computer that executes the program stored in the program storage unit.
本発明によれば、エフェクト表現による演出のための処理負荷の増大を抑制しつつ、エフェクト表現による多彩な演出を行うことができるゲームプログラムおよびゲーム装置を提供することができる。 According to the present invention, it is possible to provide a game program and a game apparatus capable of performing various effects by effect expression while suppressing an increase in processing load for effects by effect expression.
以下、本発明の実施の形態に係るゲームプログラムおよびゲーム装置について、図面を参照しつつ説明する。以下の説明では、家庭用ゲーム装置において実行されるアクションゲームを例として説明する。本実施の形態に係るアクションゲームは、仮想のゲーム空間内でプレイヤキャラクタを操作して、敵キャラクタを討伐する、アイテムを探索する、所定のイベントを攻略する等の所定のクエストを攻略することにより進行する。 Hereinafter, a game program and a game apparatus according to embodiments of the present invention will be described with reference to the drawings. In the following description, an action game executed in a home game device will be described as an example. In the action game according to the present embodiment, a player character is manipulated in a virtual game space to defeat an enemy character, search for an item, and capture a predetermined event. proceed.
[ハードウェアの構成]
図1は、本発明の一実施の形態に係るゲーム装置1の内部構成を示すブロック図である。図1に示すようにゲーム装置1は制御部30を備えている。該制御部30は、CPU11、描画データ生成プロセッサ12、RAM(Random Access Memory)13、ROM(Read Only Memory)14、描画処理プロセッサ15、および音声処理プロセッサ18を含んでいる。さらに、ゲーム装置1は、この他にもVRAM(Video-RAM)16、アンプ19、スピーカ20、イヤホン端子21、操作部22、メディアインタフェース23、無線LANモジュール24、およびバス25を備えている。そして、これらのうちCPU11、描画データ生成プロセッサ12、RAM13、ROM14、描画処理プロセッサ15、音声処理プロセッサ18、操作部22、メディアインタフェース23、および無線LANモジュール24が、バス25によって相互にデータ伝送可能に接続されている。
[Hardware configuration]
FIG. 1 is a block diagram showing an internal configuration of a
操作部22は、方向キーおよびその他のボタン群(図示せず)を含んでおり、ユーザの操作を受け付けて、その操作内容に応じた操作情報(操作信号)をCPU11に入力する。また、方向キーおよびボタン群が有する各種のボタンは、プレイヤキャラクタの特定の動作を指示するための操作子である。また、操作部22には、これら操作子以外にゲーム装置1の電源の入/切を行うための電源スイッチ等が含まれる。
The operation unit 22 includes direction keys and other button groups (not shown), accepts a user operation, and inputs operation information (operation signal) according to the operation content to the CPU 11. In addition, various buttons included in the direction key and the button group are operators for instructing a specific action of the player character. The operation unit 22 includes a power switch for turning on / off the power of the
メディアインタフェース23は、図示しないメディア装着部にセットされたゲームメディア5にアクセスしてゲームプログラム5aおよびゲームデータ5bを読み出す。このうちゲームプログラム5aは、例えば、プレイヤキャラクタと敵キャラクタとが仮想空間にて対戦する内容のゲームを、ゲーム装置1に実行させるものである。
The
また、ゲームデータ5bには、上記ゲームを実行する上で必要なデータとして、キャラクタや背景の画像データ、ステータスなどの情報表示用の画像データ、効果音やBGMなどの音声データ、文字や記号によるメッセージデータ等が含まれている。なお、記録媒体であるゲームメディア5は、半導体メモリのほか、光ディスクの一種であるUMD(Universal Media Disc)(登録商標)を採用することができる。
The
RAM13には、ゲームの進行に応じてゲームメディア5から読み込まれたゲームプログラム5aおよびゲームデータ5bを格納するロードエリア、ならびに、CPU11がゲームプログラム5aを処理する際に使用するためのワークエリアが設定されている。ROM14には、ディスクローディング機能などのゲーム装置1の基本的機能、ゲームメディア5に記憶されているゲームプログラム5aおよびゲームデータ5bの読み出し処理を制御する基本プログラムが記憶されている。
In the
CPU11は、ゲームメディア5に記録されているゲームプログラム5aおよびゲームデータ5bの全部または一部を、メディアインタフェース23を通じてRAM13に読み込む。CPU11は、ユーザによる操作部22の操作に応じてゲームプログラム5aを実行し、ゲーム進行を制御する。より具体的には、ユーザに操作されることによって操作部22から操作信号が入力されると、CPU11は、ゲームプログラム5aに従ってその操作信号に対応する所定のゲーム進行処理を行う。
The CPU 11 reads all or part of the
CPU11は、処理結果に基づいて、ゲーム進行を示す画像(以下、「ゲーム画面」)としてディスプレイ(表示部)2に表示する。さらに、CPU11は、処理結果に基づいて、ゲーム進行を示す音声信号(以下、「ゲーム音声」)を音声出力部(スピーカ20またはイヤホン端子21)に出力する。
The CPU 11 displays on the display (display unit) 2 as an image indicating the progress of the game (hereinafter, “game screen”) based on the processing result. Further, the CPU 11 outputs an audio signal indicating the game progress (hereinafter referred to as “game audio”) to the audio output unit (the
上記ゲーム画面の描画は、CPU11の指示により、描画処理プロセッサ15が行う。すなわち、CPU11は、操作部22から入力される操作信号に基づき、ディスプレイ2に表示すべきゲーム画面の内容を決定する。描画データ生成プロセッサ12は、その内容に対して必要な描画データを生成する。そして、その描画データは、描画処理プロセッサ15に転送される。
Drawing of the game screen is performed by the
描画処理プロセッサ15は、描画データに基づいて描画処理を行う。描画処理プロセッサ15は、描画データに基づいて1/60秒毎にゲーム画面を生成し、生成したゲーム画面をVRAM16に書き込む。ディスプレイ2は、半透過型カラー液晶ディスプレイとバックライトLED(Light Emitting Diode)とを有し、VRAM16に書き込まれたゲーム画面を表示する。
The drawing
また、CPU11は、ゲームの進行に応じて、スピーカ20から出力すべき効果音やBGM等の音声を決定する。CPU11は、決定した音声を出力するための音声データをRAM13から読み出して音声処理プロセッサ18に入力する。すなわち、CPU11は、ゲームの進行に伴って発音イベントが発生すると、その発音イベントに応じた音声データ(ゲームメディア5からロードされた音声データ)をRAM13から読み出して音声処理プロセッサ18に入力する。
Further, the CPU 11 determines sound effects such as sound effects and BGM to be output from the
音声処理プロセッサ18は、DSP(Digital Signal Processor)で構成されている。音声処理プロセッサ18は、CPU11によって入力された音声データに対して所定の効果(例えば、リバーブ、コーラスなど)を付与したのちアナログ信号に変換して、アンプ19に出力する。アンプ19は、音声処理プロセッサ18から入力された音声信号を増幅したのち、スピーカ20およびイヤホン端子21に出力する。
The
無線LANモジュール24は、通信規格IEEE802.11b(使用周波数帯2.4GHz、通信速度11Mbps)に準拠した無線LANによって他のゲーム装置1とデータ通信を行い、ネットワークを構成するための通信モジュールである。
The
[制御部の機能的構成]
図2は、図1に示すゲーム装置1が備える制御部30の機能的な構成を示すブロック図である。図2は、主に、上述したゲームシステムを実現するのに必要な機能を示している。前述したとおり、制御部30は、CPU11、描画データ生成プロセッサ12、RAM13、ROM14、描画処理プロセッサ15、および音声処理プロセッサ18を含むコンピュータとして動作する。そして、このコンピュータとして動作する制御部30は、ゲームメディア5から読み込んだゲームプログラム5aおよびゲームデータ5bを実行することによって、以下に説明するような機能を備える。
[Functional configuration of control unit]
FIG. 2 is a block diagram showing a functional configuration of the
すなわち、制御部30は、例えば、仮想空間生成手段31、特徴点情報取得手段32、エフェクト表現手段33、仮想カメラ制御手段34、キャラクタ制御手段35、および仮想出力源設定手段36といった機能を発揮する。
That is, the
このうち、仮想空間生成手段31は、キャラクタが行動する仮想空間Sを生成する。仮想空間Sには、プレイヤキャラクタおよび敵キャラクタが対戦する仮想空間も含まれる。
Among these, the virtual
キャラクタ制御手段35は、仮想空間SにおけるプレイヤキャラクタCおよび敵キャラクタを含む様々なキャラクタの動作を制御する。例えば、キャラクタ制御手段35は、ユーザによる操作部22の操作に応じて、プレイヤキャラクタCの移動、攻撃、および防御を含む各種動作を制御する。また、キャラクタ制御手段35は、敵キャラクタによる移動、攻撃、および防御等の各種の動作も制御する。 The character control means 35 controls the actions of various characters including the player character C and the enemy character in the virtual space S. For example, the character control means 35 controls various actions including movement, attack, and defense of the player character C according to the operation of the operation unit 22 by the user. The character control means 35 also controls various actions such as movement, attack and defense by the enemy character.
特徴点情報取得手段32は、仮想空間S上に配置された複数の特徴点のうち、少なくとも、キャラクタの位置に最も近い位置にある特徴点の情報を取得する。
The feature point
エフェクト表現手段33は、予め記憶されたエフェクト表現データを用いてキャラクタの位置におけるエフェクト表現を実行する。エフェクト表現には、例えば、音声の反響表現または光の照射表現等が含まれる。エフェクト表現手段33は、例えば、音の場合、周囲の遮蔽物における音の吸収または反射等の効果を表現し、光の場合、複数の光源の重なりまたは陰影等の効果を表現する。 The effect expression means 33 executes effect expression at the character position using effect expression data stored in advance. The effect expression includes, for example, a sound echo expression or a light irradiation expression. For example, in the case of sound, the effect expression means 33 expresses an effect such as absorption or reflection of sound in a surrounding shielding object, and in the case of light, an effect such as overlapping or shading of a plurality of light sources.
本実施の形態では、エフェクト表現として音が用いられる場合を例示する。この場合、エフェクト表現手段33は、ゲームメディア5から読み込んでRAM13に予め記憶されたゲームデータ5bに含まれる少なくとも1つの音声データを再生する。エフェクト表現手段33は、エフェクト表現変更手段331を含む。
In this embodiment, a case where sound is used as an effect expression is illustrated. In this case, the effect expression means 33 reproduces at least one audio data included in the
エフェクト表現変更手段331は、取得した特徴点の情報(環境情報)に基づいてエフェクト表現データを加工する。本実施の形態において、エフェクト表現変更手段331は、再生される少なくとも1つの音声データのうちの少なくとも1つの所定の音声データ(以下、特定音声データ)を加工する。エフェクト表現手段33は、加工した特定音声データを出力する。
The effect expression changing means 331 processes the effect expression data based on the acquired feature point information (environment information). In the present embodiment, the effect
仮想カメラ制御手段34は、ユーザによる操作部22の操作に基づいて仮想カメラの向きまたは位置を制御する。仮想出力源設定手段36は、キャラクタの位置に付随してエフェクト表現の仮想出力源を設定する。
The virtual
[特徴点の配置態様]
図3は、本実施の形態における仮想空間に配置された特徴点の一例を示す仮想空間の平面図である。3次元の仮想空間Sには、地形がポリゴン、テクスチャ等で描画され、当該地形上に各種のオブジェクト、キャラクタ等が配置される。また、複数の特徴点Pi(i=1,2,…)が、仮想空間SにおけるプレイヤキャラクタCの移動可能領域SM上に配置されている。
[Arrangement mode of feature points]
FIG. 3 is a plan view of the virtual space showing an example of the feature points arranged in the virtual space in the present embodiment. In the three-dimensional virtual space S, the terrain is drawn with polygons, textures, and the like, and various objects, characters, and the like are arranged on the terrain. Further, a plurality of feature points Pi (i = 1, 2,...) Are arranged on the movable area SM of the player character C in the virtual space S.
複数の特徴点は、後述する環境情報を取得するための仮想の点であって仮想空間S上には表示されない。複数の特徴点のうちの少なくとも1つは、移動可能領域SMの境界線Bが折れ線状となる角部または曲線における変曲点BCj(j=1,2,…)の近傍に配置される。 The plurality of feature points are virtual points for acquiring environment information described later, and are not displayed on the virtual space S. At least one of the plurality of feature points is arranged in the vicinity of the inflection point BCj (j = 1, 2,...) In the corner or curve where the boundary line B of the movable region SM is broken.
図3の例では、仮想空間Sにおいて途中で折れ曲がる通路が移動可能領域SMとして配置されている。図3には、当該通路を画する遮蔽物である壁が仮想空間Sの平面視における境界線Bとして表されている。この通路の曲がり角における境界線Bの変曲点BC1の近傍の移動可能領域SM上に特徴点P2が配置され、変曲点BC2の近傍移動可能領域SM上に特徴点P5が配置されている。 In the example of FIG. 3, a path that is bent halfway in the virtual space S is arranged as the movable region SM. In FIG. 3, a wall that is a shielding object that defines the passage is represented as a boundary line B in a plan view of the virtual space S. A feature point P2 is arranged on the movable area SM in the vicinity of the inflection point BC1 of the boundary line B at the corner of the passage, and a feature point P5 is arranged on the movable area SM in the vicinity of the inflection point BC2.
特徴点P1,P3,P4,P6は、それぞれ、移動可能領域SM上の境界線Bの近傍(直線状部分の近傍)に配置されている。また、特徴点P7,P8は、それぞれ、移動可能領域SMの境界線Bの近傍から離れた位置(移動可能領域SMの中央領域等)に配置されている。なお、境界線Bの角部または変曲点の近傍から離れた位置の特徴点P7,P8は、なくてもよい。 The feature points P1, P3, P4, and P6 are respectively disposed in the vicinity of the boundary line B (in the vicinity of the linear portion) on the movable region SM. Further, the feature points P7 and P8 are respectively arranged at positions away from the vicinity of the boundary line B of the movable region SM (such as the central region of the movable region SM). Note that the feature points P7 and P8 at positions away from the corner of the boundary line B or the vicinity of the inflection point may be omitted.
[特徴点を利用したエフェクト表現の加工処理]
各特徴点Piには、当該特徴点Piの位置において音に影響を与える所定の環境情報がゲームデータ5bとして含まれる。所定の環境情報は、例えば、各特徴点Piの周囲の遮蔽物(壁、床、地面、天井等)による平均吸音率を含む。
[Processing of effect expression using feature points]
Each feature point Pi includes, as
図4は、本実施の形態の特徴点における平均吸音率の求め方を説明するための仮想空間の平面図である。特徴点Piは、周囲三方が遮蔽物により囲まれている。本例において、遮蔽物には、砂利による遮蔽物Dgと、石による遮蔽物Dsとが含まれる。 FIG. 4 is a plan view of a virtual space for explaining how to obtain the average sound absorption coefficient at the feature point of the present embodiment. The feature point Pi is surrounded by a shield on three sides. In this example, the shield includes a shield Dg made of gravel and a shield Ds made of stone.
まず、例えば、特徴点Piの情報設定時(ゲームデータ5bの作成時)において、仮想空間Sに配置された特徴点Piから所定の方向にレイキャストを行うこと等により、特徴点Piから当該所定の方向における遮蔽物までの距離が取得される。図4においては水平8方向にレイキャストして、特徴点Piから当該8方向における遮蔽物Bg,Bsまでの距離および当接した遮蔽物の種別情報(遮蔽物の有無を含む)が取得される。なお、遮蔽物までの距離が所定の基準距離以上の場合、当接していないとして扱ってもよい。
First, for example, at the time of setting information on the feature point Pi (when creating the
さらに、高さ方向にもレイキャストを行い、天井までの距離等が取得される。なお、高さ方向についても、真上、真上から所定角度前方、真上から所定角度後方、真上から所定角度右方および真上から所定角度左方等、複数の方向における距離を取得してもよい。さらに、これら複数の方向における距離を平均して1つの高さ情報としてもよい。 Furthermore, ray casting is also performed in the height direction, and the distance to the ceiling and the like are acquired. As for the height direction, the distance in a plurality of directions is acquired, such as a predetermined angle forward from directly above, a predetermined angle backward from directly above, a right angle from right above and a predetermined angle to the left from above. May be. Furthermore, the distances in the plurality of directions may be averaged to form one height information.
以上より得られた情報に基づいて、平均吸音率αavが求められる。例えば、平均吸音率αavは、αav=αg・(xg/8)・(1/Lg)+αs・(xs/8)・(1/Ls)+…という式で表される。ここで、αgは、砂利における吸音率(例えば0.5)を表し、αsは、石における吸音率(例えば0.02)を表す。また、xgは、8つのレイキャストのうち砂利に当接したレイの数(図4においては5)を表す。xsは、8つのレイキャストのうち石に当接したレイの数(図4においては2)を表す。また、Lgは、砂利の遮蔽物までの平均距離を表す。Lsは、石の遮蔽物までの平均距離を表す。他の材料による遮蔽物が存在する場合には、当該他の材料による同様の項が加算される。 Based on the information obtained as described above, the average sound absorption coefficient α av is obtained. For example, the average sound absorption coefficient α av is expressed by an equation : α av = α g · (x g / 8) · (1 / L g ) + α s · (x s / 8) · (1 / L s ) +. Is done. Here, α g represents a sound absorption coefficient (for example, 0.5) in gravel, and α s represents a sound absorption coefficient (for example, 0.02) in stone. Further, x g represents the number of rays that have come into contact with gravel among the eight ray casts (5 in FIG. 4). x s represents the number of rays (2 in FIG. 4) in contact with the stone among the eight ray casts. L g represents the average distance to the gravel shield. L s represents the average distance to the stone shield. When there is a shield made of another material, a similar term for the other material is added.
なお、遮蔽物がない方向は、空気の吸音率を0として平均吸音率を算出してもよいし、空気の吸音率を別途設定して、上記式に含めてもよい。この場合、距離は上記基準距離としてもよい。 In the direction where there is no shielding object, the average sound absorption coefficient may be calculated with the sound absorption coefficient of air set to 0, or the sound absorption coefficient of air may be set separately and included in the above equation. In this case, the distance may be the reference distance.
また、平均吸音率αavを求める式は、上記式に限られない。例えば、αav=αg・(xg/8)+αs・(xs/8)+…という式を用いてもよい。この場合、遮蔽物があるか(近いか)ないか(遠いか)によって遮蔽物の吸音率αg,αs等の項が追加されるか否かが決定される。 Further, the formula for obtaining the average sound absorption coefficient α av is not limited to the above formula. For example, the following equation may be used: αav = α g · (x g / 8) + α s · (x s / 8) +. In this case, whether or not a term such as the sound absorption coefficient α g , α s of the shielding object is added is determined depending on whether the shielding object is present (closer) or not (distant).
このようにして、平均吸音率αavが特徴点Piごとに決定され、特徴点Piの環境情報として特徴点Piの位置情報に関連付けて記憶される。 In this way, the average sound absorption rate α av is determined for each feature point Pi, and is stored as environment information of the feature point Pi in association with the position information of the feature point Pi.
本実施の形態において、音に関するエフェクト表現の取得位置(以下、音の聴取位置)Lは、プレイヤキャラクタの位置に付随して設定される。より具体的には、音の聴取位置Lは、プレイヤキャラクタCの中心(頭部)に設定される。これに代えて、音の聴取位置LがプレイヤキャラクタCから離間した位置に設定されてもよい。この場合、音の聴取位置Lが、例えばプレイヤキャラクタCより所定距離前方または後方に設定されてもよいし、仮想カメラ(後述する図7の符号V)の位置に設定されてもよい。 In the present embodiment, the acquisition position (hereinafter referred to as the sound listening position) L of the effect expression relating to the sound is set in association with the position of the player character. More specifically, the sound listening position L is set at the center (head) of the player character C. Instead, the sound listening position L may be set at a position separated from the player character C. In this case, the sound listening position L may be set, for example, a predetermined distance forward or backward from the player character C, or may be set to a position of a virtual camera (reference V in FIG. 7 described later).
特徴点情報取得手段32は、仮想空間S上に配置された複数の特徴点Piのうち、少なくとも、プレイヤキャラクタCの位置(本例では音の聴取位置Lでもある)に最も近い位置にある特徴点Pnの環境情報(本実施の形態においては特徴点Pn=P2における平均吸音率αav)を取得する。エフェクト表現変更手段331は、取得した特徴点Pnの環境情報に基づいて、再生される特定音声データを加工する。例えば、エフェクト表現変更手段331は、特徴点Pnにおける平均吸音率αavに基づいて特定音声データが再生された際のリバーブの長さまたは大きさを設定する。
The feature point information acquisition means 32 is a feature that is at least closest to the position of the player character C (which is also the sound listening position L in this example) among the plurality of feature points Pi arranged in the virtual space S. The environmental information of the point Pn (in this embodiment, the average sound absorption coefficient α av at the characteristic point Pn = P2) is acquired. The effect
なお、特徴点Piの環境情報は、当該特徴点Piにおける平均吸音率αavに限られない。例えば、平均吸音率αavに加えてまたはこれに代えて、各特徴点Piにおける一番近い遮蔽物までの距離、空間属性(例えば室内、洞窟、原野、森等)、または、高さ等の情報が、当該特徴点Piの環境情報として設定されてもよい。 Note that the environment information of the feature point Pi is not limited to the average sound absorption rate α av at the feature point Pi. For example, in addition to or instead of the average sound absorption coefficient α av , the distance to the nearest shielding object at each feature point Pi, spatial attributes (for example, indoors, caves, wilderness, forests, etc.), height, etc. Information may be set as environment information of the feature point Pi.
例えば、一番近い遮蔽物までの距離を環境情報とした場合、エフェクト表現変更手段331は、当該距離が近いほどリバーブの大きさを大きくしたり、リバーブの長さを短くしたりする。
For example, when the distance to the nearest shield is used as the environment information, the effect
空間属性は、エフェクト表現に影響を与えるパラメータを含んでいる。例えば、空間属性に含まれるパラメータには、リバーブの長さのパラメータおよび/またはリバーブの大きさのパラメータ等が含まれる。空間属性には、室内、洞窟、原野、森等、パラメータの値が予め設定されている複数種類の属性が含まれる。空間属性を環境情報とした場合、エフェクト表現変更手段331は、取得した特徴点Piの空間属性に応じた音響効果を特定音声データに適用する。
The spatial attribute includes parameters that affect the effect expression. For example, the parameters included in the spatial attribute include a reverb length parameter and / or a reverb size parameter. The space attribute includes a plurality of types of attributes whose parameter values are set in advance, such as a room, a cave, a wilderness, and a forest. When the spatial attribute is environment information, the effect
また、高さを環境情報とした場合、エフェクト表現変更手段331は、当該高さが高い程リバーブの長さを長くしたり、リバーブの大きさを小さくしたりする。
When the height is the environment information, the effect
また、特徴点Piの環境情報として、当該特徴点Piから所定距離内に位置する遮蔽物の方向が設定されてもよい。 Moreover, the direction of the shielding object located within a predetermined distance from the feature point Pi may be set as the environment information of the feature point Pi.
特定音声データは、仮想空間における特定の音源が発する音、特定の音源が存在しない環境音、または、背景音楽が含まれ得る。仮想空間における特定の音源が発する音には、例えば、武器の使用音、斬撃の音、銃声、足音、声、敵キャラクタのブレス音、滝の音、薪の爆ぜる音、機械の動作音、ファンの回転音等が含まれ得る。また、環境音には、例えば、雨あるいは風の音、鳥あるいは虫の鳴き声等が含まれ得る。 The specific sound data may include a sound emitted from a specific sound source in the virtual space, an environmental sound without a specific sound source, or background music. Sounds generated by a specific sound source in the virtual space include, for example, weapon use sounds, slashing sounds, gunshots, footsteps, voices, enemy character breath sounds, waterfall sounds, spear explosion sounds, machine operation sounds, A fan rotation sound or the like may be included. In addition, the environmental sound can include, for example, rain or wind sounds, birds or insects.
エフェクト表現手段33は、再生すべき音声データを再生してエフェクト表現を実行する。このとき、再生すべき音声データに含まれる特定音声データは、プレイヤキャラクタCの位置に最も近い位置にある特徴点Pnの情報に基づいて加工された音声となる。 The effect expression means 33 reproduces audio data to be reproduced and executes effect expression. At this time, the specific sound data included in the sound data to be reproduced is a sound processed based on the information of the feature point Pn located closest to the position of the player character C.
上記態様によれば、仮想空間Sにおける音の鳴り方等のエフェクト表現に関する環境情報が、プレイヤキャラクタCの移動範囲内の複数の位置である各特徴点Piの情報として記憶される。これにより、プレイヤキャラクタCの位置に近い特徴点Piの環境情報を取得することにより、処理負荷の増大を抑制しつつその場所に応じた音の加工処理を行うことができる。 According to the above aspect, the environment information related to the effect expression such as how to sound in the virtual space S is stored as information of each feature point Pi that is a plurality of positions within the movement range of the player character C. Thereby, by acquiring the environment information of the feature point Pi close to the position of the player character C, it is possible to perform a sound processing process according to the location while suppressing an increase in processing load.
ここで、特徴点Piを仮想空間Sの地形(特に、キャラクタの移動可能領域SM)に関係なく等間隔に配置することも考えられる。すなわち、例えば所定の格子配列の頂点を特徴点とすることも考えられる。しかし、このような態様では、キャラクタが移動できない箇所にも特徴点Piが配置され、特徴点Piの環境情報が無駄になる場合が生じる。 Here, it is also conceivable to arrange the feature points Pi at equal intervals regardless of the terrain of the virtual space S (in particular, the character movable region SM). That is, for example, it is conceivable to use the vertex of a predetermined lattice arrangement as a feature point. However, in such an aspect, the feature points Pi are also arranged at locations where the character cannot move, and the environment information of the feature points Pi may be wasted.
また、移動可能領域SMの境界線Bの近傍には遮蔽物が設置されている場合が多く、音への影響が局所的に変化する。しかし、特徴点Piを等間隔に配置した場合、音への影響が大きい当該境界線Bの近傍に必ずしも特徴点Piが配置されないため、音の加工を、キャラクタの周囲の局所的な変化に対応させることができない。 Further, there are many cases where a shield is installed in the vicinity of the boundary line B of the movable region SM, and the influence on the sound changes locally. However, when the feature points Pi are arranged at equal intervals, the feature points Pi are not necessarily arranged in the vicinity of the boundary line B that has a large influence on the sound, so that the sound processing corresponds to local changes around the character. I can't let you.
そこで、上記構成においては、複数の特徴点Piの少なくとも1つがキャラクタの移動可能領域SMの境界線Bの角部または変曲点BCjの近傍に配置される。これにより、特徴点Piの配置に無駄がなくなり、データ量の増大を抑制しつつキャラクタの移動範囲における特徴点Piの数を増加させることができる。したがって、プレイヤキャラクタCの位置によって異なる仮想空間Sの環境に応じたよりリアルなエフェクト表現を実現することができる。以上より、本実施の形態によれば、エフェクト表現による演出のための処理負荷の増大を抑制しつつ、エフェクト表現による多彩な演出を行うことができる。 Therefore, in the above configuration, at least one of the plurality of feature points Pi is arranged in the vicinity of the corner portion of the boundary line B of the character movable region SM or the inflection point BCj. Thereby, there is no waste in the arrangement of the feature points Pi, and the number of feature points Pi in the character movement range can be increased while suppressing an increase in the data amount. Therefore, a more realistic effect expression according to the environment of the virtual space S that varies depending on the position of the player character C can be realized. As described above, according to the present embodiment, it is possible to perform various effects by effect expression while suppressing an increase in processing load for effects by effect expression.
本実施の形態における複数の特徴点Piは、移動可能領域SMに設定されるナビメッシュNを構成する複数の頂点の少なくとも一部に配置される。ナビメッシュNは、ノンプレイヤキャラクタの経路探索用に設けられるものであり、複数の頂点(図3においては特徴点Piと同じ位置)と、当該複数の頂点間を網目状に繋ぐ経路とを含む。 The plurality of feature points Pi in the present embodiment are arranged at least at a part of the plurality of vertices constituting the navigation mesh N set in the movable region SM. The Navimesh N is provided for route search of the non-player character and includes a plurality of vertices (the same position as the feature point Pi in FIG. 3) and a route connecting the plurality of vertices in a mesh shape. .
ナビメッシュNは、ノンプレイヤキャラクタが移動可能領域SMを移動する経路の基準となるため、移動可能領域SMを網羅するように複数の頂点が配置されている。すなわち、ナビメッシュNの複数の頂点は、移動可能領域SMの境界線Bが折れ線状となる角部または曲線における変曲点BCjの近傍に配置される頂点を含むように設定される。 Since the Navimesh N serves as a reference for a route along which the non-player character moves in the movable area SM, a plurality of vertices are arranged so as to cover the movable area SM. That is, the plurality of vertices of the navigation mesh N are set so as to include vertices arranged in the vicinity of the inflection point BCj in the corner or curve where the boundary line B of the movable region SM becomes a polygonal line.
このように、特徴点Piの座標としてノンプレイヤキャラクタの経路探索に利用されるナビメッシュNの頂点の座標を流用することにより、特徴点Piのマップデータを追加することによる容量増を防止することができる。 In this way, by using the coordinates of the vertices of the navigation mesh N used for the route search of the non-player character as the coordinates of the feature points Pi, it is possible to prevent an increase in capacity due to the addition of the map data of the feature points Pi. Can do.
なお、ナビメッシュNの頂点の位置を流用して特徴点Piの位置を設定する場合、ナビメッシュNのすべての頂点が複数の特徴点Piとして設定されてもよいし、ナビメッシュNの一部の頂点が複数の特徴点Piとして設定されてもよい。また、ナビメッシュNの少なくとも一部の頂点が複数の特徴点Piの一部として設定され、かつ、ナビメッシュNの頂点ではない位置にも特徴点Piが設定されてもよい。 When the position of the feature point Pi is set using the position of the vertex of the Navimesh N, all the vertices of the Navimesh N may be set as a plurality of feature points Pi, or a part of the Navimesh N May be set as a plurality of feature points Pi. Further, at least some of the vertices of the navigation mesh N may be set as a part of the plurality of feature points Pi, and the feature points Pi may be set at positions that are not the vertices of the navigation mesh N.
さらに、複数の特徴点Piの少なくとも一部は、隣接する特徴点Pi間の距離が不等間隔となるように配置される。特に、複雑に入り組んだ形状を有する遮蔽物があるような箇所(境界線Bが複雑な箇所)は間隔が狭く、コンクリートの壁が長く直線的に延びるような箇所(境界線Bが単純な箇所)および移動可能領域SMの中央領域は間隔が広くなるように設定される。このように、移動可能領域SMの形状に応じて特徴点Pi間の間隔を狭めたり広げたりすることにより、必要なデータ量の増大を低減しつつよりリアルなエフェクト表現を実現することができる。 Furthermore, at least some of the plurality of feature points Pi are arranged such that the distances between adjacent feature points Pi are unequal. In particular, a place where there is a shield having a complicated shape (a place where the boundary line B is complicated) is narrow, and a place where the concrete wall is long and linearly extended (a place where the boundary line B is simple) ) And the central region of the movable region SM are set so that the interval is wide. As described above, by narrowing or widening the interval between the feature points Pi in accordance with the shape of the movable region SM, it is possible to realize a more realistic effect expression while reducing an increase in necessary data amount.
エフェクト表現変更手段331は、プレイヤキャラクタCの位置に最も近い特徴点Pnの情報のみに基づいて特定音声データを加工してもよい。この場合、エフェクト表現変更手段331は、プレイヤキャラクタCの位置と当該プレイヤキャラクタCの位置に最も近い特徴点Pnとの間の距離に拘わらず、プレイヤキャラクタCの位置に最も近い特徴点Pnの環境情報をそのまま利用して特定音声データを加工してもよい。
The effect
これに代えて、エフェクト表現変更手段331は、プレイヤキャラクタCの位置と当該プレイヤキャラクタCの位置に最も近い特徴点Pnとの間の偏差に応じて、プレイヤキャラクタCの位置に最も近い特徴点Pnの環境情報を補間し、補間後の環境情報に基づいて特定音声データを加工してもよい。位置偏差による補間を行う場合、エフェクト表現変更手段331は、特定音声データを加工するために取得した特徴点Pnの位置と、プレイヤキャラクタCの位置との間の偏差に基づいてプレイヤキャラクタCの位置における環境情報を特徴点Pnの情報から補間する補間処理実行手段332を含む。
Instead, the effect
補間処理について、特徴点Pnの環境情報が、一番近い遮蔽物までの距離および当該遮蔽物の方向である場合を例示する。図5は、本実施の形態における補間処理の一例を説明するための仮想空間の平面図である。図5には、プレイヤキャラクタCの位置に最も近い特徴点Pnのみが示されている。図5において、特徴点Pnから最も近い遮蔽物(境界線B)までの距離がy方向にQPであり、この情報が特徴点Pnにおける環境情報として記憶されている。 As for the interpolation processing, a case where the environment information of the feature point Pn is the distance to the nearest shield and the direction of the shield is illustrated. FIG. 5 is a plan view of a virtual space for explaining an example of the interpolation processing in the present embodiment. In FIG. 5, only the feature point Pn closest to the position of the player character C is shown. 5, the distance to the nearest obstacle from the feature point Pn (border B) is Q P in the y-direction, this information is stored as the environmental information in the feature point Pn.
このとき、補間処理実行手段332は、プレイヤキャラクタCの位置に最も近い特徴点PnとプレイヤキャラクタCの位置との位置の偏差(どの方向にどれだけの距離離れているか)を算出する。図5において、補間処理実行手段332は、(−y)方向に対して角度θだけ(−x)方向側に傾いた方向に距離R離れていることを偏差の情報として取得する。さらに、補間処理実行手段332は、取得した偏差の情報に基づいて、プレイヤキャラクタCの位置に最も近い遮蔽物までの距離QLを算出する。図5において、距離QLは、QL=QP+Rcosθで表される。
At this time, the interpolation processing execution means 332 calculates the positional deviation (how far and in what direction) the feature point Pn closest to the position of the player character C and the position of the player character C are. In FIG. 5, the interpolation
エフェクト表現変更手段331は、このようにして補間された環境情報(距離QL)に基づいて特定音声データを加工する。これにより、プレイヤキャラクタCが特徴点Pi以外の位置に存在する場合であっても、当該プレイヤキャラクタCの位置に応じた環境情報を得ることができ、よりリアルなエフェクト表現を実現することができる。
The effect
また、例えば、特徴点情報取得手段32は、特定音声データを加工するために、プレイヤキャラクタCの位置に最も近い特徴点Pn(=P2)を含む、当該プレイヤキャラクタCの周囲の複数の特徴点Piの環境情報を取得してもよい。例えば、特徴点情報取得手段32は、プレイヤキャラクタCの位置と各特徴点Piとの間の距離から近い順に所定数(例えば3つ)の特徴点Pi(図3の例では、P2,P5,P8)の情報を取得してもよい。これに代えて、特徴点情報取得手段32は、プレイヤキャラクタCの位置から所定距離内にある特徴点Piを抽出し、当該抽出された一または複数の特徴点Piの情報を取得してもよい。
Further, for example, the feature point
このように、特徴点情報取得手段32が複数の特徴点Piの環境情報を取得した場合、補間処理実行手段332は、取得した複数の特徴点Piの位置とプレイヤキャラクタCの位置との間の距離に基づいて各特徴点Piについて重み付けを行うことにより、プレイヤキャラクタCの位置における環境情報を得てもよい。この際、補間処理実行手段332は、当該距離が近い程重みを大きくし、距離が遠い程重みを小さく設定する。これにより、プレイヤキャラクタCの位置に近い特徴点Piほど特定音声データへの影響が大きくなる。
As described above, when the feature point
これにより、複数の特徴点Piの情報を用いてプレイヤキャラクタCの位置における環境情報を補間することにより、よりリアルなエフェクト表現を実現することができる。また、複数の特徴点Piを用いることにより、各特徴点Piにおける環境情報が平滑化される。したがって、プレイヤキャラクタCの移動に伴ってプレイヤキャラクタCの位置に最も近い特徴点Pnが切り替わるタイミングで特定音声データの再生音が急激に変化することを防止することができる。 Thereby, a more realistic effect expression can be realized by interpolating the environment information at the position of the player character C using the information of the plurality of feature points Pi. Further, by using a plurality of feature points Pi, the environment information at each feature point Pi is smoothed. Therefore, it is possible to prevent the reproduction sound of the specific audio data from changing suddenly at the timing when the feature point Pn closest to the position of the player character C is switched as the player character C moves.
なお、このように複数の特徴点Piを用いて環境情報を平滑化するのに加えてまたはこれに代えて、各特徴点Piにおける環境情報を近接する複数の特徴点Piの環境情報間で予め平滑化しておいてもよい。例えば、環境情報として各特徴点Piにおける高さを含む場合、まず、各特徴点Piからレイキャストを行い、各特徴点Piにおける高さ情報を求める。そして、一の特徴点Piから所定の範囲内にある複数の特徴点Piの高さ情報を平均化し、当該一の特徴点Piにおける環境情報として記憶する。 In addition to or instead of smoothing the environment information using the plurality of feature points Pi in this way, the environment information at each feature point Pi is previously set between the environment information of the plurality of feature points Pi. It may be smoothed. For example, when the environmental information includes the height at each feature point Pi, first, ray casting is performed from each feature point Pi to obtain height information at each feature point Pi. Then, the height information of a plurality of feature points Pi within a predetermined range from one feature point Pi is averaged and stored as environment information at the one feature point Pi.
このような方法によっても環境情報が平滑化され、特定音声データの再生音が急激に変化することを防止することができる。 Also by such a method, environment information is smoothed and it can prevent that the reproduction | regeneration sound of specific audio | voice data changes rapidly.
本実施の形態においては、取得する特徴点Piの基準となる位置を、プレイヤキャラクタCの位置としている。これに代えて、取得する特徴点Piを、プレイヤキャラクタCの位置に付随する音の聴取位置Lに基づいて決定してもよい。すなわち、エフェクト表現変更手段331は、プレイヤキャラクタCの位置に付随する音の聴取位置Lの位置に最も近い特徴点Pnの情報に基づいて特定音声データを加工してもよい。また、取得する特徴点Piを、仮想カメラVの位置に基づいて決定してもよい。
In the present embodiment, the position serving as a reference for the feature point Pi to be acquired is the position of the player character C. Instead, the feature point Pi to be acquired may be determined based on the listening position L of the sound accompanying the position of the player character C. That is, the effect
[仮想カメラの向きに基づくエフェクト表現の加工処理]
特定音声データについて、上記加工を行うのに加えて、または、これに代えて、エフェクト表現変更手段331は、ゲーム画面を表示するために仮想空間Sに配置された仮想カメラVの向きまたは位置に基づいて、特定音声データを加工または補正してもよい。
[Processing of effect expression based on virtual camera direction]
In addition to or instead of performing the above processing on the specific audio data, the effect
図6は、本実施の形態における仮想空間における仮想カメラの向きに基づく音の加工処理を説明するための仮想空間の平面図である。図6に示すように、仮想空間Sには仮想カメラVが配置され、仮想カメラVの撮像範囲Aが二次元画像としてゲーム画面に表示される。図6には、音の聴取位置Lに最も近い特徴点Pnのみが示されている。 FIG. 6 is a plan view of the virtual space for explaining the sound processing based on the orientation of the virtual camera in the virtual space according to the present embodiment. As shown in FIG. 6, the virtual camera V is arranged in the virtual space S, and the imaging range A of the virtual camera V is displayed on the game screen as a two-dimensional image. In FIG. 6, only the feature point Pn closest to the sound listening position L is shown.
本実施の形態において、仮想カメラVは、プレイヤキャラクタCから所定距離後方に配置される。仮想カメラVの位置および向きは、ユーザの操作部22の操作に基づくプレイヤキャラクタCの移動に伴って変化する。さらに、仮想カメラVは、ユーザの操作部22の操作によってプレイヤキャラクタCとは独立して、移動または向きの変更が可能である。 In the present embodiment, the virtual camera V is arranged behind the player character C by a predetermined distance. The position and orientation of the virtual camera V change as the player character C moves based on the operation of the operation unit 22 by the user. Further, the virtual camera V can be moved or changed in direction independently of the player character C by the operation of the operation unit 22 of the user.
なお、仮想カメラVの位置は、これに限られず、種々の態様が採用可能である。例えば、仮想カメラVの位置をプレイヤキャラクタC上に位置してもよい。仮想カメラVの位置と音の聴取位置Lの位置とを一致させてもよい。 Note that the position of the virtual camera V is not limited to this, and various modes can be adopted. For example, the position of the virtual camera V may be positioned on the player character C. The position of the virtual camera V and the position of the sound listening position L may be matched.
本実施の形態において、特徴点Piの情報には、各特徴点Piの位置から最も近い遮蔽物が位置する方向を示す基準方向Kを含んでいる。図6の例において、音の聴取位置Lに最も近い特徴点Pnの基準方向Kは、y方向に一致する。エフェクト表現変更手段331は、取得した特徴点Pnにおける基準方向KBに応じて特定音声データを加工する。より具体的には、エフェクト表現変更手段331は、取得した特徴点Pnにおける基準方向KBと仮想カメラVの向きKVとの角度φに応じて特定音声データを加工する。
In the present embodiment, the information on the feature points Pi includes a reference direction K that indicates the direction in which the shield closest to the position of each feature point Pi is located. In the example of FIG. 6, the reference direction K of the feature point Pn closest to the sound listening position L coincides with the y direction. The effect
例えば、特徴点Piの環境情報として上記基準方向KBおよび平均吸音率αavが含まれる場合、エフェクト表現変更手段331は、角度φが小さいほど(φ=0°が最小)平均吸音率αavによる特定音声データへの影響を大きくし、角度φが大きいほど(φ=180°が最大)平均吸音率αavによる特定音声データの影響を小さくするように加工してもよい。
For example, when the environment information of the feature point Pi includes the reference direction KB and the average sound absorption rate α av , the effect
このように、本実施の形態においては、仮想空間Sに配された複数の特徴点Piの各位置において当該位置から最も近い遮蔽物が位置する基準方向KBの情報が特徴点Piごとに記憶される。さらに、仮想空間Sにおける音の聴取位置Lに近接する特徴点Pnにおける基準方向KBと、音の聴取位置Lに対応する仮想カメラVの向きKVとの角度φに応じて特定音声データが加工される。 Thus, in the present embodiment, information on the reference direction KB in which the shielding object closest to the position is located at each position of the plurality of feature points Pi arranged in the virtual space S is stored for each feature point Pi. The Further, the specific audio data is processed according to the angle φ between the reference direction KB at the feature point Pn close to the sound listening position L in the virtual space S and the direction KV of the virtual camera V corresponding to the sound listening position L. The
これにより、ゲーム画面として表示される仮想空間Sの部分に応じて所定の音の反射または吸収等のエフェクト表現への影響が反映される。したがって、音の聴取位置Lによって異なる仮想空間Sの環境に応じたエフェクト表現を、ゲーム画面に表示される可能性の高い遮蔽物を強調して行うことができ、より臨場感の高いエフェクト表現を実現することができる。 Thereby, the influence on the effect expression such as reflection or absorption of a predetermined sound is reflected according to the portion of the virtual space S displayed as the game screen. Therefore, the effect expression according to the environment of the virtual space S, which varies depending on the sound listening position L, can be performed with emphasis on the shield that is likely to be displayed on the game screen, and the effect expression with a higher sense of reality can be achieved. Can be realized.
例えば、エフェクト表現変更手段331は、角度φが小さいほど特定音声データによるエフェクト表現の再生音量を大きくし、角度φが大きいほど特定音声データの再生音量を小さくする。これにより、仮想カメラVの向きKVが最も近い遮蔽物の位置に正対する方向に近づく(角度φが0に近づく)程、音の反射(リバーブ)が大きくなるような表現を実現することができる。したがって、より臨場感の高いエフェクト表現を実現することができる。なお、これに加えて、または、これに代えて、特定音声データに付加されるリバーブの大きさまたは長さを変更してもよい。
For example, the effect
さらに、エフェクト表現変更手段331は、より詳細な周囲の情報に応じて特定音声データを加工してもよい。例えば、特徴点Piの情報は、当該特徴点Piに対して基準方向KBを含む所定の複数の方向において対向する遮蔽物の複数の表面位置(境界線B)に基づいて画される所定の基準領域SBの位置情報を含む。さらに、エフェクト表現変更手段331は、音の聴取位置Lの仮想カメラVの向きKVを基準とする所定の方向における音の聴取位置Lが含まれる基準領域SBの境界までの距離に基づいて特定音声データを加工する。
Further, the effect
図6の例において、基準領域SBは、特徴点Pnから基準方向KBにおける遮蔽物の表面位置U1において基準方向KBと直交する方向に延びる仮想の境界線分J1と、特徴点Pnから基準方向KBとは反対方向K2における遮蔽物の仮想表面位置U2(後述)において方向K2に直交する方向に延びる仮想の境界線分J2と、特徴点Pnから基準方向KBに直交する方向K3,K4における遮蔽物の表面位置U3,U4において方向K3,K4に直交する方向にそれぞれ延びる仮想の境界線分J3,J4とによって区画される。 In the example of FIG. 6, the reference region SB includes a virtual boundary line segment J1 extending in a direction orthogonal to the reference direction KB at the surface position U1 of the shielding object in the reference direction KB from the feature point Pn, and the reference direction KB from the feature point Pn. A virtual boundary line J2 extending in a direction perpendicular to the direction K2 at a virtual surface position U2 (described later) of the shield in the opposite direction K2, and a shield in directions K3 and K4 perpendicular to the reference direction KB from the feature point Pn. Are defined by virtual boundary line segments J3 and J4 extending in directions orthogonal to the directions K3 and K4, respectively.
このように、本実施の形態において、基準領域SBの境界線分J1〜J4は、基準方向KBに直交する仮想線分J1を一辺に含む矩形状に形成される。なお、基準領域SBの画定の方法は、これに限られず、種々適用可能である。 Thus, in the present embodiment, the boundary line segments J1 to J4 of the reference region SB are formed in a rectangular shape including the virtual line segment J1 orthogonal to the reference direction KB on one side. The method for defining the reference region SB is not limited to this, and various methods can be applied.
ここで、仮想表面位置U2は、特徴点Pnから所定の規定距離離れた位置として設定される。すなわち、基準領域SBは、複数の表面位置U1〜U4のうち、特徴点Pnと対向する遮蔽物の表面位置U1〜U4との距離が所定の規定距離以上である場合、特徴点Piから当該対向する方向に規定距離離れた位置が基準領域SBを画する境界線分J1〜J4に含まれるように設定される。 Here, the virtual surface position U2 is set as a position away from the feature point Pn by a predetermined specified distance. That is, the reference region SB is opposed to the feature point Pi when the distance from the surface positions U1 to U4 of the shielding object facing the feature point Pn among the plurality of surface positions U1 to U4 is equal to or greater than a predetermined specified distance. A position that is a predetermined distance away in the direction to be included is set to be included in the boundary line segments J1 to J4 that define the reference area SB.
特徴点Pnからの距離が遠い遮蔽物による当該特徴点Pnでの音への影響は小さいため、特徴点Pnから所定の規定距離以上離れた位置にある遮蔽物による環境情報は当該規定距離に遮蔽物があると仮定して基準領域SBを画定する。規定距離以上の情報を省略することにより、データ量の増大を抑えつつ臨場感の高い音の表現を行うことができる。 Since the influence of the shielding object far from the feature point Pn on the sound at the feature point Pn is small, the environmental information by the shielding object located at a predetermined distance or more away from the feature point Pn is shielded at the prescribed distance. A reference region SB is defined assuming that there is an object. By omitting information beyond the specified distance, it is possible to express sound with a high sense of presence while suppressing an increase in the amount of data.
エフェクト表現変更手段331は、音の聴取位置Lから仮想カメラVの向きKVを含む直交する4方向において基準領域SBの境界線分J1〜J4までの距離を取得し、取得した4つの距離に基づいて特定音声データを加工する。図6の例において、エフェクト表現変更手段331は、音の聴取位置Lから仮想カメラVの向きKVに延ばした仮想線と基準領域SBの境界線分J4との交点M1の位置情報を取得し、音の聴取位置Lと交点M1との距離を算出する。
The effect
同様に、エフェクト表現変更手段331は、音の聴取位置Lから仮想カメラVの向きKVとは反対方向に延ばした仮想線と基準領域SBの境界線分J3との交点M2の位置情報を取得し、音の聴取位置Lと交点M2との距離を算出する。さらに、エフェクト表現変更手段331は、音の聴取位置Lから仮想カメラVの向きKVに直交する左右両方向に延ばした仮想線と基準領域SBの境界線分J2,J1との交点M3,M4の位置情報をそれぞれ取得し、音の聴取位置Lと交点M3,M4との距離をそれぞれ算出する。
Similarly, the effect
エフェクト表現変更手段331は、得られた各距離と、その方向とに基づいて取得した特徴点Pi(Pn等)の環境情報を補正し、補正後の環境情報に基づいて特定音声データを加工する。図6の例では、プレイヤキャラクタCの右側からの反響が大きくなるように特定音声データを加工(サラウンド化)する。
The effect
この場合、エフェクト表現変更手段331は、音の聴取位置Lからの距離に応じて連続的に特定音声データの加工量(変更するパラメータの値)を変更してもよい。これに代えて、音の聴取位置Lを距離範囲に応じた複数のグループに予め分けておき、エフェクト表現変更手段331は、音の聴取位置Lからの距離が含まれるグループごとに設定された特定音声データの加工量で加工する(すなわち、離散的に特定音声データの加工量を変更する)としてもよい。
In this case, the effect
このように、各特徴点Piの周囲にある遮蔽物の特徴点Piからの距離についての情報が、それぞれ離散化したデータとして記憶され、このデータに基づいて特定音声データが加工される。これにより、データ量を抑えつつ臨場感の高い音の表現を実現することができ、ゲーム音による多彩な演出を行うことができる。 In this way, information about the distance from the feature point Pi of the shield around each feature point Pi is stored as discrete data, and specific voice data is processed based on this data. As a result, it is possible to realize a highly realistic sound expression while suppressing the amount of data, and to perform various effects using game sounds.
上記説明においては、複数の特徴点Piにおいて再生する特定音声データは同じ特定音声データであるとの想定に基づいているが、特徴点情報取得手段32が取得する特徴点Piに応じて再生する特定音声データが異なってもよい。この場合、特徴点Piの情報として、再生する特定音声データの情報が関連付けられる。また、再生する特定音声データの異同に応じて特徴点Piを複数の特定音声グループにグループ分けしてもよい。
In the above description, the specific audio data to be reproduced at a plurality of feature points Pi is based on the assumption that the same specific audio data is the same, but the specific audio data to be reproduced according to the feature points Pi acquired by the feature point
この場合、仮想空間Sには、再生される特定音声データが異なる複数の特定音声グループが隣接する領域が生じる。このため、例えば、プレイヤキャラクタCの移動に伴って音の聴取位置Lが一の特定音声グループに属する特徴点Piの情報を取得した後、他の特定音声グループに属する特徴点Piの情報を取得する状況が生じ得る。 In this case, in the virtual space S, there is an area where a plurality of specific sound groups having different specific sound data to be reproduced are adjacent. For this reason, for example, after acquiring the information of the feature point Pi belonging to one specific sound group with the listening position L of the sound as the player character C moves, the information of the feature point Pi belonging to another specific sound group is acquired. Situations can occur.
この場合、再生される特定音声データが取得する特徴点Piが属する特定音声グループが切り替わる前後で急に変更されるため、音の不連続がユーザに知覚される場合がある。そこで、本実施の形態においては、以下のような態様でこのような音の不連続をユーザに知覚され難くしている。 In this case, since the specific sound group to which the feature point Pi acquired by the specific sound data to be reproduced belongs is suddenly changed, the discontinuity of the sound may be perceived by the user. Therefore, in this embodiment, such discontinuity of sound is made difficult to be perceived by the user in the following manner.
[隣接する出力源領域間におけるエフェクト表現の移行処理]
図7は、本実施の形態の仮想空間において隣り合う領域におけるエフェクト表現の移行処理を説明するための仮想空間の平面図である。図7に示すように、仮想空間Sは、実行されるエフェクト表現(特定音声データに基づくエフェクト表現)の少なくとも一部が互いに異なる複数の領域(複数の特定音声領域)Ek(k=1,2,…)と、隣り合う領域Ek同士を接続する境界領域EBとを含んでいる。
[Transition processing of effect expression between adjacent output source areas]
FIG. 7 is a plan view of the virtual space for explaining the effect expression transition processing in the adjacent regions in the virtual space of the present embodiment. As shown in FIG. 7, the virtual space S includes a plurality of areas (a plurality of specific sound areas) Ek (k = 1, 2) in which at least some of the effect expressions to be executed (effect expressions based on the specific sound data) are different from each other. ,...) And a boundary region EB connecting adjacent regions Ek.
まず、例えば、ゲームデータ5bの作成時に、まず、各特徴点Piにおいて実行されるエフェクト表現のための特定音声データが設定され、複数の出力源領域Ekが設定される。例えば、図7においては、第1の特定音声データを用いた第1のエフェクト表現が実行される第1の特徴点群による第1領域E1と、第1の特定音声データとは異なる第2の特定音声データを用いた第2のエフェクト表現が実行される第2の特徴点群による第2領域E2とが設定されている。図7においては、第1領域E1に属する特徴点をPi(1)で示し、第2領域E2に属する特徴点をPi(2)で示している。
First, for example, when creating the
さらに、複数の領域Ekが隣接する領域において、基準位置領域EAが設定される。図7において、基準位置領域EAは、隣接する第1領域E1と第2領域E2との境界部に設けられている。図7において、基準位置領域EAは、複数の特徴点Piを含む領域として構成されている。これに代えて、基準位置領域EAには、特徴点Piを含まなくてもよい。また、基準位置領域EAは、所定の面積を有しない構成、例えば、単なる境界線または基準点でもよい。 Further, a reference position area EA is set in an area where a plurality of areas Ek are adjacent. In FIG. 7, the reference position area EA is provided at the boundary between the adjacent first area E1 and second area E2. In FIG. 7, the reference position area EA is configured as an area including a plurality of feature points Pi. Instead, the reference position area EA may not include the feature point Pi. Further, the reference position area EA may be a configuration that does not have a predetermined area, for example, a simple boundary line or a reference point.
さらに、基準位置領域EAを含むように境界領域EBが設定される。境界領域EBは、基準位置領域EAを含む限り、どのように設定されてもよい。例えば、基準位置領域EAの位置に関連付けて境界領域EBが設定されてもよい。例えば、基準位置領域EAに含まれる基準点から所定の距離範囲内の領域が境界領域EBとして設定されてもよい。また、境界領域EBが基準位置領域EAとの位置関係にはかかわらず任意に設定されてもよい。例えば基準位置領域EAが境界領域EBの中央部に位置しなくてもよい。 Further, the boundary area EB is set so as to include the reference position area EA. The boundary area EB may be set in any way as long as it includes the reference position area EA. For example, the boundary area EB may be set in association with the position of the reference position area EA. For example, an area within a predetermined distance range from the reference point included in the reference position area EA may be set as the boundary area EB. Further, the boundary area EB may be arbitrarily set regardless of the positional relationship with the reference position area EA. For example, the reference position area EA may not be located at the center of the boundary area EB.
境界領域EB内の特徴点において実行されるエフェクト表現のための特定音声データは、隣接する第1領域E1および第2領域E2の双方に対応する第1および第2のエフェクト表現のための第1および第2の特定音声データを含む。図7においては、境界領域EBに属する特徴点をPi(B)で示している。 The specific sound data for effect expression executed at the feature points in the boundary area EB is the first sound expression for the first and second effect expressions corresponding to both the adjacent first area E1 and second area E2. And second specific audio data. In FIG. 7, feature points belonging to the boundary region EB are indicated by Pi (B).
ここで、境界領域EBに属する特徴点Pi(B)において第1および第2の特定音声データに基づく第1および第2のエフェクト表現を同時に実行した場合に、より自然な表現とするために、本実施の形態においては、少なくとも1つ(図7においては4つ)の仮想出力源(仮想音源)T1〜T4が各特徴点Pi(B)の情報として設定される。仮想出力源T1〜T4は、プレイヤキャラクタCの位置またはエフェクト表現の取得位置Lに付随して設定される。図7の例において、4つの仮想出力源T1〜T4は、プレイヤキャラクタCの位置から直交する4方向に所定距離離れた位置に設定される。 Here, in order to obtain a more natural expression when the first and second effect expressions based on the first and second specific sound data are simultaneously executed at the feature point Pi (B) belonging to the boundary region EB, In the present embodiment, at least one (four in FIG. 7) virtual output sources (virtual sound sources) T1 to T4 are set as information of each feature point Pi (B). The virtual output sources T1 to T4 are set in association with the position of the player character C or the acquisition position L of the effect expression. In the example of FIG. 7, the four virtual output sources T <b> 1 to T <b> 4 are set at positions separated from the position of the player character C by a predetermined distance in four directions orthogonal to each other.
各特徴点Pi(B)における仮想出力源T1〜T4の方向および/または特徴点Pi(B)からの距離は、すべての特徴点Pi(B)において共通であってもよいし、特徴点Pi(B)ごとに異なっていてもよい。また、仮想出力源の数は、1つ以上3つ以下でもよいし、4つより多くてもよい。また、複数の仮想出力源を設定する場合、特徴点Pi(B)回りに等間隔に配置してもよいし、非等間隔に配置してもよい。 The direction of the virtual output sources T1 to T4 and / or the distance from the feature point Pi (B) at each feature point Pi (B) may be common to all feature points Pi (B), or the feature point Pi. It may be different for each (B). Further, the number of virtual output sources may be one or more and three or less, or may be more than four. When a plurality of virtual output sources are set, they may be arranged at equal intervals around the feature point Pi (B) or may be arranged at non-equal intervals.
ここで、プレイヤキャラクタCの位置と仮想出力源T1との間に所定の遮蔽物が存在する場合、当該仮想出力源が遮蔽物よりプレイヤキャラクタCの位置側の位置(移動可能領域SM内)に設定変更される。図7の例では、境界領域EBに含まれる特徴点Pxにおいて、仮想出力源T3,T4と、特徴点Pxとの間にそれぞれ境界線Bが存在する。このため、当該特徴点Pxにおける特定音声データの音源位置として特徴点Pxと仮想出力源T3,T4との間の線分上かつ交差する境界線Bの内側(特徴点Px側)に補正後の出力源位置T3’,T4’がそれぞれ設定される。 Here, when a predetermined shielding object exists between the position of the player character C and the virtual output source T1, the virtual output source is located at a position on the position of the player character C from the shielding object (in the movable region SM). The setting is changed. In the example of FIG. 7, boundary lines B exist between the virtual output sources T3 and T4 and the feature point Px at the feature point Px included in the boundary region EB. Therefore, the sound source position of the specific sound data at the feature point Px is corrected on the line segment between the feature point Px and the virtual output sources T3 and T4 and inside the boundary line B intersecting (the feature point Px side). Output source positions T3 ′ and T4 ′ are set.
例えば、図7の例において、プレイヤキャラクタCの位置が特徴点Pxに位置した場合、特徴点情報取得手段32は、プレイヤキャラクタCの位置に最も近い位置にある特徴点Pnとして境界領域EBに含まれる特徴点Pxの情報を取得する。この場合、仮想出力源設定手段36は、プレイヤキャラクタCの位置を基準とする4つの仮想出力源として、特徴点Pxにおける仮想出力源T1,T2および補正後の仮想出力源T3’,T4’を設定する。以下、単に仮想出力源T1,T2,T3’,T4’と称して説明する。
For example, in the example of FIG. 7, when the position of the player character C is located at the feature point Px, the feature point
例えば、図7の例において、移動可能領域SMが洞窟の内部である場合、境界線Bより外側は洞窟の外側となる。この場合、仮想出力源T3,T4の位置では、洞窟の外の情報が取得されてしまい、洞窟の中なのに洞窟の外の音(例えば鳥のさえずり等)が聞こえてくるという矛盾が生じ得る。したがって、このような場合には、上述したように、仮想出力源T3,T4を洞窟内(境界線Bより内側)に配置するように設定変更することにより、このような矛盾を防ぎ、よりリアルな表現を行うことができる。 For example, in the example of FIG. 7, when the movable region SM is inside the cave, the outside of the boundary line B is the outside of the cave. In this case, at the positions of the virtual output sources T3 and T4, information outside the cave is acquired, and there is a contradiction that sounds outside the cave (for example, a bird's tweet) can be heard in the cave. Therefore, in such a case, as described above, by changing the setting so that the virtual output sources T3 and T4 are arranged in the cave (inside the boundary line B), such contradiction can be prevented and more realistic Can be expressed.
エフェクト表現変更手段331は、仮想出力源が第1領域E1または第2領域E2に位置する場合は(図7の例では仮想出力源T1が該当する)、対応する第1領域E1に対応する第1のエフェクト表現の出力源が当該仮想出力源T1に存在すると仮定して対応する特定音声データ(第1の特定音声データ)を加工する。
When the virtual output source is located in the first region E1 or the second region E2 (in the example of FIG. 7, this corresponds to the virtual output source T1), the effect
また、仮想出力源が境界領域EBに位置する場合は(図7の例では仮想出力源T2,T3’,T4’が該当する)、境界領域EBに接続される第1領域E1および第2領域E2の双方に対応する第1および第2のエフェクト表現の出力源が当該境界領域EBに位置する仮想出力源T2,T3’,T4’に存在すると仮定して、対応する特定音声データ(第1の特定音声データおよび第2の特定音声データ)を加工する。エフェクト表現変更手段331は、これらを加えることにより、プレイヤキャラクタCの位置における音声出力表現(エフェクト表現)を実行する。
When the virtual output source is located in the boundary region EB (in the example of FIG. 7, the virtual output sources T2, T3 ′, and T4 ′ correspond), the first region E1 and the second region connected to the boundary region EB Assuming that the output sources of the first and second effect expressions corresponding to both E2 exist in the virtual output sources T2, T3 ′, T4 ′ located in the boundary region EB, the corresponding specific audio data (first The specific audio data and the second specific audio data) are processed. By adding these, the effect
このように、仮想空間Sにおいて異なるエフェクト表現が出力される領域E1,E2間に両方のエフェクト表現が出力される境界領域EBが設けられる。したがって、異なるエフェクト表現が出力される領域E1,E2間におけるエフェクト表現の変化を滑らかに行うことができる。この結果、エフェクト表現による演出のための処理負荷の増大を抑制しつつ、ゲーム音による多彩な演出を行うことができる。 Thus, the boundary area EB in which both effect expressions are output is provided between the areas E1 and E2 in which different effect expressions are output in the virtual space S. Therefore, the effect expression can be smoothly changed between the areas E1 and E2 where different effect expressions are output. As a result, it is possible to perform a variety of effects using game sounds while suppressing an increase in processing load for effects expressed by effects.
さらに、エフェクト表現変更手段331は、境界領域EBに含まれる仮想出力源T2,T3’,T4’における境界領域EB内の所定の基準位置との位置関係に応じて第1のエフェクト表現に対する第2のエフェクト表現の出力比を変化させて出力する。本実施の形態において、所定の基準位置は、基準位置領域EAに設定される。これに代えて、所定の基準位置は、基準位置領域EA内に設定される所定の基準点でもよいし、基準位置領域EAに含まれる一の特徴点Pi(B)の位置でもよい。
Furthermore, the effect
エフェクト表現変更手段331は、基準位置領域EAから境界領域EBに含まれる各仮想出力源T2,T3’,T4’までの距離および基準位置領域EAから隣り合う出力源領域E1,E2の何れの側に位置するかを取得する。図7の例において、仮想出力源T2は、第2領域E2側に位置し、仮想出力源T3’,T4’は、第1領域E1側に位置する。基準位置領域EAからの距離は、仮想出力源T4’が最も短く、仮想出力源T3’,T2は同じ距離となっている。すなわち、(T4’までの距離)<(T3’までの距離)=(T2までの距離)となっている。
The effect
エフェクト表現変更手段331は、境界領域EBに含まれる仮想出力源T2,T3’,T4’が基準位置に対して第1領域E1側に離れる程、第1のエフェクト表現の出力(例えば音量、反響の長さ等)を第2のエフェクト表現の出力に対して大きくする。また、エフェクト表現変更手段331は、境界領域EBに含まれる仮想出力源T2,T3’,T4’が基準位置に対して第2領域E2側に離れる程、第2のエフェクト表現の出力を第1のエフェクト表現の出力に対して大きくする。
The effect expression changing means 331 outputs the first effect expression (for example, volume, reverberation) as the virtual output sources T2, T3 ′, T4 ′ included in the boundary area EB move away from the reference position toward the first area E1. Is increased with respect to the output of the second effect expression. Further, the effect
例えば、図7の例では、エフェクト表現変更手段331は、仮想出力源T4’において(第1のエフェクト表現の出力):(第2のエフェクト表現の出力)=70:30とする。また、エフェクト表現変更手段331は、仮想出力源T3’において(第1のエフェクト表現の出力):(第2のエフェクト表現の出力)=60:40とする。また、エフェクト表現変更手段331は、仮想出力源T2において(第1のエフェクト表現の出力):(第2のエフェクト表現の出力)=40:60とする。また、仮想出力源が基準位置領域EA内にある場合は、(第1のエフェクト表現の出力):(第2のエフェクト表現の出力)=50:50としてもよい。
For example, in the example of FIG. 7, the effect
このように、境界領域EBに仮想出力源T2,T3’,T4’が位置した場合における特定音声データに基づくエフェクト表現の出力を、境界領域EB内に設定された基準位置(基準位置領域EA)と仮想出力源T2,T3’,T4’との位置関係に応じて隣り合う領域E1,E2に対応する複数種類の特定音声データに基づくエフェクト表現の出力の強弱が調整される。したがって、異なる特定音声データに基づくエフェクト表現が実行される複数の領域E1,E2間における音響効果の変化をより滑らかに行うことができる。 As described above, the output of the effect expression based on the specific audio data when the virtual output sources T2, T3 ′, T4 ′ are located in the boundary area EB is the reference position (reference position area EA) set in the boundary area EB. And the output level of the effect expression based on a plurality of types of specific audio data corresponding to the adjacent regions E1 and E2 are adjusted according to the positional relationship between the virtual output sources T2, T3 ′, and T4 ′. Therefore, it is possible to smoothly change the acoustic effect between the plurality of regions E1 and E2 in which the effect expression based on different specific audio data is executed.
なお、本実施の形態においては、仮想出力源T1〜T4の情報を、特徴点Pi(B)の環境情報に含めることにより、音の聴取位置Lを基準として設定される仮想出力源を間接的に設定する態様について説明した。すなわち、本実施の形態においては、プレイヤキャラクタCが移動した位置に最も近い位置の特徴点Pi(B)の環境情報として設定されている仮想音源位置の情報を取得することにより、プレイヤキャラクタCの位置における仮想音源位置が設定されている。 In the present embodiment, the virtual output source set on the basis of the listening position L of sound is indirectly determined by including the information of the virtual output sources T1 to T4 in the environment information of the feature point Pi (B). The mode to set to has been described. That is, in the present embodiment, by acquiring the information on the virtual sound source position set as the environment information of the feature point Pi (B) at the position closest to the position where the player character C has moved, The virtual sound source position in the position is set.
この場合、さらに、特徴点情報取得手段32は、プレイヤキャラクタCの位置と情報を取得した特徴点Pi(B)との位置関係に基づいて仮想出力源T1〜T4の位置を補間することにより、プレイヤキャラクタCの位置における仮想出力源T1〜T4を算出してもよい。また、特徴点情報取得手段32は、複数の特徴点Pi(B)の情報に基づいてプレイヤキャラクタCの位置における仮想出力源T1〜T4を算出してもよい。
In this case, the feature point
これに代えて、プレイヤキャラクタCの位置から所定の方向に所定距離離れた位置が仮想出力源として直接的に設定されてもよい。すなわち、プレイヤキャラクタCの移動に伴って、仮想出力源も移動するようにしてもよい。 Instead, a position that is a predetermined distance away from the position of the player character C in a predetermined direction may be directly set as the virtual output source. That is, as the player character C moves, the virtual output source may move.
以上、本発明の実施の形態について説明したが、本発明は上記実施形態に限定されるものではなく、その趣旨を逸脱しない範囲内で種々の改良、変更、修正が可能である。 Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various improvements, changes, and modifications can be made without departing from the spirit of the present invention.
例えば、上記実施の形態においては、「特徴点を利用したエフェクト表現の加工処理」、「仮想カメラの向きに基づくエフェクト表現の加工処理」、および「隣接する出力源領域間におけるエフェクト表現の移行処理」を何れも備えた例を示したが、各処理はそれぞれ独立してゲームプログラムに適用可能である。 For example, in the above-mentioned embodiment, “effect expression processing using feature points”, “effect expression processing based on virtual camera orientation”, and “effect expression transition processing between adjacent output source regions” However, each process can be independently applied to a game program.
例えば、「仮想カメラの向きに基づくエフェクト表現の加工処理」を、仮想空間Sに等間隔の格子状に配置された複数の特徴点を有する構成に適用しても上記効果を奏する。また、例えば、「隣接する出力源領域間におけるエフェクト表現の移行処理」を、複数の特徴点Piを用いない従来の構成(領域ごとに音声データが設定される構成)に適用しても上記効果を奏する。 For example, the above effect can be obtained even when “processing of effect expression based on the orientation of the virtual camera” is applied to a configuration having a plurality of feature points arranged in the virtual space S in an equidistant grid. Further, for example, the above-described effect can be achieved even if “effect effect transition processing between adjacent output source regions” is applied to a conventional configuration (a configuration in which audio data is set for each region) that does not use a plurality of feature points Pi. Play.
また、上記実施の形態においては、エフェクト表現の取得位置(音の聴取位置L)の設定基準となるキャラクタがプレイヤキャラクタCである場合について説明したが、これに代えて、敵キャラクタ等のノンプレイヤキャラクタの位置に基づいてエフェクト表現の取得位置が設定されてもよい。 In the above-described embodiment, the case where the character serving as the reference for setting the effect expression acquisition position (sound listening position L) is the player character C. Instead, a non-player such as an enemy character is used. The acquisition position of the effect expression may be set based on the position of the character.
また、上記実施の形態においては、エフェクト表現として、周囲の環境に応じて特定音声データの加工を行うことによる音声出力表現を行う例を示したが、これに限られない。例えば、音声出力表現に加えてまたはこれに代えて、エフェクト表現として、周囲の環境に応じた特定の光の照射データの加工を行うことによる光の照射表現を行ってもよい。また、エフェクト表現として、風、雨等の周囲の環境によって影響され得るエフェクト表現の演出に適用してもよい。 In the above-described embodiment, as an effect expression, an example in which sound output expression is performed by processing specific sound data according to the surrounding environment is shown, but the effect expression is not limited thereto. For example, in addition to or instead of the audio output expression, light irradiation expression by processing specific light irradiation data according to the surrounding environment may be performed as an effect expression. Further, the effect expression may be applied to the effect expression that can be influenced by the surrounding environment such as wind and rain.
また、上述した説明では、一人のユーザがオフラインゲームを行う場合について例示したが、本発明は、複数のユーザが各自のプレイヤキャラクタを同一の仮想ゲーム空間内に登場させ、これらを協力させて行動させるオンラインゲームにおいても適用することができる。 In the above description, the case where one user plays an offline game has been exemplified. However, in the present invention, a plurality of users make their player characters appear in the same virtual game space and cooperate with each other to act. The present invention can also be applied to online games.
また、上記実施の形態では携帯型のゲーム装置について説明したが、据え置き型のゲーム装置、携帯電話機、およびパーソナルコンピュータなどのコンピュータについても、本発明を好適に適用することができる。 Although the portable game device has been described in the above embodiment, the present invention can be suitably applied to computers such as a stationary game device, a mobile phone, and a personal computer.
本発明は、ゲームプログラムおよびゲーム装置において、ゲーム音による演出のための処理負荷の増大を抑制しつつ、ゲーム音による多彩な演出を行うために有用である。 INDUSTRIAL APPLICABILITY The present invention is useful for performing a variety of effects using game sounds while suppressing an increase in processing load for effects using game sounds in a game program and a game device.
1 ゲーム装置
2 ディスプレイ(表示部)
30 制御部
31 仮想空間生成手段
32 特徴点情報取得手段
33 エフェクト表現手段
331 エフェクト表現変更手段
34 仮想カメラ制御手段
L 音の聴取位置(エフェクト表現の取得位置)
Pi(i=1,2,…) 特徴点
S 仮想空間
SB 基準領域
V 仮想カメラ
1
DESCRIPTION OF
Pi (i = 1, 2,...) Feature point S Virtual space SB Reference area V Virtual camera
Claims (8)
前記コンピュータを、
前記仮想空間を生成する仮想空間生成手段、
前記仮想カメラの向きまたは位置を制御する仮想カメラ制御手段、
予め記憶された少なくとも1つのエフェクト表現データを用いてエフェクト表現を実行するエフェクト表現手段、および
前記仮想空間上に配置された複数の特徴点のうち、少なくとも、前記仮想カメラの位置に付随して設定されるエフェクト表現の取得位置に最も近い位置にある特徴点の情報を取得する特徴点情報取得手段、として機能させ、
前記エフェクト表現手段は、取得した特徴点の情報に基づいて、前記エフェクト表現データを加工するエフェクト表現変更手段を含み、
前記特徴点の情報は、当該特徴点の位置から最も近い遮蔽物が位置する基準方向を含み、
前記エフェクト表現変更手段は、取得した特徴点における前記基準方向に応じて前記エフェクト表現データを加工する、ゲームプログラム。 A game program to be executed by the computer in a game system including a display unit that displays an image captured by a virtual camera arranged in a virtual space as a game screen, and a computer that advances the game,
The computer,
Virtual space generation means for generating the virtual space;
Virtual camera control means for controlling the orientation or position of the virtual camera;
Effect expression means for executing effect expression using at least one effect expression data stored in advance, and among the plurality of feature points arranged in the virtual space, set at least in association with the position of the virtual camera Function point information acquisition means for acquiring feature point information at a position closest to the acquisition position of the effect expression,
The effect expression means includes effect expression change means for processing the effect expression data based on the acquired feature point information,
The feature point information includes a reference direction in which a shield closest to the position of the feature point is located,
The effect expression changing means is a game program for processing the effect expression data in accordance with the reference direction at the acquired feature point.
前記エフェクト表現変更手段は、前記エフェクト表現の取得位置の前記仮想カメラの向きを基準とする所定の方向における前記エフェクト表現の取得位置が含まれる基準領域の境界までの距離に基づいて前記エフェクト表現データを加工する、請求項2または3に記載のゲームプログラム。 The feature point information includes position information of a predetermined reference region defined based on a plurality of surface positions of a shielding object facing the feature point in a plurality of predetermined directions including the reference direction,
The effect expression changing means is configured to determine the effect expression data based on a distance to a boundary of a reference area including the acquisition position of the effect expression in a predetermined direction with reference to an orientation of the virtual camera of the acquisition position of the effect expression. The game program according to claim 2, wherein the game program is processed.
前記プログラム記憶部に記憶されたプログラムを実行するコンピュータと、を備えた、ゲーム装置。 A program storage unit storing the game program according to claim 1;
A game apparatus comprising: a computer that executes a program stored in the program storage unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017025670A JP6407324B2 (en) | 2017-02-15 | 2017-02-15 | GAME PROGRAM AND GAME DEVICE |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017025670A JP6407324B2 (en) | 2017-02-15 | 2017-02-15 | GAME PROGRAM AND GAME DEVICE |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018130282A JP2018130282A (en) | 2018-08-23 |
JP6407324B2 true JP6407324B2 (en) | 2018-10-17 |
Family
ID=63247765
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017025670A Active JP6407324B2 (en) | 2017-02-15 | 2017-02-15 | GAME PROGRAM AND GAME DEVICE |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6407324B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7252998B2 (en) | 2021-03-15 | 2023-04-05 | 任天堂株式会社 | Information processing program, information processing device, information processing system, and information processing method |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000267675A (en) * | 1999-03-16 | 2000-09-29 | Sega Enterp Ltd | Sound signal processing device |
JP5008234B2 (en) * | 2001-08-27 | 2012-08-22 | 任天堂株式会社 | GAME DEVICE, PROGRAM, GAME PROCESSING METHOD, AND GAME SYSTEM |
JP2006230578A (en) * | 2005-02-23 | 2006-09-07 | Namco Bandai Games Inc | Program, information storage medium and game apparatus |
JP3977405B1 (en) * | 2006-03-13 | 2007-09-19 | 株式会社コナミデジタルエンタテインメント | GAME SOUND OUTPUT DEVICE, GAME SOUND CONTROL METHOD, AND PROGRAM |
JP5486557B2 (en) * | 2011-07-08 | 2014-05-07 | 株式会社スクウェア・エニックス | Reverberation processing device |
JP5969200B2 (en) * | 2011-11-11 | 2016-08-17 | 任天堂株式会社 | Information processing program, information processing apparatus, information processing system, and information processing method |
JP6374908B2 (en) * | 2016-06-17 | 2018-08-15 | 株式会社カプコン | Game program and game system |
-
2017
- 2017-02-15 JP JP2017025670A patent/JP6407324B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018130282A (en) | 2018-08-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3977405B1 (en) | GAME SOUND OUTPUT DEVICE, GAME SOUND CONTROL METHOD, AND PROGRAM | |
JP4221035B2 (en) | Game sound output device, sound image localization control method, and program | |
JP6427212B2 (en) | Game program and game apparatus | |
JP3853329B2 (en) | GAME PROGRAM AND GAME DEVICE | |
JPH11272156A (en) | Virtual three-dimensional sound image generating device and method and medium thereof | |
JP6343048B1 (en) | GAME PROGRAM AND GAME DEVICE | |
JP2008165584A (en) | Image processor, and control method and program for image processor | |
JP2024022637A (en) | Game systems, programs and game devices | |
JP3827693B2 (en) | GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM | |
JP2019000138A (en) | Game program, game device, and server device | |
JP5046531B2 (en) | Program, information storage medium, and game system | |
JP6407324B2 (en) | GAME PROGRAM AND GAME DEVICE | |
JP6538112B2 (en) | Game program and game apparatus | |
JP5677050B2 (en) | GAME PROGRAM AND GAME DEVICE | |
JP5007633B2 (en) | Image processing program, computer-readable recording medium storing the program, image processing apparatus, and image processing method | |
JP2004287504A (en) | Image generating device, image processing method, and program | |
JP3974135B2 (en) | Program, automatic arrangement method, and image generation apparatus | |
JP6740297B2 (en) | Game program and game device | |
JP4881974B2 (en) | Image processing apparatus, image processing method, and program | |
US12090403B1 (en) | Audio signal generation | |
US10102677B2 (en) | Computer-readable recording medium for drawing processing, drawing processing apparatus, drawing processing method, computer-readable recording medium for sound processing, sound processing apparatus, and sound processing method | |
US20240181345A1 (en) | Computer-readable non-transitory storage medium, game system, game apparatus, and game processing method | |
JP2009247555A (en) | Image generating system, program, and information storage medium | |
JP2024007703A (en) | Virtual space creation program, and virtual space creation device | |
JP2024041355A (en) | Program, virtual space generation device, and virtual space generation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180703 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180828 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180918 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6407324 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S802 | Written request for registration of partial abandonment of right |
Free format text: JAPANESE INTERMEDIATE CODE: R311802 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |