[go: up one dir, main page]

JP7144931B2 - Program and game system - Google Patents

Program and game system Download PDF

Info

Publication number
JP7144931B2
JP7144931B2 JP2017239510A JP2017239510A JP7144931B2 JP 7144931 B2 JP7144931 B2 JP 7144931B2 JP 2017239510 A JP2017239510 A JP 2017239510A JP 2017239510 A JP2017239510 A JP 2017239510A JP 7144931 B2 JP7144931 B2 JP 7144931B2
Authority
JP
Japan
Prior art keywords
timing
animation
information
music
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017239510A
Other languages
Japanese (ja)
Other versions
JP2019103728A (en
Inventor
義人 矢野
陽一 中矢
耕一郎 渡辺
裕章 久保田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Bandai Namco Entertainment Inc
Original Assignee
Namco Ltd
Bandai Namco Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd, Bandai Namco Entertainment Inc filed Critical Namco Ltd
Priority to JP2017239510A priority Critical patent/JP7144931B2/en
Publication of JP2019103728A publication Critical patent/JP2019103728A/en
Application granted granted Critical
Publication of JP7144931B2 publication Critical patent/JP7144931B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明は、プログラム及びゲームシステム等に関する。 The present invention relates to a program, a game system, and the like.

従来より、プレーヤが音楽ゲームをプレイするためのゲームシステムが知られている。このゲームシステムでは、音出力部から楽曲が出力されると共に、表示部には、プレーヤの操作タイミングを指示するための指示マーク(音符)が表示される。プレーヤは、出力される楽曲を聞きながら、表示された指示マークにしたがった操作を行って、音楽ゲームを楽しむ。このようなゲームシステムの従来技術としては例えば特許文献1に開示される技術がある。 2. Description of the Related Art Conventionally, game systems for players to play music games have been known. In this game system, music is output from the sound output section, and instruction marks (musical notes) for instructing the player's operation timing are displayed on the display section. The player enjoys the music game by performing operations according to the displayed instruction marks while listening to the output music. As a conventional technique of such a game system, there is a technique disclosed in Patent Document 1, for example.

また特許文献2には、ユーザに音楽鑑賞を楽しませる手法として、音楽に合わせてキャラクタオブジェクトが動作する動画像を生成する手法が開示されている。 Further, Japanese Patent Application Laid-Open No. 2002-200001 discloses a method of generating a moving image in which a character object moves in time with music as a method of making a user enjoy listening to music.

特開2008-61764号公報JP 2008-61764 A 国際公開第2015/194509号WO2015/194509

従来の音楽ゲームでは、プレーヤは音のタイミングに合わせて適切な操作を行う必要があり、難易度が高い。これに対して、従来より広く知られているアクションゲームの要素を、音楽ゲームに組み合わせることが考えられる。当該ゲームシステムでは、プレーヤ操作に基づいてキャラクタを動作させ、キャラクタの動作に合わせて楽曲等の音の出力制御を行う。このようにすれば、プレーヤは、キャラクタを操作するだけで楽曲を演奏をしているように感じられ、高揚感を得られる。 In conventional music games, the player needs to perform appropriate operations in accordance with the timing of the sound, which is highly difficult. On the other hand, it is conceivable to combine the elements of action games, which have been widely known in the past, with music games. In this game system, a character is moved based on the player's operation, and the output of sounds such as music is controlled according to the character's motion. In this way, the player can feel as if he or she is playing a piece of music just by operating the character, and can obtain an exhilarating feeling.

キャラクタの動作では、跳躍動作における着地や踏切のように、当該動作において特徴的なタイミングを規定できる。当該特徴的なタイミングと音のタイミングがずれている場合、プレーヤは音楽を演奏している感覚を得にくくなってしまい、興趣性に欠ける。また、キャラクタの動作が行われるタイミングや動作の内容は、プレーヤ操作によって決定されるため、特許文献2の手法のように音楽に合わせたキャラクタ動作(アニメーション)をあらかじめ作り込んでおくことは困難である。 Characteristic timings can be defined for character actions, such as landing and railroad crossings in a jumping action. If the characteristic timing and the timing of the sound are out of sync, it is difficult for the player to get the feeling that the music is being played, which is uninteresting. In addition, since the timing of the character's action and the content of the action are determined by the player's operation, it is difficult to prepare the character's action (animation) in accordance with the music in advance as in the technique of Patent Document 2. be.

本発明の幾つかの態様によれば、プレーヤ操作に基づく移動体のアニメーションを音のタイミングに合わせることで、興趣性の高いプログラム及びゲームシステム等を提供できる。 According to some aspects of the present invention, it is possible to provide a highly entertaining program, game system, and the like by synchronizing the animation of the moving object based on the player's operation with the timing of the sound.

本発明の一態様は、プレーヤの操作情報に基づいて、移動体のアニメーション処理を行うアニメーション処理部と、前記プレーヤの操作情報に基づいて基準タイミングを決定し、前記基準タイミングに基づいて、ゲーム中に出力される音のタイミング情報を決定するタイミング処理部と、を含み、前記アニメーション処理部は、前記音のタイミング情報に合わせて、前記移動体の前記アニメーション処理を行うゲームシステムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。 According to one aspect of the present invention, an animation processing unit performs animation processing of a moving object based on player operation information; a reference timing is determined based on the player operation information; and a timing processing unit that determines timing information of a sound to be output to the game system, wherein the animation processing unit performs the animation processing of the moving object in accordance with the timing information of the sound. The present invention also relates to a program that causes a computer to function as the above units, or a computer-readable information storage medium that stores the program.

本発明の一態様では、基準タイミングと音のタイミング情報を決定し、音のタイミング情報に合うように移動体のアニメーション処理が行われる。操作情報に基づいてアニメーション処理が行われる場合、移動体のアニメーションと音のタイミングをあらかじめ対応付けておくことは難しい。その点、本発明の一態様によれば、音のタイミングを適切に決定した上でアニメーション処理を行うことで、音に合わせた移動体のアニメーションを実現できる。 In one aspect of the present invention, reference timing and sound timing information are determined, and animation processing of the moving body is performed so as to match the sound timing information. When animation processing is performed based on operation information, it is difficult to associate the animation of the moving object with the timing of the sound in advance. In this regard, according to one aspect of the present invention, by performing animation processing after appropriately determining the timing of sound, it is possible to realize animation of a moving object in sync with sound.

また本発明の一態様では、前記アニメーション処理部は、前記音のタイミング情報に基づいて、前記アニメーション処理に用いられる前記移動体のアニメーション情報の調整処理を行ってもよい。 Further, in one aspect of the present invention, the animation processing unit may perform adjustment processing of the animation information of the moving body used in the animation processing, based on the timing information of the sound.

このようにすれば、アニメーション情報の調整処理により、音に合わせた移動体のアニメーションを実現することが可能になる。 In this way, it is possible to realize the animation of the moving object in harmony with the sound by adjusting the animation information.

また本発明の一態様では、前記アニメーション処理部は、前記音のタイミング情報に合わせて前記移動体が動作するように、前記調整処理を行ってもよい。 Further, in one aspect of the present invention, the animation processing unit may perform the adjustment processing so that the moving body moves in accordance with the timing information of the sound.

このようにすれば、アニメーション情報の調整処理により、移動体を音のタイミングに合わせて動作させることが可能になる。 By doing so, it is possible to move the moving object in time with the timing of the sound by adjusting the animation information.

また本発明の一態様では、前記アニメーション情報には、キーフレームを表すキーフレーム情報が対応付けられており、前記アニメーション処理部は、前記音のタイミング情報により表されるタイミングと、前記キーフレーム情報により表される前記キーフレームの再生タイミングとが一致するように、前記調整処理を行ってもよい。 Further, in one aspect of the present invention, the animation information is associated with key frame information representing a key frame, and the animation processing unit processes the timing represented by the timing information of the sound and the key frame information. The adjustment processing may be performed so that the reproduction timing of the key frame represented by is matched.

このようにすれば、キーフレーム情報に基づいて調整処理を行うことが可能になる。 In this way, adjustment processing can be performed based on key frame information.

また本発明の一態様では、前記基準タイミングは、前記キーフレームの前記再生タイミングであってもよい。 Further, in one aspect of the present invention, the reference timing may be the reproduction timing of the key frame.

このようにすれば、キーフレームの再生タイミングを基準タイミングとして用いることが可能になる。 By doing so, it is possible to use the reproduction timing of the key frame as the reference timing.

また本発明の一態様では、前記アニメーション処理部は、前記アニメーション処理の対象となる前記アニメーション情報の決定処理を行い、決定された前記アニメーション情報に対して前記調整処理を行ってもよい。 Further, in one aspect of the present invention, the animation processing unit may perform a process of determining the animation information to be subjected to the animation process, and perform the adjustment process on the determined animation information.

このようにすれば、複数のアニメーション情報の中から適切なアニメーション情報を選択することが可能になる。 By doing so, it is possible to select appropriate animation information from a plurality of pieces of animation information.

また本発明の一態様では、前記アニメーション処理部は、前記音のタイミング情報に基づいて、前記アニメーション情報の前記決定処理を行ってもよい。 Further, in one aspect of the present invention, the animation processing section may perform the determination processing of the animation information based on the timing information of the sound.

このようにすれば、音のタイミング情報に基づいて、アニメーション情報の決定処理を行うことが可能になる。 This makes it possible to determine the animation information based on the sound timing information.

また本発明の一態様では、前記音のタイミング情報には、パラメータが関連づけられており、前記アニメーション処理部は、前記パラメータに基づいて、前記アニメーション情報の前記決定処理を行ってもよい。 In one aspect of the present invention, a parameter may be associated with the sound timing information, and the animation processing section may perform the determination process of the animation information based on the parameter.

このようにすれば、楽曲のパラメータに基づいて、アニメーション情報の決定処理を行うことが可能になる。 By doing so, it is possible to perform the process of determining the animation information based on the parameters of the music.

また本発明の一態様では、前記ゲーム内で再生される音は、楽曲情報により表される楽曲であり、前記パラメータは、音量、音程、及び音色の少なくとも1つに関するパラメータであってもよい。 Further, in one aspect of the present invention, the sound reproduced in the game may be music represented by music information, and the parameter may be a parameter relating to at least one of volume, pitch, and timbre.

このようにすれば、楽曲の音量、音程、音色に関するパラメータに基づいて、決定処理を行うことが可能になる。 By doing so, it is possible to perform the determination process based on the parameters relating to the volume, pitch, and timbre of the music.

また本発明の一態様では、前記ゲーム内で再生される音は、楽曲情報により表される楽曲であり、前記アニメーション処理部は、前記楽曲情報、前記プレーヤの操作情報、前記移動体が移動するフィールドの情報、及び前記移動体の状態を表す状態情報の少なくとも1つに基づいて、前記アニメーション情報の前記決定処理を行ってもよい。 Further, in one aspect of the present invention, the sound reproduced in the game is a piece of music represented by music information, and the animation processing unit receives the music information, the player's operation information, and the movement of the moving object. The determination processing of the animation information may be performed based on at least one of field information and state information representing the state of the moving body.

このようにすれば、種々の情報に基づいて、アニメーション情報の決定処理を行うことが可能になる。 By doing so, it is possible to perform animation information determination processing based on various kinds of information.

本実施形態のゲームシステムの構成例。An example of the configuration of the game system of the present embodiment. 図2(A)~図2(E)は本実施形態のゲームシステムを実現する種々の装置の例。2(A) to 2(E) show examples of various devices that realize the game system of this embodiment. 図3(A)は本実施形態のゲームシステムで用いられる3次元マップの例、図3(B)は表示部に表示されるゲーム画面の例。FIG. 3A shows an example of a three-dimensional map used in the game system of this embodiment, and FIG. 3B shows an example of a game screen displayed on the display unit. キャラクタの跳躍動作の例。An example of a character's jumping motion. 図5(A)~図5(C)は跳躍動作に対応するゲーム画面の例。FIGS. 5A to 5C are examples of game screens corresponding to a jumping motion. キャラクタのスライディング動作の例。An example of a character's sliding motion. 図7(A)~図7(C)はスライディング動作に対応するゲーム画面の例。7A to 7C are examples of game screens corresponding to sliding motions. 楽曲部分の説明図。Explanatory diagram of the music part. エリアと時系列楽曲部分の対応付けの例。An example of correspondence between areas and time-series music parts. 判定結果(ビートパラメータ)とパート楽曲部分の対応付けの例。An example of correspondence between determination results (beat parameters) and part music parts. 図11(A)、図11(B)は本実施形態の処理を説明するフローチャート。11A and 11B are flowcharts for explaining the processing of this embodiment. オブジェクト制御の例。An example of object control. オブジェクト制御を説明するフローチャート。4 is a flowchart for explaining object control; モデルオブジェクト、スケルトン構造の例。Example of model object, skeleton structure. 骨の親子関係の説明図。Explanatory diagram of the parent-child relationship of bones. アニメーション情報の具体例。A specific example of animation information. 拍のタイミングの説明図。Explanatory diagram of beat timing. 基準タイミングと音のタイミングの関係例。An example of the relationship between reference timing and sound timing. アニメーション情報に対する調整処理の説明図。Explanatory drawing of the adjustment process with respect to animation information. アニメーション処理を説明するフローチャート。4 is a flowchart for explaining animation processing; アニメーション情報記憶部に記憶されるデータの例。An example of data stored in the animation information storage unit. 図22(A)~図22(F)はキャラクタの回転動作の例。22(A) to 22(F) are examples of character rotation motions. 図23(A)~図23(C)は複数のキーフレームを含むアニメーション情報に対する調整処理の説明図。23A to 23C are explanatory diagrams of adjustment processing for animation information including a plurality of key frames. アニメーション処理を説明する他のフローチャート。Another flowchart for explaining animation processing.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。 The present embodiment will be described below. It should be noted that the embodiments described below do not unduly limit the content of the present invention described in the claims. Moreover, not all the configurations described in the present embodiment are essential constituent elements of the present invention.

1.構成
図1に本実施形態のゲームシステム(ゲーム装置、画像生成システム、サーバシステム)のブロック図の例を示す。なお、本実施形態のゲームシステムの構成は図1に限定されず、その構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
1. 1. Configuration FIG. 1 shows an example of a block diagram of a game system (game device, image generation system, server system) of this embodiment. The configuration of the game system of this embodiment is not limited to that shown in FIG. 1, and various modifications such as omitting some of its components (each part) or adding other components are possible.

操作部160は、プレーヤ(ユーザ)が操作データを入力するためのものであり、その機能は、操作ボタン、方向指示キー、アナログスティック、レバー、各種センサ(角速度センサ、加速度センサ等)、撮像部(カメラ)、マイク、或いはタッチパネル型ディスプレイなどにより実現できる。 The operation unit 160 is used by a player (user) to input operation data, and its functions include operation buttons, direction keys, analog sticks, levers, various sensors (angular velocity sensor, acceleration sensor, etc.), and an imaging unit. (camera), a microphone, a touch panel display, or the like.

記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAM、SSD、或いはHDDなどにより実現できる。 The storage unit 170 serves as a work area for the processing unit 100 and the communication unit 196, and its function can be realized by RAM, SSD, HDD, or the like.

記憶部170は、楽曲情報(BGM、音楽)を記憶する楽曲情報記憶部171、ゲーム進行履歴の情報(経過時間、ゲーム内パラメータ、キャラクタの移動履歴や移動方向等)を記憶するゲーム進行履歴記憶部172、移動体が移動するフィールドや当該フィールド上に配置されるオブジェクトの情報を記憶するフィールド・オブジェクト情報記憶部173、移動体(キャラクタ)のアニメーション情報を記憶するアニメーション情報記憶部174を含む。なお記憶部170の構成は図1に限定されず、記憶部170は、プレーヤによる操作入力の情報を記憶するバッファや、オブジェクトの描画処理に使用される描画バッファ等の不図示の構成を含んでもよい。 The storage unit 170 includes a music information storage unit 171 that stores music information (BGM, music), and a game progress history storage that stores information on the game progress history (elapsed time, in-game parameters, character movement history and movement direction, etc.). It includes a section 172, a field/object information storage section 173 for storing information on a field in which a moving body moves and objects placed on the field, and an animation information storage section 174 for storing animation information on a moving body (character). Note that the configuration of the storage unit 170 is not limited to that shown in FIG. 1, and the storage unit 170 may include a configuration (not shown) such as a buffer for storing information of operation input by the player and a drawing buffer used for object drawing processing. good.

記憶媒体180(コンピュータにより読み取り可能な媒体)は、データやプログラムなどの各種の情報を記憶する。記憶媒体180は、SRAM、DRAMなどの半導体メモリーであってもよいし、レジスタであってもよいし、ハードディスク装置(HDD)などの磁気記憶装置であってもよいし、光学ディスク装置等の光学式記憶装置であってもよい。例えば、記憶媒体180はコンピュータにより読み取り可能な命令を格納しており、当該命令が処理部100(プロセッサ)により実行されることで、ゲームシステムの各部(通信部、処理部)の機能が実現されることになる。ここでの命令は、プログラムを構成する命令セットの命令でもよいし、処理部100(プロセッサ)のハードウェア回路に対して動作を指示する命令であってもよい。 The storage medium 180 (computer-readable medium) stores various information such as data and programs. The storage medium 180 may be a semiconductor memory such as SRAM or DRAM, a register, a magnetic storage device such as a hard disk drive (HDD), or an optical storage device such as an optical disk device. It may also be a formula storage device. For example, the storage medium 180 stores computer-readable instructions, and the instructions are executed by the processing unit 100 (processor) to realize the functions of each unit (communication unit, processing unit) of the game system. will be The instruction here may be an instruction set that constitutes a program, or an instruction that instructs a hardware circuit of the processing unit 100 (processor) to operate.

表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、LCD、有機ELディスプレイ、CRT、各種プロジェクター型ディスプレイ、或いはHMDなどにより実現できる。音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。 The display unit 190 outputs an image generated according to this embodiment, and its function can be realized by an LCD, an organic EL display, a CRT, various projector-type displays, an HMD, or the like. The sound output unit 192 outputs the sound generated according to this embodiment, and its function can be realized by a speaker, headphones, or the like.

I/F(インターフェース)部194は、携帯型情報記憶媒体195とのインターフェース処理を行うものであり、その機能はI/F処理用のASICなどにより実現できる。携帯型情報記憶媒体195は、プレーヤがゲームプレイするための各種情報が記憶されるものであり、ICカード(メモリーカード)、USBメモリ、或いは磁気カードなどにより実現できる。 An I/F (interface) unit 194 performs interface processing with the portable information storage medium 195, and its function can be realized by an ASIC for I/F processing. The portable information storage medium 195 stores various information for the player to play the game, and can be realized by an IC card (memory card), a USB memory, a magnetic card, or the like.

通信部196は、有線や無線のネットワークを介して外部装置(例えば他のゲーム装置、管理装置、サーバシステム等)との間で通信を行うものであり、その機能は、通信用ASIC又は通信用プロセッサなどのハードウェアや、通信用ファームウェアにより実現できる。 The communication unit 196 communicates with an external device (for example, another game device, a management device, a server system, etc.) via a wired or wireless network. It can be realized by hardware such as a processor or firmware for communication.

なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、サーバシステム(ホスト装置)が有する情報記憶媒体からネットワーク及び通信部196を介して記憶媒体180(あるいは記憶部170)に配信してもよい。このようなサーバシステムによる記憶媒体の使用も本発明の範囲内に含めることができる。 A program (data) for causing a computer to function as each part of the present embodiment is delivered from an information storage medium of the server system (host device) to the storage medium 180 (or the storage part 170) via the network and the communication part 196. You may The use of storage media by such server systems can also be included within the scope of the present invention.

処理部100(プロセッサ)は、操作部160からの操作情報やプログラムなどに基づいて、ゲーム処理、表示処理、或いは音処理などを行う。処理部100は記憶部170をワーク領域として各種処理を行う。処理部110が行う本実施形態の各処理(各機能)は、プロセッサ(ハードウェアを含むプロセッサ)により実現できる。例えば本実施形態の各処理は、プログラム等の情報に基づき動作するプロセッサと、プログラム等の情報を記憶するメモリー(記憶装置)により実現できる。ここでのプロセッサは、例えば各部の機能が個別のハードウェアで実現されてもよいし、或いは各部の機能が一体のハードウェアで実現されてもよい。例えば、プロセッサはハードウェアを含み、そのハードウェアは、デジタル信号を処理する回路及びアナログ信号を処理する回路の少なくとも一方を含むことができる。例えば、プロセッサは、回路基板に実装された1又は複数の回路装置(例えばIC等)や、1又は複数の回路素子(例えば抵抗、キャパシター等)で構成することができる。プロセッサは、例えばCPU(Central Processing Unit)であってもよい。ただし、プロセッサはCPUに限定されるものではなく、GPU(Graphics Processing Unit)、或いはDSP(Digital Signal Processor)等、各種のプロセッサを用いることが可能である。またプロセッサはASIC(application specific integrated circuit)によるハードウェア回路でもよい。またプロセッサは、複数のCPUにより構成されていてもよいし、複数のASICによるハードウェア回路により構成されていてもよい。また、プロセッサは、複数のCPUと、複数のASICによるハードウェア回路と、の組み合わせにより構成されていてもよい。 The processing unit 100 (processor) performs game processing, display processing, sound processing, and the like based on operation information from the operation unit 160, programs, and the like. The processing unit 100 performs various processes using the storage unit 170 as a work area. Each process (each function) of this embodiment performed by the processing unit 110 can be realized by a processor (a processor including hardware). For example, each process of this embodiment can be implemented by a processor that operates based on information such as a program and a memory (storage device) that stores information such as the program. In the processor here, for example, the function of each unit may be implemented by separate hardware, or the function of each unit may be implemented by integrated hardware. For example, a processor includes hardware, which may include circuitry for processing digital signals and/or circuitry for processing analog signals. For example, the processor can be composed of one or more circuit devices (such as ICs) or one or more circuit elements (such as resistors and capacitors) mounted on a circuit board. The processor may be, for example, a CPU (Central Processing Unit). However, the processor is not limited to the CPU, and various processors such as GPU (Graphics Processing Unit) or DSP (Digital Signal Processor) can be used. Also, the processor may be a hardware circuit based on ASIC (application specific integrated circuit). Also, the processor may be composed of a plurality of CPUs, or may be composed of hardware circuits composed of a plurality of ASICs. Also, the processor may be configured by a combination of multiple CPUs and multiple ASIC hardware circuits.

処理部100は、入力受け付け部102、ゲーム処理部104、キャラクタ処理部106、楽曲再生部112、オブジェクト制御部114、判定部116、表示処理部120を含む。また、キャラクタ処理部106は、アニメーション処理部108、タイミング処理部110を含む。なおこれらの構成要素の一部を省略したり、他の構成要素を追加するなどの変形実施が可能である。 The processing unit 100 includes an input reception unit 102 , a game processing unit 104 , a character processing unit 106 , a music playback unit 112 , an object control unit 114 , a determination unit 116 and a display processing unit 120 . The character processing unit 106 also includes an animation processing unit 108 and a timing processing unit 110 . Modifications such as omitting some of these components or adding other components are possible.

入力受け付け部102は、プレーヤの操作情報(入力情報)の受け付け処理を行う。例えば操作部160を用いてプレーヤが入力した操作の受け付け処理を行う。例えば操作部160からのデータをサンプリングし、A/D変換などを行って操作情報として受け付ける。 The input receiving unit 102 performs processing for receiving player operation information (input information). For example, an operation input by the player using the operation unit 160 is accepted. For example, data from the operation unit 160 is sampled, A/D converted, and received as operation information.

ゲーム処理部104はゲーム処理(ゲーム演算処理)を行う。ここでゲーム処理としては、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などがある。またゲーム処理部104は、プレーヤのゲーム成績(得点、ポイント)の演算処理を行う。 The game processing unit 104 performs game processing (game arithmetic processing). Here, the game processing includes processing for starting the game when the game start condition is satisfied, processing for progressing the game, and processing for ending the game when the game end condition is satisfied. The game processing unit 104 also performs arithmetic processing of the player's game results (scores, points).

キャラクタ処理部106は、プレーヤがゲーム内で操作するキャラクタに関する処理を行う。キャラクタは、例えば後述する人型のキャラクタCAである。ただし、プレーヤによる操作対象は種々の移動体に拡張可能であり、キャラクタ処理部106を移動体に関する処理を行う移動体処理部に拡張して考えることも可能である。 The character processing unit 106 performs processing related to characters operated by the player in the game. The character is, for example, a humanoid character CA, which will be described later. However, the object to be operated by the player can be extended to various moving objects, and the character processing unit 106 can be expanded to a moving object processing unit that performs processing related to moving objects.

キャラクタ処理部106のアニメーション処理部108は、キャラクタのアニメーション処理を行う。具体的には、記憶部170のアニメーション情報記憶部174は、複数のアニメーション情報(モーション情報)を記憶しており、各アニメーション情報は、キャラクタの所与の動作(アクション、モーション、アニメーション)に対応する。アニメーション処理部108は、操作情報やオブジェクト情報に基づいて適切なアニメーション情報を決定(選択)し、当該アニメーション情報を再生する処理(モーション再生処理)を行うことで、キャラクタのアニメーションを実現する。 An animation processing unit 108 of the character processing unit 106 performs character animation processing. Specifically, the animation information storage unit 174 of the storage unit 170 stores a plurality of pieces of animation information (motion information), each piece of animation information corresponding to a given action (action, motion, animation) of the character. do. The animation processing unit 108 determines (selects) appropriate animation information based on the operation information and object information, and performs processing (motion reproduction processing) to reproduce the animation information, thereby realizing character animation.

また、本実施形態のアニメーション処理部108は、キャラクタのアニメーションを音(楽曲)に合わせるような調整処理を行う。タイミング処理部110は、操作情報や楽曲情報に基づいて、調整処理に必要なタイミング(基準タイミング、音のタイミング)の特定処理を行う。アニメーション処理部108は、タイミング処理部110で特定されたタイミングに基づいて、アニメーション情報に対する調整処理を行う。 Also, the animation processing unit 108 of the present embodiment performs adjustment processing such that the animation of the character is matched with the sound (music). The timing processing unit 110 performs processing for specifying timing (reference timing, sound timing) necessary for adjustment processing based on operation information and music information. The animation processing unit 108 adjusts animation information based on the timing specified by the timing processing unit 110 .

楽曲再生部112は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、楽曲(BGM)を生成し、音出力部192に出力する。なお、以下の説明では楽曲再生部112における再生処理の対象が楽曲(BGM)である例を説明するが、楽曲再生部112は、効果音、又は音声などの楽曲以外のゲーム音を生成し、音出力部192に出力してもよい。 The music reproducing unit 112 performs sound processing based on the results of various processes performed by the processing unit 100 , generates music (BGM), and outputs the generated music (BGM) to the sound output unit 192 . In the following description, an example in which music (BGM) is the target of the reproduction process in the music reproduction unit 112 will be described. You may output to the sound output part 192. FIG.

オブジェクト制御部114は、キャラクタが移動するフィールドに配置され、キャラクタによる動作の対象となるオブジェクトの制御を行う。オブジェクト制御部114は、ゲームの進行履歴に基づいてオブジェクトの配置等に関する制御を行う。 The object control unit 114 controls an object that is placed in a field where the character moves and that is the target of the action of the character. The object control unit 114 controls the arrangement of objects based on the progress history of the game.

判定部116はプレーヤの操作情報に基づく判定処理を行う。例えば判定部116は、プレーヤに対応するキャラクタの位置、オブジェクトの位置、プレーヤが入力した操作の種類等の情報に基づいて、オブジェクトに対するキャラクタの動作が成功したか否かを判定する。 The determination unit 116 performs determination processing based on player operation information. For example, the determination unit 116 determines whether the character's action on the object was successful based on information such as the position of the character corresponding to the player, the position of the object, and the type of operation input by the player.

表示処理部120は、表示部190にゲーム画像等の画像を表示するための処理(画像生成処理等)を行う。例えば処理部100で行われる種々の処理(ゲーム処理、シミュレーション処理)の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に出力する。例えば3次元ゲーム用の画像を生成する場合には、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、透視変換、或いは光源処理等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブ面の頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)が作成される。そして、この描画データ(プリミティブ面データ)に基づいて、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数プリミティブ面)を、描画バッファ(フレームバッファ、ワークバッファ等のピクセル単位で画像情報を記憶できるバッファ)に描画する。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。 The display processing unit 120 performs processing (such as image generation processing) for displaying an image such as a game image on the display unit 190 . For example, drawing processing is performed based on the results of various processes (game processing, simulation processing) performed by the processing unit 100 to generate an image and output it to the display unit 190 . For example, when generating an image for a 3D game, geometry processing such as coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, perspective transformation, or light source processing is performed. Rendering data (position coordinates of vertices of primitive surfaces, texture coordinates, color data, normal vectors, α values, etc.) are created. Then, based on this drawing data (primitive surface data), the object (one or more primitive surfaces) after perspective transformation (after geometry processing) is stored in a drawing buffer (frame buffer, work buffer, etc.) in units of pixels. buffer). This produces an image seen from a virtual camera (given viewpoint) in object space.

図2(A)に本実施形態のゲームシステムを実現する装置の一例を示す。図2(A)は本実施形態のゲームシステムを携帯型ゲーム装置で実現する場合の例である。この携帯型ゲーム装置は、操作部160として機能する操作ボタン10、11、12、13、方向指示キー14、アナログスティック16、18、R、Lキー20、22や、液晶ディスプレイにより実現される表示部190を有する。なお本実施形態のゲームシステムを実現する装置は図2(A)に限定されず、種々の変形実施が可能である。例えば本実施形態のゲームシステムを実現する装置は、図2(B)に示す家庭用ゲーム装置(据え置き型)、図2(C)に示す携帯型通信端末(スマートフォン、フューチャーフォン、携帯電話機)、図2(D)に示す業務用ゲーム装置などであってもよい。或いは図2(E)に示すように本実施形態のゲームシステムは、端末装置TM1~TMnとネットワーク510を介して通信接続されるサーバシステム500などにより実現してもよい。例えば本実施形態のゲームシステムの各処理を、サーバシステム500と端末装置TM1~TMnの分散処理等により実現してもよい。TM1~TMnの各端末装置は例えば図2(A)~図2(D)に示すような各種の装置により実現できる。 FIG. 2A shows an example of a device that implements the game system of this embodiment. FIG. 2A shows an example in which the game system of this embodiment is implemented by a portable game device. This portable game device includes operation buttons 10, 11, 12 and 13 functioning as an operation unit 160, direction keys 14, analog sticks 16 and 18, R and L keys 20 and 22, and a display realized by a liquid crystal display. It has a part 190 . Note that the device that implements the game system of this embodiment is not limited to that shown in FIG. 2A, and various modifications are possible. For example, the device that realizes the game system of this embodiment includes a home game device (stationary type) shown in FIG. It may be an arcade game machine or the like shown in FIG. 2(D). Alternatively, as shown in FIG. 2(E), the game system of this embodiment may be implemented by a server system 500 or the like that is communicatively connected to the terminal devices TM1 to TMn via a network 510. FIG. For example, each process of the game system of this embodiment may be implemented by distributed processing of the server system 500 and the terminal devices TM1 to TMn. Each terminal device of TM1 to TMn can be realized by various devices as shown in FIGS. 2A to 2D, for example.

図1に示したように、本実施形態のゲームシステムは、アニメーション処理部108、タイミング処理部110を含む。アニメーション処理部108は、プレーヤの操作情報に基づいて、移動体のアニメーション処理を行う。タイミング処理部110は、プレーヤの操作情報に基づいて基準タイミングを決定し、基準タイミングに基づいて、ゲーム中に出力される音のタイミング情報を決定する。さらにアニメーション処理部108は、音のタイミング情報に合わせて、移動体のアニメーション処理を行う。 As shown in FIG. 1, the game system of this embodiment includes an animation processing section 108 and a timing processing section 110 . The animation processing unit 108 performs animation processing of the moving object based on the player's operation information. The timing processing unit 110 determines the reference timing based on the player's operation information, and determines the timing information of the sound to be output during the game based on the reference timing. Furthermore, the animation processing unit 108 performs animation processing of the moving object in accordance with the timing information of the sound.

操作情報とは、プレーヤが操作部160に対して行った操作の内容(結果)を表す情報である。例えば操作情報は、図2(A)の操作ボタン10、11、12、13、方向指示キー14、アナログスティック16、18、R、Lキー20、22のいずれに対する操作が行われたかを表す情報である。また操作情報は、プレーヤにより操作が行われたタイミングを特定する情報を含んでもよい。 The operation information is information representing the content (result) of the operation performed by the player on the operation unit 160 . For example, the operation information is information indicating which one of the operation buttons 10, 11, 12, 13, direction key 14, analog sticks 16, 18, R, L keys 20, 22 in FIG. 2A is operated. is. The operation information may also include information specifying the timing of the operation performed by the player.

移動体とは、ゲームシステムにおいてプレーヤの操作情報に基づいてゲームマップ(狭義には3次元マップ)を移動するオブジェクトである。移動体は実空間のプレーヤに対応して仮想空間で移動するプレーヤ移動体である。移動体は、狭義には後述するキャラクタCA(プレーヤキャラクタ、アバター)である。ただし移動体として、車、バイク、飛行機等の乗り物を用いてもよい。即ち、本実施形態における移動体は、ゲームシステム中で形成される仮想的な空間を移動可能な種々のオブジェクトに拡張することが可能である。仮想カメラから見える画像は三人称視点の画像でもよく、一人称視点の画像でもよい。移動体であるプレーヤ移動体(キャラクタ)は、ゲーム画像に表示されるオブジェクトであってもよいし、ゲーム画像に表示されない仮想的なオブジェクトであってもよい。 A moving object is an object that moves on a game map (three-dimensional map in a narrow sense) based on player's operation information in the game system. The moving object is a player moving object that moves in the virtual space corresponding to the player in the real space. A moving object is, in a narrow sense, a character CA (player character, avatar), which will be described later. However, vehicles such as cars, motorcycles, and airplanes may be used as moving bodies. That is, the moving object in this embodiment can be extended to various objects that can move in the virtual space formed in the game system. The image viewed from the virtual camera may be a third-person viewpoint image or a first-person viewpoint image. The player's moving body (character), which is a moving body, may be an object displayed in the game image, or may be a virtual object not displayed in the game image.

基準タイミングとは、アニメーション処理(狭義にはアニメーション情報の再生処理)の基準となるタイミング(或いは、当該タイミングを表す情報)である。基準タイミングは、例えば再生対象となるアニメーション情報における特徴的なタイミングであり、狭義にはキーフレームの再生タイミングを表す。基準タイミング(後述する図18のt)は、例えば操作情報に基づいてアニメーション情報の再生開始タイミング(図18のt)が特定されることで特定可能になる。 The reference timing is timing (or information representing the timing) that serves as a reference for animation processing (in a narrow sense, reproduction processing of animation information). The reference timing is, for example, characteristic timing in animation information to be played back, and in a narrow sense represents the playback timing of key frames. The reference timing (t K in FIG. 18 to be described later) can be specified by specifying the playback start timing (t S in FIG. 18) of the animation information based on the operation information, for example.

音のタイミング情報とは、音出力部192で出力される音の特徴的なタイミングを表す情報である。以下、音のタイミング情報により表されるタイミングを、音のタイミングと表記する。なお、ここでの音は狭義には楽曲であり、音のタイミングとは楽曲の特徴タイミングのうちの、基準タイミングに対応するタイミングである。楽曲の特徴タイミングとは、当該楽曲にとって特徴的なタイミングのことであり、例えば後述する拍のタイミングや、所定のパートの音が出力されるタイミングである。ただし、ここでの音とは特徴的なタイミングが規定可能な音であればよく、例えば一定の間隔、リズムで出力される効果音(SE)等の種々の音に拡張して考えることが可能である。 The sound timing information is information representing the characteristic timing of the sound output by the sound output unit 192 . Hereinafter, the timing represented by the sound timing information is referred to as the sound timing. Note that the sound here is a piece of music in a narrow sense, and the timing of the sound is the timing corresponding to the reference timing among the characteristic timings of the piece of music. The characteristic timing of a piece of music is the timing that is characteristic of the piece of music, such as the timing of beats, which will be described later, or the timing of outputting the sound of a predetermined part. However, the sound here may be any sound that can define a characteristic timing. is.

本実施形態の手法によれば、操作情報に基づいてアニメーション処理を行う場合において、基準タイミングと音のタイミングを合わせることで、アニメーションと音の連動性を高めることが可能になる。結果として、音に合わせて移動体(キャラクタ)を動作させている感覚、或いは、移動体を動作させることで音を奏でている感覚を、プレーヤに与えることが可能になる。本実施形態の手法では、プレーヤに爽快感、高揚感を与えるゲームシステムを実現することが可能になる。 According to the method of the present embodiment, when performing animation processing based on operation information, it is possible to enhance the linkage between animation and sound by matching the reference timing with the timing of sound. As a result, it is possible to give the player the feeling of moving the moving object (character) in time with the sound, or the feeling of playing the sound by moving the moving object. The method of the present embodiment makes it possible to realize a game system that gives the player a sense of exhilaration and exhilaration.

またアニメーション処理部108は、音のタイミング情報に基づいて、アニメーション処理に用いられる移動体のアニメーション情報の調整処理を行う。より具体的には、アニメーション処理部108は、音のタイミング情報に合わせて移動体が動作するように、調整処理を行う。 Also, the animation processing unit 108 adjusts the animation information of the moving body used in the animation processing based on the sound timing information. More specifically, the animation processing unit 108 performs adjustment processing so that the moving object moves in accordance with the timing information of the sound.

アニメーション情報は、移動体に対して所定の動作を行わせるための情報であり、例えば図16を用いて後述するように、移動体の姿勢(スケルトンの姿勢)を表す情報の集合である。本実施形態では、アニメーション情報の再生処理が実行されるタイミングは、プレーヤの操作情報によって決定されるため、アニメーション情報と音の時間的な関係(基準タイミングと音のタイミングの関係)は、操作情報が入力されるまでわからない。よって本実施形態では、アニメーション情報に対して調整処理を行う。このようにすれば、操作情報が入力されるタイミングによらず、音とアニメーションの連動性を高めることが可能になる。 The animation information is information for causing a moving body to perform a predetermined action, and is a set of information representing the posture of the moving body (the posture of the skeleton), as will be described later with reference to FIG. 16, for example. In this embodiment, the timing at which the animation information reproduction process is executed is determined by the player's operation information. is entered. Therefore, in the present embodiment, adjustment processing is performed on animation information. In this way, it is possible to enhance the linkage between the sound and the animation regardless of the timing at which the operation information is input.

またアニメーション情報には、キーフレームを表すキーフレーム情報が対応付けられており、アニメーション処理部108は、音のタイミング情報により表されるタイミングと、キーフレーム情報により表されるキーフレームの再生タイミングとが一致するように、調整処理を行う。即ち、基準タイミングは、キーフレームの再生タイミングであってもよい。 The animation information is associated with keyframe information representing keyframes, and the animation processing unit 108 determines the timing represented by the sound timing information and the reproduction timing of the keyframes represented by the keyframe information. are adjusted so that they match. That is, the reference timing may be the reproduction timing of the keyframe.

キーフレームとは、アニメーション情報を構成する複数のフレームのうちの特徴的なフレームを表す。キーフレームの再生タイミングと音のタイミングを一致させる(時間差を低減する)処理を行うことで、移動体のアニメーションと音を連動させるようなアニメーション情報の調整処理を実現することが可能になる。 A key frame represents a characteristic frame among a plurality of frames forming animation information. By performing the process of matching the playback timing of the keyframes and the sound timing (reducing the time difference), it is possible to realize the adjustment process of the animation information such that the animation of the moving object and the sound are interlocked.

またアニメーション処理部108は、アニメーション処理の対象となるアニメーション情報の決定処理を行い、決定されたアニメーション情報に対して調整処理を行う。このようにすれば、多様なアニメーション情報から適切なアニメーション情報を決定(選択)することが可能になる。 The animation processing unit 108 also performs processing for determining animation information to be subjected to animation processing, and performs adjustment processing for the determined animation information. In this way, it becomes possible to determine (select) appropriate animation information from a variety of animation information.

例えばアニメーション処理部108は、音のタイミング情報に基づいて、アニメーション情報の決定処理を行う。音のタイミング情報は上記のように移動体のアニメーションと音との連動性を決定する要素である。そのため、音のタイミング情報を用いることで、音とアニメーションの関係を考慮した決定処理、例えば音との連動性が高いアニメーション情報を再生対象とするような決定処理を実現できる。 For example, the animation processing unit 108 performs animation information determination processing based on sound timing information. The sound timing information is an element that determines the link between the animation of the moving object and the sound as described above. Therefore, by using the sound timing information, it is possible to realize decision processing that considers the relationship between sound and animation, for example, decision processing that targets animation information that is highly interlocked with sound.

また音のタイミング情報には、パラメータが関連づけられており、アニメーション処理部108は、当該パラメータに基づいて、アニメーション情報の決定処理を行う。狭義には、ゲーム内で再生される音は、楽曲情報により表される楽曲であり、パラメータは、音量、音程、及び音色の少なくとも1つに関するパラメータである。 A parameter is associated with the sound timing information, and the animation processing unit 108 performs animation information determination processing based on the parameter. In a narrow sense, the sound reproduced in the game is music represented by music information, and the parameters are parameters relating to at least one of volume, pitch, and timbre.

ここで音量とは、音の大きさ(信号レベル)を表し、音程とは音の高低(信号の周波数)を表し、音色とは音の波形(信号波形、例えばエンベロープ)を表す。ただし音色に関するパラメータとして、音の出力元である楽器(パート)を表す情報を用いてもよい。 Here, the volume represents the volume of sound (signal level), the pitch represents the pitch of the sound (signal frequency), and the timbre represents the waveform of the sound (signal waveform, for example, envelope). However, information representing the musical instrument (part) from which the sound is output may be used as the parameter related to the tone color.

このようにすれば、音(楽曲)のパラメータに応じてアニメーション情報を決定することが可能になる。例えば静かな楽曲では動きの小さいアニメーション情報を対象して決定し、激しい楽曲では動きの大きいアニメーション情報を対象として決定する処理等が可能になる。 In this way, it becomes possible to determine the animation information according to the parameters of the sound (music). For example, it is possible to perform a process of determining animation information with small movements for quiet music and animation information with large movements for intense music.

またアニメーション処理部108は、楽曲情報、プレーヤの操作情報、移動体が移動するフィールドの情報、及び移動体の状態を表す状態情報の少なくとも1つに基づいて、アニメーション情報の決定処理を行ってもよい。 Also, the animation processing unit 108 may perform animation information determination processing based on at least one of music information, player operation information, field information in which the moving body moves, and state information representing the state of the moving body. good.

楽曲情報とは、例えば上述した音量、音程、音色の情報であってもよいし、楽曲のジャンルや作曲者等の他の情報であってもよい。操作情報とは、例えば図2(A)等のように多様な入力インターフェースを有する操作部160において、いずれの入力インターフェースが操作対象となったかを表す情報(操作の種類情報)である。また、移動体が移動するフィールドとは、例えば後述するフィールドFEであってもよいし、オブジェクトOBを含んでもよい。移動体の状態とは、例えば移動体の現在の位置、姿勢、移動速度や、過去の位置、姿勢、移動速度の履歴である。また移動体に体力や耐久度等のゲーム内パラメータが設定される場合、移動体の状態情報として当該パラメータを用いてもよい。このようにすれば、ゲーム内で用いられる多様な情報に基づいて、適切なアニメーション情報を再生処理の対象として決定することが可能になる。 The music information may be, for example, the above-described volume, pitch, and timbre information, or may be other information such as the music genre and composer. The operation information is information (operation type information) indicating which input interface is to be operated in the operation unit 160 having various input interfaces as shown in FIG. 2A, for example. Also, the field in which the moving object moves may be, for example, a field FE, which will be described later, or may include an object OB. The state of the moving object is, for example, the current position, orientation, and moving speed of the moving object, and the history of past positions, orientations, and moving speeds. Further, when in-game parameters such as physical strength and durability are set for the moving object, the parameters may be used as the state information of the moving object. By doing so, it is possible to determine appropriate animation information as a target of reproduction processing based on various information used in the game.

また図1に示したように、本実施形態のゲームシステムは、ゲーム処理部104、楽曲再生部112、キャラクタ処理部106、判定部116を含む。ゲーム処理部104は、ゲームの進行処理を行う。楽曲再生部112は、楽曲の再生処理を行う。キャラクタ処理部106は、プレーヤの操作情報に基づいてプレーヤに対応するキャラクタを、ゲーム空間のフィールドにおいて移動させる処理を行う。判定部116は、プレーヤの操作情報に基づいて、フィールドに配置されるオブジェクトに対するキャラクタの動作が成功したか否かを判定する。本実施形態では、楽曲再生部112は、フィールドでのキャラクタの存在エリアに応じて抽出した、楽曲の一部である楽曲部分を再生する制御を行う。さらに楽曲再生部112は、判定部116での判定結果に基づいて、楽曲部分の再生態様を変化させる制御を行う。 Further, as shown in FIG. 1, the game system of this embodiment includes a game processing section 104, a music reproducing section 112, a character processing section 106, and a determination section . The game processing unit 104 performs game progress processing. The music reproduction unit 112 performs music reproduction processing. The character processing unit 106 performs processing for moving the character corresponding to the player in the field of the game space based on the player's operation information. The determination unit 116 determines whether or not the character's action with respect to the object placed on the field is successful, based on the player's operation information. In this embodiment, the music reproducing unit 112 performs control to reproduce a music part, which is a part of music, extracted according to the area where the character exists in the field. Furthermore, the music reproducing unit 112 performs control to change the reproduction mode of the music part based on the determination result of the determining unit 116 .

ここでの楽曲部分とは、楽曲を演奏の時間軸方向に分割した一部(後述する時系列楽曲部分)、及び楽曲を楽曲パート毎に分割した一部(後述するパート楽曲部分)の少なくとも一方である。一例としては、後述するようにフィールドに設定される複数のエリアの各エリアに対して時系列楽曲部分が対応付けられており、楽曲再生部112は、キャラクタの存在エリアに基づいて、再生対象の時系列楽曲部分を決定する。そして楽曲再生部112は、再生態様を変化させる制御として、再生対象となるパート楽曲部分を変化させる制御を行う。ただし、所定エリアにギターを対応付け、他のエリアにドラムを対応付ける等、エリアに対してパート楽曲部分を対応付ける変形実施も可能である。 Here, the music part is at least one of a part obtained by dividing the music in the direction of the time axis of the performance (time-series music part described later) and a part obtained by dividing the music for each music part (part music part described later). is. As an example, a time-series music portion is associated with each of a plurality of areas set in a field as described later, and the music reproduction unit 112 selects a reproduction target based on the area in which the character exists. Determine the chronological music part. Then, the music reproducing unit 112 performs control to change the part music part to be reproduced as control to change the reproduction mode. However, it is also possible to make modifications such as associating a predetermined area with a guitar and another area with drums, and so on, in which a part music portion is associated with an area.

このようにすれば、プレーヤによるキャラクタの操作に対応した楽曲の再生処理が可能になる。プレーヤから見れば、キャラクタをどのエリアに移動させるかに応じて、楽曲部分の選択(狭義には時系列方向での楽曲制御)が可能であるし、オブジェクトに対する動作を成功させることで、再生態様の変更(パート方向での楽曲制御)が可能である。即ち、適切なエリア移動、及びオブジェクトに対する動作を行うことで、自然に楽曲を演奏できるような興趣性の高いゲームシステム(プログラム)を実現できる。本実施形態のゲームシステムは従来の音楽ゲームのような難しい操作が不要である。さらに、本実施形態におけるオブジェクトに対する動作は、従来のアクションゲームのような単なる移動手段ではなく、演奏(音の厚み)を決定する重要な要素となる。そのため、当該動作自体をアクロバティック、スタイリッシュにすることで、プレーヤに爽快感を与えるゲームシステムを実現できる。 In this way, it is possible to reproduce music corresponding to the player's operation of the character. From the player's point of view, it is possible to select a music part (in a narrow sense, music control in the time series direction) depending on which area the character is to be moved to. can be changed (music control in the part direction). That is, it is possible to realize a highly entertaining game system (program) in which music can be played naturally by appropriately moving areas and performing actions on objects. The game system of this embodiment does not require difficult operations unlike conventional music games. Furthermore, the movement of objects in this embodiment is not just a means of movement as in conventional action games, but an important factor that determines performance (thickness of sound). Therefore, by making the action itself acrobatic and stylish, it is possible to realize a game system that gives the player a sense of exhilaration.

また、本実施形態のゲームシステムは、オブジェクトを制御するオブジェクト制御部114を含む。オブジェクト制御部114は、判定部116での判定結果に基づいて、キャラクタの動作対象とは異なるオブジェクトに対する制御を行う。 The game system of this embodiment also includes an object control unit 114 that controls objects. The object control unit 114 controls an object that is different from the target of the character's action based on the determination result of the determination unit 116 .

ここでのオブジェクトに対する制御とは、オブジェクトの配置/非配置を切り替える制御であってもよいし、配置済みのオブジェクトを変形させる制御であってもよい。或いは、オブジェクトの配置位置、配置姿勢、配置対象となるオブジェクトの種類を動的に決定する制御であってもよい。或いは、オブジェクトを発光(点滅)させたり、色を変更する制御であってもよい。 Here, the control over the object may be control to switch placement/non-placement of the object, or control to transform the placed object. Alternatively, control may be performed to dynamically determine the placement position, placement posture, and type of object to be placed. Alternatively, the control may be such that the object emits light (blinks) or changes its color.

このようにすれば、オブジェクトに対する動作の結果を、楽曲制御だけでなくオブジェクト制御に利用することが可能になる。本実施形態では、オブジェクトに対する動作が楽曲制御のトリガーとなる。そのため、キャラクタがオブジェクトに対する動作を継続的に行うように、プレーヤに対して操作を促す必要があると考えられる。さらに、適切なエリア移動が必要であること(エリアと楽曲部分が対応付けられているため)や、ゲームシステムの興趣性を高めることを考えた場合、同じオブジェクトを継続して動作対象とするのではなく、次々に異なるオブジェクトに対して動作が行われることが望ましい。その点、所与のオブジェクトに対する動作を、異なるオブジェクトに対する制御のトリガーとすることで、プレーヤを適切にガイドすること等が可能になる。より具体的には、現在の動作対象とは異なるオブジェクトを目立たせるような制御を行うことで、当該異なるオブジェクトが次の動作対象に適していることを、プレーヤに示すことが可能になる。 In this way, it becomes possible to use the result of the action on the object not only for music control but also for object control. In this embodiment, an action on an object serves as a trigger for music control. For this reason, it is considered necessary to prompt the player to operate so that the character can continuously perform the action for the object. Furthermore, considering that appropriate area movement is necessary (because the area and the music part are associated) and that the interest of the game system is to be enhanced, it is recommended that the same object be continuously operated. It is desirable that the operations are performed on different objects one after the other, rather than on different objects. In this regard, it is possible to appropriately guide the player by using the action of a given object as a trigger for controlling a different object. More specifically, by performing control to highlight an object different from the current target of action, it is possible to indicate to the player that the different object is suitable for the next target of action.

オブジェクト制御部114は、ゲームの進行履歴に基づいて、オブジェクトの制御を行う。ここでのゲームの進行履歴とは、ゲームの経過時間、キャラクタの進行方向、及びプレーヤの操作入力の結果、の少なくとも1つである。ここで、ゲームの経過時間とは、ゲーム開始時からの経過時間であってもよいし、楽曲の演奏開始からの経過時間であってもよいし、所与のエリアでの滞在時間であってもよい。キャラクタの進行方向とは、キャラクタの位置の変位を表す情報であり、例えば異なる2タイミング間でのキャラの位置の差分を表すベクトル情報である。操作入力の結果とは、狭義には判定部116の判定結果であり、過去の動作についての成功/失敗の情報や、成功回数、失敗回数の情報である。或いは、跳躍動作を何回実行した等の情報(後述する図21における「動作属性」や、その実行回数等)を操作入力の結果として用いてもよい。 The object control unit 114 controls objects based on the progress history of the game. Here, the progress history of the game is at least one of the elapsed time of the game, the direction of movement of the character, and the result of the player's operation input. Here, the elapsed time of the game may be the elapsed time from the start of the game, the elapsed time from the start of playing a song, or the time spent in a given area. good too. The advancing direction of the character is information representing the displacement of the position of the character, and is, for example, vector information representing the difference in the position of the character between two different timings. The operation input result is, in a narrow sense, the determination result of the determination unit 116, and includes information on success/failure of past operations, information on the number of successes and number of failures. Alternatively, information such as how many times the jumping motion has been performed (“motion attribute” in FIG. 21 to be described later, the number of times it has been performed, etc.) may be used as the result of the operation input.

図3(A)、図3(B)を用いて後述するように、キャラクタの背面に仮想カメラが配置される場合(三人称視点の場合)、プレーヤはキャラクタの進行方向の領域をゲーム画面上で観察することになる。よって、現在動作対象としているオブジェクトよりも、キャラクタの進行方向側に新たなオブジェクトを配置するような制御を行うことで、当該新たなオブジェクトの存在を明確にプレーヤに知らせることが可能になり、ゲームプレイをスムーズにできる。その他、経過時間や操作入力の結果を用いることで、ゲーム内の状況に合わせた柔軟なオブジェクト制御が可能になる。なお、ゲームの進行履歴は上記の情報に限定されず、ゲーム処理部104によるゲーム処理の過程で取得可能な種々の情報に拡張することが可能である。 As will be described later with reference to FIGS. 3A and 3B, when a virtual camera is placed behind the character (in the case of a third-person viewpoint), the player can see the area in the direction in which the character is moving on the game screen. will observe. Therefore, by performing control such that a new object is placed on the side of the movement direction of the character relative to the object currently being acted upon, it is possible to clearly notify the player of the existence of the new object. You can play smoothly. In addition, by using the elapsed time and the result of operation input, flexible object control according to the situation in the game becomes possible. Note that the game progress history is not limited to the above information, and can be extended to various information that can be acquired in the process of game processing by the game processing unit 104 .

またオブジェクト制御部114は、所与の条件が成立した場合に、オブジェクトの制御を楽曲のリズムに基づいて行う。このようにすれば、オブジェクトを楽曲に合わせて制御することが可能になる。例えば、オブジェクトの基準位置が設定されている場合において、当該基準位置に対するオブジェクトの変位量を、楽曲のリズムに合わせて変更する。このようにすれば、オブジェクトが楽曲に合わせて移動することになり、オブジェクトの挙動と楽曲の連動性を高めることが可能になる。 Also, the object control unit 114 controls the object based on the rhythm of the music when a given condition is satisfied. By doing so, it becomes possible to control the object in time with the music. For example, when the reference position of the object is set, the amount of displacement of the object with respect to the reference position is changed in accordance with the rhythm of the music. By doing so, the object moves in time with the music, and it is possible to enhance the linkage between the behavior of the object and the music.

オブジェクト制御部114は、ゲーム処理部104により、キャラクタの存在エリアとは別のエリアにキャラクタを移動可能にする処理が行われた場合、又は、判定部116により、オブジェクトに対するキャラクタの動作が成功したと判定された場合に、所与の条件が成立したと判定する。このようにすれば、移動制限が解除されゲーム内でのフェーズが進行した場合や、キャラクタ動作が成功した場合に、オブジェクトの挙動と楽曲が連動することになる。つまり、ゲーム内での状況が変化した(狭義にはプレーヤにとって好ましい方向に変化した)ことが条件となるため、オブジェクトの挙動をゲーム内の盛り上がりに合わせることが可能になる。 The object control unit 114 determines whether the game processing unit 104 has performed processing to allow the character to move to an area different from the area where the character exists, or when the determination unit 116 has determined that the character has successfully moved to the object. is determined, it is determined that the given condition is established. In this way, when the movement restriction is lifted and the phase in the game progresses, or when the character action is successful, the behavior of the object and the music are interlocked. In other words, the condition is that the situation in the game has changed (in a narrow sense, it has changed in a direction favorable to the player).

またゲーム処理部104は、判定部116での判定結果に基づいて、キャラクタの存在エリアとは別のエリアにキャラクタを移動可能にする処理を行ってもよい。狭義には、ゲーム処理部104は、キャラクタが通行不可であった経路を通行可能にすることで、キャラクタを別のエリアに移動可能にする。 Also, the game processing unit 104 may perform a process of allowing the character to move to an area different from the area where the character exists, based on the determination result of the determination unit 116 . In a narrow sense, the game processing unit 104 enables the character to move to another area by making the path passable for the character.

このようにすれば、エリアの移動制限を行うこと、当該移動制限を判定結果に基づいて解除することが可能になるとともに、移動制限の解除を経路の通行不可/通行可能の切り替えで実現することが可能になる。具体的には、オブジェクトに対する動作が成功することが移動制限解除の条件となるため、先のエリアに進むためにはプレーヤは適切な操作を行う必要があり、興趣性の高いゲームシステムを実現できる。なお、通行不可であった経路を通行可能にする制御は、上記オブジェクト制御により実現されてもよい。例えば、足場がなくて渡れない溝や上れない壁が設けられることで通行不可であった経路上に、移動用の足場オブジェクトを配置する制御を行ってもよい。当該制御は、例えばゲーム処理部104の指示に基づいて、オブジェクト制御部114が実行する。このようにすれば、判定部116の判定結果を用いたオブジェクト制御を行うことで、自然に移動制限を解除する制御を実現できる。 In this way, it is possible to restrict the movement of the area, and to cancel the movement restriction based on the determination result, and to realize the cancellation of the movement restriction by switching the route between impassable/passable. becomes possible. Specifically, since the movement restriction is lifted when the action on the object is successful, the player needs to perform an appropriate operation in order to proceed to the next area, and a highly entertaining game system can be realized. . It should be noted that the control for making the impassable route passable may be implemented by the above-described object control. For example, control may be performed to place a scaffolding object for movement on a route that was impassable due to a groove or a wall that could not be climbed due to lack of scaffolding. This control is executed by the object control unit 114 based on an instruction from the game processing unit 104, for example. In this way, by performing object control using the determination result of the determination unit 116, it is possible to naturally realize control for releasing the movement restriction.

またゲーム処理部104は、ゲームの進行上の時間制限を制御する処理を行い、楽曲部分が関連づけられているエリア毎に、時間制限を行う。このように時間制限を設けた場合、ゲーム内での評価を高くするためには、各エリアを所定の時間内に通過することが必要となり、興趣性の高いゲームシステムを実現できる。特に、各エリアと時系列楽曲部分を対応付けた場合、時系列楽曲部分の演奏時間と時間制限を対応付けることで、プレーヤに対して自然に良い演奏を行わせることが可能になる。 The game processing unit 104 also performs processing for controlling the time limit for progressing the game, and sets the time limit for each area associated with the music part. When a time limit is set in this way, it is necessary to pass through each area within a predetermined time in order to raise the evaluation in the game, and a highly entertaining game system can be realized. In particular, when each area is associated with a time-series music portion, by associating the performance time of the time-series music portion with the time limit, it is possible for the player to naturally perform a good performance.

またキャラクタ処理部106は、楽曲の再生速度と関連づけられた移動速度で、キャラクタを移動させる処理を行ってもよい。ここで楽曲の再生速度とは、例えば楽曲のテンポ(BPMの値)である。このようにすれば、テンポの速い楽曲ではキャラクタが速く移動し、テンポの遅い楽曲ではキャラクタがゆっくり移動するため、楽曲に合わせたキャラクタ処理を実現することが可能になる。 Also, the character processing unit 106 may perform processing for moving the character at a moving speed associated with the music reproduction speed. Here, the reproduction speed of music is, for example, the tempo (BPM value) of the music. In this way, the character moves quickly in fast-tempo music, and the character moves slowly in slow-tempo music, making it possible to realize character processing that matches the music.

2.本実施形態の手法
次に本実施形態の手法について具体的に説明する。従来の音楽ゲームでは、ゲームシステム側で楽曲のリズムに応じた操作タイミングを指示し、プレーヤは指示された操作タイミングに合わせて操作を行う。しかし、従来の音楽ゲームで高評価を獲得するためには、適切なタイミングで適切な操作を行う必要があり、難易度が非常に高い。
2. Method of this embodiment Next, the method of this embodiment will be specifically described. In a conventional music game, the game system instructs operation timing according to the rhythm of music, and the player performs operations in accordance with the instructed operation timing. However, in order to obtain high ratings in conventional music games, it is necessary to perform appropriate operations at appropriate times, which is extremely difficult.

また従来より、アクションゲームは広く知られており、例えば3次元マップ上でキャラクタを移動させるゲームがある。アクションゲームでは、プレーヤが操作するキャラクタに、パルクール或いはフリーランニングを行わせるものもある。パルクール(フリーランニング)とは、壁や地形を活かし、走る・跳ぶ・登るなどの動作を組み合わせて、目的地まで効率的に移動する手法である。キャラクタにパルクールを実行させることで、複雑な地形のマップ(或いは障害物が配置されたマップ)であっても、キャラクタがスムーズに移動することが可能になる。 Conventionally, action games have been widely known, for example, games in which characters are moved on a three-dimensional map. In some action games, a character operated by a player is allowed to perform parkour or free-running. Parkour (free running) is a method of efficiently moving to a destination by combining actions such as running, jumping, and climbing, making use of walls and terrain. By making the character perform parkour, the character can move smoothly even on a map with complicated topography (or a map on which obstacles are arranged).

しかし、従来のアクションゲームでは、パルクールはマップ上での移動手段に過ぎなかった。即ち、キャラクタによる跳ぶ・登る等のアクションは目的地に移動する過程で行われるものであり、それ自体がゲーム中で重要な意味を持つものではなかった。 However, in conventional action games, parkour was just a means of transportation on the map. That is, actions such as jumping and climbing by the character are performed in the process of moving to the destination, and have no important meaning in the game itself.

そこで本実施形態では、音楽ゲームとアクションゲームを組み合わせたゲームシステムを提案する。以下、ゲームシステムの概要について説明する。なお、本実施形態の手法は下記ゲームシステムに適用するものに限定されず、格闘技ゲームやレースゲーム等の種々のゲームに適用可能である。また以下では移動体としてキャラクタを主に例にとり説明を行う。 Therefore, this embodiment proposes a game system that combines a music game and an action game. An outline of the game system will be described below. It should be noted that the method of the present embodiment is not limited to being applied to the game system described below, and can be applied to various games such as fighting games and racing games. In the following description, a character is mainly used as an example of a moving object.

2.1 フィールド・オブジェクトの設定とキャラクタの動作
図3(A)は、本実施形態のゲームシステムにおける3次元マップの俯瞰図であり、図3(B)は表示部190に表示されるゲーム画面の例である。本実施形態に係るゲームシステムでは、仮想的な3次元空間に、キャラクタCA(広義には移動体)が移動するための地形を表す3次元マップが構築される。3次元マップは、例えばフィールドFEと、オブジェクトOB(図3(A)の例ではOB1,OB2)を含む。
2.1 Field Object Settings and Character Actions FIG. 3A is a bird's-eye view of a three-dimensional map in the game system of this embodiment, and FIG. is an example of In the game system according to the present embodiment, a three-dimensional map is constructed in a virtual three-dimensional space to represent terrain for the movement of the character CA (moving body in a broad sense). A three-dimensional map includes, for example, a field FE and objects OB (OB1 and OB2 in the example of FIG. 3A).

フィールドFEは、キャラクタCAが移動可能な領域を表す。フィールドFEは、例えば図3(A)に示すように地面に相当する水平面であるが、フィールドFEが斜面等を含んで構成されてもよい。オブジェクトOBは、フィールドFE上に配置される物体(障害物)である。図3(A)の例であれば、オブジェクトOB1は円柱状の物体であり、オブジェクトOB2は梁と支柱を含む平均台状の物体である。 A field FE represents an area in which the character CA can move. Field FE is, for example, a horizontal plane corresponding to the ground as shown in FIG. An object OB is an object (obstacle) placed on the field FE. In the example of FIG. 3A, the object OB1 is a cylindrical object, and the object OB2 is a platform-like object including beams and supports.

以下では、フィールドFEは、キャラクタが特殊なアクション(跳躍、壁上り等)を必要とせずに移動(歩行,走行)可能な領域として説明を行う。また、オブジェクトOBは、当該オブジェクトOBが存在する経路上を移動するために、キャラクタCAが特殊な動作(アクション)をする必要がある領域(物体)である。オブジェクトOBは、歩行又は走行による通過が許容されない領域と言い換えることが可能である。 Below, the field FE will be described as an area in which the character can move (walk, run) without requiring special actions (jumping, wall climbing, etc.). Also, the object OB is an area (object) in which the character CA needs to perform a special action (action) in order to move along the path on which the object OB exists. The object OB can be rephrased as an area through which walking or running is not permitted.

ただし、ここでのフィールドFEとオブジェクトOBの区別は便宜上のものであり、ゲーム処理部104での3次元マップの処理は任意の形態で実現可能である。例えば、ゲーム処理部104が、フィールドFEとオブジェクトOBを1つの3次元マップ情報として、まとめて処理してもよい。或いは、3次元マップの固定部分をフィールドFEとし、可動部分をオブジェクトOBとして処理を行ってもよい。 However, the distinction between the field FE and the object OB here is for convenience, and the processing of the three-dimensional map in the game processing unit 104 can be realized in any form. For example, the game processing unit 104 may collectively process the field FE and the object OB as one piece of three-dimensional map information. Alternatively, processing may be performed with the fixed portion of the three-dimensional map as the field FE and the movable portion as the object OB.

キャラクタCAは、プレーヤの操作に基づいて3次元マップ上を移動する。例えば、図2(A)のアナログスティック18を所定方向に倒す操作入力が行われることで、キャラクタCAは、フィールドFE上を上記所定方向に対応する方向に歩行(走行)する。またキャラクタCAは、オブジェクトOBに対する動作を実行する。例えば、キャラクタCAがオブジェクトOB1と所定の位置関係にある状態で、図2(A)の操作ボタン(例えば10、11、12、13のいずれか)が押下されることで、キャラクタCAはOB1を飛び越える跳躍動作を実行する。 The character CA moves on the three-dimensional map based on the player's operation. For example, when the analog stick 18 in FIG. 2A is tilted in a predetermined direction, the character CA walks (runs) on the field FE in a direction corresponding to the predetermined direction. Also, the character CA performs an action with respect to the object OB. For example, in a state in which the character CA is in a predetermined positional relationship with the object OB1, pressing an operation button (for example, one of 10, 11, 12, and 13) in FIG. Executes a jumping motion.

また、3次元空間には仮想カメラVCが配置される。上述した表示処理部120の各処理により、図3(B)に示したように、表示部190には仮想カメラVCから3次元空間を撮像したかのような画像が表示される。 A virtual camera VC is arranged in the three-dimensional space. As shown in FIG. 3B, the display unit 190 displays an image as if the three-dimensional space was captured by the virtual camera VC by each process of the display processing unit 120 described above.

図4~図6(C)は、オブジェクトOBに対するキャラクタCAの動作の例である。アニメーション情報記憶部174は、動作に応じたキャラクタCAのアニメーション情報を記憶しており、アニメーション処理部108は、当該アニメーション情報の再生処理を行うことで、キャラクタCAに所定の動作を実行させる。 4 to 6C are examples of actions of the character CA with respect to the object OB. The animation information storage unit 174 stores animation information of the character CA according to actions, and the animation processing unit 108 reproduces the animation information to cause the character CA to perform predetermined actions.

図4は、円柱状のオブジェクトOB1に対するキャラクタCAの動作を説明する図である。キャラクタCAは、オブジェクトOB1に対して跳躍動作(vault)を行って、オブジェクトOB1を飛び越える。跳躍動作は、例えば図4に示したように、オブジェクトOB1の一方側から助走を行い(A1)、左手をオブジェクトOB1の上面に着けて両足を右側に振り上げ(A2)、左手を離してオブジェクトOB1の反対側の地面に着地する(A3)という各工程を連続して行うことで実現される。なお、図4のA1~A3は跳躍動作のうちの代表的な姿勢の例示であり、A1とA2の間(例えばA4やA5)、A2とA3の間でも、キャラクタCAの姿勢は連続的に(滑らかな動作となるように)変化する。 FIG. 4 is a diagram for explaining the motion of the character CA with respect to the cylindrical object OB1. The character CA performs a vaulting motion (vault) on the object OB1 and jumps over the object OB1. For example, as shown in FIG. 4, the jumping motion is performed by running up from one side of the object OB1 (A1), placing the left hand on the upper surface of the object OB1 and swinging both legs up to the right (A2), releasing the left hand and moving the object OB1. It is realized by continuously performing each step of landing on the ground opposite to (A3). Note that A1 to A3 in FIG. 4 are examples of representative postures of the jumping motion, and the posture of the character CA is continuously between A1 and A2 (for example, A4 and A5) and also between A2 and A3. change (so as to have a smooth action).

図5(A)~図5(C)は、図4の跳躍動作に対応するゲーム画面の例である。図5(A)がA1に対応し、図5(B)がA2に対応し、図5(C)がA3に対応する。 FIGS. 5A to 5C are examples of game screens corresponding to the jumping motion of FIG. 5A corresponds to A1, FIG. 5B corresponds to A2, and FIG. 5C corresponds to A3.

図6は、平均台状のオブジェクトOB2に対するキャラクタCAの動作を説明する図である。キャラクタCAは、オブジェクトOB2に対してスライディング動作を行って、オブジェクトOB2の梁の下をくぐり抜ける。スライディング動作は、例えば図6に示したように、オブジェクトOB2の一方側から助走を行い(B1)、両膝を付くような姿勢で地面を滑り(B2)、オブジェクトOB2の反対側の地面で立つ(B3)という各工程を連続して行うことで実現される。 FIG. 6 is a diagram illustrating the motion of the character CA with respect to the platform-shaped object OB2. The character CA performs a sliding motion with respect to the object OB2 and slips under the beam of the object OB2. For example, as shown in FIG. 6, the sliding action is to run up from one side of the object OB2 (B1), slide on the ground with both knees on the ground (B2), and stand on the ground on the opposite side of the object OB2. (B3) is realized by successively performing each step.

図7(A)~図7(C)は、図6のスライディング動作に対応するゲーム画面の例である。図7(A)がB1に対応し、図7(B)がB2に対応し、図7(C)がB3に対応する。 FIGS. 7A to 7C are examples of game screens corresponding to the sliding motion of FIG. 7A corresponds to B1, FIG. 7B corresponds to B2, and FIG. 7C corresponds to B3.

2.2 楽曲部分と再生処理
以下、ゲーム内で出力される音が、楽曲情報により表される楽曲である例について説明する。本実施形態におけるゲームシステムでは、プレーヤによるキャラクタCAの操作に基づいて、音の出力制御が行われる。具体的には、楽曲を楽曲部分に分割し、いずれの楽曲部分を再生するかをプレーヤ操作に基づいて決定する。ここでの楽曲部分とは、楽曲を演奏の時間軸方向に分割した一部や楽曲を楽曲パート毎に分割した一部などである。
2.2 Music Portion and Reproduction Processing An example in which the sound output in the game is music represented by music information will be described below. In the game system of this embodiment, sound output control is performed based on the player's operation of the character CA. Specifically, the music is divided into music parts, and which music part is to be reproduced is determined based on the player's operation. Here, the musical piece part is a part obtained by dividing a musical piece in the direction of the time axis of the performance, a part obtained by dividing the musical piece into each musical piece part, and the like.

図8は、楽曲部分を説明する模式図である。楽曲は、一般的に曲調の異なる複数の部分から構成される。例えば、1つの楽曲はイントロ(Intro)、Aメロ(1st Verse)、Bメロ(2nd Verse)、サビ(Chorus)等から構成される。楽曲に応じて、各部分が複数回現れたり、Cメロ(Bridge)が追加されることもあるが、ここではイントロ、Aメロ、Bメロ、サビが時系列的に連続して演奏されることで、1つの楽曲が構成される例について説明する。即ち、イントロ、Aメロ、Bメロ、サビのそれぞれが、時間軸方向での楽曲部分(以下、時間軸楽曲部分と表記)となる。 FIG. 8 is a schematic diagram explaining a music part. A piece of music generally consists of a plurality of parts with different tunes. For example, one piece of music is composed of an intro (Intro), an A melody (1st Verse), a B melody (2nd Verse), a chorus (Chorus), and the like. Depending on the song, each part may appear multiple times or the C melody (bridge) may be added, but here the intro, A melody, B melody, and chorus are played consecutively in chronological order. An example in which one piece of music is composed will now be described. That is, each of the intro, the A melody, the B melody, and the chorus becomes a music portion in the direction of the time axis (hereinafter referred to as a time axis music portion).

また、1つの時間軸楽曲部分(例えばAメロ)に着目した場合、当該時間軸楽曲部分はさらにパートごとに分割できる。以下、パートごとの楽曲部分をパート楽曲部分と表記する。図8の例であれば、パート楽曲部分は「伴奏(リズム)」、「ギター」、「ドラム」、「キーボード」であり、「ギター」は、さらに「ギター1」、「ギター2」、「ギター3」に細分化される。 Also, when focusing on one time-axis music portion (for example, A melody), the time-axis music portion can be further divided into parts. Hereinafter, the music portion for each part will be referred to as a part music portion. In the example of FIG. 8, the musical parts are "accompaniment (rhythm)," "guitar," "drums," and "keyboard," and "guitar" further includes "guitar 1," "guitar 2," and " It is subdivided into "Guitar 3".

時間軸楽曲部分とパート楽曲部分の両方が特定されることで、具体的な音の情報(例えば音符の集合情報、メロディー)が特定される。図8の場合、例えば「Aメロのギターパート1」、「Aメロのドラムパート」、「Aメロのキーボードパート」等のそれぞれに対して、音の情報が対応付けられる。 By specifying both the time axis music portion and the part music portion, specific sound information (for example, group information of musical notes, melody) is specified. In the case of FIG. 8, for example, "A melody guitar part 1", "A melody drum part", "A melody keyboard part", etc. are associated with sound information.

楽曲再生部112は、図8の楽曲部分のうち、いずれの楽曲部分を再生対象とするかの決定処理を行い、決定された楽曲部分の再生処理を行う。具体的には、楽曲再生部112は、時系列楽曲部分のいずれか1つを選択する処理、及びパート楽曲部分の1又は複数を選択する処理を行う。以下、具体的に説明する。 The music reproducing unit 112 performs a process of determining which of the music parts shown in FIG. 8 is to be reproduced, and performs a process of reproducing the determined music part. Specifically, the music reproduction unit 112 performs a process of selecting any one of the time-series music parts and a process of selecting one or more of the part music parts. A specific description will be given below.

2.2.1 時系列楽曲部分の選択処理
本実施形態のゲームシステムでは、フィールドFEを複数のエリアに分割し、各エリアに時間軸楽曲部分を割り当てる。
2.2.1 Selection Processing of Time-Series Music Portion In the game system of this embodiment, the field FE is divided into a plurality of areas, and a time-based music portion is assigned to each area.

図9はフィールドFEに設定されるエリアと、時間軸楽曲部分の対応関係を説明する図である。図9の例では、フィールドFEには5つのエリアAR1~AR5が設定される。AR1は時系列楽曲部分のうち、イントロが対応する。AR2はAメロに対応し、AR3はBメロに対応し、AR4はサビに対応する。AR5はゴール領域であり、楽曲の終了に対応する領域である。なお、AR5をアウトロ(Outro,終結部)に対応させてもよい。 FIG. 9 is a diagram for explaining the correspondence relationship between the areas set in the field FE and the time axis music portion. In the example of FIG. 9, five areas AR1 to AR5 are set in the field FE. AR1 corresponds to the intro of the time series music portion. AR2 corresponds to the A melody, AR3 corresponds to the B melody, and AR4 corresponds to the chorus. AR5 is a goal area, which corresponds to the end of the music. Note that AR5 may correspond to the outro (outro).

楽曲再生部112は、プレーヤの操作するキャラクタCAが存在するエリアを判定し、当該エリアに対応する時系列楽曲部分を再生対象として選択する処理を行う。図9の例であれば、キャラクタCAがエリアAR1に存在すると判定されたらイントロが再生対象となり、キャラクタCAがAR2に存在すると判定されたらAメロが再生対象となる。その他のエリアについても同様である。 The music reproducing unit 112 determines an area in which the player-operated character CA exists, and performs a process of selecting a time-series music part corresponding to the area to be reproduced. In the example of FIG. 9, if it is determined that the character CA exists in the area AR1, then the intro is to be reproduced, and if it is determined that the character CA exists in the AR2, then the A melody is to be reproduced. The same applies to other areas.

なお、具体的な再生位置、例えばAメロの何秒目を再生すればよいかは、例えば経過時間の情報により特定される。例えば、キャラクタCAがAR2にx秒だけ継続して存在している場合、楽曲再生部112は、音出力部192に対してAメロのx秒目の出力を指示する。 A specific reproduction position, for example, the number of seconds of the A melody to be reproduced is specified by, for example, elapsed time information. For example, when the character CA continues to exist in AR2 for x seconds, the music reproducing unit 112 instructs the sound output unit 192 to output the A melody for the x seconds.

楽曲は時系列楽曲部分のそれぞれの長さが決まっている。例えば楽曲情報は、イントロが楽曲開始(0秒)からt1秒まで、Aメロがt1秒からt2秒まで、Bメロがt2秒からt3秒まで、サビがt3秒からt4秒まで、という各時系列楽曲部分の再生タイミング(再生時間)の情報を含む。そのため、当該楽曲についての「良い演奏」とは、イントロ~サビの各時系列楽曲部分を規定の長さだけ再生対象とする演奏である。 In the music, the length of each time series music part is fixed. For example, the song information includes the intro from the beginning of the song (0 seconds) to t1 seconds, the A melody from t1 seconds to t2 seconds, the B melody from t2 seconds to t3 seconds, and the chorus from t3 seconds to t4 seconds. It includes information on the playback timing (playback time) of the affiliated song part. Therefore, a “good performance” of the song is a performance in which each chronological portion of the song from the introduction to the chorus is played back for a specified length.

つまり「良い演奏」を実現するための操作とは、初期存在エリアがAR1であるキャラクタCAを、t1秒経過時にAR2に移動させ、t2秒経過時にAR3に移動させ、t3秒経過時にAR4に移動させ、t4秒経過時にAR5に移動させる、という操作になる。このような操作がプレーヤにより行われた場合、時系列楽曲部分の遷移がスムーズに行われ、プレーヤに爽快感を与えることが可能になる。 In other words, the operation for realizing a "good performance" is to move the character CA whose initial presence area is AR1 to AR2 when t1 seconds have passed, to AR3 when t2 seconds have passed, and to AR4 when t3 seconds have passed. and move to AR5 when t4 seconds have elapsed. When such an operation is performed by the player, the transition of the time-series music portion is smoothly performed, and it is possible to give the player a refreshing feeling.

ただし、望ましい遷移タイミング(上述したt1~t4等)は、楽曲自体を暗記しているプレーヤや、音楽的な知識が豊富なプレーヤでなければ把握が難しく、エリア移動を完全にプレーヤに委ねたのではゲームの難易度が高くなってしまう。よって本実施形態のゲームシステムでは、エリア間の移動をガイドするためのガイドキャラクタをゲーム画面上に表示してもよい。例えば、ガイドキャラクタは、図3(A)に示した3次元空間のうち、ゲーム画面で視認しやすい高い位置を飛んで移動する鳥等の飛行オブジェクトである。 However, the desirable transition timing (such as t1 to t4 mentioned above) is difficult to grasp unless the player has memorized the music itself or has a lot of musical knowledge, so we left the area movement completely to the player. Then the game becomes more difficult. Therefore, in the game system of this embodiment, a guide character for guiding movement between areas may be displayed on the game screen. For example, the guide character is a flying object such as a bird that flies and moves in a high position that is easily visible on the game screen in the three-dimensional space shown in FIG. 3(A).

図9のROは、ガイドキャラクタの移動経路の例である。ROに示したように、ガイドキャラクタは、AR1からAR5を順次移動する。そしてガイドキャラクタは、AR1とAR2の境界である地点P1を楽曲開始からt1秒だけ経過したタイミングで通過するように、移動制御が行われる。同様にガイドキャラクタは、P2をt2秒で通過し、P3をt3秒で通過し、P4をt4秒で通過するように制御される。プレーヤは自身の操作するキャラクタCAをガイドキャラクタに合わせて移動させることで、自然に「良い演奏」を実現することが可能になる。 RO in FIG. 9 is an example of the moving route of the guide character. As shown in RO, the guide character moves sequentially from AR1 to AR5. The movement of the guide character is controlled so that it passes through point P1, which is the boundary between AR1 and AR2, at a timing t1 seconds after the start of the music. Similarly, the guide character is controlled to pass P2 in t2 seconds, P3 in t3 seconds, and P4 in t4 seconds. By moving the character CA operated by the player in accordance with the guide character, the player can naturally achieve a "good performance".

なお、ここではエリア間の移動がいつでも実行可能であることを想定している。ただし、エリア間の移動を制限し、所与の条件が満たされた場合に当該制限を解除する変形実施も可能である。詳細については後述する。 It should be noted that it is assumed here that movement between areas can be executed at any time. However, a modified implementation is also possible in which movement between areas is restricted and the restriction is lifted when a given condition is met. Details will be described later.

2.2.2 パート楽曲部分の選択処理(再生態様の変更制御)
キャラクタCAが所定のエリア(例えばAR3)に存在すると判定され、対応する時系列楽曲部分(例えばBメロ)が再生される際、ギターパートのみが再生対象となる場合に比べて、ギター、ドラム、キーボードの3つのパートが再生対象となる方が、音の厚みが増すため「良い演奏」になると考えられる。或いは、ギターについても1小節に少数の音を演奏する場合に比べて、多数の音を演奏する場合の方が複雑な演奏であり「良い演奏」になると考えられる。なお、音の数は時系列方向で増やすもの(2分音符1つを4分音符2つに変える等)であってもよいし、1タイミングでの音を増やすもの(単音を和音に変える等)であってもよい。
2.2.2 Selection process of part music part (playback mode change control)
When it is determined that the character CA exists in a predetermined area (for example, AR3), and the corresponding time-series music portion (for example, B melody) is reproduced, compared to the case where only the guitar part is to be reproduced, the guitar, drum, If the three parts of the keyboard are played back, the sound will be thicker, so it is considered to be a "good performance". As for the guitar, playing a large number of sounds in one measure is more complicated than playing a small number of sounds in one measure, and is considered to be a "good performance". Note that the number of tones may be increased in the time series direction (such as changing one half note to two quarter notes), or increasing the number of sounds at one timing (such as changing a single note to a chord). ).

本実施形態では、キャラクタCAのオブジェクトOBに対する動作が成功したか否かを判定部116が判定し、楽曲再生部112は、判定結果に基づいてパート楽曲部分の選択処理を行う。オブジェクトOBに対する動作が成功すればするほど、選択されるパート数が増えたり、同じパートであっても単位時間当たり(例えば1小節当たり)の音の数が多い楽曲部分が選択対象となる。 In the present embodiment, the determination unit 116 determines whether or not the action of the character CA on the object OB was successful, and the music playback unit 112 selects the part music portion based on the determination result. As the operation to the object OB succeeds, the number of parts to be selected increases, and even if the part is the same, a music part with a large number of sounds per unit time (for example, per bar) is selected.

例えば本実施形態では、判定部116の判定結果に基づいて、パラメータ(以下、ビートパラメータと記載)を更新する。ビートパラメータは、キャラクタCAのオブジェクトOBに対する動作が成功したと判定された場合に増加し、失敗したと判定された場合に減少(或いは維持)されるパラメータである。 For example, in the present embodiment, parameters (hereinafter referred to as beat parameters) are updated based on the determination result of the determination unit 116 . The beat parameter is a parameter that is increased when the action of the character CA on the object OB is determined to be successful, and is decreased (or maintained) when it is determined to be unsuccessful.

図10は、ビートパラメータと、再生対象として選択されるパート楽曲部分の対応関係の例である。図10に示すように、ビートパラメータがth1未満の場合は、伴奏(リズム)のみが再生対象となる。ここでの伴奏(リズム)とは、ベース等の演奏が行われるパートであってもよいし、単純に拍のタイミング(例えば後述する図17のC1又はC2)で音が出力されるパートであってもよいし、ワルツやボレロ等の楽曲の種類に応じて音の出力タイミングが決定されるパートであってもよい。 FIG. 10 shows an example of the correspondence relationship between beat parameters and part music portions selected for reproduction. As shown in FIG. 10, when the beat parameter is less than th1, only the accompaniment (rhythm) is to be reproduced. The accompaniment (rhythm) here may be a part in which a bass performance is performed, or simply a part in which sounds are output at the timing of beats (for example, C1 or C2 in FIG. 17, which will be described later). Alternatively, it may be a part whose sound output timing is determined according to the type of music such as waltz or bolero.

ビートパラメータがth1以上になると、伴奏(リズム)に加えて、ギター1が再生対象として選択される。ギター1は、ギターパートのうち相対的に音の数が少ない楽曲部分である。ビートパラメータがth1以上th2未満では、伴奏と音の少ないギターパートというシンプルな楽曲が出力される。 When the beat parameter reaches th1 or more, the guitar 1 is selected as a reproduction target in addition to the accompaniment (rhythm). Guitar 1 is a part of a piece of music in which the number of sounds is relatively small among guitar parts. When the beat parameter is greater than or equal to th1 and less than th2, a simple piece of music with accompaniment and a guitar part with few sounds is output.

ビートパラメータがth2以上になると、伴奏(リズム)に加えて、ギター2が再生対象として選択される。ギター2は、ギター1に比べて音の数が多い楽曲部分である。ビートパラメータがth2以上th3未満では、伴奏とギターという組み合わせはth1以上th2未満の場合と同様であるが、ギターの音の数が増えて厚みが増す。 When the beat parameter reaches or exceeds th2, the guitar 2 is selected for playback in addition to the accompaniment (rhythm). Guitar 2 is a part of a piece of music that has more sounds than guitar 1 . When the beat parameter is greater than or equal to th2 and less than th3, the combination of accompaniment and guitar is the same as when the beat parameter is greater than or equal to th1 and less than th2, but the number of guitar sounds increases and the depth increases.

ビートパラメータがth3以上になると、伴奏(リズム)、ギター3及びドラムが再生対象として選択される。ギター3は、ギター2に比べてさらに音の数が多い楽曲部分である。ビートパラメータがth3以上th4未満では、ギターの音が増え、さらに楽器の種類も増えるため、th3未満の場合に比べて音の厚みが増す。 When the beat parameter reaches th3 or more, the accompaniment (rhythm), guitar 3 and drums are selected for reproduction. Guitar 3 is a part of a piece of music that has more sounds than guitar 2 . When the beat parameter is greater than or equal to th3 and less than th4, the sound of the guitar increases and the types of musical instruments increase, so the sound becomes thicker than when the beat parameter is less than th3.

ビートパラメータがth4以上になると、伴奏(リズム)、ギター3、ドラム及びキーボードが再生対象として選択される。この場合、さらに楽器の種類が増えるため、th4未満の場合に比べて音の厚みが増す。 When the beat parameter reaches th4 or more, the accompaniment (rhythm), guitar 3, drums and keyboard are selected for reproduction. In this case, since the types of musical instruments are further increased, the sound is thicker than when the th is less than 4.

オブジェクトOBに対するキャラクタCAの動作が成功したか否かは、オブジェクトOBの種類と、プレーヤによる操作入力(例えばプレーヤが押下したボタンの種類)の組み合わせを判定すればよい。例えば、オブジェクトOB1の前で跳躍系の動作に対応するボタンを押下すれば図4の動作が成功したと判定され、オブジェクトOB2の前でスライディング系の動作に対応するボタンを押下すれば図6の動作が成功する。例えば記憶部170は、オブジェクトの種類と、成功と判定される操作入力を対応付ける対応付け情報を記憶しておき、判定部116は当該対応付け情報を参照して判定処理を実行する。 Whether or not the action of the character CA with respect to the object OB is successful can be determined by determining the combination of the type of the object OB and the operation input by the player (for example, the type of button pressed by the player). For example, if the button corresponding to the jumping motion is pressed in front of the object OB1, it is determined that the motion in FIG. 4 has succeeded. the operation succeeds. For example, the storage unit 170 stores association information that associates the type of object with an operation input that is determined to be successful, and the determination unit 116 refers to the association information to perform determination processing.

下に隙間のないオブジェクトOB1の前でスライディング系の動作に対応するボタンを押下したり、オブジェクトOBに歩いて衝突した場合は動作が失敗したと判定される。なお、オブジェクトOB2は跳躍により飛び越えることも可能であるため、所与の種類のオブジェクトOBに対して、成功と判定される操作入力が複数あることは妨げられない。 If a button corresponding to a sliding motion is pressed in front of an object OB1 that has no space below it, or if the user walks and collides with the object OB, it is determined that the motion has failed. In addition, since the object OB2 can jump over the object OB2, it is possible for a given type of object OB to have a plurality of operation inputs that are determined to be successful.

このように、オブジェクトOBに対するキャラクタCAの動作は、容易なプレーヤ操作により成功させることが可能である。そして図10に示したように、オブジェクトOBに対する操作が成功すれば、音に厚みが出る。つまり本実施形態では、音楽的な知識が無かったりリズム感に乏しいプレーヤでも、容易に「良い演奏」を実現することができ、興趣性の高いゲームシステムを実現可能である。 In this way, the action of the character CA with respect to the object OB can be successfully performed by a simple player operation. Then, as shown in FIG. 10, if the operation on the object OB is successful, the sound will become thicker. In other words, in this embodiment, even a player who has no knowledge of music or lacks a sense of rhythm can easily achieve a "good performance", and a highly entertaining game system can be realized.

なお、以上の説明からわかるように「良い演奏」を実現するには、多数のオブジェクトOBを対象としてキャラクタCAに動作を行わせることが好ましい。しかし図9に示したように、ガイドキャラクタの移動経路ROは比較的シンプルに設定される。そのため、例えば図9の例であればAR21やAR41のように、ガイドキャラクタの移動経路ROからの距離が比較的遠い位置に、広い領域が存在することが考えられる。キャラクタCAの移動をガイドキャラクタの移動経路ROに合わせてしまうと、AR21やAR41等の領域に配置されたオブジェクトOBは、キャラクタCAによる動作の対象から外れてしまう。 As can be seen from the above description, in order to achieve a "good performance", it is preferable to cause the character CA to perform actions targeting a large number of objects OB. However, as shown in FIG. 9, the moving route RO of the guide character is set relatively simply. Therefore, in the example of FIG. 9, for example, it is conceivable that a large area exists at a position relatively far from the movement route RO of the guide character, such as AR21 and AR41. If the movement of the character CA is aligned with the movement route RO of the guide character, the objects OB placed in the areas AR21, AR41, etc. will not be subject to the action of the character CA.

時系列楽曲部分の遷移のみを考えれば、ガイドキャラクタから離れないようにキャラクタCAを移動させればよいが、パート楽曲部分の選択を考慮すれば、あえてガイドキャラクタから離れて、AR21やAR41等の領域のオブジェクトOBでの動作を行う必要が出てくる。本実施形態では、安全を考慮してガイドキャラクタに追従するか、リスクを冒してガイドキャラクタから離れることでさらなる高評価を狙うか、という判断をプレーヤに行わせることで、興趣性の高いゲームシステムを実現できる。 Considering only the transition of the chronological music portion, it is sufficient to move the character CA so as not to leave the guide character. It becomes necessary to perform an operation on the object OB of the area. In this embodiment, the game system is highly entertaining by allowing the player to decide whether to follow the guide character in consideration of safety, or to aim for a higher evaluation by taking a risk and moving away from the guide character. can be realized.

なお、同じオブジェクトOBに対して繰り返し動作を実行する場合はビートパラメータの増加幅を小さくし、新たなオブジェクトOBに対して動作を実行する場合はビートパラメータの増加幅を大きくしてもよい。或いは、ガイドキャラクタの移動経路ROに近いオブジェクトOBに対する動作を実行する場合はビートパラメータの増加幅を小さくし、移動経路ROから遠いオブジェクトOBに対して動作を実行する場合はビートパラメータの増加幅を大きくしてもよい。このようにすれば、ビートパラメータを効率的に上昇させるためには、ガイドキャラクタから離れる必要性が高くなるため、より興趣性の高いゲームシステムを実現できる。 Note that the increment of the beat parameter may be reduced when repeatedly performing an action on the same object OB, and the increment of the beat parameter may be increased when performing an action on a new object OB. Alternatively, when performing an action on an object OB close to the movement route RO of the guide character, the increase width of the beat parameter is reduced, and when performing an action on an object OB far from the movement route RO, the increase width of the beat parameter is reduced. You can make it bigger. In this way, in order to efficiently raise the beat parameter, it becomes more necessary to move away from the guide character, so a more interesting game system can be realized.

図11(A)は本実施形態の処理を説明するフローチャートである。図11(A)は、例えばフレームごとに実行される処理である。この処理が開始されると、ゲーム処理部104は、操作部160に対してプレーヤの操作入力が行われたか否かを判定する(S101)。操作入力が行われた場合(S101でYes)、アニメーション処理部108は、操作入力に対応する動作をキャラクタに実行させるためのアニメーション処理を行う(S102)。S102の詳細については図20等を用いて後述する。 FIG. 11A is a flowchart for explaining the processing of this embodiment. FIG. 11A shows processing executed for each frame, for example. When this process is started, the game processing unit 104 determines whether or not the player has performed an operation input to the operation unit 160 (S101). If an operation input has been performed (Yes in S101), the animation processing unit 108 performs animation processing for causing the character to perform an action corresponding to the operation input (S102). Details of S102 will be described later with reference to FIG. 20 and the like.

S102の処理後、又はS101でNoの場合、ビートパラメータの更新処理が行われる(S103)。図11(B)は、ビートパラメータの更新処理を説明するフローチャートである。この処理では、キャラクタCAのオブジェクトOBに対する動作の判定が行われる(S201)。動作が成功した場合、ビートパラメータを増加させ(S202)、動作が失敗した場合、ビートパラメータを減少させる(S203)。そもそもオブジェクトOBに対する動作が行われていない場合(操作入力自体がなかった場合、操作入力がフィールドFEを歩行、走行するだけの操作であった場合等)、ビートパラメータは変更されない(S204)。なお、上述したように、オブジェクトOBの種類や配置に応じて、ビートパラメータの変更幅を調整してもよい。或いは、動作が連続して成功した場合(コンボが成立した場合)は、単発での成功に比べて増加幅を大きくする等の変形実施も可能である。 After the processing of S102, or if No in S101, update processing of the beat parameters is performed (S103). FIG. 11B is a flow chart for explaining beat parameter update processing. In this process, the action of the character CA with respect to the object OB is determined (S201). If the operation succeeds, the beat parameter is increased (S202), and if the operation fails, the beat parameter is decreased (S203). If no action is performed on the object OB (if there is no operation input, or if the operation input is only to walk or run on the field FE, etc.), the beat parameters are not changed (S204). Note that, as described above, the change width of the beat parameter may be adjusted according to the type and arrangement of the object OB. Alternatively, it is also possible to make a modification such as increasing the range of increase when the actions are successively successful (when a combo is established) compared to single-shot successes.

プレーヤが何も操作していない時間が継続している場合に、厚みのある演奏が継続されてしまうことは好ましくないため、動作の失敗以外の要因でもビートパラメータを減少させる必要がある。しかし、ビートパラメータの値を急激に変化させる(例えば短時間で初期値に戻す)と、厚みのあった演奏が急に伴奏のみに変化することになるため、プレーヤに違和感を与えてしまう。よって本実施形態では、経過時間に関する情報に基づいてビートパラメータを変化させる。 Since it is not desirable for a solid performance to continue when the player does not perform any operation for a long period of time, it is necessary to reduce the beat parameters by factors other than the failure of the movement. However, if the value of the beat parameter is changed abruptly (for example, returned to the initial value in a short period of time), the rich performance suddenly changes to only the accompaniment, giving the player a sense of discomfort. Therefore, in this embodiment, the beat parameters are changed based on the information regarding the elapsed time.

例えばゲーム処理部104は、所定時間の経過ごとに、ビートパラメータを所定値だけ減少させる(S205)。このようにすれば、プレーヤに違和感を与えないようなビートパラメータの管理が可能になる。また、ビートパラメータを高い値に維持するためには、継続的にオブジェクトOBに対する動作を成功させる必要が出てくるため、興趣性の高いゲームシステムを実現することも可能である。 For example, the game processing unit 104 decreases the beat parameter by a predetermined value each time a predetermined time elapses (S205). By doing so, it becomes possible to manage the beat parameters so as not to make the player feel uncomfortable. In addition, in order to keep the beat parameter at a high value, it is necessary to continuously make the motion to the object OB successful, so it is possible to realize a highly entertaining game system.

図11(A)に戻って説明を続ける。ビートパラメータの更新処理が完了したら、楽曲再生部112は、更新後のビートパラメータに基づいて、楽曲制御を行う(S104)。具体的には、キャラクタCAの存在エリアに基づいて時系列楽曲部分を決定し、ビートパラメータに基づいてパート楽曲部分を決定する。 Returning to FIG. 11A, the description continues. When the beat parameter updating process is completed, the music reproducing unit 112 performs music control based on the updated beat parameter (S104). Specifically, the time series music portion is determined based on the area where the character CA exists, and the part music portion is determined based on the beat parameter.

またビートパラメータは、フィールドFEに配置されるオブジェクトOBの制御に利用されてもよい(S105)。 The beat parameters may also be used to control the objects OB placed in the field FE (S105).

2.3 オブジェクト制御
図11(A)のS105に示したオブジェクトOBの制御の例について説明する。オブジェクトOBは、フィールドFEの所定位置に固定配置されることは妨げられない。ただし、オブジェクトOBがあらかじめ固定されている場合、複数のオブジェクトOBをどのような順番で移動していけばよいか、プレーヤにとってわかりにくくなってしまう。
2.3 Object Control An example of control of the object OB shown in S105 of FIG. 11A will be described. The object OB is not prevented from being fixedly arranged at a predetermined position in the field FE. However, when the objects OB are fixed in advance, it becomes difficult for the player to understand in what order the plurality of objects OB should be moved.

よって本実施形態のオブジェクト制御部114は、判定部116での判定結果に基づいて、キャラクタCAの動作対象になっているオブジェクトとは異なるオブジェクトに対する制御を行う。例えば、所与のオブジェクトOBに対する動作が成功した場合に、当該オブジェクトの近傍に次のオブジェクトOBが現れるように、オブジェクトOBの制御(3次元マップの更新処理)を行う。 Therefore, the object control unit 114 of the present embodiment controls an object different from the object to be acted upon by the character CA based on the determination result of the determination unit 116 . For example, when the operation for a given object OB succeeds, the object OB is controlled (three-dimensional map updating process) so that the next object OB appears in the vicinity of the object.

図12は、オブジェクト制御の具体例であり、オブジェクトOB1及びOB2については図3(A)等と同様である。図12では、プレーヤの操作により、キャラクタCAはオブジェクトOB1に対する動作、及びオブジェクトOB2に対する動作を行い、判定部116は動作が成功したと判定した。この場合、オブジェクト制御部114は、動作終了時のキャラクタCAの現在位置より、キャラクタCAの移動方向Vm側の位置に、新たにオブジェクトOB3、OB4を配置する。移動方向Vmは、例えばキャラクタCAの現在位置と、過去の位置との差分を表すベクトルである。新たなオブジェクトOB(OB3,OB4)は、瞬間的に現れてもよいし、フィールドFEの面からせり上がるように現れてもよい。或いは、変形例として後述するように、オブジェクトOBの動きを楽曲に合わせてもよい。 FIG. 12 shows a specific example of object control, and the objects OB1 and OB2 are the same as in FIG. 3A and the like. In FIG. 12, the player's operation causes the character CA to perform an action with respect to the object OB1 and an action with respect to the object OB2, and the determination unit 116 determines that the action was successful. In this case, the object control unit 114 newly arranges the objects OB3 and OB4 at positions on the moving direction Vm side of the character CA from the current position of the character CA at the end of the action. The movement direction Vm is, for example, a vector representing the difference between the current position of the character CA and its past position. A new object OB (OB3, OB4) may appear instantaneously, or may appear as if rising from the surface of the field FE. Alternatively, as described later as a modified example, the movement of the object OB may be matched to the music.

このようにキャラクタの視界内(仮想カメラVCの撮像範囲内、ゲーム画面内)に入るように、次のオブジェクトを配置すれば、プレーヤは次々に現れるオブジェクトOBを対象として順次キャラクタCAの動作を実行すればよく、フィールドFE内を適切に移動することが可能になる。図12の例であれば、プレーヤは、オブジェクトOB2を対象とした操作後、自然にオブジェクトOB3、OB4を対象とした操作を行うことが可能になる。 By arranging the next object so that it falls within the field of view of the character (within the imaging range of the virtual camera VC, within the game screen) in this way, the player sequentially executes the actions of the character CA targeting the objects OB that appear one after another. and it is possible to properly move within the field FE. In the example of FIG. 12, the player can naturally perform operations on objects OB3 and OB4 after performing an operation on object OB2.

なお、フィールドFE内でオブジェクトOBを配置可能な領域と、当該領域に配置されるオブジェクトの種類(形状)があらかじめ固定されていてもよい。この場合、オブジェクトOBの制御とは、各領域についてオブジェクトOBを出現させるか否かの制御となる。また、1つの領域について、配置可能なオブジェクトOBが複数通り設定されており、オブジェクト制御部114は、そのうちのいずれの種類のオブジェクトOBを出現させるかの制御を行ってもよい。或いは、フィールドFEの任意の位置に任意の種類のオブジェクトOBを配置可能にしておき、オブジェクト制御部114は、オブジェクトOBの種類及び配置位置を動的に決定してもよい。 Note that the area in which the object OB can be placed within the field FE and the type (shape) of the object to be placed in the area may be fixed in advance. In this case, the control of the object OB is the control of whether or not the object OB appears in each area. Also, a plurality of types of objects OB that can be placed are set for one area, and the object control unit 114 may control which type of object OB is to appear. Alternatively, any type of object OB can be placed at any position in the field FE, and the object control unit 114 may dynamically determine the type and placement position of the object OB.

広義には、オブジェクトの制御には、ゲームの進行履歴が用いられる。ゲームの進行履歴とは、キャラクタの進行方向、及びプレーヤの操作入力の結果を含む。上記の例であれば、オブジェクトOB1やOB2に対する動作が成功したという操作入力の結果が取得された場合に、キャラクタの進行方向に新たなオブジェクト(OB3,OB4)を配置するオブジェクト制御が行われる。ただし、他の進行履歴を用いてオブジェクトOBの制御が行われてもよい。例えば、オブジェクト制御部114は、ゲームの経過時間に基づいて、オブジェクトの制御を行う。 In a broad sense, the progress history of the game is used for object control. The progress history of the game includes the progress direction of the character and the result of the player's operation input. In the above example, when the result of the operation input indicating that the action on the object OB1 or OB2 is successful, object control is performed to place new objects (OB3, OB4) in the character's advancing direction. However, other progress histories may be used to control the object OB. For example, the object control unit 114 controls objects based on the elapsed time of the game.

例えば図9の例において、キャラクタCAがエリアAR2に存在する場合を考える。演奏開始からの経過時間Tがt1<T<t2であり、且つTとt2の差が十分大きい場合、キャラクタCAはある程度の時間エリアAR2に留まる余裕があり、AR3への移動を急ぐ必要がない。この場合、オブジェクト制御部114は、エリアAR3からの距離が相対的に遠い位置に次のオブジェクトOBを配置する制御を行う。このようにすれば、エリアAR2内に効率的にオブジェクトOBを配置し、キャラクタCAのオブジェクトOBに対する動作回数を増やすことが可能になる。 For example, in the example of FIG. 9, consider the case where the character CA exists in the area AR2. If the elapsed time T from the start of the performance satisfies t1<T<t2 and the difference between T and t2 is sufficiently large, the character CA can afford to stay in the area AR2 for a certain amount of time, and there is no need to rush to move to AR3. . In this case, the object control unit 114 performs control to arrange the next object OB at a position relatively far from the area AR3. By doing so, it is possible to efficiently arrange the object OB in the area AR2 and increase the number of actions of the character CA with respect to the object OB.

Tとt2の差が小さい場合、時系列楽曲部分の遷移を考慮すれば、AR3への移動を念頭においたキャラクタCAの操作を、プレーヤに実行させるとよい。この場合、オブジェクト制御部114は、エリアAR3からの距離が相対的に近い位置に次のオブジェクトOBを配置する制御を行う。このようにすれば、キャラクタCAのエリアAR3への移動をスムーズに行わせることが可能になる。このように経過時間を考慮してオブジェクトOBを制御することで、ゲーム初心者であっても、時系列楽曲部分の遷移と、パート楽曲部分の選択のバランスがとれた、好ましい演奏を実現することが可能になる。 When the difference between T and t2 is small, it is preferable to have the player perform the operation of the character CA with the movement to AR3 in mind, considering the transition of the time-series music portion. In this case, the object control unit 114 performs control to place the next object OB at a position relatively close to the area AR3. By doing so, it is possible to smoothly move the character CA to the area AR3. By controlling the object OB in consideration of the elapsed time in this way, even a beginner of the game can realize a favorable performance with a good balance between the transition of the chronological music portion and the selection of the part music portion. be possible.

或いは、オブジェクト制御部114は、一旦出現させたオブジェクトOBを所定時間の経過を条件に消失させる(非配置とする)制御を行ってもよい。このようにすれば、プレーヤはオブジェクトOBの出現後、速やかに当該オブジェクトOBの位置まで移動しなければ動作を実行できない。換言すれば、プレーヤがスムーズにキャラクタ操作を行った場合に、多数のオブジェクトOBで動作を行って楽曲の音を厚くすることが可能になり、興趣性の高いゲームシステムを実現できる。 Alternatively, the object control unit 114 may perform control to cause the object OB that has once appeared to disappear (to be unplaced) on condition that a predetermined time has elapsed. In this way, after the object OB appears, the player must quickly move to the position of the object OB to perform the action. In other words, when the player smoothly operates the character, it is possible to make the sound of the music thicker by performing actions with a large number of objects OB, thereby realizing a highly entertaining game system.

また、プレーヤの操作入力の結果に基づくオブジェクト制御とは、キャラクタCAのオブジェクトOBに対する動作が成功した場合に次のオブジェクトOBを追加し、失敗した場合に追加しない、といった単純な制御であってもよい。ただし、プレーヤの操作入力の結果として、より複雑な情報、例えば上述したビートパラメータの値を用いてもよい。 Further, the object control based on the result of the player's operation input may be a simple control such as adding the next object OB if the action of the character CA on the object OB succeeds, and not adding it if it fails. good. However, more complex information, such as the beat parameter values described above, may be used as a result of the player's operational input.

例えばオブジェクト制御部114は、ビートパラメータが高い場合には、低い場合に比べて追加されるオブジェクトOBの数を多くしたり、追加されるオブジェクトOBの形状を複雑にする。このようにすれば、ビートパラメータが高いほど、追加されるオブジェクトOBに対するキャラクタCAの動作回数が増えたり、実行する動作が複雑に(派手に)なる。つまり、それまでの操作がうまくいっているほど、キャラクタCAに派手な動作を繰り出させることが可能になるため、興趣性の高いゲームシステムを実現できる。 For example, when the beat parameter is high, the object control unit 114 increases the number of objects OB to be added or makes the shapes of the objects OB to be added more complicated than when the beat parameter is low. In this way, the higher the beat parameter, the greater the number of actions of the character CA with respect to the object OB to be added, and the more complex (flashy) the action to be executed. In other words, the more successful the operation up to that point is, the more flashy the character CA can be made to perform, thus realizing a highly entertaining game system.

図13は、オブジェクト制御部114での処理を説明するフローチャートであり、図11(A)のS105の処理に対応する。この処理が開始されると、オブジェクト制御部114は、ゲーム進行履歴を取得する(S301)。具体的には、ゲームの経過時間、キャラクタの進行方向、及びプレーヤの操作入力の結果を取得する。 FIG. 13 is a flowchart for explaining the processing in the object control unit 114, and corresponds to the processing of S105 in FIG. 11(A). When this process is started, the object control unit 114 acquires the game progress history (S301). Specifically, the elapsed time of the game, the character's advancing direction, and the result of the player's operation input are obtained.

次にオブジェクト制御部114は、取得したゲーム進行履歴に基づいて、オブジェクトの配置位置の決定(S302)、及び追加配置するオブジェクトOBの数、種類の決定を行う(S303)。そしてオブジェクト制御部は、S302及びS303で決定した内容に基づいて、オブジェクトOBを実際に配置する処理、即ち3次元マップの更新処理を行う(S304)。 Next, the object control unit 114 determines the placement positions of objects (S302) and the number and type of objects OB to be additionally placed (S303) based on the acquired game progress history. Then, the object control unit performs the process of actually arranging the object OB based on the contents determined in S302 and S303, that is, the process of updating the three-dimensional map (S304).

2.4 アニメーション処理
以上で説明した手法により、キャラクタCAに種々の動作を行わせることで、自然に楽曲を演奏している感覚をプレーヤに与えることが可能になる。従来の音楽ゲームのように「良い演奏」のために複雑な操作が必要なく、また動作自体がアクロバティックであるため、プレーヤに強い爽快感を与えることが可能である。
2.4 Animation Processing By making the character CA perform various actions according to the method described above, it is possible to give the player the feeling of naturally playing a piece of music. Unlike conventional music games, complicated operations are not required for a "good performance", and the actions themselves are acrobatic, so it is possible to provide players with a strong sense of exhilaration.

しかし、キャラクタCAが実行する動作には、当該動作において特徴的なタイミング(フレーム、姿勢)が存在する。例えば図4~図5(C)に示した跳躍動作であれば、オブジェクトOB1の上面に左手を付いて両足を振り上げる姿勢(A2)が特徴的である。そのため、A2(図5(B))等の動作における特徴的なタイミング(以下、動作特徴タイミング)と、楽曲における特徴的なタイミング(以下、楽曲特徴タイミング)とが一致することが望ましい。動作特徴タイミングと楽曲特徴タイミングとの時間差が大きい場合、動作と楽曲の連動性が損なわれ、動作を用いて楽曲を演奏しているという感覚をプレーヤに与えることが難しくなってしまう。 However, the motions executed by the character CA have characteristic timings (frames, postures) in the motions. For example, the jumping motion shown in FIGS. 4 to 5C is characterized by a posture (A2) where the left hand is placed on the upper surface of the object OB1 and both legs are raised. Therefore, it is desirable that the characteristic timing (hereinafter referred to as motion characteristic timing) of the motion such as A2 (FIG. 5B) and the characteristic timing of the music (hereinafter referred to as music characteristic timing) match. If the time difference between the motion feature timing and the music feature timing is large, the linkage between the motion and the music is lost, and it becomes difficult to give the player the feeling that the music is being played using the motion.

楽曲に合わせて動作するキャラクタアニメーションについては特許文献2に開示がある。しかし、特許文献2ではキャラクタの動作とプレーヤ操作が関連しないため、楽曲が決定された段階で当該楽曲に適したアニメーションを決定できる。それに対して本実施形態では、キャラクタCAの動作はプレーヤの操作入力に基づいて決定される。楽曲のどのタイミングで、どのような動作が実行されるかを事前に知ることができないため、特許文献2の手法を適用することは困難である。 Japanese Unexamined Patent Application Publication No. 2002-200010 discloses a character animation that moves in time with a piece of music. However, in Japanese Unexamined Patent Application Publication No. 2002-200013, since the character's actions are not related to the player's operation, an animation suitable for the music can be determined at the stage when the music is determined. In contrast, in this embodiment, the action of the character CA is determined based on the player's operation input. Since it is not possible to know in advance what kind of operation will be performed at what timing of the music, it is difficult to apply the technique of Patent Document 2.

以下、キャラクタの動作と楽曲とをシンクロさせるためのアニメーション処理について説明する。 Animation processing for synchronizing character actions and music will be described below.

2.4.1 基本的なアニメーション処理
アニメーション処理部108はアニメーション処理を行う。即ちキャラクタCAにアニメーション(モーション)を行わせるアニメーション再生処理を行う。このアニメーション再生処理は、アニメーション情報記憶部174に記憶されているアニメーション情報を再生することなどで実現できる。
2.4.1 Basic animation processing The animation processing unit 108 performs animation processing. That is, animation reproduction processing is performed to cause the character CA to perform animation (motion). This animation reproduction processing can be realized by reproducing the animation information stored in the animation information storage unit 174 or the like.

例えば図14に示すように、キャラクタCA等を表すモデルオブジェクトMOBは、複数のパーツオブジェクト(腰32、胸34、首36、頭38、右上腕40、右前腕42、右手44、左上腕46、左前腕48、左手50、右股52、右すね54、右足56、左股58、左すね60、左足62)により構成されている。そして、これらのパーツオブジェクト(部位)の位置や回転角度(方向)は、スケルトンモデルを構成する骨B0~B19の位置(関節J0~J15の位置)や回転角度(親の骨に対する子の骨の相対的な回転角度)により特定される。なお、これらの骨、関節は仮想的なものであり、現実に表示されるオブジェクトではない。 For example, as shown in FIG. 14, a model object MOB representing a character CA or the like includes a plurality of part objects (waist 32, chest 34, neck 36, head 38, right upper arm 40, right forearm 42, right hand 44, left upper arm 46, Left forearm 48, left hand 50, right crotch 52, right shin 54, right leg 56, left crotch 58, left shin 60, left leg 62). The positions and rotation angles (directions) of these part objects (parts) are the positions (positions of joints J0 to J15) and rotation angles (child bones relative to parent bones) of bones B0 to B19 that make up the skeleton model. relative rotation angle). Note that these bones and joints are virtual and not objects that are actually displayed.

アニメーション情報記憶部174には、例えば、これらの骨(パーツオブジェクト、関節)の位置、回転角度がアニメーション情報(モーション情報)として記憶される。具体的には図15に示すように、親の骨BMPに対する子の骨BMCの、X軸、Y軸、Z軸回りの回転角度α、β、γ等が、アニメーション情報として記憶される。 The animation information storage unit 174 stores, for example, the positions and rotation angles of these bones (part objects, joints) as animation information (motion information). Specifically, as shown in FIG. 15, rotation angles α, β, γ, etc. of the child bone BMC about the X, Y, and Z axes with respect to the parent bone BMP are stored as animation information.

なお、アニメーション情報の構造等は、図14、図15に限定されず、種々の変形実施が可能である。例えば骨の回転角度だけをアニメーション情報に含ませて、骨の位置(関節の位置)についてはモデルオブジェクトのモデルデータの中に含ませてもよい。また図14の骨B1~B19以外に、モーション骨によるモデルオブジェクトの変形を補助する補助骨を設けてもよい。 Note that the structure of the animation information and the like are not limited to those shown in FIGS. 14 and 15, and various modifications are possible. For example, only the bone rotation angles may be included in the animation information, and the bone positions (joint positions) may be included in the model data of the model object. In addition to the bones B1 to B19 in FIG. 14, auxiliary bones may be provided to assist deformation of the model object by the motion bones.

図16に本実施形態で使用されるアニメーション情報のデータ構造の例を示す。1つのアニメーション情報は、例えば時系列的に並べられた複数の姿勢データの集合であり、姿勢データは例えば各骨の回転角度を表すデータの集合である。図16は、図4に示した跳躍動作を実現するためのアニメーション情報の例であり、当該跳躍動作は0~N(Nは正の整数)の各フレームにおいて、キャラクタCAに対応する姿勢を取らせることで実現される。例えば図16の0フレーム目が図4のA1に対応し、k(kは1<k<Nの整数)フレーム目がA2に対応し、Nフレーム目がA3に対応する。 FIG. 16 shows an example of the data structure of animation information used in this embodiment. A piece of animation information is, for example, a set of a plurality of posture data arranged in chronological order, and the posture data is, for example, a set of data representing the rotation angle of each bone. FIG. 16 is an example of animation information for realizing the jumping motion shown in FIG. This is achieved by For example, the 0th frame in FIG. 16 corresponds to A1 in FIG. 4, the k (k is an integer of 1<k<N) frame corresponds to A2, and the Nth frame corresponds to A3.

またアニメーション情報は、キーフレームの情報を含む。キーフレームとは、当該アニメーション情報に対応するキャラクタCAの動作における、動作特徴タイミングを表すフレームのことである。例えば図16のアニメーション情報は、A2に対応するkフレーム目がキーフレームであるという情報を含んでいる。即ち、処理対象(再生対象)であるアニメーション情報が決定されれば、当該アニメーション情報内でのキーフレームの位置、例えば「アニメーションの再生開始からkフレーム目」という相対的なタイミングを特定可能である。 The animation information also includes keyframe information. A key frame is a frame that represents the motion characteristic timing in the motion of the character CA corresponding to the animation information. For example, the animation information in FIG. 16 includes information that the k-th frame corresponding to A2 is a key frame. That is, once the animation information to be processed (reproduced) is determined, it is possible to specify the position of the key frame in the animation information, for example, the relative timing of "the kth frame from the start of animation reproduction". .

一方、楽曲側にも特徴的なタイミングが存在する。楽曲特徴タイミングは、例えば楽曲の拍のタイミングである。拍とは楽曲における基本的なリズムであって、拍のタイミングとは、4/4拍子の例であれば、図17のC1のタイミングや、図17のC2に示す裏拍と呼ばれるタイミングである。なお、具体的なタイミング間隔(拍の長さ、テンポ)は楽曲の速さ(BPMの値)に応じて変化する。特徴的なタイミングは楽曲の構成に依存することになるが、楽曲が特定されれば当該楽曲における楽曲特徴タイミングは特定可能である。なお、時系列楽曲部分に応じて楽曲特徴タイミングが変化する楽曲を用いてもよく、時系列楽曲部分に基づいて楽曲特徴タイミングが特定されてもよい。 On the other hand, there are characteristic timings on the music side as well. The music characteristic timing is, for example, the beat timing of the music. A beat is the basic rhythm of a piece of music, and the timing of the beat is the timing of C1 in FIG. 17 or the timing of the back beat shown in C2 in FIG. 17 in the case of a 4/4 time signature. . Note that the specific timing interval (beat length, tempo) changes according to the speed of the music (BPM value). The characteristic timing depends on the structure of the music, but if the music is specified, the music characteristic timing in the music can be specified. It should be noted that a piece of music whose music characteristic timing changes according to the time-series music portion may be used, or the music characteristic timing may be specified based on the time-series music portion.

図18は、楽曲特徴タイミングと動作特徴タイミング(アニメーション情報のキーフレーム)の関係を示す図である。図18の横軸は実時間であり、例えばゲーム開始からの経過時間(単位:msec)である。楽曲の再生が途中で停止することがないと仮定すれば、経過時間軸上での楽曲特徴タイミングの位置は、楽曲の再生開始時点で特定可能である。 FIG. 18 is a diagram showing the relationship between music feature timings and action feature timings (keyframes of animation information). The horizontal axis of FIG. 18 is real time, for example, elapsed time (unit: msec) from the start of the game. Assuming that the reproduction of the music does not stop in the middle, the position of the music feature timing on the elapsed time axis can be specified at the time of starting the reproduction of the music.

またアニメーション処理部108は、プレーヤの操作入力に基づいて、再生対象であるアニメーション情報の特定、及び、当該アニメーション情報の再生開始タイミングの特定処理を行う。具体的には、キャラクタCAの近傍に位置するオブジェクトOBの種類と、プレーヤによる操作入力の種類(例えば押下されたボタンの種類)に基づいて、再生対象であるアニメーション情報が特定される。また、プレーヤによる操作入力が実行されたタイミングに基づいて、アニメーション情報の再生開始タイミングが特定される。 Also, the animation processing unit 108 performs processing for identifying animation information to be reproduced and for identifying the reproduction start timing of the animation information based on the player's operation input. Specifically, the animation information to be reproduced is specified based on the type of the object OB positioned near the character CA and the type of operation input by the player (for example, the type of button pressed). Further, the reproduction start timing of the animation information is specified based on the timing at which the operation input by the player is executed.

図18では、tのタイミングを開始タイミングとして、図16に示したアニメーション情報を再生する、という特定処理が行われた例を示している。フレームレートはゲームシステムの設計上既知であるため、経過時間軸上での各フレームの位置を特定することは容易である。或いは、アニメーション情報自体が、フレーム単位ではなく時間単位(例えばmsec単位)で姿勢データを保持していてもよい。 FIG. 18 shows an example in which specific processing is performed to reproduce the animation information shown in FIG. 16 with the timing tS as the start timing. Since the frame rate is known in designing the game system, it is easy to specify the position of each frame on the elapsed time axis. Alternatively, the animation information itself may hold posture data in units of time (for example, in units of msec) instead of in units of frames.

図18に示すように、経過時間軸上でのキーフレームの位置(t)と、楽曲特徴タイミング(tm1~tm5)は一致しない。そのため、ここままアニメーション情報の再生処理を行うと、動作と楽曲の連動性が損なわれる。 As shown in FIG. 18, the keyframe position (t K ) on the elapsed time axis does not match the music feature timing (tm1 to tm5). Therefore, if the animation information is reproduced as it is, the linkage between the motion and the music will be lost.

そこで本実施形態のタイミング処理部110は、基準タイミング、及び音のタイミングの特定処理を行い、アニメーション処理部108は、音のタイミングに合わせて、キャラクタCA(広義には移動体)のアニメーション処理を行う。より具体的には、アニメーション処理部108は、音のタイミングに基づいて、アニメーション処理に用いられるアニメーション情報の調整処理を行うものであり、音のタイミング情報に合わせてキャラクタCAが動作するように、調整処理を行う。 Therefore, the timing processing unit 110 of the present embodiment performs processing for specifying the reference timing and the timing of the sound, and the animation processing unit 108 performs animation processing for the character CA (moving body in a broad sense) in accordance with the timing of the sound. conduct. More specifically, the animation processing unit 108 adjusts animation information used for animation processing based on sound timing. Perform adjustment processing.

図19は、調整処理を説明する図である。図18に示したように、tを開始タイミングとして単純に図16のアニメーション情報の再生処理を行った場合、キーフレームの再生タイミングは、いずれの楽曲特徴タイミングとも一致しない。 FIG. 19 is a diagram illustrating adjustment processing. As shown in FIG. 18, when the animation information reproduction process of FIG. 16 is simply performed with tS as the start timing, the reproduction timing of the keyframe does not match any music feature timing.

よって本実施形態では、タイミング処理部110は、まずキーフレームの再生タイミングを基準タイミングとして特定する。そしてタイミング処理部110は、基準タイミングに基づいて、調整先となる楽曲特徴タイミングである音のタイミングを特定する。図19の例であれば、基準タイミングとは調整前のキーフレームの再生タイミングであるtであり、再生開始タイミングtとアニメーション情報(図16)から特定可能である。また、音のタイミングtとは、基準タイミングより時間的に後、且つ、基準タイミングに近い楽曲特徴タイミングであり、例えばt=tm3である。ただし、tm4やtm5が音のタイミングとなることは妨げられない。 Therefore, in this embodiment, the timing processing unit 110 first identifies the reproduction timing of the key frame as the reference timing. Based on the reference timing, the timing processing unit 110 then identifies the timing of the sound, which is the music characteristic timing to be adjusted. In the example of FIG. 19, the reference timing is tK , which is the reproduction timing of the key frame before adjustment, and can be specified from the reproduction start timing tS and the animation information (FIG. 16). Also, the timing tM of the sound is the music feature timing temporally later than the reference timing and close to the reference timing, for example, tM = tm3 . However, it is not prevented that tm4 or tm5 becomes the timing of the sound.

アニメーション処理部108は、特定された基準タイミングtを、音のタイミングtに一致させるような調整処理を行う。なお、ここでの一致させる処理とは、完全一致させる処理に限定されず、プレーヤに違和感を与えない程度に時間差を小さくする処理を含む。 The animation processing unit 108 performs adjustment processing such that the identified reference timing tK is matched with the sound timing tM . Note that the process of matching here is not limited to the process of perfect matching, and includes the process of reducing the time difference to the extent that the player does not feel uncomfortable.

単純な調整処理としては、(1)アニメーションの再生開始タイミングを遅らせる処理、(2)キーフレームよりも前の所定範囲をスロー再生する処理、(3)キーフレーム前の所与のフレームをコピーして追加する処理、等が考えられる。(1)~(3)は、いずれも基準タイミングを時間的に後方にずらす処理であるため、ずれ量を基準タイミングと音のタイミングの時間差に合わせることで、基準タイミングと音のタイミングを一致させられる。 Simple adjustment processing includes (1) processing to delay the start timing of animation playback, (2) processing to slow-play a predetermined range before the keyframe, and (3) copying a given frame before the keyframe. , and the like are conceivable. Since all of (1) to (3) are processes for shifting the reference timing backward in terms of time, by matching the shift amount to the time difference between the reference timing and the sound timing, the reference timing and the sound timing are matched. be done.

しかし、上記(1)~(3)の処理では、キャラクタCAの動作が不自然になる場面も出てくる。例えば(1)の処理では、プレーヤが操作を行ってからキャラクタCAが動き出すまでのタイムラグが大きくなる。また(2)の処理では、キャラクタCAの動作が遅くなるし、(3)の処理では、キャラクタCAの動作が所定姿勢で一時停止する。例えば格闘ゲームにおいて、腕を前方に打ち抜くパンチアニメーションを再生する場合、前方へ腕を振り出す動作がスロー再生されてはパンチの迫力に欠けるし、途中で腕が停止してしまっては攻撃アニメーションとして明らかに不自然である。 However, in the above processes (1) to (3), there are scenes where the movement of the character CA becomes unnatural. For example, in the process (1), the time lag from the player's operation to the start of the character CA increases. Further, in the process (2), the action of the character CA is slowed down, and in the process (3), the action of the character CA is temporarily stopped in a predetermined posture. For example, in a fighting game, when playing back a punch animation in which the arm is punched forward, if the action of swinging the arm forward is played back in slow motion, the punch lacks impact, and if the arm stops midway, it will not be considered as an attack animation. Clearly unnatural.

よって本実施形態の調整処理は、調整後のアニメーションが不自然とならないように行われることが望ましい。例えば、(1)の調整処理は、動き出しまでのタイムラグが小さい場合、具体的には基準タイミングと音のタイミングの時間差(例えば調整前のtとtの差)がある程度小さい場合に用いられる。 Therefore, it is desirable that the adjustment processing of the present embodiment be performed so that the animation after adjustment does not look unnatural. For example, the adjustment process (1) is used when the time lag until the movement starts is small, specifically when the time difference between the reference timing and the sound timing (for example, the difference between tK and tM before adjustment) is relatively small. .

(2)の調整処理は、スロー再生されても違和感を与えないような動作範囲を対象として実行される。例えば、パンチアニメーションにおいて、腕を振りかぶるテイクバック動作は多少ゆっくりでも問題無い。よってテイクバック動作に対応するフレーム範囲を対象として、(2)の調整処理を実行するとよい。スロー再生する処理は、具体的には補間処理を行ってフレームを追加する処理により実現できる。例えば各アニメーション情報は、(2)の調整処理の対象とできるフレーム範囲や、各フレーム範囲の調整可能幅の情報を含んでもよい。ここでの調整可能幅とは、広義には、当該フレーム範囲の動作をどの程度間延びさせても不自然にならないかを表すパラメータである。 The adjustment process of (2) is executed for a range of motion that does not give a sense of discomfort even if slow playback is performed. For example, in the punch animation, there is no problem even if the take-back motion of swinging the arm is slightly slow. Therefore, it is preferable to execute the adjustment process (2) for the frame range corresponding to the take-back motion. The processing for slow playback can be realized specifically by performing interpolation processing and adding frames. For example, each piece of animation information may include information about the frame range that can be subjected to the adjustment process (2) and the adjustable width of each frame range. The adjustable width here is, in a broad sense, a parameter that indicates how long the motion in the frame range can be stretched without becoming unnatural.

また、(3)の調整処理は、同じ姿勢が継続されても違和感を与えないようなフレームを対象として実行される。例えばパンチアニメーションにおいて、テイクバック後、且つ腕を振り出す前の姿勢で停止することは、力をためる動作、狙いを定める動作と捉えられるため不自然でない。よって当該フレームをコピー対象として(3)の調整処理を行うとよい。また、コピー対象は1フレームに限定されず、複数のフレームを対象としてもよい。例えば図4の跳躍動作の場合、助走の歩数を増やせばキーフレームの再生タイミングを遅らせることができ、且つ、歩数が増えることは動作として不自然でない。よって助走の2歩に対応するフレーム区間をコピーの対象として(3)の調整処理を行ってもよい。コピーしたフレームの追加箇所や、踏み切る足、動作開始時に踏み出す足等の調整まで考慮すれば、助走の1歩に対応するフレーム区間をコピーの対象とすることも妨げられない。各アニメーション情報は、(3)の調整処理の対象とできるフレーム(フレーム範囲)の情報を含んでもよい。 Further, the adjustment process (3) is executed for frames that do not cause discomfort even if the same posture is continued. For example, in a punch animation, it is not unnatural to stop in a posture after the take-back and before the arm is swung out, because it is regarded as an action to accumulate strength and an action to aim. Therefore, it is preferable to perform the adjustment process (3) with the frame as a copy target. Also, the copy target is not limited to one frame, and may be a plurality of frames. For example, in the case of the jumping motion shown in FIG. 4, the key frame reproduction timing can be delayed by increasing the number of running steps, and an increase in the number of steps is not unnatural as a motion. Therefore, the adjustment process of (3) may be performed with the frame section corresponding to the two steps of the run-up as the copy target. Taking into consideration the added part of the copied frame, the foot to take off, the foot to step at the start of the movement, etc., it is possible to copy the frame section corresponding to one step of the approach run. Each piece of animation information may include information on frames (frame range) that can be subjected to the adjustment process (3).

また、(2)と(3)の調整処理を組み合わせることも妨げられない。例えば、助走の歩数を増やす(3)の調整処理を行いつつ、助走のピッチを変更する(2)の調整処理を行う。このようにすれば、キャラクタCAに自然な動作を行わせつつ、キーフレームの再生タイミングを柔軟に変更することが可能になる。当然、(1)の調整処理との組み合わせも妨げられない。 It is also possible to combine the adjustment processes (2) and (3). For example, the adjustment process (2) of changing the pitch of the approach run is performed while the adjustment process (3) of increasing the number of steps of the approach run is performed. By doing so, it is possible to flexibly change the reproduction timing of the key frames while allowing the character CA to perform natural movements. Naturally, the combination with the adjustment processing of (1) is also not prevented.

図20は、アニメーション処理を説明するフローチャートである。図20は、図11(A)のS102の処理に対応する。この処理が開始されると、S101での操作入力に基づく操作情報が取得される(S401)。S401での処理は、例えばプレーヤにより押下されたボタンを特定する情報の取得処理である。 FIG. 20 is a flowchart for explaining animation processing. FIG. 20 corresponds to the process of S102 in FIG. 11(A). When this process is started, operation information based on the operation input in S101 is acquired (S401). The processing in S401 is, for example, acquisition processing of information specifying the button pressed by the player.

またキャラクタCAの存在エリアに基づいて、再生対象となる時系列楽曲部分が特定される(S402)。なお、図20には不図示であるが、再生対象となるパート楽曲部分が特定されてもよい。この処理は、楽曲再生部112で行われる。また、楽曲自体から楽曲特徴タイミングが特定可能である場合、S402の処理は省略可能である。 Also, based on the area in which the character CA exists, the time-series music portion to be reproduced is specified (S402). In addition, although not shown in FIG. 20, a part music portion to be played back may be specified. This processing is performed by the music reproducing unit 112 . Further, if the music feature timing can be specified from the music itself, the processing of S402 can be omitted.

アニメーション処理部108は、キャラクタCAの近傍に位置するオブジェクトOBと、S401で取得した操作情報に基づいて、処理対象となるアニメーション情報を決定する(S403)。タイミング処理部110は、図18に示したように、基準タイミング(t)と、音のタイミング(t)を決定する(S404、S405)。 The animation processing unit 108 determines animation information to be processed based on the object OB positioned near the character CA and the operation information acquired in S401 (S403). The timing processing unit 110 determines the reference timing (t K ) and the sound timing (t M ) as shown in FIG. 18 (S404, S405).

アニメーション処理部108は、S404で決定された基準タイミングを、S405で決定された音のタイミングに一致させるように、アニメーション情報の調整処理を行う(S406)。S406の処理は、上述したように、動作が不自然にならないようなスロー再生(補間処理)や、所定フレーム(フレーム区間)のコピーにより実現できる。アニメーション処理部108は、調整処理後のアニメーション情報の再生処理を行う(S407)。 The animation processing unit 108 adjusts the animation information so that the reference timing determined in S404 matches the sound timing determined in S405 (S406). As described above, the processing of S406 can be realized by slow playback (interpolation processing) that does not make the motion unnatural, or by copying a predetermined frame (frame section). The animation processing unit 108 performs reproduction processing of the animation information after adjustment processing (S407).

2.4.2 アニメーション情報の決定処理
以上では、図20のS403に示したように、オブジェクトOBと操作情報に基づいて処理対象のアニメーション情報が1つに特定(決定)される例を示した。しかし、アニメーション情報の決定処理は種々の変形実施が可能である。
2.4.2 Animation Information Determination Processing In the above, as shown in S403 of FIG. 20, an example was shown in which one piece of animation information to be processed is specified (determined) based on the object OB and operation information. . However, the animation information determination process can be modified in various ways.

図21は、アニメーション情報記憶部174に記憶されるアニメーション情報の例であり、1行が1つのアニメーション情報に対応する。各アニメーション情報は、ファイル名と、動作属性、キーフレームの情報を含む。また図21では省略しているが、各アニメーション情報は、図16に示したように、各フレームでの姿勢(骨の位置、回転角度)の情報を含む。また調整処理において上述したように、アニメーション情報は、調整処理の対象として選択可能なフレーム等の情報を含んでもよい。 FIG. 21 shows an example of animation information stored in the animation information storage unit 174, and one line corresponds to one piece of animation information. Each piece of animation information includes a file name, motion attributes, and keyframe information. Although not shown in FIG. 21, each piece of animation information includes posture (bone position, rotation angle) information in each frame, as shown in FIG. Also, as described above in the adjustment process, the animation information may include information such as frames that can be selected as targets for the adjustment process.

図21に示すように、キャラクタCAに跳躍を行わせるアニメーションは1つに限定されず、FA1、FA2…のように複数のアニメーション情報が存在する。例えばパルクールでは、片足を跳躍対象物に載せるセーフティヴォルト、横方向から跳躍対象物に進入するスピードヴォルト、両手を跳躍対象物について当該手の間に両足を通すコングヴォルト等、多数の跳躍技が知られている。例えばキャラクタCAにセーフティヴォルトを行わせるアニメーション情報をFA1、スピードヴォルトを行わせるアニメーション情報をFA2、といったように、アニメーション情報記憶部174は、それぞれの跳躍動作を1つのアニメーション情報として管理する。 As shown in FIG. 21, the animation for causing the character CA to jump is not limited to one, and there are a plurality of pieces of animation information such as FA1, FA2, and so on. For example, in parkour, many jumping techniques are known, such as the safety vault that puts one foot on the jumping object, the speed vault that enters the jumping object from the side, and the cong vault that passes both hands between the hands of the jumping object. It is For example, the animation information for causing the character CA to perform a safety vault is FA1, and the animation information for performing a speed vault is FA2.

スライディングについても同様であり、図6のように膝を曲げて上半身を反らせるようなスライディング動作だけでなく、進行方向に足を延ばすフットファーストスライディングや、進行方向に対して両手を前に出すヘッドスライディング等が考えられる。アニメーション情報記憶部174は、それぞれが1つのスライディング動作を表すアニメーション情報を複数記憶する(FB1,FB2等)。 The same is true for sliding, as shown in Figure 6, where the knees are bent and the upper body is arched, as well as foot-first sliding, in which the legs are extended in the direction of travel, and head sliding, in which both hands are placed forward in the direction of travel. etc. can be considered. The animation information storage unit 174 stores a plurality of pieces of animation information each representing one sliding motion (FB1, FB2, etc.).

その他、パルクールでは壁面によじ登る動作(クライムアップ、ウォールラン等)や、高い位置から安全に着地する動作(ランディング)も多用され、それぞれ複数通りの動作が知られている。よってアニメーション情報記憶部174は、これらについてもそれぞれの動作を実現するためのアニメーション情報を記憶する。さらに、アニメーション情報記憶部174が記憶するアニメーション情報は以上のものに限定されず、宙返り(フリップ)等、他の動作を行うアニメーション情報を含んでもよい。 In addition, in parkour, actions such as climbing on walls (climbing up, wall running, etc.) and actions of landing safely from a high position (landing) are often used, and multiple actions are known for each. Therefore, the animation information storage unit 174 also stores animation information for realizing each action. Furthermore, the animation information stored in the animation information storage unit 174 is not limited to the above, and may include animation information for performing other actions such as somersaults (flips).

アニメーション処理部108は、図21のような多数のアニメーション情報の中から、処理対象となる1つのアニメーション情報を決定する決定処理を行う。なお、オブジェクトOBと操作情報の種類から、図21における動作属性を決定する処理も、アニメーション情報の決定処理に含まれ、当該動作属性のアニメーション情報が1つであれば、決定処理はそれで完了する。ただし、1つの動作属性に複数のアニメーション情報が含まれる場合、アニメーション処理部108は、そこから1つのアニメーション情報を決定する必要がある。 The animation processing unit 108 performs determination processing for determining one piece of animation information to be processed from a large number of pieces of animation information as shown in FIG. 21 is also included in the animation information determination processing from the object OB and the type of operation information. . However, if one action attribute includes a plurality of pieces of animation information, the animation processing unit 108 needs to determine one piece of animation information.

アニメーション情報の決定処理は種々の手法により実現可能である。例えばアニメーション処理部108は、ビートパラメータや経過時間等のゲーム進行履歴に基づいて、決定処理を行ってもよい。一例としては、ビートパラメータが高いほど、或いは経過時間が長いほど、キャラクタCAの動きが激しいアニメーション情報が処理対象として決定される。動きが激しいとは、動き量が大きいことを表してもよいし、動きが速い(単位時間当たりの動き量が大きい)ことを表してもよい。このようにすれば、動作が成功してビートパラメータが上がると、音の厚みが増すとともに、キャラクタCAの動作も派手になるため、ゲームを盛り上げたり、プレーヤに爽快感を与えることが可能になる。或いは、経過時間が長くなればキャラクタCAがゴールに近づいている蓋然性が高くなるため、キャラクタCAの動作も派手にすることでゲームを盛り上げることが可能になる。 Animation information determination processing can be realized by various techniques. For example, the animation processing unit 108 may perform determination processing based on the game progress history such as beat parameters and elapsed time. As an example, the higher the beat parameter or the longer the elapsed time, the animation information in which the character CA moves more rapidly is determined to be processed. A vigorous motion may indicate that the amount of motion is large, or may indicate that the motion is fast (the amount of motion per unit time is large). In this way, when the action succeeds and the beat parameter rises, the depth of the sound increases and the action of the character CA also becomes flashy, making it possible to liven up the game and give the player a sense of exhilaration. . Alternatively, the longer the elapsed time, the higher the probability that the character CA is approaching the goal. Therefore, it is possible to make the game lively by making the character CA's actions flashy.

或いは、アニメーション処理部108は、楽曲の情報に基づいて決定処理を行ってもよい。例えば楽曲情報記憶部171は、音量、音程、音色等のパラメータが関連付けられた楽曲情報を記憶する。具体的には、楽曲特徴タイミング(音のタイミング)のそれぞれについて、各特徴タイミングでの音量、音程、音色の情報が関連付けられる。アニメーション処理部108は、アニメーションの再生予定期間において、楽曲がどのような音量、音程、音色であるかを判定する。このようにすれば、再生される楽曲の状態に合わせて、キャラクタCAを動作させることが可能になる。 Alternatively, the animation processing unit 108 may perform determination processing based on music information. For example, the music information storage unit 171 stores music information associated with parameters such as volume, pitch, and timbre. Specifically, information on volume, pitch, and timbre at each characteristic timing is associated with each characteristic timing of music (timing of sound). The animation processing unit 108 determines what kind of volume, pitch, and timbre the music has during the scheduled reproduction period of the animation. By doing so, it is possible to make the character CA move in accordance with the state of the music being reproduced.

例えば、音量が大きいほど、音程が高いほど、キャラクタCAの動きが激しいアニメーション情報が処理対象として決定される。音量(音程)は、単純な大小(高低)ではなく、所定期間内での音量変化(音程変化)を処理に用いてもよい。例えば音量変化(音程変化)が大きい場合に、キャラクタCAの動きが激しいアニメーション情報が処理対象として決定される。このようにすれば、楽曲が盛り上がっている場面で、キャラクタCAの動作を派手にして、ゲームを盛り上げることが可能になる。音色については、実際の音の波形やフーリエ変換の結果を用いてもよいが、出力されるパート(楽器)の情報を用いてアニメーション情報の決定処理が行われてもよい。例えばギターやドラムが出力される場合は、キャラクタCAの動きが激しいアニメーション情報を処理対象とし、ピアノが出力される場合は、キャラクタCAの動きが少ないアニメーション情報を処理対象とする、といった決定処理が考えられる。 For example, the animation information in which the movement of the character CA is more intense as the volume is louder or the pitch is higher, is determined as the processing target. Volume (pitch) may be processed not by simple magnitude (pitch), but by volume change (pitch change) within a predetermined period. For example, when the volume change (pitch change) is large, animation information in which the character CA moves rapidly is determined to be processed. By doing so, it is possible to make the action of the character CA flashy in a scene where the music is exciting, thereby making the game more lively. As for the timbre, the waveform of the actual sound or the result of the Fourier transform may be used, but the decision processing of the animation information may be performed using the information of the part (instrument) to be output. For example, if a guitar or drums are to be output, animation information in which the character CA moves rapidly is processed, and if a piano is to be output, animation information in which the character CA moves less is processed. Conceivable.

或いは、アニメーション処理部108は、音のタイミング情報に基づいて決定処理を行ってもよい。例えば、動作属性が「跳躍」であるという決定処理が行われた場合、タイミング処理部110は、跳躍動作に対応する複数のアニメーション情報(FA1,FA2,…)の各アニメーション情報を対象として、基準タイミング及び音のタイミングを求める。そしてアニメーション処理部108は、基準タイミングを音のタイミングに合わせやすいアニメーション情報を、処理対象として決定する。ここでの「合わせやすい」とは、単純には基準タイミングと音のタイミングの時間差が小さいことを表す。ただし、判断基準はこれに限定されず、調整処理を行った後のキャラクタCAの動作が自然であるか否かに基づいて、アニメーション情報を決定してもよい。換言すれば、アニメーション処理部108(タイミング処理部110)は、候補となる複数のアニメーション情報に対して調整処理を試行し、調整処理が適切に実行できるアニメーション情報を再生対象として決定する。 Alternatively, the animation processing unit 108 may perform determination processing based on sound timing information. For example, when determination processing is performed that the motion attribute is “jumping”, the timing processing unit 110 targets each piece of animation information (FA1, FA2, . Determine timing and timing of sounds. Then, the animation processing unit 108 determines, as a processing target, animation information whose reference timing is likely to match the timing of the sound. Here, "easy to match" simply means that the time difference between the reference timing and the sound timing is small. However, the criteria for determination are not limited to this, and the animation information may be determined based on whether or not the motion of the character CA after the adjustment process is natural. In other words, the animation processing unit 108 (timing processing unit 110) tries adjustment processing on a plurality of pieces of candidate animation information, and determines animation information for which adjustment processing can be appropriately executed as a reproduction target.

また以上では、簡略化のために、1つのアニメーション情報に含まれるキーフレームが1つである例を説明した。しかし動作における特徴的なタイミング(フレーム、動作)は2つ以上であってもよく、その場合のアニメーション情報は複数のキーフレームを含む。例えば、図4の動作において、助走の各足の着地、踏み切り、跳躍後の着地等をキーフレームと考えてもよく、この場合、図4の跳躍動作に対応するアニメーション情報(図16は、複数のキーフレームを含む。 Also, in the above description, for the sake of simplification, an example in which one piece of animation information includes one key frame has been described. However, there may be two or more characteristic timings (frames, motions) in the motion, and the animation information in that case includes a plurality of key frames. For example, in the action of FIG. 4, the landing of each foot in the run-up, takeoff, landing after jumping, etc. may be considered as key frames. In this case, animation information corresponding to the jumping action of FIG. keyframes.

或いは、キャラクタCAに複雑な動作を行わせるアニメーション情報が用いられてもよい。図22(A)~図22(F)は、抱え込みの側方宙返り(以下、側宙)を行う動作の例であるが、側宙を組み合わせた跳躍動作を用いてもよい。例えば、キャラクタCAは、オブジェクトOB1よりも手前側から移動を開始し、助走から踏み切ってまずオブジェクトOB1の上面に着地し、そこから図22(A)~図22(F)に示した抱え込みの側宙を行って、オブジェクトOB1の奥側に着地する。キャラクタCAの一部がオブジェクトOB1又はフィールドFEに接地するという観点から考えれば、オブジェクトOB1の上面への着地、及び側宙によるフィールド面への着地の両方が、特徴的なタイミングとなる。動作としても、OB1に乗るまでの動作と、側宙によりOB1から降りる動作を分けて考えることが自然であり、上記跳躍動作は少なくとも2つの特徴を有する。即ち、キャラクタCAに上記跳躍動作を行わせるアニメーション情報は、複数のキーフレームを有する。その他、複数のキーフレームを有するアニメーション情報は種々考えられる。 Alternatively, animation information that causes the character CA to perform complex actions may be used. FIGS. 22(A) to 22(F) show an example of an action of performing a side flip of holding (hereinafter referred to as a side flip), but a jumping action combining side flips may also be used. For example, the character CA starts moving from the front side of the object OB1, takes off from the run-up, first lands on the upper surface of the object OB1, and then the holding side shown in FIGS. 22A to 22F. Take a flight and land behind the object OB1. From the point of view that a part of the character CA touches the object OB1 or the field FE, both the landing on the upper surface of the object OB1 and the landing on the field surface due to the sideways are characteristic timings. It is natural to consider the action of getting on the OB1 and the action of getting off the OB1 by side jumping, and the jumping action has at least two characteristics. That is, the animation information for causing the character CA to perform the jumping motion has a plurality of key frames. In addition, various types of animation information having multiple key frames are conceivable.

キーフレームが複数存在するアニメーション情報では、基準タイミングも複数設定される。例えば、タイミング処理部110は、第1のキーフレームに対応する第1の基準タイミングと第2のキーフレームに対応する第2の基準タイミングを決定し、第1の基準タイミングに対応する第1の音のタイミングと第2の基準タイミングに対応する第2の音のタイミングを決定する。アニメーション処理部108は、第1の基準タイミングを第1の音のタイミングに合わせ、第2の基準タイミングを第2の音のタイミングに合わせる処理を、調整処理として実行する。 For animation information having multiple key frames, multiple reference timings are also set. For example, the timing processing unit 110 determines a first reference timing corresponding to the first keyframe and a second reference timing corresponding to the second keyframe, and determines the first reference timing corresponding to the first reference timing. A second tone timing corresponding to the tone timing and the second reference timing is determined. The animation processing unit 108 executes a process of matching the first reference timing with the timing of the first sound and matching the second reference timing with the timing of the second sound as adjustment processing.

図23(A)~図23(C)は、複数のキーフレームを含むアニメーション情報を対象とした調整処理を説明する図である。図23(A)に示すように、基準タイミング及び音のタイミングが決定された場合、アニメーション処理部108は、開始タイミングから第1の基準タイミングまでの第1の調整期間、及び第1の基準タイミングから第2の基準タイミングまでの第2の調整期間を対象として、上述した調整処理を実行する。 FIGS. 23A to 23C are diagrams for explaining adjustment processing for animation information including a plurality of key frames. As shown in FIG. 23A, when the reference timing and the sound timing are determined, the animation processing unit 108 sets the first adjustment period from the start timing to the first reference timing and the first reference timing. to the second reference timing, the adjustment process described above is executed.

例えば、アニメーション処理部108は、第1の調整期間を延長して第1の基準タイミングを第1の音のタイミングに合わせる調整処理を行い(図23(B))、その後、第2の調整期間を延長して第2の基準タイミングを第2の音のタイミングに合わせる調整処理を行う(図23(C))。ただし上述したように、キャラクタCAに自然な動作を実行させるという観点から、各調整期間は延長可能な範囲が制限される。そのため、図23(B)と図23(C)の少なくとも一方の調整処理を実現できない場面も考えられる。或いは、あえて第1の基準タイミングと第1の音のタイミングを揃えないことで、第2の基準タイミングの調整がうまくいくといった場面も想定される。よってアニメーション処理部108での調整処理は、時系列的に前の調整期間から順次延長幅を決定する処理に限定されず、全体を考慮した上で各調整期間の最適な延長幅を決定する処理により実現されてもよい。例えばアニメーション処理部108は、所与の評価関数を設定し、当該評価関数による評価値が極大となるように、各調整期間の延長幅を決定する。 For example, the animation processing unit 108 extends the first adjustment period to adjust the first reference timing to the timing of the first sound (FIG. 23(B)), and then performs the second adjustment period. is extended to match the second reference timing with the timing of the second sound (FIG. 23(C)). However, as described above, the extendable range of each adjustment period is limited from the viewpoint of allowing the character CA to perform natural actions. Therefore, there may be cases where at least one of the adjustment processes shown in FIGS. 23(B) and 23(C) cannot be implemented. Alternatively, it is conceivable that the second reference timing can be adjusted well by intentionally not matching the first reference timing and the timing of the first sound. Therefore, the adjustment process in the animation processing unit 108 is not limited to the process of determining the extension width sequentially from the previous adjustment period in chronological order, but the process of determining the optimum extension width of each adjustment period considering the whole. may be realized by For example, the animation processing unit 108 sets a given evaluation function and determines the extent of extension of each adjustment period so that the evaluation value of the evaluation function is maximized.

アニメーション処理部108は、例えば上記評価関数の評価値に基づいて、再生対象となるアニメーション情報の決定処理を行ってもよい。評価関数は、キーフレームの数、音のタイミングに合わせることができた基準タイミングの数(以下、調整成功数)、音のタイミングに合わせることができなかった基準タイミングの数(以下、調整失敗数)等に基づいて、評価値を決定する関数である。例えば、調整成功数が多いほど値が大きくなり、調整失敗数が多いほど値が小さくなるような評価関数を用いる。キーフレーム数をどのように評価に用いるかは種々の考え方があるが、例えばキーフレーム数が動作の複雑さに関係することを考慮し、キーフレーム数が多いほど値が大きくなるような評価関数を用いる。 The animation processing unit 108 may determine animation information to be reproduced, for example, based on the evaluation value of the evaluation function. The evaluation function is the number of keyframes, the number of reference timings that can be adjusted to the sound timing (hereinafter referred to as the number of successful adjustments), and the number of reference timings that cannot be adjusted to the sound timing (hereinafter referred to as the number of failed adjustments). ) and the like to determine the evaluation value. For example, an evaluation function is used in which the value increases as the number of successful adjustments increases, and the value decreases as the number of failed adjustments increases. There are various ways of thinking about how to use the number of keyframes for evaluation. Use

選択されるアニメーション情報は、評価関数の具体的な形式に応じて変化することになる。例えばアニメーション処理部108は、元々のキーフレーム数が同じ複数のアニメーション情報が存在する場合、調整成功数が多いアニメーション情報を処理対象として決定する。或いは、アニメーション処理部108は、全キーフレーム数に対する調整成功数の割合が高いアニメーション情報を処理対象としてもよい。 The animation information selected will vary according to the specific form of the evaluation function. For example, when a plurality of pieces of animation information having the same original number of key frames exist, the animation processing unit 108 determines animation information with a large number of adjustment successes to be processed. Alternatively, the animation processing unit 108 may process animation information with a high ratio of the number of successful adjustments to the total number of key frames.

また、以上では楽曲特徴タイミングとして、図17のC1やC2に示した拍のタイミングを用いた。ただし楽曲特徴タイミングはこれに限定されない。例えば、所定パートの音が出力されるタイミングを楽曲特徴タイミングとしてもよい。例えば、図8に示した例において、ギターパートの出力タイミングを楽曲の特徴タイミングとする。ギター1では、音の数が相対的に少ないため、楽曲特徴タイミングも少ない(例えば1小節に1タイミング)。ギター3では、音の数が相対的に多いため、楽曲特徴タイミングも多い(例えば1小節に4タイミング、8タイミング等)。この場合、ゲームの進行履歴(狭義にはビートパラメータ)に応じて、音のタイミングが変化することになる。 In the above description, the beat timings shown in C1 and C2 in FIG. 17 are used as the music feature timings. However, the music feature timing is not limited to this. For example, the timing at which the sound of a predetermined part is output may be set as the music characteristic timing. For example, in the example shown in FIG. 8, the output timing of the guitar part is set as the characteristic timing of the music. Since the guitar 1 has a relatively small number of sounds, there are also few song characteristic timings (for example, one timing per bar). Since the guitar 3 has a relatively large number of sounds, it also has many musical characteristic timings (for example, 4 timings, 8 timings, etc. in one measure). In this case, the timing of the sound changes according to the progress history of the game (beat parameters in a narrow sense).

楽曲特徴タイミングが少ない場合、音のタイミング(t)として選択可能なタイミングが限定される。そのため、基準タイミング(キーフレーム)が多いアニメーション情報では調整失敗数が増えやすい。結果として、アニメーション情報の決定処理では、基準タイミング(キーフレーム)の少ないアニメーション情報が処理対象となりやすくなる。 When there are few music characteristic timings, the timings that can be selected as the timing (t M ) of the sound are limited. Therefore, the number of adjustment failures tends to increase in animation information with many reference timings (keyframes). As a result, in animation information determination processing, animation information with few reference timings (key frames) is likely to be processed.

一方、楽曲特徴タイミングが多い場合、音のタイミングの候補が増えるため、基準タイミング(キーフレーム)が多くても調整成功数が増えやすく、複雑な動作を行うアニメーション情報が処理対象となりやすい。このように楽曲特徴タイミング(音のタイミング)を可変とすることでも、状況に応じたアニメーション情報の決定処理が可能になる。 On the other hand, when there are many song characteristic timings, the number of sound timing candidates increases, so even if there are many reference timings (keyframes), the number of successful adjustments tends to increase, and animation information that performs complex actions tends to be processed. By making the music feature timing (sound timing) variable in this way, it becomes possible to determine the animation information according to the situation.

図24は、アニメーション処理を説明する他のフローチャートである。S501及びS502は、図20のS401、S402と同様である。図24の例では、パートに応じて楽曲特徴タイミングを変更することを想定し、パート楽曲部分を決定する処理を追加している(S503)。 FIG. 24 is another flowchart for explaining animation processing. S501 and S502 are the same as S401 and S402 in FIG. In the example of FIG. 24, it is assumed that the music characteristic timing is changed according to the part, and processing for determining the part music portion is added (S503).

また、アニメーション処理部108は、キャラクタCAの近傍に位置するオブジェクトOBと、S501で取得した操作情報に基づいて、処理対象となるアニメーション情報の候補セット(候補アニメーションセット)を決定する(S504)。例えば、操作情報とオブジェクトOBから動作属性が「跳躍」に決定された場合、候補アニメーションセットとは、跳躍動作に対応する複数のアニメーション情報(FA1,FA2,…)の集合である。 Also, the animation processing unit 108 determines a candidate set (candidate animation set) of animation information to be processed based on the object OB positioned near the character CA and the operation information acquired in S501 (S504). For example, when the action attribute is determined to be "jumping" from the operation information and the object OB, the candidate animation set is a set of pieces of animation information (FA1, FA2, . . . ) corresponding to the jumping action.

そしてアニメーション処理部108は、候補アニメーションセットから1つのアニメーション情報を選択し(S505)、タイミング処理部110は、選択したアニメーション情報を対象として、基準タイミング及び音のタイミングを決定する(S506,S507)。アニメーション処理部108は、基準タイミング及び音のタイミングに基づいて評価値を算出する(S508)。ここでの評価値は、例えば上述した評価関数の極大値である。 Then, the animation processing unit 108 selects one piece of animation information from the candidate animation set (S505), and the timing processing unit 110 determines the reference timing and sound timing for the selected animation information (S506, S507). . The animation processing unit 108 calculates an evaluation value based on the reference timing and the sound timing (S508). The evaluation value here is, for example, the maximum value of the evaluation function described above.

アニメーション処理部108は、候補アニメーションセットに未処理のアニメーション情報が残っているかを判定し(S509)、未処理のアニメーション情報が存在する場合にはS505に戻り、処理を継続する。候補アニメーションセットの全てのアニメーション情報の評価値が算出されたら(S509でNo)、当該評価値に基づいて処理対象のアニメーション情報を決定する(S510)。 The animation processing unit 108 determines whether unprocessed animation information remains in the candidate animation set (S509), and if there is unprocessed animation information, returns to S505 and continues processing. When evaluation values for all animation information in the candidate animation set have been calculated (No in S509), animation information to be processed is determined based on the evaluation values (S510).

アニメーション情報決定後の調整処理(S511)、再生処理(S512)については、図20のS406、S407と同様である。なお、評価値を評価関数の極大値とする例であれば、S511の調整処理は、S508の結果をそのまま用いればよい。 The adjustment processing (S511) and reproduction processing (S512) after the animation information is determined are the same as S406 and S407 in FIG. If the evaluation value is the maximum value of the evaluation function, the adjustment process of S511 may use the result of S508 as it is.

なお、図24では候補アニメーションセットの全てを評価対象とする例を示した。しかし、S512の再生処理は、S501の操作情報の取得後(厳密に言えば図11(A)のS101の操作入力後)、できるだけ速やかに実行することが望ましい。再生処理までに時間がかかってしまうと、プレーヤが操作したにもかかわらず、アニメーションがなかなか開始されずに違和感を与えてしまう。 Note that FIG. 24 shows an example in which all candidate animation sets are evaluated. However, it is desirable to perform the reproduction process of S512 as soon as possible after obtaining the operation information of S501 (strictly speaking, after inputting the operation of S101 in FIG. 11A). If it takes a long time to reproduce, the animation will take a long time to start despite the player's operation, giving a sense of incongruity.

よってアニメーション情報の決定処理、及び調整処理が高速で行われるように、処理負荷を軽減することが望ましい。よって例えば、候補アニメーションセットの全てを評価対象とするのではなく、評価値が所定閾値以上のアニメーション情報が見つかった段階で、決定処理を終了するといった変形実施が可能である。 Therefore, it is desirable to reduce the processing load so that animation information determination processing and adjustment processing can be performed at high speed. Therefore, for example, instead of evaluating all the candidate animation sets, it is possible to terminate the determination process when animation information with an evaluation value equal to or greater than a predetermined threshold value is found.

2.5 変形例
以下、いくつかの変形例について説明する。
2.5 Modifications Some modifications will be described below.

(変形例1)
以上の説明では、時系列楽曲部分内での再生位置は、経過時間(エリア存在時間)で決定される例を示した。例えば、キャラクタCAがエリアAR2にx秒だけ継続して存在した場合、Aメロのx秒目が再生される。即ち、エリアに応じた時系列楽曲部分の遷移という制限はあるものの、時系列楽曲部分内での楽曲の進行は時間とともに自動的に行われる。
(Modification 1)
In the above description, an example was shown in which the playback position within the time-series music portion is determined by the elapsed time (area existence time). For example, if the character CA exists in the area AR2 continuously for x seconds, the A melody is reproduced for the x seconds. That is, although there is a restriction that the time-series music portion transitions according to the area, the progress of the music within the time-series music portion is automatically performed over time.

ただし、本実施形態ではオブジェクトOBに対するキャラクタCAの動作を演奏に用いる。つまり、楽曲の進行もプレーヤの操作(キャラクタCAの動作)に関連させるとよく、キャラクタCAが静止しているのに楽曲が進行することは好ましくない。 However, in this embodiment, the motion of the character CA with respect to the object OB is used for performance. In other words, the progress of the music should be related to the player's operation (the action of the character CA), and it is not preferable that the music progress while the character CA is still.

よって本実施形態では、キャラクタCAの動作に基づいて、時系列楽曲部分内での再生位置を決定してもよい。例えば、キャラクタCAの動作が行われることで増加するパラメータ(以下、メロディパラメータ)を設定し、キャラクタCAの存在エリアとメロディパラメータに基づいて、時系列楽曲部分内での再生位置を決定する。なお、ここでのキャラクタCAの動作とは、オブジェクトOBに対する動作であってもよいし、フィールドFEを歩行、走行する動作であってもよい。また、メロディパラメータは、キャラクタCAが次のエリアに移動した場合、即ち、時系列楽曲部分の遷移が行われた場合に、初期化されるパラメータであってもよい。 Therefore, in this embodiment, the playback position within the time-series music portion may be determined based on the motion of the character CA. For example, a parameter (hereinafter referred to as melody parameter) that increases as the character CA performs an action is set, and the reproduction position within the time-series music portion is determined based on the presence area of the character CA and the melody parameter. Note that the motion of the character CA here may be a motion with respect to the object OB, or may be a motion of walking or running in the field FE. Also, the melody parameter may be a parameter that is initialized when the character CA moves to the next area, that is, when the time-series music portion transitions.

このようにすれば、キャラクタCAが動いていないときは楽曲の進行が停止するため、キャラクタCAの動作と楽曲との連動度合いを高めることが可能になる。 In this way, the progress of the music is stopped when the character CA is not moving, so it is possible to increase the degree of interlocking between the motion of the character CA and the music.

(変形例2)
図12に示したように、オブジェクト制御部114は、判定部116の判定結果に基づいて、キャラクタCAの動作対象と異なるオブジェクトOBに対する制御を行う。ここでオブジェクト制御部114は、オブジェクトOBの挙動を楽曲(狭義には楽曲のテンポ、リズム)に合わせるような制御を行ってもよい。
(Modification 2)
As shown in FIG. 12 , the object control unit 114 controls the object OB, which is different from the action target of the character CA, based on the determination result of the determination unit 116 . Here, the object control unit 114 may perform control such that the behavior of the object OB matches the music (in a narrow sense, the tempo and rhythm of the music).

例えば、オブジェクト制御部114は、オブジェクトOBを楽曲の拍の周期に合わせて振動させる。或いはオブジェクト制御部114は、イコライザ画面を模した動きをオブジェクトOBに行わせる。イコライザとは、楽曲を複数の周波数成分に分け、各周波数成分の信号レベルの調整する機器であるが、各周波数成分の信号レベルをグラフとして表示する画面がインターフェースとして広く用いられる。例えばオブジェクト制御部114は、所与の周波数成分の信号レベルに合わせて、オブジェクトOBの位置(基準位置に対する移動量)を制御する。或いは、所定方向に複数のオブジェクトOBを配置し、各オブジェクトをそれぞれ異なる周波数成分に割り当ててもよい。このようにすれば、オブジェクト群があたかもイコライザのインターフェースのように機能する。 For example, the object control unit 114 vibrates the object OB in accordance with the beat cycle of the music. Alternatively, the object control unit 114 causes the object OB to move like an equalizer screen. An equalizer is a device that divides a piece of music into a plurality of frequency components and adjusts the signal level of each frequency component. A screen displaying the signal level of each frequency component as a graph is widely used as an interface. For example, the object control unit 114 controls the position of the object OB (movement amount with respect to the reference position) according to the signal level of a given frequency component. Alternatively, a plurality of objects OB may be arranged in a predetermined direction and each object may be assigned a different frequency component. In this way, the object group functions as if it were an equalizer interface.

また、ここではオブジェクトOBの位置、動きを制御する例を示したが、オブジェクトOBの色や質感等を制御することも妨げられない。 Also, although an example of controlling the position and movement of the object OB is shown here, it is also possible to control the color, texture, etc. of the object OB.

本実施形態では、キャラクタCAの動作と楽曲の連動(図8や図9)、キャラクタCAの動作とオブジェクト制御の連動(図12)が可能であったが、本変形例によれば、さらに、オブジェクトOBの挙動と楽曲の連動が可能になる。このように、キャラクタ動作(プレーヤ操作)、楽曲、オブジェクトという各要素の連動度合いを高めることにより、自分がゲーム内の音楽やフィールドをコントロールしている感覚を、プレーヤに対して強く与えることが可能になる。 In the present embodiment, it was possible to link the action of the character CA with music (FIGS. 8 and 9), and link the action of the character CA with object control (FIG. 12). It is possible to link the behavior of the object OB and the music. In this way, by increasing the degree of interlocking between the elements of character movements (player operations), music, and objects, it is possible to give the player a strong sense of control over the music and fields within the game. become.

なお、楽曲に基づくオブジェクト制御は、所与の条件が満たされた場合に実行されてもよい。所与の条件とは、オブジェクトに対するキャラクタの動作が成功したと判定された場合や、ビートパラメータの値が所定閾値以上になった場合である。即ち、プレーヤによる操作が適切に行われ、楽曲が盛り上がっている場合に、オブジェクトOBと楽曲が連動するため、より興趣性の高いゲームシステムを実現できる。なお、後述する変形例5のように、エリア間移動が制限される実施形態の場合、当該移動の制限が解除されたことを、楽曲に基づくオブジェクト制御の条件としてもよい。 Note that music-based object control may be executed when a given condition is met. The given condition is when it is determined that the character's action on the object is successful, or when the value of the beat parameter is equal to or greater than a predetermined threshold. That is, when the player's operation is appropriately performed and the music is exciting, the object OB and the music are linked, so that a more interesting game system can be realized. In the case of an embodiment in which movement between areas is restricted, as in Modification 5, which will be described later, removal of the restriction on movement may be set as a condition for object control based on music.

(変形例3)
楽曲制御やオブジェクト制御に用いられる動作は、オブジェクトOBを対象としたものである例を説明した。しかしキャラクタCAのフィールドFE(地面、床面)での動作に基づいて、楽曲制御等が行われてもよい。
(Modification 3)
An example has been described in which the operation used for music control and object control targets the object OB. However, music control or the like may be performed based on the action of the character CA on the field FE (ground, floor surface).

例えば、パルクールでは図22(A)~図22(F)に示した側宙の他、側転、後方宙返り(バク宙)、前方宙返り等の回転技が用いられることがあり、これらの技は障害物や壁面の存在しない平面的な領域でも実行可能である。これらの動作も、歩行や走行等の単純な動作に比べて見栄えがよく、プレーヤに爽快感を与える。 For example, in parkour, in addition to the side flips shown in FIGS. 22(A) to 22(F), rotation techniques such as cartwheels, backward somersaults (backflips), and forward somersaults may be used. It can also be executed in planar areas without obstacles or walls. These actions also look better than simple actions such as walking and running, and give the player a sense of exhilaration.

例えばゲーム処理部104は、オブジェクトOBを対象としない特定の動作が行われた場合に、ビートパラメータを増加させる処理を行う。このようにすれば、当該特定の動作についても、オブジェクトOBに対する動作と同様に、動作結果が楽曲やオブジェクトOBの制御に反映される。 For example, the game processing unit 104 performs a process of increasing the beat parameter when a specific action that does not target the object OB is performed. In this way, the action result of the specific action is reflected in the music and the control of the object OB in the same manner as the action for the object OB.

(変形例4)
以上では、アニメーション情報の調整処理の対象となる移動体が人型のキャラクタCAである例を説明した。しかし、移動体はこれに限定されず、例えばレースゲームにおける車やバイク、或いは飛行機は船舶等の乗り物であってもよい。この場合、車両等の特徴的な動作(方向転換、スピン、障害物に乗り上げることによるジャンプ等)が行われるタイミングと、楽曲特徴タイミングを合わせることが可能になる。
(Modification 4)
An example has been described above in which the moving object to be subjected to the animation information adjustment processing is the humanoid character CA. However, the mobile object is not limited to this, and for example, a car or motorcycle in a racing game, or an airplane may be a vehicle such as a ship. In this case, it is possible to match the timing at which the characteristic motion of the vehicle (turning, spinning, jumping over an obstacle, etc.) is performed with the music characteristic timing.

或いは、図3に示した仮想カメラVCを移動体としてもよい。図3ではキャラクタCAの後方に仮想カメラVCを配置する例を示したが、カメラアングル(仮想カメラの位置、光軸方向)を可変とすることで、多様な表示画面を生成することが可能になる。カメラワークとして、パン、チルト、ズームイン、ズームアウト等、種々の技法が知られており、仮想カメラVC自体の動き、或いは被写体との関係から、特徴的なタイミングを規定することが可能である。 Alternatively, the virtual camera VC shown in FIG. 3 may be used as the moving object. FIG. 3 shows an example in which the virtual camera VC is placed behind the character CA, but by making the camera angle (the position of the virtual camera, the direction of the optical axis) variable, it is possible to generate various display screens. Become. Various techniques such as panning, tilting, zooming in, and zooming out are known as camerawork, and it is possible to define characteristic timing from the movement of the virtual camera VC itself or the relationship with the subject.

仮想カメラVCを移動体とすることで、特徴的な表示画像が表示されるタイミングと、楽曲の特徴タイミングを合わせることが可能になる。 By using the virtual camera VC as a moving body, it is possible to match the timing at which the characteristic display image is displayed with the characteristic timing of the music.

(変形例5)
図9を用いて上述した例では、フィールドFEに設定されたエリア(AR1~AR5)間の移動は自由であり、ガイドオブジェクト等を利用することで、プレーヤに対して適切なタイミングでの移動を促していた。ただし、エリア間の移動をあらかじめ制限しておいてもよい。
(Modification 5)
In the example described above using FIG. 9, movement between the areas (AR1 to AR5) set in the field FE is free, and by using a guide object or the like, the player can be instructed to move at an appropriate timing. was urging However, movement between areas may be restricted in advance.

このようにすれば、プレーヤが楽曲自体の進行を無視して先のエリアに進むことを抑制可能である。例えばAメロの演奏が終わっていないのに、Bメロに対応するエリアAR3に進入することを抑制できる。 In this way, it is possible to prevent the player from proceeding to the next area while ignoring the progress of the music itself. For example, it is possible to prevent the player from entering the area AR3 corresponding to the B melody even though the performance of the A melody has not ended.

この場合、制限の解除条件を設定する必要がある。単純には、経過時間に基づいて移動制限が解除される。例えばAR2からAR3への移動制限は、Aメロを演奏し終わるだけの時間が経過した場合に解除される。或いは、プレーヤの操作入力の結果、より具体的にはビートパラメータの値が所定閾値以上であることを制限解除の条件としてもよい。例えば、AR2である程度の動作を行い、Aメロを厚く演奏できた場合に、AR3への移動が可能になる。移動制限の解除は、例えばエリア間の移動経路の通行可能/通行不可を切り替える制御により実現される。 In this case, it is necessary to set conditions for releasing the restriction. Simply, the movement restriction is lifted based on the elapsed time. For example, the restriction on movement from AR2 to AR3 is lifted when the time required to finish playing the A melody has passed. Alternatively, as a result of the player's operation input, more specifically, the condition for releasing the restriction may be that the value of the beat parameter is equal to or greater than a predetermined threshold. For example, when a certain amount of movement is performed in AR2 and the A melody is played thickly, it becomes possible to move to AR3. Removal of movement restrictions is realized, for example, by switching between passable and impassable movement routes between areas.

また、ゲーム処理部104は、各エリアに時間制限を設けてもよい。ここでの時間制限とは、例えば各エリアに継続して存在することが許容される時間の上限である。そして、ゲーム処理部104は、キャラクタCAが上記時間制限を超えて所与のエリアに滞在している場合、ゲーム内評価を下げる処理を行う。 Also, the game processing unit 104 may set a time limit for each area. The time limit here is, for example, the upper limit of time allowed to exist continuously in each area. Then, the game processing unit 104 performs a process of lowering the in-game evaluation when the character CA stays in the given area beyond the time limit.

移動制限は、時系列楽曲部分の演奏完了前に次のエリアへ移動することを抑制する効果がある。また、時間制限は、時系列楽曲部分の演奏が完了した場合に、当該エリアに留まることを抑止する(次のエリアへの移動を促す)効果がある。よって移動制限と時間制限を組み合わせることで、プレーヤに対して適切なタイミングでのエリア移動(時系列楽曲部分の遷移)を促すことが可能になる。 The movement restriction has the effect of suppressing movement to the next area before the performance of the time-series music portion is completed. In addition, the time limit has the effect of preventing the player from remaining in the area (promoting movement to the next area) when the performance of the time-series music portion is completed. Therefore, by combining the movement restriction and the time restriction, it is possible to prompt the player to move the area (transition of the chronological music portion) at an appropriate timing.

(変形例6)
またキャラクタCAの移動速度を楽曲の情報に合わせて変更してもよい。ここでの楽曲の情報とは例えば楽曲のテンポ(拍のタイミングの間隔、BPMの値等)である。具体的には、楽曲のテンポが早ければキャラクタの移動速度も速くし、テンポが遅ければ移動速度を遅くする。或いは、楽曲の情報とは楽曲のリズムであってもよい。例えば楽曲がワルツかボレロかといった違いによりキャラクタの移動速度が変化する。静かな曲調であるほど移動速度が低く設定され、激しい曲調であるほど移動速度が速く設定される。
(Modification 6)
Also, the moving speed of the character CA may be changed according to the music information. The music information here is, for example, the tempo of the music (timing interval between beats, BPM value, etc.). Specifically, if the tempo of the music is fast, the moving speed of the character is increased, and if the tempo is slow, the moving speed is decreased. Alternatively, the music information may be the rhythm of the music. For example, the moving speed of the character changes depending on whether the music is waltz or bolero. The quieter the melody, the lower the movement speed is set, and the more intense the melody, the faster the movement speed is set.

このようにすれば、キャラクタCAの移動速度を楽曲と調和させることが可能になる。上述したように楽曲(音量、音程、音色)に応じてアニメーション情報の決定処理を行う実施形態と組み合わせてもよく、この場合、静かな曲調であればキャラクタCAはゆっくり移動しつつ動きの少ない動作を行い、激しい曲調であればキャラクタCAは素早く移動しつつ動きの激しい動作を行う。 By doing so, it is possible to harmonize the movement speed of the character CA with the music. As described above, it may be combined with the embodiment in which the animation information is determined according to the music (volume, pitch, tone color). , and if the melody is intense, the character CA moves quickly and performs vigorous movements.

なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語(移動体等)と共に記載された用語(キャラクタ等)は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また、オブジェクトに対する動作の判定処理、楽曲制御、オブジェクト制御、アニメーション処理(決定処理、調整処理を含む)も、本実施形態で説明したものに限定されず、これらと均等な手法・処理も本発明の範囲に含まれる。また本発明は種々のゲームに適用できる。また本発明は、業務用ゲームシステム、家庭用ゲームシステム、多数のプレーヤが参加する大型アトラクションシステム、シミュレータ、マルチメディア端末、ゲーム画像を生成するシステムボード、携帯電話機等の種々のゲームシステムに適用できる。例えばゲームシステムは、ゲームのプログラムがインストールされて実行される携帯電話機や携帯型情報端末であってもよい。 Although the present embodiment has been described in detail as above, those skilled in the art will easily understand that many modifications are possible without substantially departing from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included within the scope of this invention. For example, in the specification or drawings, a term (character, etc.) that is described at least once with a different term (moving object, etc.) that has a broader definition or has the same meaning may be replaced with that different term anywhere in the specification or drawing. can be done. Further, the determination processing of actions for objects, music control, object control, and animation processing (including determination processing and adjustment processing) are not limited to those described in the present embodiment, and methods and processes equivalent to these are also possible in the present invention. included in the range of Also, the present invention can be applied to various games. The present invention can also be applied to various game systems such as arcade game systems, home game systems, large-scale attraction systems in which many players participate, simulators, multimedia terminals, system boards for generating game images, and mobile phones. . For example, the game system may be a mobile phone or a portable information terminal in which a game program is installed and executed.

10、11、12、13…操作ボタン、14…方向指示キー、
16、18…アナログスティック、20、22…R、Lボタン、100…処理部、
102…入力受け付け部、104…ゲーム処理部、106…キャラクタ処理部、
108…アニメーション処理部、110…タイミング処理部、112…楽曲再生部、
114…オブジェクト制御部、116…判定部、120…表示処理部、160…操作部、
170…記憶部、171…楽曲情報記憶部、172…ゲーム進行履歴記憶部、
173…フィールド・オブジェクト情報記憶部、174…アニメーション情報記憶部、
180…記憶媒体、190…表示部、192…音出力部、194…I/F部、
195…携帯型情報記憶媒体、196…通信部、500…サーバシステム、
510…ネットワーク、AR1~AR5…エリア、CA…キャラクタ、
FE…フィールド、OB(OB1~OB4)…オブジェクト、RO…移動経路、
TM1~TMn…端末装置、VC…仮想カメラ、Vm…移動方向
10, 11, 12, 13... operation buttons, 14... direction keys,
16, 18... analog sticks, 20, 22... R, L buttons, 100... processing section,
102... Input receiving unit, 104... Game processing unit, 106... Character processing unit,
108... Animation processing unit, 110... Timing processing unit, 112... Music playback unit,
114... Object control unit, 116... Judgment unit, 120... Display processing unit, 160... Operation unit,
170...storage unit, 171...song information storage unit, 172...game progress history storage unit,
173... field/object information storage unit, 174... animation information storage unit,
180...storage medium, 190...display unit, 192...sound output unit, 194...I/F unit,
195... portable information storage medium, 196... communication unit, 500... server system,
510: network, AR1 to AR5: area, CA: character,
FE...field, OB (OB1 to OB4)...object, RO...moving route,
TM1 to TMn... terminal device, VC... virtual camera, Vm... moving direction

Claims (9)

プレーヤの操作情報に基づいて、移動体のアニメーション処理を行うアニメーション処理部と、
前記アニメーション処理における基準タイミングと、ゲーム中に出力される音のタイミング情報の特定処理を行うタイミング処理部として、
コンピュータを機能させ、
前記アニメーション処理部は、
前記プレーヤの前記操作情報と、前記移動体の時系列の複数の姿勢データを含むアニメーション情報とに基づいて、前記移動体を動作させる前記アニメーション処理を行い、
前記タイミング処理部は、
前記プレーヤの前記操作情報に基づいて、前記アニメーション処理における前記移動体の動作特徴タイミングを前記基準タイミングとして特定し、
前記アニメーション処理部は、
前記音のタイミング情報により表されるタイミングと、前記動作特徴タイミングとが一致するように、前記アニメーション処理の調整処理を行い、
前記アニメーション処理部は、
前記音のタイミング情報により表されるタイミングが、前記動作特徴タイミングよりも遅いタイミングである場合に、前記音のタイミング情報に合わせて前記移動体が動作するように、
(1)前記アニメーション処理の再生開始タイミングを遅らせる処理、或いは、
(2)前記動作特徴タイミングよりも前の所与の範囲において前記移動体の動作をスロー再生する処理を、
前記調整処理として行うこと特徴とするプログラム。
an animation processing unit that performs animation processing of a moving object based on player operation information;
As a timing processing unit that performs the reference timing in the animation processing and the timing information of the sound output during the game,
make your computer work
The animation processing unit
performing the animation process of moving the moving body based on the operation information of the player and animation information including a plurality of time-series posture data of the moving body;
The timing processing unit
specifying, based on the operation information of the player, an operation characteristic timing of the moving object in the animation process as the reference timing;
The animation processing unit
adjusting the animation process so that the timing represented by the timing information of the sound and the motion feature timing match ;
The animation processing unit
so that when the timing represented by the sound timing information is later than the motion feature timing, the moving body operates in accordance with the sound timing information;
(1) a process of delaying the reproduction start timing of the animation process, or
(2) a process of slow-playing the motion of the moving object in a given range before the motion characteristic timing;
A program characterized by performing as the adjustment processing .
請求項において、
前記アニメーション情報には、前記動作特徴タイミングが、キーフレームを表すキーフレーム情報として対応付けられており、
前記アニメーション処理部は、
前記音のタイミング情報により表されるタイミングと、前記キーフレーム情報により表される前記キーフレームの再生タイミングとが一致するように、前記調整処理を行うことを特徴とするプログラム。
In claim 1 ,
The motion characteristic timing is associated with the animation information as key frame information representing a key frame,
The animation processing unit
A program for performing the adjustment process so that the timing represented by the timing information of the sound and the reproduction timing of the key frame represented by the key frame information match.
請求項において、
前記基準タイミングは、前記キーフレームの前記再生タイミングであることを特徴とするプログラム。
In claim 2 ,
The program, wherein the reference timing is the reproduction timing of the key frame.
請求項1乃至3のいずれかにおいて、
前記アニメーション処理部は、
前記アニメーション処理の対象となる前記アニメーション情報の決定処理を行い、決定された前記アニメーション情報に対して前記調整処理を行うことを特徴とするプログラム。
In any one of claims 1 to 3 ,
The animation processing unit
A program for performing a process of determining the animation information to be subjected to the animation process, and performing the adjustment process on the determined animation information.
請求項において、
前記アニメーション処理部は、
前記音のタイミング情報に基づいて、前記アニメーション情報の前記決定処理を行うことを特徴とするプログラム。
In claim 4 ,
The animation processing unit
A program for performing the determination processing of the animation information based on the timing information of the sound.
請求項において、
前記音のタイミング情報には、パラメータが関連づけられており、
前記アニメーション処理部は、
前記パラメータに基づいて、前記アニメーション情報の前記決定処理を行うことを特徴とするプログラム。
In claim 5 ,
A parameter is associated with the timing information of the sound,
The animation processing unit
A program for performing the determining process of the animation information based on the parameter.
請求項において、
前記ゲーム内で再生される音は、楽曲情報により表される楽曲であり、
前記パラメータは、音量、音程、及び音色の少なくとも1つに関するパラメータであることを特徴とするプログラム。
In claim 6 ,
The sound reproduced in the game is a song represented by the song information,
The program, wherein the parameter is a parameter relating to at least one of volume, pitch, and timbre.
請求項において、
前記ゲーム内で再生される音は、楽曲情報により表される楽曲であり、
前記アニメーション処理部は、
前記楽曲情報、前記プレーヤの操作情報、前記移動体が移動するフィールドの情報、及び前記移動体の状態を表す状態情報の少なくとも1つに基づいて、前記アニメーション情報の前記決定処理を行うことを特徴とするプログラム。
In claim 4 ,
The sound reproduced in the game is a song represented by the song information,
The animation processing unit
The determining process of the animation information is performed based on at least one of the music information, the operation information of the player, the information of the field in which the moving body moves, and the state information representing the state of the moving body. A program to
プレーヤの操作情報に基づいて、移動体のアニメーション処理を行うアニメーション処理部と、
前記アニメーション処理における基準タイミングと、ゲーム中に出力される音のタイミング情報の特定処理を行うタイミング処理部と、
を含み、
前記アニメーション処理部は、
前記プレーヤの前記操作情報と、前記移動体の時系列の複数の姿勢データを含むアニメーション情報とに基づいて、前記移動体を動作させる前記アニメーション処理を行い、
前記タイミング処理部は、
前記プレーヤの前記操作情報に基づいて、前記アニメーション処理における前記移動体の動作特徴タイミングを前記基準タイミングとして特定し、
前記アニメーション処理部は、
前記音のタイミング情報により表されるタイミングと、前記動作特徴タイミングとが一致するように、前記アニメーション処理の調整処理を行い、
前記アニメーション処理部は、
前記音のタイミング情報により表されるタイミングが、前記動作特徴タイミングよりも遅いタイミングである場合に、前記音のタイミング情報に合わせて前記移動体が動作するように、
(1)前記アニメーション処理の再生開始タイミングを遅らせる処理、或いは、
(2)前記動作特徴タイミングよりも前の所与の範囲において前記移動体の動作をスロー再生する処理を、
前記調整処理として行うこと特徴とするゲームシステム。
an animation processing unit that performs animation processing of a moving object based on player operation information;
a timing processing unit that performs a reference timing in the animation processing and a timing processing unit that performs a process of specifying timing information of a sound that is output during a game;
including
The animation processing unit
performing the animation process of moving the moving body based on the operation information of the player and animation information including a plurality of time-series posture data of the moving body;
The timing processing unit
specifying, based on the operation information of the player, an operation characteristic timing of the moving object in the animation process as the reference timing;
The animation processing unit
adjusting the animation process so that the timing represented by the timing information of the sound and the motion feature timing match ;
The animation processing unit
so that when the timing represented by the sound timing information is later than the motion feature timing, the moving body operates in accordance with the sound timing information;
(1) a process of delaying the reproduction start timing of the animation process, or
(2) a process of slow-playing the motion of the moving object in a given range before the motion characteristic timing;
A game system characterized in that it is performed as the adjustment process .
JP2017239510A 2017-12-14 2017-12-14 Program and game system Active JP7144931B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017239510A JP7144931B2 (en) 2017-12-14 2017-12-14 Program and game system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017239510A JP7144931B2 (en) 2017-12-14 2017-12-14 Program and game system

Publications (2)

Publication Number Publication Date
JP2019103728A JP2019103728A (en) 2019-06-27
JP7144931B2 true JP7144931B2 (en) 2022-09-30

Family

ID=67061387

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017239510A Active JP7144931B2 (en) 2017-12-14 2017-12-14 Program and game system

Country Status (1)

Country Link
JP (1) JP7144931B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111369687B (en) * 2020-03-04 2021-03-30 腾讯科技(深圳)有限公司 Method and device for synthesizing action sequence of virtual object
GB2630601A (en) * 2023-05-31 2024-12-04 Sony Interactive Entertainment Europe Ltd Method and system for generating an animation
CN117351120B (en) * 2023-12-06 2024-03-19 青岛蓝飞互娱科技股份有限公司 3D game animation generation method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010072768A (en) 2008-09-16 2010-04-02 Namco Bandai Games Inc Program, information storage medium, and game device
JP2010119825A (en) 2008-10-20 2010-06-03 Taito Corp Shooting game apparatus
WO2015194509A1 (en) 2014-06-20 2015-12-23 株式会社ソニー・コンピュータエンタテインメント Video generation device, video generation method, program, and information storage medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010072768A (en) 2008-09-16 2010-04-02 Namco Bandai Games Inc Program, information storage medium, and game device
JP2010119825A (en) 2008-10-20 2010-06-03 Taito Corp Shooting game apparatus
WO2015194509A1 (en) 2014-06-20 2015-12-23 株式会社ソニー・コンピュータエンタテインメント Video generation device, video generation method, program, and information storage medium

Also Published As

Publication number Publication date
JP2019103728A (en) 2019-06-27

Similar Documents

Publication Publication Date Title
US8079907B2 (en) Method and apparatus for facilitating group musical interaction over a network
US6976918B2 (en) Video game that interpolates between animated segments to create new segments
US20100087240A1 (en) Method and apparatus for providing a simulated band experience including online interaction
JP6832061B2 (en) Game equipment and programs
US20070243915A1 (en) A Method and Apparatus For Providing A Simulated Band Experience Including Online Interaction and Downloaded Content
US6857960B2 (en) Video game device, background sound output method in video game, and readable storage medium storing background sound output program
WO2007115299A2 (en) A method and apparatus for providing a simulated band experience including online interaction
JPH1099546A (en) Video dance game machine and information recording medium
KR20180097694A (en) APPARATUS, SYSTEMS, AND METHODS FOR MUSIC GENERATION
WO2022000971A1 (en) Camera movement switching mode method and apparatus, computer program and readable medium
US6878869B2 (en) Audio signal outputting method and BGM generation method
JP7144931B2 (en) Program and game system
WO2009007512A1 (en) A gesture-controlled music synthesis system
JP2001087543A (en) Motion reproduction control method, recording medium and game device
JP5325265B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
JP5785414B2 (en) Program and image processing apparatus provided with program recording unit recording the program
JP7093642B2 (en) Computer system, program and timing game execution control method
JP2005058383A (en) Game information processor and computer program thereof
JP2019103729A (en) Program and game system
JP5386557B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
JP6392512B2 (en) Program and game device
JPH09325683A (en) Three dimensional simulator device and information storage medium
JP5222978B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
JP3912658B2 (en) Image processing apparatus, image processing method, game apparatus using the same, and storage medium
JP6974750B2 (en) Voice control program and voice control device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201202

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20210630

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211221

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220418

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220830

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220916

R150 Certificate of patent or registration of utility model

Ref document number: 7144931

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150