[go: up one dir, main page]

JP2024121044A - PROGRAM, INFORMATION PROCESSING APPARATUS AND IMAGE GENERATION METHOD - Google Patents

PROGRAM, INFORMATION PROCESSING APPARATUS AND IMAGE GENERATION METHOD Download PDF

Info

Publication number
JP2024121044A
JP2024121044A JP2023027897A JP2023027897A JP2024121044A JP 2024121044 A JP2024121044 A JP 2024121044A JP 2023027897 A JP2023027897 A JP 2023027897A JP 2023027897 A JP2023027897 A JP 2023027897A JP 2024121044 A JP2024121044 A JP 2024121044A
Authority
JP
Japan
Prior art keywords
performance
image
impression
gives
evaluation value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023027897A
Other languages
Japanese (ja)
Inventor
滋 加福
Shigeru Kafuku
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2023027897A priority Critical patent/JP2024121044A/en
Publication of JP2024121044A publication Critical patent/JP2024121044A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Auxiliary Devices For Music (AREA)

Abstract

【課題】演奏が与える印象を捉えて可視化できるようにする。【解決手段】情報処理装置の制御部は、演奏に基づく演奏情報から演奏が与える印象を判定するための評価値を算出し、算出した評価値に基づいて演奏が与える印象を視覚的に与えるパターン画像を画像に合成して出力する。例えば、制御部11は、演奏情報を解析することにより取得された特徴量に基づいた演奏画像に、評価値に基づいて演奏が与える印象を視覚的に与えるパターン画像を合成して出力する。【選択図】図3[Problem] To make it possible to capture and visualize the impression given by a performance. [Solution] A control unit of an information processing device calculates an evaluation value for judging the impression given by a performance from performance information based on the performance, and synthesizes a pattern image that visually gives the impression given by the performance based on the calculated evaluation value with an image and outputs the result. For example, the control unit 11 synthesizes a performance image based on a feature amount acquired by analyzing the performance information with a pattern image that visually gives the impression given by the performance based on the evaluation value and outputs the result. [Selected Figure] Figure 3

Description

本発明は、プログラム、情報処理装置及び画像生成方法に関する。 The present invention relates to a program, an information processing device, and an image generation method.

従来、歌唱力の採点結果に応じて、次に再生する演奏曲、背景画像及び歌詞画像を選択するカラオケ装置が知られている(例えば、特許文献1参照)。 Conventionally, karaoke devices are known that select the next song to be played, the background image, and the lyric image based on the results of a singing ability assessment (see, for example, Patent Document 1).

特開平6-110479号公報Japanese Patent Application Publication No. 6-110479

しかし、特許文献1に記載の技術では、演奏中に演奏が与える印象を捉えて可視化することはできない。 However, the technology described in Patent Document 1 cannot capture and visualize the impression given by the performance while it is being played.

本発明は、上記の問題に鑑みてなされたものであり、演奏が与える印象を捉えて可視化できるようにすることを目的とする。 The present invention was made in consideration of the above problems, and aims to make it possible to capture and visualize the impression given by a performance.

上記課題を解決するため、本発明のプログラムは、
コンピュータに、
演奏に基づく演奏情報から前記演奏が与える印象を判定するための評価値を算出し、
算出した前記評価値に基づいて前記演奏が与える印象を視覚的に与えるパターン画像を画像に合成して出力する、
処理を実行させる。
In order to solve the above problems, the program of the present invention comprises:
On the computer,
calculating an evaluation value for determining an impression given by the performance from performance information based on the performance;
a pattern image that visually conveys an impression of the performance based on the calculated evaluation value is synthesized with the image and output.
Execute the process.

本発明によれば、演奏が与える印象を可視化することが可能となる。 The present invention makes it possible to visualize the impression that a performance gives.

本発明に係る情報処理装置を備える演奏システムの全体構成例を示す図である。1 is a diagram showing an example of the overall configuration of a performance system including an information processing device according to the present invention; パターン画像(背景画像)の例を示す図である。FIG. 13 is a diagram showing an example of a pattern image (background image). 図1の制御部により実行される演奏画像生成処理Aの流れを示すフローチャートである。2 is a flowchart showing the flow of a performance image generating process A executed by the control unit of FIG. 1 . 第1画像で用いられるキャラクタ等の例を示す図である。13A to 13C are diagrams showing examples of characters etc. used in the first image. 図3のステップS4において実行される背景選択処理の流れを示すフローチャートである。4 is a flowchart showing the flow of a background selection process executed in step S4 of FIG. 3. パターン画像(背景画像)が合成された第1画像の例を示す図である。FIG. 13 is a diagram showing an example of a first image onto which a pattern image (background image) is combined. マスク画像の例を示す図である。FIG. 13 is a diagram showing an example of a mask image. 図1の制御部により実行される演奏画像生成処理Bの流れを示すフローチャートである。13 is a flowchart showing the flow of a performance image generating process B executed by the control unit of FIG. 1 . 図8のステップS24において実行されるマスク選択処理の流れを示すフローチャートである。10 is a flowchart showing the process of mask selection executed in step S24 of FIG. 8; マスク画像が合成された第1画像の例を示す図である。FIG. 13 is a diagram showing an example of a first image combined with a mask image.

以下に、本発明の実施形態について、図面を用いて説明する。但し、以下に述べる実施形態には、本発明を実施するために技術的に好ましい種々の限定が付されている。そのため、本発明の技術的範囲を以下の実施形態及び図示例に限定するものではない。 The following describes an embodiment of the present invention with reference to the drawings. However, the embodiment described below has various limitations that are technically preferable for implementing the present invention. Therefore, the technical scope of the present invention is not limited to the following embodiment and illustrated examples.

[演奏システム100の構成]
<第1の実施形態>
図1は、本発明に係る演奏システム100の全体構成例を示す図である。
図1に示すように、演奏システム100は、情報処理装置1と、電子楽器2と、を備えて構成されている。情報処理装置1と電子楽器2は、無線又は有線によりデータ送受信可能に通信接続されている。
[Configuration of the performance system 100]
First Embodiment
FIG. 1 is a diagram showing an example of the overall configuration of a performance system 100 according to the present invention.
1, the performance system 100 includes an information processing device 1 and an electronic musical instrument 2. The information processing device 1 and the electronic musical instrument 2 are communicatively connected to each other wirelessly or via a wire so as to be able to transmit and receive data.

[情報処理装置1の構成]
情報処理装置1は、ユーザ(演奏者)による電子楽器2の演奏に応じた画像を生成する装置である。
情報処理装置1としては、例えば、タブレットPC(Personal Computer)、ノートPC、スマートフォン等が適用可能である。
[Configuration of information processing device 1]
The information processing device 1 is a device that generates an image in response to a performance of an electronic musical instrument 2 by a user (player).
The information processing device 1 may be, for example, a tablet PC (Personal Computer), a notebook PC, a smartphone, or the like.

情報処理装置1は、図1に示すように、制御部11、記憶部12、入力部13、表示部14、及び通信部15等を備えて構成され、各部はバス16により接続されている。 As shown in FIG. 1, the information processing device 1 is configured with a control unit 11, a memory unit 12, an input unit 13, a display unit 14, and a communication unit 15, and each unit is connected by a bus 16.

制御部11は、少なくとも1つのプロセッサであるCPU(Central Processing Unit)、RAM(Random Access Memory)等を備えて構成され、情報処理装置1の各部を制御するコンピュータである。具体的には、制御部11のCPUは、記憶部12に記憶されているシステムプログラムや各種アプリケーションプログラムの中から指定されたプログラムを読み出してRAMに展開し、展開されたプログラムとの協働により各種処理を実行する。
例えば、入力部13の操作により、記憶部12に記憶されている演奏画像生成アプリ121の起動が指示されると、制御部11のCPUは、演奏画像生成アプリ121を起動して後述する演奏画像生成処理A(図3参照)を実行する。
The control unit 11 is a computer that includes at least one processor such as a CPU (Central Processing Unit), a RAM (Random Access Memory), and the like, and controls each part of the information processing device 1. Specifically, the CPU of the control unit 11 reads out a specified program from among the system programs and various application programs stored in the storage unit 12, expands it in the RAM, and executes various processes in cooperation with the expanded program.
For example, when the input unit 13 is operated to instruct the launch of a performance image generation application 121 stored in the memory unit 12, the CPU of the control unit 11 launches the performance image generation application 121 and executes the performance image generation process A (see Figure 3) described later.

記憶部12は、不揮発性の半導体メモリやHDD(Hard Disk Drive)等により構成されている。記憶部12は、情報処理装置1のシステムプログラムや各種アプリケーションプログラム、プログラムの実行に必要なデータを記憶する。記憶部12は、情報処理装置1に内蔵されたものに限られず、外付けHDD、USBメモリ等の情報処理装置1に対して着脱可能な外部記録媒体を含んでもよい。
本実施形態において、記憶部12は、制御部11が演奏画像生成処理Aを実行するための演奏画像生成アプリ121を記憶している。
The storage unit 12 is composed of a non-volatile semiconductor memory, a HDD (Hard Disk Drive), etc. The storage unit 12 stores the system program of the information processing device 1, various application programs, and data required for executing the programs. The storage unit 12 is not limited to being built into the information processing device 1, and may include an external recording medium that is detachable from the information processing device 1, such as an external HDD or a USB memory.
In this embodiment, the storage unit 12 stores a performance image generating application 121 for the control unit 11 to execute the performance image generating process A.

また、記憶部12には、図2に示すように、「繊細」、「パワフル」、「ゆっくり」、「速い」、「悲しい」、「楽しい」、「重い」、「軽い」、「規則的」、「自由」のそれぞれの印象を視覚的に与えるパターン画像(テクスチャ画像)が、予め割り当てられた背景番号に対応付けて記憶されている。記憶部12に記憶されているパターン画像は、演奏画像(詳細後述)の背景となる背景画像である。
本実施形態では、「繊細」の印象を視覚的に与えるパターン画像には背景番号として“1”が対応付けられている。「パワフル」の印象を視覚的に与えるパターン画像には背景番号として“2”が対応付けられている。「ゆっくり」の印象を視覚的に与えるパターン画像には背景番号として“3”が対応付けられている。「速い」の印象を視覚的に与えるパターン画像には背景番号として“4”が対応付けられている。「悲しい」の印象を視覚的に与えるパターン画像には背景番号として“5”が対応付けられている。「楽しい」の印象を視覚的に与えるパターン画像には背景番号として“6”が対応付けられている。「重い」の印象を視覚的に与えるパターン画像には背景番号として“7”が対応付けられている。「軽い」の印象を視覚的に与えるパターン画像には背景番号として“8”が対応付けられている。「規則的」の印象を視覚的に与えるパターン画像には背景番号として“9”が対応付けられている。「自由」の印象を視覚的に与えるパターン画像には背景番号として“10”が対応付けられている。
2, the storage unit 12 stores pattern images (texture images) that visually give impressions of "delicate,""powerful,""slow,""fast,""sad,""joyful,""heavy,""light,""regular," and "free," in association with pre-assigned background numbers. The pattern images stored in the storage unit 12 are background images that become the background of the performance image (described in detail later).
In this embodiment, the pattern image that visually gives the impression of "delicate" is associated with the background number "1". The pattern image that visually gives the impression of "powerful" is associated with the background number "2". The pattern image that visually gives the impression of "slow" is associated with the background number "3". The pattern image that visually gives the impression of "fast" is associated with the background number "4". The pattern image that visually gives the impression of "sad" is associated with the background number "5". The pattern image that visually gives the impression of "fun" is associated with the background number "6". The pattern image that visually gives the impression of "heavy" is associated with the background number "7". The pattern image that visually gives the impression of "light" is associated with the background number "8". The pattern image that visually gives the impression of "regular" is associated with the background number "9". The pattern image that visually gives the impression of "free" is associated with the background number "10".

入力部13は、押しボタンスイッチや表示部14に取り付けられたタッチパネル等で構成されている。入力部13は、ユーザによる押しボタンスイッチの操作や画面上のタッチ操作を検出し、操作信号を制御部11に出力する。 The input unit 13 is composed of push button switches, a touch panel attached to the display unit 14, etc. The input unit 13 detects the operation of the push button switches or touch operations on the screen by the user, and outputs an operation signal to the control unit 11.

表示部14は、LCD(Liquid Crystal Display)、EL(Electro Luminescence)ディスプレイ等で構成され、制御部11から指示された表示情報に従い各種表示を行う。 The display unit 14 is composed of an LCD (Liquid Crystal Display), an EL (Electro Luminescence) display, etc., and performs various displays according to the display information instructed by the control unit 11.

通信部15は、電子楽器2を始めとする外部機器との間で通信を行うための有線ユニットや無線ユニットを備え、外部機器とデータ送受信を行う。本実施形態において、通信部15は、図示しない通信インターフェース(本実施形態では、MIDIインターフェース)を介して電子楽器2とデータ送受信を行う。 The communication unit 15 includes a wired unit or a wireless unit for communicating with external devices such as the electronic musical instrument 2, and transmits and receives data to and from the external devices. In this embodiment, the communication unit 15 transmits and receives data to and from the electronic musical instrument 2 via a communication interface (in this embodiment, a MIDI interface) not shown.

[電子楽器2]
電子楽器2は、例えば、鍵盤楽器である。
電子楽器2は、図1に示すように、制御部21、記憶部22、鍵盤23、入力部24、表示部25、通信部26、出力部27等を備えて構成され、各部はバス28により接続されている。
[Electronic Musical Instrument 2]
The electronic musical instrument 2 is, for example, a keyboard instrument.
As shown in FIG. 1, the electronic musical instrument 2 is configured with a control unit 21, a memory unit 22, a keyboard 23, an input unit 24, a display unit 25, a communication unit 26, an output unit 27, etc., and each unit is connected by a bus 28.

制御部21は、CPU、DSP(Digital Signal Processor)といった各プロセッサ及びRAM等を備えて構成され、電子楽器2の各部を制御するコンピュータである。具体的には、制御部21のCPUは、記憶部22に記憶されているシステムプログラムや各種プログラムの中から指定されたプログラムを読み出してRAMに展開し、展開されたプログラムとの協働で、各種処理を実行する。
例えば、制御部21は、鍵盤23における演奏操作(本実施形態では、押鍵/離鍵)に従って出力部27により楽器音を出力させたり消音したりする。また、制御部21は、鍵盤23において演奏操作が検出されると、演奏操作に応じた、すなわち演奏に基づく演奏情報を生成して通信部26を介して情報処理装置1に送信する。演奏情報には、押鍵された鍵の音高(ノート番号)、ベロシティやタイミング、離鍵された鍵の音高やタイミングの情報が含まれる。
The control unit 21 is a computer that includes various processors such as a CPU and a DSP (Digital Signal Processor), a RAM, etc., and controls the various components of the electronic musical instrument 2. Specifically, the CPU of the control unit 21 reads out a specified program from among the system programs and various programs stored in the storage unit 22, loads it into the RAM, and executes various processes in cooperation with the loaded program.
For example, the control unit 21 causes the output unit 27 to output or mute instrument sounds in accordance with a performance operation (in this embodiment, key pressing/release) on the keyboard 23. Furthermore, when the control unit 21 detects a performance operation on the keyboard 23, it generates performance information in accordance with the performance operation, i.e., based on the performance, and transmits the performance information to the information processing device 1 via the communication unit 26. The performance information includes information on the pitch (note number), velocity and timing of the pressed key, and the pitch and timing of the released key.

記憶部22は、不揮発性の半導体メモリやHDD(Hard Disk Drive)等により構成されている。記憶部22は、電子楽器2のシステムプログラムや各種プログラム、プログラムの実行に必要なデータを記憶する。記憶部22は、電子楽器2に内蔵されたものに限られず、外付けHDD、USBメモリ等の電子楽器2に対して着脱可能な外部記録媒体を含んでもよい。 The storage unit 22 is composed of a non-volatile semiconductor memory, a HDD (Hard Disk Drive), etc. The storage unit 22 stores the system program of the electronic musical instrument 2, various programs, and data required for executing the programs. The storage unit 22 is not limited to being built into the electronic musical instrument 2, but may include an external recording medium that is detachable from the electronic musical instrument 2, such as an external HDD or USB memory.

鍵盤23は、複数の鍵(操作子)、及び押鍵/離鍵された鍵を検出する検出部等を備え、ユーザにより押鍵/離鍵された鍵の音高やタイミング、ベロシティの情報等を制御部21に出力する。 The keyboard 23 includes a plurality of keys (operators) and a detection unit that detects pressed/released keys, and outputs information such as the pitch, timing, and velocity of the keys pressed/released by the user to the control unit 21.

入力部24は、押しボタンスイッチや表示部25に取り付けられたタッチパネル等で構成されている。入力部24は、ユーザによる押しボタンスイッチの操作や画面上のタッチ操作を検出し、操作信号を制御部21に出力する。 The input unit 24 is composed of push button switches, a touch panel attached to the display unit 25, etc. The input unit 24 detects the operation of the push button switches or touch operations on the screen by the user, and outputs an operation signal to the control unit 21.

表示部25は、LCD(Liquid Crystal Display)等で構成され、制御部21から指示された表示情報に従い各種表示を行う。 The display unit 25 is composed of an LCD (Liquid Crystal Display) or the like, and displays various information according to the display information instructed by the control unit 21.

通信部26は、情報処理装置1を始めとする外部機器との間で通信を行うための有線ユニットや無線ユニットを備え、外部機器とデータ送受信を行う。本実施形態において、通信部26は、図示しない通信インターフェース(本実施形態では、MIDIインターフェース)を介して情報処理装置1とデータ送受信を行う。 The communication unit 26 includes a wired unit or a wireless unit for communicating with external devices such as the information processing device 1, and transmits and receives data to and from the external devices. In this embodiment, the communication unit 26 transmits and receives data to and from the information processing device 1 via a communication interface (in this embodiment, a MIDI interface) not shown.

出力部27は、音源部、D/Aコンバータ、増幅器、スピーカ等を備える。出力部27は、制御部21からの指示に従って、音源部により、音源部に備えられた波形ROMに予め記憶された波形データを読み出すか又は波形データを生成して、波形データに基づく楽器音をD/Aコンバータ、増幅器を介してスピーカから出力する。 The output unit 27 includes a sound source unit, a D/A converter, an amplifier, a speaker, etc. In accordance with instructions from the control unit 21, the output unit 27 reads out waveform data stored in advance in a waveform ROM provided in the sound source unit or generates waveform data, and outputs musical instrument sounds based on the waveform data from the speaker via the D/A converter and amplifier.

[情報処理装置1の動作]
次に、本実施形態における情報処理装置1の動作について説明する。
図3は、情報処理装置1において演奏画像生成アプリ121が起動された場合に、制御部11と演奏画像生成アプリ121との協働により実行される演奏画像生成処理Aの流れを示すフローチャートである。以下、図2を参照して、演奏画像生成処理Aについて説明する。
[Operation of information processing device 1]
Next, the operation of the information processing device 1 in this embodiment will be described.
3 is a flowchart showing the flow of a performance image generating process A executed by the control unit 11 and the performance image generating application 121 in cooperation with each other when the performance image generating application 121 is started in the information processing device 1. Hereinafter, the performance image generating process A will be described with reference to FIG.

まず、制御部11は、通信部15を介して電子楽器2から演奏情報が入力されたか否かを判断する(ステップS1)。
通信部15を介して電子楽器2から演奏情報が入力されていないと判断した場合(ステップS1;NO)、制御部11は、ステップS8に移行する。
First, the control unit 11 judges whether or not performance information has been input from the electronic musical instrument 2 via the communication unit 15 (step S1).
When it is determined that no performance information has been input from the electronic musical instrument 2 via the communication section 15 (step S1; NO), the control section 11 proceeds to step S8.

通信部15を介して電子楽器2から演奏情報が入力されたと判断した場合(ステップS1;YES)、制御部11は、入力された演奏情報を取得して、演奏情報を解析する(ステップS2)。
ステップS2において、例えば、制御部11は、入力された演奏情報を解析して、演奏されている音楽に関する特徴量、例えば、音高、ベロシティ、調性(例えば、ハ長調~ロ短調の24種類)、テンポ、コード種別(例えば、Major、minor、sus、arg、dim、7th等)、和音数のうちの少なくとも一つを取得する。音高、ベロシティは、入力された演奏情報から取得することができる。調性及びコード種別は、特に限定されるものではないが、例えば、特許第3211839号公報等に開示されている手法を用いて取得することができる。また、テンポは、特に限定されるものではないが、例えば、特許第5672280号公報等に開示されている手法を用いて取得することができる。また、和音数は、特に限定されるものではないが、例えば、同時押鍵数(所定時間内における押鍵数)等に基づいて取得することができる。
ただし、ステップS2で取得する特徴量は上述のものに限定されず、例えば、シンコペーションの有無、拍の規則性、コード進行等を取得してもよい。
When it is determined that performance information has been input from the electronic musical instrument 2 via the communication section 15 (step S1; YES), the control section 11 acquires the input performance information and analyzes the performance information (step S2).
In step S2, for example, the control unit 11 analyzes the input performance information to obtain at least one of the features of the music being played, such as pitch, velocity, key (for example, 24 types from C major to B minor), tempo, chord type (for example, major, minor, sus, arg, dim, 7th, etc.), and number of chords. The pitch and velocity can be obtained from the input performance information. The key and chord type are not particularly limited, but can be obtained using a method disclosed in Japanese Patent No. 3211839, etc. The tempo is not particularly limited, but can be obtained using a method disclosed in Japanese Patent No. 5672280, etc. The number of chords is not particularly limited, but can be obtained based on the number of simultaneously pressed keys (the number of keys pressed within a predetermined time), etc.
However, the feature amount obtained in step S2 is not limited to the above, and for example, the presence or absence of syncopation, the regularity of beats, chord progression, etc. may be obtained.

次いで、制御部11は、ステップS2における解析結果に基づいて、第1画像を生成する(ステップS3)。
ここで、第1画像は、演奏情報が入力されるごとに生成される、リアルタイムの演奏に応じた画像(演奏画像)である。本実施形態では、記憶部12に記憶されている基礎となる画像をコンピュータグラフィックス(CG)で加工して第1画像を生成するが、第1画像は、このような手法によるものに限定される必要はなく、演奏情報に応じた画像であればよい。
Next, the control unit 11 generates a first image based on the analysis result in step S2 (step S3).
Here, the first image is an image (performance image) corresponding to a real-time performance, which is generated each time performance information is input. In this embodiment, the first image is generated by processing a base image stored in the storage unit 12 using computer graphics (CG), but the first image does not need to be generated by such a method and may be any image corresponding to the performance information.

図4は、第1画像で用いられるキャラクタ等の例を示す図である。
図4(a)に示すように、メロディに対応するキャラクタ画像として、音高に応じた12種類の花の画像が記憶部12に記憶されている。すなわち、記憶部12には、音高に対応付けて、花の画像が記憶されている。なお、図4(a)では、12種類の花の画像のうちの3つについて示している。
制御部11は、演奏情報から取得したメロディの音高に対応する花の画像を、第1画像で用いられるキャラクタとして選択する。
FIG. 4 is a diagram showing examples of characters and the like used in the first image.
As shown in Fig. 4(a), 12 types of flower images corresponding to pitches are stored in the storage unit 12 as character images corresponding to melodies. That is, flower images are stored in association with pitches in the storage unit 12. Note that Fig. 4(a) shows three of the 12 types of flower images.
The control unit 11 selects an image of a flower that corresponds to the pitch of the melody obtained from the performance information as a character to be used in the first image.

また、図4(b)に示すように、コード種別(例えば、Major、minor、sus、arg、dim、7th等)に対応するキャラクタ画像として、コード種別に応じた10種類の葉の画像が記憶部12に記憶されている。すなわち、記憶部12には、コード種別に対応付けて、葉の画像が記憶されている。なお、図4(b)では、10種類の葉の画像のうちの3つについて示している。
制御部11は、演奏情報に基づいて取得されたコード種別に対応する葉の画像を、第1画像で用いられるキャラクタとして選択する。
As shown in Fig. 4(b), 10 types of leaf images corresponding to the code types (e.g., major, minor, sus, arg, dim, 7th, etc.) are stored in the storage unit 12 as character images corresponding to the code types. That is, the storage unit 12 stores leaf images in association with the code types. Note that Fig. 4(b) shows three of the 10 types of leaf images.
The control unit 11 selects an image of a leaf that corresponds to the chord type acquired based on the performance information as a character to be used in the first image.

また、制御部11は、演奏情報から取得したベロシティに基づいて、第1画像に使用されるキャラクタの大きさを選択する。例えば、制御部11は、図4(c)の左側の画像に示すように、ベロシティが小さい(ベロシティが第1範囲内)状態のときに、キャラクタとしての花の画像のサイズを小さくし、またベロシティが、第1範囲の最大値より大きい値の範囲である第2範囲、第2範囲の最大値より大きい値の範囲である第3範囲の状態になるにしたがって、図4(c)の中央側の画像、右側の画像のように、キャラクタとしての花の画像のサイズを徐々に大きくする。葉の画像についても同様である。 The control unit 11 also selects the size of the character used in the first image based on the velocity obtained from the performance information. For example, as shown in the image on the left side of FIG. 4(c), when the velocity is low (the velocity is within the first range), the control unit 11 reduces the size of the image of the flower as a character, and as the velocity moves into the second range, which is a range of values greater than the maximum value of the first range, and into the third range, which is a range of values greater than the maximum value of the second range, the control unit 11 gradually increases the size of the image of the flower as a character, as shown in the image on the center side and the image on the right side of FIG. 4(c). The same applies to the image of the leaf.

また、制御部11は、ステップS2でシンコペーションが有る、拍の規則性が崩れているとの情報を取得した場合、崩れている程度が大きくなるにしたがい、図4(d)の左側の画像から徐々に右側の画像に、つまりキャラクタとしての葉の画像の形状が崩れたものになっていくように変化させる。 In addition, when the control unit 11 acquires information in step S2 that there is syncopation and the regularity of the beats is broken, as the degree of the break increases, the image on the left side of Figure 4 (d) gradually changes to the image on the right side, that is, the shape of the leaf image as a character becomes more broken.

また、制御部11は、ステップS2で演奏情報の拍の規則性、コード進行の正しさの情報を取得した場合、これらの情報に応じて、図4(e)に示すように、第1画像に使用されるキャラクタの色の有無の状態(線図とするか色つきとするか)等を選択する。例えば、拍の規則性、コード進行の正しさが悪い場合にキャラクタとしての葉の画像が色付きの悪い線図(左側画像)となり、逆に、良い場合に色つきになるように選択する(右側画像)。 When the control unit 11 acquires information on the regularity of the beats in the performance information and the correctness of the chord progression in step S2, it selects whether or not to color the characters used in the first image (whether to use a line drawing or color), etc., according to this information, as shown in FIG. 4(e). For example, if the regularity of the beats or the correctness of the chord progression is poor, the image of the leaf as the character will be a poorly colored line drawing (left image), and conversely, if it is good, it will be selected to be colored (right image).

また、制御部11は、調性に基づいて背景色を選択してもよい。調性に対応した色については、例えば、アレクサンドル・スクリャービン等によって提案されている。 The control unit 11 may also select the background color based on the key. Colors corresponding to the key have been proposed, for example, by Alexander Scriabin.

そして、制御部11は、図4(f)に示すように、コード進行に応じた14種類(図4(f)では、そのうちの3つを示している。)の軌道パターンPSに従って、キャラクタが表示部14に出現するように第1画像におけるキャラクタの位置を決定し、その位置に合うようにキャラクタが適用された第1画像を生成する。
なお、制御部11は、第1画像を生成するごとに、その第1画像の生成に用いた画像パラメータ(例えば、選択されたキャラクタ(花、葉)の識別番号、サイズ、キャラクタの色の有無の状態、背景色、キャラクタの配置等)をRAM又は記憶部12に記憶する。
Then, as shown in Figure 4(f), the control unit 11 determines the position of the character in the first image so that the character appears on the display unit 14 according to one of 14 types of trajectory patterns PS (three of which are shown in Figure 4(f)) corresponding to the chord progression, and generates a first image in which the character is applied to match that position.
Each time the control unit 11 generates a first image, it stores the image parameters used to generate the first image (e.g., the identification number of the selected character (flower, leaf), size, whether the character has color, background color, character placement, etc.) in the RAM or memory unit 12.

次いで、制御部11は、背景選択処理を実行する(ステップS4)。
図5は、背景選択処理の流れを示すフローチャートである。背景選択処理は、制御部11と演奏画像生成アプリ121との協働により実行される。
Next, the control unit 11 executes a background selection process (step S4).
5 is a flow chart showing the flow of the background selection process. The background selection process is executed by the control unit 11 and the musical performance image generation application 121 in cooperation with each other.

まず、制御部11は、SD(Semantic Differential)ベクトルを算出する(ステップS401)。
ここで、SDベクトルは、演奏情報に基づく演奏が与える印象を、SD(Semantic Differential)法を用いて判定するために算出される一又は複数の評価値(SD値)からなる。この一又は複数のSD値のそれぞれは、演奏に基づく演奏情報が、予め定められた対義語対(反対の意味を表す言葉の対)のうちの一方の印象を与えるか、他方の印象を与えるか、又はいずれの印象も与えないかを判定するための評価値であり、ステップS2において取得された特徴量に基づいて算出される。
本実施形態において、制御部11は、「繊細-パワフル」、「ゆっくり-速い」、「悲しい-楽しい」、「重い-軽い」、「規則的-自由」の5つの対義語対について、一方の印象を与えるか、他方の印象を与えるか、またはいずれの印象も与えないかを判定するために、5つのSD値を算出する。
例えば、「繊細-パワフル」に関するSD値(SD1と呼ぶ)は、所定期間(例えば、直近の1拍に相当する時間)におけるベロシティの平均に基づいて算出される。
また、例えば、「ゆっくり-速い」に関するSD値(SD2と呼ぶ)は、所定期間におけるテンポの平均に基づいて算出される。
また、例えば、「悲しい-楽しい」に関するSD値(SD3と呼ぶ)は、所定期間における調性(調性を数値化した値)とテンポの平均に基づいて算出される。
また、例えば、「重い-軽い」に関するSD値(SD4と呼ぶ)は、所定期間における音高と、和音数と、テンポの平均とに基づいて算出される。
また、例えば、「規則的-自由」に関するSD値(SD5と呼ぶ)は、所定時間におけるテンポの分散値に基づいて算出される。
制御部11は、算出したSD値(SD1~SD5)を、RAM又は記憶部12に記憶する。
First, the control unit 11 calculates a Semantic Differential (SD) vector (step S401).
Here, the SD vector is composed of one or more evaluation values (SD values) calculated to determine the impression given by the performance based on the performance information using the SD (Semantic Differential) method. Each of the one or more SD values is an evaluation value for determining whether the performance information based on the performance gives one impression of a predetermined antonym pair (a pair of words having opposite meanings), the other impression, or neither impression, and is calculated based on the feature amount acquired in step S2.
In this embodiment, the control unit 11 calculates five SD values for five antonym pairs, "delicate-powerful,""slow-fast,""sad-happy,""heavy-light," and "regular-free," to determine whether the pair gives one impression, the other impression, or neither impression.
For example, the SD value for "delicate-powerful" (called SD1) is calculated based on the average velocity over a predetermined period (eg, the time equivalent to the most recent beat).
Also, for example, the SD value for "slow-fast" (called SD2) is calculated based on the average tempo over a predetermined period.
Also, for example, the SD value for "sad-happy" (called SD3) is calculated based on the average of the tonality (a value obtained by converting the tonality into a numerical value) and the tempo over a predetermined period.
Also, for example, the SD value for "heavy-light" (called SD4) is calculated based on the average pitch, number of chords, and tempo over a predetermined period.
Also, for example, the SD value for "regular-free" (called SD5) is calculated based on the variance of the tempo over a given period of time.
The control unit 11 stores the calculated SD values (SD1 to SD5) in the RAM or the storage unit 12.

本実施形態において、各SD値は0~255の値をとる。制御部11は、ステップS2で取得された各特徴量の取り得る値範囲の最小値が0、最大値が255となるように変換してSD値を算出する。
SD値は、対義語対のうちの一方の印象が強い(顕著な)ほど0に近づき、他方の印象が強い(顕著な)ほど255に近づく。例えば、対義語対が「繊細-パワフル」である場合、演奏が繊細であるほどSD1は0に近づき、演奏がパワフルであるほどSD1は255に近づく。制御部11は、SD値が第1の閾値未満である場合に、演奏が対義語対のうちの一方の印象を与えると判定する。SD値が第1の閾値より大きい第2の閾値を超える場合に、演奏が他方の印象を与えると判定する。SD値が第1の閾値以上第2の閾値以下である場合、いずれの印象も与えないと判定する(第1の閾値<第2の閾値)。本実施形態では、第1の閾値を30、第2の閾値を225として説明する。
In this embodiment, each SD value ranges from 0 to 255. The control unit 11 calculates the SD value by converting the possible value range of each feature amount acquired in step S2 so that the minimum value is 0 and the maximum value is 255.
The SD value approaches 0 as the impression of one of the antonym pair is stronger (more prominent), and approaches 255 as the impression of the other is stronger (more prominent). For example, when the antonym pair is "delicate-powerful", the more delicate the performance, the closer SD1 is to 0, and the more powerful the performance, the closer SD1 is to 255. When the SD value is less than the first threshold, the control unit 11 determines that the performance gives the impression of one of the antonym pair. When the SD value exceeds a second threshold that is greater than the first threshold, the control unit 11 determines that the performance gives the impression of the other. When the SD value is equal to or greater than the first threshold and equal to or less than the second threshold, the control unit 11 determines that the performance gives neither impression (first threshold<second threshold). In this embodiment, the first threshold is 30, and the second threshold is 225.

次いで、制御部11は、背景番号を格納するための「背景」変数に“-1”を設定する(ステップS402)。 Next, the control unit 11 sets the "background" variable, which stores the background number, to "-1" (step S402).

次いで、制御部11は、SD1<30であるか否かを判断する(ステップS403)。
SD1<30であると判断した場合(ステップS403;YES)、制御部11は、演奏が「繊細」な印象を与えると判定して、「背景」変数に“1”を設定し(ステップS404)、図3のステップS5に移行する。
Next, the control unit 11 judges whether SD1<30 (step S403).
If it is determined that SD1<30 (step S403; YES), the control unit 11 determines that the performance gives a "delicate" impression, sets the "background" variable to "1" (step S404), and proceeds to step S5 in FIG.

SD1<30ではないと判断した場合(ステップS403;NO)、制御部11は、SD1>225であるか否かを判断する(ステップS405)。
SD1>225であると判断した場合(ステップS405;YES)、制御部11は、演奏が「パワフル」な印象を与えると判定して「背景」変数に“2”を設定し(ステップS406)、図3のステップS5に移行する。
When it is determined that SD1<30 is not satisfied (step S403; NO), the control unit 11 determines whether or not SD1>225 is satisfied (step S405).
If it is determined that SD1>225 (step S405; YES), the control unit 11 determines that the performance gives a "powerful" impression, sets the "background" variable to "2" (step S406), and proceeds to step S5 in FIG.

SD1>225ではないと判断した場合(ステップS405;NO)、つまり演奏が「繊細」な印象とも「パワフル」な印象とも言えない場合、制御部11は、SD2<30であるか否かを判断する(ステップS407)。
SD2<30であると判断した場合(ステップS407;YES)、制御部11は、演奏が「ゆっくり」な印象を与えると判定して「背景」変数に“3”を設定し(ステップS408)、図3のステップS5に移行する。
If it is determined that SD1>225 is not true (step S405; NO), that is, if the performance does not give the impression of being either "delicate" or "powerful", the control unit 11 determines whether SD2<30 is true (step S407).
If it is determined that SD2<30 (step S407; YES), the control unit 11 determines that the performance gives the impression of being "slow," sets the "background" variable to "3" (step S408), and proceeds to step S5 in FIG.

SD2<30ではないと判断した場合(ステップS407;NO)、制御部11は、SD2>225であるか否かを判断する(ステップS409)。
SD2>225であると判断した場合(ステップS409;YES)、制御部11は、演奏が「速い」印象を与えると判定して「背景」変数に“4”を設定し(ステップS410)、図3のステップS5に移行する。
When it is determined that SD2<30 is not satisfied (step S407; NO), the control unit 11 determines whether or not SD2>225 is satisfied (step S409).
If it is determined that SD2>225 (step S409; YES), the control unit 11 determines that the performance gives the impression of being "fast," sets the "background" variable to "4" (step S410), and proceeds to step S5 in FIG.

SD2>225ではないと判断した場合(ステップS409;NO)、つまり演奏が「ゆっくり」な印象とも「速い」印象とも言えない場合、制御部11は、SD3<30であるか否かを判断する(ステップS411)。
SD3<30であると判断した場合(ステップS411;YES)、制御部11は、演奏が「悲しい」印象を与えると判定して「背景」変数に“5”を設定し(ステップS412)、図3のステップS5に移行する。
If it is determined that SD2>225 is not true (step S409; NO), that is, if the performance does not give the impression of being "slow" or "fast," the control unit 11 determines whether SD3<30 is true (step S411).
If it is determined that SD3<30 (step S411; YES), the control unit 11 determines that the performance gives a "sad" impression, sets the "background" variable to "5" (step S412), and proceeds to step S5 in FIG.

SD3<30ではないと判断した場合(ステップS411;NO)、制御部11は、SD3>225であるか否かを判断する(ステップS413)。
SD3>225であると判断した場合(ステップS413;YES)、制御部11は、演奏が「楽しい」印象を与えると判定して「背景」変数に“6”を設定し(ステップS414)、図3のステップS5に移行する。
When it is determined that SD3<30 is not satisfied (step S411; NO), the control unit 11 determines whether or not SD3>225 is satisfied (step S413).
If it is determined that SD3>225 (step S413; YES), the control unit 11 determines that the performance gives a "fun" impression, sets the "background" variable to "6" (step S414), and proceeds to step S5 in FIG.

SD3>225ではないと判断した場合(ステップS413;NO)、つまり演奏が「悲しい」印象とも「楽しい」印象とも言えない場合、制御部11は、SD4<30であるか否かを判断する(ステップS415)。
SD4<30であると判断した場合(ステップS415;YES)、制御部11は、演奏が「重い」印象を与えると判定して「背景」変数に“7”を設定し(ステップS416)、図3のステップS5に移行する。
If it is determined that SD3 is not greater than 225 (step S413; NO), that is, if the performance does not give a "sad" impression or a "happy" impression, the control unit 11 determines whether SD4 is less than 30 (step S415).
If it is determined that SD4<30 (step S415; YES), the control unit 11 determines that the performance gives a "heavy" impression, sets the "background" variable to "7" (step S416), and proceeds to step S5 in FIG.

SD4<30ではないと判断した場合(ステップS415;NO)、制御部11は、SD4>225であるか否かを判断する(ステップS417)。
SD4>225であると判断した場合(ステップS417;YES)、制御部11は、演奏が「軽い」印象を与えると判定して「背景」変数に“8”を設定し(ステップS418)、図3のステップS5に移行する。
When it is determined that SD4 is not smaller than 30 (step S415; NO), the control unit 11 determines whether or not SD4 is larger than 225 (step S417).
If it is determined that SD4>225 (step S417; YES), the control unit 11 determines that the performance gives a "light" impression, sets the "background" variable to "8" (step S418), and proceeds to step S5 in FIG.

SD4>225ではないと判断した場合(ステップS417;NO)、つまり演奏が「重い」印象とも「軽い」印象とも言えない場合、制御部11は、SD5<30であるか否かを判断する(ステップS419)。
SD5<30であると判断した場合(ステップS419;YES)、制御部11は、演奏が「規則的」な印象を与えると判定して「背景」変数に“9”を設定し(ステップS420)、図3のステップS5に移行する。
If it is determined that SD4 is not greater than 225 (step S417; NO), that is, if the performance does not give the impression of being either "heavy" or "light," the control unit 11 determines whether SD5 is less than 30 (step S419).
If it is determined that SD5<30 (step S419; YES), the control unit 11 determines that the performance gives a "regular" impression, sets the "background" variable to "9" (step S420), and proceeds to step S5 in FIG.

SD5<30ではないと判断した場合(ステップS420;NO)、制御部11は、SD5>225であるか否かを判断する(ステップS421)。
SD5>225であると判断した場合(ステップS421;YES)、制御部11は、演奏が「自由」な印象を与えると判定して「背景」変数に“10”を設定し(ステップS422)、図3のステップS5に移行する。
SD5>225ではないと判断した場合(ステップS421;NO)、つまり演奏が「規則的」印象とも「自由」な印象とも言えない場合、制御部11は、図3のステップS5に移行する。
When it is determined that SD5<30 is not satisfied (step S420; NO), the control unit 11 determines whether or not SD5>225 is satisfied (step S421).
If it is determined that SD5>225 (step S421; YES), the control unit 11 determines that the performance gives a "free" impression, sets the "background" variable to "10" (step S422), and proceeds to step S5 in FIG.
If it is determined that SD5>225 is not satisfied (step S421; NO), that is, if the performance does not give a "regular" impression or a "free" impression, the control unit 11 proceeds to step S5 in FIG.

図3のステップS5において、制御部11は、「背景」変数の値が“-1”であるか否かを判断する(ステップS5)。
「背景」変数の値が“-1”ではないと判断した場合(ステップS5;NO)、制御部11は、「背景」変数の値が背景番号として対応付けられているパターン画像を記憶部12から読み出して、背景画像として第1画像に合成し(ステップS6)、ステップS7に移行する。
In step S5 of FIG. 3, the control unit 11 determines whether the value of the "background" variable is "-1" (step S5).
If it is determined that the value of the "background" variable is not "-1" (step S5; NO), the control unit 11 reads out from the memory unit 12 a pattern image to which the value of the "background" variable corresponds as a background number, and combines it with the first image as a background image (step S6), and proceeds to step S7.

図6は、図2に示す各パターン画像が合成された第1画像の例を示す図である。
図6に示すように、演奏に応じて生成された第1画像には、背景に、演奏が与える顕著な印象を視覚的に与えるパターン画像が合成されている。なお、図6における各画像は、背景であるパターン画像のみならず、ステップS3における第1画像を含んでいる。これは、ステップS3における第1画像及びパターン画像が、それぞれ演奏の特徴量及び評価値にしたがって表示されるものであるためであり、換言すればパターン画像のみ表示されるということはないためである。
ここで、第1画像は、上述のように、音高やコード種別に対応付けられた花や葉のキャラクタが、ベロシティに応じたサイズで、調性に応じた背景色で描画された画像である。このように、第1画像は演奏に応じて生成された画像であるが、この画像から、どのような印象をもつ演奏であるかをユーザが認識することは難しい。特に演奏が長くなるほど、第1画像としてのキャラクタの数が多くなるのでより複雑に見えてしまう。一方、本実施形態の第1画像には、図6に示すように、背景に、演奏が与える顕著な印象を視覚的に与えるパターン画像が合成されている。したがって、演奏が与える印象を、より明確にユーザに伝えることができる。
FIG. 6 is a diagram showing an example of a first image in which the pattern images shown in FIG. 2 are combined.
As shown in Fig. 6, the first image generated according to the performance has a pattern image in the background synthesized therein, which visually gives a prominent impression of the performance. Each image in Fig. 6 includes not only the pattern image, which is the background, but also the first image in step S3. This is because the first image and the pattern image in step S3 are displayed according to the characteristic amount and the evaluation value of the performance, respectively, in other words, it is not the case that only the pattern image is displayed.
Here, the first image is an image in which flower and leaf characters corresponding to pitches and chord types are drawn in a size corresponding to the velocity and in a background color corresponding to the key, as described above. In this way, the first image is an image generated according to the performance, but it is difficult for the user to recognize from this image what kind of impression the performance has. In particular, the longer the performance, the more characters there are in the first image, making it look more complicated. On the other hand, in the first image of this embodiment, as shown in FIG. 6, a pattern image that visually gives a noticeable impression of the performance is synthesized in the background. Therefore, the impression of the performance can be more clearly conveyed to the user.

一方、「背景」変数の値が“-1”であると判断した場合(ステップS5;YES)、すなわち、演奏が与える顕著な印象がなく背景となるパターン画像が選択されていない場合、制御部11は、第1画像に背景を合成せずにステップS7に移行する。なお、ステップS421において、SD5>225ではないと判断した場合、「繊細」、「パワフル」、「ゆっくり」、「速い」、「悲しい」、「楽しい」、「重い」、「軽い」、「規則的」及び「自由」のいずれの属性にも適さない中間的な背景画像をパターン画像の代替に適用してもよい。 On the other hand, if it is determined that the value of the "background" variable is "-1" (step S5; YES), that is, if the performance does not give a significant impression and a background pattern image has not been selected, the control unit 11 proceeds to step S7 without combining the background with the first image. Note that, if it is determined in step S421 that SD5 is not greater than 225, an intermediate background image that is not suitable for any of the attributes "delicate," "powerful," "slow," "fast," "sad," "fun," "heavy," "light," "regular," and "free" may be applied as a replacement for the pattern image.

ステップS7において、制御部11は、第1画像を出力し(ステップS7)、ステップS8に移行する。
例えば、制御部11は、第1画像を表示部14に出力して表示させる。また、制御部11は、第1画像を通信部15により図示しないプロジェクタ等に出力し、プロジェクタにより第1画像を表示(投影)させることとしてもよい。
In step S7, the control unit 11 outputs the first image (step S7), and the process proceeds to step S8.
For example, the control unit 11 outputs the first image to the display unit 14 to display it. Furthermore, the control unit 11 may output the first image to a projector (not shown) or the like via the communication unit 15 to display (project) the first image using the projector.

ステップS8において、制御部11は、演奏情報が入力されずに所定時間が経過したか否かを判断する(ステップS8)。
演奏情報が入力されずに所定時間が経過していないと判断した場合(ステップS8;NO)、制御部11は、ステップS1に戻る。
In step S8, the control unit 11 judges whether or not a predetermined time has elapsed without inputting any performance information (step S8).
When it is determined that the predetermined time has not elapsed without input of performance information (step S8; NO), the control section 11 returns to step S1.

演奏情報が入力されずに所定時間が経過したと判断した場合(ステップS8;YES)、制御部11は、演奏が終了したと判断して、演奏全体を総括した第2画像を生成する(ステップS9)。
制御部11は、演奏中に生成された複数の第1画像の生成に用いた画像パラメータ群に基づいて、第2画像を生成する。
If it is determined that a predetermined time has elapsed without any performance information being input (step S8; YES), the control unit 11 determines that the performance has ended and generates a second image summarizing the entire performance (step S9).
The control unit 11 generates the second image based on a group of image parameters used to generate the multiple first images generated during the performance.

次いで、制御部11は、背景選択処理を実行する(ステップS10)。
ステップS10では、第2画像の背景画像を選択する。ステップS10における背景選択処理は、図5のフローチャートに示した通りであるが、ステップS401においては、演奏中に記憶されたSD1~SD5のそれぞれに基づいて、第2画像の背景画像の選択に用いるSD1~SD5をそれぞれ算出する。例えば、演奏中に記憶されたSD1~SD5のそれぞれの平均値を、第2画像の背景画像の選択に用いるSD1~SD5のそれぞれとして算出する。そして、ステップS402~S422の処理により、第2画像の背景画像を選択する。
Next, the control unit 11 executes a background selection process (step S10).
In step S10, a background image for the second image is selected. The background selection process in step S10 is as shown in the flowchart of FIG. 5, but in step S401, SD1 to SD5 to be used in selecting the background image for the second image are calculated based on SD1 to SD5 stored during performance. For example, the average values of SD1 to SD5 stored during performance are calculated as SD1 to SD5 to be used in selecting the background image for the second image. Then, the background image for the second image is selected by the processes of steps S402 to S422.

図3に戻り、背景画像選択処理が終了すると、制御部11は、「背景」変数の値が“-1”であるか否かを判断する(ステップS11)。
「背景」変数の値が“-1”ではないと判断した場合(ステップS11;NO)、制御部11は、「背景」変数の値が背景番号のパターン画像を記憶部12から読み出して、背景画像として第2画像に合成し(ステップS12)、ステップS13に移行する。
Returning to FIG. 3, when the background image selection process is completed, the control unit 11 judges whether the value of the "background" variable is "-1" (step S11).
If it is determined that the value of the "background" variable is not "-1" (step S11; NO), the control unit 11 reads out a pattern image whose value of the "background" variable is the background number from the memory unit 12, combines it with the second image as a background image (step S12), and proceeds to step S13.

ステップS12において生成される第2画像には、背景に、演奏全体から与えられた顕著な印象を視覚的に与えるパターン画像が合成されている。したがって、演奏全体が与える印象を、より明確にユーザに伝えることができる。 The second image generated in step S12 has a pattern image synthesized in the background that visually conveys a prominent impression given by the overall performance. Therefore, the impression given by the overall performance can be more clearly conveyed to the user.

一方、「背景」変数の値が“-1”であると判断した場合(ステップS11;YES)、すなわち、演奏が与える顕著な印象がなく背景となるパターン画像が選択されていない場合、制御部11は、第2画像に背景を合成せずにステップS13に移行する。なお、SD1~SD5のそれぞれの平均値から、ステップS10でのステップS421において、SD5>225ではないと判断した場合、つまり、演奏が「繊細」、「パワフル」、「ゆっくり」、「速い」、「悲しい」、「楽しい」、「重い」、「軽い」、「規則的」及び「自由」のいずれの属性にも当たらないと判断された場合、第2画像に背景を合成しない代わりに、中間的な背景画像をパターン画像として合成してもよい。 On the other hand, if the value of the "background" variable is determined to be "-1" (step S11; YES), that is, if the performance does not give a significant impression and a pattern image to serve as the background has not been selected, the control unit 11 proceeds to step S13 without overlaying the background onto the second image. Note that if it is determined in step S421 of step S10 that SD5 is not greater than 225 based on the average values of SD1 to SD5, that is, if it is determined that the performance does not fall into any of the attributes of "delicate," "powerful," "slow," "fast," "sad," "fun," "heavy," "light," "regular," and "free," an intermediate background image may be overlaid as a pattern image instead of overlaying the background onto the second image.

ステップS13において、制御部11は、第2画像を出力(表示)させ(ステップS13)、演奏画像生成処理Aを終了する。
ステップS13において、制御部11は、例えば、第2画像を表示部14に出力して表示させる。また、制御部11は、第2画像を通信部15により図示しないプロジェクタ等に出力し、プロジェクタにより第2画像を表示(投影)させることとしてもよい。
In step S13, the control unit 11 outputs (displays) the second image (step S13), and ends the performance image generating process A.
In step S13, the control unit 11, for example, outputs the second image to the display unit 14 to display it. Furthermore, the control unit 11 may output the second image to a projector (not shown) or the like via the communication unit 15 and cause the projector to display (project) the second image.

このように、制御部11は、演奏中又は演奏終了時に、演奏が与える顕著な印象を与えるパターン画像を背景とした演奏画像(第1画像及び第2画像)を出力するので、演奏が与える印象を、ユーザが容易に認識することが可能となる。 In this way, the control unit 11 outputs a performance image (first image and second image) during or at the end of a performance against a background of a pattern image that gives a prominent impression of the performance, allowing the user to easily recognize the impression that the performance gives.

<第2の実施形態>
第2の実施形態では、演奏が与える印象を視覚的に与える背景画像ではなく、演奏が与える印象を視覚的に与えるマスク画像を演奏画像(第1画像及び第2画像)に合成する場合について説明する。
Second Embodiment
In the second embodiment, a mask image that visually gives the impression of the performance is synthesized with a performance image (first image and second image) rather than a background image that visually gives the impression of the performance.

第2の実施形態において、記憶部12に記憶されている演奏画像生成アプリ121には、制御部11が演奏画像生成処理B(図8参照)を実行するためのプログラムが含まれている。 In the second embodiment, the performance image generation application 121 stored in the memory unit 12 includes a program for the control unit 11 to execute the performance image generation process B (see FIG. 8).

また、記憶部12には、「繊細」、「パワフル」、「ゆっくり」、「速い」、「悲しい」、「楽しい」、「重い」、「軽い」、「規則的」、「自由」のそれぞれの印象を視覚的に与えるマスク画像(マスクパターン画像)が、予め割り当てられたマスク番号に対応付けて記憶されている。
図7は、「繊細」-「パワフル」、「悲しい」-「楽しい」のそれぞれの印象を視覚的に与えるマスク画像の例を示す図である。ここで、マスク画像は、マスクをかける(隠す)領域を0又は1で指定した画像であり、上記の印象を視覚的に与えるマスクパターン(マスク領域の形状パターン)を有するパターン画像である。
Furthermore, the memory unit 12 stores mask images (mask pattern images) that visually give the impressions of "delicate,""powerful,""slow,""fast,""sad,""joyful,""heavy,""light,""regular," and "free," in association with pre-assigned mask numbers.
7 shows examples of mask images that visually give the impressions of "delicate"-"powerful" and "sad"-"happy." Here, the mask image is an image in which the area to be masked (hidden) is specified by 0 or 1, and is a pattern image having a mask pattern (shape pattern of the mask area) that visually gives the above impressions.

本実施形態では、「繊細」の印象を視覚的に与えるマスク画像にはマスク番号として“1”が対応付けられている。「パワフル」の印象を視覚的に与えるマスク画像にはマスク番号として“2”が対応付けられている。「ゆっくり」の印象を視覚的に与えるマスク画像にはマスク番号として“3”が対応付けられている。「速い」の印象を視覚的に与えるマスク画像にはマスク番号として“4”が対応付けられている。「悲しい」の印象を視覚的に与えるマスク画像にはマスク番号として“5”が対応付けられている。「楽しい」の印象を視覚的に与えるマスク画像にはマスク番号として“6”が対応付けられている。「重い」の印象を視覚的に与えるマスク画像にはマスク番号として“7”が対応付けられている。「軽い」の印象を視覚的に与えるマスク画像にはマスク番号として“8”が対応付けられている。「規則的」の印象を視覚的に与えるマスク画像にはマスク番号として“9”が対応付けられている。「自由」の印象を視覚的に与えるマスク画像にはマスク番号として“10”が対応付けられている。 In this embodiment, a mask image that visually gives the impression of "delicate" is associated with a mask number of "1". A mask image that visually gives the impression of "powerful" is associated with a mask number of "2". A mask image that visually gives the impression of "slow" is associated with a mask number of "3". A mask image that visually gives the impression of "fast" is associated with a mask number of "4". A mask image that visually gives the impression of "sad" is associated with a mask number of "5". A mask image that visually gives the impression of "fun" is associated with a mask number of "6". A mask image that visually gives the impression of "heavy" is associated with a mask number of "7". A mask image that visually gives the impression of "light" is associated with a mask number of "8". A mask image that visually gives the impression of "regular" is associated with a mask number of "9". A mask image that visually gives the impression of "free" is associated with a mask number of "10".

その他の情報処理装置1の構成は、図1を参照して第1の実施形態で説明したものと同様であるので説明を援用し、以下、第2の実施形態の動作について説明する。 The rest of the configuration of the information processing device 1 is the same as that described in the first embodiment with reference to FIG. 1, so the explanation will be used to explain the operation of the second embodiment below.

図8は、第2の実施形態における情報処理装置1において演奏画像生成アプリ121が起動された場合に、制御部11と演奏画像生成アプリ121との協働により実行される演奏画像生成処理Bの流れを示すフローチャートである。以下、図8を参照して、演奏画像生成処理Bについて説明する。 Figure 8 is a flowchart showing the flow of performance image generation process B executed by the control unit 11 and the performance image generation application 121 in cooperation with each other when the performance image generation application 121 is started in the information processing device 1 in the second embodiment. Below, performance image generation process B will be described with reference to Figure 8.

演奏画像生成処理Bにおいて、まず、制御部11は、ステップS21~S23の処理を実行する。ステップS21~S23の処理は、図3のステップS1~3の処理と同様であるので説明を援用する。 In the performance image generation process B, the control unit 11 first executes the processes of steps S21 to S23. The processes of steps S21 to S23 are similar to the processes of steps S1 to S3 in FIG. 3, and therefore the explanation thereof will be used.

次いで、制御部11は、マスク選択処理を実行する(ステップS24)。
図9は、マスク選択処理の流れを示すフローチャートである。マスク選択処理は、制御部11と記憶部12に記憶されている演奏画像生成アプリ121との協働により実行される。
Next, the control unit 11 executes a mask selection process (step S24).
9 is a flowchart showing the flow of the mask selection process. The mask selection process is executed by the control unit 11 in cooperation with the performance image generating application 121 stored in the storage unit 12.

マスク選択処理において、まず、制御部11は、SDベクトルを算出する(ステップS2401)。SDベクトルの算出方法は、図5のステップS401で説明したものと同様であるので説明を援用する。 In the mask selection process, first, the control unit 11 calculates an SD vector (step S2401). The method of calculating the SD vector is the same as that described in step S401 of FIG. 5, so the description will be used here.

次いで、制御部11は、マスク番号を格納するための「マスク」変数に“-1”を設定する(ステップS2402)。 Next, the control unit 11 sets the "mask" variable, which is used to store the mask number, to "-1" (step S2402).

次いで、制御部11は、ステップS2403~S2422の処理を実行する。ステップS2403~S2422の処理は、図5のステップS403~S422の「背景」変数を「マスク」変数に置き換えたものである。
ステップS2403~S2422の処理が終了すると、制御部11は、図8のステップS25に移行する。
Next, the control unit 11 executes the processes of steps S2403 to S2422. The processes of steps S2403 to S2422 are the same as those of steps S403 to S422 in FIG.
When the processes of steps S2403 to S2422 are completed, the control unit 11 proceeds to step S25 in FIG.

図8のステップS25において、制御部11は、「マスク」変数の値が“-1”であるか否かを判断する(ステップS25)。
「マスク」変数の値が“-1”ではないと判断した場合(ステップS25;NO)、制御部11は、「マスク」変数の値がマスク番号として対応付けられているマスク画像を記憶部12から読み出して第1画像に合成し(ステップS26)、ステップS27に移行する。
In step S25 of FIG. 8, the control unit 11 determines whether the value of the "mask" variable is "-1" (step S25).
If it is determined that the value of the "mask" variable is not "-1" (step S25; NO), the control unit 11 reads out the mask image to which the value of the "mask" variable corresponds as a mask number from the memory unit 12, combines it with the first image (step S26), and proceeds to step S27.

図10は、図7に示す各マスク画像が合成された第1画像の例を示す図である。
ここで、第1画像は、上述のように、音高やコード種別に対応付けられた花や葉のキャラクタが、ベロシティに応じたサイズで、調性に応じた背景色で描画された画像である。このように、第1画像は演奏に応じて生成された画像であるが、この画像から、どのような印象をもつ演奏であるかをユーザが認識することは難しい。一方、本実施形態の第1画像は、図10に示すように、演奏が与える顕著な印象を視覚的に与えるパターン形状でマスクされている。すなわち、演奏が与える顕著な印象を視覚的に与えるパターン形状で第1画像を出力することができる。したがって、演奏が与える印象を、より明確にユーザに伝えることができる。
FIG. 10 is a diagram showing an example of a first image in which the mask images shown in FIG. 7 are combined.
Here, as described above, the first image is an image in which flower and leaf characters associated with pitches and chord types are drawn in a size corresponding to the velocity with a background color corresponding to the key. In this way, the first image is an image generated according to a performance, but it is difficult for a user to recognize from this image what kind of impression the performance has. On the other hand, the first image of this embodiment is masked with a pattern shape that visually gives a prominent impression of the performance, as shown in FIG. 10. In other words, the first image can be output in a pattern shape that visually gives a prominent impression of the performance. Therefore, the impression of the performance can be more clearly conveyed to the user.

一方、「マスク」変数の値が“-1”であると判断した場合(ステップS25;YES)、すなわち、演奏が与える顕著な印象がなくマスク画像が選択されていな場合、制御部11は、第1画像にマスク画像を合成せずにステップS27に移行する。なお、ステップS2421において、SD5>225ではないと判断した場合、「繊細」、「パワフル」、「ゆっくり」、「速い」、「悲しい」、「楽しい」、「重い」、「軽い」、「規則的」及び「自由」のいずれの属性にも適さない中間的なマスク画像を合成してもよい。 On the other hand, if it is determined that the value of the "mask" variable is "-1" (step S25; YES), that is, if the performance does not give a significant impression and a mask image has not been selected, the control unit 11 proceeds to step S27 without synthesizing a mask image with the first image. Note that, if it is determined in step S2421 that SD5>225 is not true, an intermediate mask image that is not suitable for any of the attributes "delicate", "powerful", "slow", "fast", "sad", "fun", "heavy", "light", "regular" and "free" may be synthesized.

ステップS27において、制御部11は、第1画像を出力する(ステップS27)。
例えば、制御部11は、第1画像を表示部14に出力して表示させる。また、制御部11は、第1画像を通信部15により図示しないプロジェクタ等に出力し、プロジェクタにより第1画像を表示(投影)させることとしてもよい。プロジェクタにマスク画像が合成された第1画像が投影されると、演奏が与える顕著な印象に応じた形状で第2画像のマスクされていない部分が投影される(可視化される)ので、演奏が与える印象を、より明確にユーザに伝えることができる。
In step S27, the control unit 11 outputs the first image (step S27).
For example, the control unit 11 outputs the first image to the display unit 14 for display. The control unit 11 may also output the first image to a projector or the like (not shown) via the communication unit 15 and cause the projector to display (project) the first image. When the first image combined with the mask image is projected by the projector, the unmasked portion of the second image is projected (visualized) in a shape corresponding to the prominent impression given by the performance, so that the impression given by the performance can be more clearly conveyed to the user.

次いで、制御部11は、演奏情報が入力されずに所定時間が経過したか否かを判断する(ステップS28)。
演奏情報が入力されずに所定時間が経過していないと判断した場合(ステップS28;NO)、制御部11は、ステップS21に戻る。
Next, the control unit 11 judges whether or not a predetermined time has elapsed without input of performance information (step S28).
When it is determined that the predetermined time has not elapsed without input of performance information (step S28; NO), the control section 11 returns to step S21.

演奏情報が入力されずに所定時間が経過したと判断した場合(ステップS28;YES)、制御部11は、演奏が終了したと判断して、演奏全体を総括した第2画像を生成する(ステップS29)。 If it is determined that a predetermined time has elapsed without performance information being input (step S28; YES), the control unit 11 determines that the performance has ended and generates a second image that summarizes the entire performance (step S29).

次いで、制御部11は、マスク選択処理を実行する(ステップS30)。
ステップS30では、第2画像のマスク画像を選択する。ステップS30におけるマスク選択処理は、図9のフローチャートに示した通りであるが、ステップS2401においては、演奏中に記憶されたSD1~SD5のそれぞれに基づいて、第2画像のマスク画像の選択に用いるSD1~SD5をそれぞれ算出する。例えば、演奏中に記憶されたSD1~SD5のそれぞれの平均値を、第2画像のマスク画像の選択に用いるSD1~SD5のそれぞれとして算出する。そして、ステップS2402~S2422の処理により、第2画像の背景画像を選択する。
Next, the control unit 11 executes a mask selection process (step S30).
In step S30, a mask image for the second image is selected. The mask selection process in step S30 is as shown in the flowchart of Fig. 9, but in step S2401, SD1 to SD5 to be used in selecting a mask image for the second image are calculated based on SD1 to SD5 stored during performance. For example, the average values of SD1 to SD5 stored during performance are calculated as SD1 to SD5 to be used in selecting a mask image for the second image. Then, a background image for the second image is selected by the processes of steps S2402 to S2422.

図8に戻り、マスク画像選択処理が終了すると、制御部11は、「マスク」変数の値が“-1”であるか否かを判断する(ステップS31)。
「マスク」変数の値が“-1”ではないと判断した場合(ステップS31;NO)、制御部11は、「マスク」変数の値がマスク番号のマスク画像を記憶部12から読み出して第2画像に合成し(ステップS32)、ステップS33に移行する。
Returning to FIG. 8, when the mask image selection process is completed, the control unit 11 determines whether the value of the "mask" variable is "-1" (step S31).
If it is determined that the value of the "mask" variable is not "-1" (step S31; NO), the control unit 11 reads out the mask image whose value of the "mask" variable is the mask number from the memory unit 12 and combines it with the second image (step S32), and proceeds to step S33.

ステップS32において生成される第2画像には、演奏全体が与える顕著な印象を視覚的に与えるマスク画像が合成されている。したがって、演奏全体が与える印象を、より明確にユーザに伝えることができる。 The second image generated in step S32 is synthesized with a mask image that visually conveys a prominent impression of the overall performance. Therefore, the impression of the overall performance can be more clearly conveyed to the user.

一方、「マスク」変数の値が“-1”であると判断した場合(ステップS31;YES)、すなわち、演奏が与える顕著な印象がなくマスク画像が選択されていない場合、制御部11は、第2画像にマスク画像を合成せずにステップS33に移行する。なお、SD1~SD5のそれぞれの平均値から、ステップS30でのステップS2421において、SD5>225ではないと判断した場合、つまり、演奏が「繊細」、「パワフル」、「ゆっくり」、「速い」、「悲しい」、「楽しい」、「重い」、「軽い」、「規則的」及び「自由」のいずれの属性にも当たらないと判断された場合、第2画像にマスク画像を合成しない代わりに、中間的なマスク画像を合成してもよい。 On the other hand, if it is determined that the value of the "mask" variable is "-1" (step S31; YES), that is, if the performance does not give a significant impression and a mask image has not been selected, the control unit 11 proceeds to step S33 without synthesizing a mask image with the second image. Note that if it is determined in step S2421 of step S30 that SD5 is not greater than 225 based on the average values of SD1 to SD5, that is, if it is determined that the performance does not fall into any of the attributes of "delicate," "powerful," "slow," "fast," "sad," "fun," "heavy," "light," "regular," and "free," an intermediate mask image may be synthesized instead of synthesizing a mask image with the second image.

ステップS33において、制御部11は、第2画像を出力(表示)させ(ステップS33)、演奏画像生成処理Bを終了する。
ステップS33において、制御部11は、例えば、第2画像を表示部14に出力して表示させる。また、制御部11は、第2画像を通信部15により図示しないプロジェクタ等に出力し、プロジェクタにより第2画像を表示(投影)させることとしてもよい。プロジェクタにマスク画像が合成された第2画像が投影されると、演奏が与える顕著な印象に応じた形状で第2画像のマスクされていない部分が投影される(可視化される)ので、演奏が与える印象を、より明確にユーザに伝えることができる。
In step S33, the control unit 11 outputs (displays) the second image (step S33), and ends the performance image generating process B.
In step S33, the control unit 11, for example, outputs the second image to the display unit 14 to display it. Alternatively, the control unit 11 may output the second image to a projector (not shown) via the communication unit 15 and cause the projector to display (project) the second image. When the second image combined with the mask image is projected by the projector, the unmasked portion of the second image is projected (visualized) in a shape corresponding to the prominent impression given by the performance, so that the impression given by the performance can be more clearly conveyed to the user.

このように、制御部11は、演奏中又は演奏終了時に、演奏が与える顕著な印象を与える形状でマスクされた演奏画像(第1画像及び第2画像)を出力するので、演奏が与える印象を、より明確にユーザに伝えることができる。 In this way, the control unit 11 outputs a performance image (first image and second image) that is masked in a shape that gives a prominent impression of the performance during or at the end of the performance, so that the impression given by the performance can be more clearly conveyed to the user.

以上説明したように、情報処理装置1の制御部11は、演奏に基づく演奏情報から演奏が与える印象を判定するための評価値を算出し、算出した評価値に基づいて演奏が与える印象を視覚的に与えるパターン画像を、演奏情報を解析することにより取得された特徴量に基づいた演奏画像に合成して出力する。
したがって、演奏が与える印象を捉えて可視化することができるので、ユーザに、演奏が与える印象をより明確に伝えることができる。
As described above, the control unit 11 of the information processing device 1 calculates an evaluation value for determining the impression given by the performance from performance information based on the performance, and outputs a pattern image that visually conveys the impression given by the performance based on the calculated evaluation value, combined with a performance image based on features obtained by analyzing the performance information.
Therefore, the impression given by the performance can be captured and visualized, so that the impression given by the performance can be more clearly conveyed to the user.

例えば、パターン画像は、演奏画像の背景となる背景画像であるので、演奏が与える印象を、演奏画像の背景によって明確にユーザに伝えることができる。 For example, the pattern image is a background image that serves as the background for the performance image, so the impression given by the performance can be clearly conveyed to the user by the background of the performance image.

また、例えば、パターン画像は、演奏画像の一部をマスクするためのマスク画像であるので、演奏が与える印象を、演奏画像のマスクされていない部分の形状によって明確にユーザに伝えることができる。 Also, for example, the pattern image is a mask image for masking a portion of the performance image, so the impression given by the performance can be clearly conveyed to the user by the shape of the unmasked portion of the performance image.

また、例えば、制御部11は、特徴量として、演奏におけるベロシティ、テンポ、調性、音高、和音数、の少なくとも一つを算出する。したがって、演奏におけるベロシティ、テンポ、調性、音高、和音数、の少なくとも一つに基づいて、演奏が与える印象を判定するための評価値を算出することができる。 For example, the control unit 11 calculates at least one of the following features as a characteristic amount: velocity, tempo, key, pitch, and number of chords in the performance. Therefore, an evaluation value for determining the impression given by the performance can be calculated based on at least one of the following features: velocity, tempo, key, pitch, and number of chords in the performance.

また、例えば、制御部11は、演奏が、予め定められた対義語対の一方の印象を与えるものであるか、他方の印象を与えるものであるか、又はいずれの印象を与えないかを判定するための評価値を算出し、算出した評価値に基づいて、演奏が上記対義語対の一方の印象を与えるものであると判定した場合は、一方の印象を視覚的に与える第1のパターン画像を演奏画像に合成して出力する。演奏が上記対義語対の他方の印象を与えるものであると判定した場合は、他方の印象を視覚的に与える第2のパターン画像を演奏画像に合成して出力する。
したがって、演奏が予め定められた対義語対の一方又は他方の印象を与えるか否かを捉えてユーザに伝えることができる。
Also, for example, the control unit 11 calculates an evaluation value for determining whether the performance gives one impression of a predetermined antonym pair, the other impression, or neither impression, and if it is determined based on the calculated evaluation value that the performance gives one impression of the antonym pair, it synthesizes a first pattern image that visually gives one impression with the performance image and outputs the result.If it is determined that the performance gives the other impression of the antonym pair, it synthesizes a second pattern image that visually gives the other impression with the performance image and outputs the result.
Therefore, it is possible to grasp whether the performance gives the impression of one or the other of a predetermined antonym pair and convey this to the user.

例えば、対義語対を、繊細とパワフル、ゆっくりと速い、悲しいと楽しい、重いと軽い、規則的と自由、の少なくとも一つとすることで、演奏がこれらの対極にある印象のうち一方又は他方の印象を与えるか否かをユーザに伝えることができる。 For example, by defining antonym pairs as at least one of delicate and powerful, slow and fast, sad and happy, heavy and light, regular and free, it is possible to convey to the user whether the performance gives one or the other of these opposing impressions.

例えば、制御部11は、演奏の所定期間におけるベロシティの平均に基づいて、その演奏が、繊細な印象を与えるものであるか、パワフルな印象を与えるものであるか、又はいずれの印象を与えないかを判定するための評価値を算出することができる。 For example, the control unit 11 can calculate an evaluation value based on the average velocity over a specified period of time during a performance to determine whether the performance gives a delicate impression, a powerful impression, or neither impression.

また、例えば、制御部11は、演奏の所定期間におけるテンポの平均に基づいて、その演奏が、ゆっくりした印象を与えるものであるか、速い印象を与えるものであるか、又はいずれの印象を与えないかを判定するための評価値を算出することができる。 For example, the control unit 11 can also calculate an evaluation value based on the average tempo of the performance over a specified period of time to determine whether the performance gives the impression of being slow, fast, or neither.

また、例えば、制御部11は、演奏の所定期間における調性、及びテンポの平均に基づいて、その演奏が、悲しい印象を与えるものであるか、楽しい印象を与えるものであるか、又はいずれの印象を与えないかを判定するための評価値を算出することができる。 For example, the control unit 11 can also calculate an evaluation value for determining whether the performance gives a sad impression, a happy impression, or neither impression, based on the average key and tempo over a specified period of time during the performance.

また、例えば、制御部11は、演奏の所定期間における音高、和音数、及びテンポの平均に基づいて、その演奏が、重い印象を与えるものであるか、軽い印象を与えるものであるか、又はいずれの印象を与えないかを判定するための評価値を算出することができる。 For example, the control unit 11 can also calculate an evaluation value for determining whether a performance gives a heavy impression, a light impression, or neither, based on the average pitch, number of chords, and tempo over a specified period of time during the performance.

また、例えば、制御部11は、演奏の所定期間におけるテンポの分散又は標準偏差に基づいて、その演奏が、規則的な印象を与えるものであるか、自由な印象を与えるものであるか、又はいずれの印象を与えないかを判定するための評価値を算出することができる。 For example, the control unit 11 can also calculate an evaluation value based on the variance or standard deviation of the tempo during a specified period of performance to determine whether the performance gives an impression of regularity, freedom, or neither.

なお、上記実施形態における記述内容は、本発明に係るプログラム、情報処理装置及び画像生成方法の好適な一例であり、これに限定されるものではない。 Note that the contents described in the above embodiment are preferred examples of the program, information processing device, and image generation method according to the present invention, and are not limited thereto.

例えば、上記実施形態では、第1画像及び第2画像に用いられるキャラクタが花及び葉であったが、これに限定される必要はなく、別のキャラクタを用いてもよい。 For example, in the above embodiment, the characters used in the first and second images were flowers and leaves, but this does not need to be limited to this and other characters may be used.

また、上記実施形態では、実際に演奏者により演奏操作に応じた演奏情報に基づいて演奏画像(第1画像及び第2画像)を生成する際に本発明を適用する例について説明したが、電子楽器2の自動演奏機能により順次入力される演奏情報に基づいて演奏画像を生成する際に本発明を適用することとしてもよい。 In addition, in the above embodiment, an example was described in which the present invention is applied when generating a performance image (first image and second image) based on performance information corresponding to a performance operation performed by an actual performer, but the present invention may also be applied when generating a performance image based on performance information input sequentially by the automatic performance function of the electronic musical instrument 2.

また、上記実施形態においては、演奏情報が入力されるごとに第1画像を生成して背景画像やマスク画像などのパターン画像と合成して出力することとして説明した。しかし、第1画像を生成及び出力するタイミングは、これに限定されない。例えば、1拍又は複数の拍ごとに第1画像を生成して出力してもよいし、1又は複数の小節ごとに第1画像を生成してもよい。また、背景画像やマスク画像なとのパターン画像が変更になった場合、すぐにそれを反映すると、例えば変化の激しい演奏の場合は第1画像が見づらくなる場合がある。そこで、パターン画像を変更する場合、或る印象と判定されてから所定時間以上その印象が続いた場合にパターン画像を変更することとしてもよい。 In the above embodiment, the first image is generated each time performance information is input, and is output after being synthesized with a pattern image such as a background image or a mask image. However, the timing of generating and outputting the first image is not limited to this. For example, the first image may be generated and output for one or more beats, or for one or more measures. In addition, if a pattern image such as a background image or a mask image is changed and this is reflected immediately, the first image may become difficult to see, for example, in the case of a performance with many changes. Therefore, when changing the pattern image, the pattern image may be changed if a certain impression continues for a predetermined time or more after it has been determined that the impression is given.

また、上記実施形態では、全てのSD値について、第1の閾値を30、第2の閾値を225として判定を行ったが、第1の閾値と第2の閾値は、SD値ごとに異なるものとしてもよい。また、上記実施形態では、どのSD値も第1の閾値以上第2の閾値以下である場合は、パターン画像が合成されないこととしたが、最後に判定するSD値の第1の閾値又は第2の閾値をずらして、何らかのパターン画像が第1画像や第2画像に合成されるようにしてもよい。 In the above embodiment, the first threshold was set to 30 and the second threshold to 225 for all SD values, but the first and second thresholds may be different for each SD value. In the above embodiment, if all SD values are equal to or greater than the first threshold and equal to or less than the second threshold, no pattern image is synthesized. However, the first or second threshold for the last SD value to be determined may be shifted so that some pattern image is synthesized with the first or second image.

また、上記実施形態においては、SD1から順に第1の閾値より小さいか又は第2の閾値より大きいかを判定し、どちらにも該当しない場合に、次のSD値に移行して判定を行う場合を例にとり説明した。すなわち、上記実施形態では、SD1の優先度を最も高く、SD5の優先度を最も低くしたが、SD1~SD5の優先順位は特に限定されない。 In the above embodiment, the system determines whether the SD value is smaller than the first threshold or larger than the second threshold, starting from SD1, and if neither is true, moves on to the next SD value and performs the determination. That is, in the above embodiment, SD1 has the highest priority and SD5 has the lowest priority, but the priority order of SD1 to SD5 is not particularly limited.

また、上記実施形態では、演奏画像にパターン画像を合成して出力する場合を例にとり説明したが、パターン画像を合成する画像は、演奏画像に限定されない。例えば、予め用意された画像にパターン画像を合成して出力することとしてもよい。 In addition, in the above embodiment, an example was described in which a performance image is combined with a pattern image and then output, but the image onto which the pattern image is combined is not limited to a performance image. For example, the pattern image may be combined with an image prepared in advance and then output.

また、上記実施形態では、本発明の情報処理装置が電子楽器とは別体である場合を例にとり説明したが、情報処理装置は電子楽器内に搭載されていてもよい。 In addition, in the above embodiment, the information processing device of the present invention is described as being separate from the electronic musical instrument, but the information processing device may be built into the electronic musical instrument.

また、例えば、上記実施形態では、本発明に係るプログラムのコンピュータ読み取り可能な媒体として半導体メモリやハードディスクを使用した例を開示したが、この例に限定されない。その他のコンピュータ読み取り可能な媒体として、SSDや、CD-ROM等の可搬型記録媒体を適用することが可能である。また、本発明に係るプログラムのデータを通信回線を介して提供する媒体として、キャリアウエーブ(搬送波)も適用される。 In addition, for example, in the above embodiment, an example was disclosed in which a semiconductor memory or a hard disk was used as a computer-readable medium for the program according to the present invention, but the present invention is not limited to this example. As other computer-readable media, portable recording media such as SSDs and CD-ROMs can be applied. Furthermore, carrier waves can also be applied as a medium for providing data for the program according to the present invention via a communication line.

その他、上記実施形態における細部構成及び細部動作に関しても、発明の趣旨を逸脱することのない範囲で適宜変更可能である。 In addition, the detailed configurations and operations of the above embodiments may be modified as appropriate without departing from the spirit of the invention.

以上に本発明の実施形態及び変形例を説明したが、本発明の技術的範囲は上述の実施形態及び変形例に限定するものではなく、特許請求の範囲に記載に基づいて定められる。更に、特許請求の範囲の記載から本発明の本質とは関係のない変更を加えた均等な範囲も本発明の技術的範囲に含む。 Although the embodiments and modifications of the present invention have been described above, the technical scope of the present invention is not limited to the above-mentioned embodiments and modifications, but is defined based on the claims. Furthermore, the technical scope of the present invention also includes an equivalent range of modifications that are not related to the essence of the present invention from the claims.

100 演奏システム
1 情報処理装置
11 制御部
12 記憶部
121 演奏画像生成アプリ
13 入力部
14 表示部
15 通信部
16 バス
2 電子楽器
21 制御部
22 記憶部
23 鍵盤
24 入力部
25 表示部
26 通信部
27 出力部
28 バス
100 Performance system 1 Information processing device 11 Control unit 12 Memory unit 121 Performance image generation application 13 Input unit 14 Display unit 15 Communication unit 16 Bus 2 Electronic musical instrument 21 Control unit 22 Memory unit 23 Keyboard 24 Input unit 25 Display unit 26 Communication unit 27 Output unit 28 Bus

Claims (14)

コンピュータに、
演奏に基づく演奏情報から前記演奏が与える印象を判定するための評価値を算出し、
算出した前記評価値に基づいて前記演奏が与える印象を視覚的に与えるパターン画像を画像に合成して出力する、
処理を実行させるためのプログラム。
On the computer,
calculating an evaluation value for determining an impression given by the performance from performance information based on the performance;
a pattern image that visually conveys an impression of the performance based on the calculated evaluation value is synthesized with the image and output.
A program for executing a process.
前記画像は、前記演奏情報を解析することにより取得された特徴量に基づいた演奏画像である、請求項1に記載のプログラム。 The program according to claim 1, wherein the image is a performance image based on features obtained by analyzing the performance information. 前記パターン画像は、前記画像の背景となる背景画像である、請求項1に記載のプログラム。 The program according to claim 1, wherein the pattern image is a background image that forms the background of the image. 前記パターン画像は、前記画像の一部をマスクするためのマスク画像である、請求項1に記載のプログラム。 The program according to claim 1, wherein the pattern image is a mask image for masking a portion of the image. 前記処理は、
前記演奏が、予め定められた対義語対の一方の印象を与えるものであるか、他方の印象を与えるものであるか、又はいずれの印象を与えないかを判定するための評価値を算出し、
前記評価値に基づいて前記演奏が前記一方の印象を与えるものであると判定した場合に、前記一方の印象を視覚的に与える第1のパターン画像を前記画像に合成して出力し、
前記評価値に基づいて前記演奏が前記他方の印象を与えるものであると判定した場合に、前記他方の印象を視覚的に与える第2のパターン画像を前記画像に合成して出力する、
請求項1に記載のプログラム。
The process comprises:
calculating an evaluation value for determining whether the performance gives one impression of a predetermined antonym pair, gives the other impression, or gives neither impression;
when it is determined that the performance gives the one of the impressions based on the evaluation value, a first pattern image that visually gives the one of the impressions is synthesized with the image, and outputted;
when it is determined that the performance gives the impression of the other person based on the evaluation value, a second pattern image that visually gives the impression of the other person is synthesized with the image and output.
The program according to claim 1.
前記特徴量は、前記演奏におけるベロシティ、テンポ、調性、音高、和音数、の少なくとも一つである、請求項2に記載のプログラム。 The program according to claim 2, wherein the feature is at least one of the velocity, tempo, key, pitch, and number of chords in the performance. 前記対義語対は、繊細とパワフル、ゆっくりと速い、悲しいと楽しい、重いと軽い、規則的と自由、の少なくとも一つである、請求項5に記載のプログラム。 The program according to claim 5, wherein the antonym pairs are at least one of delicate and powerful, slow and fast, sad and happy, heavy and light, and regular and free. 前記処理は、
前記演奏の所定期間におけるベロシティの平均に基づいて、前記演奏が、繊細な印象を与えるものであるか、パワフルな印象を与えるものであるか、又はいずれの印象を与えないかを判定するための前記評価値を算出する、請求項5に記載のプログラム。
The process comprises:
6. The program according to claim 5, further comprising: calculating the evaluation value for determining whether the performance gives a delicate impression, a powerful impression, or neither impression, based on an average velocity of the performance over a predetermined period of time.
前記処理は、
前記演奏の所定期間におけるテンポの平均に基づいて、前記演奏が、ゆっくりした印象を与えるものであるか、速い印象を与えるものであるか、又はいずれの印象を与えないかを判定するための前記評価値を算出する、請求項5に記載のプログラム。
The process comprises:
6. The program according to claim 5, further comprising: calculating the evaluation value for determining whether the performance gives the impression of being slow, fast, or neither, based on an average tempo of the performance over a predetermined period of time.
前記処理は、
前記演奏の所定期間における調性、及びテンポの平均に基づいて、前記演奏が、悲しい印象を与えるものであるか、楽しい印象を与えるものであるか、又はいずれの印象を与えないかを判定するための前記評価値を算出する、請求項5に記載のプログラム。
The process comprises:
6. The program according to claim 5, further comprising: calculating the evaluation value for determining whether the performance gives a sad impression, a happy impression, or neither impression, based on an average tonality and tempo of the performance over a specified period of time.
前記処理は、
前記演奏の所定期間における音高、和音数、及びテンポの平均に基づいて、前記演奏が、重い印象を与えるものであるか、軽い印象を与えるものであるか、又はいずれの印象を与えないかを判定するための前記評価値を算出する、前記評価値を算出する、請求項5に記載のプログラム。
The process comprises:
The program according to claim 5, further comprising: calculating an evaluation value for determining whether the performance gives a heavy impression, a light impression, or neither, based on average pitch, number of chords, and tempo over a specified period of the performance; and calculating the evaluation value.
前記処理は、
前記演奏の所定期間におけるテンポの分散又は標準偏差に基づいて、前記演奏が、規則的な印象を与えるものであるか、自由な印象を与えるものであるか、又はいずれの印象を与えないかを判定するための前記評価値を算出する、請求項5に記載のプログラム。
The process comprises:
6. The program according to claim 5, further comprising: calculating the evaluation value for determining whether the performance gives an impression of regularity, an impression of freedom, or neither, based on the variance or standard deviation of the tempo over a specified period of the performance.
演奏に基づく演奏情報から前記演奏が与える印象を判定するための評価値を算出し、
算出した前記評価値に基づいて前記演奏が与える印象を視覚的に与えるパターン画像を画像に合成して出力する、
制御部を備える情報処理装置。
calculating an evaluation value for determining an impression given by the performance from performance information based on the performance;
a pattern image that visually conveys an impression of the performance based on the calculated evaluation value is synthesized with the image and output.
An information processing device having a control unit.
コンピュータが、
演奏に基づく演奏情報から前記演奏が与える印象を判定するための評価値を算出し、
算出した前記評価値に基づいて前記演奏が与える印象を視覚的に与えるパターン画像を画像に合成して出力する、
画像生成方法。
The computer
calculating an evaluation value for determining an impression given by the performance from performance information based on the performance;
a pattern image that visually conveys an impression of the performance based on the calculated evaluation value is synthesized with the image and output.
Image generation method.
JP2023027897A 2023-02-27 2023-02-27 PROGRAM, INFORMATION PROCESSING APPARATUS AND IMAGE GENERATION METHOD Pending JP2024121044A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023027897A JP2024121044A (en) 2023-02-27 2023-02-27 PROGRAM, INFORMATION PROCESSING APPARATUS AND IMAGE GENERATION METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023027897A JP2024121044A (en) 2023-02-27 2023-02-27 PROGRAM, INFORMATION PROCESSING APPARATUS AND IMAGE GENERATION METHOD

Publications (1)

Publication Number Publication Date
JP2024121044A true JP2024121044A (en) 2024-09-06

Family

ID=92594326

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023027897A Pending JP2024121044A (en) 2023-02-27 2023-02-27 PROGRAM, INFORMATION PROCESSING APPARATUS AND IMAGE GENERATION METHOD

Country Status (1)

Country Link
JP (1) JP2024121044A (en)

Similar Documents

Publication Publication Date Title
JP7363944B2 (en) Information processing device, information processing method, information processing program, and electronic musical instrument
US7288711B2 (en) Chord presenting apparatus and storage device storing a chord presenting computer program
JP6465136B2 (en) Electronic musical instrument, method, and program
JP7347479B2 (en) Electronic musical instrument, control method for electronic musical instrument, and its program
EP1161075A2 (en) Portable communication terminal apparatus with music composition capability
CN111667554B (en) Control method of information processing apparatus, electronic device, and performance data display system
KR20170138135A (en) Method of helping piano performance and based on augemented reality and apparatus performing the same
JP2019200390A (en) Automatic performance apparatus and automatic performance program
JP4131279B2 (en) Ensemble parameter display device
JP2636640B2 (en) Automatic accompaniment device
JP2024121044A (en) PROGRAM, INFORMATION PROCESSING APPARATUS AND IMAGE GENERATION METHOD
JP4259532B2 (en) Performance control device and program
JP6944366B2 (en) Karaoke equipment
JP7338669B2 (en) Information processing device, information processing method, performance data display system, and program
JP6842357B2 (en) Karaoke equipment
JP7533726B2 (en) Information processing device, method, and program
JP6732216B2 (en) Lyrics display device, lyrics display method in lyrics display device, and electronic musical instrument
TW201543466A (en) Musical composition method, musical composition program product and musical composition system
JP2020144345A (en) Information processing apparatus, information processing method, and program
JP2025099661A (en) PROGRAM, INFORMATION PROCESSING APPARATUS, ELECTRONIC MUSICAL INSTRUMENT AND DISPLAY METHOD
CN105096922A (en) Composition method, composition program product and composition system
JP2024102915A (en) PROGRAM, INFORMATION PROCESSING DEVICE, ELECTRONIC MUSICAL INSTRUMENT, AND PERFORMANCE GUIDANCE METHOD
CN117877459A (en) Recording medium, sound processing method, and sound processing system
JP2024089976A (en) Electronic device, electronic musical instrument, ad-lib performance method and program
JP2004117861A (en) Storage medium stored with musical score display data, and musical score display device and program using the same musical score display data