JP2007256364A - Performance data editing device and program - Google Patents
Performance data editing device and program Download PDFInfo
- Publication number
- JP2007256364A JP2007256364A JP2006077426A JP2006077426A JP2007256364A JP 2007256364 A JP2007256364 A JP 2007256364A JP 2006077426 A JP2006077426 A JP 2006077426A JP 2006077426 A JP2006077426 A JP 2006077426A JP 2007256364 A JP2007256364 A JP 2007256364A
- Authority
- JP
- Japan
- Prior art keywords
- beat
- note
- notes
- performance data
- partial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000014509 gene expression Effects 0.000 claims abstract description 31
- 238000000034 method Methods 0.000 claims description 39
- 230000008921 facial expression Effects 0.000 description 19
- 238000004891 communication Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 7
- 238000001514 detection method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000015654 memory Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 3
- 238000009527 percussion Methods 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 241000238876 Acari Species 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000001308 synthesis method Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Images
Landscapes
- Electrophonic Musical Instruments (AREA)
Abstract
Description
この発明は、演奏データに対して新たな音楽的表情を自動的に付加する表情付けを行う演奏データ編集装置及びプログラムに関する。特に、基準のビート(拍子)をもとに演奏データに対する表情付け処理を行う演奏データ編集装置及びプログラムに関する。 The present invention relates to a performance data editing apparatus and program for performing facial expression that automatically adds a new musical expression to performance data. In particular, the present invention relates to a performance data editing apparatus and program for performing expression processing on performance data based on a reference beat (time signature).
最近では、所定の演奏データに基づいて楽音を自動演奏する自動演奏装置(所謂シーケンサ)が知られている。こうした自動演奏装置で用いられる演奏データを一連の音符列の各音高をそれぞれ表す複数の音高情報のみで構成すると、該演奏データを再生することにより行われる楽音の自動演奏は機械的な無表情な演奏が行われることとなり、非常に音楽的に不自然である。そこで、こうした自動演奏をより音楽的に自然な演奏、美しい演奏、生々しい演奏とするには、楽音に対して様々な音楽的な表情や楽器らしさの付加といった表情付けを行うとよい。そのためには、演奏データに対して様々な音楽的な表情や楽器らしさを表す演奏情報を制御データとして新たに加える必要がある。表情付けを自動的に行うものとして、演奏データを基に基準とするビート(拍子)を予め決定しておき、該決定した基準のビートを適用して表情付けを行う技術が従来から知られている。例えば、ワルツの場合には基準ビートを四分音符に、16ビートのロックの場合には基準ビートを十六分音符にして表情付けを行うとよい。このような表情付けを行う演奏データ編集装置の一例として、例えば本出願人が既に出願済みの下記に示す特許文献1及び特許文献2に記載の技術がある。
ところで、上述した特許文献1に記載の技術においては、ユーザ操作の簡易性を確保するために、表情付け対象とされた全てのパート(又はチャンネル)の演奏データを基にして1つのビート(これを便宜的に全体ビートと呼ぶ)を決定し、該決定した全体ビートを全てのパートに適用して表情付けを行うようにしていた(つまり、全体ビートを曲全体の表情付けのために適用する基準ビートとする)。しかし、例えばパッド系などの長い音長の音符を中心に構成されたパートと、リズム系などの細かい音長の音符を中心に構成されたパートとを同時に表情付けする場合などのように、パート単位の演奏データのみを基に決定される各パート別のビート(これを便宜的に部分ビートと呼ぶ)が前記全体ビートと大きく異なる場合において、前記全体ビートを全てのパートに適用すると、適用されるパートによっては適切な表情が付加されずに都合が悪い。そこで、部分ビートと全体ビートとが大きく異なるパートに対しては、全体ビートを適用するのではなく当該パートの部分ビートを適用して表情付けを行うのが望ましいが、そうしたものは従来全く考えられていなかった。 By the way, in the technique described in Patent Document 1 described above, in order to ensure the simplicity of the user operation, one beat (this is based on the performance data of all the parts (or channels) that are targeted for expression. Is called the whole beat for the sake of convenience), and the determined whole beat is applied to all the parts for expression (that is, the whole beat is applied to express the whole song). Use as a reference beat). However, for example, when a part composed mainly of notes with a long note length, such as a pad, and a part composed mainly of notes with a long note length, such as a rhythm, are expressed simultaneously. When the beat for each part determined based only on the performance data of the unit (this is called a partial beat for convenience) is significantly different from the whole beat, it is applied when the whole beat is applied to all parts. Some parts are inconvenient because they do not have an appropriate expression. Therefore, it is desirable to apply a facial expression to a part where the partial beat differs greatly from the whole beat instead of applying the whole beat. It wasn't.
本発明は上述の点に鑑みてなされたもので、複数のパートからなる演奏データに対する表情付けの際に適用すべき基準ビート(拍子)を、各パート毎に適切な表情付けを行うビートに決定することのできる演奏データ編集装置及びプログラムを提供しようとするものである。 The present invention has been made in view of the above points, and the reference beat (time signature) to be applied when expressing the performance data of a plurality of parts is determined to be a beat for appropriate expression for each part. It is an object of the present invention to provide a performance data editing apparatus and program that can be performed.
本発明に係る演奏データ編集装置は、複数パートからなる演奏データ中の各ノートオン情報の発音開始タイミングに関して、複数種の各音符長毎に、当該音符長の整数倍のタイミング又はその許容範囲内にあるノート数を各パート毎にそれぞれカウントするカウント手段と、前記各パート毎にカウントしたノート数を全パートにわたって集計し、該集計したノート数を前記音符長毎に比較して、最大数でありかつ時間長が最も長い音符長を全体ビートに決定する第1の決定手段と、前記各パート毎にカウントしたノート数を前記音符長毎に比較して、最大数でありかつ時間長が最も長い音符長を各パートの部分ビートに決定する第2の決定手段と、各パート毎に、前記全体ビート又は前記部分ビートのいずれかを基準ビートとして選択する選択手段と、前記選択された基準ビートに基づき、各パート毎の演奏データに対して音楽的な表情付けを行うように楽音特性を変更する楽音特性変更手段とを具える。 The performance data editing apparatus according to the present invention relates to a sound generation start timing of each note-on information in performance data composed of a plurality of parts, for each of a plurality of types of note lengths, a timing that is an integral multiple of the note length or within an allowable range thereof. Counting means for each part, and counting the number of notes counted for each part over all parts, comparing the total number of notes for each note length, the maximum number The first determination means for determining the note length having the longest time length as the entire beat, and comparing the number of notes counted for each part for each note length, is the maximum number and has the longest time length. A second deciding means for deciding a long note length as a partial beat of each part, and a selection for selecting either the whole beat or the partial beat as a reference beat for each part; And means, based on the selected reference beat comprises a tone characteristic changing means for changing the tone characteristic to perform musical expressive relative performance data for each part.
本発明の好ましい実施形態として、前記選択手段は、各パート毎に前記全体ビートに決定された音符長と前記部分ビートに決定された音符長とを比較して、前記全体ビート又は前記部分ビートのいずれかを基準ビートとして自動的に選択することを特徴とする。 As a preferred embodiment of the present invention, the selection means compares the note length determined for the whole beat for each part with the note length determined for the partial beat, and determines the total beat or the partial beat. Any one of them is automatically selected as a reference beat.
本発明によると、各パート毎の演奏データに対して音楽的な表情付けを行うように楽音特性を変更する際に用いる基準ビートを、全体ビート又は部分ビートのいずれかから選択する。全体ビートは、各パート毎にカウントしたノート数を全パートにわたって集計し、該集計したノート数を音符長毎に比較して、最大数でありかつ時間長が最も長い音符長に決定される。ここで、各パート毎にカウントしたノート数とは、複数パートからなる演奏データ中の各ノートオン情報の発音開始タイミングに関して、複数種の各音符長毎に、当該音符長の整数倍のタイミング又はその許容範囲内にあるノート数を各パート毎にそれぞれカウントしたものである。他方、部分ビートは、各パート毎にカウントしたノート数を音符長毎に比較して、最大数でありかつ時間長が最も長い音符長に決定される。そして、各パート毎に全体ビート又は部分ビートのいずれかが基準ビートとして選択される。この際に、全体ビートに決定された音符長と部分ビートに決定された音符長とを比較して、全体ビート又は部分ビートのいずれかを基準ビートとして自動的に選択する。このようにすると、複数パートへの一括的な全体ビートの適用というユーザ操作の簡易性を損なうことなしに、全体ビートの適用が難しい個々のパートに対しては部分ビートを適用することで、どのパートに対しても適切な表情付けを行うことができるようになる。 According to the present invention, the reference beat used when changing the musical sound characteristic so as to perform musical expression on the performance data for each part is selected from either the whole beat or the partial beat. The total beat counts the number of notes counted for each part over all the parts, and the total number of notes is compared for each note length to determine the maximum note length and the longest note length. Here, the number of notes counted for each part refers to a timing that is an integral multiple of the note length for each of a plurality of types of note lengths with respect to the sound generation start timing of each note-on information in performance data consisting of a plurality of parts. The number of notes within the allowable range is counted for each part. On the other hand, the partial beat is determined to be the maximum note length and the longest note length by comparing the number of notes counted for each part for each note length. Then, for each part, either the whole beat or the partial beat is selected as the reference beat. At this time, the note length determined for the whole beat is compared with the note length determined for the partial beat, and either the whole beat or the partial beat is automatically selected as the reference beat. In this way, by applying partial beats to individual parts where it is difficult to apply full beats without compromising the user-friendliness of applying full beats collectively to multiple parts, Appropriate expression can be applied to the part.
本発明は装置の発明として構成し実施することができるのみならず、方法の発明として構成し実施することができる。また、本発明は、コンピュータまたはDSP等のプロセッサのプログラムの形態で実施することができるし、そのようなプログラムを記憶した記憶媒体の形態で実施することもできる。 The present invention can be constructed and implemented not only as a device invention but also as a method invention. Further, the present invention can be implemented in the form of a program of a processor such as a computer or a DSP, or can be implemented in the form of a storage medium storing such a program.
本発明によれば、複数のパートからなる演奏データに対して表情付けを行う際に適用する基準ビートとして、複数パート全体の演奏データを分析して決定される全体ビートと、各パート単位の演奏データを分析して決定される個々の部分ビートとのいずれかで適宜に選択できることから、ユーザ操作の簡易性を損なうことなしに各パート毎に適切な表情付けを行うことができるようになる、という効果が得られる。 According to the present invention, as a reference beat to be applied when performing expression on performance data composed of a plurality of parts, the overall beat determined by analyzing the performance data of the entire parts, and the performance of each part unit Since it can be appropriately selected from any of the individual partial beats determined by analyzing the data, it becomes possible to perform appropriate facial expression for each part without impairing the ease of user operation. The effect is obtained.
以下、この発明の実施の形態を添付図面に従って詳細に説明する。 Embodiments of the present invention will be described below in detail with reference to the accompanying drawings.
図1は、この発明に係る演奏データ編集装置を適用した電子楽器の全体構成を示したハード構成ブロック図である。本実施例に示す電子楽器は、マイクロプロセッサユニット(CPU)1、リードオンリメモリ(ROM)2、ランダムアクセスメモリ(RAM)3からなるマイクロコンピュータによって制御される。CPU1は、この電子楽器全体の動作を制御するものである。このCPU1に対して、データ及びアドレスバス1Dを介してROM2、RAM3、検出回路4,5、表示回路6、音源回路7、効果回路8、外部記憶装置10、MIDIインタフェース(I/F)11および通信インタフェース(I/F)12がそれぞれ接続されている。更に、CPU1には、タイマ割込み処理(インタラプト処理)における割込み時間や各種時間を計時するタイマ1Aが接続されている。例えば、タイマ1Aはクロックパルスを発生し、発生したクロックパルスをCPU1に対して処理タイミング命令として与えたり、あるいはCPU1に対してインタラプト命令として与える。CPU1は、これらの命令に従って各種処理を実行する。
FIG. 1 is a hardware configuration block diagram showing the overall configuration of an electronic musical instrument to which a performance data editing apparatus according to the present invention is applied. The electronic musical instrument shown in this embodiment is controlled by a microcomputer including a microprocessor unit (CPU) 1, a read only memory (ROM) 2, and a random access memory (RAM) 3. The CPU 1 controls the operation of the entire electronic musical instrument. To this CPU 1, the
ROM2は、CPU1により実行される各種プログラムや各種データを格納するものである。RAM3は、CPU1が所定のプログラムを実行する際に発生する各種データを一時的に記憶するワーキングメモリとして、あるいは現在実行中のプログラムやそれに関連するデータを記憶するメモリ等として使用される。RAM3の所定のアドレス領域がそれぞれの機能に割り当てられ、レジスタやフラグ、テーブル、メモリなどとして利用される。演奏操作子4Aは楽音の音高を選択するための複数の鍵を備えた例えば鍵盤等のようなものであり、各鍵に対応してキースイッチを有しており、この演奏操作子4A(鍵盤等)はユーザ自身の手弾きによるマニュアル演奏のために使用できるのは勿論のこと、当該電子楽器において楽譜表示される対象となる自動演奏データを選択するための入力手段として使用することもできる。検出回路4は、演奏操作子4Aの各鍵の押圧及び離鍵を検出することによって検出出力を生じる。設定操作子(スイッチ等)5Aは、例えば表情付け対象の演奏データを選択するデータ選択スイッチ、自動表情付けの開始を指示する表情付け開始スイッチ、演奏データに基づく自動演奏の開始・停止を指示する自動演奏開始・停止スイッチなどがある。勿論、これら以外にも、音高、音色、効果等を選択・設定・制御するために用いる数値データ入力用のテンキーや文字データ入力用のキーボード、あるいはディスプレイ6Aに表示される所定のポインティングデバイスを操作するために用いるマウスなどの各種操作子を含んでいてよい。検出回路5は、上記各スイッチの操作状態を検出し、その操作状態に応じたスイッチ情報をデータ及びアドレスバス1Dを介してCPU1に出力する。
The
表示回路6は例えば液晶表示パネル(LCD)やCRT等から構成されるディスプレイ6Aに、表情付け対象として指定することが可能な演奏データの一覧やCPU1の制御状態などを表示する。ユーザは該ディスプレイ6Aに表示されるこれらの各種情報を参照することで、例えば表情付け対象としたい演奏データの選択などを容易に行うことができる。音源回路7は複数のチャンネルで楽音信号の同時発生が可能であり、データ及びアドレスバス1Dを経由して与えられた、ユーザによる演奏操作子4Aの操作に応じて発生される、あるいは演奏データに基づき発生される各種演奏情報を入力し、これらの演奏情報に基づいて楽音信号を発生する。音源回路7から発生された楽音信号は、効果回路8を介して効果付与されてアンプやスピーカなどを含むサウンドシステム9から発音される。この音源回路7と効果回路8とサウンドシステム9の構成には、従来のいかなる構成を用いてもよい。例えば、音源回路8はFM、PCM、物理モデル、フォルマント合成等の各種楽音合成方式のいずれを採用してもよく、また専用のハードウェアで構成してもよいし、CPU1によるソフトウェア処理で構成してもよい。
The
外部記憶装置10は、演奏データなどの各種データ、CPU1が実行する各種制御プログラム等の制御に関するデータなどを記憶する。なお、上述したROM2に制御プログラムが記憶されていない場合、この外部記憶装置10(例えばハードディスク)に制御プログラムを記憶させておき、それをRAM3に読み込むことにより、ROM2に制御プログラムを記憶している場合と同様の動作をCPU1にさせることができる。このようにすると、制御プログラムの追加やバージョンアップ等が容易に行える。なお、外部記憶装置10はハードディスク(HD)に限られず、フレキシブルディスク(FD)、コンパクトディスク(CD‐ROM・CD‐RAM)、光磁気ディスク(MO)、あるいはDVD(Digital Versatile Disk)等の着脱自在な様々な形態の外部記憶媒体を利用する記憶装置であればどのようなものであってもよい。あるいは、フラッシュメモリなどの半導体メモリであってもよい。
The
MIDIインタフェース(I/F)11は、外部接続された他のMIDI機器11A等からMIDI形式の演奏データ(MIDIデータ)を当該電子楽器へ入力したり、あるいは当該電子楽器からMIDI形式の演奏データ(MIDIデータ)を他のMIDI機器11A等へ出力するためのインタフェースである。他のMIDI機器11Aはユーザによる操作に応じてMIDIデータを発生する機器であればよく、鍵盤型、弦楽器型、管楽器型、打楽器型、身体装着型等どのようなタイプの操作子を具えた(若しくは、操作形態からなる)機器であってもよい。なお、MIDIインタフェース 11は専用のMIDIインタフェースを用いるものに限らず、RS-232C、USB(ユニバーサル・シリアル・バス)、IEEE1394(アイトリプルイー1394)等の汎用のインタフェースを用いてMIDIインタフェース11を構成するようにしてもよい。この場合、MIDIイベントデータ以外のデータをも同時に送受信するようにしてもよい。MIDIインタフェース11として上記したような汎用のインタフェースを用いる場合には、他のMIDI機器11AはMIDIイベントデータ以外のデータも送受信できるようにしてよい。勿論、演奏データのデータフォーマットはMIDI形式のデータに限らず他の形式であってもよく、その場合はMIDIインタフェース11と他のMIDI機器11Aはそれにあった構成とする。
The MIDI interface (I / F) 11 inputs performance data (MIDI data) in MIDI format from another externally connected
通信インタフェース(I/F)12は、例えばLANやインターネット、電話回線等の有線あるいは無線の通信ネットワークXに接続されており、該通信ネットワークXを介してサーバコンピュータ12Aと接続され、当該サーバコンピュータ12Aから制御プログラムあるいは各種データなどを電子楽器側に取り込むためのインタフェースである。すなわち、ROM2や外部記憶装置10(例えば、ハードディスク)等に制御プログラムや各種データが記憶されていない場合には、サーバコンピュータ12Aから制御プログラムや各種データをダウンロードするために用いられる。こうした通信インタフェース12は、有線あるいは無線のものいずれかでなく双方を具えていてよい。
The communication interface (I / F) 12 is connected to a wired or wireless communication network X such as a LAN, the Internet, or a telephone line, and is connected to the
なお、上述した電子楽器において、演奏操作子4Aは鍵盤楽器の形態に限らず、弦楽器や管楽器、あるいは打楽器等どのようなタイプの形態でもよい。また、電子楽器は演奏操作子4Aやディスプレイ6Aあるいは音源回路7などを1つの装置本体に内蔵したものに限らず、それぞれが別々に構成され、MIDIインタフェースや各種ネットワーク等の通信手段を用いて各装置を接続するように構成されたものであってもよいことは言うまでもない。さらに、本発明に係る演奏データ編集装置は上記したような電子楽器の形態に限らず、パーソナルコンピュータやカラオケ装置やゲーム装置など、どのような形態の装置・機器に適用してもよい。
In the electronic musical instrument described above, the
次に、演奏データに対して新たな音楽的表情を自動的に付加する「表情付け処理」について説明する。図2は、「表情付け処理」の一実施例を示すフローチャートである。当該処理は図1に示したCPU1において実行される処理であり、ユーザによる表情付けしたい複数パートからなる演奏データの選択後に(この選択操作に応じて、ROM2や外部記憶装置10から該当する演奏データが読み出しされて、RAM3に書き込まれる)、表情付け開始スイッチが操作されることに応じてその処理が開始される。以下、図2に示したフローチャートに従って、表情付け処理の動作について説明する。
Next, a “facial expression process” for automatically adding a new musical expression to performance data will be described. FIG. 2 is a flowchart showing an example of the “expression adding process”. This process is a process executed by the CPU 1 shown in FIG. 1, and after the performance data composed of a plurality of parts to be expressed by the user is selected (in accordance with this selection operation, the corresponding performance data is read from the
まず、表情付け対象に選択されRAM3に記憶された演奏データを分析し、複数用意された仮ビートとのそれぞれのビート合致度合い(変数)を各パート毎に集計する「ビート集計処理」を実行する(ステップS1)。この「ビート集計処理」の詳細については後述する(後述の図3参照)。そして、前記「ビート集計処理」において集計した各パート毎における仮ビートとのビート合致度合いに基づき、全パートにわたってビート合致度合いが最も高く、かつ時間長さが最大である仮ビートを「全体ビート」に決定する(ステップS2)。
First, performance data selected as a facial expression object and stored in the
ここで、公知の「ビート集計処理」について、図3を用いて簡単に説明する。図3は、従来知られた「ビート集計処理」の一実施例を示すフローチャートである。 Here, the known “beat counting process” will be briefly described with reference to FIG. FIG. 3 is a flowchart showing an example of a conventionally known “beat counting process”.
ステップS11は、RAM3において後述するような仮ビート毎に予め用意されている集計用のビート合致度合い(変数)を全て初期化する。ステップS12は、ビート合致度合いを集計するのに用いる仮ビートとして、予め決められた複数の仮ビートの候補の中から未だ集計が行われていない仮ビートを1つ特定する。仮ビートの候補としては、例えば、三連十六分音符(80Ticks)、十六分音符(120Ticks)、付点十六分音符(180Ticks)、三連八分音符(160Ticks)、八分音符(240Ticks)、付点八分音符(360Ticks)、三連四分音符(320Ticks)、四分音符(480Ticks)、付点四分音符(720Ticks)、三連二分音符(640Ticks)、二分音符(960Ticks)、付点二分音符(1440Ticks)、三連全音符(1280Ticks)、全音符(1920Ticks)、付点全音符(2880Ticks)等がある。これらの仮ビートは全体ビートや部分ビートなどを定めるために評価すべき所定の音符長であり、この実施例では四分音符=480Ticksを基準とするゲート・タイムを用いている。ステップS13は、ビート合致度合いを集計する処理対象パートとして、複数パートの中から未だ集計が行われていないパートを1つ特定する。ステップS14は、前記特定した処理対象パートの演奏データに基づきノートイベントデータを順に1つずつ読み出す。ステップS15は、該読み出したノートイベントデータが仮ビートのグリッドに合致しているか否かを判定する。具体的には、読み出したノートイベントデータのオンタイム(つまりノートオンイベントのタイミング)が、仮ビートのグリッドの±猶予時間以内(つまり許容範囲内)である場合には、該読み出したノートイベントデータが仮ビートのグリッドに合致していると判定する。ここで、仮ビートのグリッドとは、例えば小節線を基準としたノートイベントデータのオンタイムを、仮ビートで割った場合に余りが「0」となる時刻、つまりは仮ビートの整数倍の時刻である。また、猶予時間とは、例えば仮ビートに「0.21」を掛けたものである。この0.21という値は発明者の経験上求められた数値であるが、これに限らない。
Step S11 initializes all the beat matching degrees (variables) for tabulation prepared in advance for each temporary beat as will be described later in the
前記ステップS15において、読み出したノートイベントデータが仮ビートのグリッドに合致していると判定した場合には(ステップS15のYES)、該仮ビートに対応する前記集計用のビート合致度合い(変数)をカウントアップする(ステップS16)。ステップS17は、ビート合致度合いを集計する処理対象パートの演奏データ内に含まれるノートイベントデータを全て処理したか否かを判定する。処理対象パートの演奏データ内に含まれるノートイベントデータを全て処理していないと判定した場合には(ステップS17のNO)、上記ステップS14の処理に戻り上記ステップS14〜ステップS16までの処理を繰り返し実行する。一方、処理対象パートの演奏データ内に含まれるノートイベントデータを全て処理したと判定した場合には(ステップS17のYES)、選択された演奏データの全パートについて上記処理を実行したか否かを判定する(ステップS18)。全パートについて上記処理を行っていないと判定した場合には(ステップS18のNO)、ステップS13の処理に戻って上記ステップS13〜ステップS17までの処理を繰り返し実行する。全パートについて上記処理を行ったと判定した場合には(ステップS18のYES)、全ての仮ビート(例えば三連十六分音符、十六分音符、付点十六分音符、三連八分音符、八分音符、付点八分音符、三連四分音符、四分音符、付点四分音符、三連二分音符、二分音符、付点二分音符、三連全音符、全音符、付点全音符等)で処理済みであるか否かを判定する(ステップS19)。全ての仮ビートで処理済みでないと判定した場合には(ステップS19のNO)、上記ステップS12の処理に戻り上記ステップS12〜ステップS18までの処理を繰り返し実行する。全ての仮ビートで処理済みであると判定した場合には(ステップS19のYES)、当該処理を終了する。以上のようにして、ユーザ操作の簡易性の観点から全てのパートの演奏データに対して表情付けを行う際に用いられる共通の基準ビートである「全体ビート」を求めるためのベースとなる、各パートにおける各仮ビートとのビート合致度合いの集計が行われる。また、詳しくは後述するが、当該処理で集計されたパート毎における各仮ビートとのビート合致度合いは、各パート毎の演奏データに対して最も適切な表情付けを行うことが可能であるパート単位の基準ビートである「部分ビート」を求めるためのベースにもなる。 If it is determined in step S15 that the read note event data matches the temporary beat grid (YES in step S15), the total beat matching degree (variable) corresponding to the temporary beat is set. Count up (step S16). In step S17, it is determined whether or not all the note event data included in the performance data of the processing target part for which the beat matching degree is totaled has been processed. If it is determined that not all the note event data included in the performance data of the part to be processed is processed (NO in step S17), the process returns to step S14 and the processes from step S14 to step S16 are repeated. Execute. On the other hand, if it is determined that all the note event data included in the performance data of the processing target part has been processed (YES in step S17), it is determined whether or not the above processing has been executed for all the parts of the selected performance data. Determination is made (step S18). If it is determined that the above process has not been performed for all parts (NO in step S18), the process returns to step S13 and the processes from step S13 to step S17 are repeated. If it is determined that the above processing has been performed for all parts (YES in step S18), all temporary beats (eg, triple hex notes, sixteenth notes, dotted sixteenth notes, triple eighth notes) , Eighth note, dotted eighth note, triple quarter note, quarter note, dotted quarter note, triple half note, half note, dotted half note, triple full note, full note, dotted It is determined whether or not all the notes have been processed (step S19). If it is determined that all the temporary beats have not been processed (NO in step S19), the process returns to step S12 and the processes from step S12 to step S18 are repeated. If it is determined that all the temporary beats have been processed (YES in step S19), the process ends. As described above, from the viewpoint of simplicity of user operation, each of the performance data of all the parts is a base for obtaining the “whole beat” that is a common reference beat used when performing expression. Aggregation of the degree of beat matching with each temporary beat in the part is performed. In addition, as will be described in detail later, the degree of beat matching with each temporary beat for each part aggregated in the processing can be performed with the most suitable expression for the performance data for each part. It is also the base for finding the “partial beat” that is the reference beat.
図2のフローチャートの説明に戻って、ステップS3は、表情付けを行う対象とする処理対象パートとして、複数パートの中から未だ表情付けが行われていないパートを1つ特定する。ステップS4は、処理対象パートにおいて最もビート合致度合いが高く、かつ時間長さが最大の仮ビートを「部分ビート」に決定する。ステップS5は、処理対象パートにおいて、前記「ビート集計処理」(ステップS1及び図3参照)で集計した全体ビートの時間長さと、前記決定した部分ビートの時間長さとの比が所定値よりもかけ離れているか否かを判定する。全体ビートの時間長さと部分ビートの時間長さとの比が所定値よりもかけ離れている(例えば、1/2倍よりも短い場合や2倍よりも長い場合など)と判定した場合には(ステップS5のYES)、部分ビートを処理対象パートに適用する基準ビートとして選択する(ステップS6)。一方、全体ビートの時間長さと部分ビートの時間長さとの比が所定値よりもかけ離れていないと判定した場合には(ステップS5のNO)、全体ビートを処理対象パートに適用する基準ビートとして選択する(ステップS7)。例えば、全体ビートが四分音符に決定された場合であって、あるパートの部分ビートが全音符であったならば、部分ビートの全音符の時間長さは全体ビートの四分音符の4倍の時間長さであり時間長さの比が所定値(例えば2倍)よりもかけ離れていることから、当該パートに適用する基準ビートには部分ビートである全音符が採用される。別のパートの部分ビートが二分音符であったならば、部分ビートの二分音符の時間長さは全体ビートの四分音符の2倍の時間長さであり時間長さの比が所定値よりもかけ離れていないことから、当該パートに適用する基準ビートには全体ビートである四分音符が採用される。さらに別のパートの部分ビートが八分音符であったならば、部分ビートである八分音符の時間長さは全体ビートの四分音符の1/2倍の時間長さであり時間長さの比が所定値(例えば1/2倍)よりもかけ離れていないことから、当該パートに適用する基準ビートには全体ビートである四分音符が採用される。このようにして基準ビートとして選択された全体ビート又は部分ビートは、後述するように周知の演奏データに対する表情付け処理において適用することができる。 Returning to the description of the flowchart of FIG. 2, in step S <b> 3, one part to which facial expression is not yet applied is specified from among a plurality of parts as a processing target part to be subjected to facial expression. In step S4, the temporary beat having the highest beat matching degree and the longest time length in the processing target part is determined as the “partial beat”. In step S5, in the processing target part, the ratio between the total beat time length calculated in the “beat counting process” (see step S1 and FIG. 3) and the determined partial beat time length is far from a predetermined value. It is determined whether or not. When it is determined that the ratio of the time length of the whole beat and the time length of the partial beat is far from a predetermined value (for example, shorter than 1/2 times or longer than 2 times) (step) (YES in S5), the partial beat is selected as a reference beat to be applied to the part to be processed (step S6). On the other hand, if it is determined that the ratio between the time length of the whole beat and the time length of the partial beat is not far from the predetermined value (NO in step S5), the whole beat is selected as the reference beat to be applied to the processing target part. (Step S7). For example, if the whole beat is determined to be a quarter note, and the partial beat of a part is a full note, the time length of the full note of the partial beat is four times the quarter note of the whole beat. Since the time length ratio is far from a predetermined value (for example, twice), the whole beat as a partial beat is adopted as the reference beat applied to the part. If the partial beat of another part was a half note, the time length of the half note of the partial beat is twice the time length of the quarter note of the whole beat, and the ratio of the time lengths is less than the predetermined value. Since they are not far apart, a quarter note that is the whole beat is adopted as the reference beat applied to the part. If the partial beat of another part is an eighth note, the time length of the eighth note, which is a partial beat, is half the time length of the quarter note of the whole beat, Since the ratio is not far from a predetermined value (for example, 1/2 times), a quarter note, which is the entire beat, is adopted as the reference beat applied to the part. The whole beat or the partial beat selected as the reference beat in this way can be applied in the expression processing for well-known performance data as will be described later.
ステップS8は、前記選択した基準ビートを適用して、処理対象パートの演奏データに対する表情付け処理を実行する。前記選択された基準ビートを適用して行われる表情付け処理の一例としては、例えば特開2002−311952号公報に記載されているギターのコードストロークのダウンピッキングとアップピッキングを求める処理がある。ただし、この場合には、求めた基準ビートと実際に表情付けの下になる基準ビートには適当な倍率を適用することが好ましい。例えば、コードストロークのダウンピッキングとアップピッキングの付加の場合には、求めた基準ビートを2倍の値にしたものを実際に表情付けの下になる基準ビートとして適用するのが好ましい。また、特開2002−333883号公報に記載されているノートイベントの間引き処理がある。ステップS9は、全パートについて上記処理を実行したか否かを判定する。全パートについて上記処理を行っていないと判定した場合には(ステップS9のNO)、ステップS3の処理に戻って上記ステップS3〜ステップS9までの処理を繰り返し実行する。全パートについて上記処理を行ったと判定した場合には(ステップS9のYES)、当該処理を終了する。 In step S8, the selected reference beat is applied to execute expression processing for the performance data of the part to be processed. As an example of a facial expression process performed by applying the selected reference beat, there is a process for obtaining down-picking and up-picking of a chord stroke of a guitar described in JP-A-2002-319552, for example. However, in this case, it is preferable to apply an appropriate magnification to the obtained reference beat and the reference beat that is actually under the expression. For example, in the case of adding chord stroke down picking and up picking, it is preferable to apply a value obtained by doubling the obtained reference beat as a reference beat that is actually under the expression. In addition, there is a note event thinning process described in JP-A-2002-333883. In step S9, it is determined whether or not the above processing has been executed for all parts. If it is determined that the above process has not been performed for all parts (NO in step S9), the process returns to step S3 and the processes from step S3 to step S9 are repeated. If it is determined that the above process has been performed for all parts (YES in step S9), the process ends.
上記「表情付け処理」(図2参照)において、ユーザが各パートに適用する基準ビートに部分ビートか全体ビートのいずれかを適宜に選択することのできるようにしてもよい。具体的には、全体ビートの時間長さと部分ビートの時間長さとの比がかけ離れていると判定した場合に(図2のステップS5のYES)、例えば「ダイアログ」を表示して、ユーザに対して部分ビート又は全体ビートのどちらを適用するかを促すなどのユーザ選択処理を、ステップS5とステップS6の間に追加するとよい。そして、このユーザ選択処理において部分ビートが選択された場合には部分ビートを基準ビートに決定し(図2のステップS6参照)、全体ビートが選択された場合には全体ビートを基準ビートに決定する(図2のステップS7参照)。 In the “expression processing” (see FIG. 2), the user may be able to appropriately select either a partial beat or an overall beat as a reference beat to be applied to each part. Specifically, when it is determined that the ratio between the time length of the whole beat and the time length of the partial beat is far away (YES in step S5 in FIG. 2), for example, a “dialog” is displayed to the user. User selection processing such as prompting whether to apply a partial beat or a whole beat may be added between step S5 and step S6. When a partial beat is selected in this user selection process, the partial beat is determined as a reference beat (see step S6 in FIG. 2), and when the entire beat is selected, the entire beat is determined as a reference beat. (See step S7 in FIG. 2).
次に、複数パートからなる演奏データに対する表情付けの際に適用する基準ビートの決定について、図4を用いて説明する。図4は、基準ビートの決定についての詳細を説明するための概念図である。図4(a)は、演奏データを便宜的に楽譜として表したものである。図4(b)は、各パートにおける仮ビートとのビート合致度合いを表記したものである。この実施例では、図示の第1パート〜第3パートに対して同時に表情付けを行う場合を例に説明する。図4(a)において各音符下に付された数字は、各音符のオンタイム(発音開始時刻)を便宜的に示したものである。なお、ここでは説明を理解し易くするために、上述したような仮ビートの候補から付点音符及び3連符の候補を外して各仮ビートにおけるビート合致度合いを求める場合、つまり十六分音符、八分音符、四分音符、二分音符、全音符のみを仮ビートの候補とした場合を例に説明する。 Next, determination of a reference beat to be applied when applying facial expressions to performance data composed of a plurality of parts will be described with reference to FIG. FIG. 4 is a conceptual diagram for explaining details of determination of the reference beat. FIG. 4A shows performance data as a score for convenience. FIG. 4B shows the degree of beat matching with the temporary beat in each part. In this embodiment, a case where facial expressions are applied simultaneously to the first to third parts shown in the drawing will be described as an example. In FIG. 4 (a), the numbers given under each note indicate the on-time (sounding start time) of each note for convenience. In order to facilitate the understanding of the explanation, when the dotted note and triplet candidates are removed from the provisional beat candidates as described above to obtain the beat matching degree in each provisional beat, that is, sixteenth notes. A case where only the eighth note, the quarter note, the half note, and the whole note are candidates for the temporary beat will be described.
まず、上記「ビート集計処理」(図2のステップS1及び図3参照)に従って、第1パート〜第3パートの演奏データを基に全体ビートを求める。図4(b)から理解できるように、第1パートにおいては、全音符〜十六分音符までの各仮ビートとのビート合致度合いは全て「2」とカウントされる。第2パートにおいては、全音符以外の二分音符〜十六分音符までの各仮ビートとのビート合致度合いは「4」、全音符の仮ビートとのビート合致度合いは「2」とカウントされる。第3パートにおいては、全音符の仮ビートとのビート合致度合いは「2」、二分音符の仮ビートとのビート合致度合いは「4」、四分音符〜十六分音符までの各仮ビートとのビート合致度合いは全て「7」とカウントされる。こうした第1パート〜第3パートの全パートにおいて仮ビート毎に集計を行うと、最もビート合致度合いが高い仮ビートは四分音符、八分音符、十六分音符であり(2+4+7=13)、このうち最も時間長さの長い仮ビートは四分音符であることから、全体ビートとしては四分音符が決定される(図示における全パート計の斜線部参照)。 First, in accordance with the “beat counting process” (see step S1 in FIG. 2 and FIG. 3), the total beat is obtained based on the performance data of the first to third parts. As can be understood from FIG. 4B, in the first part, the degree of beat matching with each provisional beat from the whole note to the sixteenth note is counted as “2”. In the second part, the degree of beat match with each temporary beat from half notes to sixteenth notes other than full notes is counted as “4”, and the degree of beat coincidence with temporary beats of all notes is counted as “2”. . In the third part, the degree of coincidence with the tentative beat of all notes is “2”, the degree of coincidence with the tentative beat of half notes is “4”, and each provisional beat from the quarter note to the sixteenth note The beat match degrees of all are counted as “7”. When totaling for each temporary beat in all of the first to third parts, the temporary beats with the highest degree of beat match are quarter notes, eighth notes, and sixteenth notes (2 + 4 + 7 = 13). Since the temporary beat with the longest time is a quarter note among these, a quarter note is determined as the whole beat (see the hatched portion of the total of all parts in the figure).
次に、第1パートを表情付けを行う対象の処理対象パートとした場合、部分ビートは当該パートにおいて最もビート合致度合いが高く(2)、かつ最も時間長さの長い仮ビートである全音符に決定される(図示における第1パートの斜線部参照)。この第1パートにおいて、全体ビートとされた四分音符の時間長さ(480)と部分ビートとされた全音符の時間長さ(1920)とを比較すると、部分ビートの全音符の時間長さは全体ビートの四分音符の4倍の時間長さであり時間長さの比が所定値(例えば2倍)よりもかけ離れていることから、当該パートに適用する基準ビートには部分ビートである全音符が採用される。このように、従来においては無条件に全体ビートである四分音符が基準ビートとして決定されていた第1パートに対しては、全体ビートである四分音符を基準ビートに決定することなく、部分ビートである全音符を基準ビートとして決定する。 Next, when the first part is the processing target part to be expressed, the partial beat has the highest degree of beat matching in the part (2), and the whole beat is a temporary beat having the longest time length. It is determined (refer to the shaded portion of the first part in the figure). In this first part, comparing the time length of the quarter note (480) as the whole beat and the time length of the whole note (1920) as the partial beat, the time length of the full note of the partial beat Is 4 times as long as the quarter note of the whole beat, and the ratio of time lengths is far from a predetermined value (for example, 2 times), so that the reference beat applied to the part is a partial beat All notes are adopted. In this way, for the first part in which the quarter note that is the whole beat is unconditionally determined as the reference beat in the prior art, the quarter note that is the whole beat is determined as the reference beat without determining the reference beat. All notes that are beats are determined as reference beats.
第2パートを表情付けを行う対象の処理対象パートとした場合、部分ビートは当該パートにおいて最もビート合致度合いが高く(4)、かつ最も時間長さの長い仮ビートである二分音符に決定される(図示における第2パートの斜線部参照)。この第2パートにおいて、全体ビートとされた四分音符の時間長さ(480)と部分ビートとされた二分音符の時間長さ(960)とを比較すると、部分ビートの全音符の時間長さは全体ビートの四分音符の2倍の時間長さであり時間長さの比が所定値よりもかけ離れていないことから、当該パートに適用する基準ビートには全体ビートである四分音符が採用される。この場合には、従来と同様に全体ビートである四分音符を基準ビートとして決定する。 When the second part is a processing target part to be expressed, the partial beat is determined to be a half note having the highest beat matching degree in the part (4) and the temporary beat having the longest time length. (Refer to the shaded portion in the second part in the figure). In this second part, if you compare the time length of a quarter note (480) as a whole beat and the time length of a half note (960) as a partial beat, the time length of all notes of a partial beat Is twice as long as the quarter note of the entire beat, and the ratio of time lengths is not far from the predetermined value, so the quarter note that is the whole beat is adopted as the reference beat applied to the part. Is done. In this case, the quarter note which is the whole beat is determined as the reference beat as in the conventional case.
第3パートを表情付けを行う対象の処理対象パートとした場合、部分ビートは当該パートにおいて最もビート合致度合いが高く(7)、かつ最も時間長さの長い仮ビートである四分音符に決定される(図示における第3パートの斜線部参照)。この第3パートにおいて、全体ビートとされた四分音符の時間長さ(480)と部分ビートとされた四分音符の時間長さ(480)は同じであり、時間長さの比が所定値よりもかけ離れていないことから、当該パートに適用する基準ビートには全体ビートである四分音符が採用される。この場合にも、従来と同様に全体ビートである四分音符を基準ビートとして決定する。 If the third part is the processing target part to be expressed, the partial beat is determined to be a quarter note that is the highest beat matching degree in the part (7) and the longest temporary beat. (Refer to the shaded portion in the third part in the figure). In this third part, the time length (480) of the quarter note made the whole beat and the time length (480) of the quarter note made the partial beat are the same, and the time length ratio is a predetermined value. Since it is not far apart, a quarter note which is the whole beat is adopted as the reference beat applied to the part. Also in this case, the quarter note which is the whole beat is determined as the reference beat as in the conventional case.
以上のようにして、全体ビートの時間長さと部分ビートの時間長さとが大きくかけ離れているパートである場合には、そのパートの演奏データの分析のみに基づいて決定される部分ビートを、当該パートの表情付けに適用する基準ビートに採用する。具体的には、上述したように、各パート毎に、全体ビートの時間長さと部分ビートの時間長さとを比較し、時間長さの比が所定値よりもかけ離れていない場合には全体ビートを適用し、時間長さの比が所定値よりもかけ離れている場合には部分ビートを適用する。特に、上述した図4に示すように、第1パートに対して全体ビートである四分音符を基準ビートに適用して表情付けを行うと、せわしない表情が付加されてしまうような場合に、該第1パートに対して全体ビートである四分音符ではなく部分ビートである全音符を適用すると、適切な表情が付加されることになり有効である。 As described above, when the time length of the whole beat and the time length of the partial beat are largely different from each other, the partial beat determined based only on the analysis of the performance data of the part is used as the part beat. Adopted as a standard beat to be applied to facial expression. Specifically, as described above, for each part, the time length of the whole beat is compared with the time length of the partial beat, and if the time length ratio is not far from a predetermined value, the whole beat is calculated. Apply a partial beat if the time length ratio is far from a predetermined value. In particular, as shown in FIG. 4 described above, when expression is applied to the first part by applying a quarter note, which is the entire beat, to the reference beat, Applying full notes as partial beats instead of quarter notes as full beats to the first part is effective because an appropriate expression is added.
なお、演奏データが3パート以上からなり、この3パート以上のうち1パートだけが他のパートと比べて全体ビートの時間長さと部分ビートの時間長さとがかけ離れているような場合、そのかけ離れた1パートについては部分ビートを、その他のパートについては全体パートを適用するようにするとよい。例えば、図4に示した具体例において、第1パートだけが第2パート及び第3パートとかけ離れていると考え、第1パートには部分ビートである全音符を、第2パート及び第3パートには全体ビートである四分音符を、それぞれ基準ビートとして任意に決定することのできるようにしてよい。また、複数のパートを2組以上のグループにグループ分けし、各グループ内においては該グループに含まれるパートの演奏データを基に求めた全体ビートを基準ビートに決定するようにしてもよい。
なお、全体ビート又は部分ビートを求める際に、1小節内に丁度収まるグリッドでしかビート合致度合いをカウントしないことは言うまでもない。また、小節線を基準として仮ビートのグリッドを決めることに限らず、曲の先頭あるいは拍子の指定がある位置を基準として、小節線とは関係なしに仮ビートのグリッドを決めるようにしてよい。
If the performance data consists of 3 parts or more and only one part of these 3 or more parts is far from the time length of the overall beat and the time length of the partial beat compared to the other parts, it is far away. It is preferable to apply a partial beat for one part and the whole part for the other parts. For example, in the specific example shown in FIG. 4, it is considered that only the first part is far from the second part and the third part, and the first part contains all the notes that are partial beats, and the second part and the third part. For example, a quarter note as a whole beat may be arbitrarily determined as a reference beat. Further, a plurality of parts may be grouped into two or more groups, and in each group, the whole beat obtained based on the performance data of the parts included in the group may be determined as the reference beat.
Needless to say, when determining the total beat or the partial beat, the beat matching degree is counted only in a grid that fits within one measure. Further, the provisional beat grid may be determined irrespective of the measure line, not limited to determining the provisional beat grid based on the bar line, but based on the position where the beginning of the song or the time signature is specified.
1…CPU、2…ROM、3…RAM、4,5…検出回路、4A…演奏操作子、5A…設定操作子、6…表示回路、6A…ディスプレイ、7…音源回路、8…効果回路、9…サウンドシステム、10…外部記憶装置、11…MIDIインタフェース、11A…MIDI機器、12…通信インタフェース、12A…サーバコンピュータ、1D…通信バス、X…通信ネットワーク
DESCRIPTION OF SYMBOLS 1 ... CPU, 2 ... ROM, 3 ... RAM, 4,5 ... Detection circuit, 4A ... Performance operator, 5A ... Setting operator, 6 ... Display circuit, 6A ... Display, 7 ... Sound source circuit, 8 ... Effect circuit, DESCRIPTION OF
Claims (3)
前記各パート毎にカウントしたノート数を全パートにわたって集計し、該集計したノート数を前記音符長毎に比較して、最大数でありかつ時間長が最も長い音符長を全体ビートに決定する第1の決定手段と、
前記各パート毎にカウントしたノート数を前記音符長毎に比較して、最大数でありかつ時間長が最も長い音符長を各パートの部分ビートに決定する第2の決定手段と、
各パート毎に、前記全体ビート又は前記部分ビートのいずれかを基準ビートとして選択する選択手段と、
前記選択された基準ビートに基づき、各パート毎の演奏データに対して音楽的な表情付けを行うように楽音特性を変更する楽音特性変更手段と
を具える演奏データ編集装置。 Regarding the sounding start timing of each note-on information in performance data consisting of a plurality of parts, for each of a plurality of types of note lengths, a timing that is an integral multiple of the note length or the number of notes within the permissible range is assigned to each part. Counting means for counting;
The number of notes counted for each part is totaled over all parts, and the total number of notes is compared for each note length to determine the maximum number of notes with the longest time length as the overall beat. 1 determination means;
A second determining means for comparing the number of notes counted for each part for each note length, and determining a note length that is the maximum number and the longest time length as a partial beat of each part;
For each part, selection means for selecting either the whole beat or the partial beat as a reference beat;
A performance data editing apparatus comprising a musical sound characteristic changing means for changing a musical sound characteristic so as to perform musical expression on the performance data for each part based on the selected reference beat.
複数パートからなる演奏データ中の各ノートオン情報の発音開始タイミングに関して、複数種の各音符長毎に、当該音符長の整数倍のタイミング又はその許容範囲内にあるノート数を各パート毎にそれぞれカウントする手順と、
前記各パート毎にカウントしたノート数を全パートにわたって集計し、該集計したノート数を前記音符長毎に比較して、最大数でありかつ時間長が最も長い音符長を全体ビートに決定する手順と、
前記各パート毎にカウントしたノート数を前記音符長毎に比較して、最大数でありかつ時間長が最も長い音符長を各パートの部分ビートに決定する手順と、
各パート毎に、前記全体ビート又は前記部分ビートのいずれかを基準ビートとして選択する手順と、
前記選択された基準ビートに基づき、各パート毎の演奏データに対して音楽的な表情付けを行うように楽音特性を変更する手順と
を実行させるためのプログラム。 On the computer,
Regarding the sounding start timing of each note-on information in performance data consisting of a plurality of parts, for each of a plurality of types of note lengths, a timing that is an integral multiple of the note length or the number of notes within the permissible range is assigned to each part. The steps to count,
Procedure for totalizing the number of notes counted for each part over all parts, comparing the total number of notes for each note length, and determining the maximum number of note lengths with the longest time length as the overall beat When,
The number of notes counted for each part is compared for each note length, and the maximum note length and the longest note length are determined as partial beats for each part;
For each part, a procedure for selecting either the whole beat or the partial beat as a reference beat;
A program for executing a procedure for changing a tone characteristic so as to perform musical expression on performance data for each part based on the selected reference beat.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006077426A JP4595851B2 (en) | 2006-03-20 | 2006-03-20 | Performance data editing apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006077426A JP4595851B2 (en) | 2006-03-20 | 2006-03-20 | Performance data editing apparatus and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007256364A true JP2007256364A (en) | 2007-10-04 |
JP4595851B2 JP4595851B2 (en) | 2010-12-08 |
Family
ID=38630700
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006077426A Expired - Fee Related JP4595851B2 (en) | 2006-03-20 | 2006-03-20 | Performance data editing apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4595851B2 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001075566A (en) * | 1999-09-01 | 2001-03-23 | Casio Comput Co Ltd | Tone control device and recording medium storing tone control program |
JP2001350474A (en) * | 2000-06-08 | 2001-12-21 | Yamaha Corp | Time-series data read control device, performance control device, and video reproduction control device |
JP2001350471A (en) * | 2000-06-05 | 2001-12-21 | Yamaha Corp | Device for processing performance data expression making, and recording medium therefor |
JP2002311952A (en) * | 2001-04-12 | 2002-10-25 | Yamaha Corp | Device, method, and program for editing music data |
JP2003330459A (en) * | 2002-05-15 | 2003-11-19 | Meiji Univ | Music data impression system and program |
JP2005106928A (en) * | 2003-09-29 | 2005-04-21 | Yamaha Corp | Playing data processor and program |
JP2005249903A (en) * | 2004-03-02 | 2005-09-15 | Yamaha Corp | Automatic performance data editing device and program |
-
2006
- 2006-03-20 JP JP2006077426A patent/JP4595851B2/en not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001075566A (en) * | 1999-09-01 | 2001-03-23 | Casio Comput Co Ltd | Tone control device and recording medium storing tone control program |
JP2001350471A (en) * | 2000-06-05 | 2001-12-21 | Yamaha Corp | Device for processing performance data expression making, and recording medium therefor |
JP2001350474A (en) * | 2000-06-08 | 2001-12-21 | Yamaha Corp | Time-series data read control device, performance control device, and video reproduction control device |
JP2002311952A (en) * | 2001-04-12 | 2002-10-25 | Yamaha Corp | Device, method, and program for editing music data |
JP2003330459A (en) * | 2002-05-15 | 2003-11-19 | Meiji Univ | Music data impression system and program |
JP2005106928A (en) * | 2003-09-29 | 2005-04-21 | Yamaha Corp | Playing data processor and program |
JP2005249903A (en) * | 2004-03-02 | 2005-09-15 | Yamaha Corp | Automatic performance data editing device and program |
Also Published As
Publication number | Publication date |
---|---|
JP4595851B2 (en) | 2010-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2022095656A1 (en) | Audio processing method and apparatus, and device and medium | |
US8314320B2 (en) | Automatic accompanying apparatus and computer readable storing medium | |
US20170084261A1 (en) | Automatic arrangement of automatic accompaniment with accent position taken into consideration | |
JP3528654B2 (en) | Melody generator, rhythm generator, and recording medium | |
US8907197B2 (en) | Performance information processing apparatus, performance information processing method, and program recording medium for determining tempo and meter based on performance given by performer | |
JP3915807B2 (en) | Automatic performance determination device and program | |
JP6175812B2 (en) | Musical sound information processing apparatus and program | |
JP2009282464A (en) | Chord detection device and chord detection program | |
JPH11296168A (en) | Performance information evaluating device, its method and recording medium | |
JP3577561B2 (en) | Performance analysis apparatus and performance analysis method | |
CN113838446B (en) | Electronic musical instrument, accompaniment sound indication method and accompaniment sound automatic generating device | |
JP2006126710A (en) | Playing style determining device and program | |
JP4614307B2 (en) | Performance data processing apparatus and program | |
JP4595851B2 (en) | Performance data editing apparatus and program | |
JP4802947B2 (en) | Performance method determining device and program | |
JP4853054B2 (en) | Performance data editing apparatus and program | |
JP2007240558A (en) | Chord detection area setting device, chord display device with same device, and program thereof | |
JP2002268637A (en) | Time signature device and program | |
JP7425558B2 (en) | Code detection device and code detection program | |
JP2010175739A (en) | Electronic metronome and program | |
JP3777976B2 (en) | Performance information analyzing apparatus and recording medium | |
JP2005017676A (en) | Automatic music player and program | |
JP2016057389A (en) | Chord determination device and chord determination program | |
JP4760348B2 (en) | Music selection apparatus and computer program for music selection | |
JP2003308069A (en) | Pitch conversion processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090120 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100604 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100615 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100727 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100824 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100906 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131001 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |