[go: up one dir, main page]

JP2007256364A - Performance data editing device and program - Google Patents

Performance data editing device and program Download PDF

Info

Publication number
JP2007256364A
JP2007256364A JP2006077426A JP2006077426A JP2007256364A JP 2007256364 A JP2007256364 A JP 2007256364A JP 2006077426 A JP2006077426 A JP 2006077426A JP 2006077426 A JP2006077426 A JP 2006077426A JP 2007256364 A JP2007256364 A JP 2007256364A
Authority
JP
Japan
Prior art keywords
beat
note
notes
performance data
partial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006077426A
Other languages
Japanese (ja)
Other versions
JP4595851B2 (en
Inventor
Akira Yamauchi
明 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2006077426A priority Critical patent/JP4595851B2/en
Publication of JP2007256364A publication Critical patent/JP2007256364A/en
Application granted granted Critical
Publication of JP4595851B2 publication Critical patent/JP4595851B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To determine reference beats properly giving expressions per part. <P>SOLUTION: With respect to sound production start timings of respective pieces of note-on information in performance data consisting of a plurality of parts, the number of notes being at timings of integral multiples for each of a plurality of kinds of note lengths or being within their allowable ranges is counted. The counted numbers of notes are totalized in all parts, and the totalized numbers of notes are compared for note lengths to determine a note length of notes whose totalized number is largest and which have the longest time length, as a general beat. The numbers of notes counted in each part are compared for note lengths to determine a note length of notes whose totalized number is largest and which have the longest time length, as a partial beat. Reference beats to be used for giving musical expressions are selected from the general beat or partial beats per part. Thus, partial beats are applied to individual parts wherein application of the general beat is difficult, to make it possible to properly give expressions to any part. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

この発明は、演奏データに対して新たな音楽的表情を自動的に付加する表情付けを行う演奏データ編集装置及びプログラムに関する。特に、基準のビート(拍子)をもとに演奏データに対する表情付け処理を行う演奏データ編集装置及びプログラムに関する。   The present invention relates to a performance data editing apparatus and program for performing facial expression that automatically adds a new musical expression to performance data. In particular, the present invention relates to a performance data editing apparatus and program for performing expression processing on performance data based on a reference beat (time signature).

最近では、所定の演奏データに基づいて楽音を自動演奏する自動演奏装置(所謂シーケンサ)が知られている。こうした自動演奏装置で用いられる演奏データを一連の音符列の各音高をそれぞれ表す複数の音高情報のみで構成すると、該演奏データを再生することにより行われる楽音の自動演奏は機械的な無表情な演奏が行われることとなり、非常に音楽的に不自然である。そこで、こうした自動演奏をより音楽的に自然な演奏、美しい演奏、生々しい演奏とするには、楽音に対して様々な音楽的な表情や楽器らしさの付加といった表情付けを行うとよい。そのためには、演奏データに対して様々な音楽的な表情や楽器らしさを表す演奏情報を制御データとして新たに加える必要がある。表情付けを自動的に行うものとして、演奏データを基に基準とするビート(拍子)を予め決定しておき、該決定した基準のビートを適用して表情付けを行う技術が従来から知られている。例えば、ワルツの場合には基準ビートを四分音符に、16ビートのロックの場合には基準ビートを十六分音符にして表情付けを行うとよい。このような表情付けを行う演奏データ編集装置の一例として、例えば本出願人が既に出願済みの下記に示す特許文献1及び特許文献2に記載の技術がある。
特開2005−249903号公報 特開2002−311952号公報
Recently, automatic performance apparatuses (so-called sequencers) that automatically perform musical sounds based on predetermined performance data are known. If the performance data used in such an automatic performance device is composed of only a plurality of pitch information representing each pitch of a series of note strings, the automatic performance of musical sounds performed by reproducing the performance data is not mechanical. A performance with a facial expression will be performed, which is very musically unnatural. Therefore, in order to make these automatic performances more musically natural, beautiful, and lively, it is better to add expressions such as adding various musical expressions and musicality to the musical sounds. For this purpose, it is necessary to newly add performance information representing various musical expressions and musical instrument characteristics to the performance data as control data. Conventionally known as a technique for automatically applying a facial expression, a beat based on performance data is determined in advance and a facial expression is applied by applying the determined reference beat. Yes. For example, in the case of waltz, the reference beat may be a quarter note, and in the case of 16-beat rock, the reference beat may be a sixteenth note. As an example of a performance data editing apparatus that performs such expression, for example, there are technologies described in Patent Document 1 and Patent Document 2 shown below that have already been filed by the present applicant.
JP 2005-249903 A JP 2002-311952 A

ところで、上述した特許文献1に記載の技術においては、ユーザ操作の簡易性を確保するために、表情付け対象とされた全てのパート(又はチャンネル)の演奏データを基にして1つのビート(これを便宜的に全体ビートと呼ぶ)を決定し、該決定した全体ビートを全てのパートに適用して表情付けを行うようにしていた(つまり、全体ビートを曲全体の表情付けのために適用する基準ビートとする)。しかし、例えばパッド系などの長い音長の音符を中心に構成されたパートと、リズム系などの細かい音長の音符を中心に構成されたパートとを同時に表情付けする場合などのように、パート単位の演奏データのみを基に決定される各パート別のビート(これを便宜的に部分ビートと呼ぶ)が前記全体ビートと大きく異なる場合において、前記全体ビートを全てのパートに適用すると、適用されるパートによっては適切な表情が付加されずに都合が悪い。そこで、部分ビートと全体ビートとが大きく異なるパートに対しては、全体ビートを適用するのではなく当該パートの部分ビートを適用して表情付けを行うのが望ましいが、そうしたものは従来全く考えられていなかった。   By the way, in the technique described in Patent Document 1 described above, in order to ensure the simplicity of the user operation, one beat (this is based on the performance data of all the parts (or channels) that are targeted for expression. Is called the whole beat for the sake of convenience), and the determined whole beat is applied to all the parts for expression (that is, the whole beat is applied to express the whole song). Use as a reference beat). However, for example, when a part composed mainly of notes with a long note length, such as a pad, and a part composed mainly of notes with a long note length, such as a rhythm, are expressed simultaneously. When the beat for each part determined based only on the performance data of the unit (this is called a partial beat for convenience) is significantly different from the whole beat, it is applied when the whole beat is applied to all parts. Some parts are inconvenient because they do not have an appropriate expression. Therefore, it is desirable to apply a facial expression to a part where the partial beat differs greatly from the whole beat instead of applying the whole beat. It wasn't.

本発明は上述の点に鑑みてなされたもので、複数のパートからなる演奏データに対する表情付けの際に適用すべき基準ビート(拍子)を、各パート毎に適切な表情付けを行うビートに決定することのできる演奏データ編集装置及びプログラムを提供しようとするものである。   The present invention has been made in view of the above points, and the reference beat (time signature) to be applied when expressing the performance data of a plurality of parts is determined to be a beat for appropriate expression for each part. It is an object of the present invention to provide a performance data editing apparatus and program that can be performed.

本発明に係る演奏データ編集装置は、複数パートからなる演奏データ中の各ノートオン情報の発音開始タイミングに関して、複数種の各音符長毎に、当該音符長の整数倍のタイミング又はその許容範囲内にあるノート数を各パート毎にそれぞれカウントするカウント手段と、前記各パート毎にカウントしたノート数を全パートにわたって集計し、該集計したノート数を前記音符長毎に比較して、最大数でありかつ時間長が最も長い音符長を全体ビートに決定する第1の決定手段と、前記各パート毎にカウントしたノート数を前記音符長毎に比較して、最大数でありかつ時間長が最も長い音符長を各パートの部分ビートに決定する第2の決定手段と、各パート毎に、前記全体ビート又は前記部分ビートのいずれかを基準ビートとして選択する選択手段と、前記選択された基準ビートに基づき、各パート毎の演奏データに対して音楽的な表情付けを行うように楽音特性を変更する楽音特性変更手段とを具える。   The performance data editing apparatus according to the present invention relates to a sound generation start timing of each note-on information in performance data composed of a plurality of parts, for each of a plurality of types of note lengths, a timing that is an integral multiple of the note length or within an allowable range thereof. Counting means for each part, and counting the number of notes counted for each part over all parts, comparing the total number of notes for each note length, the maximum number The first determination means for determining the note length having the longest time length as the entire beat, and comparing the number of notes counted for each part for each note length, is the maximum number and has the longest time length. A second deciding means for deciding a long note length as a partial beat of each part, and a selection for selecting either the whole beat or the partial beat as a reference beat for each part; And means, based on the selected reference beat comprises a tone characteristic changing means for changing the tone characteristic to perform musical expressive relative performance data for each part.

本発明の好ましい実施形態として、前記選択手段は、各パート毎に前記全体ビートに決定された音符長と前記部分ビートに決定された音符長とを比較して、前記全体ビート又は前記部分ビートのいずれかを基準ビートとして自動的に選択することを特徴とする。   As a preferred embodiment of the present invention, the selection means compares the note length determined for the whole beat for each part with the note length determined for the partial beat, and determines the total beat or the partial beat. Any one of them is automatically selected as a reference beat.

本発明によると、各パート毎の演奏データに対して音楽的な表情付けを行うように楽音特性を変更する際に用いる基準ビートを、全体ビート又は部分ビートのいずれかから選択する。全体ビートは、各パート毎にカウントしたノート数を全パートにわたって集計し、該集計したノート数を音符長毎に比較して、最大数でありかつ時間長が最も長い音符長に決定される。ここで、各パート毎にカウントしたノート数とは、複数パートからなる演奏データ中の各ノートオン情報の発音開始タイミングに関して、複数種の各音符長毎に、当該音符長の整数倍のタイミング又はその許容範囲内にあるノート数を各パート毎にそれぞれカウントしたものである。他方、部分ビートは、各パート毎にカウントしたノート数を音符長毎に比較して、最大数でありかつ時間長が最も長い音符長に決定される。そして、各パート毎に全体ビート又は部分ビートのいずれかが基準ビートとして選択される。この際に、全体ビートに決定された音符長と部分ビートに決定された音符長とを比較して、全体ビート又は部分ビートのいずれかを基準ビートとして自動的に選択する。このようにすると、複数パートへの一括的な全体ビートの適用というユーザ操作の簡易性を損なうことなしに、全体ビートの適用が難しい個々のパートに対しては部分ビートを適用することで、どのパートに対しても適切な表情付けを行うことができるようになる。   According to the present invention, the reference beat used when changing the musical sound characteristic so as to perform musical expression on the performance data for each part is selected from either the whole beat or the partial beat. The total beat counts the number of notes counted for each part over all the parts, and the total number of notes is compared for each note length to determine the maximum note length and the longest note length. Here, the number of notes counted for each part refers to a timing that is an integral multiple of the note length for each of a plurality of types of note lengths with respect to the sound generation start timing of each note-on information in performance data consisting of a plurality of parts. The number of notes within the allowable range is counted for each part. On the other hand, the partial beat is determined to be the maximum note length and the longest note length by comparing the number of notes counted for each part for each note length. Then, for each part, either the whole beat or the partial beat is selected as the reference beat. At this time, the note length determined for the whole beat is compared with the note length determined for the partial beat, and either the whole beat or the partial beat is automatically selected as the reference beat. In this way, by applying partial beats to individual parts where it is difficult to apply full beats without compromising the user-friendliness of applying full beats collectively to multiple parts, Appropriate expression can be applied to the part.

本発明は装置の発明として構成し実施することができるのみならず、方法の発明として構成し実施することができる。また、本発明は、コンピュータまたはDSP等のプロセッサのプログラムの形態で実施することができるし、そのようなプログラムを記憶した記憶媒体の形態で実施することもできる。   The present invention can be constructed and implemented not only as a device invention but also as a method invention. Further, the present invention can be implemented in the form of a program of a processor such as a computer or a DSP, or can be implemented in the form of a storage medium storing such a program.

本発明によれば、複数のパートからなる演奏データに対して表情付けを行う際に適用する基準ビートとして、複数パート全体の演奏データを分析して決定される全体ビートと、各パート単位の演奏データを分析して決定される個々の部分ビートとのいずれかで適宜に選択できることから、ユーザ操作の簡易性を損なうことなしに各パート毎に適切な表情付けを行うことができるようになる、という効果が得られる。   According to the present invention, as a reference beat to be applied when performing expression on performance data composed of a plurality of parts, the overall beat determined by analyzing the performance data of the entire parts, and the performance of each part unit Since it can be appropriately selected from any of the individual partial beats determined by analyzing the data, it becomes possible to perform appropriate facial expression for each part without impairing the ease of user operation. The effect is obtained.

以下、この発明の実施の形態を添付図面に従って詳細に説明する。   Embodiments of the present invention will be described below in detail with reference to the accompanying drawings.

図1は、この発明に係る演奏データ編集装置を適用した電子楽器の全体構成を示したハード構成ブロック図である。本実施例に示す電子楽器は、マイクロプロセッサユニット(CPU)1、リードオンリメモリ(ROM)2、ランダムアクセスメモリ(RAM)3からなるマイクロコンピュータによって制御される。CPU1は、この電子楽器全体の動作を制御するものである。このCPU1に対して、データ及びアドレスバス1Dを介してROM2、RAM3、検出回路4,5、表示回路6、音源回路7、効果回路8、外部記憶装置10、MIDIインタフェース(I/F)11および通信インタフェース(I/F)12がそれぞれ接続されている。更に、CPU1には、タイマ割込み処理(インタラプト処理)における割込み時間や各種時間を計時するタイマ1Aが接続されている。例えば、タイマ1Aはクロックパルスを発生し、発生したクロックパルスをCPU1に対して処理タイミング命令として与えたり、あるいはCPU1に対してインタラプト命令として与える。CPU1は、これらの命令に従って各種処理を実行する。   FIG. 1 is a hardware configuration block diagram showing the overall configuration of an electronic musical instrument to which a performance data editing apparatus according to the present invention is applied. The electronic musical instrument shown in this embodiment is controlled by a microcomputer including a microprocessor unit (CPU) 1, a read only memory (ROM) 2, and a random access memory (RAM) 3. The CPU 1 controls the operation of the entire electronic musical instrument. To this CPU 1, the ROM 2, RAM 3, detection circuits 4 and 5, display circuit 6, tone generator circuit 7, effect circuit 8, external storage device 10, MIDI interface (I / F) 11 and the like are connected to the CPU 1 via the data and address bus 1D. Communication interfaces (I / F) 12 are connected to each other. Further, the CPU 1 is connected to a timer 1A for measuring the interrupt time and various times in the timer interrupt process (interrupt process). For example, the timer 1A generates a clock pulse, and gives the generated clock pulse to the CPU 1 as a processing timing command or to the CPU 1 as an interrupt command. The CPU 1 executes various processes according to these instructions.

ROM2は、CPU1により実行される各種プログラムや各種データを格納するものである。RAM3は、CPU1が所定のプログラムを実行する際に発生する各種データを一時的に記憶するワーキングメモリとして、あるいは現在実行中のプログラムやそれに関連するデータを記憶するメモリ等として使用される。RAM3の所定のアドレス領域がそれぞれの機能に割り当てられ、レジスタやフラグ、テーブル、メモリなどとして利用される。演奏操作子4Aは楽音の音高を選択するための複数の鍵を備えた例えば鍵盤等のようなものであり、各鍵に対応してキースイッチを有しており、この演奏操作子4A(鍵盤等)はユーザ自身の手弾きによるマニュアル演奏のために使用できるのは勿論のこと、当該電子楽器において楽譜表示される対象となる自動演奏データを選択するための入力手段として使用することもできる。検出回路4は、演奏操作子4Aの各鍵の押圧及び離鍵を検出することによって検出出力を生じる。設定操作子(スイッチ等)5Aは、例えば表情付け対象の演奏データを選択するデータ選択スイッチ、自動表情付けの開始を指示する表情付け開始スイッチ、演奏データに基づく自動演奏の開始・停止を指示する自動演奏開始・停止スイッチなどがある。勿論、これら以外にも、音高、音色、効果等を選択・設定・制御するために用いる数値データ入力用のテンキーや文字データ入力用のキーボード、あるいはディスプレイ6Aに表示される所定のポインティングデバイスを操作するために用いるマウスなどの各種操作子を含んでいてよい。検出回路5は、上記各スイッチの操作状態を検出し、その操作状態に応じたスイッチ情報をデータ及びアドレスバス1Dを介してCPU1に出力する。   The ROM 2 stores various programs executed by the CPU 1 and various data. The RAM 3 is used as a working memory that temporarily stores various data generated when the CPU 1 executes a predetermined program, or as a memory that stores a currently executed program and related data. A predetermined address area of the RAM 3 is assigned to each function and used as a register, flag, table, memory, or the like. The performance operator 4A is, for example, a keyboard provided with a plurality of keys for selecting the pitch of a musical tone, and has a key switch corresponding to each key. A keyboard or the like) can be used for manual performance by the user's own playing, and can also be used as input means for selecting automatic performance data to be displayed on the electronic musical instrument. . The detection circuit 4 generates a detection output by detecting the pressing and release of each key of the performance operator 4A. The setting operator (switch, etc.) 5A, for example, a data selection switch for selecting performance data to be expressed, a facial expression start switch for instructing the start of automatic facial expression, and an instruction to start / stop automatic performance based on the performance data. There is an automatic performance start / stop switch. Of course, in addition to these, a numeric keypad for inputting numeric data, a keyboard for inputting character data, and a predetermined pointing device displayed on the display 6A, which are used for selecting, setting and controlling the pitch, tone color, effect, etc. Various operators such as a mouse used for operation may be included. The detection circuit 5 detects the operation state of each switch and outputs switch information corresponding to the operation state to the CPU 1 via the data and address bus 1D.

表示回路6は例えば液晶表示パネル(LCD)やCRT等から構成されるディスプレイ6Aに、表情付け対象として指定することが可能な演奏データの一覧やCPU1の制御状態などを表示する。ユーザは該ディスプレイ6Aに表示されるこれらの各種情報を参照することで、例えば表情付け対象としたい演奏データの選択などを容易に行うことができる。音源回路7は複数のチャンネルで楽音信号の同時発生が可能であり、データ及びアドレスバス1Dを経由して与えられた、ユーザによる演奏操作子4Aの操作に応じて発生される、あるいは演奏データに基づき発生される各種演奏情報を入力し、これらの演奏情報に基づいて楽音信号を発生する。音源回路7から発生された楽音信号は、効果回路8を介して効果付与されてアンプやスピーカなどを含むサウンドシステム9から発音される。この音源回路7と効果回路8とサウンドシステム9の構成には、従来のいかなる構成を用いてもよい。例えば、音源回路8はFM、PCM、物理モデル、フォルマント合成等の各種楽音合成方式のいずれを採用してもよく、また専用のハードウェアで構成してもよいし、CPU1によるソフトウェア処理で構成してもよい。   The display circuit 6 displays, for example, a list of performance data that can be designated as an expression object and the control state of the CPU 1 on a display 6A constituted by a liquid crystal display panel (LCD), a CRT, or the like. By referring to these various types of information displayed on the display 6A, the user can easily select, for example, performance data desired to be a facial expression. The tone generator circuit 7 can simultaneously generate musical tone signals on a plurality of channels, and is generated in response to the operation of the performance operator 4A by the user, which is given via the data and address bus 1D, or in performance data. Various performance information generated based on the performance information is input, and a musical sound signal is generated based on the performance information. The musical sound signal generated from the sound source circuit 7 is given an effect via the effect circuit 8 and is generated from the sound system 9 including an amplifier and a speaker. Any conventional configuration may be used for the sound source circuit 7, the effect circuit 8, and the sound system 9. For example, the tone generator circuit 8 may employ any of various tone synthesis methods such as FM, PCM, physical model, formant synthesis, etc., or may be constituted by dedicated hardware or by software processing by the CPU 1. May be.

外部記憶装置10は、演奏データなどの各種データ、CPU1が実行する各種制御プログラム等の制御に関するデータなどを記憶する。なお、上述したROM2に制御プログラムが記憶されていない場合、この外部記憶装置10(例えばハードディスク)に制御プログラムを記憶させておき、それをRAM3に読み込むことにより、ROM2に制御プログラムを記憶している場合と同様の動作をCPU1にさせることができる。このようにすると、制御プログラムの追加やバージョンアップ等が容易に行える。なお、外部記憶装置10はハードディスク(HD)に限られず、フレキシブルディスク(FD)、コンパクトディスク(CD‐ROM・CD‐RAM)、光磁気ディスク(MO)、あるいはDVD(Digital Versatile Disk)等の着脱自在な様々な形態の外部記憶媒体を利用する記憶装置であればどのようなものであってもよい。あるいは、フラッシュメモリなどの半導体メモリであってもよい。   The external storage device 10 stores various data such as performance data and data related to control such as various control programs executed by the CPU 1. When no control program is stored in the ROM 2, the control program is stored in the ROM 2 by storing the control program in the external storage device 10 (for example, a hard disk) and reading it into the RAM 3. The CPU 1 can be operated in the same manner as in the case. In this way, control programs can be easily added and upgraded. The external storage device 10 is not limited to a hard disk (HD), but a flexible disk (FD), a compact disk (CD-ROM / CD-RAM), a magneto-optical disk (MO), a DVD (Digital Versatile Disk), etc. Any storage device may be used as long as the storage device uses various external storage media. Alternatively, a semiconductor memory such as a flash memory may be used.

MIDIインタフェース(I/F)11は、外部接続された他のMIDI機器11A等からMIDI形式の演奏データ(MIDIデータ)を当該電子楽器へ入力したり、あるいは当該電子楽器からMIDI形式の演奏データ(MIDIデータ)を他のMIDI機器11A等へ出力するためのインタフェースである。他のMIDI機器11Aはユーザによる操作に応じてMIDIデータを発生する機器であればよく、鍵盤型、弦楽器型、管楽器型、打楽器型、身体装着型等どのようなタイプの操作子を具えた(若しくは、操作形態からなる)機器であってもよい。なお、MIDIインタフェース 11は専用のMIDIインタフェースを用いるものに限らず、RS-232C、USB(ユニバーサル・シリアル・バス)、IEEE1394(アイトリプルイー1394)等の汎用のインタフェースを用いてMIDIインタフェース11を構成するようにしてもよい。この場合、MIDIイベントデータ以外のデータをも同時に送受信するようにしてもよい。MIDIインタフェース11として上記したような汎用のインタフェースを用いる場合には、他のMIDI機器11AはMIDIイベントデータ以外のデータも送受信できるようにしてよい。勿論、演奏データのデータフォーマットはMIDI形式のデータに限らず他の形式であってもよく、その場合はMIDIインタフェース11と他のMIDI機器11Aはそれにあった構成とする。   The MIDI interface (I / F) 11 inputs performance data (MIDI data) in MIDI format from another externally connected MIDI device 11A or the like to the electronic musical instrument, or from the electronic musical instrument (MIDI performance data ( This is an interface for outputting (MIDI data) to another MIDI device 11A or the like. The other MIDI device 11A may be any device that generates MIDI data in response to a user's operation, and includes any type of operator such as a keyboard type, a stringed instrument type, a wind instrument type, a percussion instrument type, and a body-mounted type ( Alternatively, it may be a device). The MIDI interface 11 is not limited to the one using a dedicated MIDI interface, and the MIDI interface 11 is configured using a general-purpose interface such as RS-232C, USB (Universal Serial Bus), IEEE1394 (ITriple 1394). You may make it do. In this case, data other than MIDI event data may be transmitted and received simultaneously. When the general-purpose interface as described above is used as the MIDI interface 11, the other MIDI device 11A may be able to transmit and receive data other than the MIDI event data. Of course, the data format of the performance data is not limited to the data in the MIDI format, and may be in other formats. In this case, the MIDI interface 11 and the other MIDI device 11A are configured accordingly.

通信インタフェース(I/F)12は、例えばLANやインターネット、電話回線等の有線あるいは無線の通信ネットワークXに接続されており、該通信ネットワークXを介してサーバコンピュータ12Aと接続され、当該サーバコンピュータ12Aから制御プログラムあるいは各種データなどを電子楽器側に取り込むためのインタフェースである。すなわち、ROM2や外部記憶装置10(例えば、ハードディスク)等に制御プログラムや各種データが記憶されていない場合には、サーバコンピュータ12Aから制御プログラムや各種データをダウンロードするために用いられる。こうした通信インタフェース12は、有線あるいは無線のものいずれかでなく双方を具えていてよい。   The communication interface (I / F) 12 is connected to a wired or wireless communication network X such as a LAN, the Internet, or a telephone line, and is connected to the server computer 12A via the communication network X, and the server computer 12A. This is an interface for taking control programs or various data from the electronic musical instrument side. That is, when the control program and various data are not stored in the ROM 2 or the external storage device 10 (for example, hard disk), it is used to download the control program and various data from the server computer 12A. Such a communication interface 12 may include both of a wired interface and a wireless interface.

なお、上述した電子楽器において、演奏操作子4Aは鍵盤楽器の形態に限らず、弦楽器や管楽器、あるいは打楽器等どのようなタイプの形態でもよい。また、電子楽器は演奏操作子4Aやディスプレイ6Aあるいは音源回路7などを1つの装置本体に内蔵したものに限らず、それぞれが別々に構成され、MIDIインタフェースや各種ネットワーク等の通信手段を用いて各装置を接続するように構成されたものであってもよいことは言うまでもない。さらに、本発明に係る演奏データ編集装置は上記したような電子楽器の形態に限らず、パーソナルコンピュータやカラオケ装置やゲーム装置など、どのような形態の装置・機器に適用してもよい。   In the electronic musical instrument described above, the performance operator 4A is not limited to a keyboard instrument, and may be any type of instrument such as a stringed instrument, a wind instrument, or a percussion instrument. Further, the electronic musical instrument is not limited to one in which the performance operator 4A, the display 6A, the sound source circuit 7 and the like are built in one apparatus body, but each is configured separately, and each of the electronic musical instruments is configured using communication means such as a MIDI interface or various networks. Needless to say, the apparatus may be configured to be connected. Furthermore, the performance data editing apparatus according to the present invention is not limited to the form of the electronic musical instrument as described above, and may be applied to any form of apparatus / equipment such as a personal computer, a karaoke apparatus, or a game apparatus.

次に、演奏データに対して新たな音楽的表情を自動的に付加する「表情付け処理」について説明する。図2は、「表情付け処理」の一実施例を示すフローチャートである。当該処理は図1に示したCPU1において実行される処理であり、ユーザによる表情付けしたい複数パートからなる演奏データの選択後に(この選択操作に応じて、ROM2や外部記憶装置10から該当する演奏データが読み出しされて、RAM3に書き込まれる)、表情付け開始スイッチが操作されることに応じてその処理が開始される。以下、図2に示したフローチャートに従って、表情付け処理の動作について説明する。   Next, a “facial expression process” for automatically adding a new musical expression to performance data will be described. FIG. 2 is a flowchart showing an example of the “expression adding process”. This process is a process executed by the CPU 1 shown in FIG. 1, and after the performance data composed of a plurality of parts to be expressed by the user is selected (in accordance with this selection operation, the corresponding performance data is read from the ROM 2 or the external storage device 10). Is read out and written into the RAM 3), the processing is started in response to the operation of the expression start switch. Hereinafter, the facial expression processing operation will be described with reference to the flowchart shown in FIG.

まず、表情付け対象に選択されRAM3に記憶された演奏データを分析し、複数用意された仮ビートとのそれぞれのビート合致度合い(変数)を各パート毎に集計する「ビート集計処理」を実行する(ステップS1)。この「ビート集計処理」の詳細については後述する(後述の図3参照)。そして、前記「ビート集計処理」において集計した各パート毎における仮ビートとのビート合致度合いに基づき、全パートにわたってビート合致度合いが最も高く、かつ時間長さが最大である仮ビートを「全体ビート」に決定する(ステップS2)。   First, performance data selected as a facial expression object and stored in the RAM 3 is analyzed, and a “beat totaling process” is performed for totaling each beat matching degree (variable) with a plurality of provisional beats for each part. (Step S1). Details of the “beat counting process” will be described later (see FIG. 3 described later). Based on the beat matching degree with the temporary beat for each part counted in the “beat counting process”, the temporary beat having the highest beat matching degree and the longest time length is set to “all beats”. (Step S2).

ここで、公知の「ビート集計処理」について、図3を用いて簡単に説明する。図3は、従来知られた「ビート集計処理」の一実施例を示すフローチャートである。   Here, the known “beat counting process” will be briefly described with reference to FIG. FIG. 3 is a flowchart showing an example of a conventionally known “beat counting process”.

ステップS11は、RAM3において後述するような仮ビート毎に予め用意されている集計用のビート合致度合い(変数)を全て初期化する。ステップS12は、ビート合致度合いを集計するのに用いる仮ビートとして、予め決められた複数の仮ビートの候補の中から未だ集計が行われていない仮ビートを1つ特定する。仮ビートの候補としては、例えば、三連十六分音符(80Ticks)、十六分音符(120Ticks)、付点十六分音符(180Ticks)、三連八分音符(160Ticks)、八分音符(240Ticks)、付点八分音符(360Ticks)、三連四分音符(320Ticks)、四分音符(480Ticks)、付点四分音符(720Ticks)、三連二分音符(640Ticks)、二分音符(960Ticks)、付点二分音符(1440Ticks)、三連全音符(1280Ticks)、全音符(1920Ticks)、付点全音符(2880Ticks)等がある。これらの仮ビートは全体ビートや部分ビートなどを定めるために評価すべき所定の音符長であり、この実施例では四分音符=480Ticksを基準とするゲート・タイムを用いている。ステップS13は、ビート合致度合いを集計する処理対象パートとして、複数パートの中から未だ集計が行われていないパートを1つ特定する。ステップS14は、前記特定した処理対象パートの演奏データに基づきノートイベントデータを順に1つずつ読み出す。ステップS15は、該読み出したノートイベントデータが仮ビートのグリッドに合致しているか否かを判定する。具体的には、読み出したノートイベントデータのオンタイム(つまりノートオンイベントのタイミング)が、仮ビートのグリッドの±猶予時間以内(つまり許容範囲内)である場合には、該読み出したノートイベントデータが仮ビートのグリッドに合致していると判定する。ここで、仮ビートのグリッドとは、例えば小節線を基準としたノートイベントデータのオンタイムを、仮ビートで割った場合に余りが「0」となる時刻、つまりは仮ビートの整数倍の時刻である。また、猶予時間とは、例えば仮ビートに「0.21」を掛けたものである。この0.21という値は発明者の経験上求められた数値であるが、これに限らない。   Step S11 initializes all the beat matching degrees (variables) for tabulation prepared in advance for each temporary beat as will be described later in the RAM 3. In step S12, one temporary beat that has not yet been counted is specified from a plurality of predetermined temporary beat candidates as a temporary beat used to count the beat matching degree. Temporary beat candidates include, for example, triple sixteenth notes (80Ticks), sixteenth notes (120Ticks), dotted sixteenth notes (180Ticks), triple eighth notes (160Ticks), eighth notes ( 240Ticks), dotted eighth note (360Ticks), triple quarter note (320Ticks), quarter note (480Ticks), dotted quarter note (720Ticks), triple half note (640Ticks), half note (960Ticks) , Dotted half note (1440Ticks), triple full note (1280Ticks), full note (1920Ticks), dotted full note (2880Ticks), etc. These temporary beats are predetermined note lengths to be evaluated in order to determine an overall beat, a partial beat, and the like. In this embodiment, a gate time based on a quarter note = 480 Ticks is used. In step S13, one part that has not yet been counted is identified from among a plurality of parts as a processing target part that counts the degree of beat match. In step S14, note event data are sequentially read one by one based on the performance data of the specified processing target part. In step S15, it is determined whether or not the read note event data matches the temporary beat grid. Specifically, when the on-time of the read note event data (that is, the timing of the note-on event) is within ± the grace time of the temporary beat grid (that is, within the allowable range), the read note event data is Is matched with the temporary beat grid. Here, the temporary beat grid is, for example, the time when the on-time of the note event data based on the bar line is divided by the temporary beat and the remainder becomes “0”, that is, the time that is an integral multiple of the temporary beat. It is. The grace time is, for example, a temporary beat multiplied by “0.21”. The value of 0.21 is a numerical value obtained from the inventor's experience, but is not limited thereto.

前記ステップS15において、読み出したノートイベントデータが仮ビートのグリッドに合致していると判定した場合には(ステップS15のYES)、該仮ビートに対応する前記集計用のビート合致度合い(変数)をカウントアップする(ステップS16)。ステップS17は、ビート合致度合いを集計する処理対象パートの演奏データ内に含まれるノートイベントデータを全て処理したか否かを判定する。処理対象パートの演奏データ内に含まれるノートイベントデータを全て処理していないと判定した場合には(ステップS17のNO)、上記ステップS14の処理に戻り上記ステップS14〜ステップS16までの処理を繰り返し実行する。一方、処理対象パートの演奏データ内に含まれるノートイベントデータを全て処理したと判定した場合には(ステップS17のYES)、選択された演奏データの全パートについて上記処理を実行したか否かを判定する(ステップS18)。全パートについて上記処理を行っていないと判定した場合には(ステップS18のNO)、ステップS13の処理に戻って上記ステップS13〜ステップS17までの処理を繰り返し実行する。全パートについて上記処理を行ったと判定した場合には(ステップS18のYES)、全ての仮ビート(例えば三連十六分音符、十六分音符、付点十六分音符、三連八分音符、八分音符、付点八分音符、三連四分音符、四分音符、付点四分音符、三連二分音符、二分音符、付点二分音符、三連全音符、全音符、付点全音符等)で処理済みであるか否かを判定する(ステップS19)。全ての仮ビートで処理済みでないと判定した場合には(ステップS19のNO)、上記ステップS12の処理に戻り上記ステップS12〜ステップS18までの処理を繰り返し実行する。全ての仮ビートで処理済みであると判定した場合には(ステップS19のYES)、当該処理を終了する。以上のようにして、ユーザ操作の簡易性の観点から全てのパートの演奏データに対して表情付けを行う際に用いられる共通の基準ビートである「全体ビート」を求めるためのベースとなる、各パートにおける各仮ビートとのビート合致度合いの集計が行われる。また、詳しくは後述するが、当該処理で集計されたパート毎における各仮ビートとのビート合致度合いは、各パート毎の演奏データに対して最も適切な表情付けを行うことが可能であるパート単位の基準ビートである「部分ビート」を求めるためのベースにもなる。   If it is determined in step S15 that the read note event data matches the temporary beat grid (YES in step S15), the total beat matching degree (variable) corresponding to the temporary beat is set. Count up (step S16). In step S17, it is determined whether or not all the note event data included in the performance data of the processing target part for which the beat matching degree is totaled has been processed. If it is determined that not all the note event data included in the performance data of the part to be processed is processed (NO in step S17), the process returns to step S14 and the processes from step S14 to step S16 are repeated. Execute. On the other hand, if it is determined that all the note event data included in the performance data of the processing target part has been processed (YES in step S17), it is determined whether or not the above processing has been executed for all the parts of the selected performance data. Determination is made (step S18). If it is determined that the above process has not been performed for all parts (NO in step S18), the process returns to step S13 and the processes from step S13 to step S17 are repeated. If it is determined that the above processing has been performed for all parts (YES in step S18), all temporary beats (eg, triple hex notes, sixteenth notes, dotted sixteenth notes, triple eighth notes) , Eighth note, dotted eighth note, triple quarter note, quarter note, dotted quarter note, triple half note, half note, dotted half note, triple full note, full note, dotted It is determined whether or not all the notes have been processed (step S19). If it is determined that all the temporary beats have not been processed (NO in step S19), the process returns to step S12 and the processes from step S12 to step S18 are repeated. If it is determined that all the temporary beats have been processed (YES in step S19), the process ends. As described above, from the viewpoint of simplicity of user operation, each of the performance data of all the parts is a base for obtaining the “whole beat” that is a common reference beat used when performing expression. Aggregation of the degree of beat matching with each temporary beat in the part is performed. In addition, as will be described in detail later, the degree of beat matching with each temporary beat for each part aggregated in the processing can be performed with the most suitable expression for the performance data for each part. It is also the base for finding the “partial beat” that is the reference beat.

図2のフローチャートの説明に戻って、ステップS3は、表情付けを行う対象とする処理対象パートとして、複数パートの中から未だ表情付けが行われていないパートを1つ特定する。ステップS4は、処理対象パートにおいて最もビート合致度合いが高く、かつ時間長さが最大の仮ビートを「部分ビート」に決定する。ステップS5は、処理対象パートにおいて、前記「ビート集計処理」(ステップS1及び図3参照)で集計した全体ビートの時間長さと、前記決定した部分ビートの時間長さとの比が所定値よりもかけ離れているか否かを判定する。全体ビートの時間長さと部分ビートの時間長さとの比が所定値よりもかけ離れている(例えば、1/2倍よりも短い場合や2倍よりも長い場合など)と判定した場合には(ステップS5のYES)、部分ビートを処理対象パートに適用する基準ビートとして選択する(ステップS6)。一方、全体ビートの時間長さと部分ビートの時間長さとの比が所定値よりもかけ離れていないと判定した場合には(ステップS5のNO)、全体ビートを処理対象パートに適用する基準ビートとして選択する(ステップS7)。例えば、全体ビートが四分音符に決定された場合であって、あるパートの部分ビートが全音符であったならば、部分ビートの全音符の時間長さは全体ビートの四分音符の4倍の時間長さであり時間長さの比が所定値(例えば2倍)よりもかけ離れていることから、当該パートに適用する基準ビートには部分ビートである全音符が採用される。別のパートの部分ビートが二分音符であったならば、部分ビートの二分音符の時間長さは全体ビートの四分音符の2倍の時間長さであり時間長さの比が所定値よりもかけ離れていないことから、当該パートに適用する基準ビートには全体ビートである四分音符が採用される。さらに別のパートの部分ビートが八分音符であったならば、部分ビートである八分音符の時間長さは全体ビートの四分音符の1/2倍の時間長さであり時間長さの比が所定値(例えば1/2倍)よりもかけ離れていないことから、当該パートに適用する基準ビートには全体ビートである四分音符が採用される。このようにして基準ビートとして選択された全体ビート又は部分ビートは、後述するように周知の演奏データに対する表情付け処理において適用することができる。   Returning to the description of the flowchart of FIG. 2, in step S <b> 3, one part to which facial expression is not yet applied is specified from among a plurality of parts as a processing target part to be subjected to facial expression. In step S4, the temporary beat having the highest beat matching degree and the longest time length in the processing target part is determined as the “partial beat”. In step S5, in the processing target part, the ratio between the total beat time length calculated in the “beat counting process” (see step S1 and FIG. 3) and the determined partial beat time length is far from a predetermined value. It is determined whether or not. When it is determined that the ratio of the time length of the whole beat and the time length of the partial beat is far from a predetermined value (for example, shorter than 1/2 times or longer than 2 times) (step) (YES in S5), the partial beat is selected as a reference beat to be applied to the part to be processed (step S6). On the other hand, if it is determined that the ratio between the time length of the whole beat and the time length of the partial beat is not far from the predetermined value (NO in step S5), the whole beat is selected as the reference beat to be applied to the processing target part. (Step S7). For example, if the whole beat is determined to be a quarter note, and the partial beat of a part is a full note, the time length of the full note of the partial beat is four times the quarter note of the whole beat. Since the time length ratio is far from a predetermined value (for example, twice), the whole beat as a partial beat is adopted as the reference beat applied to the part. If the partial beat of another part was a half note, the time length of the half note of the partial beat is twice the time length of the quarter note of the whole beat, and the ratio of the time lengths is less than the predetermined value. Since they are not far apart, a quarter note that is the whole beat is adopted as the reference beat applied to the part. If the partial beat of another part is an eighth note, the time length of the eighth note, which is a partial beat, is half the time length of the quarter note of the whole beat, Since the ratio is not far from a predetermined value (for example, 1/2 times), a quarter note, which is the entire beat, is adopted as the reference beat applied to the part. The whole beat or the partial beat selected as the reference beat in this way can be applied in the expression processing for well-known performance data as will be described later.

ステップS8は、前記選択した基準ビートを適用して、処理対象パートの演奏データに対する表情付け処理を実行する。前記選択された基準ビートを適用して行われる表情付け処理の一例としては、例えば特開2002−311952号公報に記載されているギターのコードストロークのダウンピッキングとアップピッキングを求める処理がある。ただし、この場合には、求めた基準ビートと実際に表情付けの下になる基準ビートには適当な倍率を適用することが好ましい。例えば、コードストロークのダウンピッキングとアップピッキングの付加の場合には、求めた基準ビートを2倍の値にしたものを実際に表情付けの下になる基準ビートとして適用するのが好ましい。また、特開2002−333883号公報に記載されているノートイベントの間引き処理がある。ステップS9は、全パートについて上記処理を実行したか否かを判定する。全パートについて上記処理を行っていないと判定した場合には(ステップS9のNO)、ステップS3の処理に戻って上記ステップS3〜ステップS9までの処理を繰り返し実行する。全パートについて上記処理を行ったと判定した場合には(ステップS9のYES)、当該処理を終了する。   In step S8, the selected reference beat is applied to execute expression processing for the performance data of the part to be processed. As an example of a facial expression process performed by applying the selected reference beat, there is a process for obtaining down-picking and up-picking of a chord stroke of a guitar described in JP-A-2002-319552, for example. However, in this case, it is preferable to apply an appropriate magnification to the obtained reference beat and the reference beat that is actually under the expression. For example, in the case of adding chord stroke down picking and up picking, it is preferable to apply a value obtained by doubling the obtained reference beat as a reference beat that is actually under the expression. In addition, there is a note event thinning process described in JP-A-2002-333883. In step S9, it is determined whether or not the above processing has been executed for all parts. If it is determined that the above process has not been performed for all parts (NO in step S9), the process returns to step S3 and the processes from step S3 to step S9 are repeated. If it is determined that the above process has been performed for all parts (YES in step S9), the process ends.

上記「表情付け処理」(図2参照)において、ユーザが各パートに適用する基準ビートに部分ビートか全体ビートのいずれかを適宜に選択することのできるようにしてもよい。具体的には、全体ビートの時間長さと部分ビートの時間長さとの比がかけ離れていると判定した場合に(図2のステップS5のYES)、例えば「ダイアログ」を表示して、ユーザに対して部分ビート又は全体ビートのどちらを適用するかを促すなどのユーザ選択処理を、ステップS5とステップS6の間に追加するとよい。そして、このユーザ選択処理において部分ビートが選択された場合には部分ビートを基準ビートに決定し(図2のステップS6参照)、全体ビートが選択された場合には全体ビートを基準ビートに決定する(図2のステップS7参照)。   In the “expression processing” (see FIG. 2), the user may be able to appropriately select either a partial beat or an overall beat as a reference beat to be applied to each part. Specifically, when it is determined that the ratio between the time length of the whole beat and the time length of the partial beat is far away (YES in step S5 in FIG. 2), for example, a “dialog” is displayed to the user. User selection processing such as prompting whether to apply a partial beat or a whole beat may be added between step S5 and step S6. When a partial beat is selected in this user selection process, the partial beat is determined as a reference beat (see step S6 in FIG. 2), and when the entire beat is selected, the entire beat is determined as a reference beat. (See step S7 in FIG. 2).

次に、複数パートからなる演奏データに対する表情付けの際に適用する基準ビートの決定について、図4を用いて説明する。図4は、基準ビートの決定についての詳細を説明するための概念図である。図4(a)は、演奏データを便宜的に楽譜として表したものである。図4(b)は、各パートにおける仮ビートとのビート合致度合いを表記したものである。この実施例では、図示の第1パート〜第3パートに対して同時に表情付けを行う場合を例に説明する。図4(a)において各音符下に付された数字は、各音符のオンタイム(発音開始時刻)を便宜的に示したものである。なお、ここでは説明を理解し易くするために、上述したような仮ビートの候補から付点音符及び3連符の候補を外して各仮ビートにおけるビート合致度合いを求める場合、つまり十六分音符、八分音符、四分音符、二分音符、全音符のみを仮ビートの候補とした場合を例に説明する。   Next, determination of a reference beat to be applied when applying facial expressions to performance data composed of a plurality of parts will be described with reference to FIG. FIG. 4 is a conceptual diagram for explaining details of determination of the reference beat. FIG. 4A shows performance data as a score for convenience. FIG. 4B shows the degree of beat matching with the temporary beat in each part. In this embodiment, a case where facial expressions are applied simultaneously to the first to third parts shown in the drawing will be described as an example. In FIG. 4 (a), the numbers given under each note indicate the on-time (sounding start time) of each note for convenience. In order to facilitate the understanding of the explanation, when the dotted note and triplet candidates are removed from the provisional beat candidates as described above to obtain the beat matching degree in each provisional beat, that is, sixteenth notes. A case where only the eighth note, the quarter note, the half note, and the whole note are candidates for the temporary beat will be described.

まず、上記「ビート集計処理」(図2のステップS1及び図3参照)に従って、第1パート〜第3パートの演奏データを基に全体ビートを求める。図4(b)から理解できるように、第1パートにおいては、全音符〜十六分音符までの各仮ビートとのビート合致度合いは全て「2」とカウントされる。第2パートにおいては、全音符以外の二分音符〜十六分音符までの各仮ビートとのビート合致度合いは「4」、全音符の仮ビートとのビート合致度合いは「2」とカウントされる。第3パートにおいては、全音符の仮ビートとのビート合致度合いは「2」、二分音符の仮ビートとのビート合致度合いは「4」、四分音符〜十六分音符までの各仮ビートとのビート合致度合いは全て「7」とカウントされる。こうした第1パート〜第3パートの全パートにおいて仮ビート毎に集計を行うと、最もビート合致度合いが高い仮ビートは四分音符、八分音符、十六分音符であり(2+4+7=13)、このうち最も時間長さの長い仮ビートは四分音符であることから、全体ビートとしては四分音符が決定される(図示における全パート計の斜線部参照)。   First, in accordance with the “beat counting process” (see step S1 in FIG. 2 and FIG. 3), the total beat is obtained based on the performance data of the first to third parts. As can be understood from FIG. 4B, in the first part, the degree of beat matching with each provisional beat from the whole note to the sixteenth note is counted as “2”. In the second part, the degree of beat match with each temporary beat from half notes to sixteenth notes other than full notes is counted as “4”, and the degree of beat coincidence with temporary beats of all notes is counted as “2”. . In the third part, the degree of coincidence with the tentative beat of all notes is “2”, the degree of coincidence with the tentative beat of half notes is “4”, and each provisional beat from the quarter note to the sixteenth note The beat match degrees of all are counted as “7”. When totaling for each temporary beat in all of the first to third parts, the temporary beats with the highest degree of beat match are quarter notes, eighth notes, and sixteenth notes (2 + 4 + 7 = 13). Since the temporary beat with the longest time is a quarter note among these, a quarter note is determined as the whole beat (see the hatched portion of the total of all parts in the figure).

次に、第1パートを表情付けを行う対象の処理対象パートとした場合、部分ビートは当該パートにおいて最もビート合致度合いが高く(2)、かつ最も時間長さの長い仮ビートである全音符に決定される(図示における第1パートの斜線部参照)。この第1パートにおいて、全体ビートとされた四分音符の時間長さ(480)と部分ビートとされた全音符の時間長さ(1920)とを比較すると、部分ビートの全音符の時間長さは全体ビートの四分音符の4倍の時間長さであり時間長さの比が所定値(例えば2倍)よりもかけ離れていることから、当該パートに適用する基準ビートには部分ビートである全音符が採用される。このように、従来においては無条件に全体ビートである四分音符が基準ビートとして決定されていた第1パートに対しては、全体ビートである四分音符を基準ビートに決定することなく、部分ビートである全音符を基準ビートとして決定する。   Next, when the first part is the processing target part to be expressed, the partial beat has the highest degree of beat matching in the part (2), and the whole beat is a temporary beat having the longest time length. It is determined (refer to the shaded portion of the first part in the figure). In this first part, comparing the time length of the quarter note (480) as the whole beat and the time length of the whole note (1920) as the partial beat, the time length of the full note of the partial beat Is 4 times as long as the quarter note of the whole beat, and the ratio of time lengths is far from a predetermined value (for example, 2 times), so that the reference beat applied to the part is a partial beat All notes are adopted. In this way, for the first part in which the quarter note that is the whole beat is unconditionally determined as the reference beat in the prior art, the quarter note that is the whole beat is determined as the reference beat without determining the reference beat. All notes that are beats are determined as reference beats.

第2パートを表情付けを行う対象の処理対象パートとした場合、部分ビートは当該パートにおいて最もビート合致度合いが高く(4)、かつ最も時間長さの長い仮ビートである二分音符に決定される(図示における第2パートの斜線部参照)。この第2パートにおいて、全体ビートとされた四分音符の時間長さ(480)と部分ビートとされた二分音符の時間長さ(960)とを比較すると、部分ビートの全音符の時間長さは全体ビートの四分音符の2倍の時間長さであり時間長さの比が所定値よりもかけ離れていないことから、当該パートに適用する基準ビートには全体ビートである四分音符が採用される。この場合には、従来と同様に全体ビートである四分音符を基準ビートとして決定する。   When the second part is a processing target part to be expressed, the partial beat is determined to be a half note having the highest beat matching degree in the part (4) and the temporary beat having the longest time length. (Refer to the shaded portion in the second part in the figure). In this second part, if you compare the time length of a quarter note (480) as a whole beat and the time length of a half note (960) as a partial beat, the time length of all notes of a partial beat Is twice as long as the quarter note of the entire beat, and the ratio of time lengths is not far from the predetermined value, so the quarter note that is the whole beat is adopted as the reference beat applied to the part. Is done. In this case, the quarter note which is the whole beat is determined as the reference beat as in the conventional case.

第3パートを表情付けを行う対象の処理対象パートとした場合、部分ビートは当該パートにおいて最もビート合致度合いが高く(7)、かつ最も時間長さの長い仮ビートである四分音符に決定される(図示における第3パートの斜線部参照)。この第3パートにおいて、全体ビートとされた四分音符の時間長さ(480)と部分ビートとされた四分音符の時間長さ(480)は同じであり、時間長さの比が所定値よりもかけ離れていないことから、当該パートに適用する基準ビートには全体ビートである四分音符が採用される。この場合にも、従来と同様に全体ビートである四分音符を基準ビートとして決定する。   If the third part is the processing target part to be expressed, the partial beat is determined to be a quarter note that is the highest beat matching degree in the part (7) and the longest temporary beat. (Refer to the shaded portion in the third part in the figure). In this third part, the time length (480) of the quarter note made the whole beat and the time length (480) of the quarter note made the partial beat are the same, and the time length ratio is a predetermined value. Since it is not far apart, a quarter note which is the whole beat is adopted as the reference beat applied to the part. Also in this case, the quarter note which is the whole beat is determined as the reference beat as in the conventional case.

以上のようにして、全体ビートの時間長さと部分ビートの時間長さとが大きくかけ離れているパートである場合には、そのパートの演奏データの分析のみに基づいて決定される部分ビートを、当該パートの表情付けに適用する基準ビートに採用する。具体的には、上述したように、各パート毎に、全体ビートの時間長さと部分ビートの時間長さとを比較し、時間長さの比が所定値よりもかけ離れていない場合には全体ビートを適用し、時間長さの比が所定値よりもかけ離れている場合には部分ビートを適用する。特に、上述した図4に示すように、第1パートに対して全体ビートである四分音符を基準ビートに適用して表情付けを行うと、せわしない表情が付加されてしまうような場合に、該第1パートに対して全体ビートである四分音符ではなく部分ビートである全音符を適用すると、適切な表情が付加されることになり有効である。   As described above, when the time length of the whole beat and the time length of the partial beat are largely different from each other, the partial beat determined based only on the analysis of the performance data of the part is used as the part beat. Adopted as a standard beat to be applied to facial expression. Specifically, as described above, for each part, the time length of the whole beat is compared with the time length of the partial beat, and if the time length ratio is not far from a predetermined value, the whole beat is calculated. Apply a partial beat if the time length ratio is far from a predetermined value. In particular, as shown in FIG. 4 described above, when expression is applied to the first part by applying a quarter note, which is the entire beat, to the reference beat, Applying full notes as partial beats instead of quarter notes as full beats to the first part is effective because an appropriate expression is added.

なお、演奏データが3パート以上からなり、この3パート以上のうち1パートだけが他のパートと比べて全体ビートの時間長さと部分ビートの時間長さとがかけ離れているような場合、そのかけ離れた1パートについては部分ビートを、その他のパートについては全体パートを適用するようにするとよい。例えば、図4に示した具体例において、第1パートだけが第2パート及び第3パートとかけ離れていると考え、第1パートには部分ビートである全音符を、第2パート及び第3パートには全体ビートである四分音符を、それぞれ基準ビートとして任意に決定することのできるようにしてよい。また、複数のパートを2組以上のグループにグループ分けし、各グループ内においては該グループに含まれるパートの演奏データを基に求めた全体ビートを基準ビートに決定するようにしてもよい。
なお、全体ビート又は部分ビートを求める際に、1小節内に丁度収まるグリッドでしかビート合致度合いをカウントしないことは言うまでもない。また、小節線を基準として仮ビートのグリッドを決めることに限らず、曲の先頭あるいは拍子の指定がある位置を基準として、小節線とは関係なしに仮ビートのグリッドを決めるようにしてよい。
If the performance data consists of 3 parts or more and only one part of these 3 or more parts is far from the time length of the overall beat and the time length of the partial beat compared to the other parts, it is far away. It is preferable to apply a partial beat for one part and the whole part for the other parts. For example, in the specific example shown in FIG. 4, it is considered that only the first part is far from the second part and the third part, and the first part contains all the notes that are partial beats, and the second part and the third part. For example, a quarter note as a whole beat may be arbitrarily determined as a reference beat. Further, a plurality of parts may be grouped into two or more groups, and in each group, the whole beat obtained based on the performance data of the parts included in the group may be determined as the reference beat.
Needless to say, when determining the total beat or the partial beat, the beat matching degree is counted only in a grid that fits within one measure. Further, the provisional beat grid may be determined irrespective of the measure line, not limited to determining the provisional beat grid based on the bar line, but based on the position where the beginning of the song or the time signature is specified.

この発明に係る演奏データ編集装置を適用した電子楽器の全体構成を示したハード構成ブロック図である。1 is a hardware configuration block diagram showing an overall configuration of an electronic musical instrument to which a performance data editing apparatus according to the present invention is applied. 表情付け処理の一実施例を示すフローチャートである。It is a flowchart which shows one Example of a facial expression process. ビート集計処理の一実施例を示すフローチャートである。It is a flowchart which shows one Example of a beat total process. 基準ビートの決定についての詳細を説明するための概念図であり、図4(a)は演奏データを便宜的に楽譜として表したもの、図4(b)は仮ビートとのビート合致度合いを表記したものである。FIG. 4A is a conceptual diagram for explaining details of determination of a reference beat, FIG. 4A shows performance data as a score for convenience, and FIG. 4B shows a beat matching degree with a temporary beat. It is a thing.

符号の説明Explanation of symbols

1…CPU、2…ROM、3…RAM、4,5…検出回路、4A…演奏操作子、5A…設定操作子、6…表示回路、6A…ディスプレイ、7…音源回路、8…効果回路、9…サウンドシステム、10…外部記憶装置、11…MIDIインタフェース、11A…MIDI機器、12…通信インタフェース、12A…サーバコンピュータ、1D…通信バス、X…通信ネットワーク DESCRIPTION OF SYMBOLS 1 ... CPU, 2 ... ROM, 3 ... RAM, 4,5 ... Detection circuit, 4A ... Performance operator, 5A ... Setting operator, 6 ... Display circuit, 6A ... Display, 7 ... Sound source circuit, 8 ... Effect circuit, DESCRIPTION OF SYMBOLS 9 ... Sound system, 10 ... External storage device, 11 ... MIDI interface, 11A ... MIDI apparatus, 12 ... Communication interface, 12A ... Server computer, 1D ... Communication bus, X ... Communication network

Claims (3)

複数パートからなる演奏データ中の各ノートオン情報の発音開始タイミングに関して、複数種の各音符長毎に、当該音符長の整数倍のタイミング又はその許容範囲内にあるノート数を各パート毎にそれぞれカウントするカウント手段と、
前記各パート毎にカウントしたノート数を全パートにわたって集計し、該集計したノート数を前記音符長毎に比較して、最大数でありかつ時間長が最も長い音符長を全体ビートに決定する第1の決定手段と、
前記各パート毎にカウントしたノート数を前記音符長毎に比較して、最大数でありかつ時間長が最も長い音符長を各パートの部分ビートに決定する第2の決定手段と、
各パート毎に、前記全体ビート又は前記部分ビートのいずれかを基準ビートとして選択する選択手段と、
前記選択された基準ビートに基づき、各パート毎の演奏データに対して音楽的な表情付けを行うように楽音特性を変更する楽音特性変更手段と
を具える演奏データ編集装置。
Regarding the sounding start timing of each note-on information in performance data consisting of a plurality of parts, for each of a plurality of types of note lengths, a timing that is an integral multiple of the note length or the number of notes within the permissible range is assigned to each part. Counting means for counting;
The number of notes counted for each part is totaled over all parts, and the total number of notes is compared for each note length to determine the maximum number of notes with the longest time length as the overall beat. 1 determination means;
A second determining means for comparing the number of notes counted for each part for each note length, and determining a note length that is the maximum number and the longest time length as a partial beat of each part;
For each part, selection means for selecting either the whole beat or the partial beat as a reference beat;
A performance data editing apparatus comprising a musical sound characteristic changing means for changing a musical sound characteristic so as to perform musical expression on the performance data for each part based on the selected reference beat.
前記選択手段は、各パート毎に前記全体ビートに決定された音符長と前記部分ビートに決定された音符長とを比較して、前記全体ビート又は前記部分ビートのいずれかを基準ビートとして自動的に選択することを特徴とする請求項1に記載の演奏データ編集装置。   The selection means compares the note length determined for the whole beat for each part with the note length determined for the partial beat, and automatically uses either the whole beat or the partial beat as a reference beat. The performance data editing apparatus according to claim 1, wherein the performance data editing apparatus is selected. コンピュータに、
複数パートからなる演奏データ中の各ノートオン情報の発音開始タイミングに関して、複数種の各音符長毎に、当該音符長の整数倍のタイミング又はその許容範囲内にあるノート数を各パート毎にそれぞれカウントする手順と、
前記各パート毎にカウントしたノート数を全パートにわたって集計し、該集計したノート数を前記音符長毎に比較して、最大数でありかつ時間長が最も長い音符長を全体ビートに決定する手順と、
前記各パート毎にカウントしたノート数を前記音符長毎に比較して、最大数でありかつ時間長が最も長い音符長を各パートの部分ビートに決定する手順と、
各パート毎に、前記全体ビート又は前記部分ビートのいずれかを基準ビートとして選択する手順と、
前記選択された基準ビートに基づき、各パート毎の演奏データに対して音楽的な表情付けを行うように楽音特性を変更する手順と
を実行させるためのプログラム。
On the computer,
Regarding the sounding start timing of each note-on information in performance data consisting of a plurality of parts, for each of a plurality of types of note lengths, a timing that is an integral multiple of the note length or the number of notes within the permissible range is assigned to each part. The steps to count,
Procedure for totalizing the number of notes counted for each part over all parts, comparing the total number of notes for each note length, and determining the maximum number of note lengths with the longest time length as the overall beat When,
The number of notes counted for each part is compared for each note length, and the maximum note length and the longest note length are determined as partial beats for each part;
For each part, a procedure for selecting either the whole beat or the partial beat as a reference beat;
A program for executing a procedure for changing a tone characteristic so as to perform musical expression on performance data for each part based on the selected reference beat.
JP2006077426A 2006-03-20 2006-03-20 Performance data editing apparatus and program Expired - Fee Related JP4595851B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006077426A JP4595851B2 (en) 2006-03-20 2006-03-20 Performance data editing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006077426A JP4595851B2 (en) 2006-03-20 2006-03-20 Performance data editing apparatus and program

Publications (2)

Publication Number Publication Date
JP2007256364A true JP2007256364A (en) 2007-10-04
JP4595851B2 JP4595851B2 (en) 2010-12-08

Family

ID=38630700

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006077426A Expired - Fee Related JP4595851B2 (en) 2006-03-20 2006-03-20 Performance data editing apparatus and program

Country Status (1)

Country Link
JP (1) JP4595851B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001075566A (en) * 1999-09-01 2001-03-23 Casio Comput Co Ltd Tone control device and recording medium storing tone control program
JP2001350474A (en) * 2000-06-08 2001-12-21 Yamaha Corp Time-series data read control device, performance control device, and video reproduction control device
JP2001350471A (en) * 2000-06-05 2001-12-21 Yamaha Corp Device for processing performance data expression making, and recording medium therefor
JP2002311952A (en) * 2001-04-12 2002-10-25 Yamaha Corp Device, method, and program for editing music data
JP2003330459A (en) * 2002-05-15 2003-11-19 Meiji Univ Music data impression system and program
JP2005106928A (en) * 2003-09-29 2005-04-21 Yamaha Corp Playing data processor and program
JP2005249903A (en) * 2004-03-02 2005-09-15 Yamaha Corp Automatic performance data editing device and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001075566A (en) * 1999-09-01 2001-03-23 Casio Comput Co Ltd Tone control device and recording medium storing tone control program
JP2001350471A (en) * 2000-06-05 2001-12-21 Yamaha Corp Device for processing performance data expression making, and recording medium therefor
JP2001350474A (en) * 2000-06-08 2001-12-21 Yamaha Corp Time-series data read control device, performance control device, and video reproduction control device
JP2002311952A (en) * 2001-04-12 2002-10-25 Yamaha Corp Device, method, and program for editing music data
JP2003330459A (en) * 2002-05-15 2003-11-19 Meiji Univ Music data impression system and program
JP2005106928A (en) * 2003-09-29 2005-04-21 Yamaha Corp Playing data processor and program
JP2005249903A (en) * 2004-03-02 2005-09-15 Yamaha Corp Automatic performance data editing device and program

Also Published As

Publication number Publication date
JP4595851B2 (en) 2010-12-08

Similar Documents

Publication Publication Date Title
WO2022095656A1 (en) Audio processing method and apparatus, and device and medium
US8314320B2 (en) Automatic accompanying apparatus and computer readable storing medium
US20170084261A1 (en) Automatic arrangement of automatic accompaniment with accent position taken into consideration
JP3528654B2 (en) Melody generator, rhythm generator, and recording medium
US8907197B2 (en) Performance information processing apparatus, performance information processing method, and program recording medium for determining tempo and meter based on performance given by performer
JP3915807B2 (en) Automatic performance determination device and program
JP6175812B2 (en) Musical sound information processing apparatus and program
JP2009282464A (en) Chord detection device and chord detection program
JPH11296168A (en) Performance information evaluating device, its method and recording medium
JP3577561B2 (en) Performance analysis apparatus and performance analysis method
CN113838446B (en) Electronic musical instrument, accompaniment sound indication method and accompaniment sound automatic generating device
JP2006126710A (en) Playing style determining device and program
JP4614307B2 (en) Performance data processing apparatus and program
JP4595851B2 (en) Performance data editing apparatus and program
JP4802947B2 (en) Performance method determining device and program
JP4853054B2 (en) Performance data editing apparatus and program
JP2007240558A (en) Chord detection area setting device, chord display device with same device, and program thereof
JP2002268637A (en) Time signature device and program
JP7425558B2 (en) Code detection device and code detection program
JP2010175739A (en) Electronic metronome and program
JP3777976B2 (en) Performance information analyzing apparatus and recording medium
JP2005017676A (en) Automatic music player and program
JP2016057389A (en) Chord determination device and chord determination program
JP4760348B2 (en) Music selection apparatus and computer program for music selection
JP2003308069A (en) Pitch conversion processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100604

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100615

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100727

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100824

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100906

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131001

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees