JP2019008336A - Musical performance apparatus, musical performance program, and musical performance pattern data generation method - Google Patents
Musical performance apparatus, musical performance program, and musical performance pattern data generation method Download PDFInfo
- Publication number
- JP2019008336A JP2019008336A JP2018199110A JP2018199110A JP2019008336A JP 2019008336 A JP2019008336 A JP 2019008336A JP 2018199110 A JP2018199110 A JP 2018199110A JP 2018199110 A JP2018199110 A JP 2018199110A JP 2019008336 A JP2019008336 A JP 2019008336A
- Authority
- JP
- Japan
- Prior art keywords
- performance
- acoustic
- waveform data
- data
- performance pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Electrophonic Musical Instruments (AREA)
Abstract
Description
本発明は、楽曲の音響信号(音響波形データ)から、その中に含まれる、複数種類の音楽要素を抽出して、各音楽要素を表わす波形データを生成するとともに、前記生成した波形データを用いて演奏可能な演奏装置及び演奏プログラムに関する。また、本発明は、演奏パターンデータを生成する方法に関する。 The present invention extracts a plurality of types of music elements included in an acoustic signal (acoustic waveform data) of music and generates waveform data representing each music element, and uses the generated waveform data. It is related with the performance apparatus and performance program which can be performed. The present invention also relates to a method for generating performance pattern data.
従来から、例えば、下記特許文献1に記載されているように、自動伴奏機能を備えた演奏装置は知られている。この演奏装置は、複数種類の伴奏スタイルのデータセットを予め記憶している。各伴奏スタイルは、楽曲の導入部の伴奏として使用される「イントロ」セクション、楽曲の中間部の伴奏として使用される「メイン」セクション、楽曲の終端部の伴奏として使用される「エンディング」セクションなど、楽曲の各場面にそれぞれ対応する複数のセクションから構成されている。前記各セクションのデータは、楽曲の伴奏パート(例えば、打楽器パート、ベースパート、ピアノ(コード)パートなどの合奏)の短いフレーズ(演奏パターン)を表している。各セクションのデータは、所謂MIDIデータである。すなわち、各セクションのデータは、演奏音の音響波形を表わしているのではなく、各伴奏パートの楽譜に相当するデータであり、音源回路により楽音合成されることにより音響波形信号に変換される。
2. Description of the Related Art Conventionally, a performance device having an automatic accompaniment function is known as described in
演奏装置の操作パネルには、演奏するセクションを選択するための複数のスイッチが設けられている。これらのスイッチにセクションのデータがそれぞれ割り当てられている。演奏者が前記スイッチを用いて演奏するセクションを選択するとともに、鍵盤装置を用いてコード(和音)を入力すると、演奏装置の制御部は、前記選択されたセクションのデータと前記入力されたコードに基づいて音源回路を制御し、音源回路に演奏パターンを表す演奏パターンデータを生成させる。各伴奏スタイルの各セクションのデータは、コードの種類とその根音ごとに用意されているのではなく、コードの種類が「M(メジャー)」であって、根音が「C」であるときのデータのみが用意されている。そして、その他のコードの種類や根音が指定された場合には、データの構成音の音高を適宜変更(シフト)して使用することが多い。つまり、演奏者が鍵盤装置を用いて入力したコードが「CM」であるときには、現在選択されているセクションのデータがそのまま音源回路に供給される。一方、演奏者が入力したコードが「CM」とは異なるときには、演奏装置の制御部は、現在選択されているセクションのデータを修正する。例えば、演奏者入力したコードが「Cm(マイナー)」である場合には、現在選択されているセクションのデータを構成する構成音のデータ(ノートナンバ)のうち、鍵音高が「E」であることを表わす構成音のデータを「E♭」であることを表わすデータに変更する。 The operation panel of the performance device is provided with a plurality of switches for selecting a section to be played. Section data is assigned to each of these switches. When the performer selects a section to perform using the switch and inputs a chord (chord) using the keyboard device, the controller of the performance device adds the selected section data and the input chord. Based on this, the tone generator circuit is controlled to cause the tone generator circuit to generate performance pattern data representing the performance pattern. The data of each section of each accompaniment style is not prepared for each chord type and its root note, but when the chord type is “M (major)” and the root note is “C” Only the data of is prepared. When other chord types and root sounds are designated, the pitches of the data constituting sounds are often changed (shifted) as appropriate. That is, when the chord input by the performer using the keyboard device is “CM”, the data of the currently selected section is supplied to the tone generator circuit as it is. On the other hand, when the chord input by the performer is different from “CM”, the control unit of the performance device corrects the data of the currently selected section. For example, when the chord input by the performer is “Cm (minor)”, the key pitch is “E” in the constituent sound data (note number) constituting the data of the currently selected section. The data of the constituent sound that represents a certain thing is changed to data that represents “E「 ”.
上記特許文献1に記載の演奏装置の伴奏スタイルの各セクションのデータはMIDIデータであり、且つ上記のように、「CM」に対応するデータのみを記憶しておくだけで良いので、データ量が小さくて済む。しかし、再生される伴奏の演奏パターンは、MIDIデータに従って音源回路が合成し生成するものであり、生演奏やその録音データと比較すると、魅力に欠けるように感じられることがある。
The data of each section of the accompaniment style of the performance device described in
そこで、例えば、特許文献2に記載されているように、各伴奏スタイルの各セクションのデータが、音響波形を表わす波形データから構成されている演奏装置も知られている。この演奏装置においては、各伴奏スタイルの各セクションの波形データは装置メーカが予め専用に制作し記憶させたものであって、ユーザ自身が自らの好みに合わせてそれらを制作し追加することができない。また、伴奏スタイルを含む複数の音楽要素の波形データを制作し記憶しておき、演奏する際に、補助的に使用したい波形データをユーザが自由に選択することができない。したがって、メロディ等を演奏しながら補助的に使用する演奏パターンのバリエーションがプリセットのものに限られている。
Therefore, for example, as described in
本発明は上記問題に対処するためになされたもので、その目的は、生演奏のような演奏を表わす複数の音楽要素の演奏パターンを再生できる演奏装置であって、所望の楽曲の音響信号から音楽要素を抽出して、前記抽出した音楽要素に基づいて演奏パターンを再生できる演奏装置を提供することにある。なお、下記本発明の各構成要件の記載においては、本発明の理解を容易にするために、実施形態の対応箇所の符号を括弧内に記載しているが、本発明の各構成要件は、実施形態の符号によって示された対応箇所の構成に限定解釈されるべきものではない。 The present invention has been made in order to address the above-described problems, and an object of the present invention is to provide a performance device capable of reproducing a performance pattern of a plurality of music elements representing a performance such as a live performance, from an acoustic signal of a desired music piece. An object of the present invention is to provide a performance device capable of extracting music elements and reproducing a performance pattern based on the extracted music elements. In addition, in the description of each constituent element of the present invention below, in order to facilitate understanding of the present invention, reference numerals of corresponding portions of the embodiment are described in parentheses, but each constituent element of the present invention is The present invention should not be construed as being limited to the configurations of the corresponding portions indicated by the reference numerals of the embodiments.
上記目的を達成するために、本発明の特徴は、複数の操作子(11)と、楽曲を演奏して放音された演奏音の音響波形を表わす音響信号を取得する音響信号取得手段(S12)と、前記音響信号に含まれる所定の音楽要素の音響波形を抽出するアルゴリズムに従って、前記音響信号から複数の前記所定の音楽要素の音響波形を抽出する音楽要素抽出手段(S14)と、前記抽出した複数の音響波形を、前記複数の操作子にそれぞれ割り当てる割り当て手段(S15)と、前記複数の操作子のうち操作されている1つの操作子を選択し、前記選択した操作子に割り当てられた音響波形を用いて、演奏パターンを表わす演奏パターンデータを生成する演奏パターンデータ生成手段(S100〜S117、S200〜S204)と、を備えた演奏装置としたことにある。 In order to achieve the above object, the present invention is characterized by a plurality of operators (11) and an acoustic signal acquisition means (S12) for acquiring an acoustic signal representing an acoustic waveform of a performance sound emitted by playing a musical piece. And a music element extraction means (S14) for extracting the acoustic waveforms of the predetermined music elements from the acoustic signal according to an algorithm for extracting the acoustic waveforms of the predetermined music elements included in the acoustic signal, and the extraction And assigning means (S15) for assigning the plurality of acoustic waveforms to the plurality of operators, and selecting one of the plurality of operators being operated, and assigning the selected operator to the selected operator Performance pattern data generating means (S100 to S117, S200 to S204) for generating performance pattern data representing a performance pattern using an acoustic waveform, It lies in the fact that with the.
この場合、演奏装置は、前記複数の操作子とは異なる操作子であって、前記演奏パターンデータを生成するか否かを設定する操作子を備えるとよい。 In this case, the performance device may include an operator that is different from the plurality of operators and sets whether or not to generate the performance pattern data.
また、この場合、前記演奏パターンデータ生成手段は、前記複数の操作子のうち最後に操作された操作子を選択し、前記選択した操作子に割り当てられた音響波形を用いて、演奏パターンを表わす演奏パターンデータを生成するとよい。 Further, in this case, the performance pattern data generation means selects a last operated operator from the plurality of operators, and represents a performance pattern using an acoustic waveform assigned to the selected operator. It is preferable to generate performance pattern data.
また、この場合、前記音楽要素は、前記楽曲のリズムパートの演奏パターン又は前記楽曲のブリッジ部分の演奏パターンであるとよい。 In this case, the music element may be a performance pattern of a rhythm part of the music or a performance pattern of a bridge portion of the music.
上記のように構成した演奏装置によれば、所望の楽曲から音楽要素を抽出し、前記抽出した音楽要素の音響波形に基づいて演奏パターンデータを生成できる。つまり、演奏装置に予め音楽要素の音響波形が記憶されているのではなく、所望の楽曲から音楽要素の音響波形が抽出される。つまり、MIDIデータに基づいて音源回路にて演奏パターンデータが合成されるのではなく、原曲の一部の音楽要素の音響波形に基づいて演奏パターンデータが生成される。よって、本発明に係る演奏装置によれば、生演奏のような魅力的な演奏パターンを再生できる。 According to the performance device configured as described above, a music element can be extracted from a desired musical piece, and performance pattern data can be generated based on the acoustic waveform of the extracted music element. In other words, the acoustic waveform of the music element is not stored in advance in the performance device, but the acoustic waveform of the music element is extracted from the desired musical composition. That is, the performance pattern data is not generated by the tone generator circuit based on the MIDI data, but is generated based on the acoustic waveforms of some music elements of the original music. Therefore, according to the performance device of the present invention, an attractive performance pattern such as a live performance can be reproduced.
なお、本発明は、演奏装置としての実施に限られず、演奏装置が備えるコンピュータに適用されるコンピュータプログラム(演奏プログラム)、又は演奏装置に適用される演奏パターンデータ生成方法としても実施可能である。 The present invention is not limited to implementation as a performance device, but can also be implemented as a computer program (performance program) applied to a computer included in the performance device or a performance pattern data generation method applied to the performance device.
本発明の一実施形態に係る演奏装置10について説明する。演奏装置10は、以下説明するように、楽曲の演奏音の音響波形を表わす音響波形データ(例えば、wavフォーマットのデジタル音響信号)を取り込んで、その音響波形データから、複数の伴奏波形データ、複数のリズム波形データ及び複数のブリッジ波形データを抽出して、前記抽出した波形データからなるオーディオ音楽要素データセットを生成する。以下、オーディオ音楽要素データセットを生成するために用いる楽曲を原曲と呼ぶ。伴奏波形データは、原曲の主旋律パート(例えば、ボーカルパート及びメロディパート)を除く伴奏パート(例えば、ドラムパート、ベースパート、及びピアノ(コード)パートの合奏)から切り出されて抽出された演奏パターンの音響波形を表す。伴奏波形データは、MIDI伴奏スタイルのデータと同様に、通常数小節分の演奏を表わしており、原曲の導入部、中間部、終端部などの場面(セクション)ごとに選択されて生成される。また、リズム波形データは、原曲のリズムパート(ドラムパート)から切り出されて抽出された演奏パターンの音響波形を表す。リズム波形データは、原曲の区間(例えば2小節)ごとに構成されている。さらに、ブリッジ波形データは、原曲の進行方向の中で特徴的なメロディラインなどを含むブリッジ(サビ)部分の演奏の音響波形を表す。なお、演奏装置10は、複数の楽曲のオーディオ音楽要素データセットを記憶しておくことができる。演奏者は、演奏しようとする楽曲に適合する1つのオーディオ音楽要素データセットを選択し、前記選択したオーディオ音楽要素データセットの中から所望の音楽要素の波形データを、楽曲演奏の進行に沿って、操作子を使って選択し、その波形データに基づいた演奏パターンを再生させることができる。例えば、演奏者は、右手でメロディパートを実際に演奏しつつ、左手で操作子を選択することにより、所望の伴奏、リズム、ブリッジ(サビ)の演奏パターンを指定する。これにより、予め抽出し記憶しておいた所望の楽曲の演奏パターンをメロディパートの演奏に対する伴奏や補助演奏として利用できる。
A
また、演奏装置10は、従来の演奏装置のように、MIDIデータから構成された複数の伴奏スタイルのデータセット(以下、MIDI伴奏スタイルデータセットと呼ぶ)も備えている。演奏者は、1つのMIDI伴奏スタイルデータセットを選択し、前記選択したMIDI伴奏スタイルデータセットを用いて演奏することもできる。
The
演奏装置10は、図1乃至図3に示すように、入力操作子11、コンピュータ部12、表示器13、記憶装置14、外部インターフェース回路15、音源回路16及びサウンドシステム17を備えており、これらがバスBUSを介して接続されている。
As shown in FIGS. 1 to 3, the
入力操作子11は、オン・オフ操作に対応したスイッチ、回転操作に対応したボリューム又はロータリーエンコーダ、スライド操作に対応したボリューム又はリニアエンコーダ、マウス、タッチパネルなどから構成される。さらに、入力操作子11には、楽曲を演奏する際に使用される鍵盤装置KYも含まれる。これらの操作子は、演奏者の手によって操作されて、各種パラメータを設定する際、楽曲を演奏する際などに用いられる。また、入力操作子11には、例えば、電子オルガンの足鍵盤が含まれても良い。演奏者が入力操作子11を操作すると、その操作内容を表す操作情報がバスBUSを介して、後述するコンピュータ部12に供給される。
The
例えば、図2に示すように、入力操作子11には、音楽要素スイッチPSが含まれる。音楽要素スイッチPSには、セクション選択スイッチSSが含まれる。セクション選択スイッチSSには、イントロスイッチIS、メインスイッチMS1、メインスイッチMS2、メインスイッチMS3、フィルインスイッチFS、エンディングスイッチESが含まれる。これらのスイッチは、伴奏スタイル(MIDI及び波形データ)を再生させる際に所望のセクションを選択する際に用いられる。したがって、イントロスイッチIS、メインスイッチMS1、メインスイッチMS2、メインスイッチMS3、フィルインスイッチFS及びエンディングスイッチESのうちの2つ以上のスイッチが同時にオン状態に設定されることは無く、1つのスイッチのみがオン状態に設定される。
For example, as shown in FIG. 2, the
また、前記音楽要素スイッチPSには、リズムスイッチRS及びブリッジスイッチBSが含まれる。リズムスイッチRSは、リズム波形データを用いて演奏する際に用いられる。また、ブリッジスイッチBSは、ブリッジ波形データを用いて演奏する際に用いられる。セクション選択スイッチSSのうちの1つのスイッチ、リズムスイッチRS及びブリッジスイッチBSは同時にオン状態に設定可能である。つまり、演奏者は、伴奏波形データ、リズム波形データ及びブリッジ波形データを単独で再生して演奏することもできるし、これらを組み合わせて再生して演奏することができる。 The music element switch PS includes a rhythm switch RS and a bridge switch BS. The rhythm switch RS is used when performing using the rhythm waveform data. The bridge switch BS is used when performing using the bridge waveform data. One of the section selection switches SS, the rhythm switch RS, and the bridge switch BS can be set to the ON state at the same time. That is, the performer can reproduce and play the accompaniment waveform data, rhythm waveform data, and bridge waveform data alone, or can reproduce and perform them in combination.
また、演奏装置10は、複数の動作モードを備えており、それらの動作モードを切り替える際に入力操作子11が用いられる。動作モードには、既存の楽曲の音響波形データに基づいてオーディオ音楽要素データセットを生成するオーディオ音楽要素データセット生成モード、予め生成し記憶してあるオーディオ音楽要素データセットを用いて演奏するオーディオ音楽要素演奏モードが含まれる。
The
コンピュータ部12は、バスBUSにそれぞれ接続されたCPU12a、ROM12b及びRAM12cからなる。CPU12aは、詳しくは後述するオーディオ音楽要素データセット生成プログラム、オーディオ音楽要素演奏プログラムなどをROM12bから読み出して実行する。ROM12bには、オーディオ音楽要素データセット生成プログラム(後述する第1乃至第3アルゴリズムを含む)、オーディオ音楽要素演奏プログラム、その他のプログラムに加えて、初期設定パラメータ、表示器13に表示される画像を表わす表示データを生成するための図形データ、文字データなどが記憶されている。RAM12cには、各種プログラムの実行時に、楽曲データを含む各種データが一時的に記憶される。
The
表示器13は、液晶ディスプレイ(LCD)によって構成される。コンピュータ部12は、図形データ、文字データなどを用いて表示すべき内容を表わす表示データを生成して表示器13に供給する。表示器13は、コンピュータ部12から供給された表示データに基づいて画像を表示する。例えば、現在選択されているオーディオ音楽要素データセットの名称が表示される。
The
また、記憶装置14は、HDD、CD、DVDなどの大容量の不揮発性記録媒体と、各記録媒体に対応するドライブユニットから構成されている。記憶装置14には、複数の楽曲の音響波形をそれぞれ表わす複数の音響波形データが記憶されている。音響波形データは、楽曲を所定のサンプリング周期(例えば1/44100秒)でサンプリングして得られた複数のサンプル値からなり、各サンプル値が記憶装置14における連続するアドレスに順に記録されている。楽曲のタイトルを表わすタイトル情報、音響波形データの容量を表わすデータサイズ情報なども音響波形データに含まれている。音響波形データは予め記憶装置14に記憶されていてもよいし、後述する外部インターフェース回路15を介して外部機器から取り込んでもよい。
The
外部インターフェース回路15は、演奏装置10を他の電子楽器、パーソナルコンピュータなどの外部機器に接続可能とする接続端子を備えている。演奏装置10は、外部インターフェース回路15を介して、LAN(Local Area Network)、インターネットなどの通信ネットワークにも接続可能である。
The external interface circuit 15 includes a connection terminal that allows the
音源回路16には、ピアノ、オルガン、バイオリン、トランペットなどの複数の楽器音の音響波形を表す音色波形データを記憶した波形メモリWMが接続されている。音源回路16は、CPU12aによって指定された音色波形データを波形メモリWMから読み出して、CPU12aから供給されるMIDIデータの音符情報に基づいて楽音の音響波形データを生成し、サウンドシステム17に供給する。例えば、MIDI伴奏スタイルデータセットを用いて演奏する際、音源回路16は、各セクションに対応する演奏パターンの音響波形を表す演奏パターンデータを生成し、サウンドシステム17に供給する。また、演奏装置10は、音源回路16にて生成された演奏パターンデータを記憶装置14に記憶可能に構成されている。なお、演奏音にコーラス効果、残響効果などの各種効果を付加するエフェクタ回路も、音源回路16に含まれている。
Connected to the
サウンドシステム17には、演奏者が演奏操作のための入力操作子11(鍵盤装置KY)を用いて演奏することにより発生させたMIDI演奏データに基ついて音源回路16が順次楽音合成したメロディパートなどの演奏音データも供給される。また、詳しくは後述するように、サウンドシステム17には、CPU12aからもオーディオ音楽要素データセットに基づいて生成された演奏パターンデータが供給される。サウンドシステム17は、前記演奏音データ及び演奏パターンデータを重畳加算するとともにアナログオーディオ信号に変換するD/A変換器、変換したアナログオーディオ信号を増幅するアンプ、及び増幅されたアナログオーディオ信号を音響信号に変換して放音する左右一対のスピーカを備えている。なお、音源回路16及びサウンドシステム17の機能の全体又は一部の機能を、専用のハードウェアではなく、CPU12aが実行するプログラムによって実現しても良い。
The
つぎに、オーディオ音楽要素データセットを生成する手順について説明する。演奏者が入力操作子11を用いて、演奏装置10の動作モードをオーディオ音楽要素データセット生成モードに設定すると、CPU12aは、図4に示す、オーディオ音楽要素データセット生成プログラムをROM12bから読み込んで実行する。CPU12aは、ステップS10にて、オーディオ音楽要素データセット生成処理を開始する。つぎに、CPU12aは、ステップS11にて、記憶装置14に記憶されている楽曲のタイトルを表示器13に表示させる。演奏者は、入力操作子11を用いて、所望の楽曲(本実施形態では「Song01」とする)を選択する。CPU12aは、ステップS12にて、前記選択された楽曲の音響波形を表す音響波形データを記憶装置14(例えば、オーディオCD)から読み込む。
Next, a procedure for generating an audio music element data set will be described. When the performer sets the operation mode of the
演奏装置10は、前記読み込んだ音響波形データに第1アルゴリズム、第2アルゴリズム及び第3アルゴリズムをそれぞれ適用することにより、伴奏、リズム、ブリッジの音楽要素についてそれぞれ複数の伴奏波形データ、リズム波形データ及びブリッジ波形データを生成可能である。演奏装置10は、第1アルゴリズム、第2アルゴリズム及び第3アルゴリズムのうち、前記読み込んだ音響波形データに適用するアルゴリズムを選択可能に構成されている。すなわち、CPU12aは、ステップS13にて、前記読み込んだ音響波形データに適用するアルゴリズムを演奏者に選択させる。例えば、CPU12aは、第1アルゴリズム、第2アルゴリズム及び第3アルゴリズムにそれぞれ対応するアイコン(図示なし)を表示器13に表示する。演奏者は、入力操作子11を用いて、第1アルゴリズム、第2アルゴリズム及び第3アルゴリズムのうちの1つ又は複数のアルゴリズムを選択し、オーディオ音楽要素データセットの生成開始を指示する。
The
つぎに、CPU12aは、ステップS14にて、前記選択された1つ又は複数のアルゴリズムを、前記読み込んだ音響波形データに適用する。これにより、複数の伴奏波形データ、複数のリズム波形データ及び複数のブリッジ波形データのうち、前記選択されたアルゴリズムに対応する波形データを生成するとともに、前記生成した波形データを入力操作子11に割り当てる。
Next, in step S14, the
第1アルゴリズムは、オーディオの楽曲データから伴奏の演奏パターンを表す音響波形データを抽出する技法であり、例えば、特開2014−029425号公報に記載されているアルゴリズムを利用することにより実現される。つまり、CPU12aは、まず、各MIDI伴奏スタイルデータセットを用いて音源回路16に各演奏パターンを表す演奏パターンデータを生成させ、基準波形データ(本発明の基準データ)として記憶装置14に記憶させる。なお、基準波形データは、伴奏セクションごとに生成される。さらに、1つの伴奏セクションに関し、各コード(つまり、全てのルート音及びコードタイプ)の基準波形データが生成される。すなわち、基準波形データは、1つのMIDI伴奏スタイルデータセットが選択され、且つ1つの伴奏セクションが選択された状態において1つのコードが指定されて生成された所定の長さ(例えば2小節)のフレーズの音響波形を表す。基準波形データの名称は、各MIDI伴奏スタイルデータセットの名称と、セクション名と、コード名とを「_」で連結した名称に設定される。例えば、図5に示すように、基準波形データの名称は、「StyleM1_Intro_Am」に設定される。
The first algorithm is a technique for extracting acoustic waveform data representing an accompaniment performance pattern from audio music data, and is realized, for example, by using an algorithm described in Japanese Patent Application Laid-Open No. 2014-029425. That is, the
つぎに、CPU12aは、周知のアルゴリズム(例えば、特開平11−38980号公報)を原曲の音響波形データに適用し、原曲からボーカルパート及びメロディパートを除いた伴奏パートの音響波形データを生成する。つぎに、CPU12aは、前記生成した伴奏パートの音響波形データを複数の区間t1,t2,・・・に分割する。つぎに、CPU12aは、前記分割して得られた各区間の音響波形データと各基準波形データとを比較することにより、前記区間ごとに、最も類似度が大きい基準波形データを検出する。そして、前記検出した基準波形データの区間に対応する区間の音響波形データを前記原曲の音響波形データから切り出し(抽出し)、前記切り出した音響波形データを、前記検出した基準波形データのセクション名及びコード名に関連づけて、伴奏波形データとして記憶する。例えば、図5に示すように、原曲のタイトル、前記検出した基準波形データのセクション名及びコード名を含む名称を、伴奏波形データの名称として設定し、その伴奏波形データを記憶装置14に記憶する。図5に示す例においては、原曲のタイトルは、「Song01」である。そして、区間t1の音響波形データと最も類似する基準波形データのセクション名は「Intro」であり、コード名は「Am」である。よって、この場合、CPU12aは、区間t1の音響波形データの名称を「Song01_Intro_Am.wav」に設定し、伴奏波形データとして記憶装置14に記憶する。つまり、各伴奏波形データの名称は、楽曲のタイトルと、前記検出した基準波形データのセクション名と、コード名とを「_」を介して連結した名称に設定される。これによれば、伴奏波形データの名称によって、その伴奏波形データのセクション及びコードを判別できる。他の区間に関しても、区間t1と同様のルールに従って、伴奏波形データの名称が設定され、それらの伴奏波形データが記憶装置14に記憶される。なお、本実施形態では、基準波形データは、2小節分の演奏パターンを表している。したがって、その演奏パターンに類似する伴奏波形データも2小節分の演奏パターンを表している。
Next, the
第2アルゴリズムは、例えば、「K.Miyamoto et al.、“Separation of harmonic and non−harmonic sounds based on anisotropy in spectrogram”、Proc. of ASJ Spring Meeting 2008、p.903−904」に記載されているアルゴリズムと同様のアルゴリズムを含む。つまり、CPU12aは、まず、前記読み込んだ音響波形データを用いて原曲のスペクトログラムを計算する。一般に、打楽器の演奏音(単音)のエネルギーは、スペクトログラムにおいて、周波数軸方向には広く分布し、且つ時間軸方向には狭い範囲に分布する傾向にある。一方、ピアノ、ギターなどの演奏音(単音)のエネルギーは、周波数軸方向に間隔をおいて分布し、且つ時間軸方向に広い範囲に分布する傾向にある。上記のような各楽器の演奏音の性質に着目し、原曲のリズムパートとその他の演奏パートとを分離する。すなわち、CPU12aは、前記計算したスペクトログラムに基づいて、原曲のリズムパートのみの演奏を表わす音響波形データを生成する。そして、CPU12aは、前記生成したリズムパートのみの演奏を表わす音響波形データを複数の区間に分割する。なお、本実施形態においては、説明を簡単にするために、これらの区間の長さは、伴奏波形データの長さと同一(つまり、本実施形態では2小節分の長さ)とする。
The second algorithm is described in, for example, “K. Miyamoto et al.,“ Separation of harmonic and non-harmonic sounds based on anisotropy in spectroscopy ”, Proc. Of ASJ Spring 90, et al. Includes similar algorithms. That is, the
つぎに、CPU12aは、前記分割して形成された複数の音響波形データのうち、類似度の低い12個の音響波形データを選択する。そして、前記選択した12個の音響波形データの名称を、楽曲の先頭側に位置する音響波形データから末尾側に位置する音響波形データに向かって順に「Song01_Rhythm1.wav」、「Song01_Rhythm2.wav」、・・・、「Song01_Rhythm12.wav」に設定し、リズム波形データとして記憶装置14に記憶する。
Next, the
第3アルゴリズムは、例えば、特開2004−233965号公報に記載されているアルゴリズムと同様のアルゴリズムを含む。つまり、CPU12aは、前記読み込んだ音響波形データを複数の区間に分割し、各区間のクロマベクトルを計算する。そして、各区間のクロマベクトル同士の類似度を計算し、前記計算した類似度に基づいて、反復的に出現する区間をブリッジ区間として抽出する。本実施形態では、12個のブリッジ区間を抽出する。例えば、出現回数の多い順に12個のブリッジ区間を抽出する。なお、本実施形態においては、説明を簡単にするために、各ブリッジ区間の長さは、伴奏波形データの長さと同一(つまり、本実施形態では2小節分の長さ)とする。つぎに、CPU12aは、前記抽出された12個のブリッジ区間の音響波形データの名称を、原曲の先頭側のブリッジ区間から末尾側のブリッジ区間に向かって順に、「Song01_Bridge1.wav」、「Song01_Bridge2.wav」、・・・、「Song01_Bridge12.wav」に設定し、ブリッジ波形データとして記憶装置14に記憶する。
The third algorithm includes, for example, an algorithm similar to the algorithm described in Japanese Patent Application Laid-Open No. 2004-233965. That is, the
つぎに、CPU12aは、ステップS15にて、図6に示すように、前記生成した伴奏波形データ、リズム波形データ及びブリッジ波形データを所定の入力操作子11に割り当てる。例えば、セクション選択スイッチSSのうち、前記記憶した各伴奏波形データのセクション名と同一の名称を含むスイッチに、前記各伴奏波形データを割り当てるとともに、コードを指定するために用いられる鍵盤装置KYを構成する1つの鍵又は複数の鍵の組み合わせに割り当てる(以下、単に、伴奏波形データをコードに割り当てるという)。つまり、CPU12aは、伴奏波形データと各スイッチ及び鍵との対応関係を表わすテーブルを生成して記憶装置14に記憶する。なお、演奏者は、伴奏波形データを用いて演奏する際、鍵盤装置KYの所定の第1鍵域(例えば、「C2」〜「B2」)に属する1つ又は複数の鍵を用いてコードを入力する。
Next, in step S15, the
図6に示すように、例えば、「Song01_Intro_Am.wav」は、イントロスイッチISに割り当てられる。この例では、1つの伴奏波形データのみがイントロスイッチISに割り当てられている。この場合、「Song01_Intro_Am.wav」は全てのコードに割り当てられる。つまり、このオーディオ音楽要素データセットを用いた演奏の際、イントロスイッチISがオン状態に設定され、且ついずれかのコードが入力されたとき、「Song01_Intro_Am.wav」が、演奏パターンを表す演奏パターンデータを生成するためのデータとして選択されるように設定される。 As shown in FIG. 6, for example, “Song01_Intro_Am.wav” is assigned to the intro switch IS. In this example, only one accompaniment waveform data is assigned to the intro switch IS. In this case, “Song01_Intro_Am.wav” is assigned to all codes. In other words, when the intro switch IS is turned on and any chord is input during performance using the audio music element data set, “Song01_Intro_Am.wav” is performance pattern data representing a performance pattern. Is set to be selected as data for generating
また、図6に示すように、例えば、「Song01_Main1_FM.wav」は、メインスイッチMS1に割り当てられる。この例では、セクション名が「Main1」であって、且つコード名が「FM」とは異なる複数の伴奏波形データが存在する。これらの伴奏波形データもメインスイッチMS1に割り当てられる。このように複数の伴奏波形データが同一のスイッチに割り当てられる場合、各伴奏波形データは、まず、各伴奏波形データの名称に含まれるコード名と同一のコードに割り当てられる。例えば、「Song01_Main1_FM.wav」は、「FM」に割り当てられる。さらに、いずれの伴奏波形データのコードとも異なるコードには、そのコードに最も近似するコード名を含む名称が付された伴奏波形データが割り当てられる。例えば、「Fm」がいずれの伴奏波形データにも割り当てられていない場合は、「Song01_Main1_FM.wav」が「Fm」にも割り当てられる。この場合、このオーディオ音楽要素データセットを用いた演奏の際、メインスイッチMS1がオン状態に設定され、「FM」又は「Fm」がコードとして入力されたとき、「Song01_Main_FM.wav」が、演奏パターンを表す演奏パターンデータを生成するためのデータとして選択されるように設定される。 As shown in FIG. 6, for example, “Song01_Main1_FM.wav” is assigned to the main switch MS1. In this example, there are a plurality of accompaniment waveform data whose section name is “Main1” and whose chord name is different from “FM”. These accompaniment waveform data are also assigned to the main switch MS1. When a plurality of accompaniment waveform data is assigned to the same switch as described above, each accompaniment waveform data is first assigned to the same code as the chord name included in the name of each accompaniment waveform data. For example, “Song01_Main1_FM.wav” is assigned to “FM”. Furthermore, accompaniment waveform data with a name including a chord name that is closest to the chord is assigned to a code different from the code of any accompaniment waveform data. For example, when “Fm” is not assigned to any accompaniment waveform data, “Song01_Main1_FM.wav” is also assigned to “Fm”. In this case, when performing using the audio music element data set, when the main switch MS1 is set to the on state and “FM” or “Fm” is input as a chord, “Song01_Main_FM.wav” is a performance pattern. Is set to be selected as data for generating performance pattern data representing
また、CPU12aは、各リズム波形データを、リズムスイッチRSに割り当てるとともに、鍵盤装置KYを構成する複数の鍵のうちの所定の第2鍵域(例えば、「C3」〜「B3」)に属する鍵に互いに重複しないように割り当てる。つまり、CPU12aは、各リズム波形データと、リズムスイッチRS及び鍵の組み合わせとの対応関係を表わすテーブルを生成して記憶装置14に記憶する。なお、演奏者は、リズム波形データを用いて演奏する際、鍵盤装置KYの所定の第2鍵域(例えば、「C3」〜「B3」)に属する1つの鍵を押鍵してリズム波形データを選択する。図6に示すように、オーディオ音楽要素データセットを用いた演奏の際、例えば、リズムスイッチRSがオン状態に設定されるとともに、鍵盤装置KYの「C3」が押鍵されたとき、「Song01_Rhythm1.wav」が、演奏パターンを表す演奏パターンデータを生成するためのデータとして選択されるように設定される。
Further, the
また、CPU12aは、各ブリッジ波形データを、ブリッジスイッチBSに割り当てるとともに、鍵盤装置KYの所定の第3鍵域(例えば、「C4」〜「B4」)に属する鍵に互いに重複しないように割り当てる。つまり、CPU12aは、各ブリッジ波形データと、ブリッジスイッチBS及び鍵の組み合わせとの対応関係を表わすテーブルを生成して記憶装置14に記憶する。図6に示すように、オーディオ音楽要素データセットを用いた演奏の際、例えば、ブリッジスイッチBSがオン状態に設定されるとともに、鍵盤装置KYの「C4」が押鍵されたとき、「Song01_Bridge1.wav」が、演奏パターンを表す演奏パターンデータを生成するためのデータとして選択されるように設定される。
Further, the
なお、前記生成された複数の伴奏波形データ、複数のリズム波形データ及び複数のブリッジ波形データのうちの1つの波形データが本発明の音楽要素の音響波形を表わしている。また、前記生成された複数の伴奏波形データ、複数のリズム波形データ及び複数のブリッジ波形データのうちの1つの波形データが割り当てられた、音楽要素スイッチPSのうちの1つのスイッチと、1つ又は複数の鍵から構成された操作子群が、本発明の操作子グループに相当する。 Note that one waveform data among the plurality of generated accompaniment waveform data, a plurality of rhythm waveform data, and a plurality of bridge waveform data represents the acoustic waveform of the music element of the present invention. Also, one switch of the music element switches PS to which one waveform data among the plurality of generated accompaniment waveform data, a plurality of rhythm waveform data, and a plurality of bridge waveform data is assigned, and one or An operator group composed of a plurality of keys corresponds to the operator group of the present invention.
上記のようにして生成された複数の伴奏波形データ、複数のリズム波形データ、及び複数のブリッジ波形データからなるオーディオ音楽要素データセットの名称は、その生成元の楽曲のタイトルである「Song01」に関連付けて、「Song01_Component」に設定される。つまり、オーディオ音楽要素データセットの名称は、楽曲のタイトルと「Component」とが「_」で結合された名称に設定される。 The name of the audio music element data set composed of the plurality of accompaniment waveform data, the plurality of rhythm waveform data, and the plurality of bridge waveform data generated as described above is referred to as “Song01”, which is the title of the tune of the generation source. In association, it is set to “Song01_Component”. That is, the name of the audio music element data set is set to a name in which the title of the music and “Component” are combined with “_”.
再び、図4の説明に戻る。CPU12aは、上記のようにしてオーディオ音楽要素データセットを生成すると、ステップS16にて、オーディオ音楽要素データセット生成処理を終了する。
Returning to the description of FIG. After generating the audio music element data set as described above, the
つぎに、オーディオ音楽要素データセットを用いて、伴奏スタイル、リズム、ブリッジなどの演奏パターンを表す演奏パターンデータを生成して、サウンドシステム17に供給する手順について説明する。演奏者が入力操作子11を用いて、演奏装置10の動作モードをオーディオ音楽要素演奏モードに設定すると、CPU12aは、オーディオ音楽要素演奏プログラムをROM12bから読み込んで実行する。オーディオスタイル演奏プログラムは、図7A及び図7Bに示す演奏パターンデータ生成プログラムと、図8に示す演奏パターンデータ供給プログラムからなる。
Next, a procedure for generating performance pattern data representing performance patterns such as accompaniment style, rhythm, and bridge using the audio music element data set and supplying the performance pattern data to the
まず、演奏パターンデータ生成プログラムについて説明する。CPU12aは、ステップS100にて、演奏パターンデータ生成処理を開始する。つぎに、CPU12aは、ステップS101にて、初期化処理を実行する。例えば、本プログラムにおいて使用するRAM12bの領域(例えば、後述する第1乃至第4領域)に所定の値(例えば、「0」)を書き込む。
First, the performance pattern data generation program will be described. In step S100, the
つぎに、CPU12aは、ステップS102にて、記憶装置14に記憶されているオーディオ音楽要素データセットの名称をリスト形式で表示器13に表示する。演奏者は、演奏操作に先立って、入力操作子11を用いて、1つのオーディオ音楽要素データセット(例えば、「Song01_Component」)を選択する。つぎに、CPU12aは、ステップS103にて、セクション選択スイッチSSのうちのいずれかのスイッチがオン状態に設定されているか否かを検出する。全てのスイッチがオフ状態である場合には、CPU12aは、「No」と判定し、ステップS109に処理を進める。一方、セクション選択スイッチSSのうちのいずれかのスイッチがオン状態である場合には、CPU12aは、ステップS104にて、第1鍵域に属する鍵のうちの少なくともいずれか1つの鍵が押鍵されているか否かを検出する。いずれの鍵も押鍵されていない場合には、CPU12aは、「No」と判定して、ステップS109に処理を進める。一方、少なくともいずれか1つの鍵が押鍵されている場合には、CPU12aは、ステップS105にて、現在押鍵されている鍵の音高を検出し、現在入力されているコードを検出する。
Next, in step S102, the
つぎに、CPU12aは、ステップS106にて、セクション選択スイッチSSのうちの現在オン状態に設定されているスイッチ及び前記検出したコードに割り当てられている伴奏波形データを、RAM12bにおける所定の第1領域に読み込む。つぎに、CPU12aは、ステップS107にて、前記読み込んだ伴奏波形データのコードと前記検出したコードとが同一であるか否かを判定する。前記読み込んだ伴奏波形データのコードと前記検出したコードとが同一である場合には、CPU12aは、「Yes」と判定して、ステップS109に処理を進める。一方、前記読み込んだ伴奏波形データのコードと前記検出したコードとが異なる場合には、CPU12aは、「No」と判定して、ステップS108にて、前記読み込んだ伴奏波形データを前記検出したコードに修正する。
Next, in step S106, the
上記のように、図6の第1アルゴリズムによって抽出された伴奏波形データは、MIDI伴奏スタイルのセクション及びコードを指定する操作と同様の操作によって読み出される。 As described above, the accompaniment waveform data extracted by the first algorithm in FIG. 6 is read out by the same operation as the operation of designating the MIDI accompaniment style section and chord.
例えば、イントロスイッチISがオン状態に設定され、且つ第1鍵域の「A」キーと「G#」キーとが押鍵され(簡単なコード指定方法)、又は「A」キーと「C」キーと「E」キーが押鍵される(通常のコード指定方法)ことにより、「Am」コードが入力(指定)されているとする。本実施形態では、図6に示すように、「Song01_Intro_Am.wav」がイントロスイッチIS及び全てのコードに割り当てられている。したがって、「Song01_Intro_Am.wav」が第1領域に読み込まれる。この例では、入力されたコードと伴奏波形データのコードが同一であるので、CPU12aは、「Song01_Intro_Am.wav」を第1領域に保持したまま、ステップS109に処理を進める。一方、イントロスイッチISがオン状態に設定され、且つコードとして「AM」が入力されているとする。上記のように、「Song01_Intro_Am.wav」は全てのコードに割り当てられているので、この場合も「Song01_Intro_Am.wav」が選択される。この例では、入力されているコードと伴奏波形データのコードが異なる。そこで、CPU12aは、「Song01_Intro_Am.wav」に、周知のアルゴリズム(例えば、特開2012−203219)を適用する。すなわち、「Song01_Intro_Am.wav」を構成する楽音のうち、鍵音高が「C」である楽音を分離し、前記分離した楽音をピッチチェンジして「C#」に変更した後、再合成する。このようにして、「Song01_Intro_Am.wav」のコードが「AM」に修正される。
For example, the intro switch IS is set to the on state and the “A” key and the “G #” key in the first key range are pressed (simple code designation method), or the “A” key and “C”. It is assumed that the “Am” code is input (designated) by pressing the key and the “E” key (normal code designating method). In this embodiment, as shown in FIG. 6, “Song01_Intro_Am.wav” is assigned to the intro switch IS and all codes. Therefore, “Song01_Intro_Am.wav” is read into the first area. In this example, since the input chord and the accompaniment waveform data chord are the same, the
つぎに、CPU12aは、ステップS109にて、リズムスイッチRSがオン状態に設定されているか否かを検出する。リズムスイッチRSがオフ状態である場合には、CPU12aは、「No」と判定し、ステップS112に処理を進める。一方、リズムスイッチRSがオン状態である場合には、CPU12aは、ステップS110にて、第2鍵域に属する鍵のうちの少なくともいずれか1つの鍵が押鍵されているか否かを検出する。いずれの鍵も押鍵されていない場合には、CPU12aは、「No」と判定して、ステップS113に処理を進める。一方、少なくともいずれか1つの鍵が押鍵されている場合には、CPU12aは、ステップS111にて、第2鍵域に属する鍵であって現在押鍵されている鍵のうち、最後に押鍵された鍵の鍵音高を検出する。つぎに、CPU12aは、ステップS112にて、前記検出した鍵音高に割り当てられているリズム波形データを、RAM12bにおける所定の第2領域に読み込む。
Next, in step S109, the
つぎに、CPU12aは、ステップS113にて、ブリッジスイッチBSがオン状態に設定されているか否かを検出する。ブリッジスイッチBSがオフ状態である場合には、CPU12aは、「No」と判定し、ステップS117に処理を進める。一方、ブリッジスイッチBSがオン状態である場合には、CPU12aは、ステップS114にて、第3鍵域に属する鍵のうちの少なくともいずれか1つの鍵が押鍵されているか否かを検出する。いずれの鍵も押鍵されていない場合には、CPU12aは、「No」と判定して、ステップS117に処理を進める。一方、少なくともいずれか1つの鍵が押鍵されている場合には、CPU12aは、ステップS115にて、第3鍵域に属する鍵であって現在押鍵されている鍵のうち、最後に押鍵された鍵の鍵音高を検出する。つぎに、CPU12aは、ステップS116にて、前記検出した鍵音高に割り当てられているブリッジ波形データを、RAM12bにおける所定の第3領域に読み込む。
Next, in step S113, the
つぎに、CPU12aは、ステップS117にて、第1領域、第2領域及び第3領域にそれぞれ記憶されている伴奏波形データ、リズム波形データ及びブリッジ波形データを重畳加算することにより1つの演奏パターンの音響波形を表わす演奏パターンデータを生成し、RAM12bのうちの所定の第4領域に書き込む。そして、以降、CPU12aは、ステップS103〜S117からなる処理を繰り返し実行する。なお、前記演奏パターンデータは、複数のサンプル値からなる。その複数のサンプル値が、再生(D/A変換)される順に第4領域に記憶されている。つまり、第4記憶領域の先頭アドレスから末尾アドレスに向かって順に各サンプル値を読み出してサウンドシステム17に供給することにより、前記演奏パターンデータが表わす演奏パターンを再生することができるように構成されている。
Next, in step S117, the
つぎに、演奏パターンデータ供給プログラムについて説明する。CPU12aは、上記の演奏パターンデータ生成プログラムと平行して、演奏パターンデータ供給プログラムを実行する。
Next, a performance pattern data supply program will be described. The
CPU12aは、ステップS200にて、演奏パターンデータ供給処理を開始する。つぎに、CPU12aは、ステップS201にて、初期化処理を実行する。例えば、第4領域の1つのアドレスであって、前記演奏パターンデータを構成する1つのサンプル値を記憶しているアドレスを指し示すポインタの値を、前記第4領域の先頭のアドレスに設定する。つぎに、CPU12aは、ステップS202にて、ポインタによって指し示されたアドレスに記憶されているサンプル値をサウンドシステム17に供給する。つぎに、CPU12aは、ステップS203にて、前記ポインタを1つ進める。つまり、ポインタの値を、現在のアドレスから見て1つ後のアドレスに設定する。ただし、現在のアドレスが前記演奏パターンデータの末尾である場合には、前記ポインタの値を第4領域の先頭アドレスに設定する。つぎに、CPU12aは、ステップS204にて、次のサンプリング期間が到来するまで待機した後、ステップS201に処理を進める。これにより、CPU12aは、所定のサンプリング期間(本実施形態では1/44100秒)ごとに、1つのサンプル値をサウンドシステム17に供給する。
In step S200, the
したがって、オーディオ音楽要素データセットの伴奏波形データを用いた演奏においては、現在選択されているセクションの演奏パターンが繰り返し演奏される。また、例えば、セクションの演奏途中で現在選択されているセクションとは異なるセクションのスイッチがオン状態に設定された場合であっても途切れることなく演奏が継続される。なお、現在の小節の末尾に到達するまで現在の演奏パターンの演奏を継続し、その後、次のセクションの先頭から演奏が開始されるように構成されている。つまり、CPU12aは、現在の小節の末尾に到達したとき、ステップS117を実行する。また、次のセクションのスイッチがオン状態に設定された時点において、前記次のセクションの途中の位置であって、現在のセクションにおける演奏進行位置に対応する位置から演奏が継続されてもよい。また、小節の途中で新たにコードが入力されたとき、その小節の末尾に到達したとき、前記新たに入力されたコードに変更され、演奏が継続される。なお、エンディングスイッチESに対応するエンディングセクションの末尾に到達すると、CPU12aは、オーディオ音楽要素データセットを用いた演奏を終了し、音楽要素スイッチPSに属する全ての音楽要素スイッチPSをオフ状態に設定する。また、演奏者が入力操作子11を用いて演奏を中止することを選択した場合にも、CPU12aは、オーディオ音楽要素データセットを用いた演奏を終了し、音楽要素スイッチPSに属する全てのスイッチをオフ状態に設定する。
Therefore, in the performance using the accompaniment waveform data of the audio music element data set, the performance pattern of the currently selected section is repeatedly performed. Further, for example, even when a switch of a section different from the currently selected section is set to the ON state during the performance of the section, the performance is continued without interruption. The performance of the current performance pattern is continued until the end of the current measure is reached, and then the performance is started from the beginning of the next section. That is, when the
上記のように構成された演奏装置10においては、演奏装置10に伴奏波形データ、リズム波形データ及びブリッジ波形データが予め記憶されているのではなく、所望の楽曲の音響波形データから抽出される。そして、伴奏スタイル、リズム、ブリッジの各演奏パターンを表す演奏パターンデータは、MIDIデータに基づいて音源回路16にて生成されるのではなく、原曲の音響波形データから切り出された波形データに基づいて生成される。したがって、演奏装置10によれば、生演奏のような魅力的な演奏パターンを再生できる。また、演奏装置10においては、伴奏波形データ、リズム波形データ及びブリッジ波形データがそれぞれ割り当てられる操作子群は互いに重複しない。したがって、演奏装置10によれば、既存の楽曲の音響波形データから抽出した各波形データをリアルタイムに択一的又は重畳的に選択(指定)し、前記選択(指定)した波形データを用いて演奏パターンを再生することができる。つまり、伴奏波形データ、リズム波形データ及びブリッジ波形データのうちの1つのみを用いて演奏パターンを再生することもできるし、それらの2つ又は全てを重畳した演奏パターンを再生することもできる。しかも、伴奏波形データに関しては、演奏者が選択(指定)する伴奏スタイルのセクション及びコードに対応する伴奏波形データが無くても、同じセクションの伴奏波形データの構成音を修正することにより、前記伴奏波形データのコードを前記指定したコードに修正できる(S107、S108参照)。よって、従来よりも演奏パターンのバリエーションを増やすことができる。また、既存の楽曲を簡単にアレンジすることができる。なお、伴奏波形データ、リズム波形データ及びブリッジ波形データのうち、2つ又は全ての波形データによってそれぞれ表わされる音響波形を重畳する場合、一部の楽器の演奏が重なる場合がある。この場合、伴奏波形データ、リズム波形データ及びブリッジ波形データのうち、重畳するデータのいずれかの波形データにフィルタを適用して、前記一部の楽器の演奏音の音量を小さくしてもよい。
In the
また、音響波形データに適用するアルゴリズムを選択することができるので、必要な波形データのみを生成することができる。例えば、ブリッジ波形データが不要な場合には、伴奏波形データ及びリズム波形データのみを生成することができる。これによれば、記憶装置14の記憶容量が無駄に消費されることを抑制できる。
In addition, since an algorithm to be applied to acoustic waveform data can be selected, only necessary waveform data can be generated. For example, when bridge waveform data is unnecessary, only accompaniment waveform data and rhythm waveform data can be generated. According to this, it is possible to suppress wasteful consumption of the storage capacity of the
さらに、本発明の実施にあたっては、上記実施形態に限定されるものではなく、本発明の目的を逸脱しない限りにおいて種々の変更が可能である。 Furthermore, in carrying out the present invention, the present invention is not limited to the above embodiment, and various modifications can be made without departing from the object of the present invention.
上記実施形態においては、3種類のアルゴリズムを楽曲の音響波形データに適用可能であるが、これらのアルゴリズムは、上記実施形態に限られず、他のアルゴリズムであってもよい。例えば、上記実施形態では、伴奏波形データには、ドラムパートが含まれているが、伴奏パートのうちドラムパートを除く演奏パートの演奏が含まれるようなデータを生成するアルゴリズムを適用しても良い。また、上記実施形態では、ブリッジ波形データには、全ての演奏パートが含まれているが、ボーカルパート及びメロディパートのみが含まれるようなデータを生成するアルゴリズムを適用しても良い。上記のように、同時に(並行して)用いる波形データ間において、楽器の種類が重複しないように構成すれば、同時に用いる波形データの組み合わせを自由に変更することができる。例えば、原曲の導入部における伴奏波形データに対し、原曲の中間部のリズム波形データを組み合わせることができる。これによれば、演奏パターンのバリエーションが飛躍的に増える。 In the above embodiment, three types of algorithms can be applied to the acoustic waveform data of music, but these algorithms are not limited to the above embodiment and may be other algorithms. For example, in the above embodiment, the accompaniment waveform data includes a drum part, but an algorithm for generating data that includes performances of performance parts other than the drum part among the accompaniment parts may be applied. . In the above embodiment, all performance parts are included in the bridge waveform data, but an algorithm for generating data that includes only vocal parts and melody parts may be applied. As described above, if the musical instrument types are configured so as not to overlap between waveform data used simultaneously (in parallel), the combination of waveform data used simultaneously can be freely changed. For example, the rhythm waveform data in the middle part of the original music can be combined with the accompaniment waveform data in the introduction part of the original music. According to this, the variation of a performance pattern increases dramatically.
また、上記実施形態では、原曲全体を用いてオーディオ音楽要素データセットを生成しているが、原曲の一部を用いてもよい。この場合、取り込んだ原曲の音響波形データのうち、オーディオ音楽要素データセットを生成するために用いる部分を選択可能に構成するとよい。 Moreover, in the said embodiment, although the audio music element data set was produced | generated using the whole original music, you may use a part of original music. In this case, it is preferable that the portion used for generating the audio music element data set can be selected from the acquired acoustic waveform data of the original music.
また、オーディオ音楽要素データセットの各波形データに対し、ピッチを変更することなくテンポを変更する周知のアルゴリズムを適用しても良い。また、原曲の音響波形データ及びオーディオ音響波形データセットがネットワークを介してCPU12aに接続されたサーバーに記憶されていても良い。さらに、そのサーバーがオーディオ音楽要素データセットを生成するプログラムを実行し、その結果をCPU12aは利用できるようにしても良い。また、上記実施形態においては、コードを指定する際に鍵盤装置KYを用いているが、外部機器から受信したコードを表す情報を用いてもよい。
Further, a known algorithm for changing the tempo without changing the pitch may be applied to each waveform data of the audio music element data set. Further, the original acoustic waveform data and audio acoustic waveform data set may be stored in a server connected to the
BS・・・ブリッジスイッチ、PS・・・音楽要素スイッチ、ES・・・エンディングスイッチ、FS・・・フィルインスイッチ、IS・・・イントロスイッチ、KY・・・鍵盤装置、MS1・・・メインスイッチ、MS2・・・メインスイッチ、MS3・・・メインスイッチ、RS・・・リズムスイッチ、SS・・・セクション選択スイッチ、WM・・・波形メモリ、10・・・演奏装置、11・・・入力操作子、12・・・コンピュータ部、13・・・表示器、14・・・記憶装置、15・・・外部インターフェース回路、16・・・音源回路、17・・・サウンドシステム BS ... Bridge switch, PS ... Music element switch, ES ... Ending switch, FS ... Fill-in switch, IS ... Intro switch, KY ... Keyboard device, MS1 ... Main switch, MS2 ... main switch, MS3 ... main switch, RS ... rhythm switch, SS ... section selection switch, WM ... waveform memory, 10 ... performance device, 11 ... input operator , 12 ... Computer unit, 13 ... Display, 14 ... Storage device, 15 ... External interface circuit, 16 ... Sound source circuit, 17 ... Sound system
Claims (6)
楽曲を演奏して放音された演奏音の音響波形を表わす音響信号を取得する音響信号取得手段と、
前記音響信号に含まれる所定の音楽要素の音響波形を抽出するアルゴリズムに従って、前記音響信号から複数の前記所定の音楽要素の音響波形を抽出する音楽要素抽出手段と、
前記抽出した複数の音響波形を、前記複数の操作子にそれぞれ割り当てる割り当て手段と、
前記複数の操作子のうち操作されている1つの操作子を選択し、前記選択した操作子に割り当てられた音響波形を用いて、演奏パターンを表わす演奏パターンデータを生成する演奏パターンデータ生成手段と、
を備えた演奏装置。 Multiple controls,
An acoustic signal acquisition means for acquiring an acoustic signal representing an acoustic waveform of a performance sound emitted by playing a song;
Music element extraction means for extracting the acoustic waveforms of the plurality of predetermined music elements from the acoustic signal according to an algorithm for extracting the acoustic waveforms of the predetermined music elements included in the acoustic signal;
Assigning means for assigning the extracted plurality of acoustic waveforms to the plurality of operators, respectively;
Performance pattern data generating means for selecting one operating element among the plurality of operators and generating performance pattern data representing a performance pattern using an acoustic waveform assigned to the selected operator; ,
A performance device equipped with.
前記複数の操作子とは異なる操作子であって、前記演奏パターンデータを生成するか否かを設定する操作子を備えた、演奏装置。 The performance device according to claim 1,
A performance device comprising an operation element that is different from the plurality of operation elements and sets whether or not to generate the performance pattern data.
前記演奏パターンデータ生成手段は、前記複数の操作子のうち最後に操作された操作子を選択し、前記選択した操作子に割り当てられた音響波形を用いて、演奏パターンを表わす演奏パターンデータを生成する、演奏装置。 The performance device according to claim 1 or 2,
The performance pattern data generating means selects a last operated operator from the plurality of operators, and generates performance pattern data representing a performance pattern using an acoustic waveform assigned to the selected operator. A performance device.
前記音楽要素は、前記楽曲のリズムパートの演奏パターン又は前記楽曲のブリッジ部分の演奏パターンである、演奏装置。 The performance device according to any one of claims 1 to 3,
The performance device, wherein the music element is a performance pattern of a rhythm part of the music or a performance pattern of a bridge part of the music.
音響信号を取得する音響信号取得ステップと、
前記音響信号に含まれる所定の音楽要素の音響波形を抽出するアルゴリズムに従って、前記音響信号から複数の前記所定の音楽要素の音響波形を抽出する音楽要素抽出ステップと、
前記抽出した複数の音響波形を、前記複数の操作子にそれぞれ割り当てる割り当てステップと、
前記複数の操作子のうち操作されている1つの操作子を選択し、前記選択した操作子に割り当てられた音響波形を用いて、演奏パターンを表わす演奏パターンデータを生成する演奏パターンデータ生成ステップと、
を含む処理を実行させるコンピュータプログラム。 A computer program applied to a performance device having a plurality of operators, the computer included in the performance device,
An acoustic signal acquisition step of acquiring an acoustic signal;
A music element extraction step for extracting the acoustic waveforms of the plurality of predetermined music elements from the acoustic signal according to an algorithm for extracting the acoustic waveforms of the predetermined music elements included in the acoustic signal;
Assigning the extracted plurality of acoustic waveforms to the plurality of operators, respectively;
A performance pattern data generating step of selecting one operated operator from the plurality of operators and generating performance pattern data representing a performance pattern using an acoustic waveform assigned to the selected operator; ,
A computer program for executing a process including:
音響信号を取得する音響信号取得ステップと、
前記音響信号に含まれる所定の音楽要素の音響波形を抽出するアルゴリズムに従って、前記音響信号から複数の前記所定の音楽要素の音響波形を抽出する音楽要素抽出ステップと、
前記抽出した複数の音響波形を、前記複数の操作子にそれぞれ割り当てる割り当てステップと、
前記複数の操作子のうち操作されている1つの操作子を選択し、前記選択した操作子に割り当てられた音響波形を用いて、演奏パターンを表わす演奏パターンデータを生成する演奏パターンデータ生成ステップと、
を含む演奏パターンデータ生成方法。 A performance pattern data generation method applied to a performance device having a plurality of operators,
An acoustic signal acquisition step of acquiring an acoustic signal;
A music element extraction step for extracting the acoustic waveforms of the plurality of predetermined music elements from the acoustic signal according to an algorithm for extracting the acoustic waveforms of the predetermined music elements included in the acoustic signal;
Assigning the extracted plurality of acoustic waveforms to the plurality of operators, respectively;
A performance pattern data generating step of selecting one operated operator from the plurality of operators and generating performance pattern data representing a performance pattern using an acoustic waveform assigned to the selected operator; ,
A method for generating performance pattern data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018199110A JP6733720B2 (en) | 2018-10-23 | 2018-10-23 | Performance device, performance program, and performance pattern data generation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018199110A JP6733720B2 (en) | 2018-10-23 | 2018-10-23 | Performance device, performance program, and performance pattern data generation method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014144118A Division JP6424501B2 (en) | 2014-07-14 | 2014-07-14 | Performance device and performance program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019008336A true JP2019008336A (en) | 2019-01-17 |
JP6733720B2 JP6733720B2 (en) | 2020-08-05 |
Family
ID=65028925
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018199110A Active JP6733720B2 (en) | 2018-10-23 | 2018-10-23 | Performance device, performance program, and performance pattern data generation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6733720B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111916039A (en) * | 2019-05-08 | 2020-11-10 | 北京字节跳动网络技术有限公司 | Music file processing method, device, terminal and storage medium |
US20210225345A1 (en) * | 2020-01-17 | 2021-07-22 | Yamaha Corporation | Accompaniment Sound Generating Device, Electronic Musical Instrument, Accompaniment Sound Generating Method and Non-Transitory Computer Readable Medium Storing Accompaniment Sound Generating Program |
EP3929909A1 (en) | 2020-06-24 | 2021-12-29 | Casio Computer Co., Ltd. | Musical performance system, terminal device, electronic musical instrument and method |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6341198U (en) * | 1986-09-02 | 1988-03-17 | ||
JPH11344976A (en) * | 1998-03-31 | 1999-12-14 | Yamaha Corp | Remixing device and storage medium |
JP2000305572A (en) * | 1999-04-23 | 2000-11-02 | Roland Corp | Sound signal generating device |
JP2003131660A (en) * | 2001-10-29 | 2003-05-09 | Yamaha Corp | Music editing device of portable terminal and music editing program used for the portable terminal |
JP2004233965A (en) * | 2002-10-24 | 2004-08-19 | National Institute Of Advanced Industrial & Technology | Method and apparatus for detecting chorus section in music sound data and program for executing the method |
JP2008275975A (en) * | 2007-05-01 | 2008-11-13 | Kawai Musical Instr Mfg Co Ltd | Rhythm detector and computer program for detecting rhythm |
JP2010054802A (en) * | 2008-08-28 | 2010-03-11 | Univ Of Tokyo | Unit rhythm extraction method from musical acoustic signal, musical piece structure estimation method using this method, and replacing method of percussion instrument pattern in musical acoustic signal |
JP2012137755A (en) * | 2010-12-09 | 2012-07-19 | Yamaha Corp | Sound signal generating device and program |
JP2012203216A (en) * | 2011-03-25 | 2012-10-22 | Yamaha Corp | Accompaniment data generation device and program |
JP2012203219A (en) * | 2011-03-25 | 2012-10-22 | Yamaha Corp | Accompaniment data generation device and program |
JP2014006416A (en) * | 2012-06-26 | 2014-01-16 | Yamaha Corp | Automatic performance device and program |
JP2014029425A (en) * | 2012-07-31 | 2014-02-13 | Yamaha Corp | Accompaniment progress generation device and program |
-
2018
- 2018-10-23 JP JP2018199110A patent/JP6733720B2/en active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6341198U (en) * | 1986-09-02 | 1988-03-17 | ||
JPH11344976A (en) * | 1998-03-31 | 1999-12-14 | Yamaha Corp | Remixing device and storage medium |
JP2000305572A (en) * | 1999-04-23 | 2000-11-02 | Roland Corp | Sound signal generating device |
JP2003131660A (en) * | 2001-10-29 | 2003-05-09 | Yamaha Corp | Music editing device of portable terminal and music editing program used for the portable terminal |
JP2004233965A (en) * | 2002-10-24 | 2004-08-19 | National Institute Of Advanced Industrial & Technology | Method and apparatus for detecting chorus section in music sound data and program for executing the method |
JP2008275975A (en) * | 2007-05-01 | 2008-11-13 | Kawai Musical Instr Mfg Co Ltd | Rhythm detector and computer program for detecting rhythm |
JP2010054802A (en) * | 2008-08-28 | 2010-03-11 | Univ Of Tokyo | Unit rhythm extraction method from musical acoustic signal, musical piece structure estimation method using this method, and replacing method of percussion instrument pattern in musical acoustic signal |
JP2012137755A (en) * | 2010-12-09 | 2012-07-19 | Yamaha Corp | Sound signal generating device and program |
JP2012203216A (en) * | 2011-03-25 | 2012-10-22 | Yamaha Corp | Accompaniment data generation device and program |
JP2012203219A (en) * | 2011-03-25 | 2012-10-22 | Yamaha Corp | Accompaniment data generation device and program |
JP2014006416A (en) * | 2012-06-26 | 2014-01-16 | Yamaha Corp | Automatic performance device and program |
JP2014029425A (en) * | 2012-07-31 | 2014-02-13 | Yamaha Corp | Accompaniment progress generation device and program |
Non-Patent Citations (1)
Title |
---|
第3回 NATIVE INSTRUMENTS 速攻企画 MASCHINEでリズム&フレーズ作り!, JPN7019003553, 5 October 2010 (2010-10-05), ISSN: 0004149400 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111916039A (en) * | 2019-05-08 | 2020-11-10 | 北京字节跳动网络技术有限公司 | Music file processing method, device, terminal and storage medium |
CN111916039B (en) * | 2019-05-08 | 2022-09-23 | 北京字节跳动网络技术有限公司 | Music file processing method, device, terminal and storage medium |
US11514923B2 (en) | 2019-05-08 | 2022-11-29 | Beijing Bytedance Network Technology Co., Ltd. | Method and device for processing music file, terminal and storage medium |
US20210225345A1 (en) * | 2020-01-17 | 2021-07-22 | Yamaha Corporation | Accompaniment Sound Generating Device, Electronic Musical Instrument, Accompaniment Sound Generating Method and Non-Transitory Computer Readable Medium Storing Accompaniment Sound Generating Program |
US11955104B2 (en) * | 2020-01-17 | 2024-04-09 | Yamaha Corporation | Accompaniment sound generating device, electronic musical instrument, accompaniment sound generating method and non-transitory computer readable medium storing accompaniment sound generating program |
EP3929909A1 (en) | 2020-06-24 | 2021-12-29 | Casio Computer Co., Ltd. | Musical performance system, terminal device, electronic musical instrument and method |
US12106741B2 (en) | 2020-06-24 | 2024-10-01 | Casio Computer Co., Ltd. | Musical performance system, terminal device, method and electronic musical instrument |
Also Published As
Publication number | Publication date |
---|---|
JP6733720B2 (en) | 2020-08-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9536508B2 (en) | Accompaniment data generating apparatus | |
US20110185881A1 (en) | Automatic accompanying apparatus and computer readable storing medium | |
JP6733720B2 (en) | Performance device, performance program, and performance pattern data generation method | |
JP4321476B2 (en) | Electronic musical instruments | |
JP6175812B2 (en) | Musical sound information processing apparatus and program | |
JP3915807B2 (en) | Automatic performance determination device and program | |
JP5061926B2 (en) | Electronic music apparatus and performance data editing display program | |
WO2014025041A1 (en) | Device and method for pronunciation allocation | |
US11955104B2 (en) | Accompaniment sound generating device, electronic musical instrument, accompaniment sound generating method and non-transitory computer readable medium storing accompaniment sound generating program | |
JP6424501B2 (en) | Performance device and performance program | |
JP4978177B2 (en) | Performance device, performance realization method and program | |
JP2016161900A (en) | Music data search device and music data search program | |
JP6554826B2 (en) | Music data retrieval apparatus and music data retrieval program | |
JP4062314B2 (en) | Automatic performance device and program | |
JP3775390B2 (en) | Performance setting data selection device, performance setting data selection method, and recording medium | |
JP3775386B2 (en) | Performance setting data selection device, performance setting data selection method, and recording medium | |
JP5104414B2 (en) | Automatic performance device and program | |
JP2009216769A (en) | Sound processing apparatus and program | |
JP3775388B2 (en) | Performance setting data selection device, performance setting data selection method, and recording medium | |
JP3775039B2 (en) | Melody generator and recording medium | |
JP3988668B2 (en) | Automatic accompaniment device and automatic accompaniment program | |
JP4900233B2 (en) | Automatic performance device | |
JP5104293B2 (en) | Automatic performance device | |
JP3738634B2 (en) | Automatic accompaniment device and recording medium | |
JP3775387B2 (en) | Performance setting data selection device, performance setting data selection method, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181023 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190926 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191112 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200106 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200609 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200622 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6733720 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313532 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |