JP2636685B2 - Music event index creation device - Google Patents
Music event index creation deviceInfo
- Publication number
- JP2636685B2 JP2636685B2 JP5181475A JP18147593A JP2636685B2 JP 2636685 B2 JP2636685 B2 JP 2636685B2 JP 5181475 A JP5181475 A JP 5181475A JP 18147593 A JP18147593 A JP 18147593A JP 2636685 B2 JP2636685 B2 JP 2636685B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- score
- matching
- spectrum
- window
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Auxiliary Devices For Music (AREA)
- Electrophonic Musical Instruments (AREA)
Description
【0001】[0001]
【産業上の利用分野】本発明は、CDやDATなどのメ
ディアに記録された演奏と、それに対応する楽譜との間
の、時刻的な対応関係を抽出する装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus for extracting a time correspondence between a performance recorded on a medium such as a CD or a DAT and a corresponding musical score.
【0002】[0002]
【従来の技術】近年、記録デバイスの高密度大容量化な
どにともなって、コンピュータのマルチメディア化が進
み、テキスト情報の他に音声や動画などをコンピュータ
で取り扱う機会が増えている。それらのメディアを統合
的に使用する際には、時刻進行型のメディア、例えば音
楽や動画などの間で同期をとる場合が多い。2. Description of the Related Art In recent years, as recording devices have increased in density and capacity, the use of multimedia in computers has increased, and in addition to text information, opportunities for handling sounds, moving images, and the like by computers have increased. When these media are used in an integrated manner, synchronization is often made between time-progress media, for example, music and moving images.
【0003】その中で、特に音楽については古来よりの
表現として楽譜があり、現代でも広く音楽の情報を記述
する方法として用いられている。表現方法のもう一つの
代表としては演奏のオーディオ信号記録があるが、楽譜
と演奏の間には時間及び時刻についての差が存在する。
楽譜と音声メディアとの間の同期には、楽譜に記述され
ている音楽イベントと演奏の中での位置の対応付けが必
要であるが、現状では、手動で対応する時刻を計測する
ケースが多い。そのため、マルチメディアを有効に用い
た音楽パッケージソフト、特に音楽と譜面をはじめとす
るメディアとを結合したソフトを作成する際に大きな問
題となっている。[0003] Among them, especially music has a musical score as an expression since ancient times, and it is widely used even in modern times as a method of describing music information. Another representative expression method is the recording of an audio signal of a performance, but there is a difference in time and time between a musical score and a performance.
Synchronization between a musical score and audio media requires a correspondence between a musical event described in the musical score and a position in the performance, but currently, in many cases, the corresponding time is measured manually. . For this reason, there is a serious problem in creating music package software that effectively uses multimedia, especially software that combines music and media such as music.
【0004】楽譜上の音楽イベントと演奏の対応を求め
る方法としては高見らの方法(ピアノ演奏における演奏
情報の抽出、電子情報通信学会論文誌D−II Vo
l.J72−D−II No.6,917頁から926
頁、以下文献1)がある。文献1では、対象をピアノに
限定して、楽譜上の音符表現と演奏における揺らぎの抽
出を行なっており、その副次的な結果として、ある音符
の楽譜上と演奏中の位置の対応が得られている。ただ
し、文献1で用いられている方法では、楽器がピアノに
限定されていること、また音の立ち上がり及び立ち下が
りを求めるための余分な計算時間がかかっていた。As a method for determining the correspondence between a musical event on a musical score and a performance, Takami et al. (Extraction of performance information in piano performance, IEICE Transactions D-II Vo)
l. J72-D-II No. 6,917 to 926
Page 1). In Literature 1, the object is limited to the piano, and the musical note expression on the score and the fluctuation in the performance are extracted. As a secondary result, the correspondence between the note on the musical score and the position during the performance is obtained. Have been. However, in the method used in Reference 1, the musical instrument is limited to the piano, and extra calculation time is required to find the rise and fall of the sound.
【0005】対象楽器の単一楽器への限定は、和音が演
奏された時に、個々の音程を同定しやすくするための条
件である。しかし、オーケストラをはじめとして、複数
種類の楽器による演奏も多数存在するために、楽器の限
定は実用性を欠く。また、楽器に依存しない複数音程認
識としては、従来あらかじめ演奏内容が与えられないと
いう前提で得られる精度の低いものしかなく、また、計
算量も多かった。The limitation of the target musical instrument to a single musical instrument is a condition for making it easy to identify individual musical intervals when a chord is played. However, since there are many performances by a plurality of types of musical instruments such as orchestras, the limitation of musical instruments lacks practicality. In addition, as for multi-pitch recognition that does not depend on musical instruments, only low-accuracy ones conventionally obtained on the premise that performance contents are not given in advance have been used, and the amount of calculation has been large.
【0006】[0006]
【発明が解決しようとする課題】本発明の目的は、対象
楽器の範囲をピアノ以外にも拡大し、また、少ない計算
量で楽譜と演奏の対応抽出を行なう装置を提供すること
にある。SUMMARY OF THE INVENTION It is an object of the present invention to provide an apparatus for expanding the range of a target musical instrument to other than a piano and for extracting correspondence between a musical score and a performance with a small amount of calculation.
【0007】[0007]
【課題を解決するための手段】本発明の音楽イベントイ
ンデックス作成装置は、音楽を記録した録音メディア上
のオーディオデータ中の音符として表現し得る音と楽譜
上の音符の間の互いに対応する位置として演奏の経過時
刻と楽譜上での時刻に相当する指標との対応を検出する
装置であって、音楽のオーディオデータを入力するオー
ディオデータ入力手段と、前記オーディオデータ入力手
段から得られるデータ内の時間的に一部を選択出力する
セグメント窓部と、前記セグメント窓部の出力するデー
タから周波数スペクトルを作成するスペクトル作成部
と、利用者が楽譜を入力する楽譜データ入力手段と、前
記楽譜データ入力手段に与えられるデータから時間的に
一部を選択出力する楽譜窓部と、前記楽譜窓部が出力す
る部分楽譜に対応する周波数スペクトルを合成するスペ
クトル合成部と、前記スペクトル作成部が出力する周波
数スペクトルと前記スペクトル合成部が出力する周波数
スペクトルを比較しマッチの度合いが低ければマッチの
度合いのみを、また度合いが高ければ前記セグメント窓
部の中央時刻と前記楽譜窓部の出力する楽譜窓の先頭の
時刻情報を出力するマッチング部と、前記マッチング部
が出力するマッチの度合いに応じて前記セグメント窓部
と前記楽譜窓部のうち少なくとも一方の窓を移動させる
マッチング制御部と、前記マッチング部が出力する前記
セグメント窓部からの時刻と前記楽譜窓部からの時刻を
演奏と楽譜の局部的な対応時刻情報として記録するマッ
チング記録部と、を有することを特徴とする。According to the present invention, there is provided a music event index creating apparatus which records music on a recording medium on which music is recorded.
And music that can be expressed as notes in audio data
During the performance of the performance as the corresponding positions between the notes above
Detect the correspondence between the time and the index corresponding to the time on the score
An apparatus comprising: audio data input means for inputting the audio data of the music, and the segment window for selecting and outputting a time-part of the data obtained from the audio data input means, outputs of the segment window A spectrum creation unit for creating a frequency spectrum from data, a score data input unit for a user to input a score, a score window unit for selectively outputting a part of the data from the data provided to the score data input unit in time, A spectrum synthesizer for synthesizing a frequency spectrum corresponding to the partial score output by the score window; and a frequency spectrum output by the spectrum generator and a frequency spectrum output by the spectrum synthesizer. Only the degree, or if the degree is high, the center time of the segment window and the A matching unit for outputting first time information of the musical score window for outputting the Fumado unit, wherein the matching unit
The segment window according to the degree of match output by
And move at least one of the musical score windows
A matching control unit and the matching unit outputs
The time from the segment window and the time from the score window
A record that is recorded as local corresponding time information of performances and scores.
And a channel recording unit .
【0008】[0008]
【作用】本発明の基本的な原理は、オーディオ記録から
得られた周波数スペクトルと楽譜から求める周波数スペ
クトルを比較することで従来問題であった音程同定問題
を回避して整合させることにある。また、音程同定を行
なわないことで、従来音程同定にかかっていた計算を全
て省略でき、結果として計算時間も短くなる。The basic principle of the present invention is to compare the frequency spectrum obtained from the audio recording with the frequency spectrum obtained from the musical score to avoid the pitch identification problem which has been a problem in the past, and to match them. Further, by not performing pitch identification, all calculations conventionally required for pitch identification can be omitted, and as a result, the calculation time is shortened.
【0009】[0009]
【実施例】図1は本発明による音楽インデックス作成装
置の一実施例を示すブロック図である。FIG. 1 is a block diagram showing an embodiment of a music index creating apparatus according to the present invention.
【0010】利用者は、A/Dデータ入力手段11に楽
曲の演奏をデジタイズしたオーディオデータを与え、楽
譜データ生成手段15には対応する楽譜情報を与える。
与えるべきオーディオデータとしては、例えば、音楽C
Dなどの記録データ、DATなどに収録したデータがあ
る。また、与えられるべき楽譜データとしては、反復な
どの記号を含んだ譜面の電子表現やMIDIデータなど
が考えられる。The user provides the A / D data input means 11 with audio data obtained by digitizing the performance of the music, and the musical score data generating means 15 with the corresponding musical score information.
As audio data to be given, for example, music C
There are recorded data such as D and data recorded in DAT. The musical score data to be given may be an electronic representation of a musical score including symbols such as repetition, MIDI data, or the like.
【0011】セグメント窓部12では、A/Dデータ入
力手段11に与えられたオーディオデータの一区間を取
り出し出力する。The segment window section 12 extracts and outputs one section of the audio data provided to the A / D data input means 11.
【0012】スペクトル作成部13ではセグメント窓部
12が出力するデータから音階毎のパワースペクトルを
作成する。パワースペクトルを作成する方法としては、
フーリエ変換や自己相関係数など、既知の方法がある。The spectrum creating section 13 creates a power spectrum for each musical scale from the data output from the segment window section 12. To create a power spectrum,
There are known methods such as Fourier transform and autocorrelation coefficient.
【0013】楽譜データ入力部16では楽譜データ生成
手段15に与えられた楽譜情報から、反復などの音楽表
現記号を音階・強さ・タイミング・楽器の種類などを時
間方向に展開した表現へ変換する。A musical score data input unit 16 converts musical expression symbols such as repetitions into musical expressions, scales, strengths, timings, types of musical instruments, etc., which are expanded in the time direction from the musical score information given to the musical score data generating means 15. .
【0014】楽譜窓部17では楽譜データ入力部16で
変換した表現のうち、時刻的に一区間を取りだし出力す
る。The score window 17 takes out one section in time from the expression converted by the score data input section 16 and outputs it.
【0015】スペクトル合成部110では楽譜窓部17
から出力される楽譜データと、あらかじめ楽器別・音域
別に用意された倍音スペクトルパターンを用いて、該当
する区間の予想スペクトルパターンを合成して出力す
る。また、倍音スペクトルパターンとして、時刻推移に
伴う倍音構成の変化に対応してスペクトルパターンを用
いることも可能である。In the spectrum synthesizing section 110, the musical score window section 17
Using the musical score data output from, and overtone spectral patterns prepared in advance for each musical instrument and range, a predicted spectral pattern for the corresponding section is synthesized and output. Further, it is also possible to use a spectrum pattern corresponding to a change in the harmonic composition with time transition as the harmonic spectrum pattern.
【0016】マッチング部18では、スペクトル作成部
13とスペクトル合成部110が出力するスペクトルを
比較し両者の差異があらかじめ定められたより小さくな
った場合を十分マッチングした状態、それ以外の場合を
マッチング不十分な状態と判断する。マッチング十分時
にはセグメント窓部12で設けたセグメント窓の中心に
相当する時刻を出力する。The matching section 18 compares the spectrums output from the spectrum creating section 13 and the spectrum synthesizing section 110, and if the difference between the two is smaller than a predetermined value, the matching is sufficiently performed. Otherwise, the matching is insufficient. Is determined to be in a good state. When the matching is sufficient, a time corresponding to the center of the segment window provided in the segment window section 12 is output.
【0017】マッチング結果記録部19はマッチング部
18が出力する時刻を楽譜データ入力部の対応する音符
に合わせてメモリあるいは外部記憶装置に記録する。The matching result recording unit 19 records the time output by the matching unit 18 in a memory or an external storage device in accordance with the corresponding note in the musical score data input unit.
【0018】マッチング制御部14はマッチング部18
のマッチング結果に従い、マッチング不十分にはセグメ
ント窓を時間軸の増加方向に移動して再度マッチングを
試み、また十分マッチする場合には楽譜窓、セグメント
窓を移動させる。The matching control unit 14 includes a matching unit 18
If the matching is insufficient, the segment window is moved in the increasing direction of the time axis and the matching is tried again. If the matching is sufficient, the score window and the segment window are moved.
【0019】マッチング部18は、例えば、図2の
(a),(b),(c)それぞれに示す構成で実現す
る。The matching section 18 is realized, for example, by the configurations shown in FIGS. 2 (a), 2 (b) and 2 (c).
【0020】(a)においては、スペクトル作成部13
及びスペクトル合成部110より得られるスペクトルを
ベクトルとみなした場合の距離、例えばユークリッド距
離を距離比較部21で計算し、あらかじめ用意されたし
きい値と比較した場合の数値の大小でマッチングを行な
う。In (a), the spectrum creating section 13
The distance when the spectrum obtained from the spectrum synthesizing unit 110 is regarded as a vector, for example, the Euclidean distance, is calculated by the distance comparing unit 21, and matching is performed based on the magnitude of the numerical value when compared with a prepared threshold value.
【0021】(b)においては、スペクトル作成部13
およびスペクトル合成部110それぞれの出力を一定期
間バッファリングするリングバッファとして演奏スペク
トルバッファ22と楽譜スペクトルバッファ23が用意
され、その両者を用いてDPマッチング部24でDPマ
ッチングを行なうことで両スペクトルのマッチングを取
る。DPマッチングについては、例えば、文献「音声情
報処理の基礎」187頁から190頁(オーム社刊)に
詳しい。DPマッチングでは標準パターン及び比較する
対象のベクトルの距離関数が必要であるが、これには例
えば両者をそれぞれ正規化したベクトルの内積の絶対値
を単位ベクトルの大きさから引いた数値などを整合のた
めの評価関数として用いる。In (b), the spectrum creating unit 13
A performance spectrum buffer 22 and a musical score spectrum buffer 23 are prepared as a ring buffer for buffering the output of each of the spectrum synthesizing units 110 for a certain period of time, and the DP matching is performed by the DP matching unit 24 using both of them. I take the. The DP matching is described in detail in, for example, the document “Basics of Speech Information Processing”, pages 187 to 190 (published by Ohmsha). DP matching requires a distance function between a standard pattern and a vector to be compared. For example, a value obtained by subtracting the absolute value of the inner product of the vectors obtained by normalizing the two from the unit vector size is used for matching. Used as an evaluation function for
【0022】(c)においては、演奏スペクトルバッフ
ァ22と同様な演奏スペクトルバッファ25、および、
楽譜スペクトルバッファ23と同様な楽譜スペクトルバ
ッファ27が存在している。音符密度計算部26は、楽
譜の単位時間あたりの密度に応じてセグメント窓部12
で求めるスペクトルのセグメント窓の移動長を決定し、
マッチング制御部14を通じてスペクトルを計算する頻
度を制御し、最終的にはスペクトル作成部13及びスペ
クトル合成部110に接続された両バッファ部を用いて
(b)と同様にDPマッチング部28においてDPマッ
チングを用いてマッチングを行なう。In (c), a performance spectrum buffer 25 similar to the performance spectrum buffer 22, and
A musical score spectrum buffer 27 similar to the musical score spectrum buffer 23 exists. The note density calculation unit 26 controls the segment window unit 12 according to the density of the musical score per unit time.
Determine the moving length of the segment window of the spectrum determined by
The frequency of spectrum calculation is controlled through the matching control unit 14. Finally, DP matching is performed in the DP matching unit 28 using both the buffer units connected to the spectrum creating unit 13 and the spectrum synthesizing unit 110 as in (b). Is used for matching.
【0023】次に、動作時の処理の流れについて、図3
に示す波形に対応するディジタル入力と図4に示す楽譜
入力とをマッチングさせる場合について説明する。ここ
で、上記(a),(b),(c)のそれぞれを用いた実
施例においては、動作タイミングを制御しているマッチ
ング制御部はマッチング部とインタラクティブな制御関
係にある。そのため、個々の部分の動作は同じでも全体
のタイミングが異なり得るため、以下に(a),
(b),(c)を用いた場合それぞれについて全体の動
作タイミングを説明する。Next, the flow of processing during operation will be described with reference to FIG.
The case where the digital input corresponding to the waveform shown in FIG. 4 is matched with the musical score input shown in FIG. Here, in the embodiment using each of the above (a), (b), and (c), the matching control section that controls the operation timing has an interactive control relationship with the matching section. Therefore, even though the operation of each part is the same, the overall timing may be different.
The overall operation timing for each of the cases (b) and (c) will be described.
【0024】まず、マッチング部18が図2(a)の構
成である場合について説明する。First, the case where the matching unit 18 has the configuration shown in FIG. 2A will be described.
【0025】1.動作開始時には、使用者はA/Dデー
タ入力手段11に、演奏のオーディオ信号を量子化した
データを時刻順に与える。また、使用者は楽譜データ生
成手段15には、該データとマッチングを取るべき楽譜
情報を与える。与えられた楽譜情報は楽譜データ入力部
16に与えられた楽譜データを、本装置での処理に適し
た形式に変換する。処理に適した形式とは、すなわち、
与えられた楽譜の情報のうち、少なくとも音程の情報、
発音される絶対または相対的な時刻および時間の情報を
含む形式である。その他の情報、例えば演奏楽器などの
種類は適宜取捨して変換する。具体的な形式の一つとし
ては、たとえば標準MIDIファイルフォーマットがあ
げられる。図5に図4を標準MIDIファイルフォーマ
ットに変換した例を示す。ただし、図5は、標準MID
Iファイルフォーマットのタイプ0またはタイプ1のM
Trkチャンクのみを示している。ここで、楽器の種類
を指定する場合には、MTrkチャンクの先頭にFF0
4より始まるメタイベントとして楽器名を記述すること
ができる。なお、標準MIDIファイルフォーマットの
詳細は、株式会社リットーミュージック刊”キーボード
マガジン”誌第14巻12号別冊”スタンダードMID
Iファイル・ハンドブック”に詳しい。1. At the start of the operation, the user provides the A / D data input means 11 with data obtained by quantizing the audio signal of the performance in chronological order. Further, the user gives the musical score data generating means 15 musical score information to be matched with the data. The given musical score information converts the musical score data supplied to the musical score data input unit 16 into a format suitable for processing in the present apparatus. The format suitable for processing is:
Among the information of the given music score, at least the information of the pitch,
It is a format that contains absolute and relative time and time information to be pronounced. Other information, such as the type of musical instrument, is discarded and converted as appropriate. One of the specific formats is, for example, a standard MIDI file format. FIG. 5 shows an example in which FIG. 4 is converted into a standard MIDI file format. However, FIG. 5 shows the standard MID
I file format type 0 or type 1 M
Only the Trk chunk is shown. Here, when specifying the type of instrument, FF0 is added to the head of the MTrk chunk.
A musical instrument name can be described as a meta event starting from 4. For details of the standard MIDI file format, see Ritto Music Co., Ltd., “Keyboard Magazine”, Vol.
I File Handbook ".
【0026】2.A/Dデータ入力手段11及び楽譜デ
ータ生成手段15にデータが揃った後に、マッチング部
18は、マッチング制御部14に対し、A/Dデータの
最初のセグメントの出力要求、及び楽譜データの最初の
音の出力要求を発行する。2. After the A / D data input unit 11 and the score data generating unit 15 have the data, the matching unit 18 requests the matching control unit 14 to output the first segment of the A / D data and the first segment of the score data. Issues a sound output request.
【0027】3.マッチング制御部14では、受けとっ
た要求をそれぞれ、セグメント窓部12、楽譜窓部17
に送った後、マッチング部18が出力するマッチング結
果を待つ。3. The matching control unit 14 receives the received requests from the segment window unit 12 and the score window unit 17 respectively.
, And waits for a matching result output by the matching unit 18.
【0028】4.セグメント窓部12では、要求に基づ
き、A/Dデータ入力手段11から得られるデータの最
初のセグメントをスペクトル作成部13へと出力する。
この時のセグメントの大きさは、あらかじめシステム内
で指定しておくか、もしくは使用者が直接または間接的
に装置に指定しておくものとする。スペクトル作成部1
3では、セグメント窓部12から受け取ったセグメント
についてのパワースペクトルを計算し、マッチング部1
8に出力する。4. The segment window unit 12 outputs the first segment of the data obtained from the A / D data input unit 11 to the spectrum creation unit 13 based on the request.
The size of the segment at this time is specified in the system in advance, or the user directly or indirectly specifies the size of the device. Spectrum creator 1
In 3, the power spectrum of the segment received from the segment window unit 12 is calculated, and the matching unit 1
8 is output.
【0029】5.一方、楽譜窓部17では、受け取った
要求に基づき、最初の音について少なくとも、音程のデ
ータを、スペクトル合成部110へ出力する。この時に
は、元の楽譜情報または楽譜データ入力部で識別された
音程以外の情報をスペクトル合成部110へ、適宜取捨
出力する。また、複数パートによる演奏など、一般に和
音として扱われる情報は、同一時刻で鳴っているもの全
てをスペクトル合成部110に渡す。スペクトル合成部
110では、楽譜窓部17より得られた音程情報及び付
加的な情報を用いて予想パワースペクトルを合成し、マ
ッチング部18へ出力する。この時、楽譜窓部17より
渡された付加的な情報が楽器の種類や音色を指定してい
る場合には、それに応じて倍音スペクトルパターンを用
いて予想スペクトルパターンを作成する。また、この
時、スペクトル合成部110は、内部状態として用いた
スペクトルパターンと、その発音の譜面上での時刻を記
録する。このタイミングは以降、新たなスペクトルを合
成する際に用いられる。尚、本発明においては、前述し
た通り、絶対または相対的な時刻及び時間の情報を含む
形式を楽譜データとして内部で使用する。具体的な例と
して挙げた標準MIDIファイルフォーマットでは、こ
れらの時刻及び時間は通常用いられる「時(あるいは時
間)・分・秒」のように表されることもあり、また、同
フォーマットのデータを処理する機器で具体的な「物理
時間」を設定することで物理的あるいは日常用いる「時
(あるいは時間)・分・秒」に変換することができるテ
ィック(tick、刻み)と呼ばれる単位のみを用いて
表されることもある。本願発明では、楽譜上の位置を同
定するために時刻情報を用いるが、これは、物理時間・
時刻、日常的な時間・時刻、あるいはtickである。
スペクトル合成部110は受け取った音程データなどの
時刻として、これらtick等により表されるものをそ
の発音の時刻としてスペクトル合成部110の内部に前
述のスペクトルパターンとともに記録する。この記録さ
れた時刻は、後述の結果がマッチする場合、マッチしな
い場合において、それまで処理された音程データを知る
ための時刻として用いられる。 5. On the other hand, the musical score window unit 17 outputs at least pitch data of the first sound to the spectrum synthesizing unit 110 based on the received request. At this time, information other than the original musical score information or the pitch identified by the musical score data input unit is output to the spectrum synthesizing unit 110 as appropriate. In addition, information that is generally treated as a chord, such as performances by a plurality of parts, is transmitted to the spectrum synthesizing unit 110 for all sounds that are sounding at the same time. The spectrum synthesizing unit 110 synthesizes an expected power spectrum using the pitch information obtained from the musical score window unit 17 and the additional information, and outputs the synthesized power spectrum to the matching unit 18. At this time, if the additional information passed from the score window section 17 specifies the type or tone of the musical instrument, an expected spectrum pattern is created using the overtone spectrum pattern accordingly. At this time, the spectrum synthesizing unit 110 records the spectrum pattern used as the internal state and the time of the pronunciation on the musical score. This timing is used later when synthesizing a new spectrum. Note that, in the present invention,
Includes absolute or relative time and time information, as
Use the format internally as score data. Specific examples and
The standard MIDI file format
These times and times are commonly used as "hours (or hours)
Interval / minute / second).
Specific “physical”
By setting the "time", you can use the "time"
(Or hours) / minutes / seconds ”
Using only units called ticks
Sometimes represented. In the present invention, the position on the score is the same.
Time information is used to determine
Time, daily time / time, or tick.
The spectrum synthesizer 110 converts the received pitch data
The time represented by such a tick is used as the time.
Before the sound of the
It is recorded together with the aforementioned spectral pattern. This recorded
Time is not matched if the result described later matches.
To know the pitch data processed so far
Is used as the time for
【0030】6.マッチング部18は、スペクトル作成
部13とスペクトル合成部110からそれぞれパワース
ペクトル、予想パワースペクトルを受け取り、両者のマ
ッチングを行なう。この結果がマッチしない場合には、
マッチング部18は、マッチング制御部14にマッチン
グ結果を返し、スペクトル作成部110からの新しいデ
ータを持つ。結果がマッチした場合の動作については以
下の8で後述する。6. The matching unit 18 receives the power spectrum and the expected power spectrum from the spectrum creating unit 13 and the spectrum synthesizing unit 110, respectively, and matches them. If this does not match,
The matching unit 18 returns a matching result to the matching control unit 14 and has new data from the spectrum creating unit 110. The operation when the result matches will be described later in Section 8 below.
【0031】7.マッチング制御部14は、マッチング
結果がマッチしなかった場合には、セグメント窓部12
に対しセグメント窓移動の要求を出す。セグメント窓部
12では、あらかじめ設定された移動量だけ、時間軸の
増加方向に移動させて、新しいセグメントをスペクトル
作成部13に出力する。スペクトル作成部13では、直
前の場合と同様にパワースペクトルを計算し、新たなパ
ワースペクトルをもとめ、マッチング部18へと出力す
る。マッチング18では、新たに得られたパワースペク
トルと、予想スペクトルのマッチングを行なう。この結
果が異なっていた場合は、マッチング制御部14にマッ
チング結果を返して、スペクトル作成部110からの新
しいデータを持ち、7を繰り返す。最終的にはマッチン
グ結果が整合を示すまで、セグメント窓の移動とスペク
トル作成を繰り返す。整合するセグメントが演奏データ
から得られる前に演奏データがなくなる場合には、動作
を終了する。7. If the matching result does not match, the matching control unit 14
Request to move the segment window. In the segment window unit 12, a new segment is output to the spectrum creation unit 13 by moving the time segment in the increasing direction of the time axis by a predetermined movement amount. The spectrum creating unit 13 calculates a power spectrum in the same manner as in the immediately preceding case, finds a new power spectrum, and outputs the new power spectrum to the matching unit 18. In the matching 18, matching between the newly obtained power spectrum and the expected spectrum is performed. If the result is different, the matching result is returned to the matching control unit 14 and new data is received from the spectrum creating unit 110, and 7 is repeated. Eventually, the movement of the segment window and the spectrum creation are repeated until the matching result indicates a match. If there is no performance data before a matching segment is obtained from the performance data, the operation is terminated.
【0032】 8.結果がマッチした場合には、演奏デ
ータ先頭から測った該セグメントの先頭の時刻と、楽譜
窓部17で扱っている音程データの時刻を元の楽譜情報
の先頭より測った時刻としてマッチング記録部19に出
力する。出力完了の後、マッチング部18はマッチング
制御部14にマッチの結果を返し、楽譜窓の先頭を次の
音符へと移動し、新たなパワースペクトル及び予想パワ
ースペクトルを要求し、動作は3からの繰り返しにな
る。このように楽譜窓を移動することによって、楽譜窓
の先頭は常に現在マッチングを行っている音符を示すこ
ととなり、上述の「楽譜窓部17で扱っている音程デー
タの時刻」は、楽譜窓の先頭の時刻情報となる。 [0032] 8. If the result matches, the matching recording unit 19 sets the time at the beginning of the segment measured from the beginning of the performance data and the time of the pitch data handled by the score window unit 17 as the time measured from the beginning of the original score information. Output to After the output is completed, the matching unit 18 performs matching.
The result of the match is returned to the control unit 14, and the top of the score window is
Move to notes, new power spectrum and expected power
-Request a spectrum and the operation repeats from 3
You. By moving the score window in this way, the score window
Always indicates the note currently being matched.
And the above-mentioned “pitch data handled by the score window section 17”.
The “time of data” is the time information at the top of the score window.
【0033】ここで、データが終了して、楽譜窓もしく
はセグメント窓の移動が不可能になった場合には動作を
終了する。データの終了まで、上記の操作を繰り返すこ
とで、マッチング記録部19には演奏データ中での時刻
と、楽譜上での位置のペアが、次々と得られていくこと
になる。Here, when the data ends and it becomes impossible to move the score window or the segment window, the operation is ended. By repeating the above operation until the end of the data, pairs of the time in the performance data and the position on the musical score are successively obtained in the matching recording unit 19.
【0034】次に、マッチング部18が図2(b)の構
成である場合について説明する。Next, the case where the matching unit 18 has the configuration shown in FIG. 2B will be described.
【0035】1.動作開始時には、(a)の場合と同様
に、使用者はA/Dデータ入力手段11に、演奏のオー
ディオ信号を量子化したデータを時刻順に与える。ま
た、使用者は楽譜データ生成手段15には、該データと
マッチングを取るべき楽譜情報を与える。与えられた楽
譜情報は楽譜データ入力部16に与えられた楽譜データ
を、本装置での処理に適した、(a)の場合と同様な形
式に変換する。1. At the start of the operation, the user provides the A / D data input means 11 with quantized data of the audio signal of the performance in the order of time, as in the case of (a). Further, the user gives the musical score data generating means 15 musical score information to be matched with the data. The given musical score information converts the musical score data supplied to the musical score data input unit 16 into a format suitable for processing by the present apparatus and similar to that of the case (a).
【0036】2.A/Dデータ入力手段11及び楽譜デ
ータ生成手段15にデータが揃った後に、マッチング部
18は、マッチング制御部14に対し、A/Dデータの
先頭から数セグメント分のセグメントの出力要求、及び
楽譜データの最初からいくつか分の音の出力要求を発行
する。これらのセグメント数及び音数はあらかじめシス
テム内に設定しておくか、ユーザが動作開始時に楽譜デ
ータなどと合わせて入力するものとする。2. After the A / D data input unit 11 and the score data generating unit 15 have the data, the matching unit 18 requests the matching control unit 14 to output a few segments from the beginning of the A / D data, Issues a sound output request for a few minutes from the beginning of the data. It is assumed that the number of segments and the number of sounds are set in the system in advance, or that the user inputs together with music data at the start of the operation.
【0037】3.マッチング制御部14では、受けとっ
た要求をそれぞれ、セグメント窓部12、楽譜窓部17
に送った後、マッチング部18が出力するマッチング結
果を待つ。3. The matching control unit 14 receives the received requests from the segment window unit 12 and the score window unit 17 respectively.
, And waits for a matching result output by the matching unit 18.
【0038】4.セグメント窓部12では、A/Dデー
タ入力手段11から得られるセグメントを、要求にされ
た数だけ、順にスペクトル作成部13へと出力する。こ
の時のセグメントの大きさは、あらかじめシステム内に
設定しておくか、もしくは使用者が直接または間接的に
装置に設定しておくものとする。スペクトル作成部13
では、セグメント窓部12から受け取ったセグメント毎
にパワースペクトルを計算し、順にマッチング部18に
出力する。4. The segment window unit 12 sequentially outputs the segments obtained from the A / D data input unit 11 to the spectrum creating unit 13 in the required number. At this time, the size of the segment is set in the system in advance or the user directly or indirectly sets the size in the device. Spectrum creator 13
Then, the power spectrum is calculated for each segment received from the segment window unit 12 and output to the matching unit 18 in order.
【0039】5.一方、楽譜窓部17では、受けとった
要求に基づき、少なくとも、音程のデータを、スペクト
ル合成部110へ出力する。この時には、元の楽譜情報
または楽譜データ入力部で識別された音程以外の情報を
スペクトル合成部110へ適宜取捨出力する。また、複
数パートによる演奏など、一般に和音として扱われる情
報は、同一時刻で鳴っているもの全てをスペクトル合成
部110に渡す。スペクトル合成部110では、楽譜窓
部17より得られた音毎に、音程情報及び付加的な情報
を用いて予想パワースペクトルを合成し、マッチング部
18へ順に出力する。この時、楽譜窓部17より渡され
た付加的な情報が楽器の種類や音色を指定している場合
には、(a)の場合に準じて予想スペクトルパターンを
作成する。また、この時、スペクトル合成部110は、
内部状態として用いたスペクトルパターンと、その発音
の譜面上での時刻を記録する。このタイミングは以降、
新たな異なる時間タイミングのスペクトルを合成する際
に用いられ、主に時間経過によるパワー減衰を実現する
ために用いられる。5. On the other hand, the musical score window unit 17 outputs at least the data of the musical interval to the spectrum synthesizing unit 110 based on the received request. At this time, information other than the original musical score information or the pitch identified by the musical score data input unit is output to the spectrum synthesizing unit 110 as appropriate. In addition, information that is generally treated as a chord, such as performances by a plurality of parts, is transmitted to the spectrum synthesizing unit 110 for all sounds that are sounding at the same time. The spectrum synthesizing unit 110 synthesizes an expected power spectrum by using the pitch information and the additional information for each sound obtained from the score window unit 17, and sequentially outputs the synthesized power spectrum to the matching unit 18. At this time, if the additional information passed from the music score window 17 specifies the type or tone of the musical instrument, an expected spectrum pattern is created according to the case of (a). Also, at this time, the spectrum synthesis unit 110
The spectrum pattern used as the internal state and the time of its pronunciation on the musical score are recorded. After this timing,
It is used when synthesizing a spectrum at a new different time timing, and is mainly used to realize power attenuation over time.
【0040】6.マッチング部18は、スペクトル作成
部13とスペクトル合成部110からそれぞれパワース
ペクトル列、予想パワースペクトル列を受け取り、両者
のDPマッチングを行なう。この時、あらかじめ定めら
れたセグメント数及び音数がそろうまではマッチング動
作を開始しない。DPマッチングの結果、パワースペク
トル列の末尾二つ以上が予想パワースペクトルの一点に
集中するなど、それぞれのスペクトル列の長さが不足し
ている場合には、マッチング部18は、マッチング制御
部14にマッチング結果を返し、パワースペクトルと予
想パワースペクトルの少なくともどちらかについて、少
なくとも一つ以上のデータの追加を要求し、要求データ
の到着を待つ。それ以外の場合の動作については8で後
述する。6. The matching unit 18 receives the power spectrum sequence and the expected power spectrum sequence from the spectrum creating unit 13 and the spectrum synthesizing unit 110, respectively, and performs DP matching between the two. At this time, the matching operation is not started until the predetermined number of segments and the number of sounds are obtained. As a result of the DP matching, when the length of each spectrum sequence is insufficient such that two or more tails of the power spectrum sequence are concentrated at one point of the expected power spectrum, the matching unit 18 A matching result is returned, at least one of the power spectrum and the expected power spectrum is requested to be added, and the arrival of the requested data is waited. The operation in other cases will be described later in Section 8.
【0041】7.マッチング制御部14は、マッチング
の結果、それぞれのスペクトル列の長さが不足していた
場合には、マッチング部からの要求に基づき、セグメン
ト窓部12および楽譜窓部17に対し、それぞれセグメ
ント窓移動の要求と楽譜窓移動の要求を出す。セグメン
ト窓部12では、あらかじめ設定された移動量だけ、時
間軸の増加方向に移動させて、新しいセグメントをスペ
クトル作成部13に出力する。スペクトル作成部13で
は、直前の場合と同様にパワースペクトルを計算し、新
たなパワースペクトルをもとめ、マッチング部18へと
出力する。要求があったセグメント数だけ、これら一連
のセグメント窓移動及びパワースペクトルの計算を、要
求数だけ繰り返す。マッチング部18では、新たに得ら
れたパワースペクトルと、新たに得られた予想パワース
ペクトルを、それまでに受けとっていたそれぞれのスペ
クトル列に付加し、再度DPマッチングを行なう。この
結果、スペクトル列の長さがやはり不足している場合
は、マッチング制御部14にマッチング結果を返し、さ
らに新しい追加データを持って7を繰り返す。最終的に
はマッチング結果が整合を示すまで、セグメント窓の移
動とスペクトル作成を繰り返す。整合するセグメントが
演奏データから得られる前に演奏データがなくなる場合
には、動作を終了する。7. If the matching control unit 14 finds that the length of each spectrum string is insufficient, the matching control unit 14 moves the segment window unit 12 and the score window unit 17 based on the request from the matching unit. And a request to move the score window. In the segment window unit 12, a new segment is output to the spectrum creation unit 13 by moving the time segment in the increasing direction of the time axis by a predetermined movement amount. The spectrum creating unit 13 calculates a power spectrum in the same manner as in the immediately preceding case, finds a new power spectrum, and outputs the new power spectrum to the matching unit 18. This series of segment window movement and power spectrum calculation is repeated for the requested number of segments for the requested number. The matching unit 18 adds the newly obtained power spectrum and the newly obtained expected power spectrum to the respective spectrum strings received so far, and performs DP matching again. As a result, if the length of the spectrum sequence is still insufficient, the matching result is returned to the matching control unit 14, and 7 is repeated with new additional data. Eventually, the movement of the segment window and the spectrum creation are repeated until the matching result indicates a match. If there is no performance data before a matching segment is obtained from the performance data, the operation is terminated.
【0042】 8.結果がマッチした場合には、マッチ
したそれぞれペアについて、演奏データ先頭から測った
該セグメントの先頭の時刻と、楽譜窓部17で扱ってい
る音程データの時刻、すなわち楽譜窓の先頭の時刻情報
を元の楽譜情報の先頭より測った時刻としてマッチング
記録部19に出力する。出力完了の後、マッチング部1
8は、出力が済んだペアをパワースペクトル列と予想パ
ワースペクトル列からそれぞれ取り除き、その後マッチ
ング制御部14にマッチの結果を返し、各パワースペク
トル列が、あらかじめ定めた長さより長くなるまで、追
加のパワースペクトル及び予想パワースペクトルを要求
し、3より繰り返す。[0042] 8. If the results match, the matched pair is handled by the score window 17 and the time at the beginning of the segment measured from the beginning of the performance data.
Time of the pitch data, ie, the time information at the top of the score window
Is output to the matching recording unit 19 as the time measured from the head of the original score information. After output is completed, matching unit 1
8 removes the output pair from the power spectrum sequence and the expected power spectrum sequence, respectively, and thereafter returns the result of the match to the matching control unit 14 until the power spectrum sequence becomes longer than a predetermined length. Request power spectrum and expected power spectrum and repeat from 3.
【0043】ここで、データが終了して、楽譜窓もしく
はセグメント窓の移動が不可能になった場合には動作を
終了する。データの終了まで、上記の操作を繰り返すこ
とで、マッチング記録部19には演奏データ中での時刻
と、楽譜上での位置のペアが、次々と得られていくこと
になる。Here, when the data ends and it becomes impossible to move the score window or the segment window, the operation is ended. By repeating the above operation until the end of the data, pairs of the time in the performance data and the position on the musical score are successively obtained in the matching recording unit 19.
【0044】次に、マッチング部18が図2(c)の構
成である場合について説明する。Next, a case where the matching unit 18 has the configuration shown in FIG. 2C will be described.
【0045】1.動作開始時には、(a),(b)の場
合と同様に、使用者はA/Dデータ入力手段11に、演
奏のオーディオ信号を量子化したデータを時刻順に与え
る。また、使用者は楽譜データ生成手段15には、該デ
ータとマッチングを取るべき楽譜情報を与える。与えら
れた楽譜情報は楽譜データ入力部16に与えられた楽譜
データを、本装置での処理に適した、(a)の場合と同
様な形式に変換する。1. At the start of the operation, as in the cases (a) and (b), the user provides the A / D data input means 11 with data obtained by quantizing the audio signal of the performance in chronological order. Further, the user gives the musical score data generating means 15 musical score information to be matched with the data. The given musical score information converts the musical score data supplied to the musical score data input unit 16 into a format suitable for processing by the present apparatus and similar to that of the case (a).
【0046】2.A/Dデータ入力手段11及び楽譜デ
ータ生成手段15にデータが揃った後に、マッチング部
18は、マッチング制御部14に対し、A/Dデータの
先頭から数セグメント分のセグメントの出力要求、及び
楽譜データの最初からいくつか分の音の出力要求を発行
する。これらのセグメント数及び音数はあらかじめシス
テム内に設定しておくか、ユーザが動作開始時に入力す
るものとする。2. After the A / D data input unit 11 and the score data generating unit 15 have the data, the matching unit 18 requests the matching control unit 14 to output a few segments from the beginning of the A / D data, Issues a sound output request for a few minutes from the beginning of the data. It is assumed that the number of segments and the number of sounds are set in the system in advance or are input by the user at the start of operation.
【0047】3.マッチング制御部14では、受けとっ
た要求をそれぞれ、セグメント窓部12、楽譜窓部17
に送った後、マッチング部18が出力するマッチング結
果を待つ。3. The matching control unit 14 receives the received requests from the segment window unit 12 and the score window unit 17 respectively.
, And waits for a matching result output by the matching unit 18.
【0048】4.セグメント窓部12では、要求に基づ
き、A/Dデータ入力手段11から得られるデータのセ
グメントを順にスペクトル作成部13へと出力する。こ
の時のセグメントの大きさは、あらかじめシステム内で
指定しておくか、もしくは使用者が直接または間接的に
装置に指示しておくものとする。スペクトル作成部13
では、セグメント窓部12から受け取ったセグメント毎
にパワースペクトルを計算し、順にマッチング部18に
出力する。4. The segment window unit 12 sequentially outputs the segments of the data obtained from the A / D data input unit 11 to the spectrum creation unit 13 based on the request. The size of the segment at this time is specified in the system in advance, or the user instructs the apparatus directly or indirectly. Spectrum creator 13
Then, the power spectrum is calculated for each segment received from the segment window unit 12 and output to the matching unit 18 in order.
【0049】5.一方、楽譜窓部17では、受けとった
要求に基づき、少なくとも、音程のデータを、スペクト
ル合成部110へ出力する。この時には、元の楽譜情報
または楽譜データ入力部で識別された音程以外の情報を
スペクトル合成部110へ適宜取捨出力する。また、複
数パートによる演奏など、一般に和音として扱われる情
報は、同一時刻で鳴っているもの全てをスペクトル合成
部110に渡す。スペクトル合成部110では、楽譜窓
部17より得られた音毎に、音程情報及び付加的な情報
を用いて予想パワースペクトルを合成し、マッチング部
18へ順に出力する。この時、楽譜窓部17より渡され
た付加的な情報が楽器の種類や音色を指定している場合
には、(a),(b)の場合に準じて予想スペクトルパ
ターンを作成する。また、この時、スペクトル合成部1
10は、内部状態として用いたスペクトルパターンと、
その発音の譜面上での時刻を記録する。このタイミング
は以降、新たな異なる時間タイミングのスペクトルを合
成する際に用いられ、主に時間経過によるパワーの減衰
を実現するために用いられる。5. On the other hand, the musical score window unit 17 outputs at least the data of the musical interval to the spectrum synthesizing unit 110 based on the received request. At this time, information other than the original musical score information or the pitch identified by the musical score data input unit is output to the spectrum synthesizing unit 110 as appropriate. In addition, information that is generally treated as a chord, such as performances by a plurality of parts, is transmitted to the spectrum synthesizing unit 110 for all sounds that are sounding at the same time. The spectrum synthesizing unit 110 synthesizes an expected power spectrum by using the pitch information and the additional information for each sound obtained from the score window unit 17, and sequentially outputs the synthesized power spectrum to the matching unit 18. At this time, if the additional information passed from the score window section 17 specifies the type or tone of the musical instrument, an expected spectrum pattern is created according to the cases (a) and (b). At this time, the spectrum synthesis unit 1
10 is a spectrum pattern used as an internal state,
Record the time of the pronunciation on the musical score. This timing is thereafter used when synthesizing a spectrum at a new different time timing, and is mainly used to realize power attenuation over time.
【0050】6.マッチング部18は、スペクトル作成
部13とスペクトル合成部110からそれぞれパワース
ペクトル列、予想パワースペクトル列を受け取り、両者
のDPマッチングを行なう。この時、あらかじめ定めら
れたセグメント数及び音数がそろうまではマッチング動
作を開始しない。DPマッチング結果、パワースペクト
ル列中の一点が予想パワースペクトル列の多点に対応し
ている場合には、該当するパワースペクトル中の点の前
後のフレーム周期を短くして、再度DPマッチングを行
う為に、音符密度計算部26では、対応している予想パ
ワースペクトル列中の点の数を求め、その数を基に新た
なフレーム周期を求める。例えば、パワースペクトルC
(t)と予想パワースペクトルP(t),P(t+
1),・・・P(t+n−1),t,nは自然数が対応
しているならば、P(t−1)及びP(t+1)との間
をそれぞれn分割したフレーム周期を用いる。その後、
マッチング部18は、マッチング制御部14にマッチン
グ結果を返し、フレーム周期を短くしたデータを要求
し、その到着を待つ。また特に(b)の場合と同様に、
どちらかのパワースペクトル列の末尾で多対一対応して
いた場合には、少なくとも一つ以上のデータの追加を要
求する。6. The matching unit 18 receives the power spectrum sequence and the expected power spectrum sequence from the spectrum creating unit 13 and the spectrum synthesizing unit 110, respectively, and performs DP matching between the two. At this time, the matching operation is not started until the predetermined number of segments and the number of sounds are obtained. As a result of the DP matching, if one point in the power spectrum sequence corresponds to multiple points in the expected power spectrum sequence, shorten the frame period before and after the point in the corresponding power spectrum sequence and perform DP matching again. The note density calculator 26 calculates the number of points in the corresponding expected power spectrum sequence, and calculates a new frame period based on the number. For example, power spectrum C
(T) and expected power spectra P (t), P (t +
1),..., P (t + n−1), t, and n, if natural numbers correspond to each other, use a frame period obtained by dividing n between P (t−1) and P (t + 1). afterwards,
The matching unit 18 returns a matching result to the matching control unit 14, requests data with a shortened frame period, and waits for its arrival. In particular, similarly to the case of (b),
If many-to-one correspondence is found at the end of either power spectrum sequence, at least one or more data additions are requested.
【0051】それ以外の場合の動作については8で後述
する。The operation in other cases will be described later in Section 8.
【0052】7.マッチング制御部14は、マッチング
の結果、多対一対応、それぞれのスペクトル列の長さが
不足していた場合には、マッチング部からの要求に基づ
き、セグメント窓部12および楽譜窓部17に対し、そ
れぞれセグメント窓移動の要求と楽譜窓移動の要求を出
す。セグメント窓部12では、マッチング部18からマ
ッチング制御部14を通して設定された位置で、同じく
指定された移動量だけ、時間軸の増加方向に移動させ
て、フレーム周期を短くしたセグメントをスペクトル作
成部13に出力する。さらに、追加のセグメントについ
ても同様に処理する。スペクトル作成部13では、直前
の場合と同様にパワースペクトルを計算し、新たなパワ
ースペクトルをもとめ、マッチング部18へと出力す
る。要求があったセグメント数だけ、これら一連のセグ
メント窓移動及びパワースペクトル計算を繰り返す。一
方、楽譜窓についても、楽譜窓移動と予想パワースペク
トルの計算を、要求数だけ繰り返す。マッチング部18
では、新たに得られたパワースペクトルと、新たに得ら
れた予想パワースペクトルを、それまでに受けとってい
たそれぞのスペクトル列の該当部分と置き換え、あるい
は付加し、再度DPマッチングを行なう。この結果、ス
ペクトル列の長さがやはり不足している場合は、あるい
は、多対一対応がみられた場合には、マッチング制御部
14にマッチング結果を返し、さらに新しい追加データ
を持って7を繰り返す。最終的にはマッチング結果が整
合を示すまで、セグメント窓の移動とスペクトル作成を
繰り返す。整合するセグメントが演奏データから得られ
る前に演奏データがなくなる場合には、動作を終了す
る。7. If the result of the matching is a many-to-one correspondence and the length of each spectrum row is insufficient, the matching control unit 14 sends the segment window unit 12 and the score window unit 17 based on the request from the matching unit. , A request for moving the segment window and a request for moving the score window, respectively. In the segment window unit 12, a segment whose frame period is shortened by moving in the direction of increasing the time axis at the position set from the matching unit 18 through the matching control unit 14 by the movement amount designated in the same manner, Output to Further, the same processing is performed for additional segments. The spectrum creating unit 13 calculates a power spectrum in the same manner as in the immediately preceding case, finds a new power spectrum, and outputs the new power spectrum to the matching unit 18. The series of segment window movement and power spectrum calculation are repeated for the number of segments requested. On the other hand, for the score window, the movement of the score window and the calculation of the expected power spectrum are repeated by the requested number. Matching unit 18
Then, the newly obtained power spectrum and the newly obtained expected power spectrum are replaced or added with the corresponding portions of the respective spectrum strings received so far, and DP matching is performed again. As a result, if the length of the spectrum sequence is still insufficient, or if there is a many-to-one correspondence, the matching result is returned to the matching control unit 14, and 7 is stored with new additional data. repeat. Eventually, the movement of the segment window and the spectrum creation are repeated until the matching result indicates a match. If there is no performance data before a matching segment is obtained from the performance data, the operation is terminated.
【0053】 8.結果がマッチした場合には、マッチ
したそれぞれのペアについて、演奏データ先頭から測っ
た該セグメントの先頭の時刻と、楽譜窓部17で扱って
いる音程データの時刻、すなわち楽譜窓の先頭の時刻情
報を元の楽譜情報の先頭より測った時刻としてマッチン
グ記録部19に出力する。出力完了の後、マッチング部
18は、出力が済んだペアをパワースペクトル列と予想
パワースペクトル列からそれぞれ取り除き、その後マッ
チング制御部14にマッチの結果を返し、各パワースペ
クトル列が、あらかじめ定めた長さより長くなるまで、
追加のパワースペクトル及び予想パワースペクトルを要
求し、3より繰り返す。[0053] 8. If the results match, the matched pair is handled by the score window 17 and the time at the beginning of the segment measured from the beginning of the performance data.
Time of the pitch data that is
The information is output to the matching recording unit 19 as the time measured from the beginning of the original score information. After the output is completed, the matching unit 18 removes the output pair from the power spectrum sequence and the expected power spectrum sequence, respectively, and thereafter returns a result of the match to the matching control unit 14 so that each power spectrum sequence has a predetermined length. Until longer
Request additional power spectrum and expected power spectrum and repeat from 3.
【0054】ここで、データが終了して、楽譜窓もしく
はセグメント窓の移動が不可能になった場合には動作を
終了する。データの終了まで、上記の操作を繰り返すこ
とで、マッチング記録部19には演奏データ中での時刻
と、楽譜上での位置のペアが、次々と得られていくこと
になる。Here, when the data ends and it becomes impossible to move the score window or the segment window, the operation ends. By repeating the above operation until the end of the data, pairs of the time in the performance data and the position on the musical score are successively obtained in the matching recording unit 19.
【0055】[0055]
【発明の効果】以上の発明によれば、楽譜と実際の演奏
の記録との間で、時刻的な対応を自動的に作成していく
ことができる。またスペクトルを直接比較することによ
り、複合音の場合にも自動作成ができ、さらに、時間的
対応が分離不十分の部分のみを再計算することにより、
従来よりも高速に計算することができる。According to the invention described above, it is possible to automatically create a time correspondence between a musical score and an actual performance record. In addition, by directly comparing spectra, it is possible to automatically create composite sounds, and furthermore, by recalculating only those parts whose temporal correspondence is insufficiently separated,
Calculation can be performed faster than before.
【図1】本発明の音楽インデックス作成装置の一実施例
のブロック図である。FIG. 1 is a block diagram of an embodiment of a music index creation device of the present invention.
【図2】本発明の実施例としてあげたマッチング部の実
施例のブロック図である。FIG. 2 is a block diagram illustrating an embodiment of a matching unit according to an embodiment of the present invention.
【図3】本発明の実施例で用いたディジタル入力波形図FIG. 3 is a digital input waveform diagram used in an embodiment of the present invention.
【図4】本発明の実施例で用いた楽譜FIG. 4 is a musical score used in the embodiment of the present invention.
【図5】本発明の実施例で用いた標準MIDIファイル
フォーマットFIG. 5 is a standard MIDI file format used in the embodiment of the present invention.
11 A/Dデータ入力手段 12 セグメント窓部 13 スペクトル作成部 14 マッチング制御部 15 楽譜データ生成手段 16 楽譜データ入力部 17 楽譜窓部 18 マッチング部 19 マッチング記録部 110 スペクトル合成部 21 距離比較部 22 演奏スペクトルバッファ 23 楽譜スペクトルバッファ 24 DPマッチング部 25 演奏スペクトルバッファ 26 音符密度計算部 27 楽譜スペクトルバッファ 28 DPマッチング部 Reference Signs List 11 A / D data input unit 12 Segment window unit 13 Spectrum creation unit 14 Matching control unit 15 Music score data generation unit 16 Music score data input unit 17 Music score window unit 18 Matching unit 19 Matching recording unit 110 Spectrum synthesis unit 21 Distance comparison unit 22 Performance Spectrum buffer 23 Music score spectrum buffer 24 DP matching unit 25 Performance spectrum buffer 26 Note density calculation unit 27 Music score spectrum buffer 28 DP matching unit
フロントページの続き (56)参考文献 特開 昭58−152292(JP,A) 特開 昭58−152290(JP,A) 電子情報通信学会論文誌、D−▲II ▼VOL.J72−D−2 NO.6 P.917−926(1989年6月)「ピアノ演 奏における演奏情報の抽出」高見、片 寄、井口Continuation of front page (56) References JP-A-58-152292 (JP, A) JP-A-58-152290 (JP, A) Transactions of the Institute of Electronics, Information and Communication Engineers, D-IIII VOL. J72-D-2 NO. 6P. 917-926 (June 1989) "Extraction of Performance Information in Piano Performance" Takami, Katayose, Iguchi
Claims (1)
ィオデータ中の音符として表現し得る音と楽譜上の音符
の間の互いに対応する位置として演奏の経過時刻と楽譜
上での時刻に相当する指標との対応を検出する装置であ
って、 音楽のオーディオデータを入力するオーディオデータ入
力手段と、 前記オーディオデータ入力手段から得られるデータ内の
時間的に一部を選択出力するセグメント窓部と、 前記セグメント窓部の出力するデータから周波数スペク
トルを作成するスペクトル作成部と、 利用者が楽譜を入力する楽譜データ入力手段と、 前記楽譜データ入力手段に与えられるデータから時間的
に一部を選択出力する楽譜窓部と、 前記楽譜窓部が出力する部分楽譜に対応する周波数スペ
クトルを合成するスペクトル合成部と、 前記スペクトル作成部が出力する周波数スペクトルと前
記スペクトル合成部が出力する周波数スペクトルを比較
しマッチの度合いが低ければマッチの度合いのみを、ま
た度合いが高ければ前記セグメント窓部の中央時刻と前
記楽譜窓部の出力する楽譜窓の先頭の時刻情報を出力す
るマッチング部と、前記マッチング部が出力するマッチの度合いに応じて前
記セグメント窓部と前記楽譜窓部のうち少なくとも一方
の窓を移動させるマッチング制御部と、 前記マッチング部が出力する前記セグメント窓部からの
時刻と前記楽譜窓部からの時刻を演奏と楽譜の局部的な
対応時刻情報として記録するマッチング記録部と 、を有
することを特徴とする音楽イベントインデックス作成装
置。1. An audio recording medium on which music is recorded.
Sounds that can be expressed as notes in audio data and notes on music scores
The elapsed time of the performance and the score as the corresponding positions between
This device detects the correspondence with the index corresponding to the time above.
I, the audio data input means for inputting the audio data of the music, and the segment window for selecting and outputting a time-part of the data obtained from the audio data input means, a data output of the segment window A spectrum creation unit for creating a frequency spectrum, a score data input unit for a user to input a score, and a score window unit for selectively outputting a part of the data from the data provided to the score data input unit in time. A spectrum synthesizer for synthesizing a frequency spectrum corresponding to the partial score output by the score window; and comparing the frequency spectrum output by the spectrum generator with the frequency spectrum output by the spectrum synthesizer, the degree of matching is low. If only the degree of match is high, or if the degree is high, the center time of the segment window and the A matching unit for outputting first time information of the musical score window for outputting the Fumado section, before according to the degree of match the matching portion outputs
At least one of the segment window and the score window
A matching control unit that moves the window of the segment window from the segment window unit that is output by the matching unit.
The time and the time from the score window are played and the local
A music event index creation device, comprising: a matching recording unit for recording as corresponding time information .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5181475A JP2636685B2 (en) | 1993-07-22 | 1993-07-22 | Music event index creation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5181475A JP2636685B2 (en) | 1993-07-22 | 1993-07-22 | Music event index creation device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0736455A JPH0736455A (en) | 1995-02-07 |
JP2636685B2 true JP2636685B2 (en) | 1997-07-30 |
Family
ID=16101409
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP5181475A Expired - Fee Related JP2636685B2 (en) | 1993-07-22 | 1993-07-22 | Music event index creation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2636685B2 (en) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002047064A1 (en) * | 2000-12-05 | 2002-06-13 | Amusetec Co. Ltd. | Method for analyzing music using sounds of instruments |
KR100412196B1 (en) * | 2001-05-21 | 2003-12-24 | 어뮤즈텍(주) | Method and apparatus for tracking musical score |
KR100455751B1 (en) * | 2001-12-18 | 2004-11-06 | 어뮤즈텍(주) | Apparatus for analyzing music using sound of instruments |
JP4492932B2 (en) * | 2004-02-20 | 2010-06-30 | 株式会社河合楽器製作所 | Performance sound determination device, performance sound determination program, and medium recording the program |
JP2005249844A (en) * | 2004-03-01 | 2005-09-15 | Kawai Musical Instr Mfg Co Ltd | Performance instruction device and performance instruction program |
JP2005234304A (en) * | 2004-02-20 | 2005-09-02 | Kawai Musical Instr Mfg Co Ltd | Performance sound determination device and performance sound determination program |
WO2005081222A1 (en) * | 2004-02-20 | 2005-09-01 | Kabushiki Kaisha Kawai Gakki Seisakusho | Device for judging music sound of natural musical instrument played according to a performance instruction, music sound judgment program, and medium containing the program |
JP4530199B2 (en) * | 2004-02-24 | 2010-08-25 | 株式会社河合楽器製作所 | Model creation device and model creation program for natural instrument musical sound judgment device |
JP4624879B2 (en) * | 2005-07-07 | 2011-02-02 | 株式会社エクシング | Musical sound information generation program and musical sound information generator |
JP4921343B2 (en) * | 2007-12-26 | 2012-04-25 | 株式会社河合楽器製作所 | Performance evaluation device, program and electronic musical instrument |
WO2011125204A1 (en) * | 2010-04-08 | 2011-10-13 | パイオニア株式会社 | Information processing device, method, and computer program |
JP5924968B2 (en) * | 2011-02-14 | 2016-05-25 | 本田技研工業株式会社 | Score position estimation apparatus and score position estimation method |
JP5598681B2 (en) * | 2012-04-25 | 2014-10-01 | カシオ計算機株式会社 | Note position detecting device, note position estimating method and program |
JP5678935B2 (en) * | 2012-08-31 | 2015-03-04 | ブラザー工業株式会社 | Musical instrument performance evaluation device, musical instrument performance evaluation system |
JP6508350B2 (en) * | 2015-09-30 | 2019-05-08 | ヤマハ株式会社 | Regeneration control method and regeneration control system |
JPWO2018207936A1 (en) * | 2017-05-12 | 2020-07-16 | 株式会社デザインMプラス | Automatic musical score detection method and device |
-
1993
- 1993-07-22 JP JP5181475A patent/JP2636685B2/en not_active Expired - Fee Related
Non-Patent Citations (1)
Title |
---|
電子情報通信学会論文誌、D−▲II▼VOL.J72−D−2 NO.6 P.917−926(1989年6月)「ピアノ演奏における演奏情報の抽出」高見、片寄、井口 |
Also Published As
Publication number | Publication date |
---|---|
JPH0736455A (en) | 1995-02-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2636685B2 (en) | Music event index creation device | |
US7189912B2 (en) | Method and apparatus for tracking musical score | |
US7288710B2 (en) | Music searching apparatus and method | |
US7179981B2 (en) | Music structure detection apparatus and method | |
JPS623439B2 (en) | ||
US7335834B2 (en) | Musical composition data creation device and method | |
CN1813285B (en) | Speech synthesis device and method | |
JPH1115468A (en) | Method, device, and system for music retrieval, and recording medium | |
KR20030067377A (en) | Method and apparatus for searching of musical data based on melody | |
JP3716725B2 (en) | Audio processing apparatus, audio processing method, and information recording medium | |
JP2876861B2 (en) | Automatic transcription device | |
JP3371761B2 (en) | Name reading speech synthesizer | |
JP2000293188A (en) | Chord real time recognizing method and storage medium | |
JP2001005450A (en) | Method of encoding acoustic signal | |
JPH11231899A (en) | Audio / Video Synthesizer and Audio / Video Database | |
JPH1173200A (en) | Acoustic signal encoding method and record medium readable by computer | |
CN118411977B (en) | Speech and singing synthesis method, training method and device, model | |
Murgul et al. | Fine-Tuning MIDI-to-Audio Alignment using a Neural Network on Piano Roll and CQT Representations | |
JP2002244691A (en) | Encoding method for sound signal | |
JPH1173199A (en) | Acoustic signal encoding method and record medium readable by computer | |
JP3904871B2 (en) | Prosody generation method and prosody generation program in singing voice synthesis, and recording medium recording the program | |
CN1257271A (en) | Continuous sound processor for Chinese phonetic systhesis | |
JP2001056817A (en) | Music retrieval system | |
WO2023171497A1 (en) | Acoustic generation method, acoustic generation system, and program | |
JP2001148633A (en) | Encoding method for acoustic signal |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 19970311 |
|
LAPS | Cancellation because of no payment of annual fees |