[go: up one dir, main page]

JPH01219624A - Automatic score taking method and apparatus - Google Patents

Automatic score taking method and apparatus

Info

Publication number
JPH01219624A
JPH01219624A JP4611488A JP4611488A JPH01219624A JP H01219624 A JPH01219624 A JP H01219624A JP 4611488 A JP4611488 A JP 4611488A JP 4611488 A JP4611488 A JP 4611488A JP H01219624 A JPH01219624 A JP H01219624A
Authority
JP
Japan
Prior art keywords
acoustic signal
segmentation
power information
information
change point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4611488A
Other languages
Japanese (ja)
Inventor
Shichiro Tsuruta
鶴田 七郎
Hironori Takashima
洋典 高島
Masaki Fujimoto
正樹 藤本
Masanori Mizuno
水野 正典
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NIPPON DENKI GIJUTSU JOHO SYST KAIHATSU KK
NEC Home Electronics Ltd
NEC Corp
Original Assignee
NIPPON DENKI GIJUTSU JOHO SYST KAIHATSU KK
NEC Home Electronics Ltd
NEC Corp
Nippon Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NIPPON DENKI GIJUTSU JOHO SYST KAIHATSU KK, NEC Home Electronics Ltd, NEC Corp, Nippon Electric Co Ltd filed Critical NIPPON DENKI GIJUTSU JOHO SYST KAIHATSU KK
Priority to JP4611488A priority Critical patent/JPH01219624A/en
Priority to US07/315,761 priority patent/US5038658A/en
Priority to CA000592347A priority patent/CA1337728C/en
Publication of JPH01219624A publication Critical patent/JPH01219624A/en
Pending legal-status Critical Current

Links

Landscapes

  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

PURPOSE:To perform accurate segmentation at the start point of sound, by performing segmentation processing for dividing an acoustic signal into a section regarded as the same intervale at the rising change point of power data extracted from the acoustic signal. CONSTITUTION:The digital acoustic signal such as singing passing through an acoustic signal input apparatus 8 and an A/D converter 7 by a CPU 1 corresponding to the order of a keyboard 4 is stored in the auxiliary memory device 6 of a working memory and the stored content is subjected to process control processing by the CPU 1 corresponding to the program of a main memory device 3 to extract power data and the rising change point of the extracted power data is detected to perform segmentation dividing the acoustic signal into the same intervale section. Therefore, accurate segmentation is performed at the start point of sound and a highly accurate score is automatically formed by score taking processing on and after based on said segmentation.

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は、歌唱音声やハミング音声や楽器音等の音響信
号から楽譜データを作成する自動採譜方法及び装置に関
し、特にパワー情報に基づいて音響信号を同一音程とみ
なせる区間に区分するセグメンテーション処理に関する
ものである。
[Detailed Description of the Invention] [Industrial Application Field] The present invention relates to an automatic musical notation method and apparatus for creating musical score data from acoustic signals such as singing voices, humming voices, musical instrument sounds, etc. This relates to segmentation processing that divides a signal into sections that can be considered to have the same pitch.

[従来の技術] 歌唱音声やハミング音声や楽器音等の音響信号を楽譜デ
ータに変換する自動採譜方式においては、音°饗信号か
ら楽譜としての基本的な情報である音長、音程、調、拍
子及びテンポを検出することを有する。
[Prior Art] In an automatic score transcription system that converts acoustic signals such as singing voices, humming voices, and musical instrument sounds into musical score data, basic information as a musical score such as length, interval, key, etc. is extracted from the sound signal. It includes detecting time signature and tempo.

ところで、音響信号は基本波形の繰返し波形を連続的に
含む信号であるだけであり、上述した各情報を直ちに得
ることはできない。
By the way, the acoustic signal is only a signal that continuously includes a repeating waveform of the basic waveform, and the above-mentioned information cannot be obtained immediately.

そこで、従来の自動採譜方式においては、まず、音響信
号の音高を表す基本波形の繰返し情報(以下、ピッチ情
報と呼ぶ)及びパワー情報を分析周期毎に抽出し、その
後、少なくとも抽出されたパワー情報から音響信号を同
一音程とみなせる区間(セグメント)に区分しくかがる
処理をセグメンテーションと呼ぶ)、次いで、セグメン
トのピッチ情報から各セグメントの音響信号の音程とし
て絶対音程軸にそった音程に同定し、ピッチ情報の分布
に基づいて音響信号の調を決定し、さらに、セグメント
に基づいて音響信号の拍子及びテンポを決定するという
順序で各情報を得ていた。
Therefore, in the conventional automatic music transcription method, first, repetition information (hereinafter referred to as pitch information) and power information of the basic waveform representing the pitch of the acoustic signal are extracted for each analysis period, and then at least the extracted power The process of dividing an acoustic signal into sections (segments) that can be considered to have the same pitch based on information is called segmentation).Then, from the pitch information of the segments, the pitch of the acoustic signal of each segment is identified as an interval along the absolute pitch axis. However, each piece of information was obtained in the following order: the key of the acoustic signal was determined based on the distribution of pitch information, and the time signature and tempo of the acoustic signal were further determined based on the segments.

従って、音程、拍子、テンーボ等は、セグメント(音長
)に基づき決定されるので、セグメンテーション処理は
、特に楽譜データを作成する上で重要なものとなってい
る。
Therefore, since pitches, beats, tenbos, etc. are determined based on segments (note lengths), segmentation processing is particularly important when creating musical score data.

[発明が解決しようとする課M] このように、セグメンテーションは楽譜データを作成す
る上で重要な要素であり、セグメンテーションの精度が
低いと、最終的に得られる楽譜データの精度も著しく低
くなるので、ピッチ情報に基づくセグメンテーション結
果及びパワー情報に基づくセグメンテーション結果の両
者から最終的にセグメンテーションを行なう場合、また
はパワー情報から最終的なセグメンテーションを行なう
場合共に、パワー情報からのセグメンテーション処理自
体の精度も向上することが望まれる。
[Problem M to be solved by the invention] As described above, segmentation is an important element in creating musical score data, and if the accuracy of segmentation is low, the accuracy of the final musical score data obtained will also be significantly low. , when final segmentation is performed from both the segmentation result based on pitch information and the segmentation result based on power information, or when the final segmentation is performed from power information, the accuracy of the segmentation process itself from power information is also improved. It is hoped that

本発明は、以上の点を考慮してなされたもので、パワー
情報に基づいたセグメンテーションを良好に実行するこ
とができ、楽譜データの精度を向上させることのできる
自動採譜方法及び装置を提供しようとするものである。
The present invention has been made in consideration of the above points, and aims to provide an automatic score transcription method and device that can successfully perform segmentation based on power information and improve the accuracy of musical score data. It is something to do.

[課題を解決するための手段] かかる課題を解決するため、第1の本発明においては、
入力された音響信号からパワー情報を抽出する処理及び
パワー情報に基づいて音響信号を同一音程とみなせる区
間に区分するセグメンテーション処理を少なくとも含み
、音響信号を楽譜データに変換する自動採譜方法におい
て、セグメンテーション処理が、パワー情報の立上り変
化点を抽出し、この抽出された立上り変化点で音響信号
を区分する処理でなるようにした。
[Means for solving the problem] In order to solve the problem, in the first invention,
In an automatic music score method for converting an acoustic signal into musical score data, the method includes at least a process of extracting power information from an input acoustic signal and a segmentation process of dividing the acoustic signal into sections that can be considered to have the same pitch based on the power information, and the segmentation process However, this can be done by extracting the rising change point of the power information and classifying the acoustic signal based on the extracted rising change point.

また、第2の本発明においては、入力された音響信号パ
ワー情報を抽出するパワー抽出手段と、抽出されたパワ
ー情報から音響信号を同一音程とみなせる区間に区分す
るセグメンテーション手段とを一部に備えて音響信号を
楽譜データに変換する自動採譜装置において、セグメど
チージョン手段が、パワー情報の立上り変化点を抽出す
る変化点抽出部と、この抽出された立上り変化点で音響
信号を区分する区分部とを備えて構成するようにした。
Further, in the second aspect of the present invention, the power extraction means for extracting the input acoustic signal power information and the segmentation means for dividing the acoustic signal into sections that can be considered to have the same pitch from the extracted power information are provided. In an automatic notation device that converts an acoustic signal into musical score data, the segmentation means includes a change point extracting section that extracts a rising change point of power information, and a dividing section that divides the acoustic signal at the extracted rising change point. The configuration is now equipped with the following.

[作用] 第1の本発明においては、パワー情報がら同一音程とみ
なせる区間に区分するにつき、音響信号は、その発生源
がいかなるものであろうと、新たな音の開始点でのパワ
ーが最大となり、その後徐々に減衰するという性質を有
することに着目し、パワー情報の立上り変化点を抽出し
てその抽出変化点で音響信号を区分するようにした。
[Operation] In the first aspect of the present invention, when the power information is divided into intervals that can be considered to be the same pitch, the power of the acoustic signal is maximized at the starting point of a new sound, regardless of its source. , and then gradually attenuating, we extracted the rising change point of the power information and classified the acoustic signal at the extracted change point.

また、第2の本発明は、パワー情報から同一音程とみな
せる区間にセグメンテーション手段によって区分するに
つき、同様にパワー情報の変化の仕方に着目してパワー
情報の立上り変化点を変化点抽出部によって抽出して区
分部によってその抽出変化点で音響信号を区分するよう
にした。
Further, in the second aspect of the present invention, when the power information is divided into intervals that can be considered to be the same pitch by the segmentation means, the change point of the rising edge of the power information is extracted by the change point extracting section by paying attention to the way the power information changes as well. Then, the acoustic signal is divided by the dividing section at the extraction change point.

[実施例] 以下、本発明の一実施例を図面を参照しながら詳述する
[Example] Hereinafter, an example of the present invention will be described in detail with reference to the drawings.

肛飲採困方式 まず、本発明が適用される自動採譜方式について説明す
る。
Anal swallowing difficulty method First, an automatic score recording method to which the present invention is applied will be explained.

第3図において、中央処理ユニット(CPU)1は、当
該装置の全体を制御するものであり、バス2を介して接
続されている主記憶装置3に格納されている第4図に示
す採譜処理プログラムを実行するものである。バス2に
は、CPUI及び主記憶装置3に加えて、入力装置とし
てのキーボード4、出力装置としての表示装置5、ワー
キングメモリとして用いられる補助記憶装置6及びアナ
ログ/デジタル変換器7が接続されている。
In FIG. 3, a central processing unit (CPU) 1 controls the entire device, and performs the music transcription process shown in FIG. 4 stored in a main storage device 3 connected via a bus 2. It executes the program. Connected to the bus 2 are a keyboard 4 as an input device, a display device 5 as an output device, an auxiliary storage device 6 used as a working memory, and an analog/digital converter 7, in addition to the CPUI and main storage device 3. There is.

アナログ/デジタル変換器7には、例えば、マイクロフ
ォンでなる音響信号入力装置8が接続されている。この
音響信号入力装置8は、ユーザによって発声された歌唱
やハミングや、楽器から発生された楽音等の音響信号を
捕捉して電気信号に変換するものであり、その電気信号
をアナログ/デジタル変換器7に出力するものである。
Connected to the analog/digital converter 7 is an acoustic signal input device 8 consisting of, for example, a microphone. This acoustic signal input device 8 captures acoustic signals such as singing or humming vocalized by a user, or musical sounds generated from musical instruments, and converts them into electrical signals, and converts the electrical signals into electrical signals. 7.

CPtJlは、キーボード入力装置4によって処理が指
令されたとき、当該採譜処理を開始し、主記憶装置3に
格納されているプログラムを実行してアナログ/デジタ
ル変換器7によってデジタル信号に変換された音響信号
を一旦補助記憶装置6に格納し、その後、これら音響信
号を上述のプログラムを実行して楽譜データに変換して
必要に応じて表示装置5に出力するようになされている
When the processing is instructed by the keyboard input device 4, the CPtJl starts the scoring processing, executes the program stored in the main storage device 3, and converts the audio signal into a digital signal by the analog/digital converter 7. The signals are temporarily stored in the auxiliary storage device 6, and then the above-mentioned program is executed to convert these acoustic signals into musical score data, which is output to the display device 5 as necessary.

次に、CPUIが実行する音響信号を収り込んだ後の採
譜処理を第4図の機能レベルで示すフローチャートに従
って詳述する。
Next, the score transcription process performed by the CPU after capturing the audio signal will be described in detail according to the flowchart shown at the functional level in FIG. 4.

まず、CPU1は、音響信号を自己相関分析して分析周
期毎に音響信号のピッチ情報を抽出し、また2乗和処理
して分析周期毎にパワー情報を抽出し、その後ノイズ除
去や平滑化処理等の後処理を実行する(ステップSPI
、SP2>。その後、CPUIは、ピッチ情報について
は、その分布状況に基づいて絶対音程軸に対する音響信
号の音程軸のずれ量を算出し、得られたピッチ情報をそ
のずれ量に応じてシフトさせるチューニング処理を実行
する(ステップ5P3)。すなわち、音響信号を発生し
た歌唱者または楽器の音程軸と絶対音程軸との差が小さ
くなるようにピッチ情報を修正する。
First, the CPU 1 performs autocorrelation analysis on the acoustic signal to extract pitch information of the acoustic signal for each analysis period, performs square sum processing to extract power information for each analysis period, and then performs noise removal and smoothing processing. Execute post-processing such as (step SPI
, SP2>. After that, the CPU calculates the amount of deviation of the pitch axis of the acoustic signal from the absolute pitch axis based on the distribution status of the pitch information, and executes tuning processing to shift the obtained pitch information according to the amount of deviation. (Step 5P3). That is, the pitch information is corrected so that the difference between the pitch axis of the singer or musical instrument that generated the acoustic signal and the absolute pitch axis becomes small.

次いで、CPUIは、得られたピッチ情報が同一音程を
指示するものと考えられるピッチ情報の連続期間を得て
、音響信号を1音ごとのセグメントに切り分けるセグメ
ンテーションを実行し、また、得られたパワー情報の変
化に基づいてセグメンテーションを実行する(ステップ
SP4.5P5)。これら得られた両者のセグメント情
報に基づいて、CPUIは、4分音符や8分音符等の時
間長に相当する基準長を算出してこの基準長に基づいて
再度セグメンテーションを実行する(ステップ5P6)
Next, the CPU obtains continuous periods of pitch information in which the obtained pitch information is considered to indicate the same pitch, performs segmentation to cut the acoustic signal into segments for each note, and also calculates the obtained power. Segmentation is performed based on changes in information (step SP4.5P5). Based on both of the obtained segment information, the CPUI calculates a reference length corresponding to the time length of a quarter note, eighth note, etc., and executes segmentation again based on this reference length (step 5P6).
.

CPUIは、このようにしてセグメンテーションされた
セグメントのピッチ情報に基づきそのピッチ情報が最も
近いと判断できる絶対音程軸上の音程にそのセグメント
の音程を同定し、さらに、同定された連続するセグメン
トの音程が同一か否かに基づいて再度セグメンテーショ
ンを実行する(ステップSP7.5P8)。
Based on the pitch information of the segments segmented in this way, the CPUI identifies the pitch of the segment to the pitch on the absolute pitch axis that can be determined to be closest to the pitch information, and further identifies the pitch of the identified continuous segment. Segmentation is performed again based on whether or not they are the same (step SP7.5P8).

その後、CPUIは、チューニング処理後のピッチ情報
を集計して得た音程の出現頻度と、調に応じて定まる所
定の重み付は係数との積和を求めてこの積和の最大情報
に基づいて、例えば、ハ長調やイ短調というように入力
音響信号の楽曲の調を決定し、決定された調における音
階の所定の音程についてその音程をピッチ情報について
見直して音程を確認、修正する(ステップSP9.5P
10)。次いで、CPUIは、最終的に決定された音程
から連続するセグメントについて同一なものがあるか否
か、また連続するセグメント間でパワーの変化があるか
否かに基づいてセグメンテーションの見直しを実行し、
最終的なセグメンテーションを行なう(ステップ5P1
1)。
After that, the CPU calculates the product sum of the appearance frequency of the pitch obtained by summing up the pitch information after the tuning process and the predetermined weighting coefficient determined according to the key, and calculates the product sum based on the maximum information of this product sum. For example, the key of the music of the input acoustic signal is determined, such as C major or A minor, and the pitch information is reviewed for a predetermined interval of the scale in the determined key to confirm and correct the interval (step SP9 .5P
10). Then, the CPUI performs a segmentation review based on whether consecutive segments from the finally determined pitch are the same and whether there is a change in power between consecutive segments;
Perform final segmentation (step 5P1
1).

このようにして音程及びセグメントが決定されると、C
PUIは、楽曲は1拍目から始まる、フレーズの最後の
音は次の小節にまたがらない、小節ごとに切れ目がある
等の観点から小節を抽出し、この小節情報及びセグメン
テーション情報から拍子を決定し、この決定された拍子
情報及び小節の長さからテンポを決定する(ステップ5
P12.5P13)。
Once the pitch and segment are determined in this way, C
PUI extracts measures from the viewpoints of whether a song starts from the first beat, the last note of a phrase does not span the next measure, or there is a break between each measure, and determines the time signature from this measure information and segmentation information. Then, the tempo is determined from this determined time signature information and measure length (step 5).
P12.5P13).

そして、CPUIは決定された音程、音長、調、拍子及
びテンポの情報を整理して最終的に楽譜データを作成す
る(ステップ5P14>。
The CPU then organizes the determined pitch, length, key, time signature, and tempo information and finally creates musical score data (Step 5P14>).

パワー  に づ セ メンテーシ ン次に、このよう
な自動採譜方式におけるパワー情報に基づくセグメンテ
ーション処理(ステップSP5参照)について、第1図
のフローチャートを用いて詳述する。
Power Based Segmentation Next, the segmentation process (see step SP5) based on power information in such an automatic score transcription method will be described in detail using the flowchart of FIG.

なお、音響信号のパワー情報としては、分析周期内の各
サンプリング点について音響信号を2乗し、これら2乗
値の総和をその分析周期におけるパワー情報として用い
ている。
Note that, as the power information of the acoustic signal, the acoustic signal is squared for each sampling point within the analysis period, and the sum of these squared values is used as the power information for that analysis period.

CPUIは、まず分析点パラメータtをOクリアした後
、処理すべきデータが終了していないことを確認してそ
の分析点しについて、その分析点tのパワー情報P(t
)及びそれよりに個だけ進んだ分析点t+にのパワー情
報P (t+k)に基づいて次式 %式%()) に示すパワー情報の変化関数(後述する処理でこの関数
をパワーの立上り抽出に用いるので、以下、この関数を
立上り抽出関数と呼ぶ) d (t)を演算する(ステ
ップ5P20〜22)。なお、kはパワー情報の変化を
とらえるのに好適な適当な時間差に選定する。
After first clearing the analysis point parameter t, the CPU confirms that the data to be processed has not finished, and then calculates the power information P(t
) and the power information P (t+k) at the analysis point t+, which is advanced by 1 point, and the power information change function shown in the following formula (% ()) d(t) (hereinafter referred to as a rising edge extraction function) (steps 5P20 to 22). Note that k is selected to be an appropriate time difference suitable for capturing changes in power information.

その後、CPUIはその分析点tにおける立上り抽出関
数d (t)が閾値0以上か否かを判断し、閾値θより
小さくて否定結果を得ると、パラメータtをインクリメ
ントして上述のステップ5P21に戻る(ステップ5P
23〜24)。
After that, the CPU determines whether the rising edge extraction function d (t) at the analysis point t is equal to or greater than the threshold 0, and if it is smaller than the threshold θ and obtains a negative result, it increments the parameter t and returns to step 5P21 described above. (Step 5P
23-24).

かかる処理を繰返すことにより、CPUIは、やがて立
上り抽出関数d(t)が閾値0以上に変化した直後の分
析点を見−出し、ステップ5P23において肯定結果を
得る。このとき、CPUIはセグメント開始の印を当該
分析点に付した後、処理すべき分析点のデータが終了し
ていないことを確認してその分析点tについて、その点
のパワー情報P(t)及びそれよりに個だけ進んだ分析
点t+にのパワー情報P (t+k)に基づいて再度パ
ワー情報の立上り抽出関数d(t)を演算する(ステッ
プ5P25〜27)。
By repeating this process, the CPUI eventually finds the analysis point immediately after the rise extraction function d(t) changes to the threshold value 0 or more, and obtains a positive result in step 5P23. At this time, after marking the start of a segment on the analysis point, the CPU confirms that the data for the analysis point to be processed has not ended, and calculates the power information P(t) for that analysis point t. The rising edge extraction function d(t) of the power information is calculated again based on the power information P (t+k) at the analysis point t+, which is advanced by one point (steps 5P25 to 27).

その後、CPUIはその分析点tにおける立上り抽出関
数d (t)が閾値θより小さいか否かを判断し、閾値
0以上であって否定結果を得ると、パラメータtをイン
クリメントして上述のステップ5P26に戻る(ステッ
プ5P28〜2つ)。
After that, the CPU determines whether the rise extraction function d (t) at the analysis point t is smaller than the threshold θ, and if it is greater than or equal to the threshold 0 and obtains a negative result, it increments the parameter t and performs the step 5P26 described above. Return to step 5 (P28-2).

これに対して、閾値θより小さくなってステップ5P2
8において肯定結果を得ると、上述したステップ5P2
1に戻って次に立上り抽出関数d(1)が閾値0以上に
変化した直後の変化点の抽出処理に進む。
On the other hand, it becomes smaller than the threshold value θ and step 5P2
If a positive result is obtained in step 8, step 5P2 described above is performed.
1 and then proceeds to the process of extracting the change point immediately after the rise extraction function d(1) changes to the threshold value 0 or more.

このような処理を繰返すことによりパワー情報の立上り
変化点毎にセグメント開始の印が付され、やがて、全て
のパワー情報について処理が終了し、ステップ5P21
または5P26において肯定結果が得られ、当該プログ
ラムを終了させる。
By repeating such processing, a segment start mark is placed at each rising and changing point of the power information, and eventually the processing is completed for all power information, and step 5P21
Alternatively, an affirmative result is obtained in 5P26, and the program is terminated.

なお、このようにパワー情報の立上りを抽出してセグメ
ンテーションを実行するようにしたのは、例えば、歌唱
者が音の高さを変える場合、新たな音の開始点でのパワ
ーを最も大きくし、その後徐々に減衰させていくように
するものであるためである。また、楽器音においても音
の開始でアタックし、その後デイケイさせていく性貫を
有するためである。
The reason for performing segmentation by extracting the rise of power information in this way is that, for example, when a singer changes the pitch of a note, the power at the starting point of the new note is maximized, This is because it is designed to gradually attenuate thereafter. This is also because musical instrument sounds have the characteristic of attacking at the beginning of the sound and then decaying.

第2図はパワー情報P (t)の時間変化及び立上り抽
出関数d(t)の時間変化の一例を示すものであり、こ
の例の場合には、第1図の処理を実行することによりセ
グメントS1、S2・・・SNに区分される。
FIG. 2 shows an example of the time change of the power information P (t) and the time change of the rising edge extraction function d(t). In this example, by executing the process of FIG. It is divided into S1, S2...SN.

従って、上述の実施例によれば、パワー情報の立上りを
抽出してその立上りでセグメンテーションを実行するよ
うにしたので、音の開始点で区分することのできる精度
の高いセグメンテーションを実行することができる。
Therefore, according to the above-described embodiment, since the rising edge of the power information is extracted and segmentation is performed at that rising edge, highly accurate segmentation that can be performed at the starting point of the sound can be performed. .

卸府叉施倒 なお、上述の実施例においては、パワー情報として音響
信号の2乗和を用いたものを示したが、他のパラメータ
を用いても良い。例えば、2乗和の平方根を用いても良
い。
In addition, in the above-mentioned embodiment, the sum of squares of the acoustic signal is used as the power information, but other parameters may be used. For example, the square root of the sum of squares may be used.

また、上述の実施例においては、立上りを抽出するため
の関数として(1)式に示すものを適用したが、他の関
数を適用するようにしても良い。例えば、分母を固定し
た微分関数を適用しても良い。
Further, in the above-described embodiment, the function shown in equation (1) is used as the function for extracting the rising edge, but other functions may be applied. For example, a differential function with a fixed denominator may be applied.

さらに、上述の実施例においては、第4図に示す全ての
処理をCPUIが主記憶装置3に格納されているプログ
ラムに従って実行するものを示したが、その一部または
全部の処理をハードウェア構成で実行するようにしても
良い。例えば、第3図との対応部分に同一符号を付した
第5図に示すように、音響信号入力装置8からの音響信
号を増幅回路10を介して増幅した後、さらに前置フィ
ルタ11を介してアナログ/デジタル変換器12に与え
てデジタル信号に変換し、このデジタル信号に変換され
た音響信号を信号処理プロセッサ13が自己相関分析し
てピッチ情報を抽出し、また2乗和処理してパワー情報
を抽出してCPUIによるソフトウェア処理系に与える
ようにしても良い。このようなハードウェア構成(10
〜13)に用いられる信号処理プロセッサ13としては
、 ゛音声帯域の信号をリアルタイム処理し得ると共に
、ポストのCPUIとのインタフェース信号が用意され
ているプロセッサ(例えば、日本電気株式会社製μP 
D 7?20)を適用し得る。
Furthermore, in the above-described embodiment, all the processes shown in FIG. You can also run it with For example, as shown in FIG. 5, in which parts corresponding to those in FIG. The signal processing processor 13 performs autocorrelation analysis on the acoustic signal converted to the digital signal to extract pitch information, and performs sum-of-squares processing to obtain power. The information may be extracted and provided to a software processing system using the CPUI. Hardware configuration like this (10
The signal processing processor 13 used in ~13) is a processor that is capable of real-time processing of audio band signals and is equipped with an interface signal with the CPU of the post (for example, μP manufactured by NEC Corporation).
D7?20) may be applied.

[発明の効果] 以上のように、本発明によれば、パワー情報の立上り変
化点を抽出し、その変化点で音響信号のセグメンテーシ
ョンを行なうようにしたので、音の開始点で正確にセグ
メンテーションすることができ、このセグメンテーショ
ン結果を利用する音程同定処理等の以降の処理を良好に
実行させることができる。
[Effects of the Invention] As described above, according to the present invention, the rising change point of the power information is extracted and the acoustic signal is segmented at the change point, so segmentation can be performed accurately at the starting point of the sound. This allows subsequent processing such as pitch identification processing using this segmentation result to be executed satisfactorily.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の一実施例にかかるパワー情報に基づく
セグメンテーション処理を示すフローチャート、第2図
はパワー情報及び立上り抽出関数の経時変化をセグメン
テーション結果と共に示す特性曲線図、第3図は本発明
を適用する自動採譜方式の構成を示すブロック図、第4
図はその自動採譜処理手順を示すフローチャート、第5
図は自動採譜方式の他の構成を示すブロック図である。 1・・・cpu、3・・・主記憶装置、6・・・補助記
憶装置、7・・・アナログ/デジタル変換器、8・・・
音響信号入力装置。
FIG. 1 is a flowchart showing segmentation processing based on power information according to an embodiment of the present invention, FIG. 2 is a characteristic curve diagram showing temporal changes in power information and a rising edge extraction function together with segmentation results, and FIG. 3 is a flowchart showing a segmentation process based on power information according to an embodiment of the present invention. A block diagram showing the configuration of an automatic score transcription method applying
The figure is a flowchart showing the automatic music transcription processing procedure.
The figure is a block diagram showing another configuration of the automatic score transcription system. 1... CPU, 3... Main storage device, 6... Auxiliary storage device, 7... Analog/digital converter, 8...
Acoustic signal input device.

Claims (2)

【特許請求の範囲】[Claims] (1)入力された音響信号からパワー情報を抽出する処
理及び上記パワー情報に基づいて上記音響信号を同一音
程とみなせる区間に区分するセグメンテーション処理を
少なくとも含み、上記音響信号を楽譜データに変換する
自動採譜方法において、上記セグメンテーション処理が
、 上記パワー情報の立上り変化点を抽出し、この抽出され
た立上り変化点で上記音響信号を区分する処理でなるこ
とを特徴とする自動採譜方法。
(1) Automatically converting the acoustic signal into musical score data, including at least a process of extracting power information from the input acoustic signal and a segmentation process of dividing the acoustic signal into sections that can be considered to have the same pitch based on the power information. An automatic score transcription method, wherein the segmentation process is a process of extracting a rising edge change point of the power information and dividing the acoustic signal at the extracted rising edge changing point.
(2)入力された音響信号からパワー情報を抽出するパ
ワー抽出手段と、抽出されたパワー情報に基づいて上記
音響信号を同一音程とみなせる区間に区分するセグメン
テーション手段とを一部に備えて上記音響信号を楽譜デ
ータに変換する自動採譜装置において、 上記セグメンテーション手段が、 上記パワー情報の立上り変化点を抽出する変化点抽出部
と、この抽出された立上り変化点で上記音響信号を区分
する区分部とでなることを特徴とする自動採譜装置。
(2) A power extractor for extracting power information from an input acoustic signal, and a segmentation means for dividing the acoustic signal into sections that can be considered to have the same pitch based on the extracted power information. In an automatic music transcription device that converts a signal into musical score data, the segmentation means includes a change point extractor that extracts a rising change point of the power information, and a segmentation unit that divides the acoustic signal by the extracted rise change point. An automatic score transcription device characterized by:
JP4611488A 1988-02-29 1988-02-29 Automatic score taking method and apparatus Pending JPH01219624A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP4611488A JPH01219624A (en) 1988-02-29 1988-02-29 Automatic score taking method and apparatus
US07/315,761 US5038658A (en) 1988-02-29 1989-02-27 Method for automatically transcribing music and apparatus therefore
CA000592347A CA1337728C (en) 1988-02-29 1989-02-28 Method for automatically transcribing music and apparatus therefore

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4611488A JPH01219624A (en) 1988-02-29 1988-02-29 Automatic score taking method and apparatus

Publications (1)

Publication Number Publication Date
JPH01219624A true JPH01219624A (en) 1989-09-01

Family

ID=12737974

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4611488A Pending JPH01219624A (en) 1988-02-29 1988-02-29 Automatic score taking method and apparatus

Country Status (1)

Country Link
JP (1) JPH01219624A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011065044A (en) * 2009-09-18 2011-03-31 Brother Industries Ltd Voice processing device and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58181090A (en) * 1982-04-16 1983-10-22 三洋電機株式会社 Musical score preparation apparatus
JPS6046114A (en) * 1983-05-03 1985-03-12 シェイ コミュニケーションズ リミテッド Variable inductor mechanism
JPS6069694A (en) * 1983-09-27 1985-04-20 松下電器産業株式会社 Segmentation of head consonant

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58181090A (en) * 1982-04-16 1983-10-22 三洋電機株式会社 Musical score preparation apparatus
JPS6046114A (en) * 1983-05-03 1985-03-12 シェイ コミュニケーションズ リミテッド Variable inductor mechanism
JPS6069694A (en) * 1983-09-27 1985-04-20 松下電器産業株式会社 Segmentation of head consonant

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011065044A (en) * 2009-09-18 2011-03-31 Brother Industries Ltd Voice processing device and program

Similar Documents

Publication Publication Date Title
JP2004538525A (en) Pitch determination method and apparatus by frequency analysis
WO2006132599A1 (en) Segmenting a humming signal into musical notes
JP2604410B2 (en) Automatic music transcription method and device
JPH01219624A (en) Automatic score taking method and apparatus
JPH01219636A (en) Automatic score taking method and apparatus
JP2604404B2 (en) Automatic music transcription method and device
JP2604411B2 (en) Automatic music transcription method and device
JPH01219623A (en) Automatic score taking method and apparatus
EP0367191B1 (en) Automatic music transcription method and system
JP3001353B2 (en) Automatic transcription device
JPH01219625A (en) Automatic score taking method and apparatus
JP2604400B2 (en) Pitch extraction method and extraction device
JPH01219888A (en) Method and device for automatic sampling
JP2604414B2 (en) Automatic music transcription method and device
JP2604413B2 (en) Automatic music transcription method and device
JP2604405B2 (en) Automatic music transcription method and device
JPH01219889A (en) Method and device for pitch extraction
JP2614631B2 (en) Automatic music transcription method and device
JP2604401B2 (en) Automatic music transcription method and device
JPH01219626A (en) Automatic score taking method and apparatus
JP2002287744A (en) Method and device for waveform data analysis and program
JP2604407B2 (en) Automatic music transcription method and device
JPH01219630A (en) Automatic score taking method and apparatus
JP2604409B2 (en) Automatic music transcription method and device
Glover et al. Real-time segmentation of the temporal evolution of musical sounds