JP3612272B2 - Music information search device, music information search method, and computer-readable recording medium storing music information search program - Google Patents
Music information search device, music information search method, and computer-readable recording medium storing music information search program Download PDFInfo
- Publication number
- JP3612272B2 JP3612272B2 JP2000312774A JP2000312774A JP3612272B2 JP 3612272 B2 JP3612272 B2 JP 3612272B2 JP 2000312774 A JP2000312774 A JP 2000312774A JP 2000312774 A JP2000312774 A JP 2000312774A JP 3612272 B2 JP3612272 B2 JP 3612272B2
- Authority
- JP
- Japan
- Prior art keywords
- music
- feature
- music information
- piece
- feature amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Landscapes
- Reverberation, Karaoke And Other Acoustics (AREA)
- Electrophonic Musical Instruments (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、音楽情報の持つ特徴量を用いて音楽情報を検索する音楽情報検索装置及びその方法と、その音楽情報検索方法の実現に用いられる音楽情報検索用プログラムを記録したコンピュータ読み取り可能な記録媒体とに関する。
【0002】
【従来の技術】
マルチメディア・データベースを構築するにあたって、類似検索は欠かせない技術である。
【0003】
例えば、リンゴの写っている画像を探す場合、検索キーとして与えたリンゴの絵や写真とまったく同じリンゴが写っている画像を探したいという要求はめったにない。ほとんどが、単にリンゴが写っている画像が欲しいという要求であり、このような場合には、「検索キーとして与えたリンゴの画像に似ている画像を探す」といった、類似検索技術が必要である。
【0004】
このような内容検索の新たなメディアへの対応として、ハミングや口ずさんだメロディなどを使って、音楽情報データベースから曲名や歌手を検索する技術の研究が盛んに行われている。
【0005】
このようなことを背景にして、本発明者らも、音楽から音の推移や音の分布に関する特徴量を抽出して、それを使って、音楽情報データベースを検索するシステムの研究(Naoko Kosugi,Yuichi Nishihara,Seiichi Kon’ya,Masashi Yamamuro,and Kazuhiko Kushima : Music Retrieval by Humming−Using Similarity Retrieval over High Dimensional Feature Vector Space−, PACRIM’99 p404−407) を行っている。
【0006】
この本発明者らが提案した音楽検索システムでは、人の歌唱を検索キーとして受け付けることで、曲の旋律の一部のみしか覚えていない人に、その曲の題名や歌手・演奏者などを捜し出すことができるようにすることを提供している。
【0007】
人の歌唱によってその曲に関する情報を検索する場合、人は必ずしもサビや出たしを歌うとは限らない。そこで、本発明者らが提案した音楽検索システムでは、音楽データ(旋律データ)を細かく分割し、保持する音楽データの冗長性を増すことで、人が曲のどの部分を歌っても検索できるようにすることを実現している。
【0008】
この構成の実現にあたって、本発明者らが提案した音楽検索システムでは、図21に示すように、ある一定の区間ごとに音楽データを分割することで音楽片を切り出して、それらの音楽片毎に、音楽片の先頭を起点とする特徴量(特徴量ベクトル)を算出するという構成を採っている。
【0009】
そして、そのようにして算出される特徴量を使って、音楽情報データベースを構築するとともに、そのようにして算出される特徴量を使って、人の歌唱の音楽データと音楽情報データベースに格納される音楽データとの類似度を評価するという構成を採っている。
【0010】
このように、従来技術では、音楽片の先頭を起点として、音楽片全体から特徴量(特徴量ベクトル)を算出するという構成を採っている。
【0011】
なお、この従来技術により算出される特徴量(特徴量ベクトル)を、音楽片全体から算出されることを考慮して、以下において「Entire Feature Vector 」と称することがある。
【0012】
【発明が解決しようとする課題】
しかしながら、このような従来技術に従っていると、検索者の歌唱部分と、分割された音楽データ(旋律データ)の先頭とが一致しない場合に、検索精度が著しく悪化するという問題点がある。
【0013】
すなわち、従来技術では、音楽片の先頭を起点として、音楽片全体から特徴量を算出するという構成を採っていることから、検索者の歌唱部分と、分割された音楽データ(旋律データ)の先頭とが一致しない場合には、検索精度が著しく悪化するのである。
【0014】
この問題点の解決を図るためには、音楽データをより細かく分割するという方法を用いることが考えられるが、この方法を用いると、データ量が爆発的に増大するという新たな問題点が出てくる。
【0015】
本発明はかかる事情に鑑みてなされたものであって、人の歌唱によってその曲に関する情報を検索するシステムを構築する場合に、その検索精度の向上を実現可能にする新たな音楽情報検索技術の提供を目的とする。
【0023】
【課題を解決するための手段】
この目的を達成するために、本発明の音楽情報検索装置は、入力された音楽情報から切り出される複数の音楽片のそれぞれについて、所定の条件を満たす音楽片上の時間的位置として定義される特徴点を検出して、それらの特徴点を起点とする特徴量を生成する生成手段と、検索対象となる楽曲の持つ特徴量(生成手段の生成対象となる特徴量)を記憶する記憶手段と、記憶手段の記憶データを検索することで、生成手段の生成した特徴量毎に、それに類似する特徴量を持つ複数の楽曲を検索する検索手段と、検索手段の検索した楽曲の中から、入力された音楽情報の指す楽曲を特定する特定手段とを備えるように構成する。
【0024】
ここで、生成手段は、入力された音楽情報から切り出される1つの音楽片の持つ特徴点を検出して、その特徴点を起点とする特徴量を生成することがあり、このときには、特定手段については備えられずに、検索手段は、生成された特徴量に類似する特徴量を持つ1つ又は複数の楽曲を検索して、それを検索結果として出力することになる。
【0025】
このように構成されるときにあって、入力された音楽情報を規定の音符形態に変換する変換手段(例えば、実験により検証された検索精度の向上を実現できる例えば8分音符といった規定の音符形態に変換する)を備えることがあり、この場合には、生成手段は、変換手段の変換した音楽情報から切り出される音楽片を処理対象として特徴量を生成する。
また、生成手段は、音楽片の規定の時間的位置に位置する規定長さの区間部分を特徴点の検出に用いる区間として特徴点を検出することがあり、このとき、生成手段は、特徴点に課される音の高さ又は長さについての条件を充足する音位置を検出することで、その区間に含まれる特徴点を検出することがある。
また、生成手段は、特徴点を起点とする規定長さの音楽片部分から特徴量を生成したり、特徴点を起点とし音楽片終端を終点とする音楽片部分から特徴量を生成する。
なお、本発明の音楽情報検索装置により算出される特徴量(特徴量ベクトル)を、音楽片の一部分から算出されることを考慮して、以下において「 Partial Feature Vector 」と称することがある。
このように構成される本発明の音楽情報検索装置では、生成手段は、入力された音楽情報から切り出される複数の音楽片の持つそれぞれの特徴点を検出して、それらの特徴点を起点とする特徴量を生成する。
【0026】
この特徴量の生成を受けて、検索手段は、記憶手段の記憶データを検索することで、生成手段の生成した特徴量毎に、それに類似する特徴量を持つ複数の楽曲を検索し、これを受けて、特定手段は、例えば検索された楽曲の持つ類似度をOR演算することで、入力された音楽情報の指す楽曲を特定する。
【0027】
この構成を採るときにあって、検索精度の向上を図るために、生成手段は、例えば生成する時系列データ形式の特徴量を、例えばヒストグラム形式などのような別の表現形式に変換することで複数の特徴量を生成することがあり、これを受けて、データベース手段は、この表現形式の異なる複数の特徴量を管理することがある。
【0028】
このようにして、本発明の音楽情報検索装置では、従来技術のように、音楽片全体から特徴量を算出するという構成を採るのではなくて、図1に示すように、音楽片の中に含まれる特徴点を検出する構成を採って、その特徴点を起点とするいわば音楽片の部分特徴量とも言うべき特徴量を算出するように処理する。
そして、本発明の音楽情報検索装置では、図2に示すように、検索対象となる楽曲を、それが持つそのような算出形態で算出される特徴量との対応をとりつつ管理する音楽情報データベースを構築するとともに、そのような算出形態に従って、入力された音楽情報の持つ特徴量を生成して、それを検索キーにして音楽情報データベースを検索することで、入力された音楽情報の指す楽曲を検索するように処理することから、入力された音楽情報を分割することで得た音楽片と音楽情報データベースに格納される分割された音楽片との先頭が一致しない場合にも、高い検索精度を実現できるようになる。
【0029】
【発明の実施の形態】
以下、実施の形態に従って本発明を詳細に説明する。
【0030】
図3に、本発明を具備する音楽情報検索装置1の一実施形態例を図示する。
【0031】
本発明の音楽情報検索装置1は、人のハミングした曲に関する情報(曲名など)を検索する処理を行うものであって、この検索処理を実現するために、音楽情報データベース10と、採譜部11と、ノイズ除去部12と、特徴量生成部13と、検索部14とを備える。
【0032】
ここで、本発明の音楽情報検索装置1の備える採譜部11やノイズ除去部12や特徴量生成部13や検索部14は、具体的にはプログラムで実現されるものであり、これらのプログラムは、計算機が読み取り可能な半導体メモリなどの適当な記録媒体に格納することができる。
【0033】
音楽情報データベース10は、検索対象となる楽曲の音楽情報(曲名・旋律情報)と、その楽曲の持つ特徴量と、その楽曲の持つ属性情報(歌手・演奏者などの情報)とを管理する。この音楽情報データベース10に管理される楽曲の持つ特徴量は、特徴量生成部13により生成されて登録されるものである。
【0034】
採譜部11は、例えば市販の採譜ソフトにより構成されて、入力されたハミングの楽譜情報を作成する。
【0035】
採譜部11により作成される楽譜情報はMIDI形式で作成されるものであって、楽譜情報を構成する相対時間にかかる情報と、その楽譜情報の演奏時間を構成する絶対時間にかかる情報とで構成されることになるが、採譜部11は、音楽情報データベース10の管理する特徴量(相対時間で記述されている)との時間の正規化を図るべく、この内の絶対時間に関係しない部分である楽譜情報部分をノイズ除去部12に渡すように処理している。
【0036】
ノイズ除去部12は、採譜部11から渡される音楽情報(楽譜情報)を入力として、中心となるメロディーラインを外れた音や、レコーディング開始のある区間内で、ある長さ以上の無音区間が継続するときには、その無音区間よりも前の音区間を削除することなどにより、入力するハミングに乗っているノイズを除去する処理を行う。例えば、図4に示すようなハミングを入力するときには、1番目と4番目と14番目の音はノイズであるとして除去するように処理する。
【0037】
特徴量生成部13は、ノイズ除去部12から渡される音楽情報を音楽片に分割する音楽情報分割部130と、分割された音楽片の持つ特徴量(旋律の特徴量)を算出する音楽特徴量算出部131と、算出された特徴量(旋律の特徴量)から音楽片の特徴点を選出するための区間を限定する特徴点選出区間限定部132と、限定された区間の中から特徴点を決定する特徴点決定部133と、決定された特徴点を起点とする特徴量を導出する特徴量導出部134とを備えることで、入力したハミングの持つ特徴量を生成して、それを検索部14に渡す処理を実行する。
【0038】
ここで、音楽特徴量算出部131の算出する音楽特徴量は旋律に1対1に対応付けられる特徴量であるのに対して、特徴量導出部134の導出する特徴量は本発明に特徴的な特徴量である。以下、説明の便宜上、特徴量導出部134の導出する特徴量を「特徴点起点音楽部分特徴ベクトル」と称することがある。
【0039】
検索部14は、特徴量生成部13から渡されるハミングの持つ特徴量を検索キーにして音楽情報データベース10を検索することで、入力したハミングの曲名などを検索する。
【0040】
図5に、特徴量生成部13の実行する処理フローの一実施形態例を図示する。次に、この処理フローに従って、特徴量生成部13の実行する処理について説明する。
【0041】
特徴量生成部13は、ノイズ除去部12からハミングの音楽情報が渡されることで起動されると、図5の処理フローに示すように、先ず最初に、ステップ1で、その音楽情報(検索対象となるもの)を入力する。
【0042】
続いて、ステップ2で、その入力した音楽情報から、例えば、4拍ずつずらしながら16拍の長さを持つ音楽片を切り出すことで、その入力した音楽情報を音楽片に分割する。この分割処理が音楽情報分割部130の処理に相当する。
【0043】
続いて、ステップ3で、各音楽片の旋律の特徴量を算出する。例えば、図6に示すような音の高さを示すMIDIコードを使って音楽片の旋律の特徴量を算出する場合を具体例にして説明するならば、「64,64,65,65,67,67,65,65」という旋律の特徴量を算出したり、この65をベーストーンとする「−1,−1,0,0,2,2,0,0」という旋律の特徴量を算出するのである。この算出処理が音楽特徴量算出部131の処理に相当する。
【0044】
続いて、ステップ4で、生成した全ての音楽片を処理したのか否かを判断して、全ての音楽片を処理していないことを判断するときには、ステップ6に進んで、未処理の音楽片を1つ選択する。
【0045】
続いて、ステップ7で、その選択した音楽片の持つ中央部分の区間を特徴点を選出するための区間として限定(抽出)する。例えば、16拍の長さを持つ音楽片の中央の4拍を限定するのである。この限定処理が特徴点選出区間限定部132の処理に相当する。
【0046】
続いて、ステップ8で、その限定した区間の中の最も高い音を特徴点として決定(選出)する。この決定処理が特徴点決定部133の処理に相当する。
【0047】
続いて、ステップ9で、その決定した特徴点から音楽片の最後拍までをその音楽片の特徴量(特徴点起点音楽部分特徴ベクトル)として導出(生成)してから、次の音楽片を処理すべくステップ4に戻る。この導出処理が特徴量導出部134の処理に相当する。
【0048】
そして、ステップ4で、生成した全ての音楽片を処理したことを判断するときには、ステップ5に進んで、生成した特徴量(音楽片毎に求まる)を検索部14に渡して、処理を終了する。
【0049】
このようにして、特徴量生成部13は、図5の処理フローに従う場合には、入力した音楽情報から、4拍ずつずらしながら16拍の長さを持つ音楽片を切り出して旋律の特徴量を算出すると、図7に示すように、先ず最初に、その音楽片の中央の4拍を限定し、続いて、その4拍の中の最も高い音を特徴点として決定し、続いて、その特徴点から最後拍までをその音楽片の特徴量(特徴点起点音楽部分特徴ベクトル)として導出するように処理するのである。
【0050】
図8に、特徴量生成部13の実行する処理フローの他の実施形態例を図示する。
【0051】
特徴量生成部13は、この処理フローに従う場合には、ノイズ除去部12からハミングの音楽情報が渡されることで起動されると、先ず最初に、ステップ1で、その音楽情報を入力し、続くステップ2で、その入力した音楽情報から音楽片を切り出し、続くステップ3で、各音楽片の旋律の特徴量を算出する。
【0052】
続いて、ステップ4で、生成した全ての音楽片を処理したのか否かを判断して、全ての音楽片を処理していないことを判断するときには、ステップ6に進んで、未処理の音楽片を1つ選択する。
【0053】
続いて、ステップ7で、その選択した音楽片の持つ最初の4拍の区間を特徴点を選出するための区間として限定(抽出)し、続くステップ8で、最初の8拍内の最も長い音で、かつ鳴り出しがその限定した区間(最初の4拍)にある音を特徴点として決定(選出)し、続くステップ9で、その決定した特徴点から12拍までをその音楽片の特徴量(特徴点起点音楽部分特徴ベクトル)として導出(生成)してから、次の音楽片を処理すべくステップ4に戻る。
【0054】
そして、ステップ4で、生成した全ての音楽片を処理したことを判断するときには、ステップ5に進んで、生成した特徴量(音楽片毎に求まる)を検索部14に渡して、処理を終了する。
【0055】
このようにして、特徴量生成部13は、図8の処理フローに従う場合には、入力した音楽情報から、4拍ずつずらしながら16拍の長さを持つ音楽片を切り出して旋律の特徴量を算出すると、図9に示すように、先ず最初に、その音楽片の最初の4拍を限定し、続いて、最初の8拍内の最も長い音で、かつ鳴り出しがその最初の4拍にある音を特徴点として決定し、続いて、その特徴点から12拍ををその音楽片の特徴量(特徴点起点音楽部分特徴ベクトル)として導出するように処理するのである。
【0056】
このように、特徴量生成部13は、従来技術のように、音楽片の全体から特徴量を算出するという構成を採るのではなくて、音楽片の中に含まれる特徴点を検出する構成を採って、その特徴点を起点とする特徴量(特徴点起点音楽部分特徴ベクトル)を導出するように処理している。
【0057】
すなわち、図10に示す音楽情報で説明するならば、18番目の音符から切り出される音楽片について、従来技術では、その音楽片の先頭に位置する18番目の音符を起点としつつ、その音楽片全体から「Entire Feature Vector 」と表現すべき特徴量を生成するのに対して、特徴量生成部13では、例えば、その音楽片の19番目の音符を起点としつつ、その音楽片の一部分から「Partial Feature Vector」と表現すべき特徴量を生成するのである。
【0058】
図3では図示しなかったが、特徴点選出区間限定部132や特徴点決定部133や特徴量導出部134の実行する処理については、色々な処理を用意しておいて、その中から検索精度の向上を実現する最適なものを選択できるようにしておくことが望まれる。
【0059】
このような要求に応えるために、図11(a)に示すように、異なるアルゴリズムに従って特徴点の選出区間を限定する複数のルールを用意しておき、その中からユーザの設定するルールを呼び出していくことで特徴点の選出区間を限定したり、図11(b)に示すように、異なるアルゴリズムに従って特徴点を決定する複数のルールを用意しておき、その中からユーザの設定するルールを呼び出していくことで特徴点を決定したり、図11(c)に示すように、異なるアルゴリズムに従って特徴量(特徴点起点音楽部分特徴ベクトル)を導出する複数のルールを用意しておき、その中からユーザの設定するルールを呼び出していくことで特徴量を導出するという構成を用いることが好ましい。
【0060】
また、特徴量生成部13は、図7や図9に示したような音の高さを示すMIDIコードの時系列データで定義される図12(b)に示すような特徴点起点音楽部分特徴ベクトルを生成するときに、そのMIDIコードのヒストグラムで定義される図12(b)に示すような特徴点起点音楽部分特徴ベクトルを生成することがある。
【0061】
後述するように、このような異なる表現形式を持つ複数の特徴点起点音楽部分特徴ベクトルを使って音楽情報データベース10を検索すると、検索精度を向上できるようになることから、特徴量生成部13は、図12に示すように、時系列データで定義される特徴点起点音楽部分特徴ベクトルを生成するときに、それから、それとは表現形式の異なる別の特徴点起点音楽部分特徴ベクトルを生成するように処理することがあるのである。
【0062】
図13及び図14に、検索部14の実行する処理フローの一実施形態例を図示する。ここで、図13は、特徴量生成部13が1種類の特徴量を生成するときに検索部14が実行することになる処理を図示しており、図14は、特徴量生成部13が異なる表現形式を持つ複数の特徴量を生成するときに検索部14が実行することになる処理を図示している。
【0063】
次に、これらの処理フローに従って、特徴量生成部13の生成する特徴量(特徴点起点音楽部分特徴ベクトル)を使って実行される検索処理について説明する。
【0064】
検索部14は、図13の処理フローに従う場合には、ハミングから切り出された複数の音楽片の特徴量を特徴量生成部13から渡されることで起動されると、先ず最初に、ステップ1で、特徴量生成部13からそれらの各音楽片の持つ1種類の特徴量を受け取る。
【0065】
続いて、ステップ2で、全ての音楽片を選択したのか否かを判断して、未処理の音楽片が残されていることを判断するときには、ステップ3に進んで、未処理の音楽片を1つ選択する。
【0066】
続いて、ステップ4で、その選択した音楽片の特徴量を処理対象として設定し、続くステップ5で、音楽情報データベース10を検索することで、その処理対象の特徴量に類似する特徴量を持つ例えば上位20曲を検索して、次の音楽片を処理すべくステップ2に戻る。
【0067】
一方、ステップ2で、全ての音楽片を選択したことを判断するときには、ステップ6に進んで、その検索した楽曲の持つ類似度(例えば距離を使って類似度を評価するときには、距離値が小さい値ほど高い類似を示す)にOR演算を施すことで、ハミングに類似する例えば上位10曲を特定する。
【0068】
例えば、図15に示すように、音楽片1の特徴量から、距離0.9 の類似度を持つ楽曲D/距離1.5 の類似度を持つ楽曲B/距離1.8 の類似度を持つ楽曲C/距離5.8 の類似度を持つ楽曲Aが検索され、音楽片2の特徴量から、距離0.3 の類似度を持つ楽曲A/距離1.2 の類似度を持つ楽曲B/距離2.0 の類似度を持つ楽曲C/距離5.9 の類似度を持つ楽曲Dが検索され、音楽片3の特徴量から、距離1.0 の類似度を持つ楽曲B/距離1.2 の類似度を持つ楽曲C/距離1.5 の類似度を持つ楽曲D/距離6.0 の類似度を持つ楽曲Aが検索される場合には、楽曲Aの最小距離が0.3 で、楽曲Bの最小距離が1.0 で、楽曲Cの最小距離が1.2 で、楽曲Dの最小距離が0.9 であるので、OR演算に従って、ハミングに最も類似する楽曲してA、次に類似する楽曲としてD、その次に類似する楽曲としてB、その次に類似する楽曲としてCを特定するのである。
【0069】
そして、最後に、ステップ7で、その特定した例えば上位10曲を検索結果として出力して、処理を終了する。
【0070】
また、検索部14は、図14の処理フローに従う場合には、ハミングから切り出された複数の音楽片の特徴量を特徴量生成部13から渡されることで起動されると、先ず最初に、ステップ1で、特徴量生成部13からそれらの各音楽片の持つ複数種類の特徴量を受け取る。
【0071】
続いて、ステップ2で、全ての音楽片を選択したのか否かを判断して、未処理の音楽片が残されていることを判断するときには、ステップ3に進んで、未処理の音楽片を1つ選択する。
【0072】
続いて、ステップ4で、その選択した音楽片の持つ特徴量を全て処理したのか否かを判断して、未処理のものが残されていることを判断するときには、ステップ5に進んで、その選択した音楽片の持つ特徴量の中から未処理のものを選択して処理対象とし、続くステップ6で、音楽情報データベース10を検索することで、その処理対象の特徴量に類似する特徴量を検索して、次の特徴量を処理すべくステップ4に戻る。
【0073】
このようにして、ステップ4〜ステップ6の処理を繰り返していくことで、ステップ4で、選択した音楽片の持つ特徴量を全て処理したことを判断するときには、ステップ7に進んで、ステップ6で検索した特徴量の持つ類似度の重み付線形和を算出し、その中から例えば上位20個の特徴量を特定して、その特徴量を持つ例えば上位20曲を検索する。そして、次の音楽片を処理すべくステップ2に戻る。
【0074】
一方、ステップ2で、全ての音楽片を選択したことを判断するときには、ステップ8に進んで、その検索した楽曲の持つ類似度に上述のOR演算を施すことで、ハミングに類似する例えば上位10曲を特定し、続くステップ9で、その特定した例えば上位10曲を検索結果として出力して、処理を終了する。
【0075】
このようにして、検索部14は、特徴量生成部13から、ハミングから切り出された複数の音楽片の特徴量が渡されると、それを検索キーにして音楽情報データベース10を検索することで、ハミングに類似する例えば上位10曲を得て、それを出力するように処理するのである。
【0076】
図13及び図14の処理フローでは、特徴量生成部13がハミングの中から複数の音楽片を切り出してその特徴量を生成し、それを検索部14に渡す処理を行うことで説明したが、特徴量生成部13がハミングの中から例えば真ん中に位置する1つの音楽片のみの特徴量を生成し、それを検索部14に渡す処理を行うということもある。
【0077】
このときには、検索部14は、図13の処理フローに代えて図16(a)の処理フローを実行し、また、図14の処理フローに代えて図16(b)の処理フローを実行することになる。このときには、図15で説明したOR演算は行われない。
【0078】
次に、本発明の有効性を検証するために行った実験の結果について説明する。
【0079】
この実験は、音楽情報データベース10が約10,000件の楽曲についての情報を管理する構成を採るときにあって、25人のユーザが自分の選んだ任意の合計186曲をハミングするときに、その検索結果となる10位までの曲名を得て、その曲名をハミングした曲と照らし合わせることで行った。
【0080】
ここで、特徴点起点音楽部分特徴ベクトルは、音楽片の最初の4拍を限定して、その4拍の中の最も高い音を特徴点として決定し、その特徴点から12.5拍をを抽出することで得られるものを使った。
【0081】
図17に、本発明により得られる特徴点起点音楽部分特徴ベクトルを検索キーとする場合の実験結果と、従来技術により得られる「Entire Feature Vector 」を検索キーとする場合の実験結果とを対比して示す。
【0082】
この実験結果から分かるように、本発明により得られる特徴点起点音楽部分特徴ベクトルを検索キーとすると、ハミングした曲が10位までに入る確率は約75%であるのに対して、従来技術により得られる「Entire Feature Vector 」を検索キーとすると、ハミングした曲が10位までに入る確率は約65%に止まり、これにより本発明の有効性を検証できた。
【0083】
図18に、ハミングから複数の音楽片を切り出して検索を行う場合の実験結果と、ハミングの真ん中に位置する1つの音楽片を切り出して検索を行う場合の実験結果とを対比して示す。前者の検索を行う場合には、図15で説明したOR演算を行うことで最終的な検索結果を得るように処理することになる。
【0084】
この実験結果から分かるように、ハミングから複数の音楽片を切り出して検索を行う方が、1つの音楽片を切り出して検索を行うよりも検索精度を向上できることが検証できた。
【0085】
図19に、特徴点起点音楽部分特徴ベクトル(Partial Tone Transition Feature Vector) を検索キーとする場合の実験結果と、特徴点起点音楽部分特徴ベクトルをヒストグラムの表現形式に変換した特徴ベクトル(Tone Distribution Feature Vector) を検索キーとする場合の実験結果と、その2つの特徴ベクトルを結合した形を検索キーとする場合の実験結果とを対比して示す。
【0086】
この実験結果から分かるように、特徴点起点音楽部分特徴ベクトルとそれをヒストグラムの表現形式に変換した特徴ベクトルとの2つを検索キーとすると、特徴点起点音楽部分特徴ベクトルのみを検索キーとする場合よりも検索精度を向上できることが検証できた。
【0087】
図20に、音楽情報データベース10の管理する特徴量を8分音符(quaver−note)で記述する場合の実験結果と、4分音符(quater−note)で記述する場合の実験結果とを対比して示す。ここで、ハミングの音符形態と音楽情報データベースの音符形態とが異なる場合には、特徴量生成部13は、ハミングの音符形態を音楽情報データベースの音符形態に変換してから、上述の処理を行う。
【0088】
この実験結果から分かるように、本発明を8分音符の音符形態で実現する方が、4分音符の音符形態で実現するよりも検索精度を向上できることが検証できた。
【0089】
これから、上述の実施形態例で説明しなかったが、音楽情報データベース10の管理する特徴量を8分音符のような検索精度の向上を実現できる音符形態で構築するとともに、特徴量生成部13がハミングの音符形態をその音楽情報データベース10の音符形態に変換する機能を持つことが好ましい。
【0090】
【発明の効果】
以上説明したように、本発明では、従来技術のように、音楽片全体から特徴量を算出するという構成を採るのではなくて、音楽片の中に含まれる特徴点を検出する構成を採って、その特徴点を起点とするいわば音楽片の部分特徴量とも言うべき特徴量を算出するように処理することから、入力された音楽情報に類似するものを音楽情報データベースから検索する場合に、入力された音楽情報を分割することで得た音楽片と音楽情報データベースに格納される分割された音楽片との先頭が一致しない場合にも、高い検索精度を実現できるようになる。
【図面の簡単な説明】
【図1】本発明の説明図である。
【図2】本発明の説明図である。
【図3】本発明の一実施形態例である。
【図4】ノイズ除去処理を説明するための楽譜の一例である。
【図5】特徴量生成部の実行する処理フローの一実施形態例である。
【図6】音楽片の旋律の特徴量の算出処理の説明図である。
【図7】特徴量生成部の実行する処理の説明図である。
【図8】特徴量生成部の実行する処理フローの他の実施形態例である。
【図9】特徴量生成部の実行する処理の説明図である。
【図10】本発明を説明するための楽譜の一例である。
【図11】特徴量生成部の構成例の説明図である。
【図12】特徴量生成部の生成する特徴量の説明図である。
【図13】検索部の実行する処理フローの一実施形態例である。
【図14】検索部の実行する処理フローの一実施形態例である。
【図15】検索結果を求めるためのOR演算処理の説明図である。
【図16】特徴量生成部の実行する処理フローの他の実施形態例である。
【図17】本発明の有効性を検証するために行った実験結果の説明図である。
【図18】本発明の有効性を検証するために行った実験結果の説明図である。
【図19】本発明の有効性を検証するために行った実験結果の説明図である。
【図20】本発明の有効性を検証するために行った実験結果の説明図である。
【図21】従来技術の説明図である。
【符号の説明】
1 音楽情報検索装置
10 音楽情報データベース
11 採譜部
12 ノイズ除去部
13 特徴量生成部
14 検索部
130 音楽情報分割部
131 音楽特徴量算出部
132 特徴点選出区間限定部
133 特徴点決定部
134 特徴量導出部[0001]
BACKGROUND OF THE INVENTION
The present invention is a feature amount of music information.ForMusic information search device that searches music informationAnd a method thereof, and a computer-readable recording medium storing a music information search program used for realizing the music information search methodRelated.
[0002]
[Prior art]
Similarity search is an indispensable technology for building multimedia databases.
[0003]
For example, when searching for an image with an apple, there is rarely a need to search for an image with an apple that is exactly the same as the apple picture or photo given as a search key. Most of them are requests that simply want an image showing an apple. In such a case, a similar search technique such as “Find an image similar to the apple image given as a search key” is required. .
[0004]
In order to deal with such new media for content search, research on techniques for searching song titles and singers from a music information database using humming and melody is popular.
[0005]
Against this background, the present inventors have also extracted a feature quantity related to sound transition and sound distribution from music and used it to search a music information database (Naoko Kosugi, Yuichi Nishihara, Seichiki Kon'ya, Masashi Yamamura, and Kazuhiko Kusima: Music Retrieval by Humming-Veimetic Retrieval
[0006]
In the music search system proposed by the present inventors, a person's singing is accepted as a search key, so that a person who only remembers only a part of the melody of the song searches for the title of the song, a singer / performer, etc. Offering to be able to.
[0007]
When searching for information related to a song by a person's singing, a person does not necessarily sing rust or music. Therefore, the music search system proposed by the present inventors can divide music data (melody data) finely and increase the redundancy of the music data to be held so that a person can search any part of a song. Has been realized.
[0008]
In realizing the configuration, in the music search system proposed by the present inventors, as shown in FIG. 21, music pieces are cut out by dividing the music data into predetermined intervals, and each piece of music is cut out. The feature amount (feature amount vector) starting from the beginning of the music piece is calculated.
[0009]
Then, a music information database is constructed using the feature quantity calculated in this way, and stored in the music data and music information database of the person's song using the feature quantity thus calculated. The configuration is such that the degree of similarity with music data is evaluated.
[0010]
As described above, the conventional technology adopts a configuration in which the feature amount (feature amount vector) is calculated from the entire music piece starting from the beginning of the music piece.
[0011]
Note that the feature amount (feature amount vector) calculated by this conventional technique may be hereinafter referred to as “Entire Feature Vector” in consideration of being calculated from the entire music piece.
[0012]
[Problems to be solved by the invention]
However, according to such a conventional technique, there is a problem that the search accuracy is remarkably deteriorated when the singing part of the searcher does not coincide with the head of the divided music data (melody data).
[0013]
That is, in the prior art, since the feature amount is calculated from the whole music piece starting from the beginning of the music piece, the singing part of the searcher and the beginning of the divided music data (melody data) If the and do not match, the search accuracy is significantly deteriorated.
[0014]
In order to solve this problem, it is conceivable to use a method of dividing music data more finely. However, if this method is used, a new problem that the amount of data increases explosively appears. come.
[0015]
The present invention has been made in view of such circumstances, and it is possible to improve the search accuracy when a system for searching for information related to a song by human singing is constructed.NewProviding music information retrieval technologyServingObjective.
[0023]
[Means for Solving the Problems]
ThisIn order to achieve the above object, the music information retrieval apparatus of the present invention provides a plurality of music cut out from input music information.For each piece, a feature defined as a temporal position on the piece of music that satisfies a given condition.Generating means for detecting feature points and generating feature quantities starting from those feature points; and music to be searchedSpecial features of songsCollection amount (features to be generated by the generation means) MemorySteppedThe stored data in the storage meansGeneration of generation means by searchingdidSearch means for searching for a plurality of music pieces having similar feature quantities for each feature quantity, and search by the search meansdidA specifying means for specifying the music indicated by the input music information from the music is provided.
[0024]
Here, the generation means may detect a feature point of one piece of music cut out from the input music information and generate a feature quantity starting from the feature point. The search means searches for one or a plurality of music pieces having a feature quantity similar to the generated feature quantity and outputs it as a search result.
[0025]
When configured in this way, conversion means for converting the input music information into a prescribed note form (for example, a prescribed note form such as an eighth note capable of improving the search accuracy verified by experiments) In this case, the generation unit generates a feature amount using a music piece cut out from the music information converted by the conversion unit as a processing target.
In addition, the generation unit may detect a feature point as a section used for detecting a feature point using a section having a specified length located at a specified temporal position of the music piece. At this time, the generation unit may detect the feature point. By detecting a sound position that satisfies a condition regarding the pitch or length of a sound imposed on the sound, a feature point included in the section may be detected.
The generation unit generates a feature amount from a music piece portion having a specified length starting from the feature point, or generates a feature amount from a music piece portion starting from the feature point and ending at the end of the music piece.
In consideration of the fact that the feature quantity (feature quantity vector) calculated by the music information retrieval apparatus of the present invention is calculated from a part of a music piece, “ Partial Feature Vector May be called.
In the music information retrieval apparatus of the present invention configured as described above, the generation means detects each feature point of a plurality of music pieces cut out from the input music information, and uses those feature points as starting points. Generate feature values.
[0026]
In response to the generation of this feature quantity, search meansThe stored data of the storage meansGenerating means by searchingdidFor each feature quantity, a plurality of music pieces having similar feature quantities are searched, and in response to this, the specifying means performs, for example, an OR operation on the similarity degree of the searched music pieces, thereby obtaining the input music information. Identify the song you are pointing to.
[0027]
In order to improve the search accuracy when adopting this configuration, the generation means converts the feature quantity of the generated time-series data format into another expression format such as a histogram format, for example. A plurality of feature quantities may be generated, and in response to this, the database means may manage a plurality of feature quantities having different representation formats.
[0028]
In this way, the music information retrieval apparatus according to the present invention does not adopt a configuration in which the feature amount is calculated from the entire music piece as in the prior art, but as shown in FIG. By adopting a configuration for detecting included feature points, processing is performed so as to calculate a feature amount that can be called a partial feature amount of a musical piece starting from the feature point.
In the music information retrieval apparatus of the present invention,As shown in Fig. 2, it has the music to be searched.Calculated in such a calculation form.A music information database that is managed in correspondence with the feature quantityAccording to such a calculation form,Features of the input music informationRawThe music obtained by dividing the input music information is processed by searching the music information database using it as a search key and searching for the music indicated by the input music information. Even when the heads of the pieces and the divided pieces of music stored in the music information database do not match, high search accuracy can be realized.
[0029]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, the present invention will be described in detail according to embodiments.
[0030]
FIG. 3 shows an example of an embodiment of the music
[0031]
The music
[0032]
Here, the
[0033]
The
[0034]
The
[0035]
The musical score information created by the
[0036]
The
[0037]
The feature
[0038]
Here, the music feature amount calculated by the music feature
[0039]
The
[0040]
FIG. 5 illustrates an example of a processing flow executed by the feature
[0041]
When the humming music information is passed from the
[0042]
Subsequently, in
[0043]
Subsequently, in
[0044]
Subsequently, when it is determined in
[0045]
Subsequently, in
[0046]
Subsequently, in
[0047]
Subsequently, in
[0048]
When it is determined in
[0049]
In this way, the feature
[0050]
FIG. 8 illustrates another embodiment of the processing flow executed by the feature
[0051]
In the case of following this processing flow, when the feature
[0052]
Subsequently, when it is determined in
[0053]
Subsequently, in
[0054]
When it is determined in
[0055]
In this way, the feature
[0056]
As described above, the feature
[0057]
That is, in the case of the music information shown in FIG. 10, with respect to a music piece cut out from the 18th note, in the prior art, the entire music piece is started from the 18th note located at the beginning of the music piece. The feature
[0058]
Although not shown in FIG. 3, various processes are prepared for the processes executed by the feature point selection
[0059]
In order to respond to such a request, as shown in FIG. 11 (a), a plurality of rules for limiting feature point selection sections according to different algorithms are prepared, and a rule set by the user is called out of them. As shown in FIG. 11B, a plurality of rules for determining feature points according to different algorithms are prepared, and a rule set by the user is called out from the rules. As shown in FIG. 11 (c), a plurality of rules for deriving feature quantities (feature point starting music partial feature vectors) according to different algorithms are prepared, It is preferable to use a configuration in which the feature amount is derived by calling a rule set by the user.
[0060]
Also, the feature
[0061]
As will be described later, if the
[0062]
13 and 14 show an embodiment of a processing flow executed by the
[0063]
Next, search processing executed using the feature amount (feature point starting music partial feature vector) generated by the feature
[0064]
In the case of following the processing flow of FIG. 13, when the
[0065]
Subsequently, in
[0066]
Subsequently, in
[0067]
On the other hand, when it is determined in
[0068]
For example, as shown in FIG. 15, from the feature amount of the
[0069]
Finally, in
[0070]
Further, in the case of following the processing flow of FIG. 14, when the
[0071]
Subsequently, in
[0072]
Subsequently, in
[0073]
In this way, when it is determined in
[0074]
On the other hand, when it is determined in
[0075]
In this way, when the feature values of a plurality of music pieces cut out from the humming are passed from the feature
[0076]
In the processing flow of FIG. 13 and FIG. 14, the feature
[0077]
At this time, the
[0078]
Next, the results of experiments conducted to verify the effectiveness of the present invention will be described.
[0079]
This experiment is performed when the
[0080]
Here, the feature point starting music partial feature vector is limited to the first four beats of the music piece, the highest sound among the four beats is determined as the feature point, and 12.5 beats from the feature point are determined. What was obtained by extracting was used.
[0081]
FIG. 17 compares the experimental results obtained when the feature point starting music partial feature vector obtained by the present invention is used as a search key and the experimental results obtained when “Entire Feature Vector” obtained by the prior art is used as a search key. Show.
[0082]
As can be seen from the experimental results, when the feature point starting music partial feature vector obtained by the present invention is used as a search key, the probability that a hummed song will enter the 10th place is about 75%, whereas according to the conventional technique. When the obtained “Entire Feature Vector” is used as a search key, the probability that a hummed song will enter the 10th place is only about 65%, and thus the effectiveness of the present invention can be verified.
[0083]
FIG. 18 shows a comparison between an experimental result when a search is performed by cutting out a plurality of music pieces from Hamming, and an experimental result when a search is performed by cutting out one music piece located in the middle of Hamming. When the former search is performed, processing is performed so as to obtain a final search result by performing the OR operation described in FIG.
[0084]
As can be seen from the experimental results, it has been verified that the search accuracy can be improved by performing a search by cutting out a plurality of music pieces from Hamming than by performing a search by cutting out a single music piece.
[0085]
FIG. 19 shows an experimental result when a feature point origin music partial feature vector (Partial Tone Transition Feature Vector) is used as a search key, and a feature vector (Tone Distribution Feature) obtained by converting the feature point origin music partial feature vector into a histogram representation format. An experimental result when using Vector) as a search key and an experimental result when using a combination of the two feature vectors as a search key are shown in comparison.
[0086]
As can be seen from the experimental results, if the search key is the feature point starting music partial feature vector and the feature vector obtained by converting the feature point starting music partial feature vector into a histogram representation format, only the feature point starting music partial feature vector is used as the search key. It was verified that the search accuracy could be improved more than the case.
[0087]
FIG. 20 compares the experimental result when the feature value managed by the
[0088]
As can be seen from the experimental results, it has been verified that the search accuracy can be improved by realizing the present invention in the form of an eighth note than in the form of a quarter note.
[0089]
From now on, although not explained in the above-described embodiment, the feature quantity managed by the
[0090]
【The invention's effect】
As described above, the present invention adopts a configuration for detecting feature points included in a music piece, instead of adopting a configuration for calculating feature amounts from the whole music piece as in the prior art. Since the processing is performed so as to calculate the feature quantity that can be called the partial feature quantity of the music piece starting from the feature point, the music information database is searched for something similar to the input music information.PlaceTogetherInEven when the music piece obtained by dividing the music information that has been applied does not coincide with the beginning of the divided music piece stored in the music information database, high search accuracy can be realized.
[Brief description of the drawings]
FIG. 1 is an explanatory diagram of the present invention.
FIG. 2 is an explanatory diagram of the present invention.
FIG. 3 is an example of an embodiment of the present invention.
FIG. 4 is an example of a score for explaining noise removal processing;
FIG. 5 is an example of a processing flow executed by a feature amount generation unit.
FIG. 6 is an explanatory diagram of a calculation process of a feature value of a music piece melody;
FIG. 7 is an explanatory diagram of processing executed by a feature amount generation unit.
FIG. 8 is another embodiment of the processing flow executed by the feature quantity generation unit.
FIG. 9 is an explanatory diagram of processing executed by a feature amount generation unit.
FIG. 10 is an example of a score for explaining the present invention.
FIG. 11 is an explanatory diagram of a configuration example of a feature amount generation unit.
FIG. 12 is an explanatory diagram of a feature amount generated by a feature amount generation unit;
FIG. 13 is an example of a processing flow executed by a search unit.
FIG. 14 is an example of a processing flow executed by a search unit.
FIG. 15 is an explanatory diagram of an OR operation process for obtaining a search result.
FIG. 16 is another example of a processing flow executed by the feature quantity generation unit.
FIG. 17 is an explanatory diagram of the results of an experiment performed to verify the effectiveness of the present invention.
FIG. 18 is an explanatory diagram of the results of an experiment performed to verify the effectiveness of the present invention.
FIG. 19 is an explanatory diagram of the results of an experiment performed to verify the effectiveness of the present invention.
FIG. 20 is an explanatory diagram of the results of an experiment performed to verify the effectiveness of the present invention.
FIG. 21 is an explanatory diagram of a prior art.
[Explanation of symbols]
1 Music information retrieval device
10 Music information database
11 Transcription
12 Noise removal unit
13 Feature generator
14 Search part
130 Music Information Division
131 Music feature amount calculation unit
132 Feature point selection section limited section
133 Feature point determination unit
134 Feature Deriving Unit
Claims (13)
入力された音楽情報から切り出される1つの音楽片について、所定の条件を満たす音楽片上の時間的位置として定義される特徴点を検出して、その特徴点を起点とする特徴量を生成する生成手段と、
検索対象となる楽曲の持つ上記特徴量を記憶する記憶手段と、
上記記憶手段の記憶データを検索することで、上記生成手段の生成した上記特徴量に類似する上記特徴量を持つ1つ又は複数の楽曲を検索する検索手段とを備えることを、
特徴とする音楽情報検索装置。In a music information search device for searching for a song name indicated by input music information and / or attribute information of the song,
For one music piece to be cut out from the input music information, by detecting a feature point which is defined as the time position of the piece satisfying a predetermined condition music, it generates a characteristic quantity which starts its feature point generation Means,
A storage means to store the characteristic quantity having the easy songs to be searched,
A search unit for searching for one or a plurality of music pieces having the feature amount similar to the feature amount generated by the generation unit by searching stored data in the storage unit ;
A featured music information retrieval device.
入力された音楽情報から切り出される複数の音楽片のそれぞれについて、所定の条件を満たす音楽片上の時間的位置として定義される特徴点を検出して、それらの特徴点を起点とする特徴量を生成する生成手段と、
検索対象となる楽曲の持つ上記特徴量を記憶する記憶手段と、
上記記憶手段の記憶データを検索することで、上記生成手段の生成した上記特徴量毎に、それに類似する上記特徴量を持つ複数の楽曲を検索する検索手段と、
上記検索手段の検索した楽曲の中から、入力された音楽情報の指す楽曲を特定する特定手段とを備えることを、
特徴とする音楽情報検索装置。In a music information search device for searching for a song name indicated by input music information and / or attribute information of the song,
For each of a plurality of music pieces to be cut out from the input music information, by detecting a feature point which is defined as the time position of the piece satisfying a predetermined condition music, a feature quantity which starts their characteristic points Generating means for generating;
A storage means to store the characteristic quantity having the easy songs to be searched,
Retrieval means for retrieving a plurality of pieces of music having the similar feature quantities for each of the feature quantities generated by the generation means by searching stored data in the storage means;
Including specifying means for specifying the music indicated by the input music information from the music searched by the search means,
A featured music information retrieval device.
上記特定手段は、上記検索手段の検索した楽曲の持つ類似度をOR演算することで、入力された音楽情報の指す楽曲を特定することを、
特徴とする音楽情報検索装置。 The music information search device according to claim 2 ,
The specifying means specifies the music indicated by the input music information by ORing the similarity of the music searched by the search means,
A featured music information retrieval device.
入力された音楽情報を規定の音符形態に変換する変換手段を備え、A conversion means for converting the input music information into a prescribed note form;
上記生成手段は、上記変換手段の変換した音楽情報から切り出される音楽片を処理対象として特徴量を生成することを、The generation unit generates a feature amount using a music piece cut out from the music information converted by the conversion unit as a processing target.
特徴とする音楽情報検索装置。A featured music information retrieval device.
上記生成手段は、音楽片の規定の時間的位置に位置する規定長さの区間部分を特徴点の検出に用いる区間として特徴点を検出することを、The generating means detects a feature point as a section used for detecting a feature point using a section having a specified length located at a specified time position of the music piece.
特徴とする音楽情報検索装置。A featured music information retrieval device.
上記生成手段は、特徴点に課される音の高さ又は長さについての条件を充足する音位置を検出することで、上記区間に含まれる特徴点を検出することを、The generating means detects a feature point included in the section by detecting a sound position that satisfies a condition for a pitch or length of a sound imposed on the feature point.
特徴とする音楽情報検索装置。A featured music information retrieval device.
上記生成手段は、特徴点を起点とする規定長さの音楽片部分から特徴量を生成することを、The generation means generates a feature amount from a music piece portion having a specified length starting from the feature point.
特徴とする音楽情報検索装置。A featured music information retrieval device.
上記生成手段は、特徴点を起点とし音楽片終端を終点とする音楽片部分から特徴量を生成することを、The generating means generates a feature value from a music piece portion starting from a feature point and ending at a music piece end point.
特徴とする音楽情報検索装置。A featured music information retrieval device.
上記生成手段は、上記生成した特徴量を別の表現形式に変換することで、その特徴量に加えて、それ以外の特徴量を生成することを、
特徴とする音楽情報検索装置。 The music information search device according to any one of claims 1 to 8 ,
It said generating means, to convert the feature amount the generated into another representation, that in addition to the feature quantity, generates a feature amount other than it,
A featured music information retrieval device.
入力された音楽情報から切り出される1つの音楽片について、所定の条件を満たす音楽片上の時間的位置として定義される特徴点を検出して、その特徴点を起点とする特徴量を生成する過程と、A process of detecting a feature point defined as a temporal position on a music piece satisfying a predetermined condition for one piece of music cut out from input music information, and generating a feature amount starting from the feature point; ,
検索対象となる楽曲の持つ上記特徴量を記憶する記憶手段の記憶データを検索することで、上記生成した上記特徴量に類似する上記特徴量を持つ1つ又は複数の楽曲を検索する過程とを備えることを、A process of searching for one or a plurality of music pieces having the feature amount similar to the generated feature amount by searching stored data in a storage unit that stores the feature amount of the song to be searched. To prepare,
特徴とする音楽情報検索方法。Characteristic music information retrieval method.
入力された音楽情報から切り出される複数の音楽片のそれぞれについて、所定の条件を満たす音楽片上の時間的位置として定義される特徴点を検出して、それらの特徴点を起点とする特徴量を生成する過程と、For each of a plurality of pieces of music cut out from the input music information, feature points defined as temporal positions on the piece of music satisfying a predetermined condition are detected, and feature amounts starting from those feature points are generated. The process of
検索対象となる楽曲の持つ上記特徴量を記憶する記憶手段の記憶データを検索することで、上記生成した上記特徴量毎に、それに類似する上記特徴量を持つ複数の楽曲を検索する過程と、A process of searching for a plurality of pieces of music having the similar feature amount for each of the generated feature amounts by searching stored data in a storage unit that stores the feature amount of the music to be searched;
上記検索した楽曲の中から、入力された音楽情報の指す楽曲を特定する過程とを備えることを、A process of identifying the music indicated by the input music information from the searched music,
特徴とする音楽情報検索方法。Characteristic music information retrieval method.
入力された音楽情報から切り出される1つの音楽片について、所定の条件を満たす音楽片上の時間的位置として定義される特徴点を検出して、その特徴点を起点とする特徴量を生成する処理と、Processing for detecting a feature point defined as a temporal position on a piece of music that satisfies a predetermined condition for one piece of music cut out from the input music information, and generating a feature amount starting from the feature point; ,
検索対象となる楽曲の持つ上記特徴量を記憶する記憶手段の記憶データを検索することで、上記生成した上記特徴量に類似する上記特徴量を持つ1つ又は複数の楽曲を検索する処理とをコンピュータに実行させる音楽情報検索用プログラムを記録したことを、A process of searching for one or a plurality of music pieces having the feature amount similar to the generated feature amount by searching stored data of a storage unit that stores the feature amount of the song to be searched. Recording a music information search program to be executed by a computer
特徴とする音楽情報検索用プログラムを記録したコンピュータ読み取り可能な記録媒体。A computer-readable recording medium on which a music information search program is recorded.
入力された音楽情報から切り出される複数の音楽片のそれぞれについて、所定の条件を満たす音楽片上の時間的位置として定義される特徴点を検出して、それらの特徴点を起点とする特徴量を生成する処理と、For each of a plurality of pieces of music cut out from the input music information, feature points defined as temporal positions on the piece of music satisfying a predetermined condition are detected, and feature amounts starting from those feature points are generated. Processing to
検索対象となる楽曲の持つ上記特徴量を記憶する記憶手段の記憶データを検索することで、上記生成した上記特徴量毎に、それに類似する上記特徴量を持つ複数の楽曲を検索する処理と、A process for searching a plurality of music pieces having the above-mentioned feature amount similar to each of the generated feature amounts by searching stored data of a storage unit that stores the feature amount of the music to be searched;
上記検索した楽曲の中から、入力された音楽情報の指す楽曲を特定する処理とをコンピュータに実行させる音楽情報検索用プログラムを記録したことを、Recording a music information search program that causes a computer to execute processing for specifying a music pointed to by the input music information from the searched music pieces,
特徴とする音楽情報検索用プログラムを記録したコンピュータ読み取り可能な記録媒体。A computer-readable recording medium on which a music information search program is recorded.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000312774A JP3612272B2 (en) | 2000-10-13 | 2000-10-13 | Music information search device, music information search method, and computer-readable recording medium storing music information search program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000312774A JP3612272B2 (en) | 2000-10-13 | 2000-10-13 | Music information search device, music information search method, and computer-readable recording medium storing music information search program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002123287A JP2002123287A (en) | 2002-04-26 |
JP3612272B2 true JP3612272B2 (en) | 2005-01-19 |
Family
ID=18792297
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000312774A Expired - Lifetime JP3612272B2 (en) | 2000-10-13 | 2000-10-13 | Music information search device, music information search method, and computer-readable recording medium storing music information search program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3612272B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008107986A1 (en) * | 2007-03-07 | 2008-09-12 | Pioneer Corporation | Data inspecting device and method |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3697515B2 (en) * | 2002-09-27 | 2005-09-21 | 独立行政法人情報通信研究機構 | Music impression scale evaluation value automatic assigning device |
CN100454298C (en) * | 2003-12-08 | 2009-01-21 | 皇家飞利浦电子股份有限公司 | Searching in a melody database |
JP2007193222A (en) * | 2006-01-20 | 2007-08-02 | Casio Comput Co Ltd | Melody input device and music search device |
JP4548424B2 (en) | 2007-01-09 | 2010-09-22 | ヤマハ株式会社 | Musical sound processing apparatus and program |
JP4906565B2 (en) * | 2007-04-06 | 2012-03-28 | アルパイン株式会社 | Melody estimation method and melody estimation device |
JP5228432B2 (en) * | 2007-10-10 | 2013-07-03 | ヤマハ株式会社 | Segment search apparatus and program |
JP5561041B2 (en) * | 2010-09-06 | 2014-07-30 | 大日本印刷株式会社 | Relevant information retrieval device for acoustic data |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0561917A (en) * | 1991-08-29 | 1993-03-12 | Nec Corp | Music data base retrieving method and melody matching system using melody information |
JP3434223B2 (en) * | 1998-11-19 | 2003-08-04 | 日本電信電話株式会社 | Music information search device, music information storage device, music information search method, music information storage method, and recording medium recording these programs |
JP3467415B2 (en) * | 1998-12-01 | 2003-11-17 | 日本電信電話株式会社 | Music search device, music search method, and recording medium recording music search program |
JP3631650B2 (en) * | 1999-03-26 | 2005-03-23 | 日本電信電話株式会社 | Music search device, music search method, and computer-readable recording medium recording a music search program |
JP3844627B2 (en) * | 1999-04-12 | 2006-11-15 | アルパイン株式会社 | Music search system |
JP3597735B2 (en) * | 1999-10-12 | 2004-12-08 | 日本電信電話株式会社 | Music search device, music search method, and recording medium recording music search program |
JP2002055695A (en) * | 2000-08-08 | 2002-02-20 | Alpine Electronics Inc | Music search system |
-
2000
- 2000-10-13 JP JP2000312774A patent/JP3612272B2/en not_active Expired - Lifetime
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008107986A1 (en) * | 2007-03-07 | 2008-09-12 | Pioneer Corporation | Data inspecting device and method |
Also Published As
Publication number | Publication date |
---|---|
JP2002123287A (en) | 2002-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4344499B2 (en) | Search music database | |
US7342167B2 (en) | Apparatus and method for generating an encoded rhythmic pattern | |
Lu et al. | A Newapproach To Query By Humming In Music Retrieval. | |
Zhu et al. | Warping indexes with envelope transforms for query by humming | |
JP2007519092A (en) | Search melody database | |
JP3467415B2 (en) | Music search device, music search method, and recording medium recording music search program | |
Marolt | A mid-level representation for melody-based retrieval in audio collections | |
JP2002278547A (en) | Music piece retrieval method, music piece retrieval data registration method, music piece retrieval device and music piece retrieval data registration device | |
JP3434223B2 (en) | Music information search device, music information storage device, music information search method, music information storage method, and recording medium recording these programs | |
JP3631650B2 (en) | Music search device, music search method, and computer-readable recording medium recording a music search program | |
JP3612272B2 (en) | Music information search device, music information search method, and computer-readable recording medium storing music information search program | |
Raju et al. | TANSEN: A query-by-humming based music retrieval system | |
Suyoto et al. | Searching musical audio using symbolic queries | |
KR20060019096A (en) | Humming-based sound source query / search system and its method | |
Gurjar et al. | A comparative analysis of music similarity measures in music information retrieval systems | |
JP3730144B2 (en) | Similar music search device and method, similar music search program and recording medium thereof | |
Eisenberg et al. | BeatBank? An MPEG-7 Compliant Query by Tapping System | |
KR20090083972A (en) | Method for building music database for music search, method and apparatus for searching music by inputting humming query | |
JP5085577B2 (en) | Playlist creation device, music playback device, playlist creation method, and playlist creation program | |
JP3934556B2 (en) | Method and apparatus for extracting signal identifier, method and apparatus for creating database from signal identifier, and method and apparatus for referring to search time domain signal | |
JP2007072023A (en) | Information processing apparatus and method | |
Takasu et al. | Music structure analysis and its application to theme phrase extraction | |
JP4241445B2 (en) | Music content search device, program, and computer-readable recording medium | |
EP1797507B1 (en) | Apparatus and method for generating an encoded rhythmic pattern | |
KR101051803B1 (en) | Humming or song-based sound source search method and system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20031224 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040406 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040607 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20041019 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20041022 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 3612272 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20071029 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081029 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091029 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101029 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101029 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111029 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111029 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121029 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121029 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131029 Year of fee payment: 9 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |