JP2005301921A - 楽曲検索システムおよび楽曲検索方法 - Google Patents
楽曲検索システムおよび楽曲検索方法 Download PDFInfo
- Publication number
- JP2005301921A JP2005301921A JP2004120862A JP2004120862A JP2005301921A JP 2005301921 A JP2005301921 A JP 2005301921A JP 2004120862 A JP2004120862 A JP 2004120862A JP 2004120862 A JP2004120862 A JP 2004120862A JP 2005301921 A JP2005301921 A JP 2005301921A
- Authority
- JP
- Japan
- Prior art keywords
- music
- data
- map
- unit
- search
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0033—Recording/reproducing or transmission of music for electrophonic musical instruments
- G10H1/0041—Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/036—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal of musical genre, i.e. analysing the style of musical pieces, usually for selection, filtering or classification
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/075—Musical metadata derived from musical analysis or for use in electrophonic musical instruments
- G10H2240/081—Genre classification, i.e. descriptive metadata for classification or selection of musical pieces according to style
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/121—Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
- G10H2240/131—Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/311—Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Reverberation, Karaoke And Other Acoustics (AREA)
Abstract
【課題】 本発明は、楽曲データがマッピングされた楽曲マップの表示を参照するだけで、楽曲データベースに記憶されている楽曲データの傾向を簡単に把握することができる楽曲検索システムおよび楽曲検索方法を提供することを課題とする。
【解決手段】 楽曲データの特徴を表す複数の評価項目にそれぞれ対応するデータからなる特徴ベクトルを内包した複数のニューロンで構成されると共に、当該ニューロンが前記評価項目の内の予め定められた指標評価項目について一端部から他端部に向けて傾向を有している自己組織化マップである楽曲マップのいずれかのニューロンに楽曲データをマッピングし、楽曲マップの各ニューロンにそれぞれ対応するポイントによって楽曲マップの状態を表示する。楽曲マップは、指標評価項目について一端部から他端部に向けて漸減する値を初期値として学習が施されている。
【選択図】 図10
【解決手段】 楽曲データの特徴を表す複数の評価項目にそれぞれ対応するデータからなる特徴ベクトルを内包した複数のニューロンで構成されると共に、当該ニューロンが前記評価項目の内の予め定められた指標評価項目について一端部から他端部に向けて傾向を有している自己組織化マップである楽曲マップのいずれかのニューロンに楽曲データをマッピングし、楽曲マップの各ニューロンにそれぞれ対応するポイントによって楽曲マップの状態を表示する。楽曲マップは、指標評価項目について一端部から他端部に向けて漸減する値を初期値として学習が施されている。
【選択図】 図10
Description
本発明は、HDD等の大容量の記憶手段に大量に記憶されている楽曲データの中から所望の楽曲を検索する楽曲検索システムおよび楽曲検索方法に関し、特に人間の感性によって判断される印象度データに基づいて楽曲の検索が可能な楽曲検索システムおよび楽曲検索方法に関する。
近年、HDD等の大容量の記憶手段が開発され、大容量の記憶手段に大量の楽曲データを記憶させることができるようになっている。大容量の記憶手段に記憶されている大量の楽曲データの検索は、アーティスト名や曲名、その他のキーワード等の書誌データを用いて行うのが一般的であるが、書誌データで検索した場合には、楽曲が持っている情感を考慮することができず、印象の異なる楽曲が検索される可能性があり、聴取した際の印象が同じような楽曲を検索したい場合には、不向きである。
そこで、楽曲に対する主観的な印象に基づいて利用者の希望する楽曲を検索可能にするために、検索を希望する楽曲に対するユーザの主観的な要件を入力して数値化して出力し、その出力から、検索対象の楽曲の印象を数量化した予測印象値を算出し、算出した予測印象値をキーとして、複数の楽曲の音響信号およびその楽曲の印象を数量化した印象値を記憶した楽曲データベースを検索することにより、利用者の楽曲に対する主観的なイメージに基づいて、希望する楽曲を検索する装置が提案されている(例えば、特許文献1参照)。
しかしながら、従来技術では、楽曲データベースに複数の楽曲の音響信号およびその楽曲の印象を数量化した印象値を記憶しているが、その印象値は2軸であり、印象の軸を増加させた場合の表示を考慮すると、どのような音響信号および印象値を有する楽曲データが記憶されているのか、すなわち楽曲データベースに記憶されている楽曲データの傾向を簡単に把握することが困難であり、検索条件に対する検索結果の予測がつきにくく、利用者所望の検索結果が得られにくくなってしまうという問題点があった。
特開2002−278547号公報
本発明は斯かる問題点を鑑みてなされたものであり、その目的とするところは、楽曲データがマッピングされた楽曲マップの表示を参照するだけで、楽曲データベースに記憶されている楽曲データの傾向を簡単に把握することができる楽曲検索システムおよび楽曲検索方法を提供する点にある。
本発明は上記課題を解決すべく、以下に掲げる構成とした。
本発明の楽曲検索システムは、楽曲データベースに記憶された複数の楽曲データの中から所望の楽曲データを検索する楽曲検索システムであって、前記楽曲データの特徴を表す複数の評価項目にそれぞれ対応するデータからなる特徴ベクトルを内包した複数のニューロンで構成される自己組織化マップであると共に、当該ニューロンが前記評価項目の内の予め定められた指標評価項目について一端部から他端部に向けて傾向を有している楽曲マップを記憶する楽曲マップ記憶手段と、前記楽曲データの特徴を表す複数項目のデータに基づいて、前記楽曲マップのいずれかのニューロンに前記楽曲データをマッピングする楽曲マッピング手段と、前記楽曲マップの各ニューロンにそれぞれ対応するポイントによって前記楽曲マップの状態を表示する表示手段と、を具備することを特徴とする。
本発明の楽曲検索システムは、楽曲データベースに記憶された複数の楽曲データの中から所望の楽曲データを検索する楽曲検索システムであって、前記楽曲データの特徴を表す複数の評価項目にそれぞれ対応するデータからなる特徴ベクトルを内包した複数のニューロンで構成される自己組織化マップであると共に、当該ニューロンが前記評価項目の内の予め定められた指標評価項目について一端部から他端部に向けて傾向を有している楽曲マップを記憶する楽曲マップ記憶手段と、前記楽曲データの特徴を表す複数項目のデータに基づいて、前記楽曲マップのいずれかのニューロンに前記楽曲データをマッピングする楽曲マッピング手段と、前記楽曲マップの各ニューロンにそれぞれ対応するポイントによって前記楽曲マップの状態を表示する表示手段と、を具備することを特徴とする。
さらに、本発明の楽曲検索システムは、前記楽曲マップは、前記指標評価項目について一端部から他端部に向けて漸減する値を初期値として学習が施されていることを特徴とする。
さらに、本発明の楽曲検索システムは、前記楽曲マップは、2次元マップであり、前記評価項目の内の2つが前記指標評価項目として定められていることを特徴とする。
また、本発明の楽曲検索方法は、楽曲データベースに記憶された複数の楽曲データの中から所望の楽曲データを検索する楽曲検索方法であって、前記楽曲データの特徴を表す複数の評価項目にそれぞれ対応するデータからなる特徴ベクトルを内包した複数のニューロンで構成される自己組織化マップであると共に、当該ニューロンが前記評価項目の内の予め定められた指標評価項目について一端部から他端部に向けて傾向を有している楽曲マップを記憶し、前記楽曲データの特徴を表す複数項目のデータに基づいて、前記楽曲マップのいずれかのニューロンに前記楽曲データをマッピングし、前記楽曲マップの各ニューロンにそれぞれ対応するポイントによって前記楽曲マップの状態を表示することを特徴とする。
さらに、本発明の楽曲検索方法は、前記楽曲マップは、前記指標評価項目について一端部から他端部に向けて漸減する値を初期値として学習が施されていることを特徴とする。
さらに、本発明の楽曲検索方法は、前記楽曲マップは、2次元マップであり、前記評価項目の内の2つが前記指標評価項目として定められていることを特徴とする。
本発明の楽曲検索システムおよび楽曲検索方法は、楽曲データの特徴を表す複数の評価項目にそれぞれ対応するデータからなる特徴ベクトルを内包した複数のニューロンで構成される自己組織化マップであると共に、予め定められた指標評価項目について一端部から他端部に向けて傾向を有している楽曲マップに楽曲データをマッピングし、各ニューロンにそれぞれ対応するポイントによって楽曲マップの状態を表示するように構成することにより、楽曲データがマッピングされた楽曲マップの表示を参照するだけで、楽曲データベースに記憶されている楽曲データの傾向を簡単に把握することができるという効果を奏する。
以下、本発明の実施の形態を図面に基づいて詳細に説明する。
図1は、本発明に係る楽曲検索システムの実施の形態の構成を示すブロック図であり、図2は、図1に示す楽曲検索装置に用いられるニューラルネットワークを事前に学習させるニューラルネットワーク学習装置の構成を示すブロック図である。
本実施の形態は、図1を参照すると、楽曲検索装置10と、端末装置30とがUSB等のデータ伝送路で接続されており、端末装置30は、楽曲検索装置10から切り離して携帯することができる構成となっている。
楽曲検索装置10は、図1を参照すると、楽曲データ入力部11と、圧縮処理部12と、特徴データ抽出部13と、印象度データ変換部14と、楽曲データベース15と、楽曲マッピング部16と、楽曲マップ記憶部17と、楽曲検索部18と、PC操作部19と、PC表示部20と、送受信部21と、音声出力部22と、修正データ記憶部23と、ニューラルネットワーク学習部24とからなる。
楽曲データ入力部11は、CD、DVD等の楽曲データが記憶されている記憶媒体を読み取る機能を有し、CD、DVD等の記憶媒体から楽曲データを入力し、圧縮処理部12および特徴データ抽出部13に出力する。CD、DVD等の記憶媒体以外にインターネット等のネットワークを経由した楽曲データ(配信データ)を入力するように構成しても良い。なお、圧縮された楽曲データが入力される場合には、圧縮された楽曲データを伸長して特徴データ抽出部13に出力する。
圧縮処理部12は、楽曲の登録時には、楽曲データ入力部11から入力された楽曲データをMP3やATRAC(Adaptive Transform Acoustic Coding )等の圧縮形式で圧縮し、圧縮した楽曲データを、アーティスト名、曲名等の書誌データと共に楽曲データベース15に記憶させる。
特徴データ抽出部13は、楽曲データ入力部11から入力された楽曲データから、ゆらぎ情報からなる特徴データを抽出し、抽出した特徴データを印象度データ変換部14に出力する。
印象度データ変換部14は、予め学習が施された階層型ニューラルネットワークを用いて、特徴データ抽出部13から入力された特徴データを、人間の感性によって判断される印象度データに変換し、変換した印象度データを楽曲マッピング部16に出力すると共に、特徴データ抽出部13から入力された特徴データと変換した印象度データとを楽曲データに関連づけて楽曲データベース15に登録する。
楽曲データベース15は、HDD等の大容量の記憶手段であり、圧縮処理部12によって圧縮された楽曲データ、書誌データと、特徴データ抽出部13によって抽出された特徴データと、印象度データ変換部14によって変換された印象度データとが関連づけられて記憶される。
楽曲マッピング部16は、印象度データ変換部14から入力された印象度データに基づいて、予め学習が施された自己組織化マップである楽曲マップに楽曲データをマッピングし、楽曲データをマッピングした楽曲マップを楽曲マップ記憶部17に記憶させる。
楽曲マップ記憶部17は、HDD等の大容量の記憶手段であり、楽曲マッピング部16によって楽曲データがマッピングされた楽曲マップが記憶される。
楽曲検索部18は、PC操作部19から入力された印象度データおよび書誌データに基づいて楽曲データベース15を検索し、当該検索結果をPC表示部20に表示すると共に、PC操作部19によって選択された代表曲に基づいて楽曲マップ記憶部17を検索し、当該代表曲検索結果をPC表示部20に表示する。また、楽曲検索部18は、送受信部21を介してPC操作部19によって選択された楽曲データを端末装置30に出力する。
また、楽曲検索部18は、楽曲データおよび印象度データを楽曲データベース15から読み出し、読み出した楽曲データを音声出力部22に出力して音声出力させると共に、音声出力を試聴したユーザの指示に基づいて印象度データを修正し、楽曲データベース15に記憶されている印象度データを更新すると共に、楽曲データベース15から特徴データを読み出して、修正データと特徴データとを再学習データとして修正データ記憶部23に記憶させる。
PC操作部19は、キーボードやマウス等の入力手段であり、楽曲データベース15および楽曲マップ記憶部17に記憶されている楽曲データを検索する検索条件の入力、端末装置30に出力する楽曲データを選択する入力、印象度データの修正入力、印象度データの自動修正を指示する入力、階層型ニューラルネットワークの再学習を指示する入力、楽曲データの再登録を指示する入力が行われる。
PC表示部20は、例えば液晶ディスプレイ等の表示手段であり、楽曲マップ記憶部17に記憶されている楽曲データのマッピング状況の表示、楽曲データベース15および楽曲マップ記憶部17に記憶されている楽曲データを検索する検索条件の表示、検索された楽曲データ(検索結果)の表示等が行われる。
送受信部21は、端末装置30の送受信部31との間をUSB等のデータ伝送路で接続可能に構成されており、楽曲検索部18によって検索され、PC操作部19によって選択された楽曲データを端末装置30の送受信部31に出力すると共に、端末装置30からの修正指示を受信する。
音声出力部22は、楽曲データベース15に記憶されている楽曲データを伸長して再生するオーディオプレーヤである。
修正データ記憶部23は、修正された印象度データと特徴データとを再学習データとして記憶するHDD等の記憶手段である。
ニューラルネットワーク学習部24は、印象度データ変換部14で用いられる階層型ニューラルネットワークの再学習を行う手段であり、印象度データ変換部14から各ニューロンの結合重み値を読み出し、読み出した各ニューロンの結合重み値を初期値とし、修正データ記憶部23に記憶されている再学習データによって階層型ニューラルネットワークの再学習、すなわち各ニューロンの結合重み値を再学習させ、印象度データ変換部14の各ニューロンの結合重み値wを再学習させた各ニューロンの結合重み値に更新する。
端末装置30は、HDD等の大容量の記憶手段を有するポータブルオーディオ、MDプレーヤ等の音声再生装置であり、図1を参照すると、送受信部31と、検索結果記憶部32と、端末操作部33、端末表示部34と、音声出力部35とからなる。
送受信部31は、楽曲検索装置10の送受信部21との間をUSB等のデータ伝送路で接続可能に構成されており、楽曲検索装置10の送受信部21から入力された楽曲データを検索結果記憶部32に記憶させると共に、端末装置30が楽曲検索装置10に接続されると、検索結果記憶部32に記憶された修正指示を楽曲検索装置10に送信する。
端末操作部33は、検索結果記憶部32に記憶されている楽曲データの選択・再生を指示する入力、ボリュームコントロールの入力等、楽曲データの再生に係る入力、再生中の楽曲に対応する印象度データの修正を指示する修正指示入力が行われる。
端末表示部34は、例えば液晶ディスプレイ等の表示手段であり、再生中の曲名や、各種操作ガイダンスが表示される。
音声出力部35は、検索結果記憶部32に圧縮されて記憶されている楽曲データを伸長して再生するオーディオプレーヤである。
ニューラルネットワーク学習装置40は、印象度データ変換部14で用いられる階層型ニューラルネットワークと、楽曲マッピング部16で用いられる楽曲マップとの学習を行う装置であり、図2を参照すると、楽曲データ入力部41と、音声出力部42と、特徴データ抽出部43と、印象度データ入力部44と、結合重み値学習部45と、楽曲マップ学習部46と、結合重み値出力部47と、特徴ベクトル出力部48とからなる。
楽曲データ入力部41は、CD、DVD等の楽曲データが記憶されている記憶媒体を読み取る機能を有し、CD、DVD等の記憶媒体から楽曲データを入力し、音声出力部42および特徴データ抽出部43に出力する。CD、DVD等の記憶媒体以外にインターネット等のネットワークを経由した楽曲データ(配信データ)を入力するように構成しても良い。なお、圧縮された楽曲データが入力される場合には、圧縮された楽曲データを伸長して音声出力部42および特徴データ抽出部43に出力する。
音声出力部42は、楽曲データ入力部41から入力された楽曲データを伸長して再生するオーディオプレーヤである。
特徴データ抽出部43は、楽曲データ入力部41から入力された楽曲データから、ゆらぎ情報からなる特徴データを抽出し、抽出した特徴データを結合重み値学習部45に出力する。
印象度データ入力部44は、音声出力部42からの音声出力に基づく、評価者による印象度データの入力を受け付け、受け付けた印象度データを、階層型ニューラルネットワークの学習に用いる教師信号として結合重み値学習部45に出力すると共に自己組織化マップへの入力ベクトルとして楽曲マップ学習部46に出力する。
結合重み値学習部45は、特徴データ抽出部43から入力された特徴データと、印象度データ入力部44から入力された印象度データとに基づいて階層型ニューラルネットワークに学習を施し、各ニューロンの結合重み値を更新し、結合重み値出力部47を介して更新した結合重み値を出力する。学習が施された階層型ニューラルネットワーク(更新された結合重み値)は、楽曲検索装置10の印象度データ変換部14に移植される。
楽曲マップ学習部46は、印象度データ入力部44から入力された印象度データを自己組織化マップへの入力ベクトルとして自己組織化マップに学習を施し、各ニューロンの特徴ベクトルを更新し、特徴ベクトル出力部48を介して更新した特徴ベクトルを出力する。学習が施された自己組織化マップ(更新された特徴ベクトル)は、楽曲マップとして楽曲検索装置10の楽曲マップ記憶部17に記憶される。
次に、本実施の形態の動作について図3乃至図23を参照して詳細に説明する。
図3は、図1に示す楽曲検索装置における楽曲登録動作を説明するためのフローチャートであり、図4は、図1に示す特徴データ抽出部における特徴データ抽出動作を説明するためのフローチャートであり、図5は、図2に示すニューラルネットワーク学習装置における階層型ニューラルネットワークの学習動作を説明するためのフローチャートであり、図6は、図2に示すニューラルネットワーク学習装置における楽曲マップの学習動作を説明するためのフローチャートあり、図7は、図1に示す楽曲検索装置における楽曲検索動作を説明するためのフローチャートであり、図8は、図2に示すニューラルネットワーク学習装置における階層型ニューラルネットワークの学習アルゴリズムを説明するための説明図であり、図9は、図2に示すニューラルネットワーク学習装置における楽曲マップの学習アルゴリズムを説明するための説明図であり、図10は、図2に示すニューラルネットワーク学習装置において学習させる楽曲マップの初期設定値を説明するための説明図であり、図11は、図1に示すPC表示部の表示画面例を示す図であり、図12は、図11に示すマッピング状態表示領域の表示例を示す図であり、図13は、図12に示す楽曲マップ表示領域の表示例を示す図であり、図14は、図11に示す検索条件入力領域の表示例を示す図であり、図15および図16は、図11に示す検索結果表示領域の表示例を示す図であり、図17は、図11に示す表示画面例に表示される全楽曲リスト表示領域例を示す図であり、図18は、図11に示す表示画面例に表示されるキーワード検索領域例を示す図であり、図19は、本発明に係る楽曲検索システムの実施の形態の階層型ニューラルネットワークの再学習動作を説明するためのフローチャートであり、図20は、図11に示す表示画面例に表示される修正指示領域の表示例を示す図であり、図21は、図1に示す印象度データ変換部で用いられる階層型ニューラルネットワークの再学習動作を説明するためのフローチャートであり、図22は、図11に示す表示画面例に表示される再学習指示領域の表示例を示す図であり、図23は、図1に示す楽曲検索装置における楽曲データの再登録動作を説明するためのフローチャートである。
図3は、図1に示す楽曲検索装置における楽曲登録動作を説明するためのフローチャートであり、図4は、図1に示す特徴データ抽出部における特徴データ抽出動作を説明するためのフローチャートであり、図5は、図2に示すニューラルネットワーク学習装置における階層型ニューラルネットワークの学習動作を説明するためのフローチャートであり、図6は、図2に示すニューラルネットワーク学習装置における楽曲マップの学習動作を説明するためのフローチャートあり、図7は、図1に示す楽曲検索装置における楽曲検索動作を説明するためのフローチャートであり、図8は、図2に示すニューラルネットワーク学習装置における階層型ニューラルネットワークの学習アルゴリズムを説明するための説明図であり、図9は、図2に示すニューラルネットワーク学習装置における楽曲マップの学習アルゴリズムを説明するための説明図であり、図10は、図2に示すニューラルネットワーク学習装置において学習させる楽曲マップの初期設定値を説明するための説明図であり、図11は、図1に示すPC表示部の表示画面例を示す図であり、図12は、図11に示すマッピング状態表示領域の表示例を示す図であり、図13は、図12に示す楽曲マップ表示領域の表示例を示す図であり、図14は、図11に示す検索条件入力領域の表示例を示す図であり、図15および図16は、図11に示す検索結果表示領域の表示例を示す図であり、図17は、図11に示す表示画面例に表示される全楽曲リスト表示領域例を示す図であり、図18は、図11に示す表示画面例に表示されるキーワード検索領域例を示す図であり、図19は、本発明に係る楽曲検索システムの実施の形態の階層型ニューラルネットワークの再学習動作を説明するためのフローチャートであり、図20は、図11に示す表示画面例に表示される修正指示領域の表示例を示す図であり、図21は、図1に示す印象度データ変換部で用いられる階層型ニューラルネットワークの再学習動作を説明するためのフローチャートであり、図22は、図11に示す表示画面例に表示される再学習指示領域の表示例を示す図であり、図23は、図1に示す楽曲検索装置における楽曲データの再登録動作を説明するためのフローチャートである。
まず、楽曲検索装置10における楽曲登録動作について図3を参照して詳細に説明する。
楽曲データ入力部11にCD、DVD等の楽曲データが記憶されている記憶媒体をセットし、楽曲データ入力部11から楽曲データを入力する(ステップA1)。
楽曲データ入力部11にCD、DVD等の楽曲データが記憶されている記憶媒体をセットし、楽曲データ入力部11から楽曲データを入力する(ステップA1)。
圧縮処理部12は、楽曲データ入力部11から入力された楽曲データを圧縮し(ステップA2)、圧縮した楽曲データを、アーティスト名、曲名等の書誌データと共に楽曲データベース15に記憶させる(ステップA3)。
特徴データ抽出部13は、楽曲データ入力部11から入力された楽曲データから、ゆらぎ情報からなる特徴データを抽出する(ステップA4)。
特徴データ抽出部13における特徴データの抽出動作は、図4を参照すると、楽曲データの入力を受け付け(ステップB1)、楽曲データの予め定められたデータ解析開始点から一定のフレーム長に対しFFT(高速フーリエ変換)を行い(ステップB2)、パワースペクトルを算出する。なお、ステップB2の前に高速化を目的としてダウンサンプリングを行うようにしても良い。
次に、特徴データ抽出部13は、Low、Middle、Highの周波数帯域を予め設定しておき、Low、Middle、Highの3帯域のパワースペクトルを積分し、平均パワーを算出すると共に(ステップB3)、Low、Middle、Highの周波数帯域の内、最大のパワーを持つ帯域をPitchのデータ解析開始点値とし、Pitchを測定する(ステップB4)。
ステップB2〜ステップB4の処理動作は、予め定められたフレーム個数分行われ、特徴データ抽出部13は、ステップB2〜ステップB4の処理動作を行ったフレーム個数が予め定められた設定値に達したか否かを判断し(ステップB5)、ステップB2〜ステップB4の処理動作を行ったフレーム個数が予め定められた設定値に達していない場合には、データ解析開始点をシフトしながら(ステップB6)、ステップB2〜ステップB4の処理動作を繰り返す。
ステップB2〜ステップB4の処理動作を行ったフレーム個数が予め定められた設定値に達した場合には、特徴データ抽出部13は、ステップB2〜ステップB4の処理動作によって算出したLow、Middle、Highの平均パワーの時系列データに対しFFTを行うと共に、ステップB2〜ステップB4の処理動作によって測定したPitchの時系列データに対しFFTを行う(ステップB7)。
次に、特徴データ抽出部13は、Low、Middle、High、PitchにおけるFFT分析結果から、横軸を対数周波数、縦軸を対数パワースペクトルとしたグラフにおける回帰直線の傾きと、回帰直線のY切片とをゆらぎ情報として算出し(ステップB8)、Low、Middle、High、Pitchのそれぞれにおける回帰直線の傾きおよびY切片を8項目からなる特徴データとして印象度データ変換部14に出力する。
印象度データ変換部14は、図8に示すような入力層(第1層)、中間層(第n層)、出力層(第N層)からなる階層型ニューラルネットワークを用い、入力層(第1層)に特徴データ抽出部13で抽出された特徴データを入力することによって、出力層(第N層)から印象度データを出力、すなわち特徴データを印象度データに変換し(ステップA5)、出力層(第N層)から出力された印象度データを、楽曲マッピング部16に出力すると共に、特徴データ抽出部13から入力された特徴データと出力層(第N層)から出力された印象度データとを楽曲データと共に楽曲データベース15に記憶させる。なお、中間層(第n層)の各ニューラルの結合重み値wは、評価者によって予め学習が施されている。また、本実施の形態の場合には、入力層(第1層)に入力される特徴データ、すなわち特徴データ抽出部13によって抽出される特徴データの項目は、前述のように8項目であり、印象度データの評価項目としては、人間の感性によって判断される「明るい、暗い」、「重い、軽い」、「かたい、やわらかい」、「安定、不安定」、「澄んだ、にごった」、「滑らか、歯切れの良い」、「激しい、穏やか」、「厚い、薄い」の8項目を設定し、各評価項目を7段階評価で表すように設定した。従って、入力層(第1層)のニューロン数L1と、出力層(第N層)のニューロン数LNとは、それぞれ8個となっており、中間層(第n層:n=2,…,N−1)のニューロン数Lnは、適宜設定されている。
楽曲マッピング部16は、楽曲データ入力部11から入力された楽曲を楽曲マップ記憶部17に記憶されている楽曲マップの該当箇所にマッピングする。楽曲マッピング部16におけるマッピング動作に用いられる楽曲マップは、例えばニューロンが2次元に規則的に配置(図9に示す例では、9*9の正方形)されている自己組織化マップ(SOM)であり、教師信号を必要としない学習ニューラルネットワークで、入力パターン群をその類似度に応じて分類する能力を自律的に獲得して行くニューラルネットワークである。なお、本実施の形態では、ニューロンが100*100の正方形に配列された2次元SOMを使用したが、ニューロンの配列は、正方形であっても、蜂の巣であっても良い。
また、楽曲マッピング部16におけるマッピング動作に用いられる楽曲マップは、予め学習が施されており、各ニューロンには、予め学習されたn次元の特徴ベクトルmi(t)∈Rnが内包されており、楽曲マッピング部16は、印象度データ変換部14によって変換された印象度データを入力ベクトルxjとし、入力ベクトルxjに最も近いニューロン、すなわちユークリッド距離‖xj−mi‖を最小にするニューロンに、入力された楽曲をマッピングし(ステップA6)、マッピングした楽曲マップを楽曲マップ記憶部17に記憶させる。
次に、印象度データ変換部14における変換動作(ステップA5)に用いられる階層型ニューラルネットワークの学習動作について図5および図8を参照して詳細に説明する。
評価者による階層型ニューラルネットワーク(結合重み値w)の学習は、例えば、図2に示すニューラルネットワーク学習装置40を用いて行われ、まず、階層型ニューラルネットワーク(結合重み値w)を事前学習させるための事前学習データ(楽曲データの特徴データ+印象度データ)の入力が行われる。
評価者による階層型ニューラルネットワーク(結合重み値w)の学習は、例えば、図2に示すニューラルネットワーク学習装置40を用いて行われ、まず、階層型ニューラルネットワーク(結合重み値w)を事前学習させるための事前学習データ(楽曲データの特徴データ+印象度データ)の入力が行われる。
楽曲データ入力部41にCD、DVD等の楽曲データが記憶されている記憶媒体をセットし、楽曲データ入力部41から楽曲データを入力し(ステップC1)、特徴データ抽出部43は、楽曲データ入力部41から入力された楽曲データから、ゆらぎ情報からなる特徴データを抽出する(ステップC2)。
また、音声出力部42は、楽曲データ入力部41から入力された楽曲データを音声出力し(ステップC3)、評価者は、音声出力部42からの音声出力を聞くことによって、楽曲の印象度を感性によって評価し、評価結果を印象度データとして印象度データ入力部44から入力し(ステップC4)、結合重み値学習部45は、印象度データ入力部44から入力された印象度データを教師信号として受け付ける。なお、本実施の形態では、印象度の評価項目としては、人間の感性によって判断される「明るい、暗い」、「重い、軽い」、「かたい、やわらかい」、「安定、不安定」、「澄んだ、にごった」、「滑らか、歯切れの良い」、「激しい、穏やか」、「厚い、薄い」の8項目を設定し、各評価項目についての7段階評価を印象度データとして楽曲データ入力部41で受け付けるように構成した。
次に、特徴データと入力された印象度データとからなる学習データが予め定められたサンプル数T1に達したか否かを判断し(ステップC5)、学習データがサンプル数T1に達するまでステップC1〜C4の動作が繰り返される。
結合重み値学習部45における階層型ニューラルネットワークの学習、すなわち各ニューロンの結合重み値wの更新は、誤差逆伝播学習法を用いて行う。
まず、初期値として、中間層(第n層)の全てニューロンの結合重み値wを乱数によって−0.1〜0.1程度の範囲の小さな値に設定しておき、結合重み値学習部45は、特徴データ抽出部43によって抽出された特徴データを入力信号xj(j=1,2,…,8) として入力層(第1層)に入力し、入力層(第1層)から出力層(第N層)に向けて、各ニューロンの出力を計算する。
まず、初期値として、中間層(第n層)の全てニューロンの結合重み値wを乱数によって−0.1〜0.1程度の範囲の小さな値に設定しておき、結合重み値学習部45は、特徴データ抽出部43によって抽出された特徴データを入力信号xj(j=1,2,…,8) として入力層(第1層)に入力し、入力層(第1層)から出力層(第N層)に向けて、各ニューロンの出力を計算する。
次に、結合重み値学習部45は、印象度データ入力部44から入力された印象度データを教師信号yj(j=1,2,…,8) とし、出力層(第N層)の出力outj Nと、教師信号yjとの誤差から、学習則δj Nを次式によって計算する。
次に、結合重み値学習部45は、学習則δj Nを使って、中間層(第n層)の誤差信号 δj n を次式によって計算する。
なお、数式2において、wは、第 n 層 j 番目と第 n -1 層k番目のニューロンの間の結合重み値を表している。
次に、結合重み値学習部45は、中間層(第n層)の誤差信号δj n を用いて各ニューロンの結合重み値wの変化量Δwを次式によって計算し、各ニューロンの結合重み値wを更新する(ステップC6)。なお、次式において、ηは、学習率を表し、評価者による学習では、η1(0<η1≦1)に設定されている。
ステップC6では、サンプル数T1の事前学習データのそれぞれについて学習が行われ、次に、次式に示す2乗誤差Eが予め定められた事前学習用の基準値E1よりも小さいか否かが判断され(ステップC7)、2乗誤差Eが基準値E1よりも小さくなるまでステップC6の動作が繰り返される。なお、2乗誤差Eが基準値E1よりも小さくなると想定される学習反復回数Sを予め設定しておき、ステップC6の動作を学習反復回数S回繰り返すようにしても良い。
ステップC7で2乗誤差Eが基準値E1よりも小さいと判断された場合には、結合重み値学習部45は、事前学習させた各ニューロンの結合重み値wを結合重み値出力部47によって出力し(ステップC8)、結合重み値出力部47から出力された各ニューロンの結合重み値wは、印象度データ変換部14に記憶される。
次に、楽曲マッピング部16におけるマッピング動作(ステップA6)に用いられる楽曲マップの学習動作について図6、図9および図10を参照して詳細に説明する。
楽曲データ入力部41にCD、DVD等の楽曲データが記憶されている記憶媒体をセットし、楽曲データ入力部41から楽曲データを入力し(ステップD1)、音声出力部42は、楽曲データ入力部41から入力された楽曲データを音声出力し(ステップD2)、評価者は、音声出力部42からの音声出力を聞くことによって、楽曲の印象度を感性によって評価し、評価結果を印象度データとして印象度データ入力部44から入力し(ステップD3)、楽曲マップ学習部46は、印象度データ入力部44から入力された印象度データを自己組織化マップへの入力ベクトルとして受け付ける。なお、本実施の形態では、印象度の評価項目としては、人間の感性によって判断される「明るい、暗い」、「重い、軽い」、「かたい、やわらかい」、「安定、不安定」、「澄んだ、にごった」、「滑らか、歯切れの良い」、「激しい、穏やか」、「厚い、薄い」の8項目を設定し、各評価項目についての7段階評価を印象度データとして楽曲データ入力部41で受け付けるように構成した。
楽曲マップ学習部46は、は、印象度データ入力部44から入力された印象度データを入力ベクトルxj(t)∈Rnとし、各ニューロンの特徴ベクトルmi(t)∈Rnを学習させる。なお、tは、学習回数を表し、学習回数を定める設定値Tを予め設定しておき、学習回数t=0,1,…,Tについて学習を行わせる。なお、Rは、各評価項目の評価段階を示し、nは、印象度データの項目数を示す。
まず、各ニューロンの特徴ベクトルmc(0)の初期値を設定する。印象度データの評価項目の内、楽曲マップを表示した際の指標となる指標評価項目を予め設定しておき、各ニューロンの特徴ベクトルmc(0)の指標評価項目に対応するデータについては、楽曲マップの一端部から他端部に向けて1から0に向けて漸減する値に初期値として設定すると共に、指標評価項目以外の評価項目に対応するデータについては、0〜1の範囲でランダムに初期値を設定する。指標評価項目は、楽曲マップの次元数と同数まで設定可能であり、例えば、楽曲マップが2次元である場合には、指標評価項目を2個まで設定することができる。図10には、「明るい、暗い」の段階を示す評価項目と「重い、軽い」の段階を示す評価項目とが指標評価項目を予め設定されており、楽曲マップとしてニューロンが100*100の正方形に配列された2次元SOMを使用した場合の初期値が示されており、「明るい、暗い」の段階を示す評価項目に対応する特徴ベクトルmc(0)の1番目のデータが左端部から右端部に向けて1から0に向けて漸減する値に初期値が設定され、「重い、軽い」の段階を示す評価項目に対応する特徴ベクトルmc(0)の2番目のデータが上端部から下端部に向けて1から0に向けて漸減する値に初期値が設定され、指標評価項目以外の評価項目に対応するデータについては、0〜1の範囲のランダム値rに初期値が設定されている状態が示されている。
次に、楽曲マップ学習部46は、xj(t)に最も近いニューロンc、すなわち‖xj(t)−mc(t)‖を最小にする勝者ニューロンcを求め、勝者ニューロンcの特徴ベクトルmc(t)と、勝者ニューロンcの近傍にある近傍ニューロンiの集合Ncのそれぞれの特徴ベクトルmi(t)(i∈Nc)とを、次式に従ってそれぞれ更新する(ステップD4)。なお、近傍ニューロンiを決定するための近傍半径は、予め設定されているものとする。
なお、数式5において、hci(t)は、学習率を表し、次式によって求められる。
なお、αinitは学習率の初期値であり、R2(t)は、単調減少する一次関数もしくは指数関数が用いられる。
次に、楽曲マップ学習部46は、学習回数tが設定値Tに達したか否かを判断し(ステップD5)、学習回数tが設定値Tに達するまでステップD1〜ステップD4の処理動作を繰り返し、学習回数tが設定値Tに達すると、再び最初のサンプルから同じ処理動作を行う。この反復回数が予め定められたS回になった時点で、特徴ベクトル出力部48を介して学習させた特徴ベクトルmi(T)∈Rnを出力する(ステップD6)。出力された各ニューロンiの特徴ベクトルmi(T)は、楽曲検索装置10の楽曲マップ記憶部17に楽曲マップとして記憶される。
このようにして学習させた学習マップは、指標評価項目について、楽曲マップのニューロンは、一端部から他端部に向けて所定の傾向を持つようになる。すなわち、「明るい、暗い」の段階を示す評価項目と「重い、軽い」の段階を示す評価項目とを指標評価項目して設定し、図10に示すような初期値のニューロンに基づいて学習させた場合には、左側にあるニューロンほど「明るい」評価段階に近く、右側にあるニューロンほど「暗い」評価段階に近く、上側にあるニューロンほど「重い」評価段階に近く、下側にあるニューロンほど「軽い」評価段階に近くなる。
次に、楽曲検索装置10における楽曲マップのマッピング状態の表示方法について詳細に説明する。
楽曲検索部18は、図11に示すような検索画面50をPC表示部20に表示し、検索画面50は、楽曲マップ記憶部17に記憶されている楽曲データのマッピング状況が表示されるマッピング状態表示領域51と、検索条件を入力する検索条件入力領域52と、検索結果が表示される検索結果表示領域53と、階層型ニューラルネットワークの再学習を指示する再学習指示領域70とからなる。
楽曲検索部18は、図11に示すような検索画面50をPC表示部20に表示し、検索画面50は、楽曲マップ記憶部17に記憶されている楽曲データのマッピング状況が表示されるマッピング状態表示領域51と、検索条件を入力する検索条件入力領域52と、検索結果が表示される検索結果表示領域53と、階層型ニューラルネットワークの再学習を指示する再学習指示領域70とからなる。
マッピング状態表示領域51は、楽曲マップ記憶部17に記憶されている楽曲マップのマッピング状態を表示する領域であり、楽曲マップ表示領域511と、表示内容指示ボタン512と、表示内容指示ボタン513とからなる。
楽曲マップ表示領域511には、楽曲マップの全ニューロン数と同数のポイントが、各ニューロンに対応して割り付けられており、ポイントによって楽曲マップの各ニューロンの状態が表示される。本実施の形態の場合には、ニューロンが100*100の正方形に配列された2次元SOMを使用しているため、100*100のポイントで各ニューロンの状態を表示する。また、本実施の形態の場合には、指標評価項目について楽曲マップのニューロンは、一端部から他端部に向けて所定の傾向、すなわち左右方向が「明るい、暗い」の、上下方向が「重い、軽い」の傾向を有しているため、楽曲マップ表示領域511に表示されたポイントを参照することで、図12に示すように、左側にあるニューロンにマッピングされた楽曲データほど「明るい」評価段階に近く、右側にあるニューロンにマッピングされた楽曲データほど「暗い」評価段階に近く、上側にあるニューロンにマッピングされた楽曲データほど「重い」評価段階に近く、下側にあるニューロンにマッピングされた楽曲データほど「軽い」評価段階に近いことを把握することができる。
表示内容指示ボタン512は、楽曲マップ表示領域511に表示するニューロンを指示するボタンであり、マップ表示ボタン512aと、全楽曲表示ボタン512bと、検索楽曲表示ボタン512cとからなる。
マップ表示ボタン512aは、楽曲マップの全ニューロンの特徴ベクトルmi(T)∈Rnを確認するために、楽曲マップの全ニューロンの表示を指示するボタンであり、マップ表示ボタン512aがPC操作部19によってクリックされると、楽曲検索部18は、楽曲マップ記憶部17に記憶されている楽曲マップにおける全ニューロンの特徴ベクトルmi(T)∈Rnを読み出し、表示内容指示ボタン513で指示された表示内容に応じて全ニューロンを楽曲マップ表示領域511に表示する。
全楽曲表示ボタン512bは、楽曲データがマッピングされているニューロンの特徴ベクトルmi(T)∈Rnを確認するために、楽曲データがマッピングされているニューロンの表示を指示するボタンであり、全楽曲表示ボタン512bがPC操作部19によってクリックされると、楽曲検索部18は、楽曲マップ記憶部17に記憶されている楽曲マップにおける楽曲データがマッピングされているニューロンの特徴ベクトルmi(T)∈Rnを読み出し、表示内容指示ボタン513で指示された表示内容に応じて楽曲データがマッピングされているニューロンを楽曲マップ表示領域511に表示する。なお、楽曲データがマッピングされているニューロンのみを表示するのではなく、全ニューロンを楽曲マップ表示領域511に表示し、楽曲データがマッピングされているニューロンと他のニューロンとの表示形態(非点滅表示と点滅表示、白丸と黒丸等)を変えて、楽曲データがマッピングされているニューロンと他のニューロンとが区別できるようにしても良い。
検索楽曲表示ボタン512cは、後述する検索によって検索された楽曲データがマッピングされているニューロンの特徴ベクトルmi(T)∈Rnを確認するために、検索された楽曲データがマッピングされているニューロンの表示を指示するボタンであり、検索楽曲表示ボタン512cがPC操作部19によってクリックされると、楽曲検索部18は、楽曲マップ記憶部17に記憶されている楽曲マップにおける検索された楽曲データがマッピングされているニューロンの特徴ベクトルmi(T)∈Rnを読み出し、表示内容指示ボタン513で指示された表示内容に応じて検索された楽曲データがマッピングされているニューロンを楽曲マップ表示領域511に表示する。なお、検索された楽曲データがマッピングされているニューロンのみを表示するのではなく、全ニューロンを楽曲マップ表示領域511に表示し、検索された楽曲データがマッピングされているニューロンと他のニューロンとの表示形態(非点滅表示と点滅表示、白丸と黒丸等)を変えて、検索された楽曲データがマッピングされているニューロンと他のニューロンとが区別できるようにしても良い。
表示内容指示ボタン513は、印象度データの各評価項目に対応したボタンが設けられており、楽曲検索部18は、PC操作部19によってクリックされた表示内容指示ボタン513に対応する印象度データの評価項目に該当する各ニューロンの特徴ベクトルmi(T)∈Rnの値に応じて、楽曲マップ表示領域511に表示する各ニューロンを濃淡で表現する。例えば、「かたい、やわらかい」の段階を示す評価項目の表示内容指示ボタン513がクリックされた場合には、楽曲検索部18は、「かたい、やわらかい」の段階を示す評価項目に該当する各ニューロンの特徴ベクトルmi(T)∈Rnの値に応じて、図13に示すよう、楽曲マップ表示領域511に表示する各ニューロンを「かたい」に近いほど濃く、「やわらかい」に近いほど薄く表示する。
また、印象度データの各評価項目には、それぞれ異なる色が割り当てられており、楽曲検索部18は、PC操作部19によってクリックされた表示内容指示ボタン513に対応する評価項目に割り当てられている色で楽曲マップ表示領域511に各ニューロンを表示する。例えば、「明るい、暗い」の段階を示す評価項目に「赤色」が割り当てられており、「明るい、暗い」の段階を示す評価項目の表示内容指示ボタン513がクリックされた場合には、楽曲検索部18は、「赤色」で楽曲マップ表示領域511に各ニューロンを表示すると共に、「明るい、暗い」の段階を示す評価項目に該当する各ニューロンの特徴ベクトルmi(T)∈Rnの値に応じて、楽曲マップ表示領域511に表示する各ニューロンを「明るい」に近いほど濃く、「暗い」に近いほど薄く表示する。これにより、ユーザが各ニューロンの状態、すなわち特徴ベクトルmi(T)∈Rnの評価項目毎の状態を簡単に認識することができる。
表示内容指示ボタン513において、複数のボタンがクリックされた場合には、PC操作部19によってクリックされた複数の表示内容指示ボタン513にそれぞれ対応する評価項目に割り当てられているそれぞれの色を混色して楽曲マップ表示領域511に各ニューロンを表示する。例えば、「明るい、暗い」の段階を示す評価項目に「赤色」が、「重い、軽い」の段階を示す評価項目に「青色」がそれぞれ割り当てられており、「明るい、暗い」の段階を示す評価項目と「重い、軽い」の段階を示す評価項目との表示内容指示ボタン513がクリックされた場合には、楽曲検索部18は、「赤色」と「青色」とを混色して楽曲マップ表示領域511に各ニューロンを表示すると共に、「明るい、暗い」の段階を示す評価項目に該当する各ニューロンの特徴ベクトルmi(T)∈Rnの値に応じて、楽曲マップ表示領域511に表示する各ニューロンを「明るい」に近いほど「赤色」を濃く、「暗い」に近いほど「赤色」を薄く表示し、「重い、軽い」の段階を示す評価項目に該当する各ニューロンの特徴ベクトルmi(T)∈Rnの値に応じて、楽曲マップ表示領域511に表示する各ニューロンを「重い」に近いほど「青色」を濃く、「軽い」に近いほど「青色」を薄く表示する。この場合には、「明るい」に近く、且つ「重い」に近いニューロンは、濃い「紫色」に近い色で表示され、「明るい」に近く、且つ「軽い」に近いニューロンは、濃い「赤色」に近い色で表示され、「暗い」に近く、且つ「重い」に近いニューロンは、濃い「青色」に近い色で表示され、「暗い」に近く、且つ「軽い」に近いニューロンは、薄い「紫色」に近い色で表示されることになり、ユーザが各ニューロンの状態、すなわち特徴ベクトルmi(T)∈Rnの評価項目毎の状態を簡単に認識することができる。なお、表示内容指示ボタン513において、いずれのボタンもクリックされていない場合には、同一濃度で各ニューロンを表示する。
また、本実施の形態では、各ニューロンの特徴ベクトルmi(T)∈Rnの値に応じて、楽曲マップ表示領域511に表示する各ニューロンを濃淡で表現するように構成したが、各ニューロンにマッピングされている楽曲データの印象度データに値に応じて、楽曲マップ表示領域511に表示する各ニューロンを濃淡で表現するように構成しても良い。なお、同一のニューロンに複数の楽曲データがマッピングされている場合には、いずれかの印象度データもしくは印象度データの平均値に応じて、楽曲マップ表示領域511に表示する各ニューロンを濃淡で表現するようにすると良い。
次に、楽曲検索装置10における楽曲検索動作について図7を参照して詳細に説明する。
楽曲検索部18は、PC表示部20に、検索条件を入力する検索条件入力領域52を表示し、PC操作部19からのユーザ入力を受け付ける。
楽曲検索部18は、PC表示部20に、検索条件を入力する検索条件入力領域52を表示し、PC操作部19からのユーザ入力を受け付ける。
検索条件入力領域52は、図14に示すように、検索条件として印象度データを入力する印象度データ入力領域521と、検索条件として書誌データを入力する書誌データ入力領域522と、検索の実行を指示する検索実行ボタン523とからなり、ユーザは、検索条件として印象度データや書誌データをPC操作部19から入力し(ステップE1)、検索実行ボタン523をクリックすることで、印象度データや書誌データに基づく検索を楽曲検索部18に指示する。なお、PC操作部19からの印象度データの入力は、図14に示すように、印象度データの各評価項目を7段階評価で入力することによって行われる。
楽曲検索部18は、PC操作部19から入力された印象度データおよび書誌データに基づいて楽曲データベース15を検索し(ステップE2)、図15に示すような検索結果を検索結果表示領域53に表示する。
PC操作部19から入力された印象度データに基づく検索は、PC操作部19から入力された印象度データを入力ベクトルxjとし、楽曲データベース15に楽曲データと共に記憶されている印象度データを検索対象ベクトルXjとすると、入力ベクトルxjに近い検索対象ベクトルXj、すなわちユークリッド距離‖Xj−xj‖が小さい順に検索して行く。検索する件数は、予め定めておいても、ユーザによって任意に設定するようにしても良い。また、印象度データと書誌データとが共に検索条件とされている場合には、書誌データに基づく検索を行った後、印象度データに基づく検索が行われる。
また、検索条件入力領域52を用いた検索以外に、マッピング状態表示領域51の楽曲マップ表示領域511を用いた検索を行える。表示内容指示ボタン513によって印象度データの評価項目を指定することで、指定された評価項目についてのニューロンの状態を色および濃淡で把握することができ、PC操作部19によって楽曲マップ表示領域511上で楽曲選択領域514を指定することで、楽曲検索部18は、楽曲選択領域514内にマッピングされている楽曲データを検索し、検索結果として検索結果表示領域53に表示する。
次に、ユーザは、検索結果表示領域53に表示されている検索結果の中から代表曲を選択し(ステップE3)、代表曲検索実行ボタン531をクリックすることで、代表曲に基づく検索を楽曲検索部18に指示する。なお、この時点で出力ボタン532がクリックされた場合には、楽曲検索部18は、送受信部21を介して検索結果表示領域53に表示されている検索結果の楽曲データを端末装置30に出力する。
楽曲検索部18は、選択された代表曲に基づいて楽曲マップ記憶部17に記憶されている楽曲マップを検索し(ステップE4)、代表曲がマッピングされているニューロンと、その近傍ニューロンとにマッピングされている楽曲データを代表曲検索結果として検索結果表示領域53に表示する。近傍ニューロンを決定するための近傍半径は、予め定めておいても、ユーザによって任意に設定するようにしても良い。
次に、ユーザは、検索結果表示領域53に表示されている代表曲検索結果の中から端末装置30に出力する楽曲データを、図16に示すように選択し(ステップE5)、出力ボタン532をクリックすることで、選択した楽曲データの出力を楽曲検索部18に指示し、楽曲検索部18は、送受信部21を介してユーザによって選択された楽曲データを端末装置30に出力する(ステップE6)。
なお、検索条件入力領域52、マッピング状態表示領域51を用いた代表曲の検索以外に、図17に示すような、記憶されている全楽曲のリストが表示される全楽曲リスト表示領域54を検索画面50に表示させ、全楽曲リストから代表曲を直接選択して、代表曲選択実行ボタン541をクリックすることで、選択された代表曲に基づく検索を楽曲検索部18に指示するように構成しても良い。
さらに、上述した検索以外に、「明るい曲」、「楽しい曲」、「癒される曲」というように言葉で表現されるキーワードに対応するニューロン(あるいは楽曲)を設定しておき、キーワードを選択することによって楽曲の検索を行えるように構成しても良い。すなわち、図18(a)に示すような、キーワード検索領域55を検索画面50に表示させ、キーワード選択領域551に表示されたキーワードのリストからいずれかを選択し、おまかせ検索ボタン553をクリックすることで、選択されたキーワードに対応するニューロンに基づく検索を楽曲検索部18に指示するように構成する。図18(a)に示す設定楽曲表示領域552には、選択されたキーワードに対応する楽曲が設定されている場合に、当該楽曲が設定楽曲として表示され、この場合には、おまかせ検索ボタン553をクリックすることで、選択されたキーワードに対応する設定楽曲を代表曲とする検索を楽曲検索部18に指示する。また、図18(a)に示す設定楽曲変更ボタン554は、キーワードに対応する楽曲を変更する際に使用されるもので、設定楽曲変更ボタン554をクリックすることで、全楽曲リストが表示されて、全楽曲リストの中から楽曲を選択することで、キーワードに対応する楽曲を変更できるように構成する。なお、キーワードに対応するニューロン(あるいは楽曲)の設定は、キーワードに印象度データを割り付けておき、当該印象度データを入力ベクトルxjとし、入力ベクトルxjに最も近いニューロン(あるいは楽曲)とを対応づけるようにしても良く、ユーザによって任意に設定できるように構成しても良い。
このように、キーワードに対応するニューロンが設定されている場合には、図18(b)に示すように、楽曲マップ表示領域511において楽曲がマッピンクされているニューロンをクリックすると、クリックされたニューロンに対応するキーワードがキーワード表示515としてポップアップ表示されるように構成すると、楽曲マップ表示領域511を利用した楽曲の検索を容易に行うことができる。
次に、楽曲検索装置における印象度データの修正動作について図19および図20を参照して詳細に説明する。
検索結果表示領域53には、図15および図16に示すように、検索された楽曲毎に試聴ボタン533が設けられており、PC操作部19によって試聴ボタン533をクリックすると(ステップF1)、楽曲検索部18は、対応する楽曲の楽曲データおよび印象度データを楽曲データベース15から読み出し、読み出した楽曲データを音声出力部22に出力すると共に、図20に示す修正指示領域60をPC表示部20に表示し、修正データ入力領域61に読み出した印象度データを表示する(ステップF2)。修正データ入力領域61に表示される印象度データは、図20に示すように、評価項目毎の段階がポイントの位置で表現される。
音声出力部22は、楽曲検索部18から入力された楽曲データを音声出力し(ステップF3)、ユーザは、印象度データや書誌データに基づいて検索された楽曲を試聴して代表曲を選択することができ、また、代表曲に基づいて検索された楽曲を試聴して端末装置30に出力する楽曲を確認することができる。また、試聴中にPC操作部19によって修正指示領域60の音声出力停止ボタン64をクリックすると、楽曲検索部18は、音声出力部22への楽曲データの出力を停止し、音声出力を停止させると共に、修正指示領域60の表示を消す。
ユーザが音声出力部22からの音声出力に違和感をおぼえた場合、すなわち修正データ入力領域61に表示されている印象度データが異なると感じた場合や、検索結果として不適であると感じた場合には、以下に示す2つの方法のいずれかによって印象度データを修正することができる。
印象度データを修正する第1の方法は、PC操作部19によって修正データ入力領域61に表示されている印象度データの修正入力、すなわち評価項目毎にポイントの位置の移動を行った後(ステップF4)、修正実行ボタン62をクリックする(ステップF5)。
修正実行ボタン62のクリックによって、修正された印象度データ(以下、修正された印象度データを修正データと称す)が楽曲検索部18に入力され、楽曲検索部18は、楽曲データベース15に記憶されている印象度データを入力された修正データに更新すると共に、楽曲データベース15から特徴データを読み出して、修正データと特徴データとを再学習データとして修正データ記憶部23に記憶させる(ステップF6)。
印象度データを修正する第2の方法は、PC操作部19によって自動修正ボタン63をクリックする。自動修正ボタン63がクリックされると(ステップF7)、修正指示が楽曲検索部18に入力され、楽曲検索部18は、修正が指示された楽曲の印象度データを検索条件から遠ざかる方向に自動修正し(ステップF8)、楽曲データベース15に記憶されている印象度データを自動修正した修正データに更新すると共に、楽曲データベース15から特徴データを読み出して、修正データと特徴データとを再学習データとして修正データ記憶部23に記憶させる(ステップF6)。
楽曲検索部18による自動修正は、検索が印象度データ入力領域521に入力された印象度データや代表曲の印象度データに基づいて行われた場合に実行され、検索条件である印象度データの内の最も特徴的な評価項目を特定し、当該評価項目の段階を所定数遠ざかる方向に移動させる。例えば、検索条件である印象度データが図14の印象度データ入力領域521に示すものである場合には、「明るい、暗い」の段階を示す評価項目で最も明るい評価となっているため、「明るい、暗い」の段階を示す評価項目が最も特徴的な評価項目として特定され、「明るい、暗い」の段階を暗い方向に移動させる。なお、検索が書誌データに基づくものである場合には、第2の方法を選択することができず、この場合には、自動修正ボタン63をクリックできないように制御するか、修正指示領域60から自動修正ボタン63を消去するようにすると良い。
楽曲マッピング部16は、楽曲マップ記憶部17に新たな修正データが記憶されると、修正データで楽曲を再マッピングし(ステップF9)、修正データに基づいて再マッピングした楽曲マップを楽曲マップ記憶部17に記憶させる。
また、上述の第1および第2の方法以外に、マッピング状態表示領域51の楽曲マップ表示領域511上のポイントを指定することで、当該ポイントに対応するニューロンにマッピングされている楽曲データを指定できるように構成し、指定した楽曲データを楽曲マップ表示領域511上で移動することで、楽曲データの印象度データを修正できるようにしても良い。この場合には、表示内容指示ボタン513によって印象度データの評価項目を指定することで、指定された評価項目についてのニューロンの状態を色および濃淡で把握し、印象度データを修正したい楽曲データをドラックして所望のポイントに移動させ、移動させたポイントに対応するニューロンの特徴ベクトルmi(T)∈Rnを修正データとする。
次に、端末装置30における印象度データの修正動作について詳細に説明する。
ユーザが端末装置30で楽曲を聴取中に違和感をおぼえた場合、すなわち検索結果として不適であると感じた場合には、再生中の楽曲に対応する印象度データの修正を指示する修正指示入力を端末操作部33によって行う。修正指示入力は、例えば、端末操作部33に修正指示入力を行う専用のボタンを設け、当該ボタンを楽曲の再生中に押下することによって行われる。専用のボタンの代わりに、楽曲の再生中において、いずれかのボタンに修正指示入力の機能を割り当てるようにしても良い。
ユーザが端末装置30で楽曲を聴取中に違和感をおぼえた場合、すなわち検索結果として不適であると感じた場合には、再生中の楽曲に対応する印象度データの修正を指示する修正指示入力を端末操作部33によって行う。修正指示入力は、例えば、端末操作部33に修正指示入力を行う専用のボタンを設け、当該ボタンを楽曲の再生中に押下することによって行われる。専用のボタンの代わりに、楽曲の再生中において、いずれかのボタンに修正指示入力の機能を割り当てるようにしても良い。
端末操作部33によって入力された修正指示は、検索結果記憶部32に記憶され、端末装置30が楽曲検索装置10に接続されると、送受信部31によって楽曲検索装置10に送信される。端末操作部33からの修正指示は、楽曲検索装置10の送受信部21によって受信され、受信された修正指示は、楽曲検索部18に出力される。
修正指示が入力された楽曲検索部18は、修正が指示された楽曲の印象度データを検索条件から遠ざかる方向に自動修正し、楽曲データベース15に記憶されている印象度データを自動修正した修正データに更新すると共に、楽曲データベース15から特徴データを読み出して、修正データと特徴データとを再学習データとして修正データ記憶部23に記憶させる。
次に、印象度データ変換部14で用いられる階層型ニューラルネットワークの再学習動作について図21を参照して詳細に説明する。
ニューラルネットワーク学習部24は、修正データ記憶部23に新たに記憶された再学習データの数をカウントしており(ステップG1)、修正データ記憶部23に新たに記憶された再学習データの数が所定数に到達したか否かを判断し(ステップG2)、修正データ記憶部23に新たに記憶された再学習データの数が所定数に到達すると、印象度データ変換部14から各ニューロンの結合重み値wを読み出し(ステップG3)、読み出した各ニューロンの結合重み値wを初期値とし、修正データ記憶部23に記憶されている再学習データによって階層型ニューラルネットワークの再学習、すなわち各ニューロンの結合重み値wを再学習させる(ステップG4)。なお、階層型ニューラルネットワークの再学習を開始する再学習データの数、すなわち所定数は、予め定めておいても良く、ユーザによって設定できるようにしても良い。また、前回階層型ニューラルネットワークの再学習を行った時からの経過時間を計測し、当該経過時間が所定時間に到達した時に階層型ニューラルネットワークの再学習を開始するようにしても良く、階層型ニューラルネットワークの再学習を開始する経過時間、すなわち所定時間は、予め定めておいても良く、ユーザによって設定できるようにしても良い。
ニューラルネットワーク学習部24は、修正データ記憶部23に新たに記憶された再学習データの数をカウントしており(ステップG1)、修正データ記憶部23に新たに記憶された再学習データの数が所定数に到達したか否かを判断し(ステップG2)、修正データ記憶部23に新たに記憶された再学習データの数が所定数に到達すると、印象度データ変換部14から各ニューロンの結合重み値wを読み出し(ステップG3)、読み出した各ニューロンの結合重み値wを初期値とし、修正データ記憶部23に記憶されている再学習データによって階層型ニューラルネットワークの再学習、すなわち各ニューロンの結合重み値wを再学習させる(ステップG4)。なお、階層型ニューラルネットワークの再学習を開始する再学習データの数、すなわち所定数は、予め定めておいても良く、ユーザによって設定できるようにしても良い。また、前回階層型ニューラルネットワークの再学習を行った時からの経過時間を計測し、当該経過時間が所定時間に到達した時に階層型ニューラルネットワークの再学習を開始するようにしても良く、階層型ニューラルネットワークの再学習を開始する経過時間、すなわち所定時間は、予め定めておいても良く、ユーザによって設定できるようにしても良い。
ニューラルネットワーク学習部24における階層型ニューラルネットワークの再学習は、ニューラルネットワーク学習装置40で行われる学習方法と同様の方法で行われ、ニューラルネットワーク学習部24は、印象度データ変換部14の各ニューロンの結合重み値wを再学習させた各ニューロンの結合重み値wに更新する(ステップG5)。なお、再学習に使用した再学習データは、修正データ記憶部23から消去するようにしても良いが、修正データ記憶部23に記憶させておき、次回の再学習時に使用するようにすると、階層型ニューラルネットワークの再学習時に使用する再学習データの数が増えるため、再学習の精度が良くなる。但し、再学習に使用した再学習データを修正データ記憶部23に記憶させておく場合には、同一の楽曲に対する新たな修正データが記憶された際に、以前の修正データを消去して同一の楽曲に対して2つの修正データが存在しないようにする必要がある。
ニューラルネットワーク学習部24による階層型ニューラルネットワークの再学習動作は、楽曲登録動作や楽曲検索動作等の他の処理を妨げないように、時分割して行うことができる。すなわち、ニューラルネットワーク学習部24による階層型ニューラルネットワークの再学習中に他の処理が開始されると、再学習動作を中断し、他の処理が終了後に再学習動作を再開するように構成されている。また、ニューラルネットワーク学習部24による階層型ニューラルネットワークの再学習動作を楽曲検索装置10の立ち上げ時のアイドリング中や切断時に終了処理中に分割して行うようにしても良い。
なお、階層型ニューラルネットワークの再学習は、ユーザの指示によって行うことができる。検索画面50の再学習指示領域70は、図22に示すように、修正情報表示領域71と、再学習実行ボタン72と、再登録実行ボタン73とからなり、修正情報表示領域71には、修正データ記憶部23に記憶されている修正データの数と、前回階層型ニューラルネットワークの再学習を行った時からの経過時間と、前回楽曲データの再登録を行った時からの経過時間とが表示される。なお、修正情報表示領域71に表示されている修正データの数は、新たに記憶された修正データ(再学習に用いられていない修正データ)の数と、再学習に用いられたことがある修正データの数とが表示され、再学習に用いられたことがある修正データの数が括弧内に表示される。
ユーザは、修正情報表示領域71に表示されている情報を確認し、階層型ニューラルネットワークの再学習を行う必要があると判断した場合には、PC操作部19によって再学習実行ボタン72をクリックする。再学習実行ボタン72がクリックされると、ニューラルネットワーク学習部24に再学習指示が出力され、ニューラルネットワーク学習部24は、印象度データ変換部14から各ニューロンの結合重み値wを読み出し、読み出した各ニューロンの結合重み値wを初期値とし、修正データ記憶部23に記憶されている再学習データによって階層型ニューラルネットワークの再学習、すなわち各ニューロンの結合重み値wを再学習させ、印象度データ変換部14の各ニューロンの結合重み値wを再学習させた各ニューロンの結合重み値wに更新する。
次に、楽曲検索装置10における楽曲データの再登録動作について図23を参照して詳細に説明する。
修正情報表示領域71において、PC操作部19によって再登録実行ボタン73をクリックすることによって、楽曲データベース15に記憶されている全ての楽曲データの再登録動作が開始される。
修正情報表示領域71において、PC操作部19によって再登録実行ボタン73をクリックすることによって、楽曲データベース15に記憶されている全ての楽曲データの再登録動作が開始される。
PC操作部19によって再登録実行ボタン73をクリックされると(ステップH1)、ニューラルネットワーク学習部24に再登録指示が出力され、ニューラルネットワーク学習部24は、印象度データ変換部14から各ニューロンの結合重み値wを読み出し(ステップH2)、読み出した各ニューロンの結合重み値wを初期値とし、修正データ記憶部23に記憶されている再学習データによって階層型ニューラルネットワークの再学習、すなわち各ニューロンの結合重み値wを再学習させ(ステップH3)、印象度データ変換部14の各ニューロンの結合重み値wを再学習させた各ニューロンの結合重み値wに更新する(ステップH4)。
次に、ニューラルネットワーク学習部24は、楽曲マッピング部16に対して楽曲マップにマッピングされている全ての楽曲の消去を指示し、楽曲マッピング部16は、楽曲マップ記憶部17に記憶されている楽曲マップにマッピングされている全ての楽曲を消去する(ステップH5)。
次に、ニューラルネットワーク学習部24は、印象度データ変換部14に対して楽曲データベース15に記憶されている印象度データの更新を指示し、印象度データ変換部14は、楽曲データベース15に記憶されている楽曲データの特徴データを読み出し(ステップH6)、読み出した特徴データを再学習された階層型ニューラルネットワークを用いて印象度データに変換し(ステップH7)、楽曲データベース15に記憶されている楽曲データの印象度データを更新すると共に(ステップH8)、変換した印象度データを楽曲マッピング部16に出力する。楽曲マッピング部16は、印象度データ変換部14から入力される更新された印象度データに基づいて楽曲を再マッピングする(ステップH9)。
ニューラルネットワーク学習部24は、印象度データが更新されていない楽曲データが存在するか否かを判断し(ステップH10)、印象度データが更新されていない楽曲データが存在する場合には、ステップH6〜ステップH9の処理を繰り返し、印象度データが更新されていない楽曲データが存在しない場合、すなわち楽曲データベース15に記憶されている全ての楽曲データの印象度データを更新した場合には、楽曲データの再登録動作を終了する。
以上説明したように、本実施の形態によれば、楽曲データの特徴データにそれぞれ対応するデータからなる特徴ベクトルを内包した複数のニューロンで構成される自己組織化マップであると共に、予め定められた指標評価項目について一端部から他端部に向けて傾向を有している楽曲マップに楽曲データをマッピングし、各ニューロンにそれぞれ対応するポイントによって楽曲マップの状態を表示するように構成することにより、楽曲データがマッピングされた楽曲マップの表示を参照するだけで、楽曲データベース15に記憶されている楽曲データの傾向を簡単に把握することができる。
なお、本発明が上記各実施の形態に限定されず、本発明の技術思想の範囲内において、各実施の形態は適宜変更され得ることは明らかである。また、上記構成部材の数、位置、形状等は上記実施の形態に限定されず、本発明を実施する上で好適な数、位置、形状等にすることができる。なお、各図において、同一構成要素には同一符号を付している。
10 楽曲検索装置
11 楽曲データ入力部
12 圧縮処理部
13 特徴データ抽出部
14 印象度データ変換部
15 楽曲データベース
16 楽曲マッピング部
17 楽曲マップ記憶部
18 楽曲検索部
19 PC操作部
20 PC表示部
21 送受信部
22 音声出力部
23 修正データ記憶部
24 ニューラルネットワーク学習部
30 端末装置
31 送受信部
32 検索結果記憶部
33 端末操作部
34 端末表示部
35 音声出力部
40 ニューラルネットワーク学習装置
41 楽曲データ入力部
42 音声出力部
43 特徴データ抽出部
44 印象度データ入力部
45 結合重み値学習部
46 楽曲マップ学習部
47 結合重み値出力部
48 特徴ベクトル出力部
50 検索画面
51 マッピング状態表示領域
52 検索条件入力領域
53 検索結果表示領域
54 全楽曲リスト表示領域
55 キーワード検索領域
60 修正指示領域
61 修正データ入力領域
62 修正実行ボタン
63 自動修正ボタン
64 音声出力停止ボタン
70 再学習指示領域
71 修正情報表示領域
72 再学習実行ボタン
73 再登録実行ボタン
511 楽曲マップ表示領域
512 表示内容指示ボタン
512a マップ表示ボタン
512b 全楽曲表示ボタン
512c 検索楽曲表示ボタン
513 表示内容指示ボタン
514 楽曲選択領域
515 キーワード表示
521 印象度データ入力領域
522 書誌データ入力領域
523 検索実行ボタン
531 代表曲検索実行ボタン
532 出力ボタン
533 試聴ボタン
541 代表曲選択実行ボタン
551 キーワード選択領域
552 設定楽曲表示領域
553 おまかせ検索ボタン
554 設定楽曲変更ボタン
11 楽曲データ入力部
12 圧縮処理部
13 特徴データ抽出部
14 印象度データ変換部
15 楽曲データベース
16 楽曲マッピング部
17 楽曲マップ記憶部
18 楽曲検索部
19 PC操作部
20 PC表示部
21 送受信部
22 音声出力部
23 修正データ記憶部
24 ニューラルネットワーク学習部
30 端末装置
31 送受信部
32 検索結果記憶部
33 端末操作部
34 端末表示部
35 音声出力部
40 ニューラルネットワーク学習装置
41 楽曲データ入力部
42 音声出力部
43 特徴データ抽出部
44 印象度データ入力部
45 結合重み値学習部
46 楽曲マップ学習部
47 結合重み値出力部
48 特徴ベクトル出力部
50 検索画面
51 マッピング状態表示領域
52 検索条件入力領域
53 検索結果表示領域
54 全楽曲リスト表示領域
55 キーワード検索領域
60 修正指示領域
61 修正データ入力領域
62 修正実行ボタン
63 自動修正ボタン
64 音声出力停止ボタン
70 再学習指示領域
71 修正情報表示領域
72 再学習実行ボタン
73 再登録実行ボタン
511 楽曲マップ表示領域
512 表示内容指示ボタン
512a マップ表示ボタン
512b 全楽曲表示ボタン
512c 検索楽曲表示ボタン
513 表示内容指示ボタン
514 楽曲選択領域
515 キーワード表示
521 印象度データ入力領域
522 書誌データ入力領域
523 検索実行ボタン
531 代表曲検索実行ボタン
532 出力ボタン
533 試聴ボタン
541 代表曲選択実行ボタン
551 キーワード選択領域
552 設定楽曲表示領域
553 おまかせ検索ボタン
554 設定楽曲変更ボタン
Claims (7)
- 楽曲データベースに記憶された複数の楽曲データの中から所望の楽曲データを検索する楽曲検索システムであって、
前記楽曲データの特徴を表す複数の評価項目にそれぞれ対応するデータからなる特徴ベクトルを内包した複数のニューロンで構成される自己組織化マップであると共に、当該ニューロンが前記評価項目の内の予め定められた指標評価項目について一端部から他端部に向けて傾向を有している楽曲マップを記憶する楽曲マップ記憶手段と、
前記楽曲データの特徴を表す複数項目のデータに基づいて、前記楽曲マップのいずれかのニューロンに前記楽曲データをマッピングする楽曲マッピング手段と、
前記楽曲マップの各ニューロンにそれぞれ対応するポイントによって前記楽曲マップの状態を表示する表示手段と、を具備することを特徴とする楽曲検索システム。 - 前記楽曲マップは、前記指標評価項目について一端部から他端部に向けて漸減する値を初期値として学習が施されていることを特徴とする請求項1記載の楽曲検索システム。
- 前記楽曲マップは、2次元マップであり、
前記評価項目の内の2つが前記指標評価項目として定められていることを特徴とする請求項1又は2記載の楽曲検索システム。 - 楽曲データベースに記憶された複数の楽曲データの中から所望の楽曲データを検索する楽曲検索方法であって、
前記楽曲データの特徴を表す複数の評価項目にそれぞれ対応するデータからなる特徴ベクトルを内包した複数のニューロンで構成される自己組織化マップであると共に、当該ニューロンが前記評価項目の内の予め定められた指標評価項目について一端部から他端部に向けて傾向を有している楽曲マップを記憶し、
前記楽曲データの特徴を表す複数項目のデータに基づいて、前記楽曲マップのいずれかのニューロンに前記楽曲データをマッピングし、
前記楽曲マップの各ニューロンにそれぞれ対応するポイントによって前記楽曲マップの状態を表示することを特徴とする楽曲検索方法。 - 前記楽曲マップは、前記指標評価項目について一端部から他端部に向けて漸減する値を初期値として学習が施されていることを特徴とする請求項4記載の楽曲検索方法。
- 前記楽曲マップは、2次元マップであり、
前記評価項目の内の2つが前記指標評価項目として定められていることを特徴とする請求項4又は5記載の楽曲検索方法。 - 請求項4乃至6のいずれかに記載の楽曲検索方法をコンピュータに実行させるための楽曲検索プログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004120862A JP2005301921A (ja) | 2004-04-15 | 2004-04-15 | 楽曲検索システムおよび楽曲検索方法 |
US10/980,294 US7576278B2 (en) | 2003-11-05 | 2004-11-04 | Song search system and song search method |
EP04027343.5A EP1587003B1 (en) | 2004-04-15 | 2004-11-17 | Song search system and song search method |
US10/992,843 US20050241463A1 (en) | 2004-04-15 | 2004-11-22 | Song search system and song search method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004120862A JP2005301921A (ja) | 2004-04-15 | 2004-04-15 | 楽曲検索システムおよび楽曲検索方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005301921A true JP2005301921A (ja) | 2005-10-27 |
Family
ID=34927437
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004120862A Pending JP2005301921A (ja) | 2003-11-05 | 2004-04-15 | 楽曲検索システムおよび楽曲検索方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20050241463A1 (ja) |
EP (1) | EP1587003B1 (ja) |
JP (1) | JP2005301921A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007122442A (ja) * | 2005-10-28 | 2007-05-17 | Victor Co Of Japan Ltd | 楽曲分類装置及び楽曲分類プログラム |
WO2008041764A1 (fr) * | 2006-10-05 | 2008-04-10 | National Institute Of Advanced Industrial Science And Technology | dispositif et procédé de recherche d'artiste musical |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1530195A3 (en) * | 2003-11-05 | 2007-09-26 | Sharp Kabushiki Kaisha | Song search system and song search method |
JP2005173938A (ja) * | 2003-12-10 | 2005-06-30 | Pioneer Electronic Corp | 曲検索装置、曲検索方法及び曲検索用プログラム並びに情報記録媒体 |
WO2005093711A1 (en) * | 2004-03-11 | 2005-10-06 | Nokia Corporation | Autonomous musical output using a mutually inhibited neuronal network |
JP4622829B2 (ja) * | 2005-11-29 | 2011-02-02 | 日本ビクター株式会社 | 楽曲検索再生装置、楽曲検索再生方法、印象語設定プログラム |
EP1850092B1 (de) * | 2006-04-26 | 2017-11-08 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zur Auswahl eines Musikstücks |
DE102006027331A1 (de) * | 2006-06-13 | 2007-12-20 | Robert Bosch Gmbh | Einrichtung zum Erzeugen einer Titelliste, insbesondere einer Musiktitelliste |
US20090252346A1 (en) * | 2008-04-03 | 2009-10-08 | Hsin-Yuan Kuo | Method of processing audio files |
EP2159719B1 (en) | 2008-08-27 | 2013-01-09 | Sony Corporation | Method for graphically displaying pieces of music |
DE102011008865A1 (de) * | 2011-01-18 | 2012-07-19 | Accessive Tools GmbH | Verfahren zur Anordnung von Dateninstanzen, Programmprodukt und Datenverarbeitungsanlage zur Ausführung des Verfahrens |
US20220237541A1 (en) * | 2021-01-17 | 2022-07-28 | Mary Elizabeth Morkoski | System for automating a collaborative network of musicians in the field of original composition and recording |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5067095A (en) * | 1990-01-09 | 1991-11-19 | Motorola Inc. | Spann: sequence processing artificial neural network |
US5261007A (en) * | 1990-11-09 | 1993-11-09 | Visidyne, Inc. | Frequency division, energy comparison signal processing system |
US5097141A (en) * | 1990-12-12 | 1992-03-17 | Motorola, Inc. | Simple distance neuron |
US5715372A (en) * | 1995-01-10 | 1998-02-03 | Lucent Technologies Inc. | Method and apparatus for characterizing an input signal |
US5616876A (en) * | 1995-04-19 | 1997-04-01 | Microsoft Corporation | System and methods for selecting music on the basis of subjective content |
US5819245A (en) * | 1995-09-05 | 1998-10-06 | Motorola, Inc. | Method of organizing data into a graphically oriented format |
US6539319B1 (en) * | 1998-10-30 | 2003-03-25 | Caterpillar Inc | Automatic wavelet generation system and method |
US20050038819A1 (en) * | 2000-04-21 | 2005-02-17 | Hicken Wendell T. | Music Recommendation system and method |
US7022905B1 (en) * | 1999-10-18 | 2006-04-04 | Microsoft Corporation | Classification of information and use of classifications in searching and retrieval of information |
US20020002899A1 (en) * | 2000-03-22 | 2002-01-10 | Gjerdingen Robert O. | System for content based music searching |
US7075000B2 (en) * | 2000-06-29 | 2006-07-11 | Musicgenome.Com Inc. | System and method for prediction of musical preferences |
US6545209B1 (en) * | 2000-07-05 | 2003-04-08 | Microsoft Corporation | Music content characteristic identification and matching |
US6910035B2 (en) * | 2000-07-06 | 2005-06-21 | Microsoft Corporation | System and methods for providing automatic classification of media entities according to consonance properties |
US6657117B2 (en) * | 2000-07-14 | 2003-12-02 | Microsoft Corporation | System and methods for providing automatic classification of media entities according to tempo properties |
US6963975B1 (en) * | 2000-08-11 | 2005-11-08 | Microsoft Corporation | System and method for audio fingerprinting |
US6748395B1 (en) * | 2000-07-14 | 2004-06-08 | Microsoft Corporation | System and method for dynamic playlist of media |
US7035873B2 (en) * | 2001-08-20 | 2006-04-25 | Microsoft Corporation | System and methods for providing adaptive media property classification |
US7065416B2 (en) * | 2001-08-29 | 2006-06-20 | Microsoft Corporation | System and methods for providing automatic classification of media entities according to melodic movement properties |
US7031980B2 (en) * | 2000-11-02 | 2006-04-18 | Hewlett-Packard Development Company, L.P. | Music similarity function based on signal analysis |
US6673995B2 (en) * | 2000-11-06 | 2004-01-06 | Matsushita Electric Industrial Co., Ltd. | Musical signal processing apparatus |
EP1244033A3 (en) * | 2001-03-21 | 2004-09-01 | Matsushita Electric Industrial Co., Ltd. | Play list generation device, audio information provision device, system, method, program and recording medium |
US6993532B1 (en) * | 2001-05-30 | 2006-01-31 | Microsoft Corporation | Auto playlist generator |
JP2003167914A (ja) * | 2001-11-30 | 2003-06-13 | Fujitsu Ltd | マルチメディア情報検索方法、プログラム、記録媒体及びシステム |
US20040034441A1 (en) * | 2002-08-16 | 2004-02-19 | Malcolm Eaton | System and method for creating an index of audio tracks |
US7081579B2 (en) * | 2002-10-03 | 2006-07-25 | Polyphonic Human Media Interface, S.L. | Method and system for music recommendation |
US6987222B2 (en) * | 2003-09-29 | 2006-01-17 | Microsoft Corporation | Determining similarity between artists and works of artists |
EP1530195A3 (en) * | 2003-11-05 | 2007-09-26 | Sharp Kabushiki Kaisha | Song search system and song search method |
US7022907B2 (en) * | 2004-03-25 | 2006-04-04 | Microsoft Corporation | Automatic music mood detection |
US7026536B2 (en) * | 2004-03-25 | 2006-04-11 | Microsoft Corporation | Beat analysis of musical signals |
-
2004
- 2004-04-15 JP JP2004120862A patent/JP2005301921A/ja active Pending
- 2004-11-17 EP EP04027343.5A patent/EP1587003B1/en not_active Expired - Lifetime
- 2004-11-22 US US10/992,843 patent/US20050241463A1/en not_active Abandoned
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007122442A (ja) * | 2005-10-28 | 2007-05-17 | Victor Co Of Japan Ltd | 楽曲分類装置及び楽曲分類プログラム |
JP4622808B2 (ja) * | 2005-10-28 | 2011-02-02 | 日本ビクター株式会社 | 楽曲分類装置、楽曲分類方法、楽曲分類プログラム |
WO2008041764A1 (fr) * | 2006-10-05 | 2008-04-10 | National Institute Of Advanced Industrial Science And Technology | dispositif et procédé de recherche d'artiste musical |
GB2456103A (en) * | 2006-10-05 | 2009-07-08 | Nat Inst Of Advanced Ind Scien | Music artist search device and method |
US8117214B2 (en) | 2006-10-05 | 2012-02-14 | National Institute Of Advanced Industrial Science And Technology | Music artist retrieval system and method of retrieving music artist |
JP4894026B2 (ja) * | 2006-10-05 | 2012-03-07 | 独立行政法人産業技術総合研究所 | 音楽アーティスト検索装置及び方法 |
Also Published As
Publication number | Publication date |
---|---|
EP1587003A3 (en) | 2007-06-06 |
EP1587003A2 (en) | 2005-10-19 |
US20050241463A1 (en) | 2005-11-03 |
EP1587003B1 (en) | 2015-08-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20220002939A (ko) | 감정적 인식을 반영하도록 신경망을 훈련하는 방법, 연관된 콘텐츠를 분류하고 발견하기 위한 관련 시스템 및 방법, 및 다차원 특성 백터가 내장된 관련 디지털 미디어 파일 | |
JP4622808B2 (ja) | 楽曲分類装置、楽曲分類方法、楽曲分類プログラム | |
JP2005301921A (ja) | 楽曲検索システムおよび楽曲検索方法 | |
AU2006220720A1 (en) | Scan shuffle for building playlists | |
US7199300B2 (en) | Information search apparatus, information search method, and information recording medium on which information search program is computer-readably recorded | |
EP1962241A1 (en) | Content search device, content search system, server device for content search system, content searching method, and computer program and content output apparatus with search function | |
EP1530195A2 (en) | Song search system and song search method | |
JP2007164545A (ja) | 嗜好プロファイル生成装置、嗜好プロファイル生成方法及びプロファイル生成プログラム | |
Mirza et al. | Residual LSTM neural network for time dependent consecutive pitch string recognition from spectrograms: a study on Turkish classical music makams | |
JP4339171B2 (ja) | 楽曲検索システムおよび楽曲検索方法 | |
JP2005309712A (ja) | 楽曲検索システムおよび楽曲検索方法 | |
JP4246101B2 (ja) | 楽曲検索システムおよび楽曲検索方法 | |
JP4246120B2 (ja) | 楽曲検索システムおよび楽曲検索方法 | |
JP4246100B2 (ja) | 楽曲検索システムおよび楽曲検索方法 | |
JP3901695B2 (ja) | 楽曲検索システムおよび楽曲検索方法 | |
JP4165650B2 (ja) | 楽曲検索システムおよび楽曲検索方法 | |
CN111026904A (zh) | 一种基于内容画像的播单评分方法 | |
JPH11184883A (ja) | 楽曲検索システム、楽曲検索方法及び記録媒体 | |
JP2005141430A (ja) | 楽曲検索システムおよび楽曲検索方法 | |
CN110959172A (zh) | 演奏解析方法及程序 | |
JP2005141431A (ja) | 楽曲検索システムおよび楽曲検索方法 | |
JP4607660B2 (ja) | 楽曲検索装置および楽曲検索方法 | |
JP2006317872A (ja) | 携帯端末装置および楽曲表現方法 | |
JP4607659B2 (ja) | 楽曲検索装置および楽曲検索方法 | |
KR102623446B1 (ko) | 사용자 보컬 평가 기반 사용자 맞춤 오디션 곡 선정 방법 |