[go: up one dir, main page]

JP7571804B2 - 情報処理システム、電子楽器、情報処理方法および機械学習システム - Google Patents

情報処理システム、電子楽器、情報処理方法および機械学習システム Download PDF

Info

Publication number
JP7571804B2
JP7571804B2 JP2022581297A JP2022581297A JP7571804B2 JP 7571804 B2 JP7571804 B2 JP 7571804B2 JP 2022581297 A JP2022581297 A JP 2022581297A JP 2022581297 A JP2022581297 A JP 2022581297A JP 7571804 B2 JP7571804 B2 JP 7571804B2
Authority
JP
Japan
Prior art keywords
data
performance
tendency
learning
practice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022581297A
Other languages
English (en)
Other versions
JPWO2022172732A1 (ja
Inventor
陽 前澤
雄耶 竹中
尚希 山本
哲史 小幡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Publication of JPWO2022172732A1 publication Critical patent/JPWO2022172732A1/ja
Priority to JP2024174187A priority Critical patent/JP2024177389A/ja
Application granted granted Critical
Publication of JP7571804B2 publication Critical patent/JP7571804B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B15/00Teaching music
    • G09B15/001Boards or like means for providing an indication of chords
    • G09B15/002Electrically operated systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B15/00Teaching music
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10GREPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
    • G10G1/00Means for the representation of music
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0041Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
    • G10H1/0058Transmission between separate instruments or between individual components of a musical system
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/061Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of musical phrases, isolation of musically relevant segments, e.g. musical thumbnail generation, or for temporal structure analysis of a musical piece, e.g. determination of the movement sequence of a musical work
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/066Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for pitch analysis as part of wider processing for musical purposes, e.g. transcription, musical performance evaluation; Pitch recognition, e.g. in polyphonic sounds; Estimation or use of missing fundamental
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/091Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/571Chords; Chord sequences
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/311Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Acoustics & Sound (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)

Description

本開示は、電子楽器等の楽器の演奏を支援する技術に関する。
電子楽器等の楽器の演奏を支援する各種の技術が従来から提案されている。例えば特許文献1には、事前に用意された楽曲データのパラメータと、利用者による演奏を表す演奏データのパラメータとの差分から標準偏差等の統計値を算定し、当該パラメータの種類に応じた方法で統計値を集計する技術が開示されている。
特開2005-55635号公報
しかし、演奏を評価した結果である評価値を利用者に提示するだけでは、個々の利用者の演奏に関する傾向(例えば演奏ミスの傾向等)を踏まえて効果的に演奏を練習することは実際には困難である。以上の事情を考慮して、本開示のひとつの態様は、利用者の演奏の傾向に応じた効果的な演奏の練習を実現することをひとつの目的とする。
以上の課題を解決するために、本開示のひとつの態様に係る情報処理システムは、利用者による楽曲の演奏を表す演奏データを取得する演奏データ取得部と、楽曲の演奏を表す学習用演奏データと、前記学習用演奏データが表す演奏の傾向を表す学習用傾向データとの関係を学習した第1学習済モデルに、前記演奏データ取得部が取得した前記演奏データを入力することで、前記利用者による演奏の傾向を表す傾向データを生成する傾向特定部と、前記傾向特定部が生成した前記傾向データに応じた練習フレーズを特定する練習フレーズ特定部とを具備する。
本開示のひとつの態様に係る電子楽器は、利用者による楽曲の演奏を受付ける演奏受付部と、前記演奏受付部が受付けた演奏を表す演奏データを取得する演奏データ取得部と、楽曲の演奏を表す学習用演奏データと、前記学習用演奏データが表す演奏の傾向を表す学習用傾向データとの関係を学習した第1学習済モデルに、前記演奏データ取得部が取得した前記演奏データを入力することで、前記利用者による演奏の傾向を表す傾向データを前記第1学習済モデルから出力する傾向特定部と、前記傾向特定部が出力した前記傾向データを利用して、前記利用者による演奏の傾向に応じた練習フレーズを特定する練習フレーズ特定部と、前記練習フレーズを前記利用者に提示する提示処理部とを具備する。
本開示のひとつの態様に係る情報処理方法は、利用者による楽曲の演奏を表す演奏データを取得し、楽曲の演奏を表す学習用演奏データと、前記学習用演奏データが表す演奏の傾向を表す学習用傾向データとの関係を学習した第1学習済モデルに、前記取得した前記演奏データを入力することで、前記利用者による演奏の傾向を表す傾向データを生成し、前記傾向データに応じた練習フレーズを特定する。
本開示のひとつの態様に係る機械学習システムは、利用者による楽曲の演奏を表す演奏データと、前記楽曲内の時点と当該時点における演奏の傾向とを表す指摘データとを取得する第1学習データ取得部と、前記演奏データのうち前記指摘データが表す時点を含む区間内の演奏を表す学習用演奏データと、当該指摘データが表す演奏の傾向を表す学習用傾向データとの組合せを表す第1学習データを利用した機械学習により、前記学習用演奏データと前記学習用傾向データとの関係を学習した第1学習済モデルを確立する第1学習処理部とを具備する。
第1実施形態における演奏システムの構成を例示するブロック図である。 電子楽器の構成を例示するブロック図である。 情報処理システムの構成を例示するブロック図である。 情報処理システムの機能的な構成を例示するブロック図である。 特定処理の具体的な手順を例示するフローチャートである。 機械学習システムの構成を例示するブロック図である。 機械学習システムの機能的な構成を例示するブロック図である。 指導者が使用する情報装置の構成を例示するブロック図である。 指摘データの模式図である。 準備処理の具体的な手順を例示するフローチャートである。 学習処理の具体的な手順を例示するフローチャートである。 第2実施形態における情報処理システムの機能的な構成を例示するブロック図である。 第2実施形態における特定処理の手順を例示するフローチャートである。 第3実施形態における情報処理システムの機能的な構成を例示するブロック図である。 第3実施形態における特定処理の手順を例示するフローチャートである。 第3実施形態における機械学習システムの機能的な構成を例示するブロック図である。 第3実施形態における学習処理の手順を例示するフローチャートである。 第4実施形態における電子楽器の機能的な構成を例示するブロック図である。 第5実施形態における情報装置の機能的な構成を例示するブロック図である。
A:第1実施形態
図1は、第1実施形態に係る演奏システム100の構成を例示するブロック図である。演奏システム100は、電子楽器10の利用者Uが当該電子楽器10の演奏を練習するためのコンピュータシステムであり、電子楽器10と情報処理システム20と機械学習システム30とを具備する。演奏システム100を構成する各要素は、例えばインターネット等の通信網200を介して相互に通信する。なお、演奏システム100は実際には複数の電子楽器10を含むが、以下の説明では任意の1個の電子楽器10に便宜的に着目する。
図2は、電子楽器10の構成を例示するブロック図である。電子楽器10は、利用者Uが楽曲を演奏するために使用する演奏機器である。第1実施形態の電子楽器10は、利用者Uが操作する複数の鍵を具備する電子鍵盤楽器である。電子楽器10は、制御装置11と記憶装置12と通信装置13と演奏装置14と表示装置15と音源装置16と放音装置17とを具備するコンピュータシステムで実現される。なお、電子楽器10は、単体の装置として実現されるほか、相互に別体で構成された複数の装置でも実現される。
制御装置11は、電子楽器10の各要素を制御する単数または複数のプロセッサで構成される。例えば、制御装置11は、CPU(Central Processing Unit)、SPU(Sound Processing Unit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)、またはASIC(Application Specific Integrated Circuit)等の1種類以上のプロセッサにより構成される。
記憶装置12は、制御装置11が実行するプログラムと制御装置11が使用する各種のデータとを記憶する単数または複数のメモリである。記憶装置12は、例えば磁気記録媒体もしくは半導体記録媒体等の公知の記録媒体、または、複数種の記録媒体の組合せで構成される。なお、電子楽器10に対して着脱される可搬型の記録媒体、または例えば通信網200を介して制御装置11が書込または読出を実行可能な記録媒体(例えばクラウドストレージ)を、記憶装置12として利用してもよい。
第1実施形態の記憶装置12は、相異なる楽曲を表す複数の楽曲データXを記憶する。各楽曲の楽曲データXは、当該楽曲の一部または全部を構成する複数の音符の時系列を指定する。具体的には、楽曲データXは、楽曲内の音符毎に音高と発音期間とを指定する。楽曲データXは、例えばMIDI(Musical Instrument Digital Interface)規格に準拠した形式のデータである。
通信装置13は、通信網200を介して情報処理システム20と通信する。なお、通信装置13と通信網200との間の通信は、有線通信および無線通信の何れでもよい。また、電子楽器10とは別体の通信装置13を有線または無線により電子楽器10に接続してもよい。電子楽器10と別体の通信装置13としては、例えばスマートフォンまたはタブレット端末等の情報端末が例示される。
表示装置15は、制御装置11による制御のもとで画像を表示する。例えば液晶表示パネルまたは有機EL(Electroluminescence)パネル等の各種の表示パネルが表示装置15として利用される。表示装置15は、例えば、利用者Uが演奏する楽曲の楽曲データXを利用して当該楽曲の楽譜を表示する。
演奏装置14は、利用者Uによる演奏を受付ける入力機器である。具体的には、演奏装置14は、相異なる音高に対応する複数の鍵が配列された鍵盤を具備する。利用者Uは、演奏装置14の所望の鍵を順次に操作することで楽曲を演奏する。演奏装置14は、「演奏受付部」の一例である。
制御装置11は、利用者Uによる楽曲の演奏を表す演奏データYを生成する。具体的には、演奏データYは、演奏装置14に対する操作で利用者Uが指示する複数の音符の各々について音高と発音期間とを指定する。演奏データYは、楽曲データXと同様に、例えばMIDI規格に準拠した形式の時系列データである。通信装置13は、利用者Uによる楽曲の演奏を表す演奏データYと当該楽曲の楽曲データXとを情報処理システム20に送信する。楽曲データXは、楽曲に関する模範的または標準的な演奏を表すデータであり、演奏データYは、利用者Uによる当該楽曲の実際の演奏を表すデータである。したがって、楽曲データXが指定する各音符と演奏データYが指定する各音符とは、相互に相関するけれども完全には一致しない。楽曲のうち利用者Uによる演奏ミスが発生し易い箇所、または利用者Uにとって演奏が苦手な箇所においては特に、楽曲データXと演奏データYとの相違が顕著となる。
音源装置16は、演奏装置14に対する演奏に応じた音響信号Aを生成する。音響信号Aは、演奏装置14に対する演奏で指示された楽音の波形を表す信号である。具体的には、音源装置16は、演奏データYが時系列に指定する各音符の楽音を表す音響信号Aを生成するMIDI音源である。すなわち、音源装置16は、演奏装置14の複数の鍵のうち利用者Uが押鍵した鍵に対応する音高の楽音を表す音響信号Aを生成する。なお、記憶装置12に記憶されたプログラムを実行することで、制御装置11が音源装置16の機能を実現してもよい。すなわち、音響信号Aの生成に専用される音源装置16は省略される。
放音装置17は、音響信号Aが表す演奏音を放音する。例えばスピーカまたはヘッドホンが放音装置17として利用される。以上の説明から理解される通り、第1実施形態における音源装置16および放音装置17は、利用者Uによる演奏に応じた楽音を再生する再生システム18として機能する。
図3は、情報処理システム20の構成を例示するブロック図である。情報処理システム20は、利用者Uによる演奏の練習に好適な音楽のフレーズ(以下「練習フレーズ」という)Zを当該利用者Uに提供する。情報処理システム20は、制御装置21と記憶装置22と通信装置23とを具備するコンピュータシステムで実現される。なお、情報処理システム20は、単体の装置として実現されるほか、相互に別体で構成された複数の装置でも実現される。
制御装置21は、情報処理システム20の各要素を制御する単数または複数のプロセッサで構成される。例えば、制御装置21は、CPU、SPU、DSP、FPGA、またはASIC等の1種類以上のプロセッサにより構成される。通信装置23は、通信網200を介して電子楽器10および機械学習システム30の各々と通信する。なお、通信装置23と通信網200との間の通信は、有線通信および無線通信の何れでもよい。
記憶装置22は、制御装置21が実行するプログラムと制御装置21が使用する各種のデータとを記憶する単数または複数のメモリである。記憶装置22は、例えば磁気記録媒体もしくは半導体記録媒体等の公知の記録媒体、または、複数種の記録媒体の組合せで構成される。なお、情報処理システム20に対して着脱される可搬型の記録媒体、または例えば通信網200を介して制御装置21が書込または読出を実行可能な記録媒体(例えばクラウドストレージ)を、記憶装置22として利用してもよい。
図4は、情報処理システム20の機能的な構成を例示するブロック図である。記憶装置22は、相異なる傾向データDに対応する複数の練習フレーズZを記憶する。複数の傾向データDの各々と複数の練習フレーズZの各々とが相互に対応付けられたテーブルが記憶装置22に記憶されると換言してもよい。
傾向データDは、演奏者による演奏の傾向(以下「演奏傾向」という)を表す任意の形式のデータである。演奏傾向は、例えば、演奏者による演奏ミスの傾向または演奏者が苦手な演奏法の傾向である。例えば、「押鍵の時点がずれる」「目的の鍵に隣接する他の鍵を押鍵する」「音高を間違える」「跳躍進行が苦手」「コード(和音)の演奏が苦手」「指くぐりが苦手」等の複数種の演奏傾向の何れかが傾向データDにより指定される。なお、跳躍進行は、音高差が所定値(例えば3度)を上回る2個の音符を相前後して演奏する箇所である。また、指くぐりは、1個の音符に対応する鍵を押鍵している手指の下方を通過するように他の手指を移動させて高音側の音符を演奏する演奏法である。
練習フレーズZは、複数の音符で構成される楽曲を表す時系列データであり、具体的には電子楽器10の練習に好適な旋律(例えば練習曲の一部または全部)である。練習フレーズZは、単音またはコードの時系列で構成される。各傾向データDに対応する練習フレーズZは、当該傾向データDが指定する演奏傾向を改善するために好適な楽曲を表す。例えば、「跳躍進行が苦手」という演奏傾向の傾向データDについては、跳躍進行を豊富に含む練習フレーズZが登録される。また、「コードの演奏が苦手」という演奏傾向の傾向データDについては、コードを豊富に含む練習フレーズZが登録される。練習フレーズZは、例えば複数の音符の各々について音高と発音期間とを指定するMIDI形式のデータである。
情報処理システム20の制御装置21は、記憶装置22に記憶されたプログラムを実行することで、楽曲データXおよび演奏データYから練習フレーズZを特定するための複数の要素(演奏データ取得部71,傾向特定部72および練習フレーズ特定部73)を実現する。
演奏データ取得部71は、利用者Uによる楽曲の演奏を表す演奏データYを取得する。具体的には、演奏データ取得部71は、電子楽器10から送信された楽曲データXおよび演奏データYを通信装置23により受信する。楽曲データXと演奏データYとを含む制御データCが演奏データ取得部71により生成される。
傾向特定部72は、利用者Uの演奏傾向を表す傾向データDを制御データCに応じて生成する。傾向特定部72による傾向データDの生成には、学習済モデルMaが利用される。学習済モデルMaは「第1学習済モデル」の一例である。
演奏者が演奏する楽曲の楽譜(楽曲データX)と当該演奏者による実際の演奏(演奏データY)との異同と、当該演奏者の演奏傾向(傾向データD)との間には相関がある。例えば、各音符の発音の時点が楽曲データXと演奏データYとの間で相違する場合には、「押鍵の時点がずれる」という演奏傾向が推定される。また、楽曲データXが表す音符に近い他の音符が演奏データYにより指定される場合には、「目的の鍵に隣接する他の鍵を押鍵する」という演奏傾向が推定される。また、楽曲のうち跳躍進行が存在する箇所で楽曲データXと演奏データYとの相違が顕著である場合には、「跳躍進行が苦手」という演奏傾向が推定される。学習済モデルMaは、以上のような傾向を学習した統計的推定モデルである。すなわち、学習済モデルMaは、楽曲データXおよび演奏データYの組合せ(すなわち制御データC)と、演奏者の演奏傾向を表す傾向データDとの関係を学習した統計的推定モデルである。傾向特定部72は、楽曲データXと演奏データYとを含む制御データCを学習済モデルMaに入力することで、利用者Uの演奏傾向を表す傾向データDを当該学習済モデルMaから出力する。
学習済モデルMaは、例えば深層ニューラルネットワーク(DNN:Deep Neural Network)で構成される。例えば、再帰型ニューラルネットワーク(RNN:Recurrent Neural Network)、または畳込ニューラルネットワーク(CNN:Convolutional Neural Network)等の任意の形式のニューラルネットワークが学習済モデルMaとして利用される。複数種の深層ニューラルネットワークの組合せで学習済モデルMaが構成されてもよい。また、長短期記憶(LSTM:Long Short-Term Memory)等の付加的な要素が学習済モデルMaに搭載されてもよい。
学習済モデルMaは、制御データCから傾向データDを生成する演算を制御装置21に実行させるプログラムと、当該演算に適用される複数の変数(具体的には加重値およびバイアス)との組合せで実現される。学習済モデルMaを実現するプログラムおよび複数の変数は、記憶装置22に記憶される。学習済モデルMaを規定する複数の変数の各々の数値は、機械学習により事前に設定される。
練習フレーズ特定部73は、傾向特定部72が特定した傾向データDを利用して、利用者Uの演奏傾向に応じた練習フレーズZを特定する。具体的には、練習フレーズ特定部73は、記憶装置22に記憶された複数の練習フレーズZのうち、傾向特定部72が特定した傾向データDに対応する練習フレーズZを、記憶装置22から検索する。すなわち、傾向データDが表す利用者Uの演奏傾向を改善するために好適な練習フレーズZが特定される。
練習フレーズ特定部73が特定した練習フレーズZは、通信装置23から電子楽器10に送信される。電子楽器10の通信装置13は、情報処理システム20から送信された練習フレーズZを受信する。制御装置11は、練習フレーズZの楽譜を表示装置15に表示させる。利用者Uは、表示装置15に表示された楽譜を確認しながら練習フレーズZを演奏する。
図5は、情報処理システム20の制御装置21が実行する処理(以下「特定処理」という)Saの具体的な手順を例示するフローチャートである。
特定処理Saが開始されると、演奏データ取得部71は、電子楽器10から送信された楽曲データXおよび演奏データYを通信装置23により受信するまで待機する(Sa1:NO)。演奏データ取得部71が楽曲データXおよび演奏データYを取得すると(Sa1:YES)、傾向特定部72は、楽曲データXと演奏データYとを含む制御データCを学習済モデルMaに入力することで当該学習済モデルMaから傾向データDを出力する(Sa2)。練習フレーズ特定部73は、記憶装置22に記憶された複数の練習フレーズZのうち傾向データDに対応する練習フレーズZを特定する(Sa3)。練習フレーズ特定部73は、練習フレーズZを通信装置23から電子楽器10に送信する(Sa4)。
以上に説明した通り、第1実施形態においては、利用者Uによる楽曲の演奏を表す演奏データYを学習済モデルMaに入力することで当該利用者Uの演奏傾向を表す傾向データDが生成され、当該傾向データDに応じた練習フレーズZが特定される。したがって、利用者Uが練習フレーズZを演奏することで、当該利用者Uの演奏傾向に応じた効果的な練習が実現される。
第1実施形態においては、相異なる演奏傾向(傾向データD)に対応する複数の練習フレーズZのうち利用者Uの演奏傾向に対応する練習フレーズZが特定される。したがって、利用者Uの演奏傾向に応じた練習フレーズZを特定する処理の負荷が軽減される。
図1の機械学習システム30は、以上に例示した学習済モデルMaを生成する。図6は、機械学習システム30の構成を例示するブロック図である。機械学習システム30は、制御装置31と記憶装置32と通信装置33とを具備する。なお、機械学習システム30は、単体の装置として実現されるほか、相互に別体で構成された複数の装置としても実現される。
制御装置31は、機械学習システム30の各要素を制御する単数または複数のプロセッサで構成される。例えば、制御装置31は、CPU、SPU、DSP、FPGA、またはASIC等の1種類以上のプロセッサにより構成される。通信装置33は、通信網200を介して情報処理システム20と通信する。なお、通信装置33と通信網200との間の通信は、有線通信および無線通信の何れでもよい。
記憶装置32は、制御装置31が実行するプログラムと制御装置31が使用する各種のデータとを記憶する単数または複数のメモリである。記憶装置32は、例えば磁気記録媒体もしくは半導体記録媒体等の公知の記録媒体、または、複数種の記録媒体の組合せで構成される。また、機械学習システム30に対して着脱される可搬型の記録媒体、または通信網200を介して制御装置31が書込または読出を実行可能な記録媒体(例えばクラウドストレージ)を、記憶装置32として利用してもよい。
図7は、機械学習システム30の機能的な構成を例示するブロック図である。制御装置31は、記憶装置32に記憶されたプログラムを実行することで、学習済モデルMaを機械学習により確立するための複数の要素(学習データ取得部81aおよび学習処理部82a)として機能する。
学習処理部82aは、複数の学習データTaを利用した教師あり機械学習(後述の学習処理Sc)により学習済モデルMaを確立する。学習データ取得部81aは、複数の学習データTaを取得する。学習データ取得部81aが取得した複数の学習データTaが記憶装置32に記憶される。複数の学習データTaの各々は、学習用の制御データCtと学習用の傾向データDtとの組合せで構成される。制御データCtは、学習用の楽曲データXtと学習用の演奏データYtとを含む。楽曲データXtは「学習用楽曲データ」の一例であり、演奏データYtは「学習用演奏データ」の一例であり、傾向データDtは「学習用傾向データ」の一例である。また、楽曲データXtが表す楽曲は、「参照楽曲」の一例である。学習データ取得部81aは「第1学習データ取得部」の一例であり、学習処理部82aは「第1学習処理部」の一例である。また、学習データTaは「第1学習データ」の一例である。
図7に例示される通り、学習データTaは、練習者U1による楽曲の演奏と、指導者U2による当該演奏の指導との結果を利用して生成される。練習者U1は、電子楽器10を利用して楽曲を演奏する。指導者U2は、情報装置40を利用して練習者U1による演奏を評価および指導する。情報装置40は、例えばスマートフォンまたはタブレット端末等の情報端末である。練習者U1と指導者U2とは、例えば遠隔地に所在する。ただし、練習者U1と指導者U2とは同じ場所に所在してもよい。
電子楽器10は、楽曲を表す楽曲データX0と、練習者U1による当該楽曲の演奏を表す演奏データY0とを、情報装置40および機械学習システム30に送信する。楽曲データX0は、前述の楽曲データXと同様に、楽曲を構成する複数の音符の時系列を指定する。演奏データY0は、前述の演奏データYと同様に、演奏装置14に対する操作で練習者U1が指示する複数の音符の時系列を指定する。
図8は、情報装置40の構成を例示するブロック図である。情報装置40は、練習者U1による電子楽器10の演奏を指導者U2が評価および指導するためのコンピュータシステムであり、制御装置41と記憶装置42と通信装置43と操作装置44と表示装置45と再生システム46とを具備する。なお、情報装置40は、単体の装置として実現されるほか、相互に別体で構成された複数の装置でも実現される。
制御装置41は、情報装置40の各要素を制御する単数または複数のプロセッサで構成される。例えば、制御装置41は、CPU、SPU、DSP、FPGA、またはASIC等の1種類以上のプロセッサにより構成される。
記憶装置42は、制御装置41が実行するプログラムと制御装置41が使用する各種のデータとを記憶する単数または複数のメモリである。記憶装置42は、例えば磁気記録媒体もしくは半導体記録媒体等の公知の記録媒体、または、複数種の記録媒体の組合せで構成される。なお、情報装置40に対して着脱される可搬型の記録媒体、または例えば通信網200を介して制御装置41が書込または読出を実行可能な記録媒体(例えばクラウドストレージ)を、記憶装置42として利用してもよい。
通信装置43は、通信網200を介して電子楽器10および機械学習システム30の各々と通信する。なお、通信装置43と通信網200との間の通信は、有線通信および無線通信の何れでもよい。通信装置43は、例えば、電子楽器10から送信された楽曲データX0および演奏データY0を受信する。
操作装置44は、指導者U2からの指示を受付ける入力機器である。操作装置44は、例えば、指導者U2が操作する複数の操作子、または、指導者U2による接触を検知するタッチパネルである。表示装置45は、制御装置41による制御のもとで画像を表示する。具体的には、表示装置45は、通信装置43が受信した演奏データYが指定する音符の時系列を表示する。すなわち、練習者U1による演奏を表す画像が表示装置45に表示される。なお、楽曲データXが指定する音符の時系列を演奏データYの音符と並列に表示してもよい。再生システム46は、電子楽器10の再生システム18と同様に、演奏データYが指定する各音符の楽音を再生する。すなわち、練習者U1が演奏した楽音が再生システム46により再生される。
指導者U2は、表示装置45が表示する画像を視認しながら再生システム46による再生音を聴取することで、練習者U1による楽曲の演奏を確認することが可能である。指導者U2は、操作装置44を操作することで、練習者U1による楽曲の演奏について指摘すべき演奏傾向を入力する。指導者U2は、練習者U1による楽曲の演奏に関する演奏傾向と、当該楽曲内において演奏傾向が観測される時点とを指定する。演奏傾向は、例えば、操作装置44に対する操作により指導者U2が複数の選択肢から選択する。例えば、「押鍵の時点がずれる」「目的の鍵に隣接する他の鍵を押鍵する」「音高を間違える」「跳躍進行が苦手」「コードの演奏が苦手」「16分音符等の短音での素早い演奏が苦手」等の複数種の演奏傾向の何れかが練習者U1の演奏に関する指摘事項として選択される。
制御装置41は、指導者U2からの指示に応じた指摘データPを生成する。図9は、指摘データPの模式図である。指摘データPは、指導者U2による指摘毎に、傾向データDtと時刻データτとを含む。傾向データDtは、指導者U2が指摘した演奏傾向を表すデータである。時刻データτは、楽曲内において当該演奏傾向が観測される時点の時刻を表すデータである。以上の説明から理解される通り、指摘データPは、楽曲内の時点と当該時点における演奏傾向とを表すデータである。
通信装置43は、制御装置41が生成した指摘データPを電子楽器10および機械学習システム30に送信する。電子楽器10の通信装置13は、情報装置40から送信された指摘データPを受信する。制御装置11は、当該指摘データPが表す演奏傾向を表示装置15に表示する。練習者U1は、表示装置15の画像を視認することで、指導者U2による指摘(演奏傾向)を確認できる。
図7に例示される通り、機械学習システム30における学習データ取得部81aは、電子楽器10から送信された楽曲データX0および演奏データY0と、情報装置40から送信された指摘データPとを、通信装置33により受信する。学習データ取得部81aは、楽曲データX0と演奏データY0と指摘データPとを利用して学習データTaを生成する。なお、電子楽器10は「第1装置」の一例であり、情報装置40は「第2装置」の一例である。
図10は、学習データ取得部81aが学習データTaを生成する処理(以下「準備処理」という)Sbの具体的な手順を例示するフローチャートである。例えば楽曲データX0と演奏データY0と指摘データPとを通信装置33が受信することを契機として準備処理Sbが開始される。準備処理Sbが開始されると、学習データ取得部81aは、楽曲データX0と演奏データY0と指摘データPとを、通信装置33から取得する(Sb1)。
学習データ取得部81aは、楽曲データX0のうち指摘データPの時刻データτが指定する時点を含む区間(以下「特定区間」という)内の部分を、楽曲データXtとして抽出する(Sb2)。特定区間は、例えば時刻データτが指定する時点を中点とする所定長の区間である。また、学習データ取得部81aは、演奏データY0のうち指摘データPの時刻データτが指定する時点を含む特定区間内の部分を、演奏データYtとして抽出する(Sb3)。すなわち、楽曲データX0および演奏データY0の各々について、指導者U2が演奏傾向を指摘した時点を含む特定区間が抽出される。
学習データ取得部81aは、以上の手順により生成した楽曲データXtおよび演奏データYtを含む学習用の制御データCtを生成する(Sb4)。そして、学習データ取得部81aは、学習用の制御データCtと指摘データPに含まれる傾向データDtとを相互に対応させることで、学習データTaを生成する(Sb5)。
以上に例示した準備処理Sbが反復されることで、多数の練習者U1による多様な楽曲の演奏について、特定区間に対応する楽曲データXtおよび演奏データYtと、指導者U2が当該特定区間について指摘した演奏傾向の傾向データDtとを含む多数の学習データTaが生成される。
図11は、機械学習システム30の制御装置31が学習済モデルMaを確立する学習処理Scの具体的な手順を例示するフローチャートである。学習処理Scは、機械学習により学習済モデルMaを生成する方法(学習済モデルの生成方法)とも表現される。
学習処理Scが開始されると、学習処理部82aは、記憶装置32に記憶された複数の学習データTaの何れか(以下「選択学習データTa」という)を選択する(Sc1)。学習処理部82aは、図7に例示される通り、選択学習データTaの制御データCtを初期的または暫定的なモデル(以下「暫定モデルMa0」という)に入力し(Sc2)、当該入力に対して暫定モデルMa0が出力する傾向データDを取得する(Sc3)。
学習処理部82aは、暫定モデルMa0が生成する傾向データDと選択学習データTaの傾向データDtとの誤差を表す損失関数を算定する(Sc4)。学習処理部82aは、損失関数が低減(理想的には最小化)されるように、暫定モデルMa0の複数の変数を更新する(Sc5)。損失関数に応じた複数の変数の更新には、例えば誤差逆伝播法が利用される。
学習処理部82aは、所定の終了条件が成立したか否かを判定する(Sc6)。終了条件は、例えば、損失関数が所定の閾値を下回ること、または、損失関数の変化量が所定の閾値を下回ることである。終了条件が成立しない場合(Sc6:NO)、学習処理部82aは、未選択の学習データTaを新たな選択学習データTaとして選択する(Sc1)。すなわち、終了条件の成立(Sc6:YES)まで、暫定モデルMa0の複数の変数を更新する処理(Sc2-Sc5)が反復される。終了条件が成立した場合(Sc6:YES)、学習処理部82aは、暫定モデルMa0を規定する複数の変数の更新(Sc2-Sc5)を終了する。終了条件が成立した時点における暫定モデルMa0が、学習済モデルMaとして確定される。すなわち、学習済モデルMaの複数の変数は、学習処理Scの終了の時点における数値に確定される。
以上の説明から理解される通り、学習済モデルMaは、複数の学習データTaにおける制御データCtと傾向データDtとの間に潜在する関係のもとで、未知の制御データCに対して統計的に妥当な傾向データDを出力する。すなわち、学習済モデルMaは、前述の通り、演奏者による楽曲の演奏(制御データC)と当該演奏者の演奏傾向(傾向データD)との関係を学習した統計的学習モデルである。
学習処理部82aは、以上の手順で確立された学習済モデルMaを通信装置33から情報処理システム20に送信する(Sc7)。具体的には、学習処理部82aは、学習済モデルMaの複数の変数を通信装置33から情報処理システム20に送信する。情報処理システム20の制御装置21は、機械学習システム30から受信した学習済モデルMaを記憶装置22に保存する。具体的には、学習済モデルMaを規定する複数の変数が記憶装置22に記憶される。
B:第2実施形態
第2実施形態を説明する。なお、以下に例示する各態様において機能が第1実施形態と同様である要素については、第1実施形態の説明と同様の符号を流用して各々の詳細な説明を適宜に省略する。
図12は、第2実施形態における情報処理システム20の機能的な構成を例示するブロック図である。第1実施形態においては、複数の練習フレーズZが記憶装置22に記憶される。第2実施形態においては、第1実施形態の複数の練習フレーズZに代えて1個の基準フレーズZrefが記憶装置22に記憶される。
基準フレーズZrefは、第1実施形態の練習フレーズZと同様に、複数の音符で構成される楽曲を表す時系列データである。具体的には、基準フレーズZrefは、電子楽器10の練習に好適な旋律(例えば練習曲の一部または全部)である。第2実施形態の練習フレーズ特定部73は、傾向特定部72が生成する傾向データDに応じて基準フレーズZrefを編集することで練習フレーズZを生成する。具体的には、練習フレーズ特定部73は、基準フレーズZrefのうち傾向データDが指定する演奏傾向に関連する部分について演奏の難易度が低下するように基準フレーズZrefを編集する。
図13は、第2実施形態における特定処理Saの具体的な手順を例示するフローチャートである。第2実施形態の特定処理Saは、第1実施形態の特定処理SaにおけるステップSa3をステップSa13に置換した処理である。
演奏データ取得部71による楽曲データXおよび演奏データYの取得(Sa1)、および、傾向特定部72による傾向データDの生成(Sa2)は、第1実施形態と同様である。第2実施形態の練習フレーズ特定部73は、記憶装置22に記憶された基準フレーズZrefを傾向データDに応じて編集することで練習フレーズZを生成する(Sa13)。練習フレーズ特定部73が練習フレーズZを電子楽器10に送信する処理(Sa4)は第1実施形態と同様である。基準フレーズZrefの編集(Sa13)の具体例を以下に説明する。
例えば、傾向データDが「コードの演奏が苦手」という演奏傾向を表す場合、練習フレーズ特定部73は、基準フレーズZrefに含まれる1個以上のコードを変更することで練習フレーズZを生成する。例えば、練習フレーズ特定部73は、所定個を上回る個数の構成音を含むコードについて、複数の構成音のうち例えば根音以外の1個以上の構成音を省略する。また、最低音と最高音との音高差が所定値を上回るコードについて、最高音を含む所定個の構成音を省略する。構成音の省略によりコードの演奏の難易度が低下する。以上の例示の通り、練習フレーズ特定部73による基準フレーズZrefの編集は、コードの変更を含む。
また、傾向データDが「跳躍進行が苦手」という演奏傾向を表す場合、練習フレーズ特定部73は、基準フレーズZrefに含まれる跳躍進行を省略または変更することで練習フレーズZを生成する。例えば、練習フレーズ特定部73は、跳躍進行に係る2個の音符のうち後方の音符を省略する。また、練習フレーズ特定部73は、跳躍進行に係る2個の音符のうち後方の音符を、低音側の他の音符に変更する。以上の例示の通り、練習フレーズ特定部73による基準フレーズZrefの編集は、跳躍進行の省略または変更を含む。
基準フレーズZrefは、例えば運指等の演奏法の指定を含む。具体的には、練習フレーズZは、複数の音符の各々について当該音符を演奏すべき手指の番号の指定を含む。傾向データDが「指くぐりが苦手」という演奏傾向を表す場合、練習フレーズ特定部73は、基準フレーズZrefに関する運指を変更することで練習フレーズZを生成する。例えば、小指による押鍵が演奏の初心者には困難であることを想定すると、練習フレーズ特定部73は、基準フレーズZrefのうち小指の番号が指定された音符について、当該番号を小指以外の他の手指の番号に変更する。編集後の練習フレーズZを受信した電子楽器10においては、練習フレーズ特定部73による変更後の運指(音符毎の手指の番号)が、練習フレーズZの楽譜とともに表示装置15に表示される。以上の例示の通り、練習フレーズ特定部73による基準フレーズZrefの編集は、楽器の演奏法の変更を含む。
第2実施形態においても第1実施形態と同様の効果が実現される。また、第2実施形態においては、基準フレーズZrefの編集により練習フレーズZが生成されるから、利用者Uによる演奏技術のレベルに応じた適切な練習フレーズZを当該利用者Uに提供できる。
C:第3実施形態
図14は、第3実施形態における情報処理システム20の機能的な構成を例示するブロック図である。第1実施形態においては、記憶装置22に記憶された複数の練習フレーズZのうち利用者Uの傾向データDに対応する練習フレーズZを練習フレーズ特定部73が特定する構成を例示した。第3実施形態の練習フレーズ特定部73は、学習済モデルMbを利用して、傾向データDに応じた練習フレーズZを特定する。学習済モデルMbは「第2学習済モデル」の一例である。
第1実施形態の説明から理解される通り、演奏者の演奏傾向(傾向データD)と当該演奏傾向に好適な練習フレーズZとの間には相関がある。例えば、各傾向データDに対応する練習フレーズZは、当該傾向データDが指定する演奏傾向を改善するために好適な楽曲である。学習済モデルMbは、傾向データDと練習フレーズZとの関係を学習した統計的推定モデルである。第3実施形態の練習フレーズ特定部73は、傾向特定部72が生成した傾向データDを学習済モデルMbに入力することで、当該傾向データDが表す演奏傾向に応じた練習フレーズZを特定する。例えば、学習済モデルMbは、相異なる複数の練習フレーズZの各々について傾向データDに対する妥当性の指標(すなわち、利用者Uの演奏傾向に対して各練習フレーズZが妥当である度合)を出力する。練習フレーズ特定部73は、記憶装置22に記憶された複数の練習フレーズZのうち当該指標が最大である練習フレーズZを特定する。
学習済モデルMbは、例えば深層ニューラルネットワークで構成される。例えば、再帰型ニューラルネットワークまたは畳込ニューラルネットワーク等の任意の形式のニューラルネットワークが学習済モデルMbとして利用される。複数種の深層ニューラルネットワークの組合せで学習済モデルMbが構成されてもよい。また、長短期記憶(LSTM:Long Short-Term Memory)等の付加的な要素が学習済モデルMbに搭載されてもよい。
学習済モデルMbは、傾向データDから練習フレーズZを推定する演算を制御装置21に実行させるプログラムと、当該演算に適用される複数の変数(具体的には加重値およびバイアス)との組合せで実現される。学習済モデルMbを実現するプログラムおよび複数の変数は、記憶装置22に記憶される。学習済モデルMbを規定する複数の変数の各々の数値は、機械学習により事前に設定される。
図15は、第3実施形態における特定処理Saの具体的な手順を例示するフローチャートである。第3実施形態の特定処理Saは、第1実施形態の特定処理SaにおけるSa3をステップSa23に置換した処理である。
演奏データ取得部71による楽曲データXおよび演奏データYの取得(Sa1)、および、傾向特定部72による傾向データDの生成(Sa2)は、第1実施形態と同様である。第3実施形態の練習フレーズ特定部73は、傾向データDを学習済モデルMbに入力することで練習フレーズZを特定する(Sa23)。練習フレーズ特定部73が練習フレーズZを電子楽器10に送信する処理(Sa4)は第1実施形態と同様である。
以上に例示した学習済モデルMbは、機械学習システム30により生成される。図16は、機械学習システム30のうち学習済モデルMbの生成に関する機能的な構成を例示するブロック図である。制御装置31は、記憶装置32に記憶されたプログラムを実行することで、学習済モデルMbを機械学習により確立するための複数の要素(学習データ取得部81bおよび学習処理部82b)として機能する。
学習処理部82bは、複数の学習データTbを利用した教師あり機械学習(後述の学習処理Sd)により学習済モデルMbを確立する。学習データ取得部81bは、複数の学習データTbを取得する。具体的には、学習データ取得部81bは、記憶装置32に保存された複数の学習データTbを記憶装置32から取得する。学習データ取得部81bは「第2学習データ取得部」の一例であり、学習処理部82bは「第2学習処理部」の一例である。また、学習データTbは「第2学習データ」の一例である。
複数の学習データTbの各々は、学習用の傾向データDtと学習用の練習フレーズZtとの組合せで構成される。各学習データTbの練習フレーズZtは、当該学習データTbの傾向データDtが示す演奏傾向に対して好適な楽曲である。傾向データDtと練習フレーズZtとの組合せは、例えば、学習データTの作成者が選定する。傾向データDtは「学習用傾向データ」の一例であり、練習フレーズZtは「学習用練習フレーズ」の一例である。
図17は、制御装置31が学習済モデルMbを確立する学習処理Sdの具体的な手順を例示するフローチャートである。学習処理Sdは、機械学習により学習済モデルMbを生成する方法(学習済モデルの生成方法)とも表現される。
学習処理Sdが開始されると、学習データ取得部81bは、記憶装置32に記憶された複数の学習データTbの何れか(以下「選択学習データTb」という)を選択する(Sd1)。学習処理部82bは、図16に例示される通り、選択学習データTbの傾向データDtを初期的または暫定的なモデル(以下「暫定モデルMb0」という)に入力し(Sd2)、当該入力に対して暫定モデルMb0が推定する練習フレーズZを取得する(Sd3)。
学習処理部82bは、暫定モデルMb0が推定する練習フレーズZと選択学習データTbの練習フレーズZtとの誤差を表す損失関数を算定する(Sd4)。学習処理部82bは、損失関数が低減(理想的には最小化)されるように、暫定モデルMb0の複数の変数を更新する(Sd5)。損失関数に応じた複数の変数の更新には、例えば誤差逆伝播法が利用される。
学習処理部82bは、所定の終了条件が成立したか否かを判定する(Sd6)。終了条件が成立しない場合(Sd6:NO)、学習処理部82bは、未選択の学習データTbを新たな選択学習データTbとして選択する(Sd1)。すなわち、終了条件の成立(Sd6:YES)まで、暫定モデルMb0の複数の変数を更新する処理(Sd2-Sd5)が反復される。終了条件が成立した時点(Sd6:YES)における暫定モデルMb0が、学習済モデルMbとして確定される。
以上の説明から理解される通り、学習済モデルMbは、複数の学習データTbにおける傾向データDtと練習フレーズZtとの間に潜在する関係のもとで、未知の傾向データDに対して統計的に妥当な練習フレーズZを推定する。すなわち、学習済モデルMbは、傾向データDと練習フレーズZとの関係を学習した統計的推定モデルである。第3実施形態の練習フレーズ特定部73は、傾向データDtと練習フレーズZtとの関係を学習した学習済モデルMbに傾向データDを入力することで練習フレーズZを特定する。
学習処理部82bは、以上の手順で確立された学習済モデルMbを通信装置33から情報処理システム20に送信する(Sd7)。情報処理システム20の制御装置21は、機械学習システム30から受信した学習済モデルMbを記憶装置22に保存する。
第3実施形態においても第1実施形態と同様の効果が実現される。また、第3実施形態においては、傾向特定部72が出力する傾向データDを学習済モデルMbに入力することで練習フレーズZが特定される。したがって、学習用の傾向データDtと学習用の練習フレーズZtとの間に潜在する関係のもとで統計的に妥当な練習フレーズZを特定できる。
D:第4実施形態
図18は、第4実施形態に係る電子楽器10の機能的な構成を例示するブロック図である。前述の各形態においては、情報処理システム20が演奏データ取得部71と傾向特定部72と練習フレーズ特定部73とを具備する構成を例示した。第4実施形態においては、演奏データ取得部71と傾向特定部72と練習フレーズ特定部73とを電子楽器10が具備する。以上の要素は、記憶装置12に記憶されたプログラムを制御装置11が実行することで実現される。また、制御装置11は提示処理部74としても機能する。
電子楽器10の記憶装置12には、第1実施形態と同様の複数の楽曲データXのほか、学習済モデルMaと複数の練習フレーズZとが記憶される。機械学習システム30が確立した学習済モデルMaが電子楽器10に転送され、当該学習済モデルMaが記憶装置12に保存される。また、複数の練習フレーズZの各々は、相異なる傾向データDに対応する。
演奏データ取得部71は、第1実施形態と同様に、利用者Uによる楽曲の演奏を表す演奏データYと、当該楽曲の楽曲データXとを取得する。具体的には、演奏データ取得部71は、演奏装置14に対する利用者Uからの操作に応じて演奏データYを生成する。また、演奏データ取得部71は、利用者Uが演奏する楽曲の楽曲データXを記憶装置12から取得する。演奏データ取得部71は、楽曲データXと演奏データYとを含む制御データCを生成する。
傾向特定部72は、第1実施形態と同様に、利用者Uの演奏傾向を表す傾向データDを制御データCに応じて生成する。具体的には、傾向特定部72は、楽曲データXと演奏データYとを含む制御データCを学習済モデルMaに入力することで傾向データDを特定する。
練習フレーズ特定部73は、第1実施形態と同様に、傾向特定部72が特定した傾向データDを利用して、利用者Uの演奏傾向に応じた練習フレーズZを特定する。具体的には、練習フレーズ特定部73は、記憶装置12に記憶された複数の練習フレーズZのうち、傾向特定部72が特定した傾向データDに対応する練習フレーズZを、記憶装置12から検索する。
提示処理部74は、練習フレーズ特定部73が特定した練習フレーズZを利用者Uに提示する。具体的には、提示処理部74は、練習フレーズZの楽譜を表示装置15に表示させる。また、提示処理部74は、練習フレーズZの演奏音を再生システム18に再生させてもよい。
以上の説明から理解される通り、第4実施形態においても第1実施形態と同様の効果が実現される。なお、練習フレーズ特定部73が基準フレーズZrefの編集により練習フレーズZを生成する第2実施形態の構成、および、練習フレーズ特定部73が学習済モデルMbを利用して練習フレーズZを特定する構成は、練習フレーズ特定部73が電子楽器10に搭載された第4実施形態にも同様に適用される。
E:第5実施形態
図19は、第5実施形態に係る演奏システム100の構成を例示するブロック図である。演奏システム100は、電子楽器10と情報装置50とを具備する。情報装置50は、例えばスマートフォンまたはタブレット端末等の装置である。情報装置50は、例えば有線または無線により電子楽器10に接続される。
情報装置50は、制御装置51と記憶装置52とを具備するコンピュータシステムで実現される。制御装置51は、情報装置50の各要素を制御する単数または複数のプロセッサで構成される。例えば、制御装置51は、CPU、SPU、DSP、FPGA、またはASIC等の1種類以上のプロセッサにより構成される。記憶装置52は、制御装置51が実行するプログラムと制御装置51が使用する各種のデータとを記憶する単数または複数のメモリである。記憶装置52は、例えば磁気記録媒体もしくは半導体記録媒体等の公知の記録媒体、または、複数種の記録媒体の組合せで構成される。なお、情報装置50に対して着脱される可搬型の記録媒体、または例えば通信網200を介して制御装置51が書込または読出を実行可能な記録媒体(例えばクラウドストレージ)を、記憶装置52として利用してもよい。
制御装置51は、記憶装置52に記憶されたプログラムを実行することで、演奏データ取得部71と傾向特定部72と練習フレーズ特定部73とを実現する。演奏データ取得部71と傾向特定部72と練習フレーズ特定部73との各々の構成および動作は、第1実施形態から第4実施形態の例示と同様である。練習フレーズ特定部73が特定した練習フレーズZが電子楽器10に送信される。電子楽器10の制御装置11は、練習フレーズZの楽譜を表示装置15に表示させる。
以上の説明から理解される通り、第5実施形態においても第1実施形態から第4実施形態と同様の効果が実現される。第1実施形態から第3実施形態の情報処理システム20と、第4実施形態の電子楽器10と、第5実施形態の情報装置50とは、「情報処理システム20」の一例である。
F:変形例
以上に例示した各態様に付加される具体的な変形の態様を以下に例示する。以下の例示から任意に選択された複数の態様を、相互に矛盾しない範囲で適宜に併合してもよい。
(1)前述の各形態においては、1個の学習済モデルMaを利用して傾向データDを生成したが、複数の学習済モデルMaを選択的に利用して傾向データDを生成してもよい。例えば、相異なる楽器に対応する複数の学習済モデルMaが用意される。傾向特定部72は、複数の学習済モデルMaのうち利用者Uが演奏する楽器に対応する学習済モデルMaを選択し、当該学習済モデルMaに制御データCを入力することで傾向データDを生成する。利用者Uによる演奏の内容(演奏データY)と利用者Uの演奏傾向(傾向データD)との関係は、楽器毎に相違する。相異なる楽器に対応する複数の学習済モデルMaを選択的に利用する構成によれば、利用者Uが実際に演奏する楽器の演奏傾向を適切に表す傾向データDを生成できる。
(2)第3実施形態においては、1個の学習済モデルMbを利用して練習フレーズZを生成したが、複数の学習済モデルMbを選択的に利用して練習フレーズZを生成してもよい。例えば、相異なる楽器に対応する複数の学習済モデルMbが用意される。練習フレーズ特定部73は、複数の学習済モデルMbのうち利用者Uが演奏する楽器に対応する学習済モデルMbを選択し、当該学習済モデルMbに傾向データDを入力することで練習フレーズZを生成する。
(3)第4実施形態の電子楽器10に対し、機械学習システム30が確立する複数の学習済モデルMaの何れかが選択的に転送されてもよい。例えば、相異なる楽器に対応する複数の学習済モデルMaのうち、電子楽器10の利用者Uが指定した楽器に対応する学習済モデルMaが、機械学習システム30から電子楽器10に転送される。同様に、第5実施形態の情報装置50に対し、機械学習システム30が確立する複数の学習済モデルMaの何れかが選択的に転送されてもよい。第3実施形態においては、機械学習システム30が確立する複数の学習済モデルMbの何れかが選択的に情報処理システム20に転送されてもよい。
(4)前述の各形態においては、指導者U2からの指示に応じて指摘データPを生成したが、練習者U1からの指示に応じて電子楽器10の制御装置11が指摘データPを生成してもよい。例えば、練習者U1は、自身の演奏について演奏傾向(例えば苦手な演奏法)と当該演奏傾向が観測される時点とを指示する。制御装置11は、利用者Uからの指示に応じて指摘データPを生成し、当該指摘データPを通信装置13から機械学習システム30に送信する。
(5)前述の各形態においては、制御データCが楽曲データXと演奏データYとを含む構成を例示したが、制御データCの内容は以上の例示に限定されない。例えば、利用者Uが電子楽器10を演奏する様子を撮像した画像の画像データを制御データCに含ませてもよい。例えば、演奏時における利用者Uの両手の画像データが制御データCに含まれる。学習用の制御データCtについても同様に、演奏者を撮像した画像の画像データが含まれる。以上の構成によれば、利用者Uの演奏の様子も反映した好適な練習フレーズZを特定できる。また、制御データCが楽曲データXを含まない形態も想定される。以上の説明から理解される通り、学習済モデルMaには、演奏データYを少なくとも含む制御データCが入力される。すなわち、傾向特定部72は、学習済モデルMaに演奏データYを入力することで傾向データDを生成する。
(6)第1実施形態においては、利用者Uの演奏傾向を改善するために好適な楽曲を練習フレーズZとして例示したが、第2実施形態と同様に、利用者Uの演奏傾向に関連する部分について演奏の難易度が低い練習フレーズZを、練習フレーズ特定部73が特定してもよい。
(7)複数の練習フレーズZの何れかを傾向データDに応じて選択する第1実施形態の構成と、基準フレーズZrefを傾向データDに応じて編集する第2実施形態の構成とを併合してもよい。例えば、練習フレーズ特定部73は、記憶装置22に記憶された複数の練習フレーズZのうち傾向データDに応じた1個の練習フレーズZを基準フレーズZrefとして選択し(Sa3)、基準フレーズZrefを傾向データDに応じて編集することで練習フレーズZを生成する(Sa13)。すなわち、練習フレーズZの選択(Sa3)と基準フレーズZrefの編集(Sa13)とに傾向データDが共用される。
(8)第2実施形態においては、記憶装置22に記憶された1個の基準フレーズZrefを編集することで練習フレーズ特定部73が練習フレーズZを生成したが、記憶装置22に記憶された複数の基準フレーズZrefを選択的に利用して練習フレーズZを生成してもよい。例えば、記憶装置22に記憶された複数の基準フレーズZrefのうち電子楽器10の利用者Uが選択した楽曲の基準フレーズZrefを利用して、練習フレーズ生成部が練習フレーズZを生成してもよい。
(9)前述の各形態においては電子鍵盤楽器を電子楽器10として例示したが、利用者Uが演奏する楽器の種類は任意である。例えば電気ギター等の電気弦楽器を利用者Uが演奏してもよい。電気弦楽器の弦の振動を表す音響信号(オーディオデータ)、または、電気弦楽器が発音する楽音の解析により生成されるMIDI形式のデータが、演奏データYとして利用される。電気弦楽器に関する演奏傾向としては、例えば「消音すべき箇所で充分に消音されていない」「目的の音符に対応する弦以外の弦が発音している」等の傾向が例示される。例えばトランペットまたはサックス等の管楽器を利用者Uが演奏する場合を想定すると、傾向データDが表す演奏傾向として「楽音の音量が不安定である」「音高が不正確である」等の傾向が想定される。例えばドラム等の打楽器を利用者Uが演奏する場合を想定すると、傾向データDが表す演奏傾向として「打撃の時点がずれる」「短い間隔での連打が苦手」等の傾向が想定される。
(10)前述の各形態においては、深層ニューラルネットワークを学習済モデルMaとして例示したが、学習済モデルMaは深層ニューラルネットワークに限定されない。例えば、HMM(Hidden Markov Model)またはSVM(Support Vector Machine)等の統計的推定モデルを、学習済モデルMaとして利用してもよい。SVMを利用した学習済モデルMaについて以下に詳述する。
例えば、複数種の演奏傾向から2種類の演奏傾向を選択する全通りの組合せの各々についてSVMが用意される。2種類の演奏傾向の組合せに対応するSVMについては、多次元空間内の超平面が機械学習(学習処理Sc)により確立される。超平面は、2種類の演奏傾向のうち一方の演奏傾向に対応する制御データCが分布する空間と、他方の演奏傾向に対応する制御データCが分布する空間とを分離する境界面である。学習済モデルMaは、相異なる演奏傾向の組合せに対応する複数のSVMで構成される(multi-class SVM)。
傾向特定部72は、学習済モデルMaの複数のSVMの各々に制御データCを入力する。各組合せに対応するSVMは、超平面で分離される2個の空間の何れに制御データCが存在するかに応じて、当該組合せに係る2種類の演奏傾向の何れかを選択する。相異なる組合せに対応する複数のSVMの各々において同様に演奏傾向の選択が実行される。傾向特定部72は、複数種の演奏傾向のうち複数のSVMによる選択の回数が最大となる演奏傾向を表す傾向データDを生成する。
以上の例示から理解される通り、学習済モデルMaの種類に関わらず、傾向特定部72は、制御データCを学習済モデルMaに入力することで、利用者Uの演奏傾向を表す傾向データDを生成する要素として機能する。なお、以上の説明においては学習済モデルMaに着目したが、第3実施形態の学習済モデルMbについても同様に、例えばHMMまたはSVM等の統計的推定モデルが利用される。
(11)前述の各形態においては、複数の学習データTを利用した教師あり機械学習を学習処理Scとして例示したが、学習データTを必要としない教師なし機械学習、または報酬を最大化させる強化学習により、学習済モデルMaを確立してもよい。教師なし機械学習としては、公知のクラスタリングを利用した機械学習が例示される。第3実施形態の学習済モデルMbについても同様に、教師なし機械学習または強化学習により確立されてもよい。
(12)前述の各形態においては、機械学習システム30が学習済モデルMaを確立した。しかし、機械学習システム30が学習済モデルMaを確立する機能(学習データ取得部81aおよび学習処理部82a)は、第1実施形態から第3実施形態の情報処理システム20、第4実施形態の電子楽器10、または第5実施形態の情報装置50に搭載されてもよい。第3実施形態の学習済モデルMbについても同様である。すなわち、機械学習システム30が学習済モデルMbを確立する機能(学習データ取得部81bおよび学習処理部82b)は、第3実施形態の情報処理システム20、第4実施形態の電子楽器10、または第5実施形態の情報装置50に搭載されてもよい。
(13)前述の各形態においては、制御データCに応じた傾向データDの生成に学習済モデルMaを利用したが、学習済モデルMaの利用は省略されてもよい。例えば、複数の制御データCの各々と複数の傾向データDの各々とが相互に対応付けられたテーブルが傾向データDの生成に利用されてもよい。制御データCと傾向データDとの対応が登録されたテーブルは、例えば第1実施形態の記憶装置22、第4実施形態の記憶装置12、または第5実施形態の記憶装置52に記憶される。傾向特定部72は、演奏データ取得部71が生成する制御データCに対応する傾向データDをテーブルから検索する。
(14)前述の各形態においては、楽曲データXおよび演奏データYを含む制御データCと、傾向データDとの関係を学習した学習済モデルMaを利用したが、制御データCから傾向データDを生成するための構成および方法は、以上の例示に限定されない。例えば、相異なる複数の制御データCの各々に傾向データDが対応付けられた参照テーブルが、傾向特定部72による傾向データDの生成に利用されてもよい。参照テーブルは、制御データCと傾向データDとの対応が登録されたデータテーブルであり、例えば記憶装置22(第4実施形態においては記憶装置12)に記憶される。傾向特定部72は、楽曲データXと演奏データYとの組合せに対応する制御データCを参照テーブルから検索し、複数の傾向データDのうち当該制御データCに対応付けられた傾向データDを、参照テーブルから取得する。
(15)第3実施形態においては、傾向データDと練習フレーズZとの関係を学習した学習済モデルMbを利用したが、傾向データDから練習フレーズZを生成するための構成および方法は、以上の例示に限定されない。例えば、相異なる複数の傾向データDの各々に練習フレーズZが対応付けられた参照テーブルが、練習フレーズ特定部73による練習フレーズZの生成に利用されてもよい。参照テーブルは、傾向データDと練習フレーズZとの対応が登録されたデータテーブルであり、例えば記憶装置22(第4実施形態においては記憶装置12)に記憶される。練習フレーズ特定部73は、傾向データDに対応する練習フレーズZを参照テーブルから検索し、複数の練習フレーズZのうち当該傾向データDに対応付けられた練習フレーズZを、参照テーブルから取得する。
(16)前述の各形態においては、利用者Uの演奏を表す演奏データYを、演奏データ取得部71が電子楽器10から取得したが、演奏データ取得部71が演奏データYを取得する方法は、以上の例示に限定されない。例えば、演奏装置14に対する演奏に並行して演奏データ取得部71が実時間的に演奏データYを取得する必要はない。例えば、利用者Uによる過去の演奏を記録した演奏データYを、演奏データ取得部71が電子楽器10から取得してもよい。すなわち、演奏データ取得部71が、利用者Uによる演奏に対して実時間的に演奏データYを取得するか否かは、本開示において不問である。
また、例えば、利用者Uが演奏した音符列を表す演奏データYを、演奏データ取得部71が電子楽器10から受信する必要はない。例えば、演奏データ取得部71は、利用者Uの演奏の様子を撮影した動画データを通信装置23により受信し、当該動画データを解析することで演奏データYを生成してもよい。すなわち、演奏データ取得部71による演奏データYの「取得」には、電子楽器10等の外部装置から演奏データYを受信する処理のほか、動画データ等の情報から演奏データYを生成する処理も包含される。
(17)前述の各形態においては、練習者U1による楽曲の演奏を表す演奏データY0と、指導者U2による指摘を表す指摘データPとを、学習データ取得部81aが取得したが、学習データ取得部81aが学習データTaを取得する方法は、以上の例示に限定されない。例えば、練習者U1による演奏と指導者U2による指導とに並行して学習データ取得部81aが演奏データY0および指摘データP(さらには学習データTa)を取得する必要はない。例えば、練習者U1による過去の演奏を記録した演奏データY0と、指導者U2による過去の指導を記録した指摘データPとを、学習データ取得部81aが取得してもよい。すなわち、学習データ取得部81aが、練習者U1による演奏および指導者U2による指導に対して実時間的に演奏データY0および指摘データPを取得するか否かは、本開示において不問である。
また、例えば、練習者U1が演奏した音符列を表す演奏データY0を、学習データ取得部81aが電子楽器10から受信する必要はない。例えば、学習データ取得部81aは、練習者U1の演奏の様子を撮影した動画データを通信装置23により受信し、当該動画データを解析することで演奏データY0を生成してもよい。すなわち、学習データ取得部81aによる演奏データY0の「取得」には、電子楽器10等の外部装置から演奏データY0を受信する処理のほか、動画データ等の情報から演奏データY0を生成する処理も包含される。
同様に、指導者U2による指摘を表す指摘データPを、学習データ取得部81aが情報装置40から受信する必要はない。例えば、学習データ取得部81aは、指導者U2の指導の様子を撮影した動画データを通信装置23により受信し、当該動画データを解析することで指摘データPを生成してもよい。すなわち、学習データ取得部81aによる指摘データPの「取得」には、情報装置40等の外部装置から指摘データPを受信する処理のほか、動画データ等の情報から指摘データPを生成する処理も包含される。
(18)前述の各形態においては、電子楽器10から送信された演奏データY0のうち指摘データPの時刻データτが指定する時点を含む特定区間内の部分を、学習データ取得部81aが演奏データYtとして抽出したが、学習用の演奏データYtが電子楽器10から機械学習システム30に送信されてもよい。例えば、電子楽器10の制御装置11は、情報装置40から指摘データPを受信し、演奏データY0のうち当該指摘データPの時刻データτに対応する特定区間内の部分を、演奏データYtとして通信装置13から機械学習システム30に送信する。学習データ取得部81aは、電子楽器10から送信された演奏データYtを通信装置33により受信する。以上の構成によれば、機械学習システム30は、情報装置40から時刻データτを取得する必要はない。すなわち、情報装置40から機械学習システム30に送信される指摘データPから時刻データτは省略されてよい。
なお、以上の説明においては演奏データYtに着目したが、学習用の楽曲データXtについても同様に、電子楽器10から機械学習システム30に送信されてよい。例えば、電子楽器10の制御装置11は、楽曲データX0のうち指摘データPの時刻データτに対応する特定区間内の部分を、楽曲データXtとして通信装置13から機械学習システム30に送信する。学習データ取得部81aは、電子楽器10から送信された楽曲データXtを通信装置33により受信する。
(19)前述の各形態に例示した機能(演奏データ取得部71,傾向特定部72および練習フレーズ特定部73)は、前述の通り、制御装置を構成する単数または複数のプロセッサと、記憶装置に記憶されたプログラムとの協働により実現される。以上のプログラムは、コンピュータが読取可能な記録媒体に格納された形態で提供されてコンピュータにインストールされ得る。記録媒体は、例えば非一過性(non-transitory)の記録媒体であり、CD-ROM等の光学式記録媒体(光ディスク)が好例であるが、半導体記録媒体または磁気記録媒体等の公知の任意の形式の記録媒体も包含される。なお、非一過性の記録媒体とは、一過性の伝搬信号(transitory, propagating signal)を除く任意の記録媒体を含み、揮発性の記録媒体も除外されない。また、配信装置が通信網200を介してプログラムを配信する構成では、当該配信装置においてプログラムを記憶する記録媒体が、前述の非一過性の記録媒体に相当する。
G:付記
以上に例示した形態から、例えば以下の構成が把握される。
ひとつの態様(態様1)に係る情報処理システムは、利用者による楽曲の演奏を表す演奏データを取得する演奏データ取得部と、参照楽曲の演奏を表す学習用演奏データと、前記学習用演奏データが表す演奏の傾向を表す学習用傾向データとの関係を学習した第1学習済モデルに、前記演奏データ取得部が取得した前記演奏データを入力することで、前記利用者による演奏の傾向を表す傾向データを生成する傾向特定部と、前記傾向特定部が生成した前記傾向データに応じた練習フレーズを特定する練習フレーズ特定部とを具備する。以上の態様によれば、利用者による楽曲の演奏を表す演奏データを第1学習済モデルに入力することで、当該利用者の演奏の傾向を表す傾向データが生成され、利用者による演奏の傾向に応じた練習フレーズが傾向データに応じて特定される。したがって、練習フレーズの演奏により、利用者の演奏の傾向に応じた効果的な練習が実現される。
「演奏データ」は、利用者による演奏を表す任意の形式のデータである。例えば、利用者が演奏した音符の時系列を表す音楽データ(例えばMIDIデータ)、利用者による演奏で楽器から発音された演奏音を表す音響データが、演奏データとして例示される。また、利用者による演奏の様子を撮像した動画データを、演奏データに含ませてもよい。
「傾向データ」は、利用者による演奏の傾向を表す任意の形式のデータである。「演奏の傾向」は、例えば、利用者による演奏ミスの傾向または苦手な演奏法の傾向である。例えば、傾向データは、演奏ミスまたは演奏法に関する複数種の傾向のうちの何れかを指定する。
「練習フレーズ」は、利用者が演奏を練習するための音符列(旋律)である。「利用者による演奏の傾向に応じた練習フレーズ」は、例えば、利用者による演奏に発生し易い傾向がある演奏ミスまたは当該利用者が苦手な演奏法を克服するために好適な音符列である。練習フレーズは、1個の楽曲の全体でもよいし当該楽曲の一部でもよい。
態様1の具体例(態様2)において、前記第1学習済モデルは、前記参照楽曲の楽譜を表す学習用楽曲データと前記学習用演奏データとを含む学習用制御データと、前記学習用傾向データとの関係を学習したモデルであり、前記傾向特定部は、前記演奏データと前記楽曲の楽譜を表す楽曲データとを含む制御データを前記第1学習済モデルに入力することで、前記傾向データを生成する。以上の態様によれば、演奏データに加えて楽曲データが制御データに含まれるから、演奏データと楽曲データとの関係(例えば異同)を反映した適切な傾向データを生成できる。
態様1または態様2の具体例(態様3)において、前記練習フレーズ特定部は、演奏の相異なる傾向に対応する複数の練習フレーズのうち、前記傾向データが表す傾向に対応する練習フレーズを選択する。以上の態様によれば、利用者の演奏の傾向に対応する練習フレーズが複数の練習フレーズから選択されるから、練習フレーズ特定部が練習フレーズを特定する処理の負荷が軽減される。
態様1または態様2の具体例(態様4)において、前記練習フレーズ特定部は、前記傾向データが表す傾向に応じて基準フレーズを編集することで前記練習フレーズを生成する。以上の態様によれば、基準フレーズの編集により練習フレーズが生成されるから、利用者による演奏技術のレベルに応じた適切な練習フレーズを当該利用者に提供できる。
「基準フレーズの編集」は、傾向データが表す傾向に応じて演奏の難易度が変化するように基準フレーズを変更する処理を意味する。例えば、基準フレーズ内のコードの簡略化(例えばコードの構成音の省略)、跳躍進行(音高差が大きい2個の音符を相前後して演奏する部分)の省略、または、演奏時の運指の簡略化等が、「編集」として例示される。
態様4の具体例(態様5)において、前記基準フレーズは、コードの時系列を含み、前記基準フレーズの編集は、前記コードの変更を含む。態様4の他の具体例(態様6)において、前記基準フレーズは、音高差が所定値を上回る跳躍進行を含み、前記基準フレーズの編集は、前記跳躍進行の省略または変更を含む。また、態様4の他の具体例(態様7)において、前記基準フレーズは、楽器の演奏法の指定を含み、前記基準フレーズの編集は、前記演奏法の変更を含む。「演奏法」は、楽器の演奏の仕方を意味する。例えば、鍵盤楽器または弦楽器等の楽器における運指、ギターまたはベース等の弦楽器におけるハンマリング,プリングまたはカッティング等の特殊奏法が、「演奏法」として例示される。
態様1から態様4の何れかの具体例(態様8)において、前記練習フレーズ特定部は、演奏の傾向を表す学習用傾向データと、前記学習用傾向データが表す傾向に応じた学習用練習フレーズとの関係を学習した第2学習済モデルに、前記傾向特定部が出力する前記傾向データを入力することで、前記練習フレーズを特定する。以上の態様によれば、傾向特定部が出力する傾向データを第2学習済モデルに入力することで、練習フレーズ特定部が練習フレーズを特定する。したがって、学習用傾向データと学習用練習フレーズとの間に潜在する関係のもとで統計的に妥当な練習フレーズを特定できる。
態様8の具体例(態様9)において、前記練習フレーズ特定部は、相異なる楽器に対応する複数の第2学習済モデルの何れかを選択的に利用して前記練習フレーズを特定する。以上の態様によれば、ひとつの第2学習済モデルのみを利用する構成と比較して、利用者が実際に演奏する楽器にとって適切な練習フレーズを特定できる。
態様1から態様9の何れかの具体例(態様10)において、前記傾向特定部は、相異なる楽器に対応する複数の第1学習済モデルの何れかを選択的に利用して前記傾向データを生成する。以上の態様によれば、相異なる楽器に対応する複数の第1学習済モデルが傾向データの生成に選択的に利用されるから、ひとつの第1学習済モデルのみを利用する構成と比較して、利用者が実際に演奏する楽器の演奏傾向を適切に表す傾向データを生成できる。
本開示のひとつの態様(態様11)に係る電子楽器は、利用者による楽曲の演奏を受付ける演奏受付部と、前記演奏受付部が受付けた演奏を表す演奏データを取得する演奏データ取得部と、楽曲の演奏を表す学習用演奏データと、前記学習用演奏データが表す演奏の傾向を表す学習用傾向データとの関係を学習した第1学習済モデルに、前記演奏データ取得部が取得した前記演奏データを入力することで、前記利用者による演奏の傾向を表す傾向データを前記第1学習済モデルから出力する傾向特定部と、前記傾向特定部が出力した前記傾向データを利用して、前記利用者による演奏の傾向に応じた練習フレーズを特定する練習フレーズ特定部と、前記練習フレーズを前記利用者に提示する提示処理部とを具備する。
提示処理部は、利用者が視覚的または聴覚的に知覚可能な態様で練習フレーズを当該利用者に提示する。例えば、練習フレーズの楽譜を表示装置に表示させる要素、または、練習フレーズの演奏音を放音装置に放音させる要素が、提示処理部として例示される。
本開示のひとつの態様(態様12)に係る情報処理方法は、利用者による楽曲の演奏を表す演奏データを取得し、楽曲の演奏を表す学習用演奏データと、前記学習用演奏データが表す演奏の傾向を表す学習用傾向データとの関係を学習した第1学習済モデルに、前記取得した前記演奏データを入力することで、前記利用者による演奏の傾向を表す傾向データを生成し、前記傾向データに応じた練習フレーズを特定する。
態様12の具体例(態様13)においえ、前記練習フレーズの特定においては、演奏の相異なる傾向に対応する複数の練習フレーズのうち、前記傾向データが表す傾向に対応する練習フレーズを選択する。また、態様12の具体例(態様14)において、前記練習フレーズの特定においては、前記傾向データが表す傾向に応じて基準フレーズを編集することで前記練習フレーズを生成する。態様12の他の具体例(態様15)において、前記練習フレーズの特定においては、演奏の傾向を表す学習用傾向データと、前記学習用傾向データが表す傾向に応じた学習用練習フレーズとの関係を学習した第2学習済モデルに、前記傾向データを入力することで、前記練習フレーズを特定する。
本開示のひとつの態様(態様16)に係る機械学習システムは、利用者による楽曲の演奏を表す学習用演奏データと、当該指摘データが表す演奏の傾向を表す学習用傾向データとを含む第1学習データを取得する第1学習データ取得部と、前記第1学習データを利用した機械学習により、前記学習用演奏データと前記学習用傾向データとの関係を学習した第1学習済モデルを確立する第1学習処理部とを具備する。以上の態様によれば、学習用演奏データと学習用傾向データとの間に潜在する関係のもとで、演奏データに対して統計的に妥当な傾向データを、第1学習済モデルにより生成できる。
態様16の具体例(態様17)において、前記第1学習データ取得部は、前記利用者による前記楽曲の演奏を表す演奏データと、前記楽曲内の時点と当該時点における前記演奏の傾向とを表す指摘データとを取得し、前記演奏データのうち前記指摘データが表す時点を含む区間内の演奏を表す前記学習用演奏データと、当該指摘データが表す演奏の傾向を表す前記学習用傾向データとを含む前記第1学習データを生成する。以上の態様によれば、演奏データの供給元(例えば第1装置)において、利用者による演奏のうち指摘データが表す時点に対応する区間を抽出する必要がない。
態様17の具体例(態様18)において、前記第1学習データ取得部は、第1装置から前記演奏データを取得し、前記第1装置とは別個の第2装置から前記指摘データを取得する。以上の態様によれば、例えば相互に遠隔地にある第1装置と第2装置とから取得したデータ(演奏データおよび指摘データ)を利用して、機械学習用のデータを準備できる。第1装置は、例えば、楽器の演奏を練習する練習者が使用する端末装置であり、第2装置は、例えば、練習者による演奏を評価および指導する指導者が使用する端末装置である。
態様16から態様18の何れかの具体例(態様19)において、前記第1学習済モデルは、前記参照楽曲の楽譜を表す学習用楽曲データと前記学習用演奏データとを含む学習用制御データと、前記学習用傾向データとの関係を学習したモデルである。以上の態様においては、学習用演奏データに加えて学習用楽曲データが学習用制御データに含まれるから、学習用演奏データと学習用楽曲データとの関係(例えば異同)を反映した適切な傾向データを生成可能な第1学習済モデルを確立できる。
態様16から態様19の何れかの具体例(態様20)において、演奏の傾向を表す学習用傾向データと、前記学習用傾向データが表す傾向に応じた学習用練習フレーズとを含む複数の第2学習データを取得する第2学習データ取得部と、前記複数の第2学習データを利用した機械学習により、前記第2学習データにおける前記学習用傾向データと前記学習用練習フレーズとの関係を学習した第2学習済モデルを確立する第2学習処理部とをさらに具備する。
本開示のひとつの態様(態様21)に係る機械学習方法は、利用者による楽曲の演奏を表す演奏データと、前記楽曲内の時点と当該時点における演奏の傾向とを表す指摘データとを取得し、前記演奏データのうち前記指摘データが表す時点を含む区間内の演奏を表す学習用演奏データと、当該指摘データが表す演奏の傾向を表す学習用傾向データとを含む第1学習データを利用した機械学習により、前記学習用演奏データと前記学習用傾向データとの関係を学習した第1学習済モデルを確立する。
100…演奏システム、10…電子楽器、11,21,31,41,51…制御装置、12,22,32,42,52…記憶装置、13,23,33,43…通信装置、14…演奏装置、15,45…表示装置、16…音源装置、17…放音装置、18,46…再生システム、20…情報処理システム、30…機械学習システム、40…情報装置、44…操作装置、50…情報装置、71…演奏データ取得部、72…傾向特定部、73…練習フレーズ特定部、74…提示処理部、81a,81b…学習データ取得部、82a,82b…学習処理部。

Claims (16)

  1. 利用者による楽曲の演奏を表す演奏データを取得する演奏データ取得部と、
    参照楽曲の演奏を表す学習用演奏データと、前記学習用演奏データが表す演奏の傾向を表す学習用傾向データとの関係を学習した第1学習済モデルに、前記演奏データ取得部が取得した前記演奏データを入力することで、前記利用者による演奏の傾向を表す傾向データを生成する傾向特定部と、
    前記傾向特定部が生成した前記傾向データが表す傾向に応じて基準フレーズを編集することで練習フレーズを生成する練習フレーズ特定部と
    を具備する情報処理システム。
  2. 前記第1学習済モデルは、前記参照楽曲の楽譜を表す学習用楽曲データと前記学習用演奏データとを含む学習用制御データと、前記学習用傾向データとの関係を学習したモデルであり、
    前記傾向特定部は、前記演奏データと前記楽曲の楽譜を表す楽曲データとを含む制御データを前記第1学習済モデルに入力することで、前記傾向データを生成する
    請求項1の情報処理システム。
  3. 前記基準フレーズは、コードの時系列を含み、
    前記基準フレーズの編集は、前記コードの変更を含む
    請求項1または請求項2の情報処理システム。
  4. 前記基準フレーズは、音高差が所定値を上回る跳躍進行を含み、
    前記基準フレーズの編集は、前記跳躍進行の省略または変更を含む
    請求項1から請求項3の何れかの情報処理システム。
  5. 前記基準フレーズは、楽器の演奏法の指定を含み、
    前記基準フレーズの編集は、前記演奏法の変更を含む
    請求項1から請求項4の何れかの情報処理システム。
  6. 利用者による楽曲の演奏を表す演奏データを取得する演奏データ取得部と、
    参照楽曲の演奏を表す学習用演奏データと、前記学習用演奏データが表す演奏の傾向を表す学習用傾向データとの関係を学習した第1学習済モデルに、前記演奏データ取得部が取得した前記演奏データを入力することで、前記利用者による演奏の傾向を表す傾向データを生成する傾向特定部と、
    演奏の傾向を表す学習用傾向データと、前記学習用傾向データが表す傾向に応じた学習用練習フレーズとの関係を学習した第2学習済モデルに、前記傾向特定部が生成した前記傾向データを入力することで、練習フレーズを特定する練習フレーズ特定部と
    を具備する情報処理システム。
  7. 前記練習フレーズ特定部は、相異なる楽器に対応する複数の第2学習済モデルの何れかを選択的に利用して前記練習フレーズを特定する
    請求項の情報処理システム。
  8. 前記傾向特定部は、相異なる楽器に対応する複数の第1学習済モデルの何れかを選択的に利用して前記傾向データを生成する
    請求項1から請求項の何れかの情報処理システム。
  9. 利用者による楽曲の演奏を受付ける演奏受付部と、
    前記演奏受付部が受付けた演奏を表す演奏データを取得する演奏データ取得部と、
    楽曲の演奏を表す学習用演奏データと、前記学習用演奏データが表す演奏の傾向を表す学習用傾向データとの関係を学習した第1学習済モデルに、前記演奏データ取得部が取得した前記演奏データを入力することで、前記利用者による演奏の傾向を表す傾向データを前記第1学習済モデルから出力する傾向特定部と、
    前記傾向特定部が出力した前記傾向データが表す傾向に応じて基準フレーズを編集することで、前記利用者による演奏の傾向に応じた練習フレーズを生成する練習フレーズ特定部と、
    前記練習フレーズを前記利用者に提示する提示処理部と
    を具備する電子楽器。
  10. 利用者による楽曲の演奏を受付ける演奏受付部と、
    前記演奏受付部が受付けた演奏を表す演奏データを取得する演奏データ取得部と、
    楽曲の演奏を表す学習用演奏データと、前記学習用演奏データが表す演奏の傾向を表す学習用傾向データとの関係を学習した第1学習済モデルに、前記演奏データ取得部が取得した前記演奏データを入力することで、前記利用者による演奏の傾向を表す傾向データを前記第1学習済モデルから出力する傾向特定部と、
    演奏の傾向を表す学習用傾向データと、前記学習用傾向データが表す傾向に応じた学習用練習フレーズとの関係を学習した第2学習済モデルに、前記傾向特定部が出力した前記傾向データを入力することで、前記利用者による演奏の傾向に応じた練習フレーズを特定する練習フレーズ特定部と、
    前記練習フレーズを前記利用者に提示する提示処理部と
    を具備する電子楽器。
  11. 利用者による楽曲の演奏を表す演奏データを取得し、
    楽曲の演奏を表す学習用演奏データと、前記学習用演奏データが表す演奏の傾向を表す学習用傾向データとの関係を学習した第1学習済モデルに、前記取得した前記演奏データを入力することで、前記利用者による演奏の傾向を表す傾向データを生成し、
    前記傾向データが表す傾向に応じて基準フレーズを編集することで練習フレーズを生成する
    コンピュータシステムにより実現される情報処理方法。
  12. 利用者による楽曲の演奏を表す演奏データを取得し、
    楽曲の演奏を表す学習用演奏データと、前記学習用演奏データが表す演奏の傾向を表す学習用傾向データとの関係を学習した第1学習済モデルに、前記取得した前記演奏データを入力することで、前記利用者による演奏の傾向を表す傾向データを生成し、
    演奏の傾向を表す学習用傾向データと、前記学習用傾向データが表す傾向に応じた学習用練習フレーズとの関係を学習した第2学習済モデルに、前記傾向データを入力することで、練習フレーズを特定する
    コンピュータシステムにより実現される情報処理方法。
  13. 利用者による楽曲の演奏を表す学習用演奏データと、当該演奏の傾向を表す学習用傾向データとを含む第1学習データを取得する第1学習データ取得部と、
    前記第1学習データを利用した機械学習により、前記学習用演奏データと前記学習用傾向データとの関係を学習した第1学習済モデルを確立する第1学習処理部と
    演奏の傾向を表す学習用傾向データと、前記学習用傾向データが表す傾向に応じた学習用練習フレーズとを含む複数の第2学習データを取得する第2学習データ取得部と、
    前記複数の第2学習データを利用した機械学習により、前記第2学習データにおける前記学習用傾向データと前記学習用練習フレーズとの関係を学習した第2学習済モデルを確立する第2学習処理部と
    を具備する機械学習システム。
  14. 前記第1学習データ取得部は、
    前記利用者による前記楽曲の演奏を表す演奏データと、前記楽曲内の時点と当該時点における前記演奏の傾向とを表す指摘データとを取得し、
    前記演奏データのうち前記指摘データが表す時点を含む区間内の演奏を表す前記学習用演奏データと、当該指摘データが表す演奏の傾向を表す前記学習用傾向データとを含む前記第1学習データを生成する
    請求項13の機械学習システム。
  15. 前記第1学習データ取得部は、
    第1装置から前記演奏データを取得し、
    前記第1装置とは別個の第2装置から前記指摘データを取得する
    請求項14の機械学習システム。
  16. 前記第1学習済モデルは、前記楽曲の楽譜を表す学習用楽曲データと前記学習用演奏データとを含む学習用制御データと、前記学習用傾向データとの関係を学習したモデルである
    請求項13から請求項15の何れかの機械学習システム。
JP2022581297A 2021-02-10 2022-01-21 情報処理システム、電子楽器、情報処理方法および機械学習システム Active JP7571804B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024174187A JP2024177389A (ja) 2021-02-10 2024-10-03 情報処理システム、電子楽器、情報処理方法および機械学習システム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2021019706 2021-02-10
JP2021019706 2021-02-10
PCT/JP2022/002233 WO2022172732A1 (ja) 2021-02-10 2022-01-21 情報処理システム、電子楽器、情報処理方法および機械学習システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024174187A Division JP2024177389A (ja) 2021-02-10 2024-10-03 情報処理システム、電子楽器、情報処理方法および機械学習システム

Publications (2)

Publication Number Publication Date
JPWO2022172732A1 JPWO2022172732A1 (ja) 2022-08-18
JP7571804B2 true JP7571804B2 (ja) 2024-10-23

Family

ID=82838708

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022581297A Active JP7571804B2 (ja) 2021-02-10 2022-01-21 情報処理システム、電子楽器、情報処理方法および機械学習システム
JP2024174187A Pending JP2024177389A (ja) 2021-02-10 2024-10-03 情報処理システム、電子楽器、情報処理方法および機械学習システム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024174187A Pending JP2024177389A (ja) 2021-02-10 2024-10-03 情報処理システム、電子楽器、情報処理方法および機械学習システム

Country Status (4)

Country Link
US (1) US20230410676A1 (ja)
JP (2) JP7571804B2 (ja)
CN (1) CN116830179A (ja)
WO (1) WO2022172732A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018533076A (ja) 2015-10-25 2018-11-08 コレン, モレルKOREN, Morel 音楽言語のコンピュータ支援教育のシステムおよび方法
WO2019156092A1 (ja) 2018-02-06 2019-08-15 ヤマハ株式会社 情報処理方法
JP2019152716A (ja) 2018-03-01 2019-09-12 ヤマハ株式会社 情報処理方法および情報処理装置
WO2020031544A1 (ja) 2018-08-10 2020-02-13 ヤマハ株式会社 楽譜データの情報処理装置
JP2020190676A (ja) 2019-05-23 2020-11-26 カシオ計算機株式会社 電子楽器、電子楽器の制御方法、及びプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021075014A1 (ja) * 2019-10-17 2021-04-22 ヤマハ株式会社 演奏解析方法、演奏解析装置およびプログラム
WO2021186928A1 (ja) * 2020-03-17 2021-09-23 ヤマハ株式会社 演奏情報に対する評価を推論する方法、システム、及びプログラム
JP7452162B2 (ja) * 2020-03-25 2024-03-19 ヤマハ株式会社 音信号生成方法、推定モデル訓練方法、音信号生成システム、およびプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018533076A (ja) 2015-10-25 2018-11-08 コレン, モレルKOREN, Morel 音楽言語のコンピュータ支援教育のシステムおよび方法
WO2019156092A1 (ja) 2018-02-06 2019-08-15 ヤマハ株式会社 情報処理方法
JP2019152716A (ja) 2018-03-01 2019-09-12 ヤマハ株式会社 情報処理方法および情報処理装置
WO2020031544A1 (ja) 2018-08-10 2020-02-13 ヤマハ株式会社 楽譜データの情報処理装置
JP2020190676A (ja) 2019-05-23 2020-11-26 カシオ計算機株式会社 電子楽器、電子楽器の制御方法、及びプログラム

Also Published As

Publication number Publication date
CN116830179A (zh) 2023-09-29
WO2022172732A1 (ja) 2022-08-18
US20230410676A1 (en) 2023-12-21
JP2024177389A (ja) 2024-12-19
JPWO2022172732A1 (ja) 2022-08-18

Similar Documents

Publication Publication Date Title
JP2012532340A (ja) 音楽教育システム
WO2017043228A1 (ja) 演奏補助装置及び方法
CN113160780B (zh) 电子乐器、方法及存储介质
CN111667554B (zh) 信息处理装置的控制方法、电子设备、演奏数据显示系统
WO2022153875A1 (ja) 情報処理システム、電子楽器、情報処理方法およびプログラム
US20180268731A1 (en) Musical Modification Method
JP2024133411A (ja) 情報処理方法、情報処理システムおよびプログラム
JP7571804B2 (ja) 情報処理システム、電子楽器、情報処理方法および機械学習システム
JP6520162B2 (ja) 伴奏教習装置および伴奏教習プログラム
JP6617784B2 (ja) 電子機器、情報処理方法、及びプログラム
CN105551472A (zh) 具有指法标示的乐谱产生方法及其系统
JP6073618B2 (ja) カラオケ装置
JP6141737B2 (ja) ストレッチチューニングを考慮して歌唱採点を行うカラオケ装置
JP5969421B2 (ja) 楽器音出力装置及び楽器音出力プログラム
CN112632401A (zh) 推荐装置、信息提供系统、推荐方法及存储介质
US20250014543A1 (en) Data output method and data output device
JP6582517B2 (ja) 制御装置およびプログラム
JP2007163575A (ja) 電子楽器及び演奏レベル表示方法
JP5663948B2 (ja) 楽譜表示システム
JP4978176B2 (ja) 演奏装置、演奏実現方法およびプログラム
CN119626185A (zh) 一种电子乐器的演奏方法及装置、电子设备及存储介质
JP6587396B2 (ja) ギターカラオケ採点機能を備えるカラオケ装置
TWM491896U (zh) 哼唱聲音轉樂譜的辨識轉換系統及辨識轉換裝置
WO2025100264A1 (ja) 情報処理方法、情報処理システムおよびプログラム
CN115132154A (zh) 信息处理方法、信息处理装置、演奏数据显示系统及记录介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240830

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240910

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240923

R150 Certificate of patent or registration of utility model

Ref document number: 7571804

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150