JP7571804B2 - 情報処理システム、電子楽器、情報処理方法および機械学習システム - Google Patents
情報処理システム、電子楽器、情報処理方法および機械学習システム Download PDFInfo
- Publication number
- JP7571804B2 JP7571804B2 JP2022581297A JP2022581297A JP7571804B2 JP 7571804 B2 JP7571804 B2 JP 7571804B2 JP 2022581297 A JP2022581297 A JP 2022581297A JP 2022581297 A JP2022581297 A JP 2022581297A JP 7571804 B2 JP7571804 B2 JP 7571804B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- performance
- tendency
- learning
- practice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B15/00—Teaching music
- G09B15/001—Boards or like means for providing an indication of chords
- G09B15/002—Electrically operated systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B15/00—Teaching music
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10G—REPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
- G10G1/00—Means for the representation of music
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0033—Recording/reproducing or transmission of music for electrophonic musical instruments
- G10H1/0041—Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
- G10H1/0058—Transmission between separate instruments or between individual components of a musical system
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/061—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of musical phrases, isolation of musically relevant segments, e.g. musical thumbnail generation, or for temporal structure analysis of a musical piece, e.g. determination of the movement sequence of a musical work
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/066—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for pitch analysis as part of wider processing for musical purposes, e.g. transcription, musical performance evaluation; Pitch recognition, e.g. in polyphonic sounds; Estimation or use of missing fundamental
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/091—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/571—Chords; Chord sequences
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/311—Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Acoustics & Sound (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Business, Economics & Management (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Auxiliary Devices For Music (AREA)
- Electrophonic Musical Instruments (AREA)
Description
図1は、第1実施形態に係る演奏システム100の構成を例示するブロック図である。演奏システム100は、電子楽器10の利用者Uが当該電子楽器10の演奏を練習するためのコンピュータシステムであり、電子楽器10と情報処理システム20と機械学習システム30とを具備する。演奏システム100を構成する各要素は、例えばインターネット等の通信網200を介して相互に通信する。なお、演奏システム100は実際には複数の電子楽器10を含むが、以下の説明では任意の1個の電子楽器10に便宜的に着目する。
第2実施形態を説明する。なお、以下に例示する各態様において機能が第1実施形態と同様である要素については、第1実施形態の説明と同様の符号を流用して各々の詳細な説明を適宜に省略する。
図14は、第3実施形態における情報処理システム20の機能的な構成を例示するブロック図である。第1実施形態においては、記憶装置22に記憶された複数の練習フレーズZのうち利用者Uの傾向データDに対応する練習フレーズZを練習フレーズ特定部73が特定する構成を例示した。第3実施形態の練習フレーズ特定部73は、学習済モデルMbを利用して、傾向データDに応じた練習フレーズZを特定する。学習済モデルMbは「第2学習済モデル」の一例である。
図18は、第4実施形態に係る電子楽器10の機能的な構成を例示するブロック図である。前述の各形態においては、情報処理システム20が演奏データ取得部71と傾向特定部72と練習フレーズ特定部73とを具備する構成を例示した。第4実施形態においては、演奏データ取得部71と傾向特定部72と練習フレーズ特定部73とを電子楽器10が具備する。以上の要素は、記憶装置12に記憶されたプログラムを制御装置11が実行することで実現される。また、制御装置11は提示処理部74としても機能する。
図19は、第5実施形態に係る演奏システム100の構成を例示するブロック図である。演奏システム100は、電子楽器10と情報装置50とを具備する。情報装置50は、例えばスマートフォンまたはタブレット端末等の装置である。情報装置50は、例えば有線または無線により電子楽器10に接続される。
以上に例示した各態様に付加される具体的な変形の態様を以下に例示する。以下の例示から任意に選択された複数の態様を、相互に矛盾しない範囲で適宜に併合してもよい。
以上に例示した形態から、例えば以下の構成が把握される。
Claims (16)
- 利用者による楽曲の演奏を表す演奏データを取得する演奏データ取得部と、
参照楽曲の演奏を表す学習用演奏データと、前記学習用演奏データが表す演奏の傾向を表す学習用傾向データとの関係を学習した第1学習済モデルに、前記演奏データ取得部が取得した前記演奏データを入力することで、前記利用者による演奏の傾向を表す傾向データを生成する傾向特定部と、
前記傾向特定部が生成した前記傾向データが表す傾向に応じて基準フレーズを編集することで練習フレーズを生成する練習フレーズ特定部と
を具備する情報処理システム。 - 前記第1学習済モデルは、前記参照楽曲の楽譜を表す学習用楽曲データと前記学習用演奏データとを含む学習用制御データと、前記学習用傾向データとの関係を学習したモデルであり、
前記傾向特定部は、前記演奏データと前記楽曲の楽譜を表す楽曲データとを含む制御データを前記第1学習済モデルに入力することで、前記傾向データを生成する
請求項1の情報処理システム。 - 前記基準フレーズは、コードの時系列を含み、
前記基準フレーズの編集は、前記コードの変更を含む
請求項1または請求項2の情報処理システム。 - 前記基準フレーズは、音高差が所定値を上回る跳躍進行を含み、
前記基準フレーズの編集は、前記跳躍進行の省略または変更を含む
請求項1から請求項3の何れかの情報処理システム。 - 前記基準フレーズは、楽器の演奏法の指定を含み、
前記基準フレーズの編集は、前記演奏法の変更を含む
請求項1から請求項4の何れかの情報処理システム。 - 利用者による楽曲の演奏を表す演奏データを取得する演奏データ取得部と、
参照楽曲の演奏を表す学習用演奏データと、前記学習用演奏データが表す演奏の傾向を表す学習用傾向データとの関係を学習した第1学習済モデルに、前記演奏データ取得部が取得した前記演奏データを入力することで、前記利用者による演奏の傾向を表す傾向データを生成する傾向特定部と、
演奏の傾向を表す学習用傾向データと、前記学習用傾向データが表す傾向に応じた学習用練習フレーズとの関係を学習した第2学習済モデルに、前記傾向特定部が生成した前記傾向データを入力することで、練習フレーズを特定する練習フレーズ特定部と
を具備する情報処理システム。 - 前記練習フレーズ特定部は、相異なる楽器に対応する複数の第2学習済モデルの何れかを選択的に利用して前記練習フレーズを特定する
請求項6の情報処理システム。 - 前記傾向特定部は、相異なる楽器に対応する複数の第1学習済モデルの何れかを選択的に利用して前記傾向データを生成する
請求項1から請求項7の何れかの情報処理システム。 - 利用者による楽曲の演奏を受付ける演奏受付部と、
前記演奏受付部が受付けた演奏を表す演奏データを取得する演奏データ取得部と、
楽曲の演奏を表す学習用演奏データと、前記学習用演奏データが表す演奏の傾向を表す学習用傾向データとの関係を学習した第1学習済モデルに、前記演奏データ取得部が取得した前記演奏データを入力することで、前記利用者による演奏の傾向を表す傾向データを前記第1学習済モデルから出力する傾向特定部と、
前記傾向特定部が出力した前記傾向データが表す傾向に応じて基準フレーズを編集することで、前記利用者による演奏の傾向に応じた練習フレーズを生成する練習フレーズ特定部と、
前記練習フレーズを前記利用者に提示する提示処理部と
を具備する電子楽器。 - 利用者による楽曲の演奏を受付ける演奏受付部と、
前記演奏受付部が受付けた演奏を表す演奏データを取得する演奏データ取得部と、
楽曲の演奏を表す学習用演奏データと、前記学習用演奏データが表す演奏の傾向を表す学習用傾向データとの関係を学習した第1学習済モデルに、前記演奏データ取得部が取得した前記演奏データを入力することで、前記利用者による演奏の傾向を表す傾向データを前記第1学習済モデルから出力する傾向特定部と、
演奏の傾向を表す学習用傾向データと、前記学習用傾向データが表す傾向に応じた学習用練習フレーズとの関係を学習した第2学習済モデルに、前記傾向特定部が出力した前記傾向データを入力することで、前記利用者による演奏の傾向に応じた練習フレーズを特定する練習フレーズ特定部と、
前記練習フレーズを前記利用者に提示する提示処理部と
を具備する電子楽器。 - 利用者による楽曲の演奏を表す演奏データを取得し、
楽曲の演奏を表す学習用演奏データと、前記学習用演奏データが表す演奏の傾向を表す学習用傾向データとの関係を学習した第1学習済モデルに、前記取得した前記演奏データを入力することで、前記利用者による演奏の傾向を表す傾向データを生成し、
前記傾向データが表す傾向に応じて基準フレーズを編集することで練習フレーズを生成する
コンピュータシステムにより実現される情報処理方法。 - 利用者による楽曲の演奏を表す演奏データを取得し、
楽曲の演奏を表す学習用演奏データと、前記学習用演奏データが表す演奏の傾向を表す学習用傾向データとの関係を学習した第1学習済モデルに、前記取得した前記演奏データを入力することで、前記利用者による演奏の傾向を表す傾向データを生成し、
演奏の傾向を表す学習用傾向データと、前記学習用傾向データが表す傾向に応じた学習用練習フレーズとの関係を学習した第2学習済モデルに、前記傾向データを入力することで、練習フレーズを特定する
コンピュータシステムにより実現される情報処理方法。 - 利用者による楽曲の演奏を表す学習用演奏データと、当該演奏の傾向を表す学習用傾向データとを含む第1学習データを取得する第1学習データ取得部と、
前記第1学習データを利用した機械学習により、前記学習用演奏データと前記学習用傾向データとの関係を学習した第1学習済モデルを確立する第1学習処理部と、
演奏の傾向を表す学習用傾向データと、前記学習用傾向データが表す傾向に応じた学習用練習フレーズとを含む複数の第2学習データを取得する第2学習データ取得部と、
前記複数の第2学習データを利用した機械学習により、前記第2学習データにおける前記学習用傾向データと前記学習用練習フレーズとの関係を学習した第2学習済モデルを確立する第2学習処理部と
を具備する機械学習システム。 - 前記第1学習データ取得部は、
前記利用者による前記楽曲の演奏を表す演奏データと、前記楽曲内の時点と当該時点における前記演奏の傾向とを表す指摘データとを取得し、
前記演奏データのうち前記指摘データが表す時点を含む区間内の演奏を表す前記学習用演奏データと、当該指摘データが表す演奏の傾向を表す前記学習用傾向データとを含む前記第1学習データを生成する
請求項13の機械学習システム。 - 前記第1学習データ取得部は、
第1装置から前記演奏データを取得し、
前記第1装置とは別個の第2装置から前記指摘データを取得する
請求項14の機械学習システム。 - 前記第1学習済モデルは、前記楽曲の楽譜を表す学習用楽曲データと前記学習用演奏データとを含む学習用制御データと、前記学習用傾向データとの関係を学習したモデルである
請求項13から請求項15の何れかの機械学習システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2024174187A JP2024177389A (ja) | 2021-02-10 | 2024-10-03 | 情報処理システム、電子楽器、情報処理方法および機械学習システム |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021019706 | 2021-02-10 | ||
JP2021019706 | 2021-02-10 | ||
PCT/JP2022/002233 WO2022172732A1 (ja) | 2021-02-10 | 2022-01-21 | 情報処理システム、電子楽器、情報処理方法および機械学習システム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024174187A Division JP2024177389A (ja) | 2021-02-10 | 2024-10-03 | 情報処理システム、電子楽器、情報処理方法および機械学習システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2022172732A1 JPWO2022172732A1 (ja) | 2022-08-18 |
JP7571804B2 true JP7571804B2 (ja) | 2024-10-23 |
Family
ID=82838708
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022581297A Active JP7571804B2 (ja) | 2021-02-10 | 2022-01-21 | 情報処理システム、電子楽器、情報処理方法および機械学習システム |
JP2024174187A Pending JP2024177389A (ja) | 2021-02-10 | 2024-10-03 | 情報処理システム、電子楽器、情報処理方法および機械学習システム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024174187A Pending JP2024177389A (ja) | 2021-02-10 | 2024-10-03 | 情報処理システム、電子楽器、情報処理方法および機械学習システム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20230410676A1 (ja) |
JP (2) | JP7571804B2 (ja) |
CN (1) | CN116830179A (ja) |
WO (1) | WO2022172732A1 (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018533076A (ja) | 2015-10-25 | 2018-11-08 | コレン, モレルKOREN, Morel | 音楽言語のコンピュータ支援教育のシステムおよび方法 |
WO2019156092A1 (ja) | 2018-02-06 | 2019-08-15 | ヤマハ株式会社 | 情報処理方法 |
JP2019152716A (ja) | 2018-03-01 | 2019-09-12 | ヤマハ株式会社 | 情報処理方法および情報処理装置 |
WO2020031544A1 (ja) | 2018-08-10 | 2020-02-13 | ヤマハ株式会社 | 楽譜データの情報処理装置 |
JP2020190676A (ja) | 2019-05-23 | 2020-11-26 | カシオ計算機株式会社 | 電子楽器、電子楽器の制御方法、及びプログラム |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021075014A1 (ja) * | 2019-10-17 | 2021-04-22 | ヤマハ株式会社 | 演奏解析方法、演奏解析装置およびプログラム |
WO2021186928A1 (ja) * | 2020-03-17 | 2021-09-23 | ヤマハ株式会社 | 演奏情報に対する評価を推論する方法、システム、及びプログラム |
JP7452162B2 (ja) * | 2020-03-25 | 2024-03-19 | ヤマハ株式会社 | 音信号生成方法、推定モデル訓練方法、音信号生成システム、およびプログラム |
-
2022
- 2022-01-21 JP JP2022581297A patent/JP7571804B2/ja active Active
- 2022-01-21 WO PCT/JP2022/002233 patent/WO2022172732A1/ja active Application Filing
- 2022-01-21 CN CN202280011645.8A patent/CN116830179A/zh active Pending
-
2023
- 2023-07-31 US US18/362,093 patent/US20230410676A1/en active Pending
-
2024
- 2024-10-03 JP JP2024174187A patent/JP2024177389A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018533076A (ja) | 2015-10-25 | 2018-11-08 | コレン, モレルKOREN, Morel | 音楽言語のコンピュータ支援教育のシステムおよび方法 |
WO2019156092A1 (ja) | 2018-02-06 | 2019-08-15 | ヤマハ株式会社 | 情報処理方法 |
JP2019152716A (ja) | 2018-03-01 | 2019-09-12 | ヤマハ株式会社 | 情報処理方法および情報処理装置 |
WO2020031544A1 (ja) | 2018-08-10 | 2020-02-13 | ヤマハ株式会社 | 楽譜データの情報処理装置 |
JP2020190676A (ja) | 2019-05-23 | 2020-11-26 | カシオ計算機株式会社 | 電子楽器、電子楽器の制御方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN116830179A (zh) | 2023-09-29 |
WO2022172732A1 (ja) | 2022-08-18 |
US20230410676A1 (en) | 2023-12-21 |
JP2024177389A (ja) | 2024-12-19 |
JPWO2022172732A1 (ja) | 2022-08-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2012532340A (ja) | 音楽教育システム | |
WO2017043228A1 (ja) | 演奏補助装置及び方法 | |
CN113160780B (zh) | 电子乐器、方法及存储介质 | |
CN111667554B (zh) | 信息处理装置的控制方法、电子设备、演奏数据显示系统 | |
WO2022153875A1 (ja) | 情報処理システム、電子楽器、情報処理方法およびプログラム | |
US20180268731A1 (en) | Musical Modification Method | |
JP2024133411A (ja) | 情報処理方法、情報処理システムおよびプログラム | |
JP7571804B2 (ja) | 情報処理システム、電子楽器、情報処理方法および機械学習システム | |
JP6520162B2 (ja) | 伴奏教習装置および伴奏教習プログラム | |
JP6617784B2 (ja) | 電子機器、情報処理方法、及びプログラム | |
CN105551472A (zh) | 具有指法标示的乐谱产生方法及其系统 | |
JP6073618B2 (ja) | カラオケ装置 | |
JP6141737B2 (ja) | ストレッチチューニングを考慮して歌唱採点を行うカラオケ装置 | |
JP5969421B2 (ja) | 楽器音出力装置及び楽器音出力プログラム | |
CN112632401A (zh) | 推荐装置、信息提供系统、推荐方法及存储介质 | |
US20250014543A1 (en) | Data output method and data output device | |
JP6582517B2 (ja) | 制御装置およびプログラム | |
JP2007163575A (ja) | 電子楽器及び演奏レベル表示方法 | |
JP5663948B2 (ja) | 楽譜表示システム | |
JP4978176B2 (ja) | 演奏装置、演奏実現方法およびプログラム | |
CN119626185A (zh) | 一种电子乐器的演奏方法及装置、电子设备及存储介质 | |
JP6587396B2 (ja) | ギターカラオケ採点機能を備えるカラオケ装置 | |
TWM491896U (zh) | 哼唱聲音轉樂譜的辨識轉換系統及辨識轉換裝置 | |
WO2025100264A1 (ja) | 情報処理方法、情報処理システムおよびプログラム | |
CN115132154A (zh) | 信息处理方法、信息处理装置、演奏数据显示系统及记录介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230724 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240702 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240830 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240910 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240923 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7571804 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |