JP7143816B2 - 電子楽器、電子楽器の制御方法、及びプログラム - Google Patents
電子楽器、電子楽器の制御方法、及びプログラム Download PDFInfo
- Publication number
- JP7143816B2 JP7143816B2 JP2019096779A JP2019096779A JP7143816B2 JP 7143816 B2 JP7143816 B2 JP 7143816B2 JP 2019096779 A JP2019096779 A JP 2019096779A JP 2019096779 A JP2019096779 A JP 2019096779A JP 7143816 B2 JP7143816 B2 JP 7143816B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- musical instrument
- performance
- output
- phrase
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10G—REPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
- G10G1/00—Means for the representation of music
- G10G1/04—Transposing; Transcribing
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B15/00—Teaching music
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
- G10H1/0016—Means for indicating which keys, frets or strings are to be actuated, e.g. using lights or leds
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/32—Constructional details
- G10H1/34—Switch arrangements, e.g. keyboards or mechanical switches specially adapted for electrophonic musical instruments
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/32—Constructional details
- G10H1/34—Switch arrangements, e.g. keyboards or mechanical switches specially adapted for electrophonic musical instruments
- G10H1/344—Structural association with individual keys
- G10H1/348—Switches actuated by parts of the body other than fingers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/40—Rhythm
- G10H1/42—Rhythm comprising tone forming circuits
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H7/00—Instruments in which the tones are synthesised from a data store, e.g. computer organs
- G10H7/008—Means for controlling the transition from one tone waveform to another
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/076—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of timing, tempo; Beat detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/095—Inter-note articulation aspects, e.g. legato or staccato
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/375—Tempo or beat alterations; Music timing control
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/375—Tempo or beat alterations; Music timing control
- G10H2210/385—Speed change, i.e. variations from preestablished tempo, tempo change, e.g. faster or slower, accelerando or ritardando, without change in pitch
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/155—User input interfaces for electrophonic musical instruments
- G10H2220/221—Keyboards, i.e. configuration of several keys or key-like input devices relative to one another
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/155—User input interfaces for electrophonic musical instruments
- G10H2220/265—Key design details; Special characteristics of individual keys of a keyboard; Key-like musical input devices, e.g. finger sensors, pedals, potentiometers, selectors
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/311—Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/541—Details of musical waveform synthesis, i.e. audio waveshape processing from individual wavetable samples, independently of their origin or of the sound they represent
- G10H2250/641—Waveform sampler, i.e. music samplers; Sampled music loop processing, wherein a loop is a sample of a performance that has been edited to repeat seamlessly without clicks or artifacts
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Educational Administration (AREA)
- Signal Processing (AREA)
- Evolutionary Computation (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Business, Economics & Management (AREA)
- Computational Linguistics (AREA)
- Educational Technology (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Electrophonic Musical Instruments (AREA)
- Auxiliary Devices For Music (AREA)
Description
橋本佳,高木信二「深層学習に基づく統計的音声合成」日本音響学会誌73巻1号(2017),pp.55-62
と置く)と、音響モデル(これを
と置く)とから、学習用音響特徴量系列614(これを
と置く)が生成される確率(これを
と置く)を最大にするような音響モデル
を、機械学習により推定する。即ち、テキストである楽器音特徴量系列と音声である音響特徴量系列との関係が、音響モデルという統計モデルによって表現される。
と置く)と、モデル学習部605での機械学習により学習結果615として設定された音響モデル
とに基づいて、音響特徴量データである音響特徴量系列617(これを再度
と置く)が生成される確率(これを
と置く)を最大にするような音響特徴量系列617の推定値
を推定する。
酒向慎司、才野慶二郎、南角吉彦、徳田恵一、北村正「声質と歌唱スタイルを自動学習可能な歌声合成システム」情報処理学会研究報告音楽情報科学(MUS)2008(12(2008-MUS-074)),pp.39-44,2008-02-08
はフレームtにおける音響特徴量、Tはフレーム数、
はHMM音響モデルの状態系列、
はフレームtにおけるHMM音響モデルの状態番号を表す。また、
は状態
から状態
への状態遷移確率を表し、
は平均ベクトル
、共分散行列
の正規分布であり、状態
の出力確率分布を表す。尤度最大化基準によるHMM音響モデルの学習は、期待値最大化(Expectation Maximization:EM)アルゴリズムを利用することで効率良く行われる。
)と、モデル学習部605での機械学習により学習結果615として設定された音響モデル(=
)とに基づいて、音響特徴量系列617(=
)が生成される確率(=
)を最大にするような音響特徴量系列617の推定値(=
)を推定する。ここで、前述した(2)式は、図7(b)の状態継続長モデルによって推定される状態系列
を用いることで、下記(4)式により近似される。
であり、
と
はそれぞれ状態
における平均ベクトルと共分散行列である。楽器音特徴量系列
を用い、学習済み音響モデル部606に設定された各決定木を辿ることにより、平均ベクトルと共分散行列が算出される。(4)式より、音響特徴量系列617の推定値(=
)は平均ベクトル(=
)によって得られるが、
は状態が遷移する部分で階段状に変化する不連続な系列となる。このような不連続な音響特徴量系列617から合成フィルタ部610が楽器音声出力データ217を合成した場合、自然性という観点からは低品質な合成楽器音声となってしまう。そこで、統計的音声合成処理の第1の実施例では、モデル学習部605において動的特徴量を考慮した学習結果615(モデルパラメータ)の生成アルゴリズムが採用されてよい。静的特徴量
と動的特徴量
からフレームtにおける音響特徴量系列(=
)が構成されるとき、各時刻の音響特徴量系列(=
)は、下記(5)式で示される。
は、動的特徴量を制約としながら出力確率が最大となる静的特徴量系列である。動的特徴量を考慮することで状態境界の不連続が解決され、滑らかに変化する音響特徴量系列617を得ることができ、合成フィルタ部610において、高品質な楽器音声出力データ217を生成することが可能となる。
と
はそれぞれt番目のフレームtにおける音響特徴量と
楽器音特徴量(音高+楽器の種類)、
は学習済み音響モデル部606のDNNの
モデルパラメータ、
はDNNによって表される非線形変換関数である。DNN
のモデルパラメータは誤差逆伝播法によって効率良く推定することができる。前述した(1)式によって表される統計的音声合成におけるモデル学習部605の処理との対応関係を考慮すると、DNNの学習は下記の(8)式のように表すことができる。
によって表すことができる。DNNを用いた統計的音声合成処理の第2の実施例では、通常、楽器音特徴量系列
に非依存な共分散行列、即ち全てのフレームにおいて同じ共分散行列
が用いられる。また、共分散行列
を単位行列とすると、(8)式は(7)式と等価な学習処理を示している。
・・・(10)
(付記1)
互いに異なる音高データにそれぞれ対応する複数の操作子と、
任意の音高データを入力することにより、或る演奏家による或る楽器演奏の音響特徴量を示す音響特徴量データを出力する学習済み音響モデルを記憶しているメモリと、
少なくとも1つのプロセッサと、
を含み、
前記少なくとも1つのプロセッサは、
前記複数の操作子のなかのいずれかの操作子へのユーザ操作に応じて、前記いずれかの操作子に対応する音高データを前記学習済み音響モデルに入力し、
入力に応じて前記学習済み音響モデルが出力した前記音響特徴量データに基づいて前記或る演奏家による前記或る楽器演奏を推論した楽器音声出力データを出力する、
電子楽器。
(付記2)
付記1に記載の電子楽器において、
前記学習済み音響モデルは、
或る演奏家による或る楽器の演奏結果を示す学習用楽器音声データと、前記学習用楽器音声データに応じた学習用音高データを含む学習用楽譜データと、を機械学習することにより得られた学習済み音響モデルである。
(付記3)
付記1または2に記載の電子楽器において、
前記楽器音声出力データは、ユーザが演奏していない演奏技法に応じた音を含む演奏表現音データを含む。
(付記4)
付記3に記載の電子楽器において、
前記演奏技法は、スラーを含むアーティキュレーションの演奏技法を含む。
(付記5)
付記1から4のいずれかに記載の電子楽器において、
前記少なくとも1つのプロセッサは、
第1ユーザ操作に応じて夫々タイミングが異なる複数の音高データのフレーズ第1データを前記学習済み音響モデルに第1入力し、
前記第1入力に応じて前記学習済み音響モデルが出力した音響特徴量データに基づいて前記或る演奏家による前記或る楽器のフレーズ第1演奏を推論した第1フレーズ楽器音声出力データを繰り返し第1出力し、
繰り返し出力しているときに、第2ユーザ操作に応じて夫々タイミングが異なる複数の音高データのフレーズ第2データを前記学習済み音響モデルに第2入力し、
前記第2入力に応じて前記学習済み音響モデルが出力した音響特徴量データに基づいて前記或る演奏家による前記或る楽器のフレーズ第2演奏を推論した第2フレーズ楽器音声出力データを、前記第1フレーズ楽器音声出力データの前記第1出力に重ね合わせて第2出力する。
(付記6)
付記5に記載の電子楽器において、
前記少なくとも1つのプロセッサは、
前記第1出力による前記第2フレーズ楽器音声出力データに含まれる各音それぞれの出力タイミングを、前記第1フレーズ楽器音声出力データの各音それぞれの出力タイミングに合うように、前記第2出力を調整する。
(付記7)
付記1から6のいずれかに記載の電子楽器において、
前記音響特徴量データは、前記或る楽器の共鳴部をモデル化したスペクトルデータと、前記或る楽器の振動源をモデル化した音源データと、を含み、
前記少なくとも1つのプロセッサは、
前記スペクトルデータと、前記音源データと、に基づいて、前記楽器音声出力データを出力する。
(付記8)
付記1から7のいずれかにに記載の電子楽器において、
前記学習済み音響モデルは、少なくともディープニューラルネットワーク及び隠れマルコフモデルのいずれかにより機械学習されている。
(付記9)
互いに異なる音高データにそれぞれ対応する複数の操作子と、
任意の音高データを入力することにより、或る演奏家による或る楽器演奏の音響特徴量を示す音響特徴量データを出力する学習済み音響モデルを記憶しているメモリと、
を備える電子楽器に、
前記複数の操作子のなかのいずれかの操作子へのユーザ操作に応じて、前記いずれかの操作子に対応する音高データを前記学習済み音響モデルに入力させ、
入力に応じて前記学習済み音響モデルが出力した前記音響特徴量データに基づいて前記或る演奏家による前記或る楽器演奏を推論した楽器音声出力データを出力させる、方法。
(付記10)
互いに異なる音高データにそれぞれ対応する複数の操作子と、
任意の音高データを入力することにより、或る演奏家による或る楽器演奏の音響特徴量を示す音響特徴量データを出力する学習済み音響モデルを記憶しているメモリと、
を備える電子楽器に、
前記複数の操作子のなかのいずれかの操作子へのユーザ操作に応じて、前記いずれかの操作子に対応する音高データを前記学習済み音響モデルに入力させ、
入力に応じて前記学習済み音響モデルが出力した前記音響特徴量データに基づいて前記或る演奏家による前記或る楽器演奏を推論した楽器音声出力データを出力させる、プログラム。
101 鍵盤
102 第1のスイッチパネル
103 第2のスイッチパネル
104 LCD
105 ペダル
200 制御システム
201 CPU
202 ROM
203 RAM
204 音源LSI
205 音声合成LSI
206 キースキャナ
208 LCDコントローラ
209 システムバス
210 タイマ
211 D/Aコンバータ
213、307 ミキサ
214 アンプ
215 音高データ
216 発音制御データ
217 楽器音声出力データ
218 楽音出力データ
219 ネットワークインタフェース
220 ルーパLSI
221 拍データ
222 ループ再生楽器音声出力データ
301、Area1 第1ループ記憶エリア
302、Area2 第2ループ記憶エリア
303 ループ録音部
304 ループ再生部
305 フレーズ遅延部305
306 拍抽出部
310 ループ再生音
311 ループ再生音遅延出力
600 サーバコンピュータ
601 音声学習部
602 音声合成部
604 学習用音響特徴量抽出部
605 モデル学習部
606 学習済み音響モデル部
608 発音モデル部
609 音源生成部
610 合成フィルタ部
611 学習用楽譜データ
612 学習用楽器音声データ
614 学習用音響特徴量系列
615 学習結果
617 音響特徴量系列
618 スペクトルデータ
619 音源データ
Claims (17)
- 演奏操作子と、
音高列と、前記音高列に対応した第1種類の演奏に係る特徴量との関係が学習されている学習済み音響モデルを記憶しているメモリと、
前記演奏操作子による演奏操作で指定される音高列のデータを前記学習済み音響モデルに入力し、前記入力に応じて前記学習済み音響モデルが出力した前記特徴量のデータに基づいて前記第1種類の演奏に対応した楽音データを出力する制御部と、
を備える電子楽器。 - 前記第1種類の演奏に係る特徴量は、或る演奏家による或る楽器の演奏に係る音響的な特徴量であり、
前記制御部は、入力された音高列のデータに応じて前記学習済み音響モデルが出力した特徴量のデータに基づいて、前記演奏操作子によって演奏されていない前記或る演奏家の演奏技法を含む演奏に対応した楽音データをデジタル合成し、出力する、
請求項1に記載の電子楽器。 - 前記第1種類の演奏に係る特徴量は、前記音高列に含まれる各音高の、発音タイミング、発音長、拍の強弱のうちの少なくとも1つを示す特徴量であり、
前記学習済み音響モデルは、各音高の、発音タイミング、発音長、拍の強弱のいずれのデータも含まない音高列のデータを入力し、各音高の、発音タイミング、発音長、拍の強弱のうちの少なくとも1つを示す特徴量のデータを出力し、
前記制御部は、前記学習済み音響モデルが出力した特徴量のデータに基づいて、各音高の、発音タイミング、発音長、拍の強弱のうちの少なくとも1つが調整された楽音データを出力する、
請求項1または2に記載の電子楽器。 - 前記第1種類の演奏に係る特徴量は、前記音高列に含まれる各音高の、発音タイミング、発音長、拍の強弱を示す特徴量であり、
前記学習済み音響モデルは、各音高の、発音タイミング、発音長、拍の強弱のうちの少なくとも1つを含まない音高列のデータを入力し、各音高の、発音タイミング、発音長、拍の強弱の全てを示す特徴量のデータを出力し、
前記制御部は、前記学習済み音響モデルが出力した特徴量のデータに基づいて、各音高の、発音タイミング、発音長、拍の強弱の全てが調整された楽音データを出力する、
請求項1から3のいずれかに記載の電子楽器。 - 前記学習済み音響モデルは、
或る演奏家による或る楽器の演奏結果を示す学習用楽器音声データと、前記学習用楽器音声データに応じた学習用音高データを含む学習用楽譜データと、を機械学習することにより得られた学習済み音響モデルである、
請求項1から4のいずれかに記載の電子楽器。 - 前記第1種類の演奏は、西洋の楽譜におけるシンボルであるスラーを含むアーティキュレーションズのなかの1つを少なくとも含む、
請求項1から5のいずれかに記載の電子楽器。 - 前記制御部は、
前記演奏操作子による第1ユーザ操作に応じて、第1タイミングから第2タイミングまでの複数の第1ノートを含む第1フレーズデータを取得し、
前記第1フレーズデータに対応する前記或る演奏家の演奏技法を含む第1サウンドデータの繰り返し出力を指示する、
請求項2または5に記載の電子楽器。 - 前記制御部は、
前記演奏操作子による第2ユーザ操作に応じて、第3タイミングから第4タイミングまでの複数の第2ノートを含む第2フレーズデータを取得し、
前記第2フレーズデータに対応する前記或る演奏家の前記演奏技法を含む第2サウンドデータの繰り返し出力を指示し、
前記第1サウンドデータと前記第2サウンドデータを重ね合わせて繰り返し出力させる、
請求項7に記載の電子楽器。 - ペダル操作子を更に含み、
前記制御部は、前記ペダル操作子へのユーザ操作に応じて、前記第1フレーズデータ又は前記第2フレーズデータを取得する、請求項8に記載の電子楽器。 - 前記制御部は、
前記第2フレーズデータにおける複数の第2ノートの各スタートタイミングを、前記第1サウンドデータにおける複数の第1ノートの、拍の先頭に必ずしも一致していない各スタートタイミングに、変更し、
前記第1サウンドデータの複数の第1ノートの各スタートタイミングに基づいて変更された前記第2サウンドデータを生成する、
請求項8又は9に記載の電子楽器。 - 前記制御部は、
前記第2フレーズデータにおける前記複数の第2ノートの各音長を、前記第1サウンドデータの前記複数の第1ノートの各音長に、変更し、
前記第2サウンドデータを、前記複数の第2ノートの少なくとも1音長に変更させる、
請求項10に記載の電子楽器。 - 前記制御部は、
前記演奏操作子による第1ユーザ操作に応じて夫々タイミングが異なる複数の音高データのフレーズ第1データを前記学習済み音響モデルに第1入力し、
前記第1入力に応じて前記学習済み音響モデルが出力した音響特徴量データに基づいて前記或る演奏家による前記或る楽器のフレーズ第1演奏を推論した第1フレーズ楽器音声出力データを繰り返し第1出力し、
繰り返し出力しているときに、第2ユーザ操作に応じて夫々タイミングが異なる複数の音高データのフレーズ第2データを前記学習済み音響モデルに第2入力し、
前記第2入力に応じて前記学習済み音響モデルが出力した音響特徴量データに基づいて前記或る演奏家による前記或る楽器のフレーズ第2演奏を推論した第2フレーズ楽器音声出力データを、前記第1フレーズ楽器音声出力データの前記第1出力に重ね合わせて第2出力する、
請求項2または5に記載の電子楽器。 - 前記制御部は、
前記第1出力による前記第2フレーズ楽器音声出力データに含まれる各音それぞれの出力タイミングを、前記第1フレーズ楽器音声出力データの各音それぞれの出力タイミングに合うように、前記第2出力を調整する、
請求項12に記載の電子楽器。 - 前記音響特徴量データは、前記或る楽器の共鳴部をモデル化したスペクトルデータと、
前記或る楽器の振動源をモデル化した音源データと、を含み、
前記制御部は、
前記スペクトルデータと、前記音源データと、に基づいて、前記楽器音声出力データを出力する、
請求項12または13に記載の電子楽器。 - 前記学習済み音響モデルは、少なくともディープニューラルネットワーク及び隠れマルコフモデルのいずれかにより機械学習されている、
請求項1から14のいずれかに記載の電子楽器。 - 演奏操作子と、音高列と、前記音高列に対応した第1種類の演奏に係る特徴量との関係が学習されている学習済み音響モデルを記憶しているメモリと、を備える電子楽器が、
前記演奏操作子による演奏操作で指定される音高列のデータを前記学習済み音響モデルに入力し、前記入力に応じて前記学習済み音響モデルが出力した前記特徴量のデータに基づいて前記第1種類の演奏に対応した楽音データを出力する処理を実行する、電子楽器の制御方法。 - 演奏操作子と、音高列と、前記音高列に対応した第1種類の演奏に係る特徴量との関係が学習されている学習済み音響モデルを記憶しているメモリと、を備える電子楽器に、
前記演奏操作子による演奏操作で指定される音高列のデータを前記学習済み音響モデルに入力し、前記入力に応じて前記学習済み音響モデルが出力した前記特徴量のデータに基づいて前記第1種類の演奏に対応した楽音データを出力する処理を実行させる、プログラム。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019096779A JP7143816B2 (ja) | 2019-05-23 | 2019-05-23 | 電子楽器、電子楽器の制御方法、及びプログラム |
PCT/JP2020/019525 WO2020235506A1 (ja) | 2019-05-23 | 2020-05-15 | 電子楽器、電子楽器の制御方法、記憶媒体 |
US17/611,621 US12254854B2 (en) | 2019-05-23 | 2020-05-15 | Electronic musical instrument, control method for electronic musical instrument, and storage medium |
CN202080038164.7A CN113874932A (zh) | 2019-05-23 | 2020-05-15 | 电子乐器、电子乐器的控制方法及存储介质 |
EP20809872.3A EP3975167A4 (en) | 2019-05-23 | 2020-05-15 | Electronic musical instrument, control method for electronic musical instrument, and storage medium |
JP2022146086A JP7476934B2 (ja) | 2019-05-23 | 2022-09-14 | 電子楽器、電子楽器の制御方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019096779A JP7143816B2 (ja) | 2019-05-23 | 2019-05-23 | 電子楽器、電子楽器の制御方法、及びプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022146086A Division JP7476934B2 (ja) | 2019-05-23 | 2022-09-14 | 電子楽器、電子楽器の制御方法、及びプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020190676A JP2020190676A (ja) | 2020-11-26 |
JP2020190676A5 JP2020190676A5 (ja) | 2021-01-28 |
JP7143816B2 true JP7143816B2 (ja) | 2022-09-29 |
Family
ID=73453689
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019096779A Active JP7143816B2 (ja) | 2019-05-23 | 2019-05-23 | 電子楽器、電子楽器の制御方法、及びプログラム |
JP2022146086A Active JP7476934B2 (ja) | 2019-05-23 | 2022-09-14 | 電子楽器、電子楽器の制御方法、及びプログラム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022146086A Active JP7476934B2 (ja) | 2019-05-23 | 2022-09-14 | 電子楽器、電子楽器の制御方法、及びプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US12254854B2 (ja) |
EP (1) | EP3975167A4 (ja) |
JP (2) | JP7143816B2 (ja) |
CN (1) | CN113874932A (ja) |
WO (1) | WO2020235506A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10741155B2 (en) | 2013-12-06 | 2020-08-11 | Intelliterran, Inc. | Synthesized percussion pedal and looping station |
US9905210B2 (en) * | 2013-12-06 | 2018-02-27 | Intelliterran Inc. | Synthesized percussion pedal and docking station |
JP7143816B2 (ja) * | 2019-05-23 | 2022-09-29 | カシオ計算機株式会社 | 電子楽器、電子楽器の制御方法、及びプログラム |
JP2022046904A (ja) * | 2020-09-11 | 2022-03-24 | ローランド株式会社 | 電子楽器、録音再生プログラム及び録音再生方法 |
US12008048B2 (en) * | 2021-01-04 | 2024-06-11 | Oracle International Corporation | Drill back to original audio clip in virtual assistant initiated lists and reminders |
JP7571804B2 (ja) | 2021-02-10 | 2024-10-23 | ヤマハ株式会社 | 情報処理システム、電子楽器、情報処理方法および機械学習システム |
FR3130436B1 (fr) * | 2021-12-15 | 2024-06-07 | Meije | Piano numérique à stockage distant |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001290474A (ja) | 2000-04-06 | 2001-10-19 | Japan Science & Technology Corp | 音楽情報解析装置、音楽情報解析方法及び音楽情報解析プログラムを記録した記録媒体 |
US20020194984A1 (en) | 2001-06-08 | 2002-12-26 | Francois Pachet | Automatic music continuation method and device |
WO2018016581A1 (ja) | 2016-07-22 | 2018-01-25 | ヤマハ株式会社 | 楽曲データ処理方法およびプログラム |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4241636A (en) * | 1978-12-28 | 1980-12-30 | Christopher Long | Electronic musical instrument |
US5488196A (en) * | 1994-01-19 | 1996-01-30 | Zimmerman; Thomas G. | Electronic musical re-performance and editing system |
JPH0869283A (ja) * | 1994-08-29 | 1996-03-12 | Imeeji Joho Kagaku Kenkyusho | 音楽セッション装置およびシステム |
JP3144273B2 (ja) * | 1995-08-04 | 2001-03-12 | ヤマハ株式会社 | 自動歌唱装置 |
EP0858650B1 (en) * | 1995-10-23 | 2003-08-13 | The Regents Of The University Of California | Control structure for sound synthesis |
JP2007034115A (ja) * | 2005-07-29 | 2007-02-08 | Sanyo Electric Co Ltd | 楽曲演奏装置および楽曲演奏システム |
CN102317991A (zh) * | 2009-01-21 | 2012-01-11 | 缪莎有限公司 | 用于演奏音乐的教学的基于计算机的系统 |
JP5293460B2 (ja) * | 2009-07-02 | 2013-09-18 | ヤマハ株式会社 | 歌唱合成用データベース生成装置、およびピッチカーブ生成装置 |
CN103258529B (zh) * | 2013-04-16 | 2015-09-16 | 初绍军 | 一种电子乐器、音乐演奏方法 |
JP5983573B2 (ja) * | 2013-09-20 | 2016-08-31 | カシオ計算機株式会社 | 演奏練習装置、方法、およびプログラム |
JP6187132B2 (ja) * | 2013-10-18 | 2017-08-30 | ヤマハ株式会社 | スコアアライメント装置及びスコアアライメントプログラム |
US9721551B2 (en) * | 2015-09-29 | 2017-08-01 | Amper Music, Inc. | Machines, systems, processes for automated music composition and generation employing linguistic and/or graphical icon based musical experience descriptions |
JP6720798B2 (ja) * | 2016-09-21 | 2020-07-08 | ヤマハ株式会社 | 演奏教習装置、演奏教習プログラム、および演奏教習方法 |
JP2017107228A (ja) | 2017-02-20 | 2017-06-15 | 株式会社テクノスピーチ | 歌声合成装置および歌声合成方法 |
JP6465136B2 (ja) * | 2017-03-24 | 2019-02-06 | カシオ計算機株式会社 | 電子楽器、方法、及びプログラム |
JP6708179B2 (ja) * | 2017-07-25 | 2020-06-10 | ヤマハ株式会社 | 情報処理方法、情報処理装置およびプログラム |
JP6913614B2 (ja) | 2017-11-24 | 2021-08-04 | 京セラ株式会社 | コンデンサ |
JP6587007B1 (ja) * | 2018-04-16 | 2019-10-09 | カシオ計算機株式会社 | 電子楽器、電子楽器の制御方法、及びプログラム |
JP6547878B1 (ja) * | 2018-06-21 | 2019-07-24 | カシオ計算機株式会社 | 電子楽器、電子楽器の制御方法、及びプログラム |
JP6610714B1 (ja) * | 2018-06-21 | 2019-11-27 | カシオ計算機株式会社 | 電子楽器、電子楽器の制御方法、及びプログラム |
JP6610715B1 (ja) * | 2018-06-21 | 2019-11-27 | カシオ計算機株式会社 | 電子楽器、電子楽器の制御方法、及びプログラム |
JP7143816B2 (ja) * | 2019-05-23 | 2022-09-29 | カシオ計算機株式会社 | 電子楽器、電子楽器の制御方法、及びプログラム |
JP6835182B2 (ja) * | 2019-10-30 | 2021-02-24 | カシオ計算機株式会社 | 電子楽器、電子楽器の制御方法、及びプログラム |
JP7088159B2 (ja) * | 2019-12-23 | 2022-06-21 | カシオ計算機株式会社 | 電子楽器、方法及びプログラム |
JP7424468B2 (ja) * | 2020-03-17 | 2024-01-30 | ヤマハ株式会社 | パラメータ推論方法、パラメータ推論システム、及びパラメータ推論プログラム |
JP7276292B2 (ja) * | 2020-09-11 | 2023-05-18 | カシオ計算機株式会社 | 電子楽器、電子楽器の制御方法、及びプログラム |
JP2023077128A (ja) * | 2021-11-24 | 2023-06-05 | ヤマハ株式会社 | 楽曲推論装置、楽曲推論方法、楽曲推論プログラム、モデル生成装置、モデル生成方法、及びモデル生成プログラム |
-
2019
- 2019-05-23 JP JP2019096779A patent/JP7143816B2/ja active Active
-
2020
- 2020-05-15 WO PCT/JP2020/019525 patent/WO2020235506A1/ja unknown
- 2020-05-15 US US17/611,621 patent/US12254854B2/en active Active
- 2020-05-15 EP EP20809872.3A patent/EP3975167A4/en active Pending
- 2020-05-15 CN CN202080038164.7A patent/CN113874932A/zh active Pending
-
2022
- 2022-09-14 JP JP2022146086A patent/JP7476934B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001290474A (ja) | 2000-04-06 | 2001-10-19 | Japan Science & Technology Corp | 音楽情報解析装置、音楽情報解析方法及び音楽情報解析プログラムを記録した記録媒体 |
US20020194984A1 (en) | 2001-06-08 | 2002-12-26 | Francois Pachet | Automatic music continuation method and device |
WO2018016581A1 (ja) | 2016-07-22 | 2018-01-25 | ヤマハ株式会社 | 楽曲データ処理方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN113874932A (zh) | 2021-12-31 |
US20220238088A1 (en) | 2022-07-28 |
WO2020235506A1 (ja) | 2020-11-26 |
JP2020190676A (ja) | 2020-11-26 |
EP3975167A4 (en) | 2023-02-01 |
US12254854B2 (en) | 2025-03-18 |
JP2022168269A (ja) | 2022-11-04 |
EP3975167A1 (en) | 2022-03-30 |
JP7476934B2 (ja) | 2024-05-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7143816B2 (ja) | 電子楽器、電子楽器の制御方法、及びプログラム | |
CN110634460B (zh) | 电子乐器、电子乐器的控制方法以及存储介质 | |
CN110634461B (zh) | 电子乐器、电子乐器的控制方法以及存储介质 | |
CN110634464B (zh) | 电子乐器、电子乐器的控制方法以及存储介质 | |
CN110390923B (zh) | 电子乐器、电子乐器的控制方法以及存储介质 | |
CN111696498B (zh) | 键盘乐器以及键盘乐器的计算机执行的方法 | |
CN113160779A (zh) | 电子乐器、方法及存储介质 | |
JP6835182B2 (ja) | 電子楽器、電子楽器の制御方法、及びプログラム | |
JP7259817B2 (ja) | 電子楽器、方法及びプログラム | |
CN113160780B (zh) | 电子乐器、方法及存储介质 | |
JP2023118866A (ja) | 電子楽器、方法及びプログラム | |
JP6766935B2 (ja) | 電子楽器、電子楽器の制御方法、及びプログラム | |
JP7578156B2 (ja) | 電子楽器、電子楽器の制御方法、及びプログラム | |
JP6819732B2 (ja) | 電子楽器、電子楽器の制御方法、及びプログラム | |
JP6801766B2 (ja) | 電子楽器、電子楽器の制御方法、及びプログラム | |
JP2022145465A (ja) | 情報処理装置、電子楽器、情報処理システム、情報処理方法、及びプログラム | |
JP2022065554A (ja) | 音声合成方法およびプログラム | |
JP7618983B2 (ja) | 電子楽器、電子楽器の制御方法、及びプログラム | |
WO2022080395A1 (ja) | 音声合成方法およびプログラム | |
JP7158331B2 (ja) | カラオケ装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201209 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220125 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220323 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220816 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220829 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7143816 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |