JP6547878B1 - 電子楽器、電子楽器の制御方法、及びプログラム - Google Patents
電子楽器、電子楽器の制御方法、及びプログラム Download PDFInfo
- Publication number
- JP6547878B1 JP6547878B1 JP2018118057A JP2018118057A JP6547878B1 JP 6547878 B1 JP6547878 B1 JP 6547878B1 JP 2018118057 A JP2018118057 A JP 2018118057A JP 2018118057 A JP2018118057 A JP 2018118057A JP 6547878 B1 JP6547878 B1 JP 6547878B1
- Authority
- JP
- Japan
- Prior art keywords
- information
- sound
- singing voice
- data
- pitch
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 124
- 230000008569 process Effects 0.000 claims abstract description 109
- 238000012545 processing Methods 0.000 claims abstract description 89
- 238000001228 spectrum Methods 0.000 claims abstract description 29
- 238000010801 machine learning Methods 0.000 claims abstract description 12
- 230000000694 effects Effects 0.000 claims description 94
- 230000001755 vocal effect Effects 0.000 claims description 51
- 230000003595 spectral effect Effects 0.000 claims description 17
- 210000001260 vocal cord Anatomy 0.000 claims description 9
- 229910001369 Brass Inorganic materials 0.000 claims description 7
- 241001465754 Metazoa Species 0.000 claims description 7
- 239000010951 brass Substances 0.000 claims description 7
- 210000000056 organ Anatomy 0.000 claims description 7
- 230000015572 biosynthetic process Effects 0.000 abstract description 120
- 238000003786 synthesis reaction Methods 0.000 abstract description 120
- 230000004044 response Effects 0.000 abstract description 3
- 239000011295 pitch Substances 0.000 description 81
- 238000004458 analytical method Methods 0.000 description 19
- 230000008859 change Effects 0.000 description 16
- 238000003066 decision tree Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 12
- 238000001308 synthesis method Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 7
- 239000011159 matrix material Substances 0.000 description 7
- 238000000605 extraction Methods 0.000 description 5
- 230000002194 synthesizing effect Effects 0.000 description 5
- 230000002123 temporal effect Effects 0.000 description 5
- 230000007423 decrease Effects 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 230000000994 depressogenic effect Effects 0.000 description 2
- 230000005284 excitation Effects 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 230000033764 rhythmic process Effects 0.000 description 2
- 238000013179 statistical model Methods 0.000 description 2
- KNMAVSAGTYIFJF-UHFFFAOYSA-N 1-[2-[(2-hydroxy-3-phenoxypropyl)amino]ethylamino]-3-phenoxypropan-2-ol;dihydrochloride Chemical compound Cl.Cl.C=1C=CC=CC=1OCC(O)CNCCNCC(O)COC1=CC=CC=C1 KNMAVSAGTYIFJF-UHFFFAOYSA-N 0.000 description 1
- 206010011469 Crying Diseases 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H7/00—Instruments in which the tones are synthesised from a data store, e.g. computer organs
- G10H7/008—Means for controlling the transition from one tone waveform to another
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10G—REPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
- G10G3/00—Recording music in notation form, e.g. recording the mechanical operation of a musical instrument
- G10G3/04—Recording music in notation form, e.g. recording the mechanical operation of a musical instrument using electrical means
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0091—Means for obtaining special acoustic effects
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/02—Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos
- G10H1/06—Circuits for establishing the harmonic content of tones, or other arrangements for changing the tone colour
- G10H1/12—Circuits for establishing the harmonic content of tones, or other arrangements for changing the tone colour by filtering complex waveforms
- G10H1/125—Circuits for establishing the harmonic content of tones, or other arrangements for changing the tone colour by filtering complex waveforms using a digital filter
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/361—Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
- G10H1/366—Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems with means for modifying or correcting the external signal, e.g. pitch correction, reverberation, changing a singer's voice
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H7/00—Instruments in which the tones are synthesised from a data store, e.g. computer organs
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/033—Voice editing, e.g. manipulating the voice of the synthesiser
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/005—Musical accompaniment, i.e. complete instrumental rhythm synthesis added to a performed melody, e.g. as output by drum machines
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/091—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/155—Musical effects
- G10H2210/161—Note sequence effects, i.e. sensing, altering, controlling, processing or synthesising a note trigger selection or sequence, e.g. by altering trigger timing, triggered note values, adding improvisation or ornaments or also rapid repetition of the same note onset
- G10H2210/191—Tremolo, tremulando, trill or mordent effects, i.e. repeatedly alternating stepwise in pitch between two note pitches or chords, without any portamento between the two notes
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/155—Musical effects
- G10H2210/195—Modulation effects, i.e. smooth non-discontinuous variations over a time interval, e.g. within a note, melody or musical transition, of any sound parameter, e.g. amplitude, pitch, spectral response or playback speed
- G10H2210/201—Vibrato, i.e. rapid, repetitive and smooth variation of amplitude, pitch or timbre within a note or chord
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/155—Musical effects
- G10H2210/195—Modulation effects, i.e. smooth non-discontinuous variations over a time interval, e.g. within a note, melody or musical transition, of any sound parameter, e.g. amplitude, pitch, spectral response or playback speed
- G10H2210/231—Wah-wah spectral modulation, i.e. tone color spectral glide obtained by sweeping the peak of a bandpass filter up or down in frequency, e.g. according to the position of a pedal, by automatic modulation or by voice formant detection; control devices therefor, e.g. wah pedals for electric guitars
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/005—Non-interactive screen display of musical or status data
- G10H2220/011—Lyrics displays, e.g. for karaoke applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/005—Algorithms for electrophonic musical instruments or musical processing, e.g. for automatic composition or resource allocation
- G10H2250/015—Markov chains, e.g. hidden Markov models [HMM], for musical processing, e.g. musical analysis or musical composition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/311—Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/315—Sound category-dependent sound synthesis processes [Gensound] for musical use; Sound category-specific synthesis-controlling parameters or control means therefor
- G10H2250/455—Gensound singing voices, i.e. generation of human voices for musical applications, vocal singing sounds or intelligible words at a desired pitch or with desired vocal effects, e.g. by phoneme synthesis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/541—Details of musical waveform synthesis, i.e. audio waveshape processing from individual wavetable samples, independently of their origin or of the sound they represent
- G10H2250/621—Waveform interpolation
- G10H2250/625—Interwave interpolation, i.e. interpolating between two different waveforms, e.g. timbre or pitch or giving one waveform the shape of another while preserving its frequency or vice versa
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Electrophonic Musical Instruments (AREA)
- Auxiliary Devices For Music (AREA)
Abstract
Description
橋本佳,高木信二「深層学習に基づく統計的音声合成」日本音響学会誌73巻1号(2017),pp.55−62
と置く)と、音響モデル(これを
と置く)とから、学習用音響特徴量系列314(これを
と置く)が生成される確率(これを
と置く)を最大にするような音響モデル
を、機械学習により推定する。即ち、テキストである言語特徴量系列と音声である音響特徴量系列との関係が、音響モデルという統計モデルによって表現される。
は、その右側に記載される関数に関して最大値を与える、その下側に記載されている引数を算出する演算を示す。
を表現するモデルパラメータを学習結果315として出力する。
と置く)と、モデル学習部305での機械学習により学習結果315として設定された音響モデル
とに基づいて、音響特徴量系列317(これを再度
と置く)が生成される確率(これを
と置く)を最大にするような音響特徴量系列317の推定値
を推定する。
演奏者はスイッチパネル102等の入力操作子(選択操作子)を操作することにより複数の楽器音のなかから使用する楽器音を選択することができる。
本発明の一実施例である電子楽器は、演奏者が図1の第1のスイッチパネル102の操作でボコーダモードのオン(第1のモード)/オフ(第2のモード)を切り換えるだけで、歌い手の歌い方を推論した歌声データを出力する第1のモードと、歌い方の特徴が反映されている複数の歌声データを出力する第2のモードと、を簡単に切り替えることができる。また、本発明の一実施例である電子楽器は、いずれのモードの歌声も簡単に生成して出力することができる。すなわち本発明によれば、様々な歌声を簡単に生成して出力できるので、演奏者はより演奏を楽しむことができる。
<特許文献2>
特開平06−167976号公報
<特許文献3>
特開平07−199931号公報
<特許文献4>
特開平07−028471号公報
<特許文献5>
特開平05−006173号公報
なお、設定された時間(たとえば、数百ミリ秒)、第2鍵に対する押鍵を検出しない場合に、音響効果の付加を終了する。
酒向慎司、才野慶二郎、南角吉彦、徳田恵一、北村正「声質と歌唱スタイルを自動学習可能な歌声合成システム」情報処理学会研究報告音楽情報科学(MUS)2008(12(2008−MUS−074)),pp.39−44,2008−02−08
はフレームtにおける音響特徴量、Tはフレーム数、
はHMM音響モデルの状態系列、
はフレームtにおけるHMM音響モデルの状態番号を表す。また、
は状態
から状態
への状態遷移確率を表し、
は平均ベクトル
、共分散行列
の正規分布であり、状態
の出力確率分布を表す。尤度最大化基準によるHMM音響モデルの学習は、期待値最大化(Expectation Maximization:EM)アルゴリズムを利用することで効率良く行われる。
)と、モデル学習部305での機械学習により学習結果315として設定された音響モデル(=
)とに基づいて、音響特徴量系列317(=
)が生成される確率(=
)を最大にするような音響特徴量系列317の推定値(=
)を推定する。ここで、前述した(2)式は、図4(b)の状態継続長モデルによって推定される状態系列
を用いることで、下記(4)式により近似される。
であり、
と
はそれぞれ状態
における平均ベクトルと共分散行列である。言語特徴量系列
を用い、音響モデル部306に設定された各決定木を辿ることにより、平均ベクトルと共分散行列が算出される。(4)式より、音響特徴量系列317の推定値(=
)は平均ベクトル(=
)によって得られるが、
は状態が遷移する部分で階段状に変化する不連続な系列となる。このような不連続な音響特徴量系列317から合成フィルタ部310が歌声音声出力データ321を合成した場合、自然性という観点からは低品質な合成音声となってしまう。そこで、統計的音声合成処理の第1の実施形態では、モデル学習部305において動的特徴量を考慮した学習結果315(モデルパラメータ)の生成アルゴリズムが採用されてよい。静的特徴量
と動的特徴量
からフレームtにおける音響特徴量系列(=
)が構成されるとき、各時刻の音響特徴量系列(=
)は、下記(5)式で示される。
は静的特徴量系列
から動的特徴量を含む音響特徴量系列
を求める行列である。モデル学習部305は、上述の(5)式を制約として前述の(4)式を、下記(6)式に示されるように解く。
は、動的特徴量を制約としながら出力確率が最大となる静的特徴量系列である。動的特徴量を考慮することで状態境界の不連続が解決され、滑らかに変化する音響特徴量系列317を得ることができ、合成フィルタ部310において、高品質な歌声音声出力データ321を生成することが可能となる。
と
はそれぞれt番目のフレームtにおける音響特徴量と言語特徴量、
は音響モデル部306のDNNのモデルパラメータ、
はDNNによって表される非線形変換関数である。DNNのモデルパラメータは誤差逆伝播法によって効率良く推定することができる。前述した(1)式によって表される統計的音声合成におけるモデル学習部305の処理との対応関係を考慮すると、DNNの学習は下記の(8)式のように表すことができる。
によって表すことができる。DNNを用いた統計的音声合成処理の第2の実施形態では、通常、言語特徴量系列
に非依存な共分散行列、即ち全てのフレームにおいて同じ共分散行列
が用いられる。また、共分散行列
を単位行列とすると、(8)式は(7)式と等価な学習処理を示している。
(付記1)
各音高情報がそれぞれ対応付けられている複数の操作子と、
学習用歌詞情報及び学習用音高情報を含む学習用楽譜データと、歌い手の学習用歌声データと、を用いた機械学習処理により学習させた学習済み音響モデルであって、歌わせる歌詞情報と、音高情報と、を入力することにより、前記歌い手の声道をモデル化したスペクトル情報と、前記歌い手の声帯をモデル化した音源情報と、を出力する学習済み音響モデルを記憶しているメモリと、
プロセッサと、
を含み、
前記プロセッサは、
第1モードが選択されている際に、前記複数の操作子のなかのいずれかの操作子への操作に応じて、前記学習済み音響モデルに対して、前記歌詞情報と、前記いずれかの操作子に対応付けられている音高情報と、を入力するとともに、前記入力に応じて前記学習済み音響モデルから出力された前記スペクトル情報と、前記いずれかの操作子に対応付けられている音高情報に応じた楽器音波形データと、に基づいて前記歌い手の歌声を推論した第1楽器音使用推論歌声データを出力する楽器音使用推論歌声データ出力処理、
を実行し、
第2モードが選択されている際に、前記複数の操作子のなかのいずれかの操作子への操作に応じて、前記学習済み音響モデルに対して、前記歌詞情報と、前記いずれかの操作子に対応付けられている音高情報と、を入力するとともに、前記入力に応じて前記学習済み音響モデルから出力された前記スペクトル情報と、前記音源情報と、に基づいて前記歌い手の歌声を推論した第1音源情報使用推論歌声データを出力する音源情報使用推論歌声データ出力処理、
を実行する電子楽器。
(付記2)
付記1に記載の電子楽器において、
前記複数の操作子は、操作された前記いずれかの操作子としての第1操作子と、前記第1操作子からみて設定された条件を満たす第2操作子と、を含み、
前記楽器音使用推論歌声データ出力処理により前記第1楽器音使用推論歌声データが出力されている際に、前記第1操作子への操作が継続している状態で前記第2操作子が繰り返し操作された場合に、前記第1楽器音使用推論歌声データに対して少なくともビブラート、トレモロ及びワウワウのいずれかのエフェクトをかける第1モードエフェクト処理、
を実行し、
前記音源情報使用推論歌声データ出力処理により前記第1音源情報使用推論歌声データが出力されている際に、前記第1操作子への操作が継続している状態で前記第2操作子が繰り返し操作された場合に、前記第1音源情報使用推論歌声データに対して少なくともビブラート、トレモロ及びワウワウのいずれかのエフェクトをかける第2モードエフェクト処理、
を実行する。
(付記3)
付記2に記載の電子楽器において、
前記第1モードエフェクト処理及び第2モードエフェクト処理は、前記第1操作子に対応付けられている音高情報が示す音高と、前記第2操作子に対応付けられている音高情報が示す音高と、の音高差に応じて前記エフェクトの程度をそれぞれ変更している。
(付記4)
付記1から付記3のいずれかに記載の電子楽器において、
前記複数の操作子は、操作された前記いずれかの操作子としての第3操作子と、第4操作子と、を含み、
前記第1モードと前記第2モードとを切り換える切替操作子、を有し、
前記楽器音使用推論歌声データ出力処理は、前記切替操作子の操作により前記第1モードが選択されている際に、前記第3操作子及び前記第4操作子が同時に操作されている場合、前記第3操作子及び前記第4操作子にそれぞれ対応付けられている各音高情報に応じた各楽器音波形データに基づいて、前記歌い手の歌声を推論した複数の前記第1楽器音使用推論歌声データをそれぞれ出力し、
前記音源情報使用推論歌声データ出力処理は、前記切替操作子の操作により前記第2モードが選択されている際に、前記第3操作子及び前記第4操作子が同時に操作されている場合、前記第3操作子及び前記第4操作子のいずれかに対応付けられている音高情報に応じて前記歌い手の声帯をモデル化した音源情報に基づいて、前記歌い手の歌声を推論した前記第1音源情報使用推論歌声データを出力する。
(付記5)
付記1から付記4のいずれかに記載の電子楽器において、
少なくともブラス音、ストリング音、オルガン音、及び動物の鳴き声のいずれかを含む複数の楽器音のなかから前記ブラス音、前記ストリング音、前記オルガン音、及び前記動物の鳴き声のうちのいずれかの楽器音を選択させる選択操作子、
を有し、
前記楽器音使用推論歌声データ出力処理は、前記第1モードが選択されている際に、前記選択操作子により選択された楽器音に応じた前記楽器音波形データに基づいて、前記歌い手の歌声を推論した前記第1楽器音使用推論歌声データを出力する。
(付記6)
付記1から付記5のいずれかに記載の電子楽器において、
前記メモリは、メロディデータと、自動演奏させる伴奏データと、を有する曲データを記憶しており、
前記メロディデータは、各音高情報と、前記各音高情報に応じた音を出力する各タイミング情報と、前記各音高情報に対応付けられている各歌詞情報と、を含み、
前記プロセッサは、
前記伴奏データに基づいて発音部に発音させる伴奏データ自動演奏処理と、
前記学習済み音響モデルに対して、操作された前記いずれかの操作子に対応付けられている音高情報を入力する代わりに、前記メロディデータに含まれる音高情報を入力するとともに、前記メロディデータに含まれる歌詞情報を入力する入力処理と、
を実行し、
前記楽器音使用推論歌声データ出力処理は、前記メロディデータに含まれるタイミング情報が示すタイミングに応じて前記複数の操作子のなかのいずれの操作子も演奏者に操作されなかった場合に、前記入力処理に応じて前記学習済み音響モデルから出力された前記スペクトル情報と、前記入力処理により入力された前記メロディデータに含まれる音高情報に応じた楽器音波形データと、に基づいて、前記歌い手の歌声を推論した第2楽器音使用推論歌声データを、前記メロディデータに含まれるタイミング情報が示すタイミングに合わせて出力し、
前記音源情報使用推論歌声データ出力処理は、前記メロディデータに含まれる音高情報に応じた音を出力するタイミング情報が示すタイミングに応じて前記複数の操作子のなかのいずれの操作子も演奏者に操作されなかった場合に、前記入力処理に応じて前記学習済み音響モデルから出力された前記スペクトル情報と、前記音源情報と、に基づいて、前記歌い手の歌声を推論した第2音源情報使用推論歌声データを、前記メロディデータに含まれるタイミング情報が示すタイミングに合わせて出力する。
(付記7)
各音高情報がそれぞれ対応付けられている複数の操作子と、
学習用歌詞情報及び学習用音高情報を含む学習用楽譜データと、歌い手の学習用歌声データと、を用いた機械学習処理により学習させた学習済み音響モデルであって、歌わせる歌詞情報と、音高情報と、を入力することにより、前記歌い手の声道をモデル化したスペクトル情報と、前記歌い手の声帯をモデル化した音源情報と、を出力する学習済み音響モデルを記憶しているメモリと、
を含む電子楽器のコンピュータに、
第1モードが選択されている際に、前記複数の操作子のなかのいずれかの操作子への操作に応じて、前記学習済み音響モデルに対して、前記歌詞情報と、前記いずれかの操作子に対応付けられている音高情報と、を入力するとともに、前記入力に応じて前記学習済み音響モデルから出力された前記スペクトル情報と、前記いずれかの操作子に対応付けられている音高情報に応じた楽器音波形データと、に基づいて前記歌い手の歌声を推論した第1楽器音使用推論歌声データを出力する楽器音使用推論歌声データ出力処理、
を実行させ、
第2モードが選択されている際に、前記複数の操作子のなかのいずれかの操作子への操作に応じて、前記学習済み音響モデルに対して、前記歌詞情報と、前記いずれかの操作子に対応付けられている音高情報と、を入力するとともに、前記入力に応じて前記学習済み音響モデルから出力された前記スペクトル情報と、前記音源情報と、に基づいて前記歌い手の歌声を推論した第1音源情報使用推論歌声データを出力する音源情報使用推論歌声データ出力処理、
を実行させる方法。
(付記8)
各音高情報がそれぞれ対応付けられている複数の操作子と、
学習用歌詞情報及び学習用音高情報を含む学習用楽譜データと、歌い手の学習用歌声データと、を用いた機械学習処理により学習させた学習済み音響モデルであって、歌わせる歌詞情報と、音高情報と、を入力することにより、前記歌い手の声道をモデル化したスペクトル情報と、前記歌い手の声帯をモデル化した音源情報と、を出力する学習済み音響モデルを記憶しているメモリと、
を含む電子楽器のコンピュータに、
第1モードが選択されている際に、前記複数の操作子のなかのいずれかの操作子への操作に応じて、前記学習済み音響モデルに対して、前記歌詞情報と、前記いずれかの操作子に対応付けられている音高情報と、を入力するとともに、前記入力に応じて前記学習済み音響モデルから出力された前記スペクトル情報と、前記いずれかの操作子に対応付けられている音高情報に応じた楽器音波形データと、に基づいて前記歌い手の歌声を推論した第1楽器音使用推論歌声データを出力する楽器音使用推論歌声データ出力処理、
を実行させ、
第2モードが選択されている際に、前記複数の操作子のなかのいずれかの操作子への操作に応じて、前記学習済み音響モデルに対して、前記歌詞情報と、前記いずれかの操作子に対応付けられている音高情報と、を入力するとともに、前記入力に応じて前記学習済み音響モデルから出力された前記スペクトル情報と、前記音源情報と、に基づいて前記歌い手の歌声を推論した第1音源情報使用推論歌声データを出力する音源情報使用推論歌声データ出力処理、
を実行させるプログラム。
101 鍵盤
102 第1のスイッチパネル
103 第2のスイッチパネル
104 LCD
200 制御システム
201 CPU
202 ROM
203 RAM
204 音源LSI
205 音声合成LSI
206 キースキャナ
208 LCDコントローラ
209 システムバス
210 タイマ
211、212 D/Aコンバータ
213 ミキサ
214 アンプ
215 歌声データ
216 発音制御データ
217、321 歌声音声出力データ
218 楽音出力データ
219 ネットワークインタフェース
220 発声音源用楽音出力データ
300 サーバコンピュータ
301 音声学習部
302 音声合成部
303 学習用テキスト解析部
304 学習用音響特徴量抽出
305 モデル学習部
306 音響モデル部
307 テキスト解析部
308 発声モデル部
309 音源生成部
310 合成フィルタ部
311 学習用歌声データ
312 学習用歌声音声データ
313 学習用言語特徴量系列
314 学習用音響特徴量系列
315 学習結果
316 言語情報量系列
317 音響特徴量系列
318 スペクトル情報
319 音源情報
320 ボコーダモードスイッチ
322 音響効果付加部
Claims (8)
- 各音高情報がそれぞれ対応付けられている複数の操作子と、
学習用歌詞情報及び学習用音高情報を含む学習用楽譜データと、歌い手の学習用歌声データと、を用いた機械学習処理により学習させた学習済み音響モデルであって、歌わせる歌詞情報と、音高情報と、を入力することにより、前記歌い手の声道をモデル化したスペクトル情報と、前記歌い手の声帯をモデル化した音源情報と、を出力する学習済み音響モデルを記憶しているメモリと、
プロセッサと、
を含み、
前記プロセッサは、
第1モードが選択されている際に、前記複数の操作子のなかのいずれかの操作子への操作に応じて、前記学習済み音響モデルに対して、前記歌詞情報と、前記いずれかの操作子に対応付けられている音高情報と、を入力するとともに、前記入力に応じて前記学習済み音響モデルから出力された前記スペクトル情報と、前記いずれかの操作子に対応付けられている音高情報に応じた楽器音波形データと、に基づいて前記歌い手の歌声を推論した第1楽器音使用推論歌声データを出力する楽器音使用推論歌声データ出力処理、
を実行し、
第2モードが選択されている際に、前記複数の操作子のなかのいずれかの操作子への操作に応じて、前記学習済み音響モデルに対して、前記歌詞情報と、前記いずれかの操作子に対応付けられている音高情報と、を入力するとともに、前記入力に応じて前記学習済み音響モデルから出力された前記スペクトル情報と、前記音源情報と、に基づいて前記歌い手の歌声を推論した第1音源情報使用推論歌声データを出力する音源情報使用推論歌声データ出力処理、
を実行する電子楽器。 - 請求項1に記載の電子楽器において、
前記複数の操作子は、操作された前記いずれかの操作子としての第1操作子と、前記第1操作子からみて設定された条件を満たす第2操作子と、を含み、
前記楽器音使用推論歌声データ出力処理により前記第1楽器音使用推論歌声データが出力されている際に、前記第1操作子への操作が継続している状態で前記第2操作子が繰り返し操作された場合に、前記第1楽器音使用推論歌声データに対して少なくともビブラート、トレモロ及びワウワウのいずれかのエフェクトをかける第1モードエフェクト処理、
を実行し、
前記音源情報使用推論歌声データ出力処理により前記第1音源情報使用推論歌声データが出力されている際に、前記第1操作子への操作が継続している状態で前記第2操作子が繰り返し操作された場合に、前記第1音源情報使用推論歌声データに対して少なくともビブラート、トレモロ及びワウワウのいずれかのエフェクトをかける第2モードエフェクト処理、
を実行する。 - 請求項2に記載の電子楽器において、
前記第1モードエフェクト処理及び第2モードエフェクト処理は、前記第1操作子に対応付けられている音高情報が示す音高と、前記第2操作子に対応付けられている音高情報が示す音高と、の音高差に応じて前記エフェクトの程度をそれぞれ変更している。 - 請求項1から請求項3のいずれかに記載の電子楽器において、
前記複数の操作子は、操作された前記いずれかの操作子としての第3操作子と、第4操作子と、を含み、
前記第1モードと前記第2モードとを切り換える切替操作子、を有し、
前記楽器音使用推論歌声データ出力処理は、前記切替操作子の操作により前記第1モードが選択されている際に、前記第3操作子及び前記第4操作子が同時に操作されている場合、前記第3操作子及び前記第4操作子にそれぞれ対応付けられている各音高情報に応じた各楽器音波形データに基づいて、前記歌い手の歌声を推論した複数の前記第1楽器音使用推論歌声データをそれぞれ出力し、
前記音源情報使用推論歌声データ出力処理は、前記切替操作子の操作により前記第2モードが選択されている際に、前記第3操作子及び前記第4操作子が同時に操作されている場合、前記第3操作子及び前記第4操作子のいずれかに対応付けられている音高情報に応じて前記歌い手の声帯をモデル化した音源情報に基づいて、前記歌い手の歌声を推論した前記第1音源情報使用推論歌声データを出力する。 - 請求項1から請求項4のいずれかに記載の電子楽器において、
少なくともブラス音、ストリング音、オルガン音、及び動物の鳴き声のいずれかを含む複数の楽器音のなかから前記ブラス音、前記ストリング音、前記オルガン音、及び前記動物の鳴き声のうちのいずれかの楽器音を選択させる選択操作子、
を有し、
前記楽器音使用推論歌声データ出力処理は、前記第1モードが選択されている際に、前記選択操作子により選択された楽器音に応じた前記楽器音波形データに基づいて、前記歌い手の歌声を推論した前記第1楽器音使用推論歌声データを出力する。 - 請求項1から請求項5のいずれかに記載の電子楽器において、
前記メモリは、メロディデータと、自動演奏させる伴奏データと、を有する曲データを記憶しており、
前記メロディデータは、各音高情報と、前記各音高情報に応じた音を出力する各タイミング情報と、前記各音高情報に対応付けられている各歌詞情報と、を含み、
前記プロセッサは、
前記伴奏データに基づいて発音部に発音させる伴奏データ自動演奏処理と、
前記学習済み音響モデルに対して、操作された前記いずれかの操作子に対応付けられている音高情報を入力する代わりに、前記メロディデータに含まれる音高情報を入力するとともに、前記メロディデータに含まれる歌詞情報を入力する入力処理と、
を実行し、
前記楽器音使用推論歌声データ出力処理は、前記メロディデータに含まれるタイミング情報が示すタイミングに応じて前記複数の操作子のなかのいずれの操作子も演奏者に操作されなかった場合に、前記入力処理に応じて前記学習済み音響モデルから出力された前記スペクトル情報と、前記入力処理により入力された前記メロディデータに含まれる音高情報に応じた楽器音波形データと、に基づいて、前記歌い手の歌声を推論した第2楽器音使用推論歌声データを、前記メロディデータに含まれるタイミング情報が示すタイミングに合わせて出力し、
前記音源情報使用推論歌声データ出力処理は、前記メロディデータに含まれる音高情報に応じた音を出力するタイミング情報が示すタイミングに応じて前記複数の操作子のなかのいずれの操作子も演奏者に操作されなかった場合に、前記入力処理に応じて前記学習済み音響モデルから出力された前記スペクトル情報と、前記音源情報と、に基づいて、前記歌い手の歌声を推論した第2音源情報使用推論歌声データを、前記メロディデータに含まれるタイミング情報が示すタイミングに合わせて出力する。 - 各音高情報がそれぞれ対応付けられている複数の操作子と、
学習用歌詞情報及び学習用音高情報を含む学習用楽譜データと、歌い手の学習用歌声データと、を用いた機械学習処理により学習させた学習済み音響モデルであって、歌わせる歌詞情報と、音高情報と、を入力することにより、前記歌い手の声道をモデル化したスペクトル情報と、前記歌い手の声帯をモデル化した音源情報と、を出力する学習済み音響モデルを記憶しているメモリと、
を含む電子楽器のコンピュータに、
第1モードが選択されている際に、前記複数の操作子のなかのいずれかの操作子への操作に応じて、前記学習済み音響モデルに対して、前記歌詞情報と、前記いずれかの操作子に対応付けられている音高情報と、を入力するとともに、前記入力に応じて前記学習済み音響モデルから出力された前記スペクトル情報と、前記いずれかの操作子に対応付けられている音高情報に応じた楽器音波形データと、に基づいて前記歌い手の歌声を推論した第1楽器音使用推論歌声データを出力する楽器音使用推論歌声データ出力処理、
を実行させ、
第2モードが選択されている際に、前記複数の操作子のなかのいずれかの操作子への操作に応じて、前記学習済み音響モデルに対して、前記歌詞情報と、前記いずれかの操作子に対応付けられている音高情報と、を入力するとともに、前記入力に応じて前記学習済み音響モデルから出力された前記スペクトル情報と、前記音源情報と、に基づいて前記歌い手の歌声を推論した第1音源情報使用推論歌声データを出力する音源情報使用推論歌声データ出力処理、
を実行させる方法。 - 各音高情報がそれぞれ対応付けられている複数の操作子と、
学習用歌詞情報及び学習用音高情報を含む学習用楽譜データと、歌い手の学習用歌声データと、を用いた機械学習処理により学習させた学習済み音響モデルであって、歌わせる歌詞情報と、音高情報と、を入力することにより、前記歌い手の声道をモデル化したスペクトル情報と、前記歌い手の声帯をモデル化した音源情報と、を出力する学習済み音響モデルを記憶しているメモリと、
を含む電子楽器のコンピュータに、
第1モードが選択されている際に、前記複数の操作子のなかのいずれかの操作子への操作に応じて、前記学習済み音響モデルに対して、前記歌詞情報と、前記いずれかの操作子に対応付けられている音高情報と、を入力するとともに、前記入力に応じて前記学習済み音響モデルから出力された前記スペクトル情報と、前記いずれかの操作子に対応付けられている音高情報に応じた楽器音波形データと、に基づいて前記歌い手の歌声を推論した第1楽器音使用推論歌声データを出力する楽器音使用推論歌声データ出力処理、
を実行させ、
第2モードが選択されている際に、前記複数の操作子のなかのいずれかの操作子への操作に応じて、前記学習済み音響モデルに対して、前記歌詞情報と、前記いずれかの操作子に対応付けられている音高情報と、を入力するとともに、前記入力に応じて前記学習済み音響モデルから出力された前記スペクトル情報と、前記音源情報と、に基づいて前記歌い手の歌声を推論した第1音源情報使用推論歌声データを出力する音源情報使用推論歌声データ出力処理、
を実行させるプログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018118057A JP6547878B1 (ja) | 2018-06-21 | 2018-06-21 | 電子楽器、電子楽器の制御方法、及びプログラム |
EP19181435.9A EP3588485B1 (en) | 2018-06-21 | 2019-06-20 | Electronic musical instrument, electronic musical instrument control method, and storage medium |
US16/447,630 US10629179B2 (en) | 2018-06-21 | 2019-06-20 | Electronic musical instrument, electronic musical instrument control method, and storage medium |
CN201910543252.1A CN110634460B (zh) | 2018-06-21 | 2019-06-21 | 电子乐器、电子乐器的控制方法以及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018118057A JP6547878B1 (ja) | 2018-06-21 | 2018-06-21 | 電子楽器、電子楽器の制御方法、及びプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019116977A Division JP6819732B2 (ja) | 2019-06-25 | 2019-06-25 | 電子楽器、電子楽器の制御方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6547878B1 true JP6547878B1 (ja) | 2019-07-24 |
JP2019219570A JP2019219570A (ja) | 2019-12-26 |
Family
ID=66999700
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018118057A Active JP6547878B1 (ja) | 2018-06-21 | 2018-06-21 | 電子楽器、電子楽器の制御方法、及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US10629179B2 (ja) |
EP (1) | EP3588485B1 (ja) |
JP (1) | JP6547878B1 (ja) |
CN (1) | CN110634460B (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111475672A (zh) * | 2020-03-27 | 2020-07-31 | 咪咕音乐有限公司 | 一种歌词分配方法、电子设备及存储介质 |
KR102272189B1 (ko) * | 2019-10-01 | 2021-07-02 | 샤이다 에르네스토 예브계니 산체스 | 인공지능을 이용하여 소리를 생성하는 방법 |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6587007B1 (ja) * | 2018-04-16 | 2019-10-09 | カシオ計算機株式会社 | 電子楽器、電子楽器の制御方法、及びプログラム |
JP6587008B1 (ja) * | 2018-04-16 | 2019-10-09 | カシオ計算機株式会社 | 電子楽器、電子楽器の制御方法、及びプログラム |
CN108877753B (zh) * | 2018-06-15 | 2020-01-21 | 百度在线网络技术(北京)有限公司 | 音乐合成方法及系统、终端以及计算机可读存储介质 |
JP6610714B1 (ja) * | 2018-06-21 | 2019-11-27 | カシオ計算機株式会社 | 電子楽器、電子楽器の制御方法、及びプログラム |
JP6610715B1 (ja) | 2018-06-21 | 2019-11-27 | カシオ計算機株式会社 | 電子楽器、電子楽器の制御方法、及びプログラム |
JP7059972B2 (ja) | 2019-03-14 | 2022-04-26 | カシオ計算機株式会社 | 電子楽器、鍵盤楽器、方法、プログラム |
JP7143816B2 (ja) * | 2019-05-23 | 2022-09-29 | カシオ計算機株式会社 | 電子楽器、電子楽器の制御方法、及びプログラム |
CN110570876B (zh) * | 2019-07-30 | 2024-03-15 | 平安科技(深圳)有限公司 | 歌声合成方法、装置、计算机设备和存储介质 |
JP7180587B2 (ja) * | 2019-12-23 | 2022-11-30 | カシオ計算機株式会社 | 電子楽器、方法及びプログラム |
JP7088159B2 (ja) * | 2019-12-23 | 2022-06-21 | カシオ計算機株式会社 | 電子楽器、方法及びプログラム |
JP7331746B2 (ja) * | 2020-03-17 | 2023-08-23 | カシオ計算機株式会社 | 電子鍵盤楽器、楽音発生方法及びプログラム |
JP7036141B2 (ja) * | 2020-03-23 | 2022-03-15 | カシオ計算機株式会社 | 電子楽器、方法及びプログラム |
US12059533B1 (en) | 2020-05-20 | 2024-08-13 | Pineal Labs Inc. | Digital music therapeutic system with automated dosage |
JP7367641B2 (ja) * | 2020-09-08 | 2023-10-24 | カシオ計算機株式会社 | 電子楽器、方法及びプログラム |
CN112037745B (zh) * | 2020-09-10 | 2022-06-03 | 电子科技大学 | 一种基于神经网络模型的音乐创作系统 |
CN112331234A (zh) * | 2020-10-27 | 2021-02-05 | 北京百度网讯科技有限公司 | 歌曲多媒体的合成方法、装置、电子设备及存储介质 |
CN112562633B (zh) * | 2020-11-30 | 2024-08-09 | 北京有竹居网络技术有限公司 | 一种歌唱合成方法、装置、电子设备及存储介质 |
CN113781993B (zh) | 2021-01-20 | 2024-09-24 | 北京沃东天骏信息技术有限公司 | 定制音色歌声的合成方法、装置、电子设备和存储介质 |
WO2022190502A1 (ja) * | 2021-03-09 | 2022-09-15 | ヤマハ株式会社 | 音生成装置およびその制御方法、プログラム、電子楽器 |
CN113257222B (zh) * | 2021-04-13 | 2024-06-11 | 腾讯音乐娱乐科技(深圳)有限公司 | 合成歌曲音频的方法、终端及存储介质 |
CN114078464B (zh) * | 2022-01-19 | 2022-03-22 | 腾讯科技(深圳)有限公司 | 音频处理方法、装置及设备 |
Family Cites Families (46)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5997172A (ja) * | 1982-11-26 | 1984-06-04 | 松下電器産業株式会社 | 演奏装置 |
JP2924208B2 (ja) | 1991-01-22 | 1999-07-26 | ブラザー工業株式会社 | 練習機能付き電子音楽再生装置 |
JPH06332449A (ja) | 1993-05-21 | 1994-12-02 | Kawai Musical Instr Mfg Co Ltd | 電子楽器の歌声再生装置 |
JP3319211B2 (ja) * | 1995-03-23 | 2002-08-26 | ヤマハ株式会社 | 音声変換機能付カラオケ装置 |
US5703311A (en) * | 1995-08-03 | 1997-12-30 | Yamaha Corporation | Electronic musical apparatus for synthesizing vocal sounds using format sound synthesis techniques |
JP3144273B2 (ja) | 1995-08-04 | 2001-03-12 | ヤマハ株式会社 | 自動歌唱装置 |
JP3102335B2 (ja) * | 1996-01-18 | 2000-10-23 | ヤマハ株式会社 | フォルマント変換装置およびカラオケ装置 |
JP3900580B2 (ja) * | 1997-03-24 | 2007-04-04 | ヤマハ株式会社 | カラオケ装置 |
US6369311B1 (en) | 1999-06-25 | 2002-04-09 | Yamaha Corporation | Apparatus and method for generating harmony tones based on given voice signal and performance data |
JP3275911B2 (ja) | 1999-06-25 | 2002-04-22 | ヤマハ株式会社 | 演奏装置及びその記録媒体 |
JP2001092456A (ja) | 1999-09-24 | 2001-04-06 | Yamaha Corp | 演奏ガイド機能を備えた電子楽器および記憶媒体 |
JP2002049301A (ja) | 2000-08-01 | 2002-02-15 | Kawai Musical Instr Mfg Co Ltd | 押鍵表示装置、電子楽器システム、押鍵表示方法、及び記憶媒体 |
JP3879402B2 (ja) | 2000-12-28 | 2007-02-14 | ヤマハ株式会社 | 歌唱合成方法と装置及び記録媒体 |
JP2004086067A (ja) | 2002-08-28 | 2004-03-18 | Nintendo Co Ltd | 音声発生装置および音声発生プログラム |
JP2004287099A (ja) * | 2003-03-20 | 2004-10-14 | Sony Corp | 歌声合成方法、歌声合成装置、プログラム及び記録媒体並びにロボット装置 |
JP2005004106A (ja) * | 2003-06-13 | 2005-01-06 | Sony Corp | 信号合成方法及び装置、歌声合成方法及び装置、プログラム及び記録媒体並びにロボット装置 |
US7412377B2 (en) * | 2003-12-19 | 2008-08-12 | International Business Machines Corporation | Voice model for speech processing based on ordered average ranks of spectral features |
JP4487632B2 (ja) | 2004-05-21 | 2010-06-23 | ヤマハ株式会社 | 演奏練習装置および演奏練習用コンピュータプログラム |
JP4265501B2 (ja) * | 2004-07-15 | 2009-05-20 | ヤマハ株式会社 | 音声合成装置およびプログラム |
JP4179268B2 (ja) * | 2004-11-25 | 2008-11-12 | カシオ計算機株式会社 | データ合成装置およびデータ合成処理のプログラム |
JP4321476B2 (ja) * | 2005-03-31 | 2009-08-26 | ヤマハ株式会社 | 電子楽器 |
JP4735544B2 (ja) * | 2007-01-10 | 2011-07-27 | ヤマハ株式会社 | 歌唱合成のための装置およびプログラム |
US8244546B2 (en) * | 2008-05-28 | 2012-08-14 | National Institute Of Advanced Industrial Science And Technology | Singing synthesis parameter data estimation system |
JP5471858B2 (ja) | 2009-07-02 | 2014-04-16 | ヤマハ株式会社 | 歌唱合成用データベース生成装置、およびピッチカーブ生成装置 |
JP5293460B2 (ja) | 2009-07-02 | 2013-09-18 | ヤマハ株式会社 | 歌唱合成用データベース生成装置、およびピッチカーブ生成装置 |
US8008563B1 (en) | 2010-04-12 | 2011-08-30 | Karla Kay Hastings | Electronic circuit driven, inter-active, plural sensory stimuli apparatus and comprehensive method to teach, with no instructor present, beginners as young as two years old to play a piano/keyboard type musical instrument and to read and correctly respond to standard music notation for said instruments |
JP5895740B2 (ja) | 2012-06-27 | 2016-03-30 | ヤマハ株式会社 | 歌唱合成を行うための装置およびプログラム |
JP6236757B2 (ja) * | 2012-09-20 | 2017-11-29 | ヤマハ株式会社 | 歌唱合成装置および歌唱合成プログラム |
US10564923B2 (en) * | 2014-03-31 | 2020-02-18 | Sony Corporation | Method, system and artificial neural network |
JP2016080827A (ja) * | 2014-10-15 | 2016-05-16 | ヤマハ株式会社 | 音韻情報合成装置および音声合成装置 |
JP6485185B2 (ja) | 2015-04-20 | 2019-03-20 | ヤマハ株式会社 | 歌唱音合成装置 |
US9818396B2 (en) * | 2015-07-24 | 2017-11-14 | Yamaha Corporation | Method and device for editing singing voice synthesis data, and method for analyzing singing |
JP6004358B1 (ja) | 2015-11-25 | 2016-10-05 | 株式会社テクノスピーチ | 音声合成装置および音声合成方法 |
JP6705272B2 (ja) | 2016-04-21 | 2020-06-03 | ヤマハ株式会社 | 発音制御装置、発音制御方法、及びプログラム |
CN109923609A (zh) * | 2016-07-13 | 2019-06-21 | 思妙公司 | 用于音调轨道生成的众包技术 |
JP2017107228A (ja) * | 2017-02-20 | 2017-06-15 | 株式会社テクノスピーチ | 歌声合成装置および歌声合成方法 |
CN106971703A (zh) * | 2017-03-17 | 2017-07-21 | 西北师范大学 | 一种基于hmm的歌曲合成方法及装置 |
JP6497404B2 (ja) | 2017-03-23 | 2019-04-10 | カシオ計算機株式会社 | 電子楽器、その電子楽器の制御方法及びその電子楽器用のプログラム |
JP6465136B2 (ja) | 2017-03-24 | 2019-02-06 | カシオ計算機株式会社 | 電子楽器、方法、及びプログラム |
JP7143576B2 (ja) | 2017-09-26 | 2022-09-29 | カシオ計算機株式会社 | 電子楽器、電子楽器の制御方法及びそのプログラム |
JP2019066649A (ja) * | 2017-09-29 | 2019-04-25 | ヤマハ株式会社 | 歌唱音声の編集支援方法、および歌唱音声の編集支援装置 |
JP7052339B2 (ja) | 2017-12-25 | 2022-04-12 | カシオ計算機株式会社 | 鍵盤楽器、方法及びプログラム |
JP6587007B1 (ja) | 2018-04-16 | 2019-10-09 | カシオ計算機株式会社 | 電子楽器、電子楽器の制御方法、及びプログラム |
JP6587008B1 (ja) | 2018-04-16 | 2019-10-09 | カシオ計算機株式会社 | 電子楽器、電子楽器の制御方法、及びプログラム |
JP6610715B1 (ja) | 2018-06-21 | 2019-11-27 | カシオ計算機株式会社 | 電子楽器、電子楽器の制御方法、及びプログラム |
JP6610714B1 (ja) | 2018-06-21 | 2019-11-27 | カシオ計算機株式会社 | 電子楽器、電子楽器の制御方法、及びプログラム |
-
2018
- 2018-06-21 JP JP2018118057A patent/JP6547878B1/ja active Active
-
2019
- 2019-06-20 US US16/447,630 patent/US10629179B2/en active Active
- 2019-06-20 EP EP19181435.9A patent/EP3588485B1/en active Active
- 2019-06-21 CN CN201910543252.1A patent/CN110634460B/zh active Active
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102272189B1 (ko) * | 2019-10-01 | 2021-07-02 | 샤이다 에르네스토 예브계니 산체스 | 인공지능을 이용하여 소리를 생성하는 방법 |
CN111475672A (zh) * | 2020-03-27 | 2020-07-31 | 咪咕音乐有限公司 | 一种歌词分配方法、电子设备及存储介质 |
CN111475672B (zh) * | 2020-03-27 | 2023-12-08 | 咪咕音乐有限公司 | 一种歌词分配方法、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110634460A (zh) | 2019-12-31 |
EP3588485A1 (en) | 2020-01-01 |
US20190392807A1 (en) | 2019-12-26 |
JP2019219570A (ja) | 2019-12-26 |
CN110634460B (zh) | 2023-06-06 |
US10629179B2 (en) | 2020-04-21 |
EP3588485B1 (en) | 2021-03-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6547878B1 (ja) | 電子楽器、電子楽器の制御方法、及びプログラム | |
JP6610715B1 (ja) | 電子楽器、電子楽器の制御方法、及びプログラム | |
JP6610714B1 (ja) | 電子楽器、電子楽器の制御方法、及びプログラム | |
CN110390923B (zh) | 电子乐器、电子乐器的控制方法以及存储介质 | |
CN110390922B (zh) | 电子乐器、电子乐器的控制方法以及存储介质 | |
JP6835182B2 (ja) | 電子楽器、電子楽器の制御方法、及びプログラム | |
CN111696498B (zh) | 键盘乐器以及键盘乐器的计算机执行的方法 | |
JP6766935B2 (ja) | 電子楽器、電子楽器の制御方法、及びプログラム | |
JP6819732B2 (ja) | 電子楽器、電子楽器の制御方法、及びプログラム | |
JP6801766B2 (ja) | 電子楽器、電子楽器の制御方法、及びプログラム | |
JP2023100776A (ja) | 電子楽器、電子楽器の制御方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181015 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20190415 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190528 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190610 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6547878 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |