JP7067669B2 - 音信号合成方法、生成モデルの訓練方法、音信号合成システムおよびプログラム - Google Patents
音信号合成方法、生成モデルの訓練方法、音信号合成システムおよびプログラム Download PDFInfo
- Publication number
- JP7067669B2 JP7067669B2 JP2021501994A JP2021501994A JP7067669B2 JP 7067669 B2 JP7067669 B2 JP 7067669B2 JP 2021501994 A JP2021501994 A JP 2021501994A JP 2021501994 A JP2021501994 A JP 2021501994A JP 7067669 B2 JP7067669 B2 JP 7067669B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- sound signal
- pitch
- model
- sound
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H7/00—Instruments in which the tones are synthesised from a data store, e.g. computer organs
- G10H7/08—Instruments in which the tones are synthesised from a data store, e.g. computer organs by calculating functions or polynomial approximations to evaluate amplitudes at successive sample points of a tone waveform
- G10H7/10—Instruments in which the tones are synthesised from a data store, e.g. computer organs by calculating functions or polynomial approximations to evaluate amplitudes at successive sample points of a tone waveform using coefficients or parameters stored in a memory, e.g. Fourier coefficients
- G10H7/105—Instruments in which the tones are synthesised from a data store, e.g. computer organs by calculating functions or polynomial approximations to evaluate amplitudes at successive sample points of a tone waveform using coefficients or parameters stored in a memory, e.g. Fourier coefficients using Fourier coefficients
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0475—Generative networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H7/00—Instruments in which the tones are synthesised from a data store, e.g. computer organs
- G10H7/002—Instruments in which the tones are synthesised from a data store, e.g. computer organs using a common processing for different operations or calculations, and a set of microinstructions (programme) to control the sequence thereof
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/155—Musical effects
- G10H2210/195—Modulation effects, i.e. smooth non-discontinuous variations over a time interval, e.g. within a note, melody or musical transition, of any sound parameter, e.g. amplitude, pitch, spectral response or playback speed
- G10H2210/201—Vibrato, i.e. rapid, repetitive and smooth variation of amplitude, pitch or timbre within a note or chord
- G10H2210/211—Pitch vibrato, i.e. repetitive and smooth variation in pitch, e.g. as obtainable with a whammy bar or tremolo arm on a guitar
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/155—Musical effects
- G10H2210/195—Modulation effects, i.e. smooth non-discontinuous variations over a time interval, e.g. within a note, melody or musical transition, of any sound parameter, e.g. amplitude, pitch, spectral response or playback speed
- G10H2210/221—Glissando, i.e. pitch smoothly sliding from one note to another, e.g. gliss, glide, slide, bend, smear or sweep
- G10H2210/225—Portamento, i.e. smooth continuously variable pitch-bend, without emphasis of each chromatic pitch during the pitch change, which only stops at the end of the pitch shift, as obtained, e.g. by a MIDI pitch wheel or trombone
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/325—Musical pitch modification
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/025—Envelope processing of music signals in, e.g. time domain, transform domain or cepstrum domain
- G10H2250/031—Spectrum envelope processing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/131—Mathematical functions for musical analysis, processing, synthesis or composition
- G10H2250/215—Transforms, i.e. mathematical transforms into domains appropriate for musical signal processing, coding or compression
- G10H2250/235—Fourier transform; Discrete Fourier Transform [DFT]; Fast Fourier Transform [FFT]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/311—Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/471—General musical sound synthesis principles, i.e. sound category-independent synthesis methods
- G10H2250/481—Formant synthesis, i.e. simulating the human speech production mechanism by exciting formant resonators, e.g. mimicking vocal tract filtering as in LPC synthesis vocoders, wherein musical instruments may be used as excitation signal to the time-varying filter estimated from a singer's speech
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Algebra (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Electrophonic Musical Instruments (AREA)
- Auxiliary Devices For Music (AREA)
Description
図1は、本開示の音信号合成システム100の構成を例示するブロック図である。音信号合成システム100は、制御装置11と記憶装置12と表示装置13と入力装置14と放音装置15とを具備するコンピュータシステムで実現される。音信号合成システム100は、例えば携帯電話機、スマートフォンまたはパーソナルコンピュータ等の情報端末である。音信号合成システム100は、単体の装置で実現されるほか、相互に別体で構成された複数の装置(例えばサーバ-クライアントシステム)でも実現される。
第2実施形態について説明する。なお、以下に例示する各態様において機能が第1実施形態と同様である要素については、第1実施形態の説明で使用した符号を流用して各々の詳細な説明を適宜に省略する。
図13は、第3実施形態における音信号合成システム100の機能的な構成を例示するブロック図である。第3実施形態の生成モデルは、音源スペクトルを生成するための第1モデルと、スペクトル包絡を生成するための第2モデルとに加えて、ピッチを生成するためのF0モデルを備える。F0モデルは、ピッチ(基本周波数)を表すピッチデータを制御データXに応じて生成する。第1モデルは、制御データXとピッチデータとに応じて音源スペクトルを生成する。第2モデルは、制御データXとピッチと音源スペクトルとに応じてスペクトル包絡を生成する。
図2の第1実施形態においては、楽譜データの一連の発音単位の情報に基づいて音信号Vを生成する音生成機能を例示したが、鍵盤等から供給される発音単位の情報に基づいて、リアルタイムに音信号Vを生成するようにしてもよい。生成制御部121は、各時点の制御データXおよび制御データYを、その時点までに供給された発音単位の情報に基づいて生成する。その場合、制御データXに含まれるコンテキストデータX3には、基本的に、未来の発音単位の情報を含むことができないが、過去の情報から未来の発音単位の情報を予測して、未来の発音単位の情報を含めるようにしてもよい。
Claims (17)
- 音信号の音高を含む当該音信号の条件を示す制御データに応じて、前記音信号の音源スペクトルを示す第1データと、前記音信号のスペクトル包絡を示す第2データとを生成し、
前記第1データが示す音源スペクトルと前記第2データが示すスペクトル包絡とに応じて、前記音信号を合成する
コンピュータにより実現される音信号合成方法。 - 前記生成においては、前記制御データを単一の生成モデルに入力することにより、前記第1データと前記第2データとを生成する
請求項1の音信号合成方法。 - 前記生成モデルは、参照信号の条件を示す制御データと、前記参照信号の音源スペクトルを示す第1データおよび当該参照信号のスペクトル包絡を示す第2データと、の関係を学習した学習済モデルである
請求項2の音信号合成方法。 - 前記生成においては、
前記制御データを第1モデルに入力することにより前記第1データを生成し、
前記制御データと前記生成された第1データとを第2モデルに入力することにより前記第2データを生成する
請求項1の音信号合成方法。 - 前記第1モデルは、参照信号の条件を示す制御データと、前記参照信号の音源スペクトルを示す第1データと、の関係を学習した学習済モデルである
請求項4の音信号合成方法。 - 前記第2モデルは、参照信号の条件を示す制御データと前記参照信号の音源スペクトルを示す第1データとに対する、前記参照信号のスペクトル包絡を示す第2データの関係を学習した学習済モデルである
請求項4または請求項5の音信号合成方法。 - 前記音信号合成方法は、さらに、前記制御データに応じて、前記音信号のピッチを示すピッチデータを生成し、
前記第1データおよび前記第2データの生成においては、
前記制御データと前記生成されたピッチデータとを第1モデルに入力することにより前記第1データを生成し、
前記制御データと前記生成されたピッチデータと前記生成された第1データとを第2モデルに入力することにより前記第2データを生成する
請求項1の音信号合成方法。 - 参照信号の波形スペクトルから、当該波形スペクトルの包絡を示すスペクトル包絡を求め、
前記スペクトル包絡を用いて前記波形スペクトルを白色化することで、音源スペクトルを求め、
前記参照信号の音高を含む当該参照信号の条件を示す制御データから、前記音源スペクトルを示す第1データと前記スペクトル包絡を示す第2データとを生成するように、少なくとも1つのニューラルネットワークを含む生成モデルを訓練する
コンピュータにより実現される生成モデルの訓練方法。 - 前記生成される音源スペクトルは第1音高に対応し、
前記訓練方法は、さらに、
前記第1音高に対応する音源スペクトルを第2音高の音源スペクトルにピッチ変換し、第1制御データが示す前記第1音高を前記第2音高に変更することで第2制御データを生成し、
前記第2制御データから、前記第2音高の音源スペクトルを示す第1データを生成するように、前記生成モデルを訓練する
請求項8の生成モデルの訓練方法。 - 1以上のプロセッサを具備する音信号合成システムであって、
前記1以上のプロセッサは、プログラムを実行することで、
音信号の音高を含む当該音信号の条件を示す制御データに応じて、前記音信号の音源スペクトルを示す第1データと、前記音信号のスペクトル包絡を示す第2データとを生成し、
前記第1データが示す音源スペクトルと前記第2データが示すスペクトル包絡とに応じて、前記音信号を合成する
音信号合成システム。 - 前記1以上のプロセッサは、前記生成において、前記制御データを単一の生成モデルに入力することにより、前記第1データと前記第2データとを生成する
請求項10の音信号合成システム。 - 前記生成モデルは、参照信号の条件を示す制御データと、前記参照信号の音源スペクトルを示す第1データおよび当該参照信号のスペクトル包絡を示す第2データと、の関係を学習した学習済モデルである
請求項11の音信号合成システム。 - 前記1以上のプロセッサは、前記生成において、
前記制御データを第1モデルに入力することにより前記第1データを生成し、
前記制御データと前記生成された第1データとを第2モデルに入力することにより前記第2データを生成する
請求項10の音信号合成システム。 - 前記第1モデルは、参照信号の条件を示す制御データと、前記参照信号の音源スペクトルを示す第1データと、の関係を学習した学習済モデルである
請求項13の音信号合成システム。 - 前記第2モデルは、参照信号の条件を示す制御データと前記参照信号の音源スペクトルを示す第1データとに対する、前記参照信号のスペクトル包絡を示す第2データの関係を学習した学習済モデルである
請求項13または請求項14の音信号合成システム。 - 前記制御データに応じて、前記音信号のピッチを示すピッチデータを生成し、
前記第1データおよび前記第2データの生成においては、
前記制御データと前記生成されたピッチデータとを第1モデルに入力することにより前記第1データを生成し、
前記制御データと前記生成されたピッチデータと前記生成された第1データとを第2モデルに入力することにより前記第2データを生成する
請求項10の音信号合成システム。 - 音信号の音高を含む当該音信号の条件を示す制御データに応じて、前記音信号の音源スペクトルを示す第1データと、前記音信号のスペクトル包絡を示す第2データとを生成する生成部、および、
前記第1データが示す音源スペクトルと前記第2データが示すスペクトル包絡とに応じて、前記音信号を合成する変換部
としてコンピュータを機能させるプログラム。
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2019028681 | 2019-02-20 | ||
| JP2019028681 | 2019-02-20 | ||
| PCT/JP2020/006158 WO2020171033A1 (ja) | 2019-02-20 | 2020-02-18 | 音信号合成方法、生成モデルの訓練方法、音信号合成システムおよびプログラム |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JPWO2020171033A1 JPWO2020171033A1 (ja) | 2021-12-02 |
| JP7067669B2 true JP7067669B2 (ja) | 2022-05-16 |
Family
ID=72144941
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2021501994A Expired - Fee Related JP7067669B2 (ja) | 2019-02-20 | 2020-02-18 | 音信号合成方法、生成モデルの訓練方法、音信号合成システムおよびプログラム |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US20210375248A1 (ja) |
| JP (1) | JP7067669B2 (ja) |
| WO (1) | WO2020171033A1 (ja) |
Families Citing this family (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020194098A (ja) * | 2019-05-29 | 2020-12-03 | ヤマハ株式会社 | 推定モデル確立方法、推定モデル確立装置、プログラムおよび訓練データ準備方法 |
| CN112820257B (zh) * | 2020-12-29 | 2022-10-25 | 吉林大学 | 一种基于matlab的gui声音合成装置 |
| JP7468495B2 (ja) * | 2021-03-18 | 2024-04-16 | カシオ計算機株式会社 | 情報処理装置、電子楽器、情報処理システム、情報処理方法、及びプログラム |
| WO2023068228A1 (ja) * | 2021-10-18 | 2023-04-27 | ヤマハ株式会社 | 音響処理方法、音響処理システムおよびプログラム |
| US20230296011A1 (en) * | 2022-03-18 | 2023-09-21 | Saudi Arabian Oil Company | Automated Decline Curve and Production Analysis Using Automated Production Segmentation, Empirical Modeling, and Artificial Intelligence |
| JP7184218B1 (ja) * | 2022-03-24 | 2022-12-06 | ヤマハ株式会社 | 音響機器および該音響機器のパラメータ出力方法 |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2012053150A1 (ja) | 2010-10-18 | 2012-04-26 | パナソニック株式会社 | 音声符号化装置および音声復号化装置 |
-
2020
- 2020-02-18 JP JP2021501994A patent/JP7067669B2/ja not_active Expired - Fee Related
- 2020-02-18 WO PCT/JP2020/006158 patent/WO2020171033A1/ja not_active Ceased
-
2021
- 2021-08-18 US US17/405,388 patent/US20210375248A1/en not_active Abandoned
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2012053150A1 (ja) | 2010-10-18 | 2012-04-26 | パナソニック株式会社 | 音声符号化装置および音声復号化装置 |
Non-Patent Citations (1)
| Title |
|---|
| WANG Xin, et al.,"NEURAL SOURCE-FILTER-BASED WAVEFORM MODEL FOR STATISTICAL PARAMETRIC SPEECH SYNTHESIS",arXiv preprint,arXiv:1810.11946vl,2018年10月29日,URL:http://arxiv.org/pdf/1810.11946vl.pdf |
Also Published As
| Publication number | Publication date |
|---|---|
| WO2020171033A1 (ja) | 2020-08-27 |
| JPWO2020171033A1 (ja) | 2021-12-02 |
| US20210375248A1 (en) | 2021-12-02 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7067669B2 (ja) | 音信号合成方法、生成モデルの訓練方法、音信号合成システムおよびプログラム | |
| JP6733644B2 (ja) | 音声合成方法、音声合成システムおよびプログラム | |
| CN111542875B (zh) | 声音合成方法、声音合成装置及存储介质 | |
| JPWO2018084305A1 (ja) | 音声合成方法、音声合成装置およびプログラム | |
| JP6737320B2 (ja) | 音響処理方法、音響処理システムおよびプログラム | |
| CN111418006A (zh) | 声音合成方法、声音合成装置及程序 | |
| JP6977818B2 (ja) | 音声合成方法、音声合成システムおよびプログラム | |
| JP6821970B2 (ja) | 音声合成装置および音声合成方法 | |
| US20210366454A1 (en) | Sound signal synthesis method, neural network training method, and sound synthesizer | |
| US20210350783A1 (en) | Sound signal synthesis method, neural network training method, and sound synthesizer | |
| TW201027514A (en) | Singing synthesis systems and related synthesis methods | |
| JP7331588B2 (ja) | 情報処理方法、推定モデル構築方法、情報処理装置、推定モデル構築装置およびプログラム | |
| JP6578544B1 (ja) | 音声処理装置、および音声処理方法 | |
| JP7088403B2 (ja) | 音信号生成方法、生成モデルの訓練方法、音信号生成システムおよびプログラム | |
| US20210366455A1 (en) | Sound signal synthesis method, generative model training method, sound signal synthesis system, and recording medium | |
| JP7107427B2 (ja) | 音信号合成方法、生成モデルの訓練方法、音信号合成システムおよびプログラム | |
| JP2018077280A (ja) | 音声合成方法 | |
| JP2018077281A (ja) | 音声合成方法 | |
| Serra et al. | Synthesis of the singing voice by performance sampling and spectral models | |
| JP2018077282A (ja) | 音声合成方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210629 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211008 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211207 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220126 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220329 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220411 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 7067669 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
| S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313532 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
| LAPS | Cancellation because of no payment of annual fees |