JP2022516784A - 話者適応型モデルを実現して合成音声信号を生成するニューラルボコーダおよびニューラルボコーダの訓練方法 - Google Patents
話者適応型モデルを実現して合成音声信号を生成するニューラルボコーダおよびニューラルボコーダの訓練方法 Download PDFInfo
- Publication number
- JP2022516784A JP2022516784A JP2021540067A JP2021540067A JP2022516784A JP 2022516784 A JP2022516784 A JP 2022516784A JP 2021540067 A JP2021540067 A JP 2021540067A JP 2021540067 A JP2021540067 A JP 2021540067A JP 2022516784 A JP2022516784 A JP 2022516784A
- Authority
- JP
- Japan
- Prior art keywords
- excitation
- signal
- audio signal
- input
- speaker
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/04—Training, enrolment or model building
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/06—Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/087—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters using mixed excitation models, e.g. MELP, MBE, split band LPC or HVXC
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Circuit For Audible Band Transducer (AREA)
Abstract
Description
フィーチャー(auxiliary feature)として構成1120して受信してよい。補助フィーチャーは、上述したスペクトル関連パラメータおよび励起関連パラメータを含んでよい。WaveNetボコーダ1130は、補助フィーチャーおよび分離した励起信号に基づいて励起信号の確率分布をモデリングしてよい。WaveNetボコーダ1130は、ExcitNetボコーダまたはその他の一般的な生成モデル(generative model)のニューラルボコーダによって実現されてよい。
Claims (20)
- コンピュータによって実現されるニューラルボコーダが実行する音声信号生成方法であって、
スペクトル関連パラメータ、および励起の周期性によって区分される励起関連パラメータを含む複数の音響パラメータを取得する段階、
前記複数の音響パラメータに基づいて励起信号を推定する段階、および
前記推定された励起信号に対して前記スペクトル関連パラメータのうちの少なくとも1つに基づく線形合成フィルタを適用することによってターゲット音声信号を生成する段階
を含む、音声信号生成方法。 - 前記励起関連パラメータは、所定のカットオフ周波数以下の励起を示す第1励起パラメータ、および前記カットオフ周波数を超過する励起を示す第2励起パラメータを含む、
請求項1に記載の音声信号生成方法。 - 前記第1励起パラメータは、前記励起の高調波スペクトルを示し、前記第2励起パラメータは、前記励起のその他の部分を示す、
請求項2に記載の音声信号生成方法。 - 前記スペクトル関連パラメータは、
音声信号のピッチを示す周波数パラメータ、音声信号のエネルギーを示すエネルギーパラメータ、音声信号が有声音であるか無声音であるかを示すパラメータ、および音声信号の線スペクトル周波数(LSF)を示すパラメータを含む、
請求項1に記載の音声信号生成方法。 - 前記ターゲット音声信号を生成する段階は、
前記LSFを示すパラメータを線形予測符号(LPC)に変換する段階、および
前記推定された励起信号に対し、前記変換されたLPCに基づく前記線形合成フィルタを適用する段階
を含む、
請求項4に記載の音声信号生成方法。 - 前記複数の音響パラメータは、入力されたテキストまたは入力された音声信号に基づいて音響モデルによって生成されたものである、
請求項1に記載の音声信号生成方法。 - 前記ニューラルボコーダは、訓練のために入力された音声信号に基づいて訓練されたものであり、
前記訓練は、
前記入力された音声信号に対して線形予測分析フィルタを適用することにより、前記入力された音声信号から前記励起信号を分離する段階、および
前記分離された励起信号の確率分布をモデリングする段階
を含み、
前記励起信号を推定する段階は、
前記モデリングされた励起信号の確率分布を使用して前記複数の音響パラメータに対する励起信号を推定する、
請求項1に記載の音声信号生成方法。 - 前記励起信号を分離する段階は、
前記入力された音声信号の線スペクトル周波数(LSF)を示すパラメータを線形予測符号(LPC)に変換する段階、および
前記入力された音声信号に対して前記入力された音声信号の変換されたLPCに基づく前記線形予測分析フィルタを適用する段階
を含む、
請求項7に記載の音声信号生成方法。 - 前記分離された励起信号は、前記入力された音声信号の残渣成分である、
請求項7に記載の音声信号生成方法。 - コンピュータによって実現されるニューラルボコーダの訓練方法であって、
音声信号の入力を受ける段階、
前記入力された音声信号から、スペクトル関連パラメータ、および励起の周期性によって区分される励起関連パラメータを含む複数の音響パラメータを抽出する段階、
前記入力された音声信号に対して前記スペクトル関連パラメータのうちの少なくとも1つに基づく線形予測分析フィルタを適用することにより、前記入力された音声信号から励起信号を分離する段階、および
前記分離された励起信号の確率分布をモデリングする段階
を含む、ニューラルボコーダの訓練方法。 - 前記励起信号を分離する段階は、
前記スペクトル関連パラメータのうちで前記入力された音声信号の線スペクトル周波数(LSF)を示すパラメータを線形予測符号(LPC)に変換する段階、および
前記入力された音声信号に対し、前記入力された音声信号の変換されたLPCに基づく前記線形予測分析フィルタを適用する段階
を含む、
請求項10に記載のニューラルボコーダの訓練方法。 - 前記励起関連パラメータは、所定のカットオフ周波数以下の励起を示す第1励起パラメータ、および前記カットオフ周波数を超過する励起を示す第2励起パラメータを含む、
請求項10に記載のニューラルボコーダの訓練方法。 - ニューラルボコーダであって、
スペクトル関連パラメータ、および励起の周期性によって区分される励起関連パラメータを含む複数の音響パラメータを取得するパラメータ取得部、
前記複数の音響パラメータに基づいて励起信号を推定する励起信号推定部、および
前記推定された励起信号に対して前記スペクトル関連パラメータのうちの少なくとも1つに基づく線形合成フィルタを適用することによってターゲット音声信号を生成する音声信号生成部
を含む、ニューラルボコーダ。 - 前記音声信号生成部は、前記スペクトル関連パラメータのうちで音声信号の線スペクトル周波数(LSF)を示すパラメータを線形予測符号(LPC)に変換する変換部を含み、
前記推定された励起信号に対し、前記変換されたLPCに基づく前記線形合成フィルタを適用する、
請求項13に記載のニューラルボコーダ。 - 前記ニューラルボコーダは、訓練のために入力された音声信号に基づいて訓練されたものであり、
前記入力された音声信号に対して線形予測分析フィルタを適用することにより、前記入力された音声信号から励起信号を分離する励起信号分離部、および
前記分離された励起信号の確率分布をモデリングするモデリング部
をさらに含み、
前記励起信号推定部は、前記モデリングされた励起信号の確率分布を使用して前記複数の音響パラメータに対する励起信号を推定する、
請求項13に記載のニューラルボコーダ。 - コンピュータによって実現されるニューラルボコーダの訓練方法であって、
複数の話者からの音声データセットに対して訓練されたソースモデルからの加重値を初期値として設定する段階、および
前記初期値に対し、ターゲット話者からの音声データセットを訓練することによってアップデートされた加重値を生成する段階
を含み、
前記アップデートされた加重値は、前記ターゲット話者に対応する合成音声信号を生成するために使用される、
ニューラルボコーダの訓練方法。 - 前記ソースモデルからの加重値は、前記音声データセットに含まれた、話者ごとに区分されないグローバル特性を示す値であり、
前記アップデートされた加重値を生成する段階は、
前記ソースモデルからの加重値を、前記ターゲット話者からの音声データセットが含む前記ターゲット話者の固有の特性が反映されるように調整することによって前記アップデートされた加重値を生成する、
請求項16に記載のニューラルボコーダの訓練方法。 - 前記複数の話者からの音声データセットを話者独立的に訓練するソースモデルを構築する段階、および
前記ソースモデルから前記加重値を取得する段階
をさらに含み、
前記ソースモデルは、前記ターゲット話者からの音声データセットを訓練するためのモデルの初期化子として使用される、
請求項16に記載のニューラルボコーダの訓練方法。 - 請求項16に記載の訓練方法によって訓練されたニューラルボコーダが実行する音声信号生成方法であって、
入力されたテキストまたは入力された音声信号に基づき、音響モデルによって生成されたスペクトル関連パラメータおよび励起の周期性によって区分される励起関連パラメータを含む複数の音響パラメータを取得する段階、
前記複数の音響パラメータに基づいて励起信号を推定する段階、および
前記推定された励起信号に対して前記スペクトル関連パラメータのうちの少なくとも1つに基づく線形合成フィルタを適用することにより、ターゲット音声信号を生成する段階
を含み、
前記ターゲット音声信号は、前記ターゲット話者に対応する合成音声である、
音声信号生成方法。 - 前記励起関連パラメータは、所定のカットオフ周波数以下の励起を示す第1励起パラメータ、および前記カットオフ周波数を超過する励起を示す第2励起パラメータを含む、
請求項19に記載の音声信号生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023069781A JP7618724B2 (ja) | 2019-01-11 | 2023-04-21 | 話者適応型モデルを実現して合成音声信号を生成するニューラルボコーダおよびニューラルボコーダの訓練方法 |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190004085A KR102198598B1 (ko) | 2019-01-11 | 2019-01-11 | 합성 음성 신호 생성 방법, 뉴럴 보코더 및 뉴럴 보코더의 훈련 방법 |
KR10-2019-0004084 | 2019-01-11 | ||
KR10-2019-0004085 | 2019-01-11 | ||
KR1020190004084A KR102198597B1 (ko) | 2019-01-11 | 2019-01-11 | 뉴럴 보코더 및 화자 적응형 모델을 구현하기 위한 뉴럴 보코더의 훈련 방법 |
PCT/KR2019/010428 WO2020145472A1 (ko) | 2019-01-11 | 2019-08-16 | 화자 적응형 모델을 구현하고 합성 음성 신호를 생성하는 뉴럴 보코더 및 뉴럴 보코더의 훈련 방법 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023069781A Division JP7618724B2 (ja) | 2019-01-11 | 2023-04-21 | 話者適応型モデルを実現して合成音声信号を生成するニューラルボコーダおよびニューラルボコーダの訓練方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022516784A true JP2022516784A (ja) | 2022-03-02 |
JP7274184B2 JP7274184B2 (ja) | 2023-05-16 |
Family
ID=71520538
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021540067A Active JP7274184B2 (ja) | 2019-01-11 | 2019-08-16 | 話者適応型モデルを実現して合成音声信号を生成するニューラルボコーダおよびニューラルボコーダの訓練方法 |
JP2023069781A Active JP7618724B2 (ja) | 2019-01-11 | 2023-04-21 | 話者適応型モデルを実現して合成音声信号を生成するニューラルボコーダおよびニューラルボコーダの訓練方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023069781A Active JP7618724B2 (ja) | 2019-01-11 | 2023-04-21 | 話者適応型モデルを実現して合成音声信号を生成するニューラルボコーダおよびニューラルボコーダの訓練方法 |
Country Status (2)
Country | Link |
---|---|
JP (2) | JP7274184B2 (ja) |
WO (1) | WO2020145472A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112634856B (zh) * | 2020-12-10 | 2022-09-02 | 思必驰科技股份有限公司 | 语音合成模型训练方法和语音合成方法 |
US12266343B2 (en) | 2021-02-23 | 2025-04-01 | Samsung Electronics Co., Ltd. | Electronic device and control method thereof |
KR20220120214A (ko) * | 2021-02-23 | 2022-08-30 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
JP2022146690A (ja) * | 2021-03-22 | 2022-10-05 | 株式会社リコー | 情報処理装置、システム、方法、およびプログラム |
WO2023281555A1 (ja) * | 2021-07-05 | 2023-01-12 | 日本電信電話株式会社 | 生成方法、生成プログラム及び生成装置 |
CN113539237A (zh) * | 2021-07-15 | 2021-10-22 | 思必驰科技股份有限公司 | 语音合成方法、电子设备及存储介质 |
JP2024539564A (ja) * | 2021-10-14 | 2024-10-29 | クアルコム,インコーポレイテッド | 機械学習ベースの時変フィルタと線形予測コーディングフィルタとの組み合わせを使用するオーディオコーディング |
WO2023064735A1 (en) * | 2021-10-14 | 2023-04-20 | Qualcomm Incorporated | Audio coding using machine learning based linear filters and non-linear neural sources |
CN116994553A (zh) * | 2022-09-15 | 2023-11-03 | 腾讯科技(深圳)有限公司 | 语音合成模型的训练方法、语音合成方法、装置及设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02304493A (ja) * | 1989-05-19 | 1990-12-18 | Hitachi Ltd | 音声合成システム |
JPH0317700A (ja) * | 1989-06-14 | 1991-01-25 | Nec Corp | 音声符号化復号化方式 |
JPH07234697A (ja) * | 1994-02-08 | 1995-09-05 | At & T Corp | 音声信号の符号化方法 |
WO2010104040A1 (ja) * | 2009-03-09 | 2010-09-16 | 国立大学法人豊橋技術科学大学 | 1モデル音声認識合成に基づく音声合成装置、音声合成方法および音声合成プログラム |
JP2018036413A (ja) * | 2016-08-30 | 2018-03-08 | 日本電信電話株式会社 | 音声合成学習装置、方法、及びプログラム |
JP2018141915A (ja) * | 2017-02-28 | 2018-09-13 | 国立研究開発法人情報通信研究機構 | 音声合成システム、音声合成プログラムおよび音声合成方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6691082B1 (en) * | 1999-08-03 | 2004-02-10 | Lucent Technologies Inc | Method and system for sub-band hybrid coding |
US7315815B1 (en) * | 1999-09-22 | 2008-01-01 | Microsoft Corporation | LPC-harmonic vocoder with superframe structure |
JP2001296900A (ja) * | 2000-04-13 | 2001-10-26 | Hitachi Kokusai Electric Inc | 音声信号符号復号化システム |
JP6499305B2 (ja) | 2015-09-16 | 2019-04-10 | 株式会社東芝 | 音声合成装置、音声合成方法、音声合成プログラム、音声合成モデル学習装置、音声合成モデル学習方法及び音声合成モデル学習プログラム |
KR101862982B1 (ko) * | 2017-02-17 | 2018-05-30 | 국방과학연구소 | LPC-10e 보코더에서 DNN을 이용한 유무성음 판별 방법 |
-
2019
- 2019-08-16 JP JP2021540067A patent/JP7274184B2/ja active Active
- 2019-08-16 WO PCT/KR2019/010428 patent/WO2020145472A1/ko active Application Filing
-
2023
- 2023-04-21 JP JP2023069781A patent/JP7618724B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02304493A (ja) * | 1989-05-19 | 1990-12-18 | Hitachi Ltd | 音声合成システム |
JPH0317700A (ja) * | 1989-06-14 | 1991-01-25 | Nec Corp | 音声符号化復号化方式 |
JPH07234697A (ja) * | 1994-02-08 | 1995-09-05 | At & T Corp | 音声信号の符号化方法 |
WO2010104040A1 (ja) * | 2009-03-09 | 2010-09-16 | 国立大学法人豊橋技術科学大学 | 1モデル音声認識合成に基づく音声合成装置、音声合成方法および音声合成プログラム |
JP2018036413A (ja) * | 2016-08-30 | 2018-03-08 | 日本電信電話株式会社 | 音声合成学習装置、方法、及びプログラム |
JP2018141915A (ja) * | 2017-02-28 | 2018-09-13 | 国立研究開発法人情報通信研究機構 | 音声合成システム、音声合成プログラムおよび音声合成方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2020145472A1 (ko) | 2020-07-16 |
JP2023089256A (ja) | 2023-06-27 |
JP7274184B2 (ja) | 2023-05-16 |
JP7618724B2 (ja) | 2025-01-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7618724B2 (ja) | 話者適応型モデルを実現して合成音声信号を生成するニューラルボコーダおよびニューラルボコーダの訓練方法 | |
US20220208170A1 (en) | Generating Expressive Speech Audio From Text Data | |
KR102198598B1 (ko) | 합성 음성 신호 생성 방법, 뉴럴 보코더 및 뉴럴 보코더의 훈련 방법 | |
JP6622505B2 (ja) | 音響モデル学習装置、音声合成装置、音響モデル学習方法、音声合成方法、プログラム | |
CN117043855A (zh) | 无监督并行Tacotron非自回归和可控的文本到语音 | |
CN114207706A (zh) | 使用组合的韵律信息经由神经网络生成声学序列 | |
KR102198597B1 (ko) | 뉴럴 보코더 및 화자 적응형 모델을 구현하기 위한 뉴럴 보코더의 훈련 방법 | |
EP4078571A1 (en) | A text-to-speech synthesis method and system, a method of training a text-to-speech synthesis system, and a method of calculating an expressivity score | |
JP2018141915A (ja) | 音声合成システム、音声合成プログラムおよび音声合成方法 | |
GB2603776A (en) | Methods and systems for modifying speech generated by a text-to-speech synthesiser | |
JP7701566B2 (ja) | 自己回帰生成ニューラルネットワークを使用するオーディオ生成 | |
JP2019179257A (ja) | 音響モデル学習装置、音声合成装置、音響モデル学習方法、音声合成方法、プログラム | |
CN119731649A (zh) | 歌曲生成方法、装置、电子设备和存储介质 | |
Wu et al. | Collapsed speech segment detection and suppression for WaveNet vocoder | |
CN105684079A (zh) | 用于增强输入的有噪信号的方法和系统 | |
Singh et al. | Spectral modification based data augmentation for improving end-to-end ASR for children's speech | |
JP5807921B2 (ja) | 定量的f0パターン生成装置及び方法、f0パターン生成のためのモデル学習装置、並びにコンピュータプログラム | |
KR20230148048A (ko) | 감정 추정 기반의 감정 음성 합성 방법 및 시스템 | |
JP2017151230A (ja) | 音声変換装置および音声変換方法ならびに計算機プログラム | |
Zhuang et al. | Litesing: Towards fast, lightweight and expressive singing voice synthesis | |
CN117275498A (zh) | 语音转换方法及语音转换模型的训练方法、电子设备和存储介质 | |
JP6631883B2 (ja) | クロスリンガル音声合成用モデル学習装置、クロスリンガル音声合成用モデル学習方法、プログラム | |
JP2016186516A (ja) | 疑似音声信号生成装置、音響モデル適応装置、疑似音声信号生成方法、およびプログラム | |
CN114203151A (zh) | 语音合成模型的训练的相关方法以及相关装置、设备 | |
Revathy et al. | Performance comparison of speaker and emotion recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210708 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210708 |
|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20210730 Free format text: JAPANESE INTERMEDIATE CODE: A801 Effective date: 20210708 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220711 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220823 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221118 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230322 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230421 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7274184 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |