CN109712634A - 一种自动声音转换方法 - Google Patents
一种自动声音转换方法 Download PDFInfo
- Publication number
- CN109712634A CN109712634A CN201811583082.1A CN201811583082A CN109712634A CN 109712634 A CN109712634 A CN 109712634A CN 201811583082 A CN201811583082 A CN 201811583082A CN 109712634 A CN109712634 A CN 109712634A
- Authority
- CN
- China
- Prior art keywords
- voice
- source
- time
- speech
- pitch
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 20
- 238000006243 chemical reaction Methods 0.000 title claims abstract description 17
- 238000012986 modification Methods 0.000 claims abstract description 14
- 230000004048 modification Effects 0.000 claims abstract description 14
- 238000000605 extraction Methods 0.000 claims description 8
- 238000003672 processing method Methods 0.000 claims description 7
- 238000012545 processing Methods 0.000 claims description 3
- 230000001360 synchronised effect Effects 0.000 claims 1
- 238000012937 correction Methods 0.000 abstract description 6
- 230000014509 gene expression Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 6
- 239000000284 extract Substances 0.000 description 5
- 238000009826 distribution Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 241001342895 Chorus Species 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000006227 byproduct Substances 0.000 description 1
- HAORKNGNJCEJBX-UHFFFAOYSA-N cyprodinil Chemical compound N=1C(C)=CC(C2CC2)=NC=1NC1=CC=CC=C1 HAORKNGNJCEJBX-UHFFFAOYSA-N 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000000116 mitigating effect Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000013518 transcription Methods 0.000 description 1
- 230000035897 transcription Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Landscapes
- Auxiliary Devices For Music (AREA)
Abstract
本发明公开一种自动声音转换方法,包括以下步骤:1)运用声音中的旋律和语音特性这些共同特征将源语音和目标语音实现语音的平滑对齐;2)根据语音平滑对齐的结果,按照时间长度比例,对源语音进行时间尺度修改,使源语音和目标语音的时间对齐;3)使用音调同步重叠相加算法和简单幅度包络匹配算法以逐帧方式修改源语音的音调和音量。本发明实现了全自动语音转换,不需要手动校正,不需要额外的信息,仅在保持歌曲音色的同时修改歌唱中的表达元素,不仅在歌唱领域具有极大的用途,而且在演讲,教学,娱乐等领域具有极大的用途。
Description
技术领域
本发明涉及一种语音信号处理技术,具体为一种自动声音转换方法。
背景技术
随着生活水平的不断提高,人们的精神生活也越来越丰富。唱歌(卡拉OK)是人们的娱乐方式之一。根据歌唱技巧,通过声音处理软件可以将歌曲渲染成动人的音乐或只是嘈杂的声音。歌唱声音变形,手语语音合成、语音->唱歌-唱歌->语音转换、语音音色转换中使用的以参考录音为对象,获取歌唱声音表达参数的语音转换方法比较普遍。
Autotune,VariAudio和Melodyne等商用人声矫正工具,主要侧重于改变歌声的音调,其中一些能够通过编辑转录的MIDI音符来操纵音符开始时间或其他音乐表达方式。尽管它们在某种程度上提供了自动控制,但为了获得满意的结果,校正过程通常是繁琐且重复的。
以前的一些工作试图最小化手动修改音乐表达中的音频信号。Bryan等人提出了一种变速率时间拉伸方法,允许用户轻松修改拉伸比。给定用户引导的刚度曲线,该方法通过约束优化程序自动计算与时间相关的拉伸速率。Roebel等人提出了一种去除颤音表达式的算法。完全基于光谱包络平滑操作而无需操纵各个部分参数。虽然这些方法在处理歌声信号方面提供了更多便利,但它们仍然在某种程度上需要用户指南或参数控制
发明内容
针对现有技术中语音转换存在校正过程繁琐、需要用户指南或参数控制等不足,本发明要解决的问题是提供一种不需要手动校正、可从一种语音转换为指定语音的自动声音转方法。
为解决上述技术问题,本发明采用的技术方案是:
本发明一种语音自动转换处理方法,包括以下步骤:
1)运用声音中的旋律和语音特性这些共同特征将源语音和目标语音实现语音的平滑对齐;
2)根据语音平滑对齐的结果,按照时间长度比例,对源语音进行时间尺度修改,使源语音和目标语音的时间对齐;
3)使用音调同步重叠相加算法和简单幅度包络匹配算法以逐帧方式修改源语音的音调和音量。
步骤2)中,源语音和目标语音的时间对齐,指对源语音和目标语音进行特征提取,然后使用动态时间规整对这些特征进行对齐。
所述特征提取为最大滤波常数Q变换和从音素分类器中提取的音素分数这两个特征。
步骤2)中,时间长度比例,指使用MATLAB中的sgolayfilt函数将三阶Savitzky-Golay滤波器应用于分段线性对齐路径;将平滑后的结果与所给对齐路径进行比较,使用滤波路径的斜率计算时间拉伸率。
步骤2)中,时间尺度修改,指根据每帧变化的平滑时间拉伸比,将其应用于时间尺度修改TSM算法,以便在时间上对齐语音。
步骤3)中,音调同步重叠相加算法修改,是指通过算法对齐音调,该算法所需音调比计算如下:
其中,β(i)为音调比,f0T(i)和f0ST(i)分别表示目标和源语音的帧级音调序列,asT(i)为在时间对准之后从源获得的非周期性。
步骤3)中,幅度包络匹配算法用于音量对齐,通过计算两个语音之间的帧级幅度增益并将其乘以源声音来实现,使用均方根值从每个语音中提取出包络,并从两个幅度包络的比率中获得幅度增益。
本发明具有以下有益效果及优点:
1.本发明实现了全自动语音转换,不需要手动校正,不需要额外的信息,例如符号音乐乐谱和歌词等,该方法仅在保持歌曲音色的同时修改歌唱中的表达元素。
2.本发明方法不仅在歌唱领域具有极大的用途,而且在演讲,教学,娱乐等领域具有极大的用途。
附图说明
图1为本发明方法流程图;
图2A是简单的使用两个歌声的频谱,通过DTW得到相似性矩阵和对齐路径。
图2B为使用最大滤波常数Q变换(max-filtered constant-Q transfor),通过DTW得到的相似性矩阵和对齐路径
图2C为使用音素分类器中提取的音素分数,通过DTW得到的相似性矩阵和对齐路径
图2D为同时使用最大滤波常数Q变换(max-filtered constant-Q transfor)和音素分类器中提取的音素分数,通过DTW得到的相似性矩阵和对齐路径
图3为通过Savitzky-Golay滤波器(实线)对齐路径(虚线)和滤波路径的放大视图;图4为对该发明评估所使用的数据;
图5为时间对齐结果方柱图;
图6为转换后源声音和目标声音之间音高的平均差异;
图7为源语音和目标语音之间的音量的平均差异(以RMS表示)。
具体实施方式
下面结合说明书附图对本发明作进一步阐述。
本发明根据不同的人对同一句话的表达在节奏、音调、大小方面有较大的差异等特点,通过运用声音中的旋律和语音特性(滤波常数Q变换和从音素分类器中提取的音素分数)这些共同特征把两种声音进行对齐,然后根据平滑对齐的结果,按照一定的时间长度比例,对源语音进行时间尺度的修改,一旦两个语音对齐,该方法使用音调同步重叠相加算法和简单幅度包络匹配算法以逐帧方式修改源语音的音调和音量。
如图1所示,本发明一种自动声音转换方法,包括以下步骤:
1)运用声音中的旋律和语音特性这些共同特点将源语音和目标语音实现语音的平滑对齐;
2)根据语音平滑对齐的结果,按照时间长度比例,对源语音进行时间尺度修改,使源语音和目标语音的时间对齐;
3)使用音调同步重叠相加算法和简单幅度包络匹配算法以逐帧方式修改源声音的音调和音量。
本发明方法是将语音从源语音转换为指定的语音。
步骤1)中,语音的平滑对齐,指对源语音和目标语音进行特征提取,然后使用动态时间规整(DTW)对这些特征进行对齐。
首先对源语音和目标语音进行特征提取,主要包括两个特征,一个特征是处理旋律方面的最大滤波常数Q变换(max-filtered constant-Q transfor),具体来说使用基于88波段滤波器组的常数Q变换(constant-Q transfor),每个滤波器组都设计用于覆盖一个具有半色调分辨率的音符,应用最大滤波以进一步减轻音调变化,特别是对于两个歌声在音调差异中具有多于一个半音的情况,例如,通过错误的音符播放或过度的音高弯曲。图2B中的相似性矩阵和对齐路径表明,具有强烈颤音的片段中的迂回变得更加对角线。而图2A只是简单的使用两个歌声的频谱作为声音的特征,通过DTW对齐的结果,虽然从DTW算法返回的对齐路径非常成功地找到了音符的起始和偏移,但是当一个声音具有颤音和音高弯曲时,它经常无法找到正确的对准路径。
另一个特征是从音素分类器中提取的音素分数。这是为了提取声音中的语音信息,同时消除两个语音之间的音色差异。使用开源音素分类器来预测帧级音素概率分布。它使用具有delta和double-delta作为输入特征的39维梅尔频率倒谱系数(MFCC),并使用HTK语音识别工具包训练以预测39个音素的分布作为输出。使用该输出作为时间对齐的抒情特征向量。图2C中的相似性矩阵和对齐路径表明,语音特征也有助于减轻迂回问题。图2D显示了使用旋律和歌词功能时的结果。对齐路径类似于图2C中的对齐路径,但它变得更加平滑。
将上面两个特征作为DTW的输入进行对齐。
步骤2)中,源语音和目标语音的时间对齐,指对源语音和目标语音进行特征提取,然后使用动态时间规整对这些特征进行对齐。特征提取为处理旋律方面的最大滤波常数Q变换(max-filtered constant-Q transfor)和从音素分类器中提取的音素分数这两个特征。
步骤2)中,时间长度比例,指使用MATLAB中的sgolayfilt函数将三阶Savitzky-Golay滤波器应用于分段线性对齐路径;将平滑后的结果与所给对齐路径进行比较,使用滤波路径的斜率计算时间拉伸率。
步骤2)中,时间尺度修改,指根据每帧变化的平滑时间拉伸比,将其应用于时间尺度修改TSM算法,以便在时间上对齐声音。
平滑时间拉伸比,使用Savitzky-Golay滤波器,这是一种近似方法,以卷积方式将序列值的子集与低阶多项式拟合。具体来说,使用MATLAB中的函数(sgolayfilt函数)将三阶Savitzky-Golay滤波器应用于分段线性对齐路径。将平滑后的结果与图3中的对齐路径进行比较。为了计算时间拉伸率α们简单地使用滤波路径的斜率。一旦获得每帧变化的时间拉伸比,将其应用于时间尺度修改(TSM)算法,以便在时间上对齐声音。具体来说,使用了来自TSM工具箱的基于相似性的OverLap和Add(WSOLA)。
步骤3)中,音调同步重叠相加算法修改,是指通过算法对齐音调,该算法所需音调比计算如下:
其中,β(i)为音调比,f0T(i)和f0ST(i)分别表示目标和源的帧级音调序列,asT(i)为在时间对准之后从源获得的非周期性。
如公式1所示,本发明方法仅对具有强周期性的段应用音调修改。使用YIN算法来提取每个语音的音调。该算法将非周期性作为副产品返回。还使用谐波-冲击源分离(HPSS)和中值滤波器[15]来分离来自每个声音的谐波信号,然后将它们应用到音调检测器。
步骤3)中,幅度包络匹配算法用于音量对齐,通过计算两个语音之间的帧级幅度增益并将其乘以源声音来实现,使用均方根值从每个语音中提取出包络,并从两个幅度包络的比率中获得幅度增益。
本实施例收集了四首歌曲,各有不同的风格(共有16首来自不同歌手的录音)。四首歌曲的录音中,一个是来自专业人士或具有熟练歌唱技巧的人的目标歌唱声音,其余来自普通歌手。由于通过从目标中获取音乐表达来修改普通的歌声,本实施例选用12对歌声(每首歌3对)。歌手一边看歌,一边看着歌词的显示位置。每首歌的长度大约是10秒到20秒,是从原始歌曲的合唱部分中取出的。图4总结了评估时使用的歌曲的特点及数量等的数据集。
时间对准的评估,即为了评估时间对齐的性能,本实施例将图1中的修改后的源语音STPE与使用带有频谱图的DTW的目标语音对齐,并计算DTW路径上的局部斜率的标准偏差(当它们完全对齐时的斜率)另外,本实施例不是直接在计算标准偏差时使用局部斜率,而是使用反正切函数转换斜率θ=arctan(s),其中s是路径的局部斜率,因此值(从0到无穷大)被映射到有限范围(从0到π/2弧度)。
图5通过不同的音频特征比较了局部斜率的标准偏差。
通常,使用音素分类器的旋律特征在所有示例中都是最可靠的。这可能是因为歌手用歌词表演歌曲,因此语音特征非常准确。使用具有最大滤波器常数Q变换(max-filtered constant-Q transfor)的旋律特征也有助于改善对准,但是对于具有低音调的歌曲(例如,歌曲2-1至2-3)有时失败。这是因为在常数Q变换(constant-Q transfor)中低音调范围中的音调分辨率不够高。结合这两个特征并不一定能改善结果。对于一半的例子,它取得了最好的结果,但它产生的结果甚至比另一半的旋律特征更差。
评估音高和音量对准,即对于音调,在音调对准之前和之后比较源和目标之间的平均音调差。用YIN算法测量音调,并仅计算具有强周期性的片段(即当非周期性小于0.2时)。图6显示了在音调对准之后,平均音调差异总计减少了78:8%。对于音量对准,本发明计算了幅度包络的差异的平均值。具体来说,使用了均方根(RMS)值。图7显示动态对准后平均动态差异减少了86:4%。
Claims (7)
1.一种自动声音转换方法,其特征在于包括以下步骤:
1)运用声音中的旋律和语音特性这些共同特征将源语音和目标语音实现语音的平滑对齐;
2)根据语音平滑对齐的结果,按照时间长度比例,对源语音进行时间尺度修改,使源语音和目标语音的时间对齐;
3)使用音调同步重叠相加算法和简单幅度包络匹配算法以逐帧方式修改源语音的音调和音量。
2.根据权利要求1所述的语音自动转换处理方法,其特征在于:步骤2)中,源语音和目标语音的时间对齐,指对源语音和目标语音进行特征提取,然后使用动态时间规整对这些特征进行对齐。
3.根据权利要求2所述的语音自动转换处理方法,其特征在于:所述特征提取为处理旋律方面的最大滤波常数Q变换和从音素分类器中提取的音素分数这两个特征。
4.根据权利要求1所述的语音自动转换处理方法,其特征在于:步骤2)中,时间长度比例,指使用MATLAB中的sgolayfilt函数将三阶Savitzky-Golay滤波器应用于分段线性对齐路径;将平滑后的结果与所给对齐路径进行比较,使用滤波路径的斜率计算时间拉伸率。
5.根据权利要求1所述的语音自动转换处理方法,其特征在于:步骤2)中,时间尺度修改,指根据每帧变化的平滑时间拉伸比,将其应用于时间尺度修改TSM算法,以便在时间上对齐语音。
6.根据权利要求1所述的语音自动转换处理方法,其特征在于:步骤3)中,音调同步重叠相加算法修改,是指通过算法对齐音调,该算法所需音调比计算如下:
其中,β(i)为音调比,f0T(i)和f0ST(i)分别表示目标和源语音的帧级音调序列,asT(i)为在时间对准之后从源获得的非周期性。
7.根据权利要求1所述的语音自动转换处理方法,其特征在于:步骤3)中,幅度包络匹配算法用于音量对齐,通过计算两个语音之间的帧级幅度增益并将其乘以源声音来实现,使用均方根值从每个语音中提取出包络,并从两个幅度包络的比率中获得幅度增益。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811583082.1A CN109712634A (zh) | 2018-12-24 | 2018-12-24 | 一种自动声音转换方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811583082.1A CN109712634A (zh) | 2018-12-24 | 2018-12-24 | 一种自动声音转换方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109712634A true CN109712634A (zh) | 2019-05-03 |
Family
ID=66256120
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811583082.1A Pending CN109712634A (zh) | 2018-12-24 | 2018-12-24 | 一种自动声音转换方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109712634A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111680187A (zh) * | 2020-05-26 | 2020-09-18 | 平安科技(深圳)有限公司 | 乐谱跟随路径的确定方法、装置、电子设备及存储介质 |
CN114171056A (zh) * | 2021-11-26 | 2022-03-11 | 福建星网视易信息系统有限公司 | 一种音频替换方法及终端 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1118493A (zh) * | 1994-08-01 | 1996-03-13 | 中国科学院声学研究所 | 基音同步波形叠加汉语文语转换系统 |
KR20030031936A (ko) * | 2003-02-13 | 2003-04-23 | 배명진 | 피치변경법을 이용한 단일 음성 다중 목소리 합성기 |
CN1682281A (zh) * | 2002-09-17 | 2005-10-12 | 皇家飞利浦电子股份有限公司 | 在语音合成中用于控制持续时间的方法 |
CN102306492A (zh) * | 2011-09-09 | 2012-01-04 | 中国人民解放军理工大学 | 基于卷积非负矩阵分解的语音转换方法 |
CN102568476A (zh) * | 2012-02-21 | 2012-07-11 | 南京邮电大学 | 基于自组织特征映射网络聚类和径向基网络的语音转换法 |
CN102664003A (zh) * | 2012-04-24 | 2012-09-12 | 南京邮电大学 | 基于谐波加噪声模型的残差激励信号合成及语音转换方法 |
CN103021418A (zh) * | 2012-12-13 | 2013-04-03 | 南京邮电大学 | 一种面向多时间尺度韵律特征的语音转换方法 |
CN104392717A (zh) * | 2014-12-08 | 2015-03-04 | 常州工学院 | 一种基于声道谱高斯混合建模的快速语音转换系统及其方法 |
CN104885153A (zh) * | 2012-12-20 | 2015-09-02 | 三星电子株式会社 | 音频校正设备及其音频校正方法 |
-
2018
- 2018-12-24 CN CN201811583082.1A patent/CN109712634A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1118493A (zh) * | 1994-08-01 | 1996-03-13 | 中国科学院声学研究所 | 基音同步波形叠加汉语文语转换系统 |
CN1682281A (zh) * | 2002-09-17 | 2005-10-12 | 皇家飞利浦电子股份有限公司 | 在语音合成中用于控制持续时间的方法 |
KR20030031936A (ko) * | 2003-02-13 | 2003-04-23 | 배명진 | 피치변경법을 이용한 단일 음성 다중 목소리 합성기 |
CN102306492A (zh) * | 2011-09-09 | 2012-01-04 | 中国人民解放军理工大学 | 基于卷积非负矩阵分解的语音转换方法 |
CN102568476A (zh) * | 2012-02-21 | 2012-07-11 | 南京邮电大学 | 基于自组织特征映射网络聚类和径向基网络的语音转换法 |
CN102664003A (zh) * | 2012-04-24 | 2012-09-12 | 南京邮电大学 | 基于谐波加噪声模型的残差激励信号合成及语音转换方法 |
CN103021418A (zh) * | 2012-12-13 | 2013-04-03 | 南京邮电大学 | 一种面向多时间尺度韵律特征的语音转换方法 |
CN104885153A (zh) * | 2012-12-20 | 2015-09-02 | 三星电子株式会社 | 音频校正设备及其音频校正方法 |
CN104392717A (zh) * | 2014-12-08 | 2015-03-04 | 常州工学院 | 一种基于声道谱高斯混合建模的快速语音转换系统及其方法 |
Non-Patent Citations (4)
Title |
---|
YUNBO ZHU ETC: "A Chinese Text to Speech System Based on TD-PSOLA", 《PROCEDINGS OF IEEE TENCON"02》 * |
严勤 等: "《语音信号处理与识别》", 31 December 2015, 国防工业出版社 * |
李清华: "语音转换技术研究及实现", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
袁晓勇: "基于LPAC-PSOLA合成算法语音转换系统", 《中国优秀硕士学位论文全文数据库》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111680187A (zh) * | 2020-05-26 | 2020-09-18 | 平安科技(深圳)有限公司 | 乐谱跟随路径的确定方法、装置、电子设备及存储介质 |
CN111680187B (zh) * | 2020-05-26 | 2023-11-24 | 平安科技(深圳)有限公司 | 乐谱跟随路径的确定方法、装置、电子设备及存储介质 |
CN114171056A (zh) * | 2021-11-26 | 2022-03-11 | 福建星网视易信息系统有限公司 | 一种音频替换方法及终端 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021218138A1 (zh) | 歌曲合成方法、装置、设备及存储介质 | |
Muller et al. | Signal processing for music analysis | |
CN104272382B (zh) | 基于模板的个性化歌唱合成的方法和系统 | |
CN112382257B (zh) | 一种音频处理方法、装置、设备及介质 | |
CN109979488B (zh) | 基于重音分析的人声转乐谱系统 | |
US20080115656A1 (en) | Tempo detection apparatus, chord-name detection apparatus, and programs therefor | |
CN106971703A (zh) | 一种基于hmm的歌曲合成方法及装置 | |
US8626497B2 (en) | Automatic marking method for karaoke vocal accompaniment | |
CN110136730B (zh) | 一种基于深度学习的钢琴和声自动编配系统及方法 | |
CN101154376A (zh) | 音乐伴奏装置的自动跟调方法暨系统 | |
CN103915093A (zh) | 一种实现语音歌唱化的方法和装置 | |
CN110516102B (zh) | 一种基于语谱图识别的歌词时间戳生成方法 | |
WO2018236015A1 (ko) | 가창 표현 이식 시스템 | |
Yong et al. | Singing expression transfer from one voice to another for a given song | |
CN109712634A (zh) | 一种自动声音转换方法 | |
Lerch | Software-based extraction of objective parameters from music performances | |
JP2014048472A (ja) | カラオケ用音声合成システム,及びパラメータ抽出装置 | |
CN115050387A (zh) | 一种艺术测评中多维度唱奏分析测评方法及系统 | |
WO2008037115A1 (fr) | Procédé et système de suivi automatique de la hauteur tonale pour appareil d'accompagnement musical | |
CN113129923A (zh) | 一种艺术测评中多维度唱奏分析测评方法及系统 | |
Smith et al. | Vowel-pitch matching in Wagner’s operas: Implications for intelligibility and ease of singing | |
CN113488007A (zh) | 信息处理方法、装置、电子设备及存储介质 | |
New et al. | Voice conversion: From spoken vowels to singing vowels | |
CN113823270B (zh) | 节奏评分的确定方法、介质、装置和计算设备 | |
Traube et al. | Phonetic gestures underlying guitar timbre description |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190503 |