CN112562712A - 一种录音数据处理方法、系统、电子设备及存储介质 - Google Patents
一种录音数据处理方法、系统、电子设备及存储介质 Download PDFInfo
- Publication number
- CN112562712A CN112562712A CN202011549737.0A CN202011549737A CN112562712A CN 112562712 A CN112562712 A CN 112562712A CN 202011549737 A CN202011549737 A CN 202011549737A CN 112562712 A CN112562712 A CN 112562712A
- Authority
- CN
- China
- Prior art keywords
- audio
- track
- sound
- data processing
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 28
- 238000000926 separation method Methods 0.000 claims abstract description 52
- 238000000034 method Methods 0.000 claims abstract description 25
- 230000008569 process Effects 0.000 claims abstract description 8
- 238000012545 processing Methods 0.000 claims description 20
- 238000004590 computer program Methods 0.000 claims description 13
- 230000000694 effects Effects 0.000 abstract description 3
- 238000001228 spectrum Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 238000013507 mapping Methods 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 241000209140 Triticum Species 0.000 description 2
- 235000021307 Triticum Nutrition 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B20/00—Signal processing not specific to the method of recording or reproducing; Circuits therefor
- G11B20/10—Digital recording or reproducing
- G11B20/10527—Audio or video recording; Data buffering arrangements
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B20/00—Signal processing not specific to the method of recording or reproducing; Circuits therefor
- G11B20/10—Digital recording or reproducing
- G11B20/10527—Audio or video recording; Data buffering arrangements
- G11B2020/10537—Audio or video recording
- G11B2020/10546—Audio or video recording specifically adapted for audio data
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Quality & Reliability (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Circuit For Audible Band Transducer (AREA)
Abstract
本发明提出一种录音数据处理方法、系统、电子设备及存储介质,其方法技术方案包括第一拾音步骤,使用一佩戴于第一对话者的第一拾音设备采集第一对话者的声音,传输至一第二拾音设备,并保存为第一音轨;第二拾音步骤,使用所述第二拾音设备采集第二对话者的声音,并保存为第二音轨;音频生成步骤,使用所述第二拾音设备将所述第一音轨与所述第二音轨处理为中间音频文件;音频分离步骤,对所述中间音频文件进行语音角色分离。本发明解决了现有录音处理方法成本较高且效果不佳的问题。
Description
技术领域
本发明属于音频处理领域,尤其涉及一种可适用于现场录音技术的录音数据处理方法、系统、电子设备及存储介质。
背景技术
当前行业中在通过录音设备录音的场景中,通过录音设备如三麦、四麦录音设备提高录音过程中区分佩戴者、对话者的录音过程达到更加良好的有效录音、更低的噪音效果、更易通过录音分离提取佩戴者、对话者的角色音的方法。
在这种方法中,环境的非有效录音往往都是噪音,非常容易对音频角色录音分离造成极大的干扰,也非常容易导致佩戴者和对话者录音角色分离之后出错,这种方案往往会以更加高昂的成本和更加复杂的技术去解决,这往往在商用场景中使用成本会极大的提升。
发明内容
本申请实施例提供了一种录音数据处理方法、系统、电子设备及存储介质,以至少解决现有录音处理方法成本较高且效果不佳的问题。
第一方面,本申请实施例提供了一种录音数据处理方法,包括:第一拾音步骤,使用一佩戴于第一对话者的第一拾音设备采集第一对话者的声音,传输至一第二拾音设备,并保存为第一音轨;第二拾音步骤,使用所述第二拾音设备采集第二对话者的声音,并保存为第二音轨;音频生成步骤,使用所述第二拾音设备将所述第一音轨与所述第二音轨处理为中间音频文件;音频分离步骤,对所述中间音频文件进行语音角色分离。
优选的,所述中间音频文件为一个双音轨单音频文件或两个双音轨单音频文件。
优选的,所述音频分离步骤还包括:将所述中间音频文件中的所述第一音轨中非第一对话者的声音剔除,将所述第二音轨中非第二对话者的声音剔除。
优选的,所述音频分离步骤还包括:使用一语音分离算法对所述中间音频文件进行语音角色分离。
第二方面,本申请实施例提供了一种录音数据处理系统,适用于上述一种录音数据处理方法,包括:第一拾音单元:使用一佩戴于第一对话者的第一拾音设备采集第一对话者的声音,传输至一第二拾音设备,并保存为第一音轨;第二拾音单元,使用所述第二拾音设备采集第二对话者的声音,并保存为第二音轨;音频生成单元,使用所述第二拾音设备将所述第一音轨与所述第二音轨处理为中间音频文件;音频分离单元,对所述中间音频文件进行语音角色分离。
在其中一些实施例中,所述中间音频文件为一个双音轨单音频文件或两个双音轨单音频文件。
在其中一些实施例中,所述音频分离单元还包括:将所述中间音频文件中的所述第一音轨中非第一对话者的声音剔除,将所述第二音轨中非第二对话者的声音剔除。
在其中一些实施例中,所述音频分离单元还包括:使用一语音分离算法对所述中间音频文件进行语音角色分离。
第三方面,本申请实施例提供了一种电子设备,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上述第一方面所述的一种录音数据处理方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上述第一方面所述的一种录音数据处理方法。
相比于相关技术,本申请实施例提供的一种录音数据处理方法以更加低成本、低技术难度的的方式录取更加精准的音频源录音。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1为本发明的录音数据处理方法流程图;
图2为本发明的录音数据处理系统的框架图;
图3为本发明的电子设备的框架图;
以上图中:
1、第一拾音单元;2、第二拾音单元;3、音频生成单元;4、音频分离单元;60、总线;61、处理器;62、存储器;63、通信接口。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行描述和说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。基于本申请提供的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
显而易见地,下面描述中的附图仅仅是本申请的一些示例或实施例,对于本领域的普通技术人员而言,在不付出创造性劳动的前提下,还可以根据这些附图将本申请应用于其他类似情景。此外,还可以理解的是,虽然这种开发过程中所作出的努力可能是复杂并且冗长的,然而对于与本申请公开的内容相关的本领域的普通技术人员而言,在本申请揭露的技术内容的基础上进行的一些设计,制造或者生产等变更只是常规的技术手段,不应当理解为本申请公开的内容不充分。
在本申请中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域普通技术人员显式地和隐式地理解的是,本申请所描述的实施例在不冲突的情况下,可以与其它实施例相结合。
除非另作定义,本申请所涉及的技术术语或者科学术语应当为本申请所属技术领域内具有一般技能的人士所理解的通常意义。本申请所涉及的“一”、“一个”、“一种”、“该”等类似词语并不表示数量限制,可表示单数或复数。本申请所涉及的术语“包括”、“包含”、“具有”以及它们任何变形,意图在于覆盖不排他的包含;例如包含了一系列步骤或模块(单元)的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可以还包括没有列出的步骤或单元,或可以还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。
现实环境中,感兴趣的语音信号通常会被噪音干扰,严重损害了语音的可懂度,降低了语音识别的性能。针对噪音,前端语音分离技术是最常用的方法之一。一个好的前端语音分离模块能够极大地提高语音的可懂度和自动语音识别系统的识别性能。
从信号处理的角度来看,许多方法提出估计噪音的功率谱或者理想维纳滤波器,比如谱减法和维纳滤波法。其中维纳滤波是最小均方误差意义下分离纯净语音的最优滤波器。在假定语音和噪音的先验分布的条件下,给定带噪语音,它能推断出语音的谱系数。基于信号处理的方法通常假设噪音是平稳的或者是慢变的。在满足假设条件的情况下,这些方法能够取得比较好的分离性能。相比于信号处理的方法,基于模型的方法利用混合前的纯净信号分别构建语音和噪音的模型在低信噪比的情况下取得了重要的性能提升。在基于模型的语音分离方法中,非负矩阵分解是常用的建模方法,它能挖掘非负数据中的局部基表示,目前已被广泛地应用到语音分离中。计算听觉场景分析是另一个重要的语音分离技术,它试图模拟人耳对声音的处理过程来解决语音分离问题。计算听觉场景分析的基本计算目标是估计一个理想二值掩蔽,根据人耳的听觉掩蔽来实现语音的分离。相对于其他语音分离的方法,计算听觉场景分析对噪音没有任何假设,具有更好的泛化性能。
语音分离旨在从被干扰的语音信号中分离出有用的信号,这个过程能够很自然地表达成一个监督性学习问题。一个典型的监督性语音分离系统通常通过监督性学习算法,例如深度神经网络,学习一个从带噪特征到分离目标的映射函数,例如理想掩蔽或者感兴趣语音的幅度谱。
以下,结合附图详细介绍本发明的实施例:
图1为本发明的录音数据处理方法流程图,请参见图1,本发明录音数据处理方法包括如下步骤:
S1:使用一佩戴于第一对话者的第一拾音设备采集第一对话者的声音,传输至一第二拾音设备,并保存为第一音轨。
在具体实施中,将录音的对象区分为佩戴者和与之相对应的对话者,将第一拾音设备佩戴于佩戴者的身上,可选的,第一拾音设备可为耳机;使用该第一拾音设备在一定距离内采集佩戴者的声音,可选的,一定距离可为0.2米。
在具体实施中,采集完成佩戴者的声音后,将该录音数据传输至一第二拾音设备,可选的,该第二拾音设备可为一录音机;第二拾音设备将所接收到的佩戴者的声音以一个音轨的形式保存。
在本步骤中,使用一佩戴于第一对话者的拾音设备,可实现针对性的进场拾音。
S2:使用所述第二拾音设备采集第二对话者的声音,并保存为第二音轨。
在具体实施中,该第二拾音设备用于采集与佩戴者相对应的对话者的声音,可选的,该第二拾音设备设置于对话者的一定距离半径内;可选的,该一定距离可为2米。
在具体实施中,第二拾音设备将所采集到的佩戴者的声音以一个音轨的形式保存。
S3:使用所述第二拾音设备将所述第一音轨与所述第二音轨处理为中间音频文件。
可选的,所述中间音频文件为一个双音轨单音频文件或两个双音轨单音频文件。
在具体实施中,佩戴者和对话者的声音以分别两个音轨的形式保存,第二拾音设备可选择将两个音轨做不同形式的处理;可选的,可将该两个音轨合并为一个具有两个音轨的音频文件;可选的,可将该两个音轨分别单独生成两个单音轨的音频文件。
S4:对所述中间音频文件进行语音角色分离。
可选的,所述音频分离步骤还包括:将所述中间音频文件中的所述第一音轨中非第一对话者的声音剔除,将所述第二音轨中非第二对话者的声音剔除。
可选的,所述音频分离步骤还包括:使用一语音分离算法对所述中间音频文件进行语音角色分离。
在具体实施中,将上述的中间音频文件通过一个语音分离算法进行分离,将佩戴者的音轨中,非佩戴者的音频剔除;将对话者的音轨中,非对话者的音频出,以得到更少噪音的音频文件。
在具体实施中,本申请实施例是以固定的人声为主要分离对象,因此,可选的,语音分离算法可使用基于频谱映射的方法,其中,基于频谱映射的方法是让模型通过有监督学习,自己学习有干扰的频谱到无干扰的频谱(干净语音) 之间的映射关系;模型可以是DNN、CNN、LSTM甚至GAN。
需要说明的是,在上述流程中或者附图的流程图中示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
本申请实施例提供了一种录音数据处理系统,适用于上述的一种录音数据处理方法。如以下所使用的,术语“单元”、“模块”等可以实现预定功能的软件和/或硬件的组合。尽管以下实施例所描述的装置较佳地以软件来实现,但是硬件、或者软件和硬件的组合的实现也是可能并被构想的。
图2为根据本发明的录音数据处理系统的框架图,请参见图2,包括:
第一拾音单元1:使用一佩戴于第一对话者的第一拾音设备采集第一对话者的声音,传输至一第二拾音设备,并保存为第一音轨。
在具体实施中,将录音的对象区分为佩戴者和与之相对应的对话者,将第一拾音设备佩戴于佩戴者的身上,可选的,第一拾音设备可为耳机;使用该第一拾音设备在一定距离内采集佩戴者的声音,可选的,一定距离可为0.2米。
在具体实施中,采集完成佩戴者的声音后,将该录音数据传输至一第二拾音设备,可选的,该第二拾音设备可为一录音机;第二拾音设备将所接收到的佩戴者的声音以一个音轨的形式保存。
在本单元中,使用一佩戴于第一对话者的拾音设备,可实现针对性的进场拾音。
第二拾音单元2:使用所述第二拾音设备采集第二对话者的声音,并保存为第二音轨。
在具体实施中,该第二拾音设备用于采集与佩戴者相对应的对话者的声音,可选的,该第二拾音设备设置于对话者的一定距离半径内;可选的,该一定距离可为2米。
在具体实施中,第二拾音设备将所采集到的佩戴者的声音以一个音轨的形式保存。
音频生成单元3:使用所述第二拾音设备将所述第一音轨与所述第二音轨处理为中间音频文件。
可选的,所述中间音频文件为一个双音轨单音频文件或两个双音轨单音频文件。
在具体实施中,佩戴者和对话者的声音以分别两个音轨的形式保存,第二拾音设备可选择将两个音轨做不同形式的处理;可选的,可将该两个音轨合并为一个具有两个音轨的音频文件;可选的,可将该两个音轨分别单独生成两个单音轨的音频文件。
音频分离单元4:对所述中间音频文件进行语音角色分离。
可选的,所述音频分离单元4还包括:将所述中间音频文件中的所述第一音轨中非第一对话者的声音剔除,将所述第二音轨中非第二对话者的声音剔除。
可选的,所述音频分离单元4还包括:使用一语音分离算法对所述中间音频文件进行语音角色分离。
在具体实施中,将上述的中间音频文件通过一个语音分离算法进行分离,将佩戴者的音轨中,非佩戴者的音频剔除;将对话者的音轨中,非对话者的音频出,以得到更少噪音的音频文件。
在具体实施中,本申请实施例是以固定的人声为主要分离对象,因此,可选的,语音分离算法可使用基于频谱映射的方法,其中,基于频谱映射的方法是让模型通过有监督学习,自己学习有干扰的频谱到无干扰的频谱(干净语音) 之间的映射关系;模型可以是DNN、CNN、LSTM甚至GAN。
另外,结合图1描述的一种录音数据处理方法可以由电子设备来实现。图 3为本发明的电子设备的框架图。
电子设备可以包括处理器61以及存储有计算机程序指令的存储器62。
具体地,上述处理器61可以包括中央处理器(CPU),或者特定集成电路(Application Specific Integrated Circuit,简称为ASIC),或者可以被配置成实施本申请实施例的一个或多个集成电路。
其中,存储器62可以包括用于数据或指令的大容量存储器。举例来说而非限制,存储器62可包括硬盘驱动器(Hard Disk Drive,简称为HDD)、软盘驱动器、固态驱动器(SolidState Drive,简称为SSD)、闪存、光盘、磁光盘、磁带或通用串行总线(Universal SerialBus,简称为USB)驱动器或者两个或更多个以上这些的组合。在合适的情况下,存储器62可包括可移除或不可移除(或固定)的介质。在合适的情况下,存储器62可在数据处理装置的内部或外部。在特定实施例中,存储器62是非易失性(Non-Volatile)存储器。在特定实施例中,存储器62包括只读存储器(Read-Only Memory,简称为ROM) 和随机存取存储器(RandomAccess Memory,简称为RAM)。在合适的情况下,该ROM可以是掩模编程的ROM、可编程ROM(Programmable Read-Only Memory,简称为PROM)、可擦除PROM(Erasable ProgrammableRead-Only Memory,简称为EPROM)、电可擦除PROM(Electrically Erasable ProgrammableRead-Only Memory,简称为EEPROM)、电可改写ROM(Electrically Alterable Read-OnlyMemory,简称为EAROM)或闪存(FLASH)或者两个或更多个以上这些的组合。在合适的情况下,该RAM可以是静态随机存取存储器(Static Random-Access Memory,简称为SRAM)或动态随机存取存储器(Dynamic Random Access Memory,简称为DRAM),其中,DRAM可以是快速页模式动态随机存取存储器(Fast Page Mode Dynamic Random Access Memory,简称为FPMDRAM)、扩展数据输出动态随机存取存储器(Extended Date Out Dynamic RandomAccess Memory,简称为EDODRAM)、同步动态随机存取内存(Synchronous Dynamic Random-Access Memory,简称SDRAM)等。
存储器62可以用来存储或者缓存需要处理和/或通信使用的各种数据文件,以及处理器61所执行的可能的计算机程序指令。
处理器61通过读取并执行存储器62中存储的计算机程序指令,以实现上述实施例中的任意一种录音数据处理方法。
在其中一些实施例中,电子设备还可包括通信接口63和总线60。其中,如图3所示,处理器61、存储器62、通信接口63通过总线60连接并完成相互间的通信。
通信端口63可以实现与其他部件例如:外接设备、图像/数据采集设备、数据库、外部存储以及图像/数据处理工作站等之间进行数据通信。
总线60包括硬件、软件或两者,将电子设备的部件彼此耦接在一起。总线60包括但不限于以下至少之一:数据总线(Data Bus)、地址总线(Address Bus)、控制总线(ControlBus)、扩展总线(Expansion Bus)、局部总线(Local Bus)。举例来说而非限制,总线60可包括图形加速接口(Accelerated Graphics Port,简称为AGP)或其他图形总线、增强工业标准架构(Extended Industry Standard Architecture,简称为EISA)总线、前端总线(FrontSide Bus,简称为FSB)、超传输(Hyper Transport,简称为HT)互连、工业标准架构(Industry Standard Architecture,简称为ISA)总线、无线带宽(InfiniBand) 互连、低引脚数(Low Pin Count,简称为LPC)总线、存储器总线、微信道架构(Micro ChannelArchitecture,简称为MCA)总线、外围组件互连(Peripheral Component Interconnect,简称为PCI)总线、PCI-Express(PCI-X)总线、串行高级技术附件(Serial AdvancedTechnology Attachment,简称为SATA) 总线、视频电子标准协会局部(Video ElectronicsStandards Association Local Bus,简称为VLB)总线或其他合适的总线或者两个或更多个以上这些的组合。在合适的情况下,总线60可包括一个或多个总线。尽管本申请实施例描述和示出了特定的总线,但本申请考虑任何合适的总线或互连。
该电子设备可以执行本申请实施例中的一种录音数据处理方法。
另外,结合上述实施例中的一种录音数据处理方法,本申请实施例可提供一种计算机可读存储介质来实现。该计算机可读存储介质上存储有计算机程序指令;该计算机程序指令被处理器执行时实现上述实施例中的任意一种录音数据处理方法。
而前述的存储介质包括:U盘、移动硬盘、只读存储器(ReadOnly Memory,简称为ROM)、随机存取存储器(Random Access Memory,简称为RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种录音数据处理方法,其特征在于,包括:
第一拾音步骤,使用一佩戴于第一对话者的第一拾音设备采集第一对话者的声音,传输至一第二拾音设备,并保存为第一音轨;
第二拾音步骤,使用所述第二拾音设备采集第二对话者的声音,并保存为第二音轨;
音频生成步骤,使用所述第二拾音设备将所述第一音轨与所述第二音轨处理为中间音频文件;
音频分离步骤,对所述中间音频文件进行语音角色分离。
2.如权利要求1所述的录音数据处理方法,其特征在于,所述中间音频文件为一个双音轨单音频文件或两个双音轨单音频文件。
3.如权利要求1所述的录音数据处理方法,其特征在于,所述音频分离步骤还包括:将所述中间音频文件中的所述第一音轨中非第一对话者的声音剔除,将所述第二音轨中非第二对话者的声音剔除。
4.如权利要求1或3所述的录音数据处理方法,其特征在于,所述音频分离步骤还包括:使用一语音分离算法对所述中间音频文件进行语音角色分离。
5.一种录音数据处理系统,其特征在于,包括:
第一拾音单元:使用一佩戴于第一对话者的第一拾音设备采集第一对话者的声音,传输至一第二拾音设备,并保存为第一音轨;
第二拾音单元,使用所述第二拾音设备采集第二对话者的声音,并保存为第二音轨;
音频生成单元,使用所述第二拾音设备将所述第一音轨与所述第二音轨处理为中间音频文件;
音频分离单元,对所述中间音频文件进行语音角色分离。
6.如权利要求5所述的录音数据处理系统,其特征在于,所述中间音频文件为一个双音轨单音频文件或两个双音轨单音频文件。
7.如权利要求5所述的录音数据处理系统,其特征在于,所述音频分离单元还包括:将所述中间音频文件中的所述第一音轨中非第一对话者的声音剔除,将所述第二音轨中非第二对话者的声音剔除。
8.如权利要求5或7所述的录音数据处理系统,其特征在于,所述音频分离单元还包括:使用一语音分离算法对所述中间音频文件进行语音角色分离。
9.一种电子设备,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至4中任一项所述的录音数据处理方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1至4中任一项所述的录音数据处理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011549737.0A CN112562712A (zh) | 2020-12-24 | 2020-12-24 | 一种录音数据处理方法、系统、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011549737.0A CN112562712A (zh) | 2020-12-24 | 2020-12-24 | 一种录音数据处理方法、系统、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112562712A true CN112562712A (zh) | 2021-03-26 |
Family
ID=75033282
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011549737.0A Pending CN112562712A (zh) | 2020-12-24 | 2020-12-24 | 一种录音数据处理方法、系统、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112562712A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113470687A (zh) * | 2021-06-29 | 2021-10-01 | 北京明略昭辉科技有限公司 | 音频采集传输装置、音频处理系统以及音频采集传输方法 |
CN113706844A (zh) * | 2021-08-31 | 2021-11-26 | 上海明略人工智能(集团)有限公司 | 用于语音采集设备预警的方法及装置、语音采集设备、存储介质 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007322899A (ja) * | 2006-06-02 | 2007-12-13 | D & M Holdings Inc | 録音装置 |
CN104123950A (zh) * | 2014-07-17 | 2014-10-29 | 深圳市中兴移动通信有限公司 | 一种录音方法及装置 |
JP2017011754A (ja) * | 2016-09-14 | 2017-01-12 | ソニー株式会社 | 耳孔装着型収音装置、信号処理装置、収音方法 |
JP2018013742A (ja) * | 2016-07-22 | 2018-01-25 | 富士通株式会社 | 音声要約作成支援装置、音声要約作成支援方法、及び音声要約作成支援プログラム |
US20180096705A1 (en) * | 2016-10-03 | 2018-04-05 | Nokia Technologies Oy | Method of Editing Audio Signals Using Separated Objects And Associated Apparatus |
US20190304437A1 (en) * | 2018-03-29 | 2019-10-03 | Tencent Technology (Shenzhen) Company Limited | Knowledge transfer in permutation invariant training for single-channel multi-talker speech recognition |
CN111128197A (zh) * | 2019-12-25 | 2020-05-08 | 北京邮电大学 | 基于声纹特征与生成对抗学习的多说话人语音分离方法 |
CN111243579A (zh) * | 2020-01-19 | 2020-06-05 | 清华大学 | 一种时域单通道多说话人语音识别方法与系统 |
CN111586050A (zh) * | 2020-05-08 | 2020-08-25 | 上海明略人工智能(集团)有限公司 | 音频文件传输方法和装置、存储介质及电子设备 |
CN111833898A (zh) * | 2020-07-24 | 2020-10-27 | 上海明略人工智能(集团)有限公司 | 一种多源数据的处理方法及装置、可读存储介质 |
-
2020
- 2020-12-24 CN CN202011549737.0A patent/CN112562712A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007322899A (ja) * | 2006-06-02 | 2007-12-13 | D & M Holdings Inc | 録音装置 |
CN104123950A (zh) * | 2014-07-17 | 2014-10-29 | 深圳市中兴移动通信有限公司 | 一种录音方法及装置 |
JP2018013742A (ja) * | 2016-07-22 | 2018-01-25 | 富士通株式会社 | 音声要約作成支援装置、音声要約作成支援方法、及び音声要約作成支援プログラム |
JP2017011754A (ja) * | 2016-09-14 | 2017-01-12 | ソニー株式会社 | 耳孔装着型収音装置、信号処理装置、収音方法 |
US20180096705A1 (en) * | 2016-10-03 | 2018-04-05 | Nokia Technologies Oy | Method of Editing Audio Signals Using Separated Objects And Associated Apparatus |
US20190304437A1 (en) * | 2018-03-29 | 2019-10-03 | Tencent Technology (Shenzhen) Company Limited | Knowledge transfer in permutation invariant training for single-channel multi-talker speech recognition |
CN111128197A (zh) * | 2019-12-25 | 2020-05-08 | 北京邮电大学 | 基于声纹特征与生成对抗学习的多说话人语音分离方法 |
CN111243579A (zh) * | 2020-01-19 | 2020-06-05 | 清华大学 | 一种时域单通道多说话人语音识别方法与系统 |
CN111586050A (zh) * | 2020-05-08 | 2020-08-25 | 上海明略人工智能(集团)有限公司 | 音频文件传输方法和装置、存储介质及电子设备 |
CN111833898A (zh) * | 2020-07-24 | 2020-10-27 | 上海明略人工智能(集团)有限公司 | 一种多源数据的处理方法及装置、可读存储介质 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113470687A (zh) * | 2021-06-29 | 2021-10-01 | 北京明略昭辉科技有限公司 | 音频采集传输装置、音频处理系统以及音频采集传输方法 |
CN113706844A (zh) * | 2021-08-31 | 2021-11-26 | 上海明略人工智能(集团)有限公司 | 用于语音采集设备预警的方法及装置、语音采集设备、存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110415728B (zh) | 一种识别情感语音的方法和装置 | |
US12211512B2 (en) | Noise reduction using specific disturbance models | |
CN111868823B (zh) | 一种声源分离方法、装置及设备 | |
CN110503967B (zh) | 一种语音增强方法、装置、介质和设备 | |
CN105931647A (zh) | 噪声抑制的方法及装置 | |
CN113507662B (zh) | 降噪处理方法、装置、设备、存储介质及程序 | |
CN104505099A (zh) | 去除语音信号中已知干扰的方法和设备 | |
JP7486266B2 (ja) | 深層フィルタを決定するための方法および装置 | |
CN112562712A (zh) | 一种录音数据处理方法、系统、电子设备及存储介质 | |
CN110992967A (zh) | 一种语音信号处理方法、装置、助听器及存储介质 | |
CN116403592A (zh) | 一种语音增强方法、装置、电子设备、芯片及存储介质 | |
CN112309417A (zh) | 风噪抑制的音频信号处理方法、装置、系统和可读介质 | |
TWI581255B (zh) | 前端音頻處理系統 | |
CN114822578A (zh) | 语音降噪方法、装置、设备及存储介质 | |
CN118899005B (zh) | 一种音频信号处理方法、装置、计算机设备及存储介质 | |
WO2017045512A1 (zh) | 一种语音识别的方法、装置、终端及语音识别设备 | |
CN113039601B (zh) | 一种语音控制方法、装置、芯片、耳机及系统 | |
CN111603191A (zh) | 医学扫描中的语音降噪方法、装置和计算机设备 | |
CN111009259B (zh) | 一种音频处理方法和装置 | |
CN114121030B (zh) | 生成语音增强模型的方法和设备以及语音增强方法和设备 | |
CN115206341B (zh) | 设备异常声音检测方法、装置和巡检机器人 | |
WO2024017110A1 (zh) | 语音降噪方法、模型训练方法、装置、设备、介质及产品 | |
CN113808604B (zh) | 基于伽马通频谱分离的声场景分类方法 | |
CN116013260A (zh) | 一种关键字识别方法及装置、电子设备、存储介质 | |
CN115376501A (zh) | 语音增强方法及装置、存储介质、电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210326 |