CN113870372B - 一种基于深度学习的视频头发颜色转换方法 - Google Patents
一种基于深度学习的视频头发颜色转换方法 Download PDFInfo
- Publication number
- CN113870372B CN113870372B CN202111012366.7A CN202111012366A CN113870372B CN 113870372 B CN113870372 B CN 113870372B CN 202111012366 A CN202111012366 A CN 202111012366A CN 113870372 B CN113870372 B CN 113870372B
- Authority
- CN
- China
- Prior art keywords
- hair
- hair color
- image
- target image
- color
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/001—Texturing; Colouring; Generation of texture or colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提供了一种基于深度神经网络的视频头发颜色转换方法,该方法首次引入亮度图(Luminance map)代表头发的几何结构并提出在时间和空间上做标准化进一步保证连续帧的稳定性及生成结果与参考图像的一致性。本发明还设计了颜色,结构和背景三个条件模块以进一步解耦头发的属性。由于luminance map对颜色的高度解耦,且针对头发各个属性单独设计了对应的模块,头发的颜色,结构及光照以及图像的背景高度解耦,利用这一优势,该方法实现了高保真的头发颜色转换。该发明还引入判别器及循环一致性损失函数以生成更真实,时间相干性更强的结果。
Description
技术领域
本发明属于计算机视觉领域,尤其涉及一种基于深度学习的视频头发颜色转换方法。
背景技术
头发是肖像描绘中最重要的组成部分之一,这也引发了计算机视觉领域大量优秀的工作,然而现有的工作都只停留在静态头发上,对于视频序列的相关工作仍然不足,此外,与人脸的大部分部位不同,头发非常精致、多变和复杂。它由数以千计的细线组成,并受到光照、运动和遮挡的影响,因此难以分析、表示和生成。现有的研究都利用gabor filter提取发丝的生长方向作为头发的几何并与颜色解耦,然而这种做法的一个常见缺点是:gabor filter会损失许多细节信息,导致生成的视频序列不保真且容易抖动。
发明内容
本发明针对现有技术的不足,提出了一种基于深度学习的视频头发颜色转换方法,利用标准化后的luminance map表示头发的几何结构,针对头发各个属性设计了三个条件模块,将头发属性高度解耦并重组达到头发颜色转换的效果,整个训练流程无需任何成对数据。提出了循环一致性损失(cycle consistency loss)并使用判别器(discriminator)去除生成过程中可能造成的抖动,并增强了生成结果与参考图像的一致性。
本发明是通过以下技术方案来实现的:
一种基于深度学习的视频头发颜色转换方法,包括以下步骤:
步骤一:将包含待转换头发颜色的目标图像的视频中每一帧从RGB空间转换为LAB空间,提取L空间并在时间和空间上做标准化,并利用结构特征提取模块获取目标图像包含头发结构和光照的特征图。
其中,L空间(luminance map)代表亮度,亮度的强弱即可表达发丝的结构并保留原有的光照,最重要的一点是Luminance map能保留所有微小的细节,以重建出更真实的图像。由于亮度也关系到颜色的深浅,为了弥补不同图像不同光照条件带来的影响,本发明提出在时间和空间上对luminance map进行标准化并用标准化后的结果来表示头发的几何结构,这样既能保证发丝的结构又能保证原有的光照条件,生成更真实的结果。
步骤二:选取带有预转换头发颜色的参考图像并利用颜色特征提取模块提取参考图像的头发颜色特征,并将头发颜色特征叠加至目标图像的头发掩模上获得头发颜色掩模;
步骤三:根据目标图像头发掩模利用背景区域特征提取模块提取目标图像除头发以外的背景区域特征图;
步骤四:将步骤一提取到的目标图像包含头发结构和光照的特征图、步骤二中提取到的头发颜色掩模及步骤三提取到的背景区域特征图输入至一个主干生成网络整合生成具有参考图像头发颜色的目标图像。
其中,所述结构特征提取模块、颜色特征提取模块、背景区域特征提取模块、主干生成网络通过收集的视频训练获得。
进一步地,所述步骤1中,将包含待转换头发颜色的目标图像的视频中每一帧从RGB空间转换为LAB空间,提取L空间并在时间和空间上做标准化,具体为:
(1.1)将包含待转换头发颜色的目标图像的视频中每一帧图像从CIE RGB转化到CIE XYZ颜色空间再从CIE XYZ转换到LAB颜色空间。
(1.2)提取L空间并计算一整个视频序列所有像素点的L值的均值及方差,利用公式Lt norm=(Lt-mean(L))/V对L空间进行标准化。其中mean(L)代表L的均值,V代表方差,t为图像的索引。
进一步地,所述步骤(1.2)中,计算一整个视频序列中头发区域对应像素点的L值的均值及方差。
进一步地,所述颜色特征提取模块包括4层下采样的部分卷积网络(partialconvolution)和一个实例级平均池化层(instance-wise average pooling)。
通过使用partial convolution基于mask提取特征这一优势来提取参考图像头发区域的特征,避免头发区域以外的特征干扰,并使用实例级平均池化层将特征压缩为一个特征向量,得到参考图像的全局颜色特征。
进一步地,所述结构特征提取模块包括依次连接的多个上采样模块和残差块,所述主干生成网络包括依次连接的多个残差块和下采样模块,结构特征提取模块与主干生成网络呈对称结构,。所述步骤四中,将步骤一提取到的目标图像包含头发结构和光照的特征图、步骤二中提取到的头发颜色掩模在特征通道上连接后输入主干生成网络的多个残差块提取特征后,输入至上采样模块,上采样模块与结构特征提取模块的下采样模块通过跳跃连接获得多尺度特征,并且在最后n个下采样模块中结合步骤三提取到的背景区域特征图最终获得具有参考图像头发颜色的目标图像,n为背景区域特征图的数量。
进一步地,当包含连续的多帧待转换头发颜色的目标图像时,将当前待转换头发颜色的目标图像的前k帧目标图像转换结果反馈至结构特征提取模块与当前待转换头发颜色的目标图像作为共同输入以保证生成视频序列的时间相干性。
进一步地,所述训练采用的损失函数包括:生成的具有参考图像头发颜色的目标图像与真值的L1损失和感知损失、网络的生成对抗损失、生成的具有参考图像头发颜色的目标图像与真值的特征匹配损失、时间相干性损失和循环一致性损失,表示为:
其中,分别是网络输出图像与真值的L1损失和感知损失,/>是网络的生成对抗损失,/>是网络输出图像与真值的特征匹配损失,/>是时间相干性损失(Temporal coherence),/>和/>是循环一致性损失;λ为对应损失的权重,为实数。
进一步地,所述循环一致性损失训练具体为对于两个视频序列X和Y,首先以视频序列Y作为参考图像,使用本发明方法上述步骤将视频序列X的头发颜色转换生成视频序列X*,再以视频序列X*作为参考图像,视频序列Y作为待转换头发颜色的视频序列,重复上述步骤生成新的视频序列Y*,损失函数如下:
其中,I是目标图像,Iref代表参考图像,G表示主干生成网络的输出,表示一次头发颜色转换的结果,Icyc代表经过两次转换得到的结果,k+1代表反馈的输入图像张数;/>表示VGG网络第j层的输出,t为视频序列的索引,下标l表示对应图像的l空间,即图像I的亮度图;D表示判别器discriminator的输出,/>表示期望;M表示模板图像的头发掩模,Mref表示参考图像的头发掩模,||*||1表示L1正则化。
循环一致性损失进一步保证了生成结果的颜色与参考图像的一致性。
本发明的突出贡献是:
本发明提出了iHairRecolorer,第一个基于深度学习将参考图像的头发颜色转换到视频中的方法,第一次提出使用LAB空间中的L空间替代传统的orientation map作为头发的结构并对其进行了时间和空间上的标准化,使luminance map不仅能保留细微的结构特征及原有光照条件还能与头发的色彩高度结构。此外采用了一种新颖的循环一致性损失来更好地匹配生成结果和参考图像之间的颜色。该发明不依赖任何成对数据即可训练并能在测试数据上依然鲁棒稳定。该发明还引入了discriminator以保证生成视频序列的时间一致性,得到更真实更平滑的结果,优于目前已有的所有方法。
附图说明
图1是本发明的网络管线结构图;
图2是本发明的头发颜色转换结果图。
具体实施方式
由于头发非常精致、多变和复杂。它由数以千计的细线组成,并受到光照、运动和遮挡的影响,因此难以分析、表示和生成。本发明的目标是得到头发结构高度还原原始视频且发色与参考图像保持一致的新的视频序列。这需要结构与颜色高度解耦,一般来说采用gabor filter计算。本发明针对上述问题,提出使用luminance map表示头发的结构并对齐进行时间和空间上的标准化。并利用partial convolution等三个精心设计的条件模块及所提出的损失函数完成视频头发颜色转换模型的训练。具体包括如下步骤:
步骤一:将包含待转换头发颜色的目标图像的视频中每一帧从RGB空间转换为LAB空间,提取L空间并在时间和空间上做标准化,并利用结构特征提取模块获取目标图像包含头发结构和光照的特征图。
步骤二:选取带有预转换头发颜色的参考图像并利用颜色特征提取模块提取参考图像的头发颜色特征,并将头发颜色特征叠加至目标图像的头发掩模上获得头发颜色掩模;
步骤三:根据目标图像头发掩模利用背景区域特征提取模块提取目标图像除头发以外的背景区域特征图;
步骤四:将步骤一提取到的目标图像包含头发结构和光照的特征图、步骤二中提取到的头发颜色掩模及步骤三提取到的背景区域特征图输入至一个主干生成网络整合生成具有参考图像头发颜色的目标图像。
其中,所述结构特征提取模块、颜色特征提取模块、背景区域特征提取模块、主干生成网络通过收集的视频训练获得。
图1说明了本发明中网络的结构及数据流通方向。下面,结合一个具体的实施例对本发明方法作进一步说明:
对于一个给定T帧的视频序列I(T)={I1,I2,...,IT},及参考图像Iref,我们的目标是删除I(T)中的原始头发颜色,并转换为与参考图像中头发相同的颜色,同时保持其他头发属性不变。因此,首先对视频序列中头发的属性做分解,将其分解为形状,结构,光照,颜色及头发以外区域。
其中结构特征的提取使用了LAB空间独有的亮度与颜色的高度解耦性,并且将L空间使用如下公式进行标准化:
其中M表示目标图像头发区域的掩模mask,表示第T帧图像对应的亮度图(luminance map),i表示亮度图中某一像素,/>表示标准化后第T帧图像对应的亮度图。本发明中利用M*L移除了背景对亮度图标准化的影响。同时,将一个视频序列的所有帧同时计算亮度图,统一标准化的方差和均值,消除亮度图序列的抖动以生成更加平滑的结果。亮度图生成结果如图1所示(Clip X)。最后,目标图像的亮度图经过结构特征提取模块(luminance module)提取获得包含头发结构和光照的特征图;本实施例中,亮度模块由3层下采样及4个残差块(Resnet Block)结构组成。
针对带有预转换头发颜色的参考图像,利用如图1所示的颜色特征提取模块(Color Module),所述颜色特征提取模块包括4层下采样的部分卷积网络(partialconvolution)和一个实例级平均池化层(instance-wise average pooling),首先使用头发分割网络获得参考图像头发区域的头发掩模,经过4层下采样的partial convolution,每层下采样都会使图像分辨率降低,相应的,每次头发掩模也会随之更新以避免头发以外特征的干扰。经过4次下采样后获得的特征图(feature map)进一步的使用一个实例级平均池化层压缩为一个512维的特征向量(feature vector)。这不仅保留了头发颜色的全局信息还去除了头发形状及结构差异带来的影响。进一步地,将提取到的特征向量通过以下公式与目标图像的头发掩模叠加:
其中A′ref表示参考图像提取到的特征向量,Mref表示参考图像的头发掩模,M表示目标图像的头发掩模。A即为feature vector叠加到M上的关于颜色的特征图,即头发颜色掩模。
进一步地,利用如图1所示背景区域特征提取模块(Background Module)提取目标图像除头发以外的背景区域特征图,具体地,首先使用分割获得的目标图像头发掩模去除头发区域,保留其余区域不变,将剩余区域输入神经背景区域特征提取模块,经过两次下采样获得不同粒度的特征并在主干生成网络(backbone Generator)的最后两层与新生成的头发特征组合。
如图1所示,主干生成网络,包括4个resBlock和3层上采样,与Luminance Module具有对称的网络结构,其输入为获取目标图像包含头发结构和光照的特征图与头发颜色掩模在特征通道上连接后的组合特征,经过4个resBlock进一步提取特征后通过skipconnection结合Luminance Module中的下采样中多尺度的特征,并且在最后2层与背景特征组合生成具有参考图像头发颜色的图像。
作为一优选方案,若是需要连续转换视频中的多张目标图像的头发颜色,可以将待转换目标图像的前k帧图像经头发颜色转换后的生成的图像一同作为网络的输入即可生成更加平滑,时间相干性更强的视频序列。其中,为了保证输入一致,第一张、第二张的输入为相同的三张图像。
其中,结构特征提取模块、颜色特征提取模块、背景区域特征提取模块、主干生成网络通过通过如下方法根据收集的视频训练获得:
如图1循环一致性所示,对于两个视频序列X和Y,首先以视频序列Y作为参考图像,使用本发明方法上述步骤将视频序列X的头发颜色转换生成视频序列X*,再以视频序列X*作为参考图像,视频序列Y作为待转换头发颜色的视频序列,重复上述步骤生成新的视频序列Y*,Y*应当与视频序列Y相同,因此可以利用以下损失函数约束:
其中,分别是网络输出图像与真值的L1损失和感知损失,/>是网络的生成对抗损失,/>是网络输出图像与真值的特征匹配损失,/>是时间相干性损失(Temporal coherence)。
I是目标图像,Iref代表参考图像,G表示主干生成网络的输出,表示一次头发颜色转换的结果,Icyc∈Y*代表经过两次转换得到的结果,k+1代表结构特征提取模块输入图像张数,本实施例中为3;/>表示VGG网络第j层的输出,下标l表示对应图像的l空间,即图像I的亮度图;D表示判别器discriminator的输出,/>表示期望。
λ为对应损失的权重,本实施例中分别取值λ1=10、λp=10、λadv=0.1、λchromatic=10、λstable=1,最终训练获得网络,图2是利用本发明的头发颜色转换结果图,从图中可以看出,本发明可以适应不同发型,从长到短,简单到复杂,也可以适应各种颜色,包括一些混合色,生成的目标图像能保持与参考图像保持一致,同时生成的目标图像也保留了源图像中的光照条件。
显然,上述实施例仅仅是为清楚地说明所作的举例,而并非对实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其他不同形式的变化或变动。这里无需也无法把所有的实施方式予以穷举。而由此所引申出的显而易见的变化或变动仍处于本发明的保护范围。
Claims (8)
1.一种基于深度学习的视频头发颜色转换方法,其特征在于,包括以下步骤:
步骤一:将包含待转换头发颜色的目标图像的视频中每一帧从RGB空间转换为LAB空间,提取L空间并在时间和空间上做标准化,并利用结构特征提取模块获取目标图像包含头发结构和光照的特征图;
步骤二:选取带有预转换头发颜色的参考图像并利用颜色特征提取模块提取参考图像的头发颜色特征,并将头发颜色特征叠加至目标图像的头发掩模上获得头发颜色掩模;
步骤三:根据目标图像头发掩模利用背景区域特征提取模块提取目标图像除头发以外的背景区域特征图;
步骤四:将步骤一提取到的目标图像包含头发结构和光照的特征图、步骤二中获得的头发颜色掩模及步骤三提取到的背景区域特征图输入至一个主干生成网络中整合生成具有参考图像头发颜色的目标图像;
其中,所述结构特征提取模块、颜色特征提取模块、背景区域特征提取模块、主干生成网络通过收集的视频训练获得。
2.根据权利要求1所述的基于深度学习的视频头发颜色转换方法,其特征在于,所述步骤一中,将包含待转换头发颜色的目标图像的视频中每一帧从RGB空间转换为LAB空间,提取L空间并在时间和空间上做标准化,具体为:
(1.1)将包含待转换头发颜色的目标图像的视频中每一帧图像从CIE RGB转化到CIEXYZ颜色空间再从CIE XYZ转换到LAB颜色空间;
(1.2)提取L空间并计算一整个视频序列所有像素点的L值的均值及方差,利用公式Lt norm=(Lt-mean(L))/V对L空间进行标准化;其中mean(L)代表L的均值,V代表方差,t为图像的索引。
3.根据权利要求2所述的基于深度学习的视频头发颜色转换方法,其特征在于,所述步骤(1.2)中,计算一整个视频序列中头发区域对应像素点的L值的均值及方差。
4.根据权利要求1所述的基于深度学习的视频头发颜色转换方法,其特征在于,所述颜色特征提取模块包括4层下采样的部分卷积网络和一个实例级平均池化层。
5.根据权利要求1所述的基于深度学习的视频头发颜色转换方法,其特征在于,所述结构特征提取模块包括依次连接的多个上采样模块和残差块,所述主干生成网络包括依次连接的多个残差块和下采样模块,结构特征提取模块与主干生成网络呈对称结构,对应的上采样模块与下采样模块跳跃连接;所述步骤四中,将步骤一提取到的目标图像包含头发结构和光照的特征图、步骤二中提取到的头发颜色掩模在特征通道上连接后输入主干生成网络的多个残差块提取特征后,输入至上采样模块依次获得多尺度特征,并且在最后n个下采样模块中结合步骤三提取到的背景区域特征图最终获得具有参考图像头发颜色的目标图像。
6.根据权利要求1所述的基于深度学习的视频头发颜色转换方法,其特征在于,当包含连续的多帧待转换头发颜色的目标图像时,将当前待转换头发颜色的目标图像的前k帧目标图像转换结果反馈至结构特征提取模块与当前待转换头发颜色的目标图像作为共同输入以保证生成视频序列的时间相干性。
7.根据权利要求1所述的基于深度学习的视频头发颜色转换方法,其特征在于,所述训练采用的损失函数包括:生成的具有参考图像头发颜色的目标图像与真值的L1损失和感知损失、网络的生成对抗损失、生成的具有参考图像头发颜色的目标图像与真值的特征匹配损失、时间相干性损失和循环一致性损失。
8.根据权利要求7所述的基于深度学习的视频头发颜色转换方法,其特征在于,所述循环一致性损失训练具体为对于两个视频序列X和Y,首先以视频序列Y作为参考图像,将视频序列X的头发颜色转换生成视频序列X*,再以视频序列X*作为参考图像,视频序列Y作为待转换头发颜色的视频序列,重复上述步骤生成新的视频序列Y*,损失函数如下:
其中,I是目标图像,Iref代表参考图像,G表示主干生成网络的输出,表示一次头发颜色转换的结果,Icyc代表经过两次转换得到的结果,k+1代表反馈的输入图像张数;/>表示VGG网络第j层的输出,t为视频序列的索引,下标l表示对应图像的l空间,即图像I的亮度图;D表示判别器discriminator的输出,/>表示期望;M表示模板图像的头发掩模,Mref表示参考图像的头发掩模,||*||1表示L1正则化。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111012366.7A CN113870372B (zh) | 2021-08-31 | 2021-08-31 | 一种基于深度学习的视频头发颜色转换方法 |
PCT/CN2021/126912 WO2023029184A1 (zh) | 2021-08-31 | 2021-10-28 | 一种基于深度学习的视频头发颜色转换方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111012366.7A CN113870372B (zh) | 2021-08-31 | 2021-08-31 | 一种基于深度学习的视频头发颜色转换方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113870372A CN113870372A (zh) | 2021-12-31 |
CN113870372B true CN113870372B (zh) | 2024-06-21 |
Family
ID=78988977
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111012366.7A Active CN113870372B (zh) | 2021-08-31 | 2021-08-31 | 一种基于深度学习的视频头发颜色转换方法 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN113870372B (zh) |
WO (1) | WO2023029184A1 (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114596370B (zh) * | 2022-03-04 | 2024-11-12 | 深圳万兴软件有限公司 | 视频色彩转换方法、装置、计算机设备及存储介质 |
CN119107223A (zh) * | 2024-08-01 | 2024-12-10 | 北京达佳互联信息技术有限公司 | 图像处理模型训练方法、图像处理方法及相关设备 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102881011A (zh) * | 2012-08-31 | 2013-01-16 | 北京航空航天大学 | 基于区域分割的肖像光照迁移方法 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108629819B (zh) * | 2018-05-15 | 2019-09-13 | 北京字节跳动网络技术有限公司 | 图像染发处理方法和装置 |
US10679328B2 (en) * | 2018-05-23 | 2020-06-09 | Adobe Inc. | Machine learning techniques for increasing color consistency across videos |
CN109064507B (zh) * | 2018-08-21 | 2021-06-22 | 北京大学深圳研究生院 | 一种用于视频预测的多运动流深度卷积网络模型方法 |
CN109658330B (zh) * | 2018-12-10 | 2023-12-26 | 广州市久邦数码科技有限公司 | 一种发色调整方法及装置 |
US11017560B1 (en) * | 2019-04-15 | 2021-05-25 | Facebook Technologies, Llc | Controllable video characters with natural motions extracted from real-world videos |
CN110458906B (zh) * | 2019-06-26 | 2024-03-15 | 广州大鱼创福科技有限公司 | 一种基于深度颜色迁移的医学图像着色方法 |
CN110969631B (zh) * | 2019-11-25 | 2023-04-11 | 杭州小影创新科技股份有限公司 | 一种精细化照片染发方法及系统 |
CN111524205A (zh) * | 2020-04-23 | 2020-08-11 | 北京信息科技大学 | 基于循环生成对抗网络的图像着色处理方法及装置 |
CN112614060B (zh) * | 2020-12-09 | 2024-10-18 | 深圳数联天下智能科技有限公司 | 人脸图像头发渲染方法、装置、电子设备和介质 |
CN112529914B (zh) * | 2020-12-18 | 2021-08-13 | 北京中科深智科技有限公司 | 一种实时头发分割方法和系统 |
CN113313657B (zh) * | 2021-07-29 | 2021-12-21 | 北京航空航天大学杭州创新研究院 | 一种用于低光照图像增强的非监督学习方法和系统 |
-
2021
- 2021-08-31 CN CN202111012366.7A patent/CN113870372B/zh active Active
- 2021-10-28 WO PCT/CN2021/126912 patent/WO2023029184A1/zh active Application Filing
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102881011A (zh) * | 2012-08-31 | 2013-01-16 | 北京航空航天大学 | 基于区域分割的肖像光照迁移方法 |
Non-Patent Citations (1)
Title |
---|
合成生物学基因设计软件:iGEM设计综述;伍克煜;刘峰江;许浩;张浩天;王贝贝;生物信息学;20201231(第001期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
WO2023029184A1 (zh) | 2023-03-09 |
CN113870372A (zh) | 2021-12-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112884758B (zh) | 一种基于风格迁移方法的缺陷绝缘子样本生成方法及系统 | |
CN110443768A (zh) | 基于多重微分一致性约束和对称冗余网络的单帧图像超分辨率重建方法 | |
Gao et al. | Multi-modal convolutional dictionary learning | |
CN112001843B (zh) | 一种基于深度学习的红外图像超分辨率重建方法 | |
CN113870372B (zh) | 一种基于深度学习的视频头发颜色转换方法 | |
CN108320274A (zh) | 一种基于双通道循环生成对抗网络的红外视频彩色化方法 | |
CN113658130B (zh) | 基于双重孪生网络的无参考屏幕内容图像质量评估方法 | |
CN112598602A (zh) | 一种基于掩码的深度学习视频去摩尔纹方法 | |
CN118967479B (zh) | 一种自适应特征提取的红外与可见光图像融合方法 | |
Chai et al. | Expression-aware face reconstruction via a dual-stream network | |
Zuo et al. | MIG-Net: Multi-scale network alternatively guided by intensity and gradient features for depth map super-resolution | |
CN116137023A (zh) | 基于背景建模和细节增强的低照度图像增强方法 | |
CN114972036A (zh) | 一种基于融合退化先验的盲图像超分辨率重建方法和系统 | |
Xiong et al. | Field-of-experts filters guided tensor completion | |
CN110443754B (zh) | 一种数字图像分辨率提升的方法 | |
CN110415816B (zh) | 一种基于迁移学习的皮肤病临床图像多分类方法 | |
Wu et al. | RUN: rethinking the UNet architecture for efficient image restoration | |
CN114331894A (zh) | 一种基于潜在特征重构和掩模感知的人脸图像修复方法 | |
CN115222606A (zh) | 图像处理方法、装置、计算机可读介质及电子设备 | |
Ye et al. | R2-talker: Realistic real-time talking head synthesis with hash grid landmarks encoding and progressive multilayer conditioning | |
Xu et al. | Nir-assisted image denoising: A selective fusion approach and a real-world benchmark dataset | |
Muqeet et al. | Video face re-aging: Toward temporally consistent face re-aging | |
CN116912095A (zh) | 一种低亮度彩色图和低分辨率深度图联合增强方法 | |
CN114612300B (zh) | 基于无监督退化特征学习的图像网络系统及其超分算法 | |
CN106204451B (zh) | 基于约束固定邻域嵌入的图像超分辨重建方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |