CN113240613B - 一种基于边缘信息重建的图像修复方法 - Google Patents
一种基于边缘信息重建的图像修复方法 Download PDFInfo
- Publication number
- CN113240613B CN113240613B CN202110629543.XA CN202110629543A CN113240613B CN 113240613 B CN113240613 B CN 113240613B CN 202110629543 A CN202110629543 A CN 202110629543A CN 113240613 B CN113240613 B CN 113240613B
- Authority
- CN
- China
- Prior art keywords
- image
- loss
- feature
- texture
- features
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 230000008439 repair process Effects 0.000 claims abstract description 25
- 238000012549 training Methods 0.000 claims abstract description 21
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 6
- 238000007781 pre-processing Methods 0.000 claims abstract description 6
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 6
- 230000004927 fusion Effects 0.000 claims description 26
- 230000002776 aggregation Effects 0.000 claims description 16
- 238000004220 aggregation Methods 0.000 claims description 16
- 239000000284 extract Substances 0.000 claims description 10
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 9
- 238000013528 artificial neural network Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 6
- 230000006870 function Effects 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 5
- 101100409194 Rattus norvegicus Ppargc1b gene Proteins 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 230000003044 adaptive effect Effects 0.000 claims description 3
- 230000002457 bidirectional effect Effects 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 238000011176 pooling Methods 0.000 claims description 3
- 230000007547 defect Effects 0.000 abstract description 2
- 230000008447 perception Effects 0.000 abstract 1
- 238000013461 design Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000009792 diffusion process Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000003628 erosive effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于边缘信息重建的图像修复方法,包括步骤:完成图像数据集选取和图像预处理,并进行数据划分;采用生成式对抗网络架构,包含一个生成器和一个鉴别器;生成器接收受损图像,生成修复图像;鉴别器对修复结果进行真伪判别;采用联合损失对模型训练进行约束,联合损失包含重建损失、感知损失、风格损失、对抗损失和中间特征损失;采用反向传播算法,迭代更新优化网络参数,直至模型损失趋于收敛;将待修复图像输入到训练所得修复模型中,模型输出即为修复结果。本方法通过边缘信息重建和受损纹理合成相互约束,弥补了现有算法对于图像纹理与结构关系建模不充分的缺陷,拓展了基于深度生成模型的图像修复思路。
Description
技术领域
本发明属于图像处理技术领域,具体地,涉及一种基于生成式深度神经网络的图像修复方法,特别涉及基于边缘信息重建的图像修复方法。
背景技术
图像修复是指重建图像中丢失或损坏部分的过程,目的是维持原图整体的和谐统一。对于一幅给定的受损图片,实现把缺口四周原有的结构延续到缺口内部,重新绘制缺口内部细节,使得每个填充区域与周边颜色、纹理相匹配,并保证重建图片与原图语义一致。
图像修复技术起源于文艺复兴时期人们对因侵蚀被破坏的艺术珍品的修复。人们利用图像缺失部分的邻域信息和自身对图像语义的理解,通过一系列的修复技术对缺失部分进行修复。由于需要手工进行修复,因而对修复的时间和技术有着很高的要求。随着数字媒体技术的快速发展,信息载体的更新变化,数字图像在存储、压缩、传输等过程中难免会出现信息缺失、破损的情况,数字图像修复技术应运而生。图像修复工作不再需要手工进行,这极大地提高了修复效率。同时,数字图像修复技术也有着广泛的应用场景和巨大的现实意义。小到工作生活中的拍照、文档扫描等,大到医学成像领域中的磁共振成像、航空航天卫星遥感图片等,图像修复技术在各个领域都扮演着重要的角色。
目前,诸如Photoshop等专业的图像处理软件有着很广泛的应用场景。虽然它们可以通过数字图像技术对受损图像进行专业性的修复,相较于传统的人工修复有着更强的容错性,避免了错误修复对原作品的破坏,但是仍对修复工艺和技术有着很高的要求。人们迫切地希望一种简单、易于操作的图像修复技术的出现,降低图像修复的成本,填补图像修复技术的需求缺口。
传统的图像修复技术大致分为两类:基于扩散的图像修复方法和基于样本的图像修复方法。基于扩散的图像修复方法主要依赖于距离场等机制将未受损区域的像素信息传播到受损区域,从而完成图像修复。这类修复方法在小区域缺失的图像修复场景中表现良好,但是不适用于大区域缺失图像和纹理图像的修复场景,扩散迭代次数的增加导致修复区域变得模糊,产生伪影。基于样本的图像修复方法主要通过迭代地从图像的非受损区域或其他图像中搜索相关的补丁来进行图像修复。这类方法在纹理细节修复中有良好的修复效果,但是对于图像的高级语义特征和全局结构却难以捕获,同时需要昂贵的计算成本,所以并不能有效地解决现有的图像修复问题。
近年来,卷积神经网络(Convolutional Neural Networks,CNNs)和生成式对抗网络(Generative Adversarial Networks,GANs)在图像修复领域展现出了令人惊喜的前景。Deepak Pathak等人于2016年提出一种上下文编码器(Context Encoder),对受损图像进行编码,在解码阶段直接生成修复图像,同时使用对抗学习的方法对网络进行训练,是深度学习在图像修复领域的开山之作。为了更好地捕获远距离上下文信息,上下文注意力机制被提出建模图像区域亲和力,引入远距离未受损像素信息细化图像修复细节。Guilin Liu等人于2018年进一步提出部分卷积核掩码更新机制,首次利用卷积神经网络对不规则区域缺失的图像进行修复,通过仅对有效像素建模进一步提升图像修复效果。然而,由于缺少显式的图像结构建模,这些基于深度生成模型的图像修复方法无法有效地修复具有复杂结构的受损图像。Kamyar Nazeri等人于2019年提出EdgeConnect模型,证明引入结构建模能够生成结构合理的修复图像,其包含一个边缘生成器和图像生成器,边缘生成器对图像受损区域的结构进行显式重建,图像生成器基于重建的图像结构进行纹理补全。但是这种多阶段生成模型固有的不稳定性严重限制了模型的修复效果。尽管Jingyuan Li等人于2019年提出的PRVS模型和Hongyu Liu等人于2020年提出的MED模型针对这一问题进行了改良,但是这些方法均采用共享的网络同时建模图像纹理与结构,导致图像结构与纹理之间的关系未能充分挖掘,进而弱化了模型的修复能力。因此,引入结构建模的图像修复模型仍有很大的性能提升空间。
发明内容
针对上述图像修复方法中存在的技术缺陷,本发明的目的在于提出一种基于生成式深度神经网络的图像修复方法,特别涉及基于纹理合成与结构重建相互指导的图像修复方法。基于现有图像修复模型对图像纹理与结构关系提取建模不充分,进一步发现二者的重建过程具有相互促进的正反馈。根据这一图像恢复特性,充分发挥生成式对抗网络对抗学习的优势,合成更具视觉效果的修复图像。
本发明的技术方案如下:
一种基于边缘信息重建的图像修复方法,其特征在于,包括以下步骤:
1)准备图像数据集,完成图像数据集选取和图像预处理,并进行数据划分;
2)构建图像修复模型,采用生成式对抗网络架构,包含一个生成器和一个鉴别器;生成器接收一张受损图像和其对应的受损边缘图,生成修复图像;鉴别器对修复结果进行真伪判别;
3)设置模型训练约束,采用联合损失对模型训练进行约束,联合损失包含重建损失、感知损失、风格损失、对抗损失和中间特征损失;
4)训练图像修复模型,采用反向传播算法,迭代更新优化网络参数,直至模型损失趋于收敛;
5)进行图像修复,将受损图像输入到训练所得修复模型中,模型输出即为修复结果。
进一步的,所述的生成器为双流图像修复网络,可同时实现结构信息重建和纹理信息合成,并在深度网络模型的中间阶段,在结构特征和纹理特征之间交换所提取的信息,形成相互约束和指导,进而融合恢复的纹理与结构特征实现受损图像修复。
进一步的,所述生成器结构具体如下:
纹理编码器:从受损图像中提取受损图像的纹理特征;
结构编码器:从受损边缘图中提取受损图像的结构特征;
纹理解码器:通过多层次神经网络解码纹理编码器所提取的多尺度纹理特征,并在本解码器的多个网络层次上融合结构编码器提取的结构先验信息,最终解码出重建图像的纹理特征;结构解码器:通过多层次神经网络解码结构编码器所提取的多尺度结构特征,并在本解码器的多个网络层次上融合纹理编码器提取的纹理特征,最终解码出重建图像的完整结构特征;特征融合阶段:融合纹理解码器输出的纹理特征与结构解码器输出的结构特征,进一步合成修复图像。
进一步的,所述特征融合阶段包括双向门控特征融合模块,用于保证生成的修复结果纹理与结构的一致性;所述双向门控特征融合模块包含两个单向门控特征融合模块,对于输入的纹理特征Ft和结构特征Fs,分别计算纹理特征到结构特征融合的单向门Gt和结构特征到纹理特征融合的单向门Gs,基于Gt和Gs分别执行单向门控操作得到纹理感知的结构特征F′s和结构感知的纹理特征F′t,进一步拼接F′s和F′t得到融合后的特征Fb。具体计算如下:
Fb=Concat(F′s,F′t),
进一步的,所述特征融合阶段包括上下文特征聚合模块,用于保证图像内部上下文的一致性;所述上下文特征聚合模块包括区域仿射学习与多尺度特征聚合两个单元,所述区域仿射学习是基于像素块的上下文注意力层,补充模型建模图像长距离依赖的能力;所述多尺度特征聚合提升模型对不同尺度特征的提取融合能力;对于输入特征F,具体操作如下:
区域仿射学习:首先从F中提取大小为3×3的像素块,进一步计算它们之间的余弦相似度:
其中,fi和fj分别表示从特征图中提取的第i和j块像素块;
之后通过对相似度做softmax操作计算注意力得分:
最后,重新使用提取的像素块重建特征图:
多尺度特征聚合:利用多尺度空洞卷积和权重自适应分配实现对多尺度特征的提取。对于输入的特征图Frec,利用多尺度空洞卷积提取多尺度特征集合同时为特定尺度的特征自适应地分配权重W*,进而对多尺度特征加权得到聚合后的特征Fc。具体操作如下:
W1,W2,W4,W8=Slice(Softmax(Gw(Frec))),
其中,Convk表示空洞卷积操作,k表示空洞卷积的扩张率,k∈{1,2,4,8},Softmax表示按通道做softmax操作,Gw包含两层卷积操作,且输出的特征通道数为4,Slice表示按通道做切片操作。
进一步的,所述的鉴别器包含纹理分支与结构分支,分别保证生成的修复图像的纹理逼真程度与结构的真实性,纹理分支与结构分支的输出结果被通过通道连接操作后作为鉴别器的输出结果,实现同时对生成的修复图像纹理与结构的真伪鉴别。
1)重建损失计算真实图像Igt与修复图像Iout之间的l1距离:
2)感知损失计算真实图像Igt与修复图像Iout在ImageNet数据集上预训练的VGG-16网络的特征空间上的l1距离:
其中,φi(·)表示VGG-16网络第i个池化层输出的特征图。
3)风格损失同样计算特征图之间的l1距离:
其中,ψi(·)=φi(·)Tφi(·),表示格拉姆矩阵;
4)对抗损失,纹理分支鉴别真实图像Igt与修复图像Iout的真伪,结构分支鉴别真实边缘图Egt
和修复边缘图Eout的真伪:
5)中间特征损失被施加在结构编码器输出的结构特征Fs和纹理解码器输出的纹理特征Ft以确保准确的特征信息被捕获:
联合损失被计算为:
其中,λrec、λperc、λstyle、λadv和λinter表示损失权衡参数。
本发明的有益效果:
1.本发明提出了边缘信息重建和受损纹理合成相互约束指导的图像修复方法,弥补了现有算法对于图像纹理与结构关系建模不充分的缺陷,拓展了基于深度生成模型的图像修复思路。
2.本发明提出了一个轻量的且有效的双向门控特征融合模块,利用门控操作弥补了特征直接做通道连接融合的不充分性。
3.本发明提出上下文特征聚合模块,扩展上下文注意力层,建模图像内部长距离依赖,并有效提取融合图像多尺度特征,适用范围更广。
附图说明
图1为基于边缘信息重建的图像修复方法的流程示意图。
图2为模型架构示意图。
图3为图像修复效果图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
一种基于生成式对抗网络的图像修复方法,如图1所示,其步骤包括:
1)准备图像数据集。完成图像数据集选取和图像预处理,并进行数据划分。
2)构建图像修复模型。该模型采用生成式对抗网络架构,包含一个生成器和一个鉴别器。生成器接收一张受损图像和其对应的受损边缘图,生成修复图像;鉴别器对修复图像进行真伪判别。
3)设置模型训练约束。采用联合损失对模型训练进行约束,联合损失包含重建损失、感知损失、风格损失、对抗损失和中间特征损失。
4)训练图像修复模型。采用反向传播算法,迭代更新优化网络参数,直至模型损失趋于收敛。
5)进行图像修复。将受损图像输入到训练所得修复模型中,模型输出即为修复结果。
更进一步,如图2所示,所述的生成器为一个新颖的双流图像修复网络,可同时实现结构信息重建和纹理信息合成,并在深度网络模型的中间阶段,在结构特征和纹理特征之间交换所提取的信息,形成相互约束和指导。进而融合恢复的纹理与结构特征实现受损图像修复。
生成器结构具体如下:
1)纹理编码器:从受损图像中提取受损图像的纹理特征;
2)结构编码器:从受损边缘图中提取受损图像的结构特征;
3)纹理解码器:通过多层次神经网络解码纹理编码器所提取的多尺度纹理特征,并在本解码器的多个网络层次上融合结构编码器提取的结构先验信息,最终解码出重建图像的纹理特征;
4)结构解码器:通过多层次神经网络解码结构编码器所提取的多尺度结构特征,并在本解码器的多个网络层次上融合纹理编码器提取的纹理特征,最终解码出重建图像的完整结构特征;
5)特征融合阶段:融合纹理解码器输出的纹理特征与结构解码器输出的结构特征,进一步合成修复图像。
更进一步,这里的特征融合阶段包含双向门控特征融合模块和上下文特征聚合模块,分别进一步保证生成的修复结果纹理与结构的一致性和图像内部上下文的一致性。具体如下:
1)双向门控融合模块:包含两个单向门控特征融合模块。对于输入的纹理特征Ft和结构特征Fs,分别计算纹理特征到结构特征融合的单向门Gt和结构特征到纹理特征融合的单向门Gs,基于Gt和Gs分别执行单向门控操作得到纹理感知的结构特征F′s和结构感知的纹理特征F′t,进一步拼接F′s和F′t得到融合后的特征Fb。具体计算如下:
Fb=Concat(F′s,F′t),
2)上下文特征聚合模块:包含区域仿射学习与多尺度特征聚合两个单元。区域仿射学习是一个基于像素块(Patch)的上下文注意力层,补充模型建模图像长距离依赖的能力;多尺度特征聚合提升模型对不同尺度特征的提取融合能力。对于输入特征F,具体操作如下:
区域仿射学习:首先从F中提取大小为3×3的像素块,进一步计算它们之间的余弦相似度:
其中,fi和fj分别表示从特征图中提取的第i和j块像素块。之后通过对相似度做softmax操作计算注意力得分:
最后,重新使用提取的像素块重建特征图:
多尺度特征聚合:利用多尺度空洞卷积和权重自适应分配实现对多尺度特征的提取。对于输入的特征图Frec,利用多尺度空洞卷积提取多尺度特征集合同时为特定尺度的特征自适应地分配权重W*,进而对多尺度特征加权得到聚合后的特征Fc。具体操作如下:
W1,W2,W4,W8=Slice(Softmax(Gw(Frec))),
其中,Convk表示空洞卷积操作,k表示空洞卷积的扩张率,k∈{1,2,4,8},Softmax表示按通道做softmax操作,Gw包含两层卷积操作,且输出的特征通道数为4,Slice表示按通道做切片操作。
更进一步,如图2所示,所述的鉴别器包含纹理分支与结构分支,分别保证生成的修复图像的纹理逼真程度与结构的真实性,纹理分支与结构分支的输出结果被通过通道连接操作后作为鉴别器的输出结果,实现同时对生成的修复图像纹理与结构的真伪鉴别。
1)重建损失计算真实图像Igt与修复图像Iout之间的l1距离:
2)感知损失计算真实图像Igt与修复图像Iout在ImageNet数据集上预训练的VGG-16网络的特征空间上的l1距离:
其中,φi(·)表示VGG-16网络第i个池化层输出的特征图。
3)风格损失同样计算特征图之间的l1距离:
其中,ψi(·)=φi(·)Tφi(·),表示格拉姆矩阵。
4)对抗损失,纹理分支鉴别真实图像Igt与修复图像Iout的真伪,结构分支鉴别真实边缘图Egt和修复边缘图Eout的真伪:
5)中间特征损失被施加在结构编码器输出的结构特征Fs和纹理解码器输出的纹理特征Ft
以确保准确的特征信息被捕获:
联合损失被计算为:
其中,λrec、λperc、λstyle、λadv和λinter表示损失权衡参数。
实施例一
本发明的一种具体实施方式如下,一种基于边缘信息重建的受损图像修复方法,其步骤为:
1.数据集准备。完成数据集选取,数据预处理和数据集划分。
1.1图像数据集选取包含真实图像数据集和掩码图像数据集选取。具体地,为验证模型泛化性,本实施例选取真实图像数据集为二维人脸数据集(CelebA)、街景数据集(ParisStreetView)和自然景观数据集(Places2);选取的掩码数据集来自PConv工作。
1.2图像预处理包括图像增强操作和图像归一化操作。具体地,图像增强操作包括旋转、剪裁、调整大小和反转等,本实施例选取调整图像大小为256×256像素和50%概率随机水平反转两种图像增强方式;图像归一化操作在本实施例中被采用。
1.3数据集划分依据各数据集给定的标准划分。对于CelebA数据集,162,770张图像用于训练,19,876张图像用于验证,19,962张图像用于测试。对于ParisStreetView数据集,14,900张图像用于训练,100张图像用于测试。对于Places2数据集,随机从365中类别中选取10类,使用每个类别中的5,000张训练图像,共计50,000张图像作为训练集;使用每个类别中的100张测试图像,共计1,000张图像作为测试集。
1.4对于图像(受损和非受损)边缘图提取,Canny边缘检测算法被使用,其中σ被设置为2。
2.设计图像修复模型。如图2所示,图像修复模型基于生成式对抗网络架构,包含一个新颖的双流图像修复生成器和对应的双流鉴别器。具体的模型设计已在发明内容中讨论,这里不再赘述。在本实施例中,纹理与结构的编解码器均为U-Net的变形体。
3.设计模型训练约束。采用联合损失对模型训练进行约束,联合损失包含重建损失、感知损失、风格损失、对抗损失和中间特征损失。具体的约束设计已在发明内容中讨论,这里不再赘述。联合损失的各个子约束的权衡参数设置为
λrec=10,λperc=0.1,λstyle=250,λadv=0.1,λinter=1
4.训练图像修复模型。采用反向传播算法更新优化网络参数权重,直至模型损失趋于收敛。本实施例中,图像修复模型训练和评估均在PyTorch平台完成。模型被训练在单个NVIDIA GTX 1080TI GPU(11GB),batch size设置为6。使用Adam优化器优化生成器和鉴别器,使用作为初始学习率2×10-4训练生成器模型,之后调整学习率为5×10-5对模型进行微调,微调阶段禁用生成器的批归一化层(Batch NormalizationLayer)。在所有阶段,使用生成器学习率的十分之一训练鉴别器。
4.1对于CelebA数据集:模型训练至拟合需要30轮(epoch),其中微调需要10轮(epoch)。
4.2对于ParisStreetView数据集:模型训练至拟合需要150轮(epoch),其中微调需要50轮(epoch)。
4.3对于Places2数据集:模型训练至拟合需要100轮(epoch),其中微调需要25轮(epoch)。
5.模型训练完成,进行图像修复推理。将待修复图像输入到训练所得修复模型中,模型输出即为修复结果。如图3所示,利用本发明可以有效地完成图像修复任务,且在人脸,街景和自然景观三类数据集上表现泛化性良好。
以上实施例仅用于说明本发明的设计思想和特点,其目的在于使本领域内的技术人员能够了解本发明的内容并据以实施,本发明的保护范围不限于上述实施例。所以,凡依据本发明所揭示的原理、设计思路所作的等同变化或修饰,均在本发明的保护范围之内。
Claims (6)
1.一种基于边缘信息重建的图像修复方法,其特征在于,包括以下步骤:
1)准备图像数据集,完成图像数据集选取和图像预处理,并进行数据划分;
2)构建图像修复模型,采用生成式对抗网络架构,包含一个生成器和一个鉴别器;生成器接收一张受损图像和其对应的受损边缘图,生成修复图像;鉴别器对修复结果进行真伪判别;
3)设置模型训练约束,采用联合损失对模型训练进行约束,联合损失包含重建损失、感知损失、风格损失、对抗损失和中间特征损失;
4)训练图像修复模型,采用反向传播算法,迭代更新优化网络参数,直至模型损失趋于收敛;
5)进行图像修复,将受损图像输入到训练所得修复模型中,模型输出即为修复结果;
所述的生成器为双流图像修复网络,可同时实现结构信息重建和纹理信息合成,并在深度网络模型的中间阶段,在结构特征和纹理特征之间交换所提取的信息,形成相互约束和指导,进而融合恢复的纹理与结构特征实现受损图像修复。
2.根据权利要求1所述的图像修复方法,其特征在于,所述生成器结构具体如下:
纹理编码器:从受损图像中提取受损图像的纹理特征;
结构编码器:从受损边缘图中提取受损图像的结构特征;
纹理解码器:通过多层次神经网络解码纹理编码器所提取的多尺度纹理特征,并在本解码器的多个网络层次上融合结构编码器提取的结构先验信息,最终解码出重建图像的纹理特征;
结构解码器:通过多层次神经网络解码结构编码器所提取的多尺度结构特征,并在本解码器的多个网络层次上融合纹理编码器提取的纹理特征,最终解码出重建图像的完整结构特征;
特征融合阶段:融合纹理解码器输出的纹理特征与结构解码器输出的结构特征,进一步合成修复图像。
3.根据权利要求2所述的图像修复方法,其特征在于,所述特征融合阶段包括双向门控特征融合模块,用于保证生成的修复结果纹理与结构的一致性;所述双向门控特征融合模块包含两个单向门控特征融合模块,对于输入的纹理特征Ft和结构特征Fs,分别计算纹理特征到结构特征融合的单向门Gt和结构特征到纹理特征融合的单向门Gs,基于Gt和Gs分别执行单向门控操作得到纹理感知的结构特征Fs′和结构感知的纹理特征Ft′,进一步拼接Fs′和Ft′得到融合后的特征Fb;具体计算如下:
Fb=Concat(Fs′,Ft′),
4.根据权利要求2所述的图像修复方法,其特征在于,所述特征融合阶段包括上下文特征聚合模块,用于保证图像内部上下文的一致性;所述上下文特征聚合模块包括区域仿射学习与多尺度特征聚合两个单元,所述区域仿射学习是基于像素块的上下文注意力层,补充模型建模图像长距离依赖的能力;所述多尺度特征聚合提升模型对不同尺度特征的提取融合能力;对于输入特征F,具体操作如下:区域仿射学习:首先从F中提取大小为3×3的像素块,进一步计算它们之间的余弦相似度:
其中,fi和fj分别表示从特征图中提取的第i和j块像素块;
之后通过对相似度做softmax操作计算注意力得分:
最后,重新使用提取的像素块重建特征图:
多尺度特征聚合:利用多尺度空洞卷积和权重自适应分配实现对多尺度特征的提取;对于输入的特征图Frec,利用多尺度空洞卷积提取多尺度特征集合同时为特定尺度的特征自适应地分配权重W*,进而对多尺度特征加权得到聚合后的特征Fc;具体操作如下:
W1,W2,W4,W8=Slice(Softmax(Gw(Frec))),
其中,Convk表示空洞卷积操作,k表示空洞卷积的扩张率,k∈{1,2,4,8},Softmax表示按通道做softmax操作,Gw包含两层卷积操作,且输出的特征通道数为4,Slice表示按通道做切片操作。
5.根据权利要求1所述的图像修复方法,其特征在于,所述的鉴别器包含纹理分支与结构分支,分别保证生成的修复图像的纹理逼真程度与结构的真实性,纹理分支与结构分支的输出结果被通过通道连接操作后作为鉴别器的输出结果,实现同时对生成的修复图像纹理与结构的真伪鉴别。
1)重建损失计算真实图像Igt与修复图像Iout之间的l1距离:
2)感知损失计算真实图像Igt与修复图像Iout在ImageNet数据集上预训练的VGG-16网络的特征空间上的l1距离:
其中,φi(·)表示VGG-16网络第i个池化层输出的特征图;
3)风格损失同样计算特征图之间的l1距离:
其中,ψi(·)=φi(·)Tφi(·),表示格拉姆矩阵;
4)对抗损失,纹理分支鉴别真实图像Igt与修复图像Iout的真伪,结构分支鉴别真实边缘图Egt和修复边缘图Eout的真伪:
5)中间特征损失被施加在结构编码器输出的结构特征Fs和纹理解码器输出的纹理特征Ft以确保准确的特征信息被捕获:
其中,BCE表示二分类交叉熵损失,ps(·)与pt(·)表示投影函数,分别将Fs与Ft映射为边缘图与RGB图像;
联合损失被计算为:
其中,λrec、λperc、λstyle、λadv和λinter表示损失权衡参数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110629543.XA CN113240613B (zh) | 2021-06-07 | 2021-06-07 | 一种基于边缘信息重建的图像修复方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110629543.XA CN113240613B (zh) | 2021-06-07 | 2021-06-07 | 一种基于边缘信息重建的图像修复方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113240613A CN113240613A (zh) | 2021-08-10 |
CN113240613B true CN113240613B (zh) | 2022-08-30 |
Family
ID=77136959
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110629543.XA Active CN113240613B (zh) | 2021-06-07 | 2021-06-07 | 一种基于边缘信息重建的图像修复方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113240613B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12260530B2 (en) | 2022-10-06 | 2025-03-25 | Adobe Inc. | Generating a modified digital image utilizing a human inpainting model |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113674176B (zh) * | 2021-08-23 | 2024-04-16 | 北京市商汤科技开发有限公司 | 图像修复方法及装置、电子设备和存储介质 |
CN113628144B (zh) * | 2021-08-25 | 2024-06-21 | 厦门美图之家科技有限公司 | 人像修复方法、装置、电子设备及存储介质 |
CN113902630B (zh) * | 2021-09-01 | 2025-03-21 | 西安电子科技大学 | 基于多尺度纹理特征分支的生成对抗网络图像修复方法 |
CN113902824B (zh) * | 2021-10-12 | 2022-10-28 | 哈尔滨工业大学 | 一种血管内光学相干断层扫描的导丝伪影去除方法 |
CN114022506B (zh) * | 2021-11-16 | 2024-05-17 | 天津大学 | 一种边缘先验融合多头注意力机制的图像修复方法 |
CN114049343A (zh) * | 2021-11-23 | 2022-02-15 | 沈阳建筑大学 | 基于深度学习的裂纹扩展历程复杂缺失纹理的追溯方法 |
CN114266711A (zh) * | 2021-12-24 | 2022-04-01 | 樊瑶 | 一种基于注意力跨层转移机制的生成式图像修复方法 |
CN114627006B (zh) * | 2022-02-28 | 2022-12-20 | 复旦大学 | 一种基于深度解耦网络的渐进式图像修复方法 |
CN114677306B (zh) * | 2022-03-29 | 2022-11-15 | 中国矿业大学 | 一种基于边缘信息引导的上下文聚合图像去雨方法 |
CN114972611B (zh) * | 2022-07-18 | 2022-11-11 | 深圳大学 | 一种基于引导匹配损失的深度纹理合成方法及相关设备 |
GB2628691A (en) * | 2023-03-27 | 2024-10-02 | Adobe Inc | Generating a modified digital image utilizing a human inpainting model |
CN116228994B (zh) * | 2023-05-09 | 2023-08-01 | 腾讯科技(深圳)有限公司 | 三维模型获取方法、装置、设备及存储介质 |
CN116258652B (zh) * | 2023-05-11 | 2023-07-21 | 四川大学 | 基于结构注意和文本感知的文本图像修复模型及方法 |
CN117036952B (zh) * | 2023-08-15 | 2024-04-12 | 石河子大学 | 基于rgb图像重建高光谱图像的红枣水分含量等级检测方法 |
CN116805360B (zh) * | 2023-08-21 | 2023-12-05 | 江西师范大学 | 一种基于双流门控渐进优化网络的显著目标检测方法 |
CN117196981B (zh) * | 2023-09-08 | 2024-04-26 | 兰州交通大学 | 一种基于纹理和结构调和的双向信息流方法 |
CN117078921B (zh) * | 2023-10-16 | 2024-01-23 | 江西师范大学 | 一种基于多尺度边缘信息的自监督小样本汉字生成方法 |
CN117132592B (zh) * | 2023-10-24 | 2024-01-26 | 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) | 一种基于熵融合的工业缺陷检测方法 |
CN118229588B (zh) * | 2024-05-10 | 2024-08-06 | 一物一码数据(广州)实业有限公司 | 一种出入库信息采集方法及系统 |
CN118429228B (zh) * | 2024-07-02 | 2024-09-27 | 西藏民族大学 | 融合双向感知Transformer与频率分析策略的图像修复系统 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109559287A (zh) * | 2018-11-20 | 2019-04-02 | 北京工业大学 | 一种基于DenseNet生成对抗网络的语义图像修复方法 |
US10878575B2 (en) * | 2019-04-15 | 2020-12-29 | Adobe Inc. | Foreground-aware image inpainting |
CN111047522B (zh) * | 2019-11-07 | 2023-04-07 | 北京科技大学 | 一种基于边缘生成的图像修复方法 |
CN111861901A (zh) * | 2020-06-05 | 2020-10-30 | 西安工程大学 | 一种基于gan网络的边缘生成图像修复方法 |
CN111784602B (zh) * | 2020-06-28 | 2022-09-23 | 江西理工大学 | 一种生成对抗网络用于图像修复的方法 |
CN112541864A (zh) * | 2020-09-25 | 2021-03-23 | 中国石油大学(华东) | 一种基于多尺度生成式对抗网络模型的图像修复方法 |
-
2021
- 2021-06-07 CN CN202110629543.XA patent/CN113240613B/zh active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12260530B2 (en) | 2022-10-06 | 2025-03-25 | Adobe Inc. | Generating a modified digital image utilizing a human inpainting model |
Also Published As
Publication number | Publication date |
---|---|
CN113240613A (zh) | 2021-08-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113240613B (zh) | 一种基于边缘信息重建的图像修复方法 | |
CN108520503B (zh) | 一种基于自编码器和生成对抗网络修复人脸缺损图像的方法 | |
Guo et al. | Image inpainting via conditional texture and structure dual generation | |
CN109255831B (zh) | 基于多任务学习的单视图人脸三维重建及纹理生成的方法 | |
Zhang et al. | Semantic image inpainting with progressive generative networks | |
CN110570353B (zh) | 密集连接生成对抗网络单幅图像超分辨率重建方法 | |
CN111784602B (zh) | 一种生成对抗网络用于图像修复的方法 | |
CN108460746B (zh) | 一种基于结构和纹理分层预测的图像修复方法 | |
CN113658051A (zh) | 一种基于循环生成对抗网络的图像去雾方法及系统 | |
CN113989129A (zh) | 基于门控和上下文注意力机制的图像修复方法 | |
CN112184585B (zh) | 一种基于语义边缘融合的图像补全方法及系统 | |
Hu et al. | Dear-gan: Degradation-aware face restoration with gan prior | |
Gao et al. | Face image inpainting based on generative adversarial network | |
Chen et al. | Attentional coarse-and-fine generative adversarial networks for image inpainting | |
CN112801914A (zh) | 一种基于纹理结构感知的二段式图像修复方法 | |
CN113781316A (zh) | 一种基于对抗生成网络的高分辨率图像修复方法及修复系统 | |
Yu et al. | MagConv: Mask-guided convolution for image inpainting | |
CN110473151A (zh) | 基于分区卷积和关联损失的双阶段图像补全方法及系统 | |
CN115147426B (zh) | 基于半监督学习的模型训练与图像分割方法和系统 | |
Liu et al. | Facial image inpainting using multi-level generative network | |
Chen et al. | Recovering fine details for neural implicit surface reconstruction | |
CN116109510A (zh) | 一种基于结构和纹理对偶生成的人脸图像修复方法 | |
CN115829880A (zh) | 基于上下文结构注意力金字塔网络的图像修复方法 | |
Zhang et al. | Enhanced visual perception for underwater images based on multistage generative adversarial network | |
Chen et al. | Contrastive structure and texture fusion for image inpainting |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |