CN110136062B - 一种联合语义分割的超分辨率重建方法 - Google Patents
一种联合语义分割的超分辨率重建方法 Download PDFInfo
- Publication number
- CN110136062B CN110136062B CN201910389111.9A CN201910389111A CN110136062B CN 110136062 B CN110136062 B CN 110136062B CN 201910389111 A CN201910389111 A CN 201910389111A CN 110136062 B CN110136062 B CN 110136062B
- Authority
- CN
- China
- Prior art keywords
- resolution
- network
- semantic
- super
- reconstruction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 67
- 230000011218 segmentation Effects 0.000 title claims abstract description 61
- 230000008569 process Effects 0.000 claims abstract description 18
- 238000012549 training Methods 0.000 claims description 37
- 238000011176 pooling Methods 0.000 claims description 26
- 230000006870 function Effects 0.000 claims description 14
- 230000016776 visual perception Effects 0.000 claims description 10
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 6
- 230000004927 fusion Effects 0.000 claims description 6
- 238000005457 optimization Methods 0.000 claims description 5
- 238000005070 sampling Methods 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 4
- 230000004438 eyesight Effects 0.000 abstract description 4
- 230000006872 improvement Effects 0.000 abstract description 3
- 238000013441 quality evaluation Methods 0.000 abstract description 2
- 230000000007 visual effect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提出一种联合了语义分割的图像超分辨率重建方法,利用低质量图像在进行语义分割时产生的中间结果以及最终结果对其进行超分辨率重建,在进行大倍数的超分辨率重建时能更具有真实感的效果。由于图像的高层级语义信息作为图像的固有信息,在像素级层面上含有大量的类别先验,因此可以作为超分辨率重建过程中的约束信息提升其重建结果的质量。本发明将图像超分辨率重建这一计算机视觉的低层级问题与作为高层级问题的图像语义分割结合起来,利用图像经过语义分割之后产生的各种信息,对超分辨率重建的过程进行约束和增强,解决了在大缩放因子的条件下低分辨率图像的重建缺乏真实性的问题,在主观质量评价上有较高的提升。
Description
技术领域
本发明涉及图像处理技术领域,具体涉及一种利用语义分割进行图像超分辨率重建的方法。
背景技术
图像超分辨率重建指使用各种技术手段将低分辨率图像转换为高分辨率图像,恢复出更多的高频信息,使得图像拥有更加清晰的纹理和细节。图像的超分辨率重建方法自首次提出以来已经历半个世纪的发展,众多的图像超分辨率重建方法根据其原理不同可大致分为三类:基于插值的方法、基于重建的方法和基于学习的方法。
基于插值的方法将超分辨率重建问题与图像插值问题联系在一起,是超分辨率重建中最直接的方法。常见的插值方法有最近邻插值方法、双线性插值方法、双三次插值方法等。其核心思路是将目标图像中的点按照缩放关系寻找源图像中与其相关的点,然后通过源图像中相关点的像素值经过插值计算得到目标点的像素值。基于插值的方法,优点是非常简单直观,且运行速度很快,缺点是适应性相对较差,不易加入图像的先验信息,容易引入额外噪声,使重建出来的图像缺失细节,产生模糊、锯齿等现象。
基于重建的方法得到了最广泛的关注和研究,此种方法假定高分辨率图像是经过了适当的运动变换、模糊及噪声才得到低分辨率图像,将超分辨率重建问题转化为对一个约束条件下的代价函数的优化问题。其核心思路是从图像的退化模型出发,利用正则化等方法提取低分辨率图像中的关键信息,并结合对未知的超分辨率图像的先验知识来约束超分辨率图像的生成。此类方法在重建时只需要一些局部性的先验假设,在一定程度上缓解了插值方法所产生的模糊或者锯齿效果,但当放大倍数过大时,退化模型不能很好地提供重建所需要的先验知识,导致重建结果缺乏高频信息。
基于学习的方法是近年来超分辨率算法研究的热点方向。其基本思路是通过对一组同时包括高分辨率图像和低分辨率图像的训练集合的训练,学习到一个联合的系统模型,利用学习到的模型对相似的低分辨率图像进行超分辨率重建,达到提高图像分辨率的目的。基于学习的方法充分利用了图像的先验知识,能恢复出低分辨率图像中更多的高频信息,获得比其余两种方法更好的重建结果。而所有基于学习的方法之中,基于深度学习的超分辨率重建方法在近几年中取得了优秀的成绩。
尽管如今的单幅图像超分辨率重建技术依靠深度学习在精度和速度上都取得了不小的突破,但在处理较为复杂的低分辨率图像时,其效果会有所下降。例如:当处理的低分辨率图像中含有许多物体且物体之间有较大部分的重叠和遮挡时,现有的方法不能很好地划分重叠和遮挡物体间的界线,导致其重建结果的纹理细节不足,甚至会将多个重叠的物体重建为一个。
发明内容
为了解决上述中出现的问题,本发明提出一种全新的联合了语义分割的超分辨率重建方法。语义分割是计算机视觉中的基本任务之一,其目的将视觉输入分为不同的语义可解释类别,对一幅图像来说就是将图像中的像素划分为不同类别。基于语义分割将像素分类的特性,联合了语义分割的超分辨率重建方法能较好地处理带有多个重叠和遮挡物体的低分辨率图像。
本发明针对现有技术的不足,提供了一种对低分辨率图像进行超分辨率重建的方法,包含以下步骤:
步骤1,构建低分辨率的语义分割数据集,所述低分辨率的语义分割数据集包括低分辨率图像和对应的语义布局图;
步骤2,使用低分辨率的语义分割数据集训练语义分割网络,;
步骤3,构建用于训练超分辨率重建网络的数据集,所述用于训练超分辨率重建网络的数据集包括低分辨率图像的语义布局图、语义特征图和对应的高分辨率图像,其中低分辨率图像的语义布局图、语义特征图通过将低分辨率图像输入到步骤2中训练好的语义分割网络中获得;
步骤4,将语义布局图和语义特征图作为输入,语义布局图对应的高分辨率图像作为真实值,训练超分辨率重建网络,使其能根据输入的语义布局图输出对应的高分辨率重建结果;
步骤5,将一张待重建的低分辨率图片输入到步骤2中得到的语义分割结果,得到其语义布局图和语义特征图,然后将其输入至步骤4中训练得到的超分辨率重建网络,最终得到重建后的高分辨率图像。
进一步的,步骤1所述低分辨率的语义分割数据集是将通常的语义分割数据集中的高分辨率图像和语义布局图进行相同缩放因子的下采样,得到的低分辨率图像和语义布局图构成了低分辨率的语义分割数据集。
进一步的,步骤2中的语义分割网络为全卷积网络,该全卷积网络是将VGG16中的全连接层改为卷积层后所得,具体网络结构为:卷积层×2+池化层+卷积层×2+池化层+卷积层×3+池化层+卷积层×3+池化层+卷积层×3+池化层+卷积层×2+反卷积层,其中卷积层的卷积核大小为3×3,池化层采用的是最大池化。
进一步的,全卷积网络的权值初始化为经过预训练的VGG16中的权值;训练中所优化的损失函数为网络最后一层的像素预测值的偏差之和;训练的具体参数为:训练的批大小为20,采用动量为0.9、衰变率为10-4的Adam算法进行优化,网络的学习率为10-4。
进一步的,步骤4所述超分辨率重建网络是由一系列级联的重建模块所组成的级联重建网络,级联的重建模块以递增的分辨率运行,其中每个重建模块由3个网络层组成:第一层为特征融合层,作用为将输入的语义布局图和语义特征图与前一层的输出结果融合;后面两层为带有3×3卷积核、层正则化和修正线性单元的卷积层,作为是对融合后的特征进行重建。
进一步的,超分辨率重建网络中的重建模块之间的具体运行关系如下,
第一个重建模块将下采样到当前分辨率的语义布局图和语义特征图作为输入,输出一个当前分辨率的结果,此结果看作是经过合并和卷积后的特征图,后面的重建模块将前一个模块的结果和下采样后的语义布局图以及语义特征图一起作为输入,输出一个新的结果,经过多次这样的过程,最终的重建模块输出的结果即为超分辨率重建的结果,此过程的数学描述如下:
进一步的,步骤4中训练超分辨率重建网络时使用的损失函数为,
其中,I为代表真实值的高分辨率图像,f为待训练的级联重建网络,θ为f中的参数集合,L为输入的语义布局图,Φ为经过训练的视觉感知网络,该视觉感知网络为VGG网络,Φl表示视觉感知网络中的卷积层,λl为控制权重的超参数,在训练过程中其值随着训练进程进行调整。
进一步的,训练超分辨率重建网络时,具体设置为:整体的迭代次数为200代;模型的学习率为10-4,并且每经过100代训练,学习率降为一半;采用动量为0.9、衰变率为10-4的Adam算法进行优化。
与现有技术相比,本发明具有以下优点和积极效果:
由于图像的高层级语义信息作为图像的固有信息,在像素级层面上含有大量的类别先验,因此可以作为超分辨率重建过程中的约束信息提升其重建结果的质量。本发明将图像超分辨率重建这一计算机视觉的低层级问题与作为高层级问题的图像语义分割结合起来,利用图像经过语义分割之后产生的各种信息,对超分辨率重建的过程进行约束和增强,解决了在大缩放因子的条件下低分辨率图像的重建缺乏真实性的问题,在主观质量评价上有较高的提升。
附图说明
图1为本发明实施例中全卷积网络的网络结构图。
图2为本发明实施例中级联重建网络的模块结构图。
图3为本发明的整体流程图。
图4为本发明与对比方法的视觉效果对比图,其中(a)为双三次插值(Bicubic),(b)为SRCNN,(c)为SRDenNet,(d)为SRGAN,(e)为本发明。
具体实施方式
为了便于本领域普通技术人员理解和实施本发明,下面结合附图及实施例对本发明作进一步的详细描述,应当理解,此处所描述的实施示例仅用于说明和解释本发明,并不用于限定本发明。
本发明将图像语义分割和图像超分辨率重建两种计算机视觉任务的特点结合了起来,将图像经过语义分割产生的特征作为超分辨率重建的先验信息,提出了一种联合语义分割的图像超分辨率重建方法。此方法阐述的总体流程如图3所示,此方法能够用计算机软件技术实现,实施例以网络的训练为主要内容对本发明的流程进行一个具体的阐述,如下:
步骤1,构建低分辨率的语义分割数据集,所述低分辨率的语义分割数据集包括低分辨率图片和对应的语义布局图。通常的语义分割数据集包含高分辨率的图片和其对应的语义布局图,将高分辨率的图片和对应的语义布局图统一降采样得到低分辨率的语义分割数据集。
具体实施中,使用图像处理软件读入全部的高分辨率的图片和其对应的语义布局图,将其尺寸统一,随后使用双三次插值对全部高分辨率图片进行缩放因子为4的降采样。再使用同样的方法将对应的语义布局图降采样至相同分辨率。如此,便得到了由低分辨率的图像与对应的语义布局图构成的低分辨率的语义分割数据集。
步骤2,使用低分辨率的语义分割数据集训练语义分割网络。通常的语义分割网络所处理的对象为高分辨率图片,使用步骤1中所得低分辨率的数据集训练语义分割网络使其在输入低分辨率图像时能输出对应的准确的语义布局图;
在本实施例中,语义分割网络以全卷积网络(FCN,Fully ConvolutionalNetworks)为例来进行说明。全卷积网络是一种不含全连接层的卷积神经网络,能为图片中的每个像素预测分类从而得到语义分割结果,其网络结构如图1所示。特别地,本实施例中的全卷积网络改进自VGG16分类网络,是将VGG16中的全连接层改为卷积层后所得。在全卷积网络中,记xij为网络某层(i,j)位置的数据向量,yij为下一网络层的(i,j)位置的数据向量,yij由xij经以下公式可以得出:
yij=fks({xsi+δi,sj+δj}0≤δi,δj≤k)
其中,k表示卷积核的大小,s表示卷积核的步长或者下采样因子,si,sj表示原网络层(i,j)位置的数据向量经过卷积或池化操作后位置坐标发生了与s有关的变化,δi,δj表示在卷积或者池化过程中产生的空间位移,通常由补零操作引起。fks决定了网络层的类型,它可能是用于卷积或者池化的矩阵乘法,也有可能是用于最大池化的空间最大化,或者是激活函数的元素非线性映射。对全卷积网络而言,其中的每一个网络层实现的功能都能用以上公式概括。
训练全卷积网络的具体实施方案如下:
1.构建网络。本实施例中全卷积网络主体由VGG16组成,其网络结构为:卷积层×2+池化层+卷积层×2+池化层+卷积层×3+池化层+卷积层×3+池化层+卷积层×3+池化层+卷积层×2+反卷积层。其中卷积层的卷积核大小为3×3,池化层采用的是最大池化,随着卷积层的深入,数据的尺寸变小而通道变多。
2.初始化网络中的权值。与通常情况下随机初始化不同,本实施例中的权值初始化为经过预训练的VGG16中的权值。
3.训练网络。训练中所优化的损失函数为网络最后一层的像素预测值的偏差之和。本实施例中,训练的具体参数为:训练的批大小为20,采用动量为0.9、衰变率为10-4的Adam算法进行优化,网络的学习率为10-4。
步骤3,构建用于训练超分辨率重建网络的数据集,所述用于训练超分辨率重建网络的数据集包括低分辨率图片的语义布局图和对应的高分辨率图片。将低分辨率图片输入步骤2中所得语义分割网络,得到其语义分割结果—语义布局图。此外,还能得到语义分割的过程中产生的中间结果,语义特征图。语义布局图和相应的特征图以及对应的高分辨率照片将组成一个新的数据集去训练超分辨率重建网络。将图像输入语义分割网络后,网络最终的输出结果即为语义布局图,而语义特征图则需要从语义分割网络的不同网络层中去提取。本实施例中,所选择的语义特征图为全卷积网络中池化层之前的卷积层中的特征。
步骤4,将语义布局图和语义特征图作为输入,语义布局图对应的高分辨率图像作为真实值,训练一个超分辨率重建网络,使其能根据输入的语义布局图输出对应的高分辨率重建结果;
本实施例中,选择作为超分辨率重建网络的是由一系列级联的重建模块所组成的级联重建网络,其结构如图2所示。每个重建模块以不同的分辨率运行,第一个模块的分辨率被设置为8×16,后面的模块分辨率依次加倍,经过5个重建模块后,最终的输出分辨率为256×512。第一个重建模块将下采样到当前分辨率的语义布局图和特征图作为输入,输出一个当前分辨率的结果,此结果可看作是经过合并和卷积后的特征图。后面的重建模块会将前一个模块的结果和下采样后的语义布局图以及特征图一起作为输入,输出一个新的结果。经过多次这样的过程,最终的重建模块输出的结果即为超分辨率重建的结果。此过程的数学描述如下:
每个重建模块由3个网络层组成:第一层为特征融合层,作用为将输入的语义布局图和语义特征图与前一层的输出结果融合;后面两层为带有3×3卷积核、层正则化和修正线性单元的卷积层,作为是对融合后的特征进行重建。除了最后的重建模块外,每个重建模块的结构都一样,但每个模块重建的侧重点却不一样,因为输入的特征图含有不同层次的信息。
级联重建网络将语义布局图作为框架,利用特征图中包含的各种信息来重建图像的细节,因此在训练时使用的损失函数和一般的超分辨率重建方法也有区别,不同于常规的均方误差损失函数直接将重建结果与原始高清图像逐像素进行对比,级联重建网络使用了被称为感知损失的损失函数,目的是对比重建结果与真实值两者在视觉感知网络中的特征差异,其定义为:
其中,I为代表真实值的高分辨率图像,f为待训练的级联重建网络,θ为f中的参数集合,L为输入的语义布局图,λl为控制权重的超参数,在训练过程中其值随着训练进程会有所调整,Φ为经过训练的视觉感知网络,Φl表示视觉感知网络中的卷积层,视觉感知网络是一个经过大量数据训练好的图像分类网络,具有将输入图像中的物体正确分类的能力,通常使用的是已经公开发布的VGG系列网络,在其官网上可以找到。经过感知损失函数的训练,级联重建网络能重建出更真实的重建结果。
训练超分辨率重建网络的具体实施方案如下:
1.构建网络。本实施例中的超分辨率重建网络由一系列重建模块级联而成,每个级联模块的结构一致。所构建的重建模块由三层网络组成,第一层网络将输入的特征进行融合,后两层网络为卷积层,其卷积核大小为3×3,且带有层正则化和LRELU激活函数。
2.初始化网络中的权值,随机初始化网络中的权值。
3.训练网络。训练中需要优化的函数为感知损失,训练的具体设置为,整体的迭代次数为200代;模型的学习率为10-4,并且每经过100代训练,学习率降为一半;采用动量为0.9、衰变率为10-4的Adam算法进行优化。
步骤5,使用训练所得网络进行超分辨率重建。具体实施方案为:将一张待重建的低分辨率图片输入到步骤2中得到的语义分割网络,得到其语义布局图和语义特征图,然后将其输入至步骤4中训练得到的超分辨率重建网络,最终得到重建后的高分辨率图像。
为验证本发明技术效果,使用Cityscapes城市景观数据集进行验证。Cityscapes数据集中有2975张高分辨率图像和对应的精细语义布局图。将2975张图像中的1000张用作训练语义分割网络,其余的1975张图像训练超分辨率重建网络。用作对比的方法有双三次插值(Bicubic),超分辨率卷积神经网络SRCNN(C.Dong,C.C.Loy,K.He,and X.Tang.Imagesuper-resolution using deep convolutional networks.IEEE Transactions onPattern Analysis and Machine Intelligence,38(2):295–307,2016.)、超分辨率密集神经网络SRDenNet(T.Tong,G.Li,X.Liu,and Q.Gao,“Image super-resolution usingdense skip connections,”in 2017 IEEE International Conference on ComputerVision(ICCV).IEEE,2017,pp.4809–4817.)和超分辨率生成对抗网络SRGAN(C.Ledig,L.Theis,F.Huszar,J.Caballero,A.Cunningham,A.Acosta,A.Aitken,A.Tejani,J.Totz,Z.Wang,et al.Photo-realistic single image super-resolution using a generativeadversarial network.arXiv preprint arXiv:1609.04802,2016.2)。
表1展示了各方法在缩放因子为4的情况下对应的客观和主观评价指标,包括PSNR(峰值信噪比)和SSIM(结构相似性)以及MOS(平均主观意见得分)。从表1中可以看出,本发明方法在恢复图像的主观质量上,有稳定的提升。
表1各方法客观以及主观评分
视觉效果对比如图4,从对比结果可知,本发明的方法相对于其它方法在重建的细节上更为生动具体,在整体上具有更高的真实感和视觉说服力,在保持了客观评价指标基本不变的水准下,在主观评价指标上有较大幅度提高。
应当理解的是,本说明书未详细阐述的部分均属于现有技术。
应当理解的是,上述针对实施例的描述较为详细,并不能因此而认为是对本发明专利保护范围的限制。本领域的普通技术人员在本发明的启示下,在不脱离本发明权利要求所保护的范围情况下,还可以做出替换或变形,但仍属于本发明的保护范围之内,本发明的请求保护范围应以所附权利要求为准。
Claims (8)
1.一种联合语义分割的超分辨率重建方法,其特征在于,包括如下步骤:
步骤1,构建低分辨率的语义分割数据集,所述低分辨率的语义分割数据集包括低分辨率图像和对应的语义布局图;
步骤2,使用低分辨率的语义分割数据集训练语义分割网络;
步骤3,构建用于训练超分辨率重建网络的数据集,所述用于训练超分辨率重建网络的数据集包括低分辨率图像的语义布局图、语义特征图和对应的高分辨率图像,其中低分辨率图像的语义布局图、语义特征图通过将低分辨率图像输入到步骤2中训练好的语义分割网络中获得;
步骤4,将语义布局图和语义特征图作为输入,语义布局图对应的高分辨率图像作为真实值,训练超分辨率重建网络,使其能根据输入的语义布局图输出对应的高分辨率重建结果;
步骤5,将一张待重建的低分辨率图片输入到步骤2中得到的语义分割结果,得到其语义布局图和语义特征图,然后将其输入至步骤4中训练得到的超分辨率重建网络,最终得到重建后的高分辨率图像。
2.根据权利要求1所述的一种联合语义分割的超分辨率重建方法,其特征在于:步骤1所述低分辨率的语义分割数据集是将通常的语义分割数据集中的高分辨率图像和语义布局图进行相同缩放因子的下采样,得到的低分辨率图像和语义布局图构成了低分辨率的语义分割数据集。
3.根据权利要求1所述的一种联合语义分割的超分辨率重建方法,其特征在于:步骤2中的语义分割网络为全卷积网络,该全卷积网络是将VGG16中的全连接层改为卷积层后所得,具体网络结构为:卷积层×2+池化层+卷积层×2+池化层+卷积层×3+池化层+卷积层×3+池化层+卷积层×3+池化层+卷积层×2+反卷积层,其中卷积层的卷积核大小为3×3,池化层采用的是最大池化。
4.根据权利要求3所述的一种联合语义分割的超分辨率重建方法,其特征在于:全卷积网络的权值初始化为经过预训练的VGG16中的权值;训练中所优化的损失函数为网络最后一层的像素预测值的偏差之和;训练的具体参数为:训练的批大小为20,采用动量为0.9、衰变率为10-4的Adam算法进行优化,网络的学习率为10-4。
5.根据权利要求1所述的一种联合语义分割的超分辨率重建方法,其特征在于:步骤4所述超分辨率重建网络是由一系列级联的重建模块所组成的级联重建网络,级联的重建模块以递增的分辨率运行,其中每个重建模块由3个网络层组成:第一层为特征融合层,作用为将输入的语义布局图和语义特征图与前一层的输出结果融合;后面两层为带有3×3卷积核、层正则化和修正线性单元的卷积层,作为是对融合后的特征进行重建。
8.根据权利要求5所述的一种联合语义分割的超分辨率重建方法,其特征在于:训练超分辨率重建网络时,具体设置为:整体的迭代次数为200代;模型的学习率为10-4,并且每经过100代训练,学习率降为一半;采用动量为0.9、衰变率为10-4的Adam算法进行优化。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910389111.9A CN110136062B (zh) | 2019-05-10 | 2019-05-10 | 一种联合语义分割的超分辨率重建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910389111.9A CN110136062B (zh) | 2019-05-10 | 2019-05-10 | 一种联合语义分割的超分辨率重建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110136062A CN110136062A (zh) | 2019-08-16 |
CN110136062B true CN110136062B (zh) | 2020-11-03 |
Family
ID=67573253
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910389111.9A Expired - Fee Related CN110136062B (zh) | 2019-05-10 | 2019-05-10 | 一种联合语义分割的超分辨率重建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110136062B (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110570355B (zh) * | 2019-09-12 | 2020-09-01 | 杭州海睿博研科技有限公司 | 多尺度自动聚焦超分辨率处理系统和方法 |
CN110991485B (zh) * | 2019-11-07 | 2023-04-14 | 成都傅立叶电子科技有限公司 | 一种目标检测算法的性能评估方法及系统 |
CN111145202B (zh) * | 2019-12-31 | 2024-03-08 | 北京奇艺世纪科技有限公司 | 模型生成方法、图像处理方法、装置、设备及存储介质 |
CN111461990B (zh) * | 2020-04-03 | 2022-03-18 | 华中科技大学 | 一种基于深度学习分步实现超分辨成像的方法 |
CN112288627B (zh) * | 2020-10-23 | 2022-07-05 | 武汉大学 | 一种面向识别的低分辨率人脸图像超分辨率方法 |
CN112634160A (zh) * | 2020-12-25 | 2021-04-09 | 北京小米松果电子有限公司 | 拍照方法及装置、终端、存储介质 |
CN112546463B (zh) * | 2021-02-25 | 2021-06-01 | 四川大学 | 基于深度神经网络的放疗剂量自动预测方法 |
CN113160234B (zh) * | 2021-05-14 | 2021-12-14 | 太原理工大学 | 基于超分辨率和域自适应的无监督遥感图像语义分割方法 |
CN113657388B (zh) * | 2021-07-09 | 2023-10-31 | 北京科技大学 | 一种融合图像超分辨率重建的图像语义分割方法 |
CN113781488B (zh) * | 2021-08-02 | 2025-01-28 | 横琴鲸准智慧医疗科技有限公司 | 舌象图像的分割方法、装置及介质 |
CN114782255B (zh) * | 2022-06-16 | 2022-09-02 | 武汉大学 | 一种基于语义的夜光遥感影像高分辨率重建方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108335306A (zh) * | 2018-02-28 | 2018-07-27 | 北京市商汤科技开发有限公司 | 图像处理方法及装置、电子设备和存储介质 |
CN108830855A (zh) * | 2018-04-02 | 2018-11-16 | 华南理工大学 | 一种基于多尺度低层特征融合的全卷积网络语义分割方法 |
CN109064399A (zh) * | 2018-07-20 | 2018-12-21 | 广州视源电子科技股份有限公司 | 图像超分辨率重建方法和系统、计算机设备及其存储介质 |
CN109191392A (zh) * | 2018-08-09 | 2019-01-11 | 复旦大学 | 一种语义分割驱动的图像超分辨率重构方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10803378B2 (en) * | 2017-03-15 | 2020-10-13 | Samsung Electronics Co., Ltd | System and method for designing efficient super resolution deep convolutional neural networks by cascade network training, cascade network trimming, and dilated convolutions |
CN109087274B (zh) * | 2018-08-10 | 2020-11-06 | 哈尔滨工业大学 | 基于多维融合及语义分割的电子器件缺陷检测方法及装置 |
CN109544555B (zh) * | 2018-11-26 | 2021-09-03 | 陕西师范大学 | 基于生成式对抗网络的细小裂缝分割方法 |
-
2019
- 2019-05-10 CN CN201910389111.9A patent/CN110136062B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108335306A (zh) * | 2018-02-28 | 2018-07-27 | 北京市商汤科技开发有限公司 | 图像处理方法及装置、电子设备和存储介质 |
CN108830855A (zh) * | 2018-04-02 | 2018-11-16 | 华南理工大学 | 一种基于多尺度低层特征融合的全卷积网络语义分割方法 |
CN109064399A (zh) * | 2018-07-20 | 2018-12-21 | 广州视源电子科技股份有限公司 | 图像超分辨率重建方法和系统、计算机设备及其存储介质 |
CN109191392A (zh) * | 2018-08-09 | 2019-01-11 | 复旦大学 | 一种语义分割驱动的图像超分辨率重构方法 |
Non-Patent Citations (1)
Title |
---|
Fully Convolutional Networks for Semantic Segmentation;Jonathan Long 等;《CVPR 2015》;20151231;第3431-3440页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110136062A (zh) | 2019-08-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110136062B (zh) | 一种联合语义分割的超分辨率重建方法 | |
CN110120011B (zh) | 一种基于卷积神经网络和混合分辨率的视频超分辨方法 | |
CN110570353B (zh) | 密集连接生成对抗网络单幅图像超分辨率重建方法 | |
Qin et al. | Multi-scale feature fusion residual network for single image super-resolution | |
CN110033410B (zh) | 图像重建模型训练方法、图像超分辨率重建方法及装置 | |
CN109741260B (zh) | 一种基于深度反投影网络的高效超分辨率方法 | |
Li et al. | Dlgsanet: lightweight dynamic local and global self-attention networks for image super-resolution | |
CN109978762A (zh) | 一种基于条件生成对抗网络的超分辨率重建方法 | |
CN115222601A (zh) | 基于残差混合注意力网络的图像超分辨率重建模型及方法 | |
CN110136063A (zh) | 一种基于条件生成对抗网络的单幅图像超分辨率重建方法 | |
Li et al. | High-resolution document shadow removal via a large-scale real-world dataset and a frequency-aware shadow erasing net | |
CN110349087B (zh) | 基于适应性卷积的rgb-d图像高质量网格生成方法 | |
CN110060204B (zh) | 一种基于可逆网络的单一图像超分辨率方法 | |
CN112200724A (zh) | 一种基于反馈机制的单图像超分辨率重建系统及方法 | |
Liu et al. | Face super-resolution reconstruction based on self-attention residual network | |
CN117575915B (zh) | 一种图像超分辨率重建方法、终端设备及存储介质 | |
CN114898284A (zh) | 一种基于特征金字塔局部差异注意力机制的人群计数方法 | |
CN106447609A (zh) | 一种基于深度卷积神经网络的图像超分辨方法 | |
CN116777745A (zh) | 一种基于稀疏自适应聚类的图像超分辨率重建方法 | |
CN112529801A (zh) | 一种基于高频图像块估计模糊核的运动模糊复原方法 | |
CN112288626A (zh) | 一种基于双路径深度融合的人脸幻构方法及系统 | |
Ye et al. | Multi-directional feature fusion super-resolution network based on nonlinear spiking neural P systems | |
CN115526779A (zh) | 一种基于动态注意力机制的红外图像超分辨率重建方法 | |
CN110211059A (zh) | 一种基于深度学习的图像重建方法 | |
CN116721313B (zh) | 一种基于无监督学习的rgb图像高光谱重建方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20201103 Termination date: 20210510 |
|
CF01 | Termination of patent right due to non-payment of annual fee |