CN105513033B - 一种非局部联合稀疏表示的超分辨率重建方法 - Google Patents
一种非局部联合稀疏表示的超分辨率重建方法 Download PDFInfo
- Publication number
- CN105513033B CN105513033B CN201510890012.0A CN201510890012A CN105513033B CN 105513033 B CN105513033 B CN 105513033B CN 201510890012 A CN201510890012 A CN 201510890012A CN 105513033 B CN105513033 B CN 105513033B
- Authority
- CN
- China
- Prior art keywords
- image
- joint
- resolution
- color image
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4007—Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2211/00—Image generation
- G06T2211/40—Computed tomography
- G06T2211/416—Exact reconstruction
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种非局部联合稀疏表示的超分辨率重建方法,包括:通过双三次插值对彩色图像的亮度图像和相应的深度图像进行初始估计。将得到初始估计的亮度图及深度图像分别通过双线性插值放大,并分割成重叠的小块;对所有的联合图像块通过K‑Means算法聚成K类,对每一类用PCA法学习该类的联合子字典;重建高分辨率彩色图像。本发明可以重建高分辨率彩色图像。
Description
技术领域
本发明涉及图像处理的超分辨率重建领域,更具体的是一种能够同时重建高分辨率的彩图和同场景高分辨率深度图的重建方法。
技术背景
单幅图像的超分辨率重建是利用单幅低分辨率图像中的有效信息,恢复出质量较好的高分辨率图像的过程。在实际应用中,我们能够得到的往往是进过模糊、下采样和加了噪声后退化的低分辨率图像。如何从退化的低分辨率图像中最大可能地恢复出原始的高分辨率图像,成为如今图像研究领域的热点。
目前,彩图的超分辨率重建方法分为三类:基于插值的方法,基于重构的方法和基于学习的方法。基于插值的方法有最近邻插值法,双线性插值法,样条插值法,自适应图像插值法等。基于插值的方法实现简单,速度快,适合实时应用。但是插值的方法不能恢复在图像下采样过程中丢失的高频分量和纹理细节,容易在图像的边缘产生环或锯齿效应,出现振铃现象,使重建的图像不真实可信。基于重构的方法是按照特定的图像退化模型和先验知识,对输入的低分辨率图像序列重建出质量较好的高分辨率图像,包括迭代反向投影法,凸集投影法和基于概率论的方法等。此类方法由于多帧序列中亚像素运动的偏移和先验知识的局限性,不能有效恢复图像的纹理和结构等细节信息,重建质量不够好。基于字典学习方法的思想是通过训练数据集寻找高低分辨率图像块之间的映射关系,通过这种关系指导高分辨率图像块的重建。包括外部字典学习法和内部字典学习法。基于学习的方法较其它两类方法能引入更多的高频信息,对噪声的鲁棒性更强,成为近年来的研究热点。
深度图像表示场景中各点相对于相机的距离。在现实生活中,由于硬件等条件的限制,我们采集到的深度图像的分辨率低,无法满足实际应用的需要。快速且准确的获取和分析真实场景的深度图像,提高深度图像的分辨率,对我们有重大的研究意义。
基于深度图的超分辨率重建方法大致有两种,一种是只利用深度图像的方法,该类方法将对自然图像的超分辨率重建方法应用到深度图像的重建问题中,构造目标函数优化求解。但此类方法忽略了深度图像自身的特点及与同场景彩色图像的关系,对深度图像的分辨率提高不多,重建效果不好。第二种是结合同场景彩色图像的方法,寻找同场景彩图和深度图之间的约束关系,利用同场景高分辨率的彩图指导深度图的重建,但在实际应用中,高分辨率的彩图往往难以获取,故此类方法也存在一定的局限性。
既然在彩图超分辨率重建方法没有考虑深度信息,在高分辨率彩图指导深度图超分辨率重建方法中,不容易得到同场景的高分辨率彩图,本发明提出一种低分辨率彩图和低分辨率深度图的联合稀疏表示模型,利用两者的互补关系,同时重建高质量高分辨率的彩图和深度图。
发明内容
本发明的目的是克服现有技术的上述不足,建立一种较低运算复杂度的,能同时重建任意低分辨率的彩色图像和同场景低分辨率深度图像的联合稀疏表示的超分辨率重建方法。本发明的技术方案如下
一种非局部联合稀疏表示的超分辨率重建方法,包括下列步骤:
1)通过双三次插值对彩色图像的亮度图像和相应的深度图像进行初始估计。
2)将得到初始估计的亮度图再通过双线性插值放大1.6,3.2,4.8倍,并把这些插值放大的彩色图像分别分割成重叠的6×6彩色图像小块,这些彩色图像小块构成集合Y;同样地,将初始估计的深度图像也经过双线性插值放大1.6,3.2,4.8倍,将这些插值放大的深度图像分割成重叠的6×6的深度图像小块,这些深度图像小块构成集合Y_gray。
3)用xci表示第i个彩色图像块,xdi为其对应的深度图像块,xi=[xci;xdi]表示第i个联合图像块。
4)将所有的联合图像块xi通过K-Means算法聚成K类,对每一类用PCA法学习该类的联合子字典DJ,K个联合子字典构成联合过完备字典Φ。每一个待重建的立体图像块都可以用其对应的联合子字典编码表示。
5)对任意彩色图像块xci,在8×8的训练窗内,计算xci到集合Y内各彩色图像小块的距离dist1;同理,计算xi相应的深度图像块xi_gray到集合Y_gray内各深度图像块的距离dist2,通过公式寻找到k=12个距离最小的彩色图像块和它们相应的深度图像块,通过4)构成联合图像块,这些联合图像块构成集合Ωi。
6)令ωi,q表示集合Ωi中第q个联合图像块的权重,αi,q表示第q个联合图像块的稀疏编码向量,利用集合Ωi内联合图像块的稀疏编码向量的权重平均求αi的估计βi;
7)利用上述建立的JSR模型重建高分辨率彩色图像。
其中,设表示第l次迭代后的低分辨率图像的稀疏编码向量,表示的估计,表示第l次迭代后重建的高分辨率彩色图像,步骤7的过程如下:
1)先令βi的初始值然后利用标准稀疏编码算法得低分辨率彩色图像稀疏编码向量的初始值αy (0);
2)由联合过完备字典Φ和αy (0)得到高分辨率彩色图像的初始估计
3)基于x(0),寻找x(0)的位置i处的联合图像块的集合Ωi,利用公式(1),计算βi (0);
4)以上三步迭代进行,每一次迭代都会重建出分辨率提高了的彩色图像,每一次迭代的和值都提高,彼此影响,到达指定迭代次数后结束,得到期望的高分辨率的彩色图像。
本发明在彩图稀疏表示超分辨率重建方法的基础上,充分利用图像的局部和非局部相似性,引入彩图和同场景深度图的联合稀疏编码噪声作为正则项,提出联合稀疏表示(JSR)的立体图像的超分辨率重建方法,通过构造立体图像特征矩阵进行联合字典学习,同时恢复高质量高分辨率的彩图和深度图。
附图说明
图1各算法彩色图像超分辨率重建结果
(a)原始图像 (b)Bicubic算法 (c)Sparsity算法
(d)ASDS-Reg算法 (e)NCSR算法 (f)本发明
图2各算法深度图像的超分辨率重建结果
(a)原始图像 (b)bicubic算法
(c)Sparsity算法 (d)本发明
具体实施方式
本发明在彩色图像非局部中心稀疏表示(NCSR)超分辨率重建方法的基础上,利用低分辨率彩色图像和同场景低分辨率深度图像之间的互补关系,构造联合彩色图像块和深度图像块的特征矩阵,利用K-Means和PCA法学习联合稀疏子字典,将这些子字典构成一个大的联合过完备字典。利用图像的局部和非局部相似性,在原始图像的不同采样率图像中寻找给定图像块的相似图像块,利用这些相似图像块稀疏表示向量的权重平均估计未知稀疏编码向量。在彩色图像稀疏表示超分辨率重建问题中,正则参数项是一个人为固定的常数,令正则参数项的值随图像块的不同发生改变,可以提高图像的质量。经过上述处理,在彩色图像的稀疏表示的超分辨率重建模型中,加入同场景深度图像的信息,本发明提出了联合稀疏表示(JSR)超分辨率重建方法,同时重建高质量高分辨率的彩图和深度图。
NCSR超分辨率重建模型为:
其中,y是低分辨率彩色图像,H是高斯模糊核,D是下采样操作,Φ是彩色图像的过完备字典,Φοα=x,表示待重建的原始高分辨率图像,αy是低分辨率图像的稀疏表示向量,λi是第i个图像块的自适应正则参数项,αi是第i个低分辨率图像块的稀疏表示向量,βi是αi的估计。
本发明提出的非局部联合稀疏表示(JSR)的立体图像的超分辨率重建模型为:
模型的参数意义发生了变化。其中,Φ是包含了彩色图像和深度图像信息的过完备字典,即联合稀疏字典;αi(j)是第i个立体图像块的第j列,βi(j)是αi(j)的估计;σi,j是αi(j)-βi(j)的标准差;是高斯分布的方差。则重建的高分辨率图像为技术方案如下:
首先将待重建的低分辨率(LR)彩色图像的灰度图和同场景低分辨率的深度图分成大小相等的图像块,每一个图像块都对应一个稀疏表示向量。为充分利用图像的局部和非局部相似性,将LR的彩图和深度图以不同采样率生成上采样图像,并把这些图像分为大小相等的图像块,那么灰度图和深度图就划分为了具有相同大小和数目的图像块,构造联合特征矩阵为学习联合稀疏字典提供条件。在重建过程中,为使低分辨率图像的稀疏表示向量尽可能接近重建高分辨率图像的稀疏表示向量,引入联合稀疏编码增量代替NCSR模型中彩图的稀疏编码噪声。因重建高分辨率图像块的稀疏表示向量是未知的,需要对它做出估计。最后利用最小均方解法重建高分辨率的彩图和深度图。具体过程如下:
1.将彩色图像由RGB模型转化为YCbCr模型,Cb,Cr两个通道只进行简单的双三次插值放大,对Y通道进行JSR模型指定倍数的超分辨率重建,重建完成后再将YCbCr模型转化为RGB模型。
2.用xci表示第i个彩色图像块,xdi为其对应的深度图像块,xi=[xci;xdi]表示第i个图像块的联合特征矩阵。
3.将LR的亮度图像和LR的深度图像经过3倍的双三次插值放大得到HR彩图的初始估计hr_im和HR深度图的初始估计hr_im_gray。
4.将得到的HR彩图的初始估计图像hr_im分割成大小6×6,重叠4个像素的图像块。将hr_im经过双线性插值放大1.6,3.2,4.8倍,并把它们分别分割成重叠的6×6小块。这些所有的彩色图像块构成集合Y。同样地,将初始估计的深度图像hr_im_gray先经过双三次插值放大3倍后,再经过双线性插值放大1,1.6,3.2,4.8倍,将这些图像分割成重叠4像素大小为6×6的深度图像块,这些图像块构成的集合为Y_gray。
5.构造立体图像的第i个图像块的联合特征矩阵xi=[xi;xi_gray],将这些立体图像的所有图像块xi通过K-Means算法聚成K类{K1,K2…Kn},n=70,每一类的中心记为{C1,C2…Cn}。然后对每一类Km计算它的协方差矩阵Ωm,通过对Ωm进行PCA变换得到正交变换矩阵,将其作为每一类的联合子字典DJ=[Dc;Dd],其中,Dc为彩色图像字典,Dd为相应的深度图像字典。所有类的K个DJ的子字典构成立体图像的过完备字典。每一个待重建的立体图像块都可以用其对应的DJ子字典编码表示。
6.对任意彩色图像块xci,分别在放大不同倍数(1,1.6,3.2,4.8)的图像上,在8×8的训练窗内,计算xci到各彩色图像块的距离dist1;同理,计算彩色图像块xi相应的深度图像块xi_gray到各相应深度图像块的距离dist2,通过下式:
寻找到k=12个距离最小的非局部相似的联合图像块,这些联合图像块(包括图像块自身)构成的集合为Ωi。
7.令ωi,q表示集合Ωi中,第q个联合相似图像块的权重,利用非局部均值的方法,令联合图像块与第q个图像块的距离成反比,即:
其中,是联合图像块xi和xi.q的估计;
可以通过设置初始估计,迭代求解。
8.利用集合Ωi内联合图像块的稀疏编码向量的权重平均求αi的估计βi。
9.JSR模型的求解过程:
通过迭代方法求解模型:
5)先令βi的初始值然后利用一些标准稀疏编码算法求解公式(5)式,得αy (0)。
6)利用得到联合高分辨率图像的初始估计x(0)。
7)基于x(0),寻找x(0)的位置i处的图像块的非局部相似块,利用公式(12)和(13),计算βi (0)。第l次迭代的稀疏向量为:
8)重建图像产生分辨率提高了的彩图和它对应的深度图,再把它们作为下一次迭代的初始对象。
9)以上四步迭代进行,每一次迭代的和值都提高,彼此影响,直至达到一个局部最小值,迭代结束,得到期望的高分辨率的彩图和同场景高分辨率的深度图。
10.根据不同方法重建的高分辨率的彩图和深度图,进行主观及客观的图像重建质量评价。客观指标即峰值信噪比PSNR和结构相似性度量SSIM的值。
峰值信噪比的单位用分贝表示,它的值越高表示两幅图像之间的差别越小,重构图像的质量越好,其公式如下:
其中,L表示在256个灰度级中最大的灰度值,即L=255,MSE是参考图像和重建图像之间的均方误差,代表重建图像的失真值,M、N分别为图像的高度和宽度,X是原始清晰图像,表示重建图像。
结构相似性度量表示的是重建图像与原始图像X之间的结构相似程度,值越大,表示重建图像与原始图像越相似,图像的重建质量越高,计算公式如下:
其中,表示亮度对比算子,表示对比度对比算子,表示结构对比算子,参数α=0.01,β=0.02,γ=0.03用来调节三种算子的权重。
主观评价方式是通过人眼的观察对图像质量进行评估。
下面对本发明提出的非局部稀疏表示的彩图和深度图的联合超分辨率重建方法进行测试,同时通过Matlab仿真比较本算法的重建结果与现有算法的重建结果,通过大量的测试图像来证实本算法的优越性。实验结果以主观结果和客观指标峰值信噪比(PSNR)和结构相似性度量(SSIM)的形式表示。
在实验中,利用Middlebury数据集(http://vision.middlebury.edu/stereo/data.)中的图像为测试图像。
1、先对数据集中提供的高分辨率的彩色图像用一个大小为7×7,标准差为1.6的高斯核进行模糊,然后将模糊后的图像在水平和垂直方向进行3倍下采样得到模拟低分辨率的彩色图像;用相同的高斯模糊核和下采样方法对同场景高分辨率的深度图进行上述操作,得到模拟低分辨率的深度图像。本发明中,图像块的大小为7×7,块的重叠数目为5,求权重时的常量为h=0.3,联合子字典DJ的数目K=64,正态分布的标准差σ=0,迭代次数为560。
2、将本发明方法重建的高分辨率的彩图和bicubic方法、Sparsity方法、ASDS-Reg方法、NCSR方法重建的彩色图像进行比较。图像大小为:M=3.54,N=4。表一给出了给算法重建图像的PSNR值和SSIM值。
表一 重建高分辨率彩色图像的PSNR和SSIM
3、图1为彩色图像Middlubery-07的主观重建效果。从上而下,从左而右依次为原始图bicubic(PSNR=32.11,SSIM=0.9011),Sparsity(PSNR=32.15,SSIM=0.9042),ASDSReg(PSNR=37.09,SSIM=0.9456),NCSR(PSNR=37.33,SSIM=0.9449),本发明方法JSR(PSNR=37.54,SSIM=0.9443)。
4、将本发明产生的高分辨率的深度图像与Bicubic方法、Sparsity方法进行比较,表二给出了各算法的PSNR值和SSIM值。
表二 重建高分辨率深度图像的PSNR和SSIM
5、图2给出了深度图像Middlubery-07重建效果的主观比较。从上而下,从左往右依次为原始图像bicub-ic(PSNR=30.37,SSIM=0.9522),Sparsity(PSNR=30.10,SSIM=0.9520)。
Claims (1)
1.一种非局部联合稀疏表示的超分辨率重建方法,包括下列步骤:
1)通过双三次插值对彩色图像的亮度图像和相应的深度图像进行初始估计;
2)将得到初始估计的彩色图像的亮度图像再通过双线性插值放大1.6,3.2,4.8倍,并把这些插值放大的彩色图像分别分割成重叠的6×6彩色图像小块,这些彩色图像小块构成集合Y;同样地,将初始估计的深度图像也经过双线性插值放大1.6,3.2,4.8倍,将这些插值放大的深度图像分割成重叠的6×6的深度图像小块,这些深度图像小块构成集合Y_gray;
3)用xci表示第i个彩色图像块,xdi为其对应的深度图像块,xi=[xci;xdi]表示第i个联合图像块;
4)将所有的联合图像块xi通过K-Means算法聚成K类,对每一类用PCA法学习该类的联合子字典DJ,K个联合子字典构成联合过完备字典Φ;每一个待重建的立体图像块都可以用其对应的联合子字典编码表示;
5)对任意彩色图像块xci,在8×8的训练窗内,计算xci到集合Y内各彩色图像小块的距离dist1;同理,计算xi相应的深度图像块xdi到集合Y_gray内各深度图像块的距离dist2,通过公式寻找到k=12个距离最小的非局部相似的彩色图像块和它们相应的深度图像块,通过步骤3)构成联合相似图像块,这些联合相似图像块构成集合Ωi;
6)令ωi,q表示集合Ωi中第q个联合相似图像块的权重,αi,q表示第q个联合相似图像块的稀疏编码向量,利用集合Ωi内联合相似图像块的稀疏编码向量的权重平均求αi的估计βi;
7)利用建立的JSR模型重建高分辨率彩色图像,具体为:设表示第l次迭代后的低分辨率图像的稀疏编码向量,表示的估计,表示第l次迭代后重建的高分辨率彩色图像,过程如下:
①先令βi的初始值然后利用标准稀疏编码算法得到低分辨率彩色图像稀疏编码向量的初始值αy (0);
②由联合过完备字典Φ和αy (0)得到高分辨率彩色图像的初始估计
③令ωi,q表示集合Ωi中第q个联合相似图像块的权重,利用非局部均值的方法,使得:
其中,分别是联合图像块xi和联合相似图像块xi.q的估计,
通过设置初始估计,迭代求解;
利用集合Ωi内联合相似图像块的稀疏编码向量的权重平均求αi的估计βi:
基于x(0),寻找x(0)的位置i处的联合相似图像块的集合Ωi,利用公式(1)和公式(2)计算
④迭代进行上述步骤①至③,每一次迭代都会重建出分辨率提高了的彩色图像和对应的深度图像,每一次迭代和的值都提高,彼此影响,到达指定迭代次数后结束,得到期望的高分辨率的彩色图像和同场景的深度图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510890012.0A CN105513033B (zh) | 2015-12-07 | 2015-12-07 | 一种非局部联合稀疏表示的超分辨率重建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510890012.0A CN105513033B (zh) | 2015-12-07 | 2015-12-07 | 一种非局部联合稀疏表示的超分辨率重建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105513033A CN105513033A (zh) | 2016-04-20 |
CN105513033B true CN105513033B (zh) | 2018-09-25 |
Family
ID=55720991
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510890012.0A Expired - Fee Related CN105513033B (zh) | 2015-12-07 | 2015-12-07 | 一种非局部联合稀疏表示的超分辨率重建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105513033B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107767357B (zh) * | 2017-09-14 | 2021-04-09 | 北京工业大学 | 一种基于多方向字典的深度图像超分辨率方法 |
CN109345444B (zh) * | 2018-08-30 | 2023-05-23 | 浙江工业大学 | 深度感知增强的超分辨率立体图像构建方法 |
CN109741263B (zh) * | 2019-01-11 | 2019-10-11 | 四川大学 | 基于自适应联合约束的遥感图像超分辨率重建方法 |
CN112330846A (zh) * | 2019-07-31 | 2021-02-05 | 比亚迪股份有限公司 | 车辆控制的方法、装置、存储介质及电子设备和车辆 |
CN111738265B (zh) * | 2020-05-20 | 2022-11-08 | 山东大学 | Rgb-d图像的语义分割方法、系统、介质及电子设备 |
CN112200718A (zh) * | 2020-09-18 | 2021-01-08 | 郑州航空工业管理学院 | 基于ncsr和多传感器的红外图像超分辨率方法 |
CN113506217B (zh) * | 2021-07-09 | 2022-08-16 | 天津大学 | 一种基于循环交互的立体图像超分辨率重建方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1837826A1 (en) * | 2006-03-20 | 2007-09-26 | Matsushita Electric Industrial Co., Ltd. | Image acquisition considering super-resolution post-interpolation |
CN102722863A (zh) * | 2012-04-16 | 2012-10-10 | 天津大学 | 采用自回归模型对深度图进行超分辨率重建的方法 |
CN103218776A (zh) * | 2013-03-07 | 2013-07-24 | 天津大学 | 基于最小生成树的非局部的深度图超分辨率重建方法 |
CN104079914A (zh) * | 2014-07-02 | 2014-10-01 | 山东大学 | 基于深度信息的多视点图像超分辨方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101347616B1 (ko) * | 2011-12-28 | 2014-01-16 | 기초과학연구원 | 초해상도 영상복원 장치 및 방법 |
KR101538313B1 (ko) * | 2012-12-21 | 2015-07-22 | 서울시립대학교 산학협력단 | 블록단위 영상 정합을 이용한 초해상도 영상 복원 방법 및 장치 |
-
2015
- 2015-12-07 CN CN201510890012.0A patent/CN105513033B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1837826A1 (en) * | 2006-03-20 | 2007-09-26 | Matsushita Electric Industrial Co., Ltd. | Image acquisition considering super-resolution post-interpolation |
CN102722863A (zh) * | 2012-04-16 | 2012-10-10 | 天津大学 | 采用自回归模型对深度图进行超分辨率重建的方法 |
CN103218776A (zh) * | 2013-03-07 | 2013-07-24 | 天津大学 | 基于最小生成树的非局部的深度图超分辨率重建方法 |
CN104079914A (zh) * | 2014-07-02 | 2014-10-01 | 山东大学 | 基于深度信息的多视点图像超分辨方法 |
Non-Patent Citations (5)
Title |
---|
A Joint Intensity and Depth Co-Sparse Analysis Model for Depth Map Super-Resolution;Martin Kiechle 等;《2013 IEEE International Conference on Computer Vision》;20131231;1545-1552 * |
Joint Example-based Depth Map Super-Resolution;Yanjie Li 等;《2012 IEEE International Conference on Multimedia and Expo》;20121231;152-157 * |
基于改进邻域嵌入和结构自相似性的超分辨率重建方法;陈莹 等;《光电子·激光》;20150831;第26卷(第8期);1618-1625 * |
基于自适应权值滤波的深度图像超分辨率重建;杨宇翔 等;《中国图象图形学报》;20141231;第19卷(第8期);1210-1218 * |
彩色图约束的二阶广义总变分深度图超分辨率重建;邸维巍 等;《中国图象图形学报》;20141231;第19卷(第8期);1162-1167 * |
Also Published As
Publication number | Publication date |
---|---|
CN105513033A (zh) | 2016-04-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105513033B (zh) | 一种非局部联合稀疏表示的超分辨率重建方法 | |
CN110191299B (zh) | 一种基于卷积神经网络的多重帧插值方法 | |
CN106952228B (zh) | 基于图像非局部自相似性的单幅图像的超分辨率重建方法 | |
WO2021022929A1 (zh) | 一种单帧图像超分辨率重建方法 | |
CN105631807B (zh) | 基于稀疏域选取的单帧图像超分辨重建方法 | |
CN106204447A (zh) | 基于总变差分和卷积神经网络的超分辨率重建方法 | |
CN109767386A (zh) | 一种基于深度学习的快速图像超分辨率重建方法 | |
CN105550989B (zh) | 基于非局部高斯过程回归的图像超分辨方法 | |
CN111127325B (zh) | 基于循环神经网络的卫星视频超分辨率重建方法及系统 | |
CN110796622B (zh) | 一种基于串联神经网络多层特征的图像比特增强方法 | |
CN107341776A (zh) | 基于稀疏编码与组合映射的单帧超分辨率重建方法 | |
CN110599402A (zh) | 一种基于多特征稀疏表示的图像超分辨率重建方法 | |
Guan et al. | Srdgan: learning the noise prior for super resolution with dual generative adversarial networks | |
CN108416736B (zh) | 一种基于二次锚点邻域回归的图像超分辨率重建方法 | |
CN105447840A (zh) | 基于主动采样与高斯过程回归的图像超分辨方法 | |
CN103020905B (zh) | 针对文字图像的稀疏约束自适应nlm超分辨率重建方法 | |
CN106600533B (zh) | 单图像超分辨率重建方法 | |
CN108830791A (zh) | 基于自身样例和稀疏表示的图像超分辨率方法 | |
CN104504672A (zh) | 基于NormLV特征的低秩稀疏邻域嵌入超分辨方法 | |
CN110415169A (zh) | 一种深度图超分辨率重建方法、系统及电子设备 | |
CN103226818B (zh) | 基于流形正则稀疏支撑回归的单帧图像超分辨率重建方法 | |
CN110443754B (zh) | 一种数字图像分辨率提升的方法 | |
CN110443755B (zh) | 一种基于高低频信号量的图像超分辨率的方法 | |
Hasan et al. | Single image super-resolution using back-propagation neural networks | |
CN108492264B (zh) | 一种基于sigmoid变换的单帧图像快速超分辨方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20180925 |
|
CF01 | Termination of patent right due to non-payment of annual fee |