[go: up one dir, main page]

CN110246099B - 一种保持结构边缘的图像去纹理方法 - Google Patents

一种保持结构边缘的图像去纹理方法 Download PDF

Info

Publication number
CN110246099B
CN110246099B CN201910497118.2A CN201910497118A CN110246099B CN 110246099 B CN110246099 B CN 110246099B CN 201910497118 A CN201910497118 A CN 201910497118A CN 110246099 B CN110246099 B CN 110246099B
Authority
CN
China
Prior art keywords
image
filtering
input image
filter
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910497118.2A
Other languages
English (en)
Other versions
CN110246099A (zh
Inventor
杜辉
舒莲卿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Media and Communications
Original Assignee
Zhejiang University of Media and Communications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Media and Communications filed Critical Zhejiang University of Media and Communications
Priority to CN201910497118.2A priority Critical patent/CN110246099B/zh
Publication of CN110246099A publication Critical patent/CN110246099A/zh
Application granted granted Critical
Publication of CN110246099B publication Critical patent/CN110246099B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • G06T2207/20028Bilateral filtering

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

本发明提供了一种保持结构边缘的图像去纹理方法,对给定输入图像,计算自适应空间滤波核尺度、增强处理,增强图像中的结构边缘、进行自适应空间滤波核尺度的联合双边滤波,获得引导图像;根据引导图像,局部拉普拉斯图像滤波器,构造联合局部拉普拉斯滤波器,与联合双边滤波方法的线性混合;计算滤波器线性混合的插值系数;结合输入图像和引导图像,计算联合双边滤波的结果;使用插值系数将输入图像、联合双边滤波结果进行线性混合,得到纹理滤波后的图像。本发明充分考虑了输入图像结构边缘形状,保证滤波后的结果图像具有光滑的边缘和跟输入图像尽可能一致的边缘形状,在滤波结果中能够很好地保持输入图像的色彩效果,提升图像编辑处理的质量。

Description

一种保持结构边缘的图像去纹理方法
技术领域
本发明涉及数字图像编辑及计算机视觉技术领域,具体涉及一种保持结构边缘的图像去纹理方法。
背景技术
图像通常包含结构信息和纹理信息。图像去纹理是指采用适当的方法分离图像的结构与纹理信息,在去除纹理信息时要尽可能保护图像结构信息。图像去纹理方法在图像分割、物体识别、显著性检测、图像增强和图像风格化等领域都具有广泛的应用。例如图像去纹理方法能够用于去除非机动车道图像中包含的地砖纹理,可以作为预处理操作来提高盲道的自动化检测效果等。因此,图像去纹理在计算机视觉和计算摄影学等领域具有重要的作用。
近年来,图像去纹理方法被广泛研究。现有的方法包括基于边缘感知的局部滤波方法、基于优化的方法和基于图像块的方法。
基于边缘感知的局部滤波方法,这些方法依靠像素梯度来区分纹理和结构边缘,并采用加权平均机制剔除图像纹理。在这类方法中双边滤波器和引导滤波器是两种最著名的边缘感知图像滤波器。然而,这类方法没有采用明确的度量方法来区分边缘和纹理,因此它们通常无法很好地去除纹理。另一方面,基于全局优化的方法通常需要求解一个大型线性系统,导致它们在计算量上劣势明显。基于图像块的方法根据图像块的特征统计,采用加权平均或者联合双边滤波器对图像进行滤波,获得纹理滤波后的图像。此类方法会破坏去纹理后的图像结构边缘形状,一些细小的结构无法保留,导致在图像后续增强处理时在边缘附近产生明显的瑕疵。
现在多采用联合双边滤波进行图像去纹理,联合双边滤波函数的表达式如下(Johannes Kopf,Michael F.Cohen,Dani Lischinski,and Matt Uyttendaele.Jointbilateral upsampling.ACM Transactions on Graphics.2007,26(3),Article 96):
Figure BDA0002088991310000011
其中:p表示图像内的当前像素,q是p邻域内的像素,
Figure BDA0002088991310000012
是二维空间定义域滤波高斯核函数,其中σs是位置方差;
Figure BDA0002088991310000013
是值域滤波高斯核函数,其中σr是色彩方差;M表示引导图像;I表示输入图像;J表示输出图像;
Figure BDA0002088991310000014
是归一化系数。
为了保证能保留图像的小结构,一些方法在联合双边滤波中使用自适应空间尺度的引导图像,获得纹理滤波结果。然而这些方法只考虑了图像中纹理的空间尺度,可能会使滤波后输入图像中色彩差异不大的结构边缘也被去除,导致结构形状的缺失。此外基于联合双边滤波器的图像去纹理方法可能会导致边缘的梯度反置而产生诸如光晕等瑕疵。
为了取得在后续图像编辑操作中取得满意的结果,输入图像的色彩效果应该被保护,而且在纹理滤波后输出图像的结构边缘应当是光滑的,其边缘形状应该跟输入图像尽可能一致。因此,本发明提出了一种新的结构边缘保护的图像去纹理方法。该方法基于局部拉普拉斯滤波器,可以很好地保持图像滤波后结构边缘的形状以及保持输入图像的色彩变化。
发明内容
本发明的目的:本发明提出了一种新的保持结构边缘的图像去纹理方法。该方法提出了一种新的计算引导图像方法,结合引导图像和局部拉普拉斯滤波器可以很好地利用各自优点,有效解决传统联合双边滤波纹理滤波方法的问题,较好地在去除纹理信息同时能保护输入图像的结构边缘形状。
一种新的保持结构边缘的图像去纹理方法,其步骤如下:
步骤1:给定一幅输入图像I,I中像素p的强度值记为Ip。给定奇数k值,像素p的邻域N(p)是以像素p为中心的大小为k×k的二维矩形区域。计算自适应纹理滤波空间尺度σs(p)。
步骤2:对输入图像进行增处理,增强图像中较弱的结构边缘。
步骤3:根据步骤一求得的自适应纹理滤波空间尺度和步骤二增强后图像,计算纹理滤波的引导图像M。
步骤4:根据步骤3中求得的引导图像M,结局部拉普拉斯图像滤波器,构造联合局部拉普拉斯滤波器,变换该滤波器使其等价于输入图像与联合双边滤波方法的线性混合。
步骤5:根据步骤1求得的自适应纹理滤波空间尺度、用户给定的色彩方差和步骤3求得的引导图像,计算联合局部拉普拉斯滤波器的插值系数。
步骤6:结合输入图像I和步骤3求得的引导图像,计算联合双边滤波的结果。
步骤7:结合输入图像I、步骤5求得的插值系数和步骤6求得的联合双边滤波结果,采用线性混合方法,得到图像去纹理的结果。
所述步骤1中计算自适应纹理滤波空间尺度σs(p)时,首先计算结构方向相对总变化图像,记作dRTV。计算方法见式(1):
Figure BDA0002088991310000021
其中,gσ(p,q)表示方差为σ2的高斯函数,ε=10-6用来防止公式中分母为零。
Figure BDA0002088991310000029
表示像素q沿着结构方向角度φ的方向偏微分算子,见式(2):
Figure BDA0002088991310000022
其中,
Figure BDA0002088991310000023
Figure BDA0002088991310000024
分别表示水平和垂直方向的微分算子。在[0,2π]中均匀采样12个不同方向的φ值,使用上述方法计算像素p的12个方向对应的
Figure BDA0002088991310000025
值,然后使用式(3)求得像素p的结构方向θp
Figure BDA0002088991310000026
根据求得的结构方向θp,获得输入图像的结构方向相对变化图像
Figure BDA0002088991310000027
根据求得的结构方向相对变化图像,使用式(4)求得自适应纹理滤波空间尺度σs(p):
Figure BDA0002088991310000028
Round(·)表示四舍五入运算;λ的值默认为0.005;|N(p)|表示像素p的邻域N(p)内的像素数量。
步骤2中所述增强图像较弱的结构边缘,使用引导图像滤波器(Guided imagefilter,详细内容参见Kaiming He,Jian Sun,and Xiaoou Tang.Guided ImageFiltering.European Conference on ComputerVision.2010)对输入图像I进行增强处理,增强图像对比度,强化输入图像I内强度较弱的结构边缘,求得增强后图像D。
步骤3中所述计算纹理滤波的引导图像M,根据步骤1求得的自适应空间尺度σs(p)和步骤2求得的增强后图像D,对输入图像I进行联合双边滤波,得到引导图像M。联合双边滤波方法见式(5):
Figure BDA0002088991310000031
式中
Figure BDA0002088991310000032
是归一化系数。
步骤4中所述构造联合局部拉普拉斯滤波器时,以边缘感知的局部拉普拉斯金字塔图像滤波方法(详细内容参见Paris S,Hasinoff S W,Kautz J.Local Laplacianfilters[J].Communications of the ACM,2015,58(3):81-91)为基础,考虑图像两层拉普拉斯金字塔,引入步骤3求得的引导图像M,修改局部拉普拉斯滤波器的变换函数空间r为式(6):
r(p)=p-(p-g)f(pm-gm) (6);
p表示输入图像I的像素,g表示该图像高斯金字塔系数,f(*)表示为连续函数,pm表示引导图像M的像素,gm表示引导图像的高斯金字塔系数。对于两层的滤波器,需要计算输出图像J的拉普拉斯金字塔的两层图像L0[J]和L1[J]。假设输出图像的残差L1[J]保持不变,即L1[J]=L1[I]。输出图像J的拉普拉斯金字塔的第0层图像是变换图像r(I)和其对应低通滤波图像之间的差见式(7):
Figure BDA0002088991310000033
p表示像素,
Figure BDA0002088991310000034
表示构建拉普拉斯金字塔的归一化高斯核函数,*表示卷积操作。输入图像I的金字塔最精细层表示为
Figure BDA0002088991310000035
金字塔系数g=Ip,引导图像M的金字塔最精细层的系数gm=Mp。将重新定义的映射函数r代入式(7),求得式(8):
Figure BDA0002088991310000036
将残差层图像L1[·]上采样,并加入到式(8),推导后求得联合局部拉普拉斯滤波器的输出图像J,表示为式(9):
Figure BDA0002088991310000037
q表示邻域Ωp内的像素。结合联合双边滤波和式(9),发现联合局部拉普拉斯滤波器跟联合双边滤波器有相似之处:两层的联合局部拉普拉斯滤波器输出图像J的第二项是使用
Figure BDA0002088991310000038
和连续函数f在空间邻域的加权平均。将f定义为引导图像M像素值范围偏差的高斯核函数,看到输出图像J的定义与联合双边滤波方法是高度相关的。
所述步骤4中变换联合局部拉普拉斯滤波器,其等价于输入图像与联合双边滤波方法的线性插值,令连续函数f为值域高斯核函数
Figure BDA0002088991310000039
则变换过程表示为式(10)~(14):
Figure BDA00020889913100000310
Figure BDA00020889913100000311
Figure BDA0002088991310000041
Jp=Ipp(JBFp-Ip) (13);
Jp=(1-μp)IppJBFp (14);
其中
Figure BDA0002088991310000042
表示归一化高斯核函数,
Figure BDA0002088991310000043
是二维空间定义域滤波高斯核函数,其中σs是位置方差,其值为步骤1中求得的自适应纹理滤波空间尺度σs(p);
Figure BDA0002088991310000044
是值域滤波高斯核函数,其中σr是色彩方差;μ表示插值系数,值为
Figure BDA0002088991310000045
JBF为输入图像I与引导图像M的联合双边滤波结果。
步骤5中所述计算插值系数μ,根据步骤4中推导结果,使用式(15)计算滤波器插值系数μ:
Figure BDA0002088991310000046
其中q是p邻域N(p)内的像素,
Figure BDA0002088991310000047
是归一化系数。
步骤6中所述计算联合双边滤波结果,根据自适应空间滤波尺度σs和用户指定的色彩方差σr,使用引导图像M,对输入图像进行联合双边滤波,得到相应的结果JBF,见式(16):
Figure BDA0002088991310000048
步骤7中所述计算图像去纹理结果,结合输入图像I、步骤5求得的插值系数μ和步骤6求得的联合双边滤波结果JBF,采用步骤4中推导出的线性混合方法,得到图像去纹理的结果J见式(17):
J=(1-μ)I+μ·JBF (17);
如果一次滤波效果不满意,可以将步骤7中求得的J赋值为新的输入图像,重复上述步骤,得到新的图像去纹理结果。一般重复迭代3-5次就可以获得满意的图像去纹理结果。
至此就完成了输入图像的去纹理操作。
本发明涉及的基于联合局部拉普拉斯滤波图像去纹理的优势在于,采用新技术手段,保证在纹理滤波后保护输入图像结构边缘的形状。结合引导图像和局部拉普拉斯滤波方法能够很好地利用各自的优点,有效解决传统联合双边纹理滤波方法的问题,实现高质量的纹理滤波。
附图说明
图1为本发明的基本流程示意图。
具体实施方式
下面结合附图对本发明进行详细说明;本实施例是以本发明技术方案为前提,进行实施的,并结合了详细的实施方式和过程。
如图1所示,本实施例所描述的一种新的结构边缘保护的图像去纹理方法包括如下步骤:
步骤1:给定一幅输入图像I,I中像素p的强度值记为Ip。给定奇数k值,像素p的邻域N(p)是以像素p为中心的大小为k×k的二维矩形区域。计算自适应纹理滤波空间尺度σs(p)。,首先计算结构方向相对总变化图像,记作dRTV。计算方法见式(1):
Figure BDA0002088991310000051
其中,gσ(p,q)表示方差为σ2的高斯函数,ε=10-6用来防止公式中分母为零。
Figure BDA00020889913100000511
表示像素q沿着结构方向角度φ的方向偏微分算子,见式(2):
Figure BDA0002088991310000052
其中,
Figure BDA0002088991310000053
Figure BDA0002088991310000054
分别表示水平和垂直方向的微分算子。在[0,2π]中均匀采样12个不同方向的φ值,使用上述方法计算像素p的12个方向对应的
Figure BDA0002088991310000055
值,然后使用式(3)求得像素p的结构方向θp
Figure BDA0002088991310000056
根据求得的结构方向θp,获得输入图像的结构方向相对变化图像
Figure BDA0002088991310000057
根据求得的结构方向相对变化图像,使用式(4)求得自适应纹理滤波空间尺度σs(p):
Figure BDA0002088991310000058
Round(·)表示四舍五入运算;λ的值默认为0.005;|N(p)|表示像素p的邻域N(p)内的像素数量。
步骤2:对输入图像进行增处理,增强图像中较弱的结构边缘。增强图像较弱的结构边缘,使用引导图像滤波器(Guided image filter,详细内容参见Kaiming He,JianSun,and Xiaoou Tang.Guided Image Filtering.European Conference on ComputerVision.2010)对输入图像I进行增强处理,增强图像对比度,强化输入图像I内强度较弱的结构边缘,求得增强后图像D。
步骤3:根据步骤一求得的自适应纹理滤波空间尺度和步骤二增强后图像,计算纹理滤波的引导图像M。根据步骤1求得的自适应空间尺度σs(p)和步骤2求得的增强后图像D,对输入图像I进行联合双边滤波,得到引导图像M。联合双边滤波方法见式(5):
Figure BDA0002088991310000059
式中
Figure BDA00020889913100000510
是归一化系数。
步骤4:根据步骤3中求得的引导图像M,结局部拉普拉斯图像滤波器,构造联合局部拉普拉斯滤波器,变换该滤波器使其等价于输入图像与联合双边滤波方法的线性混合。
构造联合局部拉普拉斯滤波器时,以边缘感知的局部拉普拉斯金字塔图像滤波方法(详细内容参见Paris S,Hasinoff S W,Kautz J.Local Laplacian filters[J].Communications of the ACM,2015,58(3):81-91)为基础,考虑图像两层拉普拉斯金字塔,引入步骤3求得的引导图像M,修改局部拉普拉斯滤波器的变换函数空间r为式(6):
r(p)=p-(p-g)f(pm-gm) (6);
p表示输入图像I的像素,g表示该图像高斯金字塔系数,f(*)表示为连续函数,pm表示引导图像M的像素,gm表示引导图像的高斯金字塔系数。对于两层的滤波器,需要计算输出图像J的拉普拉斯金字塔的两层图像L0[J]和L1[J]。假设输出图像的残差L1[J]保持不变,即L1[J]=L1[I]。输出图像J的拉普拉斯金字塔的第0层图像是变换图像r(I)和其对应低通滤波图像之间的差见式(7):
Figure BDA0002088991310000061
p表示像素,
Figure BDA0002088991310000062
表示构建拉普拉斯金字塔的归一化高斯核函数,*表示卷积操作。输入图像I的金字塔最精细层表示为
Figure BDA0002088991310000063
金字塔系数g=Ip,引导图像M的金字塔最精细层的系数gm=Mp。将重新定义的映射函数r代入式(7),求得式(8):
Figure BDA0002088991310000064
将残差层图像L1[·]上采样,并加入到式(8),推导后求得联合局部拉普拉斯滤波器的输出图像J,表示为式(9):
Figure BDA0002088991310000065
q表示邻域Ωp内的像素。结合联合双边滤波和式(9),发现联合局部拉普拉斯滤波器跟联合双边滤波器有相似之处:两层的联合局部拉普拉斯滤波器输出图像J的第二项是使用
Figure BDA0002088991310000066
和连续函数f在空间邻域的加权平均。将f定义为引导图像M像素值范围偏差的高斯核函数,看到输出图像J的定义与联合双边滤波方法是高度相关的。
变换联合局部拉普拉斯滤波器,其等价于输入图像与联合双边滤波方法的线性插值,令连续函数f为值域高斯核函数
Figure BDA0002088991310000067
则变换过程表示为式(10)~(14):
Figure BDA0002088991310000068
Figure BDA0002088991310000069
Figure BDA00020889913100000610
Jp=Ipp(JBFp-Ip) (13);
Jp=(1-μp)IppJBFp (14);
其中
Figure BDA00020889913100000611
表示归一化高斯核函数,
Figure BDA00020889913100000612
是二维空间定义域滤波高斯核函数,其中σs是位置方差,其值为步骤1中求得的自适应纹理滤波空间尺度σs(p);
Figure BDA00020889913100000613
是值域滤波高斯核函数,其中σr是色彩方差;μ表示插值系数,值为
Figure BDA00020889913100000614
JBF为输入图像I与引导图像M的联合双边滤波结果。
步骤5:根据步骤1求得的自适应纹理滤波空间尺度、用户给定的色彩方差和步骤3求得的引导图像,计算联合局部拉普拉斯滤波器的插值系数。计算插值系数μ,根据步骤4中推导结果,使用式(15)计算滤波器插值系数μ:
Figure BDA0002088991310000071
其中q是p邻域N(p)内的像素,
Figure BDA0002088991310000072
是归一化系数。
步骤6:结合输入图像I和步骤3求得的引导图像,计算联合双边滤波的结果。根据自适应空间滤波尺度σs和用户指定的色彩方差σr,使用引导图像M,对输入图像进行联合双边滤波,得到相应的结果JBF,见式(16):
Figure BDA0002088991310000073
步骤7:结合输入图像I、步骤5求得的插值系数和步骤6求得的联合双边滤波结果,采用线性混合方法,得到图像去纹理的结果。计算图像去纹理结果,结合输入图像I、步骤5求得的插值系数μ和步骤6求得的联合双边滤波结果JBF,采用步骤4中推导出的线性混合方法,得到图像去纹理的结果J见式(17):
J=(1-μ)I+μ·JBF (17);
如果一次滤波效果不满意,可以将步骤7中求得的J赋值为新的输入图像,重复上述步骤,得到新的图像去纹理结果。一般重复迭代3-5次就可以获得满意的图像去纹理结果。
至此就完成了输入图像的去纹理操作。

Claims (1)

1.一种新的保持结构边缘的图像去纹理方法,其特征在于:包括如下步骤:
步骤1:给定一幅输入图像I,I中像素p的强度值记为Ip;给定奇数k值,像素p的邻域N(p)是以像素p为中心的大小为k×k的二维矩形区域;计算自适应纹理滤波空间尺度σs(p);
首先计算结构方向相对总变化图像,记作dRTV;计算方法见式(1):
Figure FDA0003173882510000011
其中,gσ(p,q)表示方差为σ2的高斯函数,ε=10-6用来防止公式中分母为零;
Figure FDA0003173882510000012
表示像素q沿着结构方向角度φ的方向偏微分算子,见式(2):
Figure FDA0003173882510000013
其中,
Figure FDA0003173882510000014
Figure FDA0003173882510000015
分别表示水平和垂直方向的微分算子;在[0,2π]中均匀采样12个不同方向的φ值,使用上述方法计算像素p的12个方向对应的
Figure FDA0003173882510000016
值,然后使用式(3)求得像素p的结构方向θp
Figure FDA0003173882510000017
根据求得的结构方向θp,获得输入图像的结构方向相对变化图像
Figure FDA0003173882510000018
根据求得的结构方向相对变化图像,使用式(4)求得自适应纹理滤波空间尺度σs(p):
Figure FDA0003173882510000019
Round(·)表示四舍五入运算;λ的值默认为0.005;|N(p)|表示像素p的邻域N(p)内的像素数量;
步骤2:对输入图像进行增处理,增强图像中较弱的结构边缘;使用引导图像滤波器对输入图像I进行增强处理,增强图像对比度,强化输入图像I内强度较弱的结构边缘,求得增强后图像D;
步骤3:根据步骤一求得的自适应纹理滤波空间尺度和步骤二增强后图像,计算纹理滤波的引导图像M;根据步骤1求得的自适应空间尺度σs(p)和步骤2求得的增强后图像D,对输入图像I进行联合双边滤波,得到引导图像M;联合双边滤波方法见式(5):
Figure FDA00031738825100000110
式中
Figure FDA00031738825100000111
是归一化系数;
步骤4:根据步骤3中求得的引导图像M,结合局部拉普拉斯图像滤波器,构造联合局部拉普拉斯滤波器,变换该滤波器使其等价于输入图像与联合双边滤波方法的线性混合;
以边缘感知的局部拉普拉斯金字塔图像滤波方法为基础,考虑图像两层拉普拉斯金字塔,引入步骤3求得的引导图像M,修改局部拉普拉斯滤波器的变换函数空间r为式(6):
r(p)=p-(p-g)f(pm-gm) (6);
p表示输入图像I的像素,g表示该图像高斯金字塔系数,f(*)表示为连续函数,pm表示引导图像M的像素,gm表示引导图像的高斯金字塔系数;对于两层的滤波器,需要计算输出图像J的拉普拉斯金字塔的两层图像L0[J]和L1[J];假设输出图像的残差L1[J]保持不变,即L1[J]=L1[I];输出图像J的拉普拉斯金字塔的第0层图像是变换图像r(I)和其对应低通滤波图像之间的差见式(7):
Figure FDA0003173882510000021
p表示像素,
Figure FDA0003173882510000022
表示构建拉普拉斯金字塔的归一化高斯核函数,*表示卷积操作;输入图像I的金字塔最精细层表示为
Figure FDA0003173882510000023
金字塔系数g=Ip,引导图像M的金字塔最精细层的系数gm=Mp;将重新定义的映射函数r代入式(7),求得式(8):
Figure FDA0003173882510000024
将残差层图像L1[·]上采样,并加入到式(8),推导后求得联合局部拉普拉斯滤波器的输出图像J,表示为式(9):
Figure FDA0003173882510000025
q表示邻域Ωp内的像素;结合联合双边滤波和式(9),发现联合局部拉普拉斯滤波器跟联合双边滤波器有相似之处:两层的联合局部拉普拉斯滤波器输出图像J的第二项是使用
Figure FDA0003173882510000026
和连续函数f在空间邻域的加权平均;将f定义为引导图像M像素值范围偏差的高斯核函数,看到输出图像J的定义与联合双边滤波方法是高度相关的;
变换联合局部拉普拉斯滤波器,其等价于输入图像与联合双边滤波方法的线性插值,令连续函数f为值域高斯核函数
Figure FDA0003173882510000027
则变换过程表示为式(10)~(14):
Figure FDA0003173882510000028
Figure FDA0003173882510000029
Figure FDA00031738825100000210
Jp=Ipp(JBFp-Ip) (13);
Jp=(1-μp)IppJBFp (14);
其中
Figure FDA00031738825100000211
表示归一化高斯核函数,
Figure FDA00031738825100000212
是二维空间定义域滤波高斯核函数,其中σs是位置方差,其值为步骤1中求得的自适应纹理滤波空间尺度σs(p);
Figure FDA00031738825100000213
是值域滤波高斯核函数,其中σr是色彩方差;μ表示插值系数,值为
Figure FDA00031738825100000214
JBF为输入图像I与引导图像M的联合双边滤波结果;
步骤5:根据步骤1求得的自适应纹理滤波空间尺度、用户给定的色彩方差和步骤3求得的引导图像,计算联合局部拉普拉斯滤波器的插值系数;根据步骤4中推导结果,使用式(15)计算滤波器插值系数μ:
Figure FDA0003173882510000031
其中q是p邻域N(p)内的像素,
Figure FDA0003173882510000032
是归一化系数;
步骤6:结合输入图像I和步骤3求得的引导图像,计算联合双边滤波的结果;根据自适应空间滤波尺度σs和用户指定的色彩方差σr,使用引导图像M,对输入图像进行联合双边滤波,得到相应的结果JBF,见式(16):
Figure FDA0003173882510000033
步骤7:结合输入图像I、步骤5求得的插值系数和步骤6求得的联合双边滤波结果,采用线性混合方法,得到图像去纹理的结果;结合输入图像I、步骤5求得的插值系数μ和步骤6求得的联合双边滤波结果JBF,采用步骤4中推导出的线性混合方法,得到图像去纹理的结果J见式(17):
J=(1-μ)I+μ·JBF (17);
如果一次滤波效果不满意,将步骤7中求得的J赋值为新的输入图像,重复上述步骤一至步骤七,得到新的图像去纹理结果;一般重复迭代3-5次就可以获得满意的图像去纹理结果。
CN201910497118.2A 2019-06-10 2019-06-10 一种保持结构边缘的图像去纹理方法 Active CN110246099B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910497118.2A CN110246099B (zh) 2019-06-10 2019-06-10 一种保持结构边缘的图像去纹理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910497118.2A CN110246099B (zh) 2019-06-10 2019-06-10 一种保持结构边缘的图像去纹理方法

Publications (2)

Publication Number Publication Date
CN110246099A CN110246099A (zh) 2019-09-17
CN110246099B true CN110246099B (zh) 2021-09-07

Family

ID=67886459

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910497118.2A Active CN110246099B (zh) 2019-06-10 2019-06-10 一种保持结构边缘的图像去纹理方法

Country Status (1)

Country Link
CN (1) CN110246099B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112819733B (zh) * 2021-01-29 2024-04-16 成都国科微电子有限公司 一种定向双边图像滤波方法及装置
CN112862715B (zh) * 2021-02-08 2023-06-30 天津大学 一种实时且可控的尺度空间滤波方法
CN114742728A (zh) * 2022-04-04 2022-07-12 福建省德腾智能科技有限公司 基于自适应核估计的相对高斯率图像平滑方法
CN114708165B (zh) * 2022-04-11 2025-06-27 重庆理工大学 一种联合超像素的边缘感知纹理滤波方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104458766A (zh) * 2014-12-31 2015-03-25 江南大学 一种基于结构纹理法的布匹表面瑕疵检测方法
CN107133924A (zh) * 2017-03-31 2017-09-05 长安大学 一种利用颜色二阶变化信息的保结构特征图像滤波方法
CN109859145A (zh) * 2019-02-27 2019-06-07 长安大学 一种基于多级权重相对总变差的图像去纹理方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7551792B2 (en) * 2003-11-07 2009-06-23 Mitsubishi Electric Research Laboratories, Inc. System and method for reducing ringing artifacts in images
KR101248808B1 (ko) * 2011-06-03 2013-04-01 주식회사 동부하이텍 경계 영역의 잡음 제거 장치 및 방법
CN104991269B (zh) * 2015-06-04 2017-05-31 中国科学技术大学 一种边缘引导和结构约束的全波形反演快速方法
CN105913396B (zh) * 2016-04-11 2018-10-19 湖南源信光电科技有限公司 一种噪声估计的图像边缘保持混合去噪方法
CN107274363B (zh) * 2017-06-02 2020-09-22 北京理工大学 一种具有尺度敏感特性的边缘保持图像滤波方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104458766A (zh) * 2014-12-31 2015-03-25 江南大学 一种基于结构纹理法的布匹表面瑕疵检测方法
CN107133924A (zh) * 2017-03-31 2017-09-05 长安大学 一种利用颜色二阶变化信息的保结构特征图像滤波方法
CN109859145A (zh) * 2019-02-27 2019-06-07 长安大学 一种基于多级权重相对总变差的图像去纹理方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Local Laplacian filters:Edge-aware Image Processing with a Laplacian Pyramid;Paris S等;《Communications of the ACM》;20151231;第81-91页 *
Scale-aware Structure-Preserving Texture Filtering;Junho Jeon等;《Pacific Graphics 2016》;20161231;摘要,正文第1-7节c *

Also Published As

Publication number Publication date
CN110246099A (zh) 2019-09-17

Similar Documents

Publication Publication Date Title
CN110246099B (zh) 一种保持结构边缘的图像去纹理方法
Min et al. Fast global image smoothing based on weighted least squares
US9087390B2 (en) High-quality upscaling of an image sequence
US8295632B2 (en) System and method for edge-enhancement of digital images using wavelets
CN107292834B (zh) 红外图像细节增强方法
CN108932699B (zh) 基于变换域的三维匹配调和滤波图像去噪方法
Gong et al. Sub-window box filter
Biradar et al. A novel image inpainting technique based on median diffusion
CN102222327A (zh) 基于Treelet变换和最小均方误差估计的图像去噪方法
CN105243647A (zh) 一种基于线性空间滤波的图像增强方法
CN105303538B (zh) 一种基于nsct和pca的高斯噪声方差估计方法
CN108717699B (zh) 一种基于连续最小割的超声波图像分割方法
Shao et al. Edge-and-corner preserving regularization for image interpolation and reconstruction
KR101776501B1 (ko) 비국부 평균 알고리즘을 이용한 영상 잡음 제거 장치 및 방법
Li et al. Guided iterative back-projection scheme for single-image super-resolution
CN105741255A (zh) 图像融合方法及装置
CN107798663B (zh) 一种基于偏微分方程和bm3d的无参数化图像恢复方法
US20100002772A1 (en) Method and device for restoring a video sequence
Choi et al. Fast, trainable, multiscale denoising
CN113256663B (zh) 一种动态特征剔除方法及其角点检测算法
Akl et al. Structure-based image inpainting
Wong et al. Turbo denoising for mobile photographic applications
Liu et al. Infrared ship target image smoothing based on adaptive mean shift
Elhefnawy et al. Effective visibility restoration and enhancement of air polluted images with high information fidelity
CN108510449B (zh) 基于自适应核回归的全变分图像噪声消除方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant