[go: up one dir, main page]

CN116579939A - 一种基于卷积神经网络和小波变换的低照度图像增强方法 - Google Patents

一种基于卷积神经网络和小波变换的低照度图像增强方法 Download PDF

Info

Publication number
CN116579939A
CN116579939A CN202310482074.2A CN202310482074A CN116579939A CN 116579939 A CN116579939 A CN 116579939A CN 202310482074 A CN202310482074 A CN 202310482074A CN 116579939 A CN116579939 A CN 116579939A
Authority
CN
China
Prior art keywords
image
feature
convolution
low
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310482074.2A
Other languages
English (en)
Inventor
刘书林
路红
谢长勇
刘勇
李科华
何值全
冉武
王俐钞
吕传禄
陆嘉文
袁履凡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chinese Peoples Liberation Army Naval Characteristic Medical Center
Fudan University
Original Assignee
Chinese Peoples Liberation Army Naval Characteristic Medical Center
Fudan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chinese Peoples Liberation Army Naval Characteristic Medical Center, Fudan University filed Critical Chinese Peoples Liberation Army Naval Characteristic Medical Center
Priority to CN202310482074.2A priority Critical patent/CN116579939A/zh
Publication of CN116579939A publication Critical patent/CN116579939A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20064Wavelet transform [DWT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)

Abstract

本发明属于计算机图像处理技术领域,具体为基于卷积神经网络和小波变换的低照度图像增强方法。本发明包括:(1)构建用于低照度图像增强的网络SWANet,包括用于第一阶段调整光照分布的网络MIANet和用于第二阶段去除残余噪声、完善细节的网络WNENet,其中使用基于注意力机制和多尺度特征的多尺度注意力融合模块、基于激发和压缩的通道注意力模块以及用于平衡空间域和频率特征的离散小波损失。(2)将低照度图像输入MIANet,得到初步增强的图像,再将其输入WNENet,得到最终的增强图像。通过SWANet从粗到细地增强过程,本发明能够有效调整不同区域的亮度和对比度,去除图像中的噪声,提高视觉体验。

Description

一种基于卷积神经网络和小波变换的低照度图像增强方法
技术领域
本发明属于计算机图像处理技术领域,具体涉及一种低照度图像增强方法。
背景技术
由于环境和设备的限制,低光照条件下拍摄的照片往往存在亮度不足、对比度过低、颜色失真、细节缺失等问题。这不仅会降低图片的美学质量,影响观看者的视觉体验,同时也会给高层视觉任务如物体识别、图像分割带来阻碍。因此,因此,低光照图像增强成为备受关注的重要任务。
低光照图像增强主要有两种实现方式---硬件实现,软件实现。硬件实现是指提高传感器等硬件设备的采集能力,使其能在低光照条件下拍摄出清晰的图像,如延长曝光时间或者采用红外线设备采集图片。虽然硬件实现在一定程度上能克服低光照带来的不利影响,但成本较高。因此,在实际中往往采用成本较低、可复用性强的软件实现。软件实现又可分为传统方法和深度学习方法两种类型。
传统方法包括基于直方图均衡化、基于伽马校正和基于Retinex理论的增强方法。基于直方图均衡化和基于伽马校正的方法在一定程度上能提高图像视觉效果,但不够灵活,有时会破坏相邻区域的对比度关系,产生过度曝光。基于Retinex理论的方法忽略了噪声因素,从而放大噪声,产生颜色失真。此外,优化过程复杂,运行时间长也是该方法的一个缺陷。
随着深度学习技术的发展,基于深度学习的低照度图像增强技术取得飞跃性突破,效果显著。不过现有方法无法在调整全局光照和局部对比度之间取得平衡,难以捕捉复杂的噪声分布。
发明内容
本发明的目的是提供一种能够获得高质量图像和优秀视觉效果的基于卷积神经网络和小波变换的低照度图像增强方法。
本发明提供的基于卷积神经网络和小波变换的低照度图像增强方法,具体步骤为:
(一)构建用于低照度图像增强的网络,记为SWANet;该SWANet网络包括用于第一阶段调整光照分布的网络(记为MIANet)和用于第二阶段去除残余噪声、完善细节的网络(记为WNENet);其中,使用到基于注意力机制和多尺度特征的多尺度注意力融合模块、基于激发和压缩的通道注意力模块,以及用于平衡空间域和频率特征的离散小波损失。
(二)第一阶段,将低照度图像输入MIANet,得到初步增强的图像;第二阶段,将初步增强的图像输入WNENet,得到最终的增强图像。
可形式化表述如下:
I1=MIANet(I)
I2=WNENet(I1)
其中,I,I1,I2分别表示输入图像、初步增强的图像,最终增强的图像。
步骤(一)中,所述的MIANet网络基于UNet结构设计,分为多尺度特征提取模块和多尺度注意力融合模块两个部分。
在多尺度特征提取模块部分,输入图像依次用双线性插值进行2x、4x、8x下采样,依次得到大小为原图1/2,1/4,1/8的三张图像,然后将原图与三张不同尺度的图像经过一个权重共享的3x3卷积,得到4个尺度的特征。之后原图经过一个NAFBlock[1]和1x1卷积,将输出分别送入一个用于下采样的Pixel Unshuffle[7]操作和一个3x3卷积,得到下采样特征down1和编码特征E1;第2、3个尺度的特征将自身与上一个尺度特征下采样后的结果downi-1进行串联,并依次送入一个NAFBlock和1x1卷积,将输出分别送入Pixel Unshuffle[7]下采样和一个3x3卷积,得到下采样特征downi和编码特征Ei(i=2,3);第4个尺度的特征将D3与自身串联,经过1个NAFBlock和1x1卷积后,得到编码特征E4。编码特征E4通过Pixel Shuffle[7]上采样,并与E3串联,然后送入一个NAFBlock和一个3x3卷积,得到解码特征D2;在第2个尺度重复上述操作,得到解码特征D2。将E1与上采样后的D2串联并送入一个NAFBlock和一个3x3卷积,得到解码特征D1
得到多个尺度的特征信息后,将它们送入多尺度注意力融合模块,从而得到初步增强的图像I1
多尺度注意力融合模块的工作流程如下:先将输入的4个解码特征用双线性插值上采样到和原图同一大小,并相加,然后通过卷积块注意力模块[5],接着用3x3卷积从原图提取特征,将其相加。然后通过一个包含跳跃连接的Conv-Conv-ReLU-Conv-ReLU-Conv块,并将输出结果与原图相加,得到初步增强的图像I1
步骤(一)中,所述WNENet网络的具体工作过程如下:
对于输入图像I1,先用离散小波变换将其切割为4个频率子带,分别送入4个3x3卷积,然后将4个输出串联,并送入3x3卷积、ReLU、通道注意力模块,接着用1x1卷积调整通道数并用逆离散小波变换将特征转换成增强图片I2。在这训练过程中,采用离散小波损失进行监督训练。
其中,所述通道注意力模块的具体工作流程如下:
先将输入特征经过Conv-ReLU-Conv块,然后再经过一个采用“激发-压缩”操作的逆SE块调整特征比重。逆SE块与SE[2]块类似,不过将SE块中的通道降维8倍的操作换成了通道升维128倍。然后与残差相加,并用1x1卷积调整通道的输出。
其中,所述采用离散小波损失,具体流程如下:
给定增强结果和低光照图像对应的标准光照图像Y,离散小波损失先用离散小波变换将两张图像转换到频域,再用Charbonnier[6]损失函数监督训练过程。该过程可表达为:
其中,fDWT表示离散小波变换操作,ε为0.001。
本发明中:
对于MIANet网络训练,包括:
(a)输入低照度图像I,得到初步增强的图像I1
(b)设置训练参数,包括批次大小,图像块大小,学习率,学习率调整策略和优化器;
(c)开始训练;
(d)多次调整模型中的超参数,得到性能最好的模型。
对于WNENet网络训练,包括:
(1)用MIANet对低光照图像进行处理,得到初步增强图像,将其按比例划分训练集、测试集,并进行图像预处理;
(2)训练WNENet网络;
训练过程中,用离散小波损失平衡空间特征和频域特征,促进训练过程;
(3)设置训练参数,包括批次大小,图像块大小,学习率,学习率调整策略和优化器;
(4)多次调整模型中的超参数,得到性能最好的模型。
与现有技术相比,本发明能调整图像中的不均匀光照,去除图像中的噪声,获得更高的图像质量指标和取得更好的视觉效果,可应用于视频监控等场景,具有良好的应用价值。
附图说明
图1为本发明中使用的SWANet网络结构图和通道注意力块结构图。
图2为本发明中使用的多尺度注意力融合模块。
图3为在真实低照度数据集VV上与SOTA方法的视觉比较结果。
具体实施方式
本发明中使用的网络结构如图1所示。输入的低光照图像先在第一阶段用MIANet进行初步调整,然后再用WNENet进一步完善图像细节。通道注意力块在图1的右下角,多尺度注意力融合模块如图2所示。
本发明实施例包括以下步骤:
(1)数据集准备
本发明在LOL[3]和MIT Adobe FiveK[4]数据集上进行训练和测试。LOL是第一个在真实场景拍摄的数据集,包含500对图像,其中485对图像训练,15对图像用于测试。MITAdobe FiveK数据集由麻省理工学院的Bychkovsky等人搜集而成。它最初用于图像的全局色调调整任务,后来也被用于低光照图像增强任务,包含5000张RAW格式的图片。本实施例将原图从RAW格式转换为JPG,并将前4500对图像用于训练过程,后500对图像用于测试过程。
(2)数据预处理
由于训练集图片数量有限,为了增加训练数据的数量,让模型得到充分训练,本发明实施例引入了数据增强操作。先随机从输入图像中裁剪图像块,然后分别对其进行随机水平翻转、随机垂直翻转和随机旋转操作。
(3)参数设置
本发明实施例采用一张GTX 3090GPU来训练,模型的超参数设置如下:批次大小为4;输入图片大小为256x256;优化器为AdamW;在第一阶段,初始学习率设置为5×10-5,用cosine annealing策略将学习率降到1×10-5。在第二阶段,初始学习率设置为1×10-4,用cosine annealing策略将学习率降到1×10-5。每个阶段,网络都要训练300个epoch。
(4)实验结果
图3显示了在VV数据集上的测试结果,(a)是输入图像,(b)-(k)是其它的SOTA方法,(I)是本发明提出的方法。可以看到,LIME直接对全局图像进行简单地调亮,导致出现明显噪声,其它几种产生的增强结果曝光不足或曝光过度。与它们相比,本实施例既能调亮全局亮度,又能平衡局部对比度,同时未出现明显噪声,图像质量更好,视觉效果更佳。
表1给出了本发明与其它11种增强方法在LOL数据集和MIT数据集上的比较结果。可以看到,与其它方法相比,本发明实施例在两个数据集上都获得了最高的性能指标,证实了本方法的有效性和优越性。
表1
参考文献
[1]Chen L,Chu X,Zhang X,et al.Simple baselines for image restoration[C]//Proceedings of the European Conference on Computer Vision.2022:17-33.
[2]Hu J,Shen L,Sun G.Squeeze-and-excitation networks[C]//Proceedingsof the IEEE Conference on Computer Vision and Pattern Recognition.2018:7132-7141.
[3]Wei C,Wang W,Yang W,et al.Deep retinex decomposition for low-lightenhancement[J].BMVC,2018.
[4]Bychkovsky V,Paris S,Chan E,et al.Learning photographic globaltonal adjustment with adatabase of input/output image pairs[C]//Proceedingsof the IEEE Conference on Computer Vision and Pattern Recognition.2011:97-104.
[5]Woo S,Park J,Lee J Y,et al.Cbam:Convolutional block attentionmodule[C]//Proceedings of the European Conference on Computer Vision.2018:3-19.
[6]Lai W S,Huang J B,Ahuja N,et al.Fast and accurate image super-resolution with deep laplacian pyramid networks[J].IEEE Transactions onPattern Analysis and Machine Intelligence,2018,41(11):2599-2613.
[7]Shi W,Caballero J,Huszár F,et al.Real-time single image and videosuper-resolution using an efficient sub-pixel convolutional neural network[C]//Proceedings of the IEEE Conference on Computer Vision and PatternRecognition.2016:1874-1883。

Claims (6)

1.一种基于卷积神经网络和小波变换的低照度图像增强方法,其特征在于,具体步骤为:
(一)构建用于低照度图像增强的网络,记为SWANet;该SWANet网络包括用于第一阶段调整光照分布的网络,记为MIANet,用于第二阶段去除残余噪声、完善细节的网络,记为WNENet;其中,使用到基于注意力机制和多尺度特征的多尺度注意力融合模块、基于激发和压缩的通道注意力模块,以及用于平衡空间域和频率特征的离散小波损失;
(二)第一阶段,将低照度图像输入MIANet,得到初步增强的图像;第二阶段,将初步增强的图像输入WNENet,得到最终的增强图像;形式化表述如下:
I1=MIANet(I)
I2=WNENet(I1)
其中,I,I1,I2分别表示输入图像、初步增强的图像、最终增强的图像。
2.根据权利要求1所述的基于卷积神经网络和小波变换的低照度图像增强方法,其特征在于,步骤(一)中所述的MIANet网络基于UNet结构设计,包括多尺度特征提取模块和多尺度注意力融合模块两个部分;
在多尺度特征提取模块部分,输入图像依次用双线性插值进行2x、4x、8x下采样,依次得到大小为原图1/2,1/4,1/8的三张图像,然后将原图与三张不同尺度的图像经过一个权重共享的3x3卷积,得到4个尺度的特征;之后原图经过一个NAFBlock和1x1卷积,将输出分别送入一个用于下采样的PixelUnshuffle操作和一个3x3卷积,得到下采样特征down1和编码特征E1;第2、3个尺度的特征将自身与上一个尺度特征下采样后的结果downi-1进行串联,并依次送入一个NAFBlock和1x1卷积,将输出分别送入Pixel Unshuffle下采样和一个3x3卷积,得到下采样特征downi和编码特征Ei(i=2,3);第4个尺度的特征将D3与自身串联,经过1个NAFBlock和1x1卷积后,得到编码特征E4;编码特征E4通过Pixel Shuffle上采样,并与E3串联,然后送入一个NAFBlock和一个3x3卷积,得到解码特征D2;在第2个尺度重复上述操作,得到解码特征D2;将E1与上采样后的D2串联并送入一个NAFBlock和一个3x3卷积,得到解码特征D1
得到多个尺度的特征信息后,将它们送入多尺度注意力融合模块,从而得到初步增强的图像I1
3.根据权利要求2所述的基于卷积神经网络和小波变换的低照度图像增强方法,其特征在于,所述多尺度注意力融合模块的工作流程如下:
先将输入的4个解码特征用双线性插值上采样到和原图同一大小,并相加,然后经过卷积块注意力模块,接着用3x3卷积从原图提取特征,将其相加;然后经过一个包含跳跃连接的Conv-Conv-ReLU-Conv-ReLU-Conv块,并将输出结果与原图相加,得到初步增强的图像I1
4.根据权利要求3所述的基于卷积神经网络和小波变换的低照度图像增强方法,其特征在于,步骤(一)中所述WNENet网络的具体工作过程如下:
对于输入图像I1,先用离散小波变换将其切割为4个频率子带,分别送入4个3x3卷积,然后将4个输出串联,并送入3x3卷积、ReLU、通道注意力模块,接着用1x1卷积调整通道数并用逆离散小波变换将特征转换成增强图片I2;在这训练过程中,采用离散小波损失进行监督训练。
5.根据权利要求4所述的基于卷积神经网络和小波变换的低照度图像增强方法,其特征在于,所述通道注意力模块的具体工作流程如下:
先将输入特征经过一个Conv-ReLU-Conv块,然后再经过一个采用“激发-压缩”操作的逆SE块调整特征比重;逆SE块是将SE块中的通道降维8倍的操作换成通道升维128倍操作;然后与残差相加,并用1x1卷积调整通道的输出。
6.根据权利要求5所述的基于卷积神经网络和小波变换的低照度图像增强方法,其特征在于,所述采用离散小波损失进行监督训练,具体流程如下:
给定增强结果和低光照图像对应的标准光照图像Y,离散小波损失先用离散小波变换将两张图像转换到频域,再用Charbonnier损失函数监督训练过程;该过程表达为:
其中,fDWT表示离散小波变换操作,ε为0.001。
CN202310482074.2A 2023-04-29 2023-04-29 一种基于卷积神经网络和小波变换的低照度图像增强方法 Pending CN116579939A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310482074.2A CN116579939A (zh) 2023-04-29 2023-04-29 一种基于卷积神经网络和小波变换的低照度图像增强方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310482074.2A CN116579939A (zh) 2023-04-29 2023-04-29 一种基于卷积神经网络和小波变换的低照度图像增强方法

Publications (1)

Publication Number Publication Date
CN116579939A true CN116579939A (zh) 2023-08-11

Family

ID=87540609

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310482074.2A Pending CN116579939A (zh) 2023-04-29 2023-04-29 一种基于卷积神经网络和小波变换的低照度图像增强方法

Country Status (1)

Country Link
CN (1) CN116579939A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118864329A (zh) * 2024-06-24 2024-10-29 南京审计大学 一种基于小波变换的多尺度Transformer-Unet低光图像的增强方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118864329A (zh) * 2024-06-24 2024-10-29 南京审计大学 一种基于小波变换的多尺度Transformer-Unet低光图像的增强方法
CN118864329B (zh) * 2024-06-24 2025-02-18 南京审计大学 一种基于小波变换的多尺度Transformer-Unet低光图像的增强方法

Similar Documents

Publication Publication Date Title
Zamir et al. Learning enriched features for fast image restoration and enhancement
CN109741260B (zh) 一种基于深度反投影网络的高效超分辨率方法
CN109064396B (zh) 一种基于深度成分学习网络的单幅图像超分辨率重建方法
Chang et al. Low-light image restoration with short-and long-exposure raw pairs
CN114140353A (zh) 一种基于通道注意力的Swin-Transformer图像去噪方法及系统
CN107240066A (zh) 基于浅层和深层卷积神经网络的图像超分辨率重建算法
CN111369466B (zh) 基于可变形卷积的卷积神经网络的图像畸变矫正增强方法
CN111028150A (zh) 一种快速时空残差注意力视频超分辨率重建方法
CN109785252B (zh) 基于多尺度残差密集网络夜间图像增强方法
CN108805836A (zh) 基于深度往复式hdr变换的图像校正方法
CN114862698B (zh) 一种基于通道引导的真实过曝光图像校正方法与装置
CN116152120A (zh) 一种融合高低频特征信息的低光图像增强方法及装置
CN111612695B (zh) 一种低分辨率人脸图像超分辨重建方法
CN111612722A (zh) 基于简化Unet全卷积神经网络的低照度图像处理方法
CN102063712A (zh) 基于子带结构的多曝光图像融合方法
Kinoshita et al. Convolutional neural networks considering local and global features for image enhancement
CN109949217B (zh) 基于残差学习和隐式运动补偿的视频超分辨率重建方法
CN109886906B (zh) 一种细节敏感的实时弱光视频增强方法和系统
CN117274059A (zh) 基于图像编码-解码的低分辨率图像重构方法及其系统
CN115953321A (zh) 一种基于零次学习的低照度图像增强方法
Kim et al. Towards the perceptual quality enhancement of low bit-rate compressed images
CN116579939A (zh) 一种基于卷积神经网络和小波变换的低照度图像增强方法
CN116385298A (zh) 一种用于无人机夜间采集图像的无参考增强方法
CN106375675A (zh) 一种航空相机多曝光图像融合方法
CN118799230A (zh) 一种基于多尺度渐进重建网络的高动态范围成像方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination