CN117893413A - 基于图像增强的车载终端人机交互方法 - Google Patents
基于图像增强的车载终端人机交互方法 Download PDFInfo
- Publication number
- CN117893413A CN117893413A CN202410298481.2A CN202410298481A CN117893413A CN 117893413 A CN117893413 A CN 117893413A CN 202410298481 A CN202410298481 A CN 202410298481A CN 117893413 A CN117893413 A CN 117893413A
- Authority
- CN
- China
- Prior art keywords
- image
- loss
- individual
- feature
- image enhancement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 67
- 230000003993 interaction Effects 0.000 title claims abstract description 28
- 230000008569 process Effects 0.000 claims abstract description 23
- 230000006870 function Effects 0.000 claims abstract description 22
- 238000012937 correction Methods 0.000 claims abstract description 18
- 238000013507 mapping Methods 0.000 claims abstract description 15
- 230000000739 chaotic effect Effects 0.000 claims abstract description 9
- 125000004122 cyclic group Chemical group 0.000 claims abstract description 9
- 230000001502 supplementing effect Effects 0.000 claims abstract description 7
- 238000005286 illumination Methods 0.000 claims description 15
- 238000011176 pooling Methods 0.000 claims description 15
- 239000013598 vector Substances 0.000 claims description 15
- 230000004927 fusion Effects 0.000 claims description 14
- 238000007781 pre-processing Methods 0.000 claims description 12
- 230000000295 complement effect Effects 0.000 claims description 11
- 238000013461 design Methods 0.000 claims description 11
- 238000005070 sampling Methods 0.000 claims description 11
- 230000002708 enhancing effect Effects 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 9
- 238000004140 cleaning Methods 0.000 claims description 7
- 238000012986 modification Methods 0.000 claims description 7
- 230000004048 modification Effects 0.000 claims description 7
- 230000004913 activation Effects 0.000 claims description 6
- 230000003044 adaptive effect Effects 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000010586 diagram Methods 0.000 claims description 6
- 230000000694 effects Effects 0.000 claims description 6
- 230000008447 perception Effects 0.000 claims description 6
- 230000000153 supplemental effect Effects 0.000 claims description 6
- 238000013441 quality evaluation Methods 0.000 claims description 5
- 238000005516 engineering process Methods 0.000 claims description 4
- 238000002372 labelling Methods 0.000 claims description 4
- 241000872198 Serjania polyphylla Species 0.000 claims description 3
- 238000013135 deep learning Methods 0.000 claims description 3
- 238000013136 deep learning model Methods 0.000 claims description 3
- 238000001514 detection method Methods 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims description 3
- 230000007246 mechanism Effects 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- NRNCYVBFPDDJNE-UHFFFAOYSA-N pemoline Chemical compound O1C(N)=NC(=O)C1C1=CC=CC=C1 NRNCYVBFPDDJNE-UHFFFAOYSA-N 0.000 claims description 3
- 239000013589 supplement Substances 0.000 claims description 3
- 238000012360 testing method Methods 0.000 claims description 3
- 238000012549 training Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 abstract description 2
- 230000009286 beneficial effect Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000008485 antagonism Effects 0.000 description 2
- 230000014759 maintenance of location Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 208000003464 asthenopia Diseases 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0475—Generative networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/094—Adversarial learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了基于图像增强的车载终端人机交互方法,方法包括数据采集、数据预处理、建立图像增强模型、设计图像增强损失函数、设置图像增强模型超参数和建立指令识别模型。本发明属于图像处理技术领域,具体是指基于图像增强的车载终端人机交互方法,本方案通过构建亮度校正编码器动态调整图像的亮度;构建剩余通道注意力模块捕捉通道的重要性,并自适应地校准通道的权重;构建高频补充解码器补充编码过程中丢失的高频细节;基于感知损失函数促使生成图像匹配真实图像的内容和结构;保真度损失通过使用L1范数约束像素之间的差异;基于循环映射的混沌方法初始化搜索种群,通过设计个体适应度值权重和搜索策略,引入精英学习策略。
Description
技术领域
本发明涉及图像处理技术领域,具体是指基于图像增强的车载终端人机交互方法。
背景技术
随着智能汽车的快速发展,车载终端人机交互技术受到越来越多的关注。传统的车载终端人机交互方式主要通过物理按钮、触控屏幕等方式进行操作,但这些方式存在操作不便、视觉疲劳、安全性不高等问题。因此,基于图像增强的车载终端人机交互方法应运而生。但是一般人机交互模型存在采集原始图像不佳,图像增强模型对视觉质量及细节保留能力弱,以及图像还原能力差的问题;一般人机交互模型在图像增强方面存在损失函数无法适应图像的多样性导致图像感知质量差的问题;一般模型存在超参数设置不当,超参数搜索方法搜索灵活性差,鲁棒性低的问题。
发明内容
针对上述情况,为克服现有技术的缺陷,本发明提供了基于图像增强的车载终端人机交互方法,针对一般人机交互模型存在采集原始图像不佳,图像增强模型对视觉质量及细节保留能力弱,以及图像还原能力差的问题,本方案通过构建亮度校正编码器动态调整图像的亮度,以增强图像的光照效果;构建剩余通道注意力模块捕捉通道的重要性,并自适应地校准通道的权重;构建高频补充解码器通过低通滤波器、特征融合和上采样操作,补充编码过程中丢失的高频细节,从而提高图像的细节保留和还原能力;通过多尺度统计特征鉴别器,对生成的增强图像进行质量评估和鉴别;针对一般人机交互模型在图像增强方面存在损失函数无法适应图像的多样性导致图像感知质量差的问题,本方案通过将传统对抗损失与多尺度统计特征区分分支相结合,提高了对真实样本和生成样本的区分度,有助于提高生成图像的质量和逼真度;基于感知损失函数促使生成图像更好地匹配真实图像的内容和结构;保真度损失通过使用L1范数约束像素之间的差异,有效减少生成图像和真实图像之间的细节差异,从而提高图像的保真度和细节保持性;针对一般模型存在超参数设置不当,超参数搜索方法搜索灵活性差,鲁棒性低的问题,本方案基于循环映射的混沌方法初始化搜索种群,通过设计个体适应度值权重和搜索策略,引入精英学习策略,逐步提高种群的整体适应度,更好地探索搜索空间增加找到更优解的机会。
本发明采取的技术方案如下:本发明提供的基于图像增强的车载终端人机交互方法,该方法包括以下步骤:
步骤S1:数据采集;
步骤S2:数据预处理;
步骤S3:建立图像增强模型;
步骤S4:设计图像增强损失函数;
步骤S5:设置图像增强模型超参数;
步骤S6:建立指令识别模型。
进一步地,在步骤S1中,所述数据采集是采集车主指令图像数据。
进一步地,在步骤S2中,所述数据预处理是对采集的数据进行数据清洗、图像预处理、图像标注和数据集划分;所述数据清洗是对重复、缺失和错误的图像数据去除;所述图像预处理是将图像数据准备为统一的格式和质量;所述图像标注是对图像标注用户指令标签;所述数据集划分是将图像数据划分为训练集和测试集。
进一步地,在步骤S3中,所述建立图像增强模型具体包括以下步骤:
步骤S31:构建核心属性增强生成器,核心属性增强生成器包括亮度校正编码器、剩余通道注意力模块和高频补充解码器;亮度校正编码器的设计是基于局部差异动态调整亮度,以增强光照效果;剩余通道注意力模块在增强图像的同时捕捉通道的重要性,旨在提高通道映射特征的能力;在图像重建过程中,高频补充解码器补充了编码过程中丢失的高频细节;具体包括:
步骤S311:构建亮度校正编码器,亮度校正编码器由先验照明分支和特征提取分支两个分支组成;特征提取分支通过逐步降采样提取输入内容特征,并融合来自先验照明分支的亮度信息;包括:
步骤S3111:首先将RGB彩色图像转换为灰度空间,以反映整体和局部亮度级别的分布,每个图像点的亮度级别用不同饱和度的黑色表示;过程描述如下:
;
;
式中,[xR,xG,xB]表示输出图像在RGB颜色空间中的颜色信号,表示归一化结果;xgray表示灰度图像;
步骤S3112:将亮度权重参数连续下采样,获得一组亮度权重堆栈xlum,xlum包含四组不同尺寸的亮度权重,分别为1×256×256、1×128×28、1×64×64和1×32×32;在提取内容特征之前,x和被连接并输入到特征提取分支;表示如下:
;
;
;
式中,是第一个亮度权重参数;/>和/>分别是第i+1个和第i个亮度权重参数;/>是下采样操作;
步骤S3113:将亮度权重堆栈与内容特征进行完全融合,表示如下:
;
式中,Fi是第i层的内容特征;Ei和Ei+1分别是第i层和第i+1层内容特征对应的亮度权重;是完全融合操作;/>是逐元素相乘;
步骤S312:构建残差通道注意力模块,基于残差通道注意力模块获取全局信息,在全局特征图的不同区域应用不同的注意力,并自适应地校准通道的权重;通过全局最大池化和全局平均池化计算通道间的依赖关系,并基于全连接层操作将依赖关系映射为大小为256×1×1的权重向量;然后向量在宽度和高度上扩展到256×32×32的大小;特征图F4和相应的权重进行相乘,以获得校准后的特征图;过程描述如下:
;
式中,F4是由残差通道注意力模块提取的特征图;pool(·)是全局最大池化和全局平均池化的组合操作;fc(·)是全连接操作;Expand(·)是扩展操作;是残差通道注意力模块输出;
步骤S313:构建高频补充解码器,包括:
步骤S3131:使用低通滤波器增强边界轮廓细节;对于输入图像,将其分解为一组通过低通滤波处理后的图像分量:
;
式中,lapn是第n个低通滤波器提取的图像分量;In和In+1分别是输入图像的第n个和第n+1个图像分量;upsample(·)是上采样操作;Gaussian(·)是基于固定高斯核的相邻像素加权平均运算操作;
步骤S3132:在高频补充解码器中,图像分量有5个级别;前4个层级是不同分辨率的高频残差,最后一层级是低分辨率图像;将特征进行特征融合表示如下:
;
式中,Un是第n级别的上采样特征;Upn-1是对第n-1级别的上采样特征进行上采样操作;Dn和Dn-1分别是第n级别和第n-1级别的低分辨率图像,是上采样特征、光照先验和高频残差三个特征的融合;Convn(·)是沿通道维度的降序操作;Concat(·)是沿通道维度的连接操作;F5-n是高频残差;
步骤S32:构建多尺度统计特征鉴别器,首先,来自不同尺度的特征a被输送到自适应修改模块中,以便适应其他维度;接下来,计算逐通道统计特征的向量,具体是均值和最大值;然后通过多层感知机为每个向量获得最终的标量结果;过程表示如下:
;
式中,MSCDB(·)是多尺度统计特征鉴别器的输出;am是m层级的尺度特征;AM(·)是自适应修改操作,由卷积层组成,用于调整输入特征以适应其他维度;SC(·)是统计特征的计算,包括均值和最大值的计算;MLP(·)是多层感知机,用于从统计特征的向量中获得最终的标量结果。
进一步地,在步骤S4中,所述设计图像增强损失函数包括升级对抗损失、感知损失和保真度损失,具体包括:
步骤S41:设计升级对抗损失,结合传统对抗损失结合和多尺度统计特征区分分支的对抗损失得到升级对抗损失;表示如下:
;
;
;
式中,和/>分别是鉴别器和生成器的损失值;/>和/>分别是对于真实样本和输入图像的期望;D(y)和D(G(x))分别是鉴别器对真实样本和对生成样本的输出;G(x)是生成器对输入样本的输出;/>是多尺度统计特征区分分支的鉴别器输出;/>是升级对抗损失;λ是生成损失权重;
步骤S42:设计感知损失,使用VGG-19模型来提取图像特征,引入基于特征的距离损失,表示如下:
;
式中,Lper是感知损失;J是模型总层数;是第j层提取的图像特征;
步骤S43:设计保真度损失,使用L1范数来约束像素之间的差异;表示如下:
;
式中,Lton是保真度损失;
步骤S44:设计图像增强损失函数,所用公式如下:
;
式中,LG是图像增强损失;λ1、λ3和λ3是各损失对应权重。
进一步地,在步骤S5中,所述设置图像增强模型超参数具体包括以下步骤:
步骤S51:初始化,基于图像增强模型和损失函数的超参数建立参数搜索空间;基于循环映射的混沌方法初始化搜索种群,将基于搜索个体位置建立的图像增强模型的性能作为搜索个体适应度值;初始化种群所用公式如下:
;
;
式中,ki+1和ki分别是第i+1个和第i个混沌值;α和β分别是控制步长和角速度的参数;Xi+1,j是第i+1个体j维度的位置;LOWj和UPj分别是j维度的搜索下限和搜索上限;
步骤S52:设计搜索参数,对于个体适应度值大于平均适应度值的个体,进行精细搜索;对于个体适应度值低于平均适应度值的个体,扩大搜索范围,所用公式如下:
;
式中,δ(t)是第t次迭代时的搜素权重;δmax和δmin分别是最大权重和最小权重;fi(k)、fmax、fmin和favg分别是个体适应度值、种群最大适应度值、种群最小适应度值和种群平均适应度值;
步骤S53:设计搜索策略,所用公式如下:
;
式中,是学习率;/>是防止零学习的小的正数;t是当前迭代次数;T是最大迭代次数;Xi,j(t+1)和Xi,j(t)分别是第i个搜索个体j维度第t+1次迭代和第t次迭代时的位置;Xbest,j(t)、Xrand,j(t)和Xp,j(t)分别是种群最优个体、随机个体、个体历史最优j维度第t次迭代时的位置;
步骤S54:引入精英学习策略,对当前种群个体根据适应度值的大小进行排名,从适应度值最好的10%个体位置中生成10%的新个体位置,并用适应度值最差的10%个体位置替换这10%新个体位置,同时保持中间解不变,表示如下:
;
式中,是新生成的个体位置;Xi是适应度值最好的10%个体位置;/>是适应度值最差的10%个体位置;Q是精英学习策略中控制生成的参数;d是搜索空间维度;fi是个体适应度值;
步骤S55:迭代判定,预先设有适应度阈值,当存在搜索个体适应度值高于适应度值阈值时,基于个体位置建立图像增强模型;若达到最大迭代次数,则重新初始化种群位置进行搜索;否则继续迭代搜索。
进一步地,在步骤S6中,所述建立指令识别模型具体包括以下步骤:
步骤S61:模型架构设计,基于CSPDarknet骨干网络和YOLOv5算法构建深度学习模型;模型骨干网络由多个卷积层组成,包括卷积和池化层的组合;骨干网络用于从输入图像中提取特征,然后利用特征来预测每个检测到的物体的边界框和类别概率;检测层由多个卷积层组成,用于进行目标检测和分类;
步骤S62:添加卷积块注意力模块,卷积块注意力模块是一种注意力机制,包括通道注意力和空间注意力两个模块,用于增强图像中的重要特征并抑制无关特征;在指令识别中,通道注意力模块关注与指令相关的通道,而空间注意力模块降低非指令区域的重要性;
步骤S63:引入梯度加权类激活映射,梯度加权类激活映射是一种用于可视化输入图像中不同区域对于特定输出类别的重要性的深度学习技术;通过计算特定类别相对于最终卷积层的特征图的得分梯度,生成热图来表示不同区域对于分类的重要程度;颜色强度越高,表示区域对于分类的重要性越高;
步骤S64:车载终端人机交互,利用车载终端实时采集输入车主图像数据;基于图像增强模型实现图像增强,将增强后的图像输出值指令识别模型,将模型输出的用户指令给予用户,若收到确定指令,则执行模型输出的用户指令。
采用上述方案本发明取得的有益效果如下:
(1)针对一般人机交互模型存在采集原始图像不佳,图像增强模型对视觉质量及细节保留能力弱,以及图像还原能力差的问题,本方案通过构建亮度校正编码器动态调整图像的亮度,以增强图像的光照效果;构建剩余通道注意力模块捕捉通道的重要性,并自适应地校准通道的权重;构建高频补充解码器通过低通滤波器、特征融合和上采样操作,补充编码过程中丢失的高频细节,从而提高图像的细节保留和还原能力;通过多尺度统计特征鉴别器,对生成的增强图像进行质量评估和鉴别。
(2)针对一般人机交互模型在图像增强方面存在损失函数无法适应图像的多样性导致图像感知质量差的问题,本方案通过将传统对抗损失与多尺度统计特征区分分支相结合,提高了对真实样本和生成样本的区分度,有助于提高生成图像的质量和逼真度;基于感知损失函数促使生成图像更好地匹配真实图像的内容和结构;保真度损失通过使用L1范数约束像素之间的差异,有效减少生成图像和真实图像之间的细节差异,从而提高图像的保真度和细节保持性。
(3)针对一般模型存在超参数设置不当,超参数搜索方法搜索灵活性差,鲁棒性低的问题,本方案基于循环映射的混沌方法初始化搜索种群,通过设计个体适应度值权重和搜索策略,引入精英学习策略,逐步提高种群的整体适应度,更好地探索搜索空间增加找到更优解的机会。
附图说明
图1为本发明提供的基于图像增强的车载终端人机交互方法的流程示意图;
图2为步骤S4的流程示意图;
图3为步骤S5的流程示意图。
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例;基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本发明的描述中,需要理解的是,术语“上”、“下”、“前”、“后”、“左”、“右”、“顶”、“底”、“内”、“外”等指示方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的系统或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
实施例一,参阅图1,本发明提供的基于图像增强的车载终端人机交互方法,该方法包括以下步骤:
步骤S1:数据采集;
步骤S2:数据预处理,对采集的数据进行数据清洗、图像预处理、图像标注和数据集划分;
步骤S3:建立图像增强模型,构建亮度校正编码器动态调整图像的亮度;构建剩余通道注意力模块捕捉通道的重要性;构建高频补充解码器通过低通滤波器、特征融合和上采样操作,补充编码过程中丢失的高频细节;通过多尺度统计特征鉴别器,对生成的增强图像进行质量评估和鉴别;
步骤S4:设计图像增强损失函数,将传统对抗损失与多尺度统计特征区分分支相结合;基于感知损失函数促使生成图像匹配真实图像的内容和结构;保真度损失通过使用L1范数约束像素之间的差异;
步骤S5:设置图像增强模型超参数,基于循环映射的混沌方法初始化搜索种群,通过设计个体适应度值权重和搜索策略,引入精英学习策略;
步骤S6:建立指令识别模型。
实施例二,参阅图1,该实施例基于上述实施例,在步骤S1中,数据采集是采集车主指令图像数据。
实施例三,参阅图1,该实施例基于上述实施例,在步骤S2中,所述数据清洗是对重复、缺失和错误的图像数据去除;所述图像预处理是将图像数据准备为统一的格式和质量;所述图像标注是对图像标注用户指令标签;所述数据集划分是将图像数据划分为训练集和测试集。
实施例四,参阅图1,该实施例基于上述实施例,在步骤S3中,建立图像增强模型具体包括以下步骤:
步骤S31:构建核心属性增强生成器,核心属性增强生成器包括亮度校正编码器、剩余通道注意力模块和高频补充解码器;亮度校正编码器的设计是基于局部差异动态调整亮度,以增强光照效果;剩余通道注意力模块在增强图像的同时捕捉通道的重要性,旨在提高通道映射特征的能力;在图像重建过程中,高频补充解码器补充了编码过程中丢失的高频细节;具体包括:
步骤S311:构建亮度校正编码器,亮度校正编码器由先验照明分支和特征提取分支两个分支组成;特征提取分支通过逐步降采样提取输入内容特征,并融合来自先验照明分支的亮度信息;包括:
步骤S3111:首先将RGB彩色图像转换为灰度空间,以反映整体和局部亮度级别的分布,每个图像点的亮度级别用不同饱和度的黑色表示;过程描述如下:
;
;
式中,[xR,xG,xB]表示输出图像在RGB颜色空间中的颜色信号,表示归一化结果;xgray表示灰度图像;
步骤S3112:将亮度权重参数连续下采样,获得一组亮度权重堆栈xlum,xlum包含四组不同尺寸的亮度权重,分别为1×256×256、1×128×28、1×64×64和1×32×32;在提取内容特征之前,x和被连接并输入到特征提取分支;表示如下:
;
;
;
式中,是第一个亮度权重参数;/>和/>分别是第i+1个和第i个亮度权重参数;/>是下采样操作;
步骤S3113:将亮度权重堆栈与内容特征进行完全融合,表示如下:
;
式中,Fi是第i层的内容特征;Ei和Ei+1分别是第i层和第i+1层内容特征对应的亮度权重;是完全融合操作;/>是逐元素相乘;
步骤S312:构建残差通道注意力模块,基于残差通道注意力模块获取全局信息,在全局特征图的不同区域应用不同的注意力,并自适应地校准通道的权重;通过全局最大池化和全局平均池化计算通道间的依赖关系,并基于全连接层操作将依赖关系映射为大小为256×1×1的权重向量;然后向量在宽度和高度上扩展到256×32×32的大小;特征图F4和相应的权重进行相乘,以获得校准后的特征图;过程描述如下:
;
式中,F4是由残差通道注意力模块提取的特征图;pool(·)是全局最大池化和全局平均池化的组合操作;fc(·)是全连接操作;Expand(·)是扩展操作;是残差通道注意力模块输出;
步骤S313:构建高频补充解码器,包括:
步骤S3131:使用低通滤波器增强边界轮廓细节;对于输入图像,将其分解为一组通过低通滤波处理后的图像分量:
;
式中,lapn是第n个低通滤波器提取的图像分量;In和In+1分别是输入图像的第n个和第n+1个图像分量;upsample(·)是上采样操作;Gaussian(·)是基于固定高斯核的相邻像素加权平均运算操作;
步骤S3132:在高频补充解码器中,图像分量有5个级别;前4个层级是不同分辨率的高频残差,最后一层级是低分辨率图像;将特征进行特征融合表示如下:
;
式中,Un是第n级别的上采样特征;Upn-1是对第n-1级别的上采样特征进行上采样操作;Dn和Dn-1分别是第n级别和第n-1级别的低分辨率图像,是上采样特征、光照先验和高频残差三个特征的融合;Convn(·)是沿通道维度的降序操作;Concat(·)是沿通道维度的连接操作;F5-n是高频残差;
步骤S32:构建多尺度统计特征鉴别器,首先,来自不同尺度的特征a被输送到自适应修改模块中,以便适应其他维度;接下来,计算逐通道统计特征的向量,具体是均值和最大值;然后通过多层感知机为每个向量获得最终的标量结果;过程表示如下:
;
式中,MSCDB(·)是多尺度统计特征鉴别器的输出;am是m层级的尺度特征;AM(·)是自适应修改操作,由卷积层组成,用于调整输入特征以适应其他维度;SC(·)是统计特征的计算,包括均值和最大值的计算;MLP(·)是多层感知机,用于从统计特征的向量中获得最终的标量结果。
通过执行上述操作,针对一般人机交互模型存在采集原始图像不佳,图像增强模型对视觉质量及细节保留能力弱,以及图像还原能力差的问题,本方案通过构建亮度校正编码器动态调整图像的亮度,以增强图像的光照效果;构建剩余通道注意力模块捕捉通道的重要性,并自适应地校准通道的权重;构建高频补充解码器通过低通滤波器、特征融合和上采样操作,补充编码过程中丢失的高频细节,从而提高图像的细节保留和还原能力;通过多尺度统计特征鉴别器,对生成的增强图像进行质量评估和鉴别。
实施例五,参阅图1和图2,该实施例基于上述实施例,在步骤S4中,设计图像增强损失函数包括升级对抗损失、感知损失和保真度损失,具体包括:
步骤S41:设计升级对抗损失,结合传统对抗损失结合和多尺度统计特征区分分支的对抗损失得到升级对抗损失;表示如下:
;
;
;
式中,和/>分别是鉴别器和生成器的损失值;/>和/>分别是对于真实样本和输入图像的期望;D(y)和D(G(x))分别是鉴别器对真实样本和对生成样本的输出;G(x)是生成器对输入样本的输出;/>是多尺度统计特征区分分支的鉴别器输出;/>是升级对抗损失;λ是生成损失权重;
步骤S42:设计感知损失,使用VGG-19模型来提取图像特征,引入基于特征的距离损失,表示如下:
;
式中,Lper是感知损失;J是模型总层数;是第j层提取的图像特征;
步骤S43:设计保真度损失,使用L1范数来约束像素之间的差异;表示如下:
;
式中,Lton是保真度损失;
步骤S44:设计图像增强损失函数,所用公式如下:
;
式中,LG是图像增强损失;λ1、λ3和λ3是各损失对应权重。
通过执行上述操作,针对一般人机交互模型在图像增强方面存在损失函数无法适应图像的多样性导致图像感知质量差的问题,本方案通过将传统对抗损失与多尺度统计特征区分分支相结合,提高了对真实样本和生成样本的区分度,有助于提高生成图像的质量和逼真度;基于感知损失函数促使生成图像更好地匹配真实图像的内容和结构;保真度损失通过使用L1范数约束像素之间的差异,有效减少生成图像和真实图像之间的细节差异,从而提高图像的保真度和细节保持性。
实施例六,参阅图1和图3,该实施例基于上述实施例,在步骤S5中,设置图像增强模型超参数具体包括以下步骤:
步骤S51:初始化,基于图像增强模型和损失函数的超参数建立参数搜索空间;基于循环映射的混沌方法初始化搜索种群,将基于搜索个体位置建立的图像增强模型的性能作为搜索个体适应度值;初始化种群所用公式如下:
;
;
式中,ki+1和ki分别是第i+1个和第i个混沌值;α和β分别是控制步长和角速度的参数;Xi+1,j是第i+1个体j维度的位置;LOWj和UPj分别是j维度的搜索下限和搜索上限;
步骤S52:设计搜索参数,对于个体适应度值大于平均适应度值的个体,进行精细搜索;对于个体适应度值低于平均适应度值的个体,扩大搜索范围,所用公式如下:
;
式中,δ(t)是第t次迭代时的搜素权重;δmax和δmin分别是最大权重和最小权重;fi(k)、fmax、fmin和favg分别是个体适应度值、种群最大适应度值、种群最小适应度值和种群平均适应度值;
步骤S53:设计搜索策略,所用公式如下:
;
式中,是学习率;/>是防止零学习的小的正数;t是当前迭代次数;T是最大迭代次数;Xi,j(t+1)和Xi,j(t)分别是第i个搜索个体j维度第t+1次迭代和第t次迭代时的位置;Xbest,j(t)、Xrand,j(t)和Xp,j(t)分别是种群最优个体、随机个体、个体历史最优j维度第t次迭代时的位置;
步骤S54:引入精英学习策略,对当前种群个体根据适应度值的大小进行排名,从适应度值最好的10%个体位置中生成10%的新个体位置,并用适应度值最差的10%个体位置替换这10%新个体位置,同时保持中间解不变,表示如下:
;
式中,是新生成的个体位置;Xi是适应度值最好的10%个体位置;/>是适应度值最差的10%个体位置;Q是精英学习策略中控制生成的参数;d是搜索空间维度;fi是个体适应度值;
步骤S55:迭代判定,预先设有适应度阈值,当存在搜索个体适应度值高于适应度值阈值时,基于个体位置建立图像增强模型;若达到最大迭代次数,则重新初始化种群位置进行搜索;否则继续迭代搜索。
通过执行上述操作,针对一般模型存在超参数设置不当,超参数搜索方法搜索灵活性差,鲁棒性低的问题,本方案基于循环映射的混沌方法初始化搜索种群,通过设计个体适应度值权重和搜索策略,引入精英学习策略,逐步提高种群的整体适应度,更好地探索搜索空间增加找到更优解的机会。
实施例七,参阅图1,该实施例基于上述实施例,在步骤S6中,建立指令识别模型具体包括以下步骤:
步骤S61:模型架构设计,基于CSPDarknet骨干网络和YOLOv5算法构建深度学习模型;模型骨干网络由多个卷积层组成,包括卷积和池化层的组合;骨干网络用于从输入图像中提取特征,然后利用特征来预测每个检测到的物体的边界框和类别概率;检测层由多个卷积层组成,用于进行目标检测和分类;
步骤S62:添加卷积块注意力模块,卷积块注意力模块是一种注意力机制,包括通道注意力和空间注意力两个模块,用于增强图像中的重要特征并抑制无关特征;在指令识别中,通道注意力模块关注与指令相关的通道,而空间注意力模块降低非指令区域的重要性;
步骤S63:引入梯度加权类激活映射,梯度加权类激活映射是一种用于可视化输入图像中不同区域对于特定输出类别的重要性的深度学习技术;通过计算特定类别相对于最终卷积层的特征图的得分梯度,生成热图来表示不同区域对于分类的重要程度;颜色强度越高,表示区域对于分类的重要性越高;
步骤S64:车载终端人机交互,利用车载终端实时采集输入车主图像数据;基于图像增强模型实现图像增强,将增强后的图像输出值指令识别模型,将模型输出的用户指令给予用户,若收到确定指令,则执行模型输出的用户指令。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型。
以上对本发明及其实施方式进行了描述,这种描述没有限制性,附图中所示的也只是本发明的实施方式之一,实际的结构并不局限于此。总而言之如果本领域的普通技术人员受其启示,在不脱离本发明创造宗旨的情况下,不经创造性的设计出与该技术方案相似的结构方式及实施例,均应属于本发明的保护范围。
Claims (7)
1.基于图像增强的车载终端人机交互方法,其特征在于:该方法包括以下步骤:
步骤S1:数据采集;
步骤S2:数据预处理,对采集的数据进行数据清洗、图像预处理、图像标注和数据集划分;
步骤S3:建立图像增强模型,构建亮度校正编码器动态调整图像的亮度;构建剩余通道注意力模块捕捉通道的重要性;构建高频补充解码器通过低通滤波器、特征融合和上采样操作,补充编码过程中丢失的高频细节;通过多尺度统计特征鉴别器,对生成的增强图像进行质量评估和鉴别;
步骤S4:设计图像增强损失函数,将传统对抗损失与多尺度统计特征区分分支相结合;基于感知损失函数促使生成图像匹配真实图像的内容和结构;保真度损失通过使用L1范数约束像素之间的差异;
步骤S5:设置图像增强模型超参数,基于循环映射的混沌方法初始化搜索种群,通过设计个体适应度值权重和搜索策略,引入精英学习策略;
步骤S6:建立指令识别模型。
2.根据权利要求1所述的基于图像增强的车载终端人机交互方法,其特征在于:在步骤S3中,所述建立图像增强模型具体包括以下步骤:
步骤S31:构建核心属性增强生成器,核心属性增强生成器包括亮度校正编码器、剩余通道注意力模块和高频补充解码器;亮度校正编码器的设计是基于局部差异动态调整亮度,以增强光照效果;剩余通道注意力模块在增强图像的同时捕捉通道的重要性,旨在提高通道映射特征的能力;在图像重建过程中,高频补充解码器补充了编码过程中丢失的高频细节;具体包括:
步骤S311:构建亮度校正编码器,亮度校正编码器由先验照明分支和特征提取分支两个分支组成;特征提取分支通过逐步降采样提取输入内容特征,并融合来自先验照明分支的亮度信息;包括:
步骤S3111:首先将RGB彩色图像转换为灰度空间,以反映整体和局部亮度级别的分布,每个图像点的亮度级别用不同饱和度的黑色表示;过程描述如下:
;
;
式中,[xR,xG,xB]表示输出图像在RGB颜色空间中的颜色信号,表示归一化结果;xgray表示灰度图像;
步骤S3112:将亮度权重参数连续下采样,获得一组亮度权重堆栈xlum,xlum包含四组不同尺寸的亮度权重,分别为1×256×256、1×128×28、1×64×64和1×32×32;在提取内容特征之前,x和被连接并输入到特征提取分支;表示如下:
;
;
;
式中,是第一个亮度权重参数;/>和/>分别是第i+1个和第i个亮度权重参数;是下采样操作;
步骤S3113:将亮度权重堆栈与内容特征进行完全融合,表示如下:
;
式中,Fi是第i层的内容特征;Ei和Ei+1分别是第i层和第i+1层内容特征对应的亮度权重;是完全融合操作;/>是逐元素相乘;
步骤S312:构建残差通道注意力模块,基于残差通道注意力模块获取全局信息,在全局特征图的不同区域应用不同的注意力,并自适应地校准通道的权重;通过全局最大池化和全局平均池化计算通道间的依赖关系,并基于全连接层操作将依赖关系映射为大小为256×1×1的权重向量;然后向量在宽度和高度上扩展到256×32×32的大小;特征图F4和相应的权重进行相乘,以获得校准后的特征图;过程描述如下:
;
式中,F4是由残差通道注意力模块提取的特征图;pool(·)是全局最大池化和全局平均池化的组合操作;fc(·)是全连接操作;Expand(·)是扩展操作;是残差通道注意力模块输出;
步骤S313:构建高频补充解码器,包括:
步骤S3131:使用低通滤波器增强边界轮廓细节;对于输入图像,将其分解为一组通过低通滤波处理后的图像分量:
;
式中,lapn是第n个低通滤波器提取的图像分量;In和In+1分别是输入图像的第n个和第n+1个图像分量;upsample(·)是上采样操作;Gaussian(·)是基于固定高斯核的相邻像素加权平均运算操作;
步骤S3132:在高频补充解码器中,图像分量有5个级别;前4个层级是不同分辨率的高频残差,最后一层级是低分辨率图像;将特征进行特征融合表示如下:
;
式中,Un是第n级别的上采样特征;Upn-1是对第n-1级别的上采样特征进行上采样操作;Dn和Dn-1分别是第n级别和第n-1级别的低分辨率图像,是上采样特征、光照先验和高频残差三个特征的融合;Convn(·)是沿通道维度的降序操作;Concat(·)是沿通道维度的连接操作;F5-n是高频残差;
步骤S32:构建多尺度统计特征鉴别器,首先,来自不同尺度的特征a被输送到自适应修改模块中,以便适应其他维度;接下来,计算逐通道统计特征的向量,具体是均值和最大值;然后通过多层感知机为每个向量获得最终的标量结果;过程表示如下:
;
式中,MSCDB(·)是多尺度统计特征鉴别器的输出;am是m层级的尺度特征;AM(·)是自适应修改操作,由卷积层组成,用于调整输入特征以适应其他维度;SC(·)是统计特征的计算,包括均值和最大值的计算;MLP(·)是多层感知机,用于从统计特征的向量中获得最终的标量结果。
3.根据权利要求1所述的基于图像增强的车载终端人机交互方法,其特征在于:在步骤S5中,所述设置图像增强模型超参数具体包括以下步骤:
步骤S51:初始化,基于图像增强模型和损失函数的超参数建立参数搜索空间;基于循环映射的混沌方法初始化搜索种群,将基于搜索个体位置建立的图像增强模型的性能作为搜索个体适应度值;初始化种群所用公式如下:
;
;
式中,ki+1和ki分别是第i+1个和第i个混沌值;α和β分别是控制步长和角速度的参数;Xi+1,j是第i+1个体j维度的位置;LOWj和UPj分别是j维度的搜索下限和搜索上限;
步骤S52:设计搜索参数,对于个体适应度值大于平均适应度值的个体,进行精细搜索;对于个体适应度值低于平均适应度值的个体,扩大搜索范围,所用公式如下:
;
式中,δ(t)是第t次迭代时的搜素权重;δmax和δmin分别是最大权重和最小权重;fi(k)、fmax、fmin和favg分别是个体适应度值、种群最大适应度值、种群最小适应度值和种群平均适应度值;
步骤S53:设计搜索策略,所用公式如下:
;
式中,是学习率;/>是防止零学习的小的正数;t是当前迭代次数;T是最大迭代次数;Xi,j(t+1)和Xi,j(t)分别是第i个搜索个体j维度第t+1次迭代和第t次迭代时的位置;Xbest,j(t)、Xrand,j(t)和Xp,j(t)分别是种群最优个体、随机个体、个体历史最优j维度第t次迭代时的位置;
步骤S54:引入精英学习策略,对当前种群个体根据适应度值的大小进行排名,从适应度值最好的10%个体位置中生成10%的新个体位置,并用适应度值最差的10%个体位置替换这10%新个体位置,同时保持中间解不变,表示如下:
;
式中,是新生成的个体位置;Xi是适应度值最好的10%个体位置;/>是适应度值最差的10%个体位置;Q是精英学习策略中控制生成的参数;d是搜索空间维度;fi是个体适应度值;
步骤S55:迭代判定,预先设有适应度阈值,当存在搜索个体适应度值高于适应度值阈值时,基于个体位置建立图像增强模型;若达到最大迭代次数,则重新初始化种群位置进行搜索;否则继续迭代搜索。
4.根据权利要求1所述的基于图像增强的车载终端人机交互方法,其特征在于:在步骤S4中,所述设计图像增强损失函数包括升级对抗损失、感知损失和保真度损失,具体包括:
步骤S41:设计升级对抗损失,结合传统对抗损失结合和多尺度统计特征区分分支的对抗损失得到升级对抗损失;表示如下:
;
;
;
式中,和/>分别是鉴别器和生成器的损失值;/>和/>分别是对于真实样本和输入图像的期望;D(y)和D(G(x))分别是鉴别器对真实样本和对生成样本的输出;G(x)是生成器对输入样本的输出;/>是多尺度统计特征区分分支的鉴别器输出;/>是升级对抗损失;λ是生成损失权重;
步骤S42:设计感知损失,使用VGG-19模型来提取图像特征,引入基于特征的距离损失,表示如下:
;
式中,Lper是感知损失;J是模型总层数;是第j层提取的图像特征;
步骤S43:设计保真度损失,使用L1范数来约束像素之间的差异;表示如下:
;
式中,Lton是保真度损失;
步骤S44:设计图像增强损失函数,所用公式如下:
;
式中,LG是图像增强损失;λ1、λ3和λ3是各损失对应权重。
5.根据权利要求1所述的基于图像增强的车载终端人机交互方法,其特征在于:在步骤S6中,所述建立指令识别模型具体包括以下步骤:
步骤S61:模型架构设计,基于CSPDarknet骨干网络和YOLOv5算法构建深度学习模型;模型骨干网络由多个卷积层组成,包括卷积和池化层的组合;骨干网络用于从输入图像中提取特征,然后利用特征来预测每个检测到的物体的边界框和类别概率;检测层由多个卷积层组成,用于进行目标检测和分类;
步骤S62:添加卷积块注意力模块,卷积块注意力模块是一种注意力机制,包括通道注意力和空间注意力两个模块,用于增强图像中的重要特征并抑制无关特征;在指令识别中,通道注意力模块关注与指令相关的通道,而空间注意力模块降低非指令区域的重要性;
步骤S63:引入梯度加权类激活映射,梯度加权类激活映射是一种用于可视化输入图像中不同区域对于特定输出类别的重要性的深度学习技术;通过计算特定类别相对于最终卷积层的特征图的得分梯度,生成热图来表示不同区域对于分类的重要程度;颜色强度越高,表示区域对于分类的重要性越高;
步骤S64:车载终端人机交互,利用车载终端实时采集输入车主图像数据;基于图像增强模型实现图像增强,将增强后的图像输出值指令识别模型,将模型输出的用户指令给予用户,若收到确定指令,则执行模型输出的用户指令。
6.根据权利要求1所述的基于图像增强的车载终端人机交互方法,其特征在于:在步骤S2中,所述数据预处理是对采集的数据进行数据清洗、图像预处理,图像标注和数据集划分;所述数据清洗是对重复、缺失和错误的图像数据去除;所述图像预处理是将图像数据准备为统一的格式和质量;所述图像标注是对图像标注用户指令标签;所述数据集划分是将图像数据划分为训练集和测试集。
7.根据权利要求1所述的基于图像增强的车载终端人机交互方法,其特征在于:在步骤S1中,所述数据采集是采集车主指令图像数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410298481.2A CN117893413B (zh) | 2024-03-15 | 2024-03-15 | 基于图像增强的车载终端人机交互方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410298481.2A CN117893413B (zh) | 2024-03-15 | 2024-03-15 | 基于图像增强的车载终端人机交互方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117893413A true CN117893413A (zh) | 2024-04-16 |
CN117893413B CN117893413B (zh) | 2024-06-11 |
Family
ID=90649384
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410298481.2A Active CN117893413B (zh) | 2024-03-15 | 2024-03-15 | 基于图像增强的车载终端人机交互方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117893413B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118887196A (zh) * | 2024-08-07 | 2024-11-01 | 广州铂铖智能科技股份有限公司 | 一种智能化焊装夹具可视化检测方法 |
Citations (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108305236A (zh) * | 2018-01-16 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 图像增强处理方法及装置 |
CN110163235A (zh) * | 2018-10-11 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 图像增强模型的训练、图像增强方法、装置和存储介质 |
CN110992262A (zh) * | 2019-11-26 | 2020-04-10 | 南阳理工学院 | 一种基于生成对抗网络的遥感图像超分辨重建方法 |
CN111915526A (zh) * | 2020-08-05 | 2020-11-10 | 湖北工业大学 | 一种基于亮度注意力机制低照度图像增强算法的摄影方法 |
CN113160198A (zh) * | 2021-04-29 | 2021-07-23 | 杭州电子科技大学 | 一种基于通道注意力机制的图像质量增强方法 |
CN114549343A (zh) * | 2022-01-14 | 2022-05-27 | 西安理工大学 | 基于双支残差特征融合去雾方法 |
CN114757832A (zh) * | 2022-06-14 | 2022-07-15 | 之江实验室 | 基于交叉卷积注意力对抗学习的人脸超分辨方法和装置 |
CN114897728A (zh) * | 2022-05-10 | 2022-08-12 | 南方海洋科学与工程广东省实验室(湛江) | 图像增强方法、装置、终端设备以及存储介质 |
WO2022174908A1 (en) * | 2021-02-19 | 2022-08-25 | Huawei Technologies Co., Ltd. | Method and apparatus for image enhancement |
WO2022174605A1 (zh) * | 2021-02-21 | 2022-08-25 | 深圳市优必选科技股份有限公司 | 一种手势识别方法、手势识别装置及智能设备 |
CN114998145A (zh) * | 2022-06-07 | 2022-09-02 | 湖南大学 | 一种基于多尺度和上下文学习网络的低照度图像增强方法 |
CN115063318A (zh) * | 2022-06-29 | 2022-09-16 | 深圳市安软慧视科技有限公司 | 自适应频率分解的低光照图像增强方法与相关设备 |
CN115223004A (zh) * | 2022-06-17 | 2022-10-21 | 长安大学 | 基于改进的多尺度融合生成对抗网络图像增强方法 |
CN115393225A (zh) * | 2022-09-07 | 2022-11-25 | 南京邮电大学 | 一种基于多层次特征提取融合的低光照图像增强方法 |
CN115512251A (zh) * | 2022-11-04 | 2022-12-23 | 深圳市瓴鹰智能科技有限公司 | 基于双分支渐进式特征增强的无人机低照度目标跟踪方法 |
CN115760586A (zh) * | 2022-06-16 | 2023-03-07 | 广州大学 | 一种基于多尺度注意力生成对抗网络的医学图像增强方法 |
CN116152123A (zh) * | 2023-04-21 | 2023-05-23 | 荣耀终端有限公司 | 图像处理方法、电子设备及可读存储介质 |
CN116152120A (zh) * | 2023-04-20 | 2023-05-23 | 南京大学 | 一种融合高低频特征信息的低光图像增强方法及装置 |
CN116343330A (zh) * | 2023-03-07 | 2023-06-27 | 云南电网有限责任公司玉溪供电局 | 一种红外-可见光图像融合的异常行为识别方法 |
CN116452431A (zh) * | 2023-03-07 | 2023-07-18 | 西安工程大学 | 基于多分支渐进式深度网络的弱光图像增强方法 |
CN116469164A (zh) * | 2023-03-30 | 2023-07-21 | 浙江易时科技股份有限公司 | 基于深度学习的人体手势识别人机交互方法及系统 |
CN116664694A (zh) * | 2023-06-02 | 2023-08-29 | 展讯半导体(南京)有限公司 | 图像亮度获取模型的训练方法、图像获取方法及移动终端 |
CN116681636A (zh) * | 2023-07-26 | 2023-09-01 | 南京大学 | 基于卷积神经网络的轻量化红外与可见光图像融合方法 |
WO2023174098A1 (zh) * | 2022-03-14 | 2023-09-21 | 百果园技术(新加坡)有限公司 | 一种实时手势检测方法及装置 |
CN116797488A (zh) * | 2023-07-07 | 2023-09-22 | 大连民族大学 | 一种基于特征融合与注意力嵌入的低照度图像增强方法 |
KR20230146974A (ko) * | 2022-04-12 | 2023-10-20 | 에스케이텔레콤 주식회사 | 영상의 밝기 개선 방법 및 장치 |
CN117011194A (zh) * | 2023-10-07 | 2023-11-07 | 暨南大学 | 一种基于多尺度双通道注意力网络的低光图像增强方法 |
US20230360182A1 (en) * | 2020-09-30 | 2023-11-09 | Google Llc | Enhanced Photo Relighting Based on Machine Learning Models |
GB2618876A (en) * | 2022-05-18 | 2023-11-22 | Chengdu Aeronautic Polytechnic | Lightweight and efficient object segmentation and counting method based on generative adversarial network (GAN) |
CN117392032A (zh) * | 2023-09-28 | 2024-01-12 | 大连海事大学 | 一种高效引导信息流的水下图像增强方法 |
CN117392036A (zh) * | 2023-10-26 | 2024-01-12 | 四川大学 | 基于照明幅度的低光图像增强方法 |
CN117523612A (zh) * | 2023-11-20 | 2024-02-06 | 长春理工大学 | 一种基于Yolov5网络的密集行人检测方法 |
CN117575915A (zh) * | 2024-01-16 | 2024-02-20 | 闽南师范大学 | 一种图像超分辨率重建方法、终端设备及存储介质 |
CN117611467A (zh) * | 2023-12-04 | 2024-02-27 | 山东师范大学 | 一种能同时平衡不同区域细节和亮度的低光图像增强方法 |
CN117611569A (zh) * | 2023-12-08 | 2024-02-27 | 平安科技(上海)有限公司 | 基于人工智能的车辆筋线检测方法、装置、设备及介质 |
-
2024
- 2024-03-15 CN CN202410298481.2A patent/CN117893413B/zh active Active
Patent Citations (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108305236A (zh) * | 2018-01-16 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 图像增强处理方法及装置 |
CN110163235A (zh) * | 2018-10-11 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 图像增强模型的训练、图像增强方法、装置和存储介质 |
CN110992262A (zh) * | 2019-11-26 | 2020-04-10 | 南阳理工学院 | 一种基于生成对抗网络的遥感图像超分辨重建方法 |
CN111915526A (zh) * | 2020-08-05 | 2020-11-10 | 湖北工业大学 | 一种基于亮度注意力机制低照度图像增强算法的摄影方法 |
US20230360182A1 (en) * | 2020-09-30 | 2023-11-09 | Google Llc | Enhanced Photo Relighting Based on Machine Learning Models |
WO2022174908A1 (en) * | 2021-02-19 | 2022-08-25 | Huawei Technologies Co., Ltd. | Method and apparatus for image enhancement |
WO2022174605A1 (zh) * | 2021-02-21 | 2022-08-25 | 深圳市优必选科技股份有限公司 | 一种手势识别方法、手势识别装置及智能设备 |
CN113160198A (zh) * | 2021-04-29 | 2021-07-23 | 杭州电子科技大学 | 一种基于通道注意力机制的图像质量增强方法 |
CN114549343A (zh) * | 2022-01-14 | 2022-05-27 | 西安理工大学 | 基于双支残差特征融合去雾方法 |
WO2023174098A1 (zh) * | 2022-03-14 | 2023-09-21 | 百果园技术(新加坡)有限公司 | 一种实时手势检测方法及装置 |
KR20230146974A (ko) * | 2022-04-12 | 2023-10-20 | 에스케이텔레콤 주식회사 | 영상의 밝기 개선 방법 및 장치 |
CN114897728A (zh) * | 2022-05-10 | 2022-08-12 | 南方海洋科学与工程广东省实验室(湛江) | 图像增强方法、装置、终端设备以及存储介质 |
GB2618876A (en) * | 2022-05-18 | 2023-11-22 | Chengdu Aeronautic Polytechnic | Lightweight and efficient object segmentation and counting method based on generative adversarial network (GAN) |
CN114998145A (zh) * | 2022-06-07 | 2022-09-02 | 湖南大学 | 一种基于多尺度和上下文学习网络的低照度图像增强方法 |
CN114757832A (zh) * | 2022-06-14 | 2022-07-15 | 之江实验室 | 基于交叉卷积注意力对抗学习的人脸超分辨方法和装置 |
CN115760586A (zh) * | 2022-06-16 | 2023-03-07 | 广州大学 | 一种基于多尺度注意力生成对抗网络的医学图像增强方法 |
CN115223004A (zh) * | 2022-06-17 | 2022-10-21 | 长安大学 | 基于改进的多尺度融合生成对抗网络图像增强方法 |
CN115063318A (zh) * | 2022-06-29 | 2022-09-16 | 深圳市安软慧视科技有限公司 | 自适应频率分解的低光照图像增强方法与相关设备 |
CN115393225A (zh) * | 2022-09-07 | 2022-11-25 | 南京邮电大学 | 一种基于多层次特征提取融合的低光照图像增强方法 |
CN115512251A (zh) * | 2022-11-04 | 2022-12-23 | 深圳市瓴鹰智能科技有限公司 | 基于双分支渐进式特征增强的无人机低照度目标跟踪方法 |
CN116343330A (zh) * | 2023-03-07 | 2023-06-27 | 云南电网有限责任公司玉溪供电局 | 一种红外-可见光图像融合的异常行为识别方法 |
CN116452431A (zh) * | 2023-03-07 | 2023-07-18 | 西安工程大学 | 基于多分支渐进式深度网络的弱光图像增强方法 |
CN116469164A (zh) * | 2023-03-30 | 2023-07-21 | 浙江易时科技股份有限公司 | 基于深度学习的人体手势识别人机交互方法及系统 |
CN116152120A (zh) * | 2023-04-20 | 2023-05-23 | 南京大学 | 一种融合高低频特征信息的低光图像增强方法及装置 |
CN116152123A (zh) * | 2023-04-21 | 2023-05-23 | 荣耀终端有限公司 | 图像处理方法、电子设备及可读存储介质 |
CN116664694A (zh) * | 2023-06-02 | 2023-08-29 | 展讯半导体(南京)有限公司 | 图像亮度获取模型的训练方法、图像获取方法及移动终端 |
CN116797488A (zh) * | 2023-07-07 | 2023-09-22 | 大连民族大学 | 一种基于特征融合与注意力嵌入的低照度图像增强方法 |
CN116681636A (zh) * | 2023-07-26 | 2023-09-01 | 南京大学 | 基于卷积神经网络的轻量化红外与可见光图像融合方法 |
CN117392032A (zh) * | 2023-09-28 | 2024-01-12 | 大连海事大学 | 一种高效引导信息流的水下图像增强方法 |
CN117011194A (zh) * | 2023-10-07 | 2023-11-07 | 暨南大学 | 一种基于多尺度双通道注意力网络的低光图像增强方法 |
CN117392036A (zh) * | 2023-10-26 | 2024-01-12 | 四川大学 | 基于照明幅度的低光图像增强方法 |
CN117523612A (zh) * | 2023-11-20 | 2024-02-06 | 长春理工大学 | 一种基于Yolov5网络的密集行人检测方法 |
CN117611467A (zh) * | 2023-12-04 | 2024-02-27 | 山东师范大学 | 一种能同时平衡不同区域细节和亮度的低光图像增强方法 |
CN117611569A (zh) * | 2023-12-08 | 2024-02-27 | 平安科技(上海)有限公司 | 基于人工智能的车辆筋线检测方法、装置、设备及介质 |
CN117575915A (zh) * | 2024-01-16 | 2024-02-20 | 闽南师范大学 | 一种图像超分辨率重建方法、终端设备及存储介质 |
Non-Patent Citations (3)
Title |
---|
匡展志: "用于车载空调控制的手势识别研究", 中国知网硕士论文工程科技II辑信息科技, 1 June 2023 (2023-06-01) * |
沈剑豪: "基于机器视觉的复杂光照环境下驾驶员情绪识别算法研究", 中国知网博士论文工程科技Ⅱ辑信息科技, 15 November 2020 (2020-11-15) * |
米恒 等;: "基于改进生成式对抗网络的图像超分辨率重建", 计算机应用与软件, no. 09, 10 September 2020 (2020-09-10) * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118887196A (zh) * | 2024-08-07 | 2024-11-01 | 广州铂铖智能科技股份有限公司 | 一种智能化焊装夹具可视化检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN117893413B (zh) | 2024-06-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109584248B (zh) | 基于特征融合和稠密连接网络的红外面目标实例分割方法 | |
CN111950453B (zh) | 一种基于选择性注意力机制的任意形状文本识别方法 | |
Xia et al. | A deep Siamese postclassification fusion network for semantic change detection | |
CN112288008B (zh) | 一种基于深度学习的马赛克多光谱图像伪装目标检测方法 | |
CN109684922B (zh) | 一种基于卷积神经网络的多模型对成品菜的识别方法 | |
CN109902715B (zh) | 一种基于上下文聚合网络的红外弱小目标检测方法 | |
CN115496928B (zh) | 基于多重特征匹配的多模态图像特征匹配方法 | |
CN114170526B (zh) | 基于轻量化网络的遥感影像多尺度目标检测识别方法 | |
CN111160407A (zh) | 一种深度学习目标检测方法及系统 | |
CN114255403A (zh) | 基于深度学习的光学遥感图像数据处理方法及系统 | |
CN112562255A (zh) | 微光环境下电缆沟道烟雾火情的智能图像检测方法 | |
CN115588190A (zh) | 一种成熟果实识别和采摘点定位方法及装置 | |
CN115239672A (zh) | 缺陷检测方法及装置、设备、存储介质 | |
CN111222534A (zh) | 一种基于双向特征融合和更平衡l1损失的单发多框检测器优化方法 | |
CN117292117A (zh) | 一种基于注意力机制的小目标检测方法 | |
CN116189160A (zh) | 一种基于局部对比度机制的红外弱小目标检测方法 | |
CN117994573A (zh) | 一种基于超像素和可形变卷积的红外弱小目标检测方法 | |
CN112926667A (zh) | 深度融合边缘与高层特征的显著性目标检测方法及装置 | |
CN113657196B (zh) | Sar图像目标检测方法、装置、电子设备和存储介质 | |
CN115270841A (zh) | 条码检测方法、装置、存储介质及计算机设备 | |
CN117611883B (zh) | 一种基于本质因果推理的细粒度分类方法及系统 | |
CN117893413B (zh) | 基于图像增强的车载终端人机交互方法 | |
CN118351594A (zh) | 一种基于机器学习的运动姿势识别方法 | |
CN118429312A (zh) | 一种对芯片和引脚的识别定位方法、系统、设备及介质 | |
CN116012299A (zh) | 一种基于目标识别的复合绝缘子憎水性等级检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |