CN119168885A - 仿响尾蛇视顶盖机制的井下复杂环境视觉融合增强感知方法 - Google Patents
仿响尾蛇视顶盖机制的井下复杂环境视觉融合增强感知方法 Download PDFInfo
- Publication number
- CN119168885A CN119168885A CN202411225524.0A CN202411225524A CN119168885A CN 119168885 A CN119168885 A CN 119168885A CN 202411225524 A CN202411225524 A CN 202411225524A CN 119168885 A CN119168885 A CN 119168885A
- Authority
- CN
- China
- Prior art keywords
- image
- center
- visual
- iri
- fusion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 53
- 230000000007 visual effect Effects 0.000 title claims abstract description 29
- 241000271532 Crotalus Species 0.000 title claims abstract description 23
- 238000000034 method Methods 0.000 title claims abstract description 22
- 230000007246 mechanism Effects 0.000 title claims abstract description 17
- 230000008447 perception Effects 0.000 title claims description 12
- 230000008485 antagonism Effects 0.000 claims abstract description 28
- 238000005516 engineering process Methods 0.000 claims abstract description 16
- 230000007248 cellular mechanism Effects 0.000 claims abstract description 9
- 230000002902 bimodal effect Effects 0.000 claims abstract description 8
- 238000006243 chemical reaction Methods 0.000 claims abstract description 5
- 238000007781 pre-processing Methods 0.000 claims abstract description 5
- 239000003623 enhancer Substances 0.000 claims abstract description 4
- 230000003042 antagnostic effect Effects 0.000 claims description 21
- 239000011664 nicotinic acid Substances 0.000 claims description 14
- 238000013507 mapping Methods 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 9
- 230000002708 enhancing effect Effects 0.000 claims description 5
- 230000007613 environmental effect Effects 0.000 claims description 5
- 238000005070 sampling Methods 0.000 claims description 4
- 238000007476 Maximum Likelihood Methods 0.000 claims description 3
- 238000005315 distribution function Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 claims description 3
- 238000013178 mathematical model Methods 0.000 claims description 3
- 230000001186 cumulative effect Effects 0.000 claims 1
- 230000001131 transforming effect Effects 0.000 claims 1
- 238000012544 monitoring process Methods 0.000 abstract description 5
- 230000004438 eyesight Effects 0.000 description 6
- 239000005557 antagonist Substances 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 239000000428 dust Substances 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000007500 overflow downdraw method Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Chemical compound O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 241001417494 Sciaenidae Species 0.000 description 1
- 230000003592 biomimetic effect Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
- 238000010008 shearing Methods 0.000 description 1
- 230000005641 tunneling Effects 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
- 230000003313 weakening effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/337—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种仿响尾蛇视顶盖机制的井下复杂环境视觉融合增强感知方法,包括以下步骤:S1,通过可见光相机和红外相机分别采集可见光源图像与红外源图像;S2,通过图像复原技术获得可见光复原图像和红外复原图像;S3,配准并裁剪增强图像后,基于仿生响尾蛇六种双峰细胞机制的中心‑环绕拮抗受域模型完成图像预处理,获得四种仿生对抗增强子图像;S4,通过环境辨识技术对图像采集环境进行恶劣等级划分,依照恶劣程度的不同进行图像融合;S5,通过图像增强技术对融合图像进行增强转化,获得最终图像。本发明能够在井下等复杂恶劣场景下增加低质图像的有效信息,提高对作业现场人员、设备及环境的监测能力。
Description
技术领域
本发明涉及图像处理技术领域,尤其涉及一种仿响尾蛇视顶盖机制的井下复杂环境视觉融合增强感知方法。
背景技术
随着计算机技术的快速发展,视觉感知技术被广泛用于井下掘进、综采、运输及提升等工况中人员和设备的监测。图像是视觉信息最基本的载体,可见光图像的场景纹理细节丰富、清晰度和对比度较高且拥有较好的视觉效果,但受遮挡影响且夜间成像较差;红外图像目标突出且具有较高的像素值、穿透力强能探测隐藏目标,但纹理信息较模糊。然而,由于井下工作环境通常十分恶劣,所获取的图像往往存在对比度低、目标模糊等问题,严重影响目标检测、行人识别等高层视觉任务的精度与效率,进而导致设备故障或人员安全监测不及时。
而通过提取并融合可见光与红外图像的信息,得到同一场景或目标更为准确、全面和可靠的图像描述可以更好地满足上层视觉任务的要求。自然界仿生视觉机制具备解决以上问题并满足相关感知要求的潜力。目前已经出现了一些图像融合算法,其中包括一部分仿生响尾蛇成像机制的融合算法,通过模仿能够融合红外和可见光信息的双模式细胞机制实现图像融合。然而,现有仿生响尾蛇融合算法无法全面利用双源信息,融合图像质量差、对比度低,而且无法根据图像采集环境对融合策略进行调整,因而无法满足实际需求。
发明内容
发明目的:本发明的目的是提供一种仿响尾蛇视顶盖机制的井下复杂环境视觉融合增强感知方法,通过对图像进行非加权融合和转化增强,实现可见光与红外信息的有效融合,使之能够克服井下低照度、高粉尘、高水汽等复杂环境因素影响,进而实现对作业现场人员、设备及环境的有效监测。
技术方案:一种仿响尾蛇视顶盖机制的井下复杂环境视觉融合增强感知方法,包括以下步骤:
S1,通过可见光相机和红外相机分别采集可见光源图像与红外源图像;
S2,通过图像复原技术获得可见光复原图像和红外复原图像;
S3,配准并裁剪增强图像后,基于仿生响尾蛇六种双峰细胞机制的中心-环绕拮抗受域模型完成图像预处理,获得四种仿生对抗增强子图像;
S4,通过环境辨识技术对图像采集环境进行恶劣等级划分,依照恶劣程度的不同进行图像融合;
S5,通过图像增强技术对融合图像进行增强转化,获得最终图像。
进一步,步骤S2中,设像素点符合泊松分布统计标准,基于贝叶斯理论,通过极大似然估计对退化图像进行反卷积迭代推演计算,其迭代公式如下:
式中,Fn+1(i,j)为第n+1次迭代的图像;Fn(i,j)为第n次迭代的图像;G(i,j)为输入图像;H(i,j)为系统的点扩散函数;H(-i,-j)为H(i,j)的空间翻转。
进一步,步骤S3中,仿生响尾蛇六种双峰细胞机制的中心-环绕拮抗受域模型分为ON中心拮抗模型与OFF中心拮抗模型,其数学模型分别表示如下:
ON中心拮抗模型:
OFF中心拮抗模型:
fOFF(m,n)=fcenter(m,n)·log(fsurround(m,n)+1)
其中,(m,n)为像素点坐标,fcenter(m,n)为输入至中心区域的图像,fsurround(m,n)为输入至边缘环绕区域的图像,fON(m,n)为ON中心拮抗模型的输出图像,fOFF(m,n)为OFF中心拮抗模型的输出图像。
进一步,步骤S3中,四种仿生对抗增强子图像包括将可见光复原图像输入ON中心拮抗模型中fcenter(m,n)和fsurround(m,n)生成的VLI_ON图像;将可见光复原图像输入OFF中心拮抗模型中fcenter(m,n)和fsurround(m,n)生成的VLI_OFF图像;将红外复原图像输入ON中心拮抗模型中fcenter(m,n)和fsurround(m,n)生成的IRI_ON图像;将红外复原图像输入OFF中心拮抗模型中fcenter(m,n)和fsurround(m,n)生成的IRI_OFF图像。
进一步,步骤S4中,基于正常环境与恶劣环境下红外图像能量的差异性对图像采样环境进行划分,其划分流程如下:
S41,滑动3×3的窗口,记录每次移动的窗口像素能量EW(p,q),公式如下:
S42,计算整个红外图像的总能量E,公式如下:
S43,计算红外图像移动窗口的全局能量平均值E,公式如下:
S44,设置区分系数k,划分红外图像的正常环境区域Snormal和恶劣环境区域Sharsh:
S45,计算恶劣环境区域占比:
S46,根据恶劣环境区域占比划分环境恶劣等级:
其中,p为像素点横坐标,p=1,2,…,h-2,h为图像总列数;q为像素点纵坐标,q=1,2,…,w-2,w为图像总行数,G(p,q)为像素点的灰度值;k依据实际工况选取。
进一步,步骤S4中,图像融合的策略如下:当判定为极度恶劣环境时,可见光图像不进行融合,直接输出IRI_ON图像;当判定为正常、轻微恶劣、轻度恶劣、中度恶劣、重度恶劣环境时,进行非均匀加权融合。
进一步,所述非均匀加权融合的实现步骤如下:
S61,提取VLI_OFF与IRI_OFF的共有信息,然后将IRI_OFF减去共有信息获得红外特有信息,映射到RGB通道的R通道;
S62,分别将VLI_ON和IRI_OFF输入ON中心拮抗模型中的fcenter(m,n)和fsurround(m,n),得到VLI_ON-IRI_OFF;分别将IRI_ON和VLI_OFF输入ON中心拮抗模型中的fcenter(m,n)和fsurround(m,n),得到IRI_ON-VLI_OFF;然后对VLI_ON-IRI_OFF与IRI_ON-VLI_OFF进行非均匀加权融合,映射到RGB通道的G通道;其中,VLI_ON-IRI_OFF与IRI_ON-VLI_OFF的权重分配依据恶劣环境区域占比Pharsh进行划分;
S63,将VLI_ON映射到RGB通道的B通道。
进一步,步骤S5中,增强转化流程如下:
S51,将图像连续地分为若干个3×3的不重叠子区域;
S52,计算每个子区域的灰度直方图及累计分布函数,构建灰度映射表;
S53,设定剪切阈值限制对比度,截取每个子区域阈值以外的像素值并重新分配像素;
S54,对裁剪后的区域进行直方图均衡化处理,遍历输入图像,以各点灰度值及其所在位置和周边关联分块进行双线性插值处理,完成像素点灰度值的重构。
本发明与现有技术相比,其显著效果如下:
1、本发明通过应用图像复原算法来纠正由相机或其他外部因素引起的图像质量下降,模仿响尾蛇视顶盖的双峰细胞机制,采用中心-环绕拮抗受域模型对图像进行预处理,以增强对比度和边缘信息;在预处理的基础上,根据红外图像对环境进行辨识,进而对图像进行非加权融合和转化增强,实现可见光与红外信息的有效融合,使之能够克服井下低照度、高粉尘、高水汽等复杂环境因素影响,进而实现对作业现场人员、设备及环境的有效监测;
2、本发明通过设置图像复原处理,减少了相机内部构造及外部环境等对可见光与红外源图像质量的削弱,保障了融合前后的图像的高质量;
3、本发明通过基于正常环境与恶劣环境下红外图像能量的差异性进行环境辨识,并基于辨识结果对可见光信息与红外信息进行非均匀加权融合,确保融合感知算法适用于不同恶劣程度的环境;
4、本发明提取红外特有信息映射至R通道,凸显了目标特征;将经ON中心拮抗模型增强处理后的可见光图像映射至B通道,保留了环境特征;将非均匀加权融合图像映射至G通道,借助非均匀赋权,根据环境有选择地对可见光信息或红外信息进行增强,使之更符合实际需求;
5、本发明通过设置图像增强处理,增加了图像质量,提升了图像对比度,使有效信息进一步获得突出。
附图说明
图1为本发明井下复杂环境融合增强感知方法的整体流程图;
图2为本发明对抗增强方法的流程图;
图3为本发明ON中心拮抗模型示意图;
图4为本发明OFF中心拮抗模型示意图;
图5为本发明图像融合方法的流程图;
图6中的(a)列为本发明实施例的可见光源图像示意图,(b)列为红外源图像示意图,(c)列为最终融合图像示意图。
具体实施方式
下面结合说明书附图和具体实施方式对本发明做进一步详细描述。
如图1所示,本发明提供的一种仿响尾蛇视顶盖机制的井下复杂环境视觉融合增强感知方法的主要步骤如下:
步骤1,通过可见光相机和红外相机分别采集可见光源图像与红外源图像。
步骤2,通过图像复原技术获得可见光复原图像和红外复原图像;
如图2所示,通过图像复原技术消除相机或其他外部因素导致的图像模糊等问题,获得可见光复原图像和红外复原图像。
对于图像复原技术,假设像素点符合泊松分布统计标准,基于贝叶斯理论,通过极大似然估计对退化图像进行反卷积迭代推演计算,在模糊卷积核未知的情况下,得到清晰的恢复图像。其迭代公式如下:
其中,Fn+1(i,j)为第n+1次迭代的图像;Fn(i,j)为第n次迭代的图像;G(i,j)为输入图像;H(i,j)为系统的点扩散函数;H(-i,-j)为H(i,j)的空间翻转。
步骤3,配准并裁剪增强图像后,基于仿生响尾蛇六种双峰细胞机制的中心-环绕拮抗受域模型完成图像预处理,获得四种仿生对抗增强子图像;
如图3和图4所示,仿生响尾蛇六种双峰细胞机制的中心-环绕拮抗受域模型分为ON中心拮抗模型与OFF中心拮抗模型两种,其数学模型表示分别如下:
ON中心拮抗模型:
OFF中心拮抗模型:
fOFF(m,n)=fcenter(m,n)·log(fsurround(m,n)+1) (3)
其中,(m,n)为像素点坐标,fcenter(m,n)为输入至中心区域的图像,fsurround(m,n)为输入至边缘环绕区域的图像,fON(m,n)为ON中心拮抗模型的输出图像,fOFF(m,n)为OFF中心拮抗模型的输出图像。
四种仿生对抗增强子图像包括将可见光复原图像输入ON中心拮抗模型中fcenter(m,n)和fsurround(m,n)生成的VLI_ON图像;将可见光复原图像输入OFF中心拮抗模型中fcenter(m,n)和fsurround(m,n)生成的VLI_OFF图像;将红外复原图像输入ON中心拮抗模型中fcenter(m,n)和fsurround(m,n)生成的IRI_ON图像;将红外复原图像输入OFF中心拮抗模型中fcenter(m,n)和fsurround(m,n)生成的IRI_OFF图像。
步骤4,通过环境辨识技术对图像采样环境进行恶劣等级划分,依照恶劣程度的不同进行图像融合;
具体的,环境辨识技术基于正常环境与恶劣环境下红外图像能量的差异性对图像采样环境进行划分,其划分流程如下:
步骤41,滑动3×3的窗口,记录每次移动的窗口像素能量EW(p,q),公式如下:
步骤42,计算整个红外图像的总能量E,公式如下:
步骤43,计算红外图像移动窗口的全局能量平均值公式如下:
步骤44,设置区分系数k,划分红外图像的正常环境区域Snormal和恶劣环境区域Sharsh:
步骤45,计算恶劣环境区域占比Pharsh:
步骤46,根据恶劣环境区域占比Pharsh划分环境恶劣等级:
其中,p为像素点横坐标,p=1,2,…,h-2,h为图像总列数;q为像素点纵坐标,q=1,2,…,w-2,w为图像总行数,G(p,q)为像素点的灰度值,k依据实际工况进行合理选取,一般取0.25~0.5。
图像融合采用如下策略:当判定为极度恶劣环境时,可见光图像几乎不包含任何有效信息,此时不进行融合,直接输出IRI_ON图像;当判定为正常、轻微恶劣、轻度恶劣、中度恶劣、重度恶劣环境时,进行非均匀加权融合。
如图5所示,非均匀加权融合方法包括以下步骤:
步骤D1,提取VLI_OFF与IRI_OFF的共有信息,然后将IRI_OFF减去共有信息获得红外特有信息,映射到RGB通道的R通道;
步骤D2,分别将VLI_ON和IRI_OFF输入ON中心拮抗模型中的fcenter(m,n)和fsurround(m,n),得到VLI_ON-IRI_OFF;分别将IRI_ON和VLI_OFF输入ON中心拮抗模型中的fcenter(m,n)和fsurround(m,n),得到IRI_ON-VLI_OFF,然后对VLI_ON-IRI_OFF与IRI_ON-VLI_OFF进行非均匀加权融合,映射到RGB通道的G通道;
对VLI_ON-IRI_OFF与IRI_ON-VLI_OFF的赋权策略依据恶劣环境区域占比Pharsh进行,具体策略见表1:
表1VLI_ON-IRI_OFF与IRI_ON-VLI_OFF的赋权策略表
步骤D3,将VLI_ON映射到RGB通道的B通道。如图6中的(a)列、(b)列分别为可见光源图像和红外源图像,经过步骤1-步骤4处理后,得到的融合图像如图4中的(c)列所示;由此可知,融合图像很好地综合了可见光图像的背景信息与红外图像的目标特征,相较于源图像,融合图像质量更好,对比度更高,可以为上游视觉任务提供更多的有效信息。
步骤5,通过图像增强技术对融合图像进行增强转化,提高图像对比度,突出有效信息,获得最终图像;
增强转化流程如下:
步骤51,将图像连续地分为若干个3×3的不重叠子区域;
步骤52,计算每个子区域的灰度直方图及累计分布函数,构建灰度映射表;
步骤53,设定剪切阈值限制对比度,截取每个子区域阈值以外的像素值并重新分配像素;
步骤54,对裁剪后的区域进行直方图均衡化处理,遍历输入图像,以各点灰度值及其所在位置和周边关联分块进行双线性插值处理,完成像素点灰度值的重构,获得高对比度、特征突出的增强图像。
以上所述仅为本发明的实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种仿响尾蛇视顶盖机制的井下复杂环境视觉融合增强感知方法,其特征在于,包括以下步骤:
S1,通过可见光相机和红外相机分别采集可见光源图像与红外源图像;
S2,通过图像复原技术获得可见光复原图像和红外复原图像;
S3,配准并裁剪增强图像后,基于仿生响尾蛇六种双峰细胞机制的中心-环绕拮抗受域模型完成图像预处理,获得四种仿生对抗增强子图像;
S4,通过环境辨识技术对图像采集环境进行恶劣等级划分,依照恶劣程度的不同进行图像融合;
S5,通过图像增强技术对融合图像进行增强转化,获得最终图像。
2.根据权利要求1所述仿响尾蛇视顶盖机制的井下复杂环境视觉融合增强感知方法,其特征在于,步骤S2中,设像素点符合泊松分布统计标准,基于贝叶斯理论,通过极大似然估计对退化图像进行反卷积迭代推演计算,其迭代公式如下:
式中,Fn+1(i,j)为第n+1次迭代的图像;Fn(i,j)为第n次迭代的图像;G(i,j)为输入图像;H(i,j)为系统的点扩散函数;H(-i,-j)为H(i,j)的空间翻转。
3.根据权利要求1所述仿响尾蛇视顶盖机制的井下复杂环境视觉融合增强感知方法,其特征在于,步骤S3中,仿生响尾蛇六种双峰细胞机制的中心-环绕拮抗受域模型分为ON中心拮抗模型与OFF中心拮抗模型,其数学模型分别表示如下:
ON中心拮抗模型:
OFF中心拮抗模型:
fOFF(m,n)=fcenter(m,n)·log(fsurround(m,n)+1)
其中,(m,n)为像素点坐标,fcenter(m,n)为输入至中心区域的图像,fsurround(m,n)为输入至边缘环绕区域的图像,fON(m,n)为ON中心拮抗模型的输出图像,fOFF(m,n)为OFF中心拮抗模型的输出图像。
4.根据权利要求3所述仿响尾蛇视顶盖机制的井下复杂环境视觉融合增强感知方法,其特征在于,步骤S3中,四种仿生对抗增强子图像包括将可见光复原图像输入ON中心拮抗模型中fcenter(m,n)和fsurround(m,n)生成的VLI_ON图像;将可见光复原图像输入OFF中心拮抗模型中fcenter(m,n)和fsurround(m,n)生成的VLI_OFF图像;将红外复原图像输入ON中心拮抗模型中fcenter(m,n)和fsurround(m,n)生成的IRI_ON图像;将红外复原图像输入OFF中心拮抗模型中fcenter(m,n)和fsurround(m,n)生成的IRI_OFF图像。
5.根据权利要求1所述仿响尾蛇视顶盖机制的井下复杂环境视觉融合增强感知方法,其特征在于,步骤S4中,基于正常环境与恶劣环境下红外图像能量的差异性对图像采样环境进行划分,其划分流程如下:
S41,滑动3×3的窗口,记录每次移动的窗口像素能量EW(p,q),公式如下:
S42,计算整个红外图像的总能量E,公式如下:
S43,计算红外图像移动窗口的全局能量平均值公式如下:
S44,设置区分系数k,划分红外图像的正常环境区域Snormal和恶劣环境区域Sharsh:
S45,计算恶劣环境区域占比:
S46,根据恶劣环境区域占比划分环境恶劣等级:
其中,p为像素点横坐标,p=1,2,…,h-2,h为图像总列数;q为像素点纵坐标,q=1,2,…,w-2,w为图像总行数,G(p,q)为像素点的灰度值;k依据实际工况选取。
6.根据权利要求5所述仿响尾蛇视顶盖机制的井下复杂环境视觉融合增强感知方法,其特征在于,步骤S4中,图像融合的策略如下:当判定为极度恶劣环境时,可见光图像不进行融合,直接输出IRI_ON图像;当判定为正常、轻微恶劣、轻度恶劣、中度恶劣、重度恶劣环境时,进行非均匀加权融合。
7.根据权利要求6所述仿响尾蛇视顶盖机制的井下复杂环境视觉融合增强感知方法,其特征在于,所述非均匀加权融合的实现步骤如下:
S61,提取VLI_OFF与IRI_OFF的共有信息,然后将IRI_OFF减去共有信息获得红外特有信息,映射到RGB通道的R通道;
S62,分别将VLI_ON和IRI_OFF输入ON中心拮抗模型中的fcenter(m,n)和fsurround(m,n),得到VLI_ON-IRI_OFF;分别将IRI_ON和VLI_OFF输入ON中心拮抗模型中的fcenter(m,n)和fsurround(m,n),得到IRI_ON-VLI_OFF;然后对VLI_ON-IRI_OFF与IRI_ON-VLI_OFF进行非均匀加权融合,映射到RGB通道的G通道;其中,VLI_ON-IRI_OFF与IRI_ON-VLI_OFF的权重分配依据恶劣环境区域占比Pharsh进行划分;
S63,将VLI_ON映射到RGB通道的B通道。
8.根据权利要求1所述仿响尾蛇视顶盖机制的井下复杂环境视觉融合增强感知方法,其特征在于,步骤S5中,增强转化流程如下:
S51,将图像连续地分为若干个3×3的不重叠子区域;
S52,计算每个子区域的灰度直方图及累计分布函数,构建灰度映射表;
S53,设定剪切阈值限制对比度,截取每个子区域阈值以外的像素值并重新分配像素;
S54,对裁剪后的区域进行直方图均衡化处理,遍历输入图像,以各点灰度值及其所在位置和周边关联分块进行双线性插值处理,完成像素点灰度值的重构。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202411225524.0A CN119168885A (zh) | 2024-09-03 | 2024-09-03 | 仿响尾蛇视顶盖机制的井下复杂环境视觉融合增强感知方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202411225524.0A CN119168885A (zh) | 2024-09-03 | 2024-09-03 | 仿响尾蛇视顶盖机制的井下复杂环境视觉融合增强感知方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN119168885A true CN119168885A (zh) | 2024-12-20 |
Family
ID=93882858
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202411225524.0A Pending CN119168885A (zh) | 2024-09-03 | 2024-09-03 | 仿响尾蛇视顶盖机制的井下复杂环境视觉融合增强感知方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN119168885A (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113409232A (zh) * | 2021-06-16 | 2021-09-17 | 吉林大学 | 基于响尾蛇视觉成像的仿生假彩色图像融合模型及方法 |
US20220044374A1 (en) * | 2019-12-17 | 2022-02-10 | Dalian University Of Technology | Infrared and visible light fusion method |
CN116091879A (zh) * | 2022-12-21 | 2023-05-09 | 吉林大学 | 一种基于响尾蛇机制不同光照环境的图像融合方法 |
-
2024
- 2024-09-03 CN CN202411225524.0A patent/CN119168885A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220044374A1 (en) * | 2019-12-17 | 2022-02-10 | Dalian University Of Technology | Infrared and visible light fusion method |
CN113409232A (zh) * | 2021-06-16 | 2021-09-17 | 吉林大学 | 基于响尾蛇视觉成像的仿生假彩色图像融合模型及方法 |
CN116091879A (zh) * | 2022-12-21 | 2023-05-09 | 吉林大学 | 一种基于响尾蛇机制不同光照环境的图像融合方法 |
Non-Patent Citations (3)
Title |
---|
QIANQIAN HAN 等: "《Infared and Visble Image Fusion Based on Biological Vision》", 2022 7TH INTERNATIONAL CONFERENCE ON IMAGE, VISION AND COMPUTING, 19 September 2022 (2022-09-19) * |
YONG WANG 等: "《Image fusion based on the rattlesnake visual receptive field model》", 《DISPALYS》, 12 March 2022 (2022-03-12) * |
王勇 等: "《改进的响尾蛇双模式细胞模型的图像融合》", 光学 精密工程, 15 November 2016 (2016-11-15) * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Song et al. | Spatiotemporal satellite image fusion using deep convolutional neural networks | |
CN112288008B (zh) | 一种基于深度学习的马赛克多光谱图像伪装目标检测方法 | |
Zheng et al. | Single image cloud removal using U-Net and generative adversarial networks | |
CN109872483B (zh) | 一种入侵警戒光电监测系统及方法 | |
CN113159466B (zh) | 一种短时光伏发电功率预测系统及方法 | |
TWI441096B (zh) | 適用複雜場景的移動偵測方法 | |
CN108804992B (zh) | 一种基于深度学习的人群统计方法 | |
CN112396635B (zh) | 一种基于多设备的复杂环境下多目标检测方法 | |
CN112184604A (zh) | 一种基于图像融合的彩色图像增强方法 | |
CN112508832B (zh) | 一种面向对象的遥感影像数据时空融合方法、系统及设备 | |
CN105469390A (zh) | 一种基于改进Seam Carving的全景海天线提取方法 | |
CN108648184A (zh) | 一种遥感图像高空卷云的检测方法 | |
CN114332644B (zh) | 一种基于视频卫星数据的大视场交通密度获取方法 | |
CN111582074A (zh) | 一种基于场景深度信息感知的监控视频树叶遮挡检测方法 | |
CN113591697B (zh) | 基于三重金字塔模型和迁移融合的视频行人再识别方法 | |
CN111127355A (zh) | 一种对缺损光流图进行精细补全的方法及其应用 | |
CN118587563B (zh) | 基于无人机配网线路自适应巡检中的自监督预训练方法 | |
Peng et al. | Weed recognition using image blur information | |
CN106971402B (zh) | 一种基于光学辅助的sar图像变化检测方法 | |
CN119168885A (zh) | 仿响尾蛇视顶盖机制的井下复杂环境视觉融合增强感知方法 | |
CN112633158A (zh) | 一种输电线路走廊车辆识别方法、装置、设备和存储介质 | |
CN109614976B (zh) | 一种基于Gabor特征的异源图像融合方法 | |
CN113689399B (zh) | 一种用于电网识别遥感图像处理方法及系统 | |
CN117391973A (zh) | 基于多尺度改进残差块cnn的图像去运动模糊方法 | |
CN111932469B (zh) | 显著性权重的快速曝光图像融合方法、装置、设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |