CN105405138B - 基于显著性检测的水面目标跟踪方法 - Google Patents
基于显著性检测的水面目标跟踪方法 Download PDFInfo
- Publication number
- CN105405138B CN105405138B CN201510761806.7A CN201510761806A CN105405138B CN 105405138 B CN105405138 B CN 105405138B CN 201510761806 A CN201510761806 A CN 201510761806A CN 105405138 B CN105405138 B CN 105405138B
- Authority
- CN
- China
- Prior art keywords
- image
- area
- target
- water surface
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 49
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims abstract description 69
- 238000000034 method Methods 0.000 claims abstract description 34
- 239000011159 matrix material Substances 0.000 claims description 30
- 238000004364 calculation method Methods 0.000 claims description 16
- 238000001914 filtration Methods 0.000 claims description 16
- 238000003708 edge detection Methods 0.000 claims description 10
- 238000005070 sampling Methods 0.000 claims description 10
- 238000000605 extraction Methods 0.000 claims description 8
- 238000010586 diagram Methods 0.000 claims 2
- 238000005286 illumination Methods 0.000 abstract description 3
- 238000012795 verification Methods 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 36
- 230000008569 process Effects 0.000 description 10
- 230000001629 suppression Effects 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 5
- 230000004044 response Effects 0.000 description 4
- 230000003044 adaptive effect Effects 0.000 description 3
- 230000006872 improvement Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- HPTJABJPZMULFH-UHFFFAOYSA-N 12-[(Cyclohexylcarbamoyl)amino]dodecanoic acid Chemical compound OC(=O)CCCCCCCCCCCNC(=O)NC1CCCCC1 HPTJABJPZMULFH-UHFFFAOYSA-N 0.000 description 1
- 235000006506 Brasenia schreberi Nutrition 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 235000020061 kirsch Nutrition 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 235000013446 pixi Nutrition 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提供了一种基于显著性检测的水面目标跟踪方法,特点是首先利用水岸线检测提供目标跟踪的ROI和位置验证信息,之后将增量编码长度作为衡量图像能量信息的指标,表示出图像中特征的稀有程度,利用水面特点和目标特征将显著特征图中的目标进行提取,从而完成水面目标跟踪算法。和常用的目标跟踪算法相比,本发明更加适用于水面目标跟踪,具有实时性优秀,光照自适应性的特点。
Description
技术领域
本发明涉及,具体地,涉及基于显著性检测的水面目标跟踪方法,尤其是一种应用于水上图像捕捉和视频数据分析的视频目标跟踪方法。
背景技术
视频跟踪算法是以图像序列为输入,图像中目标的大小位置等属性为输出。理想情况下,输出的目标属性是准确和实时的,然而,在现实世界中,由于背景千变万化,还有各种干扰的存在,往往很难达到理想状态,因此找到一种适应于当前环境的,对光照和背景变化有一定自适应性的实时性算法是目标跟踪的关键。
目前常用的算法有如下几种:
Meanshift算法,是一种利用颜色信息进行匹配固定大小区域的图像的方法,能够不依靠先验知识的情况下根据样本点计算出概率密度函数值,计算出目标区域和候选区域的相似度,计算出meanshift向量,不断进行候选区域的移动和迭代计算,直到寻找到目标或者达到迭代的次数限制。
背景差分法:是利用当前图像与背景图像的差分来识别运动目标的方法,其背景模型的获取和更新是该方法的关键技术。一种简单的获取背景图像的方法是当场景中无任何目标出现时捕获背景图像,这种人工的非自适应性方法获取的背景图像仅仅适用于短时间的视频监控。目前大多数算法已经放弃这种非自适应性的背景图像估计方法。当场景环境不是很复杂时,可以使用统计滤波完成场景中背景图像的估计,大多数情况下都可以得到正确的背景估计图像,但是当场景中有部分物体做无规则运动时,会引起场景中像素值的不断变化,从而引起估计误差。基于高斯统计模型的背景估计方法在有部分区域不断变化的场景中也能够比较准确的估计出背景模型,但是它的计算比较复杂,且无法满足实时性要求。
基于分类式的跟踪方法是将目标跟踪问题转换为一个连续目标检测问题,目标检测是通过分类器对不同图像区域进行分类为目标或者背景来实现。
水面上的视觉感知有其特殊的技术难点,水面上受光照影响比较大,同一天的不同时间,太阳光照的方向不一样,导致水面上的反光强度和方向都有所不同,而且不同天气对水面上光强的影响也是比较大,这要求视觉信息处理算法有较高的自适应性。在进行目标探测过程中,目标距离较远时,与背景区分度不足够大,所以需要进行图像的加强和滤波从而提取目标信息。
发明内容
针对现有技术中的缺陷以及水面特点,本发明的目的是提供一种基于显著性检测的水面目标跟踪方法,对于光照有着自适应性,且能够满足实时性要求。
本发明首先利用水岸线检测得到水岸线的具体位置,从而能够提供物理环境信息,进而为目标的检测提供位置验证信息和ROI(region of interest,感兴趣区域)。利用稀疏字典对图像进行压缩感知,之后利用增量编码长度对于图像的稀有性进行衡量从而得到显著图特征。
根据本发明提供的一种基于显著性检测的水面目标跟踪方法,包括水岸线检测步骤;
所述水岸线检测步骤,包括如下步骤:
步骤A1:对图像进行降采样,得到降采样图像;
步骤A2:将经降采样得到的图像的颜色空间RGB空间转换到HSV空间;设定色调阈值T_h、饱和度阈值T_s、亮度阈值T_v;
将图像中色调分量h小于色调阈值T_h或者饱和度分量s小于饱和度阈值T_s的区域,判定为待区分水面或天空区域;
若所述待区分水面或天空区域的亮度分量v小于亮度阈值T_v,则将所述待区分水面或天空区域判定为水岸线区域,否则将所述待区分水面或天空区域判定为天空区域;
步骤A3:对水岸线区域图像进行边缘检测;
步骤A4:对检测到的边缘进行霍夫变换得到水岸线。
优选地,还包括显著性检测步骤;
所述显著性检测步骤,包括如下步骤:
步骤B1:根据水岸线得到显著性区域检测的感兴趣区ROI;
步骤B2:获取增量编码长度,计算公式如下:
ICL(pi)=-H(p)-pi-logpi-pilogpi
其中,ICL(pi)表示关于pi的增量编码长度;pi表示概率密度函数p的第i行,i的取值范围为[1,n];概率密度函数p定义为:p=|p1,p2,…,pn|T;
其中,H(p)为信息熵,n表示概率密度函数p的行数;
其中,k为正整数,取值范围是[1,192];wi∈W,i的取值范围为[0,192];W为滤波函数,W=A-1,A为感兴趣区ROI的稀疏基,W=[w1,w2,…,w192]T;
xk∈X,X表示采样矩阵,X=[x1,x2,…,xk,…];采样矩阵X是感兴趣区ROI经过向量化的图像矩阵;
步骤B3:获取显著区域向量图M,计算公式如下:
M=[m1,m2,…,mn]
其中,mk表示显著区域向量图M的第k列,k的取值范围为[1,n],n为显著区域向量图M的列数;S表示显著特征,S的全集是{1,2,…,n},S={i|ICL(pi)>0};
其中,pj表示概率密度函数p的第j列,j的取值范围为[1,n];ICL(pj)表示关于pj的增量编码长度;
步骤B4:将显著区域向量图M转换得到二维的图像矩阵M′作为显著矩阵检测图。
优选地,还包括目标提取步骤;
所述目标提取步骤,包括如下步骤:
步骤C1:对于当前帧,假设上一帧目标位置为Pn-1,当前显著矩阵检测图M′中总共有k个高亮区域,将第i个联通高亮区域标记为Wi,得到Wi中心点的位置坐标Pi,并得到Wi中像素的最大灰度值PIXi以及拥有最大灰度值PIXi的像素的位置信息Mi;其中,i=1,2,…,k;
步骤C2:针对每一个联通高亮区域Wi进行过滤,以过滤掉无效的高亮区域;设置如下过滤条件:
-定义最小像素个数Nmin,如果Wi的像素个数Ni小于Nmin,则将Wi进行过滤;
-定义最小灰度值PIXmin,如果Wi的最大灰度值PIXi小于PIXmin,则将Wi过滤;
-对Wi进行多边形近似,如果近似结果是一个凹多边形,那么将Wi过滤;
步骤C3:通过步骤C2过滤掉无效的高亮区域之后,将未过滤掉的各个Wi的中心点的位置坐标Pi和上一帧目标位置的距离Di进行计算:
其中,xn-1表示上一帧目标位置的横坐标,yn-1表示上一帧目标位置的纵坐标,xi表示Wi的中心点位置的横坐标,yi表示Wi的中心点位置的纵坐标;
选取各个Di中的最小距离Dmin;
如果最小距离Dmin小于设定的最大距离阈值DT,则将当前拥有最小距离Dmin的联通高亮区域Wi认定为目标区域;
如果最小距离Dmin大于等于设定的最大距离阈值DT,则认为当前帧目标丢失,当前目标位置采用上一帧目标位置Pn-1。
优选地,色调阈值T_h=50,饱和度阈值T_s=30,亮度阈值T_v=180。
与现有技术相比,本发明具有如下的有益效果:
本发明在充分考虑水面图像特点的情况下,结合水岸线检测和显著性检测,应用到水面目标的跟踪。首先对原图像进行一个预处理和颜色空间转换,减小光照的影响,利用边缘检测算法和直线检测算法可以进行水岸线的提取,之后利用水岸线位置确定ROI,继续进行下一步的水面目标跟踪的工作。水面目标跟踪是利用增量编码长度表示显著信息,在显著图中进行无效信息过滤和目标提取,从而完成目标跟踪过程。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1是高斯金字塔;
图2是环形抑制区域,图中,r1表示内圆半径,r2表示外圆半径;
图3是水岸线检测流程;
图4是遍历算子;
图5是显著性计算流程;
图6是目标信息提取流程。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变化和改进。这些都属于本发明的保护范围。
本发明公开了一种基于显著性检测的水面目标跟踪算法,特点是首先利用水岸线检测提供目标跟踪的ROI和位置验证信息,之后将增量编码长度作为衡量图像能量信息的指标,表示出图像中特征的稀有程度,利用水面特点和目标特征将显著特征图中的目标进行提取,从而完成水面目标跟踪算法。和常用的目标跟踪算法相比,更加适用于水面目标跟踪,具有实时性优秀,光照自适应性的特点。
根据本发明提供的一种基于显著性检测的水面目标跟踪方法,包括水岸线检测步骤;
所述水岸线检测步骤,包括如下步骤:
步骤A1:对图像进行降采样,得到降采样图像;
步骤A2:将经降采样得到的图像的颜色空间RGB空间转换到HSV空间;设定色调阈值T_h、饱和度阈值T_s、亮度阈值T_v;
将图像中色调分量h小于色调阈值T_h或者饱和度分量s小于饱和度阈值T_s的区域,判定为待区分水面或天空区域;
若所述待区分水面或天空区域的亮度分量v小于亮度阈值T_v,则将所述待区分水面或天空区域判定为水岸线区域,否则将所述待区分水面或天空区域判定为天空区域;
步骤A3:对水岸线区域图像进行边缘检测;
步骤A4:对检测到的边缘进行霍夫变换得到水岸线。
所述基于显著性检测的水面目标跟踪方法,还包括显著性检测步骤;
所述显著性检测步骤,包括如下步骤:
步骤B1:根据水岸线可以得到显著性区域检测的感兴趣区ROI;由于水上目标不会出现在岸上,所以根据水岸线可以得到水面区域,作为显著性检测的ROI。
步骤B2:获取增量编码长度,计算公式如下:
ICL(pi)=-H(p)-pi-logpi-pilogpi
其中,ICL(pi)表示关于pi的增量编码长度;pi表示概率密度函数p的第i列,i的取值范围为[1,n];概率密度函数p定义为:p=|p1,p2,…,pn|T;
其中,H(p)为信息熵,n表示概率密度函数p的列数;
其中,k为正整数,取值范围是[1,192];wi∈W,i的取值范围为[0,192];W为滤波函数,W=A-1,A为感兴趣区ROI的稀疏基,W=[w1,w2,…,w192]T;
xk∈X,X表示采样矩阵,X=[x1,x2,…,xk,…];采样矩阵X是感兴趣区ROI经过向量化的图像矩阵;
步骤B3:获取显著区域向量图M,计算公式如下:
M=[m1,m2,…,mn]
其中,mk表示显著区域向量图M的第k列,k的取值范围为[1,n],n为显著区域向量图M的列数;S表示显著特征,S的全集是{1,2,…,n},S={i|ICL(pi)>0};
其中,pj表示概率密度函数p的第j列,j的取值范围为[1,n];ICL(pj)表示关于pj的增量编码长度;
步骤B4:将显著区域向量图M转换得到二维的图像矩阵M′作为显著矩阵检测图。
所述基于显著性检测的水面目标跟踪方法,还包括目标提取步骤;
所述目标提取步骤,包括如下步骤:
步骤C1:对于当前帧,假设上一帧目标位置为Pn-1,当前显著矩阵检测图M′中总共有k个高亮区域,将第i个联通高亮区域标记为Wi,得到Wi中心点的位置坐标Pi,并得到Wi中像素的最大灰度值PIXi以及拥有最大灰度值PIXi的像素的位置信息Mi;其中,i=1,2,…,k;
步骤C2:针对每一个联通高亮区域Wi进行过滤,以过滤掉无效的高亮区域;设置如下过滤条件:
-定义最小像素个数Nmin,如果Wi的像素个数Ni小于Nmin,则将Wi进行过滤;
-定义最小灰度值PIXmin,如果Wi的最大灰度值PIXi小于PIXmin,则将Wi过滤;
-对Wi进行多边形近似,如果近似结果是一个凹多边形,那么将Wi过滤;
步骤C3:通过步骤C2过滤掉无效的高亮区域之后,将未过滤掉的各个Wi的中心点的位置坐标Pi和上一帧目标位置的距离Di进行计算:
其中,xn-1表示上一帧目标位置的横坐标,yn-1表示上一帧目标位置的纵坐标,xi表示Wi的中心点位置的横坐标,yi表示Wi的中心点位置的纵坐标;
选取各个Di中的最小距离Dmin;
如果最小距离Dmin小于设定的最大距离阈值DT,则将当前拥有最小距离Dmin的联通高亮区域Wi认定为目标区域;
如果最小距离Dmin大于等于设定的最大距离阈值DT,则认为当前帧目标丢失,当前目标位置采用上一帧目标位置Pn-1。
在优选例中,所述步骤A1包括如下步骤:
构建图像预处理高斯金字塔。高斯金字塔构建过程分为两个部分,一个部分是对图像进行不同尺度的高斯模糊,另一个部分就是对图像做降采样,如图1所示,第一层为原图像,行列尺寸大小为W*H,W、H为正整数,从第二层图像开始,每一层图像的分辨率都是前一层图像的四分之一,第i层图像分辨率为(W/2i,H/2i)。
高斯金字塔能够有效对图像进行降采样,保证图像原有信息得到最高质量的压缩。例如,输入原图像分辨率为1920*1080,为了同时满足计算的实时性要求和计算精度,采用第4层高斯金字塔图像,将图像分辨率降低到240*135。
在优选例中,所述步骤A2包括如下步骤:
颜色空间转换。将图像的颜色空间从RGB空间转换到HSV空间,具体转换公式如下所示:
v=max
其中,h表示色调分量,max表示RGB颜色空间中R,G,B三种分量的最大者,min表示RGB颜色空间中R,G,B三种分量的最小者,r表示红色分量,g表示绿色分量,b表示蓝色分量,s表示饱和度分量,v表示亮度分量。
实际应用过程中,利用opencv库中的cvtColor函数就可以实现颜色空间的转换。
设定色调阈值T_h=50,饱和度阈值T_s=30,对于图像中色调分量h小于色调阈值T_h或者饱和度分量s小于饱和度阈值T_s的区域,判定为待区分水面或天空区域。设定亮度阈值T_v=180,若所述待区分水面或天空区域的亮度分量v小于亮度阈值T_v,则判定为水岸线区域,若所述待区分水面或天空区域的亮度分量v大于等于亮度阈值T_v,则判定为天空区域。得到二值水岸线区域图像。水岸线区域优选地是包括岸上景物、水岸线以及水面倒影的区域。
在优选例中,对于图像中的非零像素点进行逐行的统计,第i行的非零像素点个数为Ni,如果Ni>80,判定为水岸线区域,从而进一步精确ROI。
在优选例中,在步骤A2与步骤A3之间执行中值滤波处理步骤,具体包括:
中值滤波处理步骤。利用中值滤波对步骤A2得到的二值水岸线区域图像过滤脉冲噪声,公式如下:
g(x,y)=median{f(x-i,y-j)}(i,j)∈W
其中,g表示中值滤波处理之后的图像,g(x,y)表示(x,y)位置的像素点的灰度值,median{·}表示取中值,x表示像素点横坐标,y表示像素点纵坐标,f表示滤波前的图像,f(x-i,y-j)表示(x-i,y-j)位置像素点的灰度值,W表示二维模板,优选地选取3*3模板,i表示二维模板横坐标,j表示二维模板纵坐标。
得到经过滤波的水岸线区域图像。
具体应用过程中,可以利用opencv库中的medianBlur函数进行中值滤波。
在优选例中,对水岸线区域图像进行边缘检测所采用算子可以是Roberts Cross算子、Prewitt算子、Sobel算子、Kirsch算子、罗盘算子、Canny算子,Laplacian算子等等,还采用如下的改进的canny边缘检测,具体为:
对经过滤波的水岸线区域图像进行改进的canny边缘检测,具体为:
利用sobel算子对水岸线区域图像进行遍历,得到水岸线区域图像的梯度方向和梯度大小;
sobel算子如下:
其中,sx表示横坐标方向上的算子,sy表示纵坐标方向上的算子。
梯度的大小和梯度方向的计算公式如下:
gx=(m6+2m7+m8)-(m0+2m1+m2)
gy=(m2+2m5+m8)-(m0+2m3+m6)
其中,G[i,j]表示水岸线区域图像(i,j)位置像素的梯度大小,i表示水岸线区域图像横坐标,j表示水岸线区域图像纵坐标;m0~m8表示水岸线区域图像对应sobel算子位置处的像素点灰度值;gx表示水平方向梯度大小,gy表示垂直方向梯度大小,M表示图像中3*3区域像素点集合。
定义权重函数
DoGσ(x,y)=g4σ(x,y)-gσ(x,y)
wσ表示权重函数,g(x,y)表示二维高斯函数,σ表示尺度参数,‖ ‖1表示L1范数,DoGσ表示所有DoGσ(x,y)所组成的向量,‖H(DoGσ)‖1表示所有DoGσ(x,y)绝对值之和;gσ(x,y),g4σ(x,y)分别表示尺度参数为σ,4σ的二维高斯函数,z表示有理数,H(z)表示z小于0时取0,z大于0时取z,DoGσ(x,y),表示尺度参数分别为4σ、σ的二维高斯函数相减,x表示像素点水平坐标,y表示像素点垂直方向坐标。
得到水岸线区域之后可以进行一个边缘检测,针对边缘检测容易检测到无效边缘的特点,可以进行一个纹理抑制的改进,在二维高斯函数确定的一个圆环区域内进行一个相似纹理的抑制,关于相似纹理的判断,可以利用该像素点的梯度大小和方向进行界定。
利用上述公式可以进行一个周围纹理抑制,对于当前像素点,如果和邻域圆环内其它像素点的梯度大小和方向近似,就予以抑制。得到经过纹理抑制后的水岸线图像。
其中‖.‖为L1范数。定义半径r1和r2,如图2所示。在半径为r1的圆内,DoGσ(x,y)<0,其权重wσ为0,具体σ=1,r1=2σ,r2=4r1。
在优选例中,利用opencv库中的Canny()函数进行边缘检测,低阈值采取100,高阈值采取400。
在优选例中,在步骤A3与步骤A4之间执行边缘信息过滤步骤,具体如下:
设计7个算子进行经过纹理抑制后的水岸线图像的遍历,可以减少图像的无效边缘。
分别为:
在优选例中,步骤A4包括如下步骤:
霍夫变换
ρ=xcosθ+ysinθ
其中,ρ表示原点到经过(x,y)点直线的几何垂直距离,θ表示垂线与x轴夹角;可以把图像的像素点从(x,y)空间转换到(ρ,θ)空间,对经过纹理抑制后的水岸线图像中的每一个像素点(x,y)来说,以一个确定的角度间隔Δθ计算θ从-180°到180°的相应ρ,从而变换到参数空间(ρ,θ),对参数空间(ρ,θ)中的像素点个数进行投票累计,从投票累计个数就可以得出最长直线。考虑到水岸线与水平线的夹角的绝对值一般不会超过30°,本文对霍夫变换的检测范围作出调整,θ的计算范围为-30°到30°。
在优选例中,利用Opnecv的HoughLines进行hough变换,从图像中进行直线的提取,识别出水岸线。
在优选例中,所述显著性检测步骤,包括如下步骤:
首先利用稀疏字典对图像进行稀疏特征表示,设A为稀疏基,ai为第i个基函数。设W为滤波函数,W=A-1,上标-1表示稀疏基A求逆,W=[w1,w2,…,w192]T,每一行的wj,j=1,2,…,192,可以看作是对待处理图像集合的线性滤波器。
图像的稀疏表示s可以看作是对所有线性滤波器wj的响应。给出一幅图像的向量化表示x,可以表示为s=Wx。
增量编码长度是一种符合人的视觉特征的显著性表示方法,能够使得系统能量分配达到最佳。
定义pi为第i个基函数对于采样矩阵X=[x1,x2,…,xk,…]的响应,其中采样矩阵X是经过向量化的图像矩阵。可以得出pi为:
其中,k为正整数,取值范围是[1,192],wi∈W,xk∈X,i为正整数,i的取值范围为[0,192]。
对于基函数关于图像响应的概率密度函数p可以定义为:p=|p1,p2,…,pn|T。定义p的信息熵为H(p),离散信息熵计算公式为:
其中,H(p)为信息熵,n表示概率密度函数p的列数。
下面计算信息熵函数的增量:
其中:pj表示概率密度函数p的第j列,j的取值范围为[1,n];pi表示概率密度函数p的第i列,i的取值范围为[1,n];
由此可以得出,增量编码长度ICL为:
其中,ICL(pi)表示关于pi的增量编码长度。
定义显著特征S,S的全集是{1,2,…,n},S={i|ICL(pi)>0}。定义通过第i个显著特征S得到的能量为di,如果当前特征S0不属于显著特征,那么定义
其中,dk表示不属于显著特征的特征,k为正整数,取值范围是S的补集;
最后给定一个图像X=[x1,x2,…,xn],可以量化得到显著区域向量图M,M=[m1,m2,…,mn]其中:
其中,mk表示显著区域向量图的第k列,k的取值范围为[1,n]。
为了将该显著区域图转换到图像中显示,需要进行一个归一化的处理。首先对于显著区域图向量M,对每一个元素求取绝对值,之后转换到[0,1…,255]域,之后再把向量化的显著区域图转换到二维的图像矩阵M′,该图像M′就是最终的显著矩阵检测图。
更为具体地:
第一步,将ROI作为处理图像,进行归一化为0-1范围内的double类型,是进行0-255int类型线性归一化到0-1double类型。
第二步,将二维图像转化为向量形式。转化方式如下:用一个8*8大小的算子对图像进行从上到下,自左向右的遍历取点,对于每一次取出的8*8的矩阵,按照从左向右,自上而下的方式填充到向量当中。
第三步,进行稀疏特征表示,设A为稀疏基,ai为ith个基函数。设W=A-1为滤波函数,W=[w1,w2,…,w192]T,每一行的wj可以看作是对图像集合的线性滤波器。图像的稀疏表示s可以看作是对所有线性滤波器wj的响应。给出一幅图像的向量化表示x,可以表示为s=W x。与转化为一维向量的图像进行矩阵相乘,得到概率密度函数p。
利用GPU并行运算提高矩阵相乘的效率,节省计算时间。具体做法如下:利用CUDA并行计算架构,安装Cublas基础线性子程序库。
首先调用cublasCreat()函数对Cublas进行初始化处理。之后利用cudaMemcpy()函数,将内存中定义的矩阵和图像向量进行矩阵相乘。最后采用cudaMalloc()函数,将两个矩阵输入,进行计算得到概率密度函数。
第四步,计算增量编码长度。
第五步,能量计算。定义显著特征S,S={i|ICL(pi)>0}.定义通过每个显著特征得到的能量为di,如果该特征不属于显著特征,那么定义
第六步,向量进行矩阵化,转化为二维图像。
第七步,给定一个图像X=[x1,x2,…,xn],可以量化得到显著区域图M=[m1,m2,…,mn]其中:
在优选例中,所述信息提取步骤,包括如下步骤:
需要对显著矩阵检测图M′做一个信息的提取,假设上一帧目标位置为Pn-1,当前显著矩阵检测图中总共有k个高亮区域,每一个联通高亮区域标记为Wi,对每一个Wi进行逐像素的统计和分析,得到高亮区域的像素个数Ni得出Wi的最边缘像素的位置信息,从而得出当前高亮区域中心点的位置坐标Pi,另外统计拥有最大灰度值的像素的位置信息Mi和最大灰度值PIXi。
对高亮区域Wi进行分析,设置如下过滤条件:定义最小像素个数Nmin,如果Wi的像素个数Ni<Nmin,将其进行过滤;定义最小灰度值PIXmin,如果Wi的最大灰度值PIXi<PIXmin,将其过滤;对Wi进行多边形近似,如果近似结果是一个凹多边形,那么将其过滤。
在过滤掉无效的高亮区域信息之后,将过滤剩下的Wi的中心点位置Pi和上一帧的目标位置进行距离计算:选取其中最小距离Dmin,如果其小于设定的最大距离阈值DT,当前拥有和前一帧目标最小距离的高亮区域Wi被认定为目标区域,如果其中最小距离Dmin大于最大距离阈值DT,那么认为当前帧目标丢失,当前目标位置采用上一帧的位置Pn-1。具体流程如图6所示。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变化或修改,这并不影响本发明的实质内容。在不冲突的情况下,本申请的实施例和实施例中的特征可以任意相互组合。
Claims (2)
1.一种基于显著性检测的水面目标跟踪方法,其特征在于,包括水岸线检测步骤;
所述水岸线检测步骤,包括如下步骤:
步骤A1:对图像进行降采样,得到降采样图像;
步骤A2:将经降采样得到的图像的颜色空间RGB空间转换到HSV空间;设定色调阈值T_h、饱和度阈值T_s、亮度阈值T_v;
将图像中色调分量h小于色调阈值T_h或者饱和度分量s小于饱和度阈值T_s的区域,判定为待区分水面或天空区域;
若所述待区分水面或天空区域的亮度分量v小于亮度阈值T_v,则将所述待区分水面或天空区域判定为水岸线区域,否则将所述待区分水面或天空区域判定为天空区域;
步骤A3:对水岸线区域图像进行边缘检测;
步骤A4:对检测到的边缘进行霍夫变换得到水岸线;
所述的基于显著性检测的水面目标跟踪方法,还包括显著性检测步骤;
所述显著性检测步骤,包括如下步骤:
步骤B1:根据水岸线得到显著性区域检测的感兴趣区ROI;
步骤B2:获取增量编码长度,计算公式如下:
ICL(pi)=-H(p)-pi-logpi-pilogpi
其中,ICL(pi)表示关于pi的增量编码长度;pi表示概率密度函数p的第i行,i的取值范围为[1,n];概率密度函数p定义为:p=|p1,p2,...,pn|T;
<mrow>
<mi>H</mi>
<mrow>
<mo>(</mo>
<mi>p</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mo>-</mo>
<msubsup>
<mi>&Sigma;</mi>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>n</mi>
</msubsup>
<msub>
<mi>p</mi>
<mi>i</mi>
</msub>
<msub>
<mi>logp</mi>
<mi>i</mi>
</msub>
</mrow>
其中,H(p)为信息熵,n表示概率密度函数p的行数;
<mrow>
<msub>
<mi>p</mi>
<mi>i</mi>
</msub>
<mo>=</mo>
<mfrac>
<mrow>
<msub>
<mi>&Sigma;</mi>
<mi>k</mi>
</msub>
<mo>|</mo>
<msub>
<mi>w</mi>
<mi>i</mi>
</msub>
<msup>
<mi>x</mi>
<mi>k</mi>
</msup>
<mo>|</mo>
</mrow>
<mrow>
<msub>
<mi>&Sigma;</mi>
<mi>i</mi>
</msub>
<msub>
<mi>&Sigma;</mi>
<mi>k</mi>
</msub>
<mo>|</mo>
<msub>
<mi>w</mi>
<mi>i</mi>
</msub>
<msup>
<mi>x</mi>
<mi>k</mi>
</msup>
<mo>|</mo>
</mrow>
</mfrac>
</mrow>
其中,k为正整数,取值范围是[1,192];wi∈W,i的取值范围为[0,192];W为滤波函数,W=A-1,A为感兴趣区ROI的稀疏基,W=[w1,w2,…,w192]T;
xk∈X,X表示采样矩阵,X=[x1,x2,...,xk,...];采样矩阵X是感兴趣区ROI经过向量化的图像矩阵;
步骤B3:获取显著区域向量图M,计算公式如下:
M=[m1,m2,...,mn]
<mrow>
<msub>
<mi>m</mi>
<mi>k</mi>
</msub>
<mo>=</mo>
<munder>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>&Element;</mo>
<mi>S</mi>
</mrow>
</munder>
<msub>
<mi>d</mi>
<mi>i</mi>
</msub>
<msub>
<mi>w</mi>
<mi>i</mi>
</msub>
<msup>
<mi>x</mi>
<mi>k</mi>
</msup>
</mrow>
其中,mk表示显著区域向量图M的第k列,k的取值范围为[1,n],n为显著区域向量图M的列数;S表示显著特征,S的全集是{1,2,…,n},S={i|ICL(pi)>0};
<mrow>
<msub>
<mi>d</mi>
<mi>i</mi>
</msub>
<mo>=</mo>
<mfrac>
<mrow>
<mi>I</mi>
<mi>C</mi>
<mi>L</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>p</mi>
<mi>i</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msub>
<mi>&Sigma;</mi>
<mrow>
<mi>j</mi>
<mo>&Element;</mo>
<mi>S</mi>
</mrow>
</msub>
<mi>I</mi>
<mi>C</mi>
<mi>L</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>p</mi>
<mi>j</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
</mrow>
其中,pj表示概率密度函数p的第j列,j的取值范围为[1,n];ICL(pj)表示关于pj的增量编码长度;
步骤B4:将显著区域向量图M转换得到二维的图像矩阵M′作为显著矩阵检测图;
所述的基于显著性检测的水面目标跟踪方法,还包括目标提取步骤;
所述目标提取步骤,包括如下步骤:
步骤C1:对于当前帧,假设上一帧目标位置为Pn-1,当前显著矩阵检测图M′中总共有k个高亮区域,将第i个连通高亮区域标记为Wi,得到Wi中心点的位置坐标Pi,并得到Wi中像素的最大灰度值PIXi以及拥有最大灰度值PIXi的像素的位置信息Mi;其中,i=1,2,…,k;
步骤C2:针对每一个连通高亮区域Wi进行过滤,以过滤掉无效的高亮区域;设置如下过滤条件:
-定义最小像素个数Nmin,如果Wi的像素个数Ni小于Nmin,则将Wi进行过滤;
-定义最小灰度值PIXmin,如果Wi的最大灰度值PIXi小于PIXmin,则将Wi过滤;
-对Wi进行多边形近似,如果近似结果是一个凹多边形,那么将Wi过滤;
步骤C3:通过步骤C2过滤掉无效的高亮区域之后,将未过滤掉的各个Wi的中心点的位置坐标Pi和上一帧目标位置的距离Di进行计算:
<mrow>
<msub>
<mi>D</mi>
<mi>i</mi>
</msub>
<mo>=</mo>
<msqrt>
<mrow>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>x</mi>
<mi>i</mi>
</msub>
<mo>-</mo>
<msub>
<mi>x</mi>
<mrow>
<mi>n</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>+</mo>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>y</mi>
<mi>i</mi>
</msub>
<mo>-</mo>
<msub>
<mi>y</mi>
<mrow>
<mi>n</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
</msqrt>
<mo>,</mo>
</mrow>
其中,xn-1表示上一帧目标位置的横坐标,yn-1表示上一帧目标位置的纵坐标,xi表示Wi的中心点位置的横坐标,yi表示Wi的中心点位置的纵坐标;
选取各个Di中的最小距离Dmin;
如果最小距离Dmin小于设定的最大距离阈值DT,则将当前拥有最小距离Dmin的连通高亮区域Wi认定为目标区域;
如果最小距离Dmin大于等于设定的最大距离阈值DT,则认为当前帧目标丢失,当前目标位置采用上一帧目标位置Pn-1。
2.根据权利要求1所述的基于显著性检测的水面目标跟踪方法,其特征在于,色调阈值T_h=50,饱和度阈值T_s=30,亮度阈值T_v=180。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510761806.7A CN105405138B (zh) | 2015-11-10 | 2015-11-10 | 基于显著性检测的水面目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510761806.7A CN105405138B (zh) | 2015-11-10 | 2015-11-10 | 基于显著性检测的水面目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105405138A CN105405138A (zh) | 2016-03-16 |
CN105405138B true CN105405138B (zh) | 2018-05-29 |
Family
ID=55470605
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510761806.7A Expired - Fee Related CN105405138B (zh) | 2015-11-10 | 2015-11-10 | 基于显著性检测的水面目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105405138B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105893957B (zh) * | 2016-03-30 | 2019-03-22 | 上海交通大学 | 基于视觉湖面船只检测识别与跟踪方法 |
EP3982626A1 (en) | 2016-06-06 | 2022-04-13 | SZ DJI Osmo Technology Co., Ltd. | Carrier-assisted tracking |
WO2017210822A1 (en) | 2016-06-06 | 2017-12-14 | Sz Dji Osmo Technology Co., Ltd. | Image processing for tracking |
CN106251355B (zh) * | 2016-08-03 | 2018-12-14 | 江苏大学 | 一种融合可见光图像与对应夜视红外图像的检测方法 |
CN106846365B (zh) * | 2016-12-30 | 2020-02-07 | 中国科学院上海高等研究院 | 基于his空间的目标跟踪方法 |
CN107609537B (zh) * | 2017-10-09 | 2020-12-29 | 上海海事大学 | 一种基于hsv空间水面图像特征的水岸线检测方法 |
CN111814509B (zh) * | 2019-04-10 | 2023-09-29 | 杭州海康威视数字技术股份有限公司 | 一种物品定位方法、装置及监控系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7391907B1 (en) * | 2004-10-01 | 2008-06-24 | Objectvideo, Inc. | Spurious object detection in a video surveillance system |
CN101604383A (zh) * | 2009-07-24 | 2009-12-16 | 哈尔滨工业大学 | 一种基于红外图像的海上目标检测方法 |
CN102054275A (zh) * | 2010-12-13 | 2011-05-11 | 中国科学院长春光学精密机械与物理研究所 | 灰度图像海天线实时检测方法 |
CN102279973A (zh) * | 2010-06-11 | 2011-12-14 | 中国兵器工业第二○五研究所 | 基于高梯度关键点的海天线检测方法 |
CN103679694A (zh) * | 2013-05-29 | 2014-03-26 | 哈尔滨工程大学 | 一种基于全景视觉的舰船小目标检测方法 |
CN103927751A (zh) * | 2014-04-18 | 2014-07-16 | 哈尔滨工程大学 | 基于梯度信息融合的水面光视觉图像目标区域检测方法 |
CN104700405A (zh) * | 2015-03-05 | 2015-06-10 | 苏州科达科技股份有限公司 | 一种前景检测方法和系统 |
-
2015
- 2015-11-10 CN CN201510761806.7A patent/CN105405138B/zh not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7391907B1 (en) * | 2004-10-01 | 2008-06-24 | Objectvideo, Inc. | Spurious object detection in a video surveillance system |
CN101604383A (zh) * | 2009-07-24 | 2009-12-16 | 哈尔滨工业大学 | 一种基于红外图像的海上目标检测方法 |
CN102279973A (zh) * | 2010-06-11 | 2011-12-14 | 中国兵器工业第二○五研究所 | 基于高梯度关键点的海天线检测方法 |
CN102054275A (zh) * | 2010-12-13 | 2011-05-11 | 中国科学院长春光学精密机械与物理研究所 | 灰度图像海天线实时检测方法 |
CN103679694A (zh) * | 2013-05-29 | 2014-03-26 | 哈尔滨工程大学 | 一种基于全景视觉的舰船小目标检测方法 |
CN103927751A (zh) * | 2014-04-18 | 2014-07-16 | 哈尔滨工程大学 | 基于梯度信息融合的水面光视觉图像目标区域检测方法 |
CN104700405A (zh) * | 2015-03-05 | 2015-06-10 | 苏州科达科技股份有限公司 | 一种前景检测方法和系统 |
Non-Patent Citations (5)
Title |
---|
HIGH RESOLUTION BIOLOGICALLY INSPIRED SALIENT REGION DETECTION;Yusuf Saber、Matthew Kyan;《Image Processing》;20110914;第649-652页 * |
一种基于加权稀疏编码的频域视觉显著性检测算法;钱晓亮 等;《电子学报》;20130630;第41卷(第6期);第1159-1165页 * |
倒影图像检测;王大志;《中国优秀硕士学位论文全文数据库 信息科技辑》;20111215(第S2期);第I138-1398页正文第28页4.3节第1段 * |
基于视觉注意机制的物体显著性研究;贺俊;《中国优秀硕士学位论文全文数据库 信息科技辑》;20090915(第09期);第I138-749页正文第31页4.3.2.1节-第33页4.3.2.3节 * |
自然场景下水体目标提取算法研究;黄银君、陶青川;《通信技术》;20130310;第46卷(第3期);第82页1.2.2节第2段 * |
Also Published As
Publication number | Publication date |
---|---|
CN105405138A (zh) | 2016-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105405138B (zh) | 基于显著性检测的水面目标跟踪方法 | |
CN107301661B (zh) | 基于边缘点特征的高分辨率遥感图像配准方法 | |
CN109272489B (zh) | 基于背景抑制与多尺度局部熵的红外弱小目标检测方法 | |
Park et al. | Single image dehazing with image entropy and information fidelity | |
CN103942803B (zh) | 基于sar图像的水域自动检测方法 | |
CN111275696A (zh) | 一种医学图像处理的方法、图像处理的方法及装置 | |
CN110033431A (zh) | 钢桥表面锈蚀区域检测的非接触式检测装置及检测方法 | |
CN107301420A (zh) | 一种基于显著性分析的热红外影像目标探测方法 | |
CN117079117B (zh) | 水下图像处理及目标识别的方法及装置、存储介质及电子设备 | |
CN108846844A (zh) | 一种基于海天线的海面目标检测方法 | |
Liu et al. | AiOENet: All-in-one low-visibility enhancement to improve visual perception for intelligent marine vehicles under severe weather conditions | |
CN115713736A (zh) | 一种基于仿射变换的全天候车牌单目测距方法及装置 | |
CN113822352A (zh) | 基于多特征融合的红外弱小目标检测方法 | |
CN109544608B (zh) | 一种无人机图像采集特征配准方法 | |
Wu et al. | Research on crack detection algorithm of asphalt pavement | |
CN111027564A (zh) | 基于深度学习一体化的低照度成像车牌识别方法及装置 | |
Chen et al. | High-dynamic range, night vision, image-fusion algorithm based on a decomposition convolution neural network | |
US10115195B2 (en) | Method and apparatus for processing block to be processed of urine sediment image | |
CN107424172B (zh) | 基于前景判别和圆形搜索方法的运动目标跟踪方法 | |
CN110363101A (zh) | 一种基于cnn特征融合框架的花卉识别方法 | |
CN116486092A (zh) | 一种基于改进Hu不变矩的电磁探头校准件的识别方法 | |
Raj et al. | A novel Ship detection method from SAR image with reduced false alarm | |
CN103871084A (zh) | 蓝印花布图案识别方法 | |
CN118037610B (zh) | 一种针对复杂环境的水尺图像畸变校正方法和系统 | |
Zhang et al. | Cloud Detection Method Using Convolutional Neural Network Based on Cascaded Color and Texture Feature Attention |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20180529 |