[go: up one dir, main page]

CN111402303A - 一种基于kfstrcf的目标跟踪架构 - Google Patents

一种基于kfstrcf的目标跟踪架构 Download PDF

Info

Publication number
CN111402303A
CN111402303A CN202010095828.5A CN202010095828A CN111402303A CN 111402303 A CN111402303 A CN 111402303A CN 202010095828 A CN202010095828 A CN 202010095828A CN 111402303 A CN111402303 A CN 111402303A
Authority
CN
China
Prior art keywords
strcf
matrix
time
discrete
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202010095828.5A
Other languages
English (en)
Inventor
冯晟
黄义行
韩小龙
吴明静
王璇
柏人杰
苏霖欣
邓鹏程
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Shaoxing
Original Assignee
University of Shaoxing
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Shaoxing filed Critical University of Shaoxing
Priority to CN202010095828.5A priority Critical patent/CN111402303A/zh
Publication of CN111402303A publication Critical patent/CN111402303A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/223Analysis of motion using block-matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于KFSTRCF的目标跟踪架构,包括离散时间卡尔曼估计器DKE以及STRCF,DKE包括离散时间系统测量以及离散时间系统副本子系统;STRCF的目标跟踪结果输出作为离散时间系统测量中观测模型的测量值输入,通过离散时间系统副本子系统对DKE的模型进行更新,获得状态估计观测更新方程。本发明将卡尔曼滤波器与STRCF相结合实现视觉跟踪,以克服由于大规模应用变化带来的不稳定性问题;并且,还引入步长控制方法来限制所提出的框架的输出状态的最大振幅,以克服由突然加速和转向引起的丢失目标问题,在大多数情况下都优于STRCF,特别是在体育赛事中,表现出比竞争对手更好的性能和更强的鲁棒性。

Description

一种基于KFSTRCF的目标跟踪架构
技术领域:
本发明涉及计算机视觉的目标跟踪技术领域,具体涉及一种基于 KFSTRCF的目标跟踪架构。
背景技术:
近年来,视觉跟踪技术在计算机视觉领域得到了广泛的应用,借助于共享代码和数据集,如OTB-2015和Temple-Color,我们可以使用各种评估标准来了解该视觉跟踪方法如何执行,并确定这些领域未来的研究方向。在许多现实场景中,只要获得图像序列帧中目标对象的初始状态(如位置和大小),视觉跟踪算法就可以对后续帧中的目标进行跟踪。虽然几十年来许多研究者都在努力提高跟踪性能,但仍然存在许多具有挑战性的问题,如背景杂波、遮挡以及视场外等,至今还没有一种算法能在所有场景下都表现出优异的性能。因此,为了克服现有跟踪器的缺点,设计出更为健壮的跟踪方法法是至关重要的。
如今,许多国家的最先进的跟踪器的源代码已经公开可用,并在实时救灾场景中实现态势感知,但一些跟踪器采用的策略是通过增加复杂性的代价来提高跟踪精度;相反,排名第一的跟踪器,时空正则相关滤波器 (spatial-temporal regularized correlationfilters,STRCF)能够以5倍的速度实现实时视觉跟踪,并提供比其竞争对手空间正则判别相关滤波器(spatially regularized discriminative correlation filters,SRDCF)更为健壮的外观模型。利用多种训练样本,STRCF可以实现对SRDCF的合理逼近,并对大尺度外观变化具有鲁棒性。利用乘法器交替方向法(alternating direction method ofmultipliers,ADMM),可以有效地求出STRCF的解。然而,这种方法在背景杂波、光照变化、遮挡、平面外旋转和视场外等方面仍有改进的潜力。特别是对于应用的大规模变化中,仍然存在不稳定性问题。
由于自然灾害的破坏性和人类无法到达特点,自主移动机器人是探索未知灾后地区实现救灾的替代选择。由于卡尔曼滤波(Kalman filter,KF)能够平滑和优化定位算法的目标状态,为了提高移动机器人的定位精度,KF成为解决定位误差校正的有力手段。尤其是对于无线传感器网络(wireless sensor networks,WSN)中的网络盲区,仿真和实验结果表明,基于卡尔曼滤波的改进最大似然估计(Kalman filtered grid-based improvedmaximum likelihood estimation,KGIMLE)可以有效地降低环境噪声,提高节点部署不佳的网络盲点中的定位精度。WSN环境噪声和网络盲区中的副作用类似于视觉跟踪中的背景杂波、光照变化、遮挡、平面外旋转和视场外现象。因此,将KF技术与最先进的跟踪器相结合,对计算机视觉领域中各种场景下的视觉跟踪误差进行校正,提高跟踪性能是一种合理的解决方案。
申请号为201910988383.0的中国发明专利公开一种基于STRCF的抗遮挡目标跟踪方法,该方法中通过遮挡判断函数与阈值的关系、以及分块匹配数与阈值的关系来决定是否运行卡尔曼滤波器,一旦判断函数不符合条件,则只能执行STRCF跟踪,并没有将卡尔曼滤波器与STRCF真正有效结合应用,在需要图片帧环节,卡尔曼滤波器并没有参加到目标跟踪中,甚至放弃了对于卡尔曼增益等模型的更新,无法对目标进行连续跟踪,并传播随机动态干扰和传感器噪声的均方不确定性等知识到后续帧的目标跟踪。并且,该方法中使用卡尔曼滤波器对待检测目标进行位置估计时增加了二次检测,这是在卡尔曼模型更新之前完成的,不仅增加了更新模型的噪声干扰,也降低了卡尔曼滤波器对于目标状态的随机动态干扰和传感器噪声的均方不确定性等知识的学习和理解能力。
由于我们关注的是灾后救援行动中的智能监控,因此,跟踪对象的连续运动状态是人工智能(artificial intelligent,AI)了解其在感兴趣区域(region of interest,ROI)中的行为和目的的关键信息。一方面,跟踪对象的运动状态应该是连续的,以使当前轨迹平滑到前一轨迹。另一方面,跟踪对象的运动状态应该对新实例的修改敏感。为了解决在各种情况下跟踪目标状态的视觉跟踪优化问题(visual tracking optimizationproblem,VTOP),我们提出了一种新颖的基于卡尔曼滤波的时空正则相关滤波器(KFSTRCF)框架来平滑和优化在大规模应用变化中排名靠前的STRCF跟踪器的估计结果,该框架既保持了 STRCF良好实时跟踪性能,又提高了背景杂波、光照变化、遮挡、平面外旋转和视场外等因素的跟踪精度。并且,我们还引入步长控制方法来限制所提出的框架的输出状态的最大振幅,以克服由突然加速和转向引起的丢失目标问题,本案由此而生。
发明内容:
本发明旨在有效地解决目标跟踪中背景杂波、光照变化、遮挡、平面外旋转和视场外等因素对大规模应用中定位算法目标状态的平滑和优化问题,提出一种基于KFSTRCF的目标跟踪架构,不仅保持了STRCF优秀实时跟踪性能,还克服了大规模应用变化带来的不稳定性问题。
为了实现上述发明目的,本发明所采用的技术方案为:
一种基于KFSTRCF的目标跟踪架构,包括离散时间卡尔曼估计器DKE 以及STRCF,所述DKE包括离散时间系统测量以及离散时间系统副本子系统;所述STRCF的目标跟踪结果输出作为离散时间系统测量中观测模型的测量值输入,通过离散时间系统副本子系统对DKE的模型进行更新,获得状态估计观测更新方程。
所述离散时间系统副本子系统更新后的输出环节,通过步长控制环节来限制整个目标跟踪架构输出状态最大振幅,所述步长控制具体如下:
定义最大步长为:lenmax=v×dt.,v表示跟踪目标的速度,t为采样时刻;
建立以下条件约束:
Figure RE-GDA0002478527130000041
上式中,
Figure RE-GDA0002478527130000042
表示
Figure RE-GDA0002478527130000043
的第1行和第1列元素,xt(1,1)表示xt的第1行和第1列元素;xt表示DKE目标运动输入状态向量,
Figure RE-GDA0002478527130000044
表示输出状态向量后验值。
所述离散时间系统测量中的系统动态模型如下:
xt=Μxt-1+Γut-1.
其中,xt表示DKE目标的n×1维运动输入状态向量,ut-1表示控制状态的 r×1维确定性输入向量,t为采样时刻;Μ表示n×n维状态转移矩阵,它是一个时不变矩阵;Γ表示n×r维离散时间输入耦合矩阵,它是一个时不变矩阵;
用目标的速度v将状态转移矩阵定义为:
Figure RE-GDA0002478527130000045
使用单位矩阵I来描述离散时间输入耦合矩阵Γ;
确定性输入向量可由下式确定,e表示环境噪声:
Figure RE-GDA0002478527130000046
利用测量值更新目标的跟踪结果,将测量值Zt和跟踪结果xt之间的线性相关方程定义为:
zt=Νxt+υ.
其中,Ν表示测量灵敏度矩阵,它是时不变矩阵,采用系统中的n×n维单位矩阵I;υ表示测量噪声,它是一个常数参数[1 0]T
所述STRCF与DKE的融合方式具体如下:
针对STRCF,将离散采样时刻t的每个样本表示为
Figure RE-GDA0002478527130000051
由S 个特征映射组成,其大小为M×N;并且yt是预定义的高斯形状标签,通过最小化以下目标函数来实现STRCF模型:
Figure RE-GDA0002478527130000052
其中Hadamard积表示为·,卷积算子表示为*,wt和ft分别表示空间正则化矩阵和相关滤波器;将第(t-1)帧的STRCF结果表示为ft-1,惩罚参数表示为σ,
Figure RE-GDA0002478527130000053
和||ft-ft-1||2代表空间正则化和时间正则化;
由于上述模型是凸函数,STRCF可以通过ADMM算法最小化公式(1)得到全局最优解,因此,将辅助变量表示为gt,并要求ft=gt和将步长参数表示为ρ,然后将公式(1)的增广拉格朗日形式表示为:
Figure RE-GDA0002478527130000054
其中
Figure RE-GDA0002478527130000055
st是拉格朗日乘数,σ是惩罚因子;
基于式(1),相关滤波器
Figure RE-GDA0002478527130000056
表示在采样时刻t第s特征层的M×N卷积滤波器,滤波器ft对样本xt的卷积响应为:
Figure RE-GDA0002478527130000057
通过求解数目为M×N的S×S线性方程组,可以得到离散傅里叶变换滤波器为:
Figure RE-GDA0002478527130000061
由于STRCF以滑动窗口的方式计算帧的所有循环移位上的分类分数,因此使用DFT的卷积特性来获得第t帧中所有像素的分类分数
Figure RE-GDA00024785271300000613
为:
Figure RE-GDA0002478527130000062
其中,运算符·表示逐点乘法,bar运算符表示DFT运算,而运算符Δ-1表示 DFT的逆运算。
在检测阶段,通过使用在第(t-1)帧中更新后的滤波器
Figure RE-GDA0002478527130000063
来定位在t时刻新实例中的目标,由于在式(2)中使用了步长ρ大于一个像素的网格策略,因此通过计算DFT系数,从而应用三角多项式来有效地插值分类分数,即:首先,将分类分数
Figure RE-GDA0002478527130000064
的DFT定义为:
Figure RE-GDA0002478527130000065
其次,定义了样本xt针对第u个虚单元中图像坐标
Figure RE-GDA0002478527130000066
处的插值检测分数
Figure RE-GDA0002478527130000067
为:
Figure RE-GDA0002478527130000068
通过评估在所有像素位置的检测得分d(m,n)来定义最大检测得分
Figure RE-GDA0002478527130000069
Figure RE-GDA00024785271300000610
其中,图像坐标
Figure RE-GDA00024785271300000611
穿过样本xt中的所有像素位置,
Figure RE-GDA00024785271300000612
然后,利用Newton方法从像素(0,0)开始寻找最大得分,通过计算式(15)中梯度和Hessian的差分,通过有限次数的迭代得到收敛;
最后,在测量模型中应用STRCF的跟踪结果
Figure RE-GDA0002478527130000071
实现STRCF算法与DKE的融合,有:
Figure RE-GDA0002478527130000072
所述DKE中的误差协方差获得方法如下:
将跟踪结果的传播估计误差的期望值定义为:
Figure RE-GDA0002478527130000073
并将状态估计的先验值定义为:
Figure RE-GDA0002478527130000074
其中,
Figure RE-GDA0002478527130000075
表示为xt的预先估计,
Figure RE-GDA0002478527130000076
表示为先验估计
Figure RE-GDA0002478527130000077
的传播估计误差,
Figure RE-GDA0002478527130000078
表示为xt-1的后验估计;
因此,可以得到误差协方差矩阵为:
Figure RE-GDA0002478527130000079
其中,w设为一个常数[1 0]T,将Q定义为环境噪声矩阵,并表示为eI,e表示环境噪声,I表示n×n维单位矩阵,这表明误差协方差矩阵在t时刻的先验值是其t-1时刻的后验值函数;
由于先验协方差矩阵是式(18),它满足以下方程:
Figure RE-GDA00024785271300000710
因此,可以得到卡尔曼增益为:
Figure RE-GDA0002478527130000081
其中,R表示n×n维测量噪声矩阵,它是时不变矩阵eI;
此外,基于式(18)可得到后验协方差矩阵的相似方程为:
Figure RE-GDA0002478527130000082
因此,又可以得到状态估计观测的更新方程为:
Figure RE-GDA0002478527130000083
又可以写为:
Figure RE-GDA0002478527130000084
最后,基于期望
Figure RE-GDA0002478527130000085
和式(23),可以得到误差协方差的更新方程为:
Figure RE-GDA0002478527130000086
本发明为了在不同的评估标准下寻求最优的跟踪精度和鲁棒性,并有助于灾后救援行动中的智能监控,提出了一种新的目标跟踪架构,即:融合KF 和STRCF进行视觉跟踪,STRCF的目标跟踪结果作为DKE的观测模型的测量值参加到DKE的计算中,视频流中的每一帧都完整无缺的成为DKE的输入数据,实现了目标跟踪的连续性和完整性,符合“连续思考,离散处理”原则,克服了大规模应用变化带来的不稳定性问题。然后,为了解决由突然加速和转向引起的丢失目标问题,采用步长控制方法来限制框架的输出状态的最大幅值;以步长控制方法作为误差修正机制,在DKE的模型更新后执行,不会影响到DKE对于目标当前状态和随机动态干扰和传感器噪声的均方不确定性等知识的学习和理解,只是在输出阶段,对于存在明显偏差的估计结果进行误差修正,是对现有方法的改进和补充。
本发明所给出的DKE协方差方程没有有限的稳态值,这表明本发明的架构性能在很大程度上取决于环境噪声和目标运动特性。经过大规模实验验证,本发明给出的KFSTRCF架构在大多数情况下都优于STRCF,特别是在体育赛事中,表现出比竞争对手更好的性能和更强的鲁棒性。
附图说明:
图1为本发明基于KFSTRCF目标跟踪架构示意图。
具体实施方式:
本实施例公开一种基于KFSTRCF的目标跟踪架构,如图1所示,主要包括离散时间卡尔曼估计器DKE以及STRCF,DKE包括离散时间系统测量以及离散时间系统副本子系统;STRCF的目标跟踪结果输出作为离散时间系统测量中观测模型的测量值输入,通过离散时间系统副本子系统对DKE的模型进行更新,获得状态估计观测更新方程。下面,将结合附图对本发明所涉及的内容展开详细介绍。
本发明所公开的基于KFSTRCF的目标跟踪架构,主要用于在大规模应用变化中平滑和优化定位算法的目标状态。为了有效地描述目标的运动模型,并保持STRCF良好的实时跟踪性能,我们提出了一种基于KF的视觉跟踪方法,采用基于离散时间卡尔曼估计器(discrete-time Kalman estimator,DKE) 优化STRCF算法输出结果,克服了后续帧的不稳定性问题。与此同时,为了解决由突然加速和转向引起的丢失目标问题,我们提出了一种步长控制方法来限制所提出的框架的输出状态的最大幅值,它是对现实场景中物体运动规律的合理约束。为了分析图1中架构的跟踪性能,我们还验证了本发明的DKE 的协方差方程没有有限的稳态值,该架构的性能主要取决于环境噪声和目标运动特性。以下展开详细说明。
STRCF提出了一种比SRDCF更为稳健的外观模型,并将空间和时间正则化结合到DCF框架中。STRCF利用ADMM算法有效地寻找闭式解,并在很少的迭代次数内实现收敛。采用手工提取的特征,STRCF可以实时运行,比SRDCF具有更好的跟踪精度。
针对STRCF,我们将离散采样时刻t的每个样本表示为
Figure RE-GDA0002478527130000101
由 S个特征映射组成,其大小为M×N。并且yt是预定义的高斯形状标签。我们通过最小化以下目标函数来实现STRCF模型:
Figure RE-GDA0002478527130000102
其中Hadamard积表示为·,卷积算子表示为*,wt和ft分别表示空间正则化矩阵和相关滤波器。我们还将第(t-1)帧的STRCF结果表示为ft-1,惩罚参数表示为σ。
Figure RE-GDA0002478527130000103
和||ft-ft-1||2代表空间正则化和时间正则化。
由于上述模型是凸函数,STRCF可以通过ADMM算法最小化式(1)得到全局最优解。因此,我们将辅助变量表示为gt,并要求ft=gt和将步长参数表示为ρ。然后我们可以将(1)的增广拉格朗日形式表示为:
Figure RE-GDA0002478527130000104
其中
Figure RE-GDA0002478527130000105
st是拉格朗日乘数,σ是惩罚因子。
我们可以通过ADMM算法将上述模型分解为以下可选子问题:
Figure RE-GDA0002478527130000106
上述ft,gt和ρ的解可以在文献中找到(F.Li,C.Tian,W.Zuo,et al,Learningspatial-temporal regularized correlation filters for visual tracking,Proceedings ofthe IEEE Conference on Computer Vision and Pattern Recognition(2018)4904-4913.)。STRCF算法的总成本是O(SMNlog(MN)NM),其中NM是最大迭代次数。
虽然STRCF能以5倍的速度实现实时的视觉跟踪,并提供比竞争对手 SRDCF更为健壮的外观模型,但对于应用的大规模变化,仍然存在不稳定性问题。正因为如此,我们提出的架构将KF算法集成到STRCF模型中,有效地解决了这个问题,因为它可以在数学上传播跟踪对象的当前运动状态的知识,包括来自随机动态干扰和传感器噪声的均方不确定性。这些特性对估计模型的统计分析和设计具有重要意义。
我们首先引入KF算法,要求STRCF的当前输出状态作为KF算法的初始状态。在我们的KFSTRCF架构中,当每轮出现一个新的实例时,STRCF 首先预测其标签并定位目标的质心,然后提取目标的当前运动状态,并将它们反馈给KF算法。此外,我们还可以通过KF模型实现误差修正。最后,通过对KF模型的更新,可以实现更为稳健的目标定位,并传播随机动态干扰和传感器噪声的均方不确定性等知识。
为了澄清我们的目标,我们提出了我们的优化问题是将我们的KFSTRCF 与STRCF相比较,如何实现最大的改进。我们用符号Inc表示成功率的曲线下面积(area under thecurve,AUC)的增加:
Inc=aucKFSTRCF-aucSTRCF. (4)
因此,aucKFSTRCF和aucSTRCF是KFSTRCF和STRCF的成功率AUC得分。
因此,我们的视觉跟踪优化问题(visual tracking optimization problem,VTOP)可以表述为:
Figure RE-GDA0002478527130000111
subject to
Figure RE-GDA0002478527130000121
and
Figure RE-GDA0002478527130000122
其中,
Figure RE-GDA0002478527130000123
表示在离散采样时刻t的每个样本,包括S个特征映射,其大小为M×N。
Figure RE-GDA0002478527130000124
表示在t采样时刻第s个特征层的M×N卷积滤波器。xt表示本文提出的DKE的目标运动状态向量。
Figure RE-GDA0002478527130000125
and
Figure RE-GDA0002478527130000126
表示第t帧的水平和垂直图像坐标,
Figure RE-GDA0002478527130000127
此外,我们定义stt为离散线性系统针对t时刻的感兴趣采样时间。因此我们可以得到时间间隔dt为dt=stt-stt-1
为了降低随机动态干扰和传感器噪声的风险,我们遵循连续思考和离散处理的原则。因此,我们利用DKE来描述目标的连续运动状态以及对新实例的修正。系统动态模型可以描述为:
xt=Μxt-1+Γut-1. (8)
其中,xt表示目标的n×1维运动状态向量,ut-1表示控制状态的r×1维确定性输入向量。Μ表示n×n维状态转移矩阵,它是一个时不变矩阵。Γ表示n×r维离散时间输入耦合矩阵,它是一个时不变矩阵。
在初始阶段,我们设计了DKE的系统动态模型参数。我们利用第一帧的预定目标位置
Figure RE-GDA0002478527130000128
作为离散时间模型的输入。然后,我们设计了系统动力学模型的等效常数参数,以在感兴趣的采样时刻之间传播状态向量。首先,我们使用目标的速度v将状态转移矩阵定义为:
Figure RE-GDA0002478527130000129
其次,我们使用单位矩阵I来描述离散时间输入耦合矩阵Γ。最后,我们定义了基于步长控制方法的确定性输入向量ut
为了定义测量模型,我们可以得到每个采样时刻t的测量值。此外,利用测量值可以更新目标的跟踪结果xt。我们将测量值zt和跟踪结果xt之间的线性相关方程定义为:
zt=Νxt+υ. (10)
其中,Ν表示测量灵敏度矩阵,它是时不变矩阵,采用系统中的n×n维单位矩阵I。υ表示测量噪声,它是一个常数参数[1 0]T
为了准确地描述目标的运动状态,我们基于STRCF的估计结果定义DKE 的测量模型,因为STRCF在较大的外观变化情况下比其他算法具有更强的鲁棒性。
基于式(1),相关滤波器
Figure RE-GDA0002478527130000131
表示在采样时刻t第s特征层的M×N卷积滤波器。我们给出了滤波器ft对样本xt的卷积响应为:
Figure RE-GDA0002478527130000132
通过求解数目为M×N的S×S线性方程组,我们可以得到离散傅里叶变换(discrete Fourier transformed,DFT)滤波器为:
Figure RE-GDA0002478527130000133
由于STRCF以滑动窗口的方式计算帧的所有循环移位上的分类分数,因此我们使用DFT的卷积特性来获得第t帧中所有像素的分类分数
Figure RE-GDA0002478527130000134
为:
Figure RE-GDA0002478527130000135
其中,运算符·表示逐点乘法。bar运算符表示DFT运算,而运算符Δ-1表示DFT的逆运算。该方法的时间复杂度为O(SMNlogMN)。
此外,在检测阶段,我们通过使用在第(t-1)帧中更新后的滤波器
Figure RE-GDA0002478527130000141
来定位在t时刻新实例中的目标。由于我们在式(2)中使用了步长ρ大于一个像素的网格策略,因此我们通过计算DFT系数,从而应用三角多项式来有效地插值分类分数。首先,我们将分类分数
Figure RE-GDA0002478527130000142
的DFT定义为:
Figure RE-GDA0002478527130000143
其次,我们定义了样本xt针对第u个虚单元中图像坐标
Figure RE-GDA0002478527130000144
处的插值检测分数
Figure RE-GDA0002478527130000145
为:
Figure RE-GDA0002478527130000146
第三,我们通过评估在所有像素位置的检测得分d(m,n)来定义最大检测得分
Figure RE-GDA0002478527130000147
Figure RE-GDA0002478527130000148
其中,图像坐标
Figure RE-GDA0002478527130000149
穿过样本xt中的所有像素位置,
Figure RE-GDA00024785271300001410
然后,我们利用Newton方法从像素(0,0)开始寻找最大得分。通过计算式(15) 中梯度和Hessian的差分,我们可以通过有限次数的迭代得到收敛。
最后,我们可以在测量模型中应用STRCF的跟踪结果
Figure RE-GDA00024785271300001411
实现STRCF 算法与DKE的融合:
Figure RE-GDA00024785271300001412
为了获得DKE的误差协方差,我们将跟踪结果的传播估计误差的期望值定义为:
Figure RE-GDA0002478527130000151
并将状态估计的先验值定义为:
Figure RE-GDA0002478527130000152
因此,
Figure RE-GDA0002478527130000153
表示为xt的预先估计。
Figure RE-GDA0002478527130000154
表示为先验估计
Figure RE-GDA0002478527130000155
的传播估计误差。
Figure RE-GDA0002478527130000156
表示为xt-1的后验估计。
因此,我们可以得到误差协方差矩阵为:
Figure RE-GDA0002478527130000157
因此,w设为一个常数[1 0]T,那么我们可以将Q定义为环境噪声矩阵,并表示为eI。其中,e表示环境噪声,I表示n×n维单位矩阵。这表明误差协方差矩阵在t时刻的先验值是其t-1时刻的后验值函数。
由于先验协方差矩阵是式(18),它满足以下方程:
Figure RE-GDA0002478527130000158
因此,我们可以得到卡尔曼增益为:
Figure RE-GDA0002478527130000159
其中,R表示n×n维测量噪声矩阵,它是时不变矩阵eI。
此外,基于式(18)我们可得到后验协方差矩阵的相似方程为:
Figure RE-GDA00024785271300001510
因此,我们可以得到状态估计观测的更新方程为:
Figure RE-GDA0002478527130000161
Figure RE-GDA0002478527130000162
最后,基于期望
Figure RE-GDA0002478527130000163
和(23),我们可以得到误差协方差的更新方程为:
Figure RE-GDA0002478527130000164
另外,DKE的一个显著特点为即使无采样的协方差方程是不稳定的,测量估计不确定性的协方差方程仍然具有有限的稳态值。考虑到没有测量的情况,我们需要确定协方差方程的稳定性。这表明当t趋向于正无穷大时,解是否趋向于有限常数值。
命题1:假设采样时间t→+∞,我们将协方差方程定义为:
P=ΜPΜT+Q. (27)
如果我们将Μ定义为式(9),则协方差方程没有有限的稳态值。它与协方差P的初始值无关。
证明:因为我们将Μ定义为式(9),我们可以计算特征值为:
Figure RE-GDA0002478527130000165
因此,Μ的特征值是唯一值1。那么,它的复数形式是1+0i。从而得到它在复平面上的点是(1,0)。由于该点不在单位圆内,协方差方程没有解。
在现实世界中,跟踪目标可以自由地改变速度和方向。特别是当存在突然加速和转向时,跟踪算法不能进行正确的调整,导致跟踪目标在边界框中丢失。为了解决这个问题,我们提出了一种步长控制方法来限制我们架构的输出状态最大振幅。它是对现实场景中物体运动规律的合理约束。
为了更清楚地讨论KFSTRCF,图1描述了我们的系统架构。在大规模应用中(比如,OTB-2015数据集中的dragonbaby),我们可以建立基于式(8) 和式(10)的离散时间系统测量,并采用状态转移矩阵Μ和输入耦合矩阵Γ。然后,利用式(12)和式(13)得到第t帧(比如,dragonbaby的第65帧)中所有像素的分类分数
Figure RE-GDA0002478527130000171
将STRCF融合到我们的框架中,利用其更加健壮的外观模型。此外,我们可以通过式(14)和式(15)获得图像坐标处的插值检测分数
Figure RE-GDA0002478527130000172
而且,我们可以通过评估式(16)在所有像素位置的检测分数d(m,n)来确定最大检测得分
Figure RE-GDA0002478527130000173
这也是我们DKE的测量值zt。因此,在我们的体系结构的离散时间系统副本子系统中,我们可以通过式(25)得到状态估计观测的更新方程。最后,我们可以应用步长控制方法来纠正由于突然加速和转向导致跟踪算法失败而产生的显著偏差。通过在dragonbaby第65帧中的具有竞争力的实验结果表明,当STRCF在图1左侧边界框中失败时,我们的 KFSTRCF能够成功地将目标定位在右侧人脸处边界框中,特别是在运动项目中,KFSTRCF表现出卓越的性能。
接下来,我们详细介绍本发明提出的步长控制方法。首先,为了有效地控制跟踪结果的步长,我们需要清楚地分析框架的输入和输出状态。因此,我们应用奇异值分解(singular value decomposition,SVD)方法来深入了解状态矩阵的特性。我们将SVD函数定义为:
[L*,D*,R*]=svd(x). (29)
其中,x表示为目标的n×1维空间运动状态向量。如果x=xt,它表示我们框架的输入状态。如果
Figure RE-GDA0002478527130000174
它表示我们框架的输出状态。svd(·)函数将x分解为x=L*D*R*。L*表示n×n维矩阵,其列表示x的左特征向量。D*表示n×1维矩阵,其主对角线为按降序排列的非负元素,它表示x的奇异值,其它位置的元素为0。R*表示单一值,它表示x的右特征向量。
其次,通过求SVD矩阵中的最大值,我们可以得到最大奇异值,x的欧几里德范数定义为:
n*(x)=max(L*,D*,R*). (30)
第三,我们可以根据我们的框架的输入状态xt和输出状态
Figure RE-GDA0002478527130000181
之间的最大奇异值的差异来更新t≥0时刻确定性输入向量为:
Figure RE-GDA0002478527130000182
因此,我们可以根据框架的输入输出状态之间的关系,自动地稍微增加或减少确定性输入向量
Figure RE-GDA0002478527130000183
此外,我们可以得到
Figure RE-GDA0002478527130000184
这表明当t<0时我们关闭输入控制。该策略可以逐渐平滑由于突然加速和转向引起的跟踪结果的剧烈波动。
最后,为了修正由于跟踪算法失败引起的显著偏差,我们提出最大步长约束来将框架的输出状态限制在合理的范围。这表明如果跟踪算法不能在边界框中对目标进行定位,则所提出的约束条件应能提供符合真实场景中目标运动规律的合理结果。因此,我们定义最大步长为:
lenmax=v×dt. (32)
我们可以通过应用以下约束将跟踪目标限制在合理的范围内:
Figure RE-GDA0002478527130000191
因此,
Figure RE-GDA0002478527130000192
和xt(1,1)分别表示
Figure RE-GDA0002478527130000193
和xt的第1行、第1列元素。因此,无论跟踪目标如何改变速度和方向,目标的最大步长都应该在约束lenmax之内。即使在跟踪算法失效的情况下,也能为跟踪目标建立一个合理的出现区域。
最后,将对我们提出的目标跟踪架构进行全面评估,实验在OTB-2013、 OTB-2015和Temple-Color三个基准数据集上进行。
实验参数如下:
使用MATLAB R2018b进行了实验,计算机操作系统为Windows 8.1 64 位。CPU为i7-4500U,2核4线程。处理器的基频为1.8GHz,最大turbo频率为3GHz。RAM为8GB 1600GHz。GPU是AMD Radeon HD 8870M,具有775MHz的核心时钟和2048MB的图形内存。
实验参数列在表I中。为了实现集成STRCF的高性能,我们将惩罚因子σ和初始步长参数ρ设置为16和10。然后我们提取灰度、方向梯度直方图 (histogram of orientedgradient,HOG)和颜色名称(color names,CN)特征来描述跟踪目标。此外,为了提高计算效率,我们将迭代的最大次数NM设置为 2。由于我们需要提出的架构适应大规模的应用变化,因此融合的DKE参数应该在所有情况下都是一致和适当的。因此,我们将时间间隔dt、速度v和环境噪声e分别设置为恒定值0.5、50和1.0×10-3。最后,我们将不变矩阵维数n、 r、初始确定性输入向量u0和初始误差协方差矩阵P0(+)分别设为2、2、[1 1]T
Figure RE-GDA0002478527130000194
Figure RE-GDA0002478527130000201
通过实验对比验证,本发明公开的KFSTRCF架构与STRCF相比,在 OTB-2015数据集的重叠区域评价标准中,本方法对背景杂波、光照变化、遮挡、平面外旋转和视场外等因素的AUC得分分别提高了2.8%、2%、1.8%、 1.3%和2.4%。本发明公开的方法在OTB-2013、OTB-2015和Temple-Color数据集的某些特定类别中均优于STRCF方法,实现了计算机视觉中的最优视觉跟踪。

Claims (6)

1.一种基于KFSTRCF的目标跟踪架构,其特征在于:包括离散时间卡尔曼估计器DKE以及STRCF,所述DKE包括离散时间系统测量以及离散时间系统副本子系统;所述STRCF的目标跟踪结果输出作为离散时间系统测量中观测模型的测量值输入,通过离散时间系统副本子系统对DKE的模型进行更新,获得状态估计观测更新方程。
2.根据权利要求1所述的一种基于KFSTRCF的目标跟踪架构,其特征在于:所述离散时间系统副本子系统更新后的输出环节,通过步长控制环节来限制整个目标跟踪架构输出状态最大振幅,所述步长控制具体如下:
定义最大步长为:lenmax=v×dt.,v表示跟踪目标的速度,t为采样时刻;
建立以下条件约束:
Figure RE-FDA0002478527120000011
上式中,
Figure RE-FDA0002478527120000012
表示
Figure RE-FDA0002478527120000013
的第1行和第1列元素,xt(1,1)表示xt的第1行和第1列元素;xt表示DKE目标运动输入状态向量,
Figure RE-FDA0002478527120000014
表示输出状态向量后验值。
3.根据权利要求1或2所述的一种基于KFSTRCF的目标跟踪架构,其特征在于:所述离散时间系统测量中的系统动态模型如下:
xt=Μxt-1+Γut-1.
其中,xt表示DKE目标的n×1维运动输入状态向量,ut-1表示控制状态的r×1维确定性输入向量,t为采样时刻;Μ表示n×n维状态转移矩阵,它是一个时不变矩阵;Γ表示n×r维离散时间输入耦合矩阵,它是一个时不变矩阵;
用目标的速度v将状态转移矩阵定义为:
Figure RE-FDA0002478527120000021
使用单位矩阵I来描述离散时间输入耦合矩阵Γ;
确定性输入向量可由下式确定,e表示环境噪声:
Figure RE-FDA0002478527120000022
利用测量值更新目标的跟踪结果,将测量值Zt和跟踪结果xt之间的线性相关方程定义为:
zt=Νxt+υ.
其中,Ν表示测量灵敏度矩阵,它是时不变矩阵,采用系统中的n×n维单位矩阵I;υ表示测量噪声,它是一个常数参数[1 0]T
4.根据权利要求3所述的一种基于KFSTRCF的目标跟踪架构,其特征在于:所述STRCF与DKE的融合方式具体如下:
针对STRCF,将离散采样时刻t的每个样本表示为
Figure RE-FDA0002478527120000023
由S个特征映射组成,其大小为M×N;并且yt是预定义的高斯形状标签,通过最小化以下目标函数来实现STRCF模型:
Figure RE-FDA0002478527120000024
其中Hadamard积表示为·,卷积算子表示为*,wt和ft分别表示空间正则化矩阵和相关滤波器;将第(t-1)帧的STRCF结果表示为ft-1,惩罚参数表示为σ,
Figure RE-FDA0002478527120000025
和||ft-ft-1||2代表空间正则化和时间正则化;
由于上述模型是凸函数,STRCF可以通过ADMM算法最小化公式(1)得到全局最优解,因此,将辅助变量表示为gt,并要求ft=gt和将步长参数表示为ρ,然后将公式(1)的增广拉格朗日形式表示为:
Figure RE-FDA0002478527120000031
其中
Figure RE-FDA0002478527120000032
st是拉格朗日乘数,σ是惩罚因子;
基于式(1),相关滤波器
Figure RE-FDA0002478527120000033
表示在采样时刻t第s特征层的M×N卷积滤波器,滤波器ft对样本xt的卷积响应为:
Figure RE-FDA0002478527120000034
通过求解数目为M×N的S×S线性方程组,可以得到离散傅里叶变换滤波器为:
Figure RE-FDA0002478527120000035
由于STRCF以滑动窗口的方式计算帧的所有循环移位上的分类分数,因此使用DFT的卷积特性来获得第t帧中所有像素的分类分数
Figure RE-FDA0002478527120000036
为:
Figure RE-FDA0002478527120000037
其中,运算符·表示逐点乘法,bar运算符表示DFT运算,而运算符Δ-1表示DFT的逆运算。
5.根据权利要求4所述的一种基于KFSTRCF的目标跟踪架构,其特征在于:在检测阶段,通过使用在第(t-1)帧中更新后的滤波器
Figure RE-FDA0002478527120000038
来定位在t时刻新实例中的目标,由于在式(2)中使用了步长ρ大于一个像素的网格策略,因此通过计算DFT系数,从而应用三角多项式来有效地插值分类分数,即:首先,将分类分数
Figure RE-FDA0002478527120000041
的DFT定义为:
Figure RE-FDA0002478527120000042
其次,定义了样本xt针对第u个虚单元中图像坐标
Figure RE-FDA0002478527120000043
处的插值检测分数
Figure RE-FDA0002478527120000044
为:
Figure RE-FDA0002478527120000045
通过评估在所有像素位置的检测得分d(m,n)来定义最大检测得分
Figure RE-FDA0002478527120000046
Figure RE-FDA0002478527120000047
其中,图像坐标
Figure RE-FDA0002478527120000048
穿过样本xt中的所有像素位置,
Figure RE-FDA0002478527120000049
然后,利用Newton方法从像素(0,0)开始寻找最大得分,通过计算式(15)中梯度和Hessian的差分,通过有限次数的迭代得到收敛;
最后,在测量模型中应用STRCF的跟踪结果
Figure RE-FDA00024785271200000410
实现STRCF算法与DKE的融合,有:
Figure RE-FDA00024785271200000411
6.根据权利要求5所述的一种基于KFSTRCF的目标跟踪架构,其特征在于:所述DKE中的误差协方差获得方法如下:
将跟踪结果的传播估计误差的期望值定义为:
Figure RE-FDA00024785271200000412
并将状态估计的先验值定义为:
Figure RE-FDA0002478527120000051
其中,
Figure RE-FDA0002478527120000052
表示为xt的预先估计,
Figure RE-FDA0002478527120000053
表示为先验估计
Figure RE-FDA0002478527120000054
的传播估计误差,
Figure RE-FDA0002478527120000055
表示为xt-1的后验估计;
因此,可以得到误差协方差矩阵为:
Figure RE-FDA0002478527120000056
其中,w设为一个常数[1 0]T,将Q定义为环境噪声矩阵,并表示为eI,e表示环境噪声,I表示n×n维单位矩阵,这表明误差协方差矩阵在t时刻的先验值是其t-1时刻的后验值函数;
由于先验协方差矩阵是式(18),它满足以下方程:
Figure RE-FDA0002478527120000057
因此,可以得到卡尔曼增益为:
Figure RE-FDA0002478527120000058
其中,R表示n×n维测量噪声矩阵,它是时不变矩阵eI;
此外,基于式(18)可得到后验协方差矩阵的相似方程为:
Figure RE-FDA0002478527120000059
因此,又可以得到状态估计观测的更新方程为:
Figure RE-FDA00024785271200000510
又可以写为:
Figure RE-FDA00024785271200000511
最后,基于期望
Figure RE-FDA00024785271200000512
和式(23),可以得到误差协方差的更新方程为:
Figure RE-FDA0002478527120000061
CN202010095828.5A 2020-02-17 2020-02-17 一种基于kfstrcf的目标跟踪架构 Withdrawn CN111402303A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010095828.5A CN111402303A (zh) 2020-02-17 2020-02-17 一种基于kfstrcf的目标跟踪架构

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010095828.5A CN111402303A (zh) 2020-02-17 2020-02-17 一种基于kfstrcf的目标跟踪架构

Publications (1)

Publication Number Publication Date
CN111402303A true CN111402303A (zh) 2020-07-10

Family

ID=71430364

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010095828.5A Withdrawn CN111402303A (zh) 2020-02-17 2020-02-17 一种基于kfstrcf的目标跟踪架构

Country Status (1)

Country Link
CN (1) CN111402303A (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112132855A (zh) * 2020-09-22 2020-12-25 山东工商学院 基于前景分割引导的自适应高斯函数的目标跟踪方法
CN113326469A (zh) * 2021-08-02 2021-08-31 南京信息工程大学 一种基于分级状态机的信号解耦方法
CN113838093A (zh) * 2021-09-24 2021-12-24 重庆邮电大学 基于空间正则化相关滤波器的自适应多特征融合跟踪方法
CN114677411A (zh) * 2022-04-07 2022-06-28 辽宁工程技术大学 一种联合卡尔曼滤波的自适应时间正则化无人机目标跟踪方法
CN115808683A (zh) * 2023-02-08 2023-03-17 安徽隼波科技有限公司 一种雷达光电联动跟踪方法
US20230115723A1 (en) * 2021-09-30 2023-04-13 International Business Machines Corporation Complexity based artificial intelligence model training
CN115984325A (zh) * 2022-12-30 2023-04-18 辽宁工程技术大学 一种靶向寻量时空正则化的目标跟踪方法
CN119945245A (zh) * 2025-04-08 2025-05-06 绍兴文理学院 一种深海机器人驱动电机均流热平衡方法

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112132855B (zh) * 2020-09-22 2022-05-20 山东工商学院 基于前景分割引导的自适应高斯函数的目标跟踪方法
CN112132855A (zh) * 2020-09-22 2020-12-25 山东工商学院 基于前景分割引导的自适应高斯函数的目标跟踪方法
CN113326469A (zh) * 2021-08-02 2021-08-31 南京信息工程大学 一种基于分级状态机的信号解耦方法
CN113838093B (zh) * 2021-09-24 2024-03-19 重庆邮电大学 基于空间正则化相关滤波器的自适应多特征融合跟踪方法
CN113838093A (zh) * 2021-09-24 2021-12-24 重庆邮电大学 基于空间正则化相关滤波器的自适应多特征融合跟踪方法
US20230115723A1 (en) * 2021-09-30 2023-04-13 International Business Machines Corporation Complexity based artificial intelligence model training
CN114677411A (zh) * 2022-04-07 2022-06-28 辽宁工程技术大学 一种联合卡尔曼滤波的自适应时间正则化无人机目标跟踪方法
CN114677411B (zh) * 2022-04-07 2024-11-29 辽宁工程技术大学 一种联合卡尔曼滤波的自适应时间正则化无人机目标跟踪方法
CN115984325A (zh) * 2022-12-30 2023-04-18 辽宁工程技术大学 一种靶向寻量时空正则化的目标跟踪方法
CN115808683A (zh) * 2023-02-08 2023-03-17 安徽隼波科技有限公司 一种雷达光电联动跟踪方法
CN115808683B (zh) * 2023-02-08 2023-04-07 安徽隼波科技有限公司 一种雷达光电联动跟踪方法
CN119945245A (zh) * 2025-04-08 2025-05-06 绍兴文理学院 一种深海机器人驱动电机均流热平衡方法
CN119945245B (zh) * 2025-04-08 2025-07-04 绍兴文理学院 一种深海机器人驱动电机均流热平衡方法

Similar Documents

Publication Publication Date Title
CN111402303A (zh) 一种基于kfstrcf的目标跟踪架构
Yan et al. STDMANet: Spatio-temporal differential multiscale attention network for small moving infrared target detection
CN107767405B (zh) 一种融合卷积神经网络的核相关滤波目标跟踪方法
CN110533691B (zh) 基于多分类器的目标跟踪方法、设备和存储介质
CN106952288B (zh) 基于卷积特征和全局搜索检测的长时遮挡鲁棒跟踪方法
CN110276785B (zh) 一种抗遮挡红外目标跟踪方法
CN107481264A (zh) 一种自适应尺度的视频目标跟踪方法
Xue et al. Low-rank approximation and multiple sparse constraint modeling for infrared low-flying fixed-wing UAV detection
CN108416266A (zh) 一种利用光流提取运动目标的视频行为快速识别方法
Feng et al. Kalman filter for spatial-temporal regularized correlation filters
CN110827262B (zh) 一种基于连续有限帧红外图像的弱小目标检测方法
CN103345735A (zh) 一种基于Kalman滤波器的压缩时空多传感器融合跟踪方法
CN110751097B (zh) 一种半监督的三维点云手势关键点检测方法
CN107832716B (zh) 基于主动被动高斯在线学习的异常检测方法
CN111429485B (zh) 基于自适应正则化和高信度更新的跨模态滤波跟踪方法
CN106548194B (zh) 二维图像人体关节点定位模型的构建方法及定位方法
CN110458235A (zh) 一种视频中运动姿势相似度比对方法
Chen et al. Deep learning for integrated hand detection and pose estimation
CN110033472A (zh) 一种复杂红外地面环境下的稳定目标跟踪方法
Kwon et al. Visual tracking via particle filtering on the affine group
CN105354863A (zh) 基于特征滤波和快速运动检测模板预测的自适应尺度图像序列目标跟踪方法
CN106887012A (zh) 一种基于循环矩阵的快速自适应多尺度目标跟踪方法
Feng Mask RCNN-based single shot multibox detector for gesture recognition in physical education
CN106780567A (zh) 一种融合颜色和梯度直方图的免疫粒子滤波扩展目标跟踪方法
CN106570889A (zh) 一种检测红外视频中弱小目标的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20200710