CN111402303A - 一种基于kfstrcf的目标跟踪架构 - Google Patents
一种基于kfstrcf的目标跟踪架构 Download PDFInfo
- Publication number
- CN111402303A CN111402303A CN202010095828.5A CN202010095828A CN111402303A CN 111402303 A CN111402303 A CN 111402303A CN 202010095828 A CN202010095828 A CN 202010095828A CN 111402303 A CN111402303 A CN 111402303A
- Authority
- CN
- China
- Prior art keywords
- strcf
- matrix
- time
- discrete
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/223—Analysis of motion using block-matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于KFSTRCF的目标跟踪架构,包括离散时间卡尔曼估计器DKE以及STRCF,DKE包括离散时间系统测量以及离散时间系统副本子系统;STRCF的目标跟踪结果输出作为离散时间系统测量中观测模型的测量值输入,通过离散时间系统副本子系统对DKE的模型进行更新,获得状态估计观测更新方程。本发明将卡尔曼滤波器与STRCF相结合实现视觉跟踪,以克服由于大规模应用变化带来的不稳定性问题;并且,还引入步长控制方法来限制所提出的框架的输出状态的最大振幅,以克服由突然加速和转向引起的丢失目标问题,在大多数情况下都优于STRCF,特别是在体育赛事中,表现出比竞争对手更好的性能和更强的鲁棒性。
Description
技术领域:
本发明涉及计算机视觉的目标跟踪技术领域,具体涉及一种基于 KFSTRCF的目标跟踪架构。
背景技术:
近年来,视觉跟踪技术在计算机视觉领域得到了广泛的应用,借助于共享代码和数据集,如OTB-2015和Temple-Color,我们可以使用各种评估标准来了解该视觉跟踪方法如何执行,并确定这些领域未来的研究方向。在许多现实场景中,只要获得图像序列帧中目标对象的初始状态(如位置和大小),视觉跟踪算法就可以对后续帧中的目标进行跟踪。虽然几十年来许多研究者都在努力提高跟踪性能,但仍然存在许多具有挑战性的问题,如背景杂波、遮挡以及视场外等,至今还没有一种算法能在所有场景下都表现出优异的性能。因此,为了克服现有跟踪器的缺点,设计出更为健壮的跟踪方法法是至关重要的。
如今,许多国家的最先进的跟踪器的源代码已经公开可用,并在实时救灾场景中实现态势感知,但一些跟踪器采用的策略是通过增加复杂性的代价来提高跟踪精度;相反,排名第一的跟踪器,时空正则相关滤波器 (spatial-temporal regularized correlationfilters,STRCF)能够以5倍的速度实现实时视觉跟踪,并提供比其竞争对手空间正则判别相关滤波器(spatially regularized discriminative correlation filters,SRDCF)更为健壮的外观模型。利用多种训练样本,STRCF可以实现对SRDCF的合理逼近,并对大尺度外观变化具有鲁棒性。利用乘法器交替方向法(alternating direction method ofmultipliers,ADMM),可以有效地求出STRCF的解。然而,这种方法在背景杂波、光照变化、遮挡、平面外旋转和视场外等方面仍有改进的潜力。特别是对于应用的大规模变化中,仍然存在不稳定性问题。
由于自然灾害的破坏性和人类无法到达特点,自主移动机器人是探索未知灾后地区实现救灾的替代选择。由于卡尔曼滤波(Kalman filter,KF)能够平滑和优化定位算法的目标状态,为了提高移动机器人的定位精度,KF成为解决定位误差校正的有力手段。尤其是对于无线传感器网络(wireless sensor networks,WSN)中的网络盲区,仿真和实验结果表明,基于卡尔曼滤波的改进最大似然估计(Kalman filtered grid-based improvedmaximum likelihood estimation,KGIMLE)可以有效地降低环境噪声,提高节点部署不佳的网络盲点中的定位精度。WSN环境噪声和网络盲区中的副作用类似于视觉跟踪中的背景杂波、光照变化、遮挡、平面外旋转和视场外现象。因此,将KF技术与最先进的跟踪器相结合,对计算机视觉领域中各种场景下的视觉跟踪误差进行校正,提高跟踪性能是一种合理的解决方案。
申请号为201910988383.0的中国发明专利公开一种基于STRCF的抗遮挡目标跟踪方法,该方法中通过遮挡判断函数与阈值的关系、以及分块匹配数与阈值的关系来决定是否运行卡尔曼滤波器,一旦判断函数不符合条件,则只能执行STRCF跟踪,并没有将卡尔曼滤波器与STRCF真正有效结合应用,在需要图片帧环节,卡尔曼滤波器并没有参加到目标跟踪中,甚至放弃了对于卡尔曼增益等模型的更新,无法对目标进行连续跟踪,并传播随机动态干扰和传感器噪声的均方不确定性等知识到后续帧的目标跟踪。并且,该方法中使用卡尔曼滤波器对待检测目标进行位置估计时增加了二次检测,这是在卡尔曼模型更新之前完成的,不仅增加了更新模型的噪声干扰,也降低了卡尔曼滤波器对于目标状态的随机动态干扰和传感器噪声的均方不确定性等知识的学习和理解能力。
由于我们关注的是灾后救援行动中的智能监控,因此,跟踪对象的连续运动状态是人工智能(artificial intelligent,AI)了解其在感兴趣区域(region of interest,ROI)中的行为和目的的关键信息。一方面,跟踪对象的运动状态应该是连续的,以使当前轨迹平滑到前一轨迹。另一方面,跟踪对象的运动状态应该对新实例的修改敏感。为了解决在各种情况下跟踪目标状态的视觉跟踪优化问题(visual tracking optimizationproblem,VTOP),我们提出了一种新颖的基于卡尔曼滤波的时空正则相关滤波器(KFSTRCF)框架来平滑和优化在大规模应用变化中排名靠前的STRCF跟踪器的估计结果,该框架既保持了 STRCF良好实时跟踪性能,又提高了背景杂波、光照变化、遮挡、平面外旋转和视场外等因素的跟踪精度。并且,我们还引入步长控制方法来限制所提出的框架的输出状态的最大振幅,以克服由突然加速和转向引起的丢失目标问题,本案由此而生。
发明内容:
本发明旨在有效地解决目标跟踪中背景杂波、光照变化、遮挡、平面外旋转和视场外等因素对大规模应用中定位算法目标状态的平滑和优化问题,提出一种基于KFSTRCF的目标跟踪架构,不仅保持了STRCF优秀实时跟踪性能,还克服了大规模应用变化带来的不稳定性问题。
为了实现上述发明目的,本发明所采用的技术方案为:
一种基于KFSTRCF的目标跟踪架构,包括离散时间卡尔曼估计器DKE 以及STRCF,所述DKE包括离散时间系统测量以及离散时间系统副本子系统;所述STRCF的目标跟踪结果输出作为离散时间系统测量中观测模型的测量值输入,通过离散时间系统副本子系统对DKE的模型进行更新,获得状态估计观测更新方程。
所述离散时间系统副本子系统更新后的输出环节,通过步长控制环节来限制整个目标跟踪架构输出状态最大振幅,所述步长控制具体如下:
定义最大步长为:lenmax=v×dt.,v表示跟踪目标的速度,t为采样时刻;
建立以下条件约束:
所述离散时间系统测量中的系统动态模型如下:
xt=Μxt-1+Γut-1.
其中,xt表示DKE目标的n×1维运动输入状态向量,ut-1表示控制状态的 r×1维确定性输入向量,t为采样时刻;Μ表示n×n维状态转移矩阵,它是一个时不变矩阵;Γ表示n×r维离散时间输入耦合矩阵,它是一个时不变矩阵;
用目标的速度v将状态转移矩阵定义为:
使用单位矩阵I来描述离散时间输入耦合矩阵Γ;
确定性输入向量可由下式确定,e表示环境噪声:
利用测量值更新目标的跟踪结果,将测量值Zt和跟踪结果xt之间的线性相关方程定义为:
zt=Νxt+υ.
其中,Ν表示测量灵敏度矩阵,它是时不变矩阵,采用系统中的n×n维单位矩阵I;υ表示测量噪声,它是一个常数参数[1 0]T。
所述STRCF与DKE的融合方式具体如下:
其中Hadamard积表示为·,卷积算子表示为*,wt和ft分别表示空间正则化矩阵和相关滤波器;将第(t-1)帧的STRCF结果表示为ft-1,惩罚参数表示为σ,和||ft-ft-1||2代表空间正则化和时间正则化;
由于上述模型是凸函数,STRCF可以通过ADMM算法最小化公式(1)得到全局最优解,因此,将辅助变量表示为gt,并要求ft=gt和将步长参数表示为ρ,然后将公式(1)的增广拉格朗日形式表示为:
通过求解数目为M×N的S×S线性方程组,可以得到离散傅里叶变换滤波器为:
其中,运算符·表示逐点乘法,bar运算符表示DFT运算,而运算符Δ-1表示 DFT的逆运算。
在检测阶段,通过使用在第(t-1)帧中更新后的滤波器来定位在t时刻新实例中的目标,由于在式(2)中使用了步长ρ大于一个像素的网格策略,因此通过计算DFT系数,从而应用三角多项式来有效地插值分类分数,即:首先,将分类分数的DFT定义为:
所述DKE中的误差协方差获得方法如下:
将跟踪结果的传播估计误差的期望值定义为:
并将状态估计的先验值定义为:
因此,可以得到误差协方差矩阵为:
其中,w设为一个常数[1 0]T,将Q定义为环境噪声矩阵,并表示为eI,e表示环境噪声,I表示n×n维单位矩阵,这表明误差协方差矩阵在t时刻的先验值是其t-1时刻的后验值函数;
由于先验协方差矩阵是式(18),它满足以下方程:
因此,可以得到卡尔曼增益为:
其中,R表示n×n维测量噪声矩阵,它是时不变矩阵eI;
此外,基于式(18)可得到后验协方差矩阵的相似方程为:
因此,又可以得到状态估计观测的更新方程为:
本发明为了在不同的评估标准下寻求最优的跟踪精度和鲁棒性,并有助于灾后救援行动中的智能监控,提出了一种新的目标跟踪架构,即:融合KF 和STRCF进行视觉跟踪,STRCF的目标跟踪结果作为DKE的观测模型的测量值参加到DKE的计算中,视频流中的每一帧都完整无缺的成为DKE的输入数据,实现了目标跟踪的连续性和完整性,符合“连续思考,离散处理”原则,克服了大规模应用变化带来的不稳定性问题。然后,为了解决由突然加速和转向引起的丢失目标问题,采用步长控制方法来限制框架的输出状态的最大幅值;以步长控制方法作为误差修正机制,在DKE的模型更新后执行,不会影响到DKE对于目标当前状态和随机动态干扰和传感器噪声的均方不确定性等知识的学习和理解,只是在输出阶段,对于存在明显偏差的估计结果进行误差修正,是对现有方法的改进和补充。
本发明所给出的DKE协方差方程没有有限的稳态值,这表明本发明的架构性能在很大程度上取决于环境噪声和目标运动特性。经过大规模实验验证,本发明给出的KFSTRCF架构在大多数情况下都优于STRCF,特别是在体育赛事中,表现出比竞争对手更好的性能和更强的鲁棒性。
附图说明:
图1为本发明基于KFSTRCF目标跟踪架构示意图。
具体实施方式:
本实施例公开一种基于KFSTRCF的目标跟踪架构,如图1所示,主要包括离散时间卡尔曼估计器DKE以及STRCF,DKE包括离散时间系统测量以及离散时间系统副本子系统;STRCF的目标跟踪结果输出作为离散时间系统测量中观测模型的测量值输入,通过离散时间系统副本子系统对DKE的模型进行更新,获得状态估计观测更新方程。下面,将结合附图对本发明所涉及的内容展开详细介绍。
本发明所公开的基于KFSTRCF的目标跟踪架构,主要用于在大规模应用变化中平滑和优化定位算法的目标状态。为了有效地描述目标的运动模型,并保持STRCF良好的实时跟踪性能,我们提出了一种基于KF的视觉跟踪方法,采用基于离散时间卡尔曼估计器(discrete-time Kalman estimator,DKE) 优化STRCF算法输出结果,克服了后续帧的不稳定性问题。与此同时,为了解决由突然加速和转向引起的丢失目标问题,我们提出了一种步长控制方法来限制所提出的框架的输出状态的最大幅值,它是对现实场景中物体运动规律的合理约束。为了分析图1中架构的跟踪性能,我们还验证了本发明的DKE 的协方差方程没有有限的稳态值,该架构的性能主要取决于环境噪声和目标运动特性。以下展开详细说明。
STRCF提出了一种比SRDCF更为稳健的外观模型,并将空间和时间正则化结合到DCF框架中。STRCF利用ADMM算法有效地寻找闭式解,并在很少的迭代次数内实现收敛。采用手工提取的特征,STRCF可以实时运行,比SRDCF具有更好的跟踪精度。
其中Hadamard积表示为·,卷积算子表示为*,wt和ft分别表示空间正则化矩阵和相关滤波器。我们还将第(t-1)帧的STRCF结果表示为ft-1,惩罚参数表示为σ。和||ft-ft-1||2代表空间正则化和时间正则化。
由于上述模型是凸函数,STRCF可以通过ADMM算法最小化式(1)得到全局最优解。因此,我们将辅助变量表示为gt,并要求ft=gt和将步长参数表示为ρ。然后我们可以将(1)的增广拉格朗日形式表示为:
我们可以通过ADMM算法将上述模型分解为以下可选子问题:
上述ft,gt和ρ的解可以在文献中找到(F.Li,C.Tian,W.Zuo,et al,Learningspatial-temporal regularized correlation filters for visual tracking,Proceedings ofthe IEEE Conference on Computer Vision and Pattern Recognition(2018)4904-4913.)。STRCF算法的总成本是O(SMNlog(MN)NM),其中NM是最大迭代次数。
虽然STRCF能以5倍的速度实现实时的视觉跟踪,并提供比竞争对手 SRDCF更为健壮的外观模型,但对于应用的大规模变化,仍然存在不稳定性问题。正因为如此,我们提出的架构将KF算法集成到STRCF模型中,有效地解决了这个问题,因为它可以在数学上传播跟踪对象的当前运动状态的知识,包括来自随机动态干扰和传感器噪声的均方不确定性。这些特性对估计模型的统计分析和设计具有重要意义。
我们首先引入KF算法,要求STRCF的当前输出状态作为KF算法的初始状态。在我们的KFSTRCF架构中,当每轮出现一个新的实例时,STRCF 首先预测其标签并定位目标的质心,然后提取目标的当前运动状态,并将它们反馈给KF算法。此外,我们还可以通过KF模型实现误差修正。最后,通过对KF模型的更新,可以实现更为稳健的目标定位,并传播随机动态干扰和传感器噪声的均方不确定性等知识。
为了澄清我们的目标,我们提出了我们的优化问题是将我们的KFSTRCF 与STRCF相比较,如何实现最大的改进。我们用符号Inc表示成功率的曲线下面积(area under thecurve,AUC)的增加:
Inc=aucKFSTRCF-aucSTRCF. (4)
因此,aucKFSTRCF和aucSTRCF是KFSTRCF和STRCF的成功率AUC得分。
因此,我们的视觉跟踪优化问题(visual tracking optimization problem,VTOP)可以表述为:
subject to
and
其中,表示在离散采样时刻t的每个样本,包括S个特征映射,其大小为M×N。表示在t采样时刻第s个特征层的M×N卷积滤波器。xt表示本文提出的DKE的目标运动状态向量。and表示第t帧的水平和垂直图像坐标,此外,我们定义stt为离散线性系统针对t时刻的感兴趣采样时间。因此我们可以得到时间间隔dt为dt=stt-stt-1。
为了降低随机动态干扰和传感器噪声的风险,我们遵循连续思考和离散处理的原则。因此,我们利用DKE来描述目标的连续运动状态以及对新实例的修正。系统动态模型可以描述为:
xt=Μxt-1+Γut-1. (8)
其中,xt表示目标的n×1维运动状态向量,ut-1表示控制状态的r×1维确定性输入向量。Μ表示n×n维状态转移矩阵,它是一个时不变矩阵。Γ表示n×r维离散时间输入耦合矩阵,它是一个时不变矩阵。
在初始阶段,我们设计了DKE的系统动态模型参数。我们利用第一帧的预定目标位置作为离散时间模型的输入。然后,我们设计了系统动力学模型的等效常数参数,以在感兴趣的采样时刻之间传播状态向量。首先,我们使用目标的速度v将状态转移矩阵定义为:
其次,我们使用单位矩阵I来描述离散时间输入耦合矩阵Γ。最后,我们定义了基于步长控制方法的确定性输入向量ut。
为了定义测量模型,我们可以得到每个采样时刻t的测量值。此外,利用测量值可以更新目标的跟踪结果xt。我们将测量值zt和跟踪结果xt之间的线性相关方程定义为:
zt=Νxt+υ. (10)
其中,Ν表示测量灵敏度矩阵,它是时不变矩阵,采用系统中的n×n维单位矩阵I。υ表示测量噪声,它是一个常数参数[1 0]T。
为了准确地描述目标的运动状态,我们基于STRCF的估计结果定义DKE 的测量模型,因为STRCF在较大的外观变化情况下比其他算法具有更强的鲁棒性。
通过求解数目为M×N的S×S线性方程组,我们可以得到离散傅里叶变换(discrete Fourier transformed,DFT)滤波器为:
其中,运算符·表示逐点乘法。bar运算符表示DFT运算,而运算符Δ-1表示DFT的逆运算。该方法的时间复杂度为O(SMNlogMN)。
此外,在检测阶段,我们通过使用在第(t-1)帧中更新后的滤波器来定位在t时刻新实例中的目标。由于我们在式(2)中使用了步长ρ大于一个像素的网格策略,因此我们通过计算DFT系数,从而应用三角多项式来有效地插值分类分数。首先,我们将分类分数的DFT定义为:
为了获得DKE的误差协方差,我们将跟踪结果的传播估计误差的期望值定义为:
并将状态估计的先验值定义为:
因此,我们可以得到误差协方差矩阵为:
因此,w设为一个常数[1 0]T,那么我们可以将Q定义为环境噪声矩阵,并表示为eI。其中,e表示环境噪声,I表示n×n维单位矩阵。这表明误差协方差矩阵在t时刻的先验值是其t-1时刻的后验值函数。
由于先验协方差矩阵是式(18),它满足以下方程:
因此,我们可以得到卡尔曼增益为:
其中,R表示n×n维测量噪声矩阵,它是时不变矩阵eI。
此外,基于式(18)我们可得到后验协方差矩阵的相似方程为:
因此,我们可以得到状态估计观测的更新方程为:
另外,DKE的一个显著特点为即使无采样的协方差方程是不稳定的,测量估计不确定性的协方差方程仍然具有有限的稳态值。考虑到没有测量的情况,我们需要确定协方差方程的稳定性。这表明当t趋向于正无穷大时,解是否趋向于有限常数值。
命题1:假设采样时间t→+∞,我们将协方差方程定义为:
P∞=ΜP∞ΜT+Q. (27)
如果我们将Μ定义为式(9),则协方差方程没有有限的稳态值。它与协方差P的初始值无关。
证明:因为我们将Μ定义为式(9),我们可以计算特征值为:
因此,Μ的特征值是唯一值1。那么,它的复数形式是1+0i。从而得到它在复平面上的点是(1,0)。由于该点不在单位圆内,协方差方程没有解。
在现实世界中,跟踪目标可以自由地改变速度和方向。特别是当存在突然加速和转向时,跟踪算法不能进行正确的调整,导致跟踪目标在边界框中丢失。为了解决这个问题,我们提出了一种步长控制方法来限制我们架构的输出状态最大振幅。它是对现实场景中物体运动规律的合理约束。
为了更清楚地讨论KFSTRCF,图1描述了我们的系统架构。在大规模应用中(比如,OTB-2015数据集中的dragonbaby),我们可以建立基于式(8) 和式(10)的离散时间系统测量,并采用状态转移矩阵Μ和输入耦合矩阵Γ。然后,利用式(12)和式(13)得到第t帧(比如,dragonbaby的第65帧)中所有像素的分类分数将STRCF融合到我们的框架中,利用其更加健壮的外观模型。此外,我们可以通过式(14)和式(15)获得图像坐标处的插值检测分数而且,我们可以通过评估式(16)在所有像素位置的检测分数d(m,n)来确定最大检测得分这也是我们DKE的测量值zt。因此,在我们的体系结构的离散时间系统副本子系统中,我们可以通过式(25)得到状态估计观测的更新方程。最后,我们可以应用步长控制方法来纠正由于突然加速和转向导致跟踪算法失败而产生的显著偏差。通过在dragonbaby第65帧中的具有竞争力的实验结果表明,当STRCF在图1左侧边界框中失败时,我们的 KFSTRCF能够成功地将目标定位在右侧人脸处边界框中,特别是在运动项目中,KFSTRCF表现出卓越的性能。
接下来,我们详细介绍本发明提出的步长控制方法。首先,为了有效地控制跟踪结果的步长,我们需要清楚地分析框架的输入和输出状态。因此,我们应用奇异值分解(singular value decomposition,SVD)方法来深入了解状态矩阵的特性。我们将SVD函数定义为:
[L*,D*,R*]=svd(x). (29)
其中,x表示为目标的n×1维空间运动状态向量。如果x=xt,它表示我们框架的输入状态。如果它表示我们框架的输出状态。svd(·)函数将x分解为x=L*D*R*。L*表示n×n维矩阵,其列表示x的左特征向量。D*表示n×1维矩阵,其主对角线为按降序排列的非负元素,它表示x的奇异值,其它位置的元素为0。R*表示单一值,它表示x的右特征向量。
其次,通过求SVD矩阵中的最大值,我们可以得到最大奇异值,x的欧几里德范数定义为:
n*(x)=max(L*,D*,R*). (30)
最后,为了修正由于跟踪算法失败引起的显著偏差,我们提出最大步长约束来将框架的输出状态限制在合理的范围。这表明如果跟踪算法不能在边界框中对目标进行定位,则所提出的约束条件应能提供符合真实场景中目标运动规律的合理结果。因此,我们定义最大步长为:
lenmax=v×dt. (32)
我们可以通过应用以下约束将跟踪目标限制在合理的范围内:
因此,和xt(1,1)分别表示和xt的第1行、第1列元素。因此,无论跟踪目标如何改变速度和方向,目标的最大步长都应该在约束lenmax之内。即使在跟踪算法失效的情况下,也能为跟踪目标建立一个合理的出现区域。
最后,将对我们提出的目标跟踪架构进行全面评估,实验在OTB-2013、 OTB-2015和Temple-Color三个基准数据集上进行。
实验参数如下:
使用MATLAB R2018b进行了实验,计算机操作系统为Windows 8.1 64 位。CPU为i7-4500U,2核4线程。处理器的基频为1.8GHz,最大turbo频率为3GHz。RAM为8GB 1600GHz。GPU是AMD Radeon HD 8870M,具有775MHz的核心时钟和2048MB的图形内存。
实验参数列在表I中。为了实现集成STRCF的高性能,我们将惩罚因子σ和初始步长参数ρ设置为16和10。然后我们提取灰度、方向梯度直方图 (histogram of orientedgradient,HOG)和颜色名称(color names,CN)特征来描述跟踪目标。此外,为了提高计算效率,我们将迭代的最大次数NM设置为 2。由于我们需要提出的架构适应大规模的应用变化,因此融合的DKE参数应该在所有情况下都是一致和适当的。因此,我们将时间间隔dt、速度v和环境噪声e分别设置为恒定值0.5、50和1.0×10-3。最后,我们将不变矩阵维数n、 r、初始确定性输入向量u0和初始误差协方差矩阵P0(+)分别设为2、2、[1 1]T和
通过实验对比验证,本发明公开的KFSTRCF架构与STRCF相比,在 OTB-2015数据集的重叠区域评价标准中,本方法对背景杂波、光照变化、遮挡、平面外旋转和视场外等因素的AUC得分分别提高了2.8%、2%、1.8%、 1.3%和2.4%。本发明公开的方法在OTB-2013、OTB-2015和Temple-Color数据集的某些特定类别中均优于STRCF方法,实现了计算机视觉中的最优视觉跟踪。
Claims (6)
1.一种基于KFSTRCF的目标跟踪架构,其特征在于:包括离散时间卡尔曼估计器DKE以及STRCF,所述DKE包括离散时间系统测量以及离散时间系统副本子系统;所述STRCF的目标跟踪结果输出作为离散时间系统测量中观测模型的测量值输入,通过离散时间系统副本子系统对DKE的模型进行更新,获得状态估计观测更新方程。
3.根据权利要求1或2所述的一种基于KFSTRCF的目标跟踪架构,其特征在于:所述离散时间系统测量中的系统动态模型如下:
xt=Μxt-1+Γut-1.
其中,xt表示DKE目标的n×1维运动输入状态向量,ut-1表示控制状态的r×1维确定性输入向量,t为采样时刻;Μ表示n×n维状态转移矩阵,它是一个时不变矩阵;Γ表示n×r维离散时间输入耦合矩阵,它是一个时不变矩阵;
用目标的速度v将状态转移矩阵定义为:
使用单位矩阵I来描述离散时间输入耦合矩阵Γ;
确定性输入向量可由下式确定,e表示环境噪声:
利用测量值更新目标的跟踪结果,将测量值Zt和跟踪结果xt之间的线性相关方程定义为:
zt=Νxt+υ.
其中,Ν表示测量灵敏度矩阵,它是时不变矩阵,采用系统中的n×n维单位矩阵I;υ表示测量噪声,它是一个常数参数[1 0]T。
4.根据权利要求3所述的一种基于KFSTRCF的目标跟踪架构,其特征在于:所述STRCF与DKE的融合方式具体如下:
其中Hadamard积表示为·,卷积算子表示为*,wt和ft分别表示空间正则化矩阵和相关滤波器;将第(t-1)帧的STRCF结果表示为ft-1,惩罚参数表示为σ,和||ft-ft-1||2代表空间正则化和时间正则化;
由于上述模型是凸函数,STRCF可以通过ADMM算法最小化公式(1)得到全局最优解,因此,将辅助变量表示为gt,并要求ft=gt和将步长参数表示为ρ,然后将公式(1)的增广拉格朗日形式表示为:
通过求解数目为M×N的S×S线性方程组,可以得到离散傅里叶变换滤波器为:
其中,运算符·表示逐点乘法,bar运算符表示DFT运算,而运算符Δ-1表示DFT的逆运算。
5.根据权利要求4所述的一种基于KFSTRCF的目标跟踪架构,其特征在于:在检测阶段,通过使用在第(t-1)帧中更新后的滤波器来定位在t时刻新实例中的目标,由于在式(2)中使用了步长ρ大于一个像素的网格策略,因此通过计算DFT系数,从而应用三角多项式来有效地插值分类分数,即:首先,将分类分数的DFT定义为:
6.根据权利要求5所述的一种基于KFSTRCF的目标跟踪架构,其特征在于:所述DKE中的误差协方差获得方法如下:
将跟踪结果的传播估计误差的期望值定义为:
并将状态估计的先验值定义为:
因此,可以得到误差协方差矩阵为:
其中,w设为一个常数[1 0]T,将Q定义为环境噪声矩阵,并表示为eI,e表示环境噪声,I表示n×n维单位矩阵,这表明误差协方差矩阵在t时刻的先验值是其t-1时刻的后验值函数;
由于先验协方差矩阵是式(18),它满足以下方程:
因此,可以得到卡尔曼增益为:
其中,R表示n×n维测量噪声矩阵,它是时不变矩阵eI;
此外,基于式(18)可得到后验协方差矩阵的相似方程为:
因此,又可以得到状态估计观测的更新方程为:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010095828.5A CN111402303A (zh) | 2020-02-17 | 2020-02-17 | 一种基于kfstrcf的目标跟踪架构 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010095828.5A CN111402303A (zh) | 2020-02-17 | 2020-02-17 | 一种基于kfstrcf的目标跟踪架构 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111402303A true CN111402303A (zh) | 2020-07-10 |
Family
ID=71430364
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010095828.5A Withdrawn CN111402303A (zh) | 2020-02-17 | 2020-02-17 | 一种基于kfstrcf的目标跟踪架构 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111402303A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112132855A (zh) * | 2020-09-22 | 2020-12-25 | 山东工商学院 | 基于前景分割引导的自适应高斯函数的目标跟踪方法 |
CN113326469A (zh) * | 2021-08-02 | 2021-08-31 | 南京信息工程大学 | 一种基于分级状态机的信号解耦方法 |
CN113838093A (zh) * | 2021-09-24 | 2021-12-24 | 重庆邮电大学 | 基于空间正则化相关滤波器的自适应多特征融合跟踪方法 |
CN114677411A (zh) * | 2022-04-07 | 2022-06-28 | 辽宁工程技术大学 | 一种联合卡尔曼滤波的自适应时间正则化无人机目标跟踪方法 |
CN115808683A (zh) * | 2023-02-08 | 2023-03-17 | 安徽隼波科技有限公司 | 一种雷达光电联动跟踪方法 |
US20230115723A1 (en) * | 2021-09-30 | 2023-04-13 | International Business Machines Corporation | Complexity based artificial intelligence model training |
CN115984325A (zh) * | 2022-12-30 | 2023-04-18 | 辽宁工程技术大学 | 一种靶向寻量时空正则化的目标跟踪方法 |
CN119945245A (zh) * | 2025-04-08 | 2025-05-06 | 绍兴文理学院 | 一种深海机器人驱动电机均流热平衡方法 |
-
2020
- 2020-02-17 CN CN202010095828.5A patent/CN111402303A/zh not_active Withdrawn
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112132855B (zh) * | 2020-09-22 | 2022-05-20 | 山东工商学院 | 基于前景分割引导的自适应高斯函数的目标跟踪方法 |
CN112132855A (zh) * | 2020-09-22 | 2020-12-25 | 山东工商学院 | 基于前景分割引导的自适应高斯函数的目标跟踪方法 |
CN113326469A (zh) * | 2021-08-02 | 2021-08-31 | 南京信息工程大学 | 一种基于分级状态机的信号解耦方法 |
CN113838093B (zh) * | 2021-09-24 | 2024-03-19 | 重庆邮电大学 | 基于空间正则化相关滤波器的自适应多特征融合跟踪方法 |
CN113838093A (zh) * | 2021-09-24 | 2021-12-24 | 重庆邮电大学 | 基于空间正则化相关滤波器的自适应多特征融合跟踪方法 |
US20230115723A1 (en) * | 2021-09-30 | 2023-04-13 | International Business Machines Corporation | Complexity based artificial intelligence model training |
CN114677411A (zh) * | 2022-04-07 | 2022-06-28 | 辽宁工程技术大学 | 一种联合卡尔曼滤波的自适应时间正则化无人机目标跟踪方法 |
CN114677411B (zh) * | 2022-04-07 | 2024-11-29 | 辽宁工程技术大学 | 一种联合卡尔曼滤波的自适应时间正则化无人机目标跟踪方法 |
CN115984325A (zh) * | 2022-12-30 | 2023-04-18 | 辽宁工程技术大学 | 一种靶向寻量时空正则化的目标跟踪方法 |
CN115808683A (zh) * | 2023-02-08 | 2023-03-17 | 安徽隼波科技有限公司 | 一种雷达光电联动跟踪方法 |
CN115808683B (zh) * | 2023-02-08 | 2023-04-07 | 安徽隼波科技有限公司 | 一种雷达光电联动跟踪方法 |
CN119945245A (zh) * | 2025-04-08 | 2025-05-06 | 绍兴文理学院 | 一种深海机器人驱动电机均流热平衡方法 |
CN119945245B (zh) * | 2025-04-08 | 2025-07-04 | 绍兴文理学院 | 一种深海机器人驱动电机均流热平衡方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111402303A (zh) | 一种基于kfstrcf的目标跟踪架构 | |
Yan et al. | STDMANet: Spatio-temporal differential multiscale attention network for small moving infrared target detection | |
CN107767405B (zh) | 一种融合卷积神经网络的核相关滤波目标跟踪方法 | |
CN110533691B (zh) | 基于多分类器的目标跟踪方法、设备和存储介质 | |
CN106952288B (zh) | 基于卷积特征和全局搜索检测的长时遮挡鲁棒跟踪方法 | |
CN110276785B (zh) | 一种抗遮挡红外目标跟踪方法 | |
CN107481264A (zh) | 一种自适应尺度的视频目标跟踪方法 | |
Xue et al. | Low-rank approximation and multiple sparse constraint modeling for infrared low-flying fixed-wing UAV detection | |
CN108416266A (zh) | 一种利用光流提取运动目标的视频行为快速识别方法 | |
Feng et al. | Kalman filter for spatial-temporal regularized correlation filters | |
CN110827262B (zh) | 一种基于连续有限帧红外图像的弱小目标检测方法 | |
CN103345735A (zh) | 一种基于Kalman滤波器的压缩时空多传感器融合跟踪方法 | |
CN110751097B (zh) | 一种半监督的三维点云手势关键点检测方法 | |
CN107832716B (zh) | 基于主动被动高斯在线学习的异常检测方法 | |
CN111429485B (zh) | 基于自适应正则化和高信度更新的跨模态滤波跟踪方法 | |
CN106548194B (zh) | 二维图像人体关节点定位模型的构建方法及定位方法 | |
CN110458235A (zh) | 一种视频中运动姿势相似度比对方法 | |
Chen et al. | Deep learning for integrated hand detection and pose estimation | |
CN110033472A (zh) | 一种复杂红外地面环境下的稳定目标跟踪方法 | |
Kwon et al. | Visual tracking via particle filtering on the affine group | |
CN105354863A (zh) | 基于特征滤波和快速运动检测模板预测的自适应尺度图像序列目标跟踪方法 | |
CN106887012A (zh) | 一种基于循环矩阵的快速自适应多尺度目标跟踪方法 | |
Feng | Mask RCNN-based single shot multibox detector for gesture recognition in physical education | |
CN106780567A (zh) | 一种融合颜色和梯度直方图的免疫粒子滤波扩展目标跟踪方法 | |
CN106570889A (zh) | 一种检测红外视频中弱小目标的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20200710 |