CN113888583B - 一种视觉跟踪准确性的实时判断方法及装置 - Google Patents
一种视觉跟踪准确性的实时判断方法及装置 Download PDFInfo
- Publication number
- CN113888583B CN113888583B CN202111141195.8A CN202111141195A CN113888583B CN 113888583 B CN113888583 B CN 113888583B CN 202111141195 A CN202111141195 A CN 202111141195A CN 113888583 B CN113888583 B CN 113888583B
- Authority
- CN
- China
- Prior art keywords
- image
- target
- tracking
- tracking target
- obtaining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
本发明提供一种视觉跟踪准确性的实时判断方法及装置,所述方法包括获取视觉跟踪算法获取的图像Ii,计算图像Ii的清晰度;获取图像Ii的图像亮度;获取图像Ii的信噪比及杂波强度,确定图像Ii的全局目标显著性;识别图像Ii中的跟踪目标,获取所述跟踪目标的面积和旋转角度,计算所述跟踪目标的形变程度;确定所述跟踪目标的位置变化程度;以信息融合的方式确定所述视觉跟踪算法识别的述跟踪目标的置信度。该方法能够在目标实际位置和尺度未知的前提下,通过对跟踪准确性的在线实时判断,得到跟踪算法准确性的置信度。
Description
技术领域
本发明涉及图像处理领域,尤其涉及一种视觉跟踪准确性的实时判断方法及装置。
背景技术
视觉跟踪即从摄像机或视频中获取的图像序列中,找到感兴趣的目标,并标记出目标的位置和尺度。在某些应用领域,需要靠标记的目标的位置引导其它运动机构,实现指向或跟随目标的功能。在这些应用中,跟踪目标位置的精度即跟踪准确性,尤为重要。
提高跟踪准确性一直是各类图像处理方法努力的方向。但是目前没有一种方法能适应各类应用场景,普遍存在适应程度低下的问题。更严重的问题在于,视觉跟踪方法本身并不知道自己的准确性不够准确或变差,导致运动机构偏离实际目标。
现有的视觉跟踪准确性判断方法,都是给定若干图像序列,并标记每幅图像中目标的位置和尺度,将图像序列的第一幅图像的目标位置和尺度作为已知量,告知视觉跟踪算法,然后将后面每幅图像中,视觉跟踪算法得到的目标位置和尺度,与标记的目标位置和尺度进行比较,从而对视觉跟踪算法的准确性或其它指标进行计算。这种判断方法,只适用于目标位置和尺度已知的情况,无法在获取图像的同时,实时对视觉跟踪的准确性进行判断。
发明内容
为解决上述技术问题,本发明提出了一种视觉跟踪准确性的实时判断方法及装置,所述方法及装置,用于解决现有技术的视觉跟踪算法的准确性判断中,只适用于目标位置和尺度已知的情况,无法在获取图像的同时,实时对视觉跟踪的准确性进行判断的技术问题。
根据本发明的第一方面,提供一种视觉跟踪准确性的实时判断方法,所述方法包括以下步骤:
步骤S101:获取视觉跟踪算法获取的图像Ii,计算图像Ii的清晰度;
步骤S102:获取图像Ii的图像亮度;
步骤S103:获取图像Ii的信噪比及杂波强度,确定图像Ii的全局目标显著性;
步骤S104:识别图像Ii中的跟踪目标,获取所述跟踪目标的面积和旋转角度,计算所述跟踪目标的形变程度;
步骤S105:确定所述跟踪目标的位置变化程度;
步骤S106:以信息融合的方式确定所述视觉跟踪算法识别的述跟踪目标的置信度。
根据本发明第二方面,提供一种视觉跟踪准确性的实时判断装置,所述装置包括:
图像获取模块:配置为获取视觉跟踪算法获取的图像Ii,计算图像Ii的清晰度;
亮度获取模块:配置为获取图像Ii的图像亮度;
显著性获取模块:配置为获取图像Ii的信噪比及杂波强度,确定图像Ii的全局目标显著性;
形变程度计算模块:配置为识别图像Ii中的跟踪目标,获取所述跟踪目标的面积和旋转角度,计算所述跟踪目标的形变程度;
位置变化确定模块:配置为确定所述跟踪目标的位置变化程度;
融合模块:配置为以信息融合的方式确定所述视觉跟踪算法识别的述跟踪目标的置信度。
根据本发明第三方面,提供一种视觉跟踪准确性的实时判断系统,包括:
处理器,用于执行多条指令;
存储器,用于存储多条指令;
其中,所述多条指令,用于由所述存储器存储,并由所述处理器加载并执行如前所述的视觉跟踪准确性的实时判断方法。
根据本发明第四方面,提供一种计算机可读存储介质,所述存储介质中存储有多条指令;所述多条指令,用于由处理器加载并执行如前所述的视觉跟踪准确性的实时判断方法。
根据本发明的上述方案,能够在目标实际位置和尺度未知的前提下,通过对跟踪准确性的在线实时判断,得到跟踪算法准确性的置信度,进而决定如何使用视觉跟踪算法得到的目标位置和尺度,避免运动机构被错误的目标位置引导,偏离实际目标。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,并可依照说明书的内容予以实施,以下以本发明的较佳实施例并配合附图详细说明如后。
附图说明
构成本发明的一部分的附图用来提供对本发明的进一步理解,本发明提供如下附图进行说明。在附图中:
图1为本发明一个实施方式的视觉跟踪准确性的实时判断方法流程图;
图2为本发明一个实施方式的视觉跟踪准确性的实时判断装置结构框图;
具体实施方式
首先结合图1说明本发明一个实施方式的一种视觉跟踪准确性的实时判断方法流程,所述方法包括以下步骤:
步骤S101:获取视觉跟踪算法获取的图像Ii,计算图像Ii的清晰度;
步骤S102:获取图像Ii的图像亮度;
步骤S103:获取图像Ii的信噪比及杂波强度,确定图像Ii的全局目标显著性;
步骤S104:识别图像Ii中的跟踪目标,获取所述跟踪目标的面积和旋转角度,计算所述跟踪目标的形变程度;
步骤S105:确定所述跟踪目标的位置变化程度;
步骤S106:以信息融合的方式确定所述视觉跟踪算法识别的述跟踪目标的置信度。
所述步骤S101:获取视觉跟踪算法获取的图像Ii,计算图像Ii的清晰度,包括:
所述图像Ii的清晰度Di(f)为:
其中,Ni为图像Ii的像素数,fi(x,y)为图像Ii的像素点(x,y)的灰度值,Di(f)为图像Ii的清晰度。
本实施例中,计算图像清晰的方式还有多种,常用的还有Tenengrad梯度方法和Laplacian梯度方法。
本实施例中,对图像清晰度进行计算,考虑因素为需要判定当前图像是否因为摄像机调焦或平台运动等原因导致图像模糊,影响跟踪稳定性。清晰度越高,跟踪可信度越高。
所述步骤S102:获取图像Ii的图像亮度,包括:
计算所述图像Ii的像素平均值及亮度变化,图像Ii的像素平均值B(fi)为
图像Ii的亮度变化ΔBi为
其中,B(fi-1)为图像Ii的上一帧图像的像素平均值。
本实施例中,通过计算图像的亮度,能够得到图像亮度的变化趋势。当发生全视场遮挡或光照明显变化时,亮度发生突变,从而降低跟踪置信度。
所述步骤S103:获取图像Ii的信噪比及杂波强度,确定图像Ii的全局目标显著性,其中,
图像Ii的信噪比SNRi为:
SNRi=Ii-max/σBi
其中,Ii-max为图像Ii中所述跟踪目标的最大背景灰度值,σBi为图像Ii中背景灰度的标准差;
杂波强度由图像Ii的背景中与目标信号相似的信号的多少以及相似的程度决定,本实施例中,使用边缘概率尺度表征杂波强度:
其中,T为预设的人眼观察阈值,将图像Ii的分割为Mi个单元,为第j个单元内,灰度值与目标灰度均值之差的绝对值小于所述人眼观察阈值T的边缘点数目。Pi数值越大,表明图像Ii的杂波越严重。
所述图像Ii的全局目标显著性Si为:
本实施例中,全局目标显著性用于测定整幅图像与所述跟踪目标的相似程度。所述跟踪目标在图像中越显著,跟踪置信度越高。
所述步骤S104:识别图像Ii中的跟踪目标,获取所述跟踪目标的面积和旋转角度,计算所述跟踪目标的形变程度,其中:
获取当前进行目标跟踪的目标跟踪算法确定的目标对应的长和宽,所述跟踪目标的面积为所述目标的长与宽的乘积;
获取图像Ii中所述跟踪目标相对于图像Ii的上一帧图像Ii-1中所述跟踪目标的旋转角度θ;
所述跟踪目标的形变程度Ti为:
其中,Ai为图像Ii中跟踪目标的面积,Ai-1为图像Ii的上一帧图像Ii-1中跟踪目标的面积。
本实施例的实现方式为:采用多角度模板匹配的方式估算所述跟踪目标的旋转角度,具体包括:
以图像Ii的上一帧图像Ii-1中所述跟踪目标的角度为0度,建立0度模板,以10度为间隔旋转所述0度模板,得到10度、20度、30度、……350度共35个角度模板,依次把0度模板及上述旋转得到的35个模板与图像Ii中跟踪目标进行匹配,得到36个匹配度,匹配度最高的模板对应旋转角度。
本实施例中,计算跟踪目标面积和旋转角度的变化,以表征跟踪目标形变程度,形变越大,跟踪置信度越低。
所述步骤S105:确定所述跟踪目标的位置变化程度,其中:
获取所述跟踪目标在水平方向X向和竖直方向Y向相对上一帧图像的角度变化Δxi及Δyi,得到所述跟踪目标的位置变化程度Ri:
本实施例中,当摄像机相对地面静止时,跟踪算法得到的目标位置可以直接使用;当摄像机相对地面运动时,需要知道摄像机的运动信息,与跟踪算法得到的目标位置一起表征目标位置。本实施例还可以通过跟踪算法和运动机构得到角度变化Δxi及Δyi。
所述步骤S106:以信息融合的方式确定所述视觉跟踪算法识别的所述跟踪目标的置信度,包括:
采用加权求和的方式,根据所述跟踪算法确定权重,所述跟踪目标的置信度Ci为:
Ci=a·Di(f)+b·(1-ΔBi)+c·Si+d·(1-Ti)+e·(1-Ri)
其中,a,b,c,d,e均为权重。
本实施例中,采用加权求和的方式,权值根据跟踪算法的特点进行调整,比如算法能适应光照的变化,但受目标形变影响较大,则减小亮度变化的权值,增大目标形变的权值。通过上述信息融合的方式,得到所述跟踪目标的跟踪偏差置信度。
进一步地,本发明还包括步骤S107:基于所述跟踪目标的置信度确定是否引导运动机构。
所述运动机构为根据跟踪偏差修正成像装置(比如红外热像仪)指向角度的伺服机构,使成像装置始终指向目标方向,包括但不限于光电转台、机载吊舱。
本实施例中,可以根据所述跟踪目标的置信度Ci,将Ci乘以引导量作为所述运动机构的控制系统输入。也可以设定一个预定阈值,当Ci小于该阈定阈值时,则不再用跟踪算法引导运动机构,避免所述运动机构跟随错误的目标。
本实施例能够在目标实际位置和尺度未知的前提下,通过对跟踪准确性的在线实时判断,得到跟踪算法准确性的置信度,进而决定如何使用视觉跟踪算法得到的目标位置和尺度,避免运动机构被错误的目标位置引导,偏离实际目标。
本发明实施例进一步给出一种视觉跟踪准确性的实时判断装置,如图2所示,所述装置包括:
图像获取模块:配置为获取视觉跟踪算法获取的图像Ii,计算图像Ii的清晰度;
亮度获取模块:配置为获取图像Ii的图像亮度;
显著性获取模块:配置为获取图像Ii的信噪比及杂波强度,确定图像Ii的全局目标显著性;
形变程度计算模块:配置为识别图像Ii中的跟踪目标,获取所述跟踪目标的面积和旋转角度,计算所述跟踪目标的形变程度;
位置变化确定模块:配置为确定所述跟踪目标的位置变化程度;
融合模块:配置为以信息融合的方式确定所述视觉跟踪算法识别的述跟踪目标的置信度。
本发明实施例进一步给出一种视觉跟踪准确性的实时判断系统,包括:
处理器,用于执行多条指令;
存储器,用于存储多条指令;
其中,所述多条指令,用于由所述存储器存储,并由所述处理器加载并执行如前所述的视觉跟踪准确性的实时判断方法。
本发明实施例进一步给出一种计算机可读存储介质,所述存储介质中存储有多条指令;所述多条指令,用于由处理器加载并执行如前所述的视觉跟踪准确性的实时判断方法。
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机装置(可以是个人计算机,实体机服务器,或者网络云服务器等,需安装Windows或者Windows Server操作系统)执行本发明各个实施例所述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(RandomAccess Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅是本发明的较佳实施例而已,并非对本发明作任何形式上的限制,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与修饰,均仍属于本发明技术方案的范围内。
Claims (5)
1.一种视觉跟踪准确性的实时判断方法,其特征在于,所述方法包括以下步骤:
步骤S101:获取视觉跟踪算法获取的图像Ii,计算图像Ii的清晰度;
步骤S102:获取图像Ii的图像亮度;
步骤S103:获取图像Ii的信噪比及杂波强度,确定图像Ii的全局目标显著性;
步骤S104:识别图像Ii中的跟踪目标,获取所述跟踪目标的面积和旋转角度,计算所述跟踪目标的形变程度;
步骤S105:确定所述跟踪目标的位置变化程度;
步骤S106:以信息融合的方式确定所述视觉跟踪算法识别的述跟踪目标的置信度;
所述步骤S101:获取视觉跟踪算法获取的图像Ii,计算图像Ii的清晰度,包括:
所述图像Ii的清晰度Di(f)为:
其中,Ni为图像Ii的像素数,fi(x,y)为图像Ii的像素点(x,y)的灰度值,Di(f)为图像Ii的清晰度;
所述步骤S102:获取图像Ii的图像亮度,包括:
计算所述图像Ii的像素平均值及亮度变化,图像Ii的像素平均值B(fi)为
图像Ii的亮度变化ΔBi为
其中,B(fi-1)为图像Ii的上一帧图像的像素平均值;
所述步骤S103:获取图像Ii的信噪比及杂波强度,确定图像Ii的全局目标显著性,其中,
图像Ii的信噪比SNRi为:
SNRi=Ii-max/σBi
其中,Ii-max为图像Ii中所述跟踪目标的最大背景灰度值,σBi为图像Ii中背景灰度的标准差;
杂波强度
其中,T为预设的人眼观察阈值,将图像Ii分割为Mi个单元,为第j个单元内,灰度值与目标灰度均值之差的绝对值小于所述人眼观察阈值T的边缘点数目;所述图像Ii的全局目标显著性Si为:
所述步骤S104:识别图像Ii中的跟踪目标,获取所述跟踪目标的面积和旋转角度,计算所述跟踪目标的形变程度,其中:
获取当前进行目标跟踪的目标跟踪算法确定的目标对应的长和宽,所述跟踪目标的面积为所述目标的长与宽的乘积;
获取图像Ii中所述跟踪目标相对于图像Ii的上一帧图像Ii-1中所述跟踪目标的旋转角度θ;
所述跟踪目标的形变程度Ti为:
其中,Ai为图像Ii中跟踪目标的面积,Ai-1为图像Ii的上一帧图像Ii-1中跟踪目标的面积。
2.如权利要求1所述的视觉跟踪准确性的实时判断方法,其特征在于,所述步骤S105:确定所述跟踪目标的位置变化程度,其中:
获取所述跟踪目标在水平方向X向和竖直方向Y向的角度变化Δxi及Δyi,得到所述跟踪目标的位置变化程度Ri:
3.如权利要求2所述的视觉跟踪准确性的实时判断方法,其特征在于,所述步骤S106:以信息融合的方式确定所述视觉跟踪算法识别的所述跟踪目标的置信度,其中:
所述跟踪目标的置信度Ci为:Ci=a·Di(f)+b·(1-ΔBi)+c·Si+d·(1-Ti)+e·(1-Ri)其中,a,b,c,d,e均为权重。
4.一种视觉跟踪准确性的实时判断装置,其特征在于,所述装置包括:
图像获取模块:配置为获取视觉跟踪算法获取的图像Ii,计算图像Ii的清晰度;
亮度获取模块:配置为获取图像Ii的图像亮度;
显著性获取模块:配置为获取图像Ii的信噪比及杂波强度,确定图像Ii的全局目标显著性;
形变程度计算模块:配置为识别图像Ii中的跟踪目标,获取所述跟踪目标的面积和旋转角度,计算所述跟踪目标的形变程度;
位置变化确定模块:配置为确定所述跟踪目标的位置变化程度;
融合模块:配置为以信息融合的方式确定所述视觉跟踪算法识别的述跟踪目标的置信度;
所述图像获取模块:获取视觉跟踪算法获取的图像Ii,计算图像Ii的清晰度,包括:
所述图像Ii的清晰度Di(f)为:
其中,Ni为图像Ii的像素数,fi(x,y)为图像Ii的像素点(x,y)的灰度值,Di(f)为图像Ii的清晰度;
所述亮度获取模块:获取图像Ii的图像亮度,包括:
计算所述图像Ii的像素平均值及亮度变化,图像Ii的像素平均值B(fi)为
图像Ii的亮度变化ΔBi为
其中,B(fi-1)为图像Ii的上一帧图像的像素平均值;
所述显著性获取模块:获取图像Ii的信噪比及杂波强度,确定图像Ii的全局目标显著性,其中,
图像Ii的信噪比SNRi为:
SNRi=Ii-max/σBi
其中,Ii-max为图像Ii中所述跟踪目标的最大背景灰度值,σBi为图像Ii中背景灰度的标准差;
杂波强度
其中,T为预设的人眼观察阈值,将图像Ii分割为Mi个单元,为第j个单元内,灰度值与目标灰度均值之差的绝对值小于所述人眼观察阈值T的边缘点数目;所述图像Ii的全局目标显著性Si为:
所述形变程度计算模块:识别图像Ii中的跟踪目标,获取所述跟踪目标的面积和旋转角度,计算所述跟踪目标的形变程度,其中:
获取当前进行目标跟踪的目标跟踪算法确定的目标对应的长和宽,所述跟踪目标的面积为所述目标的长与宽的乘积;
获取图像Ii中所述跟踪目标相对于图像Ii的上一帧图像Ii-1中所述跟踪目标的旋转角度θ;
所述跟踪目标的形变程度Ti为:
其中,Ai为图像Ii中跟踪目标的面积,Ai-1为图像Ii的上一帧图像Ii-1中跟踪目标的面积。
5.一种计算机可读存储介质,所述存储介质中存储有多条指令;所述多条指令,用于由处理器加载并执行如权利要求1-3中任一项所述的视觉跟踪准确性的实时判断方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111141195.8A CN113888583B (zh) | 2021-09-28 | 2021-09-28 | 一种视觉跟踪准确性的实时判断方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111141195.8A CN113888583B (zh) | 2021-09-28 | 2021-09-28 | 一种视觉跟踪准确性的实时判断方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113888583A CN113888583A (zh) | 2022-01-04 |
CN113888583B true CN113888583B (zh) | 2025-03-04 |
Family
ID=79007278
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111141195.8A Active CN113888583B (zh) | 2021-09-28 | 2021-09-28 | 一种视觉跟踪准确性的实时判断方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113888583B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114646457B (zh) * | 2022-05-20 | 2022-08-12 | 南昌虚拟现实研究院股份有限公司 | 眼动追踪精准度测试方法及系统 |
CN115529561A (zh) * | 2022-09-28 | 2022-12-27 | 厦门兴联智控科技有限公司 | 高尔夫球车的跟随方法、装置及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103116896A (zh) * | 2013-03-07 | 2013-05-22 | 中国科学院光电技术研究所 | 一种基于视觉显著性模型的自动检测跟踪方法 |
CN106502380A (zh) * | 2016-09-18 | 2017-03-15 | 乐视控股(北京)有限公司 | 一种判断目标跟踪效果的方法和装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101341637B1 (ko) * | 2008-08-29 | 2013-12-16 | 서울대학교산학협력단 | 물체 추적 장치 및 방법 |
CN104851112B (zh) * | 2015-04-28 | 2017-03-01 | 北京理工大学 | 一种基于数据集补偿的运动目标检测跟踪算法的评估方法 |
CN107808147B (zh) * | 2017-11-17 | 2020-11-27 | 厦门美图之家科技有限公司 | 一种基于实时人脸点跟踪的人脸置信度判别方法 |
CN109063774B (zh) * | 2018-08-03 | 2021-01-12 | 百度在线网络技术(北京)有限公司 | 图像追踪效果评价方法、装置、设备及可读存储介质 |
CN112465871B (zh) * | 2020-12-07 | 2023-10-17 | 华中光电技术研究所(中国船舶重工集团公司第七一七研究所) | 一种视觉跟踪算法准确性的评价方法及系统 |
-
2021
- 2021-09-28 CN CN202111141195.8A patent/CN113888583B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103116896A (zh) * | 2013-03-07 | 2013-05-22 | 中国科学院光电技术研究所 | 一种基于视觉显著性模型的自动检测跟踪方法 |
CN106502380A (zh) * | 2016-09-18 | 2017-03-15 | 乐视控股(北京)有限公司 | 一种判断目标跟踪效果的方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN113888583A (zh) | 2022-01-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6095018B2 (ja) | 移動オブジェクトの検出及び追跡 | |
US9916646B2 (en) | System and method for processing input images before generating a high dynamic range image | |
US8620070B2 (en) | Corresponding image processing method for compensating colour | |
CN113888583B (zh) | 一种视觉跟踪准确性的实时判断方法及装置 | |
CN111476785B (zh) | 基于位置记录的夜间红外反光水尺检测方法 | |
CN111340749A (zh) | 图像质量的检测方法、装置、设备及存储介质 | |
JP2010041417A (ja) | 画像処理装置、画像処理方法、画像処理プログラム、及び、撮像装置 | |
KR20170038144A (ko) | 어텐션 검출 장치 및 어텐션 검출 방법 | |
Lisanti et al. | Continuous localization and mapping of a pan–tilt–zoom camera for wide area tracking | |
WO2019010932A1 (zh) | 一种利于模糊核估计的图像区域选择方法和系统 | |
CN117726656B (zh) | 基于超分辨率图像的目标跟踪方法、装置、系统和介质 | |
CN113407030B (zh) | 视觉定位方法及相关装置、设备和存储介质 | |
JP7312026B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
CN113744307A (zh) | 一种基于阈值动态调整的图像特征点跟踪方法和系统 | |
CN111192308A (zh) | 图像处理方法及装置、电子设备和计算机存储介质 | |
CN111970500A (zh) | 用于投影设备的自动距步校准方法及系统 | |
KR101766823B1 (ko) | 불규칙한 조도 변화에 강건한 영상 기반 주행거리 측정 시스템 및 방법 | |
JP2018186397A (ja) | 情報処理装置、映像監視システム、情報処理方法及びプログラム | |
CN119310080A (zh) | 图像分析系统和控制拍摄样本图像的方法 | |
EP4350615A1 (en) | Facial deformation compensation method for facial depth image, and imaging apparatus and storage medium | |
CN117173324A (zh) | 点云着色方法、系统、终端及存储介质 | |
CN112883944B (zh) | 活体检测方法、模型训练方法、装置、存储介质及设备 | |
CN113537283B (zh) | 目标跟踪方法及相关装置 | |
CN111767757B (zh) | 身份信息确定方法及装置 | |
CN113674319A (zh) | 一种目标跟踪的方法、系统、设备及计算机存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |