[go: up one dir, main page]

CN112132858A - 一种视频跟踪设备的跟踪方法和视频跟踪设备 - Google Patents

一种视频跟踪设备的跟踪方法和视频跟踪设备 Download PDF

Info

Publication number
CN112132858A
CN112132858A CN201910555419.6A CN201910555419A CN112132858A CN 112132858 A CN112132858 A CN 112132858A CN 201910555419 A CN201910555419 A CN 201910555419A CN 112132858 A CN112132858 A CN 112132858A
Authority
CN
China
Prior art keywords
tracking
video image
frame
tracking algorithm
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910555419.6A
Other languages
English (en)
Inventor
高宗伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Hikmicro Sensing Technology Co Ltd
Original Assignee
Hangzhou Hikmicro Sensing Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Hikmicro Sensing Technology Co Ltd filed Critical Hangzhou Hikmicro Sensing Technology Co Ltd
Priority to CN201910555419.6A priority Critical patent/CN112132858A/zh
Priority to PCT/CN2020/075481 priority patent/WO2020258889A1/zh
Publication of CN112132858A publication Critical patent/CN112132858A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种视频跟踪设备的跟踪方法和视频跟踪设备,所述视频跟踪设备支持多种跟踪算法;该方法包括:从成像设备获取一帧视频图像及表征该帧视频图像的场景复杂度的参数;基于该参数在所述多种跟踪算法中选择适用于该帧视频图像的跟踪算法;根据适用于该帧视频图像的跟踪算法确定该帧视频图像中的跟踪目标;提取该帧视频图像中的跟踪目标的位置信息,基于该位置信息计算该跟踪目标与该视频图像中心的距离;根据所述距离调整成像设备的拍摄角度,以使该跟踪目标处于该视频图像中心。本发明能够根据场景变化自适应调整跟踪算法,保证跟踪效果。

Description

一种视频跟踪设备的跟踪方法和视频跟踪设备
技术领域
本发明涉及安防技术领域,特别涉及一种视频跟踪设备的跟踪方法和视频跟踪设备。
背景技术
现有视频跟踪器通常采用单一跟踪算法。主要的跟踪算法有对比度跟踪算法、相关跟踪算法和二值跟踪算法,其中,相关跟踪算法,可以跟踪多种类型的目标,当跟踪目标无边界且动态不是很强、场景较为复杂的情况下,相关跟踪算法的跟踪效果不错。对比度跟踪算法,可以跟踪快速运动的目标,对目标姿态变化的适应性强。二值跟踪算法,可以自动检测目标,跟踪波门自适应目标大小,闭环速度快、跟踪稳定,适应于空中目标的跟踪。
由于每种跟踪算法都有其侧重的应用场景,当视频跟踪器采用单一跟踪算法时,会造成视频跟踪器在不同场景使用时跟踪效果出现差异。
发明内容
有鉴于此,本发明的目的在于一种视频跟踪设备的跟踪方法和视频跟踪设备,能够根据场景变化自适应调整跟踪算法,保证跟踪效果。
为了达到上述目的,本发明提供了如下技术方案:
一种视频跟踪设备的跟踪方法,所述视频跟踪设备支持多种跟踪算法;该方法包括:
从成像设备获取一帧视频图像及表征该帧视频图像的场景复杂度的参数;
基于该参数在所述多种跟踪算法中选择适用于该帧视频图像的跟踪算法;
根据适用于该帧视频图像的跟踪算法确定该帧视频图像中的跟踪目标;
提取该帧视频图像中的跟踪目标的位置信息,基于该位置信息计算该跟踪目标与该视频图像中心的距离;
根据所述距离调整成像设备的拍摄角度,以使该跟踪目标处于该视频图像中心。
一种视频跟踪设备,所述视频跟踪设备支持多种跟踪算法;该设备包括非瞬时性计算机可读存储介质和处理器,其中,
所述非瞬时性计算机可读存储介质,用于存储可以被所述处理器执行的指令,在所述指令由所述处理器执行时,使得所述处理器:
从成像设备获取一帧视频图像及表征该帧视频图像的场景复杂度的参数;
基于该参数在所述多种跟踪算法中选择适用于该帧视频图像的跟踪算法;
根据适用于该帧视频图像的跟踪算法确定该帧视频图像中的跟踪目标;
提取该帧视频图像中的跟踪目标的位置信息,基于该位置信息计算该跟踪目标与该视频图像中心的距离;
根据所述距离调整成像设备的拍摄角度,以使该跟踪目标处于该视频图像中心。
由上面的技术方案可知,本发明中,对于成像设备拍摄的每帧视频图像,基于表征该帧视频图像的场景复杂度的参数自适应选择适用于该帧视频图像的跟踪算法,并基于选择的跟踪算法对该帧视频图像中的跟踪目标进行跟踪,并根据跟踪结果调整成像设备的拍摄角度,使的跟踪目标处于该视频图像的中心位置。由于可以随时根据表征每帧视频图像的场景复杂度的参数切换跟踪算法,可以很好的适应成像设备拍摄场景的变化,保证视频跟踪效果。
附图说明
以下附图仅对本发明做示意性说明和解释,并不限定本发明的范围:
图1是本发明实施例视频跟踪系统的架构示意图;
图2是本发明实施例视频跟踪设备的跟踪方法流程图;
图3是本发明实施例视频跟踪设备的结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,下面结合附图并据实施例,对本发明的技术方案进行详细说明。
现有技术中,不同跟踪算法适用的场景不同,而场景不同大多是由场景的复杂度区分的。本发明中,根据成像设备拍摄的每帧视频图像的复杂度不同自适应调整跟踪算法,避免因成像设备拍摄场景变化而出现的跟踪效果差异。
参见图1,图1是本发明实施例视频跟踪系统的架构示意图,如图1所示,包括成像设备、视频跟踪设备、显示终端、随动控制设备。以下进行介绍:
1)成像设备
成像设备集成有成像机芯,用于拍摄视频,并将拍摄的每帧视频图像发送到视频跟踪设备,另外,为了使视频跟踪设备能够根据拍摄场景变化自适应进行跟踪算法切换,成像设备将成像机芯拍摄的每帧视频图像发送到视频跟踪设备时,还将表征该帧视频图像的场景复杂度的参数发送到视频跟踪设备。这里,表征该帧视频图像的场景复杂度的参数可以使用该帧视频图像的清晰度评价参数表示。
本发明实施例中,成像设备集成的成像机芯包括热成像机芯和可见光成像机芯。热成像机芯和可见光成像机芯均用于拍摄视频图像,前者拍摄得到热成像视频图像,后者拍摄得到可见光视频图像。成像设备可以将热成像机芯拍摄的热成像视频图像和可见光成像机芯拍摄的可见光视频图像均发送到视频跟踪设备。另外,如果后续视频跟踪设备是对热成像视频图像进行视频跟踪,则成像设备还需要在发送热成像视频图像到视频跟踪设备时,还需要同时将表征该帧热成像视频图像的场景复杂度的参数发送到视频跟踪设备。同理,如果视频跟踪设备是对可见光视频图像进行视频跟踪,则成像设备还需要在发送可见光视频图像到视频跟踪设备时,还需要同时将表征该帧可见光视频图像的场景复杂度的参数发送到视频跟踪设备。
2)视频跟踪设备
视频跟踪设备可使用数字信号处理器(DSP)芯片实现,支持多种跟踪算法。
视频跟踪设备对于成像设备发送的每帧视频图像,基于表征该帧视频图像的场景复杂度的参数选择合适的跟踪算法进行跟踪处理,根据跟踪结果调整成像设备的拍摄角度,使得该帧视频图像中的跟踪目标处于该帧视频图像的中心位置。具体实现中,视频跟踪设备可以将跟踪结果发送到随动控制设备,由随动控制设备对成像设备的拍摄角度进行调整。
本发明实施例中,视频跟踪设备对成像设备发送到热成像视频图像进行视频跟踪,而对于成像设备发送的可见光视频图像,则是直接发送到显示设备进行显示。本发明中,为了保证视频图像的同步处理,成像设备和视频跟踪设备需保持时序同步,具体实现中,视频跟踪设备以成像设备中的热成像机芯或可见光成像机芯的同步信号为同步源,将其作为视频跟踪设备的基本工作时序,保证与热成像机芯或可见光成像机芯严格同步,在此基础上产生各单元电路的工作时序,形成一个统一的同步系统。
3)随动控制设备
本发明实施例中,随动控制设备根据视频跟踪设备发送的跟踪结果执行随动控制操作,例如直接对成像设备的拍摄角度进行调整,或者通过移动和/或旋转随动控制设备自身来实现对成像设备的拍摄角度的调整,以此保证跟踪目标位于成像设备拍摄的视频图像中心。
以下结合图2,对本发明实施例视频跟踪设备的跟踪方法进行详细说明,图2是以对成像设备中的热成像机芯拍摄的热成像视频图像进行跟踪处理为例展开说明的,在实际实现中,视频跟踪设备也可以对成像设备中的可见光成像机芯拍摄的视频图像进行跟踪处理。
参见图2,图2是本发明实施例视频跟踪设备的跟踪方法流程图,如图2所示,该方法包括:
步骤201、从成像设备获取一帧视频图像及表征该帧视频图像的场景复杂度的参数。
本发明实施例中,将视频图像的清晰度评价参数作为表征该视频图像的场景复杂度的参数。视频图像的清晰度评价参数则使用活动图像格式描述符(Active FormatDescription,AFD)表示,AFD值的大小可以在一定程度上代表该视频图像所对应场景的复杂度,具体地,AFD取值越大则该视频图像的场景复杂度越高,反之越低。根据视频图像的AFD值的大小,可以确定其场景复杂度的高低,例如,有两帧视频图像,第一帧视频图像的AFD取值范围是[5000,10000],第二帧视频图像的AFD取值范围是[500,1000],则第一帧视频图像的场景复杂度要高于第二帧视频图像的场景复杂度。
在实际应用中,成像设备中可以集成热成像机芯、可见光机芯、或其它能够执行视频拍摄的成像机芯,利用集成的成像机芯拍摄视频图像并将拍摄的每帧图像发送到视频跟踪设备。另外,成像设备还对成像机芯拍摄得到的该帧视频图像进行分析确定其清晰度评价参数,将该帧视频图像的清晰度评价参数作为表征该帧视频图像的场景复杂度的参数发送到视频跟踪设备。
在本发明的一个实施例中,成像设备中仅集成一种成像机芯,成像设备将由该成像机芯拍摄的每帧视频图像发送到视频跟踪设备后,视频跟踪设备一方面要对该帧视频图像进行跟踪处理,另一方面还可以将该帧视频图像发送到显示终端进行显示。
在本发明的另一实施例中,成像设备中可以集成多种成像机芯,将其中一种成像机芯拍摄的每帧视频图像发送到视频跟踪设备,使得视频跟踪设备对该帧视频图像进行跟踪处理;同时还可将其它成像机芯拍摄的每帧视频图像发送到视频跟踪设备,使得视频跟踪设备对由其它成像机芯拍摄的该帧视频图像进行其它视频处理,例如发送到显示终端进行显示。
在成像设备中集成多种成像机芯的一种可能的实施方案为:成像设备中同时集成有热成像机芯和可见光成像机芯。集成了可见光成像机芯和热成像机芯的成像设备对当前场景进行视频拍摄,其中,成像设备中的热成像机芯拍摄得到当前场景的热成像视频图像,成像设备中的可见光成像机芯拍摄得到当前场景的可见光视频图像。另外,成像设备还对当前场景的热成像视频图像进行分析确定其清晰度评价参数。成像设备会将热成像机芯拍摄的每帧热成像视频图像和可见光视频图像发送到视频跟踪设备,同时还将该帧热成像视频图像的清晰度评价参数作为表征该帧热成像视频图像的场景复杂度的参数发送到视频跟踪设备。
步骤202、基于表征该帧视频图像的场景复杂度的参数在所述多种跟踪算法中选择适用于该帧视频图像的跟踪算法。
为了使视频跟踪设备能够根据拍摄场景变化切换跟踪算法,视频跟踪设备需支持对比度跟踪算法、相关跟踪算法、二值跟踪算法等多种跟踪算法,包括等。
在实际应用中,由于不同的跟踪算法适用于不同的拍摄场景,而拍摄场景的不同则是根据其复杂度区分的。本发明实施例中,预先设置每种跟踪算法对应的参数取值范围,每种跟踪算法适用的场景复杂度和其对应的参数取值范围所代表的场景复杂度保持一致。
本发明中,将视频图像的清晰度评价参数作为该视频图像的场景复杂度的参数,因此,预先设置每种跟踪算法对应的参数取值范围,实际上是设置每种跟踪算法对应的清晰度评价参数取值范围。
举例来说,
可以将成像设备输出的AFD值根据数量级划分多个等级:……第n-1等级、第n等级、第n+1等级……,假设第n-1等级是AFD=40000,第n等级是AFD=70000,第n+1等级是AFD=100000。当AFD值在第n-1等级(AFD=40000)附近时,例如40000±15000,说明当前场景为简单场景,如天空场景、海天场景,此时视频跟踪器选择二值跟踪算法较为合适。当AFD值在第n等级(AFD=70000)附近时,例如70000±15000,说明当前场景较为复杂,选择对比度跟踪算法较为合适;当AFD值在第n+1等级(AFD=100000)附近时,例如100000±15000,说明当前场景非常复杂,视频跟踪器选择相对跟踪算法比较合适。
根据上述的AFD值的等级划分,可设置如下参数取值范围:……、(25000,55000)、(55000、85000)、(85000,115000)…..,其中,二值跟踪算法对应的参数取值范围是(25000,55000),对比度跟踪算法对应的参数取值范围是(55000、85000),相关跟踪算法对应的参数取值范围是(85000,115000)。因此,如果视频跟踪设备从成像设备接收的一帧热成像视频图像的AFD值是50000,则由于50000属于参数取值范围(25000,55000),此参数取值范围对应于二值跟踪算法,因此视频跟踪设备将二值跟踪算法确定为适用于该帧热成像视频图像的跟踪算法,使用二值跟踪算法对该帧热成像视频图像中的跟踪目标进行跟踪。
由于预先设置了每种跟踪算法对应的参数取值范围,则视频跟踪设备从成像设备获取了一帧视频图像及该帧视频图像的清晰度评价参数之后,只需要将该帧视频图像的清晰度评价参数与每种跟踪算法对应的参数取值范围进行比较,即可找出该帧视频图像的清晰度评价参数对应的参数取值范围,将对应于该参数取值范围的跟踪算法确定为适用于该视频图像的跟踪算法即可。
因此,本步骤202中,基于表征该帧视频图像的场景复杂度的参数在所述多种跟踪算法中选择适用于该帧视频图像的跟踪算法的具体方法如下:
S11、确定该参数与预先设置的每种跟踪算法对应的参数取值范围的对应关系;
S12、将对应于该取值范围的跟踪算法确定为适用于该视频图像的跟踪算法。
步骤203、根据适用于该帧视频图像的跟踪算法确定该帧视频图像中的跟踪目标。
通常情况下,一帧视频图像中包括不止一种物体,为了甄别出其中的跟踪目标,需要将所有物体作为检测目标,逐个辨别是否是跟踪目标。
以下结合具体跟踪算法进行介绍:
I)对比度跟踪算法
对于对比度跟踪算法,在利用对比度跟踪算法对一帧视频图像进行跟踪处理时,需要从该帧视频图像中提取出每个检测目标对应的用于对比度跟踪算法的跟踪信息(包括边缘信息、轮廓长度、面积、重心、和/或形心),然后将所有检测目标的跟踪信息与前一帧视频图像的跟踪信息进行比较,找出跟踪信息与前一帧视频图像的跟踪信息的匹配度最大的检测目标,将该找出的检测目标确定为该帧视频图像中的跟踪目标。
其中,在从一帧视频图像中提取每个检测目标对应的用于对比度跟踪算法的跟踪信息之前,还可以对该帧视频图像进行预处理,具体方法如下:
X1、对该视频图像进行去噪声处理。
本步骤可通过高斯滤波实现,具体是通过对视频信号进行高斯滤波去掉该视频图像中的散点噪声。
X2、对经过去噪声处理的视频图像进行边缘检测。
边缘检测主要是标识视频图像中亮度变化明显的像素点,包括基于搜索和基于零交叉两类边缘检测算法。
X3、确定经边缘检测后的视频图像的分割阈值范围,根据该分割阈值范围对经边缘检测的视频图像进行二值化处理。
确定视频图像的分割阈值范围是为了后续对图像进行二值化处理,可以根据视频图像的灰度极限值(最大灰度值或最小灰度值)、最大视频信号幅度确定。具体地,该视频图像的分割阈值下限TV_min可采用TV_min=P-α·VP计算得到;该视频图像的分割阈值上限TV_max可采用公式TV_max=P+α·VP计算得到;其中,P为该视频图像的灰度极限值;VP为该视频图像的最大视频信号幅度(例如700mV);α为预设的对比度参数值,取值范为VP取值的5%到15%。
在对经边缘检测的视频图像进行二值化处理时,可以将灰度值低于TV_min的像素点的像素点的灰度值统一设置为0,灰度值大于TV_max的像素点的灰度值统一设置为255,而灰度值介于TV_min和TV_max的像素点的灰度值则可以保持不变。
在对该帧视频图像进行预处理之后,即可从该帧经预处理的视频图像中提取出每个检测目标对应的用于对比度跟踪算法的跟踪信息,从而根据提取的所有检测目标的跟踪信息,从该帧视频图像的所有检测目标中筛选出跟踪目标。
因此,当适用于该帧视频图像的跟踪算法为对比度跟踪算法时,根据该跟踪算法确定该帧视频图像中的跟踪目标,具体包括:
S21、针对该帧视频图像中每一检测目标,提取该检测目标的用于对比度跟踪算法的跟踪信息;
S22、根据所有各检测目标的用于对比度跟踪算法的跟踪信息,从该帧视频图像的所有检测目标中筛选出跟踪目标。
II)二值跟踪算法
对于二值跟踪算法,在利用二值跟踪算法对一帧视频图像进行跟踪处理时,需要从该帧视频图像中提取出每个检测目标对应的用于二值跟踪算法的跟踪信息(包括边缘信息、轮廓长度、面积、重心、和/或形心),然后将所有检测目标的跟踪信息与前一帧视频图像的跟踪信息进行比较,找出跟踪信息与前一帧视频图像的跟踪信息的匹配度最大的检测目标,将该找出的检测目标确定为该帧视频图像中的跟踪目标。
其中,在从一帧视频图像中提取每个检测目标对应的用于对比度跟踪算法的跟踪信息之前,还可以对该帧视频图像进行预处理,预处理方法与对比度跟踪算法中的预处理方法相同。在预处理之后,还需要对经预处理后的该帧视频图像中的各个检测目标进行区域填充,区域填充可以更凸显出视频图像中的各检测目标。
在对该帧视频图像进行预处理和区域填充之后,即可从该帧经预处理和区域填充的视频图像中提取出每个检测目标对应的用于二值跟踪算法的跟踪信息,从而根据提取的所有检测目标的跟踪信息,从该帧视频图像的所有检测目标中筛选出跟踪目标。
因此,当适用于该帧视频图像的跟踪算法为二值跟踪算法时,根据该跟踪算法确定该帧视频图像中的跟踪目标,具体包括:
S31、针对该帧视频图像中每一检测目标,提取该检测目标的用于二值跟踪算法的跟踪信息;
S32、根据所有各检测目标的用于二值跟踪算法的跟踪信息,从该帧视频图像的所有检测目标中筛选出跟踪目标。
III)相关跟踪算法
对于相关跟踪算法,不需要从该帧视频图像中提取出每个检测目标的跟踪信息,只需将预先选定的包含有跟踪目标的模板图像与该帧视频图像中的各个检测目标进行匹配,将匹配度最大的检测目标作为该帧视频图像中的跟踪目标即可。其中,将预先选定的包含有跟踪目标的模板图像与该帧视频图像中的各个检测目标进行匹配之前,还可以对该帧视频图像进行预处理,预处理方法与对比度跟踪算法中的预处理方法相同。
这里,所述预先选定的包含有跟踪目标的模板图像,可以预先设定,也可以从之前的视频图像中提取得到,例如从首次出现跟踪目标的视频图像中提取出跟踪目标图像作为模板图像,或者从前一帧视频图像中提取出跟踪目标图像作为模板图像。
因此,当适用于该帧视频图像的跟踪算法为相关跟踪算法时,根据该跟踪算法确定该帧视频图像中的跟踪目标,具体包括:
S41、依据预先选定的包含有跟踪目标的模板图像,从该帧视频图像的所有检测目标中筛选出与该模板图像匹配度最大的检测目标,将该检测目标确定为该帧视频图像的跟踪目标。
步骤204、提取该帧视频图像中的跟踪目标的位置信息,基于该位置信息计算该跟踪目标与该视频图像中心的距离。
本发明实施例中,跟踪目标的位置信息主要包括高度、宽度、坐标等信息。其中,跟踪目标的高度和宽度信息,可以根据视频图像在三维坐标系中的x轴和y轴上的投影确定,例如,在x轴上的投影落入区间[x1、x2],在y轴上的投影落入区间[y1、y2],则可以确定检测目标的宽度是x2-x1,高度是y2-y1,检测中心的中心点坐标为:((x1+x2)/2,(y1+y2)/2)。
确定了该帧视频图像中跟踪目标的位置信息后,由于该帧视频图像中心的坐标是已知的,因此,通过坐标间的距离计算即可得出跟踪目标与该帧视频图像中心的距离。
另外,在实际实现中,也可以将跟踪目标的重心和形心作为跟踪目标的位置信息使用,另外,也可以将跟踪目标上特定点的位置作为跟踪目标的位置信息使用,特定点如跟踪目标的边缘上某个拐角点或突出的端点等。
步骤205、根据所述距离调整成像设备的拍摄角度,以使该跟踪目标处于该视频图像中心。
本发明实施例中,根据所述距离调整成像设备的拍摄角度的具体实现方法为:将该跟踪目标与该视频图像中心的距离信息发送到搭载所述视频跟踪器的随动控制设备,以使随动控制设备根据该距离信息执行随动控制操作。
在实际应用中,成像设备和视频跟踪器之间的位置是非常接近或直接集成在一起的,并且均安装在随动控制设备上,随着随动控制设备的移动而移动。
视频跟踪器确定当前场景的视频图像中的跟踪目标与视频图像中心的距离后,可以将此距离信息发送到随动控制设备,而随动控制设备可以通过控制自身移动带动成像设备移动,或直接控制成像设备旋转或移动,使得跟踪目标位于成像设备拍摄的下一帧视频图像中。
以上对本发明实施例视频跟踪设备的跟踪方法进行了详细说明,本发明还提供了一种视频跟踪设备,以下结合图3进行详细说明:
参见图3,图3是本发明实施例视频跟踪设备的结构示意图,如图3所示,该设备300包括处理器301和非瞬时性计算机可读存储介质302,其中,
所述非瞬时性计算机可读存储介质302,用于存储可以被所述处理器301执行的指令,在所述指令被所述处理器301执行时,使得所述处理器301:
从成像设备获取一帧视频图像及表征该帧视频图像的场景复杂度的参数;
基于该参数在所述多种跟踪算法中选择适用于该帧视频图像的跟踪算法;
根据适用于该帧视频图像的跟踪算法确定该帧视频图像中的跟踪目标;
提取该帧视频图像中的跟踪目标的位置信息,基于该位置信息计算该跟踪目标与该视频图像中心的距离;
根据所述距离调整成像设备的拍摄角度,以使该跟踪目标处于该视频图像中心。
图3所示设备中,
所述成像设备中集成了成像机芯;
所述处理器301,从成像设备获取一帧视频图像及表征该帧视频图像的场景复杂度的参数时,用于:
接收成像设备发送的由所述成像机芯拍摄的该帧视频图像及该帧视频图像的清晰度评价参数,所述清晰度评价参数为表征该帧视频图像的场景复杂度的参数。
图3所示设备中,
所述处理器301,基于该参数在所述多种跟踪算法中选择适用于该帧视频图像的跟踪算法时,用于:
确定该参数与预先设置的每种跟踪算法对应的参数取值范围的对应关系;
将对应于该取值范围的跟踪算法确定为适用于该视频图像的跟踪算法。
图3所示设备中,
所述多种跟踪算法包括:对比度跟踪算法、二值跟踪算法、和相关跟踪算法;
适用于该帧视频图像的跟踪算法为对比度跟踪算法或二值跟踪算法时,所述处理器301根据该跟踪算法确定该帧视频图像中的跟踪目标,包括:
针对该帧视频图像中每一检测目标,提取该检测目标对应的用于该跟踪算法的跟踪信息;
根据所有检测目标的用于该跟踪算法的跟踪信息,从该帧视频图像的所有检测目标中筛选出跟踪目标;
适用于该帧视频图像的跟踪算法为相关跟踪算法时,所述处理器301根据该跟踪算法确定该帧视频图像中的跟踪目标,包括:
依据预先选定的包含有跟踪目标的模板图像,从该帧视频图像的所有检测目标中筛选出与该模板图像匹配度最大的检测目标,将该检测目标确定为该帧视频图像的跟踪目标。
图3所示设备中,
所述处理器301,根据所述距离调整成像设备的拍摄角度时,用于:将所述距离信息发送到搭载所述视频跟踪器的随动控制设备,以使随动控制设备根据该距离信息执行随动控制操作。
将该跟踪目标与该视频图像中心的距离信息发送到搭载所述视频跟踪器的随动控制设备,以使随动控制设备根据该距离信息执行随动控制操作。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。

Claims (10)

1.一种视频跟踪设备的跟踪方法,其特征在于,所述视频跟踪设备支持多种跟踪算法;该方法包括:
从成像设备获取一帧视频图像及表征该帧视频图像的场景复杂度的参数;
基于该参数在所述多种跟踪算法中选择适用于该帧视频图像的跟踪算法;
根据适用于该帧视频图像的跟踪算法确定该帧视频图像中的跟踪目标;
提取该帧视频图像中的跟踪目标的位置信息,基于该位置信息计算该跟踪目标与该视频图像中心的距离;
根据所述距离调整成像设备的拍摄角度,以使该跟踪目标处于该视频图像中心。
2.根据权利要求1所述的方法,其特征在于,
所述成像设备中集成了成像机芯;从成像设备获取一帧视频图像及表征该帧视频图像的场景复杂度的参数的方法为:
接收成像设备发送的由所述成像机芯拍摄的该帧视频图像及该帧视频图像的清晰度评价参数,所述清晰度评价参数为表征该帧视频图像的场景复杂度的参数。
3.根据权利要求1所述的方法,其特征在于,基于该参数在所述多种跟踪算法中选择适用于该帧视频图像的跟踪算法的方法为:
确定该参数与预先设置的每种跟踪算法对应的参数取值范围的对应关系;
将对应于该取值范围的跟踪算法确定为适用于该视频图像的跟踪算法。
4.根据权利要求1所述的方法,其特征在于,
所述多种跟踪算法包括:对比度跟踪算法、二值跟踪算法、和相关跟踪算法;
适用于该帧视频图像的跟踪算法为对比度跟踪算法或二值跟踪算法时,根据该跟踪算法确定该帧视频图像中的跟踪目标,包括:
针对该帧视频图像中每一检测目标,提取该检测目标的用于该跟踪算法的跟踪信息;
根据所有检测目标的用于该跟踪算法的跟踪信息,从该帧视频图像的所有检测目标中筛选出跟踪目标;
适用于该帧视频图像的跟踪算法为相关跟踪算法时,根据该跟踪算法确定该帧视频图像中的跟踪目标,包括:
依据预先选定的包含有跟踪目标的模板图像,从该帧视频图像的所有检测目标中筛选出与该模板图像匹配度最大的检测目标,将该检测目标确定为该帧视频图像的跟踪目标。
5.根据权利要求1所述的方法,其特征在于,
根据所述距离调整成像设备的拍摄角度方法为:将所述距离信息发送到搭载所述视频跟踪器的随动控制设备,以使随动控制设备根据该距离信息执行随动控制操作。
6.一种视频跟踪设备,其特征在于,所述视频跟踪设备支持多种跟踪算法;该设备包括非瞬时性计算机可读存储介质和处理器,其中,
所述非瞬时性计算机可读存储介质,用于存储可以被所述处理器执行的指令,在所述指令由所述处理器执行时,使得所述处理器:
从成像设备获取一帧视频图像及表征该帧视频图像的场景复杂度的参数;
基于该参数在所述多种跟踪算法中选择适用于该帧视频图像的跟踪算法;
根据适用于该帧视频图像的跟踪算法确定该帧视频图像中的跟踪目标;
提取该帧视频图像中的跟踪目标的位置信息,基于该位置信息计算该跟踪目标与该视频图像中心的距离;
根据所述距离调整成像设备的拍摄角度,以使该跟踪目标处于该视频图像中心。
7.根据权利要求6所述的设备,其特征在于,
所述成像设备中集成了成像机芯;
所述处理器,从成像设备获取一帧视频图像及表征该帧视频图像的场景复杂度的参数时,用于:
接收成像设备发送的由所述成像机芯拍摄的该帧视频图像及该帧视频图像的清晰度评价参数,所述清晰度评价参数为表征该帧视频图像的场景复杂度的参数。
8.根据权利要求6所述的设备,其特征在于,
所述处理器,基于该参数在所述多种跟踪算法中选择适用于该帧视频图像的跟踪算法时,用于:
确定该参数与预先设置的每种跟踪算法对应的参数取值范围的对应关系;
将对应于该取值范围的跟踪算法确定为适用于该视频图像的跟踪算法。
9.根据权利要求6所述的设备,其特征在于,
所述多种跟踪算法包括:对比度跟踪算法、二值跟踪算法、和相关跟踪算法;
适用于该帧视频图像的跟踪算法为对比度跟踪算法或二值跟踪算法时,所述处理器根据该跟踪算法确定该帧视频图像中的跟踪目标,包括:
针对该帧视频图像中每一检测目标,提取该检测目标对应的用于该跟踪算法的跟踪信息;
根据所有检测目标的用于该跟踪算法的跟踪信息,从该帧视频图像的所有检测目标中筛选出跟踪目标;
适用于该帧视频图像的跟踪算法为相关跟踪算法时,所述处理器根据该跟踪算法确定该帧视频图像中的跟踪目标,包括:
依据预先选定的包含有跟踪目标的模板图像,从该帧视频图像的所有检测目标中筛选出与该模板图像匹配度最大的检测目标,将该检测目标确定为该帧视频图像的跟踪目标。
10.根据权利要求6所述的设备,其特征在于,
所述处理器,根据所述距离调整成像设备的拍摄角度时,用于:将所述距离信息发送到搭载所述视频跟踪器的随动控制设备,以使随动控制设备根据该距离信息执行随动控制操作。
CN201910555419.6A 2019-06-25 2019-06-25 一种视频跟踪设备的跟踪方法和视频跟踪设备 Pending CN112132858A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201910555419.6A CN112132858A (zh) 2019-06-25 2019-06-25 一种视频跟踪设备的跟踪方法和视频跟踪设备
PCT/CN2020/075481 WO2020258889A1 (zh) 2019-06-25 2020-02-17 一种视频跟踪设备的跟踪方法和视频跟踪设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910555419.6A CN112132858A (zh) 2019-06-25 2019-06-25 一种视频跟踪设备的跟踪方法和视频跟踪设备

Publications (1)

Publication Number Publication Date
CN112132858A true CN112132858A (zh) 2020-12-25

Family

ID=73849405

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910555419.6A Pending CN112132858A (zh) 2019-06-25 2019-06-25 一种视频跟踪设备的跟踪方法和视频跟踪设备

Country Status (2)

Country Link
CN (1) CN112132858A (zh)
WO (1) WO2020258889A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113949830A (zh) * 2021-09-30 2022-01-18 国家能源集团广西电力有限公司 一种图像处理方法
CN115170615A (zh) * 2022-09-02 2022-10-11 环球数科集团有限公司 一种基于智能摄像机的高速视觉系统及其目标跟踪算法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090053295A (ko) * 2007-11-23 2009-05-27 주식회사 에스원 비디오 감시 방법 및 시스템
US20110115920A1 (en) * 2009-11-18 2011-05-19 Industrial Technology Research Institute Multi-state target tracking mehtod and system
US20140304597A1 (en) * 2013-04-05 2014-10-09 Nbcuniversal Media, Llc Content-object synchronization and authoring of dynamic metadata
US20150220789A1 (en) * 2014-01-31 2015-08-06 The Charles Stark Draper Technology, Inc. Systems and methods for detecting and tracking objects in a video stream
CN107016367A (zh) * 2017-04-06 2017-08-04 北京精英智通科技股份有限公司 一种跟踪控制方法及跟踪控制系统
US20190122372A1 (en) * 2017-10-25 2019-04-25 Institute For Information Industry Object detection and tracking method and system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104184932B (zh) * 2013-05-20 2018-03-23 浙江大华技术股份有限公司 球机控制方法及装置
CN108496350B (zh) * 2017-09-27 2021-02-02 深圳市大疆创新科技有限公司 一种对焦处理方法及设备
CN109815844A (zh) * 2018-12-29 2019-05-28 西安天和防务技术股份有限公司 目标检测方法及装置、电子设备和存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090053295A (ko) * 2007-11-23 2009-05-27 주식회사 에스원 비디오 감시 방법 및 시스템
US20110115920A1 (en) * 2009-11-18 2011-05-19 Industrial Technology Research Institute Multi-state target tracking mehtod and system
US20140304597A1 (en) * 2013-04-05 2014-10-09 Nbcuniversal Media, Llc Content-object synchronization and authoring of dynamic metadata
US20150220789A1 (en) * 2014-01-31 2015-08-06 The Charles Stark Draper Technology, Inc. Systems and methods for detecting and tracking objects in a video stream
CN107016367A (zh) * 2017-04-06 2017-08-04 北京精英智通科技股份有限公司 一种跟踪控制方法及跟踪控制系统
US20190122372A1 (en) * 2017-10-25 2019-04-25 Institute For Information Industry Object detection and tracking method and system

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
刘松涛 等: "舰船红外成像目标智能跟踪算法研究与实现", 《激光与红外》, vol. 35, no. 3, pages 194 *
章文辉 等: "《数字视频测量技术》", 30 June 2016, 中国传媒大学出版社, pages: 170 - 180 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113949830A (zh) * 2021-09-30 2022-01-18 国家能源集团广西电力有限公司 一种图像处理方法
CN113949830B (zh) * 2021-09-30 2023-11-24 国家能源集团广西电力有限公司 一种图像处理方法
CN115170615A (zh) * 2022-09-02 2022-10-11 环球数科集团有限公司 一种基于智能摄像机的高速视觉系统及其目标跟踪算法

Also Published As

Publication number Publication date
WO2020258889A1 (zh) 2020-12-30

Similar Documents

Publication Publication Date Title
US11102417B2 (en) Target object capturing method and device, and video monitoring device
US20200167554A1 (en) Gesture Recognition Method, Apparatus, And Device
US10999519B2 (en) Target tracking method and device, movable platform, and storage medium
ES2869438T3 (es) Captura de imágenes asistida por rastreador
EP2710554B1 (en) Head pose estimation using rgbd camera
US9025875B2 (en) People counting device, people counting method and people counting program
US8279930B2 (en) Image processing apparatus and method, program, and recording medium
CN109086724B (zh) 一种加速的人脸检测方法及存储介质
US20110211749A1 (en) System And Method For Processing Video Using Depth Sensor Information
CN106708084A (zh) 复杂环境下无人机自动障碍物检测和避障方法
US20160110610A1 (en) Image processor, image processing method, and computer program
JP2016085742A (ja) 前景画像分割方法及び前景画像分割装置
CN104021571A (zh) 一种增强用户体验的运动目标自动跟踪方法及装置
KR20130072073A (ko) 영상 윤곽선 추출 장치 및 방법
CN112132858A (zh) 一种视频跟踪设备的跟踪方法和视频跟踪设备
US9959634B2 (en) Method and system for identifying depth data associated with an object
WO2017101292A1 (zh) 自动对焦的方法、装置和系统
JP2004301607A (ja) 移動物体検出装置、移動物体検出方法及び移動物体検出プログラム
CN107977981B (zh) 一种运动目标跟踪方法及装置
US9596410B2 (en) Vision systems and methods for analysing images taken by image sensors
US12088776B2 (en) Video generation apparatus, method and program
CN114639159A (zh) 移动行人检测方法、电子设备及机器人
CN112666550A (zh) 运动物体检测方法及装置、融合处理单元、介质
US20230290061A1 (en) Efficient texture mapping of a 3-d mesh
KR20140106870A (ko) 인텐시티 영상과 깊이 영상을 이용한 컬러 영상 개선 장치 및 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination