CN103177453B - 一种基于运动物体边沿特性的事件分析方法和装置 - Google Patents
一种基于运动物体边沿特性的事件分析方法和装置 Download PDFInfo
- Publication number
- CN103177453B CN103177453B CN201110433912.4A CN201110433912A CN103177453B CN 103177453 B CN103177453 B CN 103177453B CN 201110433912 A CN201110433912 A CN 201110433912A CN 103177453 B CN103177453 B CN 103177453B
- Authority
- CN
- China
- Prior art keywords
- edge
- video
- space
- frame
- baseline locomotor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004458 analytical method Methods 0.000 title claims abstract description 21
- 230000003137 locomotive effect Effects 0.000 claims abstract description 153
- 230000002123 temporal effect Effects 0.000 claims abstract description 54
- 238000000034 method Methods 0.000 claims abstract description 29
- 238000004364 calculation method Methods 0.000 claims description 17
- 239000000284 extract Substances 0.000 claims description 7
- 239000000203 mixture Substances 0.000 claims description 6
- 238000013519 translation Methods 0.000 claims description 6
- 238000012544 monitoring process Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 238000011161 development Methods 0.000 description 5
- 238000012512 characterization method Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
本发明公开了一种基于运动物体边沿特性的事件分析方法和系统。该方法包括:获取第一预定时间间隔内多个视频帧的前景图像中的基准运动边沿图形;计算第一预定时间间隔内多个视频帧的基准运动边沿图形的几何中心位置、占空比空间扩散率;计算几何中心位置的时间特征、占空比的时间特征和空间扩速率的时间特征;根据几何中心位置的时间特征、占空比的时间特征和空间扩速率的时间特征中的至少一个,判定是否属于预先设定的事件时间特征。通过对运动特征进行组合,特征集合可以和不同的事件之间有很好的对应关系,从而可以准确地分析出视频片段内的事件内容。
Description
技术领域
本发明涉及视频图像分析领域,特别涉及一种基于运动物体边沿特性的事件分析方法和装置。
背景技术
随着视频监控和分析技术的发展,其应用范围越来越广,包括公安、质检、保险、环保、气象、金融、交通、水利、城管以及中小企业等领域,同时随着网络技术的发展,各个监控点不再是简单的单机监控而可能多个分机从各个方位进行监控。监控的时间周期也逐渐从每天的8小时延长到24小时。尤其在重要的区域和时间段,对社会安全、人身安全提出了更高的安全要求,这促进视频监控领域更加的发展,监控摄像头的数量不断增加,与此同时对通过监控获得的视频内容的分析工作也带来了更艰巨的挑战。
其中,对城市安全管理和社区安全管理的巨大挑战是如何快速准确的发现不同种类的群体事件,使用视频监控和分析技术鉴别这类事件的发生,对维护社会稳定有着重要的意义。
发明内容
本发明的发明人提出了一种新的技术方案,根据视频监控到的视频图像,进行运动物体边沿特性的分析,从而分析是否发生特定的事件。
本发明的一个目的是提供一种基于运动物体边沿特性的事件分析方法和装置。
根据本发明的第一方面,提供了一种基于运动物体边沿特性的事件分析方法,该方法包括:
获取第一预定时间间隔内多个视频帧的前景图像中的基准运动边沿图形;
计算所述第一预定时间间隔内多个视频帧的所述基准运动边沿图形的几何中心位置、占空比以及空间扩散率,
以所述第一预定时间间隔内第一个视频帧的所述基准运动边沿图形的几何中心位置为中心,以预定的角度将所述基准运动边沿图形所在的平面进行均分,以平分线为坐标轴形成第一坐标系,所述空间扩散率为由构成所述基准运动边沿图形的点在所述第一坐标系的相应坐标轴上的投影之和的绝对值组成的向量;
根据所述第一预定时间间隔内前后相邻两帧的所述基准运动边沿图形的几何中心位置、占空比和空间扩散率,分别计算所述第一预定时间间隔内所述多个视频帧的基准运动边沿图形的几何中心位置的变化率、占空比的变化率和空间扩散率的变化率,构成几何中心位置的时间特征、占空比的时间特征和空间扩散率的时间特征;
根据所述几何中心位置的时间特征、占空比的时间特征和空间扩速率的时间特征中的至少一个,判定是否属于预先设定的事件时间特征。
优选地,所述基准运动边沿图形的占空比为所述基准运动边沿图形的像素数量与所述基准运动边沿图形所围成的区域的像素数量之比。
优选地,该方法还包括:
获取第二预定时间间隔内多个视频帧的基准运动边沿图形;
计算所述第二预定时间间隔内多个视频帧的所述基准运动边沿图形的几何中心位置;
计算所述第一预定时间间隔和所述第二预定时间间隔内的第一个视频帧的所述基准运动边沿图形的几何中心位置的空间变化量,构成几何中心位置的空间特征;
将所述第一坐标系的中心平移至以所述第二预定时间间隔内第一个视频帧的所述基准运动边沿图形的几何中心位置,成为第二坐标系,计算所述第二预定时间间隔内多个视频帧的所述基准运动边沿图形在所述第二坐标系下的空间扩散率;
计算所述第一预定时间间隔内多个视频帧的基准运动边沿图形在第一坐标系下的空间扩散率平均值作为第一空间扩散率均值;
计算所述第二预定时间间隔内多个视频帧的基准运动边沿图形在第二坐标系下的空间扩散率平均值作为第二空间扩散率均值;
计算所述第一空间扩散率均值和所述第二空间扩散率均值的差值作为空间扩散率的空间变化量,构成空间扩散率的空间特征;
根据所述几何中心位置的空间特征、空间扩散率的空间特征,判定是否属于预先设定的事件空间特征。
优选地,所述视频帧的前景图像中的基准运动边沿图形通过以下方法获得:
生成所述视频帧的背景;
基于所述视频帧的背景提取所述视频帧的前景;
提取所述视频的前景的每一个像素点的亮度信息,作为每一个像素点的运动特征因子;
选择所述视频帧的所述运动因子变化率最大的点作为第一运动边沿基准点,所述运动特征因子变化率为当前帧与下一帧的前景中的所述运动特征因子取值的变化量;
比较与所述第一运动边沿基准点相邻的8个像素点中尚未被比较过的像素点的运动特征因子变化率,选择其中运动特征因子变化率最大的像素点作为第二运动边沿基准点,
以所述第二运动边沿基准点作为第一运动边沿基准点,循环执行所述比较步骤,直至所述视频帧的所有像素点均被比较过,其中所述视频帧的所有像素点只被比较一次,
所述第一和第二运动边沿基准点构成所述视频帧的前景中的基准运动边沿图形。
优选地,所述亮度信息为YUV模式下的亮度分量与HSL模式下的亮度分量的乘积。
根本发明的第二个发明,还提供了一种基于运动物体边沿特性的装置,该装置包括:
基准运动边沿图形获取单元,用于获取第一预定时间间隔内多个视频帧的前景图像中的基准运动边沿图形;
基准运动边沿图形计算单元,用于计算所述第一预定时间间隔内多个视频帧的所述基准运动边沿图形的几何中心位置、占空比以及空间扩散率,
以所述第一预定时间间隔内第一个视频帧的所述基准运动边沿图形的几何中心位置为中心,以预定的角度将所述基准运动边沿图形所在的平面进行均分,以平分线为坐标轴形成第一坐标系,所述空间扩散率为由构成所述基准运动边沿图形的点在所述第一坐标系的相应坐标轴上的投影之和的绝对值组成的向量;
时间特征计算单元,用于根据所述第一预定时间间隔内前后相邻两帧的所述基准运动边沿图形的几何中心位置、占空比和空间扩散率,分别计算所述第一预定时间间隔内所述多个视频帧的基准运动边沿图形的几何中心位置的变化率、占空比的变化率和空间扩散率的变化率,构成几何中心位置的时间特征、占空比的时间特征和空间扩散率的时间特征;
事件判定单元,用于根据所述几何中心位置的时间特征、占空比的时间特征和空间扩速率的时间特征中的至少一个,判定是否属于预先设定的事件时间特征。
优选地,所述基准运动边沿图形的占空比为所述基准运动边沿图形的像素数量与所述基准运动边沿图形所围成的区域的像素数量之比。
优选地,该装置还包括:
第二基准运动边沿图形获取单元,用于获取第二预定时间间隔内多个视频帧的基准运动边沿图形;
第二基准运动边沿图形计算单元,用于计算所述第二预定时间间隔内多个视频帧的所述基准运动边沿图形的几何中心位置;
几何中心位置空间特征计算单元,用于计算所述第一预定时间间隔和所述第二预定时间间隔内的第一个视频帧的所述基准运动边沿图形的几何中心位置的空间变化量,构成几何中心位置的空间特征;
空间扩散率空间特征计算单元,用于将所述第一坐标系的中心平移至以所述第二预定时间间隔内第一个视频帧的所述基准运动边沿图形的几何中心位置,成为第二坐标系,计算所述第二预定时间间隔内多个视频帧的所述基准运动边沿图形在所述第二坐标系下的空间扩散率,
计算所述第一预定时间间隔内多个视频帧的基准运动边沿图形在第一坐标系下的空间扩散率平均值作为第一空间扩散率均值,
计算所述第二预定时间间隔内多个视频帧的基准运动边沿图形在第二坐标系下的空间扩散率平均值作为第二空间扩散率均值,
计算所述第一空间扩散率均值和所述第二空间扩散率均值的差值作为空间扩散率的空间变化量,构成空间扩散率的空间特征;
第二事件判定单元,用于根据所述几何中心位置的空间特征、空间扩散率的空间特征,判定是否属于预先设定的事件空间特征。
优选地,所述基准运动边沿图形获取单元包括:
背景生成模块,用于生成所述视频帧的背景;
前景提取模块,用于基于所述视频帧的背景提取所述视频帧的前景;
运动特征因子提前模块,用于提取所述视频的前景的每一个像素点的亮度信息,作为每一个像素点的运动特征因子;
基准运动边沿图形获取模块,用于选择所述视频帧的所述运动因子变化率最大的点作为第一运动边沿基准点,所述运动特征因子变化率为当前帧与下一帧的前景中的所述运动特征因子取值的变化量,
比较与所述第一运动边沿基准点相邻的8个像素点中尚未被比较过的像素点的运动特征因子变化率,选择其中运动特征因子变化率最大的像素点作为第二运动边沿基准点,
以所述第二运动边沿基准点作为第一运动边沿基准点,循环执行所述比较步骤,直至所述视频帧的所有像素点均被比较过,其中所述视频帧的所有像素点只被比较一次,
所述第一和第二运动边沿基准点构成所述视频帧的前景中的基准运动边沿图形。
优选地,所述亮度信息为YUV模式下的亮度分量与HSL模式下的亮度分量的乘积。
在本发明提供的技术中,通过对视频图像中运动物体边沿特性的分析,划分出鉴别不同群体事件。即通过对视频图像中运动物体的基准运动边沿图形的分析,计算基准运动边沿图形多个特征,从而提取该运动物体的多个运动特征因子。通过对这些运动特征组合,得到该群类的特征向量集合。特征向量集合可以和不同的事件之间有很好的对应关系。例如,简单人员行走,奔跑,游荡,蹲伏,打架,聚集等。从而可以准确地分析出一段时间内的视频片段内的事件内容。
更进一步,还可以利用不同事件的特征向量集合的相似程度以及不同时间视频片段中事件的特征向量集合的变化,还可以预测事件属性发展的可能性。通过这一系统,可以提高基于事件类型的视频搜索以及目标定位的速度,可以对特定事件的发展进行预测。
通过以下参照附图对本发明的示例性实施例的详细描述,本发明的其它特征及其优点将会变得清楚。
附图说明
构成说明书的一部分的附图描述了本发明的实施例,并且连同说明书一起用于解释本发明的原理。
参照附图,根据下面的详细描述,可以更加清楚地理解本发明,其中:
图1示出本发明提供的基于运动物体边沿特性的事件分析方法实施例的流程示意图;
图2示出本发明提供的基于运动物体边沿特性的事件分析装置实施例的结构示意图。
具体实施方式
现在将参照附图来详细描述本发明的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置不限制本发明的范围。
同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本发明及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为授权说明书的一部分。
在这里示出和讨论的所有示例中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它示例可以具有不同的值。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
基于运动物体边沿特性的事件分析方法
图1示出本发明提供的基于运动物体边沿特性的事件分析方法实施例的流程示意图。参见图1所示,介绍本发明所提供的基于运动物体边沿特性的事件分析方法实施例。
步骤101,获取第一预定时间间隔内多个视频帧的前景图像中的基准运动边沿图形。
前景图像中的基准运动边沿图形可以采用本领域技术人员所知的多种方法。一种优选的方法可以利用前景图像中的亮度信息来提取基准运动边沿图形。以下详细介绍通过亮度信息来获取前景图像中的亮度信息来提取基准运动边沿图形。
首先,生成视频帧的背景。
对于预定时间间隔内多个视频帧,可以针对每一帧视频图像,采样本领域技术人员熟知的方法来生成视频的背景。例如,为了获得更更快的处理速度,可以采用单帧建模,快速更新的方法。
接下来,基于视频帧的背景提取视频帧的前景。
在视频帧的背景的基础上,基于视频帧的背景提起视频帧的前景以及提取前景。
接下来,提取视频的前景的每一个像素点的亮度信息,作为每一个像素点的运动特征因子。
前景图像中包含了运动群类图像,运动群类运动可以通过群类的边缘来体现,因此可以提取每一帧前景图像中运动群落的边沿。一种方法是利用边沿图像的亮度信息,即提取视频的前景的每一个像素点色彩的亮度信息,作为每一个像素点的运动特征因子。
亮度信息可以是包含像素点在YUV模式下的亮度Y分量与HSL模式下的亮度L分量的乘积。具体提取视频的前景的每一个像素点的亮度信息方法可以是将每一个像素点Y分量和L分量相乘,作为每一个像素点的运动特征因子μ=(Y*L)。
接下来,选择视频帧的运动因子变化率最大的点作为第一运动边沿基准点,运动特征因子变化率为当前帧与下一帧的前景中的运动特征因子取值的变化量。
计算在视频帧的运动因子变化率最大的点作为第一运动边沿基准点,运动特征因子变化率为当前帧与下一帧的前景中的运动特征因子取值的变化量最大的点作为参考的运动边沿基准点。
接下来,比较与第一运动边沿基准点相邻的8个像素点中尚未被比较过的像素点的运动特征因子变化率,选择其中运动特征因子变化率最大的像素点作为第二运动边沿基准点,以第二运动边沿基准点作为第一运动边沿基准点,循环执行比较步骤,直至视频帧的所有像素点均被比较过,其中视频帧的所有像素点只被比较一次。
具体来说,就是以运动因子变化率最大的点开始,依次向外扩展寻找与其相连8个像素点的提取这8个点中最大的点做第二个运动边沿基准点,这样,在潜在前景的范围内将所有的像素点都比较过一次从而得到视频帧的前景点中的所有运动边沿基准点。从而针对每一帧获得了一个由运动基准点构成的图形,作为该帧的基准运动边沿图形T。
步骤102,计算第一预定时间间隔内多个视频帧的基准运动边沿图形的几何中心位置、占空比和空间扩速率。
计算每一帧的基准运动边沿图形T的边沿特性包括几何中心位置cc,占空比OBR和空间扩散率SDR。具体可以通过以下方法。
几何中心位置cc
基准运动边沿图形T为一个封闭区域的边界时,可以直接计算基准运动边沿图形几何中心位置。当基准运动边沿图形不是一个封闭区域的边界时,将非封闭的图形中为连接的点用直线进行连接,形成非膨胀的封闭区域,即基准运动边沿图形的外接非膨胀封闭区域,从而可以计算基准运动边沿图形几何中心位置。
占空比OBR
占空比描述基准运动边沿图形T的内容点聚集密集程度的指标。基准运动边沿图形的占空比可以表示为基准运动边沿图形的像素数量与基准运动边沿图形所围成的区域的像素数量之比。基准运动边沿图形的所有像素点并不一定形成一个封闭的区间边界,此时,可以采用与上述方法类似地将非封闭的图形非膨胀地封闭,形成基准运动边沿图形的外接非膨胀封闭区域。
空间扩散率SDR
为更加精确的获得基准运动边沿图形的运行方向变换趋势,以第一预定时间间隔内第一个视频帧的基准运动边沿图形的几何中心位置为中心,以预定的角度Ω将基准运动边沿图形所在的平面进行均分,形成多个角度为Ω扇型区域,以平分线为坐标轴,形成第一坐标系。接下来,计算第一预定时间间隔内多个视频帧的基准运动边沿图形在第一坐标系下的空间扩散率。基准运动边沿图形T的空间扩散率为由构成基准运动边沿图形的点在第一坐标系的相应坐标轴上的投影之和的绝对值组成的向量。空间扩散率SDR描述了基准运动边沿图形T的内容点分布是否存在特定方向上的明显的趋向扩散。计算过程中,角度Ω越小,划分的空间角度越密集,计算结果对最终的判断影响越正确,但计算量越大。
步骤103,根据第一预定时间间隔内前后相邻两帧的基准运动边沿图形的几何中心位置、占空比和空间扩散率,分别计算第一预定时间间隔内多个视频帧的基准运动边沿图形的几何中心位置的变化率、占空比的变化率和空间扩散率的变化率,构成几何中心位置的时间特征、占空比的时间特征和空间扩速率的时间特征。
针对第一预定时间间隔内的视频帧,计算基准运动边沿图形的时间变化特征,表示为μt。一定时间段内的前后帧的几何中心位置的时间特征、占空比的时间特征和空间扩速率的时间特征分别表示为μt-cc,μt-obr,μt-sdr。例如,预定时间段为500ms,即以500ms作为一个标准时间区段Du。μt对应cc,obr,sdr分别是μt-cc,μt-obr,μt-sdr。计算变化率时,前后帧的时间间隔越小,即预定时间段内的帧数越多,结果越准确,但是相应的计算量会增大。
在另一种实施例中,还可以进一步增加对基准运动边沿图形T的空间特征us的计算和分析,包括几何中心位置的空间特征us-cc以及空间扩散率的空间特征us-sdr。几何中心位置的空间特征us-cc体现了在两个时间段内坐标原点的变化。计算几何中心位置的空间特征us-cc以及空间扩散率的空间特征us-sdr的方法具体如下。
几何中心位置的空间特征
首先,获取第二预定时间间隔内多个视频帧的基准运动边沿图形。
接下来,计算第二预定时间间隔内多个视频帧的基准运动边沿图形的几何中心位置的坐标。
接下来,计算第一预定时间间隔和第二预定时间间隔内的第一个视频帧的基准运动边沿图形的几何中心位置的空间变化量,构成几何中心位置的空间特征。
空间扩散率的空间特征
首先,将第一坐标系的中心平移至以第二预定时间间隔内第一个视频帧的基准运动边沿图形的几何中心位置,成为第二坐标系,计算第二预定时间间隔内多个视频帧的基准运动边沿图形在第二坐标系下的空间扩散率。
接下来,计算第一预定时间间隔内多个视频帧的基准运动边沿图形在第一坐标系下的空间扩散率平均值作为第一空间扩散率均值。
接下来,计算第二预定时间间隔内多个视频帧的基准运动边沿图形在第二坐标系下的空间扩散率平均值作为第二空间扩散率均值。
接下来,计算第一空间扩散率均值和第二空间扩散率均值的差值作为空间扩散率的空间变化量,构成空间扩散率的空间特征。
根据us-cc和μs-sdr,进一步地,还可以得到基准运动边沿图形的空间鉴别因子μs。μs是一个由μs-cc和μs-sdr构成的线性函数,us=A*us-cc+B*us-sdr,其中,A和B是预定的系数,其斜率表征了操作者对不同事件特性的关注度,是一个可以根据操作人的倾向进行调整的参数。
步骤104,根据几何中心位置的时间特征、占空比的时间特征和空间扩速率的时间特征中的至少一个,判定是否属于预先设定的事件时间特征。
根据基准运动边沿图形的几何中心位置的时间特征μt-cc、占空比的时间特征μt-obr和空间扩速率的时间特征μt-sdr中的一个或多个,形成预定时间间隔内的视频图像前景中的运动特征因子集合β。可以将β看作一个3维的空间,不同的运动群类具有不同的特征因子集合。
根据另一种实施例,还可以进一步增加几何中心位置的空间特征us-cc以及空间扩散率的空间特征us-sdr,从而得到的运动特征因子集合β可以看作一个5维的空间。
根据不同的事件的特点,运动特征因子集合β可以包含一个特征因子,也可以包含多个特征因子的组合。例如下表所示出的,以下的第一时间间隔Du为500ms,角度Ω为45度。
根据计算出的事件的时间特征和空间特征,还可以预测事件的发展。在时间顺序上分析前后时间段内的β的变化,从而可以得出事件发展的可能性,进而还可以获取其在空间分布上的概率。
基于运动物体边沿特性的事件分析装置
图2示出示出本发明提供的基于运动物体边沿特性的事件分析装置实施例的结构示意图。参见图2所示,介绍本发明所提供的基于运动物体边沿特性的事件分析装置实施例。
该装置包括基准运动边沿图形获取单元201、基准运动边沿图形计算单元202、时间特征计算单元203以及事件判定单元204。
基准运动边沿图形获取单元201用于获取第一预定时间间隔内多个视频帧的前景图像中的基准运动边沿图形。
基准运动边沿图形计算单元202用于计算第一预定时间间隔内多个视频帧的基准运动边沿图形的几何中心位置、占空比以及空间扩散率,以第一预定时间间隔内第一个视频帧的基准运动边沿图形的几何中心位置为中心,以预定的角度将基准运动边沿图形所在的平面进行均分,以平分线为坐标轴形成第一坐标系,空间扩散率为由构成基准运动边沿图形的点在第一坐标系的相应坐标轴上的投影之和的绝对值组成的向量。
时间特征计算单元203用于根据第一预定时间间隔内前后相邻两帧的基准运动边沿图形的几何中心位置、占空比和空间扩散率,分别计算第一预定时间间隔内多个视频帧的基准运动边沿图形的几何中心位置的变化率、占空比的变化率和空间扩散率的变化率,构成几何中心位置的时间特征、占空比的时间特征和空间扩散率的时间特征。
其中,基准运动边沿图形的占空比为基准运动边沿图形的像素数量与基准运动边沿图形所围成的区域的像素数量之比。
事件判定单元204用于根据几何中心位置的时间特征、占空比的时间特征和空间扩速率的时间特征中的至少一个,判定是否属于预先设定的事件时间特征。
在另一种实施例中,分析装置还可以包括第二基准运动边沿图形获取单元、第二基准运动边沿图形计算单元、几何中心位置空间特征计算单元、空间扩散率空间特征计算单元和第二事件判定单元。
第二基准运动边沿图形获取单元,用于获取第二预定时间间隔内多个视频帧的基准运动边沿图形。
第二基准运动边沿图形计算单元用于计算第二预定时间间隔内多个视频帧的基准运动边沿图形的几何中心位置。
几何中心位置空间特征计算单元用于计算第一预定时间间隔和第二预定时间间隔内的第一个视频帧的基准运动边沿图形的几何中心位置的空间变化量,构成几何中心位置的空间特征。
空间扩散率空间特征计算单元用于将第一坐标系的中心平移至以第二预定时间间隔内第一个视频帧的基准运动边沿图形的几何中心位置,成为第二坐标系,计算第二预定时间间隔内多个视频帧的基准运动边沿图形在第二坐标系下的空间扩散率,计算第一预定时间间隔内多个视频帧的基准运动边沿图形在第一坐标系下的空间扩散率平均值作为第一空间扩散率均值,计算第二预定时间间隔内多个视频帧的基准运动边沿图形在第二坐标系下的空间扩散率平均值作为第二空间扩散率均值,计算第一空间扩散率均值和第二空间扩散率均值的差值作为空间扩散率的空间变化量,构成空间扩散率的空间特征。
第二事件判定单元用于根据几何中心位置的空间特征、空间扩散率的空间特征,判定是否属于预先设定的事件空间特征。
基准运动边沿图形获取单元201具体可以包括背景生成模块、前景提取模块、运动特征因子提前模块和基准运动边沿图形获取模块。
背景生成模块用于生成视频帧的背景。
前景提取模块用于基于视频帧的背景提取视频帧的前景。
运动特征因子提前模块用于提取视频的前景的每一个像素点的亮度信息,作为每一个像素点的运动特征因子。根据信息可以为YUV模式下的亮度分量与HSL模式下的亮度分量的乘积。
基准运动边沿图形获取模块,选择视频帧的运动因子变化率最大的点作为第一运动边沿基准点,运动特征因子变化率为当前帧与下一帧的前景中的运动特征因子取值的变化量,比较与第一运动边沿基准点相邻的8个像素点中尚未被比较过的像素点的运动特征因子变化率,选择其中运动特征因子变化率最大的像素点作为第二运动边沿基准点,以第二运动边沿基准点作为第一运动边沿基准点,循环执行比较步骤,直至视频帧的所有像素点均被比较过,其中视频帧的所有像素点只被比较一次,第一和第二运动边沿基准点构成视频帧的前景中的基准运动边沿图形。
至此,已经详细描述了根据本发明的一种基于运动物体边沿特性的事件分析方法、装置。为了避免遮蔽本发明的构思,没有描述本领域所公知的一些细节。本领域技术人员根据上面的描述,完全可以明白如何实施这里公开的技术方案。
可能以许多方式来实现本发明的方法、系统和设备。例如,可通过软件、硬件、固件或者软件、硬件、固件的任何组合来实现本发明的方法和系统。用于所述方法的步骤的上述顺序仅是为了进行说明,本发明的方法的步骤不限于以上具体描述的顺序,除非以其它方式特别说明。此外,在一些实施例中,还可将本发明实施为记录在记录介质中的程序,这些程序包括用于实现根据本发明的方法的机器可读指令。因而,本发明还覆盖存储用于执行根据本发明的方法的程序的记录介质。
虽然已经通过示例对本发明的一些特定实施例进行了详细说明,但是本领域的技术人员应该理解,以上示例仅是为了进行说明,而不是为了限制本发明的范围。本领域的技术人员应该理解,可在不脱离本发明的范围和精神的情况下,对以上实施例进行修改。本发明的范围由所附权利要求来限定。
Claims (10)
1.一种基于运动物体边沿特性的事件分析方法,其特征在于,包括:
获取第一预定时间间隔内多个视频帧的前景图像中的基准运动边沿图形;
计算所述第一预定时间间隔内多个视频帧的所述基准运动边沿图形的几何中心位置、占空比以及空间扩散率,以所述第一预定时间间隔内第一个视频帧的所述基准运动边沿图形的几何中心位置为中心,以预定的角度将所述基准运动边沿图形所在的平面进行均分,以平分线为坐标轴形成第一坐标系,所述空间扩散率为由构成所述基准运动边沿图形的点在所述第一坐标系的相应坐标轴上的投影之和的绝对值组成的向量;
根据所述第一预定时间间隔内前后相邻两帧的所述基准运动边沿图形的几何中心位置、占空比和空间扩散率,分别计算所述第一预定时间间隔内所述多个视频帧的基准运动边沿图形的几何中心位置的变化率、占空比的变化率和空间扩散率的变化率,构成几何中心位置的时间特征、占空比的时间特征和空间扩散率的时间特征;
根据所述几何中心位置的时间特征、占空比的时间特征和空间扩速率的时间特征中的至少一个,判定是否属于预先设定的事件时间特征。
2.根据权利要求1所述的方法,其特征在于,所述基准运动边沿图形的占空比为所述基准运动边沿图形的像素数量与所述基准运动边沿图形所围成的区域的像素数量之比。
3.根据权利要求1所述的方法,其特征在于,该方法还包括:
获取第二预定时间间隔内多个视频帧的基准运动边沿图形;
计算所述第二预定时间间隔内多个视频帧的所述基准运动边沿图形的几何中心位置;
计算所述第一预定时间间隔和所述第二预定时间间隔内的第一个视频帧的所述基准运动边沿图形的几何中心位置的空间变化量,构成几何中心位置的空间特征;
将所述第一坐标系的中心平移至以所述第二预定时间间隔内第一个视频帧的所述基准运动边沿图形的几何中心位置,成为第二坐标系,计算所述第二预定时间间隔内多个视频帧的所述基准运动边沿图形在所述第二坐标系下的空间扩散率;
计算所述第一预定时间间隔内多个视频帧的基准运动边沿图形在所述第一坐标系下的空间扩散率平均值作为第一空间扩散率均值;
计算所述第二预定时间间隔内多个视频帧的基准运动边沿图形在所述第二坐标系下的空间扩散率平均值作为第二空间扩散率均值;
计算所述第一空间扩散率均值和所述第二空间扩散率均值的差值作为空间扩散率的空间变化量,构成空间扩散率的空间特征;
根据所述几何中心位置的空间特征、空间扩散率的空间特征,判定是否属于预先设定的事件空间特征。
4.根据权利要求1所述的方法,其特征在于,所述视频帧的前景图像中的基准运动边沿图形通过以下方法获得:
生成所述视频帧的背景;
基于所述视频帧的背景提取所述视频帧的前景;
提取所述视频帧的前景的每一个像素点的亮度信息,作为每一个像素点的运动特征因子;
选择所述视频帧的运动特征因子变化率最大的点作为第一运动边沿基准点,所述运动特征因子变化率为当前帧与下一帧的前景中的所述运动特征因子取值的变化量;
比较与所述第一运动边沿基准点相邻的8个像素点中尚未被比较过的像素点的运动特征因子变化率,选择其中运动特征因子变化率最大的像素点作为第二运动边沿基准点,以所述第二运动边沿基准点作为第一运动边沿基准点,循环执行所述比较步骤,直至所述视频帧的所有像素点均被比较过,其中所述视频帧的所有像素点只被比较一次,所述第一和第二运动边沿基准点构成所述视频帧的前景中的基准运动边沿图形。
5.根据权利要求4所述的方法,其特征在于,所述亮度信息为YUV模式下的亮度分量与HSL模式下的亮度分量的乘积。
6.一种基于运动物体边沿特性的事件分析装置,其特征在于,包括:
基准运动边沿图形获取单元,用于获取第一预定时间间隔内多个视频帧的前景图像中的基准运动边沿图形;
基准运动边沿图形计算单元,用于计算所述第一预定时间间隔内多个视频帧的所述基准运动边沿图形的几何中心位置、占空比以及空间扩散率,以所述第一预定时间间隔内第一个视频帧的所述基准运动边沿图形的几何中心位置为中心,以预定的角度将所述基准运动边沿图形所在的平面进行均分,以平分线为坐标轴形成第一坐标系,所述空间扩散率为由构成所述基准运动边沿图形的点在所述第一坐标系的相应坐标轴上的投影之和的绝对值组成的向量;
时间特征计算单元,用于根据所述第一预定时间间隔内前后相邻两帧的所述基准运动边沿图形的几何中心位置、占空比和空间扩散率,分别计算所述第一预定时间间隔内所述多个视频帧的基准运动边沿图形的几何中心位置的变化率、占空比的变化率和空间扩散率的变化率,构成几何中心位置的时间特征、占空比的时间特征和空间扩散率的时间特征;
事件判定单元,用于根据所述几何中心位置的时间特征、占空比的时间特征和空间扩速率的时间特征中的至少一个,判定是否属于预先设定的事件时间特征。
7.根据权利要求6所述的装置,其特征在于,所述基准运动边沿图形的占空比为所述基准运动边沿图形的像素数量与所述基准运动边沿图形所围成的区域的像素数量之比。
8.根据权利要求6所述的装置,其特征在于,该装置还包括:
第二基准运动边沿图形获取单元,用于获取第二预定时间间隔内多个视频帧的基准运动边沿图形;
第二基准运动边沿图形计算单元,用于计算所述第二预定时间间隔内多个视频帧的所述基准运动边沿图形的几何中心位置;
几何中心位置空间特征计算单元,用于计算所述第一预定时间间隔和所述第二预定时间间隔内的第一个视频帧的所述基准运动边沿图形的几何中心位置的空间变化量,构成几何中心位置的空间特征;
空间扩散率空间特征计算单元,用于将所述第一坐标系的中心平移至以所述第二预定时间间隔内第一个视频帧的所述基准运动边沿图形的几何中心位置,成为第二坐标系,计算所述第二预定时间间隔内多个视频帧的所述基准运动边沿图形在所述第二坐标系下的空间扩散率,计算所述第一预定时间间隔内多个视频帧的基准运动边沿图形在所述第一坐标系下的空间扩散率平均值作为第一空间扩散率均值,计算所述第二预定时间间隔内多个视频帧的基准运动边沿图形在所述第二坐标系下的空间扩散率平均值作为第二空间扩散率均值,计算所述第一空间扩散率均值和所述第二空间扩散率均值的差值作为空间扩散率的空间变化量,构成空间扩散率的空间特征;
第二事件判定单元,用于根据所述几何中心位置的空间特征、空间扩散率的空间特征,判定是否属于预先设定的事件空间特征。
9.根据权利要求6所述的装置,其特征在于,所述基准运动边沿图形获取单元包括:
背景生成模块,用于生成所述视频帧的背景;
前景提取模块,用于基于所述视频帧的背景提取所述视频帧的前景;
运动特征因子提前模块,用于提取所述视频帧的前景的每一个像素点的亮度信息,作为每一个像素点的运动特征因子;
基准运动边沿图形获取模块,用于选择所述视频帧的运动特征因子变化率最大的点作为第一运动边沿基准点,所述运动特征因子变化率为当前帧与下一帧的前景中的所述运动特征因子取值的变化量,比较与所述第一运动边沿基准点相邻的8个像素点中尚未被比较过的像素点的运动特征因子变化率,选择其中运动特征因子变化率最大的像素点作为第二运动边沿基准点,以所述第二运动边沿基准点作为第一运动边沿基准点,循环执行所述比较步骤,直至所述视频帧的所有像素点均被比较过,其中所述视频帧的所有像素点只被比较一次,所述第一和第二运动边沿基准点构成所述视频帧的前景中的基准运动边沿图形。
10.根据权利要求9所述的装置,其特征在于,所述亮度信息为YUV模式下的亮度分量与HSL模式下的亮度分量的乘积。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201110433912.4A CN103177453B (zh) | 2011-12-22 | 2011-12-22 | 一种基于运动物体边沿特性的事件分析方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201110433912.4A CN103177453B (zh) | 2011-12-22 | 2011-12-22 | 一种基于运动物体边沿特性的事件分析方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103177453A CN103177453A (zh) | 2013-06-26 |
CN103177453B true CN103177453B (zh) | 2016-01-27 |
Family
ID=48637283
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201110433912.4A Active CN103177453B (zh) | 2011-12-22 | 2011-12-22 | 一种基于运动物体边沿特性的事件分析方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103177453B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07298271A (ja) * | 1994-04-28 | 1995-11-10 | Matsushita Electric Ind Co Ltd | 動画像符号化における動きベクトル検出方法及び装置 |
KR100400375B1 (ko) * | 2001-06-27 | 2003-10-08 | 엘지전자 주식회사 | 스킨 컬러 필터를 이용한 가상-윤곽 잡음 검출기를 가지는표시장치와 그의 화상처리방법 |
CN101339688A (zh) * | 2008-08-27 | 2009-01-07 | 北京中星微电子有限公司 | 一种入侵检测方法及系统 |
-
2011
- 2011-12-22 CN CN201110433912.4A patent/CN103177453B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07298271A (ja) * | 1994-04-28 | 1995-11-10 | Matsushita Electric Ind Co Ltd | 動画像符号化における動きベクトル検出方法及び装置 |
KR100400375B1 (ko) * | 2001-06-27 | 2003-10-08 | 엘지전자 주식회사 | 스킨 컬러 필터를 이용한 가상-윤곽 잡음 검출기를 가지는표시장치와 그의 화상처리방법 |
CN101339688A (zh) * | 2008-08-27 | 2009-01-07 | 北京中星微电子有限公司 | 一种入侵检测方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN103177453A (zh) | 2013-06-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Lin et al. | One-stage 3d whole-body mesh recovery with component aware transformer | |
Cheng et al. | Depth enhanced saliency detection method | |
CN103268480B (zh) | 一种视觉跟踪系统及方法 | |
Isikdogan et al. | A real time virtual dressing room application using Kinect | |
CN103020991B (zh) | 一种视频场景中运动目标感知的方法及系统 | |
CN102194443A (zh) | 视频画中画窗口的显示方法、系统及视频处理设备 | |
CN106384355B (zh) | 一种投影交互系统中的自动标定方法 | |
CN101339661B (zh) | 一种基于手持设备运动检测的实时人机交互方法和系统 | |
CN113034383B (zh) | 一种基于改进网格运动统计获取视频图像的方法 | |
CN103065312B (zh) | 一种手势跟踪过程中的前景提取法 | |
Feng et al. | [Retracted] Research and Application of Multifeature Gesture Recognition in Human‐Computer Interaction Based on Virtual Reality Technology | |
Song et al. | SCE-SLAM: a real-time semantic RGBD SLAM system in dynamic scenes based on spatial coordinate error | |
CN113139539A (zh) | 渐近回归边界的任意形状场景文字检测方法及装置 | |
CN104898954B (zh) | 一种基于增强现实技术的互动阅览方法 | |
Tan et al. | Dynamic hand gesture recognition using motion trajectories and key frames | |
Feng et al. | Regularized building boundary extraction from remote sensing imagery based on augment feature pyramid network and morphological constraint | |
CN119339302A (zh) | 一种基于递归神经网络的帧间图像分割方法、装置及介质 | |
CN103177453B (zh) | 一种基于运动物体边沿特性的事件分析方法和装置 | |
CN113850750A (zh) | 一种目标轨迹校验的方法、装置、设备及存储介质 | |
Liu et al. | Real-time shadow detection from live outdoor videos for augmented reality | |
CN110503665A (zh) | 一种改进Camshift的目标跟踪算法 | |
CN113297990B (zh) | 基于高斯掩模光流的人体足部运动目标检测方法 | |
Cai et al. | Color recognition of video object based on hsv model | |
Zhu et al. | Multi-feature fusion algorithm in VR panoramic image detail enhancement processing | |
CN109033969A (zh) | 基于贝叶斯显著图计算模型的红外目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |