CN102176208B - 基于三维空时特征的鲁棒视频指纹方法 - Google Patents
基于三维空时特征的鲁棒视频指纹方法 Download PDFInfo
- Publication number
- CN102176208B CN102176208B CN 201110046524 CN201110046524A CN102176208B CN 102176208 B CN102176208 B CN 102176208B CN 201110046524 CN201110046524 CN 201110046524 CN 201110046524 A CN201110046524 A CN 201110046524A CN 102176208 B CN102176208 B CN 102176208B
- Authority
- CN
- China
- Prior art keywords
- video
- unique point
- point
- sequence
- yardstick
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种基于三维空时特征的鲁棒视频指纹提取方法,主要解决现有方法对于视频时间方向上特征利用不足的缺陷。其特点是将三维空时特征引入到指纹提取中,即首先提取待检测视频连续帧中的三维空时特征点,并通过特征强度和特征尺度选择获得每一帧中最稳定的特征区域;然后通过降采样得到特征区域;最后,用对比度直方图进行区域表示并归一化为矢量形式的待检测视频指纹序列;利用待检测视频的指纹序列与数据库中的候选指纹序列进行距离匹配,在数据库中得到与待检测视频相关的候选视频。本发明同时体现了视频的空间特性和时间特性,具有很好的鲁棒性,可用于视频内容认证和近视频检测。
Description
技术领域
本发明属于信息安全技术领域,涉及数字视频指纹提取和检测匹配方法,该方法可以抵抗常规的视频攻击和处理,用于互联网上的内容认证和近视频检测领域。
背景技术
随着多媒体技术和网络技术的发展,视频信息的数字化给视频信息的存取,拷贝和修改提供了极大的便利,同时使得信息传输和表达的效率以及准确性有了显著的提高。但是,由于大量的视频信息可以方便的从互联网上随意下载和发布,并且可以通过处理软件进行任意的修改,再加上一些传播存储过程中的非人为攻击,这就造成了网络上存在大量经过非法复制,剪辑,修改和攻击的视频以及片段,而这些视频片段的原始信息经常是未知的。人们在生活与工作中对得到的未知视频片段感兴趣,并且想找到视频的来源信息进一步了解和使用,这就涉及到了视频内容认证的问题。而针对如何检测视频是否受到版权侵害而被非法复制,剪辑和分发,即检测互联网上是否有与受版权保护内容一致的视频内容,或者需要对同一类视频进行检索,这涉及到了近视频检测的问题。因此,解决目前网络上视频信息数字化所面临的问题迫在眉睫,而如何有效的进行数字视频内容认证和近视频检测也就是关键所在。数字视频指纹作为一项新兴的并且很有潜力的手段,在最近几年受到了学术界和商业界的广泛关注。不同于数字水印技术,一方面数字指纹并不在视频中嵌入任何信息,所以也不会导致视频内容上的变化和扭曲;另一方面,数字水印技术对于大量已存的未嵌入水印的视频无效,而视频指纹是数字视频本身特性的表征,直接对数字视频提取,弥补了数字水印的不足。
视频指纹的基本思想是从数字视频内容到一段指纹序列的映射,也就是数字视频视觉内容上的特征摘要,用一段简单的摘要序列最大程度上表征一段视频的内容,类似于一个指纹代表一个人的身份的概念,一段视频指纹也就代表了一段视频的内容。这样视频指纹就可以用于独一无二的表征一段视频并且与其他内容不同的视频进行区分,也就可以有效的完成视频内容认证和近视频检测两大问题,以便认证未知视频内容和提供产品的附加信息,或者保护数字视频的版权内容和跟踪盗版。鲁棒的视频指纹必须可以抵抗常见的视频攻击,在受到攻击前后都必须能保持指纹序列的成对独立性,在匹配过程中还必须具有搜索效率。
鲁棒视频指纹技术的过程主要分为指纹提取和指纹匹配两个环节,其中指纹提取是视频指纹技术的主要环节,又可分为帧提取,特征提取,矢量量化三个部分,最终得到矢量形式的视频指纹。帧提取目前主要有关键帧提取,降采样提取等等,主要是为了减少冗余和计算量,用最少的帧内容来唯一表示一段视频,体现了视频指纹的意义所在。视频指纹研究的重点在于特征提取和矢量量化,目前大部分方法都是针对单独帧提取特征,也就是在二维空间上提取特征并量化为指纹向量。例如文献Sunil Leeand D.Yoo Chang,″Robust Video Fingerprinting for Content-Based Video Identification,″IEEE Trans.Circuits and Systems for Video Technology,vol.18,no.7,pp.983-988,July2008.先把每一帧分成若干块,然后每一块的梯度方向质心作为指纹,所有块组成指纹向量进行范围搜索和匹配。这些方法基本可以抵抗大部分常见的视频攻击,但是,这些方法并没有注意到视频的空时性和冗余性,也就是仅仅对图像序列的简单排列,忽略了视频的时间信息,没有做到最大程度上代表一段视频,影响了数字视频指纹的独立性和鲁棒性,最终限制了在近复制视频检测时的检索精度以及检索效率。
发明内容
本发明的目的在于克服上述已有技术的不足,提供一种基于三维空时特征的鲁棒视频指纹方法,以有效利用视频的时间信息,用一段向量最大程度表征视频内容,提高视频指纹针对常见攻击时的独立性和鲁棒性,进而提高在视频内容认证的精度以及近复制视频检测时的检索精度以及检索效率。
实现本发明目的的技术方案包括指纹提取和指纹匹配。
一、基于三维空时特征的鲁棒视频指纹提取方法,包括如下步骤:
(1)将视频Q转换到灰度域,即将待检测视频每一帧图像变成灰度图像,得到一组灰度图像序列Z;
(2)将灰度图像序列Z的宽和高调整为固定值,得到一组大小统一的图像序列I;
(3)提取图像序列I的三维空时特征点,并在提取特征点的每一帧图像中提取一个特征强度最大的特征点H;
(4)对提取特征点后的图像序列H进行降2采样,获得降2采样后的视频帧以及每一帧中的空时特征点P;
(5)将每一帧中的空时特征点P周围圆形区域用对比度直方图表示,得到48维向量序列c=(c1,c2,…c48);
(6)将向量序列c归一化,得到视频指纹序列f=(f1,f2,…f48)。
二、基于三维空时特征的鲁棒视频指纹匹配方法,包括如下步骤:
1)将待检测视频Q转换到灰度域,即将待检测视频每一帧图像变成灰度图像,得到一组灰度图像序列Z;
2)将灰度图像序列Z的宽和高调整为固定值,得到一组大小统一的图像序列I;
3)提取图像序列I的三维空时特征点,并在提取特征点的每一帧图像中提取一个特征强度最大的特征点H;
4)对提取特征点后的图像序列H进行降2采样,获得降2采样后的待检测视频帧以及每一帧中的空时特征点P;
5)将每一帧中的空时特征点P周围圆形区域用对比度直方图表示,得到48维向量序列c=(c1,c2,…c48);
6)将向量序列c归一化,得到待检测视频指纹序列fquery=(f1,f2,…f48);
7)用待检测视频指纹序列fquery在指纹数据库中进行广泛的搜索,将待检测视频指纹序列fquery与数据库中所有的候选指纹序列X进行逐一求距离d(fquery,X),当二者距离d(fquery,X)低于设定的阈值T时,即找到待检测视频的原始信息完成匹配,否则继续进行搜索比较,若在数据库中未找到与待检测视频指纹序列之间距离低于阈值T的视频指纹序列时,匹配失败,即数据库中没有与待检测视频相近或相同的候选视频。
本发明具有以下优点:
(1)本发明由于将视频转换到灰度域使得视频指纹对于颜色变化具有鲁棒性;
(2)本发明由于将灰度图像序列调整为统一固定大小使得视频指纹可以抵抗视频大小变化;
(3)本发明由于结合了视频空域和时域的特征,利用三维空时特征检测算子和特征选择策略获得一组稳定的特征区域,同时反映了视频空间与时间维度上的内容,对旋转、缩放、平移以及噪声干扰等具有较好的鲁棒性,并且进一步做到了数字视频指纹最大程度表征一段视频的目的;
(4)本发明由于对视频帧序列进行降2采样,使得视频指纹对帧速率变化具有鲁棒性;
(5)本发明由于用对比度直方图唯一的将特征区域描述为一个48维向量,使得相同或相似的视频指纹具有成对独立性,并且使得视频指纹具有高效的检索精度以及检索效率;
(6)本发明由于在指纹匹配过程中直接计算指纹向量序列之间的距离并与阈值T比较,进一步提高了检索精度以及检索效率。
附图说明
图1是本发明的流程图;
图2是用本发明形成特征区域的仿真示意图;
图3是用本发明对特征点周围区域分割结果示意图;
图4是本发明在一些常见的视频攻击下的PR曲线。
具体实施方案
参照图1,本发明包括指纹提取和指纹匹配,具体步骤如下:
步骤1,将视频Q转换到灰度域,即将视频Q每一帧图像变换为灰度图像,从而得到灰度图像序列Z。
视频每一帧图像采用RGB图像,RGB图像中每一个点由三原色RGB按不同比例组成,其中R(0~255)代表红色道,G(0~255)代表绿色道,B(0~255)代表蓝色道,而灰度图像是单色道Gray(0~255),按照如下公式:Gray=(R+G+B)/3,将RGB图像中每一点转换到灰度域,最后得到灰度图像序列Z。
步骤2:将灰度图像序列Z的每一帧灰度图像大小调整为固定值为240×320像素,得到一组大小统一的图像序列I,如图2(a)所示,以抵抗视频大小调整对视频指纹性能造成的影响。
步骤3:提取图像序列I的三维空时特征点,并在提取特征点的每一帧图像中提取一个特征强度最大的特征点H。
图像序列的三维空时特征点由三维空时特征检测算子提取,是二维Harris-Laplace检测算子的三维拓展,提取的特征点对常见的视频攻击例如旋转、缩放、平移以及噪声干扰具有较好的鲁棒性,具体步骤包括特征点提取和尺度自适应选择,该步骤的实现采用现有的三维空时特征点检测算子,具体过程如下所示:
3.1)特征点提取
首先,给出三维尺度空间表示为:
式中,是一个高斯核函数卷积原始视频后的尺度空间表示,x,y是每帧图像中的像素位置,t是时间信息,代表位于视频的第几帧,σl是空间微分尺度,τl是时间微分尺度,这里和是初始给定的候选尺度,是高斯卷积核,表示为:
f(x,y,t)代表视频第t帧中坐标为x,y的点的像素值;
然后,将视频三维空时域的角函数表示为:
H=det(μ)-k·trace3(μ)
式中det(·)和trace(·)分别表示矩阵的行列式和矩阵的迹,k是常数,取0.001,μ为自相关矩阵,表示为:
式中,σi为空间积分尺度,τi为时间积分尺度,Lx为尺度空间表示L对x方向的偏导数,Ly为尺度空间表示L对y方向的偏导数,寻找每一帧中像素值同时在空域和时域方向上变化最大的点,也就是寻找角函数H的局部极值;
3.2)选择自适应尺度
对每个候选特征点,采用自适应迭代法确定特征点位置及其特征尺度:
以上步骤得到每个特征点的坐标以及特征强度和特征尺度(x,y,t,val,σl,στ),这里val是特征强度,即的值,根据时间尺度στ确定特征点在t+2στ帧中都存在,这里每帧中只选取特征强度val最大的点并以特征点的特征尺度σl的一定倍数为半径构造圆形特征区域。最后提取特征点的每一帧图像中提取一个特征强度最大的特征点H以及H周围稳定的圆形特征区域。
参照图2所示,大小统一的灰度图像序列I如图2(a)所示,对其提取三维空时特征点,并根据空间尺度形成圆形区域如图2(b)所示,然后通过尺度自适应形成不同点具有不同的尺度,如图2(c)所示,最后通过选择特征强度获得一组稳定的特征点和特征区域,如图2(d)所示。
步骤4:对提取特征点后的图像序列H进行降2采样,获得降2采样后的视频帧以及空时特征点P,方便存储与匹配。
步骤5:将每一帧中的空时特征点P周围圆形区域用对比度直方图表示,得到指纹向量序列c=(c1,c2,…cM)。
参照图3,本步骤的实现采用现有的对比度直方图表示特征区域,具体过程如下:
5.2)以特征点的主方向作为对比度直方图下极坐标的零度角以抵抗旋转攻击,将特征点周围分割区域的零度角与此特征点的主方向对齐,以使得区域随着视频帧的转动而转动,从而区域不变,不影响直方图的统计;
5.3)统计每个区域Ri,i=1,2,...24中与圆心特征点的正负两个对比度直方图HRi+(pc),HRi-(pc):
其中,pC是圆心特征点,p是圆心特征点周围区域中某一点,HRi+(·)是对特征点周围区域中与中心特征点的灰度值差值为正的直方图统计,HRi-(·)是对特征点周围区域中与中心特征点的灰度值差值为负的直方图统计,Ri为圆心特征点周围第i个划分区域,为区域Ri中对比度差值C(p)为正的个数,为区域Ri中对比度差值C(p)为负的个数,C(p)是特征点周围区域中某一点p的灰度值I(p)与特征点的灰度值I(pC)的对比度差值,表示为:
C(p)=I(p)-I(pC)
统计时,是在每一帧中的每个区域统计两个对比度直方图HRi+和HRi-,其区域统计顺序为半径从小到大,角度从小到大,即固定半径区间,角度区间从小到大遍历;然后增加半径区间,再遍历角度区间,例如,第一个区域R1的半径区间为0~5,角度区间为第二个区域R2的半径区间为0~5,角度区间为以此类推。
参照图3中标号顺序,在24个区域依次统计正负两个对比度直方图,把得到的对比度直方图依次排列,得到一组48维的向量c(pC)=(HR1+,HR1-,HR2+,HR2-,...,HR24+,HR24-);
由此将图像序列的第i帧图像中的空时特征点P周围的圆形区域表示成向量ci,将图像序列用向量序列c=(c1,c2,…c48)表示。
步骤6:将指纹向量序列c=(c1,c2,…c48)归一化为:
通过上述步骤1~步骤6可完成数据库中视频指纹的提取,视频内容的认证以及近复制视频的检测本质上就是待检测视频指纹向量序列与数据库中候选视频指纹序列之间的匹配。
步骤7:将待检测视频Q转换到灰度域,即将待检测视频每一帧图像变成灰度图像,得到一组灰度图像序列Z;
步骤8:将灰度图像序列Z的宽和高调整为固定值,得到一组大小统一的图像序列I;
步骤9:提取图像序列I的三维空时特征点,并在提取特征点的每一帧图像中提取一个特征强度最大的特征点H;
步骤10:对提取特征点后的图像序列H进行降2采样,获得降2采样后的待检测视频帧以及每一帧中的空时特征点P;
步骤11:将每一帧中的空时特征点P周围圆形区域用对比度直方图表示,得到48维向量序列c=(c1,c2,…c48);
步骤12:将向量序列c归一化,得到待检测视频指纹序列fquery=(f1,f2,…f48);
步骤13:用待检测指纹序列fquery=(f1,f2,…f48)在数据库中进行广泛搜索,以距离d(fquery,X)作为待检测视频与候选视频之间的距离测度,X为候选指纹序列,d(fquery,X)表示为:
式中,d(fquery,X)为待检测视频指纹序列和数据库候选视频指纹序列之间的距离,i为待检测视频指纹序列中指纹向量的标号,j为数据库候选指纹序列中指纹向量的标号,||fquery(i)-X(j)||1即为计算待检测视频指纹序列fquery中第i个指纹向量与数据库中候选指纹序列X中第j个指纹向量的L1距离。
当距离d(fquery,X)低于设定的阈值T时,认为候选视频片段与待检测视频片段相同或相似,即找到与待检测视频相近或相同的视频,否则继续进行搜索匹配,若在数据库中未找到与待检测视频指纹序列之间距离低于设定阈值的视频指纹序列,则认为匹配失败,即数据库中没有与待检测视频相近或相同的视频。所述的阈值T是可变的,T越大则在数据库中搜索匹配到的视频越少,查全率越高,但查准率越小,反之亦然,阈值T的选择需要在查全率与查准率之间做一个权衡。
本发明的优点可通过以下仿真实验进一步说明:
本发明在大量彩色以及黑白视频上进行了测试实验,其中包括标准测试视频,经典电影片段,YouTube网络视频。并且给予常见的视频攻击,例如,高高斯噪声,椒盐噪声,中值滤波,剪切,帧平均,掉帧。以在不同攻击下视频指纹匹配效率以及鲁棒性作为本发明性能优劣的评测依据。
本发明以客观指标Precision-Recall Curve作为评判依据,测试在不同攻击下的数据库的匹配能力,其中查准率Precision,查全率Recall是视频检索时的评判指标,表示为:
式中,TP是指从数据库中提取出来与待检测视频相关的视频数量,而FP是指提取出来的与待检测视频不相关的视频数量,FN是指数据库中除了检测出来的相关视频还剩下的相关视频数量,阈值不同,提取出来的视频数量不同,随着阈值T的变化和提取出来视频片段总数的变化,Precision和Recall也随之变化,最终形成一条曲线,即Precision-Recall曲线。这里查全率与查准率之间存在着相反的依赖关系,即如果提高输出的查全率,查准率就会下降,反之亦然。所以当查全率与查准率中一方提高时另一方下降的越慢说明系统性能越好,表现在坐标系曲线中即随着横坐标值的增加纵坐标值下降的慢,也就是曲线更接近坐标系原点的对角。
本发明在高斯噪声,椒盐噪声,中值滤波,剪切,帧平均,掉帧六种常见视频攻击下的Precision-Recall曲线仿真结果如图4所示,其中图4(a)为本发明受到高斯噪声攻击后的Precision-Recall曲线仿真结果,实线代表视频受到高斯噪声的方差为0.005,虚线代表视频受到高斯噪声的方差为0.01;图4(b)为本发明受到椒盐噪声攻击后的Precision-Recall曲线仿真结果,实线代表视频受到椒盐噪声的方差为0.01,虚线代表视频受到椒盐噪声的方差为0.02;图4(c)为本发明受到中值滤波攻击后的Precision-Recall曲线仿真结果,实线代表视频中20%的帧数受到中值滤波攻击,虚线代表视频中40%的帧数受到中值滤波攻击;图4(d)为本发明受到剪切攻击后的Precision-Recall曲线仿真结果,实线代表视频中每帧被剪切掉5%的图像块,虚线代表视频中每帧被剪切掉10%的图像块;图4(e)为本发明受到帧平均攻击后的Precision-Recall曲线仿真结果,实线代表视频中10%的帧数受到帧平均攻击,虚线代表视频中20%的帧数受到帧平均攻击;图4(f)为本发明受到掉帧攻击后的Precision-Recall曲线仿真结果,实线代表视频丢失5%的帧数,虚线代表视频丢失10%的帧数。
由图4可见,本发明针对常见的视频攻击鲁棒性较好,每个图中实线都高于虚线,即本发明的匹配性能随着攻击强度的增加而降低,本发明对于常见的全局攻击鲁棒性能较好,由于本发明是基于内容的局部特征,所以对于剪切等局部攻击效果较好。由于空时特征点是利用视频连续帧的时间信息,但是帧平均和掉帧影响了视频帧的时间连续性,导致性能有所下降。
综上,本发明提高了视频指纹针对常见攻击时的鲁棒性,提高了视频内容认证的精度以及近复制视频检测时的检索精度以及检索效率。
Claims (5)
1.一种基于三维空时特征的鲁棒视频指纹提取方法,包括如下步骤:
(1)将视频Q转换到灰度域,即将待检测视频每一帧图像变成灰度图像,得到一组灰度图像序列Z;
(2)将灰度图像序列Z的宽和高调整为固定值,得到一组大小统一的图像序列I;
(3)提取图像序列I的三维空时特征点,并在提取特征点的每一帧图像中提取一个特征强度最大的特征点,得到提取特征点后的图像序列H,具体过程如下:
(3a)利用三维空时特征检测算子提取图像序列I每一帧中像素值同时在空域和时域方向上变化最大的点:
首先,将图像序列的三维尺度空间表示为:
式中, 是一个高斯核函数卷积原始视频后的尺度空间表示,x,y是每帧图像中的像素位置,t是时间信息,代表位于视频的第几帧,σl是空间微分尺度,τl是时间微分尺度,这里 和 是初始给定的候选尺度, 是高斯卷积核,表示为:
f(x,y,t)代表图像序列I第t帧中坐标为x,y的点的像素值;
然后,将视频三维空时域的角函数表示为:
Val=det(μ)-k·trace3(μ)
式中det(·)和trace(·)分别表示矩阵的行列式和矩阵的迹,k是常数,取0.001,Val为特征强度,μ为自相关矩阵,表示为:
式中,σi为空间积分尺度,τi为时间积分尺度,Lx为尺度空间表示L对x方向的偏导数,Ly为尺度空间表示L对y方向的偏导数,寻找像素值同时在空域和时域方向上变化的最大点即求特征强度Val的局部极值,得到候选三维空时特征点v;
(3b)对每个候选特征点,采用自适应迭代法确定特征点位置及其特征尺度:
确定候选三维空时特征点v的具体位置(x,y,t)、空间微分尺度σl,时间微分尺度τl和特征强度;
(3c)根据时间微分尺度τl确定特征点在t±2τl帧中都存在;
(3d)在每一帧中存在的多个特征点中,选出特征强度Val最大的特征点,得到提取特征点后的图像序列H;
(4)对提取特征点后的图像序列H进行降2采样,获得降2采样后的视频帧以及每一帧中的空时特征点P;
(5)将每一帧中的空时特征点P周围圆形区域用对比度直方图表示,得到48维向量序列c=(c1,c2,…c48);
(6)将向量序列c归一化为:
2.根据权利要求1所述的鲁棒视频指纹提取方法,其中步骤(5)按如下步骤进行:
(5b)以特征点P的梯度主方向作为特征点周围子区域第一个方向区间零度角的方向,以抵抗旋转攻击;
(5c)在每一个子区域Ri,i=1,2,...24统计每个区域中与圆心特征点之间的正负两个对比度直方图HRi+和HRi-:
其中,pC是圆心特征点,p是圆心特征点周围区域中某一点,HRi+(·)是对特征点周围区域中与中心特征点的灰度值差值为正的直方图统计,HRi-(·)是对特征点周围区域中与中心特征点的灰度值差值为负的直方图统计,Ri为圆心特征点周围第i个划分区域, 为区域Ri中对比度差值C(p)为正的个数, 为区域Ri中对比度差值C(p)为负的个数,C(p)是特征点周围区域中某一点p的灰度值I(p)与特征点的灰度值I(pC)的对比度差值,表示为:
C(p)=I(p)-I(pC)
统计时,是在每一帧中的每个区域统计两个对比度直方图HRi+和HRi-,其区域统计顺序为半径从小到大,角度从小到大,即固定半径区间,角度区间从小到大遍历;然后增加半径区间,再遍历角度区间,在24个区域依次统计正负两个对比度直方图,把 得到的对比度直方图依次排列,得到一组48维的向量c(pC)=(HR1+,HR1-,HR2+,HR2-,...,HR24+,HR24-);
由此将图像序列的第i帧图像中的空时特征点P周围的圆形区域表示成向量ci,将图像序列用向量序列c=(c1,c2,…c48)表示。
3.一种基于三维空时特征的鲁棒视频指纹匹配方法,包括如下步骤:
1)将待检测视频Q转换到灰度域,即将待检测视频每一帧图像变成灰度图像,得到一组灰度图像序列Z;
2)将灰度图像序列Z的宽和高调整为固定值,得到一组大小统一的图像序列I;
3)提取图像序列I的三维空时特征点,并在提取特征点的每一帧图像中提取一个特征强度最大的特征点,得到提取特征点后的图像序列H,具体过程如下:
3a)利用三维空时特征检测算子提取图像序列I每一帧中像素值同时在空域和时域方向上变化最大的点:
首先,将图像序列的三维尺度空间表示为:
式中, 是一个高斯核函数卷积原始视频后的尺度空间表示,x,y是每帧图像中的像素位置,t是时间信息,代表位于视频的第几帧,σl是空间微分尺度,τl是时间微分尺度,这里 和 是初始给定的候选尺度, 是高斯卷积核,表示为:
f(x,y,t)代表图像序列I第t帧中坐标为x,y的点的像素值;
然后,将视频三维空时域的角函数表示为:
Val=det(μ)-k·trace3(μ)
式中det(·)和trace(·)分别表示矩阵的行列式和矩阵的迹,k是常数,取0.001,Val为特征强度,μ为自相关矩阵,表示为:
式中,σi为空间积分尺度,τi为时间积分尺度,Lx为尺度空间表示L对x方向的偏导数,Ly为尺度空间表示L对y方向的偏导数,寻找像素值同时在空域和时域方向上变化的最大点即求特征强度Val的局部极值,得到候选三维空时特征点v;
3b)对每个候选特征点,采用自适应迭代法确定特征点位置及其特征尺度:
确定候选三维空时特征点v的具体位置(x,y,t)、空间微分尺度σl、时间微分尺度τl和特征强度;
3c)根据时间微分尺度τl确定特征点在t±2τl帧中都存在;
3d)在每一帧中存在的多个特征点中,选出特征强度Val最大的特征点,得到提取特征点后的图像序列H;
4)对提取特征点后的图像序列H进行降2采样,获得降2采样后的待检测视频帧以及每一帧中的空时特征点P;
5)将每一帧中的空时特征点P周围圆形区域用对比度直方图表示,得到48维向量序列c=(c1,c2,…c48);
6)将向量序列c归一化为:
7)用待检测视频指纹序列fquery在指纹数据库中进行广泛的搜索,将待检测视频指纹序列fquery与数据库中所有的候选指纹序列X进行逐一求距离d(fquery,X),当二者距离d(fquery,X)低于设定的阈值T时,即找到待检测视频的原始信息完成匹配,否则继续进行搜索比较,若在数据库中未找到与待检测视频指纹序列之间距离低于阈值T的视频指纹序列时,匹配失败,即数据库中没有与待检测视频相近或相同的候选视频。
4.根据权利要求3所述的鲁棒视频指纹匹配方法,其中步骤(5)按如下步骤进行:
(5b)以特征点P的梯度主方向作为特征点周围子区域第一个方向区间零度角的方向,以抵抗旋转攻击;
(5c)在每一个子区域Ri,i=1,2,...24统计每个区域中与圆心特征点之间的正负两个对比度直方图HRi+和HRi-:
其中,pC是圆心特征点,p是圆心特征点周围区域中某一点,HRi+(·)是对特征点周围区域中与中心特征点的灰度值差值为正的直方图统计,HRi-(·)是对特征点周围区域中与中心特征点的灰度值差值为负的直方图统计,Ri为圆心特征点周围第i个划分区域, 为区域Ri中对比度差值C(p)为正的个数, 为区域Ri中对比度差值C(p)为负的个数,C(p)是特征点周围区域中某一点p的灰度值I(p)与特征点的灰度值I(pC)的对比度差值,表示为:
C(p)=I(p)-I(pC)
统计时,是在每一帧中的每个区域统计两个对比度直方图HRi+和HRi-,其区域统计顺序为半径从小到大,角度从小到大,即固定半径区间,角度区间从小到大遍历;然后增加半径区间,再遍历角度区间,在24个区域依次统计正负两个对比度直方图,把得到的对比度直方图依次排列,得到一组48维的向量c(pC)=(HR1+,HR1-,HR2+,HR2-,...,HR24+,HR24-);
由此将图像序列的第i帧图像中的空时特征点P周围的圆形区域表示成向量ci,将图像序列用向量序列c=(c1,c2,…c48)表示。
5.根据权利要求3所述的鲁棒视频指纹匹配方法,其中步骤7)所述的阈值T是可变的,T越大则在数据库中搜索匹配到的视频越少,查全率越高,但查准率越小,反之亦然,阈值T的选择需要在查全率与查准率之间做一个权衡。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 201110046524 CN102176208B (zh) | 2011-02-28 | 2011-02-28 | 基于三维空时特征的鲁棒视频指纹方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 201110046524 CN102176208B (zh) | 2011-02-28 | 2011-02-28 | 基于三维空时特征的鲁棒视频指纹方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102176208A CN102176208A (zh) | 2011-09-07 |
CN102176208B true CN102176208B (zh) | 2012-12-26 |
Family
ID=44519393
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN 201110046524 Expired - Fee Related CN102176208B (zh) | 2011-02-28 | 2011-02-28 | 基于三维空时特征的鲁棒视频指纹方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102176208B (zh) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103051925A (zh) * | 2012-12-31 | 2013-04-17 | 传聚互动(北京)科技有限公司 | 基于视频指纹的快速视频检测方法和装置 |
US9594958B2 (en) * | 2014-11-24 | 2017-03-14 | Intel Corporation | Detection of spoofing attacks for video-based authentication |
CN104504162B (zh) * | 2015-01-21 | 2018-12-04 | 北京智富者机器人科技有限公司 | 一种基于机器人视觉平台的视频检索方法 |
CN105263025B (zh) * | 2015-11-05 | 2018-11-02 | 成都瑞贝英特信息技术有限公司 | 一种基于时空域的视频零水印方法 |
US9924222B2 (en) | 2016-02-29 | 2018-03-20 | Gracenote, Inc. | Media channel identification with multi-match detection and disambiguation based on location |
US10063918B2 (en) | 2016-02-29 | 2018-08-28 | Gracenote, Inc. | Media channel identification with multi-match detection and disambiguation based on single-match |
US9930406B2 (en) | 2016-02-29 | 2018-03-27 | Gracenote, Inc. | Media channel identification with video multi-match detection and disambiguation based on audio fingerprint |
CN108463828A (zh) * | 2016-04-07 | 2018-08-28 | 惠普发展公司,有限责任合伙企业 | 基于特征的签名认证 |
CN106021610B (zh) * | 2016-06-28 | 2019-09-24 | 电子科技大学 | 一种基于显著区域的视频指纹提取方法 |
CN107750015B (zh) * | 2017-11-02 | 2019-05-07 | 腾讯科技(深圳)有限公司 | 视频版权的检测方法、装置、存储介质及设备 |
CN110083743B (zh) * | 2019-03-28 | 2021-11-16 | 哈尔滨工业大学(深圳) | 一种基于统一采样的快速相似数据检测方法 |
CN111143619B (zh) * | 2019-12-27 | 2023-08-15 | 咪咕文化科技有限公司 | 视频指纹生成方法、检索方法、电子设备及介质 |
CN112102141B (zh) * | 2020-09-24 | 2022-04-08 | 腾讯科技(深圳)有限公司 | 水印的检测方法、装置、存储介质以及电子设备 |
CN115114966B (zh) * | 2022-08-29 | 2023-04-07 | 苏州魔视智能科技有限公司 | 模型的操作策略的确定方法、装置、设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1574953A (zh) * | 2003-05-28 | 2005-02-02 | 微软公司 | 用于使用基于内容的视频时间线索来识别视频中的位置的过程和系统 |
EP1879390A2 (en) * | 2006-06-30 | 2008-01-16 | France Telecom | Combined video de-synchronization and compression method applicable to collusion-resilient fingerprint, and corresponding encoding device and encoded video stream |
CN101855635A (zh) * | 2007-10-05 | 2010-10-06 | 杜比实验室特许公司 | 可靠地与媒体内容对应的媒体指纹 |
-
2011
- 2011-02-28 CN CN 201110046524 patent/CN102176208B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1574953A (zh) * | 2003-05-28 | 2005-02-02 | 微软公司 | 用于使用基于内容的视频时间线索来识别视频中的位置的过程和系统 |
EP1879390A2 (en) * | 2006-06-30 | 2008-01-16 | France Telecom | Combined video de-synchronization and compression method applicable to collusion-resilient fingerprint, and corresponding encoding device and encoded video stream |
CN101855635A (zh) * | 2007-10-05 | 2010-10-06 | 杜比实验室特许公司 | 可靠地与媒体内容对应的媒体指纹 |
Non-Patent Citations (1)
Title |
---|
Xinbo Gao etc..Geometric Distortion Insensitive Image Watermarking in Affine Covariant Regions.《IEEE TRANSACTIONS ON SYSTEMS,MAN,AND CYBERNETICS-PART C:APPLICATIONS AND REVIEWS》.2010,第40卷(第3期),278-286. * |
Also Published As
Publication number | Publication date |
---|---|
CN102176208A (zh) | 2011-09-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102176208B (zh) | 基于三维空时特征的鲁棒视频指纹方法 | |
Yin et al. | Hot region selection based on selective search and modified fuzzy C-means in remote sensing images | |
Lee | Copy-move image forgery detection based on Gabor magnitude | |
Pun et al. | A two-stage localization for copy-move forgery detection | |
Pan et al. | A robust system to detect and localize texts in natural scene images | |
CN104866616B (zh) | 监控视频目标搜索方法 | |
CN104978567B (zh) | 基于场景分类的车辆检测方法 | |
CN103530600B (zh) | 复杂光照下的车牌识别方法及系统 | |
CN103150330B (zh) | 一种基于局部对象和块匹配的扫描证书图像检索方法 | |
Naghashi | Co-occurrence of adjacent sparse local ternary patterns: A feature descriptor for texture and face image retrieval | |
CN108960055B (zh) | 一种基于局部线段模式特征的车道线检测方法 | |
Varnousfaderani et al. | Weighted color and texture sample selection for image matting | |
US20210150182A1 (en) | Cloud detection from satellite imagery | |
CN107392968B (zh) | 融合颜色对比图和颜色空间分布图的图像显著性检测方法 | |
CN106529532A (zh) | 一种基于积分特征通道与灰度投影的车牌识别系统 | |
CN109635733B (zh) | 基于视觉显著性和队列修正的停车场和车辆目标检测方法 | |
CN101770583B (zh) | 一种基于场景全局特征的模板匹配方法 | |
CN103810505A (zh) | 基于多层描述子的车辆标识方法与系统 | |
CN102662949A (zh) | 一种基于多特征融合的指定目标检索方法及系统 | |
CN103699532A (zh) | 图像颜色检索方法和系统 | |
CN104376003A (zh) | 一种视频检索方法及装置 | |
CN108829711B (zh) | 一种基于多特征融合的图像检索方法 | |
CN104732534B (zh) | 一种图像中显著目标的抠取方法及系统 | |
CN110659374A (zh) | 一种基于神经网络提取车辆特征值及属性的以图搜图方法 | |
CN106683074B (zh) | 一种基于雾霾特性的图像篡改检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20121226 Termination date: 20190228 |
|
CF01 | Termination of patent right due to non-payment of annual fee |