CN111986180B - 基于多相关帧注意力机制的人脸伪造视频检测方法 - Google Patents
基于多相关帧注意力机制的人脸伪造视频检测方法 Download PDFInfo
- Publication number
- CN111986180B CN111986180B CN202010851718.7A CN202010851718A CN111986180B CN 111986180 B CN111986180 B CN 111986180B CN 202010851718 A CN202010851718 A CN 202010851718A CN 111986180 B CN111986180 B CN 111986180B
- Authority
- CN
- China
- Prior art keywords
- frame
- video
- attention
- face
- target frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 23
- 230000007246 mechanism Effects 0.000 title claims abstract description 21
- 238000000034 method Methods 0.000 claims abstract description 26
- 238000012549 training Methods 0.000 claims description 14
- 238000010586 diagram Methods 0.000 claims description 11
- 239000011159 matrix material Substances 0.000 claims description 10
- 230000004927 fusion Effects 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000011176 pooling Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 claims description 2
- 238000013461 design Methods 0.000 abstract description 3
- 230000003068 static effect Effects 0.000 abstract description 3
- 230000015556 catabolic process Effects 0.000 abstract description 2
- 238000006731 degradation reaction Methods 0.000 abstract description 2
- 230000000694 effects Effects 0.000 description 14
- 238000012360 testing method Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 4
- 238000010606 normalization Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000002411 adverse Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于多相关帧注意力机制的人脸伪造视频检测方法,对一个视频,采用多流结构,多帧作为输入。设计一种帧间注意力机制,计算各帧特征流之间的动态关联信息,与目标帧的帧内静态特征与帧间的动态特征融合,作为预测的依据,从视频整体角度判断是否存在人脸篡改。能够提升对伪造视频的检测精度,同时对画质下降、新的篡改方式具备鲁棒性。
Description
技术领域
本发明涉及伪造视频检测技术领域,尤其涉及一种基于多相关帧注意力机制的人脸伪造视频检测方法。
背景技术
随着深度学习尤其是GAN(生成式对抗网络)等技术的发展,最近产生了许多视频人脸篡改的方法及程序,这些程序可以将视频中原有人物的脸部替换为其他人的脸部,或对人物的表情进行篡改,同时保持视频的视觉真实性。这类程序操作简单,制作的视频效果逼真,一般人难以分辨,如果被恶意使用,会产生法律和道德的不良后果,因此,当前迫切需要有效的伪造视频检测方法。
现有针对人脸的伪造视频检测技术主要分为两类:(1)基于视频中单帧图像的方法,但是,该方法不考虑视频的时域信息,将视频的分类问题转化为图像的分类问题,将大量真实视频与伪造视频解成帧图像,作为训练数据集,设计各种网络结构对真假图像进行训练,得到二分类器,待检测视频抽取若干帧,分别给出预测结果。(2)基于帧序列的方法,该方法中,将视频若干帧送入网络,使用RNN、LSTM等手段对各帧特征进行融合,给出二分类结果。上述现有方法取得了一些基本效果,但存在一些问题:方法(1)在模型训练时,精度提升很快,达到很高的水平,但在测试时,效果大幅下降。方法(2)当视频画质变差时,检测精度变差;尤其是伪造视频在互联网上传播的过程中,会多次转发并压缩,画质降低,篡改痕迹会变得模糊,进一步增加了检测难度。
发明内容
本发明的目的是提供一种基于多相关帧注意力机制的人脸伪造视频检测方法,能够提升对伪造视频的检测精度,同时对被检测视频画质下降、或使用新的篡改方式具备鲁棒性
本发明的目的是通过以下技术方案实现的:
一种基于多相关帧注意力机制的人脸伪造视频检测方法,包括:
对于待检测视频,解码为帧序列,并提取出每一帧的脸部图像;
选择一帧作为目标帧,并在目标帧前后各选出N个参考帧,对于2N+1帧中的脸部图像进行特征提取,分别计算目标帧的图像特征与每一参考帧的图像特征之间的帧间注意力信息,对于目标帧前后的帧间注意力信息分别计算平均值,从而得到目标帧的帧前注意力信息和帧后注意力信息,再将目标帧的图像特征与目标帧的帧前注意力信息及帧后注意力信息融合;
基于融合结果进行预测,从而基于整个视频角度的预测结果判断待检测视频是否为人脸伪造视频。
由上述本发明提供的技术方案可以看出,对一个视频,采用多流结构,多帧作为输入。设计一种帧间注意力机制,计算各帧特征流之间的动态关联信息,与目标帧的帧内静态特征融合,作为预测的依据,从视频整体角度判断是否存在人脸篡改。能够提升对伪造视频的检测精度,同时对被检测视频画质下降、或使用新的篡改方式具备鲁棒性。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他附图。
图1为本发明实施例提供的一种基于多相关帧注意力机制的人脸伪造视频检测方法的整体流程示意图;
图2为本发明实施例提供的测试阶段可变帧数的相关帧融合工作流程图;
图3为本发明实施例提供的帧间注意力机制的原理图;
图4为本发明实施例提供的预测模块网络结构图;
图5为本发明实施例提供的对卷积层的可视化结果示意图。
具体实施方式
下面结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明的保护范围。
由于现有方法主要依赖单帧中的特征,没有挖掘视频帧之间的动态联系,如果从整个视频的角度看,会有一些篡改痕迹动态的展现出来。这是由于在对视频进行篡改时,是对每一帧中的人脸篡改完毕后融合到原帧中,这就使得同一视频各帧的篡改痕迹不完全相同,动态上就会表现出来。基于上述原因,检测时利用视频的帧间信息很有必要,利用帧间信息挖掘动态特征能够提升篡改视频检测的效果。基于此,本发明实施例提供一种基于多相关帧注意力机制的人脸伪造视频检测方法,如图1所示,其主要包括:
1、对于待检测视频,解码为帧序列,并提取出每一帧的脸部图像。
本发明实施例中,可以使用DLIB(或其他人脸识别模块)检测每帧中的人脸;示例性的,还可以将人脸区域扩大1.3倍,将尺寸设置为3×224×224。
2、从帧序列中选择一帧作为目标帧,并在目标帧前后各选出N个参考帧,对于2N+1帧中的脸部图像进行特征提取,分别计算目标帧的图像特征与每一参考帧的图像特征之间的帧间注意力信息,对于目标帧前后的帧间注意力信息分别计算平均值,从而得到目标帧的帧前注意力信息和帧后注意力信息,再将目标帧的图像特征与目标帧的帧前注意力信息及帧后注意力信息融合。
本发明实施例中,可以将图像输入以ResNet50为主干的特征提取网络,得到对应的图像特征;示例性的,特征提取网络输出的尺寸可以为256×29×29(对应下文的C×H×W)。
所述特征提取网络包含5个Bottleneck层(瓶颈层)layer1~layer5。每一个Bottleneck层有三层卷积层和BatchNormalization层和ReLU。使用最后一层,即layer5产生的特征图作为特征提取模块的输出。
下面给出本步骤的优选实施方式:
训练阶段:
在模型训练阶段,N取为1,当然,设为其他数值也可以进行模型训练,此处仅以N=1为例进行说明。
为了便于理解,图1给出了具体的示例,即,选择三帧图像,中间的一帧称为目标帧,记为F1,其余两帧为参考帧,分别记为F2和F3。使用特征提取网络提取到的图像特征记为V1,V2,V3,都是尺寸为C×H×W的3维矩阵,其中,C、H、W分别为通道数、高度、宽度。为了便于后续计算,将它们转变为C×HW的2维矩阵;之后,基于如图3所示的帧间注意力机制,计算V1和V2,V1和V3之间的相似性矩阵A12、A13:
其中W为C×C的权重参数矩阵,得到的相似性矩阵A12、A13的尺寸为WH×WH。接下来再计算注意力图Z12与注意力图Z13;以Z12为例给出相关公式:
Z12=V2A12
将目标帧特征向量V1经过一层卷积层得到G1,两个注意力图Z12、Z13经过一层卷积层并使用softmax归一化,得到注意力信息I12和I13:
本领域技术人员可以理解,卷积层在数学公式上可以表示成一个权重W,加上偏置b的形式,故与与为处理目标帧特征向量与注意力图时的两个卷积层各自的权重、偏置,K为卷积层卷积核的个数,即输出G1、I12和I13的具有K个通道。
由于训练阶段本示例中N=1,因此,无需计算平均值,可以直接进行融合,分别将G1与I12、G1与I13对应通道相乘,再级联得到:
其中,K表示卷积层中的卷积核数目。
测试阶段可变数量相关帧的信息融合:
如图2所示,给出了测试阶段信息融合的工作流程图(其中的Cross-attention即为图3所示的帧间注意力机制)。在目标帧Ft前后各选出N个参考帧分别记为{Fb1,Fb2,...,FbN}与{Fa1,Fa2,...,FaN}。对2N+1帧中的脸部图像的进行特征提取,记为Vt、{Vb1,Vb2,...,VbN}与{Va1,Va2,...,VaN}。
分别计算每一参考帧中提取出的图像特征,与目标帧Ft中提取的图像特征Vt之间的相似性矩阵,表示为:
其中,Vmn表示一个参考帧中提取出的图像特征,m=a,b,n=1,2,...,N;
每一参考帧利用其自身的图像特征Vmn与相应的相似性矩阵Amn,计算出注意力图Zmn,表示为:
Zmn=VmnAmn
将目标帧特征Vt与每一注意力图经过卷积层(具有K个卷积核)并使用softmax归一化后(图2未示出图,按照图3所示,卷积和softmax的操作在cross-attention模块中,所以没有画出,图2体现了目标帧特征向量Vt的卷积操作),得到帧间注意力信息:
目标帧特征向量以及注意力图Zmn各自经过卷积层处理后均具有K个通道,i为通道索引。
基于上述方案,得到目标帧的图像特征与前后各选出N个参考帧的图像特征之间的帧间注意力信息:{Ib1,Ib2,...,IbN}与{Ia1,Ia2,...,IaN}。
计算帧间注意力信息的平均值,得到目标帧的帧前注意力信息Ib和帧后注意力信息Ia:
将Gt与目标帧的帧前注意力信息Ib及帧后注意力信息Ia对应通道相乘并级联,得到融合结果It:
3、将计算得到的融合结果输入预测模块,从而基于整个视频角度的预测结果判断待检测视频是否为人脸伪造视频。
本发明实施例中,采用如图4所示的预测模块进行预测,所述预测模块包括依次设置的:卷积层(Convolutional)、平均池化层(Average Pooling),三层全连接层(Fully-connected)和soffmax层。卷积层的输出接批标准化(Batch Normalization)与ReLU激活函数。为了防止过拟合,前两层全连接层后面加上了dropout,随机丢失概率可设为0.75,还加入了ReLU激活函数。
预测模块输出为一个二维向量[p0,p1],训练阶段中使用交叉熵损失函数,表示为:
其中,[y0,y1]表示训练集中视频的标记值,当视频为非伪造视频时,[y0,y1]=[1.0,0.0];当视频为伪造视频时,[y0,y1]=[0.0,1.0],[p0,p1]为预测模块输出的二维向量。
在测试阶段,计算p0/(p0+p1)作为预测分数。示例性的,可以设0.5为阈值,预测结果大于0.5时,则判定该视频为伪造视频,小于0.5时,判定为真实视频。
本发明实施例中,图1所示的网络模型可以基于PyTorch框架实现。
示例性的,训练阶段由随机梯度下降(SGD)优化器进行优化,初始学习率为0.001,权重衰减为0.0001,momentum为0.95,批量大小设置为12,网络中所有的参数使用均值为0,方差为0.001的高斯分布来初始化。模型使用一台配有2块NVIDIARTX2080Ti GPU、IntelXeon E5-2695 CPU,Ubuntu16.04操作系统的服务器进行训练。如前所述,训练阶段每部视频使用3帧,使用交叉熵损失函数,反向传播更新参数。
在模型训练完成后,进行测试,测试阶段不再计算损失函数和进行反向传播,参数保持固定。与训练阶段不同的是选取相关帧的数量N可以不为1,即融合的帧间相关信息数量是可变的。
本发明实施例上述方法的效果说明如下:
对相关帧数量N从1开始进行实验。N=1时相当于目标帧前后各取一帧(也即前文中对照图1给出的示例),然后增加N的数量。经过实验,对于一部10秒的视频,N=4时检测效果最好,这相当于目标帧前取4帧,后面取4帧,加上目标帧在内,共9帧,平均1秒一帧。如果继续增加参考帧的数量,检测效果提升不是很明显。这说明本方法设计的帧间注意力机制以及多帧的结构是有效的,能够提取到帧间的动态变化,学习到篡改视频伪造痕迹的动态变化模式,从而提升检测效果。在实施上,可以将程序及训练好的模型安装于社交媒体网站或短视频应用的后台服务器上,对用户上传的视频进行检测,能够有效检出多种主流人脸篡改方法制作的伪造视频,确保上传视频的真实性,防止虚假信息利用伪造视频进行传播,以免造成不良的影响。
对于一些较为真实的篡改视频,人脸替换效果较为逼真,仅从一帧静止图像难以判别其真实性,但是动态播放起来,会有一些瑕疵。与现有方法相比,上述方案通过计算多帧之间的注意力图,发现帧间的动态变化信息。此外,还使用了多流结构,使用视频的帧序列作为输入,计算两两之间的注意力图,从而对视频帧间关系建模,从整个视频的角度进行分析。基于这种设计,不仅学习到篡改的静态痕迹,而且学习到篡改产生的动态变化模式,增强检测的性能,解决了现有方法没有利用帧间信息的问题。
上述方法在FaceForensics++和Celeb-DF(V2)两个人脸篡改视频数据集上进行实验,均取得了最先进的效果。对主流的篡改方法Deepfakes、Face2Face、FaceSwap均取得98%以上的准确率。在极低画质(FaceForensics++c40),也能达到95%以上的准确率。使用FaceForensics++c40训练的模型在Celeb-DF(V2)测试,auc达到70.4。同时,在实验中证实,在测试阶段通过增加相关帧数量N,可以提升检测精度,相关帧数量与待检测视频长度有关,当大约每秒取一帧相关帧时,效果最好,取得更多,效果会有微小提升,但会消耗更多的计算资源。由图5对注意力信息与目标帧特征向量融合后的卷积层的可视化可以看出,网络重点关注到人的眼部、嘴部等动态变化较大的篡改部位,对正确判断起到了作用。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例可以通过软件实现,也可以借助软件加必要的通用硬件平台的方式来实现。基于这样的理解,上述实施例的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明披露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求书的保护范围为准。
Claims (7)
1.一种基于多相关帧注意力机制的人脸伪造视频检测方法,其特征在于,包括:
对于待检测视频,解码为帧序列,并提取出每一帧的脸部图像;
选择一帧作为目标帧,并在目标帧前后各选出N个参考帧,对于2N+1帧中的脸部图像进行特征提取,分别计算目标帧的图像特征与每一参考帧的图像特征之间的帧间注意力信息,对于目标帧前后的帧间注意力信息分别计算平均值,从而得到目标帧的帧前注意力信息和帧后注意力信息,再将目标帧的图像特征与目标帧的帧前注意力信息及帧后注意力信息融合;
基于融合结果进行预测,从而基于整个视频角度的预测结果判断待检测视频是否为人脸伪造视频;
其中,分别计算目标帧的图像特征与每一参考帧的图像特征之间的帧间注意力信息包括:分别计算每一参考帧中提取出的图像特征,与目标帧Ft中提取的图像特征Vt之间的相似性矩阵;每一参考帧利用其自身的图像特征与相应的相似性矩阵,计算出注意力图,进而得到帧间注意力信息。
2.根据权利要求1所述的一种基于多相关帧注意力机制的人脸伪造视频检测方法,其特征在于,在目标帧Ft前后各选出N个参考帧分别记为{Fb1,Fb2,...,FbN}与{Fa1,Fa2,...,FaN};
对2N+1帧中的脸部图像的进行特征提取,记为Vt、{Vb1,Vb2,...,VbN}与{Va1,Va2,...,VaN}。
6.根据权利要求1所述的一种基于多相关帧注意力机制的人脸伪造视频检测方法,其特征在于,通过预测模块进行预测,所述预测模块包括依次设置的:卷积层、平均池化层,三层全连接层和softmax层;预测模块输出为一个二维向量[p0,p1],计算p0/(p0+p1)作为预测分数;将预测分数与阈值进行比较,若超过阈值,则待检测视频为伪造视频;否则,为真实视频。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010851718.7A CN111986180B (zh) | 2020-08-21 | 2020-08-21 | 基于多相关帧注意力机制的人脸伪造视频检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010851718.7A CN111986180B (zh) | 2020-08-21 | 2020-08-21 | 基于多相关帧注意力机制的人脸伪造视频检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111986180A CN111986180A (zh) | 2020-11-24 |
CN111986180B true CN111986180B (zh) | 2021-07-06 |
Family
ID=73443101
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010851718.7A Active CN111986180B (zh) | 2020-08-21 | 2020-08-21 | 基于多相关帧注意力机制的人脸伪造视频检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111986180B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112733625B (zh) * | 2020-12-28 | 2022-06-14 | 华南理工大学 | 基于时域自注意力机制的假脸视频篡改检测方法及系统 |
CN112733733A (zh) * | 2021-01-11 | 2021-04-30 | 中国科学技术大学 | 伪造视频检测方法、电子设备及存储介质 |
CN112749686B (zh) * | 2021-01-29 | 2021-10-29 | 腾讯科技(深圳)有限公司 | 图像检测方法、装置、计算机设备及存储介质 |
CN113205044B (zh) * | 2021-04-30 | 2022-09-30 | 湖南大学 | 一种基于表征对比预测学习的深度伪造视频检测方法 |
CN113435292B (zh) * | 2021-06-22 | 2023-09-19 | 北京交通大学 | 一种基于固有特征挖掘的ai伪造人脸检测方法 |
CN113378514B (zh) * | 2021-08-12 | 2021-11-05 | 华东交通大学 | 多标记数据特征选择处理方法及装置 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1996036163A2 (en) * | 1995-05-08 | 1996-11-14 | Digimarc Corporation | Steganography systems |
US7376241B2 (en) * | 2003-08-06 | 2008-05-20 | The Boeing Company | Discrete fourier transform (DFT) watermark |
CN108229325A (zh) * | 2017-03-16 | 2018-06-29 | 北京市商汤科技开发有限公司 | 人脸检测方法和系统、电子设备、程序和介质 |
CN107392142B (zh) * | 2017-07-19 | 2020-11-13 | 广东工业大学 | 一种真伪人脸识别方法及其装置 |
CN110880172A (zh) * | 2019-11-12 | 2020-03-13 | 中山大学 | 基于循环卷积神经网络的视频人脸篡改检测方法及系统 |
CN111144314B (zh) * | 2019-12-27 | 2020-09-18 | 北京中科研究院 | 一种篡改人脸视频检测方法 |
-
2020
- 2020-08-21 CN CN202010851718.7A patent/CN111986180B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN111986180A (zh) | 2020-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111986180B (zh) | 基于多相关帧注意力机制的人脸伪造视频检测方法 | |
Shang et al. | PRRNet: Pixel-Region relation network for face forgery detection | |
Yang et al. | Spatiotemporal trident networks: detection and localization of object removal tampering in video passive forensics | |
CN107784288A (zh) | 一种基于深度神经网络的迭代定位式人脸检测方法 | |
JP2006172437A (ja) | データのストリームにおけるセグメント境界の位置の決定方法、データサブセットを近隣のデータサブセットと比較してセグメント境界を決定する方法、コンピュータによって実行可能な命令のプログラム、ならびにデータのストリームにおける境界及び非境界を識別するシステム又は装置 | |
CN112150450A (zh) | 一种基于双通道U-Net模型的图像篡改检测方法及装置 | |
CN107743225B (zh) | 一种利用多层深度表征进行无参考图像质量预测的方法 | |
CN111144314A (zh) | 一种篡改人脸视频检测方法 | |
Babnik et al. | DifFIQA: Face image quality assessment using denoising diffusion probabilistic models | |
CN116934747B (zh) | 眼底图像分割模型训练方法、设备和青光眼辅助诊断系统 | |
Yu et al. | SegNet: a network for detecting deepfake facial videos | |
Zhang et al. | Crowd counting based on attention-guided multi-scale fusion networks | |
Jia et al. | SiaTrans: Siamese transformer network for RGB-D salient object detection with depth image classification | |
CN114724218A (zh) | 视频检测方法、装置、设备及介质 | |
CN116012835A (zh) | 一种基于文本分割的两阶段场景文本擦除方法 | |
CN118037641A (zh) | 基于双流特征提取多尺度图像篡改检测与定位方法 | |
Yang et al. | HeadPose-Softmax: Head pose adaptive curriculum learning loss for deep face recognition | |
Dang et al. | Multi-object behavior recognition based on object detection for dense crowds | |
CN113642513B (zh) | 一种基于自注意力及标记分布学习的动作质量评估方法 | |
Cheng et al. | Activity guided multi-scales collaboration based on scaled-CNN for saliency prediction | |
Liu et al. | Video decolorization based on the CNN and LSTM neural network | |
Hu et al. | An attention-erasing stripe pyramid network for face forgery detection | |
Wang et al. | SE-ResNet56: Robust network model for deepfake detection | |
CN114445891A (zh) | 一种基于ssim差异图的人脸伪造检测与定位方法 | |
CN114693973A (zh) | 一种基于Transformer模型的黑盒对抗样本生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |