[go: up one dir, main page]

CN111144314B - 一种篡改人脸视频检测方法 - Google Patents

一种篡改人脸视频检测方法 Download PDF

Info

Publication number
CN111144314B
CN111144314B CN201911376257.6A CN201911376257A CN111144314B CN 111144314 B CN111144314 B CN 111144314B CN 201911376257 A CN201911376257 A CN 201911376257A CN 111144314 B CN111144314 B CN 111144314B
Authority
CN
China
Prior art keywords
feature
tampered
input
frames
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911376257.6A
Other languages
English (en)
Other versions
CN111144314A (zh
Inventor
张勇东
尚志华
谢洪涛
邓旭冉
李岩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Zhongke Research Institute
University of Science and Technology of China USTC
Original Assignee
Beijing Zhongke Research Institute
University of Science and Technology of China USTC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Zhongke Research Institute, University of Science and Technology of China USTC filed Critical Beijing Zhongke Research Institute
Priority to CN201911376257.6A priority Critical patent/CN111144314B/zh
Publication of CN111144314A publication Critical patent/CN111144314A/zh
Application granted granted Critical
Publication of CN111144314B publication Critical patent/CN111144314B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种篡改人脸视频检测方法,包括:将人脸视频数据解码为一组连续的帧图像,并截取每一帧图像的人脸区域,按照帧序号对应保存为人脸图片;通过特征提取器提取每一人脸图片的,获得对应的特征图;将连续两帧的特征图,同时输入至至帧间相关性分类器,由帧间相关性分类器采用注意力机制将两帧的特征图融合在一起后进行分类,分类结果为输入的两帧被篡改的概率。该方法同时利用了帧图片自身的信息和与其相邻帧的帧间关系,可取的较好的效果。同时检测是自动完成的,可以适用于大规模的视频平台、社交平台。

Description

一种篡改人脸视频检测方法
技术领域
本发明涉及网络空间安全技术领域,尤其涉及一种篡改人脸视频检测方法。
背景技术
基于深度神经网络的“换脸”技术以及十分普及,基于这些技术可以快速地将视频中的人脸换为其他人的脸,更有一些不法分子针对政客、明星、名人进行视频篡改,发布虚假消息。针对这一现象,已有一些方法可用于检测视频是否被篡改,如检测眨眼频率,检测噪声一致性等方法。
但是,现有方法的检测性能不佳,无法保证检测结果的准确性,尤其是随着造假技术迅速发展,现有方法难以满足实际应用的要求。
发明内容
本发明的目的是提供一种篡改人脸视频检测方法,具有较高的检测准确度。
本发明的目的是通过以下技术方案实现的:
一种篡改人脸视频检测方法,包括:
将人脸视频数据解码为一组连续的帧图像,并截取每一帧图像的人脸区域,按照帧序号对应保存为人脸图片;
通过特征提取器提取每一人脸图片的特征,获得对应的特征图;
将连续两帧的特征图,同时输入至帧间相关性分类器,采用注意力机制将两帧的特征图融合在一起后进行分类,分类结果为输入的两帧被篡改的概率。
由上述本发明提供的技术方案可以看出,基于深度神经网络,同时利用了帧图片自身的信息和与其相邻帧的帧间关系,可取的较好的效果。同时检测是自动完成的,可以适用于大规模的视频平台、社交平台。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他附图。
图1为本发明实施例提供的一种篡改人脸视频检测方法的流程图;
图2为本发明实施例提供的注意力模块的示意图;
图3为本发明实施例提供的分类器的示意图。
具体实施方式
下面结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明的保护范围。
本发明实施例提供一种篡改人脸视频检测方法,如图1所示,其主要包括:
1、将人脸视频数据解码为一组连续的帧图像,并截取每一帧图像的人脸区域,按照帧序号对应保存为人脸图片。
本发明实施例中,可以通过通用的opencv或者ffmpeg工具包,将人脸视频数据解码为一组连续的帧图像;通过python中开源的Dlib工具库,截取每一帧图像的人脸区域,不同帧图像中人脸区域的尺寸相同或者不同。
2、通过特征提取器提取每一人脸图片的特征,获得对应的特征图。
本发明实施例中,特征提取器选择Xception网络实现,可提取提取每一人脸图片的特征图,
特征提取器可以输入任意尺寸图片,但帧间相关性分类器的输入需要固定尺寸分类器,所以在特征提取器末端添加adaptive pooling层(自适应池化层),可以将任意尺寸的特征图根据统一尺度划分为不同区域,并求每一个区域中的平均值,从而获得统一尺度的特征图。
设定特征图的尺度为N×N×M,其中,N×N表示特征的空间尺寸,M表示特征空间中每一个点的特征向量维度。
示例性的,可以设置N=10,M=2048。
3、将连续两帧的特征图,同时输入至帧间相关性分类器,采用注意力机制将两帧的特征图融合在一起后进行分类,分类结果为输入的两帧被篡改的概率。
本步骤优选实施方式如下:
首先,求两个特征图(记为特征图A与特征图B)之间的相关矩阵Cor,通过两个特征图中特征向量两两之间的相似度计算:Cor=A×BT
通过变形相关矩阵Cor,得到特征图A和B各自对应的相关矩阵为:RA=reshape(Cor,N×N×N2),RB=reshape(CorT,N×N×N2);其中,reshape(X,SHAPE)表示将X的尺寸变换为SHAPE,X=Cor,CorT,X的尺寸为N2×N2,SHAPE=N×N×N2;其中,N×N表示特征的空间尺寸。
上述步骤的原理为:假设N=10,M=2048,每一个特征图被视作一个三维矩阵:10×10×2048,其中10×10是空间尺寸,2048为特征向量维度;将空间尺寸(10×10)视为一个维度,可以将特图看作(10×10)×2048=100×2048的矩阵,则两个特征图之间的相关矩阵的形状为(10×10)×(10×10)=100×100,即它是一个二维矩阵;为了后续的计算,需要将Cor变形为三维矩阵,将Cor中第一维度的100视为二维的10×10,即100中连续的10个点,对应形状(SHAPE)中的一行,变形结果也就是两个特征图各自的相关矩阵RA、RB,变形后内容与位置是一致的,但是会转置和融合维度。
其次,为了获得更有区分性的特征,将RA与RB各自输入至注意力模块,生成对应的注意力掩膜MA与MB,再计算:AT=(MA+1)×A,BT=(MB+1)×B;然后,将AT与BT在特征维度上拼接在一起记为F,作为加权后的特征值输入最终的分类器。示例性的F是一个10×10×4096的特征图。
如图2所示,注意力模块主要包括:依次连接的三个卷积层,三个卷积层均使用padding=1,填充值为0,每一卷积层后面均连接了批正则化层,而且除了最后一个卷积层外,均在批正则化层后连接了ReLu激活层;最后一个卷积层的输出经过批正则化层后与输入的相关矩阵R相加,再通过ReLu激活层,得到相应的掩膜M。
示例性的,三个卷积层的卷积核尺寸依次设为1×1、3×3、1×1。第一个1×1卷积层的输入维度为2048,输出维度为512,之后3×3卷积层的输入和输出维度均为512,最后1×1卷积层输入维度为512,输出维度为2048并且通过批正则化层之后和输入R相加,并通过一个ReLu激活层,之后在特征维度上,即2048维度相加,获得注意力掩膜。
如图3所示,所述分类器包括:依次连接的三个卷积层以及末端的全连接层;两帧的特征图融合结果输入后,依次通过三个卷积层的处理输入至全连接层,全连接层的输出维度为1,之后,通过sigmod函数得到输入的两帧被篡改的概率。
示例性的,三个卷积层的卷积核尺寸依次设为1×1、3×3、3×3。第一个1×1卷积层的输入维度为4096,输出维度为512。之后3×3卷积层的输入输出均为512维度。最后全连接层输如维度为512,输出维度为1。
本发明实施例中,特征提取器与帧间相关性分类器组成深度神经网络,通过网络训练后,可以自动检测视频中的人脸是否被篡改。训练过程中,损失函数设置为:
Figure GDA0002607828350000041
其中,s为输入的两帧被篡改的概率。
本发明提供两种训练方式(通过均值或者最大值判断),使用任一种训练方式均可:
第一种:训练过程中,分别将连续两帧作为输入计算损失,并反向传播;训练完成后,对于测试视频,每输入连续两帧后,计算被篡改的概率,最终得到K-1个被篡改的概率,并根据K-1个被篡改的概率的平均值判断是否来自篡改视频,通常大于50%即认为来自篡改视频,其中,K表示测试视频的帧数量。
第二种:训练过程中,将连续两帧作为输入,计算它们被篡改的概率,并对一批训练样本(样本数目可自行设定)中计算出的最大被篡改的概率计算损失,再反向传播;训练完成后,对于测试视频,每输入连续两帧后,计算被篡改的概率,最终得到K-1个被篡改的概率,并根据被篡改的概率的最大值判断是否来自篡改视频,通常大于50%即认为来自篡改视频。
本发明实施例上述方案,基于深度神经网络,同时利用了帧图片自身的信息和与其相邻帧的帧间关系,可取的较好的效果。同时检测是自动完成的,可以适用于大规模的视频平台、社交平台。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例可以通过软件实现,也可以借助软件加必要的通用硬件平台的方式来实现。基于这样的理解,上述实施例的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明披露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求书的保护范围为准。

Claims (6)

1.一种篡改人脸视频检测方法,其特征在于,包括:
将人脸视频数据解码为一组连续的帧图像,并截取每一帧图像的人脸区域,按照帧序号对应保存为人脸图片;
通过特征提取器提取每一人脸图片的特征,获得对应的特征图;
将连续两帧的特征图,同时输入至帧间相关性分类器,采用注意力机制将两帧的特征图融合在一起后进行分类,分类结果为输入的两帧被篡改的概率;
其中,所述由帧间相关性分类器采用注意力机制将两帧的特征图融合在一起包括:
将连续两帧的特征图记为A与B,求两个特征图之间的相关矩阵Cor,通过两个特征图中特征向量两两之间的相似度计算:Cor=A×BT
通过变形相关矩阵Cor,得到特征图A和B各自对应的相关矩阵为:RA=reshape(Cor,N×N×N2),RB=reshape(CorT,N×N×N2);其中,reshape(X,SHAPE)表示将X的尺寸变换为SHAPE,X=Cor,CorT,X的尺寸为N2×N2,SHAPE=N×N×N2;其中,N×N表示特征的空间尺寸;
将RA与RB各自输入至注意力模块,生成对应的注意力掩膜MA与MB,再计算:AT=(MA+1)×A,BT=(MB+1)×B;然后,将AT与BT在特征维度上拼接在一起。
2.根据权利要求1所述的一种篡改人脸视频检测方法,其特征在于,通过通用的opencv或者ffmpeg工具包,将人脸视频数据解码为一组连续的帧图像;通过python中开源的Dlib工具库,截取每一帧图像的人脸区域,不同帧图像中人脸区域的尺寸相同或者不同。
3.根据权利要求1所述的一种篡改人脸视频检测方法,其特征在于,所述通过特征提取器提取每一人脸图片的特征,获得对应的特征图包括:
所述特征提取器选择Xception网络实现;
特征提取器的末端添加有自适应池化层,用于将任意尺寸的特征图根据统一尺度划分为不同区域,并求每一个区域中的平均值,从而获得统一尺度的特征图;
设定特征图的尺度为N×N×M,其中,N×N表示特征的空间尺寸,M表示特征空间中每一个点的特征向量维度。
4.根据权利要求1所述的一种篡改人脸视频检测方法,其特征在于,所述注意力模块包括依次连接的三个卷积层,三个卷积层均使用padding=1,填充值为0,每一卷积层后面均连接了批正则化层,而且除了最后一个卷积层外,均在批正则化层后连接了ReLu激活层;
最后一个卷积层的输出经过批正则化层后与输入的相关矩阵相加,再通过ReLu激活层,得到相应的掩膜。
5.根据权利要求1所述的一种篡改人脸视频检测方法,其特征在于,两帧的特征图融合结果通过帧间相关性分类器中分类器进行分类;所述分类器包括:依次连接的三个卷积层以及末端的全连接层;两帧的特征图融合结果输入后,依次通过三个卷积层的处理输入至全连接层,全连接层的输出维度为1,之后,通过sigmod函数得到输入的两帧被篡改的概率。
6.根据权利要求1所述的一种篡改人脸视频检测方法,其特征在于,特征提取器与帧间相关性分类器组成深度神经网络,训练过程中,损失函数为:
Figure FDA0002607828340000021
其中,s为输入的两帧被篡改的概率;
使用如下任一种训练方式:
第一种:训练过程中,分别将连续两帧作为输入计算损失,并反向传播;训练完成后,对于测试视频,每输入连续两帧后,计算被篡改的概率,最终得到K-1个被篡改的概率,并根据K-1个被篡改的概率的平均值判断是否来自篡改视频,其中,K表示测试视频的帧数量;
第二种:训练过程中,将连续两帧作为输入,计算被篡改的概率,并对一批训练样本中计算出的最大被篡改的概率计算损失,再反向传播;训练完成后,对于测试视频,每输入连续两帧后,计算被篡改的概率,最终得到K-1个被篡改的概率,并根据被篡改的概率的最大值判断是否来自篡改视频。
CN201911376257.6A 2019-12-27 2019-12-27 一种篡改人脸视频检测方法 Active CN111144314B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911376257.6A CN111144314B (zh) 2019-12-27 2019-12-27 一种篡改人脸视频检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911376257.6A CN111144314B (zh) 2019-12-27 2019-12-27 一种篡改人脸视频检测方法

Publications (2)

Publication Number Publication Date
CN111144314A CN111144314A (zh) 2020-05-12
CN111144314B true CN111144314B (zh) 2020-09-18

Family

ID=70520954

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911376257.6A Active CN111144314B (zh) 2019-12-27 2019-12-27 一种篡改人脸视频检测方法

Country Status (1)

Country Link
CN (1) CN111144314B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113674195A (zh) * 2020-05-13 2021-11-19 中国移动通信集团有限公司 图像检测方法、装置、设备及存储介质
CN111783608B (zh) * 2020-06-24 2024-03-19 南京烽火星空通信发展有限公司 一种换脸视频检测方法
CN111860414B (zh) * 2020-07-29 2023-10-24 中国科学院深圳先进技术研究院 一种基于多特征融合检测Deepfake视频方法
CN111986180B (zh) * 2020-08-21 2021-07-06 中国科学技术大学 基于多相关帧注意力机制的人脸伪造视频检测方法
CN112036356B (zh) * 2020-09-09 2024-06-25 北京达佳互联信息技术有限公司 视频检测方法、装置、设备及存储介质
CN112749686B (zh) * 2021-01-29 2021-10-29 腾讯科技(深圳)有限公司 图像检测方法、装置、计算机设备及存储介质
CN114329399B (zh) * 2021-12-21 2025-02-28 北京达佳互联信息技术有限公司 一种人脸视频的校验方法、装置、设备及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102567731A (zh) * 2011-12-06 2012-07-11 北京航空航天大学 一种感兴趣区域提取方法
CN103034993A (zh) * 2012-10-30 2013-04-10 天津大学 一种数字视频转码检测方法
CN108765405A (zh) * 2018-05-31 2018-11-06 北京瑞源智通科技有限公司 一种影像鉴真方法和系统
CN109726733A (zh) * 2018-11-19 2019-05-07 西安理工大学 一种基于帧间相关性的视频篡改检测方法
CN109934116A (zh) * 2019-02-19 2019-06-25 华南理工大学 一种基于生成对抗机制与注意力机制的标准人脸生成方法
CN110457996A (zh) * 2019-06-26 2019-11-15 广东外语外贸大学南国商学院 基于vgg-11卷积神经网络的视频运动对象篡改取证方法
CN110503076A (zh) * 2019-08-29 2019-11-26 腾讯科技(深圳)有限公司 基于人工智能的视频分类方法、装置、设备和介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104954807B (zh) * 2015-06-25 2018-02-23 西安理工大学 抗几何攻击的视频复制篡改检测方法
CN107527337B (zh) * 2017-08-07 2019-07-09 杭州电子科技大学 一种基于深度学习的视频对象移除篡改检测方法
US20190304102A1 (en) * 2018-03-30 2019-10-03 Qualcomm Incorporated Memory efficient blob based object classification in video analytics
US11580203B2 (en) * 2018-04-30 2023-02-14 Arizona Board Of Regents On Behalf Of Arizona State University Method and apparatus for authenticating a user of a computing device
CN110414350A (zh) * 2019-06-26 2019-11-05 浙江大学 基于注意力模型的双路卷积神经网络的人脸防伪检测方法
CN110418129B (zh) * 2019-07-19 2021-03-02 长沙理工大学 数字视频帧间篡改检测方法及系统
CN110414437A (zh) * 2019-07-30 2019-11-05 上海交通大学 基于卷积神经网络模型融合篡改人脸检测分析方法和系统

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102567731A (zh) * 2011-12-06 2012-07-11 北京航空航天大学 一种感兴趣区域提取方法
CN103034993A (zh) * 2012-10-30 2013-04-10 天津大学 一种数字视频转码检测方法
CN108765405A (zh) * 2018-05-31 2018-11-06 北京瑞源智通科技有限公司 一种影像鉴真方法和系统
CN109726733A (zh) * 2018-11-19 2019-05-07 西安理工大学 一种基于帧间相关性的视频篡改检测方法
CN109934116A (zh) * 2019-02-19 2019-06-25 华南理工大学 一种基于生成对抗机制与注意力机制的标准人脸生成方法
CN110457996A (zh) * 2019-06-26 2019-11-15 广东外语外贸大学南国商学院 基于vgg-11卷积神经网络的视频运动对象篡改取证方法
CN110503076A (zh) * 2019-08-29 2019-11-26 腾讯科技(深圳)有限公司 基于人工智能的视频分类方法、装置、设备和介质

Also Published As

Publication number Publication date
CN111144314A (zh) 2020-05-12

Similar Documents

Publication Publication Date Title
CN111144314B (zh) 一种篡改人脸视频检测方法
Niu et al. Facial expression recognition with LBP and ORB features
Lu et al. Feature extraction and fusion using deep convolutional neural networks for face detection
Lu et al. Face hallucination via split-attention in split-attention network
Ding et al. Crowd density estimation using fusion of multi-layer features
CN108334848B (zh) 一种基于生成对抗网络的微小人脸识别方法
Mahmood et al. Recognition of Facial Expressions under Varying Conditions Using Dual‐Feature Fusion
CN104281835B (zh) 基于局部敏感的核稀疏表示的人脸识别方法
Zhang et al. A crowd counting framework combining with crowd location
CN114330503A (zh) 一种烟雾火焰识别方法和装置
CN116071701A (zh) 基于注意力机制和GSConv的YOLOv5行人检测方法
CN103198299A (zh) 基于多方向尺度与Gabor相位投影特征结合的人脸识别方法
Zhang et al. Noise and edge based dual branch image manipulation detection
Parde et al. Deep convolutional neural network features and the original image
An Pedestrian Re‐Recognition Algorithm Based on Optimization Deep Learning‐Sequence Memory Model
CN117315752A (zh) 人脸情绪识别网络模型的训练方法、装置、设备和介质
Liu et al. Video action recognition with visual privacy protection based on compressed sensing
CN113642540B (zh) 一种基于胶囊网络的人脸表情识别方法及装置
Assefa et al. Small‐Scale and Occluded Pedestrian Detection Using Multi Mapping Feature Extraction Function and Modified Soft‐NMS
CN107403182A (zh) 基于3d sift框架的时空兴趣点的检测方法及装置
Hou et al. Hybrid pyramid convolutional network for multiscale face detection
Li et al. DAR‐Net: Dense Attentional Residual Network for Vehicle Detection in Aerial Images
CN118366090A (zh) 检测图像中对象的方法、装置、计算机设备、介质和产品
Bhattacharya HybridFaceMaskNet: A novel face-mask detection framework using hybrid approach
CN116778180A (zh) 一种基于多级特征和上下文信息融合的rgb-d显著性目标检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant