CN110612530A - 用于选择脸部处理中使用的帧的方法 - Google Patents
用于选择脸部处理中使用的帧的方法 Download PDFInfo
- Publication number
- CN110612530A CN110612530A CN201680092101.3A CN201680092101A CN110612530A CN 110612530 A CN110612530 A CN 110612530A CN 201680092101 A CN201680092101 A CN 201680092101A CN 110612530 A CN110612530 A CN 110612530A
- Authority
- CN
- China
- Prior art keywords
- frame
- sel
- face
- frames
- sequence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 60
- 238000000034 method Methods 0.000 title claims abstract description 58
- 230000033001 locomotion Effects 0.000 claims abstract description 40
- 230000004044 response Effects 0.000 claims abstract description 33
- 230000008569 process Effects 0.000 claims description 15
- 238000012360 testing method Methods 0.000 claims description 11
- 230000000694 effects Effects 0.000 claims description 10
- 238000005286 illumination Methods 0.000 claims description 7
- 208000012661 Dyskinesia Diseases 0.000 claims description 3
- 238000004590 computer program Methods 0.000 claims description 3
- 210000004709 eyebrow Anatomy 0.000 claims description 3
- 210000003128 head Anatomy 0.000 claims description 3
- 230000017311 musculoskeletal movement, spinal reflex action Effects 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 3
- 230000021542 voluntary musculoskeletal movement Effects 0.000 claims description 3
- 230000004397 blinking Effects 0.000 claims description 2
- 230000000903 blocking effect Effects 0.000 claims description 2
- 230000001419 dependent effect Effects 0.000 claims description 2
- 238000006073 displacement reaction Methods 0.000 claims description 2
- 238000001514 detection method Methods 0.000 description 10
- 230000001815 facial effect Effects 0.000 description 7
- 210000000887 face Anatomy 0.000 description 5
- 238000012937 correction Methods 0.000 description 4
- 230000002747 voluntary effect Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000010187 selection method Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 239000004984 smart glass Substances 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 208000015592 Involuntary movements Diseases 0.000 description 1
- 238000012952 Resampling Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001066 destructive effect Effects 0.000 description 1
- 230000001627 detrimental effect Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 210000004209 hair Anatomy 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000013442 quality metrics Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/167—Detection; Localisation; Normalisation using comparisons between temporally consecutive images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Ophthalmology & Optometry (AREA)
- Collating Specific Patterns (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
Abstract
一种用在个人设备中的、用于选择脸部处理中使用的帧(150i)的方法,包括:a)用摄像机(10)捕获(102)特征为个人的脸部的视频数据;b)用处理单元(11)确定(106)用于所述视频数据中至少一些帧(150i)的至少一个图像质量指标(qij);c)将所述质量指标(qij)用于选择(110)所述帧(Se11,Sel2)的子集;d)检测(108)与所述视频数据中身体部分的移动相对应的、和/或与响应窗口(rw)相对应的帧序列(fperiod),在所述响应窗口(rw)期间,应该给出对质询的响应;e)在所述序列之前或之后的预定义间隔(Int1,Int2)内,向所述子集添加(110)至少一个第二帧(Sel3,Sel4);f)将帧(Sel1,Sel2,Sel3,Sel4)的所述子集存储(114)在存储器(12)中。
Description
技术领域
本发明涉及脸部处理领域。具体地,本发明涉及脸部处理中帧的选择。
背景技术
脸部处理包含脸部图像的处理。脸部处理系统为基于计算机的、能够处理数字图像或视频中脸部的系统。脸部处理方法可包括例如情绪确定;脸部分类;脸部变形;姿势检测;凝视检测;复杂图像中的脸部检测等。
作为脸部处理的示例,脸部识别包括使用与数据库中参考图像的比较来识别或验证测试图像或视频中的人。脸部识别一般用于访问控制系统。
用于图像脸部处理的图像通常是使用视频摄像机捕获的,诸如例如智能手机、平板电脑、膝上机、智能手表、智能眼镜、智能电视中的摄像头,数字个人摄像机,安全摄像机等。摄像机递送包括多个帧的视频流。检测并处理帧中的脸部。
此处理可本地执行,即在捕获视频的设备中执行,或远程执行,例如在个人计算机中或在具有高处理功率的、和/或访问参考图像的数据库的远程服务器中执行。本地处理通常较快、且不贵,因为视频流无需通过网络传送给远程设备。然而,就脸部识别而言,本地设备时常缺少所需的处理功率或应该与捕获的脸部进行比较的参考图像。
因此,许多脸部处理应用需要远程传送视频流,以进一步处理。即使视频数据被压缩,此传送也是既贵且慢的处理。
根据一个方面,认识到不是所有脸部处理的应用都需要远程传送完整的视频流。实际上,视频中的连续帧时常包括类似且冗余的内容,诸如来自相同视点的同一脸部的连续图像。
即使在用户设备中本地执行脸部处理应用,也无需对视频流的每个帧重复它。实际上,诸如脸部识别或脸部分类之类的许多应用仅需要一个或有限数量的静止图像,即帧。限制将要处理的帧的数量使处理功率可用于其它应用,并减少用户设备的功耗。
因此,根据一个方面,本发明的目标是提供一种用于从视频流选择一个或有限数量的帧的方法及装置、以及将选择的帧用于脸部处理。
用于从视频流提取关键帧的算法本身是已知的。作为示例,它们时常用来从视频选择信息最多的帧,目的是用有限数量的静止图像表示视频的最重要内容。作为示例,US7889794使用视频摄像机中的摄像机运动传感器提供在图像捕获期间关于摄像机运动的信息。接着,基于摄像机运动评估,将该视频划分成多个视频片段,并且从每个视频片段提取关键帧。
US2016063343A涉及一种用于从视频序列选择帧的方法。在第一步骤中,将参考关键帧的子集与视频隔离。接着,迭代地为与每个参考关键帧相邻的多个候选帧中的每一个候选帧计算清晰度分数,直至为每个参考关键帧标识具有最高清晰度分数的候选。然后,选择具有最高质量分数的帧。此解决方案的缺陷在于:为两个参考关键帧选择的候选帧可能彼此非常接近,或者甚至相邻。来自两个相邻帧的信息内容时常非常接近,因此这一方法可能产生冗余帧。
US2010118205中的帧选择基于用于确定现有项何时离开场景或何时出现新项的追踪单元。
那些先前已知的帧提取方法在视频概括、创建DVD中的章标题、为视频加索引、根据视频进行打印等中找到应用。选择的帧通常不是人们会在脸部处理算法中需要的帧。例如,检测转换以从视频中的每个镜头提取一个帧的方法在脸部识别中是不合适的,因为脸部识别时常仅包括一个镜头,其中摄像机靠近脸部,且无转换、无分割及摄像机几乎不移动。
另一方面,脸部认证和脸部识别广泛用作生物用户验证方法。然而,确定的敌对方(例如,通过呈现2D打印照片或3D面具、重放视频等)破坏那些系统的可能性,现在被视为任意生物系统的固有部分。因此,需要对破坏性的识别尝试或呈现攻击(也叫作“欺骗攻击”)进行检测的对策。根据国际标准(ISO/IEC 30107),此类呈现攻击的自动确定被定义为呈现攻击检测(也叫作“反欺骗对策”)。
质询-响应策略在现有技术中是已知的,用于验证用户的活性。作为示例,邀请用户执行诸如随机瞬间的眨眼之类的特定脸部移动的脸部识别系统是已知的。照片、视频或面具无法复制应请求的脸部移动,并且被拒绝。然而,已发现一些机敏的攻击者通过用他们自己的脸暂时替换照片、视频或面具并执行所请求的移动来设法欺骗活性检测器。因此,活性检测器检测到被请求时、执行所请求的脸部移动,同时脸部识别系统将识别在其它帧上捕获到的来自照片、面具或视频的脸部。
发明内容
因此,本发明的目的是提出一种更适于脸部处理应用的、从视频序列提取帧的新方法。
因此,本发明的目的是提出一种在使用呈现攻击检测方案时更适于脸部处理应用的、从视频序列提取帧的新方法。
根据本发明,通过用于选择在脸部处理中使用的帧的方法来实现这些目的,该方法包括:
a)用摄像机捕获特征为个人的脸部的视频数据;
b)用处理单元确定用于所述视频数据中至少一些帧的至少一个图像质量指标;
c)将所述质量指标用于选择所述帧的子集;
d)确定与所述视频数据中检测到的身体部分的移动相对应的、和/或与响应窗口相对应的帧序列,在所述响应窗口期间,应该给出对质询的响应;
e)在所述序列之前或之后的预定义间隔内,向所述子集添加至少一个第二帧;
f)将选择的帧存储在存储器中。
在一个实施例中,在步骤c)中仅选择具有足够的质量水平的帧。
实际上,脸部视频时常包括身体部分的移动,诸如眨眼、嘴巴移动、整个脸部的移动、一只手的移动等。那些移动叫作“活性事件”。
身体部分的那些移动可能是非自愿或自愿的。非自愿的活性事件可随时发生。自愿移动可在预定义的响应窗口期间发生,且响应于系统提示的、用于验证所捕获的脸部是否为人脸且能够做出此类活性事件的质询。
应该去除特征为此类移动的帧,因为脸的外观可在事件期间改变,这对许多脸部处理算法不利。例如,应该去除具有闭眼或转头的帧。
在一个实施例中,使用基于质询-响应策略的呈现攻击检测方案。在此情况下,身体部分的移动可为对质询的自愿响应,且应该在预定义的响应窗口内进行,例如在向用户提示质询后的2秒内。在此情况下,在响应窗口开始前或结束后的预定义的间隔内,选择在步骤e)期间添加的第二帧。因此,不将响应窗口内可能包括身体部分的移动的帧选作第二帧。
替代地,或另外,在一个序列之前或之后的预定义的间隔内选择第二帧,在所述序列期间,检测到作为对质询的响应的身体部分的移动。此替代方式需要检测移动,但可选择与事件非常接近的第二帧,包括在响应窗口内的帧。
在一个实施例中,使用基于被动活性检测(即,不基于质询-响应)的呈现攻击检测方案。
在此情况下,活性事件可与一个身体部分的不自愿移动相对应,且在帧序列之前或之后的所述预定义间隔内选择第二帧,所述帧序列覆盖检测到身体部分的所述移动的时期。
在此类情形下,该方法选择与检测到身体部分的移动的帧序列相邻的、或者在距该帧序列预定义间隔内的一个帧,以便减少攻击者用他自己的脸迅速替换呈现攻击工具(例如,照片,面具等)来假冒活性事件的风险。
该移动可与以下移动之一相对应:
-眨眼;
-头部移动;
-眉毛、脸颊和/或嘴巴的移动;
-摄像机相对所述脸部的位移。
所有选择的帧优选地至少由大于两个连续帧间的间隔的时间间隔来隔开彼此。因此,该子集不包含连续帧。
作为示例,两个选择的帧间的间隔为至少100毫秒。
选择由间隔隔开的帧、且避免选择相邻或近似相邻的帧的风险,这通常产生不太冗余的、信息更多的帧子集,因此提高了处理的可靠性。
处理单元用于确定用于视频数据中至少一些帧的至少一个图像质量指标。此质量指标可用于选择子集中的至少一些帧。因此,比起具有低质量的帧,更可能选择具有高质量的帧,从而提高脸部处理的可靠性。
质量指标可取决于用于整个帧的以下参数的至少之一:
照明质量;
清晰度;
模糊度;
噪声水平。
替代地,或另外,质量指标可取决于分别为与所述脸部相对应的图像部分所确定的以下参数的至少之一:
照明质量;
清晰度;
模糊度
噪声水平;
脸部方位;
脸部大小;
遮挡或反射;
用户表情;
图像与脸部相对应的可能性;
活性。
因此,帧的选择取决于对脸部处理最重要的图像部分、即与脸部相对应的图像部分的质量。
此帧选择方法可在生物脸部识别过程的注册阶段期间执行。
此帧选择方法可在生物脸部识别过程的测试阶段期间执行。
附图说明
借助于通过示例给出的、且由附图所图示的实施例的描述,本发明将被更好理解,其中:
图1为根据本发明的装置的示意图。
图2为本发明的方法的流程图。
图3图示了用本发明的方法捕获的一系列帧,包括选择的帧Sel1-Sel4的子集。
具体实施方式
图1图示了可用于本发明的一个实施例的系统。它包括用户个人设备1,诸如不限于智能电话、数字个人摄像机、平板电脑、带网络摄像头的计算机、膝上机、智能手表、智能眼镜、车内视频摄像机、安全摄像机、其它可穿戴设备等。个人设备1包括诸如CMOS、CCD、RGB-D或3D摄像机的摄像机10,用于捕获场景2的一系列帧,即视频。在图示的示例中,该场景包括脸部2,例如想要被识别或以其它方式处理的个人设备的用户的脸部。
用户设备进一步包括诸如微处理器或微控制器的处理单元11,用于控制摄像机10和设备的其它组件,且用于处理用摄像机捕获的视频数据。在一个实施例中,处理单元执行操作系统,诸如不限于安卓、iOS、Windows、Unix(全为注册商标)以及一个或多个用于控制用户设备的操作的软件应用或程序。软件应用/程序和包括视频数据的数据存储在存储器12内,诸如永久性或非永久性存储器。传送单元13,诸如不限于蜂窝模块、WiFi模块、蓝牙模块、nfc模块等,可操作地与处理单元11连接,用于通过诸如无线通信网络3的通信网络发送和/或接收数据,无线通信网络3为例如无线局域网、个人区域网和/或互联网等。
数据可发送给远程设备4,或从远程设备4接收,远程设备4为诸如远程服务器、服务器组、个人计算机,或在云内。远程设备4包括诸如处理器的远程处理单元、和数据库41。
用户的设备还可包括输入/输出组件,诸如显示器、扬声器、话筒、按钮、触摸屏、键盘等。那些组件可用于向用户显示诸如提示消息的消息,且用于从用户键入指令。
图2的流程图图示了可用于本发明的一个实施例的步骤示例。那些步骤的一些可用图1的一些组件执行,例如通过存储器12内存储的、且由本地设备1内的处理单元11和/或由远程设备4内的处理单元40执行的程序。
该过程始于步骤100。在步骤102中,用户的本地设备的摄像机10捕获视频流。该捕获递送视频数据,即存储器12内存储的一组帧150i(图3),表示脸部需要例如识别、认证或以其它方式分类的处理的用户2。
在步骤104中,由处理单元11执行的模块检测帧150i中的脸部,并在至少一些帧中检测用户脸部的方位。该模块还可以纠正此方位,以生成用户脸部的前视图。该模块还可以检测每个帧中的脸部大小。假如该大小太小或太大,和/或假如帧中的脸部方位不是想要的、且无法校正,可拒绝该帧;在此类情况下,可邀请用户移动他的脸和/或摄像机10。
在步骤106中,由处理单元11执行的模块给每个或一些帧i分配至少一个图像质量指标qij。
可将可能具有不同权重的各种质量指标qij合并,以确定用于整个帧150i和/或用于脸部的总质量分数Qi。例如,可以确定回归函数以从具有不同质量指标的一组帧来评估应该使用哪一个。
质量分数Qi取决于以下为整个帧150i所确定的质量指标qij中的至少之一:
照明质量;
清晰度;
模糊度;
噪声水平。
质量分数Qi还可包括分别为与脸部相对应的部分帧150i所确定的至少一个质量指标qij:
脸部的照明质量;
脸部的清晰度;
脸部的模糊度;
脸部的噪声水平;
脸部方位(姿势);
脸部大小;
遮挡(诸如头发、手等)或反射(尤其是眼镜上的);
用户表情。例如假如用户闭上他的眼睛、张开嘴巴等,对应的质量指标可能降低;
图像与脸部相对应的可能性;
活性,如活性检测器所指示的。
一个质量指标qj可取决于帧150i与参考图像的相似度。例如,该方法可在生物脸部识别过程的测试阶段期间使用,以将个人图像与参考数据库中的模型进行比较、且对个人进行识别或认证。在此类场景中,优选选择具有与参考图像的质量指标相似的质量指标的帧。作为示例,假如参考图像具有用于方位的低质量指标(可能因为参考图像不完全是前视图),将优选具有相同方位和相同的用于方位的低质量指标的帧。类似地,假如参考图像曝光不足、过度曝光、模糊、不清晰、有噪声、被遮挡等,将在生物脸部识别过程的测试阶段期间优选呈现类似缺陷的那些帧,因为它们更可能匹配参考图像。
至少一个质量指标qj可由图像和/或脸部的计算机分析确定。整个图像和/或脸部的照明质量可例如取决于对比度范围,取决于曝光不足或过度曝光的像素部分,等等。
假如一个质量指标qj低于预定义阈值,该系统可提示用户应用适当的校正,例如开灯、避免摇晃等。
另外,或可替代地,假如一个质量指标qij和/或总质量分数Qi低于对应的预定义阈值,则可拒绝对应的帧。例如,可拒绝用户眨眼的帧或脸部照明不够的帧。拒绝未检测到脸部的帧;可邀请用户在摄像机前移动他的脸。
在步骤108中,由处理单元11执行的模块检测覆盖时期p的至少一个帧序列,在时期p期间,检测到身体部分的移动。该序列可包括一个或多个帧fperiod。
身体部分的移动(例如,眨眼)可能是无意的;他的检测可用作活性证据,用于预防利用照片或其它静态图像的呈现攻击。
其它身体部分的移动可能是有意的,例如响应于用户本地设备1的提示以对质询进行响应。作为示例,处理单元可邀请用户在指定的瞬间移动他的头或眨眼,以预防呈现攻击。其它质询示例可包括邀请移动脸的一部分,诸如眉毛、嘴巴、一边脸颊等,或邀请执行头部移动、或手部移动。该模块使用计算机视觉方法来检测存在此类活性事件的帧序列。
步骤104至108可按任意可能的次序执行,或并行执行。
在步骤110中,由处理单元11执行的模块从视频中的整组帧150i选择一个帧子集(图3)。在此过程中,比起具有低质量分数的帧,更可能在该子集中选择具有高质量分数Qi的帧150i(诸如示例中的帧Sel1及Sel2)。类似地,更可能拒绝用户的脸太小、太大或方位不正的帧。在图3的示例中,图3上的帧Sel1及Sel2是基于它们的质量及距离来选择的。
在一个实施例中,该方法包括在子集中选择具有与参考图像的质量指标匹配的至少一些质量指标qij的帧150i的步骤。例如,在脸部识别过程的测试阶段,该方法可包括选择具有与参考图像的质量指标最接近的质量指标的帧——帧应该与参考图像进行比较——而不是选择具有最佳质量指标的帧。例如,假如参考图像中脸部方位不完美(低质量指标),该方法将尽力找到具有对应的质量指标的测试帧。
一些质量指标qij和/或质量分数Qi可与阈值比较。将拒绝具有低于对应阈值的质量指标qij和/或总质量分数Qi的帧150i。可为不同场景定义不同阈值;例如,可为选择用于脸部识别过程的注册阶段的帧定义第一阈值,同时可为脸部识别过程的测试阶段定义不同的阈值。还可根据系统管理员所请求的安全级别来调整阈值。
选择过程不仅仅取决于帧150的质量Qi或取决于脸部大小及方位。为了确保在子集中选择的帧不连续、且相互不太近,该模块优选地确定候选帧之间的时间间隔Ij;该选择取决于此间隔。例如,假如到在子集中选择的另一帧的间隔低于预定阈值,可拒绝具有非常高的质量指标、脸部的正确大小及正确方位的帧。此阈值可能例如取决于视频的总持续时间,且确定此阈值以便选择在视频的持续时间内大致有规律地传播的预定数目的帧。在许多应用中,选择的帧的这一或多或少有规律的再划分提高了脸部处理的质量或可靠性。例如,使脸部识别应用基于在视频期间的各个瞬间获取的数个帧,这改进了识别的鲁棒性,且减少了在部分视频期间的呈现攻击的风险。
在一个实施例中,在子集中选择的帧的数目低于10,并且在所选择的帧间的最小间隔高于100毫秒。然后,1至5秒的视频足以捕获由至少100毫秒隔开的10个帧。
在一个实施例中,帧选择模块在子集中选择具有高于阈值的总质量分数Qi的、且与先前选择的帧距离最小的帧150i。
在图3的示例中,两个帧间的最小间隔为1,以避免选择相邻的帧。因而可选择帧Sel1及Sel2,因为它们被中间帧隔开。
在另一实施例中,帧选择模块选择在窗口内具有最高总质量分数Qi的、且处于先前选择的帧之后的最小距离的帧150i。拒绝比此最小距离近的帧,即使它们的质量分数高。
如指示的,优选地拒绝与时期p相对应的帧序列fperiod(在时期p期间,检测到自愿或不自愿的身体移动),因为许多脸部处理算法对此类事件反应不佳。例如,在用户眨眼或移动头部的情况下,脸部识别模块不太可能在帧fperiod上识别出他。因此,与用户移动身体部分的时期相对应的帧序列fperiod对于脸部识别不太有用,且应该被检测并从子集中帧的选择中拒绝。
然而,在一方面,紧接在此类时期p之前或之后的帧Sel3、和/或在此时期之前和/或之后的限定间隔Int1、Int2内的至少一个帧被选择,且作为第二帧被添加到该子集。这改进了呈现攻击检测模块的鲁棒性,因为当邀请尝试呈现攻击的用户回答质询或激发身体部分的自愿或不自愿的移动时,他将没有时间用他的脸部来替换呈现攻击工具。该时期之前和/或之后的间隔Int1、Int2可能相等、或不同。还可能在该时期之前的间隔内或在该时期之后的间隔内仅选择一个帧。
如指示的,当处理单元提示用户移动身体部分时,身体部分的移动作为对质询的响应,可以是自愿的。在此类情形下,用户可能具有在预定义的响应窗口rw内执行质询的有限时间量,诸如例如在响应窗口开始后(例如提示后)的5秒内(例如2秒内)。在此类情形下,紧接在响应窗口rw前或紧接在响应窗口rw后的帧Sel4、或此响应窗口周围的有限间隔Int2内的一个帧被选择,且作为第二帧被添加到该子集。
在给定帧内检测到对质询的响应的信息可被存储,且为呈现攻击检测模块所用。
在步骤112中,预处理在该子集中选择的帧Sel1、Sel2、……。预处理可包括、不限于照明校正、对比度校正、降噪、清晰度增加、白平衡校正、前景提取、剪裁、颜色通道分离、压缩编码和/或重采样等。那些操作的一些或全部还可在帧的选择之前、或质量指标的评估之前执行。
在步骤114中,通过网络3将预处理过的帧传送给在步骤116中执行脸部处理的远程设备4。因为仅传送有限数量的选择的帧,所以用于此传送的成本及时间是有限的。脸部处理可包括从每个帧提取生物特征并且将提取的特征与数据库41中的参考进行比较,以对帧上示出的用户进行分类、识别或认证。脸部处理还可以包括生物特征提取。
脸部处理可为脸部识别过程的注册阶段的一部分,以将新的生物脸部参考模型保存在数据库内。在此情况下,将仅使用具有高质量指标的帧;拒绝具有低于阈值的至少一个质量指标的其它帧。该方法可包括确定并保存一个或多个质量指标的步骤,以在脸部识别过程的后面测试阶段期间选择具有相似的质量指标的帧。
替代地,或另外,脸部处理可为在线步骤的一部分,以通过与先前存储的生物脸部参考模型的比较来识别用户。在此情况下,用于至少一些质量指标的阈值可能低于用于注册阶段的;因而可为测试选择对于注册阶段不视为可接受的帧,以增强用户信心。
在步骤118中,由远程设备4将结果传送给本地设备1。此结果可例如为用户身份的分类、识别或确认,可能具有概率分数。
脸部处理步骤116还可在本地设备中本地执行,无需传送步骤114及118。在此情况下,帧选择确保基于有限数目的帧的快速且可靠的脸部处理。
本文公开的方法包括用于实现所描述的方法的一个或多个步骤或动作。除非指定了步骤或动作的具体次序,否则可修改具体步骤和/或动作的次序和/或作用,而不背离权利要求的范围。
要意识到,取决于实施例,本文描述的任一方法的某些动作或事件或步骤可在不同序列中执行,可一道增加、合并或略去(例如,对于该方法的实现,不是所有描述的动作或事件都是必需的)。而且,在某些实施例中,动作或事件可并发执行,例如通过多线程处理、中断处理或多处理器,而不是顺序地。
明确地描述了通常实现为软件程序的、本发明的一些实施例。本领域技术人员将意识到还可用硬件构建此类软件的等同物,并且硬件实施方式可带来可使此发明能够用于诸如实时系统之类的更广泛的应用的优点。据此,上面描述方法的各种操作可由能够执行对应功能的任意合适的部件或模块执行。部件或模块可包括各种硬件和/或软件组件和/或模块,包括但不限于被设计为完成本文描述的方法步骤的电路、特定用途集成电路(ASIC)、处理器、现场可编程门阵列信号(FPGA)或其它可编程逻辑设备(PLD)、离散门或晶体管逻辑、离散硬件组件或其任意组合。
可直接用硬件、用处理器执行的软件模块或用两者的组合来体现结合本公开所描述的方法或算法的步骤。软件模块可驻留于本领域已知的任意形式的存储介质中。一些可以使用的存储介质的示例包括随机存取存储器(RAM)、只读存储器(ROM)、闪存、EPROM存储器、EEPROM存储器、寄存器、硬盘、可移除盘、CD-ROM等。软件模块可包括单个指令或许多指令,并且可在不同程序间、且跨多个存储介质分布在数个不同的代码片段上。存储介质可耦接到处理器,这样处理器可从存储介质读取信息,并且将信息写到存储介质。在替代方式中,存储介质可为处理器不可或缺的部分。
因此,某些方面可包括用于执行本文提出的操作的计算机程序产品。例如,此类计算机程序产品可包括其上存储(和/或编码)有指令的计算机可读介质,指令可由一个或多个处理器执行,以执行本文描述的操作。
本发明的描述的实施例的各种修改及变体对于本领域技术人员将是显而易见的,不背离如所附的权利要求限定的本发明的范围。尽管本发明是结合具体的优选实施例描述的,但应该理解,请求保护的本发明不该过分地限于此类具体实施例。
Claims (17)
1.一种用在个人设备中的、用于选择脸部处理中使用的帧(150i)的方法,包括:
a)用摄像机(10)捕获(102)特征为个人的脸部的视频数据;
b)用处理单元(11)确定(106)用于所述视频数据中至少一些帧(150i)的至少一个图像质量指标(qij);
c)将所述质量指标(qij)用于选择(110)所述帧(Se11,Sel2)的子集;
d)检测(108)与所述视频数据中身体部分的移动相对应的、和/或与响应窗口(rw)相对应的帧序列(fperiod),在所述响应窗口(rw)期间,应该给出对质询的响应;
e)在所述序列之前或之后的预定义间隔(Int1,Int2)内,向所述子集添加(110)至少一个第二帧(Sel3,Sel4);
f)将帧(Sel1,Sel2,Sel3,Sel4)的所述子集存储(114)在存储器(12)中。
2.根据权利要求1所述的方法,包括:
提示用户对质询进行响应;
将身体部分的所述移动检测为所述响应;
且其中在所述序列(fperiod)之前或之后的所述预定义间隔(Int1)内,选择第二帧(Sel3),在所述序列(fperiod)期间,检测到身体部分的所述移动。
3.根据权利要求1至2之一所述的方法,包括:
提示用户对质询进行响应;
在所述响应窗口(rw)期间,等待身体部分的所述移动,作为对质询的所述响应;
且其中在所述响应窗口(rw)开始(提示)前或结束后的所述预定义间隔(Int2)内,选择所述第二帧(Sel4)。
4.根据权利要求2至3之一所述的方法,其中所述响应与以下的自愿移动之一相对应:
眨眼;
头部移动;
眉毛、脸颊和/或嘴巴的移动;和/或
所述摄像机相对所述脸部的位移。
5.根据权利要求1至4之一所述的方法,所述移动为非自愿移动,所述第二帧(Sel3)是在所述序列(fperiod)之前或之后的所述预定义间隔(Int1)内选择的,在所述序列(fperiod)期间,检测到身体部分的所述移动。
6.根据权利要求1至5之一所述的方法,其中将与所述序列(fperiod)紧邻的帧(Sel3)选作所述第二帧。
7.根据权利要求1至6之一所述的方法,其中在所述子集中排除连续帧。
8.根据权利要求1至7之一所述的方法,所述质量指标(qij)取决于以下用于整个帧的参数中的至少一个:
照明质量;
清晰度;
模糊度;
噪声水平。
9.根据权利要求1至8之一所述的方法,所述质量指标(qij)取决于以下分别为与所述脸部相对应的图像的部分所确定的参数中的至少一个:
照明质量;
清晰度;
模糊度
噪声水平;
脸部方位;
脸部大小;
遮挡或反射;
用户表情;
图像与脸部对应的可能性;
活性。
10.根据权利要求1至9之一所述的方法,在生物脸部识别过程的注册阶段期间执行。
11.根据权利要求1至10之一所述的方法,在生物脸部识别过程的测试阶段期间执行。
12.根据权利要求11所述的方法,所述选择取决于至少一个测试帧的至少一个帧质量指标与至少一个参考帧的相似度。
13.根据权利要求1至12之一所述的方法,进一步包括:
预处理(112)所述子集中的帧(Sel1,Sel2,……);
远程发送预处理过的帧。
14.根据权利要求13所述的方法,所述预处理包括纠正所述个人的姿势。
15.根据权利要求13或14所述的方法,进一步包括:
在远程设备中接收远程发送的帧;
从所述帧提取生物特征。
16.一种用于选择在脸部处理中使用的帧(150i)的用户设备(1),包括:
a)用于捕获具有个人的脸部的视频数据的视频摄像机(10);
b)处理单元(11),被布置为用于:
确定用于所述视频数据中至少一些帧(150i)的至少一个图像质量指标(qij);
将所述质量指标用于选择所述帧(Sel1,Sel2,……)的子集;
确定与所述视频数据中身体部分的移动相对应的、和/或与响应窗口(rw)相对应的帧序列(fperiod),在所述响应窗口(rw)期间,应该给出对质询的响应;
在所述序列之前或之后的预定义间隔(Int1,Int2)内,向所述子集添加至少一个第二帧(Sel3,Sel4);
c)用于存储所述子集中的所述帧的存储器(12)。
17.一种包括计算机可读介质的计算机程序产品,所述计算机可读介质包括可执行以完成权利要求1至15中任一项的步骤的指令。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/IB2016/057729 WO2018109533A1 (en) | 2016-12-16 | 2016-12-16 | A method for selecting frames used in face processing |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110612530A true CN110612530A (zh) | 2019-12-24 |
CN110612530B CN110612530B (zh) | 2023-10-13 |
Family
ID=57708624
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201680092101.3A Active CN110612530B (zh) | 2016-12-16 | 2016-12-16 | 用于选择脸部处理中使用的帧的方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11042725B2 (zh) |
EP (1) | EP3555799B1 (zh) |
CN (1) | CN110612530B (zh) |
WO (1) | WO2018109533A1 (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10902244B2 (en) * | 2017-03-27 | 2021-01-26 | Samsung Electronics Co., Ltd. | Apparatus and method for image processing |
US11069210B2 (en) * | 2017-06-28 | 2021-07-20 | Amazon Technologies, Inc. | Selecting a video frame for notification using audio/video recording and communication devices |
CN107609462A (zh) * | 2017-07-20 | 2018-01-19 | 北京百度网讯科技有限公司 | 待检测信息生成及活体检测方法、装置、设备及存储介质 |
US11361058B2 (en) * | 2017-12-29 | 2022-06-14 | KeyLemon S.A. | Method used in a mobile equipment with a trusted execution environment for authenticating a user based on his face |
US11301686B2 (en) * | 2018-05-25 | 2022-04-12 | Intel Corporation | Visual anomaly detection without reference in graphics computing environments |
CN110443115B (zh) * | 2019-06-19 | 2023-12-22 | 平安科技(深圳)有限公司 | 人脸识别方法、装置、计算机设备及可读存储介质 |
US11337133B1 (en) | 2021-02-08 | 2022-05-17 | InContact Inc. | Systems and methods for optimal channel selection |
CN113395452B (zh) * | 2021-06-24 | 2023-02-03 | 上海卓易科技股份有限公司 | 一种自动拍摄方法 |
US12019725B2 (en) * | 2022-02-03 | 2024-06-25 | Johnson Controls Tyco IP Holdings LLP | Methods and systems for employing an edge device to provide multifactor authentication |
US20230394827A1 (en) * | 2022-06-04 | 2023-12-07 | Zoom Video Communications, Inc. | Title detection for slides presented in a communication session |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1999051022A1 (en) * | 1998-03-31 | 1999-10-07 | Mate - Media Access Technologies Ltd. | Method of selecting key-frames from a video sequence |
CN104137118A (zh) * | 2011-06-10 | 2014-11-05 | 亚马逊技术公司 | 视频中的增强的脸部识别 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7889794B2 (en) | 2006-02-03 | 2011-02-15 | Eastman Kodak Company | Extracting key frame candidates from video clip |
US8139817B2 (en) * | 2007-04-27 | 2012-03-20 | Telewatch Inc. | Face image log creation |
JP5483863B2 (ja) | 2008-11-12 | 2014-05-07 | キヤノン株式会社 | 情報処理装置およびその制御方法 |
US8856541B1 (en) * | 2013-01-10 | 2014-10-07 | Google Inc. | Liveness detection |
US9373054B2 (en) | 2014-09-02 | 2016-06-21 | Kodak Alaris Inc. | Method for selecting frames from video sequences based on incremental improvement |
CN106295287B (zh) * | 2015-06-10 | 2019-04-09 | 阿里巴巴集团控股有限公司 | 活体检测方法和装置以及身份认证方法和装置 |
US10089534B2 (en) * | 2016-12-16 | 2018-10-02 | Adobe Systems Incorporated | Extracting high quality images from a video |
-
2016
- 2016-12-16 US US16/478,128 patent/US11042725B2/en active Active
- 2016-12-16 EP EP16820356.0A patent/EP3555799B1/en active Active
- 2016-12-16 CN CN201680092101.3A patent/CN110612530B/zh active Active
- 2016-12-16 WO PCT/IB2016/057729 patent/WO2018109533A1/en unknown
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1999051022A1 (en) * | 1998-03-31 | 1999-10-07 | Mate - Media Access Technologies Ltd. | Method of selecting key-frames from a video sequence |
CN104137118A (zh) * | 2011-06-10 | 2014-11-05 | 亚马逊技术公司 | 视频中的增强的脸部识别 |
Non-Patent Citations (1)
Title |
---|
许宏: "基于图像差分的关键帧检测技术", 《计算机工程与设计》 * |
Also Published As
Publication number | Publication date |
---|---|
WO2018109533A1 (en) | 2018-06-21 |
CN110612530B (zh) | 2023-10-13 |
EP3555799A1 (en) | 2019-10-23 |
US11042725B2 (en) | 2021-06-22 |
EP3555799B1 (en) | 2023-07-19 |
US20190384965A1 (en) | 2019-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110612530B (zh) | 用于选择脸部处理中使用的帧的方法 | |
JP7365445B2 (ja) | コンピューティング装置及び方法 | |
US11288504B2 (en) | Iris liveness detection for mobile devices | |
JP7133949B2 (ja) | 顔認証方法及び装置 | |
KR102359558B1 (ko) | 얼굴 인증 방법 및 장치 | |
KR102299847B1 (ko) | 얼굴 인증 방법 및 장치 | |
KR102655949B1 (ko) | 3d 영상 기반의 얼굴 인증 방법 및 장치 | |
US10275672B2 (en) | Method and apparatus for authenticating liveness face, and computer program product thereof | |
CN106557726B (zh) | 一种带静默式活体检测的人脸身份认证系统及其方法 | |
CN105612533B (zh) | 活体检测方法、活体检测系统以及计算机程序产品 | |
US9613200B2 (en) | Ear biometric capture, authentication, and identification method and system | |
WO2016127437A1 (zh) | 活体人脸验证方法及系统、计算机程序产品 | |
AU2017201463B2 (en) | Methods and systems for authenticating users | |
CN108280418A (zh) | 脸部图像的欺骗识别方法及装置 | |
US10769415B1 (en) | Detection of identity changes during facial recognition enrollment process | |
JP2018508888A (ja) | モバイル・デバイスを用いてキャプチャしたイメージを使用する指紋ベースのユーザ認証を実行するためのシステムおよび方法 | |
US20240126853A1 (en) | Biometric authentication system and authentication method | |
JP2015138449A (ja) | 個人認証装置、個人認証方法及びプログラム | |
KR102380426B1 (ko) | 얼굴 인증 방법 및 장치 | |
US20230419737A1 (en) | Methods and systems for detecting fraud during biometric identity verification | |
US20240021020A1 (en) | Methods and Systems for Secure Face Liveness Detection | |
US11335123B2 (en) | Live facial recognition system and method | |
KR20210050649A (ko) | 모바일 기기의 페이스 인증 방법 | |
CN112949363A (zh) | 一种人脸活体识别方法及装置 | |
US20250037509A1 (en) | System and method for determining liveness using face rotation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20230901 Address after: Switzerland Jonathan Applicant after: AMS INTERNATIONAL AG Address before: Swiss Martini Applicant before: Kailemeng Co.,Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |