CN106203297A - 一种身份识别方法及装置 - Google Patents
一种身份识别方法及装置 Download PDFInfo
- Publication number
- CN106203297A CN106203297A CN201610509755.3A CN201610509755A CN106203297A CN 106203297 A CN106203297 A CN 106203297A CN 201610509755 A CN201610509755 A CN 201610509755A CN 106203297 A CN106203297 A CN 106203297A
- Authority
- CN
- China
- Prior art keywords
- user
- identified
- point position
- impact point
- identity information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 61
- 210000001508 eye Anatomy 0.000 claims abstract description 119
- 238000001514 detection method Methods 0.000 claims abstract description 37
- 238000001727 in vivo Methods 0.000 claims abstract description 36
- 230000004424 eye movement Effects 0.000 claims description 30
- 238000000605 extraction Methods 0.000 claims description 5
- 238000005516 engineering process Methods 0.000 abstract description 13
- 230000003287 optical effect Effects 0.000 description 23
- 210000001747 pupil Anatomy 0.000 description 19
- 230000006870 function Effects 0.000 description 11
- 230000008569 process Effects 0.000 description 11
- 230000005764 inhibitory process Effects 0.000 description 10
- 229910052705 radium Inorganic materials 0.000 description 8
- HCWPIIXVSYCSAN-UHFFFAOYSA-N radium atom Chemical compound [Ra] HCWPIIXVSYCSAN-UHFFFAOYSA-N 0.000 description 8
- 239000000284 extract Substances 0.000 description 6
- 230000011514 reflex Effects 0.000 description 5
- 210000004087 cornea Anatomy 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 210000005252 bulbus oculi Anatomy 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000036651 mood Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005755 formation reaction Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000009237 prenatal development Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 210000003786 sclera Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/197—Matching; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/60—Static or dynamic means for assisting the user to position a body part for biometric acquisition
- G06V40/67—Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Collating Specific Patterns (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明提供了一种身份识别方法及装置,该方法包括:采集待识别用户注视目标点位时的眼部图像;根据上述眼部图像及预先建立的用户身份信息数据库,对待识别用户进行身份识别;根据眼部图像、目标点位的坐标、用户身份信息数据库及身份识别结果,对待识别用户进行活体检测。本发明提供的身份识别方法及装置,将眼动跟踪技术与身份识别技术结合起来,当待识别用户活体检测及身份识别均成功时,待识别用户身份识别才成功,身份识别的准确性高,且实用性及抗伪性能均很好。
Description
技术领域
本发明涉及身份识别技术领域,具体而言,涉及一种身份识别方法及装置。
背景技术
虹膜是位于黑色瞳孔和白色巩膜之间的圆环状部分,在胎儿发育阶段形成,对于每个人来说,虹膜的结构都是各不相同并且在一生中几乎不发生变化,因此,虹膜被广泛应用于各种环境下的身份识别,但是经常会出现将伪造的虹膜贴在眼睛上,以此达到欺骗的目的,因此,在采用虹膜进行身份识别时,需要检测虹膜是否为活体。
相关技术中,大都是添加光学装置,由光源照射人眼,得到光激励下虹膜和眼球产生反应的序列,比如刺激瞳孔缩放、光反射成像等,将得到的序列与预先设定的反应序列阈值进行比对,根据得到的序列是否在阈值内判断对象是否为活体。
但是,相关技术中的活体判断方式,光激励下的瞳孔缩放还受到心情、色彩、外界光源及个体差异等的影响,容易导致判断出错,预先设定的反应序列阈值难以保证实际应用中的适应性,且采用人眼贴膜的方法容易骗过光学装置,因此,适应性及抗伪性能均很差。
发明内容
有鉴于此,本发明实施例的目的在于提供一种身份识别方法及装置,以解决相关技术中,采用光激励的活体判断方式,容易判断出错,且适应性及抗伪性能均很差的问题。
第一方面,本发明实施例提供了一种身份识别方法,其中,所述方法包括:
采集待识别用户注视目标点位时的眼部图像;
根据所述眼部图像及预先建立的用户身份信息数据库,对所述待识别用户进行身份识别;
根据所述眼部图像、所述目标点位的坐标、所述用户身份信息数据库及身份识别结果,对所述待识别用户进行活体检测。
结合第一方面,本发明实施例提供了上述第一方面的第一种可能的实现方式,其中,所述根据所述眼部图像及预先建立的用户身份信息数据库,对所述待识别用户进行身份识别,包括:
从所述眼部图像中提取眼睛特征,所述眼睛特征包括虹膜特征和眼动特征;
判断所述用户身份信息数据库中是否包括所述虹膜特征;
如果是,则从所述用户身份信息数据库中获取所述虹膜特征对应的身份信息及校准数据。
结合第一方面的第一种可能的实现方式,本发明实施例提供了上述第一方面的第二种可能的实现方式,其中,所述根据所述眼部图像、所述目标点位的坐标、所述用户身份信息数据库及身份识别结果,对所述待识别用户进行活体检测,包括:
当身份识别结果指示所述用户身份信息数据库中包括所述虹膜特征时,根据所述眼动特征及获取的校准数据,计算待识别用户的理论注视点坐标;
将所述理论注视点坐标与所述目标点位的坐标进行比对,判断所述待识别用户是否为活体用户。
结合第一方面的第一种可能的实现方式,本发明实施例提供了上述第一方面的第三种可能的实现方式,其中,所述根据所述眼部图像、所述目标点位的坐标、所述用户身份信息数据库及身份识别结果,对所述待识别用户进行活体检测,包括:
当身份识别结果指示所述用户身份信息数据库中包括所述虹膜特征时,根据所述眼动特征及所述目标点位的坐标,计算所述待识别用户的校准数据;
将所述待识别用户的校准数据与获取的校准数据进行比对,判断所述待识别用户是否为活体用户。
结合第一方面的第一种可能的实现方式,本发明实施例提供了上述第一方面的第四种可能的实现方式,其中,所述根据所述眼部图像、所述目标点位的坐标、所述用户身份信息数据库及身份识别结果,对所述待识别用户进行活体检测,包括:
当身份识别结果指示所述用户身份信息数据库中包括所述虹膜特征时,从所述用户身份信息数据库中调取每个用户的校准数据;
根据所述眼动特征及调取的每个用户的校准数据,计算理论注视点坐标;
将所述理论注视点坐标分别与所述目标点位的坐标进行比对,判断所述待识别用户数是否为活体用户。
结合第一方面,本发明实施例提供了上述第一方面的第五种可能的实现方式,其中,所述采集待识别用户注视目标点位时的眼部图像之前,还包括:
按照时间先后顺序在显示屏上随机生成目标点位,每个时刻显示屏上显示一个目标点位且目标点位的位置是随机的;
或者,按照时间先后顺序及预设位置序列在显示屏上生成目标点位,每个时刻显示屏上显示一个目标点位且目标点位的位置是由所述预设位置序列设定的。
第二方面,本发明实施例提供了一种身份识别装置,所述装置包括:
采集模块,用于采集待识别用户注视目标点位时的眼部图像;
身份识别模块,用于根据所述眼部图像及预先建立的用户身份信息数据库,对所述待识别用户进行身份识别;
活体检测模块,用于根据所述眼部图像、所述目标点位的坐标、所述用户身份信息数据库及身份识别结果,对所述待识别用户进行活体检测。
结合第二方面,本发明实施例提供了上述第二方面的第一种可能的实现方式,其中,所述身份识别模块包括:
提取单元,用于从所述眼部图像中提取眼睛特征,所述眼睛特征包括虹膜特征和眼动特征;
第一判断单元,用于判断所述用户身份信息数据库中是否包括所述虹膜特征;
获取单元,用于如果是,则从所述用户身份信息数据库中获取所述虹膜特征对应的身份信息及校准数据。
结合第二方面,本发明实施例提供了上述第二方面的第二种可能的实现方式,其中,所述活体检测模块包括:
计算单元,用于当身份识别结果指示所述用户身份信息数据库中包括所述虹膜特征时,根据所述眼动特征及获取的校准数据,计算待识别用户的理论注视点坐标;
第二判断单元,用于将所述理论注视点坐标与所述目标点位的坐标进行比对,判断所述待识别用户是否为活体用户;
所述计算单元,还用于当身份识别结果指示所述用户身份信息数据库中包括所述虹膜特征时,根据所述眼动特征及所述目标点位的坐标,计算所述待识别用户的校准数据;
所述第二判断单元,还用于将所述待识别用户的校准数据与获取的校准数据进行比对,判断所述待识别用户是否为活体用户。
结合第二方面,本发明实施例提供了上述第二方面的第三种可能的实现方式,其中,所述装置还包括:
第一生成模块,用于按照时间先后顺序在显示屏上随机生成目标点位,每个时刻显示屏上显示一个目标点位且目标点位的位置是随机的;
或者,第二生成模块,用于按照时间先后顺序及预设位置顺序在显示屏上生成目标点位,每个时刻显示屏上显示一个目标点位且目标点位的位置是由所述预设位置序列设定的。
本发明实施例提供的身份识别方法及装置,该方法包括采集待识别用户注视目标点位时的眼部图像;根据上述眼部图像及预先建立的用户身份信息数据库,对待识别用户进行身份识别;根据眼部图像、目标点位的坐标、用户身份信息数据库及身份识别结果,对待识别用户进行活体检测。本发明实施例中,将眼动跟踪技术与身份识别技术结合起来,当待识别用户活体检测及身份识别均成功时,待识别用户身份识别才成功,身份识别的准确性高,且适应性及抗伪性能均很好。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出了本发明实施例1所提供的一种身份识别方法的流程图;
图2示出了本发明实施例2所提供的一种身份识别装置的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
考虑到相关技术中,采用虹膜进行身份识别时,大都是通过光激励的方式判断虹膜是否为活体,但是光激励下的瞳孔缩放还受到心情、色彩、外界光源及个体差异等的影响,容易导致判断出错,且预先设定的反映序列阈值难以保证实际应用中的适应性,且采用人眼贴膜的方式容易骗过光学装置,因此,适应性及抗伪性能均很差。基于此,本发明实施例提供了一种身份识别方法及装置,下面通过实施例进行描述。
实施例1
本发明实施例提供了一种身份识别方法,该方法将眼动跟踪技术与虹膜识别技术结合起来,眼动跟踪技术通过采集待识别用户在注视目标点位时的眼睛图像,提取待识别用户的虹膜特征和眼动特征,对待识别用户进行虹膜识别并调取校准数据,结合目标点位的坐标,判断待识别用户是否为活体用户,当待识别用户虹膜识别成功且判断待识别用户为活体用户时,则判断为待识别用户身份识别成功。本发明实施例提供的身份识别方法,身份识别的准确性高,适应性及抗伪性能均很好。
本发明实施例提供的身份识别方法,可以应用于银行的门禁、监狱的门禁、密码支付等场景,在采用本发明实施例提供的方法进行身份识别之前,需要建立应用场景授权用户的身份信息数据库,比如说,将上述身份识别方法应用于银行的门禁,则需要建立银行员工的身份信息数据库,以用于对银行员工进行身份识别,当银行员工身份识别通过,则银行门开启,该员工可以进入,如果将上述身份识别方法应用于监狱的门禁,则需要建立狱警的身份信息数据库。
建立用户身份信息数据库,具体包括如下步骤:获取用户的虹膜特征、校准数据及用户的身份信息;将用户的虹膜特征、校准数据、身份信息及其对应关系存储在用户身份信息数据库中。
上述虹膜特征包括用户虹膜的斑点、细丝、冠状、条纹及隐窝等特征,上述校准数据是根据用户注视一组或多组特定的目标点位时的眼动特征及注视点的坐标计算得出的用户个体特征数据。
上述特定的目标点位可以是显示屏的四个角及中心显示的五个目标点位,也可以是显示屏上的四个角、四条边的中心及显示屏的中心显示的九个目标点位,将上述特定的目标点位记为校准点位,当然,上述校准点位还可以是显示屏上其它位置的目标点位,上述一组校准点位的个数及位置可以根据实际应用场景进行设置。
其中,获取用户的虹膜特征及校准数据的过程包括:
按照时间先后顺序在显示屏上连续生成校准点位,每次显示一个校准点位,获取用户眼睛注视校准点位时的校准眼部图像,从采集的校准眼部图像中提取出用户的虹膜特征及眼动特征。用户的虹膜特征包括但不限于斑点、细丝、冠众、条纹及隐窝等特征。上述眼动特征为用户注视校准点位时获取的眼部特征,包括但不限于用户的眼睛角点、瞳孔中心位置、瞳孔半径大小、角膜发射所形成的普尔钦斑等眼部特征。根据用户注视一组或多组校准点位时的眼动特征及校准点位信息进行计算,获得用户的校准数据,所述校准数据包括但不限于用户的视轴和光轴的夹角等眼部特征数据。获取虹膜特征和校准数据后,获取该用户的身份信息,该身份信息包括但不限于用户的姓名、身份证号、性别、职务等信息,建立该用户的身份信息、虹膜特征及校准数据的对应关系,并将该用户的身份信息、虹膜特征、校准数据及其对应关系存储在用户身份信息数据库中。
采用本发明实施例提供的方法对待识别用户进行身份识别时,需要待识别用户注视目标点位,该目标点位可以是在显示屏上显示的一系列目标点位,也可以是某个固定位置处显示目标点位,比如说,墙壁上、玻璃门上等,还可以是某个位置的物体。
上述显示屏上除了显示目标点位外,还可以显示虚拟键盘,该虚拟键盘可以是由0-9十个数字组成的数字键盘,也可以是由26个英文字母组成的字母键盘,或者还可以是由0-9十个数字和26个英文字母组成的数字字母组合键盘,且上述虚拟键盘上的字母或数字的顺组是随机的,待识别用户可以通过注视上述虚拟键盘上的键位的方式输入预先约定的密码,比如说,预先约定的密码为123,则待识别用户按照顺序依次注视虚拟键盘上的数字键位123,或者还可以是待识别用户按照指示注视上述虚拟键盘上的某个键位,比如说,指示待识别用户按照顺序注视上述虚拟键盘上的3、6、9数字键位,或者P、M、V等字母键位等等,上述可以通过语音的形式指示用户注视虚拟键盘上的字母或数字,也可以是在显示屏上显示用户需要注视的虚拟键盘上的字母或数字。
上述显示屏上还可以显示某些图形,待识别用户根据指示注视显示屏上的图形的某些部位。
如果待识别用户注视的目标点位是显示屏上显示的目标点位,则需要在显示屏上生成目标点位。在显示屏上生成的目标点位包括如下两种情况,按照时间先后顺序在显示屏上随机生成目标点位,每个时刻显示屏上显示一个目标点位且目标点位的位置是随机的;或者,按照时间先后顺序及预设位置顺序在显示屏上生成目标点位,每个时刻显示屏上显示一个目标点位且目标点位的位置是由所述预设位置序列设定的。
上述预设位置序列是预先设置的多个位置序列,每次对待识别用户进行身份识别时,随机选取一个位置序列,按照随机选取的位置序列在显示屏上相应的位置生成目标点位。
采用本发明实施例提供的身份识别方法对待识别用户进行身份识别,如图1所示,具体步骤包括S110-S130。
S110,采集待识别用户注视目标点位时的眼部图像。
当待识别用户在公司门禁、小区门禁或密码支付等场景下需要进行身份识别时,待识别用户可以点击开始按钮进行待识别用户身份识别,或者当待识别用户的眼睛进入到图像采集的区域范围内时,自动对待识别用户进行身份识别。
当待识别用户注视目标点位时,可以以一定的帧率采集用户的眼部图像,这样,在待识别用户注视一个目标点位时会采集多张眼部图像。
当采集了待识别用户注视目标点位时的眼部图像后,首先判断采集的眼部图像中是否包括待识别用户的眼睛区域,如果采集的眼部图像中不包括待识别用户的眼睛区域,可能待识别用户的眼睛并没有对准图像采集设备,这时提示待识别用户调整位置重新采集图像,如果采集的眼部图像中包括待识别用户的眼睛区域,则对待识别用户进行身份识别。
如果采集的眼部图像由于受到干扰等因素导致不清晰等,这时可以对采集的眼部图像进行干扰抑制等方法处理后使用。
S120,根据眼部图像及预先建立的用户身份信息数据库,对待识别用户进行身份识别。
上述对待识别用户进行身份识别的过程实际上就是对待识别用户进行虹膜识别的过程。
上述对待识别用户进行身份识别,具体包括如下过程:从上述眼部图像中提取眼睛特征,上述眼睛特征包括虹膜特征和眼动特征;判断用户身份信息数据库中是否包括上述虹膜特征;如果是,则所述用户身份信息数据库中获取上述虹膜特征对应的身份信息及校准数据。
由于已经获取了待识别用户注视目标点位时的眼部图像,从眼部图像中提取出待识别用户的眼睛瞳孔中心位置、瞳孔半径大小、眼睛角点、角膜发射所形成的普尔钦斑等眼动特征,以及提取出待识别用户的眼睛的斑点、细丝、冠状、隐窝等虹膜特征。
如果上述眼睛特征提取失败,即无法提取出待识别用户的虹膜特征,或者无法提取出待识别用户的眼动特征,或者无法提取出待识别用户的虹膜特征和眼动特征,则待识别用户身份识别失败,这时可以重新采集待识别用户注视目标点位时的眼部图像,对待识别用户进行身份识别。
如果上述眼睛特征提取成功,将上述从待识别用户的眼部图像中提取的虹膜特征与用户身份信息数据库中存储的虹膜特征进行匹配,判断用户身份信息数据库中是否存在与上述提取的待识别用户的虹膜特征一致的虹膜特征,如果存在与上述提取的待识别用户的虹膜特征一致的虹膜特征,则判断为虹膜识别成功,并从用户身份信息数据库中调取与待识别用户的虹膜特征对应的身份信息及校准数据,将上述虹膜特征对应的身份信息确定为待识别用户的身份信息。
如果用户身份信息数据库中不存在与上述提取的待识别用户的虹膜特征一致的虹膜特征,则说明用户身份信息数据库中没有存储该待识别用户的虹膜特征,即该待识别用户为非授权用户,待识别用户身份识别失败,这时待识别用户可以通过管理员进行身份验证,当身份验证通过后,录入该待识别用户的虹膜特征、校准数据及用户的身份信息。
由于待识别用户在注视目标点位的过程中,会采集多张待识别用户的眼部图像,因此可以对待识别用户进行多次虹膜识别,在多次虹膜识别的过程中,只要出现一次虹膜识别成功,即可判断为待识别用户虹膜识别成功,即用户数身份信息数据库中存在与该虹膜特征对应的身份信息及校准数据。
或者,还可以从上述采集的眼部图像中提取的多个虹膜特征中,随机选取q个虹膜特征,进行q次虹膜识别,其中,q小于显示屏上显示的目标点位的次数,在进行q次虹膜识别的过程中,只要识别成功m次即可判断为待识别用户虹膜识别成功,m可以通过下述公式(1)或公式(2)计算,
m=(q-1)/2 (1)
m=q/2 (2)
其中,在公式(1)和公式(2)中,m为虹膜识别成功的次数,q为进行虹膜识别的次数,且在公式(1)中,q为奇数,在公式(2)中,q为偶数。
S130,根据眼部图像、目标点位的坐标、用户身份信息数据库及身份识别结果,对待识别用户进行活体检测。
为了防止待识别用户将伪造的虹膜贴在眼睛上,以此达到欺骗的目的,本发明实施例提供的身份识别方法还需要对待识别用户进行活体检测。
上述目标点位的坐标为正在显示的目标点位的坐标,该目标点位的坐标可以根据该目标点位与校准点位或其他特定点位或物体的相对位置计算。
当上述身份识别结果指示用户身份信息数据库中包括上述虹膜特征时,对待识别用户进行活体检测,对待识别用户进行活体检测具体包括两种情况:
第一种情况,根据眼动特征及获取的校准数据,计算待识别用户的理论注视点坐标;将理论注视点坐标与目标点位的坐标进行比对,判断待识别用户是否为活体用户。
下面将以一个例子详细介绍计算待识别用户的理论注视点的坐标的过程。
用户在注视不同目标点位时,眼睛的视轴和光轴的夹角是不变的,因此,将视轴和光轴的夹角这一个数据作为上述用户的校准数据,将瞳孔位置、瞳孔半径和角膜反射所形成的普尔钦斑等作为提取的用户的眼动特征。通过待识别用户的瞳孔位置、瞳孔半径、角膜反射所形成的普尔钦斑等眼动特征与待识别用户的虹膜特征对应的视轴和光轴的夹角等校准数据,可以计算得出待识别用户的一个理论注视点坐标,将计算得到的待识别用户的理论注视点坐标与目标点位的坐标进行比对,判断上述理论注视点是否落在目标点位的区域范围内,该区域范围以该目标点位为中心的预设区域,为可接受的误差区域范围,如果理论注视点落在目标点位的区域范围内,且持续了预设时间长度,则判断为该目标点位识别成功。当上述目标点位识别成功后,显示屏上会生成下一个目标点位,采用上述方法对显示屏上出现的目标点位进行注视点识别,当待识别用户连续对预设数量个目标点位均识别成功,则判断待识别用户为活体用户,其中,该预设数量个目标点位为大于等于3的任意数量个目标点位,本发明实施例并不限定该预设数量的具体数值。
由于待识别用户在注视每个目标点位时,都会以一定的帧率连续采集多张待识别用户的眼部图像,上述第一种情况中,如果根据预设时间长度内采集的眼部图像计算得出的理论注视点中有预设比例均落在目标点位的区域范围内,则判断为持续了预设时间长度,该目标点位识别成功。上述预设时间长度大于等于人眼跟随目标点位的反应时间,小于等于目标点位的显示时间,一般情况下,该预设时间长度大于等于0.1秒,优选的,该预设时间长度在0.5-1.5秒之间。上述预设比例可以根据识别的精准度要求进行设置和修改,一般情况下,该预设比例大于50%,优选的,该预设比例在50%-70%之间,本发明实施例并不限定该预设比例的具体数值。
第二种情况,根据眼动特征及目标点位的坐标,计算待识别用户的校准数据;将待识别用户的校准数据与获取的校准数据进行比对,判断待识别用户是否为活体用户。
下面将以一个例子详细介绍计算待识别用户的校准数据的过程。
用户在注视不同目标点位时,眼睛的视轴和光轴的夹角是不变的,因此,将视轴和光轴的夹角这一个数据作为上述用户的校准数据,将瞳孔位置、瞳孔半径和角膜反射所形成的普尔钦斑等作为提取的用户的眼动特征。显示屏上的目标点位为待识别用户的实际注视点坐标,目标点位的坐标可以根据该目标点位与校准点位或其他特定点位或物体的相对位置计算。
通过提取的待识别用户的瞳孔位置、瞳孔半径和角膜反射所形成的普洱钦斑等眼动特征与用户的实际注视点坐标,即目标点位的坐标,计算获得待识别用户的视轴和光轴的夹角等校准数据。
在进行虹膜识别的过程中,从预先建立的用户身份信息数据库中调取待识别用户的虹膜特征对应的校准数据,将上述计算得出的校准数据与调取的校准数据进行比对,如果计算得出的校准数据落在调取的校准数据的误差范围之内,且持续了预设时间长度,则认为待识别用户在注视显示屏上的目标点位,即该目标点位识别成功。
当上述目标点位识别成功后,显示屏上会显示下一个目标点位,采用上述方法对显示屏上出现的目标点位进行识别,当待识别用户连续对预设数量个目标点位均识别成功时,则判断待识别用户为活体用户,其中,该预设数量个目标点位为大于等于3的任意数量个目标点位,本发明实施例并不限定该预设数量的具体数值。
由于待识别用户在注视每个目标点位时,都会以一定的帧率连续采集多张待识别用户的眼部图像,上述第二种情况中,如果根据预设时间长度内采集的眼部图像计算得出的校准数据中有预设比例落在调取的校准数据的误差范围之内,则判断为持续了预设时间长度,该目标点位识别成功。上述预设时间长度大于等于人眼跟随目标点位的反应时间,小于等于目标点位的显示时间,一般情况下,该预设时间长度大于等于0.1秒,优选的,该预设时间长度在0.5-1.5秒之间。上述预设比例可以根据识别的精准度要求进行设置和修改,一般情况下,该预设比例大于50%,优选的,该预设比例在50%-70%之间,本发明实施例并不限定该预设比例的具体数值。
上述两种情况是通过从用户身份信息数据库中调取与待识别用户的虹膜特征对应的校准数据对待识别用户进行活体检测,还可以通过从用户身份信息数据库中调取所有用户的校准数据对待识别用户进行活体检测。
当上述身份识别结果指示用户身份信息数据库中包括上述虹膜特征时,从上述身份信息数据库中调取每个用户的校准数据;根据眼动特征及调取的每个用户的校准数据,计算理论注视点坐标;将理论注视点坐标分别与目标点位的坐标进行比对,判断待识别用户是否为活体用户。
用户在注视不同目标点位时,眼睛的视轴和光轴的夹角是不变的,因此,将视轴和光轴的夹角这一个数据作为上述用户的校准数据,将瞳孔位置、瞳孔半径和角膜反射所形成的普尔钦斑等作为提取的用户的眼动特征。当上述调取的校准数据是从预先建立的用户身份信息数据库中调取存储的所有用户的校准数据时,通过待识别用户的瞳孔位置、瞳孔半径和角膜反射所形成的普尔钦斑等眼动特征,分别与预先建立的用户身份信息数据库中每个用户的视轴和光轴的夹角等校准数据计算,可以得出多个理论注视点坐标。将上述多个理论注视点坐标分别与目标点位的坐标进行比对,判断上述多个理论注视点坐标中是否存在一个落在目标点位的区域范围内的理论注视点坐标,该区域范围以该目标点位为中心的预设区域,为可接受的误差区域范围,如果存在这样一个理论注视点,且持续了预设时间长度,则认为待识别用户在注视显示屏上的目标点位,即目标点位识别成功,同时,判断在计算这一理论注视点坐标时调取的用户的校准数据为待识别用户的校准数据。当上述目标点位识别成功后,显示屏上会显示下一个目标点位,采用上述方法对显示屏上出现的目标点位进行识别,当待识别用户连续对预设数量个目标点位均识别成功,且注视预设数量个目标点位时获得的待识别用户的校准数据是相同的,则判断待识别用户为活体用户,其中,该预设数量个目标点位为大于等于3的任意数量个目标点位,本发明实施例并不限定该预设数量的具体数值。
由于待识别用户在注视每个目标点位时,都会以一定的帧率连续采集多张待识别用户的眼部图像,如果根据预设时间长度内采集的眼部图像计算得出的理论注视点中有预设比例均落在目标点位的区域范围内,则判断为持续了预设时间长度,该目标点位识别成功。上述预设时间长度大于等于人眼跟随目标点位的反应时间,小于等于目标点位的显示时间,一般情况下,该预设时间长度大于等于0.1秒,优选的,该预设时间长度在0.5-1.5秒之间。上述预设比例可以根据识别的精准度要求进行设置和修改,一般情况下,该预设比例大于50%,优选的,该预设比例在50%-70%之间,本发明实施例并不限定该预设比例的具体数值。
当上述虹膜识别及活体检测均成功时,则判断为待识别用户身份识别成功。
如果虹膜识别和活体检测没有同时成功,则待识别用户身份识别失败,则提示用户需要再次进行身份识别,当待识别用户身份识别的次数达到预设次数时,该待识别用户身份被锁定,不可继续识别,这时判断为该待识别用户为非授权用户,上述预设次数可以是3,还可以是其它数值,该预设次数的具体数值可以根据实际情况进行设置,本发明实施例并不限定上述预设次数的具体数值。
当待识别用户身份识别成功时,显示屏上会显示用户的身份信息及识别成功的提示,或者,当待识别用户身份识别成功时,还可以发出语音提示,提示待识别用户身份识别成功,当待识别用户身份识别失败时,显示屏上会显示身份识别失败及再次进行身份识别的提示,或者,当待识别用户身份识别失败时,还可以发出语音提示,提示待识别用户身份识别失败,及进行第二次身份识别。
如果预先建立的用户身份信息数据库中只录入了用户的虹膜特征和身份信息的对应关系,并没有录入用户的校准数据,则在对待识别用户进行身份识别时,需要让待识别用户注视显示屏上的校准点位,计算得到待识别用户的校准数据,并将校准数据、用户的虹膜特征、身份信息及其对应关系存储在用户身份信息数据库中,可以将上述录入待识别用户的校准数据的过程作为活体检测的过程,也可以在录入待识别用户的校准数据后,再根据从采集的眼部图像中提取的眼动特征及待识别用户的校准数据,对待识别用户进行活体检测。
本发明实施例提供的身份识别方法,包括:采集待识别用户注视目标点位时的眼部图像;根据眼部图像及预先建立的用户身份信息数据库,对待识别用户进行身份识别;根据上述眼部图像、目标点位的坐标、用户身份信息数据库及身份识别结果,对待识别用户进行活体检测。本发明提供的方法,将眼动跟踪技术与身份识别技术结合起来,当待识别用户活体检测及身份识别均成功时,待识别用户身份识别才成功,身份识别的准确性高,且适应性及抗伪性能均很好。
实施例2
本发明实施例提供了一种身份识别装置。如图2所示,该装置包括:
采集模块210,用于采集待识别用户注视目标点位时的眼部图像;
身份识别模块220,用于根据眼部图像及预先建立的用户身份信息数据库,对待识别用户进行身份识别;
活体检测模块230,用于根据眼部图像、目标点位的坐标、用户身份信息数据库及身份识别结果,对待识别用户进行活体检测。
本发明实施例提供的身份识别装置,可以应用于银行的门禁、监狱的门禁、密码支付等场景,在采用本发明实施例提供的方法进行身份识别之前,需要建立应用场景授权用户的身份信息数据库,比如说,将上述身份识别方法应用于银行的门禁,则需要建立银行员工的身份信息数据库,以用于对银行员工进行身份识别,当银行员工身份识别通过,则银行门开启,该员工可以进入,如果将上述身份识别方法应用于监狱的门禁,则需要建立狱警的身份信息数据库。
上述身份识别模块220根据眼部图像及预先建立的用户身份信息数据库,对待识别用户进行身份识别,具体通过提取单元、第一判断单元和获取单元实现,包括:
上述提取单元,用于从眼部图像中提取眼睛特征,该眼睛特征包括虹膜特征和眼动特征;上述第一判断单元,用于判断用户身份信息数据库中是否包括虹膜特征;上述获取单元,用户如果是,则从用户身份信息数据库中获取虹膜特征对应的身份信息及校准数据。
上述虹膜特征包括但不限于斑点、细丝、冠状、条纹及隐窝等特征,上述眼动特征包括但不限于用户的眼睛角点、瞳孔中心位置、瞳孔半径大小、角膜发射所形成的普尔钦斑等眼部特征。
由于待识别用户在注视目标点位的过程中,会采集多张待识别用户的眼部图像,因此可以对待识别用户进行多次虹膜识别,在多次虹膜识别的过程中,只要出现一次虹膜识别成功,即可判断为待识别用户虹膜识别成功,即用户数身份信息数据库中存在与该虹膜特征对应的身份信息及校准数据。
或者,还可以从上述采集的眼部图像中提取的多个虹膜特征中,随机选取q个虹膜特征,进行q次虹膜识别,其中,q小于显示屏上显示的目标点位的次数,在进行q次虹膜识别的过程中,只要识别成功m次即可判断为待识别用户虹膜识别成功,m可以通过下述公式(1)或公式(2)计算,
m=(q-1)/2 (1)
m=q/2 (2)
其中,在公式(1)和公式(2)中,m为虹膜识别成功的次数,q为进行虹膜识别的次数,且在公式(1)中,q为奇数,在公式(2)中,q为偶数。
上述活体检测模块230根据上述眼部图像、目标点位的坐标、用户身份信息数据库及身份识别结果,对待识别用户进行活体检测,具体通过计算单元及第二判断单元实现,包括:
上述计算单元,用于当身份识别结果指示用户身份信息数据库中包括上述虹膜特征时,根据眼动特征及获取的校准数据,计算待识别用户的理论注视点坐标;上述第二判断单元,用于将理论注视点坐标与目标点位的坐标进行比对,判断待识别用户是否为活体用户;上述计算单元,还用于当身份识别结果指示用户身份信息数据库中包括上述虹膜特征时,根据眼动特征及目标点位的坐标,计算待识别用户的校准数据;上述第二判断单元,还用于将待识别用户的校准数据与获取的校准数据进行比对,判断待识别用户是否为活体用户。
当上述虹膜识别及活体检测均成功时,则判断为待识别用户身份识别成功。
如果虹膜识别和活体检测没有同时成功,则待识别用户身份识别失败,则提示用户需要再次进行身份识别,当待识别用户身份识别的次数达到预设次数时,该待识别用户身份被锁定,不可继续识别,这时判断该待识别用户为非授权用户,上述预设次数可以是3,还可以是其它数值,该预设次数的具体数值可以根据实际情况进行设置,本发明实施例并不限定上述预设次数的具体数值。
当待识别用户身份识别成功时,显示屏上会显示用户的身份信息及识别成功的提示,或者,当待识别用户身份识别成功时,还可以发出语音提示,提示待识别用户身份识别成功,当待识别用户身份识别失败时,显示屏上会显示身份识别失败及再次进行身份识别的提示,或者,当待识别用户身份识别失败时,还可以发出语音提示,提示待识别用户身份识别失败,及进行第二次身份识别。
上述采集模块210采集待识别用户注视目标点位时的眼部图像之前,还需要在显示屏上生成目标点位,在显示屏上生成目标点位具体通过第一生成模块或者第二生成模块实现,包括:
上述第一生成模块,用于按照时间先后顺序在显示屏上随机生成目标点位,每个时刻显示屏上显示一个目标点位且目标点位的位置是随机的;或者上述第二生成模块,用于按照时间先后顺序及预设位置序列在显示屏上生成目标点位,每个时刻显示屏上显示一个目标点位且目标点位的位置是由预设位置序列设定的。
上述预设位置序列是预先设置的多个位置序列,每次对待识别用户进行身份识别时,随机选取一个位置序列,按照随机选取的位置序列在显示屏上相应的位置生成目标点位。
本发明实施例提供的身份识别装置,将眼动跟踪技术与身份识别技术结合起来,当待识别用户活体检测及身份识别均成功时,待识别用户身份识别才成功,身份识别的准确性高,且适应性及抗伪性能均很好。
本发明实施例所提供的身份识别装置可以为设备上的特定硬件或者安装于设备上的软件或固件等。本发明实施例所提供的装置,其实现原理及产生的技术效果和前述方法实施例相同,为简要描述,装置实施例部分未提及之处,可参考前述方法实施例中相应内容。所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,前述描述的系统、装置和单元的具体工作过程,均可以参考上述方法实施例中的对应过程,在此不再赘述。
在本发明所提供的实施例中,应该理解到,所揭露装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明提供的实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释,此外,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围。都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
Claims (10)
1.一种身份识别方法,其特征在于,所述方法包括:
采集待识别用户注视目标点位时的眼部图像;
根据所述眼部图像及预先建立的用户身份信息数据库,对所述待识别用户进行身份识别;
根据所述眼部图像、所述目标点位的坐标、所述用户身份信息数据库及身份识别结果,对所述待识别用户进行活体检测。
2.根据权利要求1所述的方法,其特征在于,所述根据所述眼部图像及预先建立的用户身份信息数据库,对所述待识别用户进行身份识别,包括:
从所述眼部图像中提取眼睛特征,所述眼睛特征包括虹膜特征和眼动特征;
判断所述用户身份信息数据库中是否包括所述虹膜特征;
如果是,则从所述用户身份信息数据库中获取所述虹膜特征对应的身份信息及校准数据。
3.根据权利要求2所述的方法,其特征在于,所述根据所述眼部图像、所述目标点位的坐标、所述用户身份信息数据库及身份识别结果,对所述待识别用户进行活体检测,包括:
当身份识别结果指示所述用户身份信息数据库中包括所述虹膜特征时,根据所述眼动特征及获取的校准数据,计算待识别用户的理论注视点坐标;
将所述理论注视点坐标与所述目标点位的坐标进行比对,判断所述待识别用户是否为活体用户。
4.根据权利要求2所述的方法,其特征在于,所述根据所述眼部图像、所述目标点位的坐标、所述用户身份信息数据库及身份识别结果,对所述待识别用户进行活体检测,包括:
当身份识别结果指示所述用户身份信息数据库中包括所述虹膜特征时,根据所述眼动特征及所述目标点位的坐标,计算所述待识别用户的校准数据;
将所述待识别用户的校准数据与获取的校准数据进行比对,判断所述待识别用户是否为活体用户。
5.根据权利要求2所述的方法,其特征在于,所述根据所述眼部图像、所述目标点位的坐标、所述用户身份信息数据库及身份识别结果,对所述待识别用户进行活体检测,包括:
当身份识别结果指示所述用户身份信息数据库中包括所述虹膜特征时,从所述用户身份信息数据库中调取每个用户的校准数据;
根据所述眼动特征及调取的每个用户的校准数据,计算理论注视点坐标;
将所述理论注视点坐标分别与所述目标点位的坐标进行比对,判断所述待识别用户数是否为活体用户。
6.根据权利要求1所述的方法,其特征在于,所述采集待识别用户注视目标点位时的眼部图像之前,还包括:
按照时间先后顺序在显示屏上随机生成目标点位,每个时刻显示屏上显示一个目标点位且目标点位的位置是随机的;
或者,按照时间先后顺序及预设位置序列在显示屏上生成目标点位,每个时刻显示屏上显示一个目标点位且目标点位的位置是由所述预设位置序列设定的。
7.一种身份识别装置,其特征在于,所述装置包括:
采集模块,用于采集待识别用户注视目标点位时的眼部图像;
身份识别模块,用于根据所述眼部图像及预先建立的用户身份信息数据库,对所述待识别用户进行身份识别;
活体检测模块,用于根据所述眼部图像、所述目标点位的坐标、所述用户身份信息数据库及身份识别结果,对所述待识别用户进行活体检测。
8.根据权利要求7所述的装置,其特征在于,所述身份识别模块包括:
提取单元,用于从所述眼部图像中提取眼睛特征,所述眼睛特征包括虹膜特征和眼动特征;
第一判断单元,用于判断所述用户身份信息数据库中是否包括所述虹膜特征;
获取单元,用于如果是,则从所述用户身份信息数据库中获取所述虹膜特征对应的身份信息及校准数据。
9.根据权利要求7所述的装置,其特征在于,所述活体检测模块包括:
计算单元,用于当身份识别结果指示所述用户身份信息数据库中包括所述虹膜特征时,根据所述眼动特征及获取的校准数据,计算待识别用户的理论注视点坐标;
第二判断单元,用于将所述理论注视点坐标与所述目标点位的坐标进行比对,判断所述待识别用户是否为活体用户;
所述计算单元,还用于当身份识别结果指示所述用户身份信息数据库中包括所述虹膜特征时,根据所述眼动特征及所述目标点位的坐标,计算所述待识别用户的校准数据;
所述第二判断单元,还用于将所述待识别用户的校准数据与获取的校准数据进行比对,判断所述待识别用户是否为活体用户。
10.根据权利要求7所述的装置,其特征在于,所述装置还包括:
第一生成模块,用于按照时间先后顺序在显示屏上随机生成目标点位,每个时刻显示屏上显示一个目标点位且目标点位的位置是随机的;
或者,第二生成模块,用于按照时间先后顺序及预设位置序列在显示屏上生成目标点位,每个时刻显示屏上显示一个目标点位且目标点位的位置是由所述预设位置序列设定的。
Priority Applications (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910979829.3A CN110705507B (zh) | 2016-06-30 | 2016-06-30 | 一种身份识别方法及装置 |
CN201610509755.3A CN106203297B (zh) | 2016-06-30 | 2016-06-30 | 一种身份识别方法及装置 |
AU2017287619A AU2017287619B2 (en) | 2016-06-30 | 2017-06-30 | Method and apparatus for identity recognition |
JP2018565013A JP6762380B2 (ja) | 2016-06-30 | 2017-06-30 | 身分認証方法および装置 |
US16/312,301 US10891507B2 (en) | 2016-06-30 | 2017-06-30 | Method and device for recognizing identity |
PCT/CN2017/091264 WO2018001371A1 (zh) | 2016-06-30 | 2017-06-30 | 一种身份识别方法及装置 |
EP17819367.8A EP3480727A4 (en) | 2016-06-30 | 2017-06-30 | METHOD AND DEVICE FOR IDENTIFICATION DETECTION |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610509755.3A CN106203297B (zh) | 2016-06-30 | 2016-06-30 | 一种身份识别方法及装置 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910979829.3A Division CN110705507B (zh) | 2016-06-30 | 2016-06-30 | 一种身份识别方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106203297A true CN106203297A (zh) | 2016-12-07 |
CN106203297B CN106203297B (zh) | 2019-11-08 |
Family
ID=57463172
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610509755.3A Active CN106203297B (zh) | 2016-06-30 | 2016-06-30 | 一种身份识别方法及装置 |
CN201910979829.3A Active CN110705507B (zh) | 2016-06-30 | 2016-06-30 | 一种身份识别方法及装置 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910979829.3A Active CN110705507B (zh) | 2016-06-30 | 2016-06-30 | 一种身份识别方法及装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10891507B2 (zh) |
EP (1) | EP3480727A4 (zh) |
JP (1) | JP6762380B2 (zh) |
CN (2) | CN106203297B (zh) |
AU (1) | AU2017287619B2 (zh) |
WO (1) | WO2018001371A1 (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106713368A (zh) * | 2017-03-08 | 2017-05-24 | 四川大学 | 一种身份验证方法及装置 |
CN106803829A (zh) * | 2017-03-30 | 2017-06-06 | 北京七鑫易维信息技术有限公司 | 一种认证方法、装置及系统 |
WO2018001371A1 (zh) * | 2016-06-30 | 2018-01-04 | 北京七鑫易维信息技术有限公司 | 一种身份识别方法及装置 |
CN108073897A (zh) * | 2017-12-01 | 2018-05-25 | 沈海斌 | 一种基于视线的活体认证方法 |
CN108319830A (zh) * | 2017-01-17 | 2018-07-24 | 中兴通讯股份有限公司 | 一种身份验证方法及装置 |
CN109190509A (zh) * | 2018-08-13 | 2019-01-11 | 阿里巴巴集团控股有限公司 | 一种身份识别方法、装置和计算机可读存储介质 |
CN109472195A (zh) * | 2018-09-26 | 2019-03-15 | 北京七鑫易维信息技术有限公司 | 识别对象的方法、装置和系统 |
CN109655790A (zh) * | 2018-12-18 | 2019-04-19 | 天津大学 | 基于室内led光源的多目标检测及身份识别系统及方法 |
CN110341617A (zh) * | 2019-07-08 | 2019-10-18 | 北京七鑫易维信息技术有限公司 | 眼球追踪方法、装置、车辆和存储介质 |
CN110347257A (zh) * | 2019-07-08 | 2019-10-18 | 北京七鑫易维信息技术有限公司 | 眼球追踪设备的校准方法、装置、设备和存储介质 |
CN111402480A (zh) * | 2020-02-29 | 2020-07-10 | 深圳壹账通智能科技有限公司 | 访客信息管理方法、装置、系统、设备和存储介质 |
CN111783581A (zh) * | 2020-06-19 | 2020-10-16 | 何金荣 | 虹膜识别方法及相关装置 |
CN112270299A (zh) * | 2018-04-25 | 2021-01-26 | 北京嘀嘀无限科技发展有限公司 | 一种识别头部运动的系统和方法 |
CN115468290A (zh) * | 2022-09-29 | 2022-12-13 | 青岛海尔空调器有限总公司 | 空调器的控制方法、装置及空调器 |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11403881B2 (en) * | 2017-06-19 | 2022-08-02 | Paypal, Inc. | Content modification based on eye characteristics |
JP7314848B2 (ja) * | 2020-03-25 | 2023-07-26 | トヨタ自動車株式会社 | 表示制御装置、画像補正方法及びプログラム |
CN111629265B (zh) * | 2020-05-13 | 2021-12-21 | 深圳创维-Rgb电子有限公司 | 电视机及其电视控制方法、控制装置和可读存储介质 |
CN111985298B (zh) * | 2020-06-28 | 2023-07-25 | 百度在线网络技术(北京)有限公司 | 人脸识别样本收集方法和装置 |
CN111860345A (zh) * | 2020-07-22 | 2020-10-30 | 海尔优家智能科技(北京)有限公司 | 对象位置的确定方法、装置、存储介质及电子装置 |
CN112215113A (zh) * | 2020-09-30 | 2021-01-12 | 张成林 | 人脸识别方法及装置 |
CN112232255B (zh) * | 2020-10-26 | 2022-11-01 | 北京鹰瞳科技发展股份有限公司 | 基于多模态数据的身份认证方法及设备 |
CN112966142A (zh) * | 2021-04-20 | 2021-06-15 | 南京云玑信息科技有限公司 | 一种准确率与识别速度提高的优化方法 |
CN114389909A (zh) * | 2021-11-29 | 2022-04-22 | 珠海格力电器股份有限公司 | 设备控制方法、装置、存储介质及电子设备 |
CN114546569B (zh) * | 2022-02-24 | 2024-06-04 | 深圳创维-Rgb电子有限公司 | 显示设备控制方法、装置、电子设备及可读存储介质 |
CN114648801A (zh) * | 2022-04-08 | 2022-06-21 | 中国工商银行股份有限公司 | 人脸活体的检测方法及装置、处理器和电子设备 |
CN116049868B (zh) * | 2022-07-26 | 2023-12-08 | 荣耀终端有限公司 | 隐私保护方法、设备及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1924892A (zh) * | 2006-09-21 | 2007-03-07 | 杭州电子科技大学 | 虹膜识别中的活体检测方法及装置 |
CN101710383A (zh) * | 2009-10-26 | 2010-05-19 | 北京中星微电子有限公司 | 一种身份认证的方法及认证装置 |
CN101727574A (zh) * | 2008-10-17 | 2010-06-09 | 深圳富泰宏精密工业有限公司 | 虹膜识别系统及方法 |
CN101833646A (zh) * | 2009-03-11 | 2010-09-15 | 中国科学院自动化研究所 | 一种虹膜活体检测方法 |
US20100299530A1 (en) * | 2009-02-26 | 2010-11-25 | Bell Robert E | User authentication system and method |
CN105139006A (zh) * | 2015-09-29 | 2015-12-09 | 清华大学 | 一种基于虹膜变化的活体识别方法及系统 |
CN105184277A (zh) * | 2015-09-29 | 2015-12-23 | 杨晴虹 | 活体人脸识别方法以及装置 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100341147B1 (ko) * | 1999-12-03 | 2002-07-13 | 박재우 | 인터넷/인트라넷 기반하에서의 생체정보를 이용한 사용자 인증시스템 및 그 운용방법 |
JP4470663B2 (ja) | 2004-09-14 | 2010-06-02 | 沖電気工業株式会社 | 虹彩認証における不正検出システム |
US8374389B2 (en) * | 2009-02-06 | 2013-02-12 | Robert Bosch Gmbh | Iris deblurring method based on global and local iris image statistics |
WO2012142756A1 (zh) * | 2011-04-20 | 2012-10-26 | 中国科学院自动化研究所 | 基于人眼图像的多特征融合身份识别方法 |
ES2620762T3 (es) * | 2011-10-27 | 2017-06-29 | Tobii Ab | Gestión de potencia en un sistema de rastreo ocular |
US9082011B2 (en) * | 2012-03-28 | 2015-07-14 | Texas State University—San Marcos | Person identification using ocular biometrics with liveness detection |
JP6175945B2 (ja) | 2013-07-05 | 2017-08-09 | ソニー株式会社 | 視線検出装置及び視線検出方法 |
CN105243386B (zh) * | 2014-07-10 | 2019-02-05 | 汉王科技股份有限公司 | 人脸活体判断方法以及系统 |
WO2016059786A1 (ja) | 2014-10-15 | 2016-04-21 | 日本電気株式会社 | なりすまし検知装置、なりすまし検知方法、および、記憶媒体 |
US9672415B2 (en) * | 2014-11-13 | 2017-06-06 | Intel Corporation | Facial liveness detection in image biometrics |
JP6452236B2 (ja) * | 2014-12-08 | 2019-01-16 | 国立大学法人静岡大学 | 眼球識別装置及び眼球識別方法 |
CN104462923B (zh) * | 2014-12-31 | 2018-10-09 | 河南华辰智控技术有限公司 | 应用于移动通信设备的智能型虹膜身份识别系统 |
US10678897B2 (en) * | 2015-04-16 | 2020-06-09 | Tobii Ab | Identification, authentication, and/or guiding of a user using gaze information |
CN107995979B (zh) * | 2015-04-16 | 2021-12-07 | 托比股份公司 | 用于对用户进行认证的系统、方法和机器可读介质 |
CN105550625B (zh) | 2015-06-30 | 2018-12-25 | 宇龙计算机通信科技(深圳)有限公司 | 一种活体虹膜检测方法及终端 |
CN104966070B (zh) * | 2015-06-30 | 2018-04-10 | 北京汉王智远科技有限公司 | 基于人脸识别的活体检测方法和装置 |
US10546183B2 (en) * | 2015-08-10 | 2020-01-28 | Yoti Holding Limited | Liveness detection |
CN105184246B (zh) | 2015-08-28 | 2020-05-19 | 北京旷视科技有限公司 | 活体检测方法和活体检测系统 |
CN105205379A (zh) * | 2015-10-28 | 2015-12-30 | 广东欧珀移动通信有限公司 | 一种终端应用的控制方法、装置和终端 |
CN105354473A (zh) | 2015-11-09 | 2016-02-24 | 南京运航科技有限公司 | 基于虹膜识别认证的设备桌面解锁方法及装置 |
CN106203297B (zh) | 2016-06-30 | 2019-11-08 | 北京七鑫易维信息技术有限公司 | 一种身份识别方法及装置 |
TWI630507B (zh) * | 2017-09-25 | 2018-07-21 | 仁寶電腦工業股份有限公司 | 目光偵測、辨識與控制方法 |
-
2016
- 2016-06-30 CN CN201610509755.3A patent/CN106203297B/zh active Active
- 2016-06-30 CN CN201910979829.3A patent/CN110705507B/zh active Active
-
2017
- 2017-06-30 US US16/312,301 patent/US10891507B2/en active Active
- 2017-06-30 AU AU2017287619A patent/AU2017287619B2/en active Active
- 2017-06-30 WO PCT/CN2017/091264 patent/WO2018001371A1/zh unknown
- 2017-06-30 JP JP2018565013A patent/JP6762380B2/ja active Active
- 2017-06-30 EP EP17819367.8A patent/EP3480727A4/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1924892A (zh) * | 2006-09-21 | 2007-03-07 | 杭州电子科技大学 | 虹膜识别中的活体检测方法及装置 |
CN101727574A (zh) * | 2008-10-17 | 2010-06-09 | 深圳富泰宏精密工业有限公司 | 虹膜识别系统及方法 |
US20100299530A1 (en) * | 2009-02-26 | 2010-11-25 | Bell Robert E | User authentication system and method |
CN101833646A (zh) * | 2009-03-11 | 2010-09-15 | 中国科学院自动化研究所 | 一种虹膜活体检测方法 |
CN101710383A (zh) * | 2009-10-26 | 2010-05-19 | 北京中星微电子有限公司 | 一种身份认证的方法及认证装置 |
CN105139006A (zh) * | 2015-09-29 | 2015-12-09 | 清华大学 | 一种基于虹膜变化的活体识别方法及系统 |
CN105184277A (zh) * | 2015-09-29 | 2015-12-23 | 杨晴虹 | 活体人脸识别方法以及装置 |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018001371A1 (zh) * | 2016-06-30 | 2018-01-04 | 北京七鑫易维信息技术有限公司 | 一种身份识别方法及装置 |
US10891507B2 (en) | 2016-06-30 | 2021-01-12 | Beijing 7Invensun Technology Co., Ltd. | Method and device for recognizing identity |
WO2018133584A1 (zh) * | 2017-01-17 | 2018-07-26 | 中兴通讯股份有限公司 | 一种身份验证方法及装置 |
CN108319830A (zh) * | 2017-01-17 | 2018-07-24 | 中兴通讯股份有限公司 | 一种身份验证方法及装置 |
CN106713368A (zh) * | 2017-03-08 | 2017-05-24 | 四川大学 | 一种身份验证方法及装置 |
CN106713368B (zh) * | 2017-03-08 | 2019-09-27 | 四川大学 | 一种身份验证方法及装置 |
CN106803829A (zh) * | 2017-03-30 | 2017-06-06 | 北京七鑫易维信息技术有限公司 | 一种认证方法、装置及系统 |
CN108073897A (zh) * | 2017-12-01 | 2018-05-25 | 沈海斌 | 一种基于视线的活体认证方法 |
CN112270299A (zh) * | 2018-04-25 | 2021-01-26 | 北京嘀嘀无限科技发展有限公司 | 一种识别头部运动的系统和方法 |
US10776646B2 (en) | 2018-08-13 | 2020-09-15 | Alibaba Group Holding Limited | Identification method and apparatus and computer-readable storage medium |
CN109190509A (zh) * | 2018-08-13 | 2019-01-11 | 阿里巴巴集团控股有限公司 | 一种身份识别方法、装置和计算机可读存储介质 |
US11126878B2 (en) | 2018-08-13 | 2021-09-21 | Advanced New Technologies Co., Ltd. | Identification method and apparatus and computer-readable storage medium |
CN109472195A (zh) * | 2018-09-26 | 2019-03-15 | 北京七鑫易维信息技术有限公司 | 识别对象的方法、装置和系统 |
CN109655790A (zh) * | 2018-12-18 | 2019-04-19 | 天津大学 | 基于室内led光源的多目标检测及身份识别系统及方法 |
CN110347257A (zh) * | 2019-07-08 | 2019-10-18 | 北京七鑫易维信息技术有限公司 | 眼球追踪设备的校准方法、装置、设备和存储介质 |
CN110341617A (zh) * | 2019-07-08 | 2019-10-18 | 北京七鑫易维信息技术有限公司 | 眼球追踪方法、装置、车辆和存储介质 |
CN110341617B (zh) * | 2019-07-08 | 2021-05-28 | 北京七鑫易维信息技术有限公司 | 眼球追踪方法、装置、车辆和存储介质 |
CN111402480A (zh) * | 2020-02-29 | 2020-07-10 | 深圳壹账通智能科技有限公司 | 访客信息管理方法、装置、系统、设备和存储介质 |
CN111783581A (zh) * | 2020-06-19 | 2020-10-16 | 何金荣 | 虹膜识别方法及相关装置 |
CN115468290A (zh) * | 2022-09-29 | 2022-12-13 | 青岛海尔空调器有限总公司 | 空调器的控制方法、装置及空调器 |
Also Published As
Publication number | Publication date |
---|---|
AU2017287619A1 (en) | 2019-01-17 |
WO2018001371A1 (zh) | 2018-01-04 |
EP3480727A4 (en) | 2019-08-14 |
CN106203297B (zh) | 2019-11-08 |
JP6762380B2 (ja) | 2020-09-30 |
US10891507B2 (en) | 2021-01-12 |
EP3480727A1 (en) | 2019-05-08 |
US20190205681A1 (en) | 2019-07-04 |
JP2019522278A (ja) | 2019-08-08 |
CN110705507A (zh) | 2020-01-17 |
AU2017287619B2 (en) | 2020-09-17 |
CN110705507B (zh) | 2022-07-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106203297A (zh) | 一种身份识别方法及装置 | |
US20230120985A1 (en) | Method for training face recognition model | |
US7986816B1 (en) | Methods and systems for multiple factor authentication using gaze tracking and iris scanning | |
CN108369785A (zh) | 活性检测 | |
CN105184277B (zh) | 活体人脸识别方法以及装置 | |
Kolly et al. | A personal touch: Recognizing users based on touch screen behavior | |
US20170364732A1 (en) | Eye tracking via patterned contact lenses | |
CN109345556A (zh) | 用于混合现实的神经网络前景分离 | |
CN107111629B (zh) | 用于检测感兴趣的对象的方法和系统 | |
CN103544420A (zh) | 用于智能眼镜的防伪虹膜身份认证方法 | |
US10037461B2 (en) | Biometric authentication, and near-eye wearable device | |
EP3302227B1 (en) | Apparatus to measure fast-paced performance of people | |
CN105518708A (zh) | 用于验证活体人脸的方法、设备和计算机程序产品 | |
US11651624B2 (en) | Iris authentication device, iris authentication method, and recording medium | |
CA2753818A1 (en) | A method for reconstructing iris scans through novel inpainting techniques and mosaicing of partial collections | |
CN107844742A (zh) | 人脸图像眼镜去除方法、装置及存储介质 | |
CN114299365B (zh) | 图像模型隐蔽后门的检测方法及系统、存储介质、终端 | |
CN109635021A (zh) | 一种基于人体检测的数据信息录入方法、装置及设备 | |
EP2701096A2 (en) | Image processing device and image processing method | |
CN110287767A (zh) | 可防攻击的活体检测方法、装置、计算机设备及存储介质 | |
CN111881431A (zh) | 人机验证方法、装置、设备及存储介质 | |
CN108334869B (zh) | 人脸部件的选择、人脸识别方法和装置,以及电子设备 | |
US11763604B2 (en) | Liveness detection based on reflections analysis | |
CN113128304B (zh) | 图像处理的方法及电子设备 | |
US11948402B2 (en) | Spoof detection using intraocular reflection correspondences |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |