[go: up one dir, main page]

CN113505716B - 静脉识别模型的训练方法、静脉图像的识别方法及装置 - Google Patents

静脉识别模型的训练方法、静脉图像的识别方法及装置 Download PDF

Info

Publication number
CN113505716B
CN113505716B CN202110807293.4A CN202110807293A CN113505716B CN 113505716 B CN113505716 B CN 113505716B CN 202110807293 A CN202110807293 A CN 202110807293A CN 113505716 B CN113505716 B CN 113505716B
Authority
CN
China
Prior art keywords
vein
training
image
training image
labels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110807293.4A
Other languages
English (en)
Other versions
CN113505716A (zh
Inventor
秦华锋
巩长庆
杨公平
王军
潘在宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing Weimai Zhilian Technology Co ltd
Original Assignee
Chongqing Technology and Business University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing Technology and Business University filed Critical Chongqing Technology and Business University
Priority to CN202110807293.4A priority Critical patent/CN113505716B/zh
Publication of CN113505716A publication Critical patent/CN113505716A/zh
Application granted granted Critical
Publication of CN113505716B publication Critical patent/CN113505716B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Collating Specific Patterns (AREA)

Abstract

本申请提供了一种静脉识别模型的训练方法、静脉图像的识别方法、装置、电子设备及存储介质。训练方法包括:确定第一训练图像对应的第一高维静脉特征以及第一训练图像中标签的预测分布;获取多个第二高维静脉特征;将第一高维静脉特征与多个第二高维静脉特征输入图神经网络,确定第一训练图像中标签的第一分布;根据标签的第一分布与第一训练图像的标签,确定第一训练图像中标签的目标分布,并基于标签的目标分布以及标签的预测分布,确定静脉识别模型。本申请提供的静脉识别模型在学习了输入类型图像的标签分布的基础上,同步学习了标签与标签之间关系的目标标签分布,这样在提高了传统预测模型识别准确率的同时,进一步的提升了识别效果。

Description

静脉识别模型的训练方法、静脉图像的识别方法及装置
技术领域
本申请涉及数据分析技术领域,尤其是涉及一种静脉识别模型的训练方法、静脉图像的识别方法、装置、电子设备及存储介质。
背景技术
手指静脉生物识别技术是利用血液流经手指皮下浅表血管时,形成的血管分布图案作为生物特征,进行身份认证的方法,其识别原理是通过指静脉识别仪取得用户手指静脉分布图,将特征值存储,然后进行匹配,进行用户身份的识别。
然而,现有技术中,对于手指静脉特征的提取是通过手指静脉图片中有关于静脉信息的标签来实现的,这里标签反应了实例的基本问题及基本关系,且标签可以描述实例的基本问题,但是标签不能准确表示实例的全部关系,也就是说,在现有技术中,一个实例不一定映射到一个标签,因此,在忽略了标签与标签之间关系的基础下,提取的静脉特征准确率低下,导致识别效果较差。
发明内容
有鉴于此,本申请的目的在于提供一种静脉识别模型的训练方法、静脉图像的识别方法、装置、电子设备及存储介质,通过将静脉特征预测分类器与图神经网络相结合,深度学习了输入的第一训练图像的特征与其他类型的第二训练图像的特征之间的关系,确定标签的第一分布,并将标签的第一分布与输入图像的标签进行融合,确定目标分布,并基于所述标签的目标分布以及所述标签的预测分布,确定静脉识别模型,本申请提供的静脉识别模型在学习了输入类型图像的标签分布的基础上,同步学习了标签与标签之间关系的目标标签分布,这样在提高了传统预测模型识别准确率的同时,进一步的提升了识别效果。
本申请主要包括以下几个方面:
第一方面,本申请实施例提供了一种静脉识别模型的训练方法,所述训练方法包括:
获取训练图像集;其中,所述训练图像集中包括多个类型的训练图像子集;且所述训练图像集中的每个训练图像中包含静脉信息的标签;所述标签用于表征每个所述训练图像中静脉信息对应的真实身份类型;
将任一类型的训练图像子集中的任一第一训练图像输入静脉特征预测分类器,确定第一训练图像对应的第一高维静脉特征以及所述第一训练图像中标签的预测分布,并根据所述预测分布确定对应的初始身份类型概率;
将其他类型的多个训练图像子集中的任一第二训练图像输入静脉特征提取模型,获取多个第二高维静脉特征;
将所述第一高维静脉特征与多个所述第二高维静脉特征输入图神经网络,确定所述第一训练图像中标签的第一分布;
根据所述标签的第一分布与所述第一训练图像的标签,确定所述第一训练图像中标签的目标分布,并基于所述标签的目标分布以及所述标签的预测分布,确定静脉识别模型。
在一种可能的实施方式中,通过以下方式根据所述标签的第一分布与所述第一训练图像的标签,确定所述第一训练图像中标签的目标分布:
将标签的第一分布与第一训练图像的标签进行加权融合,确定所述第一训练图像中标签的目标分布。
在一种可能的实施方式中,通过以下方式获取训练图像集:
获取初始训练图像集;
针对所述初始训练图像集中的每个初始训练图像进行二值化和边缘化处理,确定每个所述初始训练图像对应的感兴趣图像;
针对每个所述感兴趣图像和每个所述初始训练图像均进行旋转量和平移量的优化,确定训练图像集。
在一种可能的实施方式中,通过以下方式获取静脉特征预测分类器:
获取多个样本图像和每个所述样本图像中的样本静脉信息的标签;所述标签用于表征每个所述样本图像中所述样本静脉信息对应的真实样本身份类型;
将每个所述样本图像中的所述样本静脉信息的图像输入初始分类网络,得到每个所述样本图像中的所述样本静脉信息对应的预测样本身份类型;
当每个所述样本静脉信息对应的所述真实样本身份类型与所述样本静脉信息对应的所述预测样本身份类型之间的损失值小于预设阈值,训练截止,获取静脉特征预测分类器。
在一种可能的实施方式中,所述基于所述标签的目标分布以及所述标签的预测分布,确定静脉识别模型,包括:
确定标签的目标分布与标签的预测分布之间的损失值;
当所述标签的目标分布与所述标签的预测分布之间的损失值小于预设阈值,训练截止,确定静脉识别模型。
第二方面,本申请实施例还提供了一种静脉图像的识别方法,所述识别方法执行所述第一方面中任一种可能的实施方式中所述训练方法的步骤:
获取待识别图像;
基于所述静脉识别模型,确定所述待识别图像中静脉信息对应的身份类型概率;
基于所述身份类型概率,确定最终身份类型。
第三方面,本申请实施例还提供了一种静脉识别模型的训练装置,所述识别装置包括:
第一获取模块,用于获取训练图像集;其中,所述训练图像集中包括多个类型的训练图像子集;且所述训练图像集中的每个训练图像中包含静脉信息的标签;所述标签用于表征每个所述训练图像中静脉信息对应的真实身份类型;
第一确定模块,用于将任一类型的训练图像子集中的任一第一训练图像输入静脉特征预测分类器,确定第一训练图像对应的第一高维静脉特征以及所述第一训练图像中标签的预测分布,并根据所述预测分布确定对应的初始身份类型概率;
第二获取模块,将其他类型的多个训练图像子集中的任一第二训练图像输入静脉特征提取模型,获取多个第二高维静脉特征;
第二确定模块,用于将所述第一高维静脉特征与多个所述第二高维静脉特征输入图神经网络,确定所述第一训练图像中标签的第一分布;
第三确定模块,用于根据所述标签的第一分布与所述第一训练图像的标签,确定所述第一训练图像中标签的目标分布,并基于所述标签的目标分布以及所述标签的预测分布,确定静脉识别模型。
第四方面,本申请实施例还提供了一种静脉图像的识别装置,所述识别装置包括:
第三获取模块,用于获取待识别图像;
第四确定模块,用于基于所述静脉识别模型,确定所述待识别图像中静脉信息对应的身份类型概率;
第五确定模块,用于基于所述身份类型概率,确定最终身份类型。
第五方面,本申请实施例还提供一种电子设备,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储器之间通过总线通信,所述机器可读指令被所述处理器执行时执行第一方面中任一种可能的实施方式中所述的训练方法的步骤或第二方面中任一种可能的实施方式中所述的识别方法的步骤。
第六方面,本申请实施例还提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行如第一方面中任一种可能的实施方式中所述的训练方法的步骤或第二方面中任一种可能的实施方式中所述的识别方法的步骤。
本申请实施例中,通过将静脉特征预测分类器与图神经网络相结合,深度学习了输入的第一训练图像的特征与其他类型的第二训练图像的特征之间的关系,确定标签的第一分布,并将标签的第一分布与输入图像的标签进行融合,确定目标分布,并基于所述标签的目标分布以及所述标签的预测分布,确定静脉识别模型,本申请提供的静脉识别模型在学习了输入类型图像的标签分布的基础上,同步学习了标签与标签之间关系的目标标签分布,这样在提高了传统预测模型识别准确率的同时,进一步的提升了识别效果。
为使本申请的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出了本申请实施例所提供的一种静脉识别模型的训练方法的流程图;
图2示出了本申请实施例所提供的一种静脉图像的识别方法的流程图;
图3示出了本申请实施例所提供的一种静脉识别模型的训练装置的结构示意图;
图4示出了本申请实施例所提供的一种静脉图像的识别装置的结构示意图;
图5示出了本申请实施例所提供的一种电子设备的结构示意图。
主要元件符号说明:
图中:300-训练装置;310-第一获取模块;320-第一确定模块;330-第二获取模块;340-第二确定模块;350-第三确定模块;400-识别装置;410- 第三获取模块;420-第四确定模块;430-第五确定模块;500-电子设备;510- 处理器;520-存储器;530-总线。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,应当理解,本申请中的附图仅起到说明和描述的目的,并不用于限定本申请的保护范围。另外,应当理解,示意性的附图并未按实物比例绘制。本申请中使用的流程图示出了根据本申请的一些实施例实现的操作。应当理解,流程图的操作可以不按顺序实现,没有逻辑的上下文关系的步骤可以反转顺序或者同时实施。此外,本领域技术人员在本申请内容的指引下,可以向流程图添加一个或多个其他操作,也可以从流程图中移除一个或多个操作。
另外,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的全部其他实施例,都属于本申请保护的范围。
为了使得本领域技术人员能够使用本申请内容,结合特定应用场景“静脉识别模型”,给出以下实施方式,对于本领域技术人员来说,在不脱离本申请的精神和范围的情况下,可以将这里定义的一般原理应用于其他实施例和应用场景。
本申请实施例下所述方法、系统、电子设备及存储介质可以应用于任何需要进行静脉图像识别的场景,本申请实施例并不对具体的应用场景作限制,任何使用本申请实施例提供的静脉识别模型的训练方法、静脉图像的识别方法、装置、电子设备及存储介质的方案均在本申请保护范围内。
值得注意的是,经研究发现,在本申请提出之前,对于手指静脉特征的提取是通过手指静脉图片中有关于静脉信息的标签来实现的,这里标签反应了实例的基本问题及基本关系,且标签可以描述实例的基本问题,但是标签不能准确表示实例的全部关系,也就是说,在现有技术中,一个实例不一定映射到一个标签,因此,在忽略了标签与标签之间关系的基础下,提取的静脉特征准确率低下,导致识别效果较差。
基于此,本申请实施例提供了一种静脉识别模型的训练方法、静脉图像的识别方法、装置、电子设备及存储介质,通过将静脉特征预测分类器与图神经网络相结合,深度学习了输入的第一训练图像的特征与其他类型的第二训练图像的特征之间的关系,确定标签的第一分布,并将标签的第一分布与输入图像的标签进行融合,确定目标分布,并基于所述标签的目标分布以及所述标签的预测分布,确定静脉识别模型,本申请提供的静脉识别模型在学习了输入类型图像的标签分布的基础上,同步学习了标签与标签之间关系的目标标签分布,这样在提高了传统预测模型识别准确率的同时,进一步的提升了识别效果。
为便于对本申请进行理解,下面结合具体实施例对本申请提供的技术方案进行详细说明。
请参阅图1,图1为本申请实施例所提供的一种静脉识别模型的训练方法的流程图。如图1中所示,本申请实施例提供的训练方法,包括以下步骤:
S101、获取训练图像集;其中,所述训练图像集中包括多个类型的训练图像子集;且所述训练图像集中的每个训练图像中包含静脉信息的标签;所述标签用于表征每个所述训练图像中静脉信息对应的真实身份类型。
该步骤中,获取大量的训练图像集,用于对本申请提供的静脉识别模型进行模型训练使用,所述训练图像集中包含大量的多个类型的训练图像子集,使用多个类型的训练图像子集进行训练的目的是使得得到的静脉识别模型的识别类别更加准确。
这里,所述训练图像集划分为多个所述训练图像子集的划分依据包括但不限制于:每个用户的类别和所述用户手指的类别,每个所述训练图像子集的多个训练图像可以为不同拍摄角度的用户或所述用户的手指静脉特征。
进一步的,通过以下方式获取训练图像集:
获取初始训练图像集。
其中,所述初始训练图像集为未经过预处理的原始的图像集,所述训练图像集可具体但不限制于采集的手指的静脉图像集。
针对所述初始训练图像集中的每个初始训练图像进行二值化和边缘化处理,确定每个所述初始训练图像对应的感兴趣图像。
其中,首先针对初始训练图像集中的每个初始训练图像中的手指区域进行边缘化和二值化,得到一幅边缘图像和二值图像,然后利用二值图像减去边缘图像进一步得到差值图像。在差值图像中,手指区域和其它区域已经分开。由于手指区域的面积显著大于背景区域的面积,所以利用第二阈值剔除其他区域,得到只含有手指区域的二值图像,即为每个所述初始训练图像对应的感兴趣图像。
这里,通过下面的实施例进行距离说明确定每个所述初始训练图像对应的感兴趣图像的过程,即手指区域的二值图像的确定过程:
首先利用第一阈值对图像I进行二值化得到二值图像D,同时利用 canny边缘检算法得到边缘图像J。
下面为针对所述图像I进行二值化的过程:
Figure RE-GDA0003209413850000101
其中I(x,y)表示在像素点(x,y)处的灰度值,t为第一阈值。
所述边缘图像J由下列的边缘检测模板获得:
Figure RE-GDA0003209413850000102
这样,差值图像表示为D=B-J。
上述中,使用所述差值图像提取感兴趣图像。
具体提取额过程为,首先,在所述差值图像D中设置有N个8联通区域,第i个区域的面积大小Ri,i=1,2,...,N和对应区域的坐标集合为zi
Figure RE-GDA0003209413850000103
这里,所述D(zi)为提取的感兴趣图像。
针对每个所述感兴趣图像和每个所述初始训练图像均进行旋转量和平移量的优化,确定训练图像集。
这里,针对所述感兴趣图像进行旋转量和平移量两个方向上的优化,并在优化后,将优化后的所述感兴趣图像确定为训练使用的训练图像集。
这样,对于所述感兴趣图像在旋转量方面的优化为:
计算图像二值图像D的p+q阶距mpq:并根据这些矩进一步得到它中心矩。
首先,计算二值图像D的p+q阶距mpq
Figure RE-GDA0003209413850000111
及重心
Figure RE-GDA0003209413850000112
Figure RE-GDA0003209413850000113
Figure RE-GDA0003209413850000114
Figure RE-GDA0003209413850000115
然后,其p+q阶中心距upq的计算如下
Figure RE-GDA0003209413850000116
然后,利用中心矩计算二值图像D和原始图像I在水平方的旋转偏移量Δθ,从而实现对原始图像I和二值图像D进行纠正,其纠正后图像分别为I' 和D'。
通过上面等式计算矩u11,u12和u22,然后下面的公式计算旋转角度:
Figure RE-GDA0003209413850000121
其中,利用旋转角度θ对原始图像I和二值图像D进行纠正,其纠正后图像分别为第一原始图像I'和第一二值图像D'。
这里,对于所述感兴趣图像在平移量方面的优化为:
根据二值图像D的中心矩计算出手指区域在水平方向和竖直方向的偏移量△x和△y
计算图像D的中心矩u00,u10和u01并利用这些中心矩计算出其水平方向和竖直方向的偏移量△x=u10/u00和△y=u01/u00
利用偏移量对图像I'和D'在水平和垂直方向进行归一化得到I”和D”。
此时,优化后的所述感兴趣图像,即训练图像集为:
P=I″*D″
其中,*表示两个矩阵对应位置元素相乘。
S102、将任一类型的训练图像子集中的任一第一训练图像输入静脉特征预测分类器,确定第一训练图像对应的第一高维静脉特征以及所述第一训练图像中标签的预测分布,并根据所述预测分布确定对应的初始身份类型概率。
该步骤中,在按照类别对所述训练图像集进行分类,生成若干个类型的所述训练图像子集后,将其中任一类型的训练图像子集中的第一训练图像输入静脉特征预测分类器,获取输出的所述第一训练图像中标签的预测分布,以及在所述静脉特征预测分类器的全连接层的第一高维静脉特征,其中,所述第一训练图像中标签的预测分布用来表征第一训练图像对应的初始身份类型概率,以及监督学习到的作为监督信息的目标分布来训练静脉特征预测分类器。
这里,使用图像Embedding技术,是把输入的2维训练图像在最后经过全连接层变换为一维的第一高维静脉特征的技术操作,有效的提取到图训练图像的关键特征信息,下面具体举例说明所使用的图像Embedding中一种:
图像Embedding由6层卷积做特征提取,4层最大池化层对卷积层的输出进行池化,即把训练图像分成互不重叠的子块并保留每个子块的最大值以产生一幅池化后的图像,6层BatchNorm,和三层Dropout组成,并使用 LeakyReLU作为激活函数;在Embedding的最后由一个全连接层进行打平为图卷积网络输入数据格式,即一个一维的第二高维静脉特征。并把一维第二高维静脉特征与第一高维静脉特征拼接为一个向量输入图神经网络。
进一步的,通过以下方式获取静脉特征预测分类器:
获取多个样本图像和每个所述样本图像中的样本静脉信息的标签;所述标签用于表征每个所述样本图像中所述样本静脉信息对应的真实样本身份类型。
其中,在获取训练图像集并按照类别划分所述获取训练图像集之前,首先获取多个样本图像和每个所述样本图像中的样本静脉信息的标签,用于对始初始分类网络进行一个初步的训练,确定所述初始分类网络用于识别手指的静脉特征,基极所述静脉特征所对应的身份类型。
将每个所述样本图像中的所述样本静脉信息的图像输入初始分类网络,得到每个所述样本图像中的所述样本静脉信息对应的预测样本身份类型。
其中,所述初始分类网络是一个普通的深度神经网络分类器,可包括但不限制于VGG,ResNet和GoogLeNet的分类器。
这里,将每个所述样本图像中的所述样本静脉信息的标签输入初始分类网络,生成个所述样本图像中的所述样本静脉信息对应的预测样本身份类型;所述输入的每个所述样本图像放入图像大小为可以为处理过后的 224*224的大小。
当每个所述样本静脉信息对应的所述真实样本身份类型与所述样本静脉信息对应的所述预测样本身份类型之间的损失值小于预设阈值,训练截止,获取静脉特征预测分类器。
S103、将其他类型的多个训练图像子集中的任一第二训练图像输入静脉特征提取模型,获取多个第二高维静脉特征。
该步骤中,将训练图像集中划分后生成的除上述类型外的其他类型的多个训练图像子集中的任一第二训练图像输入静脉特征提取模型,得到多个由所述静脉特征提取模型提取的第二高维静脉特征。
其中,每个所述第二高维静脉特征为除上述类型外的其他类型的多个训练图像子集中的任一第二训练图像中的手指静脉的高维静脉特征。
这里,可将获取的第一训练图像以及将其他类型的多个训练图像子集中的第二训练图像分别进行数据的扩增,及标签的扩增,具体可由原来的获取任一第一训练图像以及多个任一第二训练图像扩增为获取任两个第一训练图像以及多个任两个第二训练图像。
或者假设某训练图像集总共N类,做2倍扩维后标签的预测分布为2N 的一维向量,具体如下:
在下述的图神经网络模型中每个类要输入相应数量的训练图像,例如,此时对预第一训练图像中标签的预测分布进行2倍的标签扩增,假设第一训练图像中标签的预测分布标签(即逻辑标签)为(0,1,0),扩增后为 (0,0,1,1,0,0),把扩增后的标签除了拼接上述扩增前的第一高维静脉特征以外,还用扩增后的标签去融合图神经网络模型的标签的第一分布的概率。
S104、将所述第一高维静脉特征与多个所述第二高维静脉特征输入图神经网络,确定所述第一训练图像中标签的第一分布。
该步骤中,将由静脉特征预测分类器输出的所述第一高维静脉特征与多个由静脉特征提取模型提取的所述第二高维静脉特征输入图神经网络,得到所述第一训练图像中标签的第一分布。
其中,所述第一训练图像中标签的第一分布用于学习第一训练图像与其他类型的训练图像之间的关系,用于后续对练好的静脉特征预测模型进行深度训练和调整。
这里,所述图神经网络具有学习样本之间关系的能力,本申请文件中,它可以有效学习到所述第一训练图像中标签的第一分布。
这样,所述图神经网络可具体由下述表示:
所述图神经网络动态的由N层图模型网络组成,每层图模型网络由关系矩阵学习和Gconv块组成。对于关系矩阵学习层,由5层卷积和4层 BatchNorm构成,卷积核的大小都为1.并使用Leaky ReLU作为激活函数,并使用丢弃法随机地释放一些神经元以防止过拟合。
在Gconv块中,由全一个全连接层和一个BatchNorm构成,其输出后利用softmax函数来预测输入样本到各个类的标签概率分布。
S105、根据所述标签的第一分布与所述第一训练图像的标签,确定所述第一训练图像中标签的目标分布,并基于所述标签的目标分布以及所述标签的预测分布,确定静脉识别模型。
该步骤中,通过以下方式根据所述标签的第一分布与所述第一训练图像的标签,确定所述第一训练图像中标签的目标分布:
将标签的第一分布与第一训练图像的标签进行加权融合,确定所述第一训练图像中标签的目标分布。
其中,将得到的所述标签的第一分布第一训练图像的标签进行融合,具体的融合方式包括但不限制于所述嫁娶系数的融合方式,并在进行所述加权融合后确定所述第一训练图像中标签的目标分布。
这里,融合的目的是因为训练图像集中的每个训练图像中包含静脉信息的标签忽略自身类型的训练图像与其他类型的训练图像的之间相关程度, 突出了自身的所属关系,通过融合的方式加强了训练图像自身的监督信息, 进而获得更好的训练和预测效果。
这里,所述确定标签的目标分布的作用为用以增强第一训练图像于其他类型的训练图形之间的关系。
这样,在确定签的目标分布后,基于所述标签的目标分布以及所述标签的预测分布,对静脉特征预测分类器进行进一步的深度训练,确定静脉识别模型。
进一步的,所述基于所述标签的目标分布以及所述标签的预测分布,确定静脉识别模型,包括:
确定标签的目标分布与标签的预测分布之间的损失值。
当所述标签的目标分布与所述标签的预测分布之间的损失值小于预设阈值,训练截止,确定静脉识别模型。
其中,利用KL散度计算述标签的目标分布与所述标签的预测分布之间的损失值采用随机梯度下降法来深度训练静脉特征预测分类器。
由标签的目标分布与第一训练图像的标签融合作为监督信息即ys,KL 散度计算预标签的目标分布与所述标签的预测分布之间的损失L。
Figure RE-GDA0003209413850000171
这里,在训练好所述静脉识别模型后,使用验证图像集来验证所述静脉识别模型,具体可使用但不限制于随机梯度下降的方法来验证。
这样,在验证好所述静脉识别模型后,使用测试图像集来测试所述静脉识别模型,其输出为测试图像属于每个类型的概率,选取最大概率值对应的类型作为它的最终分类结果。
本申请实施例提供的静脉识别模型的训练方法,与现有技术中相比,本申请通过将静脉特征预测分类器与图神经网络相结合,深度学习了输入的第一训练图像的特征与其他类型的第二训练图像的特征之间的关系,确定标签的第一分布,并将标签的第一分布与输入图像的标签进行融合,确定目标分布,并基于所述标签的目标分布以及所述标签的预测分布,确定静脉识别模型,本申请提供的静脉识别模型在学习了输入类型图像的标签分布的基础上,同步学习了标签与标签之间关系的目标标签分布,这样在提高了传统预测模型识别准确率的同时,进一步的提升了识别效果。
请参阅图2,图2为本申请实施例所提供的一种静脉图像的识别方法的流程图。如图2中所示,本申请实施例提供的识别方法,包括以下步骤:
S201、获取待识别图像。
该步骤中,在获取待识别图像,将所述待识别图像进行预处理,得到所述待识别图像的感兴趣图像。
S202、基于所述静脉识别模型,确定所述待识别图像中静脉信息对应的身份类型概率。
该步骤中,利用静脉识别模型,对待识别图像进行特征提取,并匹配这些特征实现身份认证。
S203、基于所述身份类型概率,确定最终身份类型。
该步骤中,所述静脉识别模型能够有效地提取静脉特征,得出更好的静脉身份类别概率分布,改善静脉识别的识别精度。
这里,当存在注册图像和一幅测试图像时,对注册图像进行在注册过的数据库中查找对应的模板图像的标签的目标分布,并让测试图像经由训练好的静脉识别模型,确定测试标签的预测分布,然后,将两个类别的标签的目标分布做匹配计算。所述匹配的方法包括但不限制于使用最大值的匹配方法,所述最大值的匹配方法为如果两者的匹配值小于特定的阈值,认证失败,否则,认证成功。
本申请实施例提供的静脉图像的识别方法,与现有技术中相比,本申请通过将静脉特征预测分类器与图神经网络相结合,深度学习了输入的第一训练图像的特征与其他类型的第二训练图像的特征之间的关系,确定标签的第一分布,并将标签的第一分布与输入图像的标签进行融合,确定目标分布,并基于所述标签的目标分布以及所述标签的预测分布,确定静脉识别模型,本申请提供的静脉识别模型在学习了输入类型图像的标签分布的基础上,同步学习了标签与标签之间关系的目标标签分布,这样在提高了传统预测模型识别准确率的同时,进一步的提升了识别效果。
请参阅图3,图3为本申请实施例所提供的一种静脉识别模型的训练装置的结构示意图,如图3中所示,所述训练装置300包括:
第一获取模块310,用于获取训练图像集;其中,所述训练图像集中包括多个类型的训练图像子集;且所述训练图像集中的每个训练图像中包含静脉信息的标签;所述标签用于表征每个所述训练图像中静脉信息对应的真实身份类型。
进一步的,所述第一获取模块310通过以下方式获取训练图像集:
获取初始训练图像集。
针对所述初始训练图像集中的每个初始训练图像进行二值化和边缘化处理,确定每个所述初始训练图像对应的感兴趣图像。
针对每个所述感兴趣图像和每个所述初始训练图像均进行旋转量和平移量的优化,确定训练图像集。
第一确定模块320,用于将任一类型的训练图像子集中的任一第一训练图像输入静脉特征预测分类器,确定第一训练图像对应的第一高维静脉特征以及所述第一训练图像中标签的预测分布,并根据所述预测分布确定对应的初始身份类型概率。
进一步的,所述第一确定模块320,通过以下方式获取静脉特征预测分类器:
获取多个样本图像和每个所述样本图像中的样本静脉信息的标签;所述标签用于表征每个所述样本图像中所述样本静脉信息对应的真实样本身份类型。
将每个所述样本图像中的所述样本静脉信息的图像输入初始分类网络,得到每个所述样本图像中的所述样本静脉信息对应的预测样本身份类型。
当每个所述样本静脉信息对应的所述真实样本身份类型与所述样本静脉信息对应的所述预测样本身份类型之间的损失值小于预设阈值,训练截止,获取静脉特征预测分类器。
第二获取模块330,将其他类型的多个训练图像子集中的任一第二训练图像输入静脉特征提取模型,获取多个第二高维静脉特征。
第二确定模块340,用于将所述第一高维静脉特征与多个所述第二高维静脉特征输入图神经网络,确定所述第一训练图像中标签的第一分布。
进一步的,所述第二确定模块340通过以下方式根据所述标签的第一分布与所述第一训练图像的标签,确定所述第一训练图像中标签的目标分布:
将标签的第一分布与第一训练图像的标签进行加权融合,确定所述第一训练图像中标签的目标分布。
第三确定模块350,用于根据所述标签的第一分布与所述第一训练图像的标签,确定所述第一训练图像中标签的目标分布,并基于所述标签的目标分布以及所述标签的预测分布,确定静脉识别模型。
进一步的,所述第三确定模块350中所述基于所述标签的目标分布以及所述标签的预测分布,确定静脉识别模型,包括:
确定标签的目标分布与标签的预测分布之间的损失值。
当所述标签的目标分布与所述标签的预测分布之间的损失值小于预设阈值,训练截止,确定静脉识别模型。
本申请实施例提供的训练装置300,与现有技术中相比,本申请通过将静脉特征预测分类器与图神经网络相结合,深度学习了输入的第一训练图像的特征与其他类型的第二训练图像的特征之间的关系,确定标签的第一分布,并将标签的第一分布与输入图像的标签进行融合,确定目标分布,并基于所述标签的目标分布以及所述标签的预测分布,确定静脉识别模型,本申请提供的静脉识别模型在学习了输入类型图像的标签分布的基础上,同步学习了标签与标签之间关系的目标标签分布,这样在提高了传统预测模型识别准确率的同时,进一步的提升了识别效果。
请参阅图4,图3为本申请实施例所提供的一种静脉图像的识别装置的结构示意图,如图4中所示,所述识别装置400包括:
第三获取模块410,用于获取待识别图像。
第四确定模块420,用于基于所述静脉识别模型,确定所述待识别图像中静脉信息对应的身份类型概率。
第五确定模块430,用于基于所述身份类型概率,确定最终身份类型。
本申请实施例提供的识别装置400,与现有技术中相比,本申请通过将静脉特征预测分类器与图神经网络相结合,深度学习了输入的第一训练图像的特征与其他类型的第二训练图像的特征之间的关系,确定标签的第一分布,并将标签的第一分布与输入图像的标签进行融合,确定目标分布,并基于所述标签的目标分布以及所述标签的预测分布,确定静脉识别模型,本申请提供的静脉识别模型在学习了输入类型图像的标签分布的基础上,同步学习了标签与标签之间关系的目标标签分布,这样在提高了传统预测模型识别准确率的同时,进一步的提升了识别效果。
请参阅图5,图5为本申请实施例所提供的一种电子设备500的结构示意图,包括:处理器510、存储器520和总线530,所述存储器520存储有所述处理器510可执行的机器可读指令,当电子设备500运行时,所述处理器510与所述存储器520之间通过所述总线530进行通信,所述机器可读指令被所述处理器510运行时执行如上述实施例中任一所述的训练方法或所述的识别方法步骤的步骤。
具体地,所述机器可读指令被所述处理器510执行时可以执行如下处理:
获取训练图像集;其中,所述训练图像集中包括多个类型的训练图像子集;且所述训练图像集中的每个训练图像中包含静脉信息的标签;所述标签用于表征每个所述训练图像中静脉信息对应的真实身份类型。
将任一类型的训练图像子集中的任一第一训练图像输入静脉特征预测分类器,确定第一训练图像对应的第一高维静脉特征以及所述第一训练图像中标签的预测分布,并根据所述预测分布确定对应的初始身份类型概率。
将其他类型的多个训练图像子集中的任一第二训练图像输入静脉特征提取模型,获取多个第二高维静脉特征。
将所述第一高维静脉特征与多个所述第二高维静脉特征输入图神经网络,确定所述第一训练图像中标签的第一分布。
根据所述标签的第一分布与所述第一训练图像的标签,确定所述第一训练图像中标签的目标分布,并基于所述标签的目标分布以及所述标签的预测分布,确定静脉识别模型。
以及执行如下处理:
获取待识别图像。
基于所述静脉识别模型,确定所述待识别图像中静脉信息对应的身份类型概率。
基于所述身份类型概率,确定最终身份类型。
本申请实施例中,通过将静脉特征预测分类器与图神经网络相结合,深度学习了输入的第一训练图像的特征与其他类型的第二训练图像的特征之间的关系,确定标签的第一分布,并将标签的第一分布与输入图像的标签进行融合,确定目标分布,并基于所述标签的目标分布以及所述标签的预测分布,确定静脉识别模型,本申请提供的静脉识别模型在学习了输入类型图像的标签分布的基础上,同步学习了标签与标签之间关系的目标标签分布,这样在提高了传统预测模型识别准确率的同时,进一步的提升了识别效果。
基于同一申请构思,本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器运行时执行上述实施例提供的训练方法或识别方法的步骤。
具体地,所述存储介质能够为通用的存储介质,如移动磁盘、硬盘等,所述存储介质上的计算机程序被运行时,能够执行上述训练方法,在学习了输入类型图像的标签分布的基础上,同步学习了标签与标签之间关系的目标标签分布,这样在提高了传统预测模型识别准确率的同时,进一步的提升了识别效果。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统和装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。在本申请所提供的几个实施例中,应所述理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个处理器可执行的非易失的计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者所述技术方案的部分可以以软件产品的形式体现出来,所述计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。

Claims (10)

1.一种静脉识别模型的训练方法,其特征在于,所述训练方法包括:
获取训练图像集;其中,所述训练图像集中包括多个类型的训练图像子集;且所述训练图像集中的每个训练图像中包含静脉信息的标签;所述标签用于表征每个所述训练图像中静脉信息对应的真实身份类型;
将任一类型的训练图像子集中的任一第一训练图像输入静脉特征预测分类器,确定第一训练图像对应的第一高维静脉特征以及所述第一训练图像中标签的预测分布,并根据所述预测分布确定对应的初始身份类型概率;
将其他类型的多个训练图像子集中的任一第二训练图像输入静脉特征提取模型,获取多个第二高维静脉特征;
将所述第一高维静脉特征与多个所述第二高维静脉特征输入图神经网络,确定所述第一训练图像中标签的第一分布;
根据所述标签的第一分布与所述第一训练图像的标签,确定所述第一训练图像中标签的目标分布,并基于所述标签的目标分布以及所述标签的预测分布,确定静脉识别模型。
2.根据权利要求1所述的训练方法,其特征在于,通过以下方式根据所述标签的第一分布与所述第一训练图像的标签,确定所述第一训练图像中标签的目标分布:
将标签的第一分布与第一训练图像的标签进行加权融合,确定所述第一训练图像中标签的目标分布。
3.根据权利要求1所述的训练方法,其特征在于,通过以下方式获取训练图像集:
获取初始训练图像集;
针对所述初始训练图像集中的每个初始训练图像进行二值化和边缘化处理,确定每个所述初始训练图像对应的感兴趣图像;
针对每个所述感兴趣图像和每个所述初始训练图像均进行旋转量和平移量的优化,确定训练图像集。
4.根据权利要求1所述的训练方法,其特征在于,通过以下方式获取静脉特征预测分类器:
获取多个样本图像和每个所述样本图像中的样本静脉信息的标签;所述标签用于表征每个所述样本图像中所述样本静脉信息对应的真实样本身份类型;
将每个所述样本图像中的所述样本静脉信息的图像输入初始分类网络,得到每个所述样本图像中的所述样本静脉信息对应的预测样本身份类型;
当每个所述样本静脉信息对应的所述真实样本身份类型与所述样本静脉信息对应的所述预测样本身份类型之间的损失值小于预设阈值,训练截止,获取静脉特征预测分类器。
5.根据权利要求1或2所述的训练方法,其特征在于,所述基于所述标签的目标分布以及所述标签的预测分布,确定静脉识别模型,包括:
确定标签的目标分布与标签的预测分布之间的损失值;
当所述标签的目标分布与所述标签 的预测分布之间的损失值小于预设阈值,训练截止,确定静脉识别模型。
6.一种静脉图像的识别方法,其特征在于,使用如权利要求1-5任一所述的训练方法,所述识别方法包括:
获取待识别图像;
基于所述静脉识别模型,确定所述待识别图像中静脉信息对应的身份类型概率;
基于所述身份类型概率,确定最终身份类型。
7.一种静脉识别模型的训练装置,其特征在于,所述训练装置包括:
第一获取模块,用于获取训练图像集;其中,所述训练图像集中包括多个类型的训练图像子集;且所述训练图像集中的每个训练图像中包含静脉信息的标签;所述标签用于表征每个所述训练图像中静脉信息对应的真实身份类型;
第一确定模块,用于将任一类型的训练图像子集中的任一第一训练图像输入静脉特征预测分类器,确定第一训练图像对应的第一高维静脉特征以及所述第一训练图像中标签的预测分布,并根据所述预测分布确定对应的初始身份类型概率;
第二获取模块,将其他类型的多个训练图像子集中的任一第二训练图像输入静脉特征提取模型,获取多个第二高维静脉特征;
第二确定模块,用于将所述第一高维静脉特征与多个所述第二高维静脉特征输入图神经网络,确定所述第一训练图像中标签的第一分布;
第三确定模块,用于根据所述标签的第一分布与所述第一训练图像的标签,确定所述第一训练图像中标签的目标分布,并基于所述标签的目标分布以及所述标签的预测分布,确定静脉识别模型。
8.一种静脉图像的识别装置,其特征在于,使用如权利要求7所述的训练装置,所述识别装置包括:
第三获取模块,用于获取待识别图像;
第四确定模块,用于基于所述静脉识别模型,确定所述待识别图像中静脉信息对应的身份类型概率;
第五确定模块,用于基于所述身份类型概率,确定最终身份类型。
9.一种电子设备,其特征在于,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储器之间通过总线通信,所述机器可读指令被所述处理器运行时执行如上述权利要求1至5中任一所述的训练方法或权利要求6中的所述的识别方法步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器运行时执行如上述权利要求1至5中任一所述的训练方法或权利要求6中的所述的识别方法步骤。
CN202110807293.4A 2021-07-16 2021-07-16 静脉识别模型的训练方法、静脉图像的识别方法及装置 Active CN113505716B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110807293.4A CN113505716B (zh) 2021-07-16 2021-07-16 静脉识别模型的训练方法、静脉图像的识别方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110807293.4A CN113505716B (zh) 2021-07-16 2021-07-16 静脉识别模型的训练方法、静脉图像的识别方法及装置

Publications (2)

Publication Number Publication Date
CN113505716A CN113505716A (zh) 2021-10-15
CN113505716B true CN113505716B (zh) 2022-07-01

Family

ID=78013090

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110807293.4A Active CN113505716B (zh) 2021-07-16 2021-07-16 静脉识别模型的训练方法、静脉图像的识别方法及装置

Country Status (1)

Country Link
CN (1) CN113505716B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114022960B (zh) * 2022-01-05 2022-06-14 阿里巴巴达摩院(杭州)科技有限公司 模型训练和行为识别方法、装置、电子设备以及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109740407A (zh) * 2018-08-27 2019-05-10 广州麦仑信息科技有限公司 一种基于图网络的掌静脉特征提取方法
CN110427832A (zh) * 2019-07-09 2019-11-08 华南理工大学 一种基于神经网络的小数据集手指静脉识别方法
WO2021027364A1 (zh) * 2019-08-13 2021-02-18 平安科技(深圳)有限公司 基于指静脉识别的身份验证方法和装置
WO2021056972A1 (zh) * 2019-09-27 2021-04-01 五邑大学 基于神经网络和概率图模型的手指静脉分割方法及装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6490747B2 (ja) * 2017-06-08 2019-03-27 三菱電機株式会社 物体認識装置、物体認識方法および車両制御システム
US20200293838A1 (en) * 2019-03-13 2020-09-17 Deepmind Technologies Limited Scheduling computation graphs using neural networks
US20200342968A1 (en) * 2019-04-24 2020-10-29 GE Precision Healthcare LLC Visualization of medical device event processing
CN110263681B (zh) * 2019-06-03 2021-07-27 腾讯科技(深圳)有限公司 面部表情的识别方法和装置、存储介质、电子装置
CN110555399B (zh) * 2019-08-23 2022-04-29 北京智脉识别科技有限公司 手指静脉识别方法、装置、计算机设备及可读存储介质
US11606389B2 (en) * 2019-08-29 2023-03-14 Nec Corporation Anomaly detection with graph adversarial training in computer systems
US20210158155A1 (en) * 2019-11-26 2021-05-27 Nvidia Corp. Average power estimation using graph neural networks
CN111191526B (zh) * 2019-12-16 2023-10-10 汇纳科技股份有限公司 行人属性识别网络训练方法、系统、介质及终端
CN111062345B (zh) * 2019-12-20 2024-03-29 上海欧计斯软件有限公司 静脉识别模型的训练方法、装置和静脉图像识别装置
CN111950408B (zh) * 2020-07-28 2023-07-11 深圳职业技术学院 基于规则图的手指静脉图像识别方法、装置及存储介质
CN112016438B (zh) * 2020-08-26 2021-08-10 北京嘀嘀无限科技发展有限公司 一种基于图神经网络识别证件的方法及系统
CN112149717B (zh) * 2020-09-03 2022-12-02 清华大学 基于置信度加权的图神经网络训练方法及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109740407A (zh) * 2018-08-27 2019-05-10 广州麦仑信息科技有限公司 一种基于图网络的掌静脉特征提取方法
CN110427832A (zh) * 2019-07-09 2019-11-08 华南理工大学 一种基于神经网络的小数据集手指静脉识别方法
WO2021027364A1 (zh) * 2019-08-13 2021-02-18 平安科技(深圳)有限公司 基于指静脉识别的身份验证方法和装置
WO2021056972A1 (zh) * 2019-09-27 2021-04-01 五邑大学 基于神经网络和概率图模型的手指静脉分割方法及装置

Also Published As

Publication number Publication date
CN113505716A (zh) 2021-10-15

Similar Documents

Publication Publication Date Title
CN110414432B (zh) 对象识别模型的训练方法、对象识别方法及相应的装置
US11003941B2 (en) Character identification method and device
Rani et al. Three dimensional objects recognition & pattern recognition technique; related challenges: A review
CN110033018B (zh) 图形相似度判断方法、装置及计算机可读存储介质
CN101980250B (zh) 基于降维局部特征描述子和隐条件随机场的目标识别方法
CN109190470B (zh) 行人重识别方法及装置
WO2020164278A1 (zh) 一种图像处理方法、装置、电子设备和可读存储介质
CN109376604B (zh) 一种基于人体姿态的年龄识别方法和装置
CN113420690A (zh) 基于感兴趣区域的静脉识别方法、装置、设备及存储介质
CN114022684B (zh) 人体姿态估计方法及装置
CN111275070B (zh) 一种基于局部特征匹配的签名验证方法及设备
CN116311214B (zh) 车牌识别方法和装置
CN113706550A (zh) 图像场景识别和模型训练方法、装置和计算机设备
CN111488798B (zh) 指纹识别方法、装置、电子设备及存储介质
CN113505716B (zh) 静脉识别模型的训练方法、静脉图像的识别方法及装置
Shreya et al. Gan-enable latent fingerprint enhancement model for human identification system
CN111353429A (zh) 基于眼球转向的感兴趣度方法与系统
CN117351192A (zh) 一种对象检索模型训练、对象检索方法、装置及电子设备
Aly et al. Adaptive feature selection and data pruning for 3D facial expression recognition using the Kinect
US20140119641A1 (en) Character recognition apparatus, character recognition method, and computer-readable medium
CN111582404A (zh) 内容分类方法、装置及可读存储介质
CN111428670A (zh) 人脸检测方法、装置、存储介质及设备
CN116933041B (zh) 力传感器编号校对系统及方法
CN118658193B (zh) 基于融合验证的文书自助签收方法及系统
Mali et al. Sign Language Recognition Using Long Short-Term Memory Deep Learning Model

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20230418

Address after: 401329 2F, Building 18, Section I, Science Valley, Hangu Town, Jiulongpo District, Chongqing

Patentee after: Chongqing Financial Technology Research Institute

Patentee after: Qin Huafeng

Address before: No.19, Xuefu Avenue, Nan'an District, Chongqing, 400000

Patentee before: CHONGQING TECHNOLOGY AND BUSINESS University

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20240611

Address after: Building 18, 2nd Floor, Section 1, Science Valley Phase 1, Hangu Town, Jiulongpo District, Chongqing, 400000

Patentee after: Chongqing Weimai Zhilian Technology Co.,Ltd.

Country or region after: China

Address before: 401329 2F, Building 18, Section I, Science Valley, Hangu Town, Jiulongpo District, Chongqing

Patentee before: Chongqing Financial Technology Research Institute

Country or region before: China

Patentee before: Qin Huafeng