CN111160291B - 基于深度信息与cnn的人眼检测方法 - Google Patents
基于深度信息与cnn的人眼检测方法 Download PDFInfo
- Publication number
- CN111160291B CN111160291B CN201911416013.6A CN201911416013A CN111160291B CN 111160291 B CN111160291 B CN 111160291B CN 201911416013 A CN201911416013 A CN 201911416013A CN 111160291 B CN111160291 B CN 111160291B
- Authority
- CN
- China
- Prior art keywords
- depth
- face
- image
- cnn
- axis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/197—Matching; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Ophthalmology & Optometry (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Image Analysis (AREA)
Abstract
本发明揭示了一种基于深度信息与CNN的人眼检测方法,包括:步骤S1、输入图像及其深度图像;步骤S2、对深度图像按照检测距离范围进行预处理,去除非检测距离范围内背景;步骤S3、对预处理后的深度图进行深度直方图分割,获得目标候选区域;步骤S4、对候选区域用头肩模板进行匹配验证,确定人脸候选区域;步骤S5、对人脸候选框的重叠区域进行比较,将满足设定阈值的候选框合并;步骤S6、在人脸候选区域对应的图像区域内用训练好的CNN模型中做人脸框回归与关键点回归计算,得到人眼的位置。本发明提出的基于深度信息与CNN的人眼检测方法,可提高检测精确度,减少计算复杂度,提高检测效率,保证检测实时性与准确性,满足裸眼3D显示器的要求。
Description
技术领域
本发明属于人眼检测技术领域,涉及一种人眼检测方法,尤其涉及一种基于深度信息与CNN的人眼检测方法。
背景技术
随着裸眼3D显示器技术的日趋成熟,如何实时准确的检测观看者眼睛的位置,并根据观看者的眼睛位置输出最好的3D观看效果成为裸眼3D显示器的重要发展方向。目前人眼检测算法的实现主要通过训练CNN模型,在人脸区域分类的基础上,对人脸框与眼睛位置做回归,精确的实现人眼检测。
同时随着深度相机采集深度信息技术的发展,通过深度相机提取场景深度信息,可以得到图像中没有的深度特征。而且深度特征可以准确的分割出场景中的物体,并获取其对应的深度范围,大大减少了CNN提取人脸候选区域的计算复杂度。
有鉴于此,设计一种结合深度信息与CNN的方法实现人眼检测,满足裸眼3D显示器实时性与准确性的要求。
发明内容
本发明提供一种基于深度信息与CNN的人眼检测方法,可提高检测精确度,减少计算复杂度,提高检测效率。
为解决上述技术问题,根据本发明的一个方面,采用如下技术方案:
一种基于深度信息与CNN的人眼检测方法,所述人眼检测方法包括:
步骤S1、输入图像及其深度图像;
步骤S2、对深度图像按照检测距离范围进行预处理,去除非检测距离范围内背景;
步骤S3、对预处理后的深度图进行深度直方图分割,获得目标候选区域;
步骤S4、对候选区域用头肩模板进行匹配验证,确定人脸候选区域;
步骤S5、对人脸候选框的重叠区域进行比较,将满足设定阈值的候选框合并;
步骤S6、在人脸候选区域对应的图像区域内用训练好的CNN模型中做人脸框回归与关键点回归计算,得到人眼的位置。
作为本发明的一种实施方式,所述步骤S2中,将深度图中深度值提取出检测范围的像素点,转化为像素值设置为255,其余为0的掩膜,与深度图点乘,去除范围外的背景像素。
作为本发明的一种实施方式,所述步骤S3中,将经过掩膜后的深度图深度值转换到0-255,将深度图从屏幕坐标系的xy轴映射到xz轴平面,对映射后的图像分别对xz轴做投影,分割出物体范围;分割出的范围对应x轴区域范围与z轴区域范围,并根据对应的深度范围的中间值得到区域模板匹配对应尺度的模板图像。
作为本发明的一种实施方式,所述步骤S3中,充分利用不同物体位置深度值的差异,首先将xy轴的屏幕坐标系转换到xz轴,将场景中物体做了xz的二维垂直投影,再根据物体投影图上x轴的垂直投影,找出投影的波峰与波谷,认为每个波峰位置表示物体存在,在每个波峰前后的波谷作为分割的阈值,对场景上的物体做x轴的分割;
对分割出来的每个x轴区域做z轴上的垂直投影,找出投影的波峰波谷,将每个波峰作为物体所在深度,将波峰前后的波谷作为分割阈值,与x轴的分割组成每个物体的分割范围,将场景中每个物体分割开。
作为本发明的一种实施方式,所述步骤S3中,采用了一种自适应深度值匹配模板尺度的方法,避免了传统多尺度同时做检测的复杂性;根据不同物体得到的深度范围值,取范围的中间值作为该物体的深度,选择与其深度值匹配的头肩模板图像,实现了检测头肩模板最佳尺度匹配准确性的同时,也避免了多尺度模板同时检测的复杂性。
作为本发明的一种实施方式,所述步骤S4中,将深度图分成多个检测部分,对这多个深度区域并行做检测,采用模板匹配的方法,通过步长为1的滑窗,将当前深度值对应的头肩模板图像与输入的深度图进行相似度检测,得到的值存放到result图中。
作为本发明的一种实施方式,所述步骤S5中,采用非极大值抑制方法,将result图中的候选框做合并,将得到的候选框根据头肩比例做头部的分割,将深度图中分割的位置映射到图像中作为CNN模型的输入图像。
作为本发明的一种实施方式,所述步骤S6中,将图像分割得到的人脸区域resize到与训练图像相同的训练尺度的大小作为CNN模型的输入图像。
作为本发明的一种实施方式,所述步骤S6中,采用四层卷积层,两层全连接层的模型进行人脸二分类以及人脸框与关键点回归,人脸二分类采用softmax loss函数,人脸框与人脸关键点回归采用最小均方误差函数训练出模型;将训练好的模型导入网络结构,结合深度信息分割出的人脸图像输入,得到新的人脸框位置与人脸关键点。
本发明的有益效果在于:本发明提出的基于深度信息与CNN的人眼检测方法,可提高检测精确度,减少计算复杂度,提高检测效率,保证检测实时性与准确性,满足裸眼3D显示器的要求。
本发明提出的人眼检测方法,首先利用了深度信息对人脸区域粗提取,再通过CNN方法对人脸位置及人眼位置细化。本发明根据场景物体水平间隔与深度间隔的特点,通过深度信息分割出场景中的物体,再对每个物体做头肩模板匹配,实现对人脸的快速定位,在保证人脸检测准确度的前提下,大大减少了人脸检测的复杂度,使本算法的耗时更少。本发明在分割出的人脸区域的基础上,采用4个卷积层,2个全连接层的网络结构,在人脸上做人脸框边缘回归及关键点(landmark)点的位置回归,通过预先训练好的模型参数,实现了对人眼的准确定位。
附图说明
图1为本发明一实施例中人眼识别方法的流程图。
具体实施方式
下面结合附图详细说明本发明的优选实施例。
为了进一步理解本发明,下面结合实施例对本发明优选实施方案进行描述,但是应当理解,这些描述只是为进一步说明本发明的特征和优点,而不是对本发明权利要求的限制。
该部分的描述只针对几个典型的实施例,本发明并不仅局限于实施例描述的范围。相同或相近的现有技术手段与实施例中的一些技术特征进行相互替换也在本发明描述和保护的范围内。
本发明揭示了一种基于深度信息与CNN的人眼识别方法,图1为本发明一实施例中人眼识别方法的流程图;请参阅图1,在本发明的一实施例中,所述方法包括:
步骤S1.通过深度相机拿到图像与对应的深度图;
步骤S2.将深度图中深度值提取出检测范围的像素点,转化为像素值设置为255,其余为0的掩膜,与深度图点乘,去除范围外的像素。
步骤S3.将经过掩膜后的深度图深度值转换到0-255,将深度图从屏幕坐标系的xy轴映射到xz轴平面,先对映射后的图像做x轴投影,找出波峰波谷的位置,将波峰位置的前后两个波谷值作为x轴一个分割区域。再对分割出来的区域分别做z轴投影,找出投影的波峰波谷,将波峰前后的波谷作为z轴的一个区域。分割出的范围对应x轴区域范围与z轴区域范围,并根据对应的深度范围的中间值得到区域模板匹配对应尺度的模板图像。
步骤S4.将深度图分成多个检测部分,对这多个深度区域并行做检测,采用模板匹配的方法,通过步长为1的滑窗,将当前深度值对应的头肩模板图像与输入的深度图进行相似度检测,得到的值存放到result图中。
步骤S5.对人脸候选框的重叠区域进行比较,将满足设定阈值的候选框合并。
在本发明的一实施例中,遍历result图的每个像素值,设置阈值,将符合阈值条件的作为候选框,将候选框采用非极大值抑制的方法,将满足一定IOU阈值(交并比阈值)的候选框合并。
步骤S6.将合并后的候选框映射到图像,并对头部区域分割作为输入图像,在训练好的CNN模型中做人脸框回归与关键点回归计算,得到人眼的位置。
在本发明的一实施例中,步骤S6中,人脸框边缘及人脸关键点回归方法的步骤如下:
步骤S61:将输入的人脸区域resize到训练尺度,送入4层卷积层中,卷积核为3x3,每个卷积层后加一个prelu层,导入训练好的模型权值参数,提取出3x3x128的featuremap。
步骤S62:将得到的feature map通过2层全连接层输出一个2+4+2xPointNum的向量,2代表是否人脸的分类,4表示人脸框的位置,PointNum表示人脸关键点个数。
步骤S63:将得到的人脸的关键点位置提取出人眼位置,并将人眼在人脸的位置映射回源图,实现人眼位置检测。
综上所述,本发明提出的基于深度信息与CNN的人眼检测方法,可以保证检测实时性与准确性,满足裸眼3D显示器的要求。
本发明提出的人眼检测方法,首先利用了深度信息对人脸区域粗提取,再通过CNN方法对人脸位置及人眼位置细化。本发明根据场景物体水平间隔与深度间隔的特点,通过深度信息分割出场景中的物体,再对每个物体做头肩模板匹配,实现对人脸的快速定位,在保证人脸检测准确度的前提下,大大减少了人脸检测的复杂度,使本算法的耗时更少。本发明在分割出的人脸区域的基础上,采用4个卷积层,2个全连接层的网络结构,在人脸上做人脸框边缘回归及关键点的位置回归,通过预先训练好的模型参数,实现了对人眼的准确定位。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
这里本发明的描述和应用是说明性的,并非想将本发明的范围限制在上述实施例中。这里所披露的实施例的变形和改变是可能的,对于那些本领域的普通技术人员来说实施例的替换和等效的各种部件是公知的。本领域技术人员应该清楚的是,在不脱离本发明的精神或本质特征的情况下,本发明可以以其它形式、结构、布置、比例,以及用其它组件、材料和部件来实现。在不脱离本发明范围和精神的情况下,可以对这里所披露的实施例进行其它变形和改变。
Claims (6)
1.一种基于深度信息与CNN的人眼检测方法,其特征在于,所述人眼检测方法包括:
步骤S1、输入图像及其深度图像;
步骤S2、对深度图像按照检测距离范围进行预处理,去除非检测距离范围内背景;
步骤S3、对预处理后的深度图进行深度直方图分割,获得目标候选区域;
步骤S4、对候选区域用头肩模板进行匹配验证,确定人脸候选区域;
步骤S5、对人脸候选框的重叠区域进行比较,将满足设定阈值的候选框合并;
步骤S6、在人脸候选区域对应的图像区域内用训练好的CNN模型中做人脸框回归与关键点回归计算,得到人眼的位置;
所述步骤S2中,将深度图中深度值提取出检测范围的像素点,转化为像素值设置为255,其余为0的掩膜,与深度图点乘,去除范围外的背景像素;
所述步骤S3中,将经过掩膜后的深度图深度值转换到0-255,将深度图从屏幕坐标系的xy轴映射到xz轴平面,对映射后的图像分别对xz轴做投影,分割出物体范围;分割出的范围对应x轴区域范围与z轴区域范围,并根据对应的深度范围的中间值得到区域模板匹配对应尺度的模板图像;
所述步骤S3中,充分利用不同物体位置深度值的差异,首先将xy轴的屏幕坐标系转换到xz轴,将场景中物体做了xz的二维垂直投影,再根据物体投影图上x轴的垂直投影,找出投影的波峰与波谷,认为每个波峰位置表示物体存在,在每个波峰前后的波谷作为分割的阈值,对场景上的物体做x轴的分割;
对分割出来的每个x轴区域做z轴上的垂直投影,找出投影的波峰波谷,将每个波峰作为物体所在深度,将波峰前后的波谷作为分割阈值,与x轴的分割组成每个物体的分割范围,将场景中每个物体分割开。
2.根据权利要求1所述的基于深度信息与CNN的人眼检测方法,其特征在于:
所述步骤S4中,采用自适应深度值匹配模板尺度的方法;根据不同物体得到的深度范围值,取范围的中间值作为该物体的深度,选择与其深度值匹配的头肩模板图像。
3.根据权利要求1所述的基于深度信息与CNN的人眼检测方法,其特征在于:
所述步骤S4中,将深度图分成多个检测部分,对这多个深度区域并行做检测,采用模板匹配的方法,通过步长为1的滑窗,将当前深度值对应的头肩模板图像与输入的深度图进行相似度检测,得到的值存放到result图中。
4.根据权利要求1所述的基于深度信息与CNN的人眼检测方法,其特征在于:
所述步骤S5中,采用非极大值抑制方法,将result图中的候选框做合并,将得到的候选框根据头肩比例做头部的分割,将深度图中分割的位置映射到图像中作为CNN模型的输入图像。
5.根据权利要求1所述的基于深度信息与CNN的人眼检测方法,其特征在于:
所述步骤S6中,将图像分割得到的人脸区域resize到与训练图像相同的训练尺度的大小作为CNN模型的输入图像。
6.根据权利要求1所述的基于深度信息与CNN的人眼检测方法,其特征在于:
所述步骤S6中,采用四层卷积层,两层全连接层的模型进行人脸二分类以及人脸框与关键点回归,人脸二分类采用softmaxloss函数,人脸框与人脸关键点回归采用最小均方误差函数训练出模型;将训练好的模型导入网络结构,结合深度信息分割出的人脸图像输入,得到新的人脸框位置与人脸关键点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911416013.6A CN111160291B (zh) | 2019-12-31 | 2019-12-31 | 基于深度信息与cnn的人眼检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911416013.6A CN111160291B (zh) | 2019-12-31 | 2019-12-31 | 基于深度信息与cnn的人眼检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111160291A CN111160291A (zh) | 2020-05-15 |
CN111160291B true CN111160291B (zh) | 2023-10-31 |
Family
ID=70560194
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911416013.6A Active CN111160291B (zh) | 2019-12-31 | 2019-12-31 | 基于深度信息与cnn的人眼检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111160291B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112036284B (zh) * | 2020-08-25 | 2024-04-19 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、设备及存储介质 |
CN112365547B (zh) * | 2020-11-06 | 2023-08-22 | 上海易维视科技有限公司 | 基于多深度光栅可视点的相机矫正方法及系统 |
CN112346258B (zh) * | 2020-11-06 | 2022-09-13 | 上海易维视科技有限公司 | 基于方波拟合的光栅可视区定标方法及系统 |
CN112257674B (zh) * | 2020-11-17 | 2022-05-27 | 珠海大横琴科技发展有限公司 | 一种视觉数据处理的方法和装置 |
CN112329752B (zh) * | 2021-01-06 | 2021-04-06 | 腾讯科技(深圳)有限公司 | 人眼图像处理模型的训练方法、图像处理方法及装置 |
CN113257392B (zh) * | 2021-04-20 | 2024-04-16 | 哈尔滨晓芯科技有限公司 | 一种超声机普适外接数据自动预处理方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102737235A (zh) * | 2012-06-28 | 2012-10-17 | 中国科学院自动化研究所 | 基于深度信息和彩色图像的头部姿势估计方法 |
JP2015106252A (ja) * | 2013-11-29 | 2015-06-08 | シャープ株式会社 | 顔向き検出装置及び3次元計測装置 |
CN108174182A (zh) * | 2017-12-30 | 2018-06-15 | 上海易维视科技股份有限公司 | 三维跟踪式裸眼立体显示视区调整方法及显示系统 |
CN108256391A (zh) * | 2016-12-29 | 2018-07-06 | 广州映博智能科技有限公司 | 一种基于投影积分和边缘检测的瞳孔区域定位方法 |
CN108615016A (zh) * | 2018-04-28 | 2018-10-02 | 北京华捷艾米科技有限公司 | 人脸关键点检测方法和人脸关键点检测装置 |
CN109034051A (zh) * | 2018-07-24 | 2018-12-18 | 哈尔滨理工大学 | 人眼定位方法 |
CN109725721A (zh) * | 2018-12-29 | 2019-05-07 | 上海易维视科技股份有限公司 | 用于裸眼3d显示系统的人眼定位方法及系统 |
CN109961006A (zh) * | 2019-01-30 | 2019-07-02 | 东华大学 | 一种低像素多目标人脸检测和关键点定位方法以及对齐方法 |
CN109993086A (zh) * | 2019-03-21 | 2019-07-09 | 北京华捷艾米科技有限公司 | 人脸检测方法、装置、系统及终端设备 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8320621B2 (en) * | 2009-12-21 | 2012-11-27 | Microsoft Corporation | Depth projector system with integrated VCSEL array |
-
2019
- 2019-12-31 CN CN201911416013.6A patent/CN111160291B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102737235A (zh) * | 2012-06-28 | 2012-10-17 | 中国科学院自动化研究所 | 基于深度信息和彩色图像的头部姿势估计方法 |
JP2015106252A (ja) * | 2013-11-29 | 2015-06-08 | シャープ株式会社 | 顔向き検出装置及び3次元計測装置 |
CN108256391A (zh) * | 2016-12-29 | 2018-07-06 | 广州映博智能科技有限公司 | 一种基于投影积分和边缘检测的瞳孔区域定位方法 |
CN108174182A (zh) * | 2017-12-30 | 2018-06-15 | 上海易维视科技股份有限公司 | 三维跟踪式裸眼立体显示视区调整方法及显示系统 |
CN108615016A (zh) * | 2018-04-28 | 2018-10-02 | 北京华捷艾米科技有限公司 | 人脸关键点检测方法和人脸关键点检测装置 |
CN109034051A (zh) * | 2018-07-24 | 2018-12-18 | 哈尔滨理工大学 | 人眼定位方法 |
CN109725721A (zh) * | 2018-12-29 | 2019-05-07 | 上海易维视科技股份有限公司 | 用于裸眼3d显示系统的人眼定位方法及系统 |
CN109961006A (zh) * | 2019-01-30 | 2019-07-02 | 东华大学 | 一种低像素多目标人脸检测和关键点定位方法以及对齐方法 |
CN109993086A (zh) * | 2019-03-21 | 2019-07-09 | 北京华捷艾米科技有限公司 | 人脸检测方法、装置、系统及终端设备 |
Non-Patent Citations (3)
Title |
---|
刘林涛.用于3D裸眼显示的人眼实时探测与跟踪并行算法与实现.《硕士电子期刊》.2018,全文. * |
李燕晓.人脸检测及眼睛定位算法的研究.《硕士电子期刊》.2018,全文. * |
王伟, 张佑生, 方芳.人脸检测与识别技术综述.《合肥工业大学学报》.2006,158-162. * |
Also Published As
Publication number | Publication date |
---|---|
CN111160291A (zh) | 2020-05-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111160291B (zh) | 基于深度信息与cnn的人眼检测方法 | |
Sun et al. | Disp r-cnn: Stereo 3d object detection via shape prior guided instance disparity estimation | |
US10198623B2 (en) | Three-dimensional facial recognition method and system | |
CN109615611B (zh) | 一种基于巡检影像的绝缘子自爆缺陷检测方法 | |
US9305206B2 (en) | Method for enhancing depth maps | |
CN102622769B (zh) | 一种在动态场景下以深度为主导线索的多目标跟踪方法 | |
CN107730515B (zh) | 基于区域增长和眼动模型的全景图像显著性检测方法 | |
Kamencay et al. | Improved Depth Map Estimation from Stereo Images Based on Hybrid Method. | |
CN110348319A (zh) | 一种基于人脸深度信息和边缘图像融合的人脸防伪方法 | |
CN103020992B (zh) | 一种基于运动颜色关联的视频图像显著性检测方法 | |
CN110738676A (zh) | 一种结合RGBD数据的GrabCut自动分割算法 | |
CN109766796B (zh) | 一种面向密集人群的深度行人检测方法 | |
CN105205480A (zh) | 一种复杂场景中人眼定位方法及系统 | |
CN114882222B (zh) | 改进YOLOv5目标检测模型构建方法及用于茶嫩芽识别与采摘点定位方法 | |
Lu et al. | An improved graph cut algorithm in stereo matching | |
CN107248174A (zh) | 一种基于tld算法的目标跟踪方法 | |
CN106951826B (zh) | 人脸检测方法及装置 | |
CN105956552A (zh) | 一种人脸黑名单监测方法 | |
CN110599522A (zh) | 一种视频序列中动态目标检测剔除方法 | |
CN107944437B (zh) | 一种基于神经网络和积分图像的人脸定位方法 | |
CN112200056A (zh) | 人脸活体检测方法、装置、电子设备及存储介质 | |
CN118736010A (zh) | 一种适用于低光照场景的动态视觉slam方法 | |
CN111160292B (zh) | 人眼检测方法 | |
Wietrzykowski et al. | Stereo plane R-CNN: Accurate scene geometry reconstruction using planar segments and camera-agnostic representation | |
WO2019041447A1 (zh) | 一种3d视频帧特征点提取的方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |