[go: up one dir, main page]

CN114511894B - 瞳孔中心坐标的获取系统及获取方法 - Google Patents

瞳孔中心坐标的获取系统及获取方法 Download PDF

Info

Publication number
CN114511894B
CN114511894B CN202011176143.XA CN202011176143A CN114511894B CN 114511894 B CN114511894 B CN 114511894B CN 202011176143 A CN202011176143 A CN 202011176143A CN 114511894 B CN114511894 B CN 114511894B
Authority
CN
China
Prior art keywords
image
camera
pupil center
pupil
center coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011176143.XA
Other languages
English (en)
Other versions
CN114511894A (zh
Inventor
薛亚冲
张�浩
陈丽莉
孙建康
李鑫恺
闫桂新
刘小磊
吕耀宇
张梦蕾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BOE Technology Group Co Ltd
Beijing BOE Optoelectronics Technology Co Ltd
Original Assignee
BOE Technology Group Co Ltd
Beijing BOE Optoelectronics Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BOE Technology Group Co Ltd, Beijing BOE Optoelectronics Technology Co Ltd filed Critical BOE Technology Group Co Ltd
Priority to CN202011176143.XA priority Critical patent/CN114511894B/zh
Priority to US17/319,933 priority patent/US11699303B2/en
Publication of CN114511894A publication Critical patent/CN114511894A/zh
Application granted granted Critical
Publication of CN114511894B publication Critical patent/CN114511894B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本申请实施例提供了一种瞳孔中心坐标的获取系统及获取方法,该获取系统包括第一相机、第二相机、存储器与处理器,第一相机拍摄包含人脸的第一图像并输出至处理器,第二相机拍摄包含瞳孔的第二图像并输出至处理器,第一相机的分辨率低于第二相机;存储器用于存储处理数据,处理器能够操作以:获取第一图像与第二图像;在第一图像中提取与人眼对应的第一人眼区域;将第一人眼区域转换至第二图像,得到第二图像中与人眼对应的第二人眼区域;在第二人眼区域内,检测瞳孔并得到瞳孔中心坐标。如此设计,可以提高瞳孔中心坐标计算速度和计算精度,能够适应对瞳孔中心坐标计算精度和实时性要求较高的场景。

Description

瞳孔中心坐标的获取系统及获取方法
技术领域
本申请实施例涉及瞳孔检测技术领域,尤其涉及一种瞳孔中心坐标的获取系统及获取方法。
背景技术
瞳孔中心坐标的计算方法通常包括以下步骤:采用相机拍摄包含人脸的人脸图像,在人脸图像中进行人脸检测得到与人眼对应的人眼区域,在人眼区域中进行瞳孔检测得到瞳孔中心坐标。
瞳孔中心坐标的计算精度和计算速度与相机分辨率相关,较高分辨率相机拍摄的人脸图像会导致计算速度的降低,而较低分辨率相机拍摄的人脸图像又会导致计算精度的变差。
发明内容
本申请实施例的目的在于提供一种瞳孔中心坐标的获取系统及获取方法,以快速准确地获得瞳孔中心坐标。
基于上述目的,第一方面,本申请实施例提供了一种瞳孔中心坐标的获取系统,其包括第一相机、第二相机、存储器与处理器,所述第一相机拍摄包含人脸的第一图像并输出至所述处理器,所述第二相机拍摄包含瞳孔的第二图像并输出至所述处理器,所述第一相机的分辨率低于所述第二相机;所述存储器用于存储处理数据,所述处理器能够操作以:
获取所述第一图像与所述第二图像;
在所述第一图像中提取与人眼对应的第一人眼区域;
将所述第一人眼区域转换至所述第二图像,得到所述第二图像中与人眼对应的第二人眼区域;
在所述第二人眼区域内,检测瞳孔并得到瞳孔中心坐标。
在上述实施例的瞳孔中心坐标的获取系统中,采用较低分辨率的第一相机拍摄包含人脸的第一图像,采用分辨率较高的第二相机拍摄包含瞳孔的第二图像;并通过处理器对第一图像进行人脸识别提取到第一人眼区域,然后将第一人眼区域映射到第二图像中,得到第二图像中与人眼对应的第二人眼区域;再在第二人眼区域中进行瞳孔检测和瞳孔中心坐标计算。
由于第一图像的分辨率较低,因此可以快速地提取到第一人眼区域,又由于第二图像的分辨率较高,通过第二人眼区域得到的通孔中心坐标的精度较高。也就是说,采用本申请实施例提供的瞳孔中心坐标的获取系统,可以在提高瞳孔中心坐标计算速度的同时提高计算精度,能够适应对瞳孔中心坐标计算精度和实时性要求较高的场景。
在一种可能的实施方式中,所述检测瞳孔并得到瞳孔中心坐标包括:
将所述第二人眼区域内的所述第二图像转换为灰度图像;
计算得到所述灰度图像的图像梯度矩阵;
根据所述图像梯度矩阵计算瞳孔中心坐标。
在一种可能的实施方式中,所述根据所述图像梯度矩阵计算瞳孔中心坐标包括:
计算与所述图像梯度矩阵对应的自适应阈值;
根据所述自适应阈值对所述图像梯度矩阵中的梯度值进行归一化处理,得到更新后的所述图像梯度矩阵;
根据更新后的所述图像梯度矩阵计算瞳孔中心坐标。
在一种可能的实施方式中,所述计算与所述图像梯度矩阵对应的自适应阈值包括:
计算所述图像梯度矩阵的均值Marg和标准差Mdev
计算瞳孔区域的灰度平均值Mgth
通过以下公式计算自适应阈值Mthreshold
在一种可能的实施方式中,所述根据所述图像梯度矩阵计算瞳孔中心坐标包括:
在所述图像梯度矩阵内任选一点为目标点;
计算所述目标点与所述图像梯度矩阵内剩余点的向量点积和;
选取所有所述目标点依次重复以上步骤,得出多个所述向量点积和;
比较所有所述向量点积和,与最小所述向量点积和对应的所述目标点的坐标为瞳孔中心坐标。
在一种可能的实施方式中,所述根据所述图像梯度矩阵计算瞳孔中心坐标包括:
创建权值矩阵;
在所述图像梯度矩阵内任选一的点为目标点;
结合所述权值向量矩阵,计算所述目标点与所述图像梯度矩阵内剩余点的向量点积和;
选取所有所述目标点依次重复以上步骤,得出多个所述向量点积和;
比较所有所述向量点积和,与最大所述向量点积和对应的所述目标点的坐标为瞳孔中心坐标;
其中,所述权值矩阵为MAX-Px,y,MAX为与色位深度对应的最大灰度值,Px,y为所述灰度图像中的像素值。
在一种可能的实施方式中,所述处理器还被配置为执行以下步骤:
对所述第一相机和所述第二相机进行相机标定,获得所述第一相机和所述第二相机之间的相机间坐标转换参数。
在一种可能的实施方式中,所述处理器还被配置为执行以下步骤:
对所述第一图像进行人脸检测并得到LandMark点;
将所述LandMark点与人脸标准模型进行比较得到空间坐标转换参数。
在一种可能的实施方式中,所述检测瞳孔并得到瞳孔中心坐标之后还包括:
根据所述相机间坐标转换参数将所述瞳孔中心坐标转换为以所述第一图片为参考的第二坐标值;
根据所述空间坐标转换参数将所述第二坐标值转换为三维坐标值。
在一种可能的实施方式中,所述第一相机为彩色相机,所述第一图像为所述第一相机拍摄的彩色图像;所述第二相机为红外相机,所述第二图像为所述第二相机拍摄的红外图像;所述获取系统还包括在所述处理器控制下进行红外补光的红外光源。
第二方面,本申请实施例提供了一种瞳孔中心坐标的获取方法,包括:
获取包含人脸的第一图像与包含瞳孔的第二图像;
在所述第一图像中提取与人眼对应的第一人眼区域;
将所述第一人眼区域转换至所述第二图像,得到所述第二图像中与人眼对应的第二人眼区域;
在所述第二人眼区域内,检测瞳孔并得到瞳孔中心坐标;
其中,所述第一图像的分辨率小于所述第二图像的分辨率。
在上述实施例的瞳孔中心坐标的获取方法中,利用较低分辨率的第一图像进行人脸识别能够较为快速地提取到第一人眼区域,然后通过坐标转换将第一人眼区域映射到第二图像中,得到第二图像中与人眼对应的第二人眼区域,由于第二图像的分辨率较高,在第二人眼区域中进行瞳孔检测和瞳孔中心坐标计算的精度较高。
也就是说,本申请实施例提供的瞳孔中心坐标的获取方法,可以在提高计算速度的同时提高计算精度,能够适应对瞳孔中心坐标计算精度和实时性要求较高的场景。
在一种可能的实施方式中,所述检测瞳孔并得到瞳孔中心坐标步骤包括:
将所述第二人眼区域内的所述第二图像转换为灰度图像;
计算得到所述灰度图像的图像梯度矩阵;
计算与所述图像梯度矩阵对应的自适应阈值;
根据所述自适应阈值对所述图像梯度矩阵中的梯度值进行归一化处理,得到更新后的所述图像梯度矩阵;
根据更新后的所述图像梯度矩阵计算瞳孔中心坐标。
在一种可能的实施方式中,所述根据更新后的所述图像梯度矩阵计算瞳孔中心坐标步骤包括:
创建权值矩阵;
在所述图像梯度矩阵内任选一点为目标点;
结合所述权值向量矩阵,计算所述目标点与所述图像梯度矩阵内剩余点的向量点积和;
选取所有所述目标点依次重复以上步骤,得出多个所述向量点积和;
比较所有所述向量点积和,与最大所述向量点积和对应的所述目标点的坐标为瞳孔中心坐标;
其中,所述权值矩阵为MAX-Px,y,MAX为与色位深度对应的最大灰度值,Px,y为所述灰度图像中的像素值。
在一种可能的实施方式中,所述检测瞳孔并得到瞳孔中心坐标步骤之后还包括:
根据相机间坐标转换参数将所述瞳孔中心坐标转换为以所述第一图片为参考的第二坐标值;
根据空间坐标转换参数将所述第二坐标值转换为三维坐标值;
其中,所述相机间坐标转换参数通过对所述第一相机和所述第二相机进行相机标定获得;
所述空间坐标转换参数通过以下步骤获得,
对所述第一图像进行人脸检测并得到LandMark点;
将所述LandMark点与人脸标准模型进行比较得到空间坐标转换参数。
第三方面,本申请实施例提供了一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令用于使所述处理器执行第一方面实施例中所述的步骤。该实施例的存储介质存储的计算机指令用于使所述处理器进行瞳孔中心坐标的计算,因此具有获取系统实施例的有益效果,在此不再赘述。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种瞳孔中心的坐标获取系统的结构示意图;
图2为本申请实施例提供的一种瞳孔中心坐标的获取方法流程图一;
图3为本申请实施例提供的一种瞳孔中心坐标的获取方法流程图二;
图4为本申请实施例提供的一种瞳孔中心坐标的获取方法流程图三;
图5为本申请实施例提供的一种瞳孔中心坐标的获取方法流程图四。
具体实施方式
相关技术中瞳孔中心坐标的计算方法通常包括以下步骤:采用相机拍摄包含人脸的人脸图像,在人脸图像中进行人脸检测得到与人眼对应的人眼区域,在人眼区域中进行瞳孔检测得到瞳孔中心坐标。
瞳孔中心坐标的计算精度和计算速度与相机分辨率相关,较高分辨率相机拍摄的人脸图像虽然可以获得较为准确的瞳孔中心坐标,但是会导致计算速度的降低,而较低分辨率相机拍摄的人脸图像虽然可以提高计算速度,但是又会导致计算精度的变差。
鉴于此,本申请实施例提供了一种瞳孔中心坐标的获取系统,该获取系统包括分辨率较低的第一相机、分辨率较高的第二相机以及处理器,处理器在瞳孔中心坐标的计算过程,使用第一相机采集人脸图像,使用第二相机采集瞳孔图像,在第一相机得到的低分辨率图像中进行人脸检测并得到与人眼对应的第一人眼区域,再将第一人眼区域对应到第二图像中,得到第二图像中与人眼对应的第二人眼区域,再在第二人眼区域中利用瞳孔检测算法进行瞳孔检测,并得到瞳孔中心坐标。
如此设计,可通过较低分辨率的图像较为快速地检测到人眼区域,然后在较高分辨率图像中进行瞳孔检测以获得高精度的计算结果,整个计算过程计算量较小,计算速度快,且计算结果较为准确,从而能够快速准确地得到瞳孔中心坐标。
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
图1为本申请实施例提供的一种瞳孔中心坐标的获取系统的结构示意图,如图1所示,该获取系统包括第一相机10、第二相机30、存储器40与处理器20,第一相机10拍摄包含人脸的第一图像并输出至处理器20,第二相机30拍摄包含瞳孔的第二图像并输出至处理器20,第一相机10的分辨率低于第二相机30。存储器40用于存储处理数据,处理器20用于执行下文实施例中提供的瞳孔中心坐标的获取方法。
在一种可能的实施方式中,第一相机10为RGB相机,即彩色相机,彩色相机拍摄得到包含人脸的彩色图像,在彩色的第一图像中进行人脸检测的检测效果较好。第二相机30为IR相机,即红外相机,红外相机拍摄得到包含瞳孔的红外图片。瞳孔特征在红外相机拍摄的红外图像中,相较于在彩色相机拍摄的彩色图片中更为明显,从而有利于瞳孔检测;而且红外相机拍摄不受使用环境的限制,在较亮或较暗环境下均可使用。
在第二相机30为IR相机的实施方式中,还设置有进行红外补光的红外光源。红外光源根据发光功率和拍摄需求可设置多个,例如,红外光源可以为环绕第一相机和第二相机外周的多个红外LED灯。
为了简化相机间的坐标转换,第一相机10和第二相机30的焦距和可视视角均相等。
在一种可能的实施方式中,该获取系统为SmartView或裸眼3D显示产品。
本申请实施例同时提供了一种瞳孔中心坐标的获取方法,该获取方法可以用于上述实施例中的获取系统,如图2所示,该瞳孔中心坐标的获取方法包括:
步骤S10:获取包含人脸的第一图像与包含瞳孔的第二图像;
第一图像为第一相机拍摄的包含人脸的图像,第二图像为第二相机拍摄包含瞳孔的图像,第一相机的分辨率低于第二相机的分辨率,也就是说,第一图像的分辨率低于第二图像的分辨率。
在一种可能的实施方式中,第一相机为RGB相机,即彩色相机,彩色相机拍摄得到包含人脸的彩色图像,在彩色的第一图像中进行人脸检测的检测效果较好。第二相机为IR相机,即红外相机,红外相机拍摄得到包含瞳孔的红外图片。瞳孔特征在红外相机拍摄的红外图像中,相较于在彩色相机拍摄的彩色图片中更为明显,从而有利于瞳孔检测;而且红外相机拍摄不受使用环境的限制,在较亮或较暗环境下均可使用。在第二相机为IR相机的实施方式中,还设置有进行红外补光的红外光源。
本申请实施例以第一相机为RGB相机,第二相机为IR相机为例进行说明。但是本申请实施例并不局限于此,例如在另一种可能的实施方式中,第一相机和第二相机可以均为RGB相机,且第一相机的分辨率低于第一相机的分辨率,其瞳孔中心坐标的获取方法可以参考本文描述。
步骤S20:在第一图像中提取与人眼对应的第一人眼区域;
使用人脸检测算法在第一图像的图像范围内全局搜索人脸,得到人脸框图后,进行LandMark点检测并得到LandMark点。LandMark点是在脸上绘制的若干标记点,标记点一般画在边、角、轮廓、交叉、等分等关键位置,借助它们就可以描述人脸的形态。
例如在一种人脸识别模型中,LandMark点包含有68个点,68个点与人脸不同位置的对应关系依次为:0-16是下颌线,17-21是右眼眉,22-26是左眼眉,27-35是鼻子,36-41是右眼,42-47是左眼,48-60是嘴外轮廓,61-67是嘴内轮廓。
通过上述描述可知,LandMark点中包括与人眼边界对应的特征点,而与人眼边界对应的特征点包围区域即人眼区域,根据LandMark点中与人眼边界对应的特征点可以提取出人眼区域,人眼区域通常包括区域左上顶点坐标及区域大小,定义第一图像中的人眼区域为第一人眼区域。
可选的,在得到人脸的68个LandMark点后,可以根据实际情况选择对每个LandMark点进行Kalman滤波,用于减少LandMark点的跳变,提高LandMark点的稳定性,从而得到较为稳定的68个LandMark点,然后进行人眼区域的提取,从而使人眼区域的提取结果更为准确。
步骤S30:将第一人眼区域转换至第二图像,得到第二图像中与人眼对应的第二人眼区域;
第二相机的分辨率较高,直接在第二图像上进行瞳孔检测,计算量较大。而且,在第二相机为红外相机的实施方式中,红外相机拍摄的第二图像中存在很多的干扰因素,若直接在第二图像中进行瞳孔检测,这些干扰因素会影响瞳孔检测的检测结果,造成瞳孔误检,从而导致瞳孔中心坐标计算出现较大误差。因此,在步骤S20得到第一人眼区域后,可以将第一人眼区域转换至第二图像中,得到在第二图像中与人眼对应的第二人眼区域,然后在第二人眼区域内进行检测瞳孔,得到瞳孔中心坐标。
然而,由于第一相机与第二相机的内部参数矩阵和外部参数矩阵不同,因此在第一图像中计算得到第一人眼区域后,不能直接将其应用于第二图像,需要将第一人眼区域相对于第一图像的坐标进行坐标转换,转换至第二图像对应的坐标系下,得到第二图像的坐标系下的与人眼区域对应的第二人眼区域。
第一图像和第二图像之间的坐标转换通过相机间坐标转换参数实现,而相机间坐标转换参数可以根据第一相机和第二相机的内部参数矩阵和外部参数矩阵确定。内部参数矩阵指的是反映相机本身性质的参数,一般和相机镜头的焦距、畸变有关;外部参数矩阵指的是相机相对于世界坐标系的坐标,可以认为是相机在世界坐标系下的位置关系,包括相机的X、Y、Z坐标以及相机光轴相对于世界坐标系的角度。
在一种可能的实施方式中,第一相机和第二相机相邻放置,且两相机的视场角FOV相同,则第一相机与第二相机中的坐标转换关系为:
其中,第一相机的分辨率为W1*H1,第二相机的分辨率为W2*H2。
由此可以看出,采用相同FOV的两个相机可以简化相机间的坐标转换。
步骤S40:在第二人眼区域内,检测瞳孔并得到瞳孔中心坐标;
在第二图像中与人眼区域对应的第二人眼区域内采用瞳孔检测算法提取瞳孔信息,并可以计算得到瞳孔中心坐标。
在上述实施例的瞳孔中心坐标的获取方法中,利用较低分辨率的第一图像进行人脸识别并得到第一人眼区域,然后通过坐标转换将第一人眼区域映射到第二图像中,得到第二图像中与人眼对应的第二人眼区域,再在第二人眼区域中进行瞳孔检测和瞳孔中心坐标的计算;由于第二图像分辨率较高,因此瞳孔中心坐标的计算结果精度较高,而且通过分辨率较低的第一图像进行人脸识别和人眼区域的提取,相较于直接在第二图像中进行人脸识别和人眼区域的提取,计算量较小,计算速度较快。也就是说,本申请实施例提供的瞳孔中心坐标的获取方法,可以在提高计算速度的同时提高计算精度,能够适应对瞳孔中心坐标计算精度和实时性要求较高的场景。
可选的,第一相机和第二相机的内部参数矩阵可以通过张氏标定法获取,该获取过程包括:将标定板放置于第一相机和第二相机的前方设定距离范围内,确保每个相机都可以拍摄到清晰的标定板图像;然后旋转或扭转标定板,每次旋转或扭转后,两个相机均采集一次图像作为标定图像;以不同角度拍摄多次后,每个相机均获得多张标定图像;每个相机依据各自的多张标定图像,通过程序计算出各自的内部参数矩阵。
上述相机标定过程只需进行一次即可,在获得相机的内部参数矩阵后不需再重复执行。
可选的,本申请实施例提供的一种瞳孔中心坐标的获取方法还包括:
对第一图像进行人脸检测并得到LandMark点;
LandMark点的获取可以参考步骤S20中的描述,此处不再赘述。
将LandMark点与人脸标准模型进行比较运算得到空间坐标转换参数。
通过步骤S20的描述可知,通过对第一图像进行人脸识别可以得到68个LandMark点。将68个LandMark点与人脸标准模型中的68个LandMark点坐标进行PnP运算,能够得到第一图像坐标系到三维空间坐标系转换的平移矩阵T和旋转矩阵R,空间坐标转换参数包括平移矩阵T和旋转矩阵R。通过PnP运算还可以得出人脸到第一相机的距离。
在得到相机间坐标转换参数和空间坐标转换参数后,可以根据设计需求将步骤S40得到的瞳孔中心坐标转换为三维空间坐标,如图3所示,本申请实施例提供的一种瞳孔中心坐标的获取方法在步骤S40之后还包括:
步骤S50:根据相机间坐标转换参数将瞳孔中心坐标转换为以第一图片为参考的第二坐标值;
步骤S40计算得到的瞳孔中心坐标是以第二图像为参考,即以第二相机的坐标系为基准。根据步骤S30中的描述可知,通过相机间坐标转换参数可以实现第一相机和第二相机之间坐标的转换,因此步骤S40得到的瞳孔中心坐标能够通过相机间坐标转换参数转换,转换得到第一图像中与瞳孔中心坐标对应的第二坐标值,第二坐标值以第一图像为参考,即以第一相机的坐标系为基准。
示例性地,在第一相机和第二相机焦距f相同的实施方式中,瞳孔中心坐标和第二坐标值的转换关系为:
其中,(uc2,vc2)表示步骤S40得到的瞳孔中心坐标,lx表示第一相机镜头中心和第二相机镜头中心的水平间距,ly表示第一相机镜头中心和第二相机镜头中心的垂直间距,f表示两个相机的焦距。
步骤S60:根据空间坐标转换参数将第二坐标值转换为三维坐标值。
世界坐标系下的三维坐标值与第二坐标值的转换公式如下:
其中,表示以第一相机坐标系为基准的瞳孔中心坐标,即步骤S50得到的第二坐标值;
ZC1表示人脸到RGB相机的距离,此参数可以通过LandMark点的PnP运算得到;
表示第一相机的内部参数矩阵,此内部参数矩阵已通过相机标定步骤获得;
表示平移矩阵T和旋转矩阵R,即空间坐标转换参数,该参数已经通过LandMark点的PnP运算得到。
表示世界坐标系下瞳孔中心的三维坐标值;
在该步骤中个,将已知数据代入公式(1)中即可得到世界坐标系下瞳孔中心的三维坐标值。
相关技术中有关瞳孔在三维空间中三维坐标值的计算方法较少,通常采用模型估算的方法,例如进行人脸检测得到人眼区域后,假设瞳孔位于人眼中央位置,计算得到瞳孔在三维空间中的三维坐标值;或者在人脸检测得到人脸坐标后,直接在人脸坐标的基础上加上一个标准人脸模型中人眼中心相对于人脸中心的相对差值,得到瞳孔在三维空间中的三维坐标值。上述两种方法都无法得到精确的三维坐标值,无法应用在一些对瞳孔中心坐标计算精度较高的场景中。
根据上述描述可知,本申请实施例提供的一种瞳孔中心坐标的获取方法,通过步骤S10-S60可以快速准确地得到瞳孔中心在三维空间中的三维坐标值,对于SmartView、裸眼3D显示等产品都有较大的应用价值。
可选的,如图4所示,本申请实施例提供的一种瞳孔中心坐标的获取方法中步骤S40包括:
步骤S41:将第二人眼区域内的第二图像转换为灰度图像;
该步骤中通常还包括高斯滤波处理等步骤,转换为灰度图像后每个像素的像素值即灰度值;
步骤S42:计算得到灰度图像的图像梯度矩阵;
图像梯度矩阵中每个梯度值为:
其中,Xg为X方向梯度,Xg通过以下公式得到:
Yg为Y方向梯度,Yg通过以下公式得到:
Px,y为像素点(x,y)的像素值。
步骤S43:根据图像梯度矩阵计算瞳孔中心坐标。
依据瞳孔灰度特性以及瞳孔的梯度特性,在得到图像梯度矩阵后可以计算瞳孔中心坐标。
根据步骤S41至S43的描述和工作原理可知,该瞳孔中心坐标的获取方法依据瞳孔灰度特性以及瞳孔的梯度特性计算瞳孔中心坐标,为基于梯度适量场的获取方法,可在彩色图像或者红外图像上进行瞳孔中心坐标的计算,从而解决了复杂环境下、远距离下或者阴暗环境下瞳孔中心坐标计算困难的问题。
为了提高瞳孔中心坐标计算结果的精确度,本申请实施例中通过自适应梯度阈值对第二人眼区域进行计算处理,并得到瞳孔中心坐标,如图5所示,步骤S43包括:
步骤S431:计算与图像梯度矩阵对应的自适应梯度阈值;
自适应梯度阈值的获取方法可以为:
计算图像梯度矩阵的均值Marg和标准差Mdev
均值Marg通过以下公式计算得到:
其中,We、He分别表示第二人眼区域中单眼区域的宽度和高度;
标准差Mdev通过以下公式计算得到:
自适应阈值Mthreshold通过以下公式计算得到:
上述公式中的Mgth表示瞳孔区域的灰度平均值,瞳孔直径一般不超过人眼区域横向的1/8,纵向的1/4,因此在本申请实施例中,将人眼区域均分为32*16矩形格,计算每一个矩形格的平均灰度值,将其中的最小平均灰度值作为Mgth
步骤S432:根据自适应阈值对图像梯度矩阵中的梯度值进行归一化处理,得到更新后的图像梯度矩阵;
在归一化处理的过程中,将图像梯度矩阵中的每个梯度值Mg与步骤S431得到的自适应阈值Mthreshold进行对比;
若Mg>Mthreshold,则
若Mg<Mthreshold,则
对图像梯度矩阵中的每个梯度值Mg进行以上归一化处理后得到更新后的X方向梯度矩阵以及Y方向梯度矩阵也即得到更新后的图像梯度矩阵。
步骤S433:创建权值矩阵;
由于瞳孔区域灰度值较小,其他区域灰度值较大,如此的灰度分布特征不利于瞳孔的识别和计算,鉴于此,在本申请实施例提供的瞳孔中心坐标的获取方法中创建权值矩形为W,权值矩阵W为MAX-Px,y,MAX为与色位深度对应的最大灰度值,例如,当图像为8bit色位深度时,MAX为255。Px,y为灰度图像中的像素值,可以理解的,在灰度图像中,像素值即灰度值。
通过创建权值矩阵W,可以将瞳孔区域权值增大,其他区域权值减小,从而有利于瞳孔的检测和中心坐标的计算,降低计算的难度。
步骤S434:在图像梯度矩阵内任选一点为目标点;
步骤S435:结合权值向量矩阵,计算目标点与图像梯度矩阵内剩余点的向量点积和;
步骤S436:选取所有目标点依次重复以上步骤,得出多个向量点积和;
步骤S437:比较所有向量点积和,与最大向量点积和对应的目标点的坐标为瞳孔中心坐标。
在步骤S434至S437中,依据权值矩阵W以及更新后的图像梯度矩阵计算瞳孔中心坐标。
在更新后的图像梯度矩阵中,任选一点O(x,y)为目标点,在剩余点中任选一个点C(Xc,Yc)为第二点,则OC归一化后的X方向向量和Y方向向量分别为:
点C处的X方向梯度和Y方向梯度为:
对于瞳孔四周的梯度存在这样的规律:假设瞳孔是一个正圆,则当O为瞳孔中心,C为瞳孔边界时,向量OC与C点的梯度处于相同方向,两者的点积值最大,即,的值最大。
基于瞳孔梯度的上述特性,选取所有目标点依次重复以上步骤,得出与所有目标点对应的多个向量点积和;比较所有向量点积和,通过判断向量点积和是否为最大,判断目标点是否为瞳孔中心。
向量点积和OCsum计算公式如下:
选取所有目标点O重复以上步骤,计算出与所有目标点对应的多个向量点积和OCsum,对进行多个向量点积和OCsum比较筛选出其中的最大值,其最大值对应的目标点O即为瞳孔中心,目标点O的坐标为瞳孔中心坐标。
通过上述描述和计算公式中可以看出,与梯度值为0的目标点O对应的向量点积和OCsum不会最大值,因此为了简化计算过程,通常在步骤S434中选取梯度值不为0的点作为目标点。
上述瞳孔中心坐标的获取方法为基于自适应阈值梯度矢量场的瞳孔中心坐标获取方法,该方法依据瞳孔灰度特性以及瞳孔的梯度特性计算瞳孔中心坐标,可在彩色图像或者红外图像上进行瞳孔中心坐标的计算,解决了复杂环境下、远距离下或者阴暗环境下瞳孔中心坐标计算困难的问题。
在上述实施例的步骤中,通过设置权值矩阵,可以将瞳孔区域的权值增大,将其他区域的权值减小,有利于凸显瞳孔特征,从而有利于瞳孔的检测和计算,降低计算的难度。但是本申请实施例中并不局限于此,例如在一种可能的实施方式中,该瞳孔中心坐标的获取方法包括:
在图像梯度矩阵内任选梯度值不为零的点为目标点;
计算目标点与图像梯度矩阵内剩余点的向量点积和;
选取所有目标点依次重复以上步骤,得出多个向量点积和;
比较所有向量点积和,与最小向量点积和对应的目标点的坐标为瞳孔中心坐标。
该实施例中的获取方法的工作原理和工作过程可以参看步骤S431-S437的描述,此处不再赘述。
需要说明的是,本申请实施例的方法可以由单个设备执行,例如一台计算机或服务器等。本实施例的方法也可以应用于分布式场景下,由多台设备相互配合来完成。在这种分布式场景的情况下,这多台设备中的一台设备可以只执行本申请实施例的方法中的某一个或多个步骤,这多台设备相互之间会进行交互以完成所述的方法。
另外,上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
在本申请实施例瞳孔中心坐标的获取系统中,处理器通过执行上述实施例中的获取方法,具有上述实施例中获取方法的有益技术效果,可以在提高瞳孔中心坐标计算速度的同时提高计算精度,能够适应对瞳孔中心坐标计算精度和实时性要求较高的场景。
基于同一发明构思,本申请实施例同时提供了一种非暂态计算机可读存储介质,该非暂态计算机可读存储介质存储计算机指令,存储的计算机指令用于使获取系统中的处理器执行上述实施实例中的获取方法。
本实施例的计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。
上述实施例的存储介质存储的计算机指令用于使所述计算机执行如上任一实施例所述的获取方法,并且具有相应的方法实施例和系统实施例的有益效果,在此不再赘述。
最后应说明的是:以上各实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述各实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的范围。

Claims (12)

1.一种瞳孔中心坐标的获取系统,其特征在于,包括第一相机、第二相机、存储器与处理器,所述第一相机拍摄包含人脸的第一图像并输出至所述处理器,所述第二相机拍摄包含瞳孔的第二图像并输出至所述处理器,所述第一相机的分辨率低于所述第二相机;所述存储器用于存储处理数据,所述处理器能够操作以:
获取所述第一图像与所述第二图像;
在所述第一图像中提取与人眼对应的第一人眼区域;
将所述第一人眼区域转换至所述第二图像,得到所述第二图像中与人眼对应的第二人眼区域;
在所述第二人眼区域内,检测瞳孔并得到瞳孔中心坐标;
所述检测瞳孔并得到瞳孔中心坐标包括:
将所述第二人眼区域内的所述第二图像转换为灰度图像;
计算得到所述灰度图像的图像梯度矩阵;
根据所述图像梯度矩阵计算瞳孔中心坐标;
所述根据所述图像梯度矩阵计算瞳孔中心坐标包括:
创建权值矩阵;
在所述图像梯度矩阵内任选一点为目标点;
结合所述权值矩阵,计算所述目标点与所述图像梯度矩阵内剩余点的向量点积和;
选取所有所述目标点依次重复以上步骤,得出多个所述向量点积和;
比较所有所述向量点积和,与最大所述向量点积和对应的所述目标点的坐标为瞳孔中心坐标;
其中,所述权值矩阵为MAX-Px,y,MAX为与色位深度对应的最大灰度值,Px,y为所述灰度图像中的像素值。
2.根据权利要求1所述的获取系统,其特征在于,所述根据所述图像梯度矩阵计算瞳孔中心坐标包括:
计算与所述图像梯度矩阵对应的自适应阈值;
根据所述自适应阈值对所述图像梯度矩阵中的梯度值进行归一化处理,得到更新后的所述图像梯度矩阵;
根据更新后的所述图像梯度矩阵计算瞳孔中心坐标。
3.根据权利要求2所述的获取系统,其特征在于,所述计算与所述图像梯度矩阵对应的自适应阈值包括:
计算所述图像梯度矩阵的均值Marg和标准差Mdev
计算瞳孔区域的灰度平均值Mgth
通过以下公式计算自适应阈值Mthreshold
We,He分别表示第二人眼区域中单眼区域的宽度和高度。
4.根据权利要求1-3中任一项所述的获取系统,其特征在于,所述根据所述图像梯度矩阵计算瞳孔中心坐标包括:
在所述图像梯度矩阵内任选一点为目标点;
计算所述目标点与所述图像梯度矩阵内剩余点的向量点积和;
选取所有所述目标点依次重复以上步骤,得出多个所述向量点积和;
比较所有所述向量点积和,与最小所述向量点积和对应的所述目标点的坐标为瞳孔中心坐标。
5.根据权利要求1所述的获取系统,其特征在于,所述处理器还被配置为执行以下步骤:
对所述第一相机和所述第二相机进行相机标定,获得所述第一相机和所述第二相机之间的相机间坐标转换参数。
6.根据权利要求5所述的获取系统,其特征在于,所述处理器还被配置为执行以下步骤:
对所述第一图像进行人脸检测并得到LandMark点;
将所述LandMark点与人脸标准模型进行比较得到空间坐标转换参数。
7.根据权利要求6所述的获取系统,其特征在于,所述检测瞳孔并得到瞳孔中心坐标之后还包括:
根据所述相机间坐标转换参数将所述瞳孔中心坐标转换为以所述第一图像为参考的第二坐标值;
根据所述空间坐标转换参数将所述第二坐标值转换为三维坐标值。
8.根据权利要求5-7中任一项所述的获取系统,其特征在于:所述第一相机为彩色相机,所述第一图像为所述第一相机拍摄的彩色图像;所述第二相机为红外相机,所述第二图像为所述第二相机拍摄的红外图像;所述获取系统还包括在所述处理器控制下进行红外补光的红外光源。
9.一种瞳孔中心坐标的获取方法,其特征在于,包括:
获取包含人脸的第一图像与包含瞳孔的第二图像;
在所述第一图像中提取与人眼对应的第一人眼区域;
将所述第一人眼区域转换至所述第二图像,得到所述第二图像中与人眼对应的第二人眼区域;
在所述第二人眼区域内,检测瞳孔并得到瞳孔中心坐标;
其中,所述第一图像的分辨率小于所述第二图像的分辨率;
所述检测瞳孔并得到瞳孔中心坐标步骤包括:
将所述第二人眼区域内的所述第二图像转换为灰度图像;
计算得到所述灰度图像的图像梯度矩阵;
根据更新后的所述图像梯度矩阵计算瞳孔中心坐标;
所述根据更新后的所述图像梯度矩阵计算瞳孔中心坐标步骤包括:
创建权值矩阵;
在所述图像梯度矩阵内任选一点为目标点;
结合所述权值矩阵,计算所述目标点与所述图像梯度矩阵内剩余点的向量点积和;
选取所有所述目标点依次重复以上步骤,得出多个所述向量点积和;
比较所有所述向量点积和,与最大所述向量点积和对应的所述目标点的坐标为瞳孔中心坐标;
其中,所述权值矩阵为MAX-Px,y,MAX为与色位深度对应的最大灰度值,Px,y为所述灰度图像中的像素值。
10.根据权利要求9所述的获取方法,其特征在于,所述根据所述图像梯度矩阵计算瞳孔中心坐标包括:
计算与所述图像梯度矩阵对应的自适应阈值;
根据所述自适应阈值对所述图像梯度矩阵中的梯度值进行归一化处理,得到更新后的所述图像梯度矩阵;
根据更新后的所述图像梯度矩阵计算瞳孔中心坐标。
11.根据权利要求9所述的获取方法,其特征在于,所述检测瞳孔并得到瞳孔中心坐标步骤之后还包括:
根据相机间坐标转换参数将所述瞳孔中心坐标转换为以所述第一图像为参考的第二坐标值;
根据空间坐标转换参数将所述第二坐标值转换为三维坐标值;
其中,所述相机间坐标转换参数通过对第一相机和第二相机进行相机标定获得;
所述空间坐标转换参数通过以下步骤获得,
对所述第一图像进行人脸检测并得到LandMark点;
将所述LandMark点与人脸标准模型进行比较得到空间坐标转换参数。
12.一种非暂态计算机可读存储介质,其特征在于,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令用于使所述处理器执行权利要求1-8任一项中所述的步骤。
CN202011176143.XA 2020-10-28 2020-10-28 瞳孔中心坐标的获取系统及获取方法 Active CN114511894B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202011176143.XA CN114511894B (zh) 2020-10-28 2020-10-28 瞳孔中心坐标的获取系统及获取方法
US17/319,933 US11699303B2 (en) 2020-10-28 2021-05-13 System and method of acquiring coordinates of pupil center point

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011176143.XA CN114511894B (zh) 2020-10-28 2020-10-28 瞳孔中心坐标的获取系统及获取方法

Publications (2)

Publication Number Publication Date
CN114511894A CN114511894A (zh) 2022-05-17
CN114511894B true CN114511894B (zh) 2025-03-18

Family

ID=81258577

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011176143.XA Active CN114511894B (zh) 2020-10-28 2020-10-28 瞳孔中心坐标的获取系统及获取方法

Country Status (2)

Country Link
US (1) US11699303B2 (zh)
CN (1) CN114511894B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115035188A (zh) * 2022-05-25 2022-09-09 深圳市优必选科技股份有限公司 一种基于目标的距离测量方法、装置及终端设备
CN117333506B (zh) * 2023-09-26 2024-04-05 沈阳工业大学 一种基于tof相机的三维眼动追踪方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110119720A (zh) * 2019-05-17 2019-08-13 南京邮电大学 一种实时眨眼检测与人眼瞳孔中心定位方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7920723B2 (en) * 2005-11-18 2011-04-05 Tessera Technologies Ireland Limited Two stage detection for photographic eye artifacts
US7689009B2 (en) * 2005-11-18 2010-03-30 Fotonation Vision Ltd. Two stage detection for photographic eye artifacts
US7682026B2 (en) * 2006-08-22 2010-03-23 Southwest Research Institute Eye location and gaze detection system and method
US9053524B2 (en) * 2008-07-30 2015-06-09 Fotonation Limited Eye beautification under inaccurate localization
US9185352B1 (en) * 2010-12-22 2015-11-10 Thomas Jacques Mobile eye tracking system
EP2790126B1 (en) * 2013-04-08 2016-06-01 Cogisen SRL Method for gaze tracking
US9892315B2 (en) * 2013-05-10 2018-02-13 Sension, Inc. Systems and methods for detection of behavior correlated with outside distractions in examinations
US9411417B2 (en) * 2014-07-07 2016-08-09 Logitech Europe S.A. Eye gaze tracking system and method
RU2613852C2 (ru) * 2014-10-03 2017-03-21 Юрий Николаевич Хомяков Способ идентификации личности человека по цифровому изображению лица
US10048749B2 (en) * 2015-01-09 2018-08-14 Microsoft Technology Licensing, Llc Gaze detection offset for gaze tracking models
NZ773833A (en) * 2015-03-16 2022-07-01 Magic Leap Inc Methods and systems for diagnosing and treating health ailments
US10984235B2 (en) * 2016-12-16 2021-04-20 Qualcomm Incorporated Low power data generation for iris-related detection and authentication
US10614332B2 (en) * 2016-12-16 2020-04-07 Qualcomm Incorportaed Light source modulation for iris size adjustment
CN110633685B (zh) * 2019-09-20 2022-10-25 Oppo广东移动通信有限公司 人眼检测方法及相关产品
CN111638799B (zh) * 2020-06-09 2023-10-27 京东方科技集团股份有限公司 一种视线追踪方法、视线追踪装置、计算机设备和介质

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110119720A (zh) * 2019-05-17 2019-08-13 南京邮电大学 一种实时眨眼检测与人眼瞳孔中心定位方法

Also Published As

Publication number Publication date
US20220129660A1 (en) 2022-04-28
US11699303B2 (en) 2023-07-11
CN114511894A (zh) 2022-05-17

Similar Documents

Publication Publication Date Title
CN111738261B (zh) 基于位姿估计和校正的单图像机器人无序目标抓取方法
CN111640157B (zh) 一种基于神经网络的棋盘格角点检测方法及其应用
JP6011102B2 (ja) 物体姿勢推定方法
CN102999939B (zh) 坐标获取装置、实时三维重建系统和方法、立体交互设备
CN112132907B (zh) 一种相机标定方法、装置、电子设备及存储介质
CN108381549B (zh) 一种双目视觉引导机器人快速抓取方法、装置及存储介质
CN109034017A (zh) 头部姿态估计方法及机器可读存储介质
CN109079788B (zh) 一种基于人形机器人的国际象棋下棋方法及人形机器人
CN112348890B (zh) 一种空间定位方法、装置及计算机可读存储介质
CN111612765A (zh) 一种圆形透明镜片识别和定位的方法
CN114511894B (zh) 瞳孔中心坐标的获取系统及获取方法
CN107680035B (zh) 一种参数标定方法和装置、服务器及可读存储介质
CN114283079A (zh) 一种基于图卡拍摄校正的方法及设备
CN112184811A (zh) 单目空间结构光系统结构校准方法及装置
CN113313116A (zh) 一种基于视觉的水下人工目标准确检测与定位方法
CN113723432B (zh) 一种基于深度学习的智能识别、定位追踪的方法及系统
CN118485702B (zh) 高精度双目视觉测距方法
CN110223356A (zh) 一种基于能量生长的单目相机全自动标定方法
CN112580578B (zh) 双目活体摄像头人脸测距方法及系统
CN114862759A (zh) 一种长焦相机标定的高精度角点检测方法和系统
CN110909571A (zh) 一种高精度面部识别空间定位方法
CN116433848B (zh) 屏幕模型生成方法、装置、电子设备和存储介质
CN110956664A (zh) 一种手持式三维扫描系统的相机位置实时重定位方法
US20240242318A1 (en) Face deformation compensating method for face depth image, imaging device, and storage medium
CN116402904A (zh) 一种基于激光雷达间和单目相机的联合标定方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant