CN108259887A - 注视点校准方法及装置、注视点标定方法及装置 - Google Patents
注视点校准方法及装置、注视点标定方法及装置 Download PDFInfo
- Publication number
- CN108259887A CN108259887A CN201810330258.6A CN201810330258A CN108259887A CN 108259887 A CN108259887 A CN 108259887A CN 201810330258 A CN201810330258 A CN 201810330258A CN 108259887 A CN108259887 A CN 108259887A
- Authority
- CN
- China
- Prior art keywords
- eye
- image
- scene
- calibration
- right eye
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 74
- 238000013507 mapping Methods 0.000 claims abstract description 53
- 238000004891 communication Methods 0.000 claims description 15
- 230000000007 visual effect Effects 0.000 claims description 5
- 238000009434 installation Methods 0.000 claims 3
- 210000001508 eye Anatomy 0.000 description 246
- 238000010586 diagram Methods 0.000 description 15
- 238000004458 analytical method Methods 0.000 description 5
- 230000004424 eye movement Effects 0.000 description 5
- 230000004438 eyesight Effects 0.000 description 5
- 238000001028 reflection method Methods 0.000 description 5
- 230000008094 contradictory effect Effects 0.000 description 4
- 210000004087 cornea Anatomy 0.000 description 4
- 210000003128 head Anatomy 0.000 description 4
- 241000284156 Clerodendrum quadriloculare Species 0.000 description 3
- 239000011521 glass Substances 0.000 description 3
- 230000009191 jumping Effects 0.000 description 3
- 210000001747 pupil Anatomy 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 210000005252 bulbus oculi Anatomy 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Landscapes
- Eye Examination Apparatus (AREA)
Abstract
本发明提供了一种注视点校准方法及装置,以及提供了一种注视点标定方法及装置。所述注视点校准方法需要利用多组双目视差图像,每组双目视差图像中的左眼图像和右眼图像由同一个场景获得,每个场景中包括一个在场景坐标系中坐标已知的校准点;校准时,向左眼依次播放多张左眼图像,进行左眼注视点校准,得到关于左眼眼部特征和校准点坐标的左眼映射关系;向右眼依次播放多张右眼图像,进行右眼注视点校准,得到关于右眼眼部特征和校准点坐标的右眼映射关系。由于双目视差图像为立体图像,利用双目视差图像的左眼图像和右眼图像分别对左眼和右眼进行校准,得到的左眼映射关系和右眼映射关系与立体图像匹配精度更高。
Description
技术领域
本发明涉及视觉追踪技术领域,具体而言,涉及一种注视点校准方法及装置,以及一种注视点标定方法及装置。
背景技术
眼动分析仪器是当前虚拟现实、热点捕捉及人类日常行为检测的一种重要仪器设备,具有广泛的用途。在使用眼动分析仪器之前,即在利用眼动分析仪器对注视点进行标定之前,需要利用眼动分析仪器对注视点进行校准。所谓注视点,是指视知觉过程中,视线对准的对象的某一点。所谓校准,即在平面上依次显示坐标已知的校准点,眼部摄像机拍摄眼睛在观察每个校准点时的眼部特征,找到眼部特征与校准点坐标之间的映射关系。所谓对注视点进行标定,即在使用眼动分析仪器时,根据眼部摄像机拍摄的眼部特征和校准时确定的映射关系,确定注视点在平面上的位置,即得到注视点标定坐标。
目前常用的校准方法包括线性定标、极坐标定标、拟合及差值定标法等。然而目前任一一种校准方法均没有考虑到人的视觉特点,校准时均采用单一张平面图像进行,而没考虑到人体的左右视觉差异,无法精确反映出人眼视觉和实际物体之间的对应关系,具有一定的局限性。
如图1a所示,左右眼同时看到一个物体时,因为双眼看到物体的角度不同,会导致不同眼球视野中物体的位置有所差异。如图1b所示,人的视野角度范围也有一定的局限性,理论上是一个近似240度的半圆,也就是说正常人对自己身侧面和后面的事物是没有立体感的,有立体感的范围只有眼前150度左右。如图1c所示,从人能观察到的面前图像来看,一般人观察到的图像也不是完整的360度圆形区域,而是图中虚线所包含的类似心形区域。
综上所述,人所观察的图像和实际图像仅在一部分空间区域内能够较为重合,而且两眼所观察到的图像并不完全重合,因此传统的采用单一张平面图像无论是直角坐标系的方形区域还是极坐标的圆形图像都不能找到精准的映射关系,因此也不能完全精准地标定注视点。
发明内容
本发明的目的在于提供一种注视点校准方法及装置,以及一种注视点标定方法及装置,基于双目视觉分别对左右眼进行注视点校准,分别找到左右眼眼部特征与校准点坐标之间的映射关系,提高注视点标定精度。
为了实现上述目的,本发明实施例提供了以下技术方案:
一方面,本发明实施例提供了一种注视点校准方法,所述注视点校准方法需要利用多组双目视差图像,每组双目视差图像包括左眼图像和右眼图像,每组双目视差图像中的左眼图像和右眼图像由同一个场景获得,每个场景中包括一个在场景坐标系中坐标已知的点,所述坐标已知的点作为校准点;
所述注视点校准方法具体包括:
在测试者左眼注视每张左眼图像中的校准点期间,获取左眼的眼部特征,根据多个校准点坐标以及获取的多份左眼眼部特征,得到关于左眼眼部特征和校准点坐标的映射关系,作为左眼映射关系;
在测试者右眼注视每张右眼图像中的校准点期间,获取右眼的眼部特征,根据多个校准点坐标以及获取的多份右眼眼部特征,得到关于右眼眼部特征和校准点坐标的映射关系,作为右眼映射关系。
另一方面,本发明实施例同时提供了一种注视点校准装置,包括:
虚拟现实VR系统,用于将权1所述的双目视差图像的左眼图像和右眼图像分别显示给测试者的左眼和右眼;
眼部特征采集装置,在进行左眼注视点校准期间,采集测试者左眼的眼部特征图片;在进行右眼注视点校准期间,采集测试者右眼的眼部特征图片;以及,
中控模块,用于根据多个校准点在场景坐标系中的坐标,以及多张左眼眼部特征图片,计算出左眼映射关系;根据多个校准点在场景坐标系中的坐标,以及多张右眼眼部特征图片,计算出右眼映射关系。
进一步地,所述注视点校准装置还包括双目摄像装置,用于采集所述双目视差图像。
进一步地,注视点校准装置还包括通讯模块,所述中控模块可通过所述通讯模块接收由所述双目摄像装置远程传送而来的所述双目视差图像,并将所述双目视差图像传送给所述虚拟现实VR系统。
再一方面,本发明实施例同时提供了一种注视点标定方法,具体包括:
在测试者的左眼和右眼同时分别观察一组双目视差图像的左眼图像和右眼图像期间,获取测试者的左眼眼部特征和右眼眼部特征;所述双目视差图像的左眼图像和右眼图像由同一个场景获得,所述场景具有一场景坐标系;
根据左眼眼部特征,以及左眼映射关系,计算出左眼注视点在场景坐标系中的坐标;
根据右眼眼部特征,以及右眼映射关系,计算出右眼注视点在场景坐标系中的坐标;
根据左眼注视点在场景坐标系中的坐标,以及右眼注视点在场景坐标系中的坐标,判定测试者的注视点在场景坐标系中的坐标位于左眼注视点坐标与右眼注视点坐标之间。
再一方面,本发明实施例同时提供了一种注视点标定装置,包括:
虚拟现实VR系统,用于将双目视差图像的左眼图像和右眼图像分别显示给测试者的左眼和右眼;
眼部特征采集装置,在左眼观察左眼图像同时右眼观察右眼图像时,用于分别采集左眼的眼部特征图片和右眼的眼部特征图片;以及,
中控模块,用于根据左眼眼部特征,以及左眼映射关系,计算出左眼注视点在场景坐标系中的坐标;根据右眼眼部特征,以及右眼映射关系,计算出右眼注视点在场景坐标系中的坐标;并判定测试者的注视点在场景坐标系中的坐标位于左眼注视点坐标与右眼注视点坐标之间。
进一步地,所述注视点标定装置还包括双目摄像装置,用于采集所述双目视差图像。
进一步地,所述注视点标定装置还包括通讯模块,所述中控模块可通过所述通讯模块接收由所述双目摄像装置远程传送而来的所述双目视差图像,并将所述双目视差图像传送给所述虚拟现实VR系统。
与现有技术相比,本发明的有益效果在于:由于双目视差图像为立体图像,利用双目视差图像的左眼图像和右眼图像分别对左眼和右眼进行校准,得到的左眼映射关系和右眼映射关系与立体图像匹配精度更高。因此利用所述左眼映射关系和右眼映射关系进行注视点标定时,注视点标定误差更小。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简要介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关附图。
图1a所示为关于背景技术部分的参考图。
图1b所示为关于背景技术部分的参考图。
图1c所示为关于背景技术部分的参考图。
图2所示为本发明较佳实施例中注视点校准方法的流程图。
图3所示为实物场景中双目摄像装置的拍摄方法示意图。
图4所示为场景及校准点的示意图。
图5所示为另一种场景与校准点的示意图。
图6所示为实施例中提供的注视点校准装置的结构示意图。
图7所示为实施例中提供的另一种注视点校准装置的结构示意图。
图8所示为实施例中提供的再一种注视点校准装置的结构示意图。
图9所示为实施例中提供的左眼眼部特征采集装置的结构示意图。
图10所示为本发明较佳实施例中注视点标定方法的流程图。
图11a所示为实施例中提供的一种双眼注视点确定方法示意图。
图11b所示为实施例中提供的另一种双眼注视点确定方法示意图。
图中标号说明:
10-红外光源;20-眼部摄像机;30-第一滤光片;40-第二滤光片。
具体实施方式
下面将结合本发明实施例中附图,对本发明实施例中的技术方案进行清楚完整的描述。应当理解,此处所描述的具体实施例仅仅用于解释本发明,并不用于限定本发明。基于本发明的实施例,本领域技术人员在没有创造性劳动的前提下所获得的所有其他实施例,都属于本发明的保护范围。
请参阅图2所示,本实施例提供了一种注视点校准方法。
所述注视点校准方法需要利用多组双目视差图像,每组双目视差图像包括左眼图像和右眼图像,每组双目视差图像中的左眼图像和右眼图像由同一个场景获得,每个场景中包括一个在场景坐标系中坐标已知的点,所述坐标已知的点作为校准点;
所述注视点校准方法具体包括:
在测试者左眼注视每张左眼图像中的校准点期间,获取左眼的眼部特征,根据多个校准点坐标以及获取的多份左眼眼部特征,得到关于左眼眼部特征和校准点坐标的映射关系,作为左眼映射关系;
在测试者右眼注视每张右眼图像中的校准点期间,获取右眼的眼部特征,根据多个校准点坐标以及获取的多份右眼眼部特征,得到关于右眼眼部特征和校准点坐标的映射关系,作为右眼映射关系。
基于上述方法,以下将给出一些具体实施方式,在互不矛盾的前提下,各具体实施方式可相互组合,形成具体方法。
例如,请参阅图3所示。所述场景可以是实物场景,双目视差图像的左眼图像和右眼图像可利用双目摄像装置从实物场景中采集获得。双目摄像装置在采集多组图像期间,双目摄像装置在场景坐标系中的位置固定。而校准点根据人为控制在场景坐标系中跳动,校准点每次跳动后的坐标是已知的。校准点每跳动一次,双目摄像装置采集一次图像,所述图像包括左眼图像和右眼图像,校准点应同时落入左眼图像和右眼图像中。图3中列出了几组拍摄示意图,每组示意图对应一次拍摄。
例如,所述场景又可以是虚拟场景,所述虚拟场景可利用现有的虚拟现实图形生成技术合成。因此双目视差图像的左眼图像和右眼图像是直接由计算机制作生成的。每组双目视差图像所对应的校准点在虚拟场景坐标系中的坐标已知,并且校准点应同时落入左眼图像和右眼图像中。
例如,请参阅图4所示。无论所述场景是实物场景还是虚拟场景,所述场景中可以包括一个平面,所述平面被单元格均分,所述校准点在场景坐标系中的坐标不同。所述校准点位于该平面内,且所述校准点位于单元格的顶点。对于各组双目视差图像所对应的场景,所述平面在场景坐标系中的位置都是相同的,并且由相同的单元格均分。但不同的是,各个场景中,校准点在平面中位于不同的单元格顶点。
例如,请参阅图5所示。无论所述场景是实物场景还是虚拟场景,所述场景中校准点的跳动位置可以不必限定于某一平面内。但是即使校准点的跳动位置不限定于某一平面内,应当理解的,校准点每次跳动后的坐标仍然应该是已知的。
例如,可借助虚拟现实VR系统分别向左眼播放左眼图像,和向右眼播放右眼图像。比如所述虚拟现实VR系统中存储有多组双目视差图像,每组双目视差图像的左眼图像和右眼图像通过虚拟现实VR系统分别进入测试者的左眼和右眼。在进行左眼注视点校准期间,虚拟现实VR系统将右眼视场置黑,虚拟现实VR系统向左眼依次播放多张左眼图像。在进行右眼注视点校准期间,虚拟现实VR系统将左眼视场置黑,虚拟现实VR系统向左眼依次播放多张左眼图像。比如所述虚拟现实VR系统可选用虚拟现实头戴式显示设备,如VR眼镜。
例如,可通过现有方法-角膜反射法获取左眼眼部特征。如果整个眼球是个标准的球体随圆心自转,则反光点是固定不动的。但是眼球的真实情况是角膜是从眼球表面凸出的,因此当眼球运动时,光以变化的角度射到角膜,得到不同方向的反射光。基于角膜反射法,可以在眼睛前方设置相机和红外光源,红外光源发射的红外光经过角膜反射和通过一些反射镜、透镜输入到相机。继而图像处理眼图并使用一些相对应的算法来确定角膜反射光的位置。
例如,还可通过其他现有方法获得左眼眼部特征,如瞳孔-角膜反射向量法、巩膜-虹膜边缘法、双普尔钦像法等等。由于上述方法为现有方法,因此本实施例不再对上述方法进行进一步详细说明。
例如,根据获得的左眼眼部特征,提取左眼眼部特征数据的具体方法包括但不限于亮暗瞳孔法、Starburst算法、圆周差分算法等现有方法。
例如,在求解左眼映射关系时,可利用经典的瞳孔-角膜反射光斑差值拟合法。其中建立二次回归模型xv=a0+a1xe+a2ye+a3xeye+a4xe 2+a5ye 2;yv=b0+b1ye+b2xe+b3xeye+b4ye 2+b5xe 2。其中,(xv,yv)为场景坐标系中的注视点坐标位置;(xe,ye)为瞳孔-角膜坐标值组成的向量,该向量在眼睛坐标系中,或者在眼睛摄像机坐标系中,该坐标值可通过前述角膜反射法获得。将所述二次回归模型作为左眼映射关系之前,需要求出a0~a5和b0~b5这12个参数。求解这12个参数的方法为,依次向左眼播放12张左眼图像,在左眼观察左眼图像中的校准点时,利用红外光源和眼部摄像机,以及基于角膜反射法计算出12组(xe,ye)坐标。根据12张左眼图像中相应校准点的12组已知(xv,yv)坐标,以及以上12组(xe,ye)坐标,计算出12个参数。将12个参数带入二次回归模型中,该二次回归模型即可作为左眼映射关系。应当理解的,对于右眼映射关系,也可利用上述方法求出。同时应当理解的,左右眼校准先后顺序不作限定。
例如,在进行左眼注视点校准时,还可以利用现有的其他校准方法,例如最小二乘拟合法,基于普尔钦斑点的人眼视线方向检测法等等。应当理解的,对于右眼映射关系,也可利用上述方法求出。同时应当理解的,左右眼校准先后顺序不作限定。
对于现有的常规校准方法,均采用单一张平面图像对左右眼进行校准,没有考虑到左右眼视差,因此其得到的映射关系与三维场景之间存在较大匹配误差。而本实施例提供的方法中,由于双目视差图像为立体图像,利用双目视差图像的左眼图像和右眼图像分别对左眼和右眼进行校准,得到的左眼映射关系和右眼映射关系与立体图像匹配精度更高。
请参阅图6所示,基于上述注视点校准方法,本实施例同时提供了一种注视点校准装置。
所述注视点校准装置包括:
虚拟现实VR系统,用于上述双目视差图像的左眼图像和右眼图像分别显示给测试者的左眼和右眼;
眼部特征采集装置,在进行左眼注视点校准期间,采集测试者左眼的眼部特征图片;在进行右眼注视点校准期间,采集测试者右眼的眼部特征图片;以及,
中控模块,用于根据多个校准点在场景坐标系中的坐标,以及多张左眼眼部特征图片,计算出左眼映射关系;根据多个校准点在场景坐标系中的坐标,以及多张右眼眼部特征图片,计算出右眼映射关系。
基于上述装置,以下将给出一些具体实施方式,在互不矛盾的前提下,各具体实施方式可相互组合,形成具体装置。
例如,所述虚拟现实VR系统可选用虚拟现实头戴式显示设备,如VR眼镜。
例如,所述虚拟现实VR系统中存储有多组双目视差图像,或者置入所述虚拟现实VR系统的其他电子设备中存储有多组双目视差图像,所述双目视差图像可来源于事先拍摄的实物场景,或者来源于事先电脑合成的虚拟场景。在左眼或右眼注视点校准期间,虚拟现实VR系统直接从自身调用双目视差图像的左眼图像和右眼图像,分别向左眼和右眼播放。
例如,请参阅图7所示,所述注视点校准装置还可以包括双目摄像装置,用于采集所述双目视差图像。所述双目摄像装置通过图像采集卡将采集的双目视差图像传输给中控模块,再由中控模块将双目视差图像送入虚拟现实VR系统。在左眼注视点校准期间,校准点在实物场景中依次跳动,校准点每跳动一次,双目摄像装置拍摄一张左眼图片,并将左眼图片传输给虚拟现实VR系统,使之播放给测试者的左眼。在右眼注视点校准期间,校准点在实物场景中按照和左眼校准时同样的顺序跳动,校准点每跳动一次,双目摄像装置拍摄一张右眼图片,并将右眼图片传输给虚拟现实VR系统,使之播放给测试者的右眼。应当理解的,左右眼校准先后顺序不作限定。
例如,请参阅图8所示,所述注视点校准装置还可以包括通讯模块。此时双目摄像装置可通过多种无线传输方式与中控模块连接,可以利用远程的实物场景进行左眼和右眼注视点校准。比如设置专门的校准实验室,实验室中布置有用于左眼和右眼注视点校准的实物场景和双目摄像装置,校准期间,用户的中控模块通过通讯模块远程接收校准实验室中的双目摄像装置拍摄的双目视差图像,进行校准。比如通讯模块可选3G、4G或5G通讯模块。
例如,所述眼部特征采集装置包括左眼眼部特征采集装置和右眼眼部特征采集装置。请参阅图9所示,所述左眼眼部特征采集装置包括红外光源10、眼部摄像机20、第一滤光片30和第二滤光片40。其中第一滤光片30具有红外反射性能,位于眼睛前方,以及位于红外光源10和眼部摄像机40下方,要做到既不妨碍左眼对左眼图像的观察,又覆盖眼部摄像机20的照射范围,使眼部摄像机20采集到清晰的左眼特征图片。第二滤光片40具有红外投射性能,位于眼部摄像机20镜头上,可以滤除进入眼部摄像机20的其它光,保证进入眼部摄像机20的绝大部分是红外光。使用时,红外光源10发出的红外光经第一滤光片反射30,照射到眼睛所在区域。红外光经过眼睛反射和第一滤光片30第二次反射后,到达镜头,第二滤光片40滤除杂光后,眼部摄像机20采集到清晰的左眼特征图片。眼部摄像机20经过图像采集卡将左眼特征图片送入中控模块。
例如,所述中控模块可以选用微处理器,所述微处理器中用于计算左眼映射关系和右眼映射关系的程序,所述程序可根据现有的计算方法编写,现有计算方法如亮暗瞳孔法、Starburst算法、圆周差分算法等等。
请参阅图10所示,本实施例基于上述注视点校准方法,还提供了一种注视点标定方法。
所述注视点标定方法具体包括:
在测试者的左眼和右眼同时分别观察一组双目视差图像的左眼图像和右眼图像期间,获取测试者的左眼眼部特征和右眼眼部特征;所述双目视差图像的左眼图像和右眼图像由同一个场景获得,所述场景具有一场景坐标系;
根据左眼眼部特征,以及左眼映射关系,计算出左眼注视点在场景坐标系中的坐标;
根据右眼眼部特征,以及右眼映射关系,计算出右眼注视点在场景坐标系中的坐标;
根据左眼注视点在场景坐标系中的坐标,以及右眼注视点在场景坐标系中的坐标,判定测试者的注视点在场景坐标系中的坐标位于左眼注视点坐标与右眼注视点坐标之间。
基于上述方法,以下将给出一些具体实施方式,在互不矛盾的前提下,各具体实施方式可相互组合,形成具体方法。
例如,所述双目视差图像可来源于实物场景,所述实物场景具有坐标系。双目视差图像又实物场景中的双目摄像装置拍摄获得。双目摄像装置可以通过无线或有线通讯模块与虚拟现实VR系统连接,虚拟现实VR系统将双目视差图像播放给左右眼。标定期间,实物场景中的双目摄像装置固定不动,而佩戴在检测者头部的虚拟现实VR系统可随检测者头部随意运动。
例如,所述双目视差图像可来源于实物场景,所述实物场景具有坐标系。双目视差图像又实物场景中的双目摄像装置拍摄获得,双目摄像装置与虚拟现实VR系统固定连接,虚拟现实VR系统将双目视差图像播放给左右眼。标定期间,测试者头部保持不动,使双目摄像装置也相对实物场景坐标系保持静止。或者标定期间,双目摄像装置可跟随检测者的头部随意运动,但此时需要增加另一个固定摄像头和计算单元,来计算双目摄像装置相对实物场景坐标系的位移量。
例如,所述双目视差图像可来源于实物场景,但所述实物场景预先存储于虚拟现实VR系统中。因此标定期间不需要用到双目摄像装置。
例如,所述双目视差图像又可来源于由电脑合成的虚拟图像,可利用现有的虚拟现实图形生成技术合成。虚拟图像的场景中具有一坐标系,虚拟图像由左眼图像和右眼图像组成。所述虚拟图像预先存储于虚拟现实VR系统中。
例如,可通过前述方法,如角膜反射法、瞳孔-角膜反射向量法、巩膜-虹膜边缘法、双普尔钦像法等等,获得左眼眼部特征。通过前述方法,如亮暗瞳孔法、Starburst算法、圆周差分算法等方法提取左眼眼部特征数据。对于右眼,其方法同左眼。
例如,将提取出的左眼眼部特征数据,即由瞳孔-角膜坐标值组成的向量ZY(xe,ye),带入到左眼映射关系中,即xv=a0+a1xe+a2ye+a3xeye+a4xe 2+a5ye 2;yv=b0+b1ye+b2xe+b3xeye+b4ye 2+b5xe 2中,其中的12个参数一求出。就可以求出左眼的注视点在场景坐标系中的坐标ZY(xv,yv)。对于右眼,其方法同左眼,求出右眼的注视点在场景坐标系中的坐标YY(xv,yv)。
例如,分别求出ZY(xv,yv)和YY(xv,yv)后。请参阅图11a所示,最终双眼注视点SY在场景坐标系中的位置可以选定为ZY(xv,yv)、YY(xv,yv)两点连线的中点。或者请参阅图11b所示,最终双眼注视点SY在场景坐标系中的位置可以选定:落在以ZY(xv,yv)、YY(xv,yv)两点连线为直径的球体中。应当理解的,最终双眼注视点SY在场景坐标系中的位置的确定方式并不局限于上述两种举例。
基于上述注视点标定方法,本实施例同时提供了一种注视点标定装置,请参阅图6所示的硬件结构。
所述注视点校准装置包括:
虚拟现实VR系统,用于将双目视差图像的左眼图像和右眼图像分别显示给测试者的左眼和右眼;
眼部特征采集装置,在左眼观察左眼图像同时右眼观察右眼图像时,用于分别采集左眼的眼部特征图片和右眼的眼部特征图片;以及,
中控模块,用于根据左眼眼部特征,以及左眼映射关系,计算出左眼注视点在场景坐标系中的坐标;根据右眼眼部特征,以及右眼映射关系,计算出右眼注视点在场景坐标系中的坐标;并判定测试者的注视点在场景坐标系中的坐标位于左眼注视点坐标与右眼注视点坐标之间。
基于上述装置,以下将给出一些具体实施方式,在互不矛盾的前提下,各具体实施方式可相互组合,形成具体装置。
例如,所述虚拟现实VR系统可选用虚拟现实头戴式显示设备,如VR眼镜。
例如,所述虚拟现实VR系统中存储有多组双目视差图像,或者置入所述虚拟现实VR系统的其他电子设备中存储有多组双目视差图像,所述双目视差图像可来源于事先拍摄的实物场景,或者来源于事先电脑合成的虚拟场景。标定期间,虚拟现实VR系统用于同时向左眼和右眼分别播放左眼图像和右眼图像。
例如,请参阅图7所示的硬件结构,所述注视点标定装置还可以包括双目摄像装置,用于采集所述双目视差图像。所述双目摄像装置通过图像采集卡将采集的双目视差图像传输给中控模块,再由中控模块送入虚拟现实VR系统。
例如,请参阅图8所示的硬件结构,所述注视点标定装置还可以包括通讯模块,此时双目摄像装置可通过多种无线传输方式与中控模块连接,测试者可以对远程物体和景色等进行注视点标定,解决了人必须到达现场进行注视点标定的问题。对于所述通讯模块,比如可选3G、4G或5G通讯模块。
例如,所述眼部特征采集装置包括左眼眼部特征采集装置和右眼眼部特征采集装置。所述左眼眼部特征采集装置和右眼眼部特征采集装置的具体结构可同于图9所示的硬件结构。
例如,所述中控模块可以选用微处理器,所述微处理器中存储有利用上述注视点校准方法求得的左眼映射关系和右眼映射关系。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员,在本发明揭露的技术范围内,可轻易想到变化或替换,都应该涵盖在本发明的保护范围内。
Claims (10)
1.一种注视点校准方法,其特征在于,所述注视点校准方法需要利用多组双目视差图像,每组双目视差图像包括左眼图像和右眼图像,每组双目视差图像中的左眼图像和右眼图像由同一个场景获得,每个场景中包括一个在场景坐标系中坐标已知的点,所述坐标已知的点作为校准点;
所述注视点校准方法具体包括:
在测试者左眼注视每张左眼图像中的校准点期间,获取左眼的眼部特征,根据多个校准点坐标以及获取的多份左眼眼部特征,得到关于左眼眼部特征和校准点坐标的映射关系,作为左眼映射关系;
在测试者右眼注视每张右眼图像中的校准点期间,获取右眼的眼部特征,根据多个校准点坐标以及获取的多份右眼眼部特征,得到关于右眼眼部特征和校准点坐标的映射关系,作为右眼映射关系。
2.根据权利要求1所述的注视点校准方法,其特征在于,对于多组双目视差图像所对应的场景,各个场景之间具有相同内容和不同内容;
其中相同内容在于,每个场景中均具有一个平面,且每个平面在场景坐标系中的坐标相同,每个平面被相同的单元格均分,所述校准点位于该平面内,且所述校准点位于单元格的顶点;
其中不同内容在于,对于各个场景,所述校准点在平面中位于不同的单元格顶点。
3.根据权利要求1所述的注视点校准方法,其特征在于,每组双目视差图像的左眼图像和右眼图像通过虚拟现实VR系统分别进入测试者的左眼和右眼,在进行左眼注视点校准期间,虚拟现实VR系统将右眼视场置黑,在进行右眼注视点校准期间,虚拟现实VR系统将左眼视场置黑。
4.一种注视点校准装置,其特征在于,包括:
虚拟现实VR系统,用于将权1所述的双目视差图像的左眼图像和右眼图像分别显示给测试者的左眼和右眼;
眼部特征采集装置,在进行左眼注视点校准期间,采集测试者左眼的眼部特征图片;在进行右眼注视点校准期间,采集测试者右眼的眼部特征图片;以及,
中控模块,用于根据多个校准点在场景坐标系中的坐标,以及多张左眼眼部特征图片,计算出左眼映射关系;根据多个校准点在场景坐标系中的坐标,以及多张右眼眼部特征图片,计算出右眼映射关系。
5.根据权利要求4所述的注视点校准装置,其特征在于,还包括双目摄像装置,用于采集所述双目视差图像。
6.根据权利要求5所述的注视点校准装置,其特征在于,还包括通讯模块,所述中控模块可通过所述通讯模块接收由所述双目摄像装置远程传送而来的所述双目视差图像,并将所述双目视差图像传送给所述虚拟现实VR系统。
7.一种注视点标定方法,其特征在于,具体包括:
在测试者的左眼和右眼同时分别观察一组双目视差图像的左眼图像和右眼图像期间,获取测试者的左眼眼部特征和右眼眼部特征;所述双目视差图像的左眼图像和右眼图像由同一个场景获得,所述场景具有一场景坐标系;
根据左眼眼部特征,以及左眼映射关系,计算出左眼注视点在场景坐标系中的坐标;
根据右眼眼部特征,以及右眼映射关系,计算出右眼注视点在场景坐标系中的坐标;
根据左眼注视点在场景坐标系中的坐标,以及右眼注视点在场景坐标系中的坐标,判定测试者的注视点在场景坐标系中的坐标位于左眼注视点坐标与右眼注视点坐标之间。
8.一种注视点标定装置,其特征在于,包括:
虚拟现实VR系统,用于将双目视差图像的左眼图像和右眼图像分别显示给测试者的左眼和右眼;
眼部特征采集装置,在左眼观察左眼图像同时右眼观察右眼图像时,用于分别采集左眼的眼部特征图片和右眼的眼部特征图片;以及,
中控模块,用于根据左眼眼部特征,以及左眼映射关系,计算出左眼注视点在场景坐标系中的坐标;根据右眼眼部特征,以及右眼映射关系,计算出右眼注视点在场景坐标系中的坐标;并判定测试者的注视点在场景坐标系中的坐标位于左眼注视点坐标与右眼注视点坐标之间。
9.根据权利要求8所述的注视点标定装置,其特征在于,还包括双目摄像装置,用于采集所述双目视差图像。
10.根据权利要求9所述的注视点标定装置,其特征在于,还包括通讯模块,所述中控模块可通过所述通讯模块接收由所述双目摄像装置远程传送而来的所述双目视差图像,并将所述双目视差图像传送给所述虚拟现实VR系统。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810330258.6A CN108259887B (zh) | 2018-04-13 | 2018-04-13 | 注视点校准方法及装置、注视点标定方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810330258.6A CN108259887B (zh) | 2018-04-13 | 2018-04-13 | 注视点校准方法及装置、注视点标定方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108259887A true CN108259887A (zh) | 2018-07-06 |
CN108259887B CN108259887B (zh) | 2020-01-31 |
Family
ID=62748203
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810330258.6A Active CN108259887B (zh) | 2018-04-13 | 2018-04-13 | 注视点校准方法及装置、注视点标定方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108259887B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109032351A (zh) * | 2018-07-16 | 2018-12-18 | 北京七鑫易维信息技术有限公司 | 注视点函数确定方法、注视点确定方法、装置及终端设备 |
CN109044263A (zh) * | 2018-07-13 | 2018-12-21 | 北京七鑫易维信息技术有限公司 | 眼睛视线的检测方法、装置、设备及存储介质 |
CN109240497A (zh) * | 2018-08-28 | 2019-01-18 | 北京航空航天大学青岛研究院 | 一种在虚拟现实场景中的眼动追踪自动校准方法 |
CN110399930A (zh) * | 2019-07-29 | 2019-11-01 | 北京七鑫易维信息技术有限公司 | 一种数据处理方法及系统 |
CN112101064A (zh) * | 2019-06-17 | 2020-12-18 | 北京七鑫易维科技有限公司 | 一种视线追踪方法、装置、设备及存储介质 |
CN112578901A (zh) * | 2019-09-30 | 2021-03-30 | Oppo广东移动通信有限公司 | 眼球追踪校准方法及相关设备 |
CN113283402A (zh) * | 2021-07-21 | 2021-08-20 | 北京科技大学 | 一种差分式二维注视点检测方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010259605A (ja) * | 2009-05-01 | 2010-11-18 | Nippon Hoso Kyokai <Nhk> | 視線測定装置および視線測定プログラム |
CN106659380A (zh) * | 2014-06-12 | 2017-05-10 | Sr实验室有限公司 | 校准眼动仪的设备和方法及包括校准设备的眼睛控制装置 |
CN107450720A (zh) * | 2016-05-31 | 2017-12-08 | Fove股份有限公司 | 视线检测系统 |
US20170364149A1 (en) * | 2014-12-16 | 2017-12-21 | Koninklijke Philips N.V. | Gaze tracking system with calibration improvement, accuracy compensation, and gaze localization smoothing |
-
2018
- 2018-04-13 CN CN201810330258.6A patent/CN108259887B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010259605A (ja) * | 2009-05-01 | 2010-11-18 | Nippon Hoso Kyokai <Nhk> | 視線測定装置および視線測定プログラム |
CN106659380A (zh) * | 2014-06-12 | 2017-05-10 | Sr实验室有限公司 | 校准眼动仪的设备和方法及包括校准设备的眼睛控制装置 |
US20170364149A1 (en) * | 2014-12-16 | 2017-12-21 | Koninklijke Philips N.V. | Gaze tracking system with calibration improvement, accuracy compensation, and gaze localization smoothing |
CN107450720A (zh) * | 2016-05-31 | 2017-12-08 | Fove股份有限公司 | 视线检测系统 |
Non-Patent Citations (2)
Title |
---|
DEVENDER KUMAR等: "Electrooculogram-based virtual reality game control using blink detection and gaze calibration", 《2016 INTERNATIONAL CONFERENCE ON ADVANCES IN COMPUTING, COMMUNICATIONS AND INFORMATICS (ICACCI)》 * |
张显勇: "眼动仪注视点定位技术研究", 《中国优秀硕士学位论文全文数据库》 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109044263A (zh) * | 2018-07-13 | 2018-12-21 | 北京七鑫易维信息技术有限公司 | 眼睛视线的检测方法、装置、设备及存储介质 |
WO2020010868A1 (zh) * | 2018-07-13 | 2020-01-16 | 北京七鑫易维信息技术有限公司 | 眼睛视线的检测方法、装置、设备及存储介质 |
CN109032351A (zh) * | 2018-07-16 | 2018-12-18 | 北京七鑫易维信息技术有限公司 | 注视点函数确定方法、注视点确定方法、装置及终端设备 |
CN109032351B (zh) * | 2018-07-16 | 2021-09-24 | 北京七鑫易维信息技术有限公司 | 注视点函数确定方法、注视点确定方法、装置及终端设备 |
CN109240497A (zh) * | 2018-08-28 | 2019-01-18 | 北京航空航天大学青岛研究院 | 一种在虚拟现实场景中的眼动追踪自动校准方法 |
CN109240497B (zh) * | 2018-08-28 | 2021-07-13 | 北京航空航天大学青岛研究院 | 一种在虚拟现实场景中的眼动追踪自动校准方法 |
CN112101064A (zh) * | 2019-06-17 | 2020-12-18 | 北京七鑫易维科技有限公司 | 一种视线追踪方法、装置、设备及存储介质 |
CN112101064B (zh) * | 2019-06-17 | 2024-07-05 | 北京七鑫易维科技有限公司 | 一种视线追踪方法、装置、设备及存储介质 |
CN110399930A (zh) * | 2019-07-29 | 2019-11-01 | 北京七鑫易维信息技术有限公司 | 一种数据处理方法及系统 |
CN110399930B (zh) * | 2019-07-29 | 2021-09-03 | 北京七鑫易维信息技术有限公司 | 一种数据处理方法及系统 |
CN112578901A (zh) * | 2019-09-30 | 2021-03-30 | Oppo广东移动通信有限公司 | 眼球追踪校准方法及相关设备 |
CN113283402A (zh) * | 2021-07-21 | 2021-08-20 | 北京科技大学 | 一种差分式二维注视点检测方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN108259887B (zh) | 2020-01-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108259887B (zh) | 注视点校准方法及装置、注视点标定方法及装置 | |
CN103558909B (zh) | 交互投射显示方法及交互投射显示系统 | |
Hennessey et al. | Noncontact binocular eye-gaze tracking for point-of-gaze estimation in three dimensions | |
US20200341284A1 (en) | Information processing apparatus, information processing method, and recording medium | |
CN104089606B (zh) | 一种自由空间视线跟踪测量方法 | |
WO2023011339A1 (zh) | 视线方向追踪方法和装置 | |
CN105992965A (zh) | 响应于焦点移位的立体显示 | |
WO2015027599A1 (zh) | 内容投射系统及内容投射方法 | |
WO2005063114A1 (ja) | 視線検出方法および装置ならびに三次元視点計測装置 | |
CN109429060B (zh) | 瞳孔距离测量方法、可穿戴眼部设备及存储介质 | |
CN110251066A (zh) | 基于主观距离计量测量眼睛屈光不正的系统和方法 | |
JP2010259605A (ja) | 視線測定装置および視線測定プログラム | |
CN111248851B (zh) | 一种视功能自测方法 | |
KR102093953B1 (ko) | 피검자의 비전 파라미터들을 결정하는 것을 돕는 방법 | |
WO2015051605A1 (zh) | 图像采集定位方法及图像采集定位装置 | |
CN104090371A (zh) | 一种3d眼镜及3d显示系统 | |
CN106293100A (zh) | 虚拟现实设备中视线焦点的确定方法及虚拟现实设备 | |
JP2018099174A (ja) | 瞳孔検出装置及び瞳孔検出方法 | |
JP2023179017A (ja) | 電子機器 | |
JP2019215688A (ja) | 自動キャリブレーションを行う視線計測装置、視線計測方法および視線計測プログラム | |
CN112336301B (zh) | 斜视测量设备 | |
CN108537103B (zh) | 基于瞳孔轴测量的活体人脸检测方法及其设备 | |
US20210096368A1 (en) | Head-mounted display apparatus and method employing dynamic eye calibration | |
JP2017191546A (ja) | 医療用ヘッドマウントディスプレイ、医療用ヘッドマウントディスプレイのプログラムおよび医療用ヘッドマウントディスプレイの制御方法 | |
CN114052649A (zh) | 一种基于虚拟现实和眼动追踪技术的交替遮盖斜视诊断方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |