CN111857461B - 图像显示方法、装置、电子设备及可读存储介质 - Google Patents
图像显示方法、装置、电子设备及可读存储介质 Download PDFInfo
- Publication number
- CN111857461B CN111857461B CN202010605425.0A CN202010605425A CN111857461B CN 111857461 B CN111857461 B CN 111857461B CN 202010605425 A CN202010605425 A CN 202010605425A CN 111857461 B CN111857461 B CN 111857461B
- Authority
- CN
- China
- Prior art keywords
- position information
- screen
- user
- distance
- eye
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 60
- 230000006870 function Effects 0.000 claims description 84
- 210000001747 pupil Anatomy 0.000 claims description 20
- 230000011514 reflex Effects 0.000 claims description 8
- 238000010586 diagram Methods 0.000 description 12
- 210000004279 orbit Anatomy 0.000 description 10
- 230000000694 effects Effects 0.000 description 4
- 239000011521 glass Substances 0.000 description 3
- 239000011248 coating agent Substances 0.000 description 2
- 238000000576 coating method Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请公开了一种图像显示方法、装置、电子设备及可读存储介质,属于通信技术领域。图像显示方法包括:获取摄像头采集的用户的脸部图像中的第一眼睛数据,并确定用户的眼睛与屏幕之间的目标距离,根据目标距离以及第一眼睛数据,确定用户的眼睛注视的屏幕位置信息,获取用户的眼睛的空间位置信息,根据屏幕位置信息、以及空间位置信息,确定目标图像,并显示目标图像。从而无需再通过移动电子设备的位置,以观看到不同的画面内容,解决了用户操作不方便的问题。
Description
技术领域
本申请属于通信技术领域,具体涉及一种图像显示方法、装置、电子设备及可读存储介质。
背景技术
随着电子设备的应用越来越广泛,越来越多的人几乎每天都会使用电子设备,用户通过电子设备的屏幕可以查看电子设备上的图片、文本内容等。
在实现本申请过程中,发明人发现现有技术中至少存在如下问题:由于电子设备的屏幕只能显示与屏幕尺寸相同的画面,如果需要看到更多的屏幕画面,则需要用户转动电子设备或者滑动屏幕上的对象(例如在查看图片时,如果图片比较大,需要用户上下左右滑动图片,才能看到该图片的所有内容),因此,若用户需要看到更多的屏幕画面,造成用户操作不方便的问题。
发明内容
本申请实施例的目的是提供一种图像显示方法、装置、电子设备及可读存储介质,能够解决现有技术中,若用户需要看到更多的屏幕画面,造成用户操作不方便的问题。
为了解决上述技术问题,本申请是这样实现的:
第一方面,本申请实施例提供了一种图像显示方法,其特征在于,该方法包括:
获取摄像头采集的用户的脸部图像中的第一眼睛数据,并确定所述用户的眼睛与所述屏幕之间的目标距离;
根据所述目标距离以及所述第一眼睛数据,确定所述用户的眼睛注视的屏幕位置信息;
获取所述用户的眼睛的空间位置信息;
根据所述屏幕位置信息、以及所述空间位置信息,确定目标图像,并显示所述目标图像。
第二方面,本申请实施例提供了一种图像显示装置,该装置包括:
第一获取模块,用于获取摄像头采集的用户的脸部图像中的第一眼睛数据,并确定所述用户的眼睛与所述屏幕之间的目标距离;
第一确定模块,用于根据所述目标距离以及所述第一眼睛数据,确定所述用户的眼睛注视的屏幕位置信息;
第二获取模块,用于获取所述用户的眼睛的空间位置信息;
显示模块,用于根据所述屏幕位置信息、以及所述空间位置信息,确定目标图像,并显示所述目标图像。
第三方面,本申请实施例提供了一种电子设备,该电子设备包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的程序或指令,所述程序或指令被所述处理器执行时实现如第一方面所述的方法的步骤。
第四方面,本申请实施例提供了一种计算机可读存储介质,所述可读存储介质上存储程序或指令,所述程序或指令被处理器执行时实现如第一方面所述的方法的步骤。
第五方面,本申请实施例提供了一种芯片,所述芯片包括处理器和通信接口,所述通信接口和所述处理器耦合,所述处理器用于运行程序或指令,实现如第一方面所述的方法。
在本申请实施例中,通过获取摄像头采集的用户的脸部图像中的第一眼睛数据,并确定用户的眼睛与屏幕之间的目标距离,根据目标距离以及第一眼睛数据,确定用户的眼睛注视的屏幕位置信息,获取用户的眼睛的空间位置信息,根据屏幕位置信息、以及空间位置信息,确定目标图像,并显示目标图像。由于根据目标距离、以及第一眼睛数据,确定屏幕位置信息,也即屏幕位置信息与目标距离有关,进而根据屏幕位置信息、以及空间位置信息,确定目标图像,并显示目标图像。因此,当用户观看电子设备上显示的画面时,用户若需要看到更多的屏幕画面,用户可以歪下头,从而实时获取歪下头后的眼睛的空间位置信息以及屏幕注视位置信息,即可以改变目标图像。或者用户若需要看到更多的屏幕画面,用户可以改变自己的眼睛与屏幕之间的距离,就可以看到不同的画面内容。从而无需再通过移动电子设备的位置,以观看到不同的画面内容,解决了用户操作不方便的问题。
附图说明
图1是本申请实施例中提供的一种图像显示方法的步骤流程图;
图2是本申请实施例中提供的一种电子设备的示意图;
图3是本申请实施例提供的一种标定位置的示意图;
图4是本申请实施例提供的一种投影方法的示意图;
图5是本申请实施例提供的另一种图像显示方法的步骤流程图;
图6是本申请实施例中提供的一种图像显示装置的结构示意图;
图7是本申请实施例中提供的另一种图像显示装置的结构示意图;
图8为实现本申请实施例的一种电子设备的硬件结构示意图;
图9为实现本申请实施例的另一种电子设备的硬件结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请的说明书和权利要求书中的术语“第一”、“第二”等是用于区别类似的对象,而不用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,说明书以及权利要求中“和/或”表示所连接对象的至少其中之一,字符“/”,一般表示前后关联对象是一种“或”的关系。
下面结合附图,通过具体的实施例及其应用场景对本申请实施例提供的图像显示方法进行详细地说明。
参照图1,图1是本申请实施例中提供的一种图像显示方法的步骤流程图,该方法可以包括如下步骤:
步骤101、获取摄像头采集的用户的脸部图像中的第一眼睛数据,并确定用户的眼睛与屏幕之间的目标距离。
参照图2,图2是本申请实施例中提供的一种电子设备的示意图。该电子设备上安装有红外线(IR,Infrared Radiation)摄像头、RGB摄像头和激光发射器,红(R)、绿(G)、蓝(B),RGB即是代表红、绿、蓝三个通道的颜色。当用户的眼睛注视电子设备的屏幕上显示的对象时,红外线摄像头可以采集到用户的IR风格的脸部图像,RGB摄像头可以采集到用户的RGB风格的脸部图像。
用户可以为使用电子设备的任意一个用户,当用户使用电子设备观看屏幕上显示的对象时(例如观看二维图片或三维物体时),获取摄像头采集的用户的脸部图像,并通过人脸位置检测模型,识别出脸部图像中的人脸位置,然后根据眼睛区域占人脸区域的预设比例和预设位置,确定脸部图像中的眼睛图像区域,进而通过边缘提取算子(例如sobel算子或Roberts算子等)计算得到眼睛图像区域中的眼眶边缘坐标、瞳孔边缘坐标,将眼眶边缘坐标和瞳孔边缘坐标作为第一眼睛数据。例如,参照图2,在电子设备上安装有红外线摄像头和RGB摄像头的情况下,可以获取IR风格的脸部图像中的第一眼睛数据、以及RGB风格的脸部图像中的第一眼睛数据。
需要说明的是,在电子设备具有激光发射器的情况下,还可以通过边缘提取算子得到激光在眼睛图像区域中的眼睛上的反光亮点的边缘坐标,将眼眶边缘坐标、瞳孔边缘坐标、以及反光亮点的边缘坐标作为第一眼睛数据。可以仅获得左眼的眼眶边缘坐标、瞳孔边缘坐标、以及激光在左眼上的反光亮点的边缘坐标,将左眼的眼眶边缘坐标、瞳孔边缘坐标、以及激光在左眼上的反光亮点的边缘坐标作为第一眼睛数据。或者,仅获得右眼的眼眶边缘坐标、瞳孔边缘坐标、以及激光在右眼上的反光亮点的边缘坐标,将右眼的眼眶边缘坐标、瞳孔边缘坐标、以及激光在右眼上的反光亮点的边缘坐标作为第一眼睛数据。或者,同时获得左眼的眼眶边缘坐标、瞳孔边缘坐标、以及激光在左眼上的反光亮点的边缘坐标(即获得左眼的眼睛数据),以及获得右眼的眼眶边缘坐标、瞳孔边缘坐标、以及激光在右眼上的反光亮点的边缘坐标(即获得右眼的眼睛数据),将左眼的眼睛数据和右眼的眼睛数据作为第一眼睛数据。
在用户的眼睛注视屏幕的情况下,可以确定用户的眼睛与屏幕之间的目标距离。在如图2所示,电子设备上安装有激光发射器201的情况下,激光发射器201发出的激光照明使用者的脸部,脸部反射的光线进入摄像头中,记录激光发射器发出激光至摄像头接收到反射光线之间的时长,将计算光速与时长的乘积的二分之一,该乘积的二分之一即为通过光速计算出的用户的眼睛与屏幕之间的距离,可以将该距离作为目标距离,即通过激光测距确定目标距离。
需要说明的是,在电子设备上安装有多个摄像头的情况下,可以通过多个摄像头获取的脸部图像中的眼睛位置信息,确定用户的眼睛与屏幕之间的距离,将该距离作为目标距离。即利用双目视差原理确定目标距离。例如,在电子设备上安装有一个红外线摄像头202和一个RGB摄像头203的情况下,红外线摄像头采集的图像为IR风格的脸部图像,RGB摄像头采集的图像为RGB风格的脸部图像。根据IR风格的脸部图像中的左眼位置信息(A1,B1)以及RGB风格的脸部图像中的左眼位置信息(A2,B2),可以计算用户的眼睛与屏幕之间的距离,该距离即为由两个左眼位置信息(A1,B1)和(A2,B2)计算出的斜率,即通过双目视差原理计算目标距离。如果电子设备上安装有两个以上的多个摄像头,则可以根据多个摄像头分别获取的脸部图像中的左眼位置信息,通过拟合方法(例如最小二乘法)获得用户的眼睛与屏幕之间的距离。在无激光发射器的情况下,采用的摄像头的数目越多,通过拟合方法确定的用户的眼睛与屏幕之间的距离越精确。
在电子设备上安装有多个摄像头以及激光发射器的情况下,如图2所示,可以结合激光测出的距离和双目视差测出的距离,计算目标距离。例如设置激光测出的距离对应的权重和双目视差测出的距离对应的权重,目标距离等于激光测出的距离×激光测出的距离对应的权重+双目视差测出的距离×双目视差测出的距离对应的权重。
步骤102、根据目标距离以及第一眼睛数据,确定用户的眼睛注视的屏幕位置信息。
其中,根据所述目标距离以及所述第一眼睛数据,确定所述用户的眼睛注视的屏幕位置信息可以通过如下方式实现:
根据所述目标距离、所述第一眼睛数据、以及所述摄像头对应的拟合函数,确定所述用户的眼睛注视的屏幕位置信息,其中,所述拟合函数用于描述所述屏幕上的任意一个像素点的位置、所述像素点的位置对应的眼睛数据、以及所述眼睛数据对应的眼睛与所述屏幕之间的任意一个距离之间的关系。
其中,拟合函数用于描述屏幕上的任意一个像素点的位置、像素点的位置对应的眼睛数据、以及眼睛数据对应的眼睛与屏幕之间的任意一个距离之间的关系。
其中,摄像头对应的拟合函数可以通过如下方式获得:
在用户的眼睛与屏幕之间的距离为预设距离,且用户的眼睛注视屏幕上的标定位置的情况下,获取摄像头采集的用户的脸部图像中的第二眼睛数据;
根据预设距离、标定位置、以及标定位置对应的第二眼睛数据,确定摄像头对应的第一拟合函数,其中,第一拟合函数用于描述屏幕上的像素点的位置、像素点的位置对应的眼睛数据、以及预设距离三者之间的关系;
根据第一距离与缩放率的对应关系、以及第一拟合函数,确定第二拟合函数,并将第二拟合函数作为摄像头对应的拟合函数,其中,第一距离为用户的眼睛与屏幕之间的距离。
标定位置为在屏幕上预设的特定位置,例如如图3所示,图3是本申请实施例提供的一种标定位置的示意图,共设置了8个标定位置,8个标定位置包括标定位置301、标定位置302、标定位置303、标定位置304、标定位置305、标定位置306、标定位置307和标定位置308。在预设距离下,用户的眼睛注视标定位置301,获取摄像头采集的用户的脸部图像中的第二眼睛数据1,第二眼睛数据1为在预设距离下,用户注视标定位置301时对应的眼睛数据,也即标定位置301对应预设距离和第二眼睛数据1。同样,在预设距离下,用户的眼睛注视标定位置302,获取摄像头采集的用户的脸部图像中的第二眼睛数据2,第二眼睛数据2为在预设距离下,用户注视标定位置302时对应的眼睛数据,也即标定位置301对应预设距离和第二眼睛数据2。以此类推,可以确定标定位置303对应预设距离和第二眼睛数据3,标定位置304对应预设距离和第二眼睛数据4,标定位置305对应预设距离和第二眼睛数据5,标定位置306对应预设距离和第二眼睛数据6,标定位置307对应预设距离和第二眼睛数据7,标定位置308对应预设距离和第二眼睛数据8。根据所有的标定位置、标定位置对应的预设距离和第二眼睛数据,可以通过最小二乘法或切比雪夫多项式等拟合方法,得到第一拟合函数。
在得到摄像头对应的拟合函数后,只要知道了用户的眼睛与屏幕之间目标距离以及用户的第一眼睛数据,就可以通过摄像头对应的拟合函数得到用户的眼睛注视的屏幕位置信息。屏幕位置信息例如为注视的屏幕位置的坐标。
步骤103、获取用户的眼睛的空间位置信息。
根据摄像头的参数、摄像头采集的脸部图像中的眼睛位置信息,可以确定用户的眼睛与摄像头之间的连线与屏幕之间的角度,根据该角度、以及用户的眼睛与屏幕之间的距离,可以获取该用户的眼睛的空间位置信息。
步骤104、根据屏幕位置信息、以及空间位置信息,确定目标图像,并显示目标图像。
其中,所述根据所述屏幕位置信息、以及所述空间位置信息,确定目标图像,并显示所述目标图像可以通过如下步骤实现:
根据所述屏幕位置信息、以及所述眼睛的空间位置信息,确定所述用户的眼睛的注视方向;
根据所述注视方向、以及所述用户的眼睛与所述屏幕上的被注视对象之间的距离,确定投影平面;
根据所述空间位置信息、所述屏幕的尺寸、以及所述投影平面,确定与所述投影平面对应的显示区域范围;
根据所述显示区域范围,确定所述目标图像,并显示所述目标图像。
其中,在确定的目标图像为三维图像的情况下,可以根据目标图像中的物体与用户的眼睛注视的对象之间的距离,确定所述物体的清晰度。由于人眼一般对在距离被注视的对象在一定距离范围内的物体敏感,对超过该一定距离周围的物体不敏感。因此,利用此特点还可以对距离被注视的对象在一定距离范围内的物体使用高清渲染,对超过该一定距离周围的物体使用低清晰度渲染,从而降低运算量。例如,如果此时用户观看的为三维对象,则与该显示区域范围对应的范围内的对象均被显示,例如,用户此时注视的为屏幕上的花瓶的三维图像(即用户注视的对象为花瓶),花瓶所处的平面即为投影平面,在花瓶的侧后方有个苹果,如果该苹果落入该区域范围对应的范围内,则会显示花瓶和花瓶侧后方的苹果,即显示的目标图像为三维图像,同时可以根据苹果距离花瓶的远近程度,确定苹果的清晰度,如果设置一定距离范围为20厘米,而苹果与花瓶的距离为30厘米,则可以将苹果采用较低分辨率对苹果进行渲染,降低显示的三维苹果图像的清晰度。如果苹果与花瓶的距离为10厘米,则可以采用较大分辨率对苹果进行渲染,保证显示的三维苹果图像的清晰度。
根据屏幕位置信息和空间位置信息,可以通过投影的方式,确定目标图像,并显示目标图像。参照图4,图4是本申请实施例提供的一种投影方法的示意图。将与眼睛的空间位置401和屏幕注视位置402之间的连线垂直的平面中的一个平面作为投影平面403(从空间位置401至屏幕注视位置402的方向即为用户的眼睛的注视方向),该投影平面403与用户的眼睛之间的距离等于用户的眼睛与被注视的对象之间的距离,眼睛的空间位置401对应的位置信息即为空间位置信息。例如,用户的眼睛注视屏幕中的花瓶时,用户的眼睛的空间位置与花瓶之间确定一条直线,从与该直线垂直的平面中确定一个投影平面,该投影平面与用户的眼睛之间的距离等于花瓶与用户的眼睛之间的距离。如果此时用户观看的为二维对象,则根据该投影平面、空间位置信息以及屏幕404的尺寸,即可以确定该投影平面上的显示区域范围405,将该显示区域范围405上的图像作为目标对象并显示。
本实施例提供的图像显示方法,通过在用户的眼睛注视屏幕的情况下,获取摄像头采集的用户的脸部图像中的第一眼睛数据,并确定用户的眼睛与屏幕之间的目标距离,根据目标距离、第一眼睛数据、以及摄像头对应的拟合函数,确定用户的眼睛注视的屏幕位置信息,获取用户的眼睛的空间位置信息,根据屏幕位置信息、以及空间位置信息,确定目标图像,并显示目标图像。由于根据目标距离、以及第一眼睛数据,确定屏幕位置信息,也即屏幕位置信息与目标距离有关,进而根据屏幕位置信息、以及空间位置信息,确定目标图像,并显示目标图像。因此,当用户观看电子设备上显示的画面时,用户若需要看到更多的屏幕画面,用户可以歪下头,从而实时获取歪下头后的眼睛的空间位置信息以及屏幕注视位置信息,即可以改变目标图像。或者用户若需要看到更多的屏幕画面,用户可以改变自己的眼睛与屏幕之间的距离,就可以看到不同的画面内容。从而无需再通过移动电子设备的位置,以观看到不同的画面内容,解决了用户操作不方便的问题。例如在查看图片时,如果图片比较大,用户无需上下左右滑动图片,只需要歪下头或改变眼睛与屏幕之间的距离,就可以看到该图片的不同区域的画面,从而看到整个图片的画面。
需要说明的是,用户的眼睛距离屏幕越近,看到的图像上的目标越大;距离屏幕越远,看到的画面中的目标越小。用户可以改变自己的眼睛与屏幕的距离,从而使看到的画面中的目标的大小满足自己观看需求。
参照图5,图5是本申请实施例提供的另一种图像显示方法的步骤流程图,该方法包括如下步骤:
步骤501、在用户的眼睛与屏幕之间的距离为预设距离,且用户的眼睛注视屏幕上的标定位置的情况下,获取摄像头采集的用户的脸部图像中的第二眼睛数据。
步骤502、根据预设距离、标定位置、以及标定位置对应的第二眼睛数据,确定摄像头对应的第一拟合函数,其中,第一拟合函数用于描述屏幕上的像素点的位置、像素点的位置对应的眼睛数据、以及预设距离三者之间的关系。
步骤503、根据第一距离与缩放率的对应关系、以及第一拟合函数,确定第二拟合函数,并将第二拟合函数作为摄像头对应的拟合函数。
根据步骤501至步骤503,可以确定摄像头对应的拟合函数。在摄像头的数量为至少一个的情况下,采用步骤501至步骤503,可以获取每个摄像头对应的拟合函数。
需要说明的是,一个摄像头对应的拟合函数可以为根据用户的左眼的眼睛数据确定的第二拟合函数1,或者为根据用户的右眼的眼睛数据确定的第二拟合函数2;或者包括第二拟合函数1和第二拟合函数2。
步骤504、在用户的眼睛注视屏幕的情况下,获取摄像头采集的用户的脸部图像中的第一眼睛数据,并确定用户的眼睛与屏幕之间的目标距离。
其中,获取摄像头采集的用户的脸部图像中的第一眼睛数据可以通过如下步骤实现:
获取摄像头采集的用户的脸部图像中的眼睛区域;
获取眼睛区域中的左眼和/或右眼的眼眶边缘坐标和瞳孔的边缘坐标、以及激光发射器发射的激光在左眼上的反光亮点的边缘坐标,并将左眼和/或右眼的眼眶边缘坐标和瞳孔的边缘坐标、以及左眼上的反光亮点的边缘坐标作为第一眼睛数据。
其中,在摄像头的数量为多个,电子设备包括激光发射器的情况下;确定用户的眼睛与屏幕之间的目标距离可以通过如下步骤实现:
获取多个摄像头采集的用户的脸部图像中的左眼位置信息和/或右眼位置信息;
根据每个左眼位置信息和/或右眼位置信息,确定用户的眼睛与屏幕之间的第二距离;
在所述用户的眼睛注视所述屏幕的情况下,获取激光发射器发射激光与摄像头采集到用户的脸部图像之间的时间差;
根据时间差,确定用户的眼睛与屏幕之间的第三距离;
根据第二距离、第二距离对应的权重、第三距离、以及第三距离对应的权重,确定目标距离。
需要说明的是,在获取多个摄像头采集的用户的脸部图像中的左眼位置信息和右眼位置信息的情况下,根据每个左眼位置信息和右眼位置信息,确定用户的眼睛与屏幕之间的第二距离。例如,在电子设备上安装有一个红外线摄像头和一个RGB摄像头的情况下,根据IR风格的脸部图像中的左眼位置信息(A1,B1)以及RGB风格的脸部图像中的左眼位置信息(A2,B2),可以计算用户的眼睛与屏幕之间的距离,该距离即为由左眼位置信息(A1,B1)和(A2,B2)计算出的斜率1。同时,根据IR风格的脸部图像中的右眼位置信息(A3,B4)以及RGB风格的脸部图像中的右眼位置信息(A4,B4),可以计算用户的眼睛与屏幕之间的距离,该距离即为由右眼位置信息(A3,B3)和(A4,B4)计算出的斜率2,将斜率1和斜率2的平均值作为用户的眼睛与屏幕之间的第二距离。
需要说明的是,在只获取多个摄像头采集的用户的脸部图像中的左眼位置信息的情况下,可以将斜率1作为第二距离;在只获取多个摄像头采集的用户的脸部图像中的右眼位置信息的情况下,可以将斜率2作为第二距离。
由于激光测距的精度较高,因此,可以将设置的第三距离对应的权重大于第二距离对应的权重,例如将第三距离对应的权重设置为0.7,将第二距离对应的权重设置为0.3,如果第二距离等于1.2,第三距离等于1,则目标距离等于1.2×0.3+1×0.7,即目标距离等于1.06。
步骤505、根据每个摄像头中的任意一个目标摄像头对应的拟合函数、目标距离、以及目标摄像头采集的用户的脸部图像中的第一眼睛数据,确定目标摄像头对应的第一屏幕位置信息,其中,第一屏幕位置信息为用户的眼睛注视的屏幕位置的信息。
结合图2,电子设备包括红外线摄像头和RGB摄像头,以红外线摄像头作为目标摄像头头时为例。若通过步骤501至步骤503,获得了红外线摄像头对应的第二拟合函数1(第二拟合函数1为通过用户的左眼的眼睛数据得到的拟合函数),在步骤504中,获取用户的左眼的眼睛数据,将左眼的眼睛数据作为第一眼睛数据,根据第二拟合函数1、左眼的眼睛数据、以及目标距离,可以确定红外线摄像头对应的第一屏幕位置信息1,该第一屏幕位置信息即为通过第二拟合函数1得到的位置信息。
若通过步骤501至步骤503,获得了红外线摄像头对应的第二拟合函数2(第二拟合函数2为通过用户的右眼的眼睛数据得到的拟合函数),在步骤504中,获取用户的右眼的眼睛数据,将右眼的眼睛数据作为第一眼睛数据,根据第二拟合函数2、右眼的眼睛数据、以及目标距离,可以确定红外线摄像头对应的第一屏幕位置信息2,该第一屏幕位置信息即为通过第二拟合函数2得到的位置信息。
若通过步骤501至步骤503,获得了红外线摄像头对应的第二拟合函数1和第二拟合函数,在步骤504中,可以获取用户的左眼的眼睛数据以及右眼的眼睛数据,将左眼的眼睛数据作为第一眼睛数据1,将右眼的眼睛数据作为第一眼睛数据2。根据第二拟合函数1、左眼的眼睛数据、以及目标距离,可以确定红外线摄像头对应的第一屏幕位置信息1;同时根据第二拟合函数2、右眼的眼睛数据、以及目标距离,可以确定红外线摄像头对应的第一屏幕位置信息2。此种情况下,红外线摄像头对应的第一屏幕位置信息包括第一屏幕位置信息1和第一屏幕位置信息2。
以RGB摄像头为目标摄像头为例时,与以红外线摄像头为目标摄像头为例确定红外线摄像头对应的第一屏幕位置信息类似,同样可以确定RGB摄像头对应的第一屏幕位置信息。
步骤506、根据至少一个目标摄像头对应的第一屏幕位置信息,确定用户的眼睛注视的屏幕位置信息。
可选的,根据至少一个目标摄像头对应的第一屏幕位置信息,确定用户的眼睛注视的屏幕位置信息可以通过如下方式实现:
在所有第一屏幕位置信息中存在不稳定的第二屏幕位置信息情况下,根据所有第一屏幕位置信息中除第二屏幕位置信息之外的其他屏幕位置信息,确定用户的眼睛注视的屏幕位置信息,其中,第二屏幕位置信息为红外线摄像头对应的第一屏幕位置信息,不稳定的第二屏幕位置信息对应的坐标的波动范围大于预设范围;
在所有第一屏幕位置信息中不存在不稳定的第二屏幕位置信息情况下,根据所有第一屏幕位置信息,确定用户的眼睛注视的屏幕位置信息。
由于根据红外线摄像头采集的IR风格的脸部图像,可以更加准确的得到瞳孔的边缘坐标、眼眶的边缘坐标,不会受到虹膜的干扰,从而使得到的用户的第一眼睛数据的精度更高,从而使根据第一眼睛数据得到的屏幕位置信息的精度更高。但是红外线摄像头会受到眼镜镀膜的影响,用户如果佩戴有眼镜,则会导致实际应用中得到的用户的第一眼睛数据的不清晰,进而导致红外线摄像头对应的第一屏幕注视位置信息不稳定,例如如果第一屏幕注视位置信息的横坐标和纵坐标波动的预设范围大于0且小于1,则认为屏幕注视位置信息稳定,否则,则认为该第一屏幕注视位置信息不稳定,例如如果红外线摄像头对应的屏幕注视位置信息(0,1)很快跳动到(3,2)时,即横坐标的波动范围为3,纵坐标的波动范围为1;由(3,2)很快跳动到(1,0),即横坐标的波动范围为2,纵坐标的波动范围为2,该第一屏幕注视位置信息在短时间内剧烈波动,则表示第一屏幕位置信息中存在不稳定的第二屏幕位置信息。而RGB摄像头相比红外线摄像头,不会受到眼镜镀膜影响,因此RGB摄像头对应的屏幕位置信息一般不会出现剧烈波动的情况。综上,结合红外线摄像头的特性和RGB摄像头的特性,可以在第一屏幕位置信息均稳定的情况下,将红外线摄像头对应的屏幕位置信息与RGB摄像头对应的屏幕位置信息结合,从而确定最终的屏幕位置信息作为用户的眼睛注视的屏幕位置信息,在一定程度上保证得到的用户的眼睛注视的屏幕位置信息的准确性。
例如,在红外线摄像头对应的第一屏幕位置信息稳定的情况下,可以根据红外线摄像头对应的第一屏幕位置信息和RGB摄像头对应的第一屏幕位置信息,确定用户的眼睛注视的屏幕位置信息。例如,如果红外线摄像头对应的第一屏幕位置信息为一个位置信息,该位置为信息为第一屏幕位置信息1,RGB摄像头对应的第一屏幕位置信息为一个位置信息,该位置为信息为第一屏幕位置信息A,则可以将第一屏幕位置信息1的纵坐标与第一屏幕位置信息A的纵坐标的平均值作为用户的眼睛注视的屏幕位置信息的纵坐标,将第一屏幕位置信息1的横坐标与第一屏幕位置信息A的横坐标的平均值作为用户的眼睛注视的屏幕位置信息的横坐标,从而确定用户的眼睛注视的屏幕位置信息。
或者,如果在红外线摄像头对应的第一屏幕位置信息不稳定的情况下(也即在所有第一屏幕位置信息中存在不稳定的第二屏幕位置信息情况下),则不考虑红外线摄像头对应的第一屏幕位置信息,直接将RGB摄像头对应的第一屏幕位置信息作为用户的眼睛注视的屏幕位置信息,在一定程度上保证得到的用户的眼睛注视的屏幕位置信息的准确性。
步骤507、获取用户的眼睛的空间位置信息。
步骤508、根据屏幕位置信息、以及空间位置信息,确定目标图像,并显示目标图像。
本实施例提供的图像显示方法,只需要在传统电子设备的基础上增加摄像头即可实现拓展显示画面的效果,对于部分具有摄像头的电子设备可以直接应用该方法,因此,实现成本和难度较低。
参照图6,图6是本申请实施例中提供的一种图像显示装置的结构示意图,该图像显示装置600包括:
第一获取模块610,用于获取摄像头采集的所述用户的脸部图像中的第一眼睛数据,并确定所述用户的眼睛与所述屏幕之间的目标距离;
第一确定模块620,用于根据所述目标距离以及所述第一眼睛数据,确定所述用户的眼睛注视的屏幕位置信息;
第二获取模块630,用于获取所述用户的眼睛的空间位置信息;
显示模块640,用于根据所述屏幕位置信息、以及所述空间位置信息,确定目标图像,并显示所述目标图像。
在本申请实施例中,通过在用户的眼睛注视屏幕的情况下,获取摄像头采集的用户的脸部图像中的第一眼睛数据,并确定用户的眼睛与屏幕之间的目标距离,根据目标距离以及第一眼睛数据,确定用户的眼睛注视的屏幕位置信息,获取用户的眼睛的空间位置信息,根据屏幕位置信息、以及空间位置信息,确定目标图像,并显示目标图像。由于根据目标距离、以及第一眼睛数据,确定屏幕位置信息,也即屏幕位置信息与目标距离有关,进而根据屏幕位置信息、以及空间位置信息,确定目标图像,并显示目标图像。因此,当用户观看电子设备上显示的画面时,用户若需要看到更多的屏幕画面,用户可以歪下头,从而实时获取歪下头后的眼睛的空间位置信息以及屏幕注视位置信息,即可以改变目标图像。或者用户若需要看到更多的屏幕画面,用户可以改变自己的眼睛与屏幕之间的距离,就可以看到不同的画面内容。从而无需再通过移动电子设备的位置,以观看到不同的画面内容,解决了用户操作不方便的问题。
可选的,第一确定模块620,具体用于根据所述目标距离、所述第一眼睛数据、以及所述摄像头对应的拟合函数,确定所述用户的眼睛注视的屏幕位置信息,其中,所述拟合函数用于描述所述屏幕上的像素点的位置、所述像素点的位置对应的眼睛数据、以及所述眼睛数据对应的眼睛与所述屏幕之间的任意一个距离之间的关系。
可选的,参照图7,图7是本申请实施例中提供的另一种图像显示装置的结构示意图,该图像显示装置700包括:
第三获取模块710,用于在所述用户的眼睛与所述屏幕之间的距离为预设距离,且所述用户的眼睛注视所述屏幕上的标定位置的情况下,获取所述摄像头采集的所述用户的脸部图像中的第二眼睛数据;
第二确定模块720,用于根据所述预设距离、所述标定位置、以及所述标定位置对应的所述第二眼睛数据,确定所述摄像头对应的第一拟合函数,其中,所述第一拟合函数用于描述所述屏幕上的像素点的位置、所述像素点的位置对应的眼睛数据、以及所述预设距离三者之间的关系;
第三确定模块730,用于根据第一距离与缩放率的对应关系、以及所述第一拟合函数,确定第二拟合函数,并将所述第二拟合函数作为所述摄像头对应的拟合函数,其中,所述第一距离为用户的眼睛与所述屏幕之间的距离。
可选的,所述摄像头的数量为至少一个;所述第一确定模块620,包括:
第一确定单元6201,用于根据每个摄像头中的任意一个目标摄像头对应的拟合函数、所述目标距离、以及所述目标摄像头采集的用户的脸部图像中的第一眼睛数据,确定所述目标摄像头对应的第一屏幕位置信息,其中,第一屏幕位置信息为所述用户的眼睛注视的屏幕位置的信息;
第二确定单元6202,用于根据至少一个所述目标摄像头对应的第一屏幕位置信息,确定所述用户的眼睛注视的屏幕位置信息。
可选的,在所有所述摄像头中包括红外线红外线摄像头的情况下;
所述第二确定单元6202,具体用于在所有所述第一屏幕位置信息中存在不稳定的第二屏幕位置信息情况下,根据所有所述第一屏幕位置信息中除所述第二屏幕位置信息之外的其他屏幕位置信息,确定所述用户的眼睛注视的屏幕位置信息,其中,所述第二屏幕位置信息为所述红外线摄像头对应的第一屏幕位置信息;
在所有所述第一屏幕位置信息中不存在不稳定的所述第二屏幕位置信息情况下,根据所有所述第一屏幕位置信息,确定所述用户的眼睛注视的屏幕位置信息。
可选的,所述显示模块640,具体用于根据所述屏幕位置信息、以及所述眼睛的空间位置信息,确定所述用户的眼睛的注视方向;
根据所述注视方向、以及所述用户的眼睛与所述屏幕上的被注视对象之间的距离,确定投影平面;
根据所述空间位置信息、所述屏幕的尺寸、以及所述投影平面,确定与所述投影平面对应的显示区域范围;
根据所述显示区域范围,确定所述目标图像,并显示所述目标图像。
可选的,所述摄像头的数量为多个,所述电子设备包括激光发射器;
所述第一获取模块610,具体用于获取多个摄像头采集的所述用户的脸部图像中的左眼位置信息和/或右眼位置信息;
根据每个左眼位置信息和/或右眼位置信息,确定所述用户的眼睛与所述屏幕之间的第二距离;
在所述用户的眼睛注视所述屏幕的情况下,获取所述激光发射器发射激光与所述摄像头采集到所述用户的脸部图像之间的时间差;
根据所述时间差,确定所述用户的眼睛与所述屏幕之间的第三距离;
根据所述第二距离、所述第二距离对应的权重、所述第三距离、以及所述第三距离对应的权重,确定所述目标距离。
可选的,所述第一获取模块610,具体用于获取所述摄像头采集的所述用户的脸部图像中的眼睛区域;获取所述眼睛区域中的左眼和/或右眼的眼眶边缘坐标和瞳孔的边缘坐标、以及所述激光发射器发射的激光在所述左眼上的反光亮点的边缘坐标,并将所述左眼和/或右眼的眼眶边缘坐标和瞳孔的边缘坐标、以及所述左眼上的反光亮点的边缘坐标作为所述第一眼睛数据。
本申请实施例中的图像显示装置可以是装置,也可以是终端中的部件、集成电路、或芯片。该装置可以是移动电子设备,也可以为非移动电子设备。示例性的,移动电子设备可以为手机、平板电脑、笔记本电脑、掌上电脑、车载电子设备、可穿戴设备、超级移动个人计算机(ultra-mobile personal computer,UMPC)、上网本或者个人数字助理(personaldigital assistant,PDA)等,非移动电子设备可以为服务器、网络附属存储器(NetworkAttached Storage,NAS)、个人计算机(personal computer,PC)、电视机(television,TV)、柜员机或者自助机等,本申请实施例不作具体限定。
本申请实施例中的图像显示装置可以为具有操作系统的装置。该操作系统可以为安卓(Android)操作系统,可以为ios操作系统,还可以为其他可能的操作系统,本申请实施例不作具体限定。
本申请实施例提供的图像显示装置能够实现图1和图5的方法实施例中图像显示装置实现的各个过程,为避免重复,这里不再赘述。
可选的,本申请实施例还提供一种电子设备,如图8所示,图8为实现本申请实施例的一种电子设备的硬件结构示意图。该电子设备800包括处理器801,存储器802,存储在存储器802上并可在处理器801上运行的程序或指令,该程序或指令被处理器801执行时实现上述图像显示方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
需要注意的是,本申请实施例中的电子设备包括上述的移动电子设备和非移动电子设备。
图9为实现本申请实施例的另一种电子设备的硬件结构示意图。
该电子设备900包括但不限于:射频单元901、网络模块902、音频输出单元903、输入单元904、传感器905、显示单元906、用户输入单元907、接口单元908、存储器909、以及处理器910等部件。
本领域技术人员可以理解,电子设备900还可以包括给各个部件供电的电源(比如电池),电源可以通过电源管理系统与处理器910逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。图9中示出的电子设备结构并不构成对电子设备的限定,电子设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置,在此不再赘述。
其中,处理器910,用于在用户的眼睛注视屏幕的情况下,获取摄像头采集的所述用户的脸部图像中的第一眼睛数据,并确定所述用户的眼睛与所述屏幕之间的目标距离;
根据所述目标距离、所述第一眼睛数据、以及所述摄像头对应的拟合函数,确定所述用户的眼睛注视的屏幕位置信息,其中,所述拟合函数用于描述所述屏幕上的任意一个像素点的位置、所述像素点的位置对应的眼睛数据、以及所述眼睛数据对应的眼睛与所述屏幕之间的任意一个距离之间的关系;
获取所述用户的眼睛的空间位置信息;
根据所述屏幕位置信息、以及所述空间位置信息,确定目标图像,并通过显示单元906显示所述目标图像。
处理器910,还用于在所述用户的眼睛与所述屏幕之间的距离为预设距离,且所述用户的眼睛注视所述屏幕上的标定位置的情况下,获取所述摄像头采集的所述用户的脸部图像中的第二眼睛数据;
根据所述预设距离、所述标定位置、以及所述标定位置对应的所述第二眼睛数据,确定所述摄像头对应的第一拟合函数,其中,所述第一拟合函数用于描述所述屏幕上的像素点的位置、所述像素点的位置对应的眼睛数据、以及所述预设距离三者之间的关系;
根据第一距离与缩放率的对应关系、以及所述第一拟合函数,确定第二拟合函数,并将所述第二拟合函数作为所述摄像头对应的拟合函数,其中,所述第一距离为用户的眼睛与所述屏幕之间的距离。
所述摄像头的数量为至少一个;处理器910,还用于根据每个摄像头中的任意一个目标摄像头对应的拟合函数、所述目标距离、以及所述目标摄像头采集的用户的脸部图像中的第一眼睛数据,确定所述目标摄像头对应的第一屏幕位置信息,其中,第一屏幕位置信息为所述用户的眼睛注视的屏幕位置的信息;
根据至少一个所述目标摄像头对应的第一屏幕位置信息,确定所述用户的眼睛注视的屏幕位置信息。
处理器910,还用于在所有所述第一屏幕位置信息中存在不稳定的第二屏幕位置信息情况下,根据所有所述第一屏幕位置信息中除所述第二屏幕位置信息之外的其他屏幕位置信息,确定所述用户的眼睛注视的屏幕位置信息,其中,所述第二屏幕位置信息为所述红外线摄像头对应的第一屏幕位置信息,所述不稳定的第二屏幕位置信息对应的坐标的波动范围大于预设范围;
在所有所述第一屏幕位置信息中不存在不稳定的所述第二屏幕位置信息情况下,根据所有所述第一屏幕位置信息,确定所述用户的眼睛注视的屏幕位置信息。
处理器910,还用于根据所述屏幕位置信息、以及所述眼睛的空间位置信息,确定所述用户的眼睛的注视方向;
根据所述注视方向、以及所述用户的眼睛与所述屏幕上的被注视对象之间的距离,确定投影平面;
根据所述空间位置信息、所述屏幕的尺寸、以及所述投影平面,确定与所述投影平面对应的显示区域范围;
根据所述显示区域范围,确定所述目标图像,并通过显示单元906显示所述目标图像。
所述摄像头的数量为多个,处理器910,还用于获取多个摄像头采集的所述用户的脸部图像中的左眼位置信息和/或右眼位置信息;
根据每个左眼位置信息和/或右眼位置信息,确定所述用户的眼睛与所述屏幕之间的第二距离;
在所述用户的眼睛注视所述屏幕的情况下,获取所述激光发射器发射激光与所述摄像头采集到所述用户的脸部图像之间的时间差;
根据所述时间差,确定所述用户的眼睛与所述屏幕之间的第三距离;
根据所述第二距离、所述第二距离对应的权重、所述第三距离、以及所述第三距离对应的权重,确定所述目标距离。
处理器910,还用于获取所述摄像头采集的所述用户的脸部图像中的眼睛区域;
获取所述眼睛区域中的左眼和/或右眼的眼眶边缘坐标和瞳孔的边缘坐标、以及所述激光发射器发射的激光在所述左眼上的反光亮点的边缘坐标,并将所述左眼和/或右眼的眼眶边缘坐标和瞳孔的边缘坐标、以及所述左眼上的反光亮点的边缘坐标作为所述第一眼睛数据。
本申请实施例还提供一种可读存储介质,可读存储介质上存储有程序或指令,该程序或指令被处理器执行时实现上述图像显示方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
其中,处理器为上述实施例中的电子设备中的处理器。可读存储介质,包括计算机可读存储介质,如计算机只读存储器(Read-Only Memory,ROM)、随机存取存储器(RandomAccess Memory,RAM)、磁碟或者光盘等。
应理解的是,本申请实施例中,输入单元904可以包括图形处理器(GraphicsProcessing Unit,GPU)9041和麦克风9042,图形处理器9041对在视频捕获模式或图像捕获模式中由图像捕获装置(如摄像头)获得的静态图片或视频的图像数据进行处理。显示单元906可包括显示面板9061,可以采用液晶显示器、有机发光二极管等形式来配置显示面板9061。用户输入单元907包括触控面板9071以及其他输入设备9072。触控面板9071,也称为触摸屏。触控面板9071可包括触摸检测装置和触摸控制器两个部分。其他输入设备9072可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆,在此不再赘述。存储器909可用于存储软件程序以及各种数据,包括但不限于应用程序和操作系统。处理器910可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器910中。
本申请实施例另提供了一种芯片,芯片包括处理器和通信接口,通信接口和处理器耦合,处理器用于运行程序或指令,实现上述图像显示方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
应理解,本申请实施例提到的芯片还可以称为系统级芯片、系统芯片、芯片系统或片上系统芯片等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。此外,需要指出的是,本申请实施方式中的方法和装置的范围不限按示出或讨论的顺序来执行功能,还可包括根据所涉及的功能按基本同时的方式或按相反的顺序来执行功能,例如,可以按不同于所描述的次序来执行所描述的方法,并且还可以添加、省去、或组合各种步骤。另外,参照某些示例所描述的特征可在其他示例中被组合。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
上面结合附图对本申请的实施例进行了描述,但是本申请并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本申请的启示下,在不脱离本申请宗旨和权利要求所保护的范围情况下,还可做出很多形式,均属于本申请的保护之内。
Claims (16)
1.一种图像显示方法,其特征在于,包括:
获取摄像头采集的用户的脸部图像中的第一眼睛数据,并确定所述用户的眼睛与屏幕之间的目标距离;
根据所述目标距离以及所述第一眼睛数据,确定所述用户的眼睛注视的屏幕位置信息;
获取所述用户的眼睛的空间位置信息;
根据所述屏幕位置信息、以及所述空间位置信息,确定目标图像,并显示所述目标图像;
根据所述目标距离以及所述第一眼睛数据,确定所述用户的眼睛注视的屏幕位置信息,包括:
根据所述目标距离、所述第一眼睛数据、以及所述摄像头对应的拟合函数,确定所述用户的眼睛注视的屏幕位置信息,其中,所述拟合函数用于描述所述屏幕上的任意一个像素点的位置、所述像素点的位置对应的眼睛数据、以及所述眼睛数据对应的眼睛与所述屏幕之间的任意一个距离之间的关系。
2.根据权利要求1所述的方法,其特征在于,所述获取摄像头采集的用户的脸部图像中的第一眼睛数据,并确定所述用户的眼睛与所述屏幕之间的目标距离之前,还包括:
在所述用户的眼睛与所述屏幕之间的距离为预设距离,且所述用户的眼睛注视所述屏幕上的标定位置的情况下,获取所述摄像头采集的所述用户的脸部图像中的第二眼睛数据;
根据所述预设距离、所述标定位置、以及所述标定位置对应的所述第二眼睛数据,确定所述摄像头对应的第一拟合函数,其中,所述第一拟合函数用于描述所述屏幕上的像素点的位置、所述像素点的位置对应的眼睛数据、以及所述预设距离三者之间的关系;
根据第一距离与缩放率的对应关系、以及所述第一拟合函数,确定第二拟合函数,并将所述第二拟合函数作为所述摄像头对应的拟合函数,其中,所述第一距离为所述用户的眼睛与所述屏幕之间的距离。
3.根据权利要求1所述的方法,其特征在于,所述摄像头的数量为至少一个;所述根据所述目标距离、所述第一眼睛数据、以及所述摄像头对应的拟合函数,确定所述用户的眼睛注视的屏幕位置信息,包括:
根据每个摄像头中的任意一个目标摄像头对应的拟合函数、所述目标距离、以及所述目标摄像头采集的用户的脸部图像中的第一眼睛数据,确定所述目标摄像头对应的第一屏幕位置信息,其中,第一屏幕位置信息为所述用户的眼睛注视的屏幕位置的信息;
根据至少一个所述目标摄像头对应的第一屏幕位置信息,确定所述用户的眼睛注视的屏幕位置信息。
4.根据权利要求3所述的方法,其特征在于,在所有所述摄像头中包括红外线摄像头的情况下;所述根据至少一个所述目标摄像头对应的第一屏幕位置信息,确定所述用户的眼睛注视的屏幕位置信息,包括:
在所有所述第一屏幕位置信息中存在不稳定的第二屏幕位置信息情况下,根据所有所述第一屏幕位置信息中除所述第二屏幕位置信息之外的其他屏幕位置信息,确定所述用户的眼睛注视的屏幕位置信息,其中,所述第二屏幕位置信息为所述红外线摄像头对应的第一屏幕位置信息,所述不稳定的第二屏幕位置信息对应的坐标的波动范围大于预设范围;
在所有所述第一屏幕位置信息中不存在不稳定的所述第二屏幕位置信息情况下,根据所有所述第一屏幕位置信息,确定所述用户的眼睛注视的屏幕位置信息。
5.根据权利要求1-4任一项所述的方法,其特征在于,所述根据所述屏幕位置信息、以及所述空间位置信息,确定目标图像,并显示所述目标图像,包括:
根据所述屏幕位置信息、以及所述眼睛的空间位置信息,确定所述用户的眼睛的注视方向;
根据所述注视方向、以及所述用户的眼睛与所述屏幕上的被注视对象之间的距离,确定投影平面;
根据所述空间位置信息、所述屏幕的尺寸、以及所述投影平面,确定与所述投影平面对应的显示区域范围;
根据所述显示区域范围,确定所述目标图像,并显示所述目标图像。
6.根据权利要求1所述的方法,其特征在于,所述摄像头的数量为多个,电子设备包括激光发射器;所述确定所述用户的眼睛与所述屏幕之间的目标距离,包括:
获取多个摄像头采集的所述用户的脸部图像中的左眼位置信息和/或右眼位置信息;
根据每个左眼位置信息和/或右眼位置信息,确定所述用户的眼睛与所述屏幕之间的第二距离;
在所述用户的眼睛注视所述屏幕的情况下,获取所述激光发射器发射激光与所述摄像头采集到所述用户的脸部图像之间的时间差;
根据所述时间差,确定所述用户的眼睛与所述屏幕之间的第三距离;
根据所述第二距离、所述第二距离对应的权重、所述第三距离、以及所述第三距离对应的权重,确定所述目标距离。
7.根据权利要求1所述的方法,其特征在于,在电子设备包括激光发射器的情况下,所述获取摄像头采集的所述用户的脸部图像中的第一眼睛数据,包括:
获取所述摄像头采集的所述用户的脸部图像中的眼睛区域;
获取所述眼睛区域中的左眼和/或右眼的眼眶边缘坐标和瞳孔的边缘坐标、以及所述激光发射器发射的激光在所述左眼上的反光亮点的边缘坐标,并将所述左眼和/或右眼的眼眶边缘坐标和瞳孔的边缘坐标、以及所述左眼上的反光亮点的边缘坐标作为所述第一眼睛数据。
8.一种图像显示装置,其特征在于,包括:
第一获取模块,用于获取摄像头采集的用户的脸部图像中的第一眼睛数据,并确定所述用户的眼睛与屏幕之间的目标距离;
第一确定模块,用于根据所述目标距离以及所述第一眼睛数据,确定所述用户的眼睛注视的屏幕位置信息;
第二获取模块,用于获取所述用户的眼睛的空间位置信息;
显示模块,用于根据所述屏幕位置信息、以及所述空间位置信息,确定目标图像,并显示所述目标图像。
所述第一确定模块,具体用于根据所述目标距离、所述第一眼睛数据、以及所述摄像头对应的拟合函数,确定所述用户的眼睛注视的屏幕位置信息,其中,所述拟合函数用于描述所述屏幕上的像素点的位置、所述像素点的位置对应的眼睛数据、以及所述眼睛数据对应的眼睛与所述屏幕之间的任意一个距离之间的关系。
9.根据权利要求8所述的装置,其特征在于,还包括:
第三获取模块,用于在所述用户的眼睛与所述屏幕之间的距离为预设距离,且所述用户的眼睛注视所述屏幕上的标定位置的情况下,获取所述摄像头采集的所述用户的脸部图像中的第二眼睛数据;
第二确定模块,用于根据所述预设距离、所述标定位置、以及所述标定位置对应的所述第二眼睛数据,确定所述摄像头对应的第一拟合函数,其中,所述第一拟合函数用于描述所述屏幕上的像素点的位置、所述像素点的位置对应的眼睛数据、以及所述预设距离三者之间的关系;
第三确定模块,用于根据第一距离与缩放率的对应关系、以及所述第一拟合函数,确定第二拟合函数,并将所述第二拟合函数作为所述摄像头对应的拟合函数,其中,所述第一距离为所述用户的眼睛与所述屏幕之间的距离。
10.根据权利要求8所述的装置,其特征在于,所述摄像头的数量为至少一个;所述第一确定模块,包括:
第一确定单元,用于根据每个摄像头中的任意一个目标摄像头对应的拟合函数、所述目标距离、以及所述目标摄像头采集的用户的脸部图像中的第一眼睛数据,确定所述目标摄像头对应的第一屏幕位置信息,其中,第一屏幕位置信息为所述用户的眼睛注视的屏幕位置的信息;
第二确定单元,用于根据至少一个所述目标摄像头对应的第一屏幕位置信息,确定所述用户的眼睛注视的屏幕位置信息。
11.根据权利要求10所述的装置,其特征在于,在所有所述摄像头中包括红外线摄像头的情况下;
所述第二确定单元,具体用于在所有所述第一屏幕位置信息中存在不稳定的第二屏幕位置信息情况下,根据所有所述第一屏幕位置信息中除所述第二屏幕位置信息之外的其他屏幕位置信息,确定所述用户的眼睛注视的屏幕位置信息,其中,所述第二屏幕位置信息为所述红外线摄像头对应的第一屏幕位置信息,所述不稳定的第二屏幕位置信息对应的坐标的波动范围大于预设范围;
在所有所述第一屏幕位置信息中不存在不稳定的所述第二屏幕位置信息情况下,根据所有所述第一屏幕位置信息,确定所述用户的眼睛注视的屏幕位置信息。
12.根据权利要求8-11任一项所述的装置,其特征在于,所述显示模块,具体用于根据所述屏幕位置信息、以及所述眼睛的空间位置信息,确定所述用户的眼睛的注视方向;
根据所述注视方向、以及所述用户的眼睛与所述屏幕上的被注视对象之间的距离,确定投影平面;
根据所述空间位置信息、所述屏幕的尺寸、以及所述投影平面,确定与所述投影平面对应的显示区域范围;
根据所述显示区域范围,确定所述目标图像,并显示所述目标图像。
13.根据权利要求8所述的装置,其特征在于,所述摄像头的数量为多个,电子设备包括激光发射器;
所述第一获取模块,具体用于获取多个摄像头采集的所述用户的脸部图像中的左眼位置信息和/或右眼位置信息;
根据每个左眼位置信息和/或右眼位置信息,确定所述用户的眼睛与所述屏幕之间的第二距离;
在所述用户的眼睛注视所述屏幕的情况下,获取所述激光发射器发射激光与所述摄像头采集到所述用户的脸部图像之间的时间差;
根据所述时间差,确定所述用户的眼睛与所述屏幕之间的第三距离;
根据所述第二距离、所述第二距离对应的权重、所述第三距离、以及所述第三距离对应的权重,确定所述目标距离。
14.根据权利要求8所述的装置,其特征在于,所述第一获取模块,具体用于获取所述摄像头采集的所述用户的脸部图像中的眼睛区域;获取所述眼睛区域中的左眼和/或右眼的眼眶边缘坐标和瞳孔的边缘坐标、以及激光发射器发射的激光在所述左眼上的反光亮点的边缘坐标,并将所述左眼和/或右眼的眼眶边缘坐标和瞳孔的边缘坐标、以及所述左眼上的反光亮点的边缘坐标作为所述第一眼睛数据。
15.一种电子设备,其特征在于,包括处理器,存储器及存储在所述存储器上并可在所述处理器上运行的程序或指令,所述程序或指令被所述处理器执行时实现如权利要求1-7任一项所述的图像显示方法的步骤。
16.一种可读存储介质,其特征在于,所述可读存储介质上存储程序或指令,所述程序或指令被处理器执行时实现如权利要求1-7任一项所述的图像显示方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010605425.0A CN111857461B (zh) | 2020-06-29 | 2020-06-29 | 图像显示方法、装置、电子设备及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010605425.0A CN111857461B (zh) | 2020-06-29 | 2020-06-29 | 图像显示方法、装置、电子设备及可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111857461A CN111857461A (zh) | 2020-10-30 |
CN111857461B true CN111857461B (zh) | 2021-12-24 |
Family
ID=72989163
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010605425.0A Active CN111857461B (zh) | 2020-06-29 | 2020-06-29 | 图像显示方法、装置、电子设备及可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111857461B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113947541A (zh) * | 2021-09-30 | 2022-01-18 | 联想(北京)有限公司 | 一种眼球矫正方法、装置、设备及存储介质 |
CN114422794A (zh) * | 2021-12-24 | 2022-04-29 | 炫彩互动网络科技有限公司 | 一种基于前置相机的动态视频清晰度处理方法 |
CN114327346B (zh) * | 2021-12-27 | 2023-09-29 | 北京百度网讯科技有限公司 | 显示方法、显示装置、电子设备以及存储介质 |
CN114449250B (zh) * | 2022-01-30 | 2024-11-22 | 纵深视觉科技(南京)有限责任公司 | 用户相对裸眼3d显示设备的观看位置的确定方法及装置 |
CN114860119A (zh) * | 2022-03-29 | 2022-08-05 | 上海商汤临港智能科技有限公司 | 一种屏幕互动方法、装置、设备和介质 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103809737A (zh) * | 2012-11-13 | 2014-05-21 | 华为技术有限公司 | 一种人机交互方法及装置 |
CN108595011A (zh) * | 2018-05-03 | 2018-09-28 | 北京京东金融科技控股有限公司 | 信息展示方法、装置、存储介质及电子设备 |
CN109101110A (zh) * | 2018-08-10 | 2018-12-28 | 北京七鑫易维信息技术有限公司 | 一种操作指令执行方法、装置、用户终端及存储介质 |
CN109271914B (zh) * | 2018-09-07 | 2020-04-17 | 百度在线网络技术(北京)有限公司 | 检测视线落点的方法、装置、存储介质和终端设备 |
CN110706283B (zh) * | 2019-11-14 | 2022-07-29 | Oppo广东移动通信有限公司 | 用于视线追踪的标定方法、装置、移动终端及存储介质 |
-
2020
- 2020-06-29 CN CN202010605425.0A patent/CN111857461B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN111857461A (zh) | 2020-10-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111857461B (zh) | 图像显示方法、装置、电子设备及可读存储介质 | |
US20240077724A1 (en) | Sedentary virtual reality method and systems | |
CN106662930B (zh) | 用于调整所捕获的图像的视角以供显示的技术 | |
US10182720B2 (en) | System and method for interacting with and analyzing media on a display using eye gaze tracking | |
US12141935B2 (en) | Foveated rendering using eye motion | |
US20130135295A1 (en) | Method and system for a augmented reality | |
EP3671408B1 (en) | Virtual reality device and content adjusting method therefor | |
US20170195664A1 (en) | Three-dimensional viewing angle selecting method and apparatus | |
EP3286601B1 (en) | A method and apparatus for displaying a virtual object in three-dimensional (3d) space | |
EP3683656A1 (en) | Virtual reality (vr) interface generation method and apparatus | |
CN108881893A (zh) | 基于人眼跟踪的裸眼3d显示方法、装置、设备和介质 | |
TW202025719A (zh) | 圖像處理方法及裝置、電子設備及儲存介質 | |
US20200402321A1 (en) | Method, electronic device and storage medium for image generation | |
US20190281280A1 (en) | Parallax Display using Head-Tracking and Light-Field Display | |
CN117372475A (zh) | 眼球追踪方法和电子设备 | |
TWI603225B (zh) | 液晶顯示器顯示視角的調整方法和裝置 | |
US10969865B2 (en) | Method for transmission of eye tracking information, head mounted display and computer device | |
US10345595B2 (en) | Head mounted device with eye tracking and control method thereof | |
JP2017032870A (ja) | 画像投影装置及び画像表示システム | |
CN111782053B (zh) | 模型编辑方法、装置、设备及存储介质 | |
CN117478931A (zh) | 信息显示方法、装置、电子设备及存储介质 | |
CN116193246A (zh) | 用于拍摄视频的提示方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |