CN113815623B - 一种视觉追踪人眼注视点的方法、车辆预警方法及装置 - Google Patents
一种视觉追踪人眼注视点的方法、车辆预警方法及装置 Download PDFInfo
- Publication number
- CN113815623B CN113815623B CN202010528103.0A CN202010528103A CN113815623B CN 113815623 B CN113815623 B CN 113815623B CN 202010528103 A CN202010528103 A CN 202010528103A CN 113815623 B CN113815623 B CN 113815623B
- Authority
- CN
- China
- Prior art keywords
- vehicle
- human eye
- driver
- main
- remote
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W2040/0818—Inactivity or incapacity of driver
- B60W2040/0827—Inactivity or incapacity of driver due to sleepiness
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/143—Alarm means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/225—Direction of gaze
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/229—Attention level, e.g. attentive to driving, reading or sleeping
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
- B60W2556/65—Data transmitted between vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2756/00—Output or target parameters relating to data
- B60W2756/10—Involving external transmission of data to or from the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Traffic Control Systems (AREA)
- Eye Examination Apparatus (AREA)
Abstract
本发明提供一种视觉追踪人眼注视点的方法,包括主车周期性接收视觉追踪设备提供的主车驾驶员的人眼所在位置坐标及人眼视线在当前投射屏幕内侧上的注视点坐标;主车筛查出当前投射屏幕的折射率及曲率,并结合人眼所在位置坐标和所述人眼视线在当前投射屏幕内侧上的注视点坐标,得到人眼视线在当前投射屏幕外侧上的注视点坐标及其向外折射形成的相应折射光路,且进一步结合预设的人眼常规视距,得到位于相应折射光路上人眼视线的最终注视点及其坐标。实施本发明,不仅能解决传统的车辆视觉追踪技术的局限与不足,还结合V2X技术的信号优势来增强车辆自身碰撞预警的准确性与可扩展性,提升车辆的安全性和实用性。
Description
技术领域
本发明涉及汽车技术领域,尤其涉及一种视觉追踪人眼注视点的方法、车辆预警方法及装置。
背景技术
随着车辆智能驾驶技术的发展和普及,融合各种感知数据进行预警计算的需求与日俱增。尽管车联网技术C-V2X(Cellular Vehicle to Everything,车用无线通信)得到迅速发展,使得汽车基于C-V2X技术感知外界的能力越来越强,但是现有的V2X应用并不涉及视觉追踪技术包含的视线信息。
目前,传统的车辆视觉追踪技术虽然涉及有视线信息,但该视线信息中所识别的注视点为投射在某一屏幕表面的点,导致识别结果有很大的局限性,同时传统的车辆视觉追踪技术因无法使用V2X技术所提供的远车信息,从而无法为车辆碰撞预警提供可靠依据。
因此,有必要对传统的车辆视觉追踪技术进行改进,解决传统的车辆视觉追踪技术的局限与不足,同时还有必要将V2X技术的信号优势与视觉追踪技术的注视点识别优势相结合,增强车辆自身碰撞预警的准确性与可扩展性,从而提升车辆的安全性和实用性。
发明内容
本发明实施例所要解决的技术问题在于,提供一种视觉追踪人眼注视点的方法、车辆预警方法及装置,不仅能解决传统的车辆视觉追踪技术的局限与不足,还结合V2X技术的信号优势来增强车辆自身碰撞预警的准确性与可扩展性,提升车辆的安全性和实用性。
为了解决上述技术问题,本发明实施例提供了一种视觉追踪人眼注视点的方法,用于主车上,所述方法包括以下步骤:
所述主车周期性接收视觉追踪设备提供的主车驾驶员的人眼所在位置坐标及人眼视线在当前投射屏幕内侧上的注视点坐标;其中,所述当前投射屏幕为挡风玻璃或车前窗;
所述主车筛查出当前投射屏幕的折射率及曲率,并结合所述人眼所在位置坐标和所述人眼视线在当前投射屏幕内侧上的注视点坐标,得到人眼视线在当前投射屏幕外侧上的注视点坐标及其向外折射形成的相应折射光路,且进一步结合预设的人眼常规视距,得到位于相应折射光路上人眼视线的最终注视点及其坐标。
其中,所述方法进一步包括:
所述主车若判定人眼视线先经车前窗折射后再由后视镜反射时,筛查出后视镜的反射率及曲率,并结合人眼视线经所述车前窗向外折射形成的折射光路,得到人眼视线经折射后在所述后视镜上的注视点坐标及其形成的第一反射光路,且进一步结合所述人眼常规视距,得到位于所述第一反射光路上人眼视线的最终注视点及其坐标。
其中,所述方法进一步包括:
所述主车若判定人眼视线未经车前窗折射而直接由所述后视镜反射时,接收所述视觉追踪设备提供的人眼视线在后视镜上的注视点坐标,并结合所述人眼所在位置坐标、所述后视镜的反射率及曲率和所述人眼视线在后视镜上的注视点坐标,得到人眼视线直接在所述后视镜上形成的第二反射光路,且进一步结合所述人眼常规视距,得到位于所述第二反射光路上人眼视线的最终注视点及其坐标。
其中,所述方法进一步包括:
所述主车周期性接收视觉追踪设备提供的主车驾驶员的疲劳状态,并根据所述主车驾驶员的疲劳状态,得到主车驾驶员的疲劳度,且进一步在所述主车驾驶员的疲劳度达到预设的告警阈值时,生成告警信号发给主车驾驶员。
其中,所述方法进一步包括:
所述主车若在某一周期内接收到远车发送的车辆信息,则向所述远车广播携带有车辆失控标识的信号。
其中,所述主车基于V2X广播信号或CAN总线信号与所述视觉追踪设备通信。
其中,所述方法进一步包括:
所述主车若基于C-V2X技术与所述视觉追踪设备通信时,将自身ID通过TBOX发给主车驾驶员的便携设备并由主车驾驶员经所述便携设备转发给所述视觉追踪设备绑定,实现所述主车与所述视觉追踪设备匹配。
其中,所述方法进一步包括:
所述主车在检测到与所述视觉追踪设备匹配时,计算自身车辆质心与所述视觉追踪设备之间的距离,并在判定所计算出的距离小于等于预设距离后,接收所述视觉追踪设备提供的主车驾驶员的疲劳状态、人眼所在位置坐标、人眼视线在挡风玻璃或车前窗内侧上的注视点坐标、或/及人眼视线在后视镜上的注视点坐标。
本发明实施例还提供了一种车辆预警方法,用于主车通过前述的方法得到的最终注视点或/及主车驾驶员的疲劳状态进行车辆碰撞预警,所述方法包括以下步骤:
所述主车在预定周期内获取远车的车辆信息,以及获取主车自身的车辆信息、人眼视线的最终注视点坐标或/及主车驾驶员的疲劳状态;
所述主车根据所述远车的车辆信息以及所述主车自身的车辆信息、所述人眼视线的最终注视点坐标或/及所述主车驾驶员的疲劳状态,对所述远车的运动轨迹是否与所述人眼视线存在交集、所述远车与所述人眼视线的最终注视点是否位于所述主车的同一相对方位区域或/及所述主车驾驶员的疲劳度进行检测,并根据检测结果,确定所述主车与所述远车之间发生碰撞的预警等级;
所述主车根据所述预警等级,生成预警信息发给主车驾驶员。
其中,所述确定所述主车与所述远车之间发生碰撞的预警等级的步骤,具体包括:
所述主车将自身的车辆信息和所述远车的车辆信息分别代入预定的离散化的运动学自行车模型中,得到所述主车的运动方程和所述远车的运动方程;
根据所述主车的车辆信息和所述远车的车辆信息,构建所述主车的车辆矩形模型和所述远车的车辆矩形模型;
在所述主车的运动方程和所述远车的运动方程中,确定各时刻对应的车辆运行参数;
根据所述车辆运行参数及所述人眼视线的最终注视点坐标,对所述人眼视线的最终注视点和所述远车是否位于所述主车的同一相对方位区域进行检测以及对所述远车的车辆矩形模型的运动轨迹是否与所述人眼视线存在交集进行检测;和/或根据所述主车驾驶员的疲劳状态,对所述主车驾驶员的疲劳度进行检测;
若所述远车的车辆矩形模型的运动轨迹与所述人眼视线不存在交集,且所述人眼视线的最终注视点和所述远车不位于所述主车的同一相对方位区域时,和/或若所述主车驾驶员的疲劳度大于第一阈值时,对预警时间进行调整;反之,则维持原有的预警时间;
对所述主车的车辆矩形模型与所述远车的车辆矩形模型是否相交进行迭代计算,并在所述主车的车辆矩形模型与所述远车的车辆矩形模型相交时,得到所述主车的车辆矩形模型与所述远车的车辆矩形模型发生碰撞的碰撞时间;
将所得到的碰撞时间与调整后的预警时间或原有的预警时间进行对比,且根据对比结果,计算所述主车与所述远车间发生碰撞的预警等级。
其中,所述方法进一步包括:
若对所述远车的运动轨迹是否与所述人眼视线存在交集进行检测,且对所述远车与所述人眼视线的最终注视点是否位于所述主车的同一相对方位区域进行检测,则根据公式对预警时间进行调整;
其中,tw为调整后的预警时间;tw0为初始预警时间;Rw为预警距离;|BnJ|为tn时刻所述远车相对于所述主车的位置坐标Bn与所述人眼视线的最终注视点坐标J之间的连线向量距离,其中,若所述远车的车辆矩形模型的运动轨迹与所述人眼视线存在交集,则|BnJ|=0;K为1或2,其中,若所述人眼视线的最终注视点和所述远车位于所述主车的同一相对方位区域,则K=1,反之,则K=2。
其中,所述方法进一步包括:
若仅对所述主车驾驶员的疲劳度进行检测,则根据公式对预警时间进行调整;
其中,tw为调整后的预警时间;tw0为初始预警时间;M为所述主车驾驶员的疲劳度,且M为正整数,取值范围为[1,5];所述第一阈值为1。
其中,所述方法进一步包括:
若同时对所述远车的运动轨迹是否与所述人眼视线存在交集、所述远车与所述人眼视线的最终注视点是否位于所述主车的同一相对方位区域及所述主车驾驶员的疲劳度进行检测,则根据公式对预警时间进行调整;
其中,tw为调整后的预警时间;tw0为初始预警时间;M为主车驾驶员的疲劳度,且M为正整数,取值范围为[1,5];所述第一阈值为1;Rw为预警距离;|BnJ|为tn时刻所述远车相对于所述主车的位置坐标Bn与所述人眼视线的最终注视点坐标J之间的连线向量距离,其中,若所述远车的车辆矩形模型的运动轨迹与所述人眼视线存在交集,则|BnJ|=0;K为1或2,其中,若所述人眼视线的最终注视点和所述远车位于所述主车的同一相对方位区域,则K=1,反之,则K=2。
其中,所述方法进一步包括:
所述主车在确定所述主车驾驶员的疲劳度达到第二阈值时,生成告警信号并发给主车驾驶员,并向所述远车广播携带有车辆失控标识的信号。
本发明实施例又提供了一种车辆预警装置,用于主车上,包括存储器和处理器,所述存储器存储有计算机程序,其中,所述处理器执行所述计算机程序时实现前述的车辆预警方法的步骤。
实施本发明实施例,具有如下有益效果:
1、本发明基于视觉追踪设备提供的人眼所在位置坐标和人眼视线在当前投射屏幕内侧上的注视点坐标,以及根据当前投射屏幕的折射率及曲率所形成的人眼视线的折射光路来得到人眼视线的最终注视点及其坐标,从而克服传统的车辆视觉追踪技术的视线信息中所识别的注视点为投射在某一屏幕表面的点,导致识别结果有很大的局限性与不足的问题;
2、本发明基于人眼视线的最终注视点或/及主车驾驶员的状态,对与远车之间发生碰撞的预警等级进行调整,使车辆能根据监测到的人眼视线的最终注视点或/及驾驶员疲劳状态自动调整自身碰撞预警,从而将V2X技术的信号优势与视觉追踪技术的注视点识别优势相结合,增强了车辆自身碰撞预警的准确性与可扩展性,提升了车辆的安全性和实用性;
3、本发明基于C-V2X技术对车辆的识别受天气等因素影响较小,只依赖于车辆状态数据而不依赖于道路曲率信息,从而进一步提高了行车安全性与舒适性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,根据这些附图获得其他的附图仍属于本发明的范畴。
图1为本发明实施例一提供的视觉追踪人眼注视点的方法的流程图;
图2为本发明实施例一提供的视觉追踪人眼注视点的方法应用于挡风玻璃的场景示意图;
图3为本发明实施例二提供的车辆预警方法的流程图;
图4为本发明实施例二提供的车辆预警方法中步骤S20所涉及行车运动方程的参量关系示意图;
图5为本发明实施例二提供的车辆预警方法中步骤S20所涉及主车的车辆矩形模型和远车的车辆矩形模型的参矢量关系示意图;
图6为本发明实施例提供的车辆预警方法中步骤S20所涉及第一时刻主车和远车的相对运动关系示意图;
图7为本发明实施例二提供的车辆预警方法中步骤S20所涉及n时刻主车和远车的相对运动关系示意图;
图8为本发明实施例二提供的车辆预警方法中步骤S20所涉及远车的车辆矩形模型和人眼视线的相对运动关系示意图;
图9a~9b为本发明实施二例提供的车辆预警方法中步骤S20所涉及主车和远车的相对方位示意图;
图10为本发明实施二例提供的车辆预警方法中步骤S20所涉及主车筛选碰撞远车时的相对运动关系示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步地详细描述。
如图1所示,为本发明实施例一中,提供的一种视觉追踪人眼注视点的方法,用于主车上,所述方法包括以下步骤:
步骤S1、所述主车周期性接收视觉追踪设备提供的主车驾驶员的人眼所在位置坐标及人眼视线在当前投射屏幕内侧上的注视点坐标;其中,所述当前投射屏幕为挡风玻璃或车前窗;
具体过程为,首先,主车基于C-V2X技术(如基于V2X广播信号)或其它通信技术(如基于CAN总线信号等)与视觉追踪设备(如集成了V2X功能的视觉追踪头盔、眼镜等,或者带视觉追踪功能的车载摄像头等)进行周期性(如120S)通信,并将自身ID通过TBOX发给主车驾驶员的便携设备(如手机、智能手环等),并由主车驾驶员经便携设备转发给视觉追踪设备绑定,实现主车与视觉追踪设备匹配。例如,主车驾驶员的手机与主车通过车内TBOX绑定,主车根据主车驾驶员需求生成与主车自身ID相关秘钥,并通过TBOX发送给主车驾驶员的手机,主车驾驶员通过手机将该秘钥发送给V2X视觉追踪便携设备完成授权,授权后的V2X视觉追踪便携设备发送的V2X消息会经过之前收到的秘钥加密,该消息只能被对应的车辆解析。
其次,主车在检测到与视觉追踪设备匹配时,计算自身车辆质心与视觉追踪设备之间的距离,并在判定所计算出的距离小于等于预设距离(如主车车辆宽度的一半)后,周期性(如120S)接收视觉追踪设备提供的人眼所在位置坐标、人眼视线在挡风玻璃或车前窗内侧上的注视点坐标。应当说明的是,若基于C-V2X技术,则主车根据接收到的视觉追踪设备的V2X信号强度RSSI来计算自身车辆质心与便携设备之间的距离,或者根据视觉追踪设备预先集成的高精定位功能来计算自身车辆质心与视觉追踪设备之间的距离。
可以理解的是,视觉追踪设备所计算得到的注视点,定义为人眼视线投射在空间中的三维位置,该注视点需要投射在对应的屏幕上。因此,从瞳孔中心到角膜的矢量与投射屏幕上的空间点存在对应关系,从而获取定义屏幕位置以及在对应关系的矩阵,就可以计算投射屏幕上的注视点位置。
步骤S2、所述主车筛查出当前投射屏幕的折射率及曲率,并结合所述人眼所在位置坐标和所述人眼视线在当前投射屏幕内侧上的注视点坐标,得到人眼视线在当前投射屏幕外侧上的注视点坐标及其向外折射形成的相应折射光路,且进一步结合预设的人眼常规视距,得到位于相应折射光路上人眼视线的最终注视点及其坐标。
具体过程为,首先,主车在预设的折射率及曲率表中,根据当前投射屏幕,查找到当前投射屏幕的折射率及曲率;
其次,根据人眼所在位置坐标及人眼视线在当前投射屏幕内侧上的注视点坐标,得到人眼视线方向,并根据当前投射屏幕的折射率及人眼视线方向,通过光路计算得到人眼视线在当前投射屏幕外侧上的注视点坐标及其向外折射形成相应的折射光路,且进一步综合预设的人眼常规视距(默认为100m,可由自行设置,也可根据路测单元RSU发出的天气信号自动调整),计算得到位于相应折射光路上人眼视线的最终注视点及其坐标。
在一个实施例中,如图2所示,人眼视线投射的当前投射屏幕为挡风玻璃,根据公式F0F1+F1F2+F2F3=Ls,对人眼视线的最终注视点F3及其坐标进行计算;其中,
F0点为人眼所在位置;F1为视觉追踪设备计算得到的人眼在挡风玻璃内侧上的注视点;即F0与F1均为已知坐标可直接通过视觉追踪设备获得;
F2为人眼视线在挡风玻璃外侧上的注视点;F3为人眼视线的最终注视点;Ls为预设的人眼常规视距,其值为常量。由于挡风玻璃的曲率及折射率均为查表得到的定值,故F2与F3坐标可通过光路折射计算得到。
同理,可以计算人眼视线投射的当前投射屏幕为车前窗上人眼视线的最终注视点及其坐标。
在本发明实施例一中,如果检测到人眼视线经车前窗折射后的最终注视点(即上述注视点F3)位于后视镜上,则需要进一步进行反射计算后,才能得到反射后的最终注视点。因此,所述方法进一步包括:
主车若判定人眼视线先经车前窗折射后再由后视镜反射时,筛查出后视镜的反射率及曲率,并结合人眼视线经车前窗向外折射形成的折射光路,得到人眼视线经折射后在后视镜上的注视点坐标及其形成的第一反射光路,且进一步结合人眼常规视距,得到位于第一反射光路上人眼视线的最终注视点及其坐标。可以理解的是,根据光学原理,可知人眼视线投射的车前窗与后视镜是相对应的。
在一个实施例中,根据公式F0F1+F1F2+F2F3+F3F4=Ls,对人眼视线的最终注视点F4及其坐标进行计算;其中,
F0点为人眼所在位置;F1为视觉追踪设备计算得到的人眼在车前窗内侧上的注视点;即F0与F1均为已知坐标可直接通过视觉追踪设备获得;
F2为人眼视线在车前窗外侧上的注视点;F3为人眼视线在后视镜上的注视点;F4为人眼视线的最终注视点;Ls为预设的人眼常规视距,其值为常量。由于车前窗和后视镜的曲率及折射率均为查表得到的定值,故F2与F3坐标可通过光路折射计算得到,而F4坐标可通过光路反射计算得到。
在本发明实施例一中,如果检测到车前窗被摇下(即人眼视线无需通过车前窗折射),使人眼视线直接投射到后视镜上,则只需进行反射计算,就能得到反射后的最终注视点。因此,所述方法进一步包括:
主车若判定人眼视线未经车前窗折射而直接由后视镜反射时,接收视觉追踪设备提供的人眼视线在后视镜上的注视点坐标,并结合人眼所在位置坐标、后视镜的反射率及曲率和人眼视线在后视镜上的注视点坐标,得到人眼视线直接在后视镜上形成的第二反射光路,且进一步结合人眼常规视距,得到位于第二反射光路上人眼视线的最终注视点及其坐标。
在一个实施例中,根据公式F0F1+F1F2=Ls,对人眼视线的最终注视点F2及其坐标进行计算;其中,
F0点为人眼所在位置;F1为视觉追踪设备计算得到的人眼在后视镜上的注视点;即F0与F1均为已知坐标可直接通过视觉追踪设备获得;
F2为人眼视线的最终注视点;Ls为预设的人眼常规视距,其值为常量。由于后视镜的曲率及折射率均为查表得到的定值,故F2坐标可通过光路反射计算得到。
在本发明实施例一中,视觉追踪设备不仅仅提供视觉追踪技术来确定人眼视线的最终注视点,还内置有生命体征检测功能,可以监测携带者的呼吸、脉搏、体温等生命体征参数,并根据上述生命体征参数来评估携带者的疲劳状态,从而进行安全预警。例如,疲劳状态包括健康、轻微疲劳、中度疲劳、重度疲劳和深度疲劳等五个状态。因此,所述方法进一步包括:
主车周期性接收视觉追踪设备提供的主车驾驶员的疲劳状态,并根据主车驾驶员的疲劳状态,得到主车驾驶员的疲劳度,且进一步在主车驾驶员的疲劳度达到预设的告警阈值时,生成告警信号发给主车驾驶员。
由此可见,此时主车不仅可以周期性接收视觉追踪设备提供的主车驾驶员的疲劳状态,还可以周期性接收视觉追踪设备提供的主车驾驶员的人眼所在位置坐标、人眼视线在挡风玻璃或车前窗内侧上的注视点坐标、或/及人眼视线在后视镜上的注视点坐标(此时车前窗处于被摇下的状态)。
在一个实施例中,根据视觉追踪设备发送的主车驾驶员的疲劳状态,在预设的疲劳状态与疲劳度的映射表中,得到主车驾驶员的疲劳度M;其中,预设的疲劳状态与疲劳度的映射表中每一个疲劳度都会对应一个疲劳状态并被赋予一个数值。例如,健康状态的疲劳度M为1、轻微疲劳的疲劳度M为2、中度疲劳的疲劳度M为3、重度疲劳的疲劳度M为4和深度疲劳的M疲劳度为5。
一旦主车驾驶员的疲劳度M达到预设的告警阈值(如5),即主车驾驶员处于深度疲劳状态,则主车会通过CAN总线或V2X技术向中控界面发送包含告警画面和/或告警声音等告警信号给主车驾驶员,用以车辆预警来提醒主车驾驶员注意行车安全。
可以理解的是,主车若在某一周期内接收到远车发送的车辆信息,则向远车广播携带有车辆失控标识的信号(如车辆失控这个国标V2X信号),用以提醒远车驾驶员。其中,车辆信息用于表征车辆的行驶状态(例如行驶速度、行驶加速度、偏航角和车速方向角等),还可以表征车辆的物理属性信息(例如质心坐标、前轮轴线、后轮轴线和前轮转角等)。
相对于本发明实施例一中提供的视觉追踪人眼注视点的方法,如图3所示,本发明实施例二中,还提供一种车辆预警方法,用于主车通过本发明实施例一中提供的视觉追踪人眼注视点的方法所得到的最终注视点或/及主车驾驶员的疲劳状态进行车辆碰撞预警,所述方法包括以下步骤:
步骤S10、所述主车在预定周期内获取远车的车辆信息,以及获取主车自身的车辆信息、人眼视线的最终注视点坐标或/及主车驾驶员的疲劳状态;
具体过程为,主车在预定周期(如120S)内基于C-V2X技术(如基于V2X广播信号)或其它通信技术(如雷达、摄像头等)接收远车的车辆信息,以及自动获取主车自身的车辆信息、人眼视线的最终注视点坐标或/及主车驾驶员的疲劳状态。
步骤S20、所述主车根据所述远车的车辆信息以及所述主车自身的车辆信息、所述人眼视线的最终注视点坐标或/及所述主车驾驶员的疲劳状态,对所述远车的运动轨迹是否与所述人眼视线存在交集、所述远车与所述人眼视线的最终注视点是否位于所述主车的同一相对方位区域或/及所述主车驾驶员的疲劳度进行检测,并根据检测结果,确定所述主车与所述远车之间发生碰撞的预警等级;
具体过程为,第一步、由于车辆运行参数包括主车和远车的质心连线向量、主车和远车的质心距离、远车的相对运动轨迹向量、主车的行驶速度和远车的行驶速度中的至少一个,因此将上述获取到的主车的车辆信息代入运动学自行车模型,得到主车的运动方程,并将远车的车辆信息代入运动学自行车模型,得到远车的运动方程。
在一个实施例中,运动学自行车模型可以通过如下公式或公式变形进行表达:
如图4所示,x和y分别表示车辆在GPS提供的惯性坐标下的质心坐标,v代表车辆的行驶速度,a表示车辆的行驶加速度,在运动学自行车模型中车辆的行驶加速度与车辆的行驶速度保持相同的方向。ψ是车辆的偏航角,β为车速方向角,lr和lf分别表示车辆质心坐标与其后轮轴线和前轮轴线的垂直距离。δf表示车辆的前轮转角,该角度可由方向盘转角乘以传动比计算得到,由于大部分车辆的后轮都无法转向,故假设δr为0。
将主车的车辆信息和远车的车辆信息分别代入上述离散化的运动学自行车模型,得到主车的运动方程和远车的运动方程,这里以A代表主车,B代表远车。
可选地,主车A在t时刻的运动方程可以用下述公式或公式变形进行表达:
当n=0时:
同样的,远车B在t时刻的运动方程可以用下述公式或公式变形进行表达:
当n=0时:
本申请实施例中的下标A和B分别代表主车A和远车B相应的参数,坐标A(xA,yA)和坐标B(xB,yB)分别代表主车A和远车B的质心坐标;Δt为单位时间步长。
注意以上参数在V2X国标中均有定义,为V2X信号中自带信号,如果部分信号缺失可使用替代值,比如令L为车身总长,是V2X必选信号。
第二步、根据主车的车辆信息和远车的车辆信息,构建主车的车辆矩形模型和远车的车辆矩形模型;
在一个实施例中,对于车辆来说,知道质心坐标、车身长宽及lr和lf和车头方向角即可算出车辆的矩形模型并确定其位置。如图5所示,根据车辆本车坐标信息和车身参数信息(车身长宽已知,车身质心坐标已知为主车A、远车B两点坐标),即可做出远车B的车辆矩形模型QRST和主车A的车辆矩形模型EFGH,由于碰撞发生时两车基本都处于统一海拔,所以本申请只考虑2D场景。
第三步、在主车的运动方程和远车的运动方程中,将主车的车辆信息和远车的车辆信息经过数学和物理计算,确定各时刻对应的车辆运行参数;其中,车辆运行参数可以描述主车的运动轨迹状态,也可以描述远车的运动轨迹状态,还可以描述两车相对的运动轨迹状态。例如,能够根据主车的速度和远车的速度,得到远车相对于主车的速度。
因此,车辆运行参数同样可以描述两车车辆矩形模型各自单独的运动轨迹状态,也可以描述两车车辆矩形模型相对的运动轨迹状态。
在一个实施例中,如图6和图7所示,以A点作为相对运动的参考点保持静止,通过矢量法计算B点相对A的运动轨迹,此时车辆运行参数中相对运动的速度和加速度表达式如下:
以及t时刻远车B相对于主车A的坐标Bt,进而得到在第一时刻的时候的相对运动轨迹向量的表达式为:
其中Δt为时间间隔,即为单位时间步长。
根据运动学自行车模型,车辆加速度的方向会有变化,且相对加速度的方向和车辆相对速度的方向不一定同向,所以在图6和图7中使用画出向量
定义为点B1的坐标,可以通过如下矢量计算获得:
其中,
同理,定义为点Bn的坐标,其计算公式如下:
其中,
第四步、根据车辆运行参数及人眼视线的最终注视点坐标,对人眼视线的最终注视点和远车是否位于主车的同一相对方位区域进行检测,对远车的车辆矩形模型的运动轨迹是否与人眼视线存在交集进行检测;和/或根据主车驾驶员的疲劳状态,对主车驾驶员的疲劳度进行检测;
在一个实施例中,根据人眼视线的最终注视点GPS惯性坐标和远车GPS惯性坐标,确定二者是否位于主车的同一相对方位区域。而远车的车辆矩形模型的运动轨迹是否与人眼视线存在交集,可通过计算图8中线段AJ是否与远车B车辆矩形模型形成的矩形QnRnSnTn相交来判定,此时需判断线段AJ是否与矩形QnRnSnTn相交的每条边都相交;其中,A为主车A的质心,J为人眼视线的最终注视点。应当说明的是,如果线段AJ与矩形QnRnSnTn相交,则可认为主车驾驶员当前正注视着远车B,否则认为主车驾驶员未能注意到远车B。视觉追踪设备不能直接判断出场景注视点是否在远车B上,且矩形QnRnSnTn的位置为迭代后的预判值,而人眼视线的最终注视点J的坐标在迭代计算时保持不变,即为定值。
以线段AB和线段CD是否相交为例,对线段AJ是否与矩形QnRnSnTn相交的每条边都相交进行依次判断,方法具体如下:
已知线段A(x1,y1)B(x2,y2)和线段C(x3,y3)D(x4,y4),使用参数方程表示线段AB和CD所在的直线方程:
如果两个线段之间有交点,即联立方程求参数λ和μ:
令向量:
u=(x2-x1,y2-y1)=AB向量,
v=(x4-x3,y4-y3)=CD向量,
w=(x3-x1,y3-y1)=AC向量;
求解λ和μ,可得:
其中,
当det≠0时,λ和μ的值在[0,1]之间说明线段有交点,λ和μ的值都在[0,1]之外说明线段没交点;
而当det=0,说明两线段平行或共线,需要使用特殊的处理方法计算:
首先,计算若则说明两线段共线,有可能相交,需要进一步计算,否则说明两线段平行不共线,不可能相交,不进行下一步计算。对于共线情况,可将ABCD四个点的坐标由x坐标从小到大排序(当线段平行y轴时用y坐标大小排序),然后判断四个坐标的位置顺序,从而得到是否有重合部分,如有说明两线段相交。
根据主车驾驶员的疲劳状态,在预设的疲劳状态与疲劳度的映射表中,检测出主车驾驶员的疲劳度M。
第五步、若远车的车辆矩形模型的运动轨迹与人眼视线不存在交集,且人眼视线的最终注视点和远车不位于主车的同一相对方位区域时,和/或主车驾驶员的疲劳度大于第一阈值时,对预警时间进行调整;反之,则维持原有的预警时间;
在一个实施例中,若对远车的运动轨迹是否与人眼视线存在交集进行检测,以及对远车与人眼视线的最终注视点是否位于主车的同一相对方位区域进行检测,则根据公式对预警时间进行调整;
其中,tw为调整后的预警时间;tw0为初始预警时间;Rw为预警距离;|BnJ|为tn时刻远车相对于主车的位置坐标Bn与人眼视线的最终注视点坐标J之间的连线向量距离,其中,若远车的车辆矩形模型的运动轨迹与人眼视线存在交集,则|BnJ|=0;K为1或2,其中,若人眼视线的最终注视点和远车位于主车的同一相对方位区域,则K=1,反之,则K=2。由此可见,主车驾驶员的人眼视线的最终注视点坐标J距离远车预判坐标Bn越远,则|BnJ|就越大,留给主车驾驶员的反应时间也越少。
在另一个实施例中,若仅对主车驾驶员的疲劳度进行检测,则根据公式对预警时间进行调整;其中,tw为调整后的预警时间;tw0为初始预警时间;M为主车驾驶员的疲劳度,且M为正整数,取值范围为[1,5];第一阈值为1。由此可见,主车驾驶员的疲劳度M越高,留给主车驾驶员的反应时间也越短。
在又一个实施例中,若同时对远车的运动轨迹是否与人眼视线存在交集进行检测、对远车与人眼视线的最终注视点是否位于所述主车的同一相对方位区域进行检测及对主车驾驶员的疲劳度进行检测,则根据公式对预警时间进行调整;
其中,tw为调整后的预警时间;tw0为初始预警时间;M为主车驾驶员的疲劳度,且M为正整数,取值范围为[1,5];第一阈值为1;Rw为预警距离;|BnJ|为tn时刻远车相对于主车的位置坐标Bn与人眼视线的最终注视点坐标J之间的连线向量距离,其中,若远车的车辆矩形模型的运动轨迹与人眼视线存在交集,则|BnJ|=0;K为1或2,其中,若人眼视线的最终注视点和远车位于主车的同一相对方位区域,则K=1,反之,则K=2。由此可见,主车驾驶员的人眼视线的最终注视点坐标J距离远车预判坐标Bn越远,则|BnJ|就越大,留给主车驾驶员的反应时间也越少,同理,主车驾驶员的疲劳度M越高,留给主车驾驶员的反应时间也越短。
应当说明的是,预警距离Rw的计算方法如下:首先,根据主车的质心坐标、主车的前轮轴线和主车的后轮轴线,将主车周围区域进行多区域划分;其次,根据主车的车头方向和远车的车头方向,确定远车相对于主车的车头方向夹角;最后,根据远车的质心坐标在各区域中的分布和车头方向夹角,确定初始预警距离Rw。
在一个实施例中,子区域、预警距离确定公式和车头方向夹角的对应关系如下表1所示:
表1
其中,所有Rw的计算公式如下:
Rw=Rw6=Lf,A+Lr,B
Rw=Rw7=Lf,A+Lf,B
Rw=Rw11=Lr,A+Lf,B
Rw=Rw12=Lr,A+Lr,B
其中,θref为车头方向夹角。Lf,A为主车的质心坐标与主车的前轮轴线的垂直距离,Lr,A为主车的质心坐标与主车的后轮轴线的垂直距离,Lf,B为远车的质心坐标与远车的前轮轴线的垂直距离,Lr,B为远车的质心坐标与远车的后轮轴线的垂直距离,WA为主车的宽度,WB为远车的宽度;ΔL为预留距离。
如图9a~9b所示,在主车质心A点上建立新的坐标系,X轴正方向保持与主车车头方向同向,可以得到相对主车的新坐标系,并借此划分出相对主车的方位并计算出远车相对主车的夹角。新坐标系的角度设置以逆时针为正,Y轴正方向为0°,图9b中所示远车与主车的车头方向角夹角θrel为120°。为了计算两车刚好相撞的距离,将两车都视为矩形,宽度分别为WA和WB,Lf与Lr的定义与运动学自行车模型中的定义一致。
以远车位于主车右前方为例,两车在车辆A的右上角C点接触,|AB|为两车质心连线距离,很明显有|AB|<|AC|+|BC|。因此,出于安全考虑,采用|AC|+|BC|作为预警距离Rw0。因为|AC|是常数且|BC|的最大值为得到根据两车车头方向夹角的不同,得到
然而,如果预警距离过大,系统会产生一些不必要的预警和误报,例如车辆A和车辆B在相邻车道同向行驶(或逆向行驶,两车车头方向夹角小于等于30°依然视为同向行驶,逆向行驶同理),车辆B相对于车辆A在其右侧,此时预警距离应使用两车横向距离,即同样地,根据两车车头方向
角的变化,得到
其中ΔL是一个防刮蹭的预留距离,其可以由用户自己定义,可选地,其可以设为1米。需要说明的是,两车逆向行驶同理。
第六步、对主车的车辆矩形模型与远车的车辆矩形模型是否相交进行迭代计算,并在判定主车的车辆矩形模型与远车的车辆矩形模型相交时,得到主车的车辆矩形模型与远车的车辆矩形模型发生碰撞的碰撞时间;
在一个实施例中,车辆矩形模型结合上文所述车辆相对行驶轨迹即可近似做出车辆在第n个Δt时间内扫过的面积。如图5及图8所示,矩形QnRnSnTn即为远车B在Δt时间内相对于主车A扫过的面积,如果矩形QnRnSnTn与矩形EFGH有重叠说明两车在nΔt时刻有碰撞风险(对比图7和图8)。判断车辆矩形模型是否重叠原理,即为判断矩形QnRnSnTn与矩形EFGH是否相交,通过对两个矩形所有边长组合进行相交判断。
因此,按上述主车及远车的车辆矩形模型进行迭代计算,当计算得到图8中远车的车辆矩形模型的矩形QnRnSnTn与主车的车辆矩形模型的矩形EFGH相交时,停止迭代计算并返回当前迭代次数n及碰撞时间ttc(time to collision),如果以上条件一直不满足,则迭代计算会持续运行直到达到最大迭代步数n=Nmax,其中Nmax=Nmax0*M,*为乘法运算,Nmax0为默认初始最大迭代步数,如果此时依然计算出两车没有碰撞风险,则返回无碰撞风险(ttc=-1)。
设置碰撞时间如下式计算:
若0≤ttc≤tw,则表示远车B和主车A以当前运动参数行驶时间ttc之后,两车的相对距离会小于或等于预警距离。
应当说明的是,由于车辆运行参数能够描述主车和远车的运动轨迹状态,车辆信息用于表征车辆的行驶状态和物理属性信息,筛选规则包括根据车辆运行参数之间的相互关系,因此能够根据通过主车的车辆信息和远车的车辆信息确定的车辆运行参数,并采用预设的筛选规则对车辆运行参数之间的相互关系进行判定,从而从多个远车中筛选出具有预警等级的待预警车辆,以进行预警。
其中,筛选规则中可以包括第一筛选规则、第二筛选规则、第三筛选规则中的任意一个,也可以包括任意两个的组合,还可以包括上述三个,对此本实施例不做限定。
第一筛选规则包括,两车的质心距离大于预设的初筛半径,该初筛半径可以为预先设定的,例如其可以是根据道路情况设定。该第一筛选规则可以用公式或该公式变形的进行表达,其中为两车的质心连线向量,A和B分别代表两车的质心坐标;R为预设的初筛半径,该初筛半径R可以是根据经验设定的(如200m、300m、500m等),也可以是根据车辆所处的实际道路情况或者筛选需求进行调整得的。
第二筛选规则包括:两车速度在两车质心连线向量上的投影的速度和大于0,即认为两车存在碰撞的可能,而当车速度在两车质心连线向量上的投影的速度和小于等于0,即认为两车存在碰撞的可能性小。
uBA=vAcos(ab)+vBcos(ba)
如图9所示,根据公式计算出两车速度在两车质心连线向量上的投影的速度和uBA。
等效于判断两车质心连线向量(向量)和两车相对运动轨迹向量(向量)的夹角状态,即当时,车辆B相对于车辆A正在离去。
第三筛选规则包括:主车的行驶速度大于预设的安全时速阈值,远车相对于主车的相对行驶速度大于所述安全时速阈值,其中,安全时速阈值可以是人为设定的,或者依据道路情况设定的,例如其可以设置为10KM/h。当主车的行驶速度小于或等于安全时速阈值的时候,且远车相对于主车的相对行驶速度小于或等于安全时速阈值的时候,则认为该速度下两车发生碰撞的可能性比较小;当主车的行驶速度大于安全时速阈值的时候,车辆行驶较快,或者远车相对于主车的相对行驶速度大于安全时速阈值的时候,则认为两车发生碰撞的可能性比较大。在第三筛选条件中,关于两车的质心距离大于预警半径的描述,可以参考第二筛选条件中的描述。
第七步、将所得到的碰撞时间与调整后的预警时间或原有的预警时间进行对比,且根据对比结果,计算主车与远车间发生碰撞的预警等级。
在一个实施例中,若0≤ttc≤tw,根据公式或者该公式的变形确定预警等级W,其中,[]为取整运算(四舍五入),Wmax为最大预警等级,Rw为预警距离,S为安全系数。可选地,最大预警等级可以为认为用户定义,其可以为正整数,例如10,即表征共有10级预警。安全系数可以随不同的碰撞场景(前向碰撞和交叉路口碰撞)的危险程度取不同的值,越危险的地方取值越大,场景的危险程度可以由用户进行定义。对于质心距离小于调整后的预警距离的情况,系统可以跳过后续的迭代过程,直接设置ttc=0,使得计算出来的预警等级直接为最大预警等级。
步骤S30、所述主车根据所述预警等级,生成预警信息发给主车驾驶员。
具体过程为,将预警等级携带在预警信息内发给主车驾驶员,该预警信息还包括主车相对方位等信息。
可以理解的是,主车在确定主车驾驶员的疲劳度M达到第二阈值(如5)时,不仅向主车驾驶员发出告警信号(如通过CAN总线向中控界面发送包含告警画面和/或告警声音等告警信号),还会向远车广播携带有车辆失控标识的信号(如车辆失控这个国标V2X信号)。
相对于本发明实施例二中提供的一种车辆预警方法,本发明实施例三又提供了一种车辆预警装置,用于主车上,包括存储器和处理器,存储器存储有计算机程序,其中,处理器执行计算机程序时实现本发明实施例二中的车辆预警方法的步骤。应当说明的是,本发明实施例三中处理器执行计算机程序的过程,与本发明实施例二中提供的一种车辆预警方法中各个步骤的执行过程一致,具体可参见前述相关内容描述。
实施本发明实施例,具有如下有益效果:
1、本发明基于视觉追踪设备提供的人眼所在位置坐标和人眼视线在当前投射屏幕内侧上的注视点坐标,以及根据当前投射屏幕的折射率及曲率所形成的人眼视线的折射光路来得到人眼视线的最终注视点及其坐标,从而克服传统的车辆视觉追踪技术的视线信息中所识别的注视点为投射在某一屏幕表面的点,导致识别结果有很大的局限性与不足的问题;
2、本发明基于人眼视线的最终注视点或/及主车驾驶员的状态,对与远车之间发生碰撞的预警等级进行调整,使车辆能根据监测到的人眼视线的最终注视点或/及驾驶员疲劳状态自动调整自身碰撞预警,从而将V2X技术的信号优势与视觉追踪技术的注视点识别优势相结合,增强了车辆自身碰撞预警的准确性与可扩展性,提升了车辆的安全性和实用性;
3、本发明基于C-V2X技术对车辆的识别受天气等因素影响较小,只依赖于车辆状态数据而不依赖于道路曲率信息,从而进一步提高了行车安全性与舒适性。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,所述的程序可以存储于一计算机可读取存储介质中,所述的存储介质,如ROM/RAM、磁盘、光盘等。
本发明所提到的方向和位置用语,例如「上」、「下」、「前」、「后」、「左」、「右」、「内」、「外」、「顶部」、「底部」、「侧面」等,仅是参考附图的方向或位置。因此,使用的方向和位置用语是用以说明及理解本实用新型,而非对发明保护范围的限制。
以上所揭露的仅为本发明较佳实施例而已,当然不能以此来限定本发明之权利范围,因此依本发明权利要求所作的等同变化,仍属本发明所涵盖的范围。
Claims (15)
1.一种视觉追踪人眼注视点的方法,用于主车上,其特征在于,所述方法包括以下步骤:
所述主车周期性接收视觉追踪设备提供的主车驾驶员的人眼所在位置坐标及人眼视线在当前投射屏幕内侧上的注视点坐标;其中,所述当前投射屏幕为挡风玻璃或车前窗;
所述主车筛查出当前投射屏幕的折射率及曲率,并结合所述人眼所在位置坐标和所述人眼视线在当前投射屏幕内侧上的注视点坐标,得到人眼视线在当前投射屏幕外侧上的注视点坐标及其向外折射形成的相应折射光路,且进一步结合预设的人眼常规视距,得到位于相应折射光路上人眼视线的最终注视点及其坐标。
2.如权利要求1所述的视觉追踪人眼注视点的方法,其特征在于,所述方法进一步包括:
所述主车若判定人眼视线先经车前窗折射后再由后视镜反射时,筛查出后视镜的反射率及曲率,并结合人眼视线经所述车前窗向外折射形成的折射光路,得到人眼视线经折射后在所述后视镜上的注视点坐标及其形成的第一反射光路,且进一步结合所述人眼常规视距,得到位于所述第一反射光路上人眼视线的最终注视点及其坐标。
3.如权利要求2所述的视觉追踪人眼注视点的方法,其特征在于,所述方法进一步包括:
所述主车若判定人眼视线未经车前窗折射而直接由所述后视镜反射时,接收所述视觉追踪设备提供的人眼视线在后视镜上的注视点坐标,并结合所述人眼所在位置坐标、所述后视镜的反射率及曲率和所述人眼视线在后视镜上的注视点坐标,得到人眼视线直接在所述后视镜上形成的第二反射光路,且进一步结合所述人眼常规视距,得到位于所述第二反射光路上人眼视线的最终注视点及其坐标。
4.如权利要求3所述的视觉追踪人眼注视点的方法,其特征在于,所述方法进一步包括:
所述主车周期性接收视觉追踪设备提供的主车驾驶员的疲劳状态,并根据所述主车驾驶员的疲劳状态,得到主车驾驶员的疲劳度,且进一步在所述主车驾驶员的疲劳度达到预设的告警阈值时,生成告警信号发给主车驾驶员。
5.如权利要求4所述的视觉追踪人眼注视点的方法,其特征在于,所述方法进一步包括:
所述主车若在某一周期内接收到远车发送的车辆信息,则向所述远车广播携带有车辆失控标识的信号。
6.如权利要求5所述的视觉追踪人眼注视点的方法,其特征在于,所述主车基于V2X广播信号或CAN总线信号与所述视觉追踪设备通信。
7.如权利要求6所述的视觉追踪人眼注视点的方法,其特征在于,所述方法进一步包括:
所述主车若基于C-V2X技术与所述视觉追踪设备通信时,将自身ID通过TBOX发给主车驾驶员的便携设备,并由主车驾驶员经所述便携设备转发给所述视觉追踪设备绑定,实现所述主车与所述视觉追踪设备匹配。
8.如权利要求7所述的视觉追踪人眼注视点的方法,其特征在于,所述方法进一步包括:
所述主车在检测到与所述视觉追踪设备匹配时,计算自身车辆质心与所述视觉追踪设备之间的距离,并在判定所计算出的距离小于等于预设距离后,接收所述视觉追踪设备提供的主车驾驶员的疲劳状态、人眼所在位置坐标、人眼视线在挡风玻璃或车前窗内侧上的注视点坐标、或/及人眼视线在后视镜上的注视点坐标。
9.一种车辆预警方法,其特征在于,用于主车通过权利要求8所述方法得到的最终注视点或/及主车驾驶员的疲劳状态进行车辆碰撞预警,所述方法包括以下步骤:
所述主车在预定周期内获取远车的车辆信息,以及获取主车自身的车辆信息、人眼视线的最终注视点坐标或/及主车驾驶员的疲劳状态;
所述主车根据所述远车的车辆信息以及所述主车自身的车辆信息、所述人眼视线的最终注视点坐标或/及所述主车驾驶员的疲劳状态,对所述远车的运动轨迹是否与所述人眼视线存在交集、所述远车与所述人眼视线的最终注视点是否位于所述主车的同一相对方位区域或/及所述主车驾驶员的疲劳度进行检测,并根据检测结果,确定所述主车与所述远车之间发生碰撞的预警等级;
所述主车根据所述预警等级,生成预警信息发给主车驾驶员。
10.如权利要求9所述的车辆预警方法,其特征在于,所述确定所述主车与所述远车之间发生碰撞的预警等级的步骤,具体包括:
所述主车将自身的车辆信息和所述远车的车辆信息分别代入预定的离散化的运动学自行车模型中,得到所述主车的运动方程和所述远车的运动方程;
根据所述主车的车辆信息和所述远车的车辆信息,构建所述主车的车辆矩形模型和所述远车的车辆矩形模型;
在所述主车的运动方程和所述远车的运动方程中,确定各时刻对应的车辆运行参数;
根据所述车辆运行参数及所述人眼视线的最终注视点坐标,对所述人眼视线的最终注视点和所述远车是否位于所述主车的同一相对方位区域进行检测,对所述远车的车辆矩形模型的运动轨迹是否与所述人眼视线存在交集进行检测;和/或根据所述主车驾驶员的疲劳状态,对所述主车驾驶员的疲劳度进行检测;
若所述远车的车辆矩形模型的运动轨迹与所述人眼视线不存在交集,且所述人眼视线的最终注视点和所述远车不位于所述主车的同一相对方位区域时,和/或所述主车驾驶员的疲劳度大于第一阈值时,对预警时间进行调整;反之,则维持原有的预警时间;
对所述主车的车辆矩形模型与所述远车的车辆矩形模型是否相交进行迭代计算,并在判定所述主车的车辆矩形模型与所述远车的车辆矩形模型相交时,得到所述主车的车辆矩形模型与所述远车的车辆矩形模型发生碰撞的碰撞时间;
将所得到的碰撞时间与调整后的预警时间或原有的预警时间进行对比,且根据对比结果,计算所述主车与所述远车间发生碰撞的预警等级。
11.如权利要求10所述的车辆预警方法,其特征在于,所述方法进一步包括:
若对所述远车的运动轨迹是否与所述人眼视线存在交集进行检测,且对所述远车与所述人眼视线的最终注视点是否位于所述主车的同一相对方位区域进行检测,则根据公式对预警时间进行调整;
其中,tw为调整后的预警时间;tw0为初始预警时间;Rw为预警距离;|BnJ|为tn时刻所述远车相对于所述主车的位置坐标Bn与所述人眼视线的最终注视点坐标J之间的连线向量距离,其中,若所述远车的车辆矩形模型的运动轨迹与所述人眼视线存在交集,则|BnJ|=0;K为1或2,其中,若所述人眼视线的最终注视点和所述远车位于所述主车的同一相对方位区域,则K=1,反之,则K=2。
12.如权利要求10所述的车辆预警方法,其特征在于,所述方法进一步包括:
若仅对所述主车驾驶员的疲劳度进行检测,则根据公式对预警时间进行调整;
其中,tw为调整后的预警时间;tw0为初始预警时间;M为所述主车驾驶员的疲劳度,且M为正整数,取值范围为[1,5];所述第一阈值为1。
13.如权利要求10所述的车辆预警方法,其特征在于,所述方法进一步包括:
若同时对所述远车的运动轨迹是否与所述人眼视线存在交集、所述远车与所述人眼视线的最终注视点是否位于所述主车的同一相对方位区域及所述主车驾驶员的疲劳度进行检测,则根据公式对预警时间进行调整;
其中,tw为调整后的预警时间;tw0为初始预警时间;M为主车驾驶员的疲劳度,且M为正整数,取值范围为[1,5];所述第一阈值为1;Rw为预警距离;|BnJ|为tn时刻所述远车相对于所述主车的位置坐标Bn与所述人眼视线的最终注视点坐标J之间的连线向量距离,其中,若所述远车的车辆矩形模型的运动轨迹与所述人眼视线存在交集,则|BnJ|=0;K为1或2,其中,若所述人眼视线的最终注视点和所述远车位于所述主车的同一相对方位区域,则K=1,反之,则K=2。
14.如权利要求12或13所述的车辆预警方法,其特征在于,所述方法进一步包括:
所述主车在确定所述主车驾驶员的疲劳度达到第二阈值时,生成告警信号并发给主车驾驶员,并向所述远车广播携带有车辆失控标识的信号。
15.一种车辆预警装置,用于主车上,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求9~14中任一项所述的车辆预警方法的步骤。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010528103.0A CN113815623B (zh) | 2020-06-11 | 2020-06-11 | 一种视觉追踪人眼注视点的方法、车辆预警方法及装置 |
PCT/CN2021/098341 WO2021249300A1 (zh) | 2020-06-11 | 2021-06-04 | 一种视觉追踪人眼注视点的方法、车辆预警方法及装置 |
US17/908,128 US20230025540A1 (en) | 2020-06-11 | 2021-06-04 | Method for visually tracking gaze point of human eye, vehicle early warning method and device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010528103.0A CN113815623B (zh) | 2020-06-11 | 2020-06-11 | 一种视觉追踪人眼注视点的方法、车辆预警方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113815623A CN113815623A (zh) | 2021-12-21 |
CN113815623B true CN113815623B (zh) | 2023-08-08 |
Family
ID=78845302
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010528103.0A Active CN113815623B (zh) | 2020-06-11 | 2020-06-11 | 一种视觉追踪人眼注视点的方法、车辆预警方法及装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230025540A1 (zh) |
CN (1) | CN113815623B (zh) |
WO (1) | WO2021249300A1 (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200082176A1 (en) * | 2018-09-12 | 2020-03-12 | Toyota Motor Engineering & Manufacturing North America, Inc. | Systems and methods for extending detachable automobile sensor capabilities for identification of selected object types |
US20220165073A1 (en) * | 2019-02-22 | 2022-05-26 | Panasonic Intellectual Property Management Co., Ltd. | State detection device and state detection method |
CN115675282A (zh) * | 2022-10-28 | 2023-02-03 | 重庆长安汽车股份有限公司 | 倒车预警策略确定方法、预警方法、系统、设备及介质 |
US20240199082A1 (en) * | 2022-12-15 | 2024-06-20 | Toyota Research Institute, Inc. | Attention-based agent interaction system |
EP4427995A1 (en) * | 2023-03-06 | 2024-09-11 | Aptiv Technologies AG | Method of assisting a driver of a vehicle, and a driver assistance system thereof |
CN116311252B (zh) * | 2023-04-06 | 2024-11-22 | 同济大学 | 一种基于视觉道路环境图式的碰撞预警方法及系统 |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62225429A (ja) * | 1986-03-28 | 1987-10-03 | Yazaki Corp | 車載用ヘツドアツプデイスプレイ装置 |
JPH06189906A (ja) * | 1992-12-26 | 1994-07-12 | Nissan Motor Co Ltd | 視線方向計測装置 |
JP2011107382A (ja) * | 2009-11-17 | 2011-06-02 | Nippon Seiki Co Ltd | 車両用表示装置 |
WO2011111480A1 (ja) * | 2010-03-10 | 2011-09-15 | 本田技研工業株式会社 | 前方視認装置 |
CN102802502A (zh) * | 2010-03-22 | 2012-11-28 | 皇家飞利浦电子股份有限公司 | 用于跟踪观察者的注视点的系统和方法 |
CN103770733A (zh) * | 2014-01-15 | 2014-05-07 | 中国人民解放军国防科学技术大学 | 一种驾驶员安全驾驶状态检测方法及装置 |
CN103886307A (zh) * | 2014-04-15 | 2014-06-25 | 王东强 | 一种视线跟踪及疲劳预警方法 |
DE102014100352A1 (de) * | 2013-01-18 | 2014-07-24 | Carnegie Mellon University | Fahrerblickdetektionssystem |
JP2017004117A (ja) * | 2015-06-05 | 2017-01-05 | 富士通テン株式会社 | 視線検出装置および視線検出方法 |
KR20180016027A (ko) * | 2016-08-05 | 2018-02-14 | 삼성전자주식회사 | 차량용 디스플레이 장치 및 이의 제어 방법 |
CN109177922A (zh) * | 2018-08-31 | 2019-01-11 | 北京七鑫易维信息技术有限公司 | 车辆启动方法、装置、设备及存储介质 |
CN109917920A (zh) * | 2019-03-14 | 2019-06-21 | 百度在线网络技术(北京)有限公司 | 车载投射处理方法、装置、车载设备及存储介质 |
CN109941278A (zh) * | 2017-12-20 | 2019-06-28 | 广州汽车集团股份有限公司 | 一种基于监控驾驶员状态的车辆控制方法、装置和系统 |
CN110619303A (zh) * | 2019-09-16 | 2019-12-27 | Oppo广东移动通信有限公司 | 注视点追踪方法、装置、终端及计算机可读存储介质 |
KR102084002B1 (ko) * | 2018-08-31 | 2020-03-03 | 노명진 | 시선 추적 기반 헤드업 디스플레이 장치 |
Family Cites Families (50)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07199042A (ja) * | 1993-12-28 | 1995-08-04 | Canon Inc | 視線検出機能付カメラ |
US5583795A (en) * | 1995-03-17 | 1996-12-10 | The United States Of America As Represented By The Secretary Of The Army | Apparatus for measuring eye gaze and fixation duration, and method therefor |
JP4469476B2 (ja) * | 2000-08-09 | 2010-05-26 | パナソニック株式会社 | 眼位置検出方法および眼位置検出装置 |
US8077914B1 (en) * | 2006-08-07 | 2011-12-13 | Arkady Kaplan | Optical tracking apparatus using six degrees of freedom |
US8629784B2 (en) * | 2009-04-02 | 2014-01-14 | GM Global Technology Operations LLC | Peripheral salient feature enhancement on full-windshield head-up display |
US9460601B2 (en) * | 2009-09-20 | 2016-10-04 | Tibet MIMAR | Driver distraction and drowsiness warning and sleepiness reduction for accident avoidance |
WO2011075392A1 (en) * | 2009-12-18 | 2011-06-23 | Honda Motor Co., Ltd. | A predictive human-machine interface using eye gaze technology, blind spot indicators and driver experience |
US9025252B2 (en) * | 2011-08-30 | 2015-05-05 | Microsoft Technology Licensing, Llc | Adjustment of a mixed reality display for inter-pupillary distance alignment |
US8824779B1 (en) * | 2011-12-20 | 2014-09-02 | Christopher Charles Smyth | Apparatus and method for determining eye gaze from stereo-optic views |
JP6036065B2 (ja) * | 2012-09-14 | 2016-11-30 | 富士通株式会社 | 注視位置検出装置及び注視位置検出方法 |
JP6020577B2 (ja) * | 2012-09-19 | 2016-11-02 | 株式会社ニコン | 測定システム、測定方法、眼鏡レンズ設計方法、眼鏡レンズ選択方法、および、眼鏡レンズ製造方法 |
US9179833B2 (en) * | 2013-02-28 | 2015-11-10 | Carl Zeiss Meditec, Inc. | Systems and methods for improved ease and accuracy of gaze tracking |
US10379609B2 (en) * | 2013-05-22 | 2019-08-13 | National University Corporation Kobe University | Line-of-sight measurement device, line-of-sight measurement method and line-of-sight measurement program |
US9758098B2 (en) * | 2013-08-01 | 2017-09-12 | Honda Motor Co., Ltd. | Vehicle periphery monitoring device |
WO2015064080A1 (ja) * | 2013-11-01 | 2015-05-07 | パナソニックIpマネジメント株式会社 | 視線方向検出装置および視線方向検出方法 |
EP2923912B1 (en) * | 2014-03-24 | 2018-12-26 | Volvo Car Corporation | Driver intention estimation arrangement |
JP6346525B2 (ja) * | 2014-08-29 | 2018-06-20 | アルプス電気株式会社 | 視線検出装置 |
JP2016049261A (ja) * | 2014-08-29 | 2016-04-11 | アルプス電気株式会社 | 照明撮像装置および視線検出装置 |
US10317672B2 (en) * | 2014-12-11 | 2019-06-11 | AdHawk Microsystems | Eye-tracking system and method therefor |
US10213105B2 (en) * | 2014-12-11 | 2019-02-26 | AdHawk Microsystems | Eye-tracking system and method therefor |
US20160267335A1 (en) * | 2015-03-13 | 2016-09-15 | Harman International Industries, Incorporated | Driver distraction detection system |
US9811729B2 (en) * | 2015-05-12 | 2017-11-07 | Ut-Battelle, Llc | Iris recognition via plenoptic imaging |
US10761599B2 (en) * | 2015-08-04 | 2020-09-01 | Artilux, Inc. | Eye gesture tracking |
KR101745140B1 (ko) * | 2015-09-21 | 2017-06-08 | 현대자동차주식회사 | 시선 추적 장치 및 방법 |
CN106557727B (zh) * | 2015-09-30 | 2019-07-09 | 华邦电子股份有限公司 | 瞳孔中心定位方法及电子装置 |
DE102016220549A1 (de) * | 2016-10-20 | 2018-04-26 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Unterstützen eines Fahrers beim Deaktivieren eines hochautomatisierten Fahrmodus eines Fahrzeugs |
KR101896790B1 (ko) * | 2016-11-08 | 2018-10-18 | 현대자동차주식회사 | 운전자 집중도 판정 장치, 그를 포함한 시스템 및 그 방법 |
SE541262C2 (en) * | 2016-11-15 | 2019-05-21 | Heads Stockholm Ab | Method and device for eye metric acquisition |
CN116687336A (zh) * | 2017-02-27 | 2023-09-05 | 托比股份公司 | 用眼睛追踪装置确定眼睛睁开度 |
JP6445607B2 (ja) * | 2017-03-15 | 2018-12-26 | 株式会社Subaru | 車両の表示システム及び車両の表示システムの制御方法 |
US10303248B2 (en) * | 2017-04-28 | 2019-05-28 | Microsoft Technology Licensing, Llc | Eye tracking using scanned beam and multiple detectors |
US10108261B1 (en) * | 2017-07-05 | 2018-10-23 | Oculus Vr, Llc | Eye tracking based on light polarization |
EP3486834A1 (en) * | 2017-11-16 | 2019-05-22 | Smart Eye AB | Detection of a pose of an eye |
CN108197594B (zh) * | 2018-01-23 | 2020-12-11 | 北京七鑫易维信息技术有限公司 | 确定瞳孔位置的方法和装置 |
US11017249B2 (en) * | 2018-01-29 | 2021-05-25 | Futurewei Technologies, Inc. | Primary preview region and gaze based driver distraction detection |
US20190246036A1 (en) * | 2018-02-02 | 2019-08-08 | Futurewei Technologies, Inc. | Gesture- and gaze-based visual data acquisition system |
US11138429B2 (en) * | 2018-03-12 | 2021-10-05 | Tobii Ab | Iris recognition using eye-tracking system |
US11262839B2 (en) * | 2018-05-17 | 2022-03-01 | Sony Interactive Entertainment Inc. | Eye tracking with prediction and late update to GPU for fast foveated rendering in an HMD environment |
JP2019215305A (ja) * | 2018-06-14 | 2019-12-19 | ソニー株式会社 | 眼球検出装置、および画像表示装置 |
CN109389069B (zh) * | 2018-09-28 | 2021-01-05 | 北京市商汤科技开发有限公司 | 注视点判断方法和装置、电子设备和计算机存储介质 |
IL264530B2 (en) * | 2019-01-29 | 2024-07-01 | Eyeway Vision Ltd | Device for tracking eye movement and method therefor |
WO2020201999A2 (en) * | 2019-04-01 | 2020-10-08 | Evolution Optiks Limited | Pupil tracking system and method, and digital display device and digital image rendering system and method using same |
US11435820B1 (en) * | 2019-05-16 | 2022-09-06 | Facebook Technologies, Llc | Gaze detection pipeline in an artificial reality system |
EP3786767B1 (en) * | 2019-07-29 | 2023-11-08 | HTC Corporation | Eye tracking method, head-mounted display, and computer readable storage medium |
US10991343B2 (en) * | 2019-08-05 | 2021-04-27 | Facebook Technologies, Llc | Automatic image alignment with head mounted display optics |
US11333888B2 (en) * | 2019-08-05 | 2022-05-17 | Facebook Technologies, Llc | Automatic position determination of head mounted display optics |
US11966048B1 (en) * | 2020-07-09 | 2024-04-23 | Apple Inc. | Head-mounted devices with dual gaze tracking systems |
US11442541B1 (en) * | 2020-11-13 | 2022-09-13 | Meta Platforms Technologies, Llc | Color-based calibration for eye-tracking |
KR102669768B1 (ko) * | 2020-12-17 | 2024-05-29 | 진 랩스 인코포레이티드 | 동공 검출 및 시선 추적을 위한 이벤트 카메라 시스템 |
EP4269153A4 (en) * | 2021-03-02 | 2024-07-10 | Samsung Electronics Co., Ltd. | ELECTRONIC DEVICE FOR PROJECTING AN IMAGE ON A VEHICLE WINDSHIELD, AND ITS OPERATING METHOD |
-
2020
- 2020-06-11 CN CN202010528103.0A patent/CN113815623B/zh active Active
-
2021
- 2021-06-04 WO PCT/CN2021/098341 patent/WO2021249300A1/zh active Application Filing
- 2021-06-04 US US17/908,128 patent/US20230025540A1/en active Pending
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62225429A (ja) * | 1986-03-28 | 1987-10-03 | Yazaki Corp | 車載用ヘツドアツプデイスプレイ装置 |
JPH06189906A (ja) * | 1992-12-26 | 1994-07-12 | Nissan Motor Co Ltd | 視線方向計測装置 |
JP2011107382A (ja) * | 2009-11-17 | 2011-06-02 | Nippon Seiki Co Ltd | 車両用表示装置 |
WO2011111480A1 (ja) * | 2010-03-10 | 2011-09-15 | 本田技研工業株式会社 | 前方視認装置 |
CN102802502A (zh) * | 2010-03-22 | 2012-11-28 | 皇家飞利浦电子股份有限公司 | 用于跟踪观察者的注视点的系统和方法 |
DE102014100352A1 (de) * | 2013-01-18 | 2014-07-24 | Carnegie Mellon University | Fahrerblickdetektionssystem |
CN103770733A (zh) * | 2014-01-15 | 2014-05-07 | 中国人民解放军国防科学技术大学 | 一种驾驶员安全驾驶状态检测方法及装置 |
CN103886307A (zh) * | 2014-04-15 | 2014-06-25 | 王东强 | 一种视线跟踪及疲劳预警方法 |
JP2017004117A (ja) * | 2015-06-05 | 2017-01-05 | 富士通テン株式会社 | 視線検出装置および視線検出方法 |
KR20180016027A (ko) * | 2016-08-05 | 2018-02-14 | 삼성전자주식회사 | 차량용 디스플레이 장치 및 이의 제어 방법 |
CN109941278A (zh) * | 2017-12-20 | 2019-06-28 | 广州汽车集团股份有限公司 | 一种基于监控驾驶员状态的车辆控制方法、装置和系统 |
CN109177922A (zh) * | 2018-08-31 | 2019-01-11 | 北京七鑫易维信息技术有限公司 | 车辆启动方法、装置、设备及存储介质 |
KR102084002B1 (ko) * | 2018-08-31 | 2020-03-03 | 노명진 | 시선 추적 기반 헤드업 디스플레이 장치 |
CN109917920A (zh) * | 2019-03-14 | 2019-06-21 | 百度在线网络技术(北京)有限公司 | 车载投射处理方法、装置、车载设备及存储介质 |
CN110619303A (zh) * | 2019-09-16 | 2019-12-27 | Oppo广东移动通信有限公司 | 注视点追踪方法、装置、终端及计算机可读存储介质 |
Non-Patent Citations (1)
Title |
---|
刘武艺;杨神化;索永峰;孙志宏.AR-HUD技术在船舶值班瞭望中的应用.集美大学学报(自然科学版).2020,(第01期),第36-41页. * |
Also Published As
Publication number | Publication date |
---|---|
WO2021249300A1 (zh) | 2021-12-16 |
CN113815623A (zh) | 2021-12-21 |
US20230025540A1 (en) | 2023-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113815623B (zh) | 一种视觉追踪人眼注视点的方法、车辆预警方法及装置 | |
US10992755B1 (en) | Smart vehicle | |
US9946262B2 (en) | Smart vehicle | |
US11526166B2 (en) | Smart vehicle | |
US20210108926A1 (en) | Smart vehicle | |
US8630793B2 (en) | Vehicle controller | |
US20210380115A1 (en) | Devices and methods for predicting collisions and/or intersection violations | |
US9711050B2 (en) | Smart vehicle | |
US20210089048A1 (en) | Smart vehicle | |
EP2535224B1 (en) | Driving support equipment for vehicles | |
US20160357262A1 (en) | Smart vehicle | |
US20160357187A1 (en) | Smart vehicle | |
JP2016132374A (ja) | 衝突回避制御装置 | |
CN103204123A (zh) | 一种车辆行人检测跟踪预警装置及其预警方法 | |
CN102490673A (zh) | 基于车联网的汽车主动安全控制系统及其控制方法 | |
EP3741638A1 (en) | Vehicle control device | |
JP2017185946A (ja) | 車両の自動運転システム | |
US20130058536A1 (en) | Method, system and computer readable medium embodying a computer program product for determining a vehicle operator's expectation of a state of an object | |
US11008012B2 (en) | Driving consciousness estimation device | |
CN107571797A (zh) | 前车行驶信息抬头显示方法及系统 | |
CN104192063B (zh) | 车辆安全行驶警示系统及相应的警示方法 | |
CN115214649B (zh) | 一种用于驾驶控制的自适应预警方法及系统 | |
CN113744561B (zh) | 一种车辆预警方法及装置 | |
CN114446041B (zh) | 一种车辆变道管理方法及变道管理装置 | |
CN113212451A (zh) | 一种智能驾驶汽车用后视辅助系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |