CN113119978A - 车道边沿提取方法和装置、自动驾驶系统、车辆以及存储介质 - Google Patents
车道边沿提取方法和装置、自动驾驶系统、车辆以及存储介质 Download PDFInfo
- Publication number
- CN113119978A CN113119978A CN202110505759.5A CN202110505759A CN113119978A CN 113119978 A CN113119978 A CN 113119978A CN 202110505759 A CN202110505759 A CN 202110505759A CN 113119978 A CN113119978 A CN 113119978A
- Authority
- CN
- China
- Prior art keywords
- edge
- point
- tracking
- frame
- points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000605 extraction Methods 0.000 title claims abstract description 44
- 238000000034 method Methods 0.000 claims abstract description 35
- 230000002159 abnormal effect Effects 0.000 claims abstract description 18
- 238000013507 mapping Methods 0.000 claims description 22
- 238000001914 filtration Methods 0.000 claims description 9
- 230000008569 process Effects 0.000 description 15
- 238000003384 imaging method Methods 0.000 description 8
- 241001149900 Fusconaia subrotunda Species 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000005764 inhibitory process Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/06—Road conditions
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3807—Creation or updating of map data characterised by the type of data
- G01C21/3815—Road data
- G01C21/3819—Road shape data, e.g. outline of a route
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/14—Yaw
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30256—Lane; Road marking
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Mathematical Physics (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
本申请涉及车道边沿提取方法和装置、自动驾驶系统、车辆以及存储介质,所述车道边沿提取方法包括步骤:接收边沿图像序列的紧前帧的关于所述车道边沿的跟踪边缘点;确定所述边沿图像序列的当前帧的关于所述车道边沿的观测边缘点;根据所述当前帧的观测边缘点续接并修正所述紧前帧的跟踪边缘点,以得到所述当前帧的临时跟踪边缘点;根据所述临时跟踪边缘点拟合出车道边沿曲线;以及根据所述车道边沿曲线排除所述临时跟踪边缘点中的异常部分,以形成所述当前帧的跟踪边缘点。该方法可以提高车道边沿提取的稳定性和准确率。
Description
技术领域
本申请涉及车辆视觉控制领域,具体而言,涉及车道边沿提取方法、车道边沿提取装置、自动驾驶系统、车辆以及计算机可读存储介质。
背景技术
计算机视觉处理技术正越来越多地应用到车辆驾驶领域。目前,诸如辅助驾驶的横向控制等功能高度依赖道路的车道线质量。当路面标识模糊、道路积水、积雪等造成车道线信息不准时,辅助驾驶可能无法正确控制车辆走向。以上这些常见的场景限制了车辆辅助驾驶的应用范围,在应用过程中也容易产生危险。已有视觉识别可以提供车辆的可行驶空间,但数据结构较为原始,并且数据噪声较多、误差较大,用在功能的抑制和报警上问题不大,若直接用于路径规划和控制则可能存在诸多风险。
发明内容
本申请的实施例提供了车道边沿提取方法、车道边沿提取装置、自动驾驶系统、车辆以及计算机可读存储介质,用于提高车道边沿提取的稳定性和准确率。
根据本申请的一方面,提供一种车道边沿提取方法,包括:接收边沿图像序列的紧前帧的关于所述车道边沿的跟踪边缘点;确定所述边沿图像序列的当前帧的关于所述车道边沿的观测边缘点;根据所述当前帧的观测边缘点续接并修正所述紧前帧的跟踪边缘点,以得到所述当前帧的临时跟踪边缘点;根据所述临时跟踪边缘点拟合出车道边沿曲线;以及根据所述车道边沿曲线排除所述临时跟踪边缘点中的异常部分,以形成所述当前帧的跟踪边缘点。
在本申请的一些实施例中,可选地,所述边沿图像序列的第一帧的跟踪边缘点为所述第一帧的观测边缘点。
在本申请的一些实施例中,可选地,在车辆直角坐标系下确定所述当前帧的观测边缘点,并且在车辆极坐标系下修正所述紧前帧的跟踪边缘点。
在本申请的一些实施例中,可选地,根据所述当前帧的观测边缘点续接并修正所述紧前帧的跟踪边缘点,以得到所述当前帧的临时跟踪边缘点包括:确定所述紧前帧的跟踪边缘点在所述车辆直角坐标系的当前位置;将所述当前帧的观测边缘点、所述紧前帧的跟踪边缘点从所述车辆直角坐标系映射至所述车辆极坐标系;利用所述当前帧的观测边缘点在所述车辆极坐标系下续接并修正所述紧前帧的跟踪边缘点以得到所述临时跟踪边缘点;以及将所述临时跟踪边缘点映射至所述车辆直角坐标系。
在本申请的一些实施例中,可选地,根据所述当前帧的观测边缘点续接并修正所述紧前帧的跟踪边缘点,以得到所述当前帧的临时跟踪边缘点包括:确定所述紧前帧的跟踪边缘点在所述车辆直角坐标系的当前位置;将所述当前帧的观测边缘点、所述紧前帧的跟踪边缘点的不重合部分在所述车辆直角坐标系下续接,以得到所述临时跟踪边缘点的部分;将所述当前帧的观测边缘点、所述紧前帧的跟踪边缘点的重合部分映射至所述车辆极坐标系,并且利用所述重合部分中的所述当前帧的观测边缘点修正所述紧前帧的跟踪边缘点,以得到所述临时跟踪边缘点的其余部分;以及将所述临时跟踪边缘点的其余部分映射至所述车辆直角坐标系。
在本申请的一些实施例中,可选地,确定所述紧前帧的跟踪边缘点在所述车辆直角坐标系的当前位置包括:根据车辆的速度、偏航角度以及所述紧前帧与所述当前帧的时间差确定所述紧前帧的跟踪边缘点的所述当前位置。
在本申请的一些实施例中,可选地,在所述紧前帧的跟踪边缘点中的第一点的方位角在所述当前帧的观测边缘点的第二点与第三点之间的情况下:利用所述第二点、所述第三点的幅度值线性插值得到与所述第一点的方位角相同的第四点的幅度值;以及利用滤波方式根据所述第一点的幅度值、所述第四点的幅度值修正所述第一点的幅度值。
在本申请的一些实施例中,可选地,所述方法包括:利用最小二乘法根据所述临时跟踪边缘点拟合出所述车道边沿曲线;以及若所述临时跟踪边缘点中的第四点离所述车道边沿曲线的距离大于预设值,则判定所述第四点属于所述异常部分。
根据本申请的另一方面,提供一种车道边沿提取装置,包括:图像获取装置,其配置成获取边沿图像序列;计算装置,其配置成:接收所述边沿图像序列的紧前帧的关于所述车道边沿的跟踪边缘点;确定所述边沿图像序列的当前帧的关于所述车道边沿的观测边缘点;根据所述当前帧的观测边缘点续接并修正所述紧前帧的跟踪边缘点,以得到所述当前帧的临时跟踪边缘点;根据所述临时跟踪边缘点拟合出车道边沿曲线;以及根据所述车道边沿曲线排除所述临时跟踪边缘点中的异常部分,以形成所述当前帧的跟踪边缘点;和边沿生成单元,其配置成输出所述车道边沿曲线。
在本申请的一些实施例中,可选地,所述边沿图像序列的第一帧的跟踪边缘点为所述第一帧的观测边缘点。
在本申请的一些实施例中,可选地,所述计算装置被配置成:在车辆直角坐标系下确定所述当前帧的观测边缘点,并且在车辆极坐标系下修正所述紧前帧的跟踪边缘点。
在本申请的一些实施例中,可选地,所述计算装置被配置成:确定所述紧前帧的跟踪边缘点在所述车辆直角坐标系的当前位置;将所述当前帧的观测边缘点、所述紧前帧的跟踪边缘点从所述车辆直角坐标系映射至所述车辆极坐标系;利用所述当前帧的观测边缘点在所述车辆极坐标系下续接并修正所述紧前帧的跟踪边缘点以得到所述临时跟踪边缘点;以及将所述临时跟踪边缘点映射至所述车辆直角坐标系。
在本申请的一些实施例中,可选地,所述计算装置被配置成:确定所述紧前帧的跟踪边缘点在所述车辆直角坐标系的当前位置;将所述当前帧的观测边缘点、所述紧前帧的跟踪边缘点的不重合部分在所述车辆直角坐标系下续接,以得到所述临时跟踪边缘点的部分;将所述当前帧的观测边缘点、所述紧前帧的跟踪边缘点的重合部分映射至所述车辆极坐标系,并且利用所述重合部分中的所述当前帧的观测边缘点修正所述紧前帧的跟踪边缘点,以得到所述临时跟踪边缘点的其余部分;以及将所述临时跟踪边缘点的其余部分映射至所述车辆直角坐标系。
在本申请的一些实施例中,可选地,确定所述紧前帧的跟踪边缘点在所述车辆直角坐标系的当前位置包括:根据车辆的速度、偏航角度以及所述紧前帧与所述当前帧的时间差确定所述紧前帧的跟踪边缘点的所述当前位置。
在本申请的一些实施例中,可选地,所述计算装置被配置成在所述紧前帧的跟踪边缘点中的第一点的方位角在所述当前帧的观测边缘点的第二点与第三点之间的情况下:利用所述第二点、所述第三点的幅度值线性插值得到与所述第一点的方位角相同的第四点的幅度值;以及利用滤波方式根据所述第一点的幅度值、所述第四点的幅度值修正所述第一点的幅度值。
在本申请的一些实施例中,可选地,所述计算装置被配置成:利用最小二乘法根据所述临时跟踪边缘点拟合出所述车道边沿曲线;以及若所述临时跟踪边缘点中的第四点离所述车道边沿曲线的距离大于预设值,则判定所述第四点属于所述异常部分。
根据本申请的另一方面,提供一种自动驾驶系统,其包括如上文所述的任意一种车道边沿提取装置。
根据本申请的另一方面,提供一种车辆,其包括如上文所述的任意一种车道边沿提取装置或者如上文所述的任意一种自动驾驶系统。
根据本申请的另一方面,提供一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,其特征在于,当所述指令由处理器执行时,使得所述处理器执行如上文所述的任意一种方法。
附图说明
从结合附图的以下详细说明中,将会使本申请的上述和其他目的及优点更加完整清楚,其中,相同或相似的要素采用相同的标号表示。
图1示出了根据本申请的一个实施例的车道边沿提取方法。
图2示出了根据本申请的一个实施例的车道边沿提取装置。
图3示出了根据本申请的一个实施例的车道边沿提取的原理。
图4示出了根据本申请的一个实施例的车道边沿提取的原理。
图5示出了根据本申请的一个实施例的车道边沿提取的原理。
图6示出了根据本申请的一个实施例的车道边沿提取场景。
具体实施方式
出于简洁和说明性目的,本文主要参考其示范实施例来描述本申请的原理。但是,本领域技术人员将容易地认识到相同的原理可等效地应用于所有类型的车道边沿提取方法、车道边沿提取装置、自动驾驶系统、车辆以及计算机可读存储介质,并且可以在其中实施这些相同或相似的原理,任何此类变化不背离本申请的真实精神和范围。
图6示出了根据本申请的一个实施例的车道边沿提取场景60,其中,车辆601用于根据其自身配备的图像获取装置602来获取车道边沿的图像信息。图中仅示出了一个图像获取装置602,但是根据需要车辆601可以具有多个图像获取装置,并且它们还可以工作在不同的波长范围内。
如图6所示,车道边沿可以包括同向车道分道线612(一般为白色虚线)、道路边线613(一般为白色或者黄色长实线)以及不同向的车道的分道线611(一般为黄色单长实线或者双长实线)。然而,上述各种交通标线可能由于老化、积水、积雪等原因造成视觉上的断续,从而使得图像获取装置602不能捕捉到连续的标线。另一方面,图像获取装置602也可能由于短时遮挡导致未能捕捉到标线。但是,计算机视觉辅助/自动驾驶功能需要精确的车道边沿信息。有鉴于此,本申请的以下示例将基于图像获取装置602获取到的有缺陷的标线图像来生成高质量的车道边沿信息供诸如车载计算机等处理设备调用。
根据本申请的一方面,提供一种车道边沿提取方法。如图1所示,车道边沿提取方法10包括如下步骤。车道边沿提取方法10在步骤S102中接收边沿图像序列的紧前帧的关于车道边沿的跟踪边缘点。当诸如图6中的图像获取装置602随车移动时,其能以固定时间间隔捕获边沿图像序列,这些图像序列将用于形成关于车道边沿部分的观测边缘点,并可通过以下计算进一步得到跟踪边缘点。本申请的一些示例中的各个帧的跟踪边缘点是滚动生成的,在下文的步骤110中生成了当前帧的跟踪边缘点,需要说明的是,紧前帧的跟踪边缘点可以是在上一个计算周期、根据与步骤S102-S110中相同的方法生成的。
本发明上下文中的紧前帧是指参与计算,并用于确定其中的观测边缘点、跟踪边缘点的前面一帧。在典型的示例中,紧前帧指代相邻的前一帧。在其他示例中,不是图像序列中每一帧都被用于确定其中的观测边缘点、跟踪边缘点,此时紧前帧也可能是不相邻的前面某一帧。
车道边沿提取方法10在步骤S104中确定边沿图像序列的当前帧的关于车道边沿的观测边缘点。观测边缘点是与图6中示出的各种车道边沿相关的,具体而言,可以是从图像序列中的各种车道边沿部分中提取出来的特征点。特征点的提取方法可以按照现有技术或者将来开发的技术实施,本申请不在此设限。此外,本申请上下文中的跟踪边缘点是根据观测边缘点计算而得的,因而跟踪边缘点是从车道边沿间接计算得到的。
车道边沿提取方法10在步骤S106中根据当前帧的观测边缘点续接并修正紧前帧的跟踪边缘点,以得到当前帧的临时跟踪边缘点。随着例如图6中的车辆601行进,图像获取装置602将捕捉到新的图像帧。当车辆601行进至当前位置时,图像获取装置602捕捉到当前帧。此时,可以从当前帧提取出观测边缘点,并且将这些观测边缘点用于续接到紧前帧的跟踪边缘点上,以补充车辆601行进到新位置所带来的车道边沿的信息。另一方面,当前帧中的一些观测边缘点可能与紧前帧中的一些跟踪边缘点在重合区域内存在差别,此时可以利用观测边缘点来修正这些跟踪边缘点,从而可以消除累积误差。经过续接、修正过后所形成的边缘点将继续用于下面的步骤,因而被称为临时跟踪边缘点。
当然,在特定的情况下可能不存在紧前帧的跟踪边缘点,此时全部观测边缘点将充当当前帧的临时跟踪边缘点。亦即,可以略去上文提及的续接、修正操作(或者认为执行了空操作)。这种对于非寻常情况的处理方式贯穿本申请的始终。
车道边沿提取方法10在步骤S108中根据临时跟踪边缘点拟合出车道边沿曲线。例如,可以利用最小二乘法以这些临时跟踪边缘点来拟合车道边沿曲线。尽管这些临时跟踪边缘点中一些异常部分将在步骤S110中去除,但是异常点的数量通常较少,因此步骤S108中拟合的曲线能够很好地反映车道边沿的特征,而无需在排除掉异常部分后再重新拟合曲线。
车道边沿提取方法10在步骤S110中根据车道边沿曲线排除临时跟踪边缘点中的异常部分,以形成当前帧的跟踪边缘点。例如,若临时跟踪边缘点中的某一点与车道边沿曲线的距离大于预设值,则判定这一点属于异常部分。排除了异常点后,余下的临时跟踪边缘点被归集为“当前帧的跟踪边缘点”。当前帧的跟踪边缘点将输入到紧后帧的处理过程中,以上过程可以循环往复。紧后帧的定义可以参考前文中关于紧前帧的定义。
上文中已经描述了对于非寻常情况的处理的一般原理,在本申请的一些实施例中,边沿图像序列的第一帧之前没有跟踪边缘点输入,因而可以将第一帧的观测边缘点作为其跟踪边缘点,并继续用于后续处理。
通过以上示例可以看出,跟踪边缘点在计算过程中不断迭代更新。在每一个处理周期中,输入的是当前时刻捕捉到的观测边缘点,输出的是拟合的车道边沿曲线。跟踪边缘点的迭代更新可以有效消除累积误差,因而通过以上示例生成的车道边沿曲线能够很好地反映车道边沿的特征,这为自动驾驶等功能提供了可靠的数据保证。
在一些实施例中,确定当前帧的观测边缘点的过程是在车辆直角坐标系下完成的。车辆直角坐标系是以车辆本身的某一点(例如,图像获取装置)为原点的参考系,利用车辆直角坐标系可以直接利用车辆的运动信息推导出测量的点在车辆直角坐标系的位置更新情况。这种配置方式可以显著降低计算的复杂性。
在一些实施例中,修正紧前帧的跟踪边缘点是在车辆极坐标系下完成的。诸如图6中的图像获取装置602是以其自身位置为圆心(球心)捕捉图像的,因而成像误差也与这种成像原理有关。前文描述了在车辆直角坐标系下确定观测边缘点,若继续在车辆直角坐标系下修正紧前帧的跟踪边缘点则不能很好反映这种成像误差的特性。但是,在车辆极坐标系下进行误差修正可以反映圆形(球面)成像的特性,修正的效果将优于在车辆直角坐标系下进行修正。尽管看似通过一次坐标转换会增加计算开销,但是将两种坐标系下不同的特性充分发挥出来能够高效地拟合道路边沿曲线,这是传统的单种坐标系方式所不及的。
在本申请的一些实施例中,车道边沿提取方法10还具体包括了以下过程。确定紧前帧的跟踪边缘点在车辆直角坐标系的当前位置;将当前帧的观测边缘点、紧前帧的跟踪边缘点从车辆直角坐标系映射至车辆极坐标系;利用当前帧的观测边缘点在车辆极坐标系下续接并修正紧前帧的跟踪边缘点以得到临时跟踪边缘点;以及将临时跟踪边缘点映射至车辆直角坐标系。在这一示例中,续接和修正都是在极坐标系下进行的。如此,在一个坐标系下完成续接和修正工作,能够简化处理过程。
参见图3,其中紧前帧的跟踪边缘点301以及当前帧的观测边缘点302分别被示出在车辆直接坐标下中,二者之间具有重叠的部分303。所谓重叠部分是指相互进入对方区域最深的区域的集合。重叠的部分303中跟踪边缘点的坐标与观测边缘点的坐标可能存在差异,对同一个特征点存在两种坐标记录说明坐标值存在误差。因此,重叠的部分303中包括了记录在紧前帧的跟踪边缘点301中的累积误差,可以通过当前帧的观测边缘点302来修正这些累积误差。在上一示例中,续接和修正都是在极坐标下进行的,因而在图3所示的直角坐标系中并没有执行续接、修正工作。
图4示出了将直角坐标系中的点映射到极坐标系中的例子。在图4的上部分中,点集401对应于紧前帧的跟踪边缘点301,点集402对应于当前帧的观测边缘点302,而点集403对应于其重叠部分303。在上一示例中,续接和修正都在该坐标下进行,具体而言,可以先通过修正重复的部分得到与点集403对应的修正点集,然后再将修正点集与点集401、点集402续接到一起。这些续接到一起的点集被称为临时跟踪边缘点,并且还将映射回车辆直角坐标系。
在本申请的另一些实施例中,车道边沿提取方法10还具体包括了以下过程。确定紧前帧的跟踪边缘点在车辆直角坐标系的当前位置;将当前帧的观测边缘点、紧前帧的跟踪边缘点的不重合部分在车辆直角坐标系下续接,以得到临时跟踪边缘点的部分;将当前帧的观测边缘点、紧前帧的跟踪边缘点的重合部分映射至车辆极坐标系,并且利用重合部分中的当前帧的观测边缘点修正紧前帧的跟踪边缘点,以得到临时跟踪边缘点的其余部分;以及将临时跟踪边缘点的其余部分映射至车辆直角坐标系。在这一示例中,续接是在直角坐标下进行的,而修正是在极坐标下进行的。如此,分别利用不同的坐标的特性来处理适于在该坐标系下处理的问题,可以提高处理的效率。
再参见图3,可以在直角坐标系下先将紧前帧的跟踪边缘点301与当前帧的观测边缘点302续接,亦即,将紧前帧的跟踪边缘点与当前帧的观测边缘点的不重合的部分(即,图3中的301和302)先在直角坐标系中续接。此时,可以产生临时跟踪边缘点的一部分(其余部分将在极坐标下产生)。
此外,图4示出了将直角坐标系中的点映射到极坐标系中的例子。在图4的下部分中,点集413对应于图3中的重叠部分303。可以看出,相比于图中的上部分,下部分中仅映射了重叠部分。此时,可以通过重叠部分中的当前帧的观测边缘点修正紧前帧的跟踪边缘点,从而得到修正的结果——临时跟踪边缘点的其余部分,并且还将这些其余部分映射回车辆直角坐标系。然后可以将临时跟踪边缘点的一部分和临时跟踪边缘点的其余部分合并组成临时跟踪边缘点。
由于车辆位置是动态变化的,以上两个示例中都需要首先确定紧前帧的跟踪边缘点在车辆直角坐标系的当前位置。例如,可以根据车辆的速度、偏航角度以及紧前帧与当前帧的时间差确定紧前帧的跟踪边缘点的当前位置。如此,可以直接根据车辆运动情况和时间差更新跟踪边缘点的位置。
以上两个示例中都是在极坐标下实现修正操作的。在本申请的一些实施例中,在紧前帧的跟踪边缘点中的第一点的方位角在当前帧的观测边缘点的第二点与第三点之间的情况下:利用第二点、第三点的幅度值线性插值得到与第一点的方位角相同的第四点的幅度值;以及利用滤波方式根据第一点的幅度值、第四点的幅度值修正第一点的幅度值。具体而言,如图5所示,在车辆直角坐标系下的点A、B属于当前帧的观测边缘点,点C属于紧前帧的跟踪边缘点。换言之,点A、B和C构成的区域属于本申请上下文中记载的重合(重叠)部分。此时,将点A、B和C映射至车辆极坐标系。图5的右部分示出了点A、B和C在极坐标系下的相对位置关系,其中点C的方位角在点A、B之间。在本申请的一些示例中,可以利用点A、B的坐标修正点C的坐标。首先,可以利用点A、B线性插值得到与点C的方位角相同的点C'。随后,可以对点C、点C'执行滤波(例如,卡尔曼滤波)处理,从而得到修正后的位置点C'',并以此作为点C的新坐标。
根据本申请的另一方面,提供一种车道边沿提取装置。如图2所述,车道边沿提取装置20包括图像获取装置202、计算装置204以及边沿生成单元206。其中,车道边沿提取装置20的图像获取装置202被配置成获取边沿图像序列。
车道边沿提取装置20的计算装置204被配置成接收边沿图像序列的紧前帧的关于车道边沿的跟踪边缘点。当图像获取装置202随车移动时,其能以固定时间间隔捕获边沿图像序列,这些图像序列将被计算装置204用于形成关于车道边沿部分的观测边缘点,并可通过以下计算进一步得到跟踪边缘点。本申请的一些示例中的各个帧的跟踪边缘点是滚动生成的,在下文中计算装置204还可生成当前帧的跟踪边缘点,需要说明的是,紧前帧的跟踪边缘点可以是在上一个计算周期、根据与计算装置204计算当前帧的跟踪边缘点相同的方法生成的。
本发明上下文中的紧前帧是指参与计算,并用于确定其中的观测边缘点、跟踪边缘点的前面一帧。在典型的示例中,紧前帧指代相邻的前一帧。在其他示例中,不是图像序列中每一帧都被用于确定其中的观测边缘点、跟踪边缘点,此时紧前帧也可能是不相邻的前面某一帧。
计算装置204还被配置成确定边沿图像序列的当前帧的关于车道边沿的观测边缘点。观测边缘点是与图6中示出的各种车道边沿相关的,具体而言,可以是从图像序列中的各种车道边沿部分中提取出来的特征点。计算装置204提取特征点的方法可以按照现有技术或者将来开发的技术实施,本申请不在此设限。此外,本申请上下文中的跟踪边缘点是根据观测边缘点计算而得的,因而跟踪边缘点是从车道边沿间接计算得到的。
计算装置204还被配置成根据当前帧的观测边缘点续接并修正紧前帧的跟踪边缘点,以得到当前帧的临时跟踪边缘点。随着例车辆行进,图像获取装置202将捕捉到新的图像帧。当车辆行进至当前位置时,图像获取装置202捕捉到当前帧。此时,可以从当前帧提取出观测边缘点,并且将这些观测边缘点用于续接到紧前帧的跟踪边缘点上,以补充车辆行进到新位置所带来的车道边沿的信息。另一方面,当前帧中的一些观测边缘点可能与紧前帧中的一些跟踪边缘点在重合区域内存在差别,此时可以利用观测边缘点来修正这些跟踪边缘点,从而可以消除累积误差。经过续接、修正过后所形成的边缘点将继续用于下面的步骤,因而被称为临时跟踪边缘点。
当然,在特定的情况下可能不存在紧前帧的跟踪边缘点,此时全部观测边缘点将充当当前帧的临时跟踪边缘点。亦即,可以略去上文提及的续接、修正操作(或者认为执行了空操作)。这种对于非寻常情况的处理方式贯穿本申请的始终。
计算装置204还被配置成根据临时跟踪边缘点拟合出车道边沿曲线。例如,计算装置204可以利用最小二乘法以这些临时跟踪边缘点来拟合车道边沿曲线。尽管这些临时跟踪边缘点中一些异常部分将被去除,但是异常点的数量通常较少,因此计算装置204拟合的曲线能够很好地反映车道边沿的特征,而无需在排除掉异常部分后再重新拟合曲线。
计算装置204还被配置成根据车道边沿曲线排除临时跟踪边缘点中的异常部分,以形成当前帧的跟踪边缘点。例如,若临时跟踪边缘点中的某一点与车道边沿曲线的距离大于预设值,则判定这一点属于异常部分。排除了异常点后,余下的临时跟踪边缘点被归集为“当前帧的跟踪边缘点”。当前帧的跟踪边缘点将输入到紧后帧的处理过程中,以上过程可以循环往复。紧后帧的定义可以参考前文中关于紧前帧的定义。
上文中已经描述了对于非寻常情况的处理的一般原理,在本申请的一些实施例中,边沿图像序列的第一帧之前没有跟踪边缘点输入,因而可以将第一帧的观测边缘点作为其跟踪边缘点,并继续用于后续处理。
车道边沿提取装置20的边沿生成单元206被配置成输出车道边沿曲线。通过以上示例可以看出,跟踪边缘点在计算过程中不断迭代更新。在每一个处理周期中,输入的参量是当前时刻捕捉到的观测边缘点,边沿生成单元206输出的则是拟合的车道边沿曲线。跟踪边缘点的迭代更新可以有效消除累积误差,因而通过以上示例生成的车道边沿曲线能够很好地反映车道边沿的特征,这为自动驾驶等功能提供了可靠的数据保证。
在本申请的一些实施例中,计算装置204被配置成在车辆直角坐标系下确定当前帧的观测边缘点,并且计算装置204被配置成在车辆极坐标系下修正紧前帧的跟踪边缘点。车辆直角坐标系是以车辆本身的某一点(例如,图像获取装置)为原点的参考系,利用车辆直角坐标系可以直接利用车辆的运动信息推导出测量的点在车辆直角坐标系的位置更新情况。这种配置方式可以显著降低计算的复杂性。
然而,一般而言,图像获取装置202是以其自身位置为圆心(球心)捕捉图像的,因而成像误差也与这种成像原理有关。前文描述了在车辆直角坐标系下确定观测边缘点,若继续在车辆直角坐标系下修正紧前帧的跟踪边缘点则不能很好反映这种成像误差的特性。但是,在车辆极坐标系下进行误差修正可以反映圆形(球面)成像的特性,修正的效果将优于在车辆直角坐标系下进行修正。尽管看似通过一次坐标转换会增加计算开销,但是将两种坐标系下不同的特性充分发挥出来能够高效地拟合道路边沿曲线,这是传统的单种坐标系方式所不及的。
在本申请的一些实施例中,计算装置204具体被配置成执行以下操作:确定紧前帧的跟踪边缘点在车辆直角坐标系的当前位置;将当前帧的观测边缘点、紧前帧的跟踪边缘点从车辆直角坐标系映射至车辆极坐标系;利用当前帧的观测边缘点在车辆极坐标系下续接并修正紧前帧的跟踪边缘点以得到临时跟踪边缘点;以及将临时跟踪边缘点映射至车辆直角坐标系。在这一示例中,续接和修正都是在极坐标系下进行的。如此,在一个坐标系下完成续接和修正工作,能够简化处理过程。
参见图3,其中紧前帧的跟踪边缘点301以及当前帧的观测边缘点302分别被示出在车辆直接坐标下中,二者之间具有重叠的部分303。所谓重叠部分是指相互进入对方区域最深的区域的集合。重叠的部分303中跟踪边缘点的坐标与观测边缘点的坐标可能存在差异,对同一个特征点存在两种坐标记录说明坐标值存在误差。因此,重叠的部分303中包括了记录在紧前帧的跟踪边缘点301中的累积误差,可以通过当前帧的观测边缘点302来修正这些累积误差。在上一示例中,续接和修正都是在极坐标下进行的,因而在图3所示的直角坐标系中并没有执行续接、修正工作。
图4示出了将直角坐标系中的点映射到极坐标系中的例子。在图4的上部分中,点集401对应于紧前帧的跟踪边缘点301,点集402对应于当前帧的观测边缘点302,而点集403对应于其重叠部分303。在上一示例中,续接和修正都在该坐标下进行,具体而言,可以先通过修正重复的部分得到与点集403对应的修正点集,然后再将修正点集与点集401、点集402续接到一起。这些续接到一起的点集被称为临时跟踪边缘点,并且还将映射回车辆直角坐标系。
在本申请的一些实施例中,计算装置204具体被配置成执行以下操作:确定紧前帧的跟踪边缘点在车辆直角坐标系的当前位置;将所述当前帧的观测边缘点、所述紧前帧的跟踪边缘点的不重合部分在所述车辆直角坐标系下续接,以得到所述临时跟踪边缘点的部分;将所述当前帧的观测边缘点、所述紧前帧的跟踪边缘点的重合部分映射至所述车辆极坐标系,并且利用所述重合部分中的所述当前帧的观测边缘点修正所述紧前帧的跟踪边缘点,以得到所述临时跟踪边缘点的其余部分;以及将所述临时跟踪边缘点的其余部分映射至所述车辆直角坐标系。在这一示例中,续接是在直角坐标下进行的,而修正是在极坐标下进行的。如此,分别利用不同的坐标的特性来处理适于在该坐标系下处理的问题,可以提高处理的效率。
再参见图3,可以在直角坐标系下先将紧前帧的跟踪边缘点301与当前帧的观测边缘点302续接,亦即,将紧前帧的跟踪边缘点与当前帧的观测边缘点的不重合的部分(即,图3中的301和302)先在直角坐标系中续接。此时,可以产生临时跟踪边缘点的一部分(其余部分将在极坐标下产生)。
此外,图4示出了将直角坐标系中的点映射到极坐标系中的例子。在图4的下部分中,点集413对应于图3中的重叠部分303。可以看出,相比于图中的上部分,下部分中仅映射了重叠部分。此时,可以通过重叠部分中的当前帧的观测边缘点修正紧前帧的跟踪边缘点,从而得到修正的结果——临时跟踪边缘点的其余部分,并且还将这些其余部分映射回车辆直角坐标系。然后可以将临时跟踪边缘点的一部分和临时跟踪边缘点的其余部分合并组成临时跟踪边缘点。
由于车辆位置是动态变化的,以上两个示例中都需要首先确定紧前帧的跟踪边缘点在车辆直角坐标系的当前位置。例如,可以根据车辆的速度、偏航角度以及紧前帧与当前帧的时间差确定紧前帧的跟踪边缘点的当前位置。如此,可以直接根据车辆运动情况和时间差更新跟踪边缘点的位置。
以上两个示例中都是在极坐标下实现修正操作的。在本申请的一些实施例中,计算装置204具体被配置成执行以下过程以实现修正操作:在紧前帧的跟踪边缘点中的第一点的方位角在当前帧的观测边缘点的第二点与第三点之间的情况下:利用第二点、第三点的幅度值线性插值得到与第一点的方位角相同的第四点的幅度值;以及利用滤波方式根据第一点的幅度值、第四点的幅度值修正第一点的幅度值。具体而言,如图5所示,在车辆直角坐标系下的点A、B属于当前帧的观测边缘点,点C属于紧前帧的跟踪边缘点。换言之,点A、B和C构成的区域属于本申请上下文中记载的重合(重叠)部分。此时,将点A、B和C映射至车辆极坐标系。图5的右部分示出了点A、B和C在极坐标系下的相对位置关系,其中点C的方位角在点A、B之间。在本申请的一些示例中,可以利用点A、B的坐标修正点C的坐标。首先,可以利用点A、B线性插值得到与点C的方位角相同的点C'。随后,可以对点C、点C'执行滤波(例如,卡尔曼滤波)处理,从而得到修正后的位置点C'',并以此作为点C的新坐标。
根据本申请的另一方面,提供一种自动驾驶系统,其包括如上文所述的任意一种车道边沿提取装置。
根据本申请的另一方面,提供一种车辆,其包括如上文所述的任意一种车道边沿提取装置或者如上文所述的任意一种自动驾驶系统。
根据本申请的另一方面,提供一种计算机可读存储介质,其中存储有指令,当所述指令由处理器执行时,使得所述处理器执行如上文所述的任意一种车道边沿提取方法。本申请中所称的计算机可读介质包括各种类型的计算机存储介质,可以是通用或专用计算机能够存取的任何可用介质。举例而言,计算机可读介质可以包括RAM、ROM、EPROM、E2PROM、寄存器、硬盘、可移动盘、CD-ROM或其他光盘存储器、磁盘存储器或其他磁存储设备、或者能够用于携带或存储具有指令或数据结构形式的期望的程序代码单元并能够由通用或特定用途计算机、或者通用或特定用途处理器进行存取的任何其他临时性或者非临时性介质。如本文所使用的盘通常磁性地复制数据,而碟则用激光来光学地复制数据。上述的组合也应当包括在计算机可读介质的保护范围之内。示例性存储介质耦合到处理器以使得该处理器能从/向该存储介质读写信息。在替换方案中,存储介质可以被整合到处理器。处理器和存储介质可驻留在ASIC中。ASIC可驻留在用户终端中。在替换方案中,处理器和存储介质可作为分立组件驻留在用户终端中。
以上仅为本申请的具体实施方式,但本申请的保护范围并不局限于此。本领域的技术人员可以根据本申请所披露的技术范围想到其他可行的变化或替换,此等变化或替换皆涵盖于本申请的保护范围之中。在不冲突的情况下,本申请的实施方式及实施方式中的特征还可以相互组合。本申请的保护范围以权利要求的记载为准。
Claims (12)
1.一种车道边沿提取方法,包括:
接收边沿图像序列的紧前帧的关于所述车道边沿的跟踪边缘点;
确定所述边沿图像序列的当前帧的关于所述车道边沿的观测边缘点;
根据所述当前帧的观测边缘点续接并修正所述紧前帧的跟踪边缘点,以得到所述当前帧的临时跟踪边缘点;
根据所述临时跟踪边缘点拟合出车道边沿曲线;以及
根据所述车道边沿曲线排除所述临时跟踪边缘点中的异常部分,以形成所述当前帧的跟踪边缘点。
2.根据权利要求1所述的方法,其中,所述边沿图像序列的第一帧的跟踪边缘点为所述第一帧的观测边缘点。
3.根据权利要求1所述的方法,其中,在车辆直角坐标系下确定所述当前帧的观测边缘点,并且在车辆极坐标系下修正所述紧前帧的跟踪边缘点。
4.根据权利要求3所述的方法,其中,根据所述当前帧的观测边缘点续接并修正所述紧前帧的跟踪边缘点,以得到所述当前帧的临时跟踪边缘点包括:
确定所述紧前帧的跟踪边缘点在所述车辆直角坐标系的当前位置;
将所述当前帧的观测边缘点、所述紧前帧的跟踪边缘点从所述车辆直角坐标系映射至所述车辆极坐标系;
利用所述当前帧的观测边缘点在所述车辆极坐标系下续接并修正所述紧前帧的跟踪边缘点以得到所述临时跟踪边缘点;以及
将所述临时跟踪边缘点映射至所述车辆直角坐标系。
5.根据权利要求3所述的方法,其中,根据所述当前帧的观测边缘点续接并修正所述紧前帧的跟踪边缘点,以得到所述当前帧的临时跟踪边缘点包括:
确定所述紧前帧的跟踪边缘点在所述车辆直角坐标系的当前位置;
将所述当前帧的观测边缘点、所述紧前帧的跟踪边缘点的不重合部分在所述车辆直角坐标系下续接,以得到所述临时跟踪边缘点的部分;
将所述当前帧的观测边缘点、所述紧前帧的跟踪边缘点的重合部分映射至所述车辆极坐标系,并且利用所述重合部分中的所述当前帧的观测边缘点修正所述紧前帧的跟踪边缘点,以得到所述临时跟踪边缘点的其余部分;以及
将所述临时跟踪边缘点的其余部分映射至所述车辆直角坐标系。
6.根据权利要求4或5所述的方法,其中,确定所述紧前帧的跟踪边缘点在所述车辆直角坐标系的当前位置包括:根据车辆的速度、偏航角度以及所述紧前帧与所述当前帧的时间差确定所述紧前帧的跟踪边缘点的所述当前位置。
7. 根据权利要求4或5所述的方法,其中,在所述紧前帧的跟踪边缘点中的第一点的方位角在所述当前帧的观测边缘点的第二点与第三点之间的情况下:
利用所述第二点、所述第三点的幅度值线性插值得到与所述第一点的方位角相同的第四点的幅度值;以及
利用滤波方式根据所述第一点的幅度值、所述第四点的幅度值修正所述第一点的幅度值。
8. 根据权利要求1所述的方法,其中:
利用最小二乘法根据所述临时跟踪边缘点拟合出所述车道边沿曲线;以及
若所述临时跟踪边缘点中的第四点离所述车道边沿曲线的距离大于预设值,则判定所述第四点属于所述异常部分。
9.一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,其特征在于,当所述指令由处理器执行时,使得所述处理器执行如权利要求1-8中任一项所述的方法。
10.一种车道边沿提取装置,包括:
图像获取装置,其配置成获取边沿图像序列;
计算装置,其配置成:
接收所述边沿图像序列的紧前帧的关于所述车道边沿的跟踪边缘点;
确定所述边沿图像序列的当前帧的关于所述车道边沿的观测边缘点;
根据所述当前帧的观测边缘点续接并修正所述紧前帧的跟踪边缘点,以得到所述当前帧的临时跟踪边缘点;
根据所述临时跟踪边缘点拟合出车道边沿曲线;以及
根据所述车道边沿曲线排除所述临时跟踪边缘点中的异常部分,以形成所述当前帧的跟踪边缘点;和
边沿生成单元,其配置成输出所述车道边沿曲线。
11.一种自动驾驶系统,其包括如权利要求10所述的车道边沿提取装置。
12.一种车辆,其包括如权利要求10所述的车道边沿提取装置或者如权利要求11所述的自动驾驶系统。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110505759.5A CN113119978A (zh) | 2021-05-10 | 2021-05-10 | 车道边沿提取方法和装置、自动驾驶系统、车辆以及存储介质 |
EP22164698.7A EP4089648A1 (en) | 2021-05-10 | 2022-03-28 | Lane edge extraction method and apparatus, autonomous driving system, vehicle, and storage medium |
US17/734,620 US20220357178A1 (en) | 2021-05-10 | 2022-05-02 | Lane edge extraction method and apparatus, autonomous driving system, vehicle, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110505759.5A CN113119978A (zh) | 2021-05-10 | 2021-05-10 | 车道边沿提取方法和装置、自动驾驶系统、车辆以及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113119978A true CN113119978A (zh) | 2021-07-16 |
Family
ID=76781266
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110505759.5A Pending CN113119978A (zh) | 2021-05-10 | 2021-05-10 | 车道边沿提取方法和装置、自动驾驶系统、车辆以及存储介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220357178A1 (zh) |
EP (1) | EP4089648A1 (zh) |
CN (1) | CN113119978A (zh) |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4970653A (en) * | 1989-04-06 | 1990-11-13 | General Motors Corporation | Vision method of detecting lane boundaries and obstacles |
JPH06213660A (ja) * | 1993-01-19 | 1994-08-05 | Aisin Seiki Co Ltd | 像の近似直線の検出方法 |
US6882287B2 (en) * | 2001-07-31 | 2005-04-19 | Donnelly Corporation | Automotive lane change aid |
DE10242852A1 (de) * | 2002-09-14 | 2004-03-25 | Technische Universität Ilmenau Abteilung Forschungsförderung und Technologietransfer | Verfahren zur Minimierung des Einflusses von Störsignalen bei der Formelementeberechnung aus Koordinatenpunkten |
JP4107587B2 (ja) * | 2003-12-17 | 2008-06-25 | 三菱電機株式会社 | 車線認識画像処理装置 |
US20090112455A1 (en) * | 2007-10-24 | 2009-04-30 | Yahoo! Inc. | Method and system for rendering simplified point finding maps |
JP5926080B2 (ja) * | 2012-03-19 | 2016-05-25 | 株式会社日本自動車部品総合研究所 | 走行区画線認識装置およびプログラム |
US9516277B2 (en) * | 2012-05-02 | 2016-12-06 | GM Global Technology Operations LLC | Full speed lane sensing with a surrounding view system |
KR102058001B1 (ko) * | 2012-09-03 | 2020-01-22 | 엘지이노텍 주식회사 | 차선 보정 시스템, 차선 보정 장치 및 이의 차선 보정 방법 |
JP6152821B2 (ja) * | 2014-03-31 | 2017-06-28 | ブラザー工業株式会社 | 画像処理装置、および、コンピュータプログラム |
KR102227843B1 (ko) * | 2014-08-22 | 2021-03-15 | 현대모비스 주식회사 | 차선 이탈 경보 시스템의 동작방법 |
JP6501602B2 (ja) * | 2015-04-23 | 2019-04-17 | 本田技研工業株式会社 | レーン検出装置及びその方法、カーブ開始点検出装置及びその方法、並びに操舵アシスト装置及びその方法 |
US9285805B1 (en) * | 2015-07-02 | 2016-03-15 | Geodigital International Inc. | Attributed roadway trajectories for self-driving vehicles |
US10997862B2 (en) * | 2016-09-05 | 2021-05-04 | Nissan Motor Co., Ltd. | Vehicle travel control method and vehicle travel control device |
CN106447730B (zh) * | 2016-09-14 | 2020-02-28 | 深圳地平线机器人科技有限公司 | 参数估计方法、装置和电子设备 |
US10620638B2 (en) * | 2017-08-18 | 2020-04-14 | Wipro Limited | Method, system, and device for guiding autonomous vehicles based on dynamic extraction of road region |
US10872246B2 (en) * | 2017-09-07 | 2020-12-22 | Regents Of The University Of Minnesota | Vehicle lane detection system |
JP7118836B2 (ja) * | 2018-09-25 | 2022-08-16 | フォルシアクラリオン・エレクトロニクス株式会社 | 区画線認識装置 |
US10748303B2 (en) * | 2018-10-03 | 2020-08-18 | Gentex Corporation | Rear facing lane detection overlay |
US11468690B2 (en) * | 2019-01-30 | 2022-10-11 | Baidu Usa Llc | Map partition system for autonomous vehicles |
CN109977776B (zh) * | 2019-02-25 | 2023-06-23 | 驭势(上海)汽车科技有限公司 | 一种车道线检测方法、装置及车载设备 |
-
2021
- 2021-05-10 CN CN202110505759.5A patent/CN113119978A/zh active Pending
-
2022
- 2022-03-28 EP EP22164698.7A patent/EP4089648A1/en active Pending
- 2022-05-02 US US17/734,620 patent/US20220357178A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20220357178A1 (en) | 2022-11-10 |
EP4089648A1 (en) | 2022-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20210107570A (ko) | 어떤 대상의 자기 동작 추정을 위한 방법 | |
US20220383530A1 (en) | Method and system for generating a depth map | |
EP3531342A2 (en) | Method, apparatus and system for human body tracking processing | |
US20230252664A1 (en) | Image Registration Method and Apparatus, Electronic Apparatus, and Storage Medium | |
KR102103944B1 (ko) | 모노카메라를 이용한 자율주행 차량의 거리 및 위치 추정 방법 | |
US10650535B2 (en) | Measurement device and measurement method | |
CN111028169B (zh) | 图像校正方法、装置、终端设备和存储介质 | |
EP3534333A1 (en) | Method for calibrating the position and orientation of a camera relative to a calibration pattern | |
JP6838285B2 (ja) | レーンマーカ認識装置、自車両位置推定装置 | |
CN115661299A (zh) | 车道线地图的构建方法、计算机设备及存储介质 | |
US11880993B2 (en) | Image processing device, driving assistance system, image processing method, and program | |
CN117726656A (zh) | 基于超分辨率图像的目标跟踪方法、装置、系统和介质 | |
EP3716103A2 (en) | Method and apparatus for determining transformation matrix, and non-transitory computer-readable recording medium | |
CN111488762A (zh) | 一种车道级定位方法、装置及定位设备 | |
WO2019203354A1 (ja) | 軌道識別装置 | |
CN113119978A (zh) | 车道边沿提取方法和装置、自动驾驶系统、车辆以及存储介质 | |
CN110348351A (zh) | 一种图像语义分割的方法、终端和可读存储介质 | |
CN114690226A (zh) | 基于载波相位差分技术辅助的单目视觉测距方法及系统 | |
CN111583338B (zh) | 用于无人设备的定位方法、装置、介质及无人设备 | |
CN117601850A (zh) | 机动车记忆泊车定位与纠偏方法、装置及可读存储介质 | |
CN114037977B (zh) | 道路灭点的检测方法、装置、设备及存储介质 | |
CN114757824B (zh) | 图像拼接的方法、装置、设备以及存储介质 | |
CN110570680A (zh) | 利用地图信息确定对象位置的方法和系统 | |
CN116304992A (zh) | 传感器时差确定方法、装置、计算机设备和存储介质 | |
CN115703234B (zh) | 机器人控制方法、装置、机器人及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |