CN118463965A - 定位精度评价方法、装置以及车辆 - Google Patents
定位精度评价方法、装置以及车辆 Download PDFInfo
- Publication number
- CN118463965A CN118463965A CN202410344078.9A CN202410344078A CN118463965A CN 118463965 A CN118463965 A CN 118463965A CN 202410344078 A CN202410344078 A CN 202410344078A CN 118463965 A CN118463965 A CN 118463965A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- visual
- laser
- map
- error parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000011156 evaluation Methods 0.000 title claims abstract description 71
- 230000000007 visual effect Effects 0.000 claims abstract description 234
- 238000013507 mapping Methods 0.000 claims abstract description 186
- 238000000034 method Methods 0.000 claims abstract description 58
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 49
- 238000001514 detection method Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 5
- 238000010276 construction Methods 0.000 claims 3
- 238000012545 processing Methods 0.000 description 11
- 239000011159 matrix material Substances 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000009434 installation Methods 0.000 description 3
- 238000012216 screening Methods 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 101100012902 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) FIG2 gene Proteins 0.000 description 2
- 101100233916 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) KAR5 gene Proteins 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 101001121408 Homo sapiens L-amino-acid oxidase Proteins 0.000 description 1
- 102100026388 L-amino-acid oxidase Human genes 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000011158 quantitative evaluation Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 210000001550 testis Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3841—Data obtained from two or more sources, e.g. probe vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/3446—Details of route searching algorithms, e.g. Dijkstra, A*, arc-flags, using precalculated routes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Automation & Control Theory (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Computer Graphics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本申请实施例公开了一种定位精度评价方法、装置以及车辆。该方法包括:获取激光建图数据,所述激光建图数据包括激光点云地图;获取视觉建图数据,所述视觉建图数据包括视觉点云地图;获取所述激光点云地图与所述视觉点云地图之间的第一误差参数,以及获取所述激光点云地图与所述视觉点云地图之间的第二误差参数,所述第一误差参数对应的点云尺度大于所述第二误差参数对应的点云尺度,所述点云尺度表征点云地图中由点云所构成的对象所占据区域的尺寸;根据所述第一误差参数与所述第二误差参数对预设视觉建图算法的定位精度进行评价。本方法可以直接根据用于定位的地图数据来对视觉建图算法的输出结果进行评价,提升定位精度评价的有效性。
Description
技术领域
本申请涉及智能驾驶技术领域,更具体地,涉及一种定位精度评价方法、装置以及车辆。
背景技术
随着机器视觉等技术的逐步发展,SLAM(Simultaneous Localization andMapping,同步定位与建图)技术被广泛应用于各种智能驾驶场景。在智能驾驶场景中,通过引入SLAM技术可以实现为智能车辆在场景中进行路径规划、行驶控制等后续过程提供场景定位、或环境感知等功能支撑,尤其为智能泊车任务提供了功能支撑。然而,目前的视觉建图算法较多的依赖于高精度的传感器获取数据,成本较高,且难以直接有效的评估视觉建图的效果。
发明内容
鉴于上述问题,本申请提出了一种定位精度评价方法、装置以及车辆,以实现改善上述问题。
第一方面,本申请提供了一种定位精度评价方法,所述方法包括:获取激光建图数据,所述激光建图数据包括激光点云地图;获取视觉建图数据,所述视觉建图数据包括视觉点云地图;获取所述激光点云地图与所述视觉点云地图之间的第一误差参数,以及获取所述激光点云地图与所述视觉点云地图之间的第二误差参数,所述第一误差参数对应的点云尺度大于所述第二误差参数对应的点云尺度,所述点云尺度表征点云地图中由点云所构成的对象所占据区域的尺寸;根据所述第一误差参数与所述第二误差参数对预设视觉建图算法的定位精度进行评价。
第二方面,本申请提供了一种定位精度评价装置,所述装置包括:激光建图结果获取模块,用于获取激光建图数据,所述激光建图数据包括激光点云地图;视觉建图结果获取模块,用于获取视觉建图数据,所述视觉建图数据包括视觉点云地图;误差参数获取模块,用于获取所述激光点云地图与所述视觉点云地图之间的第一误差参数,以及获取所述激光点云地图与所述视觉点云地图之间的第二误差参数,所述第一误差参数对应的点云尺度大于所述第二误差参数对应的点云尺度,所述点云尺度表征点云地图中由点云所构成的对象所占据区域的尺寸;定位精度评价模块,用于根据所述第一误差参数与所述第二误差参数对预设视觉建图算法的定位精度进行评价。
第三方面,本申请提供了一种车辆,包括一个或多个处理器以及存储器;一个或多个程序被存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个程序配置用于执行上述的方法。
第四方面,本申请提供的一种计算机可读存储介质,所述计算机可读存储介质中存储有程序代码,其中,在所述程序代码运行时执行上述的方法。
第五方面,本申请提供了一种计算机程序产品,包括计算机程序/指令,该计算机程序/指令被处理器执行时实现上述方法的步骤。
本申请提供的一种定位精度评价方法、装置、车辆以及存储介质,通过获取激光建图数据,所述激光建图数据包括激光点云地图;获取视觉建图数据,所述视觉建图数据包括视觉点云地图;获取所述激光点云地图与所述视觉点云地图之间的第一误差参数,以及获取所述激光点云地图与所述视觉点云地图之间的第二误差参数,所述第一误差参数对应的点云尺度大于所述第二误差参数对应的点云尺度,所述点云尺度表征点云地图中由点云所构成的对象所占据区域的尺寸;根据所述第一误差参数与所述第二误差参数对预设视觉建图算法的定位精度进行评价。从而通过获取激光点云地图与视觉点云地图之间的两种不同尺度范围内的误差,继而基于该两种误差之和对预设视觉建图算法的定位精度进行评价,使得可以直接根据用于定位的地图数据来对视觉建图算法的输出结果进行评价,提升定位精度评价的有效性。同时,由于未引入昂贵的高精度传感器获取数据,可以降低定位精度的评价成本。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了本申请实施例提出的一种定位精度评价方法的流程图。
图2示出了本申请实施例提供的激光雷达的安装方式示例图。
图3示出了本申请实施例提供的激光雷达-图像3d棋盘格标定板的示例图。
图4示出了图1中的步骤S130的一方法流程图。
图5示出了本申请实施例提供的获取激光点云地图与视觉点云地图之间的第一误差参数的示意流程图。
图6示出了本申请实施例提供的对激光地图数据以及视觉地图数据进行平面检测的示例图。
图7示出了本申请实施例提供的提取激光地图数据以及视觉地图数据中的结构化区域的示例图。
图8示出了图1中的步骤S130的另一方法流程图。
图9示出了本申请实施例提供的获取与第一目标点云对应的第一三维包围盒,以及获取与第二目标点云对应的第二三维包围盒的一示例图。
图10示出了本申请实施例提供的获取激光点云地图与视觉点云地图之间的第二误差参数的示意流程图。
图11示出了本申请实施例提供的获取与第一目标点云对应的第一三维包围盒,以及获取与第二目标点云对应的第二三维包围盒的另一示例图。
图12示出了本申请另一实施例提出的一种定位精度评价方法的流程图。
图13示出了本申请实施例提供的获取激光建图轨迹中时间间隔大于指定时间间隔且距离间隔大于指定距离间隔的相邻帧的示例流程图。
图14示出了本申请实施例计算得到的多个绝对轨迹误差的曲线图。
图15示出了本申请实施例计算得到的多个相对轨迹误差的曲线图。
图16示出了本申请实施例提出的一种定位精度评价装置的结构框图。
图17示出了本申请提出的一种车辆的结构框图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
在本申请实施例中,发明人提出了一种定位精度评价方法、装置以及车辆,通过获取激光建图数据,所述激光建图数据包括激光点云地图;获取视觉建图数据,所述视觉建图数据包括视觉点云地图;获取所述激光点云地图与所述视觉点云地图之间的第一误差参数,以及获取所述激光点云地图与所述视觉点云地图之间的第二误差参数,所述第一误差参数对应的点云尺度大于所述第二误差参数对应的点云尺度,所述点云尺度表征点云地图中由点云所构成的对象所占据区域的尺寸;根据所述第一误差参数与所述第二误差参数对预设视觉建图算法的定位精度进行评价。从而通过获取激光点云地图与视觉点云地图之间的两种不同尺度范围内的误差,继而基于该两种误差之和对预设视觉建图算法的定位精度进行评价,使得可以直接根据用于定位的地图数据来对视觉建图算法的输出结果进行评价,提升定位精度评价的有效性。同时,由于未引入昂贵的高精度传感器获取数据,可以降低定位精度的评价成本。
请参阅图1,为本申请一实施例提供的一种定位精度评价方法,该定位精度评价方法可以应用于室内停车场的智能泊车场景,具体可以用于对智能泊车任务的定位精度进行评价,所述方法包括:
S110:获取激光建图数据,所述激光建图数据包括激光点云地图。
本申请实施例中,激光建图数据表征通过激光雷达数据进行激光建图后得到的数据。在一种实现方式中,激光建图数据可以包括激光点云地图(即通过激光雷达扫描后得到的点云数据构成的地图)。
作为一种实施方式,可以通过基准传感器获取激光建图数据。可选的,基准传感器可以包括激光雷达,该激光雷达可以是不依赖于外部信号的低成本激光雷达,例如,该激光雷达可以是128线激光雷达,需要说明的是,此处激光雷达的类型仅作为示例,不构成对激光雷达类型的限定。
作为一种具体的实施方式,在获取激光建图数据之前,如图2所示,可以先通过固定支架把激光雷达(即基准传感器)以外置方式安装在车辆上(图2所示为安装在车顶),并且把激光雷达连接到车内网络路由器端口,以使得激光雷达可以接收车辆域控制器的控制以及授时信号。其中,为了确保信号的稳定性,可以使用网线把激光雷达连接到车内网络路由器端口。继而可以使用如图3所示的激光雷达-图像3d棋盘格标定板对激光雷达与图像传感器进行联合标定,以获取激光雷达坐标系转换到图像传感器坐标系的坐标变换矩阵。
进一步的,为了确保后续定位精度评价参数计算的有效性,可以将激光雷达开始采集数据的时刻与图像传感器开始采集数据的时刻统一。具体的,可以先开启激光雷达,继而通过网络路由器对激光雷达以及图像传感器进行统一授时,以完成激光雷达和图像传感器的数据采集时刻同步。
进一步的,可以获取激光雷达采集到的激光雷达数据,继而使用激光雷达数据进行激光建图,得到激光建图数据。示例性的,可以将激光雷达数据输入建图软件(具体类型可以不作限定),以通过建图软件进行激光建图。
S120:获取视觉建图数据,所述视觉建图数据包括视觉点云地图。
本申请实施例中,视觉建图数据表征通过图像传感器数据进行视觉建图后得到的数据。在一种实现方式中,视觉建图数据可以包括视觉点云地图(即通过图像传感器扫描后得到的点云数据构成的地图)。
作为一种实施方式,可以通过图像传感器获取视觉建图数据。本申请实施方式中的图像传感器可以为车载传感器平台,该车载传感器平台具体可以包括图像相机、IMU(Inertial Measurement Unit,惯性测量单元)等设备。可选的,图像相机的具体类型以及安装位置可以不作限定,例如,图像相机可以为单目相机、双目相机或是二者的组合,图像相机可以安装在车辆的前面(例如车头等位置),也可以安装在车辆的后面(例如车的后备箱等位置),或者可以安装在车的底部。
作为一种实施方式,在激光雷达与车载传感器平台已授时同步的情况下,可以获取车载传感器平台数据(包括图像视频数据以及IMU数据等内容),继而使用车载传感器平台数据进行视觉建图,得到视觉建图数据。
可以理解的,尽管激光雷达开始工作的时刻已与车载传感器平台开始工作的时刻统一,但是激光雷达所采集得到的激光雷达数据与车载传感器平台所采集得到的车载传感器平台数据仍然是不同类型的数据,为了提升数据之间比较的有效性,可以先通过前述的坐标变换矩阵将激光建图数据转换为第二视觉建图数据(为了便于区分,这里将由激光雷达数据转换过来的视觉建图数据称之为第二视觉建图数据),继而将视觉建图数据与第二视觉建图数据放在同一坐标系下进行对齐。例如,可以将视觉建图数据与第二视觉建图数据放在视觉建图数据所在的坐标系下进行对齐。
值得注意的是,对齐之后的激光点云地图与视觉点云地图位于同一坐标系下。
S130:获取所述激光点云地图与所述视觉点云地图之间的第一误差参数,以及获取所述激光点云地图与所述视觉点云地图之间的第二误差参数,所述第一误差参数对应的点云尺度大于所述第二误差参数对应的点云尺度。
本申请实施例中,第一误差参数表征平均垂直投影距离误差,第二误差参数表征平均距离误差。第一误差参数对应的点云尺度大于第二误差参数对应的点云尺度。也就是说,第一误差参数是基于大尺度点云特征计算得到的,而第二误差参数是基于小尺度(相对第一误差参数而言)点云特征计算得到的。可选的,尺度这里可以理解为尺寸,点云尺度表征点云地图中由点云所构成的对象所占据区域的尺寸。
由于激光点云地图在形成的过程中不可避免的会存在建图误差,且其精度较容易受场景环境的影响,为了减少或避免因建图误差或场景环境对定位精度评价造成的影响,可以获取激光点云地图与视觉点云地图之间的第一误差参数,以及获取激光点云地图与视觉点云地图之间的第二误差参数,以通过同时使用这两种误差参数来评价预设视觉建图算法的输出结果的定位精度。
本申请实施方式中,预设视觉建图算法的输出结果包括激光建图数据以及视觉建图数据。其中,激光建图数据包括激光点云地图,视觉建图数据包括视觉点云地图,由于智能泊车任务的定位功能主要是依赖于预设视觉建图算法输出的地图来实现,因而通过获取激光点云地图与视觉点云地图之间的两种不同尺度下的误差参数,可以实现直接、客观的评价预设视觉建图算法的输出结果的定位精度。
请参阅图4,作为一种实施方式,步骤S130可以包括:
S131:获取所述激光点云地图中的至少一个结构化区域。
在获取激光点云地图与视觉点云地图之间的第一误差参数的过程中,作为一种方式,可以先获取激光点云地图中的至少一个结构化区域。其中,结构化区域表征由具有固定形状的对象所在位置的点云所围成的区域。可选的,具有固定形状的对象可以包括地面、墙面、和/或天花板等大尺度的对象,具体的,具有固定形状的对象可以为室内停车场环境中的地面、墙面、或天花板等尺度相对较大的对象。本实施方式中,具有固定形状的对象可以预先确定(或设定)。可选的,在一些其他的实施方式中,结构化区域也可以为由具有非固定形状的对象所在位置的点云所围成的区域,即结构化区域的形状类型可以不作限定,可以是规则的,也可以是不规则的。
可选的,上述墙面的尺寸就可以理解为第一误差参数对应的点云尺度,墙面的尺寸可以理解为点云地图中由点云所构成的墙面所占据区域的尺寸。
结构化区域的数量可以为至少一个。不同的结构化区域所表征的对象可以相同,例如可以都为天花板;不同的结构化区域所表征的对象也可以不同,例如一个结构化区域所表征的对象可以为天花板,而另一个结构化区域所表征的对象可以为地面。
本申请实施方式中的建图评测(即定位精度评价)主要针对于大型室内停车场环境,而大型室内停车场内对建图结果评价有影响的主要为场景中具有固定形状的对象(例如前述地面、墙面、或天花板等),为了能够准确的获取到激光点云地图中的至少一个结构化区域,作为一种实现方式,可以通过平面检测和分割的方式提取出激光点云地图中的至少一个结构化区域。
S132:获取所述视觉点云地图中与所述至少一个结构化区域对应的至少一处视觉点云数据。
由于激光点云地图与视觉点云地图位于同一坐标系下,因而在提取出激光点云地图的至少一个结构化区域的情况下,为了获取客观有效的评价数据,可以基于该至少一个结构化区域获取视觉点云地图的对应结构化区域的点云数据,从而得到至少一处视觉点云数据。即对于提取出的激光点云地图的每一个结构化区域,其结构化区域内既包括激光点云,也包括视觉点云。
S133:对于每一处视觉点云数据,从所述视觉点云数据中获取部分点云数据作为参考视觉点云。
为了减少数据处理量,作为一种实施方式,对于每一处视觉点云数据,可以从该视觉点云数据中随机抽取指定数量的视觉点云作为参考视觉点云。可选的,指定数量的具体数值可以不作限定。
参考视觉点云为一个点集,该点集内包括至少一个点。
S134:确定所述参考视觉点云到所述结构化区域所在的拟合平面的平均垂直投影距离误差,作为所述第一误差参数。
作为一种方式,可以获取参考视觉点云中的每个点到结构化区域所在的拟合平面的垂直投影距离,进而按照如下公式(1)确定参考视觉点云到结构化区域所在的拟合平面的平均垂直投影距离误差,作为第一误差参数。
其中,Error1表征第一误差参数,N表示参考视觉点云中的点数量,i表征参考视觉点云中的第几个点,“Pesti,i”表征视觉建图给出的某个平面区域点云中的第i个点,“Pproj,i”表征视觉建图给出的某个平面区域点云中的第i个点在激光点云中检测出的平面上的投影点,为向量长度的平方,∑表征对视觉建图给出某个平面区域点云的所有点进行求和。
在一个具体的应用场景中,请参阅图5,示出了本申请实施例提供的获取激光点云地图与视觉点云地图之间的第一误差参数的示意流程图。如图5所示,可以通过平面检测(图6)和分割的方式从激光地图数据(即激光点云地图)中提取出结构化区域,继而可以提取视觉地图数据(即视觉点云地图)中同一结构化区域的视觉点云(图7),继而对于提取出的任意一个结构化区域的视觉点云,可以从该视觉点云中随机筛选点集,该点集包括多个点,然后再计算点集中的每个点到对应的结构化区域所在平面的垂直投影距离,得到多个垂直投影距离,再按照上述公式对该多个垂直投影距离求平均,从而得到平均垂直投影距离误差,作为第一误差参数。
请参阅图8,作为另一种实施方式,步骤S130可以包括:
S135:获取所述激光点云地图中的第一目标点云。
其中,第一目标点云为激光点云地图中用于表征给定的目标对象的点云。其中,给定的目标对象分布于激光点云地图的局部区域。示例性的,给定的目标对象可以为室内停车场环境中的标识牌、防火栓、闸门、通道出入口等尺度相对较小的对象。
在获取激光点云地图与视觉点云地图之间的第二误差参数的过程中,作为一种方式,可以先获取激光点云地图中的第一目标点云。作为一种实施方式,可以先获取预设语义目标,继而获取激光点云地图中表征预设语义目标的点云,作为第一目标点云。具体的,可以通过目标检测的方式检测出激光点云地图中的目标对象(即表征预设语义目标的点云),继而将检测到的目标对象从激光点云地图中分割出来,以获取得到第一目标点云。
可选的,为了便于快速的检测出激光点云地图中的目标对象,可以为目标对象设置语义标识,以实现通过提取给定的语义目标(即包括语义标识的目标对象)而快速的检测出第一目标点云。
S136:获取所述视觉点云地图中的第二目标点云,所述第一目标点云与所述第二目标点云具有相同的语义。
其中,第二目标点云为视觉点云地图中用于表征给定的目标对象的点云。本申请实施方式中的第一目标点云与第二目标点云具有相同的语义,即检测第一目标点云用到的目标对象与检测第二目标点云用到的目标对象类型相同。
作为一种方式,在获取激光点云地图中的第一目标点云的同时,可以通过类似的方式提取出视觉点云地图中第二目标点云,例如可以通过获取视觉点云地图中表征预设语义目标的点云,作为第二目标点云,具体获取原理以及实现方式可以参考前述实施方式中的对应描述,在此不再赘述。
S137:获取与所述第一目标点云对应的第一三维包围盒,以及获取与所述第二目标点云对应的第二三维包围盒。
为了获取客观、定量的评价参数,作为一种方式,可以分别抽取第一目标点云的三维包围盒与第二目标点云的三维包围盒,以获取与第一目标点云对应的第一三维包围盒,以及与第二目标点云对应的第二三维包围盒。
具体的,以获取与第一目标点云对应的第一三维包围盒为例,如图9所示,由于第一目标点云包括给定的目标对象所在位置的点云,即第一目标点云包括多个点,此时可以用能够包围住第一目标点云的最小三维包围盒,作为与第一目标点云对应的第一三维包围盒;同理,可以用能够包围住第二目标点云的最小三维包围盒,作为与第二目标点云对应的第二三维包围盒。
S138:确定所述第一三维包围盒与所述第二三维包围盒之间的平均距离误差,作为所述第二误差参数。
作为一种实现方式,可以按照如下平均距离误差计算公式确定第一三维包围盒与第二三维包围盒之间的平均距离误差,作为第二误差参数。
其中,Error2表征第二误差参数,“Cesti,i”表征视觉建图给出的某个视觉语义目标点云的3d包围框的第i个角点,“Cg,i”表征激光建图给出的某个激光语义目标点云的3d包围框的的第i个角点,为向量长度的平方,∑表征对语义目标点云的3d包围框的所有角点进行求和。
在一个具体的应用场景中,请参阅图10,示出了本申请实施例提供的获取激光点云地图与视觉点云地图之间的第二误差参数的示意流程图。如图10以及图11所示,可以分别对激光地图数据(即激光点云地图)以及视觉地图数据(即视觉点云地图)进行目标检测和分割,以提取出激光点云地图(即图10示出的激光地图)中的给定语义目标以及视觉点云地图(即图10示出的视觉地图)中的给定语义目标,继而可以分别抽取出与激光点云地图中的给定语义目标对应的三维包围盒,以及与视觉点云地图中的给定语义目标对应的三维包围盒,然后基于二者的三维包围盒计算包围盒角点的平均距离误差,作为第二误差参数。
其中,图11所示的激光点云以及激光语义目标点云均表征第一目标点云,视觉点云以及视觉语义目标点云均表征第二目标点云,3d包围盒即三维包围盒。
S140:根据所述第一误差参数与所述第二误差参数对预设视觉建图算法的定位精度进行评价。
在根据第一误差参数与第二误差参数对预设视觉建图算法的定位精度进行评价的过程中,为了更精确的评测预设视觉建图算法的输出地图的定位精度,作为一种实现方式,可以将基于预设视觉建图算法的输出地图获取到的第一误差参数与第二误差参数之和确定为预设视觉建图算法的输出结果的定位精度评价参数,进而可以设定一个评价参数阈值,在这种方式下,如果定位精度评价参数小于该评价参数阈值,可以认为预设视觉建图算法的输出结果的定位精度较高;而如果定位精度评价参数大于或者等于该评价参数阈值,可以认为预设视觉建图算法的输出结果的定位精度较低。其中,评价参数阈值的具体数值可以根据实际需要进行设定,具体可以不作限定。
作为另一种实现方式,定位精度评价参数的值越小,可以认为预设视觉建图算法的输出结果的定位精度越高;定位精度评价参数的值越大,可以认为预设视觉建图算法的输出结果的定位精度越低。
本实施例提供的一种定位精度评价方法,通过获取激光建图数据,所述激光建图数据包括激光点云地图;获取视觉建图数据,所述视觉建图数据包括视觉点云地图;获取所述激光点云地图与所述视觉点云地图之间的第一误差参数,以及获取所述激光点云地图与所述视觉点云地图之间的第二误差参数,所述第一误差参数对应的点云尺度大于所述第二误差参数对应的点云尺度,所述点云尺度表征点云地图中由点云所构成的对象所占据区域的尺寸;根据所述第一误差参数与所述第二误差参数对预设视觉建图算法的定位精度进行评价。从而通过获取激光点云地图与视觉点云地图之间的两种不同尺度范围内的误差,继而基于该两种误差之和对预设视觉建图算法的定位精度进行评价,使得可以直接根据用于定位的地图数据来对视觉建图算法的输出结果进行评价,提升定位精度评价的有效性。同时,由于未引入昂贵的高精度传感器获取数据,可以降低定位精度的评价成本。
请参阅图12,为本申请另一实施例提供的一种定位精度评价方法,所述方法包括:
S211:获取激光建图数据,所述激光建图数据包括激光点云地图。
其中,S211的具体实现可以参考前述实施例中S110的相关描述,在此不再赘述。
S221:获取视觉建图数据,所述视觉建图数据包括视觉点云地图。
其中,S221的具体实现可以参考前述实施例中S120的相关描述,在此不再赘述。
S231:获取所述激光点云地图与所述视觉点云地图之间的第一误差参数,以及获取所述激光点云地图与所述视觉点云地图之间的第二误差参数,所述第一误差参数对应的点云尺度大于所述第二误差参数对应的点云尺度。
其中,S231的具体实现可以参考前述实施例中S130的相关描述,在此不再赘述。
S241:根据所述第一误差参数与所述第二误差参数对预设视觉建图算法的定位精度进行评价。
其中,S241的具体实现可以参考前述实施例中S140的相关描述,在此不再赘述。
S212:获取所述激光建图轨迹中时间间隔大于指定时间间隔且距离间隔大于指定距离间隔的相邻帧,作为第一参考帧。
本申请实施方式中的激光建图数据还可以包括激光建图轨迹,视觉建图数据还可以包括视觉建图轨迹,为了进一步对预设视觉建图算法的输出结果进行客观、定量的精确评价,在执行步骤S211-S241的过程中,还可以从激光建图轨迹与视觉建图轨迹的层面获取评价指标,以对预设视觉建图算法的输出结果的定位精度进行更全面的评价。
在从激光建图轨迹与视觉建图轨迹的层面获取评价指标的过程中,由于激光雷达与车载传感平台的差异性,例如硬件上的安装误差、平台移动中的硬件非刚性连接误差、软件算法过程中的同步误差、标定误差等,因而,为了消除上述固有误差对后续获取评价指标的影响,对于同一时间段采集计算输出得到的激光建图轨迹与视觉建图轨迹,应先作时间和距离上的筛选。以激光建图轨迹为例,可以先获取激光建图轨迹中时间间隔大于指定时间间隔且距离间隔大于指定距离间隔的相邻帧,作为第一参考帧。
其中,指定时间间隔可以设定为激光雷达与车载传感平台的平均同步时间误差,指定距离间隔可以设定为激光雷达与车载传感平台的平均标定平移距离误差。指定时间间隔以及指定距离间隔的数值可以在激光雷达与车载传感平台授时同步的过程中获取,具体获取原理以及实现方式在此不再赘述。
作为一种具体的实施方式,在获取激光建图轨迹中时间间隔大于指定时间间隔且距离间隔大于指定距离间隔的相邻帧的过程中,可以先以平均同步时间误差作为阈值,以其2~3倍的帧率进行重采样,以对激光建图轨迹的帧进行第一轮筛选;继而以平均标定平移距离误差作为阈值,以其2~3倍的距离进行过滤,以对第一轮筛选后的结果进行第二轮筛选,最后将得到的帧作为第一参考帧。
在一个具体的应用场景中,请参阅图13,示出了本申请实施例提供的获取激光建图轨迹中时间间隔大于指定时间间隔且距离间隔大于指定距离间隔的相邻帧的示例流程图。如图13所示,对于激光建图轨迹,可以取出其第i帧位姿数据,继而获取其第i帧位姿数据与第i-1帧位姿数据的时间间隔,再判断该时间间隔是否大于指定时间间隔。可选的,若该时间间隔大于(或等于)指定时间间隔,则可以继续获取其第i帧位姿数据与第i-1帧位姿数据的距离间隔,继而判断该距离间隔是否大于指定距离间隔;若该时间间隔小于指定时间间隔,则可以重新获取第i帧位姿数据。可选的,若该距离间隔大于(或等于)指定距离间隔,则可以将筛选得到的位姿数据插入筛选轨迹数据(即将筛选得到的位姿数据获取作为第一参考帧);而若该距离间隔小于指定距离间隔,则可以重新获取第i帧位姿数据。
S222:获取所述视觉建图轨迹中时间间隔大于指定时间间隔且距离间隔大于指定距离间隔的相邻帧,作为第二参考帧。
类似的,对于视觉建图轨迹,可以按照上述方式获取视觉建图轨迹中时间间隔大于指定时间间隔且距离间隔大于指定距离间隔的相邻帧,作为第二参考帧。第二参考帧的获取过程与第一参考帧的获取过程类似,在此不再赘述。
S232:基于所述第一参考帧以及所述第二参考帧获取对应的绝对轨迹误差与相对轨迹误差。
本申请实施方式中的第一参考帧以及第二参考帧均为一个集合,即第一参考帧包括多帧位姿,第二参考帧也包括多帧位姿。在获取了第一参考帧与第二参考帧的情况下,可以基于第一参考帧以及第二参考帧按照如下公式(3)获取对应的绝对轨迹误差,以及基于第一参考帧以及第二参考帧按照如下公式(4)获取对应的相对轨迹误差。
其中,为激光建图给出真实轨迹中的第i个位姿矩阵,Testi,i为视觉建图给出估计轨迹中的对应第i个位姿矩阵,为矩阵范数的平方,∑为对抽样位姿点进行求和。
其中,表征激光建图给出真实轨迹中的第i个位姿矩阵,Tg,i+Δt表征真实轨迹中距离第i个位姿相距固定时间间隔的位姿矩阵,Testi,i表征视觉建图给出估计轨迹中的对应第i个位姿矩阵,Testi,i+Δt表征估计轨迹中距离第i个位姿相距固定时间间隔的位姿矩阵,为矩阵范数的平方,∑表征对抽样位姿点进行求和。
具体的,为了验证数据的有效性以及稳定性,可以分别从第一参考帧以及第二参考帧中多轮抽样帧代入绝对轨迹误差计算公式,计算得到多个绝对轨迹误差(多个绝对轨迹误差的曲线图如图14所示);以及从第一参考帧以及第二参考帧中多轮抽样帧代入相对轨迹误差计算公式,计算得到多个相对轨迹误差(多个相对轨迹误差的曲线图如图15所示)。计算得到的多个绝对轨迹误差的值各不相同,因而可以计算该多个绝对轨迹误差中的最大值、最小值、平均值以及中值等数据;类似的,计算得到的多个相对轨迹误差的值也各不相同,因而可以计算该多个相对轨迹误差中的最大值、最小值、平均值以及中值等数据。
需要说明的是,在计算绝对轨迹误差以及相对轨迹误差的过程中,激光建图轨迹表征真实轨迹,视觉建图轨迹表征测量轨迹。
S242:基于所述绝对轨迹误差、相对轨迹误差、所述第一误差参数与所述第二误差参数对预设视觉建图算法的定位精度进行评价。
本实施方式中,可以基于绝对轨迹误差与相对轨迹误差、以及前述定位精度评价参数(包括第一误差参数与第二误差参数)对预设视觉建图算法的输出结果的定位精度进行全面综合的评价,使得可以同时基于预设视觉建图算法的轨迹输出结果与地图输出结果对视觉建图的输出结果的定位精度进行评价,相较于仅通过一种评价指标对视觉建图的输出结果的定位精度进行评价、或者是通过视觉建图算法的轨迹输出结果对视觉建图的输出结果的定位精度进行评价,本申请实施方式提供的定位精度评价方法可以更加全面、精确的对视觉建图的输出结果的定位精度进行评价,从而可以提升定位精度评价的有效性与可靠性。
可选的,绝对轨迹误差与相对轨迹误差的结果可以较为真实的反映不同传感器、以及不同算法方案得到的真正轨迹估算误差,因而在基于绝对轨迹误差与相对轨迹误差、以及定位精度评价参数对预设视觉建图算法的定位精度进行评价时,可以不定性限定评价指标与定位精度的关系,可以理解为一种开放式的定位精度评价方法。
在一些其他实施方式中,也可以通过比对高精组合导航输出的轨迹,对建图结果进行间接评价。或者是通过外部第三方图商提供的高精地图数据,对建图结果进行评价。具体评价方式可以根据实际需要或者是对定位精度的要求确定。
本实施例提供的一种定位精度评价方法,通过获取激光点云地图与视觉点云地图之间的两种不同尺度范围内的误差,继而基于该两种误差之和对预设视觉建图算法的定位精度进行评价,使得可以直接根据用于定位的地图数据来对视觉建图算法的输出结果进行评价,提升定位精度评价的有效性。同时,由于未引入昂贵的高精度传感器获取数据,可以降低定位精度的评价成本。
进一步的,通过获取激光建图轨迹与视觉建图轨迹之间的绝对轨迹误差以及相对轨迹误差,再基于基于绝对轨迹误差与相对轨迹误差、以及前述定位精度评价参数对预设视觉建图算法的输出结果的定位精度进行全面综合的评价,使得可以同时基于预设视觉建图算法的轨迹输出结果与地图输出结果对视觉建图的输出结果的定位精度进行评价,相较于仅通过一种评价指标对视觉建图的输出结果的定位精度进行评价、或者是通过视觉建图算法的轨迹输出结果对视觉建图的输出结果的定位精度进行评价,本申请实施方式提供的定位精度评价方法可以更加全面、精确的对视觉建图的输出结果的定位精度进行评价,从而可以提升定位精度评价的有效性与可靠性。
请参阅图16,本申请提供的一种定位精度评价装置300,所述定位精度评价装置300包括:
激光建图结果获取模块310,用于获取激光建图数据,所述激光建图数据包括激光点云地图。
作为一种实现方式,激光建图结果获取模块310具体可以用于通过基准传感器获取激光建图数据,所述基准传感器包括激光雷达。
视觉建图结果获取模块320,用于获取视觉建图数据,所述视觉建图数据包括视觉点云地图。
作为一种实现方式,视觉建图结果获取模块320具体可以用于通过图像传感器获取视觉建图数据,所述图像传感器包括车载传感器平台。
误差参数获取模块330,用于获取所述激光点云地图与所述视觉点云地图之间的第一误差参数,以及获取所述激光点云地图与所述视觉点云地图之间的第二误差参数,所述第一误差参数对应的点云尺度大于所述第二误差参数对应的点云尺度,所述点云尺度表征点云地图中由点云所构成的对象所占据区域的尺寸。
作为一种实施方式,误差参数获取模块330具体可以用于获取所述激光点云地图中的至少一个结构化区域;获取所述视觉点云地图中与所述至少一个结构化区域对应的至少一处视觉点云数据;对于每一处视觉点云数据,从所述视觉点云数据中获取部分点云数据作为参考视觉点云;确定所述参考视觉点云到所述结构化区域所在的拟合平面的平均垂直投影距离误差,作为所述第一误差参数。
作为一种实现方式,所述获取所述激光点云地图中的至少一个结构化区域,可以包括:通过平面检测的方式获取所述激光点云地图中的至少一个结构化区域。
作为另一种实施方式,误差参数获取模块330具体可以用于获取所述激光点云地图中的第一目标点云;获取所述视觉点云地图中的第二目标点云,所述第一目标点云与所述第二目标点云具有相同的语义;获取与所述第一目标点云对应的第一三维包围盒,以及获取与所述第二目标点云对应的第二三维包围盒;确定所述第一三维包围盒与所述第二三维包围盒之间的平均距离误差,作为所述第二误差参数。
作为一种实现方式,所述获取所述激光点云地图中的第一目标点云,可以包括:获取预设语义目标;获取所述激光点云地图中表征所述预设语义目标的点云,作为所述第一目标点云。类似的,所述获取所述视觉点云地图中的第二目标点云,可以包括:获取所述视觉点云地图中表征所述预设语义目标的点云,作为所述第二目标点云。
定位精度评价模块340,用于根据所述第一误差参数与所述第二误差参数对预设视觉建图算法的定位精度进行评价。
本实施方式中,定位精度评价装置300还可以包括评价参数获取模块,用于获取所述激光建图轨迹中时间间隔大于指定时间间隔且距离间隔大于指定距离间隔的相邻帧,作为第一参考帧;获取所述视觉建图轨迹中时间间隔大于指定时间间隔且距离间隔大于指定距离间隔的相邻帧,作为第二参考帧;基于所述第一参考帧以及所述第二参考帧获取对应的绝对轨迹误差与相对轨迹误差。在这种方式下,定位精度评价模块340具体可以用于基于所述绝对轨迹误差、相对轨迹误差、所述第一误差参数与所述第二误差参数对预设视觉建图算法的定位精度进行评价。
下面将结合图17对本申请提供的一种车辆进行说明。
请参阅图17,基于上述的定位精度评价方法、装置,本申请实施例还提供的另一种可以执行前述定位精度评价方法的车辆100。车辆100包括相互耦合的一个或多个(图中仅示出一个)处理器102、存储器104、数据采集模块106。其中,该存储器104中存储有可以执行前述实施例中内容的程序,而处理器102可以执行该存储器104中存储的程序。
其中,处理器102可以包括一个或者多个处理核。处理器102利用各种接口和线路连接整个车辆100内的各个部分,通过运行或执行存储在存储器104内的指令、程序、代码集或指令集,以及调用存储在存储器104内的数据,执行车辆100的各种功能和处理数据。可选地,处理器102可以采用网络处理器(Neural network Processing Unit,NPU)、数字信号处理(Digital Signal Processing,DSP)、现场可编程门阵列(Field-Programmable GateArray,FPGA)、可编程逻辑阵列(Programmable Logic Array,PLA)中的至少一种硬件形式来实现。处理器102可集成中央处理器(Central Processing Unit,CPU)、图像处理器(Graphics Processing Unit,GPU)、网络处理器(Neural network Processing Unit,NPU)和调制解调器等中的一种或几种的组合。其中,CPU主要处理操作系统、用户界面和应用程序等;GPU用于负责显示内容的渲染和绘制;NPU负责处理视频、图像类的多媒体数据;调制解调器用于处理无线通信。可以理解的是,上述调制解调器也可以不集成到处理器102中,单独通过一块通信芯片进行实现。
存储器104可以包括随机存储器(Random Access Memory,RAM),也可以包括只读存储器(Read-Only Memory)。存储器104可用于存储指令、程序、代码、代码集或指令集。存储器104可包括存储程序区和存储数据区,其中,存储程序区可存储用于实现操作系统的指令、用于实现至少一个功能的指令(比如触控功能、声音播放功能、图像播放功能等)、用于实现下述各个方法实施例的指令等。存储数据区还可以存储车辆100在使用中所创建的数据(比如电话本、音视频数据、聊天记录数据)等。
数据采集模块106可以用于获取车辆100的行驶状态信息,数据采集模块106可以为激光雷达、摄像头、传感器、GPS(Global Positioning System,全球定位系统)导航等。
本申请实施例提供的一种计算机可读存储介质。该计算机可读存储介质中存储有程序代码,所述程序代码可被处理器调用执行上述方法实施例中所描述的方法。
计算机可读存储介质可以是诸如闪存、EEPROM(电可擦除可编程只读存储器)、EPROM、硬盘或者ROM之类的电子存储器。可选地,计算机可读存储介质包括非易失性计算机可读存储介质(non-transitory computer-readable storage medium)。计算机可读存储介质具有执行上述方法中的任何方法步骤的程序代码的存储空间。这些程序代码可以从一个或者多个计算机程序产品中读出或者写入到这一个或者多个计算机程序产品中。程序代码可以例如以适当形式进行压缩。
综上所述,本申请提供的一种定位精度评价方法、装置以及车辆,通过获取激光建图数据,所述激光建图数据包括激光点云地图;获取视觉建图数据,所述视觉建图数据包括视觉点云地图;获取所述激光点云地图与所述视觉点云地图之间的第一误差参数,以及获取所述激光点云地图与所述视觉点云地图之间的第二误差参数,所述第一误差参数对应的点云尺度大于所述第二误差参数对应的点云尺度,所述点云尺度表征点云地图中由点云所构成的对象所占据区域的尺寸;根据所述第一误差参数与所述第二误差参数对预设视觉建图算法的定位精度进行评价。从而通过获取激光点云地图与视觉点云地图之间的两种不同尺度范围内的误差,继而基于该两种误差之和对预设视觉建图算法的定位精度进行评价,使得可以直接根据用于定位的地图数据来对视觉建图算法的输出结果进行评价,提升定位精度评价的有效性。同时,由于未引入昂贵的高精度传感器获取数据,可以降低定位精度的评价成本。
最后应说明的是:以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不驱使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。
Claims (10)
1.一种定位精度评价方法,其特征在于,所述方法包括:
获取激光建图数据,所述激光建图数据包括激光点云地图;
获取视觉建图数据,所述视觉建图数据包括视觉点云地图;
获取所述激光点云地图与所述视觉点云地图之间的第一误差参数,以及获取所述激光点云地图与所述视觉点云地图之间的第二误差参数,所述第一误差参数对应的点云尺度大于所述第二误差参数对应的点云尺度,所述点云尺度表征点云地图中由点云所构成的对象所占据区域的尺寸;
根据所述第一误差参数与所述第二误差参数对预设视觉建图算法的定位精度进行评价。
2.根据权利要求1所述的方法,其特征在于,所述激光建图数据与所述视觉建图数据位于相同的坐标系下,所述获取所述激光点云地图与所述视觉点云地图之间的第一误差参数,包括:
获取所述激光点云地图中的至少一个结构化区域;
获取所述视觉点云地图中与所述至少一个结构化区域对应的至少一处视觉点云数据;
对于每一处视觉点云数据,从所述视觉点云数据中获取部分点云数据作为参考视觉点云;
确定所述参考视觉点云到所述结构化区域所在的拟合平面的平均垂直投影距离误差,作为所述第一误差参数。
3.根据权利要求2所述的方法,其特征在于,所述获取所述激光点云地图中的至少一个结构化区域,包括:
通过平面检测的方式获取所述激光点云地图中的至少一个结构化区域。
4.根据权利要求2所述的方法,其特征在于,所述获取所述激光点云地图与所述视觉点云地图之间的第二误差参数,包括:
获取所述激光点云地图中的第一目标点云;
获取所述视觉点云地图中的第二目标点云,所述第一目标点云与所述第二目标点云具有相同的语义;
获取与所述第一目标点云对应的第一三维包围盒,以及获取与所述第二目标点云对应的第二三维包围盒;
确定所述第一三维包围盒与所述第二三维包围盒之间的平均距离误差,作为所述第二误差参数。
5.根据权利要求4所述的方法,其特征在于,所述获取所述激光点云地图中的第一目标点云,包括:
获取预设语义目标;
获取所述激光点云地图中表征所述预设语义目标的点云,作为所述第一目标点云;
所述获取所述视觉点云地图中的第二目标点云,包括:
获取所述视觉点云地图中表征所述预设语义目标的点云,作为所述第二目标点云。
6.根据权利要求1所述的方法,其特征在于,所述激光建图数据还包括激光建图轨迹,所述视觉建图数据还包括视觉建图轨迹,所述方法还包括:
获取所述激光建图轨迹中时间间隔大于指定时间间隔且距离间隔大于指定距离间隔的相邻帧,作为第一参考帧;
获取所述视觉建图轨迹中时间间隔大于指定时间间隔且距离间隔大于指定距离间隔的相邻帧,作为第二参考帧;
基于所述第一参考帧以及所述第二参考帧获取对应的绝对轨迹误差与相对轨迹误差;
所述方法,还包括:
基于所述绝对轨迹误差、相对轨迹误差、所述第一误差参数与所述第二误差参数对预设视觉建图算法的定位精度进行评价。
7.一种定位精度评价装置,其特征在于,所述装置包括:
激光建图结果获取模块,用于获取激光建图数据,所述激光建图数据包括激光点云地图;
视觉建图结果获取模块,用于获取视觉建图数据,所述视觉建图数据包括视觉点云地图;
误差参数获取模块,用于获取所述激光点云地图与所述视觉点云地图之间的第一误差参数,以及获取所述激光点云地图与所述视觉点云地图之间的第二误差参数,所述第一误差参数对应的点云尺度大于所述第二误差参数对应的点云尺度,所述点云尺度表征点云地图中由点云所构成的对象所占据区域的尺寸;
定位精度评价模块,用于根据所述第一误差参数与所述第二误差参数对预设视觉建图算法的定位精度进行评价。
8.一种车辆,其特征在于,包括一个或多个处理器以及存储器;
一个或多个程序被存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个程序配置用于执行权利要求1-6任一所述的方法。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有程序代码,其中,在所述程序代码被处理器运行时执行权利要求1-6任一所述的方法。
10.一种计算机程序产品,包括计算机程序/指令,其特征在于,该计算机程序/指令被处理器执行时实现权利要求1-6任一所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410344078.9A CN118463965A (zh) | 2024-03-25 | 2024-03-25 | 定位精度评价方法、装置以及车辆 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410344078.9A CN118463965A (zh) | 2024-03-25 | 2024-03-25 | 定位精度评价方法、装置以及车辆 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN118463965A true CN118463965A (zh) | 2024-08-09 |
Family
ID=92158198
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410344078.9A Pending CN118463965A (zh) | 2024-03-25 | 2024-03-25 | 定位精度评价方法、装置以及车辆 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN118463965A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118670378A (zh) * | 2024-08-20 | 2024-09-20 | 浙江吉利控股集团有限公司 | 电子地图数据的验证方法、电子地图构建方法及装置 |
-
2024
- 2024-03-25 CN CN202410344078.9A patent/CN118463965A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118670378A (zh) * | 2024-08-20 | 2024-09-20 | 浙江吉利控股集团有限公司 | 电子地图数据的验证方法、电子地图构建方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109087510B (zh) | 交通监测方法及装置 | |
CN109188457B (zh) | 物体检测框的生成方法、装置、设备、存储介质及车辆 | |
CN109918977B (zh) | 确定空闲车位的方法、装置及设备 | |
CN111860072A (zh) | 泊车控制方法、装置、计算机设备及计算机可读存储介质 | |
CN110853085B (zh) | 基于语义slam的建图方法和装置及电子设备 | |
CN114547866B (zh) | 基于bim-无人机-机械狗的预制构件智能检测方法 | |
CN114419564B (zh) | 车辆位姿检测方法、装置、设备、介质及自动驾驶车辆 | |
CN117269940B (zh) | 点云数据生成方法、激光雷达的感知能力验证方法 | |
CN112763993A (zh) | 标定雷达参数的方法和装置、电子设备、存储介质 | |
CN112462758A (zh) | 一种建图方法、装置、计算机可读存储介质及机器人 | |
CN114089330A (zh) | 一种基于深度图像修复的室内移动机器人玻璃检测与地图更新方法 | |
CN118463965A (zh) | 定位精度评价方法、装置以及车辆 | |
CN112001453B (zh) | 一种视频事件检测算法的准确率计算方法及装置 | |
CN110426714B (zh) | 一种障碍物识别方法 | |
CN115937449A (zh) | 高精地图生成方法、装置、电子设备和存储介质 | |
CN118397588B (zh) | 智能驾驶汽车用摄像头场景分析方法、系统、设备及介质 | |
CN112630736B (zh) | 路侧雷达的参数确定方法、装置、设备及存储介质 | |
CN115147561A (zh) | 位姿图生成方法、高精地图生成方法和装置 | |
CN115019034A (zh) | 检测模型训练方法及装置、对象检测方法及装置 | |
CN117079243A (zh) | 目标检测方法、装置、电子设备及可读存储介质及产品 | |
CN118670378B (zh) | 电子地图数据的验证方法、电子地图构建方法及装置 | |
CN117437602B (zh) | 一种双图层数据标定方法、装置、设备及可读存储介质 | |
CN113689499B (zh) | 一种基于点面特征融合的视觉快速定位方法、装置及系统 | |
US20240331095A1 (en) | Method and system for using multi-sensor consensus to filter-out artifacts from point cloud data | |
CN115641567B (zh) | 用于车辆的目标对象检测方法、装置、车辆及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |