CN116758497A - 一种基于无人系统的激光点云三维目标检测方法 - Google Patents
一种基于无人系统的激光点云三维目标检测方法 Download PDFInfo
- Publication number
- CN116758497A CN116758497A CN202310279707.XA CN202310279707A CN116758497A CN 116758497 A CN116758497 A CN 116758497A CN 202310279707 A CN202310279707 A CN 202310279707A CN 116758497 A CN116758497 A CN 116758497A
- Authority
- CN
- China
- Prior art keywords
- dimensional
- point cloud
- module
- feature
- target detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种基于无人系统的激光点云三维目标检测方法包括如下步骤:步骤S1:获取基于无人系统的激光点云数据集,对所述激光点云数据集进行预处理,将预处理后的激光点云数据集按照预设比例1:1分为训练集和测试集;步骤S2:构建基于无人系统的激光点云三维目标检测模型;步骤S3:将所述训练集输入至所述激光点云三维目标检测模型,得到训练好的激光点云三维目标检测模型;步骤S4:将所述测试集输入至所述训练好的激光点云三维目标检测模型,得到三维目标检测结果。本发明所提出的动态边缘卷积模块与自适应特征融合网络具有更加丰富与精细的特征表示,提高激光点云三维目标检测的精度。
Description
技术领域
本发明涉及无人系统三维目标检测领域,特别涉及一种基于无人系统的激光点云三维目标检测方法。
背景技术
近年来,随着自动驾驶技术的不断发展,关于对无人系统的智能化要求也在不断提高,目前自动驾驶车辆正朝着高度自动化与完全自动化方向发展。基于对车内人员安全与行驶路线的考虑,无人系统需要对外界环境进行精准感知以实现对外界障碍物的及时规避与行驶路线的精确规划,在行驶过程中若对外界车辆、行人等位置估计不准确,则会大大增加交通事故发生的可能性,严重威胁城市交通的安全性和稳定性,因此,无人系统需要对外界场景,包括车辆、行人等目标进行三维检测,对位置以及距离进行精准估计,保障城市交通系统的安全运转。
一般来说,无人系统中目前使用最广泛的视觉传感器是相机,通过获取环境中的颜色与位置信息来实现对外界场景的感知,然而自动驾驶车辆面临着夜晚时刻与恶劣天气条件下能见度低的难题,使用相机作为视觉传感器获取得到的图像质量差,并且缺少场景中的深度信息,严重影响无人系统对周围场景的感知效果,激光雷达能够获取场景中的深度信息且对天气条件要求较低,因此采用激光雷达获取点云信息进行三维目标检测是非常必要的。
近几年随着深度学习的飞速发展,逐步使用基于深度学习的激光点云目标检测网络实现对车辆、行人等的三维检测,目前具体实现过程中具有如下难点:
1、点云信息具有稀疏与不规则的特点,网络难以直接处理;
2、目前一般的点云目标检测网络仅利用点的信息,没有考虑点与点之间的拓扑关系,即边的特征;
3、点云信息经过堆叠的卷积层后低级几何特征质量下降,没有充分利用具有丰富空间信息的几何特征。
发明内容
本发明提供了一种基于无人系统的激光点云三维目标检测方法,其目的是为了解决背景技术中点云信息网络难以直接处理、点云目标检测网络没有考虑点与点之间的拓扑关系、点云信息经过堆叠的卷积层后低级几何特征质量下降的技术问题。
为了达到上述目的,本发明提供的一种基于无人系统的激光点云三维目标检测方法,如图1所示,包括如下步骤:
步骤S1:获取基于无人系统的激光点云数据集,对所述激光点云数据集进行预处理,将预处理后的激光点云数据集按照预设比例1:1分为训练集和测试集;
步骤S2:构建基于无人系统的激光点云三维目标检测模型,所述激光点云三维目标检测模型包括点云体素化模块、动态边特征编码器、二维编码器、自适应特征融合模块、多任务检测头预测模块;
所述点云体素化模块将点云数据进行规则化与密集化表示,所述动态边特征编码器用于提取体素内点云数据的边特征并进行二维伪图片表示,其中,所述点云数据包括点云的位置信息与角度信息,具体为(x,y,z,r),(x,y,z)为点云数据三维坐标,r为点云数据反射强度,所述二维编码器将二维伪图片进行空间特征与语义特征的多层次特征信息提取,所述自适应特征融合模块通过所述多层次特征信息自适应分配权重给不同层级特征进行特征融合,所述多任务检测头预测模块通过融合特征预测三维目标检测框;
步骤S3:将步骤S1中的所述训练集输入至步骤S2中的所述激光点云三维目标检测模型,通过所述训练集的点云检测框、所述三维目标检测框输出以及预设的损失函数对所述激光点云三维目标检测模型进行反向传播并更新模型参数,重复所述步骤S3中上述步骤,最终得到训练好的激光点云三维目标检测模型;
步骤S4:将步骤S1中的所述测试集输入至所述训练好的激光点云三维目标检测模型,得到三维目标检测结果。
优选地,步骤S2所述点云体素化模块包括以下步骤:
步骤S221:以激光雷达作为坐标轴中心,车辆前进方向为x轴方向,车辆向左方向为y轴方向,车辆向上方向为z轴方向,对获取后的激光点云数据集中训练集中的点云数据进行四维张量化表示,具体为(x,y,z,r),(x,y,z)为点云数据三维坐标,r为点云数据反射强度;
步骤S222:规定点云场景在(x,y,z)坐标轴上的范围为[(0,69.12),(-39.68,39.68),(-3,1)],每个点云体素规格为(0.16,0.16,4),整个点云场景被划分为432×496×1个规格相等的体素;
步骤S223:每个体素内点的个数不超过32个,若少于32个则进行补零,若超过32个则进行随机采样至32个,并且将每个体素内32个点云的坐标以及反射强度作为点云体素的特征,其数学表示为(432×496×1,32,4)的张量。
优选地,步骤S2所述动态边特征编码器主要包括最近邻采样模块、边缘卷积模块及二维伪图片生成模块,用于提取点云的边特征;
其中,最近邻采样模块进行采样具体为:
所述边缘卷积模块包括第一个边特征编码器及第二个边特征编码器,分别提取点云的边特征;所述第一个边特征编码器包括两个多层感知机及一个最大池化层,最近邻采样模块获得的采样依次经过两个所述多层感知机及所述最大池化层进行特征提取及编码输出;所述第二个边特征编码器包括一个最近邻采样层、一个多层感知机及一个最大池化层,所述第一个边特征编码器的输出数据通过所述最近邻采样层进行第二次最近邻采样,完成动态更新获取到更深层次的边特征,输入到所述第二个边缘卷积器的多层感知机进行特征提取,然后进行最大池化操作输出特征张量。
优选地,步骤S2包括以下步骤:
步骤S231:最近邻采样模块采样;具体为:
首先输入432×496×1的点云体素化表示到所述最近邻采样模块,每个体素内包含32个点,每个点的特征为(x,y,z)坐标与反射强度的4维特征,将每个体素内32个点作为顶点,在每个体素内对每个顶点进行最近邻采样至5个点,具体为,最近邻采样模块计算每个顶点与其余31个顶点之间的距离,获取到距离最近的5个顶点作为当前顶点的最近邻点集,重复32次以遍历每个体素内32个顶点,连接每个体素内32个顶点(Xi,Yi,Zi)(i=0,1,2,…,32)与其最近邻采样点集中点的坐标(Xij,Yij,Zij)(j=0,1,…,5),构建点与点之间的边关系(Xi-Xij,Yi-Yij,Zi-Zij),其数学表示为(432×496×1,32×5,4)的张量,其中,i为每个体素内顶点的数目,合计32个,j为每个顶点最近邻采样的点的数目,合计5个;
步骤S232:边缘卷积模块卷积获取点云的边特征,并编码输出;具体包括:
步骤S2321:将每个顶点的坐标(Xi,Yi,Zi)与其代表的边关系(Xi-Xij,Yi-Yij,Zi-Zij)作为所述边缘卷积模块的输入,具体为(432×496×1,32×(5+1),4)的张量,首先进入第一个边缘卷积模块利用两个多层感知机进行特征提取,由原来的4维特征变成64维特征,再经过最大池化层编码输出,输出为(432×496×1,32,64)的张量;
步骤S2322:将所述第一个边缘卷积模块的输出进行第二次最近邻采样完成动态更新获取到更深层次的边特征,输入到第二个边缘卷积模块利用一个多层感知机进行特征提取,由64维特征变成更深层次的64维特征,然后进行最大池化操作输出为(432×496×1,1,64)的特征张量;
步骤S233:二维伪图片生成模块生成二维伪图片;具体为:
所述二维伪图片生成模块进行张量转变操作,将(432×496×1,1,64)的特征张量形式转变为(432,496,64)的标准二维图片张量形式,其中H=432,W=496,C=64,H为二维伪图片的高度,W为二维伪图片的宽度,C为二维伪图片的通道数量。
优选地,步骤S2所述二维编码器主要由3个block组成,第一个block由3个3×3的二维卷积层构成,第二个block由5个3×3的二维卷积层构成,第三个block由5个3×3的二维卷积层构成,包括以下步骤:
步骤S241:第一个block对输入二维伪图片进行空间特征或/和语义特征的特征提取生成216×248×64的二维特征表达;
步骤S242:步骤S241中的二维特征表达继续输入到第二个block进行空间特征或/和语义特征的特征提取生成108×124×128的二维特征表达;
步骤S243:步骤S242中的二维特征表达继续输入到第三个block进行空间特征或/和语义特征的特征提取生成54×62×256的二维特征表达;
步骤S244:二维编码器输出:3个block输出的3个二维特征表达是所述二维编码器的输出。
优选地,步骤S2所述自适应特征融合模块,包含上采样模块、全连接模块、特征融合模块三个部分,包括以下步骤:
步骤S251:上采样模块上采样:首先分别输入到1×1(deconv)上采样卷积、2×2上采样(deconv)卷积以及4×4上采样(deconv)卷积共3个上采样卷积层构成的上采样模块,二维编码器的3个输出,即216×248×64的二维特征表达,108×124×128的二维特征表达及54×62×256的二维特征表达,分别经过3个上采样卷积层;
步骤S252:全连接模块拼接输出:全连接模块包括两层依次连接的全连接层,所述步骤S251中经过上采样卷积层的输出,再输入到全连接模块,3个输入分别依次通过两层全连接层并进行拼接输出为216×248×3的特征表达;
其中第一层所述全连接层包含3路输入及3路输出;3路输入为分别经过3个上采样卷积层的输出,3路输出均为216×248×128的特征表达;
第二层所述全连接层包含3路输入及3路输出;3路输入为分别经过第一层全连接层的输出,3路输出均为216×248×1的特征表达;第二层所述全连接层的3路输出经过concatenate后输出为216×248×3的1路输出;
步骤S253:特征融合模块特征融合:所述步骤S252中的216×248×3特征表达输出继续进入到特征融合模块通过一个softmax层进行自适应权重分配,分别把自适应权重分配给所述全连接模块的第一层所述全连接层的3路输出,完成特征融合。
优选地,所述自适应特征融合模块具体为:
Y=(w1(deconv(X)))·softmax(w2(w1(deconv(X))))
其中,X为所述自适应特征融合模块的输入,Y为所述自适应特征融合模块的输出,deconv为上采样卷积,w1、w2分别为两层全连接层,softmax为softmax层。
优选地,步骤S2所述多任务检测头预测模块包含预测框的分类、预测框的回归、预测框方向的分类;预测框的分类主要包含小汽车、行人、自行车三类目标的分类;预测框的回归目的在于生成精确的三维目标检测框,主要对检测框的中心点坐标、长、宽、高、角度进行回归,其向量表示为(x,y,z,w,h,l,r),预测框方向的分类用于对预测框真实方向与真实相反方向进行分类,避免在预测框回归时角度回归损失过大,便于模型训练。
优选地,步骤S3中预设的所述损失函数,具体为:
其中,w=1.0,μ=2.0,λ=0.2,Npos为正样本的数量,Lcls为预测框分类损失,Lbox为边界框回归损失,Ldir为方向分类损失,L为总损失。
优选地,S3步骤还包括如下步骤:进行方法验证并评估;
进行方法验证并评估中的评估方法包括AP平均精度、AOS平均方向相似度,AP主要用于定量分析模型精度,AOS主要用来衡量检测结果与地面真实检测框的方向相似度。
优选地,AP主要包含APbbox、APbev、AP3d、APaos四种评估指标,APbbox表示二维检测框的准确程度,APbev表示鸟瞰视图下检测框的准确程度,AP3d表示三维检测框的准确程度,APaos表示检测框角度的准确程度;
通过三维预测框与地面真实框之间的重合程度来定义三维检测模型预测位置与深度的准确程度,具体为:
其中,IOU为交并比,用来衡量预测框与GT框的重合程度,pre为预测框,gt为真实框,S为框的面积或者体积,IOU阈值为0.7;
采用AP值评估模型精度,精确度(P)是真实正样本(TP)的数量与TP和错误正样本(FP)数量之和的比值,召回率(R)是TP的数量与TP和错误负样本(FN)数量之和的比值,给定不同阈值会有不同的精确率和召回率,AP是阈值t为不同离散数值时精确率的平均值,具体为:
ρinterp(r)=maxr′:r′≥r(r′)
其中,TP为真实正样本数量,即预测为真实框且IOU大于等于预设阈值,FP为错误正样本数量,即预测为真实框但IOU小于预设阈值,FN为错误负样本,即预测为错误框且IOU小于预设阈值,AP|R为平均精度,ρinterp(r)为内插函数,计算平均精度时仅仅评估目标高度大于25pixel的预测结果,将易混淆的类别视为同一类以减少假阳性率,并使用41个等间距recall上的精确值的平均值近似计算分类器的AP。
使用平均方向相似性进行目标方向预测,具体为:
其中,AOS为平均方向相似性,r为目标预测的召回率,s(r)为在召回率r的条件下的方向相似性,方向相似性s∈[0,1]为所有预测样本与GT余弦距离的归一化,D(r)为在召回率r下所有预测为正样本的集合,表示目标i的预测角度与GT的差值,若检测出i已经与GT相吻合,则δi=1,否则δi=0。
本发明提供了一种基于无人系统的激光点云三维目标检测方法,其主要由点云体素化模块进行点云规则化表示,再利用边特征提取器通过提取体素内点云的边特征提取增强点云的表征能力,使模型学习到点与点之间拓扑关系,有利于提取更丰富的点云信息,采用二维编码器作为主干网络,相比于三维编码器的稀疏卷积效率更高,利用自适应特征融合模块引入自适应融合比例分配机制,通过二维编码器不同层级输出的特征图作为参考,进行特征学习生成自适应权重分配给多层特征图进行加权融合,更加进一步完成点云信息的低层特征与高层特征的有效结合,最终通过检测头预测检测框,实现目标的高精度与高效率的三维检测。本发明主要应用于无人系统三维目标检测领域,所提出的动态边缘卷积模块与自适应特征融合网络从不同的角度对点云信息进行特征提取,增强点云信息的空间表达能力与多层次特征的结合能力,从而获得更加丰富与精细的特征表示,提高激光点云三维目标检测的精度。
附图说明
图1为本发明的一种基于无人系统的激光点云三维目标检测方法的一较佳实施例的实施流程图;
图2为本发明的一种基于无人系统的激光点云三维目标检测方法的一较佳实施例的三维检测模型整体框架图;
图3为本发明的一种基于无人系统的激光点云三维目标检测方法的一较佳实施例的边特征提取器具体模型图;
图4为本发明的一种基于无人系统的激光点云三维目标检测方法的一较佳实施例的自适应特征融合模块具体模型图。
具体实施方式
为使本发明要解决的技术问题、技术方案和优点更加清楚,下面将结合附图及具体实施例进行详细描述。
在本发明中的“第一”、“第二”等描述,仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量或顺序。由此,限定有“第一”、“第二”的特征可以明示或隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个、三个等,除非另有明确具体的限定。
本发明针对现有的问题,提供了一种基于无人系统的激光点云三维目标检测方法。
参照图1,本申请实施例提供了一种基于无人系统的激光点云三维目标检测方法,包含如下步骤:
步骤S1:获取基于无人系统的激光点云数据集,对所述激光点云数据集进行预处理,将预处理后的激光点云数据集按照预设比例1:1分为训练集和测试集。
具体地,在自动驾驶公开数据集上进行实验验证:在KITTI 3D公开数据集(由德国卡尔斯厄理工学院和丰田美国技术研究院联合创办的数据集,利用组装的设备齐全的采集车辆对实际交通场景进行数据采集获得的公开数据集)上进行方法验证并评估,KITTI数据集是自动驾驶领域三维目标检测的公开数据集,主要包含对车辆、行人、自行车等类别的三维目标检测,其中包括7481个训练集样本和7518个测试集样本,在此基础上将训练集划分为3712个样本的训练集和3769个样本的验证集。
方法验证前的数据处理为三种类型的数据增强,第一种类型是对输入点云随机左右或前后翻转。第二种类型是旋转输入点云,对于KITTI数据集角度通常落入[-45°,45°]的范围,在此基础上放缩输入点云,对于KITTI数据集比例通常落入[0.95,1.05]的范围。第三种类型是如果当前样本的地面真实目标比较少的情况下,从KITTI数据集的全体地面真实目标库里面采样一些地面真实目标填充到当前的样本中。
步骤S2:构建基于无人系统的激光点云三维目标检测模型,所述激光点云三维目标检测模型包括点云体素化模块、动态边特征编码器、二维编码器、自适应特征融合模块、多任务检测头预测模块。
具体地,激光点云三维目标检测模型示意图如图2所示。
所述点云体素化模块将点云数据进行规则化与密集化表示,所述动态边特征编码器用于提取体素内点云数据的边特征并进行二维伪图片表示,其中,所述点云数据包括点云的位置信息与角度信息,具体为(x,y,z,r),(x,y,z)为点云数据三维坐标,r为点云数据反射强度,所述二维编码器将二维伪图片进行空间特征与语义特征的多层次特征信息提取,所述自适应特征融合模块通过所述多层次特征信息自适应分配权重给不同层级特征进行特征融合,所述多任务检测头预测模块通过融合特征预测三维目标检测框。
步骤S3:将步骤S1中的所述训练集输入至步骤S2中的所述激光点云三维目标检测模型,通过所述训练集的点云检测框、所述三维目标检测框输出以及预设的损失函数对所述激光点云三维目标检测模型进行反向传播并更新模型参数,重复所述步骤S3中上述步骤,最终得到训练好的激光点云三维目标检测模型。
在一个实施例中,步骤S2所述点云体素化模块包括以下步骤:
步骤S221:以激光雷达作为坐标轴中心,车辆前进方向为x轴方向,车辆向左方向为y轴方向,车辆向上方向为z轴方向,对获取后的激光点云数据集中训练集中的点云数据进行四维张量化表示,具体为(x,y,z,r),(x,y,z)为点云数据三维坐标,r为点云数据反射强度步骤S222:规定点云场景在(x,y,z)坐标轴上的范围为[(0,69.12),(-39.68,39.68),(-3,1)],每个点云体素规格为(0.16,0.16,4),因此整个原始点云场景被划分为432×496×1个规格相等的体素;
步骤S222:规定点云场景在(x,y,z)坐标轴上的范围为[(0,69.12),(-39.68,39.68),(-3,1)],每个点云体素规格为(0.16,0.16,4),整个点云场景被划分为432×496×1个规格相等的体素;
步骤S223:每个体素内点的个数不超过32个,若少于32个则进行补零,若超过32个则进行随机采样至32个,并且将每个体素内32个点云的坐标以及反射强度作为点云体素的特征,其数学表示为(432×496×1,32,4)的张量。
如图3所示,在一个实施例中,步骤S2所述动态边特征编码器主要包括最近邻采样模块、边缘卷积模块、二维伪图片生成模块,用于提取点云的边特征;
最近邻采样模块进行采样具体为:
所述边缘卷积模块包括第一个边特征编码器及第二个边特征编码器,分别提取点云的边特征;所述第一个边特征编码器包括两个多层感知机及一个最大池化层,最近邻采样模块获得的采样依次经过两个所述多层感知机及所述最大池化层进行特征提取及编码输出;所述第二个边特征编码器包括一个最近邻采样层、一个多层感知机及一个最大池化层,所述第一个边特征编码器的输出数据通过所述最近邻采样层进行第二次最近邻采样,完成动态更新获取到更深层次的边特征,输入到所述第二个边缘卷积器的多层感知机进行特征提取,然后进行最大池化操作输出特征张量。
步骤S2包括以下步骤:
步骤S231:最近邻采样模块采样;具体为:
首先输入432×496×1的点云体素化表示到所述最近邻采样模块,每个体素内包含32个点,每个点的特征为(x,y,z)坐标与反射强度的4维特征,将每个体素内32个点作为顶点,在每个体素内对每个顶点进行最近邻采样至5个点,具体为,最近邻采样模块计算每个顶点与其余31个顶点之间的距离,获取到距离最近的5个顶点作为当前顶点的最近邻点集,重复32次以遍历每个体素内32个顶点,连接每个体素内32个顶点(Xi,Yi,Zi)(i=0,1,2,…,32)与其最近邻采样点集中点的坐标(Xij,Yij,Zij)(j=0,1,…,5),构建点与点之间的边关系(Xi-Xij,Yi-Yij,Zi-Zij),其数学表示为(432×496×1,32×5,4)的张量,其中,i为每个体素内顶点的数目,合计32个,j为每个顶点最近邻采样的点的数目,合计5个;
这5个点侧重点在于数目,由于采用的采样算法是最近邻采样算法,所以这5个点的位置是体素内32个点通过最近邻采样算法计算出的离顶点(Xi,Yi,Zi)(i=0,1,2,…,32)最近的5个点,其位置信息取决于顶点位置与最近邻采样算法。
步骤S232:边缘卷积模块卷积获取点云的边特征,并编码输出;具体包括:
步骤S2321:将每个顶点的坐标(Xi,Yi,Zi)与其代表的边关系(Xi-Xij,Yi-Yij,Zi-Zij)作为所述边缘卷积模块的输入,具体为(432×496×1,32×(5+1),4)的张量,首先进入第一个边缘卷积模块利用两个多层感知机进行特征提取,由原来的4维特征变成64维特征,再经过最大池化层编码输出,输出为(432×496×1,32,64)的张量;
步骤S2322:将所述第一个边缘卷积模块的输出进行第二次最近邻采样完成动态更新获取到更深层次的边特征,输入到第二个边缘卷积模块利用一个多层感知机进行特征提取,由64维特征变成更深层次的64维特征,然后进行最大池化操作输出为(432×496×1,1,64)的特征张量;
步骤S233:二维伪图片生成模块生成二维伪图片;具体为:
所述二维伪图片生成模块进行张量转变操作,将(432×496×1,1,64)的特征张量形式转变为(432,496,64)的标准二维图片张量形式,其中H=432,W=496,C=64,H为二维伪图片的高度,W为二维伪图片的宽度,C为二维伪图片的通道数量。
在一个实施例中,步骤S2所述二维编码器主要由3个block组成,第一个block由3个3×3的二维卷积层构成,第二个block由5个3×3的二维卷积层构成,第三个block由5个3×3的二维卷积层构成,包括以下步骤:
步骤S241:第一个block对输入二维伪图片进行空间特征或/和语义特征的特征提取生成216×248×64的二维特征表达;
步骤S242:步骤S241中的二维特征表达继续输入到第二个block进行空间特征或/和语义特征的特征提取生成108×124×128的二维特征表达;
步骤S243:步骤S242中的二维特征表达继续输入到第三个block进行空间特征或/和语义特征的特征提取生成54×62×256的二维特征表达;
步骤S244:二维编码器输出:3个block输出的3个二维特征表达是所述二维编码器的输出。
如图4所示,在一个实施例中,步骤S2所述自适应特征融合模块,包含上采样模块、全连接模块、特征融合模块三个部分,将低层几何特征与高层语义特征自适应融合,包括以下步骤:
步骤S251:上采样模块上采样:首先分别输入到1×1上采样(deconv)卷积、2×2上采样(deconv)卷积以及4×4上采样(deconv)卷积共3个上采样卷积层构成的上采样模块,二维编码器的3个输出,即216×248×64的二维特征表达,108×124×128的二维特征表达及54×62×256的二维特征表达,分别经过3个上采样卷积层;
步骤S252:全连接模块拼接输出:全连接模块包括两层依次连接的全连接层,所述步骤S251中经过上采样卷积层的输出,再输入到全连接模块,3个上采样卷积层的输出作为全连接模块的输入分别依次通过两层全连接层并进行拼接输出为216×248×3的特征表达;
其中第一层所述全连接层包含3路输入及3路输出;3路输入为分别经过3个上采样卷积层的输出,3路输出均为216×248×128的特征表达;
第二层所述全连接层包含3路输入及3路输出;3路输入为分别经过第一层全连接层的输出,3路输出均为216×248×1的特征表达;第二层所述全连接层的3路输出经过concatenate后输出为216×248×3的1路输出;
步骤S253:特征融合模块特征融合:所述步骤S252中的216×248×3特征表达输出继续进入到特征融合模块通过一个softmax层进行自适应权重分配,分别把自适应权重分配给所述全连接模块的第一层所述全连接层的3路输出,完成特征融合。在一个实施例中,自适应特征融合模块具体为:
Y=(w1(deconv(X)))·softmax(w2(w1(deconv(X))))
其中,X为所述自适应特征融合模块的输入,Y为所述自适应特征融合模块的输出,deconv为上采样卷积,w1、w2分别为两层全连接层,softmax为softmax层。
在一个实施例中,步骤S2所述多任务检测头预测模块包含预测框的分类、预测框的回归、预测框方向的分类。
其中预测框的分类主要包含小汽车(car)、行人(pedestrain)、自行车(cyclist)三类目标的分类;预测框的回归目的在于生成精确的三维目标检测框,主要对检测框的中心点坐标、长、宽、高、角度进行回归,其向量表示为(x,y,z,w,h,l,r),预测框方向的分类用于对预测框真实方向与真实相反方向进行分类,避免在预测框回归时角度回归损失过大,便于模型训练。
在一个实施例中,步骤S3中预设的所述损失函数,具体为:
其中,w=1.0,μ=2.0,λ=0.2,Npos为正样本的数量,Lcls为预测框分类损失,Lbox为边界框回归损失,Ldir为方向分类损失,L为总损失。
进行方法验证并评估中的评估方法包括Average Precision(AP)平均精度、Average Orientation Similarity(AOS)平均方向相似度,AP主要用于定量分析模型精度,AOS主要用来衡量检测结果与地面真实检测框的方向相似度。
进一步地,AP主要包含APbbox、APbev、AP3d、APaos四种评估指标,APbbox表示二维检测框的准确程度,APbev表示鸟瞰视图下检测框的准确程度,AP3d表示三维检测框的准确程度,APaos表示检测框角度的准确程度。
进一步地,通过三维预测框与地面真实框之间的重合程度来定义三维检测模型预测位置与深度的准确程度,具体为:
其中,IOU为交并比,用来衡量预测框与GT框的重合程度,pre为预测框,gt为真实框,S为框的面积或者体积,IOU阈值为0.7。
进一步地,采用AP值评估模型精度,精确度(P)是真实正样本(TP)的数量与TP和错误正样本(FP)数量之和的比值,召回率(R)是TP的数量与TP和错误负样本(FN)数量之和的比值,给定不同阈值会有不同的精确率和召回率,AP是阈值t为不同离散数值时精确率的平均值,具体为:
ρinterp(r)=maxr′:′≥r(r′)
其中,TP为真实正样本数量,即预测为真实框且IOU大于等于预设阈值,FP为错误正样本数量,即预测为真实框但IOU小于预设阈值,FN为错误负样本,即预测为错误框且IOU小于预设阈值,AP|R为平均精度,ρinterp(r)为内插函数,计算平均精度时仅仅评估目标高度大于25pixel的预测结果,将易混淆的类别视为同一类以减少假阳性率,并使用41个等间距recall上的精确值的平均值近似计算分类器的AP。
进一步地,使用平均方向相似性进行目标方向预测,具体为:
其中,AOS为平均方向相似性,r为目标预测的召回率,s(r)为在召回率r的条件下的方向相似性,方向相似性sε[0,1]为所有预测样本与GT余弦距离的归一化,D(r)为在召回率r下所有预测为正样本的集合,表示目标i的预测角度与GT的差值,若检测出i已经与GT相吻合,则δi=1,否则δi=0。
进一步地,模型训练使用的是ADAM优化器,在单张3090显卡上以batchsize=2的设置进行训练,训练epoch实际为160。
步骤S4:将步骤S1中的所述测试集输入至所述训练好的激光点云三维目标检测模型,得到三维目标检测结果。
本发明提供了一种基于无人系统的激光点云三维目标检测方法,其主要由点云体素化模块进行点云规则化表示,再利用边特征提取器通过提取体素内点云的边特征提取增强点云的表征能力,使模型学习到点与点之间拓扑关系,有利于提取更丰富的点云信息,采用二维编码器作为主干网络,相比于三维编码器的稀疏卷积效率更高,利用自适应特征融合模块引入自适应融合比例分配机制,通过二维编码器不同层级输出的特征图作为参考,进行特征学习生成自适应权重分配给多层特征图进行加权融合,更加进一步完成点云信息的低层特征与高层特征的有效结合,最终通过检测头预测检测框,实现目标的高精度与高效率的三维检测。本发明主要应用于无人系统三维目标检测领域,所提出的动态边缘卷积模块与自适应特征融合网络从不同的角度对点云信息进行特征提取,增强点云信息的空间表达能力与多层次特征的结合能力,从而获得更加丰富与精细的特征表示,提高激光点云三维目标检测的精度。
本发明的有益效果:
1、本发明所设计的点云三维检测模型避免采用三维稀疏卷积模块,在进行点云稀疏化后便使用边卷积与二维卷积方式进行特征提取,避免了繁重的运算,推理速度得到提升,更加偏向于工业化的三维检测模型;
2、本发明所设计的动态边特征提取器在注重点云特征提取的基础上增加了对点与点之间的拓扑关系的关注,有效解决了目标遮挡所带来的点云信息不全或丢失问题,通过构造目标点云中边的关系来提高点云数据几何信息的表征能力,使检测精度得到有效提升;
3、本发明所设计的自适应特征融合模块避免了高层语义特征和低层几何特征的刚性相加,通过一个自适应因子进行权重分配,实现高层语义特征和低层几何特征的柔性融合,有效解决了点云信息经过堆叠的卷积层后低级几何特征质量下降的问题,提高几何信息的表征能力,本发明在公共数据集KITTI数据集上面汽车简单检测难度AP为88.13%,自行车简单检测难度AP为82.13%的检测结果,并且推理速度较快,属于检测效果较为优秀的高速度三维目标检测方法。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。并且,本发明各个实施方式之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本发明要求的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
Claims (11)
1.一种基于无人系统的激光点云三维目标检测方法,其特征在于,包括如下步骤:
步骤S1:获取基于无人系统的激光点云数据集,对所述激光点云数据集进行预处理,将预处理后的激光点云数据集按照预设比例1:1分为训练集和测试集;
步骤S2:构建基于无人系统的激光点云三维目标检测模型,所述激光点云三维目标检测模型包括点云体素化模块、动态边特征编码器、二维编码器、自适应特征融合模块、多任务检测头预测模块;
所述点云体素化模块将点云数据进行规则化与密集化表示,所述动态边特征编码器用于提取体素内点云数据的边特征并进行二维伪图片表示,其中,所述点云数据包括点云的位置信息与角度信息,具体为(x,y,z,r),(x,y,z)为点云数据三维坐标,r为点云数据反射强度,所述二维编码器将二维伪图片进行空间特征与语义特征的多层次特征信息提取,所述自适应特征融合模块通过所述多层次特征信息自适应分配权重给不同层级特征进行特征融合,所述多任务检测头预测模块通过融合特征预测三维目标检测框;
步骤S3:将步骤S1中的所述训练集输入至步骤S2中的所述激光点云三维目标检测模型,通过所述训练集的点云检测框、所述三维目标检测框输出以及预设的损失函数对所述激光点云三维目标检测模型进行反向传播并更新模型参数,重复所述步骤S3中上述步骤,最终得到训练好的激光点云三维目标检测模型;
步骤S4:将步骤S1中的所述测试集输入至所述训练好的激光点云三维目标检测模型,得到三维目标检测结果。
2.根据权利要求1所述的一种基于无人系统的激光点云三维目标检测方法,其特征在于,步骤S2所述点云体素化模块包括以下步骤:
步骤S221:以激光雷达作为坐标轴中心,车辆前进方向为x轴方向,车辆向左方向为y轴方向,车辆向上方向为z轴方向,对获取后的激光点云数据集中训练集中的点云数据进行四维张量化表示,具体为(x,y,z,r),(x,y,z)为点云数据三维坐标,r为点云数据反射强度;
步骤S222:规定点云场景在(x,y,z)坐标轴上的范围为[(0,69.12),(-39.68,39.68),(-3,1)],每个点云体素规格为(0.16,0.16,4),整个点云场景被划分为432×496×1个规格相等的体素;
步骤S223:每个体素内点的个数不超过32个,若少于32个则进行补零,若超过32个则进行随机采样至32个,并且将每个体素内32个点云的坐标以及反射强度作为点云体素的特征,其数学表示为(432×496×1,32,4)的张量。
3.根据权利要求2所述的一种基于无人系统的激光点云三维目标检测方法,其特征在于,步骤S2所述动态边特征编码器主要包括最近邻采样模块、边缘卷积模块及二维伪图片生成模块,用于提取点云的边特征;
其中,最近邻采样模块进行采样具体为:
所述边缘卷积模块包括第一个边特征编码器及第二个边特征编码器,分别提取点云的边特征;所述第一个边特征编码器包括两个多层感知机及一个最大池化层,最近邻采样模块获得的采样依次经过两个所述多层感知机及所述最大池化层进行特征提取及编码输出;所述第二个边特征编码器包括一个最近邻采样层、一个多层感知机及一个最大池化层,所述第一个边特征编码器的输出数据通过所述最近邻采样层进行第二次最近邻采样,完成动态更新获取到更深层次的边特征,输入到所述第二个边缘卷积器的多层感知机进行特征提取,然后进行最大池化操作输出特征张量。
4.根据权利要求1所述的一种基于无人系统的激光点云三维目标检测方法,其特征在于,步骤S2包括以下步骤:
步骤S231:最近邻采样模块采样;具体为:
首先输入432×496×1的点云体素化表示到所述最近邻采样模块,每个体素内包含32个点,每个点的特征为(x,y,z)坐标与反射强度的4维特征,将每个体素内32个点作为顶点,在每个体素内对每个顶点进行最近邻采样至5个点,具体为,最近邻采样模块计算每个顶点与其余31个顶点之间的距离,获取到距离最近的5个顶点作为当前顶点的最近邻点集,重复32次以遍历每个体素内32个顶点,连接每个体素内32个顶点(Xi,Yi,Zi)(i=0,1,2,…,32)与其最近邻采样点集中点的坐标(Xij,Yij,Zij)(j=0,1,…,5),构建点与点之间的边关系(Xi-Xij,Yi-Yij,Zi-Zij),其数学表示为(432×496×1,32×5,4)的张量,其中,i为每个体素内顶点的数目,合计32个,j为每个顶点最近邻采样的点的数目,合计5个;
步骤S232:边缘卷积模块卷积获取点云的边特征,并编码输出;具体包括:
步骤S2321:将每个顶点的坐标(Xi,Yi,Zi)与其代表的边关系(Xi-Xij,Yi-Yij,Zi-Zij)作为所述边缘卷积模块的输入,具体为(432×496×1,32×(5+1),4)的张量,首先进入第一个边缘卷积模块利用两个多层感知机进行特征提取,由原来的4维特征变成64维特征,再经过最大池化层编码输出,输出为(432×496×1,32,64)的张量;
步骤S2322:将所述第一个边缘卷积模块的输出进行第二次最近邻采样完成动态更新获取到更深层次的边特征,输入到第二个边缘卷积模块利用一个多层感知机进行特征提取,由64维特征变成更深层次的64维特征,然后进行最大池化操作输出为(432×496×1,1,64)的特征张量;
步骤S233:二维伪图片生成模块生成二维伪图片;具体为:
所述二维伪图片生成模块进行张量转变操作,将(432×496×1,1,64)的特征张量形式转变为(432,496,64)的标准二维图片张量形式,其中H=432,W=496,C=64,H为二维伪图片的高度,W为二维伪图片的宽度,C为二维伪图片的通道数量。
5.根据权利要求1所述的一种基于无人系统的激光点云三维目标检测方法,其特征在于,步骤S2所述二维编码器主要由3个block组成,第一个block由3个3×3的二维卷积层构成,第二个block由5个3×3的二维卷积层构成,第三个block由5个3×3的二维卷积层构成,包括以下步骤:
步骤S241:第一个block对输入二维伪图片进行空间特征或/和语义特征的特征提取生成216×248×64的二维特征表达;
步骤S242:步骤S241中的二维特征表达继续输入到第二个block进行空间特征或/和语义特征的特征提取生成108×124×128的二维特征表达;
步骤S243:步骤S242中的二维特征表达继续输入到第三个block进行空间特征或/和语义特征的特征提取生成54×62×256的二维特征表达;
步骤S244:二维编码器输出:3个block输出的3个二维特征表达是所述二维编码器的输出。
6.根据权利要求5所述的一种基于无人系统的激光点云三维目标检测方法,其特征在于,步骤S2所述自适应特征融合模块,包含上采样模块、全连接模块、特征融合模块三个部分,包括以下步骤:
步骤S251:上采样模块上采样:首先分别输入到1×1(deconv)上采样卷积、2×2上采样(deconv)卷积以及4×4上采样(deconv)卷积共3个上采样卷积层构成的上采样模块,二维编码器的3个输出,即216×248×64的二维特征表达,108×124×128的二维特征表达及54×62×256的二维特征表达,分别经过3个上采样卷积层;
步骤S252:全连接模块拼接输出:全连接模块包括两层依次连接的全连接层,所述步骤S251中经过上采样卷积层的输出,再输入到全连接模块,3个上采样卷积层的输出作为全连接模块的输入分别依次通过两层全连接层并进行拼接输出为216×248×3的特征表达;
其中第一层所述全连接层包含3路输入及3路输出;3路输入为分别经过3个上采样卷积层的输出,3路输出均为216×248×128的特征表达;
第二层所述全连接层包含3路输入及3路输出;3路输入为分别经过第一层全连接层的输出,3路输出均为216×248×1的特征表达;第二层所述全连接层的3路输出经过concatenate后输出为216×248×3的1路输出;
步骤S253:特征融合模块特征融合:所述步骤S252中的216×248×3特征表达输出继续进入到特征融合模块通过一个softmax层进行自适应权重分配,分别把自适应权重分配给所述全连接模块的第一层所述全连接层的3路输出,完成特征融合。
7.根据权利要求5所述的一种基于无人系统的激光点云三维目标检测方法,其特征在于,所述自适应特征融合模块具体为:
Y=(w1(deconv(X)))·softmax(w2(w1(deconv(X))))
其中,X为所述自适应特征融合模块的输入,Y为所述自适应特征融合模块的输出,deconv为上采样卷积,w1、w2分别为两层全连接层,softmax为softmax层。
8.根据权利要求1所述的一种基于无人系统的激光点云三维目标检测方法,其特征在于,步骤S2所述多任务检测头预测模块包含预测框的分类、预测框的回归、预测框方向的分类;预测框的分类主要包含小汽车、行人、自行车三类目标的分类;预测框的回归目的在于生成精确的三维目标检测框,主要对检测框的中心点坐标、长、宽、高、角度进行回归,其向量表示为(x,y,z,w,h,l,r),预测框方向的分类用于对预测框真实方向与真实相反方向进行分类,避免在预测框回归时角度回归损失过大,便于模型训练。
9.根据权利要求1所述的一种基于无人系统的激光点云三维目标检测方法,其特征在于,步骤S3中预设的所述损失函数,具体为:
其中,w=1.0,μ=2.0,λ=0.2,Npos为正样本的数量,Lcls为预测框分类损失,Lbox为边界框回归损失,Ldir为方向分类损失,L为总损失。
10.根据权利要求1所述的一种基于无人系统的激光点云三维目标检测方法,其特征在于,S3步骤还包括如下步骤:进行方法验证并评估;
进行方法验证并评估中的评估方法包括AP平均精度、AOS平均方向相似度,AP主要用于定量分析模型精度,AOS主要用来衡量检测结果与地面真实检测框的方向相似度。
11.根据权利要求10所述的一种基于无人系统的激光点云三维目标检测方法,其特征在于,AP主要包含APbbox、APbev、AP3d、APaos四种评估指标,APbbox表示二维检测框的准确程度,APbev表示鸟瞰视图下检测框的准确程度,AP3d表示三维检测框的准确程度,APaos表示检测框角度的准确程度;
通过三维预测框与地面真实框之间的重合程度来定义三维检测模型预测位置与深度的准确程度,具体为:
其中,IOU为交并比,用来衡量预测框与GT框的重合程度,pre为预测框,gt为真实框,S为框的面积或者体积,IOU阈值为0.7;
采用AP值评估模型精度,精确度(P)是真实正样本(TP)的数量与TP和错误正样本(FP)数量之和的比值,召回率(R)是TP的数量与TP和错误负样本(FN)数量之和的比值,给定不同阈值会有不同的精确率和召回率,AP是阈值t为不同离散数值时精确率的平均值,具体为:
ρinterp(r)=maxr′:r′≥r(r′)
其中,TP为真实正样本数量,即预测为真实框且IOU大于等于预设阈值,FP为错误正样本数量,即预测为真实框但IOU小于预设阈值,FN为错误负样本,即预测为错误框且IOU小于预设阈值,AP|R为平均精度,ρinterp(r)为内插函数,计算平均精度时仅仅评估目标高度大于25pixel的预测结果,将易混淆的类别视为同一类以减少假阳性率,并使用41个等间距recall上的精确值的平均值近似计算分类器的AP;
使用平均方向相似性进行目标方向预测,具体为:
其中,AOS为平均方向相似性,r为目标预测的召回率,s(r)为在召回率r的条件下的方向相似性,方向相似性s∈[0,1]为所有预测样本与GT余弦距离的归一化,D(r)为在召回率r下所有预测为正样本的集合,表示目标i的预测角度与GT的差值,若检测出i已经与GT相吻合,则δi=1,否则δi=0。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310279707.XA CN116758497A (zh) | 2023-03-21 | 2023-03-21 | 一种基于无人系统的激光点云三维目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310279707.XA CN116758497A (zh) | 2023-03-21 | 2023-03-21 | 一种基于无人系统的激光点云三维目标检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116758497A true CN116758497A (zh) | 2023-09-15 |
Family
ID=87952072
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310279707.XA Pending CN116758497A (zh) | 2023-03-21 | 2023-03-21 | 一种基于无人系统的激光点云三维目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116758497A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118864827A (zh) * | 2024-09-26 | 2024-10-29 | 湖南大学 | 一种针对大型装配过程全场景的统一化三维目标检测方法 |
CN118982678A (zh) * | 2024-08-15 | 2024-11-19 | 北京建筑大学 | 基于激光点云的人形机器人场景智能理解方法 |
CN119169606A (zh) * | 2024-09-05 | 2024-12-20 | 湖南大学 | 基于视觉状态空间模型的多机器人协同三维目标检测方法 |
-
2023
- 2023-03-21 CN CN202310279707.XA patent/CN116758497A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118982678A (zh) * | 2024-08-15 | 2024-11-19 | 北京建筑大学 | 基于激光点云的人形机器人场景智能理解方法 |
CN119169606A (zh) * | 2024-09-05 | 2024-12-20 | 湖南大学 | 基于视觉状态空间模型的多机器人协同三维目标检测方法 |
CN118864827A (zh) * | 2024-09-26 | 2024-10-29 | 湖南大学 | 一种针对大型装配过程全场景的统一化三维目标检测方法 |
CN118864827B (zh) * | 2024-09-26 | 2025-01-03 | 湖南大学 | 一种针对大型装配过程全场景的统一化三维目标检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7430277B2 (ja) | 障害物検出方法及び装置、コンピュータデバイス、並びにコンピュータプログラム | |
CN114565900A (zh) | 基于改进YOLOv5和双目立体视觉的目标检测方法 | |
CN111626217A (zh) | 一种基于二维图片和三维点云融合的目标检测和追踪方法 | |
CN116758497A (zh) | 一种基于无人系统的激光点云三维目标检测方法 | |
CN112446227B (zh) | 物体检测方法、装置及设备 | |
CN117058646B (zh) | 基于多模态融合鸟瞰图的复杂道路目标检测方法 | |
CN113095152A (zh) | 一种基于回归的车道线检测方法及系统 | |
CN115187964A (zh) | 基于多传感器数据融合的自动驾驶决策方法及SoC芯片 | |
CN118298628A (zh) | 一种多模态一体化交通异常事件检测方法 | |
CN117593707B (zh) | 一种车辆识别方法及设备 | |
CN115115917A (zh) | 基于注意力机制和图像特征融合的3d点云目标检测方法 | |
CN117197606A (zh) | 面向自动驾驶的稀疏卷积特征蒸馏的点云目标检测方法 | |
CN116721251A (zh) | 融合激光雷达点云和图像的稠密分割的3d目标检测方法 | |
CN118898838B (zh) | 路面障碍物三维形貌信息确定方法、设备、介质及车辆 | |
CN114120270A (zh) | 一种基于注意力和采样学习的点云目标检测方法 | |
CN117037079A (zh) | 一种基于激光雷达的三维车辆检测方法 | |
CN117630865A (zh) | 基于自适应锚框阈值与3D IoU损失的3D目标车辆检测方法 | |
CN117351445A (zh) | 小样本条件下的自动驾驶多模态融合目标检测方法及系统 | |
CN117475142A (zh) | 面向自动驾驶基于ViT的毫米波雷达点云分割方法 | |
CN116468950A (zh) | 一种类别引导中心点邻域搜索半径的三维目标检测方法 | |
CN117115690A (zh) | 一种基于深度学习和浅层特征增强的无人机交通目标检测方法及系统 | |
CN116778449A (zh) | 一种用于提高自动驾驶三维目标检测效率的检测方法 | |
CN116229415A (zh) | 基于目标重采样的单阶段三维点云目标检测方法 | |
Yuan et al. | Real-time long-range road estimation in unknown environments | |
Lin et al. | Application of the efficientdet algorithm in traffic flow statistics |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |