CN109636837B - 一种单目相机与毫米波雷达外参标定准确性的评价方法 - Google Patents
一种单目相机与毫米波雷达外参标定准确性的评价方法 Download PDFInfo
- Publication number
- CN109636837B CN109636837B CN201811577934.6A CN201811577934A CN109636837B CN 109636837 B CN109636837 B CN 109636837B CN 201811577934 A CN201811577934 A CN 201811577934A CN 109636837 B CN109636837 B CN 109636837B
- Authority
- CN
- China
- Prior art keywords
- sphere
- radar
- camera
- coordinates
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 17
- 238000011156 evaluation Methods 0.000 claims abstract description 23
- 239000002184 metal Substances 0.000 claims description 60
- 239000011159 matrix material Substances 0.000 claims description 32
- 238000012545 processing Methods 0.000 claims description 21
- 238000006243 chemical reaction Methods 0.000 claims description 15
- 238000012800 visualization Methods 0.000 claims description 10
- 238000012854 evaluation process Methods 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 2
- 238000012935 Averaging Methods 0.000 claims 2
- 230000003068 static effect Effects 0.000 claims 2
- 230000004927 fusion Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000007613 environmental effect Effects 0.000 description 6
- 230000008447 perception Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 238000013480 data collection Methods 0.000 description 4
- 238000002360 preparation method Methods 0.000 description 4
- 230000001131 transforming effect Effects 0.000 description 4
- 101001121408 Homo sapiens L-amino-acid oxidase Proteins 0.000 description 2
- 102100026388 L-amino-acid oxidase Human genes 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 101000827703 Homo sapiens Polyphosphoinositide phosphatase Proteins 0.000 description 1
- 102100023591 Polyphosphoinositide phosphatase Human genes 0.000 description 1
- 101100012902 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) FIG2 gene Proteins 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Geometry (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明公开了一种单目相机与毫米波雷达外参标定结果准确性的评价方法,通过在场景中布置数个金属球,对金属球在各个坐标系下的数据信息进行转换后,完成统计与比较计算,得到了四种描述外参结果准确性的指标,其中两种在相机图像平面内,两种在雷达点云空间内。
Description
技术领域
本发明涉及多传感器融合领域的外参标定过程,尤其涉及一种单目相机与毫米波雷达外参标定结果准确性的评价方法。
背景技术
多传感器信息融合技术是目前机器人感知领域的关键问题之一,决定着机器人对周边环境的感知效率与精度。由于单一传感器获得的环境信息有限,融合多种传感器的环境信息对于提高机器人感知能力和丰富机器人地图信息有着重要意义。
毫米波雷达具有可靠性高、成本低等优势,在智能机器人与无人驾驶领域获得了广泛关注与应用,特别是与相机融合后可实现高性价比的环境感知。相机与毫米波雷达的融合应用中,需要将相机与毫米波雷达所获得的感知信息转换至同一坐标系下并通过数据处理与滤波,完成环境信息建模。相机提供的色彩与图案信息可用于判断环境中的物体种类,雷达提供的点云信息可用于分析环境物体所处位置及大小,两者结果的融合可有效保障环境感知过程的精确性、快速性与可靠性。
相机与毫米波雷达对应坐标系之间的转换矩阵称为外参矩阵,两者融合首先需要解决外参矩阵的求解问题,该过程也即相机与毫米波雷达的外参联合标定。通过外参矩阵可进一步实现数据转换,为数据融合奠定基础。然而,目前尚未存在对相机与毫米波雷达外参标定准确性的有效评价方法,也未有其他可借鉴的报道,因此需要一个通用且描述性好的评价方法用于评价相机与毫米波雷达的外参标定准确程度。
发明内容
本发明要解决的问题是提供一种用于描述单目相机与毫米波雷达外参标定结果准确性的评价方法,并且给出此评价方法的应用示例和描述特点,该方法也可用于相机与激光雷达融合等相似场合。
为了解决上述问题,本发明公开了一种评价外参结果的方法,通过在场景中布置数个金属球,对金属球在各个坐标系下的数据信息进行转换后,完成统计与比较计算,得到了四种描述外参结果准确性的指标,其中两种在相机图像平面内,另外两种在雷达点云空间内。
针对金属球的像素坐标信息,可以完成相机图像平面内的评价指标计算,包括球体匹配准确率与球体匹配平均误差率,评价过程包含以下步骤:
步骤一:金属球与场景布置;
a.场景布置;
b.数据采集;
步骤二:相机与雷达数据的准备;
a.点云聚类求取球心坐标;
b.图像处理求取圆心坐标;
步骤三:三维点云通过外参矩阵转换至图像坐标系;
a.不同坐标系坐标转换;
b.结果处理与可视化;
步骤四:计算相机图像平面内的外参准确性相关指标;
a.计算球体匹配准确率;
b.计算球体匹配平均误差率;
其中,本发明中采用的指标具有有益的效果是:
球体匹配准确率的求取过程简便,计算资源要求低,输出结果直观,可以用于判断外参标定结果是否适合直接代入实际应用。球体匹配平均误差率考虑了球体大小,在准确性上更为公平与均衡,量化后的误差率可线性描述标定结果的准确度,同时兼顾了对不同标定结果的区分度,在标定结果偏移较大时依然能够有效体现出偏移程度。
针对金属球的三维点云坐标信息,可以完成雷达点云空间内的评价指标计算,包括球体匹配平均误差距离与球体匹配平均误差比率,评价过程包含以下步骤:
步骤一:金属球与场景布置;
a.场景布置;
b.数据采集;
步骤二:相机与雷达数据的准备;
a.点云聚类求取球心坐标;
b.图像处理求取圆心坐标;
步骤三:图像像素坐标通过外参矩阵转换至雷达坐标系;
a.不同坐标系坐标转换;
b.结果处理与可视化;
步骤四:计算雷达点云空间内的外参准确性相关指标;
a.计算球体匹配平均误差距离;
b.计算球体匹配平均误差比率。
其中,本发明中采用的指标具有有益的效果是:
球体匹配平均误差距离描述三维空间内的点云转换偏移距离,输出结果直观;球体匹配平均误差比率考虑了球体大小,在金属球体大小相同时与平均误差距离描述性一致,在金属球体大小不同的场景下描述性更为公平与均衡,适用性更为广泛。
此外,计算四项指标所需的场景要求简单,泛用性好,求解过程简便,对计算资源要求小,四项参数涵盖面广,描述性强,适应不同需求,能够公平且量化地评价相机与雷达标定外参的准确性。
附图说明
下面结合附图对本发明的具体评价方作进一步详细说明。
图1是本发明中金属球和单目相机与毫米波雷达布置方式示意图;
图2是本发明中雷达点云信息通过外参矩阵变换到相机图像平面内并进行评估的流程示意图;
图3是本发明中雷达点云信息通过外参矩阵变换到相机图像平面内并进行评估的效果示意图;
图4是本发明中图像像素信息通过外参矩阵变换到雷达点云空间内并进行评估的流程示意图;
图5是本发明中图像像素信息通过外参矩阵变换到雷达点云空间内并进行评估的效果示意图。
具体实施方式
下面结合附图对本发明作进一步说明。
针对像素坐标信息,可以完成相机图像平面内的评价指标计算,包括球体匹配准确率与球体匹配平均误差率,评价过程包含以下步骤:
步骤一:金属球与场景布置;
a.场景布置:将数个金属球分散布置在相机与雷达的视野内。金属球互相间保持一定距离,满足各标定球像素边界在图像坐标系下可分,点云边界在三维坐标系下可分;
图1为场景布置图,其中101为金属球,102为单目相机与毫米波雷达系统;
b.数据采集:将雷达与相机相对固定后,静止置于平面上,开启程序并同步采集连续时间内的雷达点云数据与相机图像数据;
步骤二:相机与雷达数据准备;
a.点云聚类求取球心坐标:参考标定球体的实际大小,通过设定空间范围的阈值,将描述同一标定球的点云数据进行归类,并求取三维坐标均值,作为雷达坐标系下的球心所处位置;
b.图像处理求取圆心坐标:标出相机图像中的各标定球的圆形轮廓,对整体图像进行颜色阈值处理,得到各个标定球所对应圆心的外边界像素位置,通过逐步搜索半径匹配的方式得到各个圆心的二维坐标与半径大小;
步骤三:三维点云通过外参矩阵转换至图像坐标系;
a.不同坐标系坐标转换:根据已知的内参矩阵K和求得的外参矩阵A,通过公式将雷达中描述金属球的点云坐标转换成对应的图像像素坐标;
b.结果处理与可视化:根据图像大小,设定,滤除图像范围外的结果点,保留转换后依然在图像视野内的三维点,并标注出其所对应z方向距离,用以后续区别;
步骤四:计算相机图像平面内的外参准确性相关指标;
a.计算球体匹配准确率:统计三维点云转换后的像素点成功落在对应金属球圆形边界内的数量,除以原三维点云总数量,得到金属球的匹配成功率。
b.计算球体匹配平均误差率:计算三维点云转换后的像素点与对应金属球圆心的距离,除以对应金属球在图像中的半径平方,得到该三维点的匹配误差率,再将所有三维点云的匹配误差率进行平均,得到球体匹配的整体平均误差率;
图2~图3分别给出了相机图像平面内的外参准确性评价流程图与可视化结果。
如图3所示,301表示雷达点云坐标转换后的像素坐标位置,302表示该点在雷达坐标系下z方向的距离,用于判断像素点对应的球体。
针对三维点云坐标信息,可以完成雷达点云空间内的评价指标计算,包括球体匹配平均误差距离与球体匹配平均误差比率,评价过程包含以下步骤:
步骤一:金属球与场景布置;
a.场景布置:将数个金属球分散布置在相机与雷达的视野内。金属球互相间保持一定距离,满足各标定球像素边界在图像坐标系下可分,点云边界在三维坐标系下可分;
b.数据采集:将雷达与相机相对固定后,静止置于平面上,开启程序并同步采集连续时间内的雷达点云数据与相机图像数据;
步骤二:相机与雷达数据准备;
a.点云聚类求取球心坐标:参考标定球体的实际大小,通过设定空间范围的阈值,将描述同一标定球的点云数据进行归类,并求取三维坐标均值,作为雷达坐标系下的球心所处位置;
b.图像处理求取圆心坐标:标出相机图像中的各标定球的圆形轮廓,对整体图像进行颜色阈值处理,得到各个标定球所对应圆心的外边界像素位置,通过逐步搜索半径匹配的方式得到各个圆心的二维坐标与半径大小;
步骤三:图像像素坐标通过外参矩阵转换至雷达坐标系;
a.不同坐标系坐标转换:根据已知的内参矩阵K和求得的外参矩阵A,通过公式将图像坐标系中描述金属球上下左右边界的像素坐标转换成对应雷达坐标系中的三维坐标,由于其中的z坐标距离信息无法求得,因此用对应金属球的z坐标替代;
b.结果处理与可视化:将图像像素点转换后三维坐标标识在雷达坐标系中,同时,将对应金属球的球心三维坐标也标识在同一坐标系下,用以对比和后续计算;
步骤四:计算雷达点云空间内的外参准确性相关指标;
a.计算球体匹配平均误差距离:统计每个金属球上下左右四个边界像素点转换后的三维点云与金属球三维坐标之间的距离,对全体金属球取平均。
b.计算球体匹配平均误差比率:将每个金属球的球体匹配平均误差距离,除以对应金属球半径平方,得到平均误差比率,对全体金属球取平均;
图4~图5分别给出了雷达点云空间内的外参准确性评价流程图与可视化结果。
如图5所示,501表示雷达坐标系下球心坐标,502表示金属球边界像素转换得到的三维坐标。
利用以上两类空间内共四项指标参数作为外参标定准确性的评价标准,可实现对已标定的相机与雷达外参进行合理有效的评价,球体匹配准确率、球体匹配平均误差距离计算效率高但是欠缺区分能力,球体匹配平均误差率、球体匹配平均误差比率的计算略微复杂但是评价体系更公平完善的。由此可见,四项参数涵盖面广,描述性强,适应不同需求,能够公平且量化地评价相机与雷达标定外参的准确性。
以上所述仅是本发明的优选评价标准,本发明的保护范围并不仅局限于上述实施例,凡属于本发明思路下的评价标准方案均属于本发明的保护范围。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理前提下的若干改进和润饰也应视为本发明的保护范围。
Claims (8)
1.一种单目相机与毫米波雷达外参标定结果准确性的评价方法,其特征在于:通过在场景中布置数个金属球,对金属球在各个坐标系下的数据信息进行转换后,完成统计与比较计算,得到了四种描述外参结果准确性的指标,其中两种在相机图像平面内,两种在雷达点云空间内;
针对金属球的像素坐标信息,完成相机图像平面内的评价指标计算,包括球体匹配准确率与球体匹配平均误差率,评价过程包含以下步骤:
步骤一:金属球与场景布置;
a.场景布置;
b.数据采集;
步骤二:相机与雷达数据的准备;
a.点云聚类求取球心坐标;
b.图像处理求取圆心坐标;
步骤三:三维点云通过外参矩阵转换至图像坐标系;
a.不同坐标系坐标转换;
b.结果处理与可视化;
步骤四:计算相机图像平面内的外参准确性相关指标;
a.计算球体匹配准确率;
b.计算球体匹配平均误差率;
所述步骤四具体如下:
步骤四:计算相机图像平面内的外参准确性相关指标;
a.计算球体匹配准确率:统计三维点云转换后的像素点成功落在对应金属球圆形边界内的数量,除以原三维点云总数量,得到金属球的匹配成功率:
b.计算球体匹配平均误差率:计算三维点云转换后的像素点与对应金属球圆心的距离,除以对应金属球在图像中的半径平方,得到该三维点的匹配误差率,再将所有三维点云的匹配误差率进行平均,得到球体匹配的整体平均误差率;
2.如权利要求1所述的单目相机与毫米波雷达外参标定结果准确性的评价方法,其特征在于:所述步骤一具体为:
步骤一:金属球与场景布置;
a.场景布置:将数个金属球分散布置在相机与雷达的视野内;
b.数据采集:将雷达与相机相对固定后,静止置于平面上,开启程序并同步采集连续时间内的雷达点云数据与相机图像数据。
3.如权利要求1所述的单目相机与毫米波雷达外参标定结果准确性的评价方法,其特征在于:所述步骤二具体为:
步骤二:相机与雷达数据准备;
a.点云聚类求取球心坐标:参考标定球体的实际大小,通过设定空间范围的阈值,将描述同一标定球的点云数据进行归类,并求取三维坐标均值,作为雷达坐标系下的球心所处位置;
b.图像处理求取圆心坐标:标出相机图像中的各标定球的圆形轮廓,对整体图像进行颜色阈值处理,得到各个标定球所对应圆心的外边界像素位置,通过逐步搜索半径匹配的方式得到各个圆心的二维坐标与半径大小。
5.如权利要求1所述的单目相机与毫米波雷达外参标定结果准确性的评价方法,其特征在于:针对金属球的三维点云坐标信息,完成雷达点云空间内的评价指标计算,包括球体匹配平均误差距离与球体匹配平均误差比率,评价过程包含以下步骤:
步骤一:金属球与场景布置;
a.场景布置;
b.数据采集;
步骤二:相机与雷达数据的准备;
a.点云聚类求取球心坐标;
b.图像处理求取圆心坐标;
步骤三:图像像素坐标通过外参矩阵转换至雷达坐标系;
a.不同坐标系坐标转换;
b.结果处理与可视化;
步骤四:计算雷达点云空间内的外参准确性相关指标;
a.计算球体匹配平均误差距离;
b.计算球体匹配平均误差比率。
6.如权利要求5所述的单目相机与毫米波雷达外参标定结果准确性的评价方法,其特征在于:所述步骤一具体如下:
步骤一:金属球与场景布置;
a.场景布置:将数个金属球分散布置在相机与雷达的视野内;
b.数据采集:将雷达与相机相对固定后,静止置于平面上,开启程序并同步采集连续时间内的雷达点云数据与相机图像数据;
所述步骤二具体如下:
步骤二:相机与雷达数据准备;
a.点云聚类求取球心坐标:参考标定球体的实际大小,通过设定空间范围的阈值,将描述同一标定球的点云数据进行归类,并求取三维坐标均值,作为雷达坐标系下的球心所处位置;
b.图像处理求取圆心坐标:标出相机图像中的各标定球的圆形轮廓,对整体图像进行颜色阈值处理,得到各个标定球所对应圆心的外边界像素位置,通过逐步搜索半径匹配的方式得到各个圆心的二维坐标与半径大小。
7.如权利要求5所述的单目相机与毫米波雷达外参标定结果准确性的评价方法,其特征在于:所述步骤三具体如下:
步骤三:图像像素坐标通过外参矩阵转换至雷达坐标系;
a.不同坐标系坐标转换:根据已知的内参矩阵K和求得的外参矩阵A,通过公式将图像坐标系中描述金属球上下左右边界的像素坐标转换成对应雷达坐标系中的三维坐标,由于其中的z坐标距离信息无法求得,因此用对应金属球的z坐标替代;
b.结果处理与可视化:将图像像素点转换后三维坐标标识在雷达坐标系中,同时,将对应金属球的球心三维坐标也标识在同一坐标系下,用以对比和后续计算。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811577934.6A CN109636837B (zh) | 2018-12-21 | 2018-12-21 | 一种单目相机与毫米波雷达外参标定准确性的评价方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811577934.6A CN109636837B (zh) | 2018-12-21 | 2018-12-21 | 一种单目相机与毫米波雷达外参标定准确性的评价方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109636837A CN109636837A (zh) | 2019-04-16 |
CN109636837B true CN109636837B (zh) | 2023-04-28 |
Family
ID=66076637
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811577934.6A Active CN109636837B (zh) | 2018-12-21 | 2018-12-21 | 一种单目相机与毫米波雷达外参标定准确性的评价方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109636837B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110135485A (zh) * | 2019-05-05 | 2019-08-16 | 浙江大学 | 单目相机与毫米波雷达融合的物体识别与定位方法和系统 |
CN110298891A (zh) * | 2019-06-25 | 2019-10-01 | 北京智行者科技有限公司 | 相机外参精度自动评估的方法及装置 |
CN110260786B (zh) * | 2019-06-26 | 2020-07-10 | 华中科技大学 | 一种基于外部跟踪的机器人视觉测量系统及其标定方法 |
GB2594111B (en) | 2019-12-18 | 2023-06-07 | Motional Ad Llc | Camera-to-LiDAR calibration and validation |
CN111179358B (zh) * | 2019-12-30 | 2024-01-05 | 浙江商汤科技开发有限公司 | 标定方法、装置、设备及存储介质 |
CN111311689B (zh) * | 2020-02-10 | 2020-10-30 | 清华大学 | 一种激光雷达与相机相对外参的标定方法及系统 |
CN113376617B (zh) * | 2020-02-25 | 2024-04-05 | 北京京东乾石科技有限公司 | 雷达标定结果准确性的评价方法、装置、存储介质及系统 |
CN111815717B (zh) * | 2020-07-15 | 2022-05-17 | 西北工业大学 | 一种多传感器融合外参联合半自主标定方法 |
CN114779188B (zh) * | 2022-01-24 | 2023-11-03 | 南京慧尔视智能科技有限公司 | 一种标定效果的评价方法、装置、设备及介质 |
CN117830438A (zh) * | 2024-03-04 | 2024-04-05 | 数据堂(北京)科技股份有限公司 | 一种基于特定标志物的激光雷达与相机联合标定方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008304344A (ja) * | 2007-06-08 | 2008-12-18 | Kumamoto Univ | 物標検出装置 |
CN107564069A (zh) * | 2017-09-04 | 2018-01-09 | 北京京东尚科信息技术有限公司 | 标定参数的确定方法、装置及计算机可读存储介质 |
CN108037505A (zh) * | 2017-12-08 | 2018-05-15 | 吉林大学 | 一种夜间前方车辆检测方法及系统 |
CN108693532A (zh) * | 2018-03-29 | 2018-10-23 | 浙江大学 | 基于增强型双目相机与3d毫米波雷达的可穿戴避障方法及装置 |
-
2018
- 2018-12-21 CN CN201811577934.6A patent/CN109636837B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008304344A (ja) * | 2007-06-08 | 2008-12-18 | Kumamoto Univ | 物標検出装置 |
CN107564069A (zh) * | 2017-09-04 | 2018-01-09 | 北京京东尚科信息技术有限公司 | 标定参数的确定方法、装置及计算机可读存储介质 |
CN108037505A (zh) * | 2017-12-08 | 2018-05-15 | 吉林大学 | 一种夜间前方车辆检测方法及系统 |
CN108693532A (zh) * | 2018-03-29 | 2018-10-23 | 浙江大学 | 基于增强型双目相机与3d毫米波雷达的可穿戴避障方法及装置 |
Non-Patent Citations (3)
Title |
---|
A method of spatial calibration for camera and radar;Dezhi G,et al.;《2010 8th World Congress on Intelligent Control and Automation》;20100709;全文 * |
一种针孔相机与三维激光雷达外参标定方法;韩正勇 等;《传感器与微系统》;20180514;第9页摘要,第10-11页第1节 * |
基于一维标定物和改进进化策略的相机标定;张灵飞 等;《光学学报》;20100630;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN109636837A (zh) | 2019-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109636837B (zh) | 一种单目相机与毫米波雷达外参标定准确性的评价方法 | |
CN111583337B (zh) | 一种基于多传感器融合的全方位障碍物检测方法 | |
CN109598765B (zh) | 基于球形标定物的单目相机与毫米波雷达外参联合标定方法 | |
CN110221603B (zh) | 一种基于激光雷达多帧点云融合的远距离障碍物检测方法 | |
CN110456363B (zh) | 三维激光雷达点云和红外图像融合的目标检测及定位方法 | |
JP2021119507A (ja) | 車線の決定方法、車線測位精度の評価方法、車線の決定装置、車線測位精度の評価装置、電子デバイス、コンピュータ可読記憶媒体、及びプログラム | |
CN109685855B (zh) | 一种道路云监控平台下的摄像机标定优化方法 | |
CN104536009B (zh) | 一种激光红外复合的地面建筑物识别及导航方法 | |
CN111222511B (zh) | 一种红外无人机目标检测方法及系统 | |
CN111598770A (zh) | 一种基于三维数据和二维图像的物体检测方法和装置 | |
CN108711172B (zh) | 基于细粒度分类的无人机识别与定位方法 | |
CN113985405A (zh) | 障碍物检测方法、应用于车辆的障碍物检测设备 | |
CN105004337B (zh) | 基于直线匹配的农用无人机自主导航方法 | |
CN114639115B (zh) | 一种人体关键点与激光雷达融合的3d行人检测方法 | |
CN113989766A (zh) | 道路边缘检测方法、应用于车辆的道路边缘检测设备 | |
CN114862929A (zh) | 三维目标检测方法、装置、计算机可读存储介质及机器人 | |
CN108537214A (zh) | 一种室内语义地图的自动化构建方法 | |
CN118537394A (zh) | 一种数据标注方法及装置 | |
CN114677531A (zh) | 一种融合多模态信息的水面无人艇目标检测与定位方法 | |
CN114140471A (zh) | 一种基于直升机机载激光雷达的地面目标语义分割方法 | |
CN119181067A (zh) | 基于可靠深度估计的多模态深度融合3d目标检测方法 | |
CN118351469A (zh) | 一种路侧视角下基于视觉的车辆定位方法 | |
CN118628653A (zh) | 一种基于机载Lidar的输电线路三维建模方法 | |
WO2024259938A1 (zh) | 一种可行驶区域分割方法、装置、可读存储介质及机器人 | |
An et al. | Image-based positioning system using LED Beacon based on IoT central management |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |