CN111324115B - 障碍物位置检测融合方法、装置、电子设备和存储介质 - Google Patents
障碍物位置检测融合方法、装置、电子设备和存储介质 Download PDFInfo
- Publication number
- CN111324115B CN111324115B CN202010076494.7A CN202010076494A CN111324115B CN 111324115 B CN111324115 B CN 111324115B CN 202010076494 A CN202010076494 A CN 202010076494A CN 111324115 B CN111324115 B CN 111324115B
- Authority
- CN
- China
- Prior art keywords
- obstacle
- millimeter wave
- wave radar
- point
- detection points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 223
- 230000004927 fusion Effects 0.000 title claims description 89
- 238000007500 overflow downdraw method Methods 0.000 title claims description 23
- 238000012937 correction Methods 0.000 claims abstract description 135
- 238000000034 method Methods 0.000 claims abstract description 25
- 238000012545 processing Methods 0.000 claims abstract description 17
- 230000015654 memory Effects 0.000 claims description 19
- 238000006243 chemical reaction Methods 0.000 claims description 11
- 238000012216 screening Methods 0.000 claims description 6
- 230000000007 visual effect Effects 0.000 abstract description 18
- 230000008569 process Effects 0.000 abstract description 8
- 230000008447 perception Effects 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000009434 installation Methods 0.000 description 4
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Multimedia (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Electromagnetism (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本申请公开了一种障碍物位置检测融合方法、装置、电子设备和存储介质,涉及自动驾驶技术领域的传感器感知技术领域。具体实现方案为:通过获取视觉传感器采集的图像数据经视觉算法处理得到的障碍物位置、尺寸和朝向信息和毫米波雷达探测到的障碍物距离信息;从障碍物的位置、尺寸和朝向信息之中获取多个检测点;根据毫米波雷达探测到的障碍物的距离信息对多个检测点的距离进行校正,确定出校正点和校正位置;进而,根据校正点和校正位置确定障碍物的中心点位置。由此,通过根据毫米波雷达探测到的障碍物的距离信息对视觉传感器检测到的障碍物中心点位置进行校正,提高了障碍物中心位置检测的精度,有利于提高无人驾驶车辆行驶过程中的安全性,从而有利于提高车辆速度。
Description
技术领域
本申请涉及自动驾驶技术领域的传感器感知技术领域,尤其涉及一种障碍物位置检测融合方法、装置、电子设备和存储介质。
背景技术
随着智能交通行业的快速发展,卫星导航、高速公路信息化、城市智能交通、电子警察和道路监控这些智能交通的传统形式逐渐向电子车牌、智能停车、车联网、自动驾驶、智能驾驶安全辅助系统等新领域发展,从而使得障碍物检测更是成为其中一个重要的研究方向。
相关技术中,在自动驾驶多传感器感知技术中,视觉和毫米波雷达是两种重要的感知手段,两种方式都能测量障碍物的位置。但是视觉测距存在精度差的缺点,毫米波雷达测量障碍物的角度时也存在精度差的缺点,从而造成各自的障碍物位置测量精度都较低。
发明内容
本申请提出一种障碍物位置检测融合方法,通过根据毫米波雷达探测到的障碍物的距离信息对视觉传感器检测到的障碍物中心点位置进行校正,提高了障碍物中心位置检测的精度,解决了相关技术中障碍物位置检测精度低的技术问题。
本申请第一方面实施例提出一种障碍物位置检测融合方法,包括:
获取视觉传感器采集的图像数据经视觉算法处理得到的障碍物的位置、尺寸、朝向信息和毫米波雷达探测到的所述障碍物距离信息;
从所述障碍物的位置、尺寸、朝向信息中获取多个检测点;
根据所述毫米波雷达探测到的所述障碍物的距离信息对所述多个检测点的距离进行校正,确定校正点和校正位置;以及
根据所述校正点和校正位置确定所述障碍物的中心点位置。
作为本申请实施例的第一种可能的实现方式,,所述从所述障碍物的位置、尺寸、朝向信息中获取多个检测点,包括:
根据所述障碍物的位置、尺寸、朝向信息生成二维矩形框;
获取所述二维矩形框之中的多个候选检测点,以及获取所述多个候选检测点与毫米波雷达之间的距离;
根据所述多个候选检测点与所述毫米波雷达之间的距离从所述多个候选检测点之中筛选出所述多个检测点。
作为本申请实施例的第二种可能的实现方式,所述多个候选检测点为所述二维矩形框的顶点,以及所述二维矩形框的边的中点。
作为本申请实施例的第三种可能的实现方式,获取所述多个候选检测点与毫米波雷达之间的距离,包括:
获取所述多个候选检测点在相机坐标系的第一坐标;
获取所述相机坐标系与所述毫米波雷达坐标系之间的坐标转换关系;
根据所述多个候选检测点在相机坐标系的第一坐标以及所述相机坐标系与所述毫米波雷达坐标系之间坐标转换关系,计算所述多个候选检测点在毫米波雷达坐标系的第二坐标;
根据所述第二坐标,计算多个候选检测点与所述毫米波雷达之间的距离。
作为本申请实施例的第四种可能的实现方式,所述多个检测点为N个,其中,N为正整数,所述根据所述毫米波雷达探测到的所述障碍物的距离信息对所述多个检测点的距离进行校正,确定校正点和校正位置,包括:
从所述N个检测点之中选择一个待替换检测点,根据待替换检测点的位置计算方位角;
根据所述方位角和所述毫米波雷达探测到的所述障碍物的距离信息生成融合点和融合位置;
获取所述二维矩形框的约束参数;
根据所述二维矩形框的约束参数判断所述融合点是否为所述校正点;
如果为所述校正点,则所述融合位置为校正位置;以及
如果不为所述校正点,则从其它N-1个检测点选择一个待替换检测点,重新计算,直到确定所述校正点和校正位置。
作为本申请实施例的第五种可能的实现方式,所述根据所述二维矩形框的约束参数判断所述融合点是否为所述校正点,包括:
根据所述融合点与所述毫米波雷达之间的距离和所述二维矩形框的约束参数生成所述N个检测点之中其它N-1个检测点与所述毫米波雷达之间的距离;
如果所述融合点与所述毫米波雷达之间的距离均小于所述其它N-1个检测点与所述毫米波雷达之间的距离,则所述融合点为所述校正点;
如果所述融合点与所述毫米波雷达之间的距离大于所述其它N-1个检测点与所述毫米波雷达之间的距离之中的一个,则所述融合点不为所述校正点。
本申请第二方面实施例提出了一种障碍物位置检测融合装置,包括:
第一获取模块,用于获取视觉传感器采集的图像数据经视觉算法处理得到的障碍物的位置、尺寸、朝向信息和毫米波雷达探测到的所述障碍物距离信息;
第二获取模块,用于从所述障碍物的位置、尺寸、朝向信息获取多个检测点;
校正模块,用于根据所述毫米波雷达探测到的所述障碍物的距离信息对所述多个检测点的距离进行校正,确定校正点和校正位置;以及
确定模块,用于根据所述校正点和校正位置确定所述障碍物的中心点位置。
本申请第三方面实施例提出了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行第一方面实施例所述的障碍物位置检测融合方法。
本申请第四方面实施例提出了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行第一方面实施例所述的障碍物位置检测融合方法。
上述申请中的一个实施例具有如下优点或有益效果:通过获取视觉传感器采集的图像数据经视觉算法处理得到的障碍物的位置、尺寸和朝向信息和毫米波雷达探测到的障碍物距离信息;从障碍物的位置、尺寸和朝向信息中获取多个检测点;根据毫米波雷达探测到的障碍物的距离信息对多个检测点的距离进行校正,确定校正点和校正位置;进而,根据校正点和校正位置确定障碍物的中心点位置。由此,通过根据毫米波雷达探测到的障碍物的距离信息对视觉传感器检测到的障碍物中心点位置进行校正,提高了障碍物中心位置检测的精度,有利于提高无人驾驶车辆行驶过程中的安全性,从而有利于提高车辆速度。
上述可选方式所具有的其他效果将在下文中结合具体实施例加以说明。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1为本申请实施例一提供的障碍物位置检测融合方法的流程示意图;
图2为本申请实施例二提供的障碍物位置检测融合方法的流程示意图;
图3为本申请实施例提供的障碍物位置检测融合装置的结构示意图;
图4是用来实现本申请实施例的障碍物位置检测融合方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
为了解决相关技术中直接利用视觉的角度信息和毫米波雷达的距离信息进行融合,导致障碍物位置检测精度低的技术问题,本申请提出了一种障碍物位置检测融合方法,通过获取视觉传感器采集的图像数据经视觉算法处理得到的障碍物的位置、尺寸和朝向信息和毫米波雷达探测到的障碍物距离信息;从障碍物的位置、尺寸和朝向信息中获取多个检测点;根据毫米波雷达探测到的障碍物的距离信息对多个检测点的距离进行校正,确定校正点和校正位置;进而,根据校正点和校正位置确定障碍物的中心点位置。
下面结合参考附图描述本申请实施例的障碍物位置检测融合方法、装置、电子设备和存储介质。
图1为本申请实施例一提供的障碍物位置检测融合方法的流程示意图。
本申请实施例以该障碍物位置检测融合方法被配置于障碍物位置检测融合装置中来举例说明,该障碍物位置检测融合装置可以应用于任一电子设备中,以使该电子设备可以执行障碍物位置检测融合功能。
其中,计算机设备可以为个人电脑(Personal Computer,简称PC)、云端设备、移动设备、智能音箱等,移动设备例如可以为手机、平板电脑、个人数字助理、穿戴式设备、车载设备等具有各种操作系统的硬件设备。
如图1所示,障碍物位置检测融合方法可以包括以下步骤:
步骤101,获取视觉传感器采集的图像数据经视觉算法处理得到的障碍物的位置、尺寸和朝向信息和毫米波雷达探测到的障碍物距离信息。
需要解释的是,按雷达的频段进行分类,雷达可以分为超视距雷达、微波雷达、毫米波雷达、激光雷达等。本申请实施例中,使用毫米波雷达探测得到障碍物的距离信息。其中,毫米波雷达是工作在毫米波波段探测的雷达,是测量被测物体相对距离、相对速度、方位的高精度传感器。
本实施例中,可以在车辆上安装毫米波雷达,通过天线向外发射毫米波,并接收毫米波到达障碍物后发生反射而形成的反射信号,通过对发射信号和反射信号进行处理后,能够快速准确地获取车辆周围的障碍物的距离信息。
本申请实施例中,在车辆上安装毫米波雷达的同时,还可以安装视觉传感器,以根据视觉传感器采集的图像数据经视觉算法处理得到障碍物的位置,尺寸和朝向信息。
作为一种可能的情况,本申请中安装在车辆的视觉传感器可以有一个或两个图形传感器组成,也可以再配以光投射器及其他辅助设备。视觉传感器的主要功能是获取足够的机器视觉系统要处理的最原始图像。其中,视觉传感器可以为双目视觉、基于TOF的深度相机、基于结构光的深度相机,等等。
需要说明的是,毫米波雷达探测到的障碍物可以以一个鸟瞰图下的二维点表示,包括障碍物到毫米波雷达的距离信息和方位角信息。
其中,鸟瞰图是根据透视原理,用高视点透视法从高处某一点俯视地面起伏绘制成的立体图。简单地说,就是在空中俯视某一地区所看到的图像,比平面图更有真实感。
本申请实施例中,可以在车辆上同时安装视觉传感器和毫米波雷达,使得车辆在道路上行驶时,可以同时获取到视觉传感器采集的图像数据经视觉算法处理得到的障碍物的位置、尺寸和朝向信息和毫米波雷达探测到的障碍物的距离信息。
其中,视觉算法处理可以包括图像特征提取,图像边缘点检测,深度信息提取,视觉导航,视觉避障,等等。视觉算法处理可以通过单独的计算装置完成,也可以通过集成到视觉传感器的计算芯片完成。
作为一种可能的实现方式,视觉传感器采集得到的图像数据后,可以将视觉传感器采集的图像数据输入经过训练的障碍物识别模型,以根据障碍物识别模型的输出确定各障碍物的位置、尺寸和朝向信息。其中,障碍物识别模型是采用已经标注障碍物的位置、尺寸和朝向信息的样本图像预先训练得到的。
作为另一种可能的实现方式,假设视觉传感器为深度相机,深度相机获取到采集的深度图像后,可以根据深度图像中包含的深度信息计算得到各障碍物的位置、尺寸和朝向信息。其中,深度图像是指将从深度相机到场景中各点的距离作为像素值的图像。
作为又一种可能的实现方式,假设视觉传感器为双目视觉传感器,获取到双目视觉传感器采集得到的图像数据后,可以使用半全局立体匹配算法(Semi-Global Matching,简称SGM)计算得到视差图,进而,根据视差图和双目视觉传感器采集的深度图像,确定障碍物的位置、尺寸和朝向信息。
需要说明的是,上述根据视觉传感器采集的图像数据确定障碍物的位置、尺寸和朝向信息的方法仅作为示例性描述,当然还可以为其他可能的实现方式,本申请实施例中在此不做限定。
需要说明的是,本申请实施例中,障碍物包括但不限于道路上的行人、车辆、固定物体,等等。
步骤102,从障碍物的位置、尺寸和朝向信息中获取多个检测点。
本申请实施例中,视觉传感器和毫米波雷达都检测到障碍物后,需要进一步判断是否为同一障碍物,若是同一障碍物,进一步对获取到的视觉传感器探测到的障碍物的位置、尺寸和朝向信息和毫米波雷达探测到的障碍物的距离信息进行处理。
本申请实施例中,获取视觉传感器探测到的障碍物的位置、尺寸和朝向信息后,可以根据障碍物的位置、尺寸和朝向信息生成二维矩形框,获取二维矩形框之中的多个候选检测点,以及获取多个候选检测点与毫米波雷达之间的距离,根据多个候选检测点与毫米波雷达之间的距离从多个候选检测点之中筛选出多个检测点。
举例来说,可以将获取到的视觉传感器探测到的以矩形立体框表示的障碍物投影到鸟瞰图,使得矩形立体框变为二维的矩形框,将二维矩形框的4个顶点和4条边的中点作为候选检测点。获取8个候选检测点与毫米波雷达之间的距离,从8个候选检测点中筛选出与毫米波雷达的距离最近的4个点作为检测点。
本申请实施例中,在获取候选检测点与毫米波雷达之间的距离时,可以首先获取多个候选检测点在安装在车辆上的相机坐标系的第一坐标,进一步,获取相机坐标系与毫米波雷达坐标系之间的坐标转换关系,从而根据多个候选检测点在相机坐标系的第一坐标以及相机坐标系与毫米波雷达坐标系之间的坐标转换关系,计算多个候选检测点在毫米波雷达坐标系的第二坐标;进而根据第二坐标,计算多个候选检测点与毫米波雷达之间的距离。
可以理解的是,相机坐标系与毫米波雷达坐标系并不相同,因此,需要根据多个候选检测点在相机坐标系的第一坐标,以及相机坐标系与毫米波雷达坐标系之间的坐标转换关系,确定多个候选检测点在毫米波雷达坐标系的第二坐标,从而将视觉传感器获取的障碍物的信息转换到毫米波雷达获取的信息上。
步骤103,根据毫米波雷达探测到的障碍物的距离信息对多个检测点的距离进行校正,确定校正点和校正位置。
本申请实施例中,从障碍物的位置、尺寸和朝向信息中获取多个检测点后,可以根据毫米波雷达探测到的障碍物的距离信息对多个检测点的距离进行校正,以确定出校正点和校正位置。
可以理解的是,当障碍物的尺寸较大时,直接利用视觉传感器探测到的障碍物的角度和毫米波雷达探测到的障碍物的距离,与实际的角度和距离存在偏差,因此,融合得到的障碍物的中心点位置与障碍物的实际位置也存在一定的偏差。因此,本申请实施例中,需要根据毫米波雷达探测到的障碍物的距离信息对多个检测点的距离进行校正,以确定校正点和校正位置,以提高障碍物中心点的检测精度。
步骤104,根据校正点和校正位置确定障碍物的中心点位置。
本申请实施例中,根据毫米波雷达探测到的障碍物的距离信息对多个检测点的距离进行校正,确定校正点和校正位置后,可以根据校正后的校正点和障碍物的校正位置确定障碍物的中心点位置。
具体地,对多个检测点的距离进行校正后,确定校正点和校正位置后,可以计算校正点的中心点作为障碍物的中心点。
本申请实施例的障碍物位置检测融合方法,通过获取视觉传感器采集的图像数据经视觉算法处理得到的障碍物的位置、尺寸和朝向信息和毫米波雷达探测到的障碍物距离信息;从障碍物的位置、尺寸和朝向信息中获取多个检测点;根据毫米波雷达探测到的障碍物的距离信息对多个检测点的距离进行校正,确定校正点和校正位置;进而,根据校正点和校正位置确定障碍物的中心点位置。由此,通过根据毫米波雷达探测到的障碍物的距离信息对视觉传感器探测到的多个检测点进行校正,以根据校正后的检测点确定校正点和校正位置,进而确定障碍物的中心点,从而提高了障碍物中心位置检测的精度,有利于提高无人驾驶车辆行驶过程中的安全性,从而有利于提高车辆速度。
在上述实施例的基础上,在步骤103中,对多个检测点的距离进行校正时,可以从多个检测点中选择一个待替换检测点,根据待替换检测点的方位角和毫米波雷达探测到的障碍物的距离信息生成融合点和融合位置,根据二维矩形框的约束参数判断融合点是否为校正点,以完成对检测点的校正。下面结合图2对上述过程进行详细介绍,图2为本申请实施例二提供的障碍物位置检测融合方法的流程示意图。
如图2所示,上述步骤103可以包括以下步骤:
步骤201,从N个检测点之中选择一个待替换检测点,根据待替换检测点的位置计算方位角。
其中,多个检测点为N个,其中,N为正整数。
本申请实施例中,可以从N个检测点中,将距离毫米波雷达最近的检测点作为待替换检测点,进而根据该待替换检测点的位置计算方位角。
本申请实施例中,方位角,是指待替换检测点相对于毫米波雷达安装位置的方位角。
举例来说,检测点个数为4个,分别为检测点A、B、C、D,确定检测点A距离毫米波雷达的距离最近,可以选择检测点A为待替换检测点。
步骤202,根据方位角和毫米波雷达探测到的障碍物的距离信息生成融合点和融合位置。
本申请实施例中,确定待替换检测点离毫米波雷达安装位置的方位角后,可以根据方位角和毫米波雷达探测到的障碍物的距离信息生成融合点和融合位置。
步骤203,获取二维矩形框的约束参数。
其中,约束参数,可以为二维矩形框的尺寸和朝向。
本申请实施例中,将获取到的视觉传感器探测到的以矩形立体框表示的障碍物的位图投影到鸟瞰图,使得矩形立体框变为二维的矩形框后,可以进一步获取二维矩形框的约束参数。
步骤204,根据二维矩形框的约束参数判断融合点是否为校正点。
本申请实施例中,根据融合点与毫米波雷达之间的距离和二维矩形框的约束参数,生成N个检测点之中除待替换检测点之外的其它N-1个检测点与毫米波雷达之间的距离。进一步的,判断融合点与毫米波雷达之间的距离是否均小于其它N-1个检测点与毫米波雷达之间的距离。
举例来说,检测点个数为4个,确定待替换检测点后,分别计算其余3个检测点与毫米波雷达安装位置的距离。
在一种可能的情况下,确定融合点与毫米波雷达之间的距离均小于其它N-1个检测点与毫米波雷达之间的距离,则确定融合点为校正点。
在另一种可能的情况下,确定融合点与毫米波雷达之间的距离大于其它N-1个检测点与毫米波雷达之间的距离之中的一个,则融合点不为校正点。
步骤205,确定融合点为待替换检测点的校正点,则融合位置为校正位置。
在一种可能的情况下,确定融合点与毫米波雷达之间的距离均小于其它N-1个检测点与毫米波雷达之间的距离,则确定融合点为校正点时,完成对待替换检测点的校正,可以确定融合位置为校正位置。
步骤206,确定融合点不为校正点,则从其它N-1个检测点选择一个待替换检测点,重新计算,直到确定校正点和校正位置。。
在另一种可能的情况下,确定融合点与毫米波雷达之间的距离大于其它N-1个检测点与毫米波雷达之间的距离之中的一个,则确定融合点不为校正点。这种情况下,从其它N-1个检测点选择一个待替换检测点继续进行校正。
本申请实施例中,确定融合点不为校正点后,则从其它N-1个检测点中,选取距离毫米波雷达安装位置最近的检测点作为待替换检测点,重新执行上述步骤201至步骤204,直至确定校正点和校正位置。
本申请实施例的障碍物位置检测融合方法,通过从N个检测点之中选择一个待替换检测点,根据待替换检测点的位置计算方位角,根据方位角和毫米波雷达探测到的障碍物的距离信息生成融合点和融合位置,获取二维矩形框的约束参数,根据二维矩形框的约束参数判断融合点是否为校正点;如果为校正点,则融合位置为校正位置;以及如果不为校正点,则则从其它N-1个检测点选择一个待替换检测点,重新计算,直到确定校正点和校正位置。由此,通过毫米波雷达探测到的障碍物的距离信息对多个检测点的距离进行校正,从而有利于提高视觉传感器和毫米波雷达融合感知中障碍物的中心位置检测的精度。
为了实现上述实施例,本申请提出了一种障碍物位置检测融合装置。
图3为本申请实施例提出的障碍物位置检测融合装置的结构示意图。
如图3所示,该障碍物位置检测融合装置300,可以包括:第一获取模块310、第二获取模块320、校正模块330和确定模块340。
其中,第一获取模块310,用于获取视觉传感器采集的图像数据经视觉算法处理得到的障碍物的位置、尺寸和朝向信息和毫米波雷达探测到的障碍物距离信息。
第二获取模块320,用于从障碍物的位置、尺寸和朝向信息中获取多个检测点。
校正模块330,用于根据毫米波雷达探测到的障碍物的距离信息对多个检测点的距离进行校正,确定校正点和校正位置。
确定模块340,用于根据校正点和校正位置确定障碍物的中心点位置。
作为一种可能的情况,第二获取模块320,包括:
生成单元,用于根据障碍物的位置、尺寸和朝向信息生成二维矩形框。
获取单元,用于获取二维矩形框之中的多个候选检测点,以及获取多个候选检测点与毫米波雷达之间的距离。
筛选单元,用于根据多个候选检测点与毫米波雷达之间的距离从多个候选检测点之中筛选出多个检测点。
作为另一种可能的情况,多个候选检测点为二维矩形框的顶点,以及二维矩形框的边的中点。
作为另一种可能的情况,获取单元,还可以用于:
获取多个候选检测点在相机坐标系的第一坐标;
获取相机坐标系与毫米波雷达坐标系之间的坐标转换关系;
根据多个候选检测点在相机坐标系的第一坐标以及相机坐标系与毫米波雷达坐标系之间的坐标转换关系,计算多个候选检测点在毫米波雷达坐标系的第二坐标;根据第二坐标,计算多个候选检测点与毫米波雷达之间的距离。
作为另一种可能的情况,多个检测点为N个,其中,N为正整数,校正模块,还可以用于:
从N个检测点之中选择一个待替换检测点,根据待替换检测点的的位置计算方位角;
根据方位角和毫米波雷达探测到的障碍物的距离信息生成融合点和融合位置;
获取二维矩形框的约束参数;
根据二维矩形框的约束参数判断融合点是否为校正点;
如果为校正点,则融合位置为校正位置;以及
如果不为校正点,则从其它N-1个检测点选择一个待替换检测点,重新计算,直到确定校正点和校正位置。
作为另一种可能的情况,校正模块,还可以用于:
根据融合点与毫米波雷达之间的距离和二维矩形框的约束参数生成N个检测点之中其它N-1个检测点与毫米波雷达之间的距离;
如果融合点与毫米波雷达之间的距离均小于其它N-1个检测点与毫米波雷达之间的距离,则融合点为校正点;
如果融合点与毫米波雷达之间的距离大于其它N-1个检测点与毫米波雷达之间的距离之中的一个,则融合点不为校正点。
本申请实施例的障碍物位置检测融合装置,通过获取视觉传感器采集的图像数据经视觉算法处理得到的障碍物的位置、尺寸和朝向信息和毫米波雷达探测到的障碍物的距离信息;从障碍物的位置、尺寸和朝向信息中获取多个检测点;根据毫米波雷达探测到的障碍物的距离信息对多个检测点的距离进行校正,确定校正点和校正位置;进而,根据校正点和校正位置确定障碍物的中心点位置。由此,通过根据毫米波雷达探测到的障碍物的距离信息对视觉传感器检测到的障碍物中心点位置进行校正,,提高了障碍物中心位置检测的精度,有利于提高无人驾驶车辆行驶过程中的安全性,从而有利于提高车辆速度。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图4所示,是根据本申请实施例的障碍物位置检测融合方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图4所示,该电子设备包括:一个或多个处理器401、存储器402,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图4中以一个处理器401为例。
存储器402即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的障碍物位置检测方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的障碍物位置检测融合方法。
存储器402作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的障碍物位置检测融合方法对应的程序指令/模块(例如,附图3所示的第一获取模块310、第二获取模块320、校正模块330和确定模块340)。处理器401通过运行存储在存储器402中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的障碍物位置检测融合方法。
存储器402可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据障碍物位置检测的电子设备的使用所创建的数据等。此外,存储器402可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器402可选包括相对于处理器401远程设置的存储器,这些远程存储器可以通过网络连接至障碍物位置检测的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
障碍物位置检测方法的电子设备还可以包括:输入装置403和输出装置404。处理器401、存储器402、输入装置403和输出装置404可以通过总线或者其他方式连接,图4中以通过总线连接为例。
输入装置403可接收输入的数字或字符信息,以及产生与障碍物位置检测融合的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置404可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
根据本申请实施例的技术方案,通过获取视觉传感器采集的图像数据经视觉算法处理得到的障碍物位置、尺寸和朝向信息和毫米波雷达探测到的障碍物距离信息;从障碍物的位置、尺寸和朝向信息中获取多个检测点;根据毫米波雷达探测到的障碍物的距离信息对多个检测点的距离进行校正,确定出校正点和校正位置;进而,根据校正点和校正位置确定障碍物的中心点位置。由此,通过根据毫米波雷达探测到的障碍物的距离信息对视觉传感器检测到的障碍物中心点位置进行校正,提高了障碍物中心位置检测的精度,有利于提高无人驾驶车辆行驶过程中的安全性,从而有利于提高车辆速度。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (12)
1.一种障碍物位置检测融合方法,其特征在于,所述方法包括以下步骤:
获取视觉传感器采集的图像数据经视觉算法处理得到的障碍物的位置、尺寸和朝向信息和毫米波雷达探测到的所述障碍物距离信息;
从所述障碍物的位置、尺寸和朝向信息中获取多个检测点;
根据所述毫米波雷达探测到的所述障碍物的距离信息对所述多个检测点的距离进行校正,确定校正点和校正位置;以及
根据所述校正点和校正位置确定所述障碍物的中心点位置;
所述从所述障碍物的位置、尺寸和朝向信息中获取多个检测点,包括:
根据所述障碍物的位置、尺寸和朝向信息生成二维矩形框;
获取所述二维矩形框之中的多个候选检测点,以及获取所述多个候选检测点与毫米波雷达之间的距离;
根据所述多个候选检测点与所述毫米波雷达之间的距离从所述多个候选检测点之中筛选出所述多个检测点。
2.如权利要求1所述的障碍物位置检测融合方法,其特征在于,所述多个候选检测点为所述二维矩形框的顶点,以及所述二维矩形框的边的中点。
3.如权利要求1所述的障碍物位置检测融合方法,其特征在于,获取所述多个候选检测点与毫米波雷达之间的距离,包括:
获取所述多个候选检测点在相机坐标系的第一坐标;
获取所述相机坐标系与所述毫米波雷达坐标系之间的坐标转换关系;
根据所述多个候选检测点在相机坐标系的第一坐标以及所述相机坐标系与所述毫米波雷达坐标系之间的坐标转换关系,计算所述多个候选检测点在毫米波雷达坐标系的第二坐标;
根据所述第二坐标,计算多个候选检测点与所述毫米波雷达之间的距离。
4.如权利要求1所述的障碍物位置检测融合方法,其特征在于,所述多个检测点为N个,其中,N为正整数,所述根据所述毫米波雷达探测到的所述障碍物的距离信息对所述多个检测点的距离进行校正,确定校正点和校正位置,包括:
从所述N个检测点之中选择一个待替换检测点,根据待替换检测点的位置计算方位角;
根据所述方位角和所述毫米波雷达探测到的所述障碍物的距离信息生成融合点和融合位置;
获取所述二维矩形框的约束参数;
根据所述二维矩形框的约束参数判断所述融合点是否为所述校正点;
如果为所述校正点,则所述融合位置为校正位置;以及
如果不为所述校正点,则从其它N-1个检测点选择一个待替换检测点,重新计算,直到确定所述校正点和校正位置。
5.如权利要求4所述的障碍物位置检测融合方法,其特征在于,所述根据所述二维矩形框的约束参数判断所述融合点是否为所述校正点,包括:
根据所述融合点与所述毫米波雷达之间的距离和所述二维矩形框的约束参数生成所述N个检测点之中其它N-1个检测点与所述毫米波雷达之间的距离;
如果所述融合点与所述毫米波雷达之间的距离均小于所述其它N-1个检测点与所述毫米波雷达之间的距离,则所述融合点为所述校正点;
如果所述融合点与所述毫米波雷达之间的距离大于所述其它N-1个检测点与所述毫米波雷达之间的距离之中的一个,则所述融合点不为所述校正点。
6.一种障碍物位置检测融合装置,其特征在于,所述装置包括:
第一获取模块,用于获取视觉传感器采集的图像数据经视觉算法处理得到的障碍物的位置、尺寸和朝向信息和毫米波雷达探测到的所述障碍物距离信息;
第二获取模块,用于从所述障碍物的位置、尺寸和朝向信息中获取多个检测点;
校正模块,用于根据所述毫米波雷达探测到的所述障碍物的距离信息对所述多个检测点的距离进行校正,确定校正点和校正位置;以及
确定模块,用于根据所述校正点和校正位置确定所述障碍物的中心点位置;
所述第二获取模块,包括:
生成单元,用于根据所述障碍物的位置、尺寸和朝向信息生成二维矩形框;
获取单元,用于获取所述二维矩形框之中的多个候选检测点,以及获取所述多个候选检测点与毫米波雷达之间的距离;
筛选单元,用于根据所述多个候选检测点与所述毫米波雷达之间的距离从所述多个候选检测点之中筛选出所述多个检测点。
7.如权利要求6所述的障碍物位置检测融合装置,其特征在于,所述多个候选检测点为所述二维矩形框的顶点,以及所述二维矩形框的边的中点。
8.如权利要求6所述的障碍物位置检测融合装置,其特征在于,所述获取单元,用于:
获取所述多个候选检测点在相机坐标系的第一坐标;
获取所述相机坐标系与所述毫米波雷达坐标系之间的坐标转换关系;
根据所述多个候选检测点在相机坐标系的第一坐标以及所述相机坐标系与所述毫米波雷达坐标系之间的坐标转换关系,计算所述多个候选检测点在所述毫米波雷达坐标系的第二坐标;
根据所述第二坐标,计算多个候选检测点与所述毫米波雷达之间的距离。
9.如权利要求6所述的障碍物位置检测融合装置,其特征在于,所述多个检测点为N个,其中,N为正整数,所述校正模块,用于:
从所述N个检测点之中选择一个待替换检测点,根据待替换检测点的位置计算方位角;
根据所述方位角和所述毫米波雷达探测到的所述障碍物的距离信息生成融合点和融合位置;
获取所述二维矩形框的约束参数;
根据所述二维矩形框的约束参数判断所述融合点是否为所述校正点;
如果为所述校正点,则所述融合位置为校正位置;以及
如果不为所述校正点,则从其它N-1个检测点选择一个待替换检测点,重新计算,直到确定所述校正点和校正位置。
10.如权利要求9所述的障碍物位置检测融合装置,其特征在于,所述校正模块,还用于:
根据所述融合点与所述毫米波雷达之间的距离和所述二维矩形框的约束参数生成所述N个检测点之中其它N-1个检测点与所述毫米波雷达之间的距离;
如果所述融合点与所述毫米波雷达之间的距离均小于所述其它N-1个检测点与所述毫米波雷达之间的距离,则所述融合点为所述校正点;
如果所述融合点与所述毫米波雷达之间的距离大于所述其它N-1个检测点与所述毫米波雷达之间的距离之中的一个,则所述融合点不为校正点。
11.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-5中任一项所述的障碍物位置检测融合方法。
12.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1-5中任一项所述的障碍物位置检测融合方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010076494.7A CN111324115B (zh) | 2020-01-23 | 2020-01-23 | 障碍物位置检测融合方法、装置、电子设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010076494.7A CN111324115B (zh) | 2020-01-23 | 2020-01-23 | 障碍物位置检测融合方法、装置、电子设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111324115A CN111324115A (zh) | 2020-06-23 |
CN111324115B true CN111324115B (zh) | 2023-09-19 |
Family
ID=71173141
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010076494.7A Active CN111324115B (zh) | 2020-01-23 | 2020-01-23 | 障碍物位置检测融合方法、装置、电子设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111324115B (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112512887B (zh) * | 2020-07-21 | 2021-11-30 | 华为技术有限公司 | 一种行驶决策选择方法以及装置 |
CN112017241A (zh) * | 2020-08-20 | 2020-12-01 | 广州小鹏汽车科技有限公司 | 一种数据处理的方法和装置 |
CN112113565A (zh) * | 2020-09-22 | 2020-12-22 | 温州科技职业学院 | 一种农业温室环境的机器人定位系统 |
CN114624711B (zh) * | 2020-12-11 | 2024-05-17 | 中寰卫星导航通信有限公司 | 一种不同雷达信息的融合方法、装置、存储介质及设备 |
CN112581527B (zh) * | 2020-12-11 | 2024-02-27 | 北京百度网讯科技有限公司 | 障碍物检测的测评方法、装置、设备以及存储介质 |
CN112528846A (zh) * | 2020-12-11 | 2021-03-19 | 北京百度网讯科技有限公司 | 障碍物检测的测评方法、装置、设备以及存储介质 |
US11797013B2 (en) * | 2020-12-25 | 2023-10-24 | Ubtech North America Research And Development Center Corp | Collision avoidance method and mobile machine using the same |
CN113139299B (zh) * | 2021-05-13 | 2024-04-26 | 深圳市道通科技股份有限公司 | 传感器融合校验方法、装置及电子设备 |
CN113469130B (zh) * | 2021-07-23 | 2024-11-05 | 浙江大华技术股份有限公司 | 一种遮挡目标检测方法、装置、存储介质及电子装置 |
CN113610056B (zh) * | 2021-08-31 | 2024-06-07 | 的卢技术有限公司 | 障碍物检测方法、装置、电子设备及存储介质 |
CN114973193B (zh) * | 2022-05-18 | 2024-12-17 | 广州小马慧行科技有限公司 | 识别车辆与障碍物距离的方法、装置、设备和存储介质 |
CN117975404B (zh) * | 2022-10-26 | 2024-10-25 | 北京三快在线科技有限公司 | 朝向信息确定方法以及自动驾驶车辆 |
CN116106906B (zh) * | 2022-12-01 | 2023-11-21 | 山东临工工程机械有限公司 | 工程车辆避障方法、装置、电子设备、存储介质及装载机 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20070106863A (ko) * | 2006-05-01 | 2007-11-06 | 주식회사 한울로보틱스 | 이동로봇의 맵 빌딩방법 |
JP2012014520A (ja) * | 2010-07-01 | 2012-01-19 | Toyota Motor Corp | 障害物検出装置 |
CN104965202A (zh) * | 2015-06-18 | 2015-10-07 | 奇瑞汽车股份有限公司 | 障碍物探测方法和装置 |
CN206601623U (zh) * | 2017-02-28 | 2017-10-31 | 中原工学院 | 一种基于多传感器融合的智能小车大障碍物避障控制系统 |
CN108398951A (zh) * | 2018-03-20 | 2018-08-14 | 广州番禺职业技术学院 | 一种多传感器信息融合的机器人姿态测量方法与装置 |
CN108693532A (zh) * | 2018-03-29 | 2018-10-23 | 浙江大学 | 基于增强型双目相机与3d毫米波雷达的可穿戴避障方法及装置 |
CN109116374A (zh) * | 2017-06-23 | 2019-01-01 | 百度在线网络技术(北京)有限公司 | 确定障碍物距离的方法、装置、设备及存储介质 |
CN109212540A (zh) * | 2018-09-12 | 2019-01-15 | 百度在线网络技术(北京)有限公司 | 基于激光雷达系统的测距方法、装置及可读存储介质 |
CN109649384A (zh) * | 2019-02-15 | 2019-04-19 | 华域汽车系统股份有限公司 | 一种泊车辅助方法 |
CN110488319A (zh) * | 2019-08-22 | 2019-11-22 | 重庆长安汽车股份有限公司 | 一种基于超声波和摄像头融合的碰撞距离计算方法及系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006252473A (ja) * | 2005-03-14 | 2006-09-21 | Toshiba Corp | 障害物検出装置、キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム |
-
2020
- 2020-01-23 CN CN202010076494.7A patent/CN111324115B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20070106863A (ko) * | 2006-05-01 | 2007-11-06 | 주식회사 한울로보틱스 | 이동로봇의 맵 빌딩방법 |
JP2012014520A (ja) * | 2010-07-01 | 2012-01-19 | Toyota Motor Corp | 障害物検出装置 |
CN104965202A (zh) * | 2015-06-18 | 2015-10-07 | 奇瑞汽车股份有限公司 | 障碍物探测方法和装置 |
CN206601623U (zh) * | 2017-02-28 | 2017-10-31 | 中原工学院 | 一种基于多传感器融合的智能小车大障碍物避障控制系统 |
CN109116374A (zh) * | 2017-06-23 | 2019-01-01 | 百度在线网络技术(北京)有限公司 | 确定障碍物距离的方法、装置、设备及存储介质 |
CN108398951A (zh) * | 2018-03-20 | 2018-08-14 | 广州番禺职业技术学院 | 一种多传感器信息融合的机器人姿态测量方法与装置 |
CN108693532A (zh) * | 2018-03-29 | 2018-10-23 | 浙江大学 | 基于增强型双目相机与3d毫米波雷达的可穿戴避障方法及装置 |
CN109212540A (zh) * | 2018-09-12 | 2019-01-15 | 百度在线网络技术(北京)有限公司 | 基于激光雷达系统的测距方法、装置及可读存储介质 |
CN109649384A (zh) * | 2019-02-15 | 2019-04-19 | 华域汽车系统股份有限公司 | 一种泊车辅助方法 |
CN110488319A (zh) * | 2019-08-22 | 2019-11-22 | 重庆长安汽车股份有限公司 | 一种基于超声波和摄像头融合的碰撞距离计算方法及系统 |
Non-Patent Citations (2)
Title |
---|
基于毫米波雷达和机器视觉信息融合的障碍物检测;翟光耀等;《物联网学报》(第02期);80-87 * |
激光测距雷达距离图障碍物实时检测算法研究及误差分析;张奇等;《机器人》;第19卷(第02期);122-128+133 * |
Also Published As
Publication number | Publication date |
---|---|
CN111324115A (zh) | 2020-06-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111324115B (zh) | 障碍物位置检测融合方法、装置、电子设备和存储介质 | |
CN111401208B (zh) | 一种障碍物检测方法、装置、电子设备及存储介质 | |
EP4283515A1 (en) | Detection method, system, and device based on fusion of image and point cloud information, and storage medium | |
US11615605B2 (en) | Vehicle information detection method, electronic device and storage medium | |
CN110488234B (zh) | 车载毫米波雷达的外参标定方法、装置、设备及介质 | |
CN111563450B (zh) | 数据处理方法、装置、设备及存储介质 | |
CN110793544B (zh) | 路侧感知传感器参数标定方法、装置、设备及存储介质 | |
EP3816663B1 (en) | Method, device, equipment, and storage medium for determining sensor solution | |
CN111626206A (zh) | 高精地图构建方法、装置、电子设备及计算机存储介质 | |
CN111310840B (zh) | 数据融合处理方法、装置、设备和存储介质 | |
CN112147632A (zh) | 车载激光雷达感知算法的测试方法、装置、设备和介质 | |
KR102694715B1 (ko) | 장애물의 검출 방법, 전자 기기, 노변 기기 및 클라우드 컨트롤 플랫폼 | |
CN111666876B (zh) | 用于检测障碍物的方法、装置、电子设备和路侧设备 | |
CN111578839B (zh) | 障碍物坐标处理方法、装置、电子设备及可读存储介质 | |
CN111721281B (zh) | 位置识别方法、装置和电子设备 | |
CN111767843B (zh) | 三维位置预测方法、装置、设备以及存储介质 | |
CN112344855B (zh) | 障碍物的检测方法、装置、存储介质和路测设备 | |
CN113887400B (zh) | 障碍物检测方法、模型训练方法、装置及自动驾驶车辆 | |
CN111932611B (zh) | 物体位置获取方法和装置 | |
WO2022217988A1 (zh) | 传感器配置方案确定方法、装置、计算机设备、存储介质及程序 | |
CN112184828A (zh) | 激光雷达与摄像头的外参标定方法、装置及自动驾驶车辆 | |
US11874369B2 (en) | Location detection method, apparatus, device and readable storage medium | |
CN114528941A (zh) | 传感器数据融合方法、装置、电子设备及存储介质 | |
CN113011298A (zh) | 截断物体样本生成、目标检测方法、路侧设备和云控平台 | |
WO2022210062A1 (ja) | 情報処理装置、車両、路側機、および情報処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |