[go: up one dir, main page]

CN111462135A - 基于视觉slam与二维语义分割的语义建图方法 - Google Patents

基于视觉slam与二维语义分割的语义建图方法 Download PDF

Info

Publication number
CN111462135A
CN111462135A CN202010246158.2A CN202010246158A CN111462135A CN 111462135 A CN111462135 A CN 111462135A CN 202010246158 A CN202010246158 A CN 202010246158A CN 111462135 A CN111462135 A CN 111462135A
Authority
CN
China
Prior art keywords
semantic
camera
image
map
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010246158.2A
Other languages
English (en)
Other versions
CN111462135B (zh
Inventor
唐漾
钱锋
杜文莉
堵威
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Xinyuan Environmental Engineering Co ltd
Original Assignee
Shanghai Xinyuan Environmental Engineering Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Xinyuan Environmental Engineering Co ltd filed Critical Shanghai Xinyuan Environmental Engineering Co ltd
Priority to CN202010246158.2A priority Critical patent/CN111462135B/zh
Publication of CN111462135A publication Critical patent/CN111462135A/zh
Application granted granted Critical
Publication of CN111462135B publication Critical patent/CN111462135B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及计算机视觉与深度学习的交叉融合领域,更具体的说,涉及一种基于视觉SLAM与二维语义分割的语义建图方法。本发明的方法,包括以下步骤:S1、标定相机参数,校正相机畸变;S2、获取图像帧序列;S3、图像预处理;S4、判断当前图像帧是否为关键帧,如果是,则转入步骤S6,如果不是,则转入步骤S5;S5、动态模糊补偿;S6、语义分割,针对图像帧进行ORB特征点的提取,利用掩膜区域卷积神经网络算法模型进行语义分割;S7、位姿计算,利用稀疏SLAM算法模型计算相机位姿;S8、将语义信息辅助稠密语义地图构建,实现全局点云地图的三维语义建图。本发明可以提升无人机语义建图系统性能,显著提升针对动态场景进行特征点的提取与匹配的鲁棒性。

Description

基于视觉SLAM与二维语义分割的语义建图方法
技术领域
本发明涉及计算机视觉与深度学习的交叉融合领域,更具体的说,涉及一 种基于视觉SLAM与二维语义分割的语义建图方法。
背景技术
无人机一般由智能决策、环境感知、运动控制三个模块构成,其中环境感 知是一切的基础。
无人机感知周围环境,需要一套稳定、性能强大的传感器系统来充当“眼 睛”,同时需要相应的算法和强有力的处理单元“读懂物体”。
无人机的环境感知模块中,视觉传感器是不可或缺的一部分,视觉传感器 可以是摄像头,相较于激光雷达、毫米波雷达,摄像头的分辨率更高,能获取 足够的环境细节,例如可以描述物体的外观和形状、读取标识等。
尽管全球定位系统(Global Positioning System,GPS)有助于定位过程,但是 由于高大树木、建筑、隧道等造成的干扰会使得GPS定位不可靠,因此视觉 传感器不能被GPS系统所取代。
定位与建图(Simultaneous Localization and Mapping,SLAM)是指载有特定 传感器的主体在没有先验信息的情况下,通过计算特定传感器获取图像帧来估 计自身运动的轨迹,并建立周围环境的地图,其广泛应用于机器人、无人机、 自动驾驶、增强现实、虚拟现实等应用中。
SLAM可以划分为激光SLAM和视觉SLAM两类。
由于起步早,激光SLAM在理论技术和工程应用上都较为成熟,但是激光 SLAM在机器人的应用上有一个致命的缺点,就是激光雷达智能感知的结构信 息是二维信息,信息量较少,造成丢失了大量的环境信息。同时其高昂的成本、 庞大的体积以及缺少语义信息使其在一些特定的应用场景中受限。
视觉SLAM的感知信息源为相机图像。
根据相机类型,可将视觉SLAM分为三种:单目、双目以及深度SLAM。 类似于激光雷达,深度相机可以通过采集点云来直接计算到障碍物的距离。深 度相机结构简单,易于安装操作,而且成本低、使用场景广泛。
随着深度学习的兴起,视觉SLAM在近几年也取得了长足的进步。
大部分的视觉SLAM方案都是特征点或像素级别,为了完成一个特定的任 务,或者与周围环境进行智能化的交互,无人机需要获取语义信息。
视觉SLAM系统能够选择有用信息,剔除无效信息。
随着深度学习的发展,许多成熟的目标检测和语义分割的方法为精确的语 义建图提供了条件。语义地图有利于提高无人机的自主性和鲁棒性,完成更复 杂的任务,从路径规划转化为任务规划。
随着硬件计算能力的提高,以及算法结构的优化,深度学习取得了越来越 瞩目的成就。
在计算机视觉领域取得了巨大的飞跃,就RGB图像分割来看,可以大体 分为目标检测和语义分割。
在前期主要是目标检测框架的提出,实现了越来越精准的目标检测。
主流的深度学习目标检测框架主要是基于CNN(Convolutional NeuralNetworks,卷积神经网络)的,其中较为高效的有YOLO(You Only Look Once, 你只用看一次)系列和R-CNN(Region-CNN,区域卷积神经网络)系列。
三维图像中的目标感知技术越来越成熟,三维理解的需求也越来越紧迫。 由于点云的不规则性,大多数研究者会将点转化为规则的体素或者网格模型, 利用深度神经网络进行预测。
直接对点云空间进行语义分割需要消耗极大的计算资源,空间点之间的相 互关系被削弱。
2017年提出的PointNet(点网)是第一个可以直接处理原始三维点云的深 度神经网络。
现有大部分视觉SLAM系统采用的稠密建图方法,缺少语义信息,无法完 成智能化的需求。
视觉SLAM算法有一个典型假设是场景固定,其中一些动态物体的出现不 仅影响相机位姿的估计而且在地图中留下残影,影响地图质量。
相机在高速运动情况下所捕捉的照片容易模糊,极大的影响了特征点的提 取与匹配。
发明内容
本发明的目的是提供一种基于视觉SLAM与二维语义分割的语义建图方 法,解决高速运动的动态物体影响建立地图质量的技术问题。
为了实现上述目的,本发明提供了一种基于视觉SLAM与二维语义分割的 语义建图方法,包括以下步骤:
S1、标定相机参数,校正相机畸变;
S2、获取图像帧序列,图像帧序列包括RGB图像和深度图像;
S3、图像预处理,采用针孔相机模型,得到RGB图像中每个像素点对应 的真实三维空间点的坐标;
S4、判断当前图像帧是否为关键帧,如果是,则转入步骤S6,如果不是, 则转入步骤S5;
S5、动态模糊补偿,计算得到当前图像帧的图像块质心作为语义特征点, 作为ORB特征点的补充;
S6、语义分割,针对图像帧进行ORB特征点的提取,利用掩膜区域卷积 神经网络算法模型进行语义分割,获取该帧图像每一个像素点的语义信息;
S7、位姿计算,利用稀疏SLAM算法模型计算相机位姿;
S8、将语义信息输入到稀疏SLAM算法模型,辅助稠密语义地图构建, 完成关键帧的遍历,实现全局点云地图的三维语义建图。
在一实施例中,所述步骤S1中的校正相机畸变,进一步包括以下步骤:
S11、将相机坐标系的三维空间点P(X,Y,Z),投影到归一化图像平面形 成该点的归一化坐标为[x,y]T
S12、对归一化平面上的点[x,y]T进行径向畸变和切向畸变校正,通过 以下公式实现:
Figure BDA0002434029640000041
其中,[xcorrected,ycorrected]T是校正后的点坐标,p1,p2为相机的切向畸变系 数,k1,k2,k3为相机的径向畸变系数,r为点P离坐标系原点的距离;
S13、将校正后的点[xcorrected,ycorrected]T通过内参数矩阵,投影到像素平面得到其在图像上的正确位置[u,v]T,通过以下公式实现:
Figure BDA0002434029640000042
其中,fx,fy,cx,cy为相机的内参数。
在一实施例中,所述步骤S3的图像预处理,进一步包括,像素点[u,v]T到 真实三维空间点P(X,Y,Z)的映射关系满足以下公式:
Figure BDA0002434029640000043
其中,K称为内参数矩阵,fx,fy,cx,cy为相机的内参数,P为真实三维 空间点坐标,[u,v]T为像素点坐标。
在一实施例中,所述步骤S4的关键帧,使用稀疏SLAM算法模型进行筛 选。
在一实施例中,所述步骤S5的图像块质心,通过以下步骤得到:
将该帧图像每一个物体标注为一个具体的类;
对于每一个分割出来的对象有对应标注区域,分割出来的图像称为图像 块;
计算图像块的矩
Figure BDA0002434029640000044
p,q={0,1};
计算对应的质心C作为语义特征点,对ORB特征点进行补充,其中
Figure BDA0002434029640000045
在一实施例中,所述步骤S6,进一步包括:
每一个像素点的语义信息包括语义分类标签、包围框坐标以及该分类的 置信分数;
基于语义分割结果,对于指定某种类别为动态物体的区域所提取的ORB 特征点进行剔除。
在一实施例中,所述步骤S6的Mask R-CNN算法模型进行语义分割,进 一步包括:
通过特征图金字塔网络提取输入图像不同层次上的特征;
通过区域生成网络提出感兴趣提案;
利用感兴趣区域排列进行提案区域对齐;
利用全卷积网络进行掩膜分割;
利用全连接层进行区域坐标确定和所述类别分类。
在一实施例中,所述稀疏SLAM算法模型,进一步包括,跟踪线程、局部 建图线程、回环检测线程:
所述跟踪线程,通过寻找对局部地图特征进行匹配,利用纯运动光束平差 法最小化重投影误差进行定位每帧图片的相机;
所述局部建图线程,通过执行局部光束平差法管理局部地图并优化,通过 地图点维护关键帧之间的共视关系,通过局部光束平差法优化共视关键帧位姿 和地图点;
所述回环检测线程,检测大的环并通过执行位姿图优化更正漂移误差,加 速闭环匹配帧的筛选,并优化尺度,通过全局光束平差法优化本质图和地图点。
在一实施例中,所述稀疏SLAM算法模型,进一步包括全局光束平差法 优化线程,在回环检测线程确认后触发,在位姿图优化之后,计算整个系统最 优结构和运动结果。
在一实施例中,所述步骤S7的位姿计算,进一步包括:通过PnP求解初 步计算相机位姿,利用后端位姿图优化计算相机位姿,构建相机位姿估计的最 小化重投影误差:
Figure BDA0002434029640000051
其中,ui为像素坐标,Pi为相机坐标,ξ^为相机位姿对应的李代数,si为 特征点深度,K为相机内参数矩阵。
本发明提供的一种基于视觉SLAM与二维语义分割的语义建图方法,基于 ORB特征点的Mask R-CNN算法模型和稀疏SLAM算法模型,建立剔除动态 物体的稠密语义地图,利用帧间信息以及图像帧上的语义信息来提升无人机语 义建图系统性能,提升针对动态场景进行特征点的提取与匹配的鲁棒性。
附图说明
本发明上述的以及其他的特征、性质和优势将通过下面结合附图和实施例 的描述而变的更加明显,在附图中相同的附图标记始终表示相同的特征,其中:
图1揭示了根据本发明一实施例的方法流程图;
图2揭示了根据本发明一实施例的相机标定用标定板;
图3a揭示了根据本发明一实施例的针孔相机的小孔成像模型图;
图3b揭示了根据本发明一实施例的针孔相机的相似三角形原理图;
图4揭示了根据本发明一实施例的Mask RCNN的系统流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实 施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅 用以解释发明,并不用于限定发明。
语义地图的概念,指的是一种包含丰富语义信息的地图,表示了对环境中 空间几何关系和存在的物体种类位置等语义信息的抽象。语义地图既包含环境 空间信息又包含环境语义信息的地图,这样移动机器人可以像人一样,既知道 环境中有物体也知道物体是什么。
针对现有技术中存在的问题与不足,本发明提出基于视觉SLAM与二维语 义分割的语义建图系统,使用基于ORB(Oriented FAST and Rotated BRIEF, 快速导向与简要旋转)特征点进行语义分割,结合稀疏SLAM算法模型,实现 定位的同时完成语义建图。
图1揭示了根据本发明一实施例的基于视觉SLAM与二维语义分割的语 义建图方法流程图,在图1所示的实施例中,本发明提出的基于视觉SLAM 与二维语义分割的语义建图方法,具体步骤如下:
S1、标定相机参数,校正相机畸变;
S2、获取图像帧序列,图像帧序列包括RGB图像和深度图像;
S3、图像预处理,采用针孔相机模型,得到RGB图像中每个像素点对应 的真实三维空间点的坐标;
S4、判断当前图像帧是否为关键帧,如果是,则转入步骤S6,如果不是, 则转入步骤S5;
S5、动态模糊补偿,计算得到当前图像帧的图像块质心作为语义特征点, 作为ORB特征点的补充;
S6、语义分割,针对图像帧进行ORB特征点的提取,利用Mask R-CNN 算法模型进行语义分割,获取该帧图像每一个像素点的语义信息;
S7、位姿计算,利用稀疏SLAM算法模型计算相机位姿;
S8、将语义信息输入到稀疏SLAM算法模型,辅助稠密语义地图构建, 完成关键帧的遍历,实现全局点云地图的三维语义建图。
下面对每一步骤进行详细的说明介绍。
步骤S1:标定相机参数、校正相机畸变。
在图像测量过程以及机器视觉应用中,为确定空间物体表面某点的三维几 何位置与其在图像中对应点之间的相互关系,必须建立相机成像的几何模型, 这些几何模型参数就是相机参数。
畸变系数属于其中一种相机参数,对应与相机畸变现象。在大多数条件下, 这些相机参数必须通过实验与计算才能得到,这个求解参数的过程就称之为相 机标定(或摄像机标定)。
相机畸变包括径向畸变和切向畸变。
所述径向畸变由透镜形状引起。
更具体的说,在针孔模型中,一条直线投影到像素平面上还是一条直线。
可是,在实际拍摄的照片中,摄像机的透镜往往使得真实环境中的一条直 线在图片中变成了曲线,这种畸变称为径向畸变。
所述切向畸变,在相机的组装过程中由于不能使得透镜和成像面严格平行 而形成。
由于光线投射导致实际对象物体跟投影到2D平面的图像不一致,这种不 一致性是稳定的,可以通过对相机标定,计算出畸变参数来实现对后续图像的 畸变校正。
对于径向畸变,用和距中心距离有关的二次及高次多项式函数进行纠正:
Figure BDA0002434029640000081
其中,[x,y]T是未纠正的点的坐标,[xcorrected,ycorrected]T为纠正后的点坐标,k1,k2,k3为相机的径向畸变系数,r为点P离坐标系原点的距离。
对于切向畸变可以使用另外的两个参数p1,p2来进行纠正:
Figure BDA0002434029640000082
其中,[x,y]T是未纠正的点的坐标,[xcorrected,ycorrected]T为纠正后的点坐标,p1,p2为相机的切向畸变系数,r为点P离坐标系原点的距离。
在相机使用前,通过标定相机的径向畸变系数和切向畸变系数,从二维 的图像中获取三维信息,实现图像的畸变校正、对象测量、三维重建等。
图2揭示了根据本发明一实施例的相机标定用标定板,将图2所示的标定 板摆在相机可视的范围内,每拍一张照片,标定板换一个位置和朝向,检测出 图象中的特征点,求出相机的内参数、外参数,进而得到畸变系数。
优选的,使用MATLAB中的Camera Calibrator(相机校正)工具箱进行 求解相机参数。
对于相机坐标系中的点P(X,Y,Z),本发明的步骤S1通过5个畸变系数进 行相机畸变校正,找到这个点在像素平面上的正确位置。
相机畸变的校正步骤如下:
S11、将三维空间点投影到归一化图像平面。设它的归一化坐标为[x,y]T
S12、对归一化平面上的点进行径向畸变和切向畸变纠正。
Figure BDA0002434029640000091
其中,[xcorrected,ycorrected]T是校正后的点坐标,p1,p2为相机的切向畸变系 数,k1,k2,k3为相机的径向畸变系数,r为点P离坐标系原点的距离。
S13、将纠正后的点[xcorrected,ycorrected]T通过内参数矩阵投影到像素平面,得到该点在图像上的正确位置坐标[u,v]T
Figure BDA0002434029640000092
其中,fx,fy,cx,cy为相机的内参数。
步骤S2、获取图像帧序列。
利用Kinect相机获取RGB-D图像帧序列,图像帧序列包括RGB图像和 深度图像。
步骤S3、图像预处理
在一实施例中,采用RGB-D相机作为主要传感器,同时获得RGB图像与 深度图像,采用针孔相机模型进行RGB图像的像素点到真实三维空间的映射。
图3a揭示了根据本发明一实施例的针孔相机的小孔成像模型图,图3b 揭示了根据本发明一实施例的针孔相机的相似三角形原理图,如图3a和图 3b所示,建立相机坐标系O-x-y-z,以相机的光心位置为坐标系原点O,约定 箭头方向为正向。
通过图3b所示的相似三角形的映射变换,在相机的成像平面上建立坐标 系O'-x'-y'-z',约定箭头方向为正向。
假设P点坐标是[X,Y,Z]T,相机镜片的焦距为f,焦距是相机光心到物理成 像平面的距离。
点P穿过光心投影到成像平面的点P’,像素点P’的坐标[u,v]T
根据相应的对应关系,映射关系对应着一个尺度的缩放以及平移的量,推 导可得:
Figure BDA0002434029640000093
其中,K称为相机内参数矩阵,为固有参数,在步骤S1中已经进行标定, fx,fy,cx,cy为相机的内参数,P为真实三维空间点坐标,[u,v]T为像素点坐标。
步骤S4、判断是否是关键帧,如果是,则转入步骤S6,如果不是,则转 入步骤S5;
如果采用每一帧图像来进行视觉SLAM和语义分割计算,计算量太大,因 此,选取其中质量高的作为关键帧。
本发明中,使用基于ORB(Oriented FAST and Rotated BRIEF,快速导向 与简要旋转)特征点的稀疏SLAM算法模型来筛选关键帧。
每一个关键帧,都包含一张RGB图像和一张深度图像。
步骤S5、动态模糊
由于每帧图像中均可能存在动态物体,每次执行语义建图任务时,指定某 几种目标为动态目标。在图像序列中,如果在该帧图像中识别出该动态目标, 则本发明在二维像素点到三维空间坐标转化时,对相应的点云进行剔除,防止 动态物体在地图中留下残影,影响建图质量。
本发明的步骤S5中,如果该帧图像不是关键帧,因为运动模糊,ORB特 征点提取不足,在步骤S6的图像语义分割步骤之前,进行如下操作作为补充:
该帧图像每一个物体标注为一个具体的类,对于每一个分割出来的对象有 对应标注区域,分割出来的图像称为图像块,计算图像块B的矩mpq
Figure BDA0002434029640000101
质心位置C为:
Figure BDA0002434029640000102
该质心作为语义特征点,对ORB特征点的不足进行补充。
针对ORB特征点损失严重的模糊图像进行语义特征点的补充,抑制跟踪 算法使用属于动态对象的匹配,进而综合筛选关键帧,进行相机位姿的估计, 防止建图算法将移动对象包括为3D地图的一部分。
步骤S6、语义分割
针对每一个图像帧进行ORB特征点的提取,利用Mask RCNN(Mask Region-CNN,掩膜区域卷积神经网络)算法模型进行语义分割,获取该帧图像 每一个像素点的语义信息。
基于语义分割结果,如果识别出动态目标,对于指定某种类别为动态物体 的区域所提取的ORB特征点进行剔除。
抑制视觉SLAM算法在建图过程中将移动对象包括为3D地图的一部分。
本发明的步骤S6中,Mask RCNN算法模型采用COCO数据集进行训练。
COCO的全称是Common Objects in COntext,是微软团队提供的一个可以 用来进行图像识别的数据集,可以获得80个类别的分类信息。
图4揭示了根据本发明一实施例的Mask RCNN的系统流程图,如图4 所示,基于Mask R-CNN算法模型实现图像帧的RGB图像语义分割,所述基 于Mask R-CNN算法模型的卷积神经网络框架,进行语义分割的步骤如下所 示:
通过FPN(Feature Pyramid Networks,特征图金字塔网络)提取输入图像 不同层次上的特征;
通过RPN(Region Proposal Network,区域生成网络)提出感兴趣提案;
利用RoI Align(Region of Interest Align,感兴趣区域排列)进行提案区域 对齐;
利用FCN(Fully Convolutional Networks,全卷积网络)进行掩膜分割;
利用FC(Fully Connected Layers,全连接层)进行区域坐标确定以及所 属类别分类。
该帧图像经过Mask RCNN算法模型处理,生成像素级别的语义分类结果, 即每一个像素点的语义分类标签,同时输出包围框坐标以及该分类的置信分 数。
本发明采用ORB特征点进行追踪、建图和位置识别任务,ORB特征点的 优点是具有旋转不变性和尺度不变性,并且能够迅速的提取特征和进行匹配, 能够满足实时操作的需求,能够在基于词袋的位置识别过程中,显示出良好的 精度。
S7位姿计算
视觉里程计位姿的估计是对于相邻两帧图像而言的,不难理解,多个这样 的帧间位姿估计累积就是相机的运动轨迹。
使用基于ORB(Oriented FAST and Rotated BRIEF,快速导向与简要旋转) 特征点的稀疏SLAM算法模型计算相机位姿。
在提取图像帧特征点后,基于关键帧使用PnP进行相机位姿的估计。
PnP为Perspective-n-Point(n点透视)的简称,是求解3D到2D点对的运 动的方法:即给出n个3D空间点及其投影位置时,如何求解相机的位姿。
假设在时刻k,相机的位置为xk,相机输入数据为uk,wk为噪声,构建运 动方程:
xk=f(xk-1,uk,wk)。
在xk位置上观测到路标点yj,产生一系列观测数据zk,j,vk,j为观测噪声, 构建观测方程:
zk,j=h(yj,xk,vk,j)。
本发明的步骤S7中,通过PnP问题求解可以初步计算相机位姿,进而利 用后端位姿图优化进一步计算更为精确的相机位姿。
本发明的步骤S7中,把相机位姿估计的PnP问题,构建成一个定义域李 代数上的非线性最小二乘问题。
更进一步的,本发明步骤S7的相机位姿估计,构建为一个BA(Bundle Adjustment,光束平差法)问题,构建相机位姿估计的最小化重投影误差:
Figure BDA0002434029640000121
其中,ui为像素坐标,Pi为相机坐标,ξ^为相机位姿对应的李代数,si为 特征点深度,K为相机内参数矩阵,n为点的个数。
更进一步的,本发明的步骤S7进一步包括,采用基于DBOW(Direct index Bag ofwords,词袋模型)嵌入式位置识别模型进行重定位,来防止跟踪失败、 或已知地图场景重初始化、回环检测等。
本发明中采用稀疏SLAM算法模型进行关键帧的筛选和相机位姿计算,所 述稀疏SLAM算法模型,是在ORB-SLAM2(Oriented FAST and Rotated BRIEF- SimultaneousLocalization and Mapping 2,第二代快速导向与简要旋转的即时定 位与地图构建)的基础上进行改进得到。
所述SLAM算法模型,由4个平行线程组成,包括跟踪线程、局部建图线 程、回环检测线程以及全局BA优化线程。
更进一步的,全局BA优化线程,仅在回环检测线程确认后才执行。
前三个线程为并行线程,定义分别如下:
1)跟踪线程。
通过寻找对局部地图特征进行匹配,利用纯运动BA最小化重投影误差进 行定位每帧图片的相机。
优选的,采用恒速模型进行匹配。
2)局部建图线程。
通过执行局部BA管理局部地图并优化,通过MapPoints(地图点)维护 关键帧之间的共视关系,通过局部BA优化共视关键帧位姿和MapPoints。
3)回环检测线程。
检测大的环并通过执行位姿图优化更正漂移误差,通过Bow加速闭环匹 配帧的筛选,并通过Sim3优化尺度,通过全局BA优化Essential Graph(本质 图)和MapPoints。所述Sim3变换就是相似变换。
回环检测线程触发全局BA优化线程。
全局BA线程,在位姿图优化之后,计算整个系统最优结构和运动结果。
与现有技术的稠密SLAM算法模型相比,在本发明的稀疏SLAM算法模 型,通过语义信息融合,在最终的建图过程中,增添了丰富的图像的语义分割 信息。
步骤S8、三维语义建图
利用步骤S6的语义分割结果,结合步骤S7获取的帧间位姿信息以及图像 帧像素点的真实三维坐标,将语义信息输入到稀疏SLAM算法模型,将该帧图 像中语义包含的同种物体,以相同标注颜色投射到三维点云地图中,辅助稠密 语义地图构建,完成关键帧的遍历,实现全局点云地图的三维语义建图。
本发明的步骤S8进一步包括:
S81、将第一帧关键帧生成的三维空间像素投影到一个初始点云中;
S82、通过针孔模型计算得到的当前关键帧每一个像素点对应的三维空间 坐标,生成一幅点云地图;
S83、计算得到当前关键帧与上一关键帧的位姿变化;
S84、两幅点云地图通过位姿变换矩阵进行三维坐标点的叠加融合,生成 一幅信息更多的点云地图;
S85、上述步骤不断迭代,当完成所有关键帧的遍历,实现全局点云地图 的构建。
下面结合具体的试验,对本发明的基于视觉SLAM与二维语义分割的无人 机语义建图方法的试验结果作进一步详细说明。
本次试验基于操作系统Ubuntu16.04和硬件显卡Nvidia Geforce GTX 1050,借助Tensorflow、OpenCV、g2o、Point Cloud Library等软件工具,以真 实场景为实验条件,利用Kinect V1相机实拍数据。
对于三维语义建图评估,Q1代表正确检测物品个数,Q2代表检测出物体 但是分类错误以及实际有物体但是没有检测出的数量,Q3代没有物体但是检测 出结果的数量,P代表三维物体正确检出率,计算方式下如所示:
P=Q1/(Q1+Q2+Q3)
通过9次构建稠密语义建图进行实验记录,计算地图中的平均三维物体正 确检出率为48.1086%,具体实验结果如下表所示:
表1
Figure BDA0002434029640000141
Figure BDA0002434029640000151
本发明提供的一种基于视觉SLAM与二维语义分割的语义建图方法,基于 ORB特征点的Mask R-CNN算法模型和稀疏SLAM算法模型,建立剔除动态 物体的稠密语义地图,利用帧间信息以及图像帧上的语义信息来提升无人机语 义建图系统性能,提升针对动态场景进行特征点的提取与匹配的鲁棒性。
尽管为使解释简单化将上述方法图示并描述为一系列动作,但是应理解并 领会,这些方法不受动作的次序所限,因为根据一个或多个实施例,一些动作 可按不同次序发生和/或与来自本文中图示和描述或本文中未图示和描述但本 领域技术人员可以理解的其他动作并发地发生。
如本申请和权利要求书中所示,除非上下文明确提示例外情形,“一”、“一 个”、“一种”和/或“该”等词并非特指单数,也可包括复数。一般说来,术语“包 括”与“包含”仅提示包括已明确标识的步骤和元素,而这些步骤和元素不构成 一个排它性的罗列,方法或者设备也可能包含其他的步骤或元素。
上述实施例是提供给熟悉本领域内的人员来实现或使用本发明的,熟悉本 领域的人员可在不脱离本发明的发明思想的情况下,对上述实施例做出种种修 改或变化,因而本发明的保护范围并不被上述实施例所限,而应该是符合权利 要求书提到的创新性特征的最大范围。

Claims (10)

1.一种基于视觉SLAM与二维语义分割的语义建图方法,其特征在于,包括以下步骤:
S1、标定相机参数,校正相机畸变;
S2、获取图像帧序列,图像帧序列包括RGB图像和深度图像;
S3、图像预处理,采用针孔相机模型,得到RGB图像中每个像素点对应的真实三维空间点的坐标;
S4、判断当前图像帧是否为关键帧,如果是,则转入步骤S6,如果不是,则转入步骤S5;
S5、动态模糊补偿,计算得到当前图像帧的图像块质心作为语义特征点,作为ORB特征点的补充;
S6、语义分割,针对图像帧进行ORB特征点的提取,利用掩膜区域卷积神经网络算法模型进行语义分割,获取该帧图像每一个像素点的语义信息;
S7、位姿计算,利用稀疏SLAM算法模型计算相机位姿;
S8、将语义信息输入到稀疏SLAM算法模型,辅助稠密语义地图构建,完成关键帧的遍历,实现全局点云地图的三维语义建图。
2.根据权利要求1所述的基于视觉SLAM与二维语义分割的语义建图方法,其特征在于,所述步骤S1中的校正相机畸变,进一步包括以下步骤:
S11、将相机坐标系的三维空间点P(X,Y,Z),投影到归一化图像平面形成该点的归一化坐标为[x,y]T
S12、对归一化平面上的点[x,y]T进行径向畸变和切向畸变校正,通过以下公式实现:
Figure FDA0002434029630000011
其中,[xcorrected,ycorrected]T是校正后的点坐标,p1,p2为相机的切向畸变系数,k1,k2,k3为相机的径向畸变系数,r为点P离坐标系原点的距离;
S13、将校正后的点[xcorrected,ycorrected]T通过内参数矩阵,投影到像素平面得到其在图像上的正确位置[u,v]T,通过以下公式实现:
Figure FDA0002434029630000021
其中,fx,fy,cx,cy为相机的内参数。
3.根据权利要求2所述的基于视觉SLAM与二维语义分割的语义建图方法,其特征在于,所述步骤S3的图像预处理,进一步包括,像素点[u,v]T到真实三维空间点P(X,Y,Z)的映射关系满足以下公式:
Figure FDA0002434029630000022
其中,K称为相机内参数矩阵,fx,fy,cx,cy为相机的内参数,P为真实三维空间点坐标,[u,v]T为像素点坐标。
4.根据权利要求1所述的基于视觉SLAM与二维语义分割的语义建图方法,其特征在于,所述步骤S4的关键帧,使用稀疏SLAM算法模型进行筛选。
5.根据权利要求1所述的基于视觉SLAM与二维语义分割的语义建图方法,其特征在于,所述步骤S5的图像块质心,通过以下步骤得到:
将该帧图像每一个物体标注为一个具体的类;
对于每一个分割出来的对象有对应标注区域,分割出来的图像称为图像块;
计算图像块的矩
Figure FDA0002434029630000023
p,q={0,1};
计算对应的质心C作为语义特征点,对ORB特征点进行补充,其中
Figure FDA0002434029630000024
6.根据权利要求1所述的基于视觉SLAM与二维语义分割的语义建图方法,其特征在于,所述步骤S6,进一步包括:
每一个像素点的语义信息包括语义分类标签、包围框坐标以及该分类的置信分数;
基于语义分割结果,对于指定某种类别为动态物体的区域所提取的ORB特征点进行剔除。
7.根据权利要求1所述的基于视觉SLAM与二维语义分割的语义建图方法,其特征在于,所述步骤S6的Mask R-CNN算法模型进行语义分割,进一步包括:
通过特征图金字塔网络提取输入图像不同层次上的特征;
通过区域生成网络提出感兴趣提案;
利用感兴趣区域排列进行提案区域对齐;
利用全卷积网络进行掩膜分割;
利用全连接层进行区域坐标确定和所述类别分类。
8.根据权利要求1或权利要求4所述的基于视觉SLAM与二维语义分割的语义建图方法,其特征在于,所述稀疏SLAM算法模型,进一步包括,跟踪线程、局部建图线程、回环检测线程:
所述跟踪线程,通过寻找对局部地图特征进行匹配,利用纯运动光束平差法最小化重投影误差进行定位每帧图片的相机;
所述局部建图线程,通过执行局部光束平差法管理局部地图并优化,通过地图点维护关键帧之间的共视关系,通过局部光束平差法优化共视关键帧位姿和地图点;
所述回环检测线程,检测大的环并通过执行位姿图优化更正漂移误差,加速闭环匹配帧的筛选,并优化尺度,通过全局光束平差法优化本质图和地图点。
9.根据权利要求1所述的基于视觉SLAM与二维语义分割的语义建图方法,其特征在于,所述稀疏SLAM算法模型,进一步包括全局光束平差法优化线程,在回环检测线程确认后触发,在位姿图优化之后,计算整个系统最优结构和运动结果。
10.根据权利要求1所述的基于视觉SLAM与二维语义分割的语义建图方法,其特征在于,所述步骤S7的位姿计算,进一步包括:通过PnP求解初步计算相机位姿,利用后端位姿图优化计算相机位姿,构建相机位姿估计的最小化重投影误差:
Figure FDA0002434029630000041
其中,ui为像素坐标,Pi为相机坐标,ξ^为相机位姿对应的李代数,si为特征点深度,K为相机内参数矩阵。
CN202010246158.2A 2020-03-31 2020-03-31 基于视觉slam与二维语义分割的语义建图方法 Active CN111462135B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010246158.2A CN111462135B (zh) 2020-03-31 2020-03-31 基于视觉slam与二维语义分割的语义建图方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010246158.2A CN111462135B (zh) 2020-03-31 2020-03-31 基于视觉slam与二维语义分割的语义建图方法

Publications (2)

Publication Number Publication Date
CN111462135A true CN111462135A (zh) 2020-07-28
CN111462135B CN111462135B (zh) 2023-04-21

Family

ID=71680957

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010246158.2A Active CN111462135B (zh) 2020-03-31 2020-03-31 基于视觉slam与二维语义分割的语义建图方法

Country Status (1)

Country Link
CN (1) CN111462135B (zh)

Cited By (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109559320A (zh) * 2018-09-18 2019-04-02 华东理工大学 基于空洞卷积深度神经网络实现视觉slam语义建图功能的方法及系统
CN111950561A (zh) * 2020-08-25 2020-11-17 桂林电子科技大学 一种基于语义分割的剔除语义slam动态点的方法
CN112017188A (zh) * 2020-09-09 2020-12-01 上海航天控制技术研究所 一种空间非合作目标语义识别与重构方法
CN112132893A (zh) * 2020-08-31 2020-12-25 同济人工智能研究院(苏州)有限公司 一种适用于室内动态环境的视觉slam方法
CN112183476A (zh) * 2020-10-28 2021-01-05 深圳市商汤科技有限公司 一种障碍检测方法、装置、电子设备以及存储介质
CN112258575A (zh) * 2020-10-13 2021-01-22 浙江大学 一种同步定位和地图构建中物体的快速识别方法
CN112308921A (zh) * 2020-11-09 2021-02-02 重庆大学 一种基于语义和几何的联合优化动态slam方法
CN112348868A (zh) * 2020-11-06 2021-02-09 养哇(南京)科技有限公司 一种通过检测和标定恢复单目slam尺度的方法及系统
CN112344922A (zh) * 2020-10-26 2021-02-09 中国科学院自动化研究所 单目视觉里程计定位方法及系统
CN112381841A (zh) * 2020-11-27 2021-02-19 广东电网有限责任公司肇庆供电局 一种动态场景下基于gms特征匹配的语义slam方法
CN112396595A (zh) * 2020-11-27 2021-02-23 广东电网有限责任公司肇庆供电局 一种动态环境下基于点线特征的语义slam方法
CN112446882A (zh) * 2020-10-28 2021-03-05 北京工业大学 一种动态场景下基于深度学习的鲁棒视觉slam方法
CN112465021A (zh) * 2020-11-27 2021-03-09 南京邮电大学 基于图像插帧法的位姿轨迹估计方法
CN112465858A (zh) * 2020-12-10 2021-03-09 武汉工程大学 基于概率网格滤波的语义视觉slam方法
CN112507056A (zh) * 2020-12-21 2021-03-16 华南理工大学 一种基于视觉语义信息的地图构建方法
CN112509051A (zh) * 2020-12-21 2021-03-16 华南理工大学 一种基于仿生学的自主移动平台环境感知与建图方法
CN112571415A (zh) * 2020-12-03 2021-03-30 哈尔滨工业大学(深圳) 一种基于视觉导引的机器人自主开门方法与系统
CN112734845A (zh) * 2021-01-08 2021-04-30 浙江大学 一种融合场景语义的室外单目同步建图与定位方法
CN112990195A (zh) * 2021-03-04 2021-06-18 佛山科学技术学院 一种面向复杂环境下融入语义信息的slam回环检测方法
CN112991436A (zh) * 2021-03-25 2021-06-18 中国科学技术大学 基于物体尺寸先验信息的单目视觉slam方法
CN113034584A (zh) * 2021-04-16 2021-06-25 广东工业大学 一种基于物体语义路标的移动机器人视觉定位方法
CN113192200A (zh) * 2021-04-26 2021-07-30 泰瑞数创科技(北京)有限公司 一种基于空三并行计算算法的城市实景三维模型的构建方法
CN113269831A (zh) * 2021-05-19 2021-08-17 北京能创科技有限公司 基于场景坐标回归网络的视觉重定位方法、系统、装置
CN113516692A (zh) * 2021-05-18 2021-10-19 上海汽车集团股份有限公司 一种多传感器融合的slam方法和装置
CN113537208A (zh) * 2021-05-18 2021-10-22 杭州电子科技大学 一种基于语义orb-slam技术的视觉定位方法及系统
CN113610763A (zh) * 2021-07-09 2021-11-05 北京航天计量测试技术研究所 一种振动环境下火箭发动机结构件位姿运动补偿方法
CN113628334A (zh) * 2021-07-16 2021-11-09 中国科学院深圳先进技术研究院 视觉slam方法、装置、终端设备及存储介质
CN113658257A (zh) * 2021-08-17 2021-11-16 广州文远知行科技有限公司 一种无人设备定位方法、装置、设备及存储介质
CN113674340A (zh) * 2021-07-05 2021-11-19 北京物资学院 一种基于路标点的双目视觉导航方法与装置
CN113674416A (zh) * 2021-08-26 2021-11-19 中国电子科技集团公司信息科学研究院 三维地图的构建方法、装置、电子设备及存储介质
CN113808251A (zh) * 2021-08-09 2021-12-17 杭州易现先进科技有限公司 一种基于语义分割的稠密重建的方法、系统、装置和介质
CN113903011A (zh) * 2021-10-26 2022-01-07 江苏大学 一种适用于室内停车场的语义地图构建及定位方法
WO2022021739A1 (zh) * 2020-07-30 2022-02-03 国网智能科技股份有限公司 一种语义智能变电站机器人仿人巡视作业方法及系统
CN114132360A (zh) * 2021-11-08 2022-03-04 卡斯柯信号有限公司 基于图像判别道岔状态的防挤岔方法、设备及存储介质
CN114202579A (zh) * 2021-11-01 2022-03-18 东北大学 一种面向动态场景的实时多体slam系统
CN114359493A (zh) * 2021-12-20 2022-04-15 中国船舶重工集团公司第七0九研究所 一种用于无人船生成三维语义地图的方法和系统
CN114488244A (zh) * 2022-02-16 2022-05-13 东南大学 基于语义vislam和gnss定位的穿戴式盲人辅助导航装置与方法
CN114529800A (zh) * 2022-01-12 2022-05-24 华南理工大学 一种旋翼无人机避障方法、系统、装置及介质
CN114550186A (zh) * 2022-04-21 2022-05-27 北京世纪好未来教育科技有限公司 文档图像的校正方法、装置、电子设备及存储介质
CN114581616A (zh) * 2022-01-28 2022-06-03 苏州大学 一种基于多任务特征提取网络的视觉惯性slam系统
CN114612525A (zh) * 2022-02-09 2022-06-10 浙江工业大学 基于网格分割与双地图耦合的机器人rgb-d slam方法
CN114627300A (zh) * 2020-12-11 2022-06-14 中国科学院深圳先进技术研究院 一种基于生成式对抗网络的终生语义slam系统和方法
CN114708321A (zh) * 2022-01-12 2022-07-05 北京航空航天大学 一种基于语义的相机位姿估计方法及系统
CN114972470A (zh) * 2022-07-22 2022-08-30 北京中科慧眼科技有限公司 基于双目视觉的路面环境获取方法和系统
CN115128628A (zh) * 2022-06-01 2022-09-30 北京理工大学 基于激光slam和单目视觉的道路栅格地图构建方法
CN115164918A (zh) * 2022-09-06 2022-10-11 联友智连科技有限公司 语义点云地图构建方法、装置及电子设备
CN115409910A (zh) * 2021-05-28 2022-11-29 阿里巴巴新加坡控股有限公司 一种语义地图构建方法、视觉定位方法及相关设备
CN115451939A (zh) * 2022-08-19 2022-12-09 中国人民解放军国防科技大学 基于检测分割的动态场景下的并行slam方法
CN115564731A (zh) * 2022-09-30 2023-01-03 华东理工大学 一种基于视觉反馈的可变形物体操纵方法及系统
WO2023015566A1 (zh) * 2021-08-13 2023-02-16 深圳市大疆创新科技有限公司 控制方法、控制装置、可移动平台及存储介质
CN115731385A (zh) * 2022-11-22 2023-03-03 中国电子科技南湖研究院 基于语义分割的图像特征提取方法、装置及slam系统
CN116128966A (zh) * 2023-02-28 2023-05-16 上海交通大学 一种基于环境物体的语义定位方法
CN116152697A (zh) * 2022-11-28 2023-05-23 湖南中登科技有限公司 一种混凝土结构裂缝的三维模型测量方法及相关装置
CN116339336A (zh) * 2023-03-29 2023-06-27 北京信息科技大学 电动农机集群协同作业方法、装置及系统
CN116342800A (zh) * 2023-02-21 2023-06-27 中国航天员科研训练中心 一种多模态位姿优化的语义三维重建方法及系统
CN116681755A (zh) * 2022-12-29 2023-09-01 广东美的白色家电技术创新中心有限公司 位姿预测方法和装置
CN116817887A (zh) * 2023-06-28 2023-09-29 哈尔滨师范大学 语义视觉slam地图构建方法、电子设备及存储介质
CN116977189A (zh) * 2022-04-15 2023-10-31 中国移动通信有限公司研究院 一种同步定位与建图方法、装置及存储介质
CN117392347A (zh) * 2023-10-13 2024-01-12 苏州煋海图科技有限公司 一种地图构建方法、装置、计算机设备及可读存储介质
CN117611762A (zh) * 2024-01-23 2024-02-27 常熟理工学院 一种多层级地图构建方法、系统及电子设备
CN118447320A (zh) * 2024-05-13 2024-08-06 华智清创(苏州)农业科技有限公司 基于深度学习的视觉多任务挂载式农业巡检方法与装置
CN118710609A (zh) * 2024-06-20 2024-09-27 广东省科学院智能制造研究所 基于视觉slam的胶囊内镜肠胃道定位方法
CN118887288A (zh) * 2024-07-16 2024-11-01 中山大学 一种基于地面分割网络的多特征室内视觉定位方法及系统
CN119066885A (zh) * 2024-11-04 2024-12-03 中国科学院长春光学精密机械与物理研究所 一种适用于光学建模的实测面形数据处理方法
CN119323772A (zh) * 2024-12-19 2025-01-17 杭州智元研究院有限公司 一种基于rgbd视觉分割算法的语义地图构建方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110097553A (zh) * 2019-04-10 2019-08-06 东南大学 基于即时定位建图与三维语义分割的语义建图系统
WO2019169540A1 (zh) * 2018-03-06 2019-09-12 斯坦德机器人(深圳)有限公司 紧耦合视觉slam的方法、终端及计算机可读存储介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019169540A1 (zh) * 2018-03-06 2019-09-12 斯坦德机器人(深圳)有限公司 紧耦合视觉slam的方法、终端及计算机可读存储介质
CN110097553A (zh) * 2019-04-10 2019-08-06 东南大学 基于即时定位建图与三维语义分割的语义建图系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
卞贤掌等: "基于语义分割的增强现实图像配准技术", 《电子技术与软件工程》 *
王廷银等: "基于北斗RDSS的核辐射监测应急通讯方法", 《计算机系统应用》 *

Cited By (89)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109559320A (zh) * 2018-09-18 2019-04-02 华东理工大学 基于空洞卷积深度神经网络实现视觉slam语义建图功能的方法及系统
CN109559320B (zh) * 2018-09-18 2022-11-18 华东理工大学 基于空洞卷积深度神经网络实现视觉slam语义建图功能的方法及系统
WO2022021739A1 (zh) * 2020-07-30 2022-02-03 国网智能科技股份有限公司 一种语义智能变电站机器人仿人巡视作业方法及系统
CN111950561A (zh) * 2020-08-25 2020-11-17 桂林电子科技大学 一种基于语义分割的剔除语义slam动态点的方法
CN112132893A (zh) * 2020-08-31 2020-12-25 同济人工智能研究院(苏州)有限公司 一种适用于室内动态环境的视觉slam方法
CN112132893B (zh) * 2020-08-31 2024-01-09 同济人工智能研究院(苏州)有限公司 一种适用于室内动态环境的视觉slam方法
CN112017188A (zh) * 2020-09-09 2020-12-01 上海航天控制技术研究所 一种空间非合作目标语义识别与重构方法
CN112017188B (zh) * 2020-09-09 2024-04-09 上海航天控制技术研究所 一种空间非合作目标语义识别与重构方法
CN112258575A (zh) * 2020-10-13 2021-01-22 浙江大学 一种同步定位和地图构建中物体的快速识别方法
CN112344922A (zh) * 2020-10-26 2021-02-09 中国科学院自动化研究所 单目视觉里程计定位方法及系统
CN112446882A (zh) * 2020-10-28 2021-03-05 北京工业大学 一种动态场景下基于深度学习的鲁棒视觉slam方法
CN112183476A (zh) * 2020-10-28 2021-01-05 深圳市商汤科技有限公司 一种障碍检测方法、装置、电子设备以及存储介质
CN112446882B (zh) * 2020-10-28 2025-01-10 北京工业大学 一种动态场景下基于深度学习的鲁棒视觉slam方法
CN112348868A (zh) * 2020-11-06 2021-02-09 养哇(南京)科技有限公司 一种通过检测和标定恢复单目slam尺度的方法及系统
CN112308921B (zh) * 2020-11-09 2024-01-12 重庆大学 一种基于语义和几何的联合优化动态slam方法
CN112308921A (zh) * 2020-11-09 2021-02-02 重庆大学 一种基于语义和几何的联合优化动态slam方法
CN112465021A (zh) * 2020-11-27 2021-03-09 南京邮电大学 基于图像插帧法的位姿轨迹估计方法
CN112381841A (zh) * 2020-11-27 2021-02-19 广东电网有限责任公司肇庆供电局 一种动态场景下基于gms特征匹配的语义slam方法
CN112396595A (zh) * 2020-11-27 2021-02-23 广东电网有限责任公司肇庆供电局 一种动态环境下基于点线特征的语义slam方法
CN112465021B (zh) * 2020-11-27 2022-08-05 南京邮电大学 基于图像插帧法的位姿轨迹估计方法
CN112396595B (zh) * 2020-11-27 2023-01-24 广东电网有限责任公司肇庆供电局 一种动态环境下基于点线特征的语义slam方法
CN112571415A (zh) * 2020-12-03 2021-03-30 哈尔滨工业大学(深圳) 一种基于视觉导引的机器人自主开门方法与系统
CN112571415B (zh) * 2020-12-03 2022-03-01 哈尔滨工业大学(深圳) 一种基于视觉导引的机器人自主开门方法与系统
CN112465858A (zh) * 2020-12-10 2021-03-09 武汉工程大学 基于概率网格滤波的语义视觉slam方法
CN114627300A (zh) * 2020-12-11 2022-06-14 中国科学院深圳先进技术研究院 一种基于生成式对抗网络的终生语义slam系统和方法
CN112509051A (zh) * 2020-12-21 2021-03-16 华南理工大学 一种基于仿生学的自主移动平台环境感知与建图方法
CN112507056A (zh) * 2020-12-21 2021-03-16 华南理工大学 一种基于视觉语义信息的地图构建方法
CN112734845A (zh) * 2021-01-08 2021-04-30 浙江大学 一种融合场景语义的室外单目同步建图与定位方法
CN112990195A (zh) * 2021-03-04 2021-06-18 佛山科学技术学院 一种面向复杂环境下融入语义信息的slam回环检测方法
CN112991436A (zh) * 2021-03-25 2021-06-18 中国科学技术大学 基于物体尺寸先验信息的单目视觉slam方法
CN112991436B (zh) * 2021-03-25 2022-09-06 中国科学技术大学 基于物体尺寸先验信息的单目视觉slam方法
CN113034584A (zh) * 2021-04-16 2021-06-25 广东工业大学 一种基于物体语义路标的移动机器人视觉定位方法
CN113192200A (zh) * 2021-04-26 2021-07-30 泰瑞数创科技(北京)有限公司 一种基于空三并行计算算法的城市实景三维模型的构建方法
CN113516692A (zh) * 2021-05-18 2021-10-19 上海汽车集团股份有限公司 一种多传感器融合的slam方法和装置
CN113537208B (zh) * 2021-05-18 2024-06-11 杭州电子科技大学 一种基于语义orb-slam技术的视觉定位方法及系统
CN113537208A (zh) * 2021-05-18 2021-10-22 杭州电子科技大学 一种基于语义orb-slam技术的视觉定位方法及系统
CN113269831A (zh) * 2021-05-19 2021-08-17 北京能创科技有限公司 基于场景坐标回归网络的视觉重定位方法、系统、装置
CN115409910A (zh) * 2021-05-28 2022-11-29 阿里巴巴新加坡控股有限公司 一种语义地图构建方法、视觉定位方法及相关设备
CN113674340A (zh) * 2021-07-05 2021-11-19 北京物资学院 一种基于路标点的双目视觉导航方法与装置
CN113610763A (zh) * 2021-07-09 2021-11-05 北京航天计量测试技术研究所 一种振动环境下火箭发动机结构件位姿运动补偿方法
CN113628334A (zh) * 2021-07-16 2021-11-09 中国科学院深圳先进技术研究院 视觉slam方法、装置、终端设备及存储介质
CN113628334B (zh) * 2021-07-16 2024-11-15 中国科学院深圳先进技术研究院 视觉slam方法、装置、终端设备及存储介质
CN113808251B (zh) * 2021-08-09 2024-04-12 杭州易现先进科技有限公司 一种基于语义分割的稠密重建的方法、系统、装置和介质
CN113808251A (zh) * 2021-08-09 2021-12-17 杭州易现先进科技有限公司 一种基于语义分割的稠密重建的方法、系统、装置和介质
WO2023015566A1 (zh) * 2021-08-13 2023-02-16 深圳市大疆创新科技有限公司 控制方法、控制装置、可移动平台及存储介质
CN113658257A (zh) * 2021-08-17 2021-11-16 广州文远知行科技有限公司 一种无人设备定位方法、装置、设备及存储介质
CN113674416B (zh) * 2021-08-26 2024-04-26 中国电子科技集团公司信息科学研究院 三维地图的构建方法、装置、电子设备及存储介质
CN113674416A (zh) * 2021-08-26 2021-11-19 中国电子科技集团公司信息科学研究院 三维地图的构建方法、装置、电子设备及存储介质
CN113903011B (zh) * 2021-10-26 2024-06-11 江苏大学 一种适用于室内停车场的语义地图构建及定位方法
CN113903011A (zh) * 2021-10-26 2022-01-07 江苏大学 一种适用于室内停车场的语义地图构建及定位方法
CN114202579A (zh) * 2021-11-01 2022-03-18 东北大学 一种面向动态场景的实时多体slam系统
CN114202579B (zh) * 2021-11-01 2024-07-16 东北大学 一种面向动态场景的实时多体slam系统
CN114132360A (zh) * 2021-11-08 2022-03-04 卡斯柯信号有限公司 基于图像判别道岔状态的防挤岔方法、设备及存储介质
CN114132360B (zh) * 2021-11-08 2023-09-08 卡斯柯信号有限公司 基于图像判别道岔状态的防挤岔方法、设备及存储介质
CN114359493A (zh) * 2021-12-20 2022-04-15 中国船舶重工集团公司第七0九研究所 一种用于无人船生成三维语义地图的方法和系统
CN114529800A (zh) * 2022-01-12 2022-05-24 华南理工大学 一种旋翼无人机避障方法、系统、装置及介质
CN114708321A (zh) * 2022-01-12 2022-07-05 北京航空航天大学 一种基于语义的相机位姿估计方法及系统
CN114581616A (zh) * 2022-01-28 2022-06-03 苏州大学 一种基于多任务特征提取网络的视觉惯性slam系统
CN114612525A (zh) * 2022-02-09 2022-06-10 浙江工业大学 基于网格分割与双地图耦合的机器人rgb-d slam方法
CN114612525B (zh) * 2022-02-09 2025-06-20 浙江工业大学 基于网格分割与双地图耦合的机器人rgb-d slam方法
CN114488244A (zh) * 2022-02-16 2022-05-13 东南大学 基于语义vislam和gnss定位的穿戴式盲人辅助导航装置与方法
CN116977189A (zh) * 2022-04-15 2023-10-31 中国移动通信有限公司研究院 一种同步定位与建图方法、装置及存储介质
CN114550186A (zh) * 2022-04-21 2022-05-27 北京世纪好未来教育科技有限公司 文档图像的校正方法、装置、电子设备及存储介质
CN115128628A (zh) * 2022-06-01 2022-09-30 北京理工大学 基于激光slam和单目视觉的道路栅格地图构建方法
CN114972470A (zh) * 2022-07-22 2022-08-30 北京中科慧眼科技有限公司 基于双目视觉的路面环境获取方法和系统
CN115451939B (zh) * 2022-08-19 2024-05-07 中国人民解放军国防科技大学 基于检测分割的动态场景下的并行slam方法
CN115451939A (zh) * 2022-08-19 2022-12-09 中国人民解放军国防科技大学 基于检测分割的动态场景下的并行slam方法
CN115164918A (zh) * 2022-09-06 2022-10-11 联友智连科技有限公司 语义点云地图构建方法、装置及电子设备
CN115564731A (zh) * 2022-09-30 2023-01-03 华东理工大学 一种基于视觉反馈的可变形物体操纵方法及系统
CN115731385A (zh) * 2022-11-22 2023-03-03 中国电子科技南湖研究院 基于语义分割的图像特征提取方法、装置及slam系统
CN116152697A (zh) * 2022-11-28 2023-05-23 湖南中登科技有限公司 一种混凝土结构裂缝的三维模型测量方法及相关装置
CN116681755A (zh) * 2022-12-29 2023-09-01 广东美的白色家电技术创新中心有限公司 位姿预测方法和装置
CN116681755B (zh) * 2022-12-29 2024-02-09 广东美的白色家电技术创新中心有限公司 位姿预测方法和装置
CN116342800A (zh) * 2023-02-21 2023-06-27 中国航天员科研训练中心 一种多模态位姿优化的语义三维重建方法及系统
CN116342800B (zh) * 2023-02-21 2023-10-24 中国航天员科研训练中心 一种多模态位姿优化的语义三维重建方法及系统
CN116128966A (zh) * 2023-02-28 2023-05-16 上海交通大学 一种基于环境物体的语义定位方法
CN116339336A (zh) * 2023-03-29 2023-06-27 北京信息科技大学 电动农机集群协同作业方法、装置及系统
CN116817887B (zh) * 2023-06-28 2024-03-08 哈尔滨师范大学 语义视觉slam地图构建方法、电子设备及存储介质
CN116817887A (zh) * 2023-06-28 2023-09-29 哈尔滨师范大学 语义视觉slam地图构建方法、电子设备及存储介质
CN117392347B (zh) * 2023-10-13 2024-04-30 苏州煋海图科技有限公司 一种地图构建方法、装置、计算机设备及可读存储介质
CN117392347A (zh) * 2023-10-13 2024-01-12 苏州煋海图科技有限公司 一种地图构建方法、装置、计算机设备及可读存储介质
CN117611762B (zh) * 2024-01-23 2024-04-30 常熟理工学院 一种多层级地图构建方法、系统及电子设备
CN117611762A (zh) * 2024-01-23 2024-02-27 常熟理工学院 一种多层级地图构建方法、系统及电子设备
CN118447320A (zh) * 2024-05-13 2024-08-06 华智清创(苏州)农业科技有限公司 基于深度学习的视觉多任务挂载式农业巡检方法与装置
CN118447320B (zh) * 2024-05-13 2024-09-27 华智清创(苏州)农业科技有限公司 基于深度学习的视觉多任务挂载式农业巡检方法与装置
CN118710609A (zh) * 2024-06-20 2024-09-27 广东省科学院智能制造研究所 基于视觉slam的胶囊内镜肠胃道定位方法
CN118887288A (zh) * 2024-07-16 2024-11-01 中山大学 一种基于地面分割网络的多特征室内视觉定位方法及系统
CN119066885A (zh) * 2024-11-04 2024-12-03 中国科学院长春光学精密机械与物理研究所 一种适用于光学建模的实测面形数据处理方法
CN119323772A (zh) * 2024-12-19 2025-01-17 杭州智元研究院有限公司 一种基于rgbd视觉分割算法的语义地图构建方法

Also Published As

Publication number Publication date
CN111462135B (zh) 2023-04-21

Similar Documents

Publication Publication Date Title
CN111462135B (zh) 基于视觉slam与二维语义分割的语义建图方法
CN109166149B (zh) 一种融合双目相机与imu的定位与三维线框结构重建方法与系统
CN110070615B (zh) 一种基于多相机协同的全景视觉slam方法
CN112902953B (zh) 一种基于slam技术的自主位姿测量方法
CN107292965B (zh) 一种基于深度图像数据流的虚实遮挡处理方法
CN113327296B (zh) 基于深度加权的激光雷达与相机在线联合标定方法
CN103247075B (zh) 基于变分机制的室内环境三维重建方法
Ma et al. CRLF: Automatic calibration and refinement based on line feature for LiDAR and camera in road scenes
CN107610175A (zh) 基于半直接法和滑动窗口优化的单目视觉slam算法
CN110097553A (zh) 基于即时定位建图与三维语义分割的语义建图系统
CN111724439A (zh) 一种动态场景下的视觉定位方法及装置
CN112085790A (zh) 点线结合的多相机视觉slam方法、设备及存储介质
CN111998862B (zh) 一种基于bnn的稠密双目slam方法
CN114140527A (zh) 一种基于语义分割的动态环境双目视觉slam方法
CN111882602B (zh) 基于orb特征点和gms匹配过滤器的视觉里程计实现方法
CN113744315B (zh) 一种基于双目视觉的半直接视觉里程计
CN111161334B (zh) 一种基于深度学习的语义地图构建方法
CN114332394B (zh) 一种基于语义信息辅助的动态场景三维重建方法
CN115187737A (zh) 一种基于激光与视觉融合的语义地图构建方法
CN113920191B (zh) 一种基于深度相机的6d数据集构建方法
US20240062415A1 (en) Terminal device localization method and related device therefor
CN110533716A (zh) 一种基于3d约束的语义slam系统及方法
CN117593650B (zh) 基于4d毫米波雷达与sam图像分割的动点滤除视觉slam方法
CN114419259B (zh) 一种基于物理模型成像仿真的视觉定位方法及系统
CN116128966A (zh) 一种基于环境物体的语义定位方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant