CN108550134B - 建图效果指标的确定方法和建图效果指标的确定装置 - Google Patents
建图效果指标的确定方法和建图效果指标的确定装置 Download PDFInfo
- Publication number
- CN108550134B CN108550134B CN201810179933.XA CN201810179933A CN108550134B CN 108550134 B CN108550134 B CN 108550134B CN 201810179933 A CN201810179933 A CN 201810179933A CN 108550134 B CN108550134 B CN 108550134B
- Authority
- CN
- China
- Prior art keywords
- map
- determining
- edge
- angular
- index
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Quality & Reliability (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明提供一种建图效果指标的确定方法,包括:获取通过激光传感器生成的地图;确定所述地图的棱边模糊度,和/或闭合区块数目,和/或角点数目,和/或角线比;根据所述棱边模糊度,和/或闭合区块数目,和/或角点数目,和/或角线比确定用于判断所述地图的建图效果的指标。根据本发明的实施例,由于棱边模糊度、闭合区块数目、角点数目和角线比这四项数据均可以根据生成的地图得到,也即可以由机器人在线实时运算得到,并且无需人工采集,也无需通过额外设备,据此确定用于判断地图的建图效果的指标,可以降低确定所述指标的操作复杂度,有利于控制成本。
Description
技术领域
本发明涉及机器人技术领域,具体而言,涉及建图效果指标的确定方法、建图效果指标的确定装置和计算机可读存储介质以及机器人。
背景技术
通过激光传感器生成地图,是目前实现机器人自动导航的基础。为了使得机器人能够准确地导航,就需要保证地图的建图效果,也即保证地图与实际环境尽可能相符。
相关技术中确定建图效果的方案主要有两种,其一是将激光扫描生成的地图与人工采集的真实平面图进行比较,根据两幅图像的相似度确定建图效果;其二是将激光扫描生成的地图中的路径与机器人行驶的真实路径进行比较,根据两个路径的相似度确定建图效果。
相关技术中的第一种方式需要人工参与,操作复杂度较高,第二种方式为了精确地确定机器人行驶的真实路径,所用设备成本较高,并且两种方式都不易实现机器人自身在线确定建图效果。
发明内容
有鉴于此,本发明提供建图效果指标的确定方法、建图效果指标的确定装置和计算机可读存储介质以及机器人,以解决相关技术中的不足。
根据本发明实施例的第一方面,提供一种建图效果指标的确定方法,包括:
获取通过激光传感器生成的地图;
确定所述地图的棱边模糊度,和/或闭合区块数目,和/或角点数目,和/或角线比;
根据所述棱边模糊度,和/或闭合区块数目,和/或角点数目,和/或角线比确定用于判断所述地图的建图效果的指标。
可选地,所述获取通过激光传感器生成的地图包括:
对所述激光传感器生成的地图进行滤波得到滤波地图。
可选地,所述确定所述地图的棱边模糊度包括:
计算所述滤波地图中像素的平均灰度值,根据所述平均灰度值和预设倍数确定灰度阈值;
根据所述像素的灰度值和所述灰度阈值的比值,确定所述像素中的第一类像素的数目和第二类像素的数目;
根据所述第一类像素数目和所述第二类像素数目确定所述棱边模糊度。
可选地,所述确定所述地图的闭合区块数目包括:
将所述滤波地图转换为二值图像;
根据所述二值图像确定所述地图中的闭合区块数目。
可选地,所述滤波地图是通过高斯滤波得到的,所述确定所述地图的角点数目包括:
对所述滤波地图进行拉普拉斯滤波得到深度滤波地图;
确定所述深度滤波地图中的角点数目。
可选地,所述确定所述地图的角线比包括:
对所述滤波地图进行边缘检测,确定所述地图中边线数目;
根据所述角点数目和所述边线数目确定所述角线比。
可选地,所述根据所述棱边模糊度,和/或闭合区块数目,和/或角点数目,和/或角线比确定用于判断所述地图的建图效果的指标包括:
确定所述棱边模糊度是否小于第一预设值,和/或所述闭合区块数目是否小于第二预设值,和/或所述角点数目是否小于第三预设值,和/或所述角线比是否大于第四预设值。
可选地,所述根据所述棱边模糊度,和/或闭合区块数目,和/或角点数目,和/或角线比确定用于判断所述地图的建图效果的指标包括:
在根据所述棱边模糊度、闭合区块数目、角点数目和角线比中至少两项数据确定用于判断所述地图的建图效果的指标时,计算所述至少两项数据中每项所述数据与对应的权值之积叠加求和的值;
确定上述求和的值是否小于第五预设值,其中,所述棱边模糊度、所述闭合区块数目、所述角点数目对应的权值正负相同,所述角线比对应的权值与所述角点数目对应的权值正负相反。
根据本发明实施例的第二方面,提供一种建图效果指标的确定装置,包括:
地图获取模块,用于获取通过激光传感器生成的地图;
指标确定模块,用于确定所述地图的棱边模糊度,和/或闭合区块数目,和/或角点数目,和/或角线比;
指标确定模块,用于根据所述棱边模糊度,和/或闭合区块数目,和/或角点数目,和/或角线比确定所述地图的建图效果是否达标。
可选地,所述地图获取模块包括:
第一滤波子模块,用于对所述激光传感器生成的地图进行滤波得到滤波地图。
可选地,所述指标确定模块包括:
阈值计算子模块,用于计算所述滤波地图中像素的平均灰度值,根据所述平均灰度值和预设倍数确定灰度阈值;
像素确定子模块,用于根据所述像素的灰度值和所述灰度阈值的比值,确定所述像素中的第一类像素的数目和第二类像素的数目;
模糊度确定子模块,用于根据所述第一类像素数目和所述第二类像素数目确定所述棱边模糊度。
可选地,所述指标确定模块包括:
二值转换子模块,用于将所述滤波地图转换为二值图像;
区块确定子模块,用于根据所述二值图像确定所述地图中的闭合区块数目。
可选地,所述滤波地图是通过高斯滤波得到的,所述指标确定模块包括:
第二滤波子模块,用于对所述滤波地图进行拉普拉斯滤波得到深度滤波地图;
角点确定子模块,用于确定所述深度滤波地图中的角点数目。
可选地,所述指标确定模块还包括:
边线确定子模块,用于对所述滤波地图进行边缘检测,确定所述地图中边线数目;
角线比确定子模块,用于根据所述角点数目和所述边线数目确定所述角线比。
可选地,所述指标确定模块用于确定所述棱边模糊度是否小于第一预设值,和/或所述闭合区块数目是否小于第二预设值,和/或所述角点数目是否小于第三预设值,和/或所述角线比是否大于第四预设值;若所述棱边模糊度小于第一预设值,和/或所述闭合区块数目小于第二预设值,和/或所述角点数目小于第三预设值,和/或所述角线比大于第四预设值,确定所述地图的建图效果达标。
可选地,所述指标确定模块在所述指标确定模块根据所述棱边模糊度、闭合区块数目、角点数目和角线比中至少两项数据确定用于判断所述地图的建图效果的指标时,计算所述至少两项数据中每项所述数据与对应的权值之积叠加求和的值;以及确定上述求和的值是否小于第五预设值,其中,所述棱边模糊度、所述闭合区块数目、所述角点数目对应的权值正负相同,所述角线比对应的权值与所述角点数目对应的权值正负相反。
根据本发明实施例的第三方面,提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时执行上述任一实施例所述的方法。
根据本发明实施例的第四方面,提供一种机器人,包括激光传感器,其中,所述激光传感器被配置为执行上述任一实施例所述的方法中的步骤。
根据本发明的实施例,由于棱边模糊度、闭合区块数目、角点数目和角线比这四项数据均可以根据生成的地图得到,也即可以由机器人在线实时运算得到,并且无需人工采集,也无需通过额外设备,据此确定用于判断地图的建图效果的指标,可以降低确定所述指标的操作复杂度,有利于控制成本。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本发明。
附图说明
图1是根据本发明的实施例示出的一种建图效果指标的确定方法的示意流程图。
图2是根据本发明的实施例示出的一种获取通过激光传感器生成的地图的示意流程图。
图3是根据本发明的实施例示出的一种确定所述地图的棱边模糊度的示意流程图。
图4是根据本发明的实施例示出的一种棱边的示意图。
图5是根据本发明的实施例示出的一种确定所述地图的闭合区块数目的示意流程图。
图6是根据本发明的实施例示出的一种闭合区块的示意图。
图7是根据本发明的实施例示出的一种确定所述地图的角点数目的示意流程图。
图8是根据本发明的实施例示出的一种闭合区块的示意图。
图9是根据本发明的实施例示出的一种确定所述地图的角线比的示意流程图。
图10是根据本发明的实施例示出的一种角线比的示意图。
图11是根据本发明的实施例示出的一种根据所述棱边模糊度,和/或闭合区块数目,和/或角点数目,和/或角线比确定用于判断所述地图的建图效果的指标的示意流程图。
图12是根据本发明的实施例示出的另一种根据所述棱边模糊度,和/或闭合区块数目,和/或角点数目,和/或角线比确定用于判断所述地图的建图效果的指标的示意流程图。
图13是根据本发明的实施例示出建图效果指标的确定装置所在机器人的一种硬件示意结构图。
图14是根据本发明的实施例示出的一种建图效果指标的确定装置的示意框图。
图15是根据本发明的实施例示出的一种地图获取模块的示意框图。
图16是根据本发明的实施例示出的一种指标确定模块的示意框图。
图17是根据本发明的实施例示出的另一种指标确定模块的示意框图。
图18是根据本发明的实施例示出的又一种指标确定模块的示意框图。
图19是根据本发明的实施例示出的又一种指标确定模块的示意框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数目字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本发明的一些方面相一致的装置和方法的例子。
在本发明使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本发明。在本发明和所附权利要求书中所使用的单数目形式的“一种”、“所述”和“该”也旨在包括多数目形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本发明可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本发明范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
图1是根据本发明的实施例示出的一种建图效果指标的确定方法的示意流程图。本实施例所示的建图效果指标的确定方法可以应用于机器人。如图1所示,所述建图效果指标的确定方法可以包括以下步骤:
步骤S1,获取通过激光传感器生成的地图。
在一个实施例中,激光传感器可以根据SLAM(simultaneous localization andmapping,即时定位与地图构建)生成地图。
在一个实施例中,地图可以从其他设备获取,机器人所处环境通过激光传感器生成的地图预存于服务器,机器人可以通过与服务器通信来获取通过激光传感器生成的地图。
在一个实施例中,地图可以由机器人自身生成,例如在机器人上设置有激光传感器,通过激光传感器发射激光以及接收环境中物体反射的激光,可以生成所述地图。以下实施例主要在机器人上设置有激光传感器的情况下进行示例性说明。
步骤S2,确定所述地图的棱边模糊度,和/或闭合区块数目,和/或角点数目,和/或角线比。
在一个实施例中,棱边模糊度是指地图中物体的棱和边线(简称棱边)的模糊程度,其中,棱边越细表示棱边越清晰,而棱边越粗表示棱边越模糊。理想情况下物体的棱边是一条线,而实际扫描过程中由于物体表面粗糙等原因,得到的棱边可能是一个面(例如一条粗线),从而导致地图中物体边线模糊,甚至存在交叠,建图效果降低。因此通过激光传感器生成的地图,若建图效果越好,那么物体的棱边越细,而建图效果越差,那么物体的棱边越粗,从而可以根据地图的棱边模糊度来确定用于判断地图的建图效果的指标,棱边模糊度越高,建图效果指标越低,也即建图效果越差,棱边模糊度越低,建图效果指标越高,也即建图效果越好。
在一个实施例中,闭合区块是指地图中由棱边围成的闭合区域。携带激光传感器的机器人在一片区域中通过自动导航多次运动可以生成多张地图,并将多张地图叠加作为最终该区域的地图。而理想情况下,每次记录的地图叠加得到的是一个闭合区块,但是在实际情况下,由于扫描过程中机器人的振动、误差等原因,可能导致机器人的自动导航发生偏移,从而导致针对一个区域扫描得到的地图中包含多个区块,而多个区块叠加得到的地图则是不清晰的,从而导致建图效果降低。因此可以根据地图中的闭合区块的数目来确定用于判断地图的建图效果的指标,闭合区块的数目越少,建图效果指标越高,也即建图效果越好,闭合区块的数目越多,建图效果指标越低,也即建图效果越差。
在一个实施例中,角点数目是指地图中物体棱边的拐角的顶点。理想情况下两条边相接仅会产生一个拐角,也即存在一个角点,但是由于物体表面平整度较低,可能导致在实际情况下,在物体表面检测到角点,这会导致检测到的角点数目过多,使得地图中物体边缘不规则,不利于后续针对地图进行处理,也即建图效果较差。因此可以根据地图中的角点的数目来确定用于判断地图的建图效果的指标,角点的数目越少,建图效果指标越高,也即建图效果越好,角点的数目越多,建图效果指标越低,也即建图效果越差。
在一个实施例中,角线比是指地图中角点数目和棱边数目的比值。理论而言,由于两点相连成一线,因此地图中的一条线对应两个角点,但是实际情况下,由于机器人针对某些物体未能完整地扫描,从而导致在地图中只存在该物体的边缘所对应的线,却不存在与该线对应的足够数目的角点,在这种情况下,角点数目和棱边数目的比就小于2/1,而角线比越大说明地图中存在越多未被完整扫描的物体,则建图效果越差。因此可以根据地图中的角线比来确定用于判断地图的建图效果的指标,角线比越大,建图效果指标越高,也即建图效果越好,角线比越小,建图效果指标越低,也即建图效果越差。
步骤S3,根据所述棱边模糊度,和/或闭合区块数目,和/或角点数目,和/或角线比确定所述地图的建图效果是否达标。
在一个实施例中,由于棱边模糊度、闭合区块数目、角点数目和角线比这四项数据均可以根据生成的地图得到,也即可以由机器人在线实时运算得到,并且无需人工采集,也无需通过额外设备,据此确定用于判断地图的建图效果的指标,可以降低确定所述指标的操作复杂度,有利于控制成本。
需要说明的是,本实施例可以根据需要选择上述四项数据中的任意一个来确定用于判断建图效果的指标,也可以根据其中两项或两项以上数据来确定用于判断建图效果的指标,而根据越多数据进行确定,确定的指标越准确,对于地图的建图效果的判断也就越准确。另外,本实施例在急需要确定角点数目,又需要确定角线比时,可以先确定角点数目,再确定角线比,以便根据先确定的角点数目来确定角线比,而在其他情况下,对于数据的确定则并没有顺序的限制,
图2是根据本发明的实施例示出的一种获取通过激光传感器生成的地图的示意流程图。如图2所示,在图1所示实施例的基础上,所述获取通过激光传感器生成的地图包括:
在步骤S101中,对所述激光传感器生成的地图进行滤波得到滤波地图。
在一个实施例中,通过对地图进行滤波(例如高斯滤波、拉普拉斯滤波),可以滤除地图中的噪声数目据,便于后续根据滤波地图来确定棱边模糊度、闭合区块数目、角线比等数据。
图3是根据本发明的实施例示出的一种确定所述地图的棱边模糊度的示意流程图。如图3所示,在图2所示实施例的基础上,所述确定所述地图的棱边模糊度包括:
步骤S201,计算所述滤波滤波地图中像素的平均灰度值,根据所述平均灰度值和预设倍数确定灰度阈值。
在一个实施例中,可以确定滤波地图中每个像素的灰度值,然后将所有像素的灰度值累积加和后除以像素数目即可得到平均灰度值。
其中,预设倍数可以根据需要进行设置,优选地,预设倍数可以是大于1且小于2的值,例如预设倍数可以为1.2。将平均灰度值乘以预设倍数即可得到灰度阈值。
步骤S202,根据所述像素的灰度值和所述灰度阈值的比值,确定所述像素中的第一类像素的数目和第二类像素的数目。
在一个实施例中,针对滤波图像中的每个像素,可以计算像素的灰度值和灰度阈值的比值,若比值大于1,可以确定该像素灰度较大,较大概率属于地图中的棱边,从而确定为第一类像素,若比值小于或等于1,可以确定该像素灰度较小,较大概率属于地图中的棱边以外的区域,从而确定为第二类像素。
步骤S203,根据所述第一类像素数目和所述第二类像素数目确定所述棱边模糊度。
在一个实施例中,可以计算第一类像素数目和第二类像素数目的比值,也即属于地图中棱边的像素数目和位于棱边以外的区域的像素数目的比值,该比值与用于判断地图的建图效果的指标反相关。其中,若该比值较大,例如大于或等于第一预设值,可以确定所述地图较为模糊,不满足建图效果,若该比值较小,例如小于第一预设值,可以确定所述地图比较清晰,满足建图效果。
图4是根据本发明的实施例示出的一种棱边的示意图。
如图4所示,黑色区域为棱边,白色区域为棱边以外的区域,灰色区域为被遮挡区域,不在考虑范围内。可见,左图中黑色区域的像素数目与白色区域的像素数目比值较大,那么棱边模糊度较大,而右图中黑色区域的像素数目与白色区域的像素数目比值较小,那么棱边模糊度较小,因此根据本发明的实施例进行计算,可以确定出左图中用于判断地图的建图效果的指标较低,而右图中用于判断地图的建图效果的指标较高,也即右图相对于左图更可能满足对于建图效果的要求。
图5是根据本发明的实施例示出的一种确定所述地图的闭合区块数目的示意流程图。如图5所示,在图2所示实施例的基础上,所述确定所述地图的闭合区块数目包括:
步骤S205,将所述滤波地图转换为二值图像。
在一个实施例中,可以通过Ostu方法将滤波滤波地图转换为二值图像。通过生成二值图像,便于后续根据二值图像进行运算来确定所述地图中的闭合区块数目。
步骤S206,根据所述二值图像确定所述地图中的闭合区块数目。
在一个实施例中,可以通过Suzuki方法计算二值图像中的闭合区块数目,作为所述地图中的闭合区块数目。
在一个实施例中,机器人在一片区域中通过自动导航多次运动可以生成多张地图,并将多张地图叠加作为最终该区域的地图,而理想情况下,每次记录的地图叠加得到的是一个闭合区块。
然而实际情况下,由于机器人在自动导航过程中可以因为受到碰撞等原因而导致导航路径发生偏移,从而使得机器人每次运动生成的地图在坐标系中位置不同,从而使得叠加得到的地图可能存在多个闭合区块,而当闭合区块数目越多,叠加得到的地图越不清晰,则用于判断地图的建图效果的指标越低。
因此,通过确定地图中闭合区块的数目,闭合区块的数目与用于判断地图的建图效果的指标反相关。其中,若该数目较大,例如大于或等于第二预设值,可以确定所述地图是在机器人行驶不稳定的情况下得到的,不满足建图效果,若该数目较小,例如小于第二预设值,可以确定所述地图是在机器人行驶较为稳定的情况下得到的,满足建图效果。
图6是根据本发明的实施例示出的一种闭合区块的示意图。
如图6所示,地图由两个主要的闭合区块叠加而成,根据本发明的实施例可以确定出地图中的区块数目为2,而若第二预设值为2,那么图中闭合区块的数目并不小于第二预设值,从而可以确定所述地图不满足建图效果。
图7是根据本发明的实施例示出的一种确定所述地图的角点数目的示意流程图。如图7所示,在图2所示实施例的基础上,所述滤波地图是通过高斯滤波得到的,所述确定所述地图的角点数目包括:
步骤S207,对所述滤波地图进行拉普拉斯滤波得到深度滤波地图;
步骤S208,确定所述深度滤波地图中的角点数目。
在一个实施例中,由于初始生成的地图噪声数据很多,因此地图中角点数目极多,统计角点的计算量极大。通过高斯滤波和拉普拉斯滤波两步滤波操作,可以在很大程度上滤除初始生成的地图中的噪声数据,便于后续确定角点数目。
在一个实施例中,理想情况下的角点主要出现在物体棱边的拐角处,但是实际环境中由于物体表面平整度较低,在物体表面可能存在棱边的拐角,从而导致在物体表面检测到角点,这会导致检测到的角点数目过多,使得地图中物体边缘不规则,不利于后续针对地图进行处理,也即用于判断地图的建图效果的指标较低。
因此,通过确定深度滤波地图中的角点数目,角点数目与用于判断地图的建图效果的指标反相关。其中,若该数目较大,例如大于或等于第三预设值,可以确定地图不满足建图效果,若该数目较小,例如小于第三预设值,可以确定地图满足建图效果。
图8是根据本发明的实施例示出的一种闭合区块的示意图。
如图8所示,除了在地图中的物体(例如墙体)的拐角处确定出角点,在拐角和拐角之间的区域也确定出了角点,并且在部分拐角集中的区域,确定出了远多于拐角数目的角点,这显然是不合理的。根据本发明的实施例可以确定出深度滤波地图中的角点数目,例如为40,而若第三预设值为30,那么图中闭合区块的数目大于第三预设值,从而可以确定所述地图不满足建图效果。
图9是根据本发明的实施例示出的一种确定所述地图的角线比的示意流程图。如图9所示,在图7所示实施例的基础上,所述确定所述地图的角线比包括:
步骤S209,对所述滤波地图进行边缘检测,确定所述地图中边线数目;
步骤S210,根据所述角点数目和所述边线数目确定所述角线比。
在一个实施例中,理论而言,由于两点相连成一线,因此地图中的一条线对应两个角点,但是实际情况下,由于机器人针对某些物体未能完整地扫描,从而导致在地图中只存在该物体的边缘所对应的线,却不存在与该线对应的足够数目的角点,在这种情况下,角线比(也即角点和线的比)较低,用于判断地图的建图效果的指标较低。
因此,通过确定地图中的角线比,角线比与用于判断地图的建图效果的指标正相关。其中,若该角线比较大,例如大于第四预设值,可以确定所述地图满足建图效果,若角线比较小,例如小于或等于第四预设值,可以确定所述地图不满足建图效果。
图10是根据本发明的实施例示出的一种角线比的示意图。
如图10所示,地图中包含较多不与角点相连的边,根据本发明的实施例,若确定出地图中角线比为8/5,而第四预设值为17/10,也即角线比的比值小于第四预设值,从而可以确定所述地图不满足建图效果。
图11是根据本发明的实施例示出的一种根据所述棱边模糊度,和/或闭合区块数目,和/或角点数目,和/或角线比确定用于判断所述地图的建图效果的指标的示意流程图。如图11所示,在图1所示实施例的基础上,所述根据所述棱边模糊度,和/或闭合区块数目,和/或角点数目,和/或角线比确定用于判断所述地图的建图效果的指标包括:
步骤S301,确定所述棱边模糊度是否小于第一预设值,和/或所述闭合区块数目是否小于第二预设值,和/或所述角点数目是否小于第三预设值,和/或所述角线比是否大于第四预设值。
在一个实施例中,在确定了地图的棱边模糊度、和/或闭合区块数目、和/或角点数目、和/或角线比之后,可以将所述棱边模糊度与第一预设值比较,和/或将所述闭合区块数目与第二预设值比较,和/或将所述角点数目与第三预设值比较,和/或将所述角线比与第四预设值比较。其中,可以在所述棱边模糊度小于第一预设值,和/或所述闭合区块数目小于第二预设值,和/或所述角点数目小于第三预设值,和/或所述角线比大于第四预设值的情况下,确定所述地图的建图效果达标。
需要说明的是,第一预设值、第二预设值、第三预设值和第四预设值可以根据需要进行设置,例如针对每个地图而言,第一预设值可以设置为不同的值,也可以设置为相同的值。
在选择上述一项参数来确定用于判断地图的建图效果的指标时,可以将所选择的参数作为该指标,并根据所选择的参数来判断地图的建图效果。例如可以根据棱边模糊度这一项数据来确定用于判断地图的建图效果的指标,那么可以将棱边模糊度作为该指标,在根据该指标确定建图效果时,只需将棱边模糊度与第一预设值比较,并在棱边模糊度小于第一预设值时,确定所述地图的建图效果达标。
在选择上述至少两项参数来确定用于判断地图的建图效果的指标时,需要将所选择的至少两项参数综合作为该指标,并根据所选择的每项参数来判断地图的建图效果。例如可以根据其中棱边模糊度和角点数目这两项数据来确定建图效果是否达标,那么需要将棱边模糊度和角点数目综合起来作为该指标,在根据该指标确定建图效果时,需要将棱边模糊度与第一预设值比较,并将角点数目与第三预设值比较,在棱边模糊度小于第一预设值,且角点数目小于第三预设值的情况下,可以确定所述地图的建图效果达标。
图12是根据本发明的实施例示出的另一种根据所述棱边模糊度,和/或闭合区块数目,和/或角点数目,和/或角线比确定用于判断所述地图的建图效果的指标的示意流程图。如图12所示,在图1所示实施例的基础上,所述根据所述棱边模糊度,和/或闭合区块数目,和/或角点数目,和/或角线比确定用于判断所述地图的建图效果的指标包括:
步骤S302,在根据所述棱边模糊度、闭合区块数目、角点数目和角线比中至少两项数据确定用于判断所述地图的建图效果的指标时,计算所述至少两项数据中每项所述数据与对应的权值之积叠加求和的值;
步骤S303,确定上述求和的值是否小于第五预设值,其中,所述棱边模糊度、所述闭合区块数目、所述角点数目对应的权值正负相同,所述角线比对应的权值与所述角点数目对应的权值正负相反。
在一个实施例中,可以根据需要从上述四项数据选择至少两项数据来确定用于判断地图的建图效果的指标。在这种情况下,可以对所选择的每项数据加权求和,将求和得到的值作为判断地图的建图效果的指标,根据求和得到的值与第五预设值的比较结果,即可确定地图的简图效果是否达标。
其中,由于角线比与用于判断地图的建图效果的指标正相关,而棱边模糊度、闭合区块数目、角点数目与用于判断地图的建图效果的指标反相关,因此当所选择的数据中存在角线比时,角线比的权值与其他数据的权值正负相反,例如其他数据的权值为正数,那么角线比的权值为负数。
根据加和得到的值与第五预设值的大小关系来确定建图效果是否达标。
与前述建图效果指标的确定方法的实施例相对应,本发明还提供了建图效果指标的确定装置的实施例。
本发明建图效果指标的确定装置的实施例可以应用在机器人上。装置实施例可以通过软件实现,也可以通过硬件或者软硬件结合的方式实现。以软件实现为例,作为一个逻辑意义上的装置,是通过其所在建图效果确定的处理器将非易失性存储器中对应的计算机程序指令读取到内存中运行形成的。从硬件层面而言,如图13所示,为本发明建图效果指标的确定装置所在机器人的一种硬件示意结构图,除了图13所示的处理器、内存、网络接口、以及非易失性存储器之外,实施例中装置所在的机器人通常根据自身的实际功能,还可以包括其他硬件,对此不再赘述。
图14是根据本发明的实施例示出的一种建图效果指标的确定装置的示意框图。本实施例所示的建图效果指标的确定装置可以应用于机器人,在所述机器人上可以设置有激光传感器。如图14所示,所述建图效果指标的确定装置可以包括:
地图获取模块1,用于获取通过激光传感器生成的地图;
指标确定模块2,用于确定所述地图的棱边模糊度,和/或闭合区块数目,和/或角点数目,和/或角线比;
指标确定模块3,用于根据所述棱边模糊度,和/或闭合区块数目,和/或角点数目,和/或角线比确定用于判断所述地图的建图效果的指标。
图15是根据本发明的实施例示出的一种地图获取模块的示意框图。如图15所示,在图14所示实施例的基础上,所述地图获取模块包括:
第一滤波子模块101,用于对所述激光传感器生成的地图进行滤波得到滤波地图。
图16是根据本发明的实施例示出的一种指标确定模块的示意框图。如图16所示,在图15所示实施例的基础上,所述指标确定模块2包括:
阈值计算子模块201,用于计算所述滤波地图中像素的平均灰度值,根据所述平均灰度值和预设倍数确定灰度阈值;
像素确定子模块202,用于根据所述像素的灰度值和所述灰度阈值的比值,确定所述像素中的第一类像素的数目和第二类像素的数目;
模糊度确定子模块203,用于根据所述第一类像素数目和所述第二类像素数目确定所述棱边模糊度。
图17是根据本发明的实施例示出的另一种指标确定模块的示意框图。如图17所示,在图15所示实施例的基础上,所述指标确定模块2包括:
二值转换子模块204,用于将所述滤波地图转换为二值图像;
区块确定子模块205,用于根据所述二值图像确定所述地图中的闭合区块数目。
图18是根据本发明的实施例示出的又一种指标确定模块的示意框图。如图18所示,在图15所示实施例的基础上,所述滤波地图是通过高斯滤波得到的,所述指标确定模块2包括:
第二滤波子模块206,用于对所述滤波地图进行拉普拉斯滤波得到深度滤波地图;
角点确定子模块207,用于确定所述深度滤波地图中的角点数目。
图19是根据本发明的实施例示出的又一种指标确定模块的示意框图。如图19所示,在图18所示实施例的基础上,所述指标确定模块2还包括:
边线确定子模块208,用于对所述滤波地图进行边缘检测,确定所述地图中边线数目;
角线比确定子模块209,用于根据所述角点数目和所述边线数目确定所述角线比。
在一个实施例中,所述指标确定模块用于确定所述棱边模糊度是否小于第一预设值,和/或所述闭合区块数目是否小于第二预设值,和/或所述角点数目是否小于第三预设值,和/或所述角线比是否大于第四预设值。
在一个实施例中,所述指标确定模块用于在所述指标确定模块根据所述棱边模糊度、闭合区块数目、角点数目和角线比中至少两项数据确定用于判断所述地图的建图效果的指标的情况下,计算所述至少两项数据中每项所述数据与对应的权值之积叠加求和的值;以及确定上述求和的值是否小于第五预设值,其中,所述棱边模糊度、所述闭合区块数目、所述角点数目对应的权值正负相同,所述角线比对应的权值与所述角点数目对应的权值正负相反。
本发明的实施例还提出了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时执行上述任一实施例所述的建图效果指标的确定方法。
本发明的实施例还提出了一种机器人,包括激光传感器,其中,所述激光传感器被配置为执行上述任一实施例所述的方法中的步骤。
上述装置中各个模块的功能和作用的实现过程具体详见上述方法中对应步骤的实现过程,在此不再赘述。
对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络模块上。可以根据实际的需要选择其中的部分或者全部模块来实现本发明方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。
Claims (10)
1.一种激光建图效果指标的确定方法,其特征在于,包括:
获取通过激光传感器生成的地图;
确定所述地图的棱边模糊度,和/或闭合区块数目,和/或角点数目,和/或角线比;
根据所述棱边模糊度,和/或闭合区块数目,和/或角点数目,和/或角线比确定用于判断所述地图的建图效果的指标;
其中,所述棱边模糊度是指地图中物体的棱边的模糊程度,棱边越细表示棱边越清晰,而棱边越粗表示棱边越模糊;
闭合区块是指地图中由棱边围成的闭合区域;
角点是指地图中物体棱边的拐角的顶点;
角线比是指地图中角点数目和棱边数目的比值。
2.根据权利要求1所述的方法,其特征在于,所述获取通过激光传感器生成的地图包括:
对所述激光传感器生成的地图进行滤波得到滤波地图。
3.根据权利要求2所述的方法,其特征在于,所述确定所述地图的棱边模糊度包括:
计算所述滤波地图中像素的平均灰度值,根据所述平均灰度值和预设倍数确定灰度阈值;
根据所述像素的灰度值和所述灰度阈值的比值,确定所述像素中的第一类像素的数目和第二类像素的数目;
根据所述第一类像素数目和所述第二类像素数目确定所述棱边模糊度。
4.根据权利要求2所述的方法,其特征在于,所述确定所述地图的闭合区块数目包括:
将所述滤波地图转换为二值图像;
根据所述二值图像确定所述地图中的闭合区块数目。
5.根据权利要求2所述的方法,其特征在于,所述滤波地图是通过高斯滤波得到的,所述确定所述地图的角点数目包括:
对所述滤波地图进行拉普拉斯滤波得到深度滤波地图;
确定所述深度滤波地图中的角点数目。
6.根据权利要求5所述的方法,其特征在于,所述确定所述地图的角线比包括:
对所述滤波地图进行边缘检测,确定所述地图中边线数目;
根据所述角点数目和所述边线数目确定所述角线比。
7.根据权利要求1至6中任一项所述的方法,其特征在于,所述根据所述棱边模糊度,和/或闭合区块数目,和/或角点数目,和/或角线比确定用于判断所述地图的建图效果的指标包括:
确定所述棱边模糊度是否小于第一预设值,和/或所述闭合区块数目是否小于第二预设值,和/或所述角点数目是否小于第三预设值,和/或所述角线比是否大于第四预设值。
8.根据权利要求1至6中任一项所述的方法,其特征在于,所述根据所述棱边模糊度,和/或闭合区块数目,和/或角点数目,和/或角线比确定用于判断所述地图的建图效果的指标包括:
在根据所述棱边模糊度、闭合区块数目、角点数目和角线比中至少两项数据确定用于判断所述地图的建图效果的指标时,计算所述至少两项数据中每项所述数据与对应的权值之积叠加求和的值;
确定上述求和的值是否小于第五预设值;其中,所述棱边模糊度、所述闭合区块数目、所述角点数目对应的权值正负相同,所述角线比对应的权值与所述角点数目对应的权值正负相反。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时执行所述权利要求1至8中任一项所述的方法。
10.一种机器人,其特征在于,包括激光传感器,其中,所述激光传感器被配置为执行权利要求1至8中任一项所述的方法中的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810179933.XA CN108550134B (zh) | 2018-03-05 | 2018-03-05 | 建图效果指标的确定方法和建图效果指标的确定装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810179933.XA CN108550134B (zh) | 2018-03-05 | 2018-03-05 | 建图效果指标的确定方法和建图效果指标的确定装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108550134A CN108550134A (zh) | 2018-09-18 |
CN108550134B true CN108550134B (zh) | 2020-05-05 |
Family
ID=63516281
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810179933.XA Active CN108550134B (zh) | 2018-03-05 | 2018-03-05 | 建图效果指标的确定方法和建图效果指标的确定装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108550134B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110148147B (zh) * | 2018-11-07 | 2024-02-09 | 腾讯大地通途(北京)科技有限公司 | 图像检测方法、装置、存储介质和电子装置 |
CN109949414A (zh) * | 2019-01-31 | 2019-06-28 | 顺丰科技有限公司 | 室内地图的构建方法及装置 |
CN111256712B (zh) * | 2020-02-24 | 2021-10-29 | 深圳市优必选科技股份有限公司 | 地图优化方法、装置及机器人 |
CN114170348A (zh) * | 2021-12-13 | 2022-03-11 | 上海景吾智能科技有限公司 | 二维栅格地图评价方法和系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1539120A (zh) * | 2001-06-20 | 2004-10-20 | ���ڹɷ�����˾ | 三维电子地图数据的生成方法 |
CN105783913A (zh) * | 2016-03-08 | 2016-07-20 | 中山大学 | 一种融合车载多传感器的slam装置及其控制方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6762768B2 (en) * | 1998-06-01 | 2004-07-13 | Ati Technologies, Inc. | Method and apparatus for rendering an object using texture variant information |
US7145478B2 (en) * | 2002-12-17 | 2006-12-05 | Evolution Robotics, Inc. | Systems and methods for controlling a density of visual landmarks in a visual simultaneous localization and mapping system |
DE10258870B4 (de) * | 2002-12-17 | 2005-04-07 | Henkel Kgaa | Grossvolumige Reinigungsmittelformkörper |
WO2009157516A1 (ja) * | 2008-06-25 | 2009-12-30 | 株式会社ブリヂストン | タイヤ摩耗推定方法及びタイヤ摩耗推定装置 |
CN103279949B (zh) * | 2013-05-09 | 2015-10-07 | 浙江大学 | 基于自定位机器人的多相机参数自动标定系统运行方法 |
CN103247040B (zh) * | 2013-05-13 | 2015-11-25 | 北京工业大学 | 基于分层拓扑结构的多机器人系统地图拼接方法 |
DE102014201238A1 (de) * | 2014-01-23 | 2015-07-23 | Siemens Aktiengesellschaft | Verfahren und System zur Erstellung einer Vektorkarte |
CN104062973B (zh) * | 2014-06-23 | 2016-08-24 | 西北工业大学 | 一种基于图像标志物识别的移动机器人slam方法 |
DE102015212296A1 (de) * | 2015-07-01 | 2017-01-05 | Robert Bosch Gmbh | Verfahren zum Ermitteln einer Nutzbreite eines Straßenabschnitts |
US20170161546A1 (en) * | 2015-12-08 | 2017-06-08 | Mitsubishi Electric Research Laboratories, Inc. | Method and System for Detecting and Tracking Objects and SLAM with Hierarchical Feature Grouping |
CN105892461B (zh) * | 2016-04-13 | 2018-12-04 | 上海物景智能科技有限公司 | 一种机器人所处环境与地图的匹配识别方法及系统 |
US20170302910A1 (en) * | 2016-04-19 | 2017-10-19 | Motorola Mobility Llc | Method and apparatus for merging depth maps in a depth camera system |
CN107248176B (zh) * | 2017-06-30 | 2020-06-23 | 联想(北京)有限公司 | 室内地图构建方法及电子设备 |
CN107689075B (zh) * | 2017-08-30 | 2019-02-19 | 北京三快在线科技有限公司 | 导航地图的生成方法、装置及机器人 |
-
2018
- 2018-03-05 CN CN201810179933.XA patent/CN108550134B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1539120A (zh) * | 2001-06-20 | 2004-10-20 | ���ڹɷ�����˾ | 三维电子地图数据的生成方法 |
CN105783913A (zh) * | 2016-03-08 | 2016-07-20 | 中山大学 | 一种融合车载多传感器的slam装置及其控制方法 |
Non-Patent Citations (1)
Title |
---|
Robotic Mapping in the Real World: Performance Evaluation and System Integration;Andreas Birk等;《School of Engineering and Science》;20120731;第3-188页 * |
Also Published As
Publication number | Publication date |
---|---|
CN108550134A (zh) | 2018-09-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Kang et al. | Automatic targetless camera–lidar calibration by aligning edge with gaussian mixture model | |
CN108550134B (zh) | 建图效果指标的确定方法和建图效果指标的确定装置 | |
CN106950985B (zh) | 一种自动送货方法及装置 | |
CN109118542B (zh) | 激光雷达与相机之间的标定方法、装置、设备及存储介质 | |
JP4409035B2 (ja) | 画像処理装置、特異箇所検出方法、及び特異箇所検出プログラムを記録した記録媒体 | |
US5978504A (en) | Fast planar segmentation of range data for mobile robots | |
EP3070430B1 (en) | Moving body position estimation device and moving body position estimation method | |
Henson et al. | Attitude-trajectory estimation for forward-looking multibeam sonar based on acoustic image registration | |
CN111080662A (zh) | 车道线的提取方法、装置及计算机设备 | |
CN112097732A (zh) | 一种基于双目相机的三维测距方法、系统、设备及可读存储介质 | |
CN112171675B (zh) | 一种移动机器人的避障方法、装置、机器人及存储介质 | |
CN112967345B (zh) | 鱼眼相机的外参标定方法、装置以及系统 | |
EP3293700A1 (en) | 3d reconstruction for vehicle | |
CN110764110B (zh) | 路径导航方法、装置及计算机可读存储介质 | |
US6272237B1 (en) | Image processing apparatus | |
CN112381026A (zh) | 航道岸线检测方法、系统、装置和存储介质 | |
CN113567550A (zh) | 地面材质检测方法、装置、电子设备、芯片和存储介质 | |
CN112581541B (zh) | 参数的评估方法、装置和电子设备 | |
CN112396611B (zh) | 一种点线视觉里程计自适应优化方法、装置及存储介质 | |
CN113052940B (zh) | 一种基于声呐的时空关联地图实时构建方法 | |
CN116358528A (zh) | 地图更新方法、地图更新装置、自移动设备及存储介质 | |
CN115164897A (zh) | 点云数据的确定方法、装置及其相关设备和存储介质 | |
Giorgini et al. | Floorplan generation of indoor environments from large-scale terrestrial laser scanner data | |
CN107562050B (zh) | 一种机器人识别环境的方法及系统 | |
CN112561927A (zh) | 图像区域划分方法、系统、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |