CN113203419A - 基于神经网络的室内巡检机器人校正定位方法 - Google Patents
基于神经网络的室内巡检机器人校正定位方法 Download PDFInfo
- Publication number
- CN113203419A CN113203419A CN202110448691.1A CN202110448691A CN113203419A CN 113203419 A CN113203419 A CN 113203419A CN 202110448691 A CN202110448691 A CN 202110448691A CN 113203419 A CN113203419 A CN 113203419A
- Authority
- CN
- China
- Prior art keywords
- robot
- time
- path
- neural network
- follows
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 48
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 43
- 238000007689 inspection Methods 0.000 title claims abstract description 38
- 238000012937 correction Methods 0.000 title claims abstract description 9
- 230000033001 locomotion Effects 0.000 claims abstract description 10
- 230000014509 gene expression Effects 0.000 claims description 36
- 210000002569 neuron Anatomy 0.000 claims description 16
- 230000008569 process Effects 0.000 claims description 15
- 238000012549 training Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 8
- 238000006073 displacement reaction Methods 0.000 claims description 6
- 230000008859 change Effects 0.000 claims description 5
- 230000005284 excitation Effects 0.000 claims description 4
- 238000009826 distribution Methods 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 238000003062 neural network model Methods 0.000 claims description 3
- 230000009467 reduction Effects 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000004807 localization Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 230000009977 dual effect Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 229910000831 Steel Inorganic materials 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000003638 chemical reducing agent Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000000272 proprioceptive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 239000010959 steel Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0272—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/028—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/20—Control system inputs
- G05D1/22—Command input arrangements
- G05D1/221—Remote-control arrangements
- G05D1/227—Handing over between remote control and on-board control; Handing over between remote control arrangements
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/20—Control system inputs
- G05D1/24—Arrangements for determining position or orientation
- G05D1/247—Arrangements for determining position or orientation using signals provided by artificial sources external to the vehicle, e.g. navigation beacons
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/60—Intended control result
- G05D1/644—Optimisation of travel parameters, e.g. of energy consumption, journey time or distance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04B—TRANSMISSION
- H04B17/00—Monitoring; Testing
- H04B17/30—Monitoring; Testing of propagation channels
- H04B17/309—Measuring or estimating channel quality parameters
- H04B17/318—Received signal strength
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Game Theory and Decision Science (AREA)
- Medical Informatics (AREA)
- Business, Economics & Management (AREA)
- Quality & Reliability (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Probability & Statistics with Applications (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Feedback Control In General (AREA)
Abstract
本发明涉及一种基于神经网络的室内巡检机器人校正定位方法。包括如下步骤:预设N个可发射射频信号的标签信号源位置;根据不同时刻接收到的信号标签数量计算机器人实际路径;计算机器人在t时刻的运动位置信息,并根据该位置信息计算t时刻的预测路径;利用神经网络建立里程误差模型并进行训练;将t时刻的预测路径输入到训练好的里程误差模型得到优化后的预测路径。本发明所使用的里程计校正方法,通过最大限度地减小里程计误差,进而最大限度地提高对室内机器人定位的精准度。
Description
技术领域
本发明涉及巡检机器人领域,特别涉及基于神经网络的室内巡检机器人校正定位方法。
背景技术
当前安全生产是企业稳定发展的前提和重要保证,安全事故不仅会造成人员伤亡,还会带来财产损失,严重制约着企业快速健康的发展,尤其是在核电站、钢铁厂、化工厂、油库、变电站等危险作业环境下,保障各个设备仪器安全平稳的运行,是企业安全生产的有效手段,定时、不间断的巡检工作是十分有必要的。目前,在变电站、油库等危险作业环境下,主要的巡检方式是人工巡检,依靠工人运动感官、抄表、记录以及使用一些相配套的检测仪器对工厂的仪器设备进行检查,但是这种人工巡检方式,由于各种外界因素的影响,导致其巡检质量难以得到保证,并且巡检效率很低。为了提高巡检工作效率,保证各个仪器设备安全可靠运行,使用自动巡检机器人部分替代人工巡检工作已经成为一种趋势。
然而在工厂中由于各种原因导致巡检机器人的定位成为难点,在如今普遍应用视觉的基础上,里程计作为机器人本体感受传感器,不可避免地存在随时间、距离增加而增加地累计航机误差,现有技术针对室内巡检机器人采用的里程计定位方法,由于受室内复杂环境因素条件的影响,以及系统和非系统因素的影响,造成了里程计在计算时会产生较大的误差。
发明内容
针对现有技术存在的上述问题,本发明要解决的技术问题是:现有技术中室内巡检机器人所采用的里程计定位方法,在室内环境因素较为复杂的条件下,里程计会产生较大误差的问题。
为解决上述技术问题,本发明采用如下技术方案:基于神经网络的室内巡检机器人校正定位方法,包括如下步骤:
S100:在室内预设N个标签信号源位置,该标签信号源可发射射频信号;
S200:将用于接受标签信号源信号的读写器设置在室内机器人上,机器人在室内行进过程中,根据读写器在不同时刻接收到的信号标签数量,计算机器人实际路径,具体步骤如下:
S210:根据接收到的标签信号强度,建立对数-常态分布传播损耗模型,具体表达式如下:
P(d)=P(d0)-10αlog(d/d0)-Xσ (2-1)
其中,P(d)表示阅读器接收到标签发送的信号强度,P(d0)表示阅读器在参考点d0接受到标签发送的信号强度,α表示路径长度和路径损耗之间的比例因子,Xσ表示平均值为0的高斯分布随机变数,d0表示参考点和标签之间的距离,d表示需要计算的标签和阅读器之间的距离;
S220:利用公式(2-1)通过等式变换求得标签信号源到读写器的距离d,具体表达式如下:
其中,P(d0)表示在1m处所得到的信号强度,α表示信号传播常量;
S230:在一定时间区间T内,随机选取I个时刻,设第t个时刻读写器接收到的标签信号数量为n,则计算第t时刻机器人的实际坐标点为:
其中,
S240:利用I个时刻的机器人坐标进行建模,计算得到机器人的实际路径,具体表达式如下:
RSSI={RSSIx,RSSIy}={x1′,x2′,...,xn′,y1′,y2′,...,yn′} (2-4)
其中,RSSI={RSSIx,RSSIy}表示机器人的实际路径,RSSIx和RSSIy表示通过射频识别定位计算得到的x坐标位置和y坐标位置;
S250:采用S210-S240的方法得到I个时刻的机器人运行的实际路径;
S300:计算所述的第t个时刻计算机器人运动的位置信息,机器人位置信息计算表达式如下:
其中,ut=(ΔDt,Δθt)T表示位姿增量,St=(xt,yt,θt)表示机器人t时刻的姿态,(x,y)表示t时刻机器人的坐标,θ表示t时刻的方向角,ΔDt是机器人在Δt时间内运动所经过的弧长,Δθt是机器人Δt时间内的位姿方向角的变化;
S400:应用广义线性模型处理步骤S300得到的机器人t时刻的位置信息,计算得到机器人t时刻的预测路径,具体表达式如下:
GLM={x1,x2,...,xn,y1,y2,...,yn} (4-1)
其中,x1...n是广义线性模型估计的预测路径的x坐标位置,y1...n是广义线性模型估计的预测路径的y坐标位置,得到每个时刻所对应的预测路径;
S500:利用神经网络建立里程误差模型,具体表达式如下:
E=∑n|O-RSSI|2 (5-1)
其中,O表示优化后的预测路径;
S600:预设最大迭代次数,将所述I个时刻的实际路径和对应的预测路径作为神经网络模型输入,对误差模型E进行训练,训练过程中通过反向传播更新该模型参数,当E≤e-5时候停止训练,得到训练好的里程误差模型;
S700:重复步骤S300-S400,得到待预测机器人R’的预测行进路径,将该预测行进路径输入到步骤S600训练好的里程误差模型得到优化后的预测行进路径,该优化后的预测行进路径即为机器人R’的行进路径预测值。
作为优选,所述S230中计算第t时刻机器人的实际坐标点的具体步骤如下:
S231:设装有读写巡检机器人R的坐标为(x,y),n个标签信号源的坐标分别为(x1,y1)、(x2,y2)、(x3,y3)、…、(xn,yn),具体表达式如下:
其中,d1、d2、d3、…、dn表示标签信号源到巡检机器人R的距离;
S232:将公式(2-4)代入到公式(2-5)中,得到表达式如下:
将公式(2-6)用线性方程表示为:
AX=b (2-7)
其中:
S233:使用标准的最小二乘估计方法处理公式(2-7),得到如下表达式:
得到巡检机器人在读取到n个标签时的预测坐标为:
S234:计算巡检机器人在读取到n个标签时的实际坐标,实际坐标的具体表达式如下:
S235:将公式(2-7)代入公式(2-11)得到公式(2-3),公式(2-3)即第t时刻机器人的实际坐标点。
在某一个时刻,当机器人上的射频读写器获得不同的标签信号数量时,一般会使用不同的定位算法,这样可以更准确的采集到机器人运行的实际路径;一般情况下,当获得两个及其以下的标签信号时,采用概率定位法,当获得三个标签信号时使用三边定位法,当获得四个及其以上的标签信号时,则使用极大似然定位法。根据不同数量采用不同的定位算法,可以有效的减小因输入数据量不同而带来的误差影响。
作为优选,所述S300中计算机器人运动的位置信息的具体步骤为:
S310:计算理论上的里程计分辨率为:
其中,δ表示里程计的分辨率,D表示车轮直径(mm),η表示驱动电动机的减速比,P表示编码器的精度;
S320:设采样间隔时间Δt,计算左(右)车轮的增量位移ΔdL(ΔdR),具体表达式如下:
ΔdL=δ·NL (3-3)
其中,NL(NR)表示左(右)驱动车轮的光电编码器输出的脉冲增量;
S330:通过车轮的增量位移计算机器人的位姿增量,具体表达式如下:
其中,β表示左驱动车轮与右驱动车轮之间的间距;
S340:当机器人终止位姿和起始位姿的方向角的差值|Δθt|>0时,计算得到机器人的位置信息。
作为优选,所述500中建立里程误差模型E的具体步骤为:
S510:设神经网络结构中输入层有q个神经元,隐含层有l个神经元,输出层有m个神经元;输入层与隐含层神经元之间的连接权重值为wij,隐含层和输出层神经元之间的连接权重值为wjk,隐含层偏置项为a,输出层偏置项为b;
S520:将GLM作为神经网络的输入,得到隐含层的输出结果为:
其中,pi代表输入GLM坐标点(xn-1,yn-1)与(xn,yn)的坐标向量,f表示激励函数,i={1,2,……,q},j={1,2,……,1};
神经网络输出层的结果为:
S530:将t时刻的神经网络输出层的结果和该时刻的实际路径作为损失函数的输入,以此建立里程误差模型E。
该部分主要通过神经网络构建里程误差模型,神经网络的过程主要分为两个阶段:第一阶段是信号的前向传播,从输入层经过隐含层,最后到达输出层;第二阶段是误差的反向传播,神经网络利用输出后的误差来估计输出层的直接前导层的误差,再用这个误差估计更前一层的误差,如此一层一层的反传下去,实现获得所有神经网络层的误差估计,并最终通过损失函数E依次得到神经网络的各个参数。
相对于现有技术,本发明至少具有如下优点:
1.本发明基于神经网络的室内巡检机器人里程计校正方法最大限度地减小里程计误差,从而最大限度地提高定位精度。
2.神经网络方法的主要优点是它可以适用于任何里程计模型和高速工作幻境,另一个优点是该方法与平台无关,在建模之前不需要配置里程计误差变量。
3.本发明适用于一般室内环境中的地图绘制等任务,在复杂的环境中也能很好的工作。
附图说明
图1为射频识别室内定位技术定位算法流程图。
图2为BP神经网络结构图。
图3-a为机器人在线性运动中机器人实际路径、广义线性模型处理的预测路径、神经网络训练中的优化路径1与神经网络训练后的优化路径2对比图。
图3-b为机器人在非线性运动中机器人实际路径、广义线性模型处理的预测路径、神经网络训练中的优化路径1与神经网络训练后的优化路径2对比图。
具体实施方式
下面对本发明作进一步详细说明。
由于环境复杂的因素,巡检机器人的定位是一个急需攻克的研究难点,在如今普遍应用视觉的基础上,里程计具有自包含的优点,它能够依据运动学模型来自我推测机器人的航机,在短距离、短时间内能获得较好的定位性能。所以可以通过优化里程计误差达到机器人的精确定位,而射频识别的室内定位技术具有无须人工干预,抗干扰性强的特点,可工作于各种恶劣环境,所以此方法将作为室内巡检机器人里程计优化的辅助定位设备。
参见图1,基于神经网络的室内巡检机器人校正定位方法,包括如下步骤:
S100:在室内预设N个标签信号源位置,该标签信号源可发射射频信号;
S200:将用于接受标签信号源信号的读写器设置在室内机器人上,机器人在室内行进过程中,根据读写器在不同时刻接收到的信号标签数量,计算机器人实际路径,具体步骤如下:
S210:根据接收到的标签信号强度,建立对数-常态分布传播损耗模型,每个标签发出的信号强度都是一个定值,但是当阅读器与标签的间距不同时,接受标签发送的信号强度也就不一样。这种强度的衰减,称为信号的传播损耗,利用理论和经验传播损耗模型,可将传输损耗转化为距离,具体表达式如下:
P(d)=P(d0)-10αlog(d/d0)-Xσ (2-1)
其中,P(d)表示阅读器接收到标签发送的信号强度,P(d0)表示阅读器在参考点d0接受到标签发送的信号强度,所有标签的初始发送信号强度相同;α表示路径长度和路径损耗之间的比例因子,依赖于障碍物的结构和使用的材料;Xσ表示平均值为0的高斯分布随机变数,也就是信号穿过障碍物的衰减;d0表示参考点和标签之间的距离,d表示需要计算的标签和阅读器之间的距离;
S220:利用公式(2-1)通过等式变换求得标签信号源到读写器的距离d,具体表达式如下:
其中,P(d0)表示在1m处所得到的信号强度,α表示信号传播常量;由式(2-2)可以看出常数P(d。)和α的数值决定了接收信号强度和信号传输距离的关系,当使用环境确定后,它们都可以当作常量;
S230:在一定时间区间T内,随机选取I个时刻,设第t个时刻读写器接收到的标签信号数量为n,则计算第t时刻机器人的实际坐标点为:
其中,
其中,E、K、M、N表示计算过程参数,无实际意义。
具体实施时,计算第t时刻机器人的实际坐标点的具体步骤如下:
S231:设装有读写巡检机器人R的坐标为(x,y),n个标签信号源的坐标分别为(x1,y1)、(x2,y2)、(x3,y3)、…、(xn,yn),具体表达式如下:
其中,d1、d2、d3、…、dn表示标签信号源到巡检机器人R的距离;
S232:将公式(2-4)代入到公式(2-5)中,得到表达式如下:
将公式(2-6)用线性方程表示为:
AX=b (2-7)
其中:
S233:使用标准的最小二乘估计方法处理公式(2-7),得到如下表达式:
得到巡检机器人在读取到n个标签时的预测坐标为:
S234:计算巡检机器人在读取到n个标签时的实际坐标,实际坐标的具体表达式如下:
其中,t表示第t时刻,表示t-1时刻到t时刻的时间均值;因为机器人在实时行走的,而传感器获得无线信号和定位程序计算机器人位置需要有个Δt时间,所以在t时刻计算出来的位置实际上是t-1时刻传感器获得的信息计算出来的坐标(xt-1,yt-1),但实际上t时刻机器人的位置坐标是(xt,yt),所以在Δt时间内,机器人行走的距离就为移动机器人实时定位的定位误差;
在实际定位中,传感器所获得的定位信息存在一定波动,这种信号的变化主要是因为所处环境不同所导致的,为了减少无线信号波动带来的误差,采用在单位时间内取已获得的信号强度平均值的方法来提高精度,如下式:
S235:将公式(2-7)代入公式(2-11)得到公式(2-3),公式(2-3)即第t时刻机器人的实际坐标点;
S240:利用I个时刻的机器人坐标进行建模,计算得到机器人的实际路径,具体表达式如下:
RSSI={RSSIx,RSSIy}={x1′,x2′,...,xn′,y1′,y2′,...,yn′} (2-4)
其中,RSSI={RSSIx,RSSIy}表示机器人的实际路径,该实际路径是根据射频定位技术得到的坐标点再经过建模得到的,是神经网络的目标集;RSSIx和RSSIy表示通过射频识别定位计算得到的x坐标位置和y坐标位置;
S250:采用S210-S240的方法得到1个时刻的机器人运行的实际路径;
S300:计算所述的第t个时刻计算机器人运动的位置信息,机器人位置信息计算表达式如下:
其中,ut=(ΔDt,Δθt)T表示位姿增量,St=(xt,yt,θt)表示机器人t时刻的姿态,(x,y)表示t时刻机器人的坐标,θ表示t时刻的方向角,ΔDt是机器人在Δt时间内运动所经过的弧长,Δθt是机器人Δt时间内的位姿方向角的变化;
具体实施时,计算机器人运动的位置信息的具体步骤为:
S310:采用360PPR的增量式光电编码器,具有相差为90°的双路脉冲输出,可以通过双路脉冲的相位变化来判断车轮的旋转方向。光电编码器安装在驱动电动机的轴伸上,直接测量电动机的转动。电动机通过15倍的减速器驱动车轮,这意味着车轮旋转一周,电动机将旋转15周,采用车轮直径为250mm,计算理论上的里程计分辨率为:
其中,δ表示里程计的分辨率,D表示车轮直径(mm),η表示驱动电动机的减速比,P表示编码器的精度;
S320:设采样间隔时间Δt,计算左(右)车轮的增量位移ΔdL(ΔdR),具体表达式如下:
ΔdL=δ·NL (3-3)
其中,NL(NR)表示左(右)驱动车轮的光电编码器输出的脉冲增量;
S330:机器人从t-1时刻的姿态St-1=(xt-1,yt-1,θt-1)运动到t时刻的St=(xt,yt,θt),通过车轮的增量位移计算机器人的位姿增量,具体表达式如下:
其中,β表示左驱动车轮与右驱动车轮之间的间距;
S340:当机器人终止位姿和起始位姿的方向角的差值|Δθt|>0时,计算得到机器人的位置信息。
S400:应用广义线性模型处理步骤S300得到的机器人t时刻的位置信息,计算得到机器人t时刻的预测路径,具体表达式如下:
GLM={x1,x2,...,xn,y1,y2,...,yn} (4-1)
其中,x1...n是广义线性模型估计的预测路径的x坐标位置,y1...n是广义线性模型估计的预测路径的y坐标位置,得到每个时刻所对应的预测路径;
S500:利用神经网络,神经网络为现有技术,建立里程误差模型,具体表达式如下:
E=∑n|O-RSSI|2 (5-1)
其中,O表示优化后的预测路径,即预测路径经过神经网络训练后,得到的优化输出结果;
参见图2,具体实施时,建立里程误差模型E的具体步骤为:
S510:设神经网络结构中输入层有q个神经元,隐含层有l个神经元,输出层有m个神经元;输入层与隐含层神经元之间的连接权重值为wij,隐含层和输出层神经元之间的连接权重值为wjk,隐含层偏置项为a,输出层偏置项为b;
S520:将GLM作为神经网络的输入,得到隐含层的输出结果为:
其中,pi代表输入GLM坐标点(xn-1,yn-1)与(xn,yn)的坐标向量,f表示激励函数,i={1,2,……,q},j={1,2,……,1},本实例中的激励函数为sigmoid函数,具体表示为:
因为神经网络的隐含层节点数对最终得到的结果有一定影响,故给出隐含层节点数量的优化公式:
其中l表示隐含层中的神经元个数,对于本实例,隐含层节点数l=13会有最佳的性能;
神经网络输出层的结果为:
S530:将t时刻的神经网络输出层的结果和该时刻的实际路径作为损失函数的输入,以此建立里程误差模型E。
S600:预设最大迭代次数,将所述I个时刻的实际路径和对应的预测路径作为神经网络模型输入,对误差模型E进行训练,训练过程中通过反向传播更新该模型参数,当E≤e-5时候停止训练,得到训练好的里程误差模型;机器人的里程计误差模型是非线性的,神经网络作为一种非线性建模工具被广泛认可,将两层前馈神经网络应用于机器人里程误差模型,采用反向传播算法对这两层进行感知训练;反向传播的工作原理是将下降规则应用于前馈网络,并用于优化网络参数。
S700:重复步骤S300-S400,得到待预测机器人R’的预测行进路径,将该预测行进路径输入到步骤S600训练好的里程误差模型得到优化后的预测行进路径,该优化后的预测行进路径即为机器人R’的行进路径预测值。
根据以上实施例可知,通过与广义线性模型处理得到的预测路径对比,参见图3-a和图3-b所示,可以发现用神经网络方法估计机器人的最终位置与用射频识别定位计算机器人的实际位置几乎相同,故通过神经网络对于室内巡检机器人里程计的校正方法能够最大限度地减小里程计误差。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。
Claims (4)
1.基于神经网络的室内巡检机器人校正定位方法,其特征在于:包括如下步骤:
S100:在室内预设N个标签信号源位置,该标签信号源可发射射频信号;
S200:将用于接受标签信号源信号的读写器设置在室内机器人上,机器人在室内行进过程中,根据读写器在不同时刻接收到的信号标签数量,计算机器人实际路径,具体步骤如下:
S210:根据接收到的标签信号强度,建立对数-常态分布传播损耗模型,具体表达式如下:
P(d)=P(d0)-10αlog(d/d0)-Xσ (2-1)
其中,P(d)表示阅读器接收到标签发送的信号强度,P(d0)表示阅读器在参考点d0接受到标签发送的信号强度,α表示路径长度和路径损耗之间的比例因子,Xσ表示平均值为0的高斯分布随机变数,d0表示参考点和标签之间的距离,d表示需要计算的标签和阅读器之间的距离;
S220:利用公式(2-1)通过等式变换求得标签信号源到读写器的距离d,具体表达式如下:
其中,P(d0)表示在1m处所得到的信号强度,α表示信号传播常量;
S230:在一定时间区间T内,随机选取I个时刻,设第t个时刻读写器接收到的标签信号数量为n,则计算第t时刻机器人的实际坐标点为:
其中,
S240:利用I个时刻的机器人坐标进行建模,计算得到机器人的实际路径,具体表达式如下:
RSSI={RSSIx,RSSIy}={x1′,x2′,...,xn′,y1′,y2′,...,yn′} (2-4)
其中,RSSI={RSSIx,RSSIy}表示机器人的实际路径,RSSIx和RSSIy表示通过射频识别定位计算得到的x坐标位置和y坐标位置;
S250:采用S210-S240的方法得到I个时刻的机器人运行的实际路径;
S300:计算所述的第t个时刻计算机器人运动的位置信息,机器人位置信息计算表达式如下:
其中,ut=(ΔDt,Δθt)T表示位姿增量,St=(xt,yt,θt)表示机器人t时刻的姿态,(x,y)表示t时刻机器人的坐标,θ表示t时刻的方向角,ΔDt是机器人在Δt时间内运动所经过的弧长,Δθt是机器人Δt时间内的位姿方向角的变化;
S400:应用广义线性模型处理步骤S300得到的机器人t时刻的位置信息,计算得到机器人t时刻的预测路径,具体表达式如下:
GLM={x1,x2,...,xn,y1,y2,...,yn} (4-1)
其中,x1...n是广义线性模型估计的预测路径的x坐标位置,y1...n是广义线性模型估计的预测路径的y坐标位置,得到每个时刻所对应的预测路径;
S500:利用神经网络建立里程误差模型,具体表达式如下:
E=∑n|O-RSSI|2 (5-1)
其中,O表示优化后的预测路径;
S600:预设最大迭代次数,将所述I个时刻的实际路径和对应的预测路径作为神经网络模型输入,对误差模型E进行训练,训练过程中通过反向传播更新该模型参数,当E≤e-5时候停止训练,得到训练好的里程误差模型;
S700:重复步骤S300-S400,得到待预测机器人R’的预测行进路径,将该预测行进路径输入到步骤S600训练好的里程误差模型得到优化后的预测行进路径,该优化后的预测行进路径即为机器人R’的行进路径预测值。
2.如权利要求1所述的基于神经网络的室内巡检机器人校正定位方法,其特征在于:所述S230中计算第t时刻机器人的实际坐标点的具体步骤如下:
S231:设装有读写巡检机器人R的坐标为(x,y),n个标签信号源的坐标分别为(x1,y1)、(x2,y2)、(x3,y3)、…、(xn,yn),具体表达式如下:
其中,d1、d2、d3、…、dn表示标签信号源到巡检机器人R的距离;
S232:将公式(2-4)代入到公式(2-5)中,得到表达式如下:
将公式(2-6)用线性方程表示为:
AX=b (2-7)
其中:
S233:使用标准的最小二乘估计方法处理公式(2-7),得到如下表达式:
其中,A是非奇异矩阵,且M>2,则方程数大于未知量数目的超定方程组,
得到巡检机器人在读取到n个标签时的预测坐标为:
S234:计算巡检机器人在读取到n个标签时的实际坐标,实际坐标的具体表达式如下:
S235:将公式(2-7)代入公式(2-11)得到公式(2-3),公式(2-3)即第t时刻机器人的实际坐标点。
3.如权利要求2所述的基于神经网络的室内巡检机器人校正定位方法,其特征在于:所述S300中计算机器人运动的位置信息的具体步骤为:
S310:计算理论上的里程计分辨率为:
其中,δ表示里程计的分辨率,D表示车轮直径(mm),η表示驱动电动机的减速比,P表示编码器的精度;
S320:设采样间隔时间Δt,计算左(右)车轮的增量位移ΔdL(ΔdR),具体表达式如下:
ΔdL=δ·NL (3-3)
其中,NL(NR)表示左(右)驱动车轮的光电编码器输出的脉冲增量;
S330:通过车轮的增量位移计算机器人的位姿增量,具体表达式如下:
其中,β表示左驱动车轮与右驱动车轮之间的间距;
S340:当机器人终止位姿和起始位姿的方向角的差值|Δθt|>0时,计算得到机器人的位置信息。
4.如权利要求3所述的基于神经网络的室内巡检机器人校正定位方法,其特征在于:所述500中建立里程误差模型E的具体步骤为:
S510:设神经网络结构中输入层有q个神经元,隐含层有l个神经元,输出层有m个神经元;输入层与隐含层神经元之间的连接权重值为wij,隐含层和输出层神经元之间的连接权重值为wjk,隐含层偏置项为a,输出层偏置项为b;
S520:将GLM作为神经网络的输入,得到隐含层的输出结果为:
其中,pi代表输入GLM坐标点(xn-1,yn-1)与(xn,yn)的坐标向量,f表示激励函数,i={1,2,……,q},j={1,2,……,l};
神经网络输出层的结果为:
S530:将t时刻的神经网络输出层的结果和该时刻的实际路径作为损失函数的输入,以此建立里程误差模型E。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110448691.1A CN113203419B (zh) | 2021-04-25 | 2021-04-25 | 基于神经网络的室内巡检机器人校正定位方法 |
US17/589,179 US11953903B2 (en) | 2021-04-25 | 2022-01-31 | Neural network-based method for calibration and localization of indoor inspection robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110448691.1A CN113203419B (zh) | 2021-04-25 | 2021-04-25 | 基于神经网络的室内巡检机器人校正定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113203419A true CN113203419A (zh) | 2021-08-03 |
CN113203419B CN113203419B (zh) | 2023-11-10 |
Family
ID=77028584
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110448691.1A Active CN113203419B (zh) | 2021-04-25 | 2021-04-25 | 基于神经网络的室内巡检机器人校正定位方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11953903B2 (zh) |
CN (1) | CN113203419B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117498931A (zh) * | 2023-10-31 | 2024-02-02 | 国网山东省电力公司德州供电公司 | 一种高效的光缆巡检核查系统 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116819590B (zh) * | 2023-01-04 | 2025-03-18 | 江苏思极科技服务有限公司 | 一种北斗、rfid组合定位方法及系统 |
CN116026368B (zh) * | 2023-03-29 | 2023-07-04 | 上海仙工智能科技有限公司 | 移动机器人的参数联合标定方法及系统、设备、存储介质 |
CN117241376B (zh) * | 2023-09-14 | 2024-04-19 | 兰州理工大学 | 一种多策略改进bp神经网络的wsn节点定位方法 |
Citations (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017028653A1 (zh) * | 2015-08-14 | 2017-02-23 | 北京进化者机器人科技有限公司 | 一种移动机器人室内自建地图的方法和系统 |
CN107356252A (zh) * | 2017-06-02 | 2017-11-17 | 青岛克路德机器人有限公司 | 一种融合视觉里程计与物理里程计的室内机器人定位方法 |
CN108036792A (zh) * | 2017-12-11 | 2018-05-15 | 苏州中德睿博智能科技有限公司 | 一种用于移动机器人的里程计与测量位姿的数据融合方法 |
CN108549877A (zh) * | 2018-04-23 | 2018-09-18 | 重庆大学 | 一种基于神经网络的循迹机器人轨迹识别方法 |
CN109444813A (zh) * | 2018-10-26 | 2019-03-08 | 南京邮电大学 | 一种基于bp和dnn双神经网络的rfid室内定位方法 |
CN109540140A (zh) * | 2018-11-23 | 2019-03-29 | 于兴虎 | 一种融合ssd目标识别和里程计信息的移动机器人定位方法 |
US20190195631A1 (en) * | 2017-12-22 | 2019-06-27 | Ubtech Robotics Corp | Positioning method, positioning device, and robot |
WO2019136613A1 (zh) * | 2018-01-09 | 2019-07-18 | 深圳市沃特沃德股份有限公司 | 机器人室内定位的方法及装置 |
CN110285806A (zh) * | 2019-07-05 | 2019-09-27 | 电子科技大学 | 基于多次位姿校正的移动机器人快速精确定位算法 |
CN110385720A (zh) * | 2019-07-26 | 2019-10-29 | 南京航空航天大学 | 一种基于深度神经网络的机器人定位误差补偿方法 |
CN110702091A (zh) * | 2019-07-24 | 2020-01-17 | 武汉大学 | 一种沿地铁轨道移动机器人的高精度定位方法 |
CN111624992A (zh) * | 2020-04-28 | 2020-09-04 | 北京科技大学 | 一种基于神经网络的搬运机器人的路径跟踪控制方法 |
CN112113568A (zh) * | 2020-08-21 | 2020-12-22 | 华南农业大学 | 一种畜禽养殖场巡检机器人的位姿校正方法 |
CN112129297A (zh) * | 2020-09-25 | 2020-12-25 | 重庆大学 | 一种多传感器信息融合的自适应校正室内定位方法 |
CN112230243A (zh) * | 2020-10-28 | 2021-01-15 | 西南科技大学 | 一种移动机器人室内地图构建方法 |
CN112454359A (zh) * | 2020-11-18 | 2021-03-09 | 重庆大学 | 基于神经网络自适应的机器人关节跟踪控制方法 |
CN112450820A (zh) * | 2020-11-23 | 2021-03-09 | 深圳市银星智能科技股份有限公司 | 位姿优化方法、移动机器人及存储介质 |
CN112528817A (zh) * | 2020-12-04 | 2021-03-19 | 重庆大学 | 一种基于神经网络的巡检机器人视觉检测及跟踪方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4079792B2 (ja) * | 2003-02-06 | 2008-04-23 | 松下電器産業株式会社 | ロボットの教示方法と教示機能付きロボット |
US9927814B2 (en) * | 2016-03-28 | 2018-03-27 | Fetch Robotics, Inc. | System and method for localization of robots |
WO2019241022A1 (en) * | 2018-06-13 | 2019-12-19 | Nvidia Corporation | Path detection for autonomous machines using deep neural networks |
US11592573B2 (en) * | 2020-09-15 | 2023-02-28 | Irobot Corporation | Particle filters and WiFi robot localization and mapping |
-
2021
- 2021-04-25 CN CN202110448691.1A patent/CN113203419B/zh active Active
-
2022
- 2022-01-31 US US17/589,179 patent/US11953903B2/en active Active
Patent Citations (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017028653A1 (zh) * | 2015-08-14 | 2017-02-23 | 北京进化者机器人科技有限公司 | 一种移动机器人室内自建地图的方法和系统 |
CN107356252A (zh) * | 2017-06-02 | 2017-11-17 | 青岛克路德机器人有限公司 | 一种融合视觉里程计与物理里程计的室内机器人定位方法 |
CN108036792A (zh) * | 2017-12-11 | 2018-05-15 | 苏州中德睿博智能科技有限公司 | 一种用于移动机器人的里程计与测量位姿的数据融合方法 |
US20190195631A1 (en) * | 2017-12-22 | 2019-06-27 | Ubtech Robotics Corp | Positioning method, positioning device, and robot |
WO2019136613A1 (zh) * | 2018-01-09 | 2019-07-18 | 深圳市沃特沃德股份有限公司 | 机器人室内定位的方法及装置 |
CN108549877A (zh) * | 2018-04-23 | 2018-09-18 | 重庆大学 | 一种基于神经网络的循迹机器人轨迹识别方法 |
CN109444813A (zh) * | 2018-10-26 | 2019-03-08 | 南京邮电大学 | 一种基于bp和dnn双神经网络的rfid室内定位方法 |
CN109540140A (zh) * | 2018-11-23 | 2019-03-29 | 于兴虎 | 一种融合ssd目标识别和里程计信息的移动机器人定位方法 |
CN110285806A (zh) * | 2019-07-05 | 2019-09-27 | 电子科技大学 | 基于多次位姿校正的移动机器人快速精确定位算法 |
CN110702091A (zh) * | 2019-07-24 | 2020-01-17 | 武汉大学 | 一种沿地铁轨道移动机器人的高精度定位方法 |
CN110385720A (zh) * | 2019-07-26 | 2019-10-29 | 南京航空航天大学 | 一种基于深度神经网络的机器人定位误差补偿方法 |
CN111624992A (zh) * | 2020-04-28 | 2020-09-04 | 北京科技大学 | 一种基于神经网络的搬运机器人的路径跟踪控制方法 |
CN112113568A (zh) * | 2020-08-21 | 2020-12-22 | 华南农业大学 | 一种畜禽养殖场巡检机器人的位姿校正方法 |
CN112129297A (zh) * | 2020-09-25 | 2020-12-25 | 重庆大学 | 一种多传感器信息融合的自适应校正室内定位方法 |
CN112230243A (zh) * | 2020-10-28 | 2021-01-15 | 西南科技大学 | 一种移动机器人室内地图构建方法 |
CN112454359A (zh) * | 2020-11-18 | 2021-03-09 | 重庆大学 | 基于神经网络自适应的机器人关节跟踪控制方法 |
CN112450820A (zh) * | 2020-11-23 | 2021-03-09 | 深圳市银星智能科技股份有限公司 | 位姿优化方法、移动机器人及存储介质 |
CN112528817A (zh) * | 2020-12-04 | 2021-03-19 | 重庆大学 | 一种基于神经网络的巡检机器人视觉检测及跟踪方法 |
Non-Patent Citations (6)
Title |
---|
LI, Q. L., SONG, Y., & HOU, Z. G: "Neural network based FastSLAM for autonomous robots in unknown environments", 《NEUROCOMPUTING》, no. 165, pages 99 - 110, XP029139661, DOI: 10.1016/j.neucom.2014.06.095 * |
XU, H., & COLLINS, J. J: "Estimating the odometry error of a mobile robot by neural networks", 《2009 INTERNATIONAL CONFERENCE ON MACHINE LEARNING AND APPLICATIONS》, pages 378 - 385 * |
YUZHEN, P., QUANDE, Y., & BENFA, Z: "The application of adaptive extended Kalman filter in mobile robot localization", 《2016 CHINESE CONTROL AND DECISION CONFERENCE》, pages 5337 - 5342 * |
刘振;陈万米;熊奇: "移动机器人测程法定位误差分析与校正", 《电子测量技术》, no. 12, pages 82 - 88 * |
苏健鹏;黄影平;赵柏淦;胡兴;: "基于深度卷积神经网络的视觉里程计研究", 《光学仪器》, no. 04, pages 36 - 43 * |
闫德立等: "基于矩阵李群表示及容积卡尔曼滤波的视觉惯导里程计新方法", 《控制与决策》, vol. 35, no. 8, pages 1824 - 1827 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117498931A (zh) * | 2023-10-31 | 2024-02-02 | 国网山东省电力公司德州供电公司 | 一种高效的光缆巡检核查系统 |
CN117498931B (zh) * | 2023-10-31 | 2024-06-11 | 国网山东省电力公司德州供电公司 | 一种高效的光缆巡检核查系统 |
Also Published As
Publication number | Publication date |
---|---|
US11953903B2 (en) | 2024-04-09 |
US20220350329A1 (en) | 2022-11-03 |
CN113203419B (zh) | 2023-11-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113203419A (zh) | 基于神经网络的室内巡检机器人校正定位方法 | |
CN112230243B (zh) | 一种移动机器人室内地图构建方法 | |
CN112066989B (zh) | 基于激光slam的室内agv自动导航系统及导航方法 | |
US20220147053A1 (en) | Robot with perception capability of livestock and poultry information and mapping approach based on autonomous navigation | |
CN111427047B (zh) | 一种大场景下自主移动机器人slam方法 | |
CN106123890A (zh) | 一种多传感器数据融合的机器人定位方法 | |
CN105773622A (zh) | 一种基于iekf的工业机器人绝对精度校准方法 | |
CN106871904A (zh) | 一种基于机器视觉的移动机器人码盘定位修正方法 | |
CN118225083B (zh) | 基于多传感器融合的机器人导航定位方法 | |
CN116337045A (zh) | 一种基于karto和teb的高速建图导航方法 | |
Basiuk et al. | Mobile Robot Position Determining Using Odometry Method | |
CN110763224A (zh) | 一种自动导引运输车导航方法及导航系统 | |
CN114559992A (zh) | 一种列车安全防护方法、模型训练方法、装置及电子设备 | |
KR101106265B1 (ko) | Rfid를 이용한 이동 로봇의 위치측정 장치 및 위치측정 방법 | |
CN113218384A (zh) | 一种基于激光slam的室内agv自适应定位系统 | |
CN114993310B (zh) | 一种智能打桩机自动定位的方法 | |
CN115981314A (zh) | 基于二维激光雷达定位的机器人导航自动避障方法和系统 | |
CN119017392B (zh) | 一种工业机器人运动控制系统及其运动路径控制方法 | |
CN111687842A (zh) | 一种机器人定位的检测和调整方法 | |
CN114777769A (zh) | 一种室外变电站巡检机器人定位系统及其方法 | |
CN112880663B (zh) | 一种考虑累积误差的auv强化学习路径规划方法 | |
CN111811503B (zh) | 基于超宽带和二维码的无迹卡尔曼滤波融合定位方法 | |
CN111761583B (zh) | 一种智能机器人运动定位方法及系统 | |
CN107092253A (zh) | 用于控制无人车的方法、装置及服务器 | |
Gong et al. | preciseSLAM: Robust, Real-Time, LiDAR–Inertial–Ultrasonic Tightly-Coupled SLAM With Ultraprecise Positioning for Plant Factories |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |