CN102261916A - 一种沙质环境中基于视觉的月球车定位方法 - Google Patents
一种沙质环境中基于视觉的月球车定位方法 Download PDFInfo
- Publication number
- CN102261916A CN102261916A CN 201110186905 CN201110186905A CN102261916A CN 102261916 A CN102261916 A CN 102261916A CN 201110186905 CN201110186905 CN 201110186905 CN 201110186905 A CN201110186905 A CN 201110186905A CN 102261916 A CN102261916 A CN 102261916A
- Authority
- CN
- China
- Prior art keywords
- image
- point
- matching
- computer system
- points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 241001061260 Emmelichthys struhsakeri Species 0.000 title claims abstract description 21
- 238000005070 sampling Methods 0.000 claims abstract description 8
- 238000000605 extraction Methods 0.000 claims abstract description 6
- 239000011159 matrix material Substances 0.000 claims description 37
- 238000000354 decomposition reaction Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000001514 detection method Methods 0.000 claims description 5
- 230000000694 effects Effects 0.000 claims description 5
- 230000000007 visual effect Effects 0.000 claims description 4
- 239000000284 extract Substances 0.000 claims description 3
- 238000005259 measurement Methods 0.000 claims description 3
- 230000000877 morphologic effect Effects 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims 7
- 230000004888 barrier function Effects 0.000 claims 3
- 230000008878 coupling Effects 0.000 claims 2
- 238000010168 coupling process Methods 0.000 claims 2
- 238000005859 coupling reaction Methods 0.000 claims 2
- 230000004807 localization Effects 0.000 claims 2
- 238000013480 data collection Methods 0.000 claims 1
- 230000007812 deficiency Effects 0.000 claims 1
- 230000002708 enhancing effect Effects 0.000 claims 1
- 238000012876 topography Methods 0.000 claims 1
- 238000004422 calculation algorithm Methods 0.000 abstract description 3
- 230000009466 transformation Effects 0.000 description 16
- 230000001629 suppression Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000005311 autocorrelation function Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种在沙质环境中基于视觉的月球车定位方法,包括以下步骤:特征点提取与增强;特征点匹配与跟踪;运动估计。通过上述步骤获取车体位置和方向的变化。采用本发明的定位算法避免了沙质环境的月球表面特征点稀少且不够强壮的问题,保证了在沙质环境中所提取的特征点的数量和质量,提高运动估计的精度,从降维、合理选择搜索窗口和预估搜索方向等角度出发,提高特征匹配与跟踪的效率,采用基于随机采样序列RANSAC的方法,能够有效解决错误数据过多带来的不收敛问题,提高里程计对不收敛问题的鲁棒性。
Description
技术领域
本发明属于模式识别与人工智能技术领域,涉及到基于视觉的月球车定位方法,特别涉及到一种在沙质环境中基于视觉的月球车定位方法。
背景技术
基于视觉的月球车定位方法是目前在月球环境进行探测的月球车上比较常用的一种自主导航技术,其技术要点是通过跟踪图像中的特征点来进行车体运动估计,它依靠视觉输入信息,不受滑移、倾斜、下陷等因素的影响,在松软的外星环境下具有较高的相对定位精度和巡视里程统计结果,与车轮里程计和惯导信息互相补充,提高月球车的行驶安全性和通过性,达到了提高车体运动估计精度的目的。在月表环境下,虽然基于视觉的月球车定位理论已基本完善,但是针对沙质地面缺乏特征点等诸多情况的影响,基于视觉的月球车定位理论仍存在以下缺陷:在沙质的外星环境,难以保证找到足够的特征点进行跟踪,受计算机处理能力的限制,不能像地面用里程计那样通过频繁更新的方法来减小搜索空间,需要研究对特征点位置变化更具有鲁棒性的特征跟踪算法,需要提高里程计对不收敛问题的鲁棒性。
发明内容
为解决现有技术存在的上述问题,本发明要提出一种在沙质环境中基于视觉的月球车定位方法,提高所提取特征点的数量和质量,并且使特征点的分布尽量均匀,提高特征匹配与跟踪的效率,能够有效解决错误数据过多带来的不收敛问题,提高里程计对不收敛问题的鲁棒性。
本发明的技术方案是:一种在沙质环境中基于视觉的月球车定位方法,利用月球车定位系统对月球车进行定位,所述的月球车定位系统包括避障立体视觉系统、计算机系统及其电源系统,所述的避障立体视觉系统包括一对CCD图像传感器、一对广角镜头和图像采集卡,其中CCD图像传感器作用是把图像像素转换成数字信号,广角镜头作用是近距离拍摄大范围景物,图像采集卡将图像信号采集到电脑中,以数据文件的形式保存在硬盘上;所述的计算机系统用来处理图像采集卡采集到的图像数据,所述的电源系统为避障立体视觉系统和计算机系统提供电能;具体定位方法包括以下步骤:
A、特征点提取与增强
A1、计算机系统采集图像中的像素点,利用Harris角点检测算子的卷积计算每个像素点的能量函数E的值后,首先按照非最大值抑制原则,取3×3窗口中各点值最大的像素点作为候选角点,并将候选角点按E的值由高到低进行排序,并设定能量函数的最小阈值;然后,设定一个候选角点间的最小距离,以其为约束条件对顺序排列的各候选角点进行筛选,提取所需的角点数目n;若采集到的角点个数n不足,则转步骤A2,否则,转步骤B;
A2、计算机系统对局部图像进行增强,采用形态学的Top-Hat顶帽变换来提高图像每个像素点的临域梯度,对图像f进行白Top-Hat顶帽变换和黑Top-Hat顶帽变换,分别用WTH和BTH来表示;
其中:f为图像灰度帧;
白Top-Hat顶帽变换定义为原始图像f与开运算γ(f)的差,即
WTH(f)=f-γ(f)
黑Top-Hat顶帽变换定义为原始图像f与闭运算φ(f)的差,即
BTH(f)=φ(f)-f
根据WTH变换和BTH变换能分别检测出图像峰和谷的性质,将WTH变换的结果与原图像相加,就会增加图像中亮目标,从上面相加的结果中减去BTH变换的结果,就会加强图像中的暗目标,从而提高整幅图像的对比度,用kTH表示运算结果为:
kTH=3f-γ(f)-φ(f)
返回步骤A1,直到采集到符合条件的像素点数为止;
B、特征点匹配与跟踪
采用对极线约束匹配方法,为提高基础矩阵求解的精度以及对误匹配的鲁棒性,计算机系统采用基于随机采样序列RANSAC的方法求取基础矩阵:
B1、提取利用Harris角点检测算子所提取的Harris角点作为待匹配特征点,以相似性度量函数
为判断依据,来确定匹配特征点数据集;式中,I表示匹配窗口的灰度值,fmw表示匹配窗口,上标A和B分别表示同时刻左右两个摄像头拍摄的图像;
B2、在待匹配特征点数据集中,取基本子集数目为p,对它采用最小二乘法计算基础矩阵,评估基础矩阵的相容性,计算所有数据点像素与其对应极线的距离,大于某一阈值则被分类为错误匹配点,小于某一阈值则被分类的为正确匹配点;如此重复m次,如果错误点占数据集的比例ε发生变化,就使用公式
Г=1-(1-(1-ε)p)m
做相应的调整,其中Г为至少取得一个良性基本子集的概率,应大于0.95,m表示循环停止条件Г≥0.95时所循环的次数,p表示基本子集中数据点的数目,p大于等于8;
B3、通过与前一次循环的比较,保留具有最多正确匹配点数目的基础矩阵,并对所有正确匹配点重新计算基础矩阵;通过基础矩阵的求解,可以将特征点匹配的搜索空间从二维降到一维的对极线上,提高匹配和跟踪效率;
C、运动估计
C1、根据立体视觉原理,计算机系统确定左、右图像上特征点的对应关系后,依据摄像机标定结果,获取该特征点在车体坐标系下的三维坐标;定义前一时刻和当前时刻同一特征点i对应的三维坐标分别为
Ppi=(xpi,ypi,zpi)T和Pci=(xci,yci,zci)T
C2、引入随机采样序列RANSAC思想,寻找坐标系间的旋转矩阵R和平移向量T,实现过程如下:
C21、在数据集中,取基本子集p,p大于或者等于4;
C22、对基本子集采用奇异值分解法计算旋转矩阵R和平移向量T;
C23、定义误差阈值,检测所有匹配点对旋转矩阵R和平移向量T的支持程度,统计内点数;
C24、重复步骤C21-C23m次,找到内点数最多的旋转矩阵R和平移向量T,并将这些内点作为新的匹配点集,采用奇异值分解法求解新的旋转矩阵R和平移向量T;
C3、确保找到新的坐标系间的旋转矩阵R和平移向量T,使得式
最小,从而获取车体位置和方向的变化,其中N为跟踪上的特征点的个数。
与现有技术相比,本发明的效果和益处是:
采用本发明的定位算法避免了沙质环境的月球表面特征点稀少且不够强壮的问题,保证了在沙质环境中所提取的特征点的数量和质量,提高运动估计的精度,从降维、合理选择搜索窗口和预估搜索方向等角度出发,提高特征匹配与跟踪的效率,采用基于随机采样序列RANSAC的方法,能够有效解决错误数据过多带来的不收敛问题,提高里程计对不收敛问题的鲁棒性。
附图说明
本发明共有附图2幅,其中:
图1基于视觉的月球车定位系统组成示意图。
图2基于视觉的月球车定位方法的流程图。
图中:1、广角镜头,2、CCD图像传感器,3、图像采集卡,4、计算机系统。
具体实施方式
下面结合附图对本发明进行进一步说明。如图1所示,一种基于视觉的月球车定位系统包括避障立体视觉系统、计算机系统4及其电源系统组成。避障立体视觉系统包括一对CCD图像传感器2、一对广角镜头1、图像采集卡3,其中CCD图像传感器2作用是把采集到的左右图像像素转换成数字信号,广角镜头1作用是近距离拍摄大范围景物,图像采集卡3将图像信号采集到电脑中,以数据文件的形式保存在硬盘上。计算机系统4用来处理采集卡采集的图像数据,电源系统为避障立体视觉系统和计算机系统4提供电源。
本发明定位过程包括:特征点提取与增强、特征点匹配与跟踪、运动估计三部分。
A、特征点提取与增强过程为:
第一步,计算机系统4采集图片中的像素点,沙质环境中采集到的图像灰度均匀,没有明显的可提取特征用于匹配跟踪。采用Harris角点检测方法,
Harris算子的卷积表达式如下:
E=Det(M)-kTrace2(M),k=0.04(2)
其中M为与自相关函数相联系的矩阵,gx为图像坐标系x方向的梯度,gy为y方向的梯度,为高斯模板,为卷积操作,E为每像素点的能量函数,Det为矩阵的行列式,Trace为矩阵的迹,k为常数,一般选取0.04。
计算每个像素点的E值后,首先按照非最大值抑制原则,取3×3窗口中各点值最大的像素点作为候选角点,并将候选角点按值由高到低进行排序,并设定能量函数的最小阈值Emin。设定一个候选角点间的最小距离Dmin,以其为约束条件对顺序排列的各候选角点进行筛选,如果没有提取所需的角点数目n,转第二步。
第二步,计算机系统4对局部图像进行增强,采用形态学的Top-Hat变换来提高图像每个像素点的临域梯度,对该图像f进行白Top-Hat和黑Top-Hat变换,分别用WTH和BTH来表示,其中f为图像灰度帧。白Top-Hat定义为原始图像f与开运算γ(f)的差,即WTH(f)=f-γ(f),黑Top-Hat定义为原始图像f与闭运算φ(f)的差,即BTH(f)=φ(f)-f;根据WTH变换和BTH能分别检测出图像的峰和谷的性质,将WTH变换的结果与原图像相加,就会增加图像中亮目标,而从得到的结果中减去BTH变换的结果,就会加强图像中的暗目标,就提高了整幅图像的对比度,用kTH表示计算结果为:kTH=3f-γ(f)-φ(f)。返回步骤一,直到采集到符合条件的像素点数n为止。
B、特征点匹配与跟踪:
采用对极线约束匹配方法,为提高基础矩阵求解的精度以及对误匹配的鲁棒性,采用基于随机采样序列RANSAC的方法求取基础矩阵:
第一步,提取Harris角点作为待匹配特征点,以相似性度量函数
为判断依据,来确定匹配特征点数据集,其中I表示匹配窗口的灰度值,fmv表示匹配窗口,上标A和B分别表示不同的图像;
第二步,在数据集中,取样基本子集p=8,对它采用最小二乘法计算基础矩阵,评估基础矩阵的相容性,计算所有数据点像素与其对应极线的距离,大于某一阈值则被分类为错误匹配点,小于的为正确匹配点,如此重复m次,如果错误点占数据集的比例ε发生变化,就使用公式Г=1-(1-(1-ε)p)m做相应的调整,其中Г为至少取得一个良性取样子集的概率,应大于0.95,m表示循环停止条件Г≥0.95时所循环的次数,p表示基本子集中数据点的数目;
第三步,通过与前一次循环的比较,保留具有最多正确匹配点数目的基础矩阵,并对所有正确匹配点重新计算基础矩阵,通过基础矩阵的求解,可以将特征点匹配的搜索空间从二维降到一维的对极线上,提高匹配和跟踪效率。
除了通过对极线约束匹配方法将特征点匹配的搜索空间从二维降到一维的对极线上,提高特征匹配与跟踪的效率外,还可以采用设置合理的搜索窗口和搜索方向能够有效减少计算量,降低特征点位置变化对匹配跟踪的干扰,最终提高特征点匹配的效率。
C、运动估计过程为:
第一步,根据立体视觉原理,确定左、右图像上特征点的对应关系后,依据摄像机标定结果,可以获取该特征点在车体坐标系下的三维坐标。定义前一时刻和当前时刻同一特征点i对应的三维坐标分别为Ppi=(xpi,ypi,zpi)T和Pci=(xci,yci,zci)T。
第二步,引入RANSAC思想,实现过程如下:1在数据集中,取样基本子集p=4;2对该基本子集采用奇异值分解法计算旋转矩阵R和平移向量T;3定义误差阈值,检测所有匹配点对R和T的支持程度,统计内点数;4重复1~3m次,找到内点数最多的R和T,并将这些内点作为新的匹配点集,采用奇异值分解法求解新的R和T。
用奇异值分解法求解坐标变换的过程为:
2计算并对其进行奇异值分解Q=UDVT,如果det(U)det(V)=1,则R=VUT,如果det(U)det(V)=-1,则R=VSUT,其中S=[diag(1,1,Λ1,-1)N],N为跟踪上的特征点的个数;
3
Claims (1)
1.一种在沙质环境中基于视觉的月球车定位方法,利用月球车定位系统对月球车进行定位,所述的月球车定位系统包括避障立体视觉系统、计算机系统(4)及其电源系统,所述的避障立体视觉系统包括一对CCD图像传感器(2)、一对广角镜头(1)和图像采集卡(3),其中CCD图像传感器(2)作用是把图像像素转换成数字信号,广角镜头(1)作用是近距离拍摄大范围景物,图像采集卡(3)将图像信号采集到电脑中,以数据文件的形式保存在硬盘上;所述的计算机系统(4)用来处理图像采集卡(3)采集到的图像数据,所述的电源系统为避障立体视觉系统和计算机系统(4)提供电能;其特征在于:具体定位方法包括以下步骤:
A、特征点提取与增强
A1、计算机系统(4)采集图像中的像素点,利用Harris角点检测算子的卷积计算每个像素点的能量函数E的值后,首先按照非最大值抑制原则,取3×3窗口中各点值最大的像素点作为候选角点,并将候选角点按E的值由高到低进行排序,并设定能量函数的最小阈值;然后,设定一个候选角点间的最小距离,以其为约束条件对顺序排列的各候选角点进行筛选,提取所需的角点数目n;若采集到的角点个数n不足,则转步骤A2,否则,转步骤B;
A2、计算机系统(4)对局部图像进行增强,采用形态学的Top-Hat顶帽变换来提高图像每个像素点的临域梯度,对图像f进行白Top-Hat顶帽变换和黑Top-Hat顶帽变换,分别用WTH和BTH来表示;
其中:f为图像灰度帧;
白Top-Hat顶帽变换定义为原始图像f与开运算γ(f)的差,即
WTH(f)=f-γ(f)
黑Top-Hat顶帽变换定义为原始图像f与闭运算φ(f)的差,即
BTH(f)=φ(f)-f
根据WTH变换和BTH变换能分别检测出图像峰和谷的性质,将WTH变换的结果与原图像相加,就会增加图像中亮目标,从上面相加的结果中减去BTH变换的结果,就会加强图像中的暗目标,从而提高整幅图像的对比度,用kTH表示运算结果为:
kTH=3f-γ(f)-φ(f)
返回步骤A1,直到采集到符合条件的像素点数为止;
B、特征点匹配与跟踪
采用对极线约束匹配方法,为提高基础矩阵求解的精度以及对误匹配的鲁棒性,计算机系统(4)采用基于随机采样序列RANSAC的方法求取基础矩阵:
B1、提取利用Harris角点检测算子所提取的Harris角点作为待匹配特征点,以相似性度量函数
为判断依据,来确定匹配特征点数据集;式中,I表示匹配窗口的灰度值,fmw表示匹配窗口,上标A和B分别表示同时刻左右两个摄像头拍摄的图像;
B2、在待匹配特征点数据集中,取基本子集数目为p,对它采用最小二乘法计算基础矩阵,评估基础矩阵的相容性,计算所有数据点像素与其对应极线的距离,大于某一阈值则被分类为错误匹配点,小于某一阈值则被分类的为正确匹配点;如此重复m次,如果错误点占数据集的比例ε发生变化,就使用公式
Г=1-(1-(1-ε)p)m
做相应的调整,其中Г为至少取得一个良性基本子集的概率,应大于0.95,m表示循环停止条件Г≥0.95时所循环的次数,p表示基本子集中数据点的数目,p大于等于8;
B3、通过与前一次循环的比较,保留具有最多正确匹配点数目的基础矩阵,并对所有正确匹配点重新计算基础矩阵;通过基础矩阵的求解,可以将特征点匹配的搜索空间从二维降到一维的对极线上,提高匹配和跟踪效率;
C、运动估计
C1、根据立体视觉原理,计算机系统(4)确定左、右图像上特征点的对应关系后,依据摄像机标定结果,获取该特征点在车体坐标系下的三维坐标;定义前一时刻和当前时刻同一特征点i对应的三维坐标分别为
Ppi=(xpi,ypi,zpi)T和Pci=(xci,yci,zci)T
C2、引入随机采样序列RANSAC思想,寻找坐标系间的旋转矩阵R和平移向量T,实现过程如下:
C21、在数据集中,取基本子集p,p大于或者等于4;
C22、对基本子集采用奇异值分解法计算旋转矩阵R和平移向量T;
C23、定义误差阈值,检测所有匹配点对旋转矩阵R和平移向量T的支持程度,统计内点数;
C24、重复步骤C21-C23m次,找到内点数最多的旋转矩阵R和平移向量T,并将这些内点作为新的匹配点集,采用奇异值分解法求解新的旋转矩阵R和平移向量T;
C3、确保找到新的坐标系间的旋转矩阵R和平移向量T,使得式
最小,从而获取车体位置和方向的变化,其中N为跟踪上的特征点的个数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2011101869059A CN102261916B (zh) | 2011-07-05 | 2011-07-05 | 一种沙质环境中基于视觉的月球车定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2011101869059A CN102261916B (zh) | 2011-07-05 | 2011-07-05 | 一种沙质环境中基于视觉的月球车定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102261916A true CN102261916A (zh) | 2011-11-30 |
CN102261916B CN102261916B (zh) | 2012-08-01 |
Family
ID=45008638
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2011101869059A Expired - Fee Related CN102261916B (zh) | 2011-07-05 | 2011-07-05 | 一种沙质环境中基于视觉的月球车定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102261916B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103473774A (zh) * | 2013-09-09 | 2013-12-25 | 长安大学 | 一种基于路面图像特征匹配的车辆定位方法 |
CN106412441A (zh) * | 2016-11-04 | 2017-02-15 | 珠海市魅族科技有限公司 | 一种视频防抖控制方法以及终端 |
CN106845028A (zh) * | 2017-03-07 | 2017-06-13 | 中国科学院遥感与数字地球研究所 | 一种基于月基对地观测光学覆盖度的月球基地选址方法 |
CN109785372A (zh) * | 2019-01-10 | 2019-05-21 | 西安电子科技大学 | 基于软决策优化的基础矩阵鲁棒估计方法 |
CN109961476A (zh) * | 2017-12-25 | 2019-07-02 | 大连楼兰科技股份有限公司 | 基于视觉的地下停车场的定位方法 |
CN109958311A (zh) * | 2017-12-25 | 2019-07-02 | 大连楼兰科技股份有限公司 | 应用在停车场中车辆方位角检测系统 |
CN111031258A (zh) * | 2020-01-15 | 2020-04-17 | 北京航天飞行控制中心 | 月球车导航相机曝光参数确定方法及装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5422828A (en) * | 1991-12-18 | 1995-06-06 | Choate; William C. | Method and system for image-sequence-based target tracking and range estimation |
CN101354254A (zh) * | 2008-09-08 | 2009-01-28 | 北京航空航天大学 | 一种飞行器航向跟踪方法 |
-
2011
- 2011-07-05 CN CN2011101869059A patent/CN102261916B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5422828A (en) * | 1991-12-18 | 1995-06-06 | Choate; William C. | Method and system for image-sequence-based target tracking and range estimation |
CN101354254A (zh) * | 2008-09-08 | 2009-01-28 | 北京航空航天大学 | 一种飞行器航向跟踪方法 |
Non-Patent Citations (2)
Title |
---|
《公路交通科技》 20071130 王荣本,赵一兵,李琳辉,张明恒 《智能车辆的障碍物检测研究方法综述》 第109-113页 1 第24卷, 第11期 * |
《公路交通科技》 20080131 王荣本,李琳辉,郑可勤 《基于激光扫描的智能车辆前方地形三维可视化技术研究》 第134-138页 1 第25卷, 第1期 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103473774A (zh) * | 2013-09-09 | 2013-12-25 | 长安大学 | 一种基于路面图像特征匹配的车辆定位方法 |
CN106412441A (zh) * | 2016-11-04 | 2017-02-15 | 珠海市魅族科技有限公司 | 一种视频防抖控制方法以及终端 |
CN106412441B (zh) * | 2016-11-04 | 2019-09-27 | 珠海市魅族科技有限公司 | 一种视频防抖控制方法以及终端 |
CN106845028A (zh) * | 2017-03-07 | 2017-06-13 | 中国科学院遥感与数字地球研究所 | 一种基于月基对地观测光学覆盖度的月球基地选址方法 |
CN106845028B (zh) * | 2017-03-07 | 2019-11-12 | 中国科学院遥感与数字地球研究所 | 一种基于月基对地观测光学覆盖度的月球基地选址方法 |
CN109961476A (zh) * | 2017-12-25 | 2019-07-02 | 大连楼兰科技股份有限公司 | 基于视觉的地下停车场的定位方法 |
CN109958311A (zh) * | 2017-12-25 | 2019-07-02 | 大连楼兰科技股份有限公司 | 应用在停车场中车辆方位角检测系统 |
CN109785372A (zh) * | 2019-01-10 | 2019-05-21 | 西安电子科技大学 | 基于软决策优化的基础矩阵鲁棒估计方法 |
CN109785372B (zh) * | 2019-01-10 | 2022-12-23 | 西安电子科技大学 | 基于软决策优化的基础矩阵鲁棒估计方法 |
CN111031258A (zh) * | 2020-01-15 | 2020-04-17 | 北京航天飞行控制中心 | 月球车导航相机曝光参数确定方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN102261916B (zh) | 2012-08-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107301661B (zh) | 基于边缘点特征的高分辨率遥感图像配准方法 | |
CN102261916B (zh) | 一种沙质环境中基于视觉的月球车定位方法 | |
Ozgunalp et al. | Multiple lane detection algorithm based on novel dense vanishing point estimation | |
CN108805904B (zh) | 一种基于卫星序列图像的运动舰船检测与跟踪方法 | |
CN103077531B (zh) | 基于边缘信息的灰度目标自动跟踪方法 | |
Song et al. | A Kalman filter-integrated optical flow method for velocity sensing of mobile robots | |
Li et al. | Road lane detection with gabor filters | |
Beyeler et al. | Vision-based robust road lane detection in urban environments | |
CN111210477A (zh) | 一种运动目标的定位方法及系统 | |
CN106556412A (zh) | 一种室内环境下考虑地面约束的rgb‑d视觉里程计方法 | |
CN101924871A (zh) | 基于均值偏移的视频目标跟踪方法 | |
CN108447016B (zh) | 基于直线交点的光学图像和sar图像的匹配方法 | |
CN101763512A (zh) | 高分辨率遥感图像中道路目标的半自动检测方法 | |
CN104112122A (zh) | 基于交通视频的车标自动识别方法 | |
CN101714256A (zh) | 基于全方位视觉的动态目标识别和定位方法 | |
CN107301420A (zh) | 一种基于显著性分析的热红外影像目标探测方法 | |
CN104463911A (zh) | 基于复杂背景估计的红外运动小目标检测方法 | |
CN103425764A (zh) | 一种基于视频的车辆匹配方法 | |
CN105894504A (zh) | 基于图像的井盖缺失检测方法 | |
Wang et al. | Lane detection based on random hough transform on region of interesting | |
CN107742306A (zh) | 一种智能视觉中运动目标跟踪算法 | |
CN106846363A (zh) | 一种改进稀疏矩阵的尺度自适应性压缩跟踪方法 | |
Lin et al. | Lane departure identification on Highway with searching the region of interest on Hough space | |
CN108038849A (zh) | 一种识别性能优良的机器人视觉系统 | |
Wang et al. | A research on stereo matching algorithm for underwater image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20120801 Termination date: 20150705 |
|
EXPY | Termination of patent right or utility model |