CN101336856B - 辅助视觉系统的信息获取与传递方法 - Google Patents
辅助视觉系统的信息获取与传递方法 Download PDFInfo
- Publication number
- CN101336856B CN101336856B CN2008101505826A CN200810150582A CN101336856B CN 101336856 B CN101336856 B CN 101336856B CN 2008101505826 A CN2008101505826 A CN 2008101505826A CN 200810150582 A CN200810150582 A CN 200810150582A CN 101336856 B CN101336856 B CN 101336856B
- Authority
- CN
- China
- Prior art keywords
- msub
- mrow
- information
- math
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000005540 biological transmission Effects 0.000 title claims abstract description 25
- 238000000034 method Methods 0.000 title claims abstract description 18
- 230000033001 locomotion Effects 0.000 claims abstract description 34
- 239000013598 vector Substances 0.000 claims abstract description 10
- 238000001514 detection method Methods 0.000 claims abstract description 6
- 238000012546 transfer Methods 0.000 claims description 9
- 230000006870 function Effects 0.000 claims description 7
- 230000011218 segmentation Effects 0.000 claims description 7
- 239000011159 matrix material Substances 0.000 claims description 4
- 230000000007 visual effect Effects 0.000 claims description 3
- 238000009499 grossing Methods 0.000 claims description 2
- 230000003287 optical effect Effects 0.000 claims description 2
- 230000004044 response Effects 0.000 claims description 2
- 238000002716 delivery method Methods 0.000 claims 6
- 206010047571 Visual impairment Diseases 0.000 claims 1
- 230000035807 sensation Effects 0.000 claims 1
- 230000001771 impaired effect Effects 0.000 abstract description 5
- 238000012360 testing method Methods 0.000 abstract description 3
- 230000008569 process Effects 0.000 abstract description 2
- 208000029257 vision disease Diseases 0.000 abstract 1
- 230000004393 visual impairment Effects 0.000 abstract 1
- 230000007613 environmental effect Effects 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 238000011160 research Methods 0.000 description 3
- 230000007812 deficiency Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000006641 stabilisation Effects 0.000 description 2
- 238000011105 stabilization Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种辅助视觉系统的信息获取与传递方法。其过程包括:1.通过两个摄像机从不同角度同时获得被测物的两幅原始数字图像;2.利用Harris角点检测方法提取出两幅原始数字图像的特征点;3.通过两个摄像机获取特征点的三维几何信息;4.以每一个特征点为中心取矩形区域,找到下一帧特征点的位置并求出特征点的运动矢量;5.通过颜色直方图对原始数字图像中的路面信息按照色度信息进行分割,计算道路信息;6.对原始图像特征点的运动信息、特征点的三维几何信息及道路信息分别进行编码;7.将编码信息通过辅助视觉系统中信息传递阵列单元传输给视觉障碍的人体。本发明具有可准确获得目标的三维几何信息的优点,可用于辅助视觉障碍人群的安全定向行走。
Description
技术领域
本发明属于信息技术领域,涉及一种环境信息获取与传递方法,该方法能有效地获取环境信息,可用于辅助视觉障碍人群实现定向行走以及特殊环境下的定向行走。
背景技术
从20世纪70年代开始,各国学者已开展了帮助盲人获取环境信息的电子行走辅助系统的设计和探索工作,如Laser Cane(Bolgiano D,Meeks EJ.A laser cane for the blind[J].IEEE Journal of Quantum Electronic,1967,3(6):268.),FishR(Fish R.Auditory display forthe blind[P].USA:3800082,1974203226.)的图像声音系统,VOICE(Meijer P.Image-audiotransformation system[P].USA:5097326,1992203217.)系统,Tyflos盲人智能助手等。这些系统均利用传感设备获取环境数据信息,并将处理后的数据转换成易于盲人理解的非视觉信号,其目的是辅助盲人独立而安全地行走。尽管各国学者和专家们已经花了30多年的时间研究和开发各种电子行走辅助系统,但该系统的普及和应用至今始终不是很理想。
从信息获取的角度来说,现今存在的电子行走辅助系统可分成两大类:一是通过传感器,例如声纳传感,全球定位系统GPS,地理信息系统GIS,电子罗盘和激光测距仪等获取位置和周围环境信息。二是通过图像采集设备,例如摄像机,通过信息处理设备完成三维空间信息的重建和物体识别,获取空间较为完整的信息。第一类方法获得了广泛的应用,Loomis和Helal教授在此领域进行了深入的研究(Loomis,J.M.,Klatzky,R.L.,&Golledge,R.G.(2001).Navigating without vision:Basic and applied research.Optometry and VisionScience,78,282-289.;Helal,A.,Moore,S.,and Ramachandran,B.,“Drishti:An IntegratedNavigation System for Visually Impaired and Disabled”,Fifth International Symposium onWearable Computers(ISWC′01),2001.)并开发了个人导盲系统PGS系统。基于GPS和GIS的技术目前应用比较广泛,并产生了一些商用系统,如PGS。虽然这种方法具有良好的获得全局信息的能力,但却无法实时感知外部三维信息,缺乏自主性,因此其扩展功能受到了很大的局限。
由于人对周围环境的感知是一个复杂的问题,因而一些未知的甚至是动态的复杂场景为人对环境的感知增加了难度。特别是盲人在室内外环境中独立行走时,桌椅、门窗或空间其他附设物件都可能成为障碍,也容易碰伤。可以看出,只有障碍物信息并不能很好地解决盲人出行问题,盲人还需要其他的道路信息才能安全行走。由于运动物体对盲人具有很大的危险性,故需要正确实时的给出运动目标的信息。摄像传感ETA系统视角大,能采集到比声纳输入系统更丰富的信息,并结合计算机视觉技术实现目标检测识别、运动轨迹估计等,从而获取比较丰富的环境信息。因此,摄像头对盲人用户来说可以作为其视觉的延伸,在帮助盲人认识周围环境中起着非常重要的作用。随着人工智能和图像处理技术的发展,第二类方法的研究也得到了很大的发展,Bourbakis教授在这方面做了大量的工作,如ourbakis NG,Kavraki D.An Intelligent Assistant for Navigation of Visually ImpairedPeople[C]//Proceedings of the IEEE 2nd Inter.Symposium on Biolnformatics and BioengineeringConference.Bethesda:IEEE Press,2001:230-235.,并开发了Tyflos系统。该Tyflos系统通过立体相机获得环境的三维表示,并集成了激光测距和GIS等系统,通过语音和智能处理系统进行信息的交互。但Tyflos系统所用的获取外部信息的方法存在以下不足:
(1)由于该方法引入电子稳像、运动目标分割等算法,运算量巨大;
(2)由于模式识别和智能系统的发展还不成熟,不能可靠的认知环境,因而经常会给出错误的结论。
发明内容
本发明的目的在于克服上述已有技术的不足,提出一种对环境信息认知准确,且运算量小的辅助视觉系统信息获取与传递方法,以实现对外部环境信息的实时获取和信息传。
本发明的目的是这样实现的;
本发明充分利用人类视觉的特点和人体的智能性,避开基于机器视觉的复杂场景下的电子稳像、运动目标检测和跟踪,进行信息获取和信息传递。信息获取主要完成对外部环境的信息获取,这些信息包括:道路,目标距离,运动速度和目标大小。信息传递是通过二维的信息传递阵列对获取的外部环境信息进行传递。其步骤包括:
步骤1,通过两个摄像机从不同角度同时获得被测物的两幅原始数字图像I1和I2;
步骤2,利用Harris角点检测方法提取出两幅原始数字图像的特征点u1和u2;
步骤3,通过两个摄像机获取特征点的三维几何信息,即被测物体特征点的平面信息及立体视觉的距离;
步骤4,以每一个特征点为中心取矩形区域,找到下一帧特征点的位置并求出特征点的运动矢量;
步骤5,通过颜色直方图对原始数字图像中的路面信息按照色度信息进行分割,计算出道路信息,即道路概率图像P(x,y)和道路的二维方向θ;
步骤6,对原始图像特征点的运动信息、特征点的三维几何信息及道路信息分别进行编码;
步骤7,将编码信息通过辅助视觉系统中信息传递阵列单元传输给视觉障碍的人体,以避开障碍物行走。
本发明由于对外界环境中所提取的特征点的运动信息和三维几何信息进行编码,可重建周围环境特性;同时由于两个摄像机从不同角度同时获得被测物的两幅原始数字图像,因此可准确获得目标的三维几何信息;此外由于不涉及对复杂的动态目标提取,而是直接将特征点的信息进行计算,因而运算量小。
附图说明
图1为本发明方法的步骤框图;
图2平行双目立体视觉系统示意图;
图3为本发明环境信息编码生成过程实例图,其中:
3(a)为原始立体图像对左图,
3(b)为原始立体图像对右图,
3(c)为左图局部特征点提取图,
3(d)为景深信息图,
3(e)为由颜色分割后的信息图;
图4为信息传递阵列示例图。
具体实施方式
以下参照附图对本发明作进一步详细的描述。
参照附图1,本发明的信息获取步骤如下:
第一步:获取图像信息。
通过两个摄像机从不同角度同时获得被测物的两幅原始数字图像I1和I2,如图3(a)和图3(b)。
第二步:提取图像信息的特征点。
用Harris角点检测方法,分别对图3(a)和图3(b)的特征点进行提取,提取步骤如下:
2.1、利用下式计算图像I1的梯度图像:
2.2、构造自相关矩阵:
其中w=exp(-(X1 2+Y1 2)/2σ2)为高斯平滑窗函数;
2.3、提取图像I1的特征点,如图3(c)所示:
令
则Harris特征点响应值为:
其中,常数k通常取0.04-0.06之间,将与一个阈值进行比较,大于该阈值则认定该点为图像的一个特征点,该图像特征点可定义为:u1=[u1x u1y]T。阈值根据所要检测的特征点数目设置,一般大于等于100,特征点之间的距离一般大于15个象素。图3(c)为图3(a)中所求出的特征点。
2.4、用同样的方法求出图3(b)的特征点相应值为该图像特征点可定义为:u2=[u2x u2y]T。
第三步:获取图像三维几何信息
3.1、将内部参数完全相同的两个相机平行放置,且将两个相机光轴的连线与第一个相机的x轴重合,构成平行双目立体视觉系统,如图2所示。根据图2,获得被测点P(xc,zc)在两个图像平面上的投影,即平面几何信息为:
其中,f为焦距,b为基线长度;
3.2、根据两幅图像特征点u1和u2的位置差d,计算立体视觉的距离:
3.3、根据灰度值与距离zc成反比的关系,改变图像中的各像素点的灰度值,获得包含深度信息的灰度图,如图3(d)所示。
第四步:计算图像特征点的运动矢量
4.1、定义下一帧图像为J(x,y),对于图像的特征点其运动估计就是在下一帧图像J中找到的点,例如:图像I1的特征点u1=[u1x u1y]T,以特征点为中心取矩形区域作为特征区域,运动估计就是在下一帧图像J中的特征区域找到点v1,即
v1=u1+d1=[u1x+d1x u1y+d1y]T,其中d1=[d1x d1y]T为特征点运动矢量,
定义残差函数为:
4.2、通过两帧相邻图像的特征点跟踪,找到一个使匹配残差函数ε(d1)最小,即满足ε的一阶差分为0的运动矢量为:
d1=[d1x d1y]T;
4.3、重复步骤4.1和4.2,得到所有帧的运动矢量。
第五步:提取道路信息
道路信息的提取是基于颜色分割而进行,步骤如下:
5.1、计算路面分割的概率图像P(x,y):
计算路面信息颜色直方图,按色度信息对路面进行分割,将色度信息相同的区域划分为候选目标区域;目标模型和候选目标特征分别表示为:
q={qu}u=1,...,m和p(y)={pu(y)}u=1,...,m
5.2、通过概率图像P(x,y)的二阶矩计算道路的二维方向θ:
首先,计算概率图像P(x,y)的零阶矩和一阶矩分别为:
其次,计算概率图像P(x,y)的二阶矩:
最后,由概率图像P(x,y)的零阶矩、一阶矩和二阶矩计算出道路的二维方向θ:
式中,
经过上述的计算,完成了对道路的颜色分割,如图3(e)中灰度值较大部分所示,并可以实时计算出道路方向。
第六步:信息编码
需要编码的信息包括特征点的三维几何信息、运动信息和道路信息三种情况。
6.1、将图像I1的每个特征点对应一个三维几何信息,给出其特征点u1的编码信息为(H3D u1 U f),其中,H3D为信息识别码,代表传送的是三维几何信息和运动信息;U为信息传递阵列输出电压,定义为U=kοzc,k为比例系数,f为信息传递阵列这一点输出脉冲频率;
6.2、对于运动特征点,给出其的编码信息为(H3D u1′U f),其中,H3D为信息识别码,代表传送的是三维几何信息和运动信息;u1′为运动特征点的坐标值,U为信息传递阵列输出电压,定义为U=k·zc,k为比例系数,f为信息传递阵列这一点输出脉冲频率;
6.3、用同样的方法对图像I2的特征点u2进行编码,即给出u2的三维几何信息编码为(H3D u2 U f)和运动特征点信息为(H3D u2′U f);
6.4、对于道路信息,根据获得的概率图像P(x,y),算出原始图像中道路上的点R(x,y)在信息传递阵列的输出电压为UR=k·P(x,y),给出道路上的点R(x,y)的编码信息为(HR R(x,y)UR f),其中,HR为信息识别码,表示输出的为道路信息;f为信息传递阵列输出脉冲频率。
第七步:信息的传递
将所述的三维几何信息(H3D u1 U f)、运动信息(H3D u1′U f)和道路信息(HR R(x,y)UR f),通过辅助视觉系统中信息传递阵列单元,以振动触觉的形式传递给使用者,其中,单元的振动频率为编码信息中输出脉冲频率f,单元的振动强度为信息传递阵列输出电压U。
传递形式如图4所示,T1为距离较远、运动速度较慢的障碍物,则信息传递阵列对应位置的单元使用较低的输出脉冲频率f和较低的输出电压振动U,T2为距离较近、运动速度较快的障碍物,则信息传递阵列对应位置的单元使用较高的输出脉冲频率f和较高的输出电压U振动,图中箭头方向为障碍物运动方向,信息传递阵列中的单元振动的移动方向与障碍物的运动方向一致。
Claims (7)
1.一种辅助视觉系统的信息获取与传递方法,包括如下步骤:
步骤1,通过两个摄像机从不同角度同时获得被测物的两幅原始数字图像I1和I2;
步骤2,利用Harris角点检测方法提取出两幅原始数字图像的特征点u1和u2;
步骤3,通过两个摄像机获取特征点的三维几何信息,即被测物体特征点的平面信息及立体视觉的距离;
步骤4,以每一个特征点为中心取矩形区域,找到下一帧特征点的位置并求出特征点的运动矢量;
步骤5,通过颜色直方图对原始数字图像中的路面信息按照色度信息进行分割,计算出道路信息,即道路概率图像P(x,y)和道路的二维方向θ;
步骤6,对原始图像特征点的运动信息、特征点的三维几何信息及道路信息分别进行编码;
步骤7,将编码信息通过辅助视觉系统中信息传递阵列单元传输给视觉障碍的人体,以避开障碍物行走。
2.根据权利要求1所述的辅助视觉系统的信息获取与传递方法,其中步骤2按如下过程进行:
2a.利用下式计算第一幅图像I1的梯度图像:
2b.构造自相关矩阵:
令 则定义自相关矩阵
其中w=exp(-(X1 2+Y1 2)/2σ2)为高斯平滑窗函数;
2c.提取第一幅图像I1的特征点:
令
则Harris特征点响应值为: 其中,常数k通常取0.04-0.06之间,
将R1H与一个阈值进行比较,大于该阈值则认定该点为图像的一个特征点,定义第一幅图像的特征点为:u1=[u1x u1y]T;
2d.重复步骤2a至2c,求出第二幅图像I2的特征点u2=[u2x u2y]T。
3.根据权利要求1所述的辅助视觉系统的信息获取与传递方法,其中步骤3按如下过程进行:
3a.将内部参数完全相同的两个相机平行放置,且将两个相机光轴的连线与第一个相机的x轴重合,构成平行双目立体视觉系统,获得被测点P(xc,zc)在两个图像平面上的投影,即平面几何信息为:
其中,f为焦距,b为基线长度;
3b.根据两幅图像特征点u1和u2的位置差d,计算立体视觉的距离:
3c.根据灰度值与距离zc成反比的关系,改变图像中的各像素点的灰度值,获得包含深度信息的灰度图。
4.根据权利要求1所述的辅助视觉系统的信息获取与传递方法,其中步骤4按如下过程进行:
4a.定义下一帧图像为J(x,y),并在下一帧图像J中找到运动点v1,即
v1=u1+d1=[u1x+d1x u1y+d1y]T,其中d1=[d1x d1y]T为特征点运动矢量,
定义残差函数为:
4b.通过两帧相邻图像的特征点跟踪,找到一个使匹配残差函数ε(d1)最小,即满足ε的一阶差分为0的运动矢量为:
d1=[d1x d1y]T;
4c.重复步骤4a至4b,得到所有帧的运动矢量。
5.根据权利要求1所述的辅助视觉系统的信息获取与传递方法,其中步骤5按如下过程进行:
5a.计算概率图像P(x,y)
计算路面信息颜色直方图,按色度信息对路面进行分割,将色度信息相同的区域划分为候选目标区域,将目标模型和候选目标特征分别表示为:
q={qu}u=1,...,m和p(y)={pu(y)}u=1,...,m
其中,y是候选目标区域的中心位置,且 m为特征值直方图通道的个数,
使用Bhattacharyya系数ρ(y)来替代目标图像中各个像素点的值,其中, k为目标区域内像素点个数,最终获得路面分割的概率图像P(x,y);
5b.计算道路方向信息
通过概率图像P(x,y)的二阶矩计算道路的二维方向θ:
首先,计算概率图像P(x,y)的零阶矩和一阶矩分别为:
其次,计算概率图像P(x,y)的二阶矩:
最后,由概率图像P(x,y)的零阶矩、一阶矩和二阶矩计算出二维方向:
式中
6.根据权利要求1所述的辅助视觉系统的信息获取与传递方法,其中步骤6分为三维几何信息、运动信息和道路信息三种情况,具体步骤如下:
6a.将第一幅图像I1的每个特征点对应一个三维几何信息,给出特征点u1的编码信息为(H3D u1 U f),
式中,H3D为信息识别码,代表传送的是三维几何信息和运动信息,
f为信息传递阵列这一点输出脉冲频率;
6b.对于第一幅图像I1中的运动特征点,给出其的编码信息为(H3D u1′ U f),式中,H3D为信息识别码,代表传送的是三维几何信息和运动信息,
u1′为运动特征点的坐标值,
f为信息传递阵列这一点输出脉冲频率;
6c.用同样的方法对第二幅图像I2的特征点u2进行编码,给出u2的三维几何信息的编码信息为(H3D u2 U f),运动特征点的编码信息为(H3D u2′ U f);
6d.根据获得的概率图像P(x,y),计算出原始图像中道路上的点R(x,y)在信息传递阵列的输出电压为UR=k·P(x,y),给出道路上的点R(x,y)的编码信息为(HR R(x,y) UR f),
其中,HR为信息识别码,表示输出的为道路信息,
f为信息传递阵列输出脉冲频率。
7.根据权利要求1所述的辅助视觉系统的信息获取与传递方法,其中步骤7所述的信息传递单元的信息传递方式,是将所述的三维几何信息(H3D u1 U f)、运动信息(H3D u1′ U f)和道路信息(HR R(x,y) UR f),通过辅助视觉系统中信息传递阵列单元,以振动触觉的形式传递给使用者,
其中,H3D为信息识别码,代表传送的是三维几何信息和运动信息,
u1′为运动特征点的坐标值,
U为信息传递阵列输出电压,定义为U=kоzc,k为比例系数,
f为信息传递阵列这一点输出脉冲频率,
HR为信息识别码,表示输出的为道路信息,
R(x,y)为道路上的点的坐标信息,
UR为道路上的点R(x,y)在信息传递阵列的输出电压。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN2008101505826A CN101336856B (zh) | 2008-08-08 | 2008-08-08 | 辅助视觉系统的信息获取与传递方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN2008101505826A CN101336856B (zh) | 2008-08-08 | 2008-08-08 | 辅助视觉系统的信息获取与传递方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| CN101336856A CN101336856A (zh) | 2009-01-07 |
| CN101336856B true CN101336856B (zh) | 2010-06-02 |
Family
ID=40211130
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN2008101505826A Expired - Fee Related CN101336856B (zh) | 2008-08-08 | 2008-08-08 | 辅助视觉系统的信息获取与传递方法 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN101336856B (zh) |
Families Citing this family (23)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN102598113A (zh) * | 2009-06-30 | 2012-07-18 | 安芯美特控股有限公司 | 匹配出现在两个或多个图像内的对象或人的方法、电路和系统 |
| EP3669933B1 (en) | 2010-02-26 | 2022-08-31 | Cornell University | Retina prosthesis |
| EP2611401A4 (en) | 2010-08-31 | 2014-03-19 | Univ Cornell | Retina prosthesis |
| US9302103B1 (en) | 2010-09-10 | 2016-04-05 | Cornell University | Neurological prosthesis |
| CN101999972B (zh) * | 2010-11-24 | 2013-07-03 | 上海理工大学 | 一种基于立体视觉的盲人辅助行走装置及其辅助方法 |
| CN102451079A (zh) * | 2011-04-08 | 2012-05-16 | 安徽农业大学 | 基于激光三维扫描的盲人导航装置 |
| CN102222348B (zh) * | 2011-06-28 | 2013-04-24 | 南京大学 | 一种三维目标运动矢量计算方法 |
| CN103890781B (zh) | 2011-08-25 | 2017-11-21 | 康奈尔大学 | 用于机器视觉的视网膜编码器 |
| US9014493B2 (en) * | 2011-09-06 | 2015-04-21 | Intel Corporation | Analytics assisted encoding |
| CN103428407B (zh) * | 2012-05-25 | 2017-08-25 | 信帧机器人技术(北京)有限公司 | 一种视频中打架的侦测方法 |
| CN106153041B (zh) * | 2015-03-30 | 2019-08-13 | 北京自动化控制设备研究所 | 一种基于多景深信息的视觉里程计测速方法 |
| EP3291780B1 (en) | 2015-04-20 | 2025-06-04 | Cornell University | Machine vision with dimensional data reduction |
| JP6649054B2 (ja) * | 2015-11-19 | 2020-02-19 | アイシン精機株式会社 | 移動体 |
| US10568502B2 (en) * | 2016-03-23 | 2020-02-25 | The Chinese University Of Hong Kong | Visual disability detection system using virtual reality |
| US10318826B2 (en) * | 2016-10-07 | 2019-06-11 | Ford Global Technologies, Llc | Rear obstacle detection and distance estimation |
| WO2018094697A1 (zh) * | 2016-11-25 | 2018-05-31 | 深圳市窝窝头科技有限公司 | 一种快速三维空间投影摄像视觉识别系统 |
| CN106709518A (zh) * | 2016-12-20 | 2017-05-24 | 西南大学 | 基于Android平台的盲道识别系统 |
| CN107230220B (zh) * | 2017-05-26 | 2020-02-21 | 深圳大学 | 一种新的时空Harris角点检测方法及装置 |
| CN109602585B (zh) * | 2018-11-30 | 2022-02-22 | 西安工程大学 | 一种导盲眼镜及其防撞预警方法 |
| CN114494840B (zh) * | 2020-11-09 | 2025-06-17 | 苏州科瓴精密机械科技有限公司 | 一种障碍物识别方法、装置、设备、介质及除草机器人 |
| CN113902813A (zh) * | 2021-10-21 | 2022-01-07 | 西安电子科技大学 | 一种基于多源信息融合的智能场景感知防御装置与方法 |
| CN116824258B (zh) * | 2023-06-30 | 2024-05-14 | 哈尔滨工业大学 | 一种基于反向投影的施工场地烟尘检测方法 |
| CN116849919A (zh) * | 2023-07-17 | 2023-10-10 | 曲阜师范大学 | 基于深度估计和强化学习的视觉障碍人士智能导盲方法及系统 |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN1969781A (zh) * | 2005-11-25 | 2007-05-30 | 上海电气自动化设计研究所有限公司 | 导盲器 |
| CN101040810A (zh) * | 2007-04-19 | 2007-09-26 | 上海交通大学 | 基于物体辨识的盲人生活辅助装置 |
-
2008
- 2008-08-08 CN CN2008101505826A patent/CN101336856B/zh not_active Expired - Fee Related
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN1969781A (zh) * | 2005-11-25 | 2007-05-30 | 上海电气自动化设计研究所有限公司 | 导盲器 |
| CN101040810A (zh) * | 2007-04-19 | 2007-09-26 | 上海交通大学 | 基于物体辨识的盲人生活辅助装置 |
Non-Patent Citations (5)
| Title |
|---|
| N.Bourbakis.Sensing Surrounding 3-D Space for Navigation of the Blind-Aprototype system featuring vibration arrays and data fusionprovides a near real-time feedback..IEEE Engineering In Medicine and Biology Magazine27 1.2008,27(1),49-55. * |
| N.G.Bourbakis et.al..An Intelligent Assistant for Navigation of Visually ImpairedPeople.Proceedings of the IEEE 2nd Inter.Symposium on Bioinformatics and Bioengineering Conference..2001,230-235. * |
| 张春森.基于点特征匹配的SUSAN Harris算子比较.西安科技大学学报27 4.2007 * |
| 张春森.基于点特征匹配的SUSAN,Harris算子比较.西安科技大学学报27 4.2007,27(4),608-611,616. * |
| 朱娟娟,郭宝龙.电子稳像的特征点跟踪算法.光电学报26 4.2006,26(4),516-521. * |
Also Published As
| Publication number | Publication date |
|---|---|
| CN101336856A (zh) | 2009-01-07 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN101336856B (zh) | 辅助视觉系统的信息获取与传递方法 | |
| CN112634341B (zh) | 多视觉任务协同的深度估计模型的构建方法 | |
| CN101907459B (zh) | 基于单目视频的实时三维刚体目标姿态估计与测距方法 | |
| Alcantarilla et al. | On combining visual SLAM and dense scene flow to increase the robustness of localization and mapping in dynamic environments | |
| CN102389361B (zh) | 一种基于计算机视觉的盲人户外支援系统 | |
| CN102697508B (zh) | 采用单目视觉的三维重建来进行步态识别的方法 | |
| CN112833892B (zh) | 一种基于轨迹对齐的语义建图方法 | |
| CN104036488B (zh) | 一种基于双目视觉的人体姿态动作研究方法 | |
| CN109579825B (zh) | 基于双目视觉和卷积神经网络的机器人定位系统及方法 | |
| CN107204010A (zh) | 一种单目图像深度估计方法与系统 | |
| CN103971408A (zh) | 三维人脸模型生成系统及方法 | |
| CN112801074A (zh) | 一种基于交通摄像头的深度图估计方法 | |
| CN112907631B (zh) | 一种引入反馈机制的多rgb相机实时人体动作捕捉系统 | |
| KR101714224B1 (ko) | 센서 융합 기반 3차원 영상 복원 장치 및 방법 | |
| AU2021103300A4 (en) | Unsupervised Monocular Depth Estimation Method Based On Multi- Scale Unification | |
| CN111580130A (zh) | 一种基于多传感器融合的建图方法 | |
| Wei et al. | Remote distance binocular vision ranging method based on improved YOLOv5 | |
| Burlacu et al. | Obstacle detection in stereo sequences using multiple representations of the disparity map | |
| CN112494290A (zh) | 一种导航眼镜 | |
| CN112329723A (zh) | 一种基于双目相机的多人人体3d骨骼关键点定位方法 | |
| CN105096327A (zh) | 一种基于计算机双目视觉及单应性矩阵的盲道定位方法 | |
| CN114812558B (zh) | 一种结合激光测距的单目视觉无人机自主定位方法 | |
| CN112580683A (zh) | 一种基于互相关的多传感器数据时间对齐系统及其方法 | |
| CN106595595A (zh) | 一种基于深度传感器的室内机器人定向方法 | |
| CN111612912B (zh) | 一种基于Kinect 2相机面部轮廓点云模型的快速三维重构及优化方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| C06 | Publication | ||
| PB01 | Publication | ||
| C10 | Entry into substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| C14 | Grant of patent or utility model | ||
| GR01 | Patent grant | ||
| CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20100602 Termination date: 20140808 |
|
| EXPY | Termination of patent right or utility model |










