CN102646275B - 通过跟踪和定位算法实现虚拟三维叠加的方法 - Google Patents
通过跟踪和定位算法实现虚拟三维叠加的方法 Download PDFInfo
- Publication number
- CN102646275B CN102646275B CN201210040095.0A CN201210040095A CN102646275B CN 102646275 B CN102646275 B CN 102646275B CN 201210040095 A CN201210040095 A CN 201210040095A CN 102646275 B CN102646275 B CN 102646275B
- Authority
- CN
- China
- Prior art keywords
- unique point
- dimensional
- video camera
- tracked target
- pixel coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了通过跟踪和定位算法实现虚拟三维叠加的方法,包括以下步骤:步骤1,预先设定被跟踪目标的特征点,以被跟踪目标特征点所在平面为参考平面,以任意一个特征点为原点确定世界坐标系,将每个特征点的世界坐标值记录下来;步骤2,记录两帧图像的像素坐标值 步骤3,对后续输入的每帧图像同样进行特征点检测,计算摄像机的内参数N和外参数H;步骤4,对获得的外参数矩阵进行分解计算出目标与摄像机之间的平移向量t和旋转向量R;步骤5,完成虚拟增强现实的三维叠加。叠加三维模型后的视频图像三维立体感强、效果逼真。
Description
技术领域
本发明属于图像处理和AR(AugmentedReality,即增强现实技术)领域,具体地说是一种通过跟踪和定位算法实现虚拟三维叠加的方法,可应用于虚拟三维场景实时演示和世界坐标系运动信息获取系统中。
背景技术
增强现实是近年来国外众多知名大学和研究机构的研究热点之一。AR技术在VR(VirtualReality,即虚拟现实)相关的应用领域,诸如尖端武器、飞行器研制与开发、数据模型的可视化、虚拟训练、娱乐与艺术等领域均有广泛应用。构造一个AR系统需要解决诸多关键技术问题,主要有三维显示技术、跟踪和定位技术、界面和可视化技术以及摄像机标定技术。为了实现虚拟与现实交互,AR需要对感兴趣目标的三维坐标信息进行精确定位,因而准确地跟踪感兴趣目标在三维坐标系下的位置以及目标和摄像机之间的相对位置十分重要。
针对室内应用环境,传统的AR实现方法通常需要预先在已知位置上放置基准标记,通过识别和跟踪这些标记来间接跟踪感兴趣目标,其优点是在确定或可控环境下能够实现鲁棒性较高的跟踪效果,缺点是不能实现直接对目标进行三维坐标信息提取和跟踪。对于室外移动的应用环境,AR一般使用GPS(GlobalPositioningSystem,即全球定位系统)或DeadReckoning(即航位推算)技术计算感兴趣目标在户外的实时三维位置并进行跟踪,但由于GPS和DeadReckoning技术只能对目标三维坐标信息进行粗略计算,精确度很低,且需要的计算时间太长,无法满足视频图像处理的实时性要求。
发明内容
本发明的目的在于实时地计算出视频中感兴趣目标相对于摄像机的三维坐标信息,根据提取出的三维坐标信息,利用OPENGL引擎平台叠加三维模型实现虚拟增强技术。算法中的角点检测精度能达到亚像素级,通过误差算法的检测表明此标定算法计算出的相机参数准确度可达到10-4量级以下,算法实时性很高,且利用单帧图像即可提取出目标的三维坐标信息。
为实现上述目的,本发明包括如下步骤:
通过跟踪和定位算法实现虚拟三维叠加的方法,包括以下步骤:
步骤1,预先设定被跟踪目标的特征点,以被跟踪目标特征点所在平面为参考平面,以任意一个特征点为原点确定世界坐标系,将每个特征点的世界坐标值记录下来;
步骤2,人为变换被跟踪目标相对于摄像机的角度,针对被跟踪目标不同角度下拍摄的图像进行特征点检测,若能在图像中检测出被跟踪目标预先设定的全部对应特征点,则记录该帧图像中被跟踪目标预先设定特征点的像素坐标值;记录满足上述要求的两帧图像的像素坐标值
步骤3,对后续输入的每帧图像同样进行特征点检测,并记录图像中的特征点的像素坐标值加上之前检测到的两组像素坐标值共组成三组像素坐标数据,建立如图2所示的摄像机成像模型,利用世界坐标系下的坐标值与其投影点的像素坐标值(ui,vi)之间的关系式,计算摄像机的内部参数矩阵N和外部参数矩阵H:
其中,αx=f/dx,αy=f/dy;αx、αy分别为图像u轴和v轴上的尺度因子,u0、v0为摄像机的主点,M为投影矩阵;N为摄像机内部参数矩阵;H为摄像机的外部参数矩阵;
步骤4,对获得的外参数矩阵进行分解计算出目标与摄像机之间的平移向量t和旋转向量R;
步骤5,利用OPENGL,导入外参数为模型视角矩阵,再叠加上三维虚拟模型,模型的视角变化就和图像中标识物视角变化一致,将当前帧视频图像作为背景,完成虚拟增强现实的三维叠加。
本发明与现有技术相比具有以下优点:
1.本发明可实现对每帧视频图像都实时计算目标的三维坐标信息,能够解决AR在定位和获取坐标信息的实时性问题;
2.本发明采用OPENGL完成最后的三维叠加,将当前帧视频图像作为背景,叠加三维模型后的视频图像三维立体感强、效果逼真。OPENGL也很通用,三维模型可以在OPENGL中自由地定义和修改。
附图说明
图1是本发明方法的流程图;
图2是CCD相机成像原理;
图3是检测出目标所有特征点信息的第一帧图像;
图4是变换目标角度后检测出所有特征点的第二帧图像;
图5是实时采集的可检测到特征点的图像帧;
图6和图7是本发明叠加上三维模型的图像帧1和图像帧2;
具体实施方式
以下结合具体实例,对本发明进行详细说明。
参照图1,本发明实现AR虚拟增强现实的一种解决方法,包括如下步骤:
步骤1,预先设定被跟踪目标的特征点,以被跟踪目标特征点所在平面为参考平面,以任意一个特征点为原点确定世界坐标系,将每个特征点的世界坐标值记录下来;
步骤2,人为变换被跟踪目标相对于摄像机的角度,针对被跟踪目标不同角度下拍摄的图像进行特征点检测,若能在图像中检测出被跟踪目标预先设定的全部对应特征点,则记录该帧图像中被跟踪目标预先设定特征点的像素坐标值。必须记录满足上述要求的两帧图像的像素坐标值 这是为了和后续图像帧检测到的像素坐标值组成三组像素坐标数据,以计算摄像机的内参数N和外参数H,在这里k=3,4,...表示帧数,特征采用Harris角点;
步骤3,对后续输入的每帧图像同样进行特征点检测,并记录图像中的特征点的像素坐标值加上之前检测到的两组像素坐标值共组成三组像素坐标数据,建立如图2所示的摄像机成像模型,利用世界坐标系下的坐标值与其投影点的像素坐标值(ui,vi)之间的关系式,计算摄像机的内参数N和外参数H:
其中,αx=f/dx,αy=f/dy;αx、αy分别为图像u轴和v轴上的尺度因子,u0、v0为摄像机的主点,M为投影矩阵;N为摄像机内部参数矩阵;H为摄像机的外部参数矩阵。
由于摄像机存在镜头畸变,成像模型并不能满足线性关系,而是一种非线性关系,需要引入透镜的径向畸变和切向畸变,xd、yd分别为考虑畸变情况下的像点物理坐标,有等式:
其中k1、k2为径向畸变,k3、k4为切向畸变,
利用步骤2记录的特征点图像坐标值代入到步骤3)的公式中,计算出外参数矩阵H。
步骤4,对获得的外参数矩阵进行分解计算出目标与摄像机之间的平移向量t和旋转向量R。
步骤5,利用OPENGL,导入外参数为模型视角矩阵,再叠加上三维虚拟模型,模型的视角变化就和图像中标识物视角变化一致,将当前帧视频图像作为背景,完成虚拟增强现实的三维叠加。
本发明效果可以通过以下实验进一步证实:
实验条件和内容
实验条件:实验所使用的输入图像如图3、图4和图5所示,其中图3和图4是预先要提取特征点的图像帧,图5是实时提取特征点的图像帧,图6、图7是在视频中叠加上用户自定义的三维模型。
实验内容:在上述实验条件下,将有标识物的图像帧放在摄像机面前,程序会实时对当前帧图像进行特征点检测,若检测到特征点,会将特征点提取出来和之前预处理提取的特征点作为一组计算相机的当前帧图像的相机外参数,将相机外参数矩阵赋给OPENGL中的模型视角矩阵,再叠加上用户自定义的三维模型。
二.实验结果
用本发明的方法对视频中出现的标识物进行相机外参数的计算,再将参数赋给OPENGL中模型视角矩阵,渲染用户自定义的三维模型,实现的效果如图7所示,实时性完全满足。
应当指出,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,而所有这些改进和变换都应属于本发明所附权利要求的保护范围。
Claims (1)
1.一种通过跟踪和定位算法实现虚拟三维叠加的方法,其特征在于,包括以下步骤:
步骤1,预先设定被跟踪目标的特征点,以被跟踪目标特征点所在平面为参考平面,以任意一个特征点为原点确定世界坐标系,将每个特征点的世界坐标值记录下来;
步骤2,人为变换被跟踪目标相对于摄像机的角度,针对被跟踪目标不同角度下拍摄的图像进行特征点检测,若能在图像中检测出被跟踪目标预先设定的全部对应特征点,则记录该帧图像中被跟踪目标预先设定特征点的像素坐标值;记录满足上述要求的两帧图像的像素坐标值
步骤3,对后续输入的每帧图像同样进行特征点检测,并记录图像中的特征点的像素坐标值加上之前检测到的两组像素坐标值共组成三组像素坐标数据,建立摄像机成像模型,利用世界坐标系下的坐标值与其投影点的像素坐标值(ui,vi)之间的关系式,计算摄像机的内部参数矩阵N和外部参数矩阵H:
其中,αx=f/dx,αy=f/dy;αx、αy分别为图像u轴和v轴上的尺度因子,u0、v0为摄像机的主点,M为投影矩阵;N为摄像机内部参数矩阵;H为摄像机的外部参数矩阵;由于摄像机存在镜头畸变,成像模型并不能满足线性关系,而是一种非线性关系,需要引入透镜的径向畸变和切向畸变,xd、yd分别为考虑畸变情况下的像点物理坐标,有等式:
其中k1、k2为径向畸变,k3、k4为切向畸变,
步骤4,对获得的外部参数矩阵进行分解,计算出目标与摄像机之间的平移向量t和旋转向量R;
步骤5,利用OPENGL,导入外参数为模型视角矩阵,再叠加上三维虚拟模型,模型的视角变化就和图像中标识物视角变化一致,将当前帧视频图像作为背景,完成虚拟增强现实的三维叠加。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210040095.0A CN102646275B (zh) | 2012-02-22 | 2012-02-22 | 通过跟踪和定位算法实现虚拟三维叠加的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210040095.0A CN102646275B (zh) | 2012-02-22 | 2012-02-22 | 通过跟踪和定位算法实现虚拟三维叠加的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102646275A CN102646275A (zh) | 2012-08-22 |
CN102646275B true CN102646275B (zh) | 2016-01-20 |
Family
ID=46659087
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210040095.0A Active CN102646275B (zh) | 2012-02-22 | 2012-02-22 | 通过跟踪和定位算法实现虚拟三维叠加的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102646275B (zh) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103871073B (zh) * | 2012-12-18 | 2017-08-25 | 华为技术有限公司 | 一种基于增强现实的目标跟踪方法、设备及系统 |
WO2014125134A1 (es) * | 2013-02-14 | 2014-08-21 | Manin Company Construcciones En Acero Inoxidable, S.L.U. | Método para la representación de entornos virtuales localizados geográficamente y dispositivo móvil |
CN104090664B (zh) * | 2014-07-29 | 2017-03-29 | 广景科技有限公司 | 一种交互式投影方法、装置及系统 |
WO2016137527A1 (en) | 2015-02-24 | 2016-09-01 | Sri International | Hyperdexterous system user interface |
CN104715479A (zh) * | 2015-03-06 | 2015-06-17 | 上海交通大学 | 基于增强虚拟的场景复现检测方法 |
WO2017147826A1 (zh) * | 2016-03-02 | 2017-09-08 | 武克易 | 智能设备的图像处理方法及装置 |
CN106204595B (zh) * | 2016-07-13 | 2019-05-10 | 四川大学 | 一种基于双目摄像机的机场场面三维全景监视方法 |
CN107665508B (zh) * | 2016-07-29 | 2021-06-01 | 成都理想境界科技有限公司 | 实现增强现实的方法及系统 |
CN106780624A (zh) * | 2016-12-14 | 2017-05-31 | 广东工业大学 | 一种基于参照物的多相机标定方法及装置 |
CN106483814A (zh) * | 2016-12-26 | 2017-03-08 | 岭南师范学院 | 一种基于增强现实的3d全息投影系统及其使用方法 |
CN108318024A (zh) * | 2017-01-18 | 2018-07-24 | 樊晓东 | 一种基于图像识别云服务的地理定位系统和方法 |
CN107464290A (zh) * | 2017-08-07 | 2017-12-12 | 上海白泽网络科技有限公司 | 三维信息展示方法、装置和移动终端 |
CN108022301B (zh) * | 2017-11-23 | 2020-05-19 | 腾讯科技(上海)有限公司 | 一种图像处理方法、装置以及存储介质 |
CN110119190A (zh) * | 2018-02-06 | 2019-08-13 | 广东虚拟现实科技有限公司 | 定位方法、装置、识别跟踪系统及计算机可读介质 |
CN110120099A (zh) * | 2018-02-06 | 2019-08-13 | 广东虚拟现实科技有限公司 | 定位方法、装置、识别跟踪系统及计算机可读介质 |
CN108447032B (zh) * | 2018-03-07 | 2021-10-08 | 浙江大学 | 一种基于增强现实的绘画作品临摹和再创作方法 |
CN108921889A (zh) * | 2018-05-16 | 2018-11-30 | 天津大学 | 一种基于扩增现实应用的室内三维定位方法 |
CN111369622B (zh) * | 2018-12-25 | 2023-12-08 | 中国电子科技集团公司第十五研究所 | 虚实叠加应用的相机世界坐标位置获取方法、装置和系统 |
EP3948800A4 (en) * | 2019-04-04 | 2023-05-10 | Centerline Biomedical, Inc. | Registration of spatial tracking system with augmented reality display |
CN110176022B (zh) * | 2019-05-23 | 2023-03-28 | 广西交通科学研究院有限公司 | 一种基于视频检测的隧道全景监控系统及方法 |
CN110286906B (zh) * | 2019-06-25 | 2024-02-02 | 网易(杭州)网络有限公司 | 用户界面显示方法、装置、存储介质与移动终端 |
CN111062966B (zh) * | 2019-11-05 | 2024-01-02 | 东北大学 | 基于l-m算法和多项式插值对相机跟踪进行优化的方法 |
CN114139325B (zh) * | 2021-12-08 | 2022-09-09 | 国网上海市电力公司 | 一种利用自然场景进行地下线缆可视化校准方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101839721A (zh) * | 2010-03-12 | 2010-09-22 | 西安电子科技大学 | 自主交会对接中的视觉导航方法 |
CN102129708A (zh) * | 2010-12-10 | 2011-07-20 | 北京邮电大学 | 增强现实环境中快速多层次虚实遮挡处理方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100573586C (zh) * | 2008-02-21 | 2009-12-23 | 南京航空航天大学 | 一种双目立体测量系统的标定方法 |
-
2012
- 2012-02-22 CN CN201210040095.0A patent/CN102646275B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101839721A (zh) * | 2010-03-12 | 2010-09-22 | 西安电子科技大学 | 自主交会对接中的视觉导航方法 |
CN102129708A (zh) * | 2010-12-10 | 2011-07-20 | 北京邮电大学 | 增强现实环境中快速多层次虚实遮挡处理方法 |
Non-Patent Citations (1)
Title |
---|
基于自然特征点的增强现实系统配准技术研究;陈卓;《中国优秀硕士学位论文全文数据库信息科技辑》;20111231(第12期);I138-1099 * |
Also Published As
Publication number | Publication date |
---|---|
CN102646275A (zh) | 2012-08-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102646275B (zh) | 通过跟踪和定位算法实现虚拟三维叠加的方法 | |
CN103868460B (zh) | 基于视差优化算法的双目立体视觉自动测量方法 | |
CN102831401B (zh) | 对无特定标记目标物体跟踪、三维叠加及交互的方法及系统 | |
CN104933718B (zh) | 一种基于双目视觉的物理坐标定位方法 | |
CN106803270A (zh) | 无人机平台基于单目slam的多关键帧协同地面目标定位方法 | |
CN108810473B (zh) | 一种在移动平台上实现gps映射摄像机画面坐标的方法及系统 | |
CN105243664B (zh) | 一种基于视觉的轮式移动机器人快速目标跟踪方法 | |
CN104359464A (zh) | 基于立体视觉的移动机器人定位方法 | |
CN103839277A (zh) | 一种户外大范围自然场景的移动增强现实注册方法 | |
CN106056625B (zh) | 一种基于地理同名点配准的机载红外运动目标检测方法 | |
CN103500452A (zh) | 基于空间关系和图像分析的景区景物移动增强现实方法 | |
CN102072706A (zh) | 一种多相机定位与跟踪方法及系统 | |
CN113012197A (zh) | 一种适用于动态交通场景的双目视觉里程计定位方法 | |
CN107097256B (zh) | 基于视觉非完整机器人在极坐标下的无模型目标跟踪方法 | |
CN104570764A (zh) | 一种机载目标指示系统验证平台 | |
CN106504287A (zh) | 基于模板的单目视觉目标空间定位系统 | |
Guo et al. | Research on DSO vision positioning technology based on binocular stereo panoramic vision system | |
CN114266823A (zh) | 一种结合SuperPoint网络特征提取的单目SLAM方法 | |
Mithun et al. | Cross-view visual geo-localization for outdoor augmented reality | |
CN105118061A (zh) | 用于将视频流配准至三维地理信息空间中的场景的方法 | |
CN113487726B (zh) | 动作捕捉系统和方法 | |
CN115147344A (zh) | 一种增强现实辅助汽车维修中的零件三维检测与跟踪方法 | |
CN108399630B (zh) | 一种复杂场景下感兴趣区域内目标快速测距方法 | |
CN102609949A (zh) | 一种基于三焦点张量像素点转移的目标定位方法 | |
Yuan et al. | Estimation of vehicle pose and position with monocular camera at urban road intersections |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
DD01 | Delivery of document by public notice |
Addressee: Liu Xiaoxia Document name: Notification of Passing Examination on Formalities |
|
DD01 | Delivery of document by public notice |