[go: up one dir, main page]

CN104504671B - 一种用于立体显示的虚实融合图像生成方法 - Google Patents

一种用于立体显示的虚实融合图像生成方法 Download PDF

Info

Publication number
CN104504671B
CN104504671B CN201410765678.9A CN201410765678A CN104504671B CN 104504671 B CN104504671 B CN 104504671B CN 201410765678 A CN201410765678 A CN 201410765678A CN 104504671 B CN104504671 B CN 104504671B
Authority
CN
China
Prior art keywords
virtual
current frame
depth map
scene
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201410765678.9A
Other languages
English (en)
Other versions
CN104504671A (zh
Inventor
张骏飞
王梁昊
李东晓
张明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN201410765678.9A priority Critical patent/CN104504671B/zh
Publication of CN104504671A publication Critical patent/CN104504671A/zh
Application granted granted Critical
Publication of CN104504671B publication Critical patent/CN104504671B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种用于立体显示的虚实融合图像生成方法,包括:(1)利用单目RGB‑D摄像机获取真实场景的深度图和彩色图;(2)重建三维场景表面模型,计算摄像机参数;(3)映射得到虚拟视点位置的深度图和彩色图;(4)完成虚拟物体的三维注册,渲染得到虚拟物体的深度图和彩色图,进行虚实融合,得到用于立体显示的虚实融合内容。本发明采用单目RGB‑D摄像机拍摄,逐帧重建三维场景模型,模型被同时用于摄像机追踪和虚拟视点映射,能获取较高的摄像机追踪精度和虚拟物体注册精度,能较好的应对基于图像的虚拟视点绘制技术中出现的空洞,能实现虚实场景的遮挡判断和碰撞检测,利用立体显示设备可以获得逼真的立体显示效果。

Description

一种用于立体显示的虚实融合图像生成方法
技术领域
本发明属于三维立体成像技术领域,具体涉及一种用于立体显示的虚实融合图像生成方法。
背景技术
立体显示技术已成为IT、通信、广电领域的主旋律,也成为人们耳熟能详的名词。随着立体显示技术的日臻完善,人们对3D内容的热情与期待也越来越高。随着市场需求的不断增加,人们正在寻求更加方便快捷低成本的3D内容生成方式。虚实融合是指通过电脑技术将虚拟信息融入到真实世界的技术,在医学、娱乐和军事等领域均有广泛的应用前景。立体显示技术与虚实融合的结合是大势所趋,一方面立体显示技术为虚实融合提供了更佳的展示方式,另一方面虚实融合则为3D内容制作带来了新的方法。
对于单目摄像机而言,3D内容制作的关键在于虚拟视点的生成算法。虚拟视点生成算法可被分为两大类:基于模型的虚拟视点绘制技术和基于图像的虚拟视点绘制技术。
基于模型的虚拟视点绘制技术指的是先采用计算机视觉知识重建拍摄场景的三维模型,然后通过计算机三维图形渲染技术绘制得到新的虚拟视点图像的技术。这种方法在结构简单的场景中可以获得较好的虚拟视点绘制效果,但是对于复杂场景,精确三维模型建立的难度极高,而且所需的运算资源和数据量也非常大,因此并不适用于现实世界中自然场景的虚拟视点绘制。
基于图像的虚拟视点绘制技术指的是不需要精确的三维场景模型,直接利用摄像机拍摄的真实图像,通过双目或多目摄像机模型,映射出新的虚拟视点图像的一类技术。相比基于模型的虚拟视点绘制技术,其具有输入数据量小,图像数据获取简单,绘制速度快等诸多优点,非常适合自然三维场景的绘制应用,但是在视差较大的区域由于遮挡而产生的空洞填补问题难以解决。
摄像机追踪技术是虚实融合中最为关键的技术,它是指系统应该能够实时精确的计算摄像机所处的位置。在虚实融合系统中,摄像机追踪技术直接关系到虚拟物体能否始终正确的被安放到正确的位置,将决定虚实融合效果的稳定性和真实感。最初的虚实融合系统采用基于标记的方法进行摄像机追踪,使用特殊图形作为标记来估计摄像机的运动姿态,这种方法相对比较简单,但是由于追踪依赖特殊标记物完成,因此使用场景并不广泛。
上世纪九十年代,Smith和Cheeseman等人给出了即时定位与地图构建(SLAM)的基于估计理论的解决方案,通过提取图像特征点构建稀疏的特征点云,再利用特征点云进行摄像机追踪。在此基础之上,不断涌现出许多基于单目RGB摄像机的摄像机追踪方案,如Davision提出的MonoSLAM系统,Klein等人提出的PTAM(并行跟踪和定位)算法,使研究者可以进行灵活的无需标记的三维注册,但是追踪精度仍然不够高。
发明内容
针对现有技术所存在的上述技术问题,本发明提供了一种用于立体显示的虚实融合图像生成方法,能获取较高的摄像机追踪精度和虚拟物体注册精度,能较好的应对基于图像的虚拟视点绘制技术中出现的空洞。
一种用于立体显示的虚实融合图像生成方法,包括如下步骤:
(1)利用单目RGB-D(红绿蓝三原色加距离深度)摄像机采集获取单目RGB-D摄像机视点关于场景当前帧的深度图Dr_k和色彩图Cr_k
(2)利用前一帧的三维场景重建模型确定当前帧的单目RGB-D摄像机参数,并利用深度图Dr_k和色彩图Cr_k对所述的三维场景重建模型进行更新,得到当前帧的三维场景重建模型;
(3)根据采集到的深度图Dr_k和色彩图Cr_k以当前帧的三维场景重建模型作为指导,利用双目摄像机模型通过映射得到虚拟摄像机视点关于场景当前帧的深度图Dv_k和色彩图Cv_k
(4)对虚拟物体进行三维注册并渲染得到单目RGB-D摄像机视点和虚拟摄像机视点关于虚拟物体的深度图和彩色图;利用两个视点关于场景和虚拟物体的深度图进行遮挡判断和碰撞检测以对两个视点关于场景和虚拟物体的色彩图进行融合,得到用于立体显示的虚实融合图像。
所述步骤(2)的具体过程如下:
2.1从前一帧的三维场景重建模型中提取出单目RGB-D摄像机视点关于场景前一帧的深度图Dr_k-1
2.2对当前帧深度图Dr_k和前一帧深度图Dr_k-1进行匹配,计算出当前帧的单目RGB-D摄像机参数;
2.3从匹配过程的局外点中滤波得到运动物体区域,以运动物体区域作为模板从当前帧的深度图Dr_k和色彩图Cr_k中分离出运动物体和静态背景;
2.4根据当前帧的单目RGB-D摄像机参数利用当前帧静态场景的深度信息和色彩信息,采用体集成算法对前一帧的三维场景重建模型进行更新,得到当前帧的三维场景重建模型。
优选地,利用Raycast算法从前一帧的三维场景重建模型中提取出单目RGB-D摄像机视点关于场景前一帧的深度图Dr_k-1
优选地,采用ICP(迭代最近点)算法对深度图Dr_k和深度图Dr_k-1进行匹配。
所述的局外点为当前帧深度图Dr_k中与前一帧深度图Dr_k-1未匹配上的像素点。
所述的步骤2.3中,从当前帧深度图Dr_k的局外点中滤除掉属于场景中物体边缘上的局外点、单目RGB-D摄像机无法获取到深度值的局外点以及零星小块聚集的局外点,从而得到运动物体区域。
所述步骤(3)的具体过程如下:
3.1将当前帧的单目RGB-D摄像机参数代入双目摄像机模型中计算得到当前帧的虚拟摄像机参数,根据所述的虚拟摄像机参数从当前帧的三维场景重建模型中提取出虚拟摄像机视点关于场景当前帧的深度图Dv1_k和色彩图Cv1_k
3.2根据双目摄像机模型,从当前帧深度图Dr_k映射得到虚拟摄像机视点关于场景当前帧的深度图Dv2_k
3.3对映射得到的当前帧深度图Dv2_k中的重采样空洞进行填补;
3.4根据填补后的深度图Dv2_k和双目摄像机模型,从当前帧色彩图Cr_k映射得到虚拟摄像机视点关于场景当前帧的色彩图Cv2_k
3.5利用提取得到的当前帧深度图Dv1_k和色彩图Cv1_k对映射得到的当前帧的深度图Dv2_k和色彩图Cv2_k进行遮挡空洞填补,最终得到虚拟摄像机视点关于场景当前帧的深度图Dv_k和色彩图Cv_k
优选地,利用Raycast算法从当前帧的三维场景重建模型中提取出虚拟摄像机视点关于场景当前帧的深度图Dv1_k和色彩图Cv1_k
本发明采用单目RGB-D摄像机拍摄,逐帧重建三维场景模型,模型被同时用于摄像机追踪和虚拟视点映射,能获取较高的摄像机追踪精度和虚拟物体注册精度,能较好的应对基于图像映射的虚拟视点绘制技术中出现的空洞,能实现虚实场景的遮挡判断和碰撞检测,利用3D立体显示设备可以获得逼真的立体显示效果。
附图说明
图1为本发明摄像机追踪模块的处理流程示意图。
图2为本发明虚拟视点绘制模块的处理流程示意图。
具体实施方式
为了更为具体地描述本发明,下面结合附图及具体实施方式对本发明的技术方案进行详细说明。
本发明用于立体显示的虚实融合图像生成方法,包括如下步骤:
(1)利用单目RGB-D摄像机进行场景深度信息和颜色信息的获取。
(2)利用摄像机追踪模块根据三维场景重建模型确定每帧的摄像机参数,同时逐帧将场景深度信息和颜色信息融入三维场景重建模型中。
2.1利用Raycast算法,根据保存的上一帧的摄像机姿态从三维场景重建模型中提取出上一帧的深度图;
2.2对当前帧的深度图进行预处理。利用ICP算法,对上一帧和当前帧的深度图进行匹配,计算从上一帧到当前帧的摄像机运动,进而计算出当前帧的摄像机参数;
2.3从匹配过程的局外点中滤波得到运动物体区域,以运动物体区域作为模板在当前帧深度图Dr_k和当前帧色彩图Cr_k中分离出运动物体和静态背景;
2.4利用体集成算法,根据当前帧的摄像机参数,将当前帧中静态场景的深度信息和彩色信息融入三维场景重建模型。该模型是一个三维空间中的正方体,该模型由许多大小均匀的小正方体组成,每个小正方体存储其所代表的空间位置的加权TSDF值和加权颜色值。
如图1所示,摄像机追踪模块采用的是基于模型的摄像机追踪方法,利用逐帧重建的三维场景表面模型作为匹配对象,并从匹配局外点中分离出运动物体,提高摄像机抗干扰追踪能力。本实施方式采用单目RGB-D摄像机作为采集设备,摄像机追踪过程仅适用深度信息进行匹配。首先需要对摄像机进行标定,以获取摄像机内参。每帧深度信息获取之后需要对深度图进行降噪处理,本实施方式采用双边滤波器进行滤波。根据摄像机内参,可以将深度图映射成为摄像机坐标系下的三维点云。假设摄像机运动平缓,可以利用ICP算法对当前帧的点云和前一帧的点云进行快速匹配,获得前一帧和当前帧摄像机的相对运动,进而根据前一帧摄像机参数计算出当前帧摄像机参数,其中ICP算法采用的是点面距能量公式如下:
其中:Vk,Vk-1分别是当前帧和前一帧三维点云的顶点图,Nk-1是前一帧三维点云的法向量图,Tg,k是两帧之间的摄像机运动矩阵。
另外,匹配过程中的局外点可以通过形态学操作过滤出运动物体位置,以此为模板可以得到滤除运动干扰的场景深度图。通过获得的摄像机参数,可将当前帧深度图再次映射到空间中,即获得当前帧拍摄到的场景表面各点在空间中的位置,将这些深度信息融入三维场景表面模型。该模型是一个三维空间中的正方体,该模型由许多大小均匀的小正方体组成,每个小正方体存储其所代表的空间位置的加权TSDF值和加权颜色值。其中TSDF值代表的是这一空间位置到离它最近的实体表面的距离,小正方体中存储的值由各帧TSDF值加权得到,加权方式如下:
wk=wk-1+wk′
其中:k-1k,dk′分别是前一帧加权TSDF值,当前帧加权TSDF值和当前帧TSDF值,wk-1,wk分别是前一帧和当前帧权重,wk′为每帧增加权重,本方法中设为常量1。颜色加权方式与TSDF加权方式相同。
(3)利用虚拟视点绘制模块根据每帧采集到的深度图和彩色图,使用三维场景重建模型作为指导,利用双目摄像机模型映射得到虚拟视点位置的深度图和彩色图。
3.1根据双目摄像机模型的摄像机参数,利用Raycast算法,从三维场景重建模型中提取得到拍摄位置的深度图,虚拟视点位置的深度图和彩色图;
3.2使用提取得到的拍摄位置的深度图对当前帧的深度图进行填补,根据双目摄像机模型,从填补后的当前帧的深度图映射得到虚拟视点位置的深度图;
3.3对映射得到的虚拟视点位置的深度图中的重采样空洞进行填补;
3.4使用虚拟视点位置填补后的深度图,根据双目摄像机的摄像机参数,从当前帧的彩色图映射得到虚拟视点位置的彩色图;
3.5利用模型中提取的深度图和彩色图再次对虚拟视点位置的深度图和彩色图进行空洞填补,得到最终的虚拟视点位置的深度图和彩色图。
如图2所示,虚拟视点绘制模块采用的方法结合了基于图像的虚拟视点绘制技术和基于模型的虚拟视点绘制技术。模块包含遮挡空洞填补单元,深度图映射单元,重采样空洞填补单元,彩色图逆映射单元。获取到一帧的深度图后,首先利用Raycast算法从三维场景重建模型中提取出当前帧的深度图作为辅助深度图,空洞填补单元以这副辅助深度图作为参考,对当前帧深度图进行空洞填补。接下来深度图映射单元利用双目摄像机模型将当前帧深度图映射到虚拟视点位置,从而获取虚拟视点深度图。然后重采样空洞填补单元需要对虚拟视点深度图中因重采样所产生的空洞进行填补操作。当前帧的彩色图利用填补后的虚拟视点深度图所确定的逆映射关系,经过彩色图逆映射单元,得到虚拟视点彩色图。最后遮挡空洞填补单元从三维场景重建模型中提取出虚拟摄像机位置的深度图和彩色图作为参考,对带有遮挡空洞的虚拟视点深度图和彩色图进行填补,至此获得了没有空洞的虚拟视点位置的深度图和彩色图。
(4)利用虚实融合模块进行虚拟物体的三维注册,并渲染得到拍摄位置和虚拟摄像机位置的虚拟物体深度图和彩色图。对虚实图像进行融合,并利用深度信息进行遮挡判断和碰撞检测,得到用于立体显示的虚实融合内容。
虚实融合模块是将真实拍摄位置和虚拟摄像机位置两个视点的虚拟物体和真实场景的深度图和彩色图进行融合的模块。模块包括三维注册单元,遮挡判断单元,碰撞检测单元和虚拟物体控制单元,各单元的操作都是同时针对两个视点进行的。虚拟物体控制单元可以监听键盘输入,使虚拟物体在世界坐标系中进行放缩,移动,旋转等运动。三维注册单元根据虚拟物体在世界坐标系中的空间位置以及两个视点的摄像机参数,计算出虚拟物体在两个视点投影平面中所呈现的彩色图和深度图。遮挡判断单元通过监测虚拟物体和真实场景在同一位置的深度值来判断应该显示虚拟物体还是真实场景,以获取真实的遮挡效果。本方法同时获取了摄像机视线方向上的虚拟物体正面和背面的深度图,碰撞检测单元通过判断虚拟物体正面和背面的深度图,以及真实场景深度图之间的关系判断是否发生了碰撞,对于碰撞发生的位置以红色标明。最终根据实际应用,可决定将虚实融合结果以各种立体格式显示。

Claims (7)

1.一种用于立体显示的虚实融合图像生成方法,包括如下步骤:
(1)利用单目RGB-D摄像机采集获取单目RGB-D摄像机视点关于场景当前帧的深度图Dr_k和色彩图Cr_k
(2)利用前一帧的三维场景重建模型确定当前帧的单目RGB-D摄像机参数,并利用深度图Dr_k和色彩图Cr_k对所述的三维场景重建模型进行更新,得到当前帧的三维场景重建模型;具体过程如下:
2.1从前一帧的三维场景重建模型中提取出单目RGB-D摄像机视点关于场景前一帧的深度图Dr_k-1
2.2对当前帧深度图Dr_k和前一帧深度图Dr_k-1进行匹配,计算出当前帧的单目RGB-D摄像机参数;
2.3从匹配过程的局外点中滤波得到运动物体区域,以运动物体区域作为模板从当前帧的深度图Dr_k和色彩图Cr_k中分离出运动物体和静态背景;
2.4根据当前帧的单目RGB-D摄像机参数利用当前帧静态场景的深度信息和色彩信息,采用体集成算法对前一帧的三维场景重建模型进行更新,得到当前帧的三维场景重建模型;
(3)根据采集到的深度图Dr_k和色彩图Cr_k以当前帧的三维场景重建模型作为指导,利用双目摄像机模型通过映射得到虚拟摄像机视点关于场景当前帧的深度图Dv_k和色彩图Cv_k
(4)对虚拟物体进行三维注册并渲染得到单目RGB-D摄像机视点和虚拟摄像机视点关于虚拟物体的深度图和彩色图;利用两个视点关于场景和虚拟物体的深度图进行遮挡判断和碰撞检测以对两个视点关于场景和虚拟物体的色彩图进行融合,得到用于立体显示的虚实融合图像。
2.根据权利要求1所述的虚实融合图像生成方法,其特征在于:利用Raycast算法从前一帧的三维场景重建模型中提取出单目RGB-D摄像机视点关于场景前一帧的深度图Dr_k-1
3.根据权利要求1所述的虚实融合图像生成方法,其特征在于:采用ICP算法对深度图Dr_k和深度图Dr_k-1进行匹配。
4.根据权利要求1所述的虚实融合图像生成方法,其特征在于:所述的局外点为当前帧深度图Dr_k中与前一帧深度图Dr_k-1未匹配上的像素点。
5.根据权利要求1所述的虚实融合图像生成方法,其特征在于:所述的步骤2.3中,从当前帧深度图Dr_k的局外点中滤除掉属于场景中物体边缘上的局外点、单目RGB-D摄像机无法获取到深度值的局外点以及零星小块聚集的局外点,从而得到运动物体区域。
6.根据权利要求1所述的虚实融合图像生成方法,其特征在于:所述步骤(3)的具体过程如下:
3.1将当前帧的单目RGB-D摄像机参数代入双目摄像机模型中计算得到当前帧的虚拟摄像机参数,根据所述的虚拟摄像机参数从当前帧的三维场景重建模型中提取出虚拟摄像机视点关于场景当前帧的深度图Dv1_k和色彩图Cv1_k
3.2根据双目摄像机模型,从当前帧深度图Dr_k映射得到虚拟摄像机视点关于场景当前帧的深度图Dv2_k
3.3对映射得到的当前帧深度图Dv2_k中的重采样空洞进行填补;
3.4根据填补后的深度图Dv2_k和双目摄像机模型,从当前帧色彩图Cr_k映射得到虚拟摄像机视点关于场景当前帧的色彩图Cv2_k
3.5利用提取得到的当前帧深度图Dv1_k和色彩图Cv1_k对映射得到的当前帧的深度图Dv2_k和色彩图Cv2_k进行遮挡空洞填补,最终得到虚拟摄像机视点关于场景当前帧的深度图Dv_k和色彩图Cv_k
7.根据权利要求6所述的虚实融合图像生成方法,其特征在于:利用Raycast算法从当前帧的三维场景重建模型中提取出虚拟摄像机视点关于场景当前帧的深度图Dv1_k和色彩图Cv1_k
CN201410765678.9A 2014-12-12 2014-12-12 一种用于立体显示的虚实融合图像生成方法 Expired - Fee Related CN104504671B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410765678.9A CN104504671B (zh) 2014-12-12 2014-12-12 一种用于立体显示的虚实融合图像生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410765678.9A CN104504671B (zh) 2014-12-12 2014-12-12 一种用于立体显示的虚实融合图像生成方法

Publications (2)

Publication Number Publication Date
CN104504671A CN104504671A (zh) 2015-04-08
CN104504671B true CN104504671B (zh) 2017-04-19

Family

ID=52946065

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410765678.9A Expired - Fee Related CN104504671B (zh) 2014-12-12 2014-12-12 一种用于立体显示的虚实融合图像生成方法

Country Status (1)

Country Link
CN (1) CN104504671B (zh)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106558076B (zh) * 2015-09-16 2019-06-18 富士通株式会社 三维重建对象的方法和设备
ES2610797B1 (es) * 2015-10-29 2018-02-06 Mikonos Xviii Sl Procedimiento para escaparate virtual in situ.
US20170127039A1 (en) * 2015-11-02 2017-05-04 Mediatek Inc. Ultrasonic proximity detection system
US10068385B2 (en) * 2015-12-15 2018-09-04 Intel Corporation Generation of synthetic 3-dimensional object images for recognition systems
CN106056663B (zh) 2016-05-19 2019-05-24 京东方科技集团股份有限公司 增强现实场景中的渲染方法、处理模块和增强现实眼镜
CN106296789B (zh) * 2016-08-05 2019-08-06 深圳迪乐普数码科技有限公司 一种虚拟植入物体在实景中穿梭的方法及终端
CN106161907A (zh) * 2016-08-31 2016-11-23 北京的卢深视科技有限公司 获取场景三维信息的安防网络相机
WO2018119889A1 (zh) * 2016-12-29 2018-07-05 深圳前海达闼云端智能科技有限公司 三维场景定位方法和装置
US10311630B2 (en) * 2017-05-31 2019-06-04 Verizon Patent And Licensing Inc. Methods and systems for rendering frames of a virtual scene from different vantage points based on a virtual entity description frame of the virtual scene
CN111768496B (zh) * 2017-08-24 2024-02-09 Oppo广东移动通信有限公司 图像处理方法、装置、服务器及计算机可读存储介质
WO2019047982A1 (zh) 2017-09-11 2019-03-14 Oppo广东移动通信有限公司 图像处理方法、装置、电子装置和计算机可读存储介质
CN107742300A (zh) * 2017-09-11 2018-02-27 广东欧珀移动通信有限公司 图像处理方法、装置、电子装置和计算机可读存储介质
CN108021896B (zh) * 2017-12-08 2019-05-10 北京百度网讯科技有限公司 基于增强现实的拍摄方法、装置、设备及计算机可读介质
CN108399634B (zh) * 2018-01-16 2020-10-16 达闼科技(北京)有限公司 基于云端计算的rgb-d数据生成方法及装置
CN108416846A (zh) * 2018-03-16 2018-08-17 北京邮电大学 一种无标识三维注册算法
CN108520204A (zh) * 2018-03-16 2018-09-11 西北大学 一种人脸识别方法
CN108573524B (zh) * 2018-04-12 2022-02-08 东南大学 基于渲染管线的交互式实时自由立体显示方法
GB2576548B (en) * 2018-08-23 2021-11-03 Sony Interactive Entertainment Inc Method and system for reconstructing colour and depth information of a scene
CN109726760B (zh) * 2018-12-29 2021-04-16 驭势科技(北京)有限公司 训练图片合成模型的方法及装置
CN110033510B (zh) * 2019-03-25 2023-01-31 创新先进技术有限公司 建立颜色映射关系用于校正渲染图像颜色的方法及装置
CN111754558B (zh) * 2019-03-26 2023-09-26 舜宇光学(浙江)研究院有限公司 用于rgb-d摄像系统与双目显像系统的匹配方法及其相关系统
CN110390719B (zh) * 2019-05-07 2023-02-24 香港光云科技有限公司 基于飞行时间点云重建设备
CN110928414A (zh) * 2019-11-22 2020-03-27 上海交通大学 三维虚实融合实验系统
CN111223192B (zh) * 2020-01-09 2023-10-03 北京华捷艾米科技有限公司 一种图像处理方法及其应用方法、装置及设备
CN112291549B (zh) * 2020-09-23 2021-07-09 广西壮族自治区地图院 一种基于dem的光栅地形图立体序列帧图像的获取方法
CN111899293B (zh) * 2020-09-29 2021-01-08 成都索贝数码科技股份有限公司 Ar应用中的虚实遮挡处理方法
CN112637582B (zh) * 2020-12-09 2021-10-08 吉林大学 模糊边缘驱动的单目视频虚拟视图三维模糊表面合成方法
CN112509151B (zh) * 2020-12-11 2021-08-24 华中师范大学 一种教学场景中虚拟对象的真实感生成方法
CN113593008B (zh) * 2021-07-06 2023-07-07 四川大学 复杂场景下真3d图像显著重建方法
CN114429531B (zh) * 2021-12-09 2025-04-15 北京邮电大学 虚拟视点图像的生成方法及装置
CN115578499B (zh) * 2022-11-29 2023-04-07 北京天图万境科技有限公司 一种非对称色彩失调一致性的拟合重建的方法及装置
CN119068155A (zh) * 2023-05-30 2024-12-03 万有引力(宁波)电子科技有限公司 一种混合现实虚实融合方法、装置及系统
CN118379436B (zh) * 2024-06-21 2024-08-16 云士康(深圳)智能科技有限公司 三维虚拟场景的生成方法、装置、设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101771893A (zh) * 2010-01-05 2010-07-07 浙江大学 一种基于视频序列背景建模的虚拟视点绘制方法
CN101902657A (zh) * 2010-07-16 2010-12-01 浙江大学 一种基于深度图分层的虚拟多视点图像的生成方法
CN102568026A (zh) * 2011-12-12 2012-07-11 浙江大学 一种多视点自由立体显示的三维增强现实方法
CN103489214A (zh) * 2013-09-10 2014-01-01 北京邮电大学 增强现实系统中基于虚拟模型预处理的虚实遮挡处理方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101771893A (zh) * 2010-01-05 2010-07-07 浙江大学 一种基于视频序列背景建模的虚拟视点绘制方法
CN101902657A (zh) * 2010-07-16 2010-12-01 浙江大学 一种基于深度图分层的虚拟多视点图像的生成方法
CN102568026A (zh) * 2011-12-12 2012-07-11 浙江大学 一种多视点自由立体显示的三维增强现实方法
CN103489214A (zh) * 2013-09-10 2014-01-01 北京邮电大学 增强现实系统中基于虚拟模型预处理的虚实遮挡处理方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
KinectFusion: real-time 3D reconstruction and interaction using a moving depth camera;Izadi S et al;《Proceedings of the 24th annxial ACM symposium on User interface software and technology》;20111231;全文 *
基于Kinect的虚拟视点生成技术;黄浩等;《信息技术》;20140430;第48-51页 *
基于体分割重建的增强现实交互系统;李佳宁等;《光电子技术》;20140630;第34卷(第2期);第140-143页 *

Also Published As

Publication number Publication date
CN104504671A (zh) 2015-04-08

Similar Documents

Publication Publication Date Title
CN104504671B (zh) 一种用于立体显示的虚实融合图像生成方法
AU2018292610B2 (en) Method and system for performing simultaneous localization and mapping using convolutional image transformation
CN107292965B (zh) 一种基于深度图像数据流的虚实遮挡处理方法
US9269003B2 (en) Diminished and mediated reality effects from reconstruction
Feng et al. Object-based 2D-to-3D video conversion for effective stereoscopic content generation in 3D-TV applications
CN103971408B (zh) 三维人脸模型生成系统及方法
CN113574863A (zh) 使用深度信息渲染3d图像的方法和系统
CN107798702B (zh) 一种用于增强现实的实时图像叠加方法以及装置
CN108734776A (zh) 一种基于散斑的三维人脸重建方法及设备
CN107798704B (zh) 一种用于增强现实的实时图像叠加方法及装置
Cheng et al. Spatio-temporally consistent novel view synthesis algorithm from video-plus-depth sequences for autostereoscopic displays
WO2019219014A1 (zh) 基于光影优化的三维几何与本征成份重建方法及装置
CN101729920B (zh) 一种自由视角立体视频显示方法
CN107578435A (zh) 一种图像深度预测方法及装置
CN104599317A (zh) 一种实现3d扫描建模功能的移动终端及方法
CN109917419A (zh) 一种基于激光雷达与图像的深度填充密集系统及方法
JP2023547888A (ja) 三次元再構成方法、装置、システム、媒体及びコンピュータデバイス
Yuan et al. Temporal upsampling of depth maps using a hybrid camera
Bleyer et al. Temporally consistent disparity maps from uncalibrated stereo videos
Lee et al. Automatic 2d-to-3d conversion using multi-scale deep neural network
CN111899293B (zh) Ar应用中的虚实遮挡处理方法
CN107798703B (zh) 一种用于增强现实的实时图像叠加方法以及装置
Amar et al. Synthesizing reality for realistic physical behavior of virtual objects in augmented reality applications for smart-phones
Knorr et al. From 2D-to stereo-to multi-view video
CN111369651A (zh) 三维表情动画生成方法及系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20170419