CN104809719A - 基于单应性矩阵分割的虚拟视点合成的方法 - Google Patents
基于单应性矩阵分割的虚拟视点合成的方法 Download PDFInfo
- Publication number
- CN104809719A CN104809719A CN201510152377.3A CN201510152377A CN104809719A CN 104809719 A CN104809719 A CN 104809719A CN 201510152377 A CN201510152377 A CN 201510152377A CN 104809719 A CN104809719 A CN 104809719A
- Authority
- CN
- China
- Prior art keywords
- matrix
- view
- homography
- sub
- right adjacent
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000011159 matrix material Substances 0.000 title claims abstract description 146
- 238000001308 synthesis method Methods 0.000 title abstract 2
- 238000005192 partition Methods 0.000 title 1
- 238000000034 method Methods 0.000 claims abstract description 43
- 230000011218 segmentation Effects 0.000 claims abstract description 18
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 17
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 17
- 238000000354 decomposition reaction Methods 0.000 claims abstract description 10
- 230000004927 fusion Effects 0.000 claims abstract description 4
- 239000013598 vector Substances 0.000 claims description 25
- 230000002194 synthesizing effect Effects 0.000 claims description 4
- 238000010276 construction Methods 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 abstract description 8
- 238000013507 mapping Methods 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 description 8
- 230000009466 transformation Effects 0.000 description 4
- 238000003709 image segmentation Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Landscapes
- Image Processing (AREA)
Abstract
本发明公开了一种基于单应性矩阵分割的虚拟视点合成的方法,包括以下步骤:1)对左右相邻视角相机进行标定,得到左右相邻视角相机的内参矩阵以及左右相邻视角相机之间的基础矩阵,由基础矩阵导出本质矩阵,对本质矩阵进行奇异值分解,计算左右相邻视角相机之间的运动参数:旋转矩阵和平移矩阵;2)对旋转矩阵和平移矩阵进行插值分割,得到左右相邻视角到中间虚拟视点的子单应性矩阵;3)应用前向映射技术分别将两视角图像通过子单应性矩阵映射到中间虚拟视点图像,以一幅图像的映射图作为参考坐标系,对映射后的两幅图像进行插值融合,合成中间虚拟视点图像。本发明方法具有合成速度快、过程简单有效,工程实用价值高的优点。
Description
技术领域
本发明涉及一种虚拟视点合成的方法,尤其是一种基于单应性矩阵分割的虚拟视点合成的方法,属于图像处理技术领域。
背景技术
虚拟视点合成是指利用计算机,合成本来不存在的视点图像。虚拟视点插值是给定按照一定规则预先摆放的摄像头阵列,同时拍摄多张图像,采用相应的视点插值技术计算出每相邻两视角之间的中间图像序列。
近年来,随着计算机视觉、图像处理、计算机图像学等学科高度交叉。虚拟视点合成广泛运用于三维重建和全景拼接等项目。视点插值技术广泛应用于虚拟现实、特效摄影、三维电视和动画制作领域。成功的案例包括应用在奥运会上的“子弹时间”和苹果公司的Quick Time VR虚拟现实系统。
虚拟视点插值技术发展20多年,经典的方法由苹果公司研究员chen的基于偏移向量的插值方法以及Seitz教授的基于图像插值的方法。2004年微软研究员Zitnick提出一种新的基于图像的建模与绘制技术的视频视点合成系统方案,该方案离线获取同步拍摄视频流,然后通过基于颜色的分割的立体算法来获取摄像头阵列的结构参数并建立高质量的图像对应关系,视频合成过程深度不连续区自动提取遮罩用来减少人工误差,最后交互实现视频的合成。该方案的优势是得到视频合成质量但其速度难以保证实时性。2008年,Farin等也提出了对基线长度由约束的任意摆放阵列的虚拟视点插值技术。Guillemaut等人也提出了基于图像分割的优化视点插值方法,针对多个不同分辨率的运动相机拍摄的复杂运动场景进行图像分割重建。
目前,现有的基于虚拟视点插值合成虚拟图像的方法算法相对复杂、实时性能差、稳定性得不到保证,部分算法需要特殊硬件支持,工程实现难,工程实用价值不高。
发明内容
本发明的目的是为了解决上述现有技术的缺陷,提供一种基于单应性矩阵分割的虚拟视点合成的方法,该方法具有合成速度快、过程简单有效、工程实用价值高的优点。
本发明的目的可以通过采取如下技术方案达到:
基于单应性矩阵分割的虚拟视点合成的方法,所述方法包括以下步骤:
1)采用外置标准尺寸棋盘格标定法对左右相邻视角相机进行标定,得到左右相邻视角相机的内参矩阵Kl、Kr以及左右相邻视角相机之间的基础矩阵F,由基础矩阵F导出本质矩阵E,对本质矩阵进行SVD奇异值分解,计算左右相邻视角相机之间的运动参数:旋转矩阵R和平移矩阵T;
2)对旋转矩阵R和平移矩阵T进行插值分割,得到左右相邻视角到映射至相邻视角之间某一位置处的子单应性矩阵Hli和Hri;
3)通过子单应性矩阵Hli和Hri分别将左右视角图形进行图像映射,选定其中一视角映射后的图像作为合成图像的参考坐标系统,运用双线性插值进行插值融合,合成运动过程中每一位置场景图像。
作为一种优选方案,步骤1)所述采用外置标准尺寸棋盘格标定法对左右相邻视角相机进行标定,得到左右相邻视角相机的内参矩阵Kl、Kr以及左右相邻视角相机之间的基础矩阵F,具体如下:
1.1)相机对准棋盘格,拍摄至少三组棋盘格照片;
1.2)利用opencv标定函数或matlab标定工具箱,通过拍摄的多组棋盘格照片,标定出左右相邻视角相机的内参矩阵Kl、Kr以及左右相邻视角相机的基础矩阵F。
作为一种优选方案,步骤1)所述由基础矩阵F导出本质矩阵E,对本质矩阵进行SVD奇异值分解,计算左右相邻视角相机之间的运动参数:旋转矩阵R和平移矩阵T,具体如下:
1.3)由基础矩阵F导出本质矩阵E:
其中,F为左右相邻视角相机之间的基础矩阵,Kl为左相机内参,Kr右相机内参;
1.4)设平移矩阵T=[t1,t2,t3],则平移矩阵T的反对称矩阵为:
1.5)本质矩阵E由旋转矩阵R和平移矩阵T来表示,如下:
E=[T]xR (3)
1.6)通过对本质矩阵进行SVD奇异值分解,得到旋转矩阵R和平移矩阵T。
作为一种优选方案,步骤2)所述对旋转矩阵R和平移矩阵T进行插值分割,得到左右相邻视角到映射至相邻视角之间某一位置处的子单应性矩阵Hli和Hri,具体如下:
2.1)若给定已标定系统,投影矩阵P=K[I|0],P′=K′[I|0],则相应的单应性矩阵H如下:
H=K′(R-tnT/d)K-1 (4)
其中,K和K-1分别表示第一、第二视角相机内参,nT为参考平面的单位法向量,d为外参考平面的深度,外平面法向量为v=nT/d;
2.2)由H矩阵和外平面不共线的3对对应点(Xi,X′i),导出外平面法向量v
由单应性矩阵H得到:
X′i=HXi (5)
由式(4)得到:
X′i=[K′(R-tnT/d)K-1]Xi (6)
向量X′i和[K′(R-tnT/d)K-1]Xi共线,由此得到:
X′i×[K′(R-tv)K-1]Xi=0 (7)
由外平面不共线的3对对应点,联立式(7),求出外平面法向量v;
2.3)构建两视角映射到相机运动过程中某一位置的单应性矩阵,称为子单应性矩阵,子单应性矩阵的构建通过对对旋转矩阵R和平移矩阵T进行插值得到,定义视角1为相机运动的起点,视角2为相机运动的终点,那么相机在视角1拍摄一幅图像后,运动到视角2拍摄拍摄第二幅图像,从起点运动到终点总的运动量用(R(θ),t)表示;
2.4)假设要合成运动过程中某一个视点i出的虚拟图像,那么从相机的运动角度出发,计算视角1到视点i出的运动量(R(θi),ti)以及视角2到视点i出的运动量(R(θ-θi),t-ti),根据此运动参数得到视角1到视点i处子单应性矩阵Hli和视角2到视点i处子单应性矩阵Hri,根据式(4),得到子单应性矩阵如下所示:
其中,Hli为视角1到视点i处子单应性矩阵,Hri为视角2到视点i处子单应性矩阵,K和K-1分别表示第一、第二视角相机内参,为视角1参考平面法向量,为视角2参考平面法向量。
作为一种优选方案,步骤3)所述合成运动过程中每一位置场景图像,具体如下:
3.1)运用子单应性矩阵Hli和Hri,计算视角1映射到视点i处的子图像1以及视角2映射到视点i处的子图像2;
3.2)将这子图像1和子图像2进行叠加融合,得到视点i处的虚拟视点图像。
本发明相对于现有技术具有如下的有益效果:
1、本发明方法可以通过离线标定相邻视角相机的内参矩阵及相邻视角相机的基础矩阵来提升系统的实时性能,重建速度快,鲁棒性能高。
2、本发明方法相对简单有效,不需要特殊的硬件支持,具有很高的工程实用价值。
附图说明
图1为本发明实施例1的基于单应性矩阵分割的虚拟视点合成的方法流程图。
图2为本发明实施例1的相邻两幅图像的单应变换示意图;
图3为本发明实施例1的外平面法向量求解示意图;
图4为本发明实施例1的视角变换和运动分割示意图;
图5为本发明实施例1的双线性插值原理示意图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例1:
如图1所示,本实施例的基于单应性矩阵分割的虚拟视点合成的方法,包括以下步骤:
1)采用外置标准尺寸棋盘格标定法对左右相邻视角相机进行标定,得到左右相邻视角相机的内参矩阵Kl、Kr以及左右相邻视角相机之间的基础矩阵F,由基础矩阵F导出本质矩阵E,对本质矩阵进行SVD(Sigular Value Decomposition)奇异值分解,计算左右相邻视角相机之间的运动参数:旋转矩阵R和平移矩阵T,具体如下:
1.1)相机对准棋盘格,拍摄至少三组棋盘格照片;
1.2)利用opencv标定函数或matlab标定工具箱,通过拍摄的多组棋盘格照片,标定出左右相邻视角相机的内参矩阵Kl、Kr以及左右相邻视角相机的基础矩阵F。
1.3)由基础矩阵F导出本质矩阵E:
其中,F为左右相邻视角相机之间的基础矩阵,Kl为左相机内参,Kr右相机内参;
1.4)设平移矩阵T=[t1,t2,t3],则平移矩阵T的反对称矩阵为:
1.5)本质矩阵E由旋转矩阵R和平移矩阵T来表示(本质矩阵等于反对称矩阵乘以旋转矩阵),如下:
E=[T]xR (3)
1.6)通过对本质矩阵进行SVD奇异值分解,得到旋转矩阵R和平移矩阵T。
2)对旋转矩阵R和平移矩阵T进行插值分割,得到左右相邻视角到映射至相邻视角之间某一位置处(即中间虚拟视点)的子单应性矩阵Hli和Hri,具体如下:
2.1)如图2所示的相邻两幅图像的单应变换示意图,若给定已标定系统,投影矩阵P=K[I|0],P′=K′[I|0],则相应的单应性矩阵H如下:
m′=Hm
H=K′(R-tnT/d)K-1 (4)
其中,K和K-1分别表示第一、第二视角相机内参,nT为参考平面的单位法向量,d为外参考平面的深度,外平面法向量为v=nT/d,m是图中左参考平面上的点,m′是图中右参考平面上的点;
2.2)如图3所示的外平面法向量求解示意图,由H矩阵和外平面不共线的3点X1、X2、X3,导出外平面法向量v
由单应性矩阵H得到:
X12=HX11 (5)
由式(4)得到:
X12=[K′(R-tnT/d)K-1]X11 (6)
向量X12和X12=[K′(R-tnT/d)K-1]X11共线,由此得到:
X12×[K′(R-tv)K-1]X11=0 (7)
同理,X2和X3同样可以得到一组方程,联立三个方程可以求解外平面法向量v,因此由外平面不共线的3对对应点,即可以联立方程,求出外平面法向量v;
2.3)如图4所示的视角变换和运动分割示意图,构建两视角映射到相机运动过程中某一位置的单应性矩阵,称为子单应性矩阵,子单应性矩阵的构建通过对对旋转矩阵R和平移矩阵T进行插值得到,定义视角1为相机运动的起点,视角2为相机运动的终点,那么相机在视角1拍摄一幅图像后,运动到视角2拍摄拍摄第二幅图像,从起点运动到终点总的运动量用(R(θ),t)表示;
2.4)假设要合成运动过程中某一个视点i出的虚拟图像,那么从相机的运动角度出发,计算视角1到视点i出的运动量(R(θi),ti)以及视角2到视点i出的运动量(R(θ-θi),i-ti),根据此运动参数得到视角1到视点i处子单应性矩阵Hli和视角2到视点i处子单应性矩阵Hri,根据式(4),得到子单应性矩阵如下所示:
其中,Hli为视角1到视点i处子单应性矩阵,Hri为视角2到视点i处子单应性矩阵,K和K-1分别表示第一、第二视角相机内参,为视角1参考平面法向量,为视角2参考平面法向量。
3)通过子单应性矩阵Hli和Hri分别将左右视角图形进行图像映射(应用前向映射技术),选定其中一视角映射后的图像作为合成图像的参考坐标系统,运用双线性插值进行插值融合(即对映射后的两幅图像进行融合),合成运动过程中每一位置场景图像(即中间虚拟视点图像),具体如下:
3.1)根据相邻视角到到虚拟视点的子单应性矩阵Hli和Hri,采用Hli和Hri分别将左右视角图形向中间虚拟视点进行映射;
3.2)如图5所示的双线性插值原理示意图,假设要得到P=(X,Y)的值,假设已知Q11、Q12、Q21、Q22的值,首先在X方向插值得到R1和R2,然后在Y方向插值得到P点坐标;
3.3)由于从视角1或者视角2乘以矩阵得到的是浮点数,因此采用逆向插值技术;对目标图像的像素位置,首先查找出原图像的浮点位置,然后利用周围源像素的整形值插值出新值,因此可以得到视角1和视角2插值到中间视角的虚拟图像;
3.4)选定其中一视角图像映射后的图像作为合成图像的参考坐标系统,对视角1和视角2插值到中间的虚拟图像进行融合,对公共区域的像素值各取一半进行叠加融合得到中间虚拟视角图像。
综上所述,本发明方法可以通过离线标定相邻视角相机的内参矩阵及相邻视角相机的基础矩阵来提升系统的实时性能,具有合成速度快、过程简单有效、工程实用价值高的优点。
以上所述,仅为本发明专利较佳的实施例,但本发明专利的保护范围并不局限于此,如棋盘格可以用其它独立可标示的物体代替,任何熟悉本技术领域的技术人员在本发明专利所公开的范围内,根据本发明专利的技术方案及其发明构思加以等同替换或改变,都属于本发明专利的保护范围。
Claims (5)
1.基于单应性矩阵分割的虚拟视点合成的方法,其特征在于:所述方法包括以下步骤:
1)采用外置标准尺寸棋盘格标定法对左右相邻视角相机进行标定,得到左右相邻视角相机的内参矩阵Kl、Kr以及左右相邻视角相机之间的基础矩阵F,由基础矩阵F导出本质矩阵E,对本质矩阵进行SVD奇异值分解,计算左右相邻视角相机之间的运动参数:旋转矩阵R和平移矩阵T;
2)对旋转矩阵R和平移矩阵T进行插值分割,得到左右相邻视角到映射至相邻视角之间某一位置处的子单应性矩阵Hli和Hri;
3)通过子单应性矩阵Hli和Hri分别将左右视角图形进行图像映射,选定其中一视角映射后的图像作为合成图像的参考坐标系统,运用双线性插值进行插值融合,合成运动过程中每一位置场景图像。
2.根据权利要求1所述的基于单应性矩阵分割的虚拟视点合成的方法,其特征在于:步骤1)所述采用外置标准尺寸棋盘格标定法对左右相邻视角相机进行标定,得到左右相邻视角相机的内参矩阵Kl、Kr以及左右相邻视角相机之间的基础矩阵F,具体如下:
1.1)相机对准棋盘格,拍摄至少三组棋盘格照片;
1.2)利用opencv标定函数或matlab标定工具箱,通过拍摄的多组棋盘格照片,标定出左右相邻视角相机的内参矩阵Kl、Kr以及左右相邻视角相机的基础矩阵F。
3.根据权利要求1所述的基于单应性矩阵分割的虚拟视点合成的方法,其特征在于:步骤1)所述由基础矩阵F导出本质矩阵E,对本质矩阵进行SVD奇异值分解,计算左右相邻视角相机之间的运动参数:旋转矩阵R和平移矩阵T,具体如下:
1.3)由基础矩阵F导出本质矩阵E:
其中,F为左右相邻视角相机之间的基础矩阵,Kl为左相机内参,Kr右相机内参;
1.4)设平移矩阵T=[t1,t2,t3],则平移矩阵T的反对称矩阵为:
1.5)本质矩阵E由旋转矩阵R和平移矩阵T来表示,如下:
E=[T]xR (3)
1.6)通过对本质矩阵进行SVD奇异值分解,得到旋转矩阵R和平移矩阵T。
4.根据权利要求1所述的基于单应性矩阵分割的虚拟视点合成的方法,其特征在于:步骤2)所述对旋转矩阵R和平移矩阵T进行插值分割,得到左右相邻视角到映射至相邻视角之间某一位置处的子单应性矩阵Hli和Hri,具体如下:
2.1)若给定已标定系统,投影矩阵P=K[I|0],P′=K′[I|0],则相应的单应性矩阵H如下:
H=K′(R-tnT/d)K-1 (4)
其中,K和K-1分别表示第一、第二视角相机内参,nT为参考平面的单位法向量,d为外参考平面的深度,外平面法向量为v=nT/d;
2.2)由H矩阵和外平面不共线的3对对应点(Xi,X′i),导出外平面法向量v
由单应性矩阵H得到:
X′i=HXi (5)
由式(4)得到:
X′i=[K′(R-tnT/d)K-1]Xi (6)
向量X′i和[K′(R-tnT/d)K-1]Xi共线,由此得到:
X′i×[K′(R-tv)K-1]Xi=0 (7)
由外平面不共线的3对对应点,联立式(7),求出外平面法向量v;
2.3)构建两视角映射到相机运动过程中某一位置的单应性矩阵,称为子单应性矩阵,子单应性矩阵的构建通过对对旋转矩阵R和平移矩阵T进行插值得到,定义视角1为相机运动的起点,视角2为相机运动的终点,那么相机在视角1拍摄一幅图像后,运动到视角2拍摄拍摄第二幅图像,从起点运动到终点总的运动量用(R(θ),t)表示;
2.4)假设要合成运动过程中某一个视点i出的虚拟图像,那么从相机的运动角度出发,计算视角1到视点i出的运动量(R(θi),ti)以及视角2到视点i出的运动量(R(θ-θi),t-ti),根据此运动参数得到视角1到视点i处子单应性矩阵Hli和视角2到视点i处子单应性矩阵Hri,根据式(4),得到子单应性矩阵如下所示:
其中,Hli为视角1到视点i处子单应性矩阵,Hri为视角2到视点i处子单应性矩阵,K和K-1分别表示第一、第二视角相机内参,为视角1参考平面法向量,为视角2参考平面法向量。
5.根据权利要求1所述的基于单应性矩阵分割的虚拟视点合成的方法,其特征在于:步骤3)所述合成运动过程中每一位置场景图像,具体如下:
3.1)运用子单应性矩阵Hli和Hri,计算视角1映射到视点i处的子图像1以及视角2映射到视点i处的子图像2;
3.2)将这子图像1和子图像2进行叠加融合,得到视点i处的虚拟视点图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510152377.3A CN104809719B (zh) | 2015-04-01 | 2015-04-01 | 基于单应性矩阵分割的虚拟视点合成的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510152377.3A CN104809719B (zh) | 2015-04-01 | 2015-04-01 | 基于单应性矩阵分割的虚拟视点合成的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104809719A true CN104809719A (zh) | 2015-07-29 |
CN104809719B CN104809719B (zh) | 2018-01-05 |
Family
ID=53694523
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510152377.3A Expired - Fee Related CN104809719B (zh) | 2015-04-01 | 2015-04-01 | 基于单应性矩阵分割的虚拟视点合成的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104809719B (zh) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105262958A (zh) * | 2015-10-15 | 2016-01-20 | 电子科技大学 | 一种虚拟视点的全景特写拼接系统及其方法 |
CN105955311A (zh) * | 2016-05-11 | 2016-09-21 | 阔地教育科技有限公司 | 一种跟踪控制方法、跟踪控制装置及跟踪控制系统 |
CN106060509A (zh) * | 2016-05-19 | 2016-10-26 | 西安电子科技大学 | 引入颜色校正的自由视点图像合成方法 |
CN106204731A (zh) * | 2016-07-18 | 2016-12-07 | 华南理工大学 | 一种基于双目立体视觉系统的多视角三维重建方法 |
CN106600667A (zh) * | 2016-12-12 | 2017-04-26 | 南京大学 | 一种基于卷积神经网络的视频驱动人脸动画方法 |
CN106648109A (zh) * | 2016-12-30 | 2017-05-10 | 南京大学 | 一种基于三视角变换的真实场景实时虚拟漫游系统 |
CN107808403A (zh) * | 2017-11-21 | 2018-03-16 | 韶关学院 | 一种基于稀疏字典的相机标定方法 |
CN109443245A (zh) * | 2018-11-09 | 2019-03-08 | 扬州市职业大学 | 一种基于单应性矩阵的多线结构光视觉测量方法 |
CN110360991A (zh) * | 2019-06-18 | 2019-10-22 | 武汉中观自动化科技有限公司 | 一种摄影测量方法、装置及存储介质 |
CN110874818A (zh) * | 2018-08-31 | 2020-03-10 | 阿里巴巴集团控股有限公司 | 图像处理和虚拟空间构建方法、装置、系统和存储介质 |
CN113538316A (zh) * | 2021-08-24 | 2021-10-22 | 北京奇艺世纪科技有限公司 | 图像处理方法、装置、终端设备以及可读存储介质 |
CN114022763A (zh) * | 2021-10-28 | 2022-02-08 | 国家能源集团广西电力有限公司 | 一种高压架空线路的异物检测方法、装置及可读存储介质 |
CN114401391A (zh) * | 2021-12-09 | 2022-04-26 | 北京邮电大学 | 虚拟视点生成方法及装置 |
CN115578296A (zh) * | 2022-12-06 | 2023-01-06 | 南京诺源医疗器械有限公司 | 一种立体视频处理方法 |
CN116193158A (zh) * | 2023-01-13 | 2023-05-30 | 北京达佳互联信息技术有限公司 | 子弹时间视频生成方法、装置、电子设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100943719B1 (ko) * | 2008-11-04 | 2010-02-23 | 광주과학기술원 | 다시점 영상의 기하학적 보정 시스템 및 방법 |
CN103269438A (zh) * | 2013-05-27 | 2013-08-28 | 中山大学 | 基于3d视频和自由视点电视的深度图像绘制的方法 |
CN103345736A (zh) * | 2013-05-28 | 2013-10-09 | 天津大学 | 一种虚拟视点绘制方法 |
-
2015
- 2015-04-01 CN CN201510152377.3A patent/CN104809719B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100943719B1 (ko) * | 2008-11-04 | 2010-02-23 | 광주과학기술원 | 다시점 영상의 기하학적 보정 시스템 및 방법 |
CN103269438A (zh) * | 2013-05-27 | 2013-08-28 | 中山大学 | 基于3d视频和自由视点电视的深度图像绘制的方法 |
CN103345736A (zh) * | 2013-05-28 | 2013-10-09 | 天津大学 | 一种虚拟视点绘制方法 |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105262958A (zh) * | 2015-10-15 | 2016-01-20 | 电子科技大学 | 一种虚拟视点的全景特写拼接系统及其方法 |
CN105262958B (zh) * | 2015-10-15 | 2018-08-21 | 电子科技大学 | 一种虚拟视点的全景特写拼接系统及其方法 |
CN105955311A (zh) * | 2016-05-11 | 2016-09-21 | 阔地教育科技有限公司 | 一种跟踪控制方法、跟踪控制装置及跟踪控制系统 |
CN106060509B (zh) * | 2016-05-19 | 2018-03-13 | 西安电子科技大学 | 引入颜色校正的自由视点图像合成方法 |
CN106060509A (zh) * | 2016-05-19 | 2016-10-26 | 西安电子科技大学 | 引入颜色校正的自由视点图像合成方法 |
CN106204731A (zh) * | 2016-07-18 | 2016-12-07 | 华南理工大学 | 一种基于双目立体视觉系统的多视角三维重建方法 |
CN106600667A (zh) * | 2016-12-12 | 2017-04-26 | 南京大学 | 一种基于卷积神经网络的视频驱动人脸动画方法 |
CN106600667B (zh) * | 2016-12-12 | 2020-04-21 | 南京大学 | 一种基于卷积神经网络的视频驱动人脸动画方法 |
CN106648109A (zh) * | 2016-12-30 | 2017-05-10 | 南京大学 | 一种基于三视角变换的真实场景实时虚拟漫游系统 |
CN107808403A (zh) * | 2017-11-21 | 2018-03-16 | 韶关学院 | 一种基于稀疏字典的相机标定方法 |
CN110874818B (zh) * | 2018-08-31 | 2023-06-23 | 阿里巴巴集团控股有限公司 | 图像处理和虚拟空间构建方法、装置、系统和存储介质 |
CN110874818A (zh) * | 2018-08-31 | 2020-03-10 | 阿里巴巴集团控股有限公司 | 图像处理和虚拟空间构建方法、装置、系统和存储介质 |
CN109443245A (zh) * | 2018-11-09 | 2019-03-08 | 扬州市职业大学 | 一种基于单应性矩阵的多线结构光视觉测量方法 |
CN110360991A (zh) * | 2019-06-18 | 2019-10-22 | 武汉中观自动化科技有限公司 | 一种摄影测量方法、装置及存储介质 |
CN113538316A (zh) * | 2021-08-24 | 2021-10-22 | 北京奇艺世纪科技有限公司 | 图像处理方法、装置、终端设备以及可读存储介质 |
CN113538316B (zh) * | 2021-08-24 | 2023-08-22 | 北京奇艺世纪科技有限公司 | 图像处理方法、装置、终端设备以及可读存储介质 |
CN114022763A (zh) * | 2021-10-28 | 2022-02-08 | 国家能源集团广西电力有限公司 | 一种高压架空线路的异物检测方法、装置及可读存储介质 |
CN114401391A (zh) * | 2021-12-09 | 2022-04-26 | 北京邮电大学 | 虚拟视点生成方法及装置 |
CN114401391B (zh) * | 2021-12-09 | 2023-01-06 | 北京邮电大学 | 虚拟视点生成方法及装置 |
CN115578296A (zh) * | 2022-12-06 | 2023-01-06 | 南京诺源医疗器械有限公司 | 一种立体视频处理方法 |
CN115578296B (zh) * | 2022-12-06 | 2023-03-10 | 南京诺源医疗器械有限公司 | 一种立体视频处理方法 |
CN116193158A (zh) * | 2023-01-13 | 2023-05-30 | 北京达佳互联信息技术有限公司 | 子弹时间视频生成方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN104809719B (zh) | 2018-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104809719B (zh) | 基于单应性矩阵分割的虚拟视点合成的方法 | |
JP6157606B2 (ja) | 画像融合方法及び装置 | |
Richardt et al. | Megastereo: Constructing high-resolution stereo panoramas | |
Bertel et al. | Megaparallax: Casual 360 panoramas with motion parallax | |
JP4942221B2 (ja) | 高解像度仮想焦点面画像生成方法 | |
JP6273163B2 (ja) | 立体パノラマ | |
CN105262958B (zh) | 一种虚拟视点的全景特写拼接系统及其方法 | |
CN104661010B (zh) | 三维立体模型的建立方法和装置 | |
CN102722080B (zh) | 一种基于多镜头拍摄的多用途立体摄像方法 | |
CN106254854B (zh) | 三维图像的获得方法、装置及系统 | |
CN103971352A (zh) | 一种基于广角镜头的快速图像拼接方法 | |
CN107038724A (zh) | 全景鱼眼相机影像校正、合成与景深重建方法与系统 | |
CN106997579B (zh) | 图像拼接的方法和装置 | |
US11812009B2 (en) | Generating virtual reality content via light fields | |
CN106170086B (zh) | 绘制三维图像的方法及其装置、系统 | |
CN105488760A (zh) | 基于流场的虚拟图像拼接方法 | |
US8019180B2 (en) | Constructing arbitrary-plane and multi-arbitrary-plane mosaic composite images from a multi-imager | |
Wang et al. | Interactive free-viewpoint video generation | |
Zhu et al. | Stereo mosaics from a moving video camera for environmental monitoring | |
CN109961395B (zh) | 深度图像的生成及显示方法、装置、系统、可读介质 | |
CN104284177A (zh) | 会聚立体图像视差控制方法 | |
CN104463958B (zh) | 基于视差图融合的三维超分辨率方法 | |
Gurrieri et al. | Stereoscopic cameras for the real-time acquisition of panoramic 3D images and videos | |
Knorr et al. | From 2D-to stereo-to multi-view video | |
US9602708B2 (en) | Rectified stereoscopic 3D panoramic picture |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
EXSB | Decision made by sipo to initiate substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20180105 |