CN106651794A - 一种基于虚拟相机的投影散斑校正方法 - Google Patents
一种基于虚拟相机的投影散斑校正方法 Download PDFInfo
- Publication number
- CN106651794A CN106651794A CN201611093813.5A CN201611093813A CN106651794A CN 106651794 A CN106651794 A CN 106651794A CN 201611093813 A CN201611093813 A CN 201611093813A CN 106651794 A CN106651794 A CN 106651794A
- Authority
- CN
- China
- Prior art keywords
- image
- speckle
- camera
- virtual camera
- corrected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 238000012937 correction Methods 0.000 title claims description 31
- 239000011159 matrix material Substances 0.000 claims abstract description 19
- 238000013519 translation Methods 0.000 claims description 11
- 238000003384 imaging method Methods 0.000 claims description 4
- 230000001131 transforming effect Effects 0.000 claims description 3
- 238000003702 image correction Methods 0.000 abstract description 5
- 238000004364 calculation method Methods 0.000 abstract description 4
- 238000005259 measurement Methods 0.000 abstract description 4
- 238000011160 research Methods 0.000 abstract description 3
- 238000000605 extraction Methods 0.000 abstract description 2
- 238000012546 transfer Methods 0.000 abstract 1
- 238000013461 design Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 239000013065 commercial product Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4007—Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
- G06T2207/30208—Marker matrix
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Projection Apparatus (AREA)
Abstract
本发明公开了一种基于虚拟相机的投影散斑图像校正方法,属于视频研究技术领域。本方法在相机图像平面与过投影机焦点的屏幕法线相交位置构造虚拟相机,利用相机和投影机水平基线距离计算虚拟相机中图像偏移距离。提取相机接收到的图像中投影区域的特征点,确定转移矩阵,变换投影散斑到虚拟相机平面,得到校正后的投影散斑。本发明有效地解决了结构光深度提取中相机与投影机图像间像素大小不匹配的问题,并且避免了相机和投影机的标定,计算方便快捷,便于利用相机和投影机搭建结构光测量系统,从而获得质量较好的深度图。
Description
技术领域
本发明属于立体视频中基于结构光的复杂场景采样与重建领域,特别涉及相机和投影机参数不同且任意位置时的场景重建。
背景技术
人类感知外部事物的主要方式是通过视觉,有研究表明,人类获取的所有信息中的80%是来自视觉系统。人类观察到的物体具有立体感,是因为人类的视觉系统能够从双眼看到的图像中计算场景深度值、恢复场景三维信息。但是在传统的2D视频中,深度信息没有被记录下来,导致视觉系统无法从平面图像中获得三维信息,使用户难以获得立体感和临场感。3D视频技术的出现就是为了保留场景深度信息,使用户在获取场景纹理信息的同时也能感受到场景的深度信息,从而产生立体感受,给用户带来真实的身临其境的感觉。3D视频中最重要的前提是深度获取,目前很多国家的研究机构提出了各种深度获取方法并且已经搭建了系统,如MIT、斯坦福大学、德国HHI以及名古屋大学等。
由于传统双目视觉无法获取弱纹理区域的深度值,目前最广泛采用的深度获取方法是基于结构光的主动视觉技术。基本的结构光测量系统由一个相机和一个投影机组成,投影机投射经过编码的散斑到场景表面,相机拍摄带有散斑的场景图像,计算投射散斑和拍摄到的散斑之间的偏移量,可以获得场景的深度信息。微软公司研制的Kinect是利用结构光技术获取深度的代表,利用光编码技术,结合红外投影机和红外CMOS传感器直接获取深度值。Kinect是成熟的商用产品,灵活性较差,并且深度精度和探测距离有限制。实际应用中常用相机和投影机搭建结构光深度测量系统。
由于相机和投影机参数不同,并且摆放位置很难像Kinect中的相机和红外收发器一样严格对齐,所以相机拍摄到的投影区域与设计的投影散斑形状不同。为了便于在水平极线上进行匹配,需要对投影散斑进行校正,使其与相机拍摄到的投影区域形状相同并且像素大小相同。在传统双目立体视觉中,图像校正前要对相机和投影机进行标定,获得其内外参数。标定过程是比较复杂的,需要多方位拍摄标定板图像,进行大量计算,并且标定的精度对图像校正的结果影响较大。这会使深度信息获取的过程变的复杂并且结果稳定性变差,不能适应实际中方便快捷的使用。
发明内容
本发明针对搭建结构光测量系统的复杂性问题,设计了一种基于虚拟相机的投影散斑校正方法,所述方法构造了一个虚拟相机。由于虚拟相机和真实相机的图像像素大小相同,可以直接匹配计算深度图,二者图像之间存在水平偏移,这个偏移量可由图像坐标与世界坐标之间的比例关系计算。将投影散斑变换到虚拟相机,即可得到校正后的散斑图像。
本发明提供的一种基于虚拟相机的投影散斑校正方法,包括如下步骤:
步骤一,设计带有棋盘格边界的随机散斑;
步骤二,投影机投射散斑到场景中,相机拍摄带有散斑的场景图像,确定散斑上棋盘格角点的位置;
步骤三,在相机图像平面和过投影机焦点的屏幕法线相交位置构造虚拟相机的成像位置,虚拟相机在该位置获取到校正后的散斑图像,该图像和真实相机拍摄的散斑图像形状相同并且像素大小一致,计算虚拟相机上的图像平移量,确定校正后图像的位置;
步骤四,计算校正前的投影散斑和校正后的散斑图像之间的单应性矩阵,确定校正后图像的灰度值;
步骤五,结合第三步得到的校正图像的位置和第四步得到的校正图像灰度,生成最终的校正图像。
本发明的优点和积极效果在于:
(1)结合相机和投影机的标定和校正过程,并对这两个过程做了简化,用确定的对应点直接进行图像校正,避免了标定中计算相机和投影机内外参数的过程。
(2)适用于实际中的各种情况,例如投影机投射出的图像变形、相机与投影机视角范围不同、相机与投影机图像平面不平行等情况。
(3)灵活性高,可以方便的增加分辨率来提高深度精度、增加投射光强来提高深度检测距离,适用于工业和科研领域。
附图说明
图1是本发明中基于虚拟相机的投影散斑校正方法进行图像校正和匹配计算深度值的示意图;
图2是本发明中设计的投影散斑图像示意图;
图3是本发明中构造的虚拟相机位置示意图;
图4是本发明中计算虚拟相机图像偏移量的示意图。
具体实施方式
下面将结合附图和实施例对本发明作进一步的详细说明。
如图1所示,本发明提供一种基于虚拟相机的投影散斑校正方法,所述投影散斑校正方法中,在相机图像平面与过投影机焦点的屏幕法线相交位置构造虚拟相机,用来接收校正后的散斑图像;其后,计算校正图像和相机图像之间的平移量,结合相机图像提供的投影散斑位置信息,确定校正图像中投影散斑区域的位置。通过对应点计算投影散斑和校正图像之间的单应性矩阵,将投影散斑图像变换到虚拟相机中,获得校正后的图像。将相机图像与校正图像进行匹配,得到场景深度图。具体实现步骤如下说明。
步骤一,设计带有棋盘格边界的随机散斑。
如图2所示,所设计的散斑结合了随机散斑和棋盘格散斑的优点,结合并简化了标定和校正过程。棋盘格区域的设计是相机标定过程中标定板的简化,只保留在散斑边缘区域。由于在对物体进行深度测量时,投影散斑完全覆盖物体,边缘区域不会受到物体影响,可以正确提取对应点。此外,相机拍摄的图像在图像边缘区域畸变较严重,将棋盘格散斑设计在边缘区域能更好地提取畸变特征,从而更容易消除畸变。
步骤二,投影机投射散斑到场景中,相机拍摄带有散斑的场景图像,确定散斑上棋盘格角点的位置。
相机拍摄到的图像中的棋盘格角点检测可以使用OpenCV中的函数完成,保存相机图像中角点的位置。
投影机投射的散斑是在步骤一中设计的,其中的棋盘格角点可以直接获得。保存投影散斑中角点的位置,得到投射前和投射后散斑的对应点。
步骤三,在相机图像平面和过投影机焦点的屏幕法线相交位置构造虚拟相机的成像位置,计算虚拟相机上的图像平移量,确定校正后图像的位置。
相机图像平面是指真实相机拍摄的图像所在的平面。虚拟相机是设想出来的一个成像位置,在这个位置上获取的图像和真实相机拍摄的散斑区域形状相同、像素大小相等,二者能够直接进行匹配获取深度,所以虚拟相机的图像就是校正后的散斑图像。虚拟相机的图像平面中心位于相机图像平面和过投影机焦点的屏幕法线相交位置,主要因为以下两点因素:
(1)校正后的图像和相机拍摄到的图像形状相同并且像素大小一致,则要求虚拟相机和真实相机的视角范围相同、视角方向相同。只有在与相机平面共面的位置才能保证二者图像能够匹配。
(2)校正图像能与相机图像进行匹配获取场景深度信息,则要求虚拟相机位置能正确反应出视差。由于视差和相机与投影机的基线距离有关,设置虚拟相机的位置位于相机图像平面和过投影机焦点的屏幕法线上,竖直位置与投影机相同,水平方向上和相机基线距离不变。
综上所述,如图3所示,表示了实际应用中相机和投影机视角范围不同且图像平面不平行的情况。V是构造的虚拟相机的焦点位置,C是真实相机焦点,P是投影机焦点。为了更好地说明拍摄到的图像位置,在相机前放置了一个投影屏幕,从P出发的两条斜线代表投影机的视角范围,与投影屏幕围成的三角形是投影区域,在真实相机中只占整幅图像的一部分。如图1所示,真实相机图像和校正图像存在水平方向偏移,这个偏移量反映了相机焦点到投影屏幕的距离。
由于二维图像变换不能保留距离信息,在第一次使用本方法时需测量相机到投影屏幕的距离,如果要获得相对距离,而不是精确的距离值,相机到投影屏幕的距离可设为估计值。
真实相机图像和校正图像水平方向的偏移量通过世界坐标系和图像坐标系之间的比例关系计算。如图4所示,Z代表相机焦点到图像平面的距离,f表示相机的焦距,dw表示相机和投影机水平方向基线距离,即在世界坐标系中的平移距离,可以在硬件系统中测量,di表示图像坐标系中水平方向的偏移量,计算方法如公式(1)所示。
公式(1)计算出的di的单位是以世界坐标系中厘米为单位的,图像坐标系的单位是像素,从参考手册中查得相机像素大小,记为s,则在图像平面中偏移的像素数为di*s。
结合真实相机中确定的投影区域形状和图像平面中平移的像素数,校正图像的位置可以被唯一确定。
步骤四,利用特征点计算校正前的投影散斑和校正后的散斑图像之间的单应性矩阵,确定校正后图像的灰度值;
利用以上两个步骤的结果,步骤二得到了校正前后的对应点,步骤三得到了校正图像的位置,需要计算校正前的投影散斑和校正后图像上每个点的对应关系,即单应性矩阵。二维图像之间的单应性矩阵是3阶方阵,且右下角元素值为1,如表达式(2)。
设校正前投影散斑中的点为pi=(xi,yi),对应校正后的点为pi′=(xi′,yi′),则二者满足以下公式关系:
[xri yri zri]T=H*[xi yi 1]T (3)
公式(3)中xri,yri和zri表示校正后的点在三维空间中的坐标。公式(4)将三维坐标恢复为二维图像中的坐标。
设v为H中未知数连接成的向量,即v=[a b c d e f g h]T,v为H按行连接成的单应性向量。公式(3)和(4)可以表示成矩阵方程,如下:
为了确定H中的8个未知数,至少需要确定4个对应点,每个对应点包含横坐标和纵坐标两个方程。在实际应用中为了利用最小二乘法消除噪声对对应点提取的影响,通常确定的对应点个数大于4个。设确定了n个对应点,构造关于v的矩阵方程如下:
A*v=b (6)
公式(6)中的A是公式(5)扩展至多行的情况,如下:
公式[6]中的b是校正后图像中特征点坐标连成的向量,b=[x1′ y1′ … xn′ yn′]T。
由于公式(6)是超定方程,利用最小二乘法求解如下:
v=(ATA)-1ATb (8)
由于v中的变量是H中的未知数,可以确定单应性矩阵,将校正前投影散斑中所有点变换到校正后的图像中。
步骤五,结合第三步得到的校正图像的位置和第四步得到的校正图像灰度,生成最终的校正图像。
如图1右下角所示,将生成的校正图像直接与真实相机拍摄的图像进行逐行匹配,得到场景的深度图。
实施例
该实施例中,相机和投影机的数量均为1,采用本发明提供的投影机散斑校正方法对投影散斑进行校正,与相机拍摄到的散斑进行匹配得到高质量的场景深度图,具体步骤如下:
步骤一,设计带有棋盘格边界的随机散斑;
随机散斑的大小根据投影机的输入图像大小进行设计,本系统中设置为912*1140像素。如图2所示,由MATLAB或C++生成0-1随机矩阵,1对应的位置为白色,0对应的位置为黑色。边缘的棋盘格区域宽度20像素。
步骤二,投影机投射散斑到场景中,相机拍摄带有散斑的场景图像,确定散斑上棋盘格角点的位置;
选取棋盘格4个角点和4个边中点的黑白相交的角点作为特征点,这8个点的按顺时针顺序,依次为左上、中上、右上、右中、右下、中下、左下和左中,本发明实施例中对应的坐标如下:(10,10)、(10,449)、(10,906)、(549,906)、(1134,906)、(1134,449)、(1134,10)、(549,10)。
相机的分辨率是1280*960,拍摄到的图像中这8个点的坐标如下:(25,182)、(32,619)、(34,1069)、(297,1074)、(590,1081)、(588,617)、(586,166)、(289,176)。
步骤三,在相机图像平面和过投影机焦点的屏幕法线相交位置构造虚拟相机,计算虚拟相机上的图像平移量,确定校正后图像的位置;
在相机前方120cm的位置放置投影屏幕,相机中拍摄到的投影图像形状与校正后的形状相同,只是水平位置不同。广角相机焦距为5mm,测量得相机与投影机水平方向基线距离为5.7cm,相机像素大小为3.75um,由公式(1)计算得平移量0.2375mm,图像平面平移距离63像素。由于投影机在相机左侧,校正后图像向右平移63像素,至此,校正图像的位置已确定。
步骤四,计算校正前的投影散斑和校正后的散斑图像之间的单应性矩阵,确定校正后图像的灰度值;
将步骤二中得到的8组对应点代入公式(6)中,由公式(8)解得未知数向量如下:
v=[0.4822 0.0111 20.5249 -0.0190 1.0005 172.7887 0 0]T
进而得到单应性矩阵如下:
将(9)代入公式(3)和(4),可得到校正后的散斑图像。
考虑到将原始图像中的点变换到校正图像中不一定能覆盖全部校正图像区域,校正图像中可能会有空洞,还需额外的图像修复方法。实际应用中采用逆向单应性矩阵,从校正图像中计算原始图像(校正前图像)中对应的像素值来填充,如下式:
[xri yri zri]T=H-1*[xi′ yi′ zi′]T (10)
公式(11)中得出的横纵坐标一般不会在整数位置,由于双线性插值得到的像素灰度接近真实相机中两个像素之间的模糊,采用双线性插值得到亚像素级灰度值,得到最终的校正图像。
步骤五,结合第三步得到的校正图像的位置和第四步得到的校正图像灰度,生成最终的校正图像。
用校正后的散斑图像和真实相机拍摄到的图像按行进行匹配,能够获得场景的深度值。
Claims (5)
1.一种基于虚拟相机的投影散斑校正方法,其特征在于:包括如下步骤:
步骤一,设计带有棋盘格边界的随机散斑;
步骤二,投影机投射散斑到场景中,相机拍摄带有散斑的场景图像,确定散斑上棋盘格角点的位置;
步骤三,在相机图像平面和过投影机焦点的屏幕法线相交位置构造虚拟相机的成像位置,虚拟相机在该位置获取到校正后的散斑图像,该图像和真实相机拍摄的散斑图像形状相同并且像素大小一致,计算虚拟相机上的图像平移量,确定校正后图像的位置;
步骤四,计算校正前的投影散斑和校正后的散斑图像中棋盘格角点之间的单应性矩阵,确定校正后图像的灰度值;
步骤五,结合步骤三得到的校正后图像的位置和步骤四得到的校正后图像的灰度,生成最终的校正图像。
2.根据权利要求1中所述的一种基于虚拟相机的投影散斑校正方法,其特征在于:步骤三中所述的确定校正后图像的位置,实现方法是:
虚拟相机上的图像是真实相机上图像的平移,依据相机图像坐标和世界坐标之间的比例关系计算平移量;设真实相机与投影机在水平方向的基线距离为dw,在真实相机前面放置一个参考平面,参考平面到真实相机的距离为Z,设相机的焦距为f,则虚拟相机上的图像平移量di=dw*f/Z。
3.根据权利要求1中所述的一种基于虚拟相机的投影散斑校正方法,其特征在于:步骤四中所述的确定校正后图像的灰度值,实现方法是:
设由校正前的投影散斑映射到校正后的散斑图像对应的单应性矩阵为H;确定投影机投影的散斑和真实相机拍摄的散斑图像中的n个对应点;设校正前投影散斑中的点(xi,yi),对应校正后的点为(x′i,y′i);设向量v为H按行连接成的单应性向量,构造关于v的矩阵方程如下:
A*v=b;
其中,b=[x′1 y′1 … x′n y′n]T;
利用最小二乘法求解如下:
v=(ATA)-1ATb;
从而确定单应性矩阵H,将校正前投影散斑中所有点变换到校正图像中。
4.根据权利要求3中所述的一种基于虚拟相机的投影散斑校正方法,其特征在于:所述的步骤四中,在将校正前投影散斑中所有点变换到校正后图像中时,当校正图像中有空洞时,采用逆向单应性矩阵,从校正图像中计算校正前图像中对应的像素值来填充。
5.根据权利要求1~4任一所述的一种基于虚拟相机的投影散斑校正方法,其特征在于:所述的步骤五中生成的最终的校正图像,直接和相机拍摄的原始图像匹配,生成深度图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611093813.5A CN106651794B (zh) | 2016-12-01 | 2016-12-01 | 一种基于虚拟相机的投影散斑校正方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611093813.5A CN106651794B (zh) | 2016-12-01 | 2016-12-01 | 一种基于虚拟相机的投影散斑校正方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106651794A true CN106651794A (zh) | 2017-05-10 |
CN106651794B CN106651794B (zh) | 2019-12-03 |
Family
ID=58814175
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611093813.5A Active CN106651794B (zh) | 2016-12-01 | 2016-12-01 | 一种基于虚拟相机的投影散斑校正方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106651794B (zh) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108198219A (zh) * | 2017-11-21 | 2018-06-22 | 合肥工业大学 | 用于摄影测量的相机标定参数的误差补偿方法 |
CN108399596A (zh) * | 2018-02-07 | 2018-08-14 | 深圳奥比中光科技有限公司 | 深度图像引擎及深度图像计算方法 |
CN108847109A (zh) * | 2018-06-26 | 2018-11-20 | 天津慧医谷科技有限公司 | 一种基于三维建模的人体取穴练习考核方法及系统 |
CN110689581A (zh) * | 2018-07-06 | 2020-01-14 | Oppo广东移动通信有限公司 | 结构光模组标定方法、电子设备、计算机可读存储介质 |
CN110751656A (zh) * | 2019-09-24 | 2020-02-04 | 浙江大华技术股份有限公司 | 一种裂缝参数自动提取方法、装置及存储装置 |
CN110770794A (zh) * | 2018-08-22 | 2020-02-07 | 深圳市大疆创新科技有限公司 | 图像深度估计方法、装置、可读存储介质及电子设备 |
CN111061421A (zh) * | 2019-12-19 | 2020-04-24 | 北京澜景科技有限公司 | 一种画面投影方法、装置及计算机存储介质 |
CN111080687A (zh) * | 2018-10-19 | 2020-04-28 | 三星电子株式会社 | 用于主动深度感测的方法和装置及其校准方法 |
CN111243002A (zh) * | 2020-01-15 | 2020-06-05 | 中国人民解放军国防科技大学 | 应用于高精度三维测量的单目激光散斑投影系统标定及深度估计方法 |
CN111540022A (zh) * | 2020-05-14 | 2020-08-14 | 深圳市艾为智能有限公司 | 一种基于虚拟相机的图像一致化方法 |
CN111540004A (zh) * | 2020-04-16 | 2020-08-14 | 北京清微智能科技有限公司 | 单相机极线校正方法及装置 |
CN111710000A (zh) * | 2020-05-25 | 2020-09-25 | 北京的卢深视科技有限公司 | 一种相机行偏差自检方法及系统 |
CN111768450A (zh) * | 2020-06-10 | 2020-10-13 | 北京的卢深视科技有限公司 | 基于散斑图的结构光相机行偏差的自动检测方法和装置 |
CN111815693A (zh) * | 2020-09-04 | 2020-10-23 | 北京清微智能科技有限公司 | 一种深度图像生成方法和装置 |
CN112053446A (zh) * | 2020-07-11 | 2020-12-08 | 南京国图信息产业有限公司 | 一种基于三维gis的实时监控视频与三维场景融合方法 |
CN112070844A (zh) * | 2020-08-27 | 2020-12-11 | 合肥的卢深视科技有限公司 | 结构光系统的校准方法及装置、校准工具图、设备及介质 |
US10977829B2 (en) | 2018-12-07 | 2021-04-13 | Industrial Technology Research Institute | Depth camera calibration device and method thereof |
CN113158924A (zh) * | 2021-04-27 | 2021-07-23 | 深圳赋能软件有限公司 | 散斑图像矫正方法、人脸识别方法、装置及设备 |
CN113793387A (zh) * | 2021-08-06 | 2021-12-14 | 中国科学院深圳先进技术研究院 | 单目散斑结构光系统的标定方法、装置及终端 |
CN115008089A (zh) * | 2021-03-04 | 2022-09-06 | 深圳市开玖自动化设备有限公司 | 一种粗铝线焊线装置、调试方法和粗铝线焊线装置设备 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110267348A1 (en) * | 2010-04-29 | 2011-11-03 | Dennis Lin | Systems and methods for generating a virtual camera viewpoint for an image |
CN102710951A (zh) * | 2012-05-09 | 2012-10-03 | 天津大学 | 基于散斑结构光深度相机的多视点计算成像方法 |
JP2013012045A (ja) * | 2011-06-29 | 2013-01-17 | Nippon Telegr & Teleph Corp <Ntt> | 画像処理方法、画像処理装置及びコンピュータプログラム |
CN103268608A (zh) * | 2013-05-17 | 2013-08-28 | 清华大学 | 基于近红外激光散斑的深度估计方法及装置 |
CN103379352A (zh) * | 2012-04-20 | 2013-10-30 | Nlt科技股份有限公司 | 图像生成装置、图像显示装置及图像生成方法 |
CN103561257A (zh) * | 2013-11-01 | 2014-02-05 | 北京航空航天大学 | 一种基于深度参考平面的无干扰的光编码深度提取方法 |
CN103607584A (zh) * | 2013-11-27 | 2014-02-26 | 浙江大学 | 一种kinect拍摄的深度图与彩色摄像机拍摄视频的实时配准方法 |
CN104268871A (zh) * | 2014-09-23 | 2015-01-07 | 清华大学 | 基于近红外激光散斑深度估计的方法及装置 |
CN104641633A (zh) * | 2012-10-15 | 2015-05-20 | 英特尔公司 | 用于组合来自多个深度相机的数据的系统和方法 |
CN104902246A (zh) * | 2015-06-17 | 2015-09-09 | 浙江大华技术股份有限公司 | 视频监视方法和装置 |
CN104899882A (zh) * | 2015-05-28 | 2015-09-09 | 北京工业大学 | 一种复杂场景的深度获取方法 |
US20160037154A1 (en) * | 2014-07-30 | 2016-02-04 | National Taiwan University | Image processing system and method |
-
2016
- 2016-12-01 CN CN201611093813.5A patent/CN106651794B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110267348A1 (en) * | 2010-04-29 | 2011-11-03 | Dennis Lin | Systems and methods for generating a virtual camera viewpoint for an image |
JP2013012045A (ja) * | 2011-06-29 | 2013-01-17 | Nippon Telegr & Teleph Corp <Ntt> | 画像処理方法、画像処理装置及びコンピュータプログラム |
CN103379352A (zh) * | 2012-04-20 | 2013-10-30 | Nlt科技股份有限公司 | 图像生成装置、图像显示装置及图像生成方法 |
CN102710951A (zh) * | 2012-05-09 | 2012-10-03 | 天津大学 | 基于散斑结构光深度相机的多视点计算成像方法 |
CN104641633A (zh) * | 2012-10-15 | 2015-05-20 | 英特尔公司 | 用于组合来自多个深度相机的数据的系统和方法 |
CN103268608A (zh) * | 2013-05-17 | 2013-08-28 | 清华大学 | 基于近红外激光散斑的深度估计方法及装置 |
CN103561257A (zh) * | 2013-11-01 | 2014-02-05 | 北京航空航天大学 | 一种基于深度参考平面的无干扰的光编码深度提取方法 |
CN103607584A (zh) * | 2013-11-27 | 2014-02-26 | 浙江大学 | 一种kinect拍摄的深度图与彩色摄像机拍摄视频的实时配准方法 |
US20160037154A1 (en) * | 2014-07-30 | 2016-02-04 | National Taiwan University | Image processing system and method |
CN104268871A (zh) * | 2014-09-23 | 2015-01-07 | 清华大学 | 基于近红外激光散斑深度估计的方法及装置 |
CN104899882A (zh) * | 2015-05-28 | 2015-09-09 | 北京工业大学 | 一种复杂场景的深度获取方法 |
CN104902246A (zh) * | 2015-06-17 | 2015-09-09 | 浙江大华技术股份有限公司 | 视频监视方法和装置 |
Cited By (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108198219A (zh) * | 2017-11-21 | 2018-06-22 | 合肥工业大学 | 用于摄影测量的相机标定参数的误差补偿方法 |
US11769266B2 (en) | 2018-02-07 | 2023-09-26 | Orbbec Inc. | Depth image engine and depth image calculation method |
CN108399596A (zh) * | 2018-02-07 | 2018-08-14 | 深圳奥比中光科技有限公司 | 深度图像引擎及深度图像计算方法 |
CN108399596B (zh) * | 2018-02-07 | 2020-12-18 | 深圳奥比中光科技有限公司 | 深度图像引擎及深度图像计算方法 |
CN108847109A (zh) * | 2018-06-26 | 2018-11-20 | 天津慧医谷科技有限公司 | 一种基于三维建模的人体取穴练习考核方法及系统 |
CN110689581A (zh) * | 2018-07-06 | 2020-01-14 | Oppo广东移动通信有限公司 | 结构光模组标定方法、电子设备、计算机可读存储介质 |
CN110689581B (zh) * | 2018-07-06 | 2022-05-13 | Oppo广东移动通信有限公司 | 结构光模组标定方法、电子设备、计算机可读存储介质 |
WO2020037575A1 (zh) * | 2018-08-22 | 2020-02-27 | 深圳市大疆创新科技有限公司 | 图像深度估计方法、装置、可读存储介质及电子设备 |
CN110770794A (zh) * | 2018-08-22 | 2020-02-07 | 深圳市大疆创新科技有限公司 | 图像深度估计方法、装置、可读存储介质及电子设备 |
CN111080687A (zh) * | 2018-10-19 | 2020-04-28 | 三星电子株式会社 | 用于主动深度感测的方法和装置及其校准方法 |
TWI861016B (zh) * | 2018-10-19 | 2024-11-11 | 南韓商三星電子股份有限公司 | 電子裝置及恢復深度圖的方法 |
US10977829B2 (en) | 2018-12-07 | 2021-04-13 | Industrial Technology Research Institute | Depth camera calibration device and method thereof |
CN110751656B (zh) * | 2019-09-24 | 2022-11-22 | 浙江大华技术股份有限公司 | 一种裂缝参数自动提取方法、装置及存储装置 |
CN110751656A (zh) * | 2019-09-24 | 2020-02-04 | 浙江大华技术股份有限公司 | 一种裂缝参数自动提取方法、装置及存储装置 |
CN111061421A (zh) * | 2019-12-19 | 2020-04-24 | 北京澜景科技有限公司 | 一种画面投影方法、装置及计算机存储介质 |
CN111061421B (zh) * | 2019-12-19 | 2021-07-20 | 北京澜景科技有限公司 | 一种画面投影方法、装置及计算机存储介质 |
CN111243002A (zh) * | 2020-01-15 | 2020-06-05 | 中国人民解放军国防科技大学 | 应用于高精度三维测量的单目激光散斑投影系统标定及深度估计方法 |
WO2021208933A1 (zh) * | 2020-04-16 | 2021-10-21 | 北京清微智能科技有限公司 | 用于相机的图像校正方法和装置 |
CN111540004A (zh) * | 2020-04-16 | 2020-08-14 | 北京清微智能科技有限公司 | 单相机极线校正方法及装置 |
CN111540004B (zh) * | 2020-04-16 | 2023-07-14 | 北京清微智能科技有限公司 | 单相机极线校正方法及装置 |
CN111540022B (zh) * | 2020-05-14 | 2024-04-19 | 深圳市艾为智能有限公司 | 一种基于虚拟相机的图像一致化方法 |
CN111540022A (zh) * | 2020-05-14 | 2020-08-14 | 深圳市艾为智能有限公司 | 一种基于虚拟相机的图像一致化方法 |
CN111710000A (zh) * | 2020-05-25 | 2020-09-25 | 北京的卢深视科技有限公司 | 一种相机行偏差自检方法及系统 |
CN111710000B (zh) * | 2020-05-25 | 2023-09-05 | 合肥的卢深视科技有限公司 | 一种相机行偏差自检方法及系统 |
CN111768450B (zh) * | 2020-06-10 | 2023-10-13 | 合肥的卢深视科技有限公司 | 基于散斑图的结构光相机行偏差的自动检测方法和装置 |
CN111768450A (zh) * | 2020-06-10 | 2020-10-13 | 北京的卢深视科技有限公司 | 基于散斑图的结构光相机行偏差的自动检测方法和装置 |
CN112053446A (zh) * | 2020-07-11 | 2020-12-08 | 南京国图信息产业有限公司 | 一种基于三维gis的实时监控视频与三维场景融合方法 |
CN112053446B (zh) * | 2020-07-11 | 2024-02-02 | 南京国图信息产业有限公司 | 一种基于三维gis的实时监控视频与三维场景融合方法 |
CN112070844A (zh) * | 2020-08-27 | 2020-12-11 | 合肥的卢深视科技有限公司 | 结构光系统的校准方法及装置、校准工具图、设备及介质 |
CN111815693A (zh) * | 2020-09-04 | 2020-10-23 | 北京清微智能科技有限公司 | 一种深度图像生成方法和装置 |
CN115008089A (zh) * | 2021-03-04 | 2022-09-06 | 深圳市开玖自动化设备有限公司 | 一种粗铝线焊线装置、调试方法和粗铝线焊线装置设备 |
CN115008089B (zh) * | 2021-03-04 | 2024-05-03 | 深圳新益昌开玖自动化设备有限公司 | 一种粗铝线焊线装置、调试方法和粗铝线焊线装置设备 |
CN113158924A (zh) * | 2021-04-27 | 2021-07-23 | 深圳赋能软件有限公司 | 散斑图像矫正方法、人脸识别方法、装置及设备 |
CN113793387A (zh) * | 2021-08-06 | 2021-12-14 | 中国科学院深圳先进技术研究院 | 单目散斑结构光系统的标定方法、装置及终端 |
Also Published As
Publication number | Publication date |
---|---|
CN106651794B (zh) | 2019-12-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106651794B (zh) | 一种基于虚拟相机的投影散斑校正方法 | |
JP6722323B2 (ja) | 撮像装置のモデリングおよび校正のためのシステムおよびその方法 | |
CN101630406B (zh) | 摄像机的标定方法及摄像机标定装置 | |
US8897502B2 (en) | Calibration for stereoscopic capture system | |
CN106254854B (zh) | 三维图像的获得方法、装置及系统 | |
CN110830781B (zh) | 一种基于双目视觉的投影图像自动校正方法及系统 | |
CN103971408B (zh) | 三维人脸模型生成系统及方法 | |
CN102072706B (zh) | 一种多相机定位与跟踪方法及系统 | |
US20140327736A1 (en) | External depth map transformation method for conversion of two-dimensional images to stereoscopic images | |
WO2018032841A1 (zh) | 绘制三维图像的方法及其设备、系统 | |
JPWO2018235163A1 (ja) | キャリブレーション装置、キャリブレーション用チャート、チャートパターン生成装置、およびキャリブレーション方法 | |
US10560683B2 (en) | System, method and software for producing three-dimensional images that appear to project forward of or vertically above a display medium using a virtual 3D model made from the simultaneous localization and depth-mapping of the physical features of real objects | |
CN111009030A (zh) | 一种多视高分辨率纹理图像与双目三维点云映射方法 | |
KR20220012375A (ko) | 어라운드뷰 제공 장치 및 방법 | |
TWI820246B (zh) | 具有像差估計之設備、估計來自廣角影像的像差之方法及電腦程式產品 | |
CN108259881A (zh) | 基于视差估算的3d合成方法及其系统 | |
CN108038887A (zh) | 基于双目rgb-d相机深度轮廓估计方法 | |
TW202123694A (zh) | 3d顯示設備、3d圖像顯示方法 | |
TW201632982A (zh) | 三維全景影像之產生方法 | |
TWI731430B (zh) | 資訊顯示方法與資訊顯示系統 | |
CN108805921A (zh) | 图像获取系统及方法 | |
CN113821107B (zh) | 一种实时、自由视点的室内外裸眼3d系统 | |
JP4554231B2 (ja) | 歪みパラメータの生成方法及び映像発生方法並びに歪みパラメータ生成装置及び映像発生装置 | |
CN109990756B (zh) | 一种双目测距方法及系统 | |
CN108335333A (zh) | 一种线性摄像机标定方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |