CN113793392A - 一种相机参数标定方法及装置 - Google Patents
一种相机参数标定方法及装置 Download PDFInfo
- Publication number
- CN113793392A CN113793392A CN202111137437.6A CN202111137437A CN113793392A CN 113793392 A CN113793392 A CN 113793392A CN 202111137437 A CN202111137437 A CN 202111137437A CN 113793392 A CN113793392 A CN 113793392A
- Authority
- CN
- China
- Prior art keywords
- camera
- dimensional
- points
- calibrated
- coordinates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 57
- 230000000694 effects Effects 0.000 claims abstract description 11
- 238000004590 computer program Methods 0.000 claims description 13
- 238000004364 calculation method Methods 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000012847 principal component analysis method Methods 0.000 claims description 6
- 238000009877 rendering Methods 0.000 claims description 6
- 230000000007 visual effect Effects 0.000 claims description 6
- 238000012544 monitoring process Methods 0.000 description 16
- 230000004927 fusion Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 238000000513 principal component analysis Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Studio Devices (AREA)
Abstract
本发明实施例提供了一种相机参数标定方法及装置。该方法包括:选取待标定场景的三维数字模型上的特征点的三维坐标,以及在待标定相机所拍摄的二维图像上与所述特征点相对应的对应点的二维坐标;将所述特征点的三维坐标和对应点的二维坐标作为点对,利用透视n点定位方法估计出待标定相机的内参数和外参数。通过本发明,解决了在标定三维场景内相机的内外参数时,需要额外的装置预先标定出相机的内参数问题,达到简单、快速、高效的标定三维场景内相机内外参数的效果。
Description
技术领域
本发明实施例涉及计算机视觉及增强虚拟技术领域,具体而言,涉及一种相机参数标定方法及装置。
背景技术
随着视频监控在社会生活中的重要性日益提升,在电视墙或多个屏幕上显示监控视频流的传统二维监控系统,无法直观展示出摄像头的位置信息,这造成了监控人员无法方便直接地将视频内容与真实信息进行管理分析,增加了监控的困难。
目前,基于增强虚拟环境(Augmented Virtual Environment,AVE)的三维全景监控系统,将多路实时监控视频流与监控场景的三维数字模型进行融合展示,打破了传统二维监控系统割裂画面显示的局限,将孤立的摄像头信息融合到三维实景中,实现了对整个场景的三维实时监控。相比传统的二维监控系统,监控人员无需面对众多屏幕,便能直接获取监控内容,获得了更加立体直观的监控画面,对整个场景的感知具有重要的意义。
基于增强虚拟环境的三维全景监控系统的核心是监控视频流与监控场景的三维数字模型的配准融合,为了实现融合效果的精准,需要标定出三维场景内摄像机的内外参数,参数的精度直接决定了融合效果的好坏。
在现有相关技术中,在三维场景中的视点标定方法需要额外的装置预先标定出相机内参数,但很多应用场合,标定装置无法安放到现场,从而导致该方法无法应用的情况。同时,在内参数已知的情况下,使用直接线性变换的方法(Direct LinearTransformation,DLT)求解相机的外参数时误差过大。
发明内容
本发明实施例提供了一种相机参数标定方法及装置,以至少解决相关技术中标定三维场景内相机内外参数时,需要额外的装置预先标定出相机的内参数的问题。
根据本发明的一个实施例,提供了一种相机参数标定方法,包括:
选取待标定场景的三维数字模型上的特征点的三维坐标,以及在待标定相机所拍摄的二维图像上与所述特征点相对应的对应点的二维坐标;
将所述特征点的三维坐标和对应点的二维坐标作为点对,利用透视n点定位方法估计出待标定相机的内参数和外参数。
在一个示例性实施例中,选取待标定场景的三维数字模型上的特征点的三维坐标,以及在待标定相机所拍摄的二维图像上与所述特征点相对应的对应点的二维坐标之前,还包括:
获取所述三维数字模型以及所述二维图像,其中,所述三维数字模型为点云三维模型或者网格三维模。
在一个示例性实施例中,选取待标定场景的三维数字模型上的特征点的三维坐标,以及在待标定相机所拍摄的二维图像上与所述特征点相对应的对应点的二维坐标包括:
选取所述待标定场景的三维数字模型上n个特征点以及与所述特征点对应的n个对应点,其中,n≥4。
在一个示例性实施例中,将所述特征点的三维坐标和对应点的二维坐标作为点对,利用透视n点定位方法估计出待标定相机的内参数和外参数,包括:
利用主成分分析方法选取n个控制点,其中,n=4;
在一个示例性实施例中,利用主成分分析方法选取n个控制点包括:
将其余所述控制点选择在数据主方向上,得到矩阵:
计算ATA的3个特征值λ1,λ2,λ3,以及对应的特征向量为ν1,ν2,ν3,根据如下公式得到其余3个控制点在世界坐标系下的坐标:
在一个示例性实施例中,在利用透视n点定位方法估计出待标定相机内参数和外参数之后,还包括:
将所述待标定相机的内参数和外参数应用于三维场景上进行渲染,并通过比较所述相机视角内容与对应的二维图像的内容以确定标定效果。
在一个示例性实施例中,其中所述外参数至少包括以下之一:平移参数、旋转参数;所述内参数至少包括以下之一:焦距、图像中心坐标。
根据本发明的另一个实施例,提供了一种相机参数标定装置,包括:选取模块,用于选取待标定场景的三维数字模型上的特征点的三维坐标,以及在待标定相机所拍摄的二维图像上与所述特征点相对应的对应点的二维坐标;
估计模块,用于将所述特征点的三维坐标和对应点的二维坐标作为点对,利用透视n点定位方法估计出待标定相机的内参数和外参数
根据本发明的又一个实施例,还提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时执行上述任一项方法实施例中的步骤。
根据本发明的又一个实施例,还提供了一种电子装置,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机程序以执行上述任一项方法实施例中的步骤。
通过本发明上述实施例,由于人工选取待标定场景的三维数字模型上的特征点的三维坐标及待标定相机所拍摄的二维图像上的对应点的二维坐标,并利用透视n点定位方法,可一次性、精准地估计出待标定相机的内参数和外参数。因此,可以解决在标定三维场景内相机内外参数时,需要额外的装置预先标定出相机的内参数问题,达到简单、快速、高效的标定三维场景内相机内外参数的效果。
附图说明
图1是根据本发明实施例的相机标定参数方法的流程图;
图2是根据本发明实施例的相机标定参数装置的结构框图;
图3是根据本发明另一实施例的相机参数标定方法的流程图;
图4是根据本发明实施例的求解相机的内外参数的流程图。
具体实施方式
下文中将参考附图并结合实施例来详细说明本发明的实施例。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。
下面对本发明实施例中涉及到如下技术术语进行简要说明。
增强虚拟环境(Augmented Virtual Environment,AVE):将现实的信息融入到虚拟世界中,以增强虚拟世界的感知。AVE技术预先建立了虚拟环境的三维模型,通过相机或定位装置的事先或实时标定,提取真实对象的二维动态图像或三维表面信息,实时将对象图像区域或三维表面融合到虚拟环境中,达到“虚中有实”的表现效果。
主成分分析(Principal Component Analysis,PCA),是一种使用最广泛的数据降维算法。
透视n点定位(Perspective-n-points,PnP):利用世界坐标系下空间3D点的坐标和图像坐标系下对应2D点坐标之间的几何关系求解相机位置的问题。
在本实施例中提供了一种相机参数标定方法,图1是根据本发明实施例的相机参数标定方法的流程图,如图1所示,该流程包括如下步骤:
步骤S102,选取待标定场景的三维数字模型上的特征点的三维坐标,以及在待标定相机所拍摄的二维图像上与所述特征点相对应的对应点的二维坐标;
步骤S104,将所述特征点的三维坐标和对应点的二维坐标作为点对,利用透视n点定位方法估计出待标定相机的内参数和外参数。
在本实施例的步骤S102之前,还可以包括:获取所述三维数字模型以及所述二维图像,其中,所述三维数字模型为点云三维模型或者网格三维模型。
在本实施例步骤S102中,选取待标定场景的三维数字模型上的特征点的三维坐标,以及在待标定相机所拍摄的二维图像上与所述特征点相对应的对应点的二维坐标包括:
选取所述待标定场景的三维数字模型上n个特征点以及与所述特征点对应的n个对应点,其中,n≥4。
在本实施例中,将所述特征点的三维坐标和对应点的二维坐标作为点对,利用透视n点定位方法估计出待标定相机的内参数和外参数,包括:
利用主成分分析方法选取n个控制点,其中,n=4;
在本实施例中,利用主成分分析方法选取n个控制点包括:
将其余所述控制点选择在数据主方向上,得到矩阵:
计算ATA的3个特征值λ1,λ2,λ3,以及对应的特征向量为ν1,ν2,ν3,根据如下公式得到其余3个控制点在世界坐标系下的坐标:
在本实施例的步骤S104之后,还可以包括:将所述待标定相机的内参数和外参数应用于三维场景上进行渲染,并通过比较所述相机视角内容与对应的二维图像的内容以确定标定效果。
在本实施例中,其中所述外参数至少包括以下之一:平移参数、旋转参数;所述内参数至少包括以下之一:焦距、图像中心坐标。
通过上述步骤,利用透视n点定位方法,可一次性、精准地估计出待标定相机的内参数和外参数,解决了在标定三维场景内相机内外参数时,需要额外的装置预先标定出相机的内参数问题,达到简单、快速、高效的的效果,提高了标定三维场景内相机内外参数的效率。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到根据上述实施例的方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
在本实施例中还提供了一种相机参数标定装置,该装置用于实现上述实施例及优选实施方式,已经进行过说明的不再赘述。如以下所使用的,术语“模块”可以实现预定功能的软件和/或硬件的组合。尽管以下实施例所描述的装置较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。
图2是根据本发明实施例的相机参数标定装置的结构框图,该装置可以位于待标定的相机中,如图2所示,该装置可包括:
选取模块10,用于选取待标定场景的三维数字模型上的特征点的三维坐标,以及在待标定相机所拍摄的二维图像上与所述特征点相对应的对应点的二维坐标;
估计模块20,用于将所述特征点的三维坐标和对应点的二维坐标作为点对,利用透视n点定位方法估计出待标定相机的内参数和外参数。
需要说明的是,上述各个模块是可以通过软件或硬件来实现的,对于后者,可以通过以下方式实现,但不限于此:上述模块均位于同一处理器中;或者,上述各个模块以任意组合的形式分别位于不同的处理器中。
为了便于对本发明所提供的技术方案的理解,下面将结合具体场景的实施例进行详细描述。
本实施例提供了一种相机参数标定方法,如图3所示,该方法可包括如下步骤:
步骤S302,准备好待标定场景的三维数字模型和待标定相机的二维图片,场景的三维数字模型可以为点云三维模型或者网格三维模型;
步骤S304,选取三维数字模型上的特征点的三维坐标及二维图像上的对应点二维坐标,选取n个特征点,n≥4,该特征点可以是设备的交叉点、边框等易选取的角点;
步骤S306,将步骤S304中选取到的点对作为输入,使用PnP方法估计相机的内外参数;
步骤S308,将得到的相机内外参数,应用于三维场景上进行渲染,比较视角内容和相机二维图片的内容是否一致,从而判断标定效果的优劣。
在本实施例步骤S306中,可按照图4的流程求解相机的内外参数,如图4所示该流程包括如下步骤:
在本实施例中,所述相机的外参数即相机的平移参数和旋转参数,相机的内参数即摄像机的焦距、图像中心坐标;
按照所述的PnP方法,假设摄像机的像素尺寸近似为矩形,光心在图像的中心,则未知的相机内参数只有焦距f,未知的相机外参数为[R|t],求解步骤为:
步骤S401,选择控制点:
按照PnP方法将所有3D点表示为4个控制点的线性组合:
本发明使用PCA方法进行控制点的选取,第一个控制点选择在所有3D点的质心位置:
其余点选择在数据的主方向上。具体操作如下,计算矩阵:
计算ATA的3个特征值λ1,λ2,λ3,对应的特征向量为ν1,ν2,ν3,那么剩余的3个控制点
为:
上述操作实际上是找到点云的重心,以及点云的三个主方向,具有更好的计算精度。
步骤S402,计算齐次重心坐标αij:
步骤S404,恢复出3D点在相机坐标系下的坐标:
步骤S405,利用ICP算法估计出相机的外参数:
恢复出3D参考点在相机坐标系下的坐标已知3D参考点在世界坐标系下的坐标就知道所有的3D-2D匹配,于是就变成了已知匹配的ICP问题。利用这种方法计算出[R|t]后,可以利用其它迭代方法进行进一步精确地计算,由于已经提供了很好的初值,所以迭代也会很快。
在本实施例步骤S308中包括:可使用OSG或者OpenGL等三维引擎进行渲染,其中,相机外参数可经过转换作为模型视点矩阵,相机内参数经过转换作为定位矩阵,通过渲染虚拟相机视角看到的三维场景内容,与二维图像的内容进行对比,简单、直接地判断出标定效果的优劣。
本发明的实施例还提供了一种计算机可读存储介质,该计算机可读存储介质中存储有计算机程序,其中,该计算机程序被设置为运行时执行上述任一项方法实施例中的步骤。
在一个示例性实施例中,上述计算机可读存储介质可以包括但不限于:U盘、只读存储器(Read-Only Memory,简称为ROM)、随机存取存储器(Random Access Memory,简称为RAM)、移动硬盘、磁碟或者光盘等各种可以存储计算机程序的介质。
本发明的实施例还提供了一种电子装置,包括存储器和处理器,该存储器中存储有计算机程序,该处理器被设置为运行计算机程序以执行上述任一项方法实施例中的步骤。
在一个示例性实施例中,上述电子装置还可以包括传输设备以及输入输出设备,其中,该传输设备和上述处理器连接,该输入输出设备和上述处理器连接。
本实施例中的具体示例可以参考上述实施例及示例性实施方式中所描述的示例,本实施例在此不再赘述。
显然,本领域的技术人员应该明白,上述的本发明的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,并且在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本发明不限制于任何特定的硬件和软件结合。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种相机参数标定方法,其特征在于,包括:
选取待标定场景的三维数字模型上的特征点的三维坐标,以及在待标定相机所拍摄的二维图像上与所述特征点相对应的对应点的二维坐标;
将所述特征点的三维坐标和对应点的二维坐标作为点对,利用透视n点定位方法估计出待标定相机的内参数和外参数。
2.根据权利要求1所述的方法,其特征在于,选取待标定场景的三维数字模型上的特征点的三维坐标,以及在待标定相机所拍摄的二维图像上与所述特征点相对应的对应点的二维坐标之前,还包括:
获取所述三维数字模型以及所述二维图像,其中,所述三维数字模型为点云三维模型或者网格三维模型。
3.根据权利要求1所述的方法,其特征在于,选取待标定场景的三维数字模型上的特征点的三维坐标,以及在待标定相机所拍摄的二维图像上与所述特征点相对应的对应点的二维坐标包括:
选取所述待标定场景的三维数字模型上n个特征点以及与所述特征点对应的n个对应点,其中,n≥4。
4.根据权利要求3所述的方法,其特征在于,将所述特征点的三维坐标和对应点的二维坐标作为点对,利用透视n点定位方法估计出待标定相机的内参数和外参数,包括:
利用主成分分析方法选取n个控制点,其中,n=4;
6.根据权利要求1所述的方法,其特征在于,在利用透视n点定位方法估计出待标定相机内参数和外参数之后,还包括:
将所述待标定相机的内参数和外参数应用于三维场景上进行渲染,并通过比较所述相机视角内容与对应的二维图像的内容以确定标定效果。
7.根据权利要求1所述的方法,其特征在于,其中所述外参数至少包括以下之一:平移参数、旋转参数;所述内参数至少包括以下之一:焦距、图像中心坐标。
8.一种相机参数标定装置,其特征在于,包括:
选取模块,用于选取待标定场景的三维数字模型上的特征点的三维坐标,以及在待标定相机所拍摄的二维图像上与所述特征点相对应的对应点的二维坐标;
估计模块,用于将所述特征点的三维坐标和对应点的二维坐标作为点对,利用透视n点定位方法估计出待标定相机的内参数和外参数。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机程序,其中,所述计算机程序被处理器执行时实现所述权利要求1至7任一项中所述的方法的步骤。
10.一种电子装置,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现所述权利要求1至7任一项中所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111137437.6A CN113793392A (zh) | 2021-09-27 | 2021-09-27 | 一种相机参数标定方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111137437.6A CN113793392A (zh) | 2021-09-27 | 2021-09-27 | 一种相机参数标定方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113793392A true CN113793392A (zh) | 2021-12-14 |
Family
ID=79184540
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111137437.6A Pending CN113793392A (zh) | 2021-09-27 | 2021-09-27 | 一种相机参数标定方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113793392A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116182702A (zh) * | 2023-01-31 | 2023-05-30 | 桂林电子科技大学 | 一种基于主成分分析的线结构光传感器标定方法及系统 |
CN117765098A (zh) * | 2024-02-22 | 2024-03-26 | 青岛科技大学 | 一种相机辅助标定方法、系统、设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020155616A1 (zh) * | 2019-01-29 | 2020-08-06 | 浙江省北大信息技术高等研究院 | 一种基于数字视网膜的拍摄装置的定位方法 |
CN111578860A (zh) * | 2020-04-22 | 2020-08-25 | 清华大学 | 基于反射镜及单目视觉的三维形貌测量方法 |
CN111738261A (zh) * | 2020-06-30 | 2020-10-02 | 张辉 | 基于位姿估计和校正的单图像机器人无序目标抓取方法 |
CN112509057A (zh) * | 2020-11-30 | 2021-03-16 | 北京百度网讯科技有限公司 | 相机外参标定方法、装置、电子设备以及计算机可读介质 |
CN112562003A (zh) * | 2019-09-10 | 2021-03-26 | 北京京东乾石科技有限公司 | 相机外参的标定方法和标定系统 |
-
2021
- 2021-09-27 CN CN202111137437.6A patent/CN113793392A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020155616A1 (zh) * | 2019-01-29 | 2020-08-06 | 浙江省北大信息技术高等研究院 | 一种基于数字视网膜的拍摄装置的定位方法 |
CN112562003A (zh) * | 2019-09-10 | 2021-03-26 | 北京京东乾石科技有限公司 | 相机外参的标定方法和标定系统 |
CN111578860A (zh) * | 2020-04-22 | 2020-08-25 | 清华大学 | 基于反射镜及单目视觉的三维形貌测量方法 |
CN111738261A (zh) * | 2020-06-30 | 2020-10-02 | 张辉 | 基于位姿估计和校正的单图像机器人无序目标抓取方法 |
CN112509057A (zh) * | 2020-11-30 | 2021-03-16 | 北京百度网讯科技有限公司 | 相机外参标定方法、装置、电子设备以及计算机可读介质 |
Non-Patent Citations (1)
Title |
---|
许涵博: "面向自动驾驶系统的相机—激光雷达的自动标定", 中国优秀硕士学位论文全文数据库工程科技II辑, 15 February 2020 (2020-02-15), pages 4 - 5 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116182702A (zh) * | 2023-01-31 | 2023-05-30 | 桂林电子科技大学 | 一种基于主成分分析的线结构光传感器标定方法及系统 |
CN116182702B (zh) * | 2023-01-31 | 2023-10-03 | 桂林电子科技大学 | 一种基于主成分分析的线结构光传感器标定方法及系统 |
CN117765098A (zh) * | 2024-02-22 | 2024-03-26 | 青岛科技大学 | 一种相机辅助标定方法、系统、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111639626B (zh) | 三维点云数据处理方法、装置、计算机设备和存储介质 | |
CN107223269B (zh) | 三维场景定位方法和装置 | |
CN110111388B (zh) | 三维物体位姿参数估计方法及视觉设备 | |
WO2018228436A1 (zh) | 双视角图像校准及图像处理方法、装置、存储介质和电子设备 | |
CN110838164B (zh) | 基于物体点深度的单目图像三维重建方法、系统及装置 | |
US20120162220A1 (en) | Three-dimensional model creation system | |
CN113240769B (zh) | 空间链接关系识别方法及装置、存储介质 | |
CN110866977A (zh) | 增强现实处理方法及装置、系统、存储介质和电子设备 | |
CN108629810B (zh) | 双目相机的标定方法、装置及终端 | |
JP2004235934A (ja) | キャリブレーション処理装置、およびキャリブレーション処理方法、並びにコンピュータ・プログラム | |
CN110648363A (zh) | 相机姿态确定方法、装置、存储介质及电子设备 | |
US10769811B2 (en) | Space coordinate converting server and method thereof | |
EP3998582A1 (en) | Three-dimensional model generation method and three-dimensional model generation device | |
CN113793392A (zh) | 一种相机参数标定方法及装置 | |
CN109902675B (zh) | 物体的位姿获取方法、场景重构的方法和装置 | |
CN115588052A (zh) | 视线方向数据采集方法、装置、设备及存储介质 | |
CN110691228A (zh) | 基于三维变换的深度图像噪声标记方法、装置和存储介质 | |
CN113177975A (zh) | 基于球幕相机及激光雷达的深度计算方法及三维建模方法 | |
CN111866467A (zh) | 监控视频的三维覆盖空间确定方法、装置及存储介质 | |
US12131423B2 (en) | Analysis apparatus, communication system, non-transitory computer readable medium | |
CN114155233A (zh) | 获得表示图像的锐度级别的配准误差图的装置和方法 | |
CN112053406B (zh) | 成像装置参数标定方法、装置及电子设备 | |
Lai et al. | Exploring manipulation behavior on video see-through head-mounted display with view interpolation | |
CN111260781B (zh) | 一种生成图像信息的方法、装置和电子设备 | |
JP2002135807A (ja) | 3次元入力のためのキャリブレーション方法および装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |