[go: up one dir, main page]

CN110021035A - Kinect深度相机的标记物及基于该标记物的虚拟标记物跟踪方法 - Google Patents

Kinect深度相机的标记物及基于该标记物的虚拟标记物跟踪方法 Download PDF

Info

Publication number
CN110021035A
CN110021035A CN201910295827.2A CN201910295827A CN110021035A CN 110021035 A CN110021035 A CN 110021035A CN 201910295827 A CN201910295827 A CN 201910295827A CN 110021035 A CN110021035 A CN 110021035A
Authority
CN
China
Prior art keywords
marker
virtual
depth
markers
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910295827.2A
Other languages
English (en)
Other versions
CN110021035B (zh
Inventor
苏一贤
高文朋
付宜利
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Kangji Weijing Medical Robot Co.,Ltd.
Original Assignee
Harbin Institute of Technology Shenzhen
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Institute of Technology Shenzhen filed Critical Harbin Institute of Technology Shenzhen
Priority to CN201910295827.2A priority Critical patent/CN110021035B/zh
Publication of CN110021035A publication Critical patent/CN110021035A/zh
Application granted granted Critical
Publication of CN110021035B publication Critical patent/CN110021035B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Kinect深度相机的标记物及基于该标记物的虚拟标记物跟踪方法,涉及计算机视觉测量技术领域。本发明是为了解决传统深度相机的分辨率较低,难以获取精细的图像特征;而与RGB相机使用时,标定还容易引入误差的问题。本发明在Kinectt深度相机输出的红外图像上,识别和提取粘贴区域,并求其质心像素坐标;利用对应的深度图,根据相机透视投影模型和平面性质插补出粘贴质心相对Kinect深度相机的深度值;采用基于深度图的像素插值算法求得虚拟标记物的图像坐标;在深度图中对虚拟标记物的深度值进行索引并滤波;对虚拟标记物的图像坐标和深度进行滤波,再通过透视投影逆过程得到虚拟标记物的三维坐标,完成对虚拟标记物的跟踪。

Description

Kinect深度相机的标记物及基于该标记物的虚拟标记物跟踪 方法
技术领域
本发明属于计算机视觉测量技术领域,尤其涉及利用标记物进行视觉跟踪的方法。
背景技术
在图像工程的应用中,经常利用目标物体的特征点来表示目标物体的本身。一个完整的特征点能够为目标物体提供足够的约束,而且表示这些特征仅仅需要很少的数据量。描述目标物体的特征点一般指的是目标区域的拐角点、封闭轮廓线的中心、纹理特征或者其他的突出点。另外,人为设计的特征,也称之为标记物,用以将特定物体和其他物体区别出来,这样可以提高目标物体识别和定位的实时性和稳定性。因此,基于标记物的跟踪算法在单目、双目相机中都有广泛应用。但是,传统深度相机的分辨率较低,难以获取精细的图像特征,所以通常将其与RGB相机一起使用。但是RGB相机对环境光的变化敏感,其与深度相机的标定也易引入误差。
发明内容
本发明是为了解决传统深度相机的分辨率较低,难以获取精细的图像特征;而与RGB相机使用时,标定还容易引入误差的问题,现提供Kinect深度相机的标记物及基于该标记物的虚拟标记物跟踪方法。
Kinect深度相机的标记物,所述标记物包括表面均匀覆盖有近红外反光粉末的基质,所述标记物厚度小于等于0.2mm。所述基质为圆片或球形结构。
基于上述标记物的虚拟标记物跟踪方法,包括以下步骤:
S1:利用Kinect深度相机对粘贴有n个标记物的平面进行拍摄、并获得近红外图像和深度数据帧,n为大于等于2的正整数,所述平面法向量与Kinect深度相机的光轴夹角小于等于40度,所述平面为白色哑光平面、且反射率大于0.8;
S2:在近红外图像中分别提取每个标记物的几何中心坐标;
S3:在深度数据帧中,根据透视投影过程和平面性质获取每个标记物几何中心坐标对应的深度值;
S4:将相邻的两个标记物作为一组,每组中在两个标记物几何中心连线上取深度值有效的一点作为一个虚拟标记物,取m个虚拟标记物,当n=2时,m=1,当n≥3时,m≥3且任意3个虚拟标记物不共线,然后利用每个标记物的几何中心坐标和深度值分别获得m个虚拟标记物的图像坐标;
S5:利用m个虚拟标记物的图像坐标分别获取m个虚拟标记物的深度值;
S6:对m个虚拟标记物的图像坐标及深度值进行降噪;
S7:将S6中降噪后的m个虚拟标记物的图像坐标及其对应的深度值、通过透视投影逆过程变换至Kinect深度相机局部坐标系下的三维空间中,获得m个虚拟标记物的实时三维坐标,完成虚拟标记物的跟踪。
上述S2中在近红外图像中分别提取每个标记物的几何中心坐标的具体步骤为:
S21:对近红外图像进行阈值分割获得二值图像,所述阈值能够将标记物和背景区分开;
S22:遍历二值图像中的每个像素,利用区域增长算法提取每个标记物的像素集合;
S23:对每个标记物的像素集合进行平均,获得每个标记物的几何中心坐标。
上述S3中获取每个标记物几何中心坐标对应的深度值的具体步骤为:
S31:分别获取与每个标记物相邻的四个像素
S32:在深度数据帧中,对四个像素对应的深度值进行插值,获得每个标记物对应的四个像素的深度值
S33:根据S32获得的四个像素的深度值、插值获得每个标记物几何中心坐标对应的深度值。
上述S4中,将相邻的两个虚拟标记物作为一组,每组中两个虚拟标记物连线上的任意一点也能够作为一个虚拟标记物。
上述S6中利用卡尔曼滤波器进行降噪。
上述S7中虚拟标记物的实时三维坐标[x y d]的表达式通过下式获得:
[x y d]T=K-1[du dv d]T
其中,K表示Kinect深度相机的内参矩阵,[u v]表示虚拟标记物的图像坐标,d表示虚拟标记物的深度值。
本发明所述的供Kinect深度相机的标记物区域在近红外接收器上接收到幅值饱和的近红外反射光线,使其在Kinect深度相机输出的近红外图像中显示为高亮区域。
本发明所述的基于上述标记物的虚拟标记点跟踪方法,在Kinect深度相机输出的近红外图像上,识别和提取标记物区域,并求其几何中心像素坐标;利用对应的深度图,根据相机透视投影模型和平面性质插值计算标记物几何中心相对Kinect深度相机的深度值;虚拟标记点指两个标记物几何中心连线上的点,采用基于深度图的像素插值算法求得虚拟标记点的图像坐标;在深度图中对虚拟标记点的深度值进行索引并滤波;使用卡尔曼滤波器对虚拟标记点的图像坐标和深度进行滤波,再通过透视投影逆过程得到虚拟标记点的三维坐标,完成对虚拟标记点的跟踪。本发明使用飞行时间(Time-of-flight,ToF)相机,所实现的虚拟标记点跟踪,较直接跟踪粘贴标记物具有更高的精度,适用于其它ToF相机,实现低成本、快速、鲁棒性的运动物体跟踪。
附图说明
图1为Kinect深度相机拍摄对粘贴有4个标记物的平面进行拍摄时的示意图,其中点A、B、C和D分别为四个标记物,E和F分别为两个虚拟标记物;
图2为标记物的近红外图像和其对应的深度点云的对比示意图;
图3为基于平面信息和深度图像的深度插值过程示意图;
图4为基于平面信息和深度图像的像素插值过程示意图;
图5为平面深度信息示意图。
具体实施方式
Kinect v2是微软2014年发布RGB-D类型传感器。Kinect v2包含一个普通光学相机以及一个TOF相机,能够以每秒30帧的速率实时返回拍摄场景的深度信息。由于Kinectv2的深度相机的较高分辨率,单独为该相机设计标记物可以使系统更加紧凑。另外,该深度相机采用主动近红外成像原理,对环境光不敏感,甚至可以在无光的环境下工作。
本发明的目的是针对Kinect v2深度相机设计一种人工标记物,利用该标记物对近红外反光的特性,在红外图像中快速分割、提取标记物。结合深度相机获取的深度信息,实现对人工标记物进行实时跟踪的目的,具体如以下实施方式。
具体实施方式一:本实施方式所述的Kinect深度相机的标记物,所述标记物包括表面均匀覆盖有近红外反光粉末的基质。
实际操作时,将高反射率材料制成的粉末平铺于具有双面胶性基质的表面,并要求近红外反光粉末均匀覆盖该基质的表面,能够很好地反射Kinect深度相机所发射的红外光,在近红外传感器上接收到幅值饱和的红外反射光线,使其在Kinect深度相机输出的近红外图像中显示为高亮区域。
具体的,基质为圆片或球形结构;基质为圆片,即制成可粘贴的二维反光的物理标记物,且该带反光材料的胶性基质整体厚度不超过0.2mm。
具体实施方式二:参照图1至5具体说明本实施方式,本实施方式是基于具体实施方式一所述的Kinect深度相机的标记物的虚拟标记物跟踪方法,本实施方式中,包括以下步骤:
S1:如图1和图2所示,取4个具体实施方式一所述的标记物,分别记为A、B、C、D,并将4个标记物粘贴于白纸上,且四个标记物分别位于边长为60mm正方形的四个角上,然后将白纸粘贴在平整的表面上;
利用Kinect深度相机对粘贴有4个标记物的白纸平面进行拍摄、并获得近红外图像和深度数据帧;
所述平面法向量与Kinect深度相机的光轴夹角小于等于40度,Kinect深度相机与平面距离为760mm-1400mm,所述平面为哑光平面、且反射率大于0.8,n为大于等于2的正整数;
上述步骤中,白纸要求表面哑光,具有良好的漫反射特性,厚度不超过0.2mm。
S2:在近红外图像中分别提取4个标记物的几何中心坐标,具体步骤如下:
S21:对近红外图像进行阈值分割获得二值图像,所述阈值能够将标记物和背景区分开;
S22:遍历二值图像中的每个像素,利用区域增长算法分别提取4个标记物的像素集合NA={ai|i=1,2,3,...,A}、NB={bi|i=1,2,3,...,B}、NC={ci|i=1,2,3,...,C}、ND={di|i=1,2,3,...,D},A、B、C和D分别为4个标记物像素集合中的像素个数,ai、bi、ci和di分别表示4个标记物在近红外图像中的第i个像素坐标;
S23:对每个标记物的像素集合进行平均;
以标记物A为例,利用以下公式对标记物A的像素集合的集合中心进行平均,其中ai=[ui vi],标记物A的几何中心坐标为:
S3:在深度数据帧中,根据透视投影过程和平面性质获取每个标记物几何中心坐标对应的深度值,如图3所示,以标记物A为例,具体步骤如下:
S31:分别获取与标记物A相邻的四个像素
S32:在深度数据帧中,对四个像素对应的深度值进行插值,获得标记物A对应的四个像素的深度值
其中,dp表示像素p的深度值,表示在深度数据帧中第i对以p为中点的两个坐标所对应的深度值、且共有β对深度值;
S33:根据S32获得的四个像素的深度值、插值获得标记物A几何中心坐标对应的深度值dq
其中,中间变量中间变量表示第i个像素坐标,q=1,2,运算符表示对R向下取整,函数F通过平面特性和透视投影过程推导获得,其公式如下:
其中,za和zb分别表示深度数据帧中标记物集合中心a和b所对应的深度值,α=|ac|/|ab|,c表示标记物集合中心a和b连线上任一点的坐标,则zc表示深度数据帧中c所对应的深度值。
S4:将相邻的两个标记物作为一组,每组中两个标记物连线的中点作为虚拟标记物,取4个虚拟标记物,然后利用每个标记物的几何中心坐标和深度值分别获得4个虚拟标记物的图像坐标;
实际应用时,还能够将相邻的两个虚拟标记物作为一组,每组中两个虚拟标记物连线上的任意一点也能够作为一个虚拟标记物,或者将两个虚拟标记物连线的中点作为一个虚拟标记物;
上述虚拟标记物个数的选取规则为:如果使用虚拟标记物进行六自由度(位置和姿态)的刚体跟踪,则虚拟标记物应不共线且至少3个。实际应用时,对于多个标记物的情况,虚拟标记物的个数可由用户指定和组合。
如图4所示,A和B连线的中点为虚拟标记物E,C和D连线的中点为虚拟标记物F。
上述虚拟标记物的图像坐标[uv vv]为,
其中,d1和d2分别表示一组中的两个标记物所对应的深度值,[u1 v1]和[u2 v2]分别表示一组中的两个标记物的像素坐标,设两个标记物的三维坐标分别为A和B,则虚拟标记物E的位置由γ=|AE|/|AB|确定,当γ=1/2时,上式可变换为:
S5:利用m个虚拟标记物的图像坐标分别获取m个虚拟标记物的深度值。
S6:利用卡尔曼滤波器对m个虚拟标记物的图像坐标及深度值进行降噪。
S7:将S6中降噪后的m个虚拟标记物的图像坐标及其对应的深度值、通过透视投影逆过程变换至Kinect深度相机局部坐标系下的三维空间中,获得m个虚拟标记物的实时三维坐标,完成虚拟标记物的跟踪;
虚拟标记物的实时三维坐标[x y z]的表达式通过下式获得:
[x y d]T=K-1[du dv d]T
其中,K表示Kinect深度相机的内参矩阵,[u v]表示z。
本实施方式的标记物采用近红外反光材料,可在近红外图像中根据高亮特征快速提取。根据标记物所在平面,对其深度值进行插值,再将插值结果用于虚拟标记点的图像定位中。最后,通过透视投影逆变换对虚拟标记点进行三维重建,实现对虚拟标记点跟踪。

Claims (16)

1.Kinect深度相机的标记物,其特征在于,所述标记物包括表面均匀覆盖有近红外反光粉末的基质,所述标记物厚度小于等于0.2mm。
2.根据权利要求1所述的Kinect深度相机的标记物,其特征在于,基质为圆片或球形结构。
3.基于权利要求1所述的标记物的虚拟标记物跟踪方法,其特征在于,包括以下步骤:
S1:利用Kinect深度相机对粘贴有n个标记物的平面进行拍摄、并获得近红外图像和深度数据帧,n为大于等于2的正整数,所述平面法向量与Kinect深度相机的光轴夹角小于等于40度,所述平面为白色哑光平面、且反射率大于0.8;
S2:在近红外图像中分别提取每个标记物的几何中心坐标;
S3:在深度数据帧中,根据透视投影过程和平面性质获取每个标记物几何中心坐标对应的深度值;
S4:将相邻的两个标记物作为一组,每组中在两个标记物几何中心连线上取深度值有效的一点作为一个虚拟标记物,取m个虚拟标记物,当n=2时,m=1,当n≥3时,m≥3且任意3个虚拟标记物不共线,然后利用每个标记物的几何中心坐标和深度值分别获得m个虚拟标记物的图像坐标;
S5:利用m个虚拟标记物的图像坐标分别获取m个虚拟标记物的深度值;
S6:对m个虚拟标记物的图像坐标及深度值进行降噪;
S7:将S6中降噪后的m个虚拟标记物的图像坐标及其对应的深度值、通过透视投影逆过程变换至Kinect深度相机局部坐标系下的三维空间中,获得m个虚拟标记物的实时三维坐标,完成虚拟标记物的跟踪。
4.根据权利要求3所述的虚拟标记物跟踪方法,其特征在于,S2中在近红外图像中分别提取每个标记物的几何中心坐标的具体步骤为:
S21:对近红外图像进行阈值分割获得二值图像,所述阈值能够将标记物和背景区分开;
S22:遍历二值图像中的每个像素,利用区域增长算法提取每个标记物的像素集合;
S23:对每个标记物的像素集合进行平均,获得每个标记物的几何中心坐标。
5.根据权利要求4所述的虚拟标记物跟踪方法,其特征在于,
S22中,每个标记物的像素集合的表达式为:Nn={pi|i=1,2,3,...,x},其中pi=[uivi]表示标记物在近红外图像中第i个像素坐标,x表示像素个数。
6.根据权利要求5所述的虚拟标记物跟踪方法,其特征在于,
S23中,利用以下公式对每个标记物的像素集合进行平均:
每个标记物的几何中心坐标tn的表达式为:
7.根据权利要求3所述的虚拟标记物跟踪方法,其特征在于,S3中获取每个标记物几何中心坐标对应的深度值的具体步骤为:
S31:分别获取与每个标记物相邻的四个像素
S32:在深度数据帧中,对四个像素对应的深度值进行插值,获得每个标记物对应的四个像素的深度值
S33:根据S32获得的四个像素的深度值、插值获得每个标记物几何中心坐标对应的深度值。
8.根据权利要求7所述的虚拟标记物跟踪方法,其特征在于,S32中,通过以下公式分别对四个像素对应的深度值进行插值:
其中,dp表示像素p的深度值, 表示在深度数据帧中第i对以p为中点的两个坐标所对应的深度值、且共有β对深度值。
9.根据权利要求7或8所述的虚拟标记物跟踪方法,其特征在于,S33中,通过下式插补获得每个标记物坐标对应的深度值dq
其中,中间变量中间变量[ui vi]表示第i个像素坐标,q=1,2,运算符表示对R向下取整。
10.根据权利要求9所述的虚拟标记物跟踪方法,其特征在于,函数F通过平面特性和透视投影过程推导获得,其公式如下:
其中,za和zb分别表示深度数据帧中标记物集合中心a和b所对应的深度值,α=|ac|/|ab|,c表示标记物集合中心a和b连线上任一点的坐标,则zc表示深度数据帧中c所对应的深度值。
11.根据权利要求3所述的虚拟标记物跟踪方法,其特征在于,S4中,将相邻的两个虚拟标记物作为一组,每组中两个虚拟标记物连线上的任意一点也能够作为一个虚拟标记物。
12.根据权利要求3或11所述的虚拟标记物跟踪方法,其特征在于,S4中虚拟标记物的图像坐标[uv vv]为,
其中,d1和d2分别表示一组中的两个标记物几何中心所对应的深度值,[u1 v1]和[u2v2]分别表示一组中的两个标记物几何中心的像素坐标,当γ=1/2时,上式变换为:
13.根据权利要求3所述的虚拟标记物跟踪方法,其特征在于,S6中利用卡尔曼滤波器进行降噪。
14.根据权利要求3所述的虚拟标记物跟踪方法,其特征在于,S7中虚拟标记物的实时三维坐标[x y d]的表达式通过下式获得:
[x y d]T=K-1[du dv d]T
其中,K表示Kinect深度相机的内参矩阵,[u v]表示虚拟标记物的图像坐标,d表示虚拟标记物的深度值。
15.根据权利要求3所述的虚拟标记物跟踪方法,其特征在于,S4中,将相邻的两个标记物作为一组,每组中两个标记物连线的中点作为虚拟标记物。
16.根据权利要求11所述的虚拟标记物跟踪方法,其特征在于,S4中,将相邻的两个虚拟标记物作为一组,每组中两个虚拟标记物连线的中点作为一个虚拟标记物。
CN201910295827.2A 2019-04-12 2019-04-12 Kinect深度相机的标记物及基于该标记物的虚拟标记物跟踪方法 Active CN110021035B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910295827.2A CN110021035B (zh) 2019-04-12 2019-04-12 Kinect深度相机的标记物及基于该标记物的虚拟标记物跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910295827.2A CN110021035B (zh) 2019-04-12 2019-04-12 Kinect深度相机的标记物及基于该标记物的虚拟标记物跟踪方法

Publications (2)

Publication Number Publication Date
CN110021035A true CN110021035A (zh) 2019-07-16
CN110021035B CN110021035B (zh) 2020-12-11

Family

ID=67191322

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910295827.2A Active CN110021035B (zh) 2019-04-12 2019-04-12 Kinect深度相机的标记物及基于该标记物的虚拟标记物跟踪方法

Country Status (1)

Country Link
CN (1) CN110021035B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110659587A (zh) * 2019-09-02 2020-01-07 广东虚拟现实科技有限公司 标记物、标记物识别方法、装置、终端设备及存储介质
CN111009180A (zh) * 2019-12-12 2020-04-14 宁波融光纳米科技有限公司 标示物以及功能涂料
CN114004880A (zh) * 2021-04-08 2022-02-01 四川大学华西医院 双目相机的点云和强反光目标实时定位方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107107236A (zh) * 2014-11-05 2017-08-29 伊利诺斯工具制品有限公司 用于焊接系统夹具组件的系统和方法
CN107330936A (zh) * 2017-06-21 2017-11-07 清华大学深圳研究生院 一种基于单目视觉的双圆形标志物定位方法及系统
CN109078270A (zh) * 2018-06-29 2018-12-25 天津市宝坻区人民医院 一种基于放射治疗的辅助红外定位装置及方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107107236A (zh) * 2014-11-05 2017-08-29 伊利诺斯工具制品有限公司 用于焊接系统夹具组件的系统和方法
CN107330936A (zh) * 2017-06-21 2017-11-07 清华大学深圳研究生院 一种基于单目视觉的双圆形标志物定位方法及系统
CN109078270A (zh) * 2018-06-29 2018-12-25 天津市宝坻区人民医院 一种基于放射治疗的辅助红外定位装置及方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110659587A (zh) * 2019-09-02 2020-01-07 广东虚拟现实科技有限公司 标记物、标记物识别方法、装置、终端设备及存储介质
CN111009180A (zh) * 2019-12-12 2020-04-14 宁波融光纳米科技有限公司 标示物以及功能涂料
CN114004880A (zh) * 2021-04-08 2022-02-01 四川大学华西医院 双目相机的点云和强反光目标实时定位方法

Also Published As

Publication number Publication date
CN110021035B (zh) 2020-12-11

Similar Documents

Publication Publication Date Title
US11210804B2 (en) Methods, devices and computer program products for global bundle adjustment of 3D images
CN106683173B (zh) 一种基于邻域块匹配提高三维重建点云稠密程度的方法
CN103868460B (zh) 基于视差优化算法的双目立体视觉自动测量方法
CN107833181B (zh) 一种基于变焦立体视觉的三维全景图像生成方法
EP3994660A1 (en) Method and system for image generation
CN109615652A (zh) 一种深度信息获取方法及装置
CN110599540A (zh) 多视点相机下的实时三维人体体型与姿态重建方法及装置
CN108335350A (zh) 双目立体视觉的三维重建方法
WO2022156755A1 (zh) 一种室内定位方法、装置、设备和计算机可读存储介质
CN110021035B (zh) Kinect深度相机的标记物及基于该标记物的虚拟标记物跟踪方法
CN108629829B (zh) 一种球幕相机与深度相机结合的三维建模方法和系统
CN101581575A (zh) 基于激光和摄像机数据融合的三维重建方法
Ruchay et al. Fusion of information from multiple Kinect sensors for 3D object reconstruction
CN102831601A (zh) 基于联合相似性测度和自适应支持权重的立体匹配方法
CN110060304B (zh) 一种生物体三维信息采集方法
CN111932678A (zh) 多视点实时人体运动、手势、表情、纹理重建系统
CN116977391A (zh) 一种基于双目多线结构光的水下三维重建方法
CN112907631A (zh) 一种引入反馈机制的多rgb相机实时人体动作捕捉系统
CN110032211A (zh) 多旋翼无人机自动避障方法
CN108230242A (zh) 一种从全景激光点云到视频流的转换方法
Wan et al. A study in 3d-reconstruction using kinect sensor
CN116129037A (zh) 视触觉传感器及其三维重建方法、系统、设备及存储介质
CN110909571B (zh) 一种高精度面部识别空间定位方法
CN110514114A (zh) 一种基于双目视觉的微小目标空间位置标定方法
WO2024212559A1 (zh) 一种室内环境的视觉slam方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20240605

Address after: 311119, 1st Floor, Building 1, and 1-4 Floors, Building 2, No. 39 Science and Technology Avenue, Yuhang Street, Yuhang District, Hangzhou City, Zhejiang Province

Patentee after: Hangzhou Weijing medical robot Co.,Ltd.

Country or region after: China

Address before: 150001 No. 92 West straight street, Nangang District, Heilongjiang, Harbin

Patentee before: HARBIN INSTITUTE OF TECHNOLOGY

Country or region before: China

TR01 Transfer of patent right
CP03 Change of name, title or address

Address after: 311121 Hangzhou City, Yuhang District, Yuhang Street, Keji Avenue 39, Building 1, first floor, Building 2, first to fourth floors

Patentee after: Hangzhou Kangji Weijing Medical Robot Co.,Ltd.

Country or region after: China

Address before: Building 1, 1st Floor, and Building 2, 1-4 Floors, No. 39 Keji Avenue, Yuhang Street, Yuhang District, Hangzhou City, Zhejiang Province

Patentee before: Hangzhou Weijing medical robot Co.,Ltd.

Country or region before: China

CP03 Change of name, title or address