CN103197773A - 一种用于检测输入设备的三维位置信息的方法与系统 - Google Patents
一种用于检测输入设备的三维位置信息的方法与系统 Download PDFInfo
- Publication number
- CN103197773A CN103197773A CN2012100046580A CN201210004658A CN103197773A CN 103197773 A CN103197773 A CN 103197773A CN 2012100046580 A CN2012100046580 A CN 2012100046580A CN 201210004658 A CN201210004658 A CN 201210004658A CN 103197773 A CN103197773 A CN 103197773A
- Authority
- CN
- China
- Prior art keywords
- luminous point
- information
- input
- described input
- dimensional local
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title abstract description 43
- 238000003384 imaging method Methods 0.000 abstract description 5
- 238000013507 mapping Methods 0.000 abstract description 4
- 238000001514 detection method Methods 0.000 description 30
- 238000010586 diagram Methods 0.000 description 14
- 230000008676 import Effects 0.000 description 10
- 230000003287 optical effect Effects 0.000 description 10
- 230000005484 gravity Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 238000001914 filtration Methods 0.000 description 6
- 238000005070 sampling Methods 0.000 description 5
- 239000003086 colorant Substances 0.000 description 4
- 239000000463 material Substances 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000004020 luminiscence type Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000004438 eyesight Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000004304 visual acuity Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
- H04N21/42206—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
- H04N21/42222—Additional components integrated in the remote control device, e.g. timer, speaker, sensors for detecting position, direction or movement of the remote control, microphone or battery charging device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/571—Depth or shape recovery from multiple images from focus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/4223—Cameras
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明的目的是提供一种用于检测输入设备的三维位置信息的方法与系统。其中,所述输入设备包括至少一个发射光源;由一个摄像头拍摄所述发射光源的成像信息;根据所述成像信息,检测所述发射光源的输入光点;根据所述输入光点的光点属性信息,基于预定的映射关系,获取所述输入设备的三维位置信息。与现有技术相比,本发明仅通过一个摄像头拍摄发射光源的成像信息,进而获取该发射光源所属输入设备的三维位置信息,降低了系统的硬件成本和计算复杂度。
Description
技术领域
本发明涉及信息技术领域,尤其涉及一种用于检测输入设备的三维位置信息的技术。
背景技术
现有的三维位置检测方法,主要通过两个摄像头拍摄发射光源的成像信息,并根据双目立体视觉算法,计算该发射光源的三维位置信息。并且,双目立体视觉算法仅能计算发射光源的三维平动位置。
发明内容
本发明的目的是提供一种用于检测输入设备的三维位置信息的方法与系统。
根据本发明的一个方面,提供了一种用于检测输入设备的三维位置信息的方法,其中,所述输入设备包括至少一个发射光源;
其中,该方法包括以下步骤:
a由一个摄像头拍摄所述发射光源的成像信息;
b根据所述成像信息,检测所述发射光源的输入光点;
c根据所述输入光点的光点属性信息,基于预定的映射关系,获取所述输入设备的三维位置信息。
优选地,所述输入设备的三维位置信息包括所述输入设备的三维转动位置信息。
优选地,所述输入光点的光点属性信息包括以下至少任一项:
-所述输入光点的形状;
-所述输入光点的大小;
-所述输入光点的亮度;
-所述输入光点的光分布特性;
-与所述发射光源的发光模式相对应的属性。
根据本发明的方法的优选实施例之一,所述步骤c包括根据所述输入光点的光点属性信息,基于预定的拟合曲线,获取所述输入设备的三维位置信息。
优选地,所述输入设备的三维位置信息包括所述输入设备的三维平动位置信息,所述预定的拟合曲线包括预定的距离拟合曲线;所述步骤c包括:根据所述输入光点的光点属性信息,基于所述预定的距离拟合曲线,确定所述输入设备相对所述摄像头的距离信息;根据所述距离信息,以及所述输入光点在所述成像信息的二维坐标,获取所述输入设备的三维平动位置信息。
根据本发明的方法的优选实施例之一,所述步骤c包括根据所述输入光点的光点属性信息,通过查询预定的光点属性样本表,获取所述输入设备的三维位置信息。
优选地,所述输入设备的三维位置信息包括所述输入设备的三维平动位置信息,所述预定的光点属性样本表包括预定的光点属性-距离样本表;所述步骤c包括:根据所述输入光点的光点属性信息,基于所述预定的光点属性-距离样本表,确定所述输入设备相对所述摄像头的距离信息;根据所述距离信息,以及所述输入光点在所述成像信息的二维坐标,获取所述输入设备的三维平动位置信息。
更优选地,所述步骤c进一步包括:根据所述输入光点的光点属性信息,基于所述预定的光点属性-距离样本表,通过样本内插算法,确定所述距离信息。
根据本发明的方法的优选实施例之一,所述成像信息包括所述发射光源的多帧图像;所述步骤c包括:通过多帧平均算法,根据所述输入光点的光点属性信息,基于预定的映射关系,获取所述输入设备的三维位置信息。
优选地,所述步骤c包括:根据所述多帧图像的每一个中所述输入光点的光点属性信息,通过多帧平均算法,获得平均光点属性信息;根据所述平均光点属性信息,基于预定的映射关系,获取所述输入设备的三维位置信息。
优选地,所述步骤c包括:根据所述多帧图像的每一个中所述输入光点的光点属性信息,基于预定的映射关系,获取所述多帧图像中每一个所对应的所述输入设备的参考三维位置信息;根据所述参考三维位置信息,通过多帧平均算法,获得所述输入设备的三维位置信息。
根据本发明的方法的优选实施例之一,所述成像信息包括所述发射光源在同一时刻的至少两个图像,其中,所述至少两个图像分别属于不同的分辨率等级;所述步骤b包括:根据所述至少两个图像中属于相对低分辨率等级的图像,获取所述输入光点所对应的候选区域;根据所述至少两个图像中属于相对高分辨率等级的图像中的所述候选区域,获取所述输入光点。
根据本发明的方法的优选实施例之一,所述步骤b包括:根据所述成像信息,获取多个候选光点;按照预定筛选条件,从所述多个候选光点中确定所述输入光点。
优选地,所述预定筛选条件包括以下至少任一项:
-所述输入光点为指定形状;
-所述输入光点为指定颜色;
-所述输入光点的大小属于预定范围;
-所述输入光点的亮度值最大;
-所述输入光点的相应属性与所述发射光源的发光模式相符。
根据本发明的方法的优选实施例之一,所述输入设备包括多个发射光源;所述步骤b包括:根据所述成像信息,获取所述多个发射光源所对应的输入光点组,其中,所述输入光点组中的每一个输入光点对应所述多个发射光源之一;检测所述输入光点组中的一个或多个输入光点,以用于获取所述多个发射光源中一个或多个的三维位置信息;在所述步骤c之后,该方法还包括根据所述多个发射光源中一个或多个的三维位置信息,确定所述输入设备的三维位置信息。
优选地,所述多个发射光源按照预定规则进行配置,所述预定规则包括以下至少任一项:
-所述多个发射光源按照不同的光学特性进行配置;
-所述多个发射光源按照不同的发光模式进行配置;
-所述多个发射光源按照预定的几何结构进行配置。
根据本发明的另一个方面,还提供了一种用于检测输入设备的三维位置信息的系统,其中,该系统包括输入设备和检测设备,所述输入设备包括至少一个发射光源,所述检测设备包括一个摄像头和至少一个处理装置;
所述摄像头用于拍摄所述发射光源的成像信息;
其中,所述处理装置用于:
-根据所述成像信息,检测所述发射光源的输入光点;
-根据所述输入光点的光点属性信息,基于预定的映射关系,获取所述输入设备的三维位置信息。
根据本发明的系统的优选实施例,所述输入设备包括多个发射光源;所述检测所述发射光源的输入光点的操作包括:
-根据所述成像信息,获取所述多个发射光源所对应的输入光点组,其中,所述输入光点组中的每一个输入光点对应所述多个发射光源之一;
-检测所述输入光点组中的一个或多个输入光点,以用于获取所述多个发射光源中一个或多个的三维位置信息;
其中,所述处理装置还用于:
-根据所述多个发射光源中一个或多个的三维位置信息,确定所述输入设备的三维位置信息。
与现有技术相比,本发明仅通过一个摄像头拍摄发射光源的成像信息,进而获取该发射光源所属输入设备的三维位置信息,降低了系统的硬件成本和计算复杂度。
进一步地,本发明不仅可以获得输入设备的三维平动位置信息,还可以获得输入设备的三维转动位置信息,提高了输入设备的三维位置检测的准确度和灵敏度。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1示出根据本发明一个方面的用于检测输入设备的三维位置信息的系统示意图;
图2示出根据本发明另一个方面的用于检测输入设备的三维位置信息的方法流程图;
图3示出根据本发明另一个方面的用于检测输入设备的三维位置信息的方法流程图;
图4示出根据本发明一个优选实施例的用于检测输入设备的三维位置信息的方法流程图;
图5示出根据本发明另一个优选实施例的用于检测输入设备的三维位置信息的方法流程图;
图6示出根据本发明再一个优选实施例的用于检测输入设备的三维位置信息的方法流程图;
图7示出根据本发明的一个LED光源的成像图示例;
图8示出根据本发明又一个优选实施例的用于检测输入设备的三维位置信息的方法流程图;
图9示出根据本发明的输入设备包括4个LED光源的排列方式示意图;
图10示出根据本发明的输入设备包括3个LED光源的排列方式示意图;
图11示出根据本发明的输入设备包括3个LED光源的排列方式示意图。
附图中相同或相似的附图标记代表相同或相似的部件。
具体实施方式
下面结合附图对本发明作进一步详细描述。
图1为根据本发明一个方面的系统示意图,示出一种用于检测输入设备的三维位置信息的输入检测系统。
如图1所示,输入检测系统100包括输入设备110和检测设备120,其中,输入设备110和检测设备120分别置于两端。输入设备110包括至少一个发射光源111。检测设备120包括至少一个处理装置122,该检测设备120还内置或外接一个摄像头121。
摄像头121拍摄发射光源111的成像信息;处理装置122根据所述成像信息,检测发射光源111的输入光点,并根据所述输入光点的光点属性信息,基于预定的映射关系,获取发射光源111的三维位置信息。
本发明中,由于发射光源111装置于输入设备110,故输入设备110的三维位置信息由发射光源111的三维位置信息来表征,两者等同使用。进一步地,当输入设备110包括一个发射光源111时,输入设备110的三维位置信息可直接由发射光源111的三维位置信息来表征;当输入设备110包括多个发射光源111时,输入设备110的三维位置信息可直接由其中一个发射光源111的三维位置信息来表征,或通过对其中一个或多个发射光源111的三维位置信息的相关计算,确定输入设备110的三维位置信息。
例如,摄像头121拍摄发射光源111的图像;处理装置122从该图像中选择圆形的光点作为发射光源111的输入光点,如按照预设的门限对该图像进行二值化处理,以便于圆形光点的检测,并通过霍夫变换来进行圆形光点的检测,计算圆半径和圆心坐标,只有半径落于预定有效半径范围内的圆形光点才为有效的圆形光点,若有多个符合条件的圆形光点,可选最亮的圆形光点作为输入光点,根据该输入光点的圆半径、亮度,查询预设的光点属性-距离样本表,以获得发射光源111相对摄像头121的距离信息,结合输入光点的圆心在图像中的二维坐标,计算获得该发射光源111的三维平动位置信息。
在此,所述输入光点的光点属性信息包括但不限于任何可适用于本发明的,可直接或间接用于确定发射光源111的三维位置信息的相关光学属性,诸如所述输入光点的形状、大小、亮度或光分布特性等。
优选地,所述输入光点的光点属性信息包括但不限于,以下至少任一项:
1)所述输入光点的形状,诸如圆形、椭圆形;
2)所述输入光点的大小,如圆半径、面积等;
3)所述输入光点的亮度;
4)所述输入光点的光分布特性,如所述输入光点的光分布会随着发射光源111的三维转动位置信息的变化而单调变化;
5)与所述发射光源的发光模式相对应的属性,如LED光源的中心不发光,则相应的输入光点为中心黑点的圆形光点。
发射光源111的三维位置信息包括但不限于,发射光源111的三维平动位置信息和/或发射光源111的三维转动位置信息。
同样地,输入设备110的三维位置信息包括但不限于,输入设备110的三维平动位置信息和/或输入设备110的三维转动位置信息。
在此,将输入光点的圆心在图像中基于图像中心的二维坐标标记为(x,y)。其中x是输入光点的圆心在图像中的横坐标,y是输入光点的圆心在图像中的纵坐标。
将某空间原点的三维坐标标记为(X0,Y0,Z0),则发射光源111的三维平动位置信息为其三维坐标(X,Y,Z),其中,X是发射光源111质心的水平坐标,Y是发射光源111质心的竖直坐标,Z是发射光源111质心的纵深坐标。通过公式X=x(λ-Z)/λ,Y=y(λ-Z)/λ,即可由发射光源111的二维圆心坐标(x,y),计算获得该发射光源111的三维位置信息(X,Y,Z),其中,λ为摄像头的焦距,发射光源111相对摄像头121的距离信息Z的具体计算方式将在后续内容中予以详细说明。
如图2所示,发射光源111的三维转动位置信息可标记为θ,其中,θ为发射光源111的轴线与该发射光源111到摄像头122连线之间的夹角。进一步地,发射光源111的三维转动位置信息还可标记为(θ,γ),其中,γ为发射光源111围绕其质心轴的转角,即发射光源111的自转角度。此外,根据前述夹角θ,结合发射光源111的三维平动位置信息(X,Y,Z),还可进一步将发射光源111的三维转动位置信息标记为(α,β,γ),即该发射光源111通过其质心轴的空间方位,其中,α是发射光源111通过其质心轴的水平方向角,β是发射光源111通过其质心轴的竖直方向角。当输入设备110包括多个发射光源111时,γ可用于更精确地表征用户对输入设备110的各项操作,如用户转动输入设备110,根据多个发射光源111所组成几何形状的偏转,即可确定输入设备110的自转角度γ;并且,对于该输入设备110的夹角θ,可为该输入设备110的轴线与该输入设备110到摄像头122连线之间的夹角。
预定的映射关系包括但不限于任何可适用于本发明的,通过对所述输入光点的光点属性信息进行相应处理,获得发射光源111的三维位置信息的映射方式,诸如基于所述光点属性信息获得的所述三维位置信息的拟合曲线、所述光点属性信息与所述三维位置信息的样本表等。
仍参阅图1,发射光源111包括但不限于任何可适用于本发明的,各种点光源、面光源等发光物,诸如LED光源、红外光源、OLED光源等。为简化说明起见,本发明多以LED光源为例对发射光源111进行阐述,然而,本领域的技术人员应能理解,该种举例仅为简便地阐述本发明之用,而不应理解为对本发明的任何限制。
摄像头121包括但不限于任何可适用于本发明的,能够感应和采集诸如LED可见光、红外线等图像的图像采集设备;例如,摄像头121具备1)足够高的采集帧率,如15fps或以上,2)合适的分辨率,如640x480或以上,3)足够短的曝光时间,如1/500或更短。
处理装置122包括但不限于任何可适用于本发明的,能够按照事先存储的程序,自动进行数值计算和/或各种信息处理的电子设备,其硬件包括但不限于微处理器、FPGA、DSP、嵌入式设备等。进一步地,本发明中,检测设备120可以包括一个或多个处理装置122,当处理装置122有多个时,每个处理装置122可以被分配执行一个特定的信息处理操作,以实现并行计算,从而提高检测效率。
本领域技术人员应能理解上述发射光源111、摄像头121以及处理装置122仅为举例,其他现有的或今后可能出现的发射光源、摄像头或者处理装置如可适用于本发明,也应包含在本发明保护范围以内,并以引用方式包含于此。
进一步地,在该系统的一个优选实施例中,输入设备110中装置有多个发射光源111。其中,多个LED光源的排列方式分别如图9、图10和图11所示:图9示出一种4个LED光源的排列方式;图10示出一种3个LED光源的排列方式;图11示出一种2个LED光源的排列方式。
本发明中,对于多个发射光源111的情形,可以将多个发射光源111按照预定规则进行配置,所述预定规则包括但不限于,以下至少任一项:
1)多个发射光源111按照不同的光学特性进行配置;
2)多个发射光源111按照不同的发光模式进行配置;
3)多个发射光源111按照预定的几何结构进行配置。
具体地,1)所述光学特性包括但不限于任何可适用于本发明的,用于表征每个发射光源111的光学相关属性的信息,诸如发射光源111的波长、亮度、形状等。
2)所述发光模式包括但不限于任何可适用于本发明的,发射光源111的特殊发光性能,诸如多个发射光源111所分别发出光的颜色、闪烁频率、亮度等属性之一或任意组合的分布、在发射光源111外部加反光材料或透光材料以改变相应输入光点的形状等。
3)所述几何结构包括但不限于任何可适用于本发明的,由两个以上的发射光源111按照一定的距离和/或夹角所组成的任意几何结构,诸如三角形、正方形、正方体等。
本领域技术人员应能理解上述对多个发射光源进行配置的预定规则仅为举例,其他现有的或今后可能出现的对多个发射光源进行配置的预定规则如可适用于本发明,也应包含在本发明保护范围以内,并以引用方式包含于此。
在此,通过各种规则对多个发射光源111进行配置,如每个发射光源111发不同颜色或亮度的光、采用不同的闪烁频率,按照一定的距离和夹角进行放置等,使得检测设备120可以根据每个发射光源111的相对位置变化,计算获得输入设备110的自转角度γ,从而更精确地获得输入设备110的三维转动位置信息,这对于如3D游戏等需要精确三维位置信息的应用意义重大。
摄像头121拍摄发射光源111的成像信息;处理装置122根据所述成像信息,获取多个发射光源111所对应的输入光点组,其中,所述输入光点组中的每一个输入光点对应多个发射光源111之一,并检测所述输入光点组中的一个或多个输入光点,以用于获取多个发射光源111中一个或多个的三维位置信息;处理装置122根据所述一个或多个输入光点的光点属性信息,基于预定的映射关系,获取多个发射光源111中一个或多个的三维位置信息;处理装置122根据多个发射光源111中一个或多个的三维位置信息,确定输入设备110的三维位置信息。
在此,对于输入设备110的三维位置信息,至少可从以下两个维度来确定:
1)先确定所述输入光点组中用于计算的输入光点,再根据该等输入光点所对应发射光源111的三维位置信息,确定输入设备110的三维位置信息。其中,所述用于计算的输入光点可以是所述输入光点组中的全部或部分输入光点;处理装置122可以选择所述输入光点组中的任一输入光点作为所述用于计算的输入光点,并将所选输入光点所对应发射光源111的三维位置信息,作为输入设备110的三维位置信息;也可以根据所选择的用于计算的输入光点之间的几何结构,确定相应的点的三维位置信息,以用于表征输入设备110的三维位置信息,如根据所选择输入光点所组成的几何体的重心,将该重心的三维位置信息作为输入设备110的三维位置信息。
例如,参阅图10,在确定三个LED光源所分别对应的输入光点后,将该三个LED光源所组成三角形的重心的三维位置信息,作为该三个LED光源的三维位置信息。
2)先获取所述输入光点组中每个输入光点的三维位置信息,再通过对该等三维位置信息的各种计算处理,确定输入设备110的三维位置信息。
在此,所述计算处理包括但不限于任何可适用于本发明的,对所述输入光点组中每个输入光点的三维位置信息进行的各种计算,诸如对所有输入光点的三维位置信息求均值、按照多个LED光源之间的几何结构进行的各种重心或顶点的三维位置信息的计算等。
图3为根据本发明另一个方面的方法流程图,示出一种用于检测输入设备的三维位置信息的过程。其中,输入设备110包括一个发射光源111,检测设备120外接一个摄像头122。
配合参阅图1和图3,在步骤S301中,摄像头122拍摄发射光源111的成像信息;在步骤S302中,检测设备120根据所述成像信息,检测发射光源111的输入光点;在步骤S303中,检测设备120根据所述输入光点的光点属性信息,基于预定的映射关系,获取发射光源111的三维位置信息。
例如,在步骤S301中,摄像头122拍摄发射光源111的成像信息,如该发射光源111在同一时刻的一个高分辨率图像和一个低分辨率图像,该高分辨率图像和低分辨率图像可同时拍摄获得,也可仅拍摄高分辨率图像,对其采样以获得相应的低分辨率图像;在步骤S302中,对于发射光源111的低分辨率图像,检测设备120检测其中输入光点所对应的候选区域,如初步检测该低分辨率图像中小块孤立的光点或运动区域,并仅对高分辨率图像中该候选区域的相应部分进行进一步分析,如按照光点的形状、大小等检测该高分辨率图像,确定形状为圆形且半径属于预定的半径有效范围内的光点为该发射光源111的输入光点,其中,所述运动区域可结合该发射光源111在其他时刻的图像,对该低分辨率图像按照差分法处理,对差分处理后的该低分辨率图像取门限二值化确定;在步骤S303中,检测设备120根据发射光源111的输入光点的圆半径r,通过计算公式Z=c/r,其中,c为与摄像头焦距和发射光源111的大小等参数相关的常量,获取该发射光源111相对于摄像头121的距离信息Z,再结合该输入光点的圆心在图像中的二维坐标(x,y),通过公式X=x(λ-Z)/λ,Y=y(λ-Z)/λ,计算获得该发射光源111的三维平动位置信息(X,Y,Z)。其中,λ为摄像头121的焦距。
在此,发射光源111可选择在各方向发光特性一致的LED光源,对于发光特性不一致的LED光源,可以在其外部套一个透光球,以使得该LED光源经由该透光球在各方向的发光特性一致,以及相应输入光点的半径一致。
图4为根据本发明一个实施例的方法流程图,示出一种用于检测输入设备的三维位置信息的过程。其中,输入设备110包括一个发射光源111,检测设备120外接一个摄像头122。
配合参阅图1和图4,在步骤S401中,摄像头122拍摄发射光源111的成像信息;在步骤S402中,检测设备120根据所述成像信息,检测发射光源111的输入光点;在步骤S403中,检测设备120根据所述输入光点的光点属性信息,基于预定的拟合曲线,获取发射光源111的三维位置信息。
例如,在步骤S401中,摄像头122拍摄发射光源111的成像信息;在步骤S402中,检测设备120按照光点的形状、半径等检测该成像信息,如确定光点形状为圆形且半径属于预定的半径有效范围内的光点为该发射光源111的输入光点;在步骤S403中,检测设备120根据发射光源111的输入光点的光点半径r和亮度I,基于预定的夹角拟合曲线θ=h(r,I),获得发射光源111的轴线与该发射光源111到摄像头122连线之间的夹角θ,也即该发射光源111的三维转动位置信息。
在此,关于夹角拟合曲线的确定,可对夹角θ测出相应的r和I,如按一定步长在不同夹角θ下测定足够多的样本,即r和l的值(或其他可用的光点属性);以一次、二次或多次曲线按照最小误差准则拟合r、I与θ的映射关系。采样时,应选在有效工作范围内光学特性可通过r和I的组合唯一确定夹角θ的LED光源。
此外,所述夹角θ的拟合曲线还可以结合输入光点的光分布特性和/或发射光源111的发光模式等确定。其中,所述输入光点的光分布特性包括如输入光点内光分布的特征变换(PCA变换)的主轴方向和大小。所述发光模式诸如LED光源中心不发光(相应的输入光点为中心黑点)、LED光源中心发白光(相应的输入光点为中心亮点)、或LED光源发不同颜色(频率)的光,或使LED光源被摄像头捕获的输入光点呈椭圆形而非通常的圆形等通过特殊工艺对LED光源加入的特殊发光模式,该等发光模式可以帮助检测发射光源111的三维位置信息。
例如,通过检测椭圆的方向可以获得LED光源的自转角度γ,椭圆的方向为对椭圆分布的特征变换的主轴方向。通过检测输入光点的中心黑点或亮点的位置,可以检测夹角θ的偏转方向和大小,黑点或亮点为光点中最暗或最亮的中心位置。夹角θ的偏转方向为输入光点的中心至黑点或亮点中心的方向。检测在不同夹角θ的偏转方向和大小位置,相应的光点中心至黑点或亮点中心的距离d,以及输入光点在偏转方向的亮度变化的梯度大小k;θ=h(d,k)。由于k也可能与距离信息Z有关,从而θ=h(d,k,Z);或更复杂的情况下,θ=h(d,k,X,Y,Z),相应地,此时需对不同X、Y、Z按一定步长在不同θ下测定足够多的样本,即d和k的值。
优选地,输入设备110的三维位置信息包括输入设备110的三维平动位置信息,所述预定的拟合曲线包括预定的距离拟合曲线;在步骤S403中,检测设备120根据所述输入光点的光点属性信息,基于所述预定的距离拟合曲线,确定输入设备110相对摄像头121的距离信息;根据所述距离信息,以及所述输入光点在所述成像信息的二维坐标,获取输入设备110的三维平动位置信息。
例如,在确定发射光源111的输入光点后,在步骤S403中,检测设备120根据所述输入光点的光点半径r和亮度I,基于预定的距离拟合曲线Z=f(l/r,I),确定发射光源111相对摄像头121的距离Z,并结合所述输入光点的圆心在所拍摄图像中的二维坐标(x,y),通过公式X=x(λ-Z)/λ,Y=y(λ-Z)/λ,计算获得发射光源111的三维平动位置信息(X,Y,Z),该三维平动位置信息同时也为输入设备110的三维平动位置信息。
在此,关于距离拟合曲线的确定,可对距离Z测出相应的r和I,如对不同距离Z按一定步长测定足够多的样本,即r和l的值(或其他可用的光点属性),一次、二次或多次曲线按照最小误差准则拟合r和I与Z的映射关系。采样时,应选在有效工作范围内光学特性可通过r和I的组合唯一确定距离Z的LED光源。
为简便操作,在采样时,可对不同距离Z按一定步长在不同夹角θ的测定足够多的样本,即r和I的值,并相应分别确定距离Z和夹角θ的拟合曲线。
此外,所述距离Z的拟合曲线还可以结合输入光点的光分布特性和/或发射光源111的发光模式等确定。其中,所述输入光点的光分布特性包括如光点内光分布的特征变换(PCA变换)的主轴方向和大小。通过特殊工艺对LED光源加入的发光模式,诸如LED光源中心不发光(相应的输入光点为中心黑点)、LED光源中心发白光(相应的输入光点为中心亮点)、或LED光源发不同颜色(频率)的光,或使LED光源被摄像头捕获的输入光点呈椭圆形而非通常的圆形等,该等发光模式可以帮助检测发射光源111的三维位置信息。
例如,Z=g(r,I,t1,t2)。其中t1,t2为描述输入光点内光分布特性的变量。由于有更多的反映三维位置信息的变量,这一方法对LED光源的适用更广,对LED光源三维位置信息的检测更精确。
图5为根据本发明另一个实施例的方法流程图,示出一种用于检测输入设备的三维位置信息的过程。其中,输入设备110包括一个发射光源111,检测设备120外接一个摄像头122。
配合参阅图1和图5,在步骤S501中,摄像头122拍摄发射光源111的成像信息;在步骤S502中,检测设备120根据所述成像信息,检测发射光源111的输入光点;在步骤S503中,检测设备120根据所述输入光点的光点属性信息,通过查询预定的光点属性样本表,获取发射光源111的三维位置信息。
例如,在步骤S501中,摄像头122拍摄发射光源111的图像;在步骤S502中,检测设备120检测该图像中各圆形光点的亮度,将亮度值最大的圆形光点作为该发射光源111的输入光点;在步骤S503中,检测设备120根据该输入光点的半径r和亮度I,通过查询预定的光点属性样本表,获取发射光源111的夹角θ。
在此,按照一定角度间隔采集并存储足够多的r和I与θ的样本值,以建立光点属性-夹角样本表。对于一组待查询的r和I,当样本表中尚未包含相应记录时,可以计算在该样本表中与待查询的r和I距离最近的一组或多组r和I样本,并通过将其对应的一个或多个θ样本按照样本内插算法进行计算,获得发射光源111的夹角θ。其中,所述样本内插算法包括但不限于最近邻域内插法,线性加权内插法、双三次内插法(bicubic interpolation)等任何可适用于本发明的,现有的或将来可能实现的内插算法。
对于输入光点的其他光点属性信息,诸如输入光点的光分布特性或其他与发射光源111的发光模式相对应的属性等,同样可以采用上述方法采样建立相应的光点属性-夹角样本表,以用于后续直接查询该样本表获得夹角θ,或基于该样本表通过样本内插算法计算获得夹角θ。
优选地,输入设备110的三维位置信息包括输入设备110的三维平动位置信息,所述预定的光点属性样本表包括预定的光点属性-距离样本表;在步骤S503中,检测设备120根据所述输入光点的光点属性信息,基于所述预定的光点属性-距离样本表,确定输入设备110相对摄像头121的距离信息,根据所述距离信息,以及所述输入光点在所述成像信息的二维坐标,获取输入设备110的三维平动位置信息。
例如,检测设备120检测获得该发射光源111的输入光点后;在步骤S503中,检测设备120根据该输入光点的半径r和亮度I,通过查询预定的光点属性样本表,获取发射光源111相对摄像头121的距离Z,并结合该输入光点的圆心在其成像信息的二维坐标,计算获得发射光源111的三维平动位置信息。
在此,按照一定距离间隔采集并存储足够多的r和I与Z的样本值,以建立光点属性-距离样本表。对于一组待查询的r和I,当样本表中尚未包含相应记录时,可以计算在该样本表中与待查询的r和I距离最近的一组或多组r和I样本,并通过将其对应的一个或多个Z样本按照样本内插算法进行计算,获得发射光源111相对摄像头121的距离Z。其中,所述样本内插算法包括但不限于最近邻域内插法,线性加权内插法、双三次内插法(bicubic interpolation)等任何可适用于本发明的,现有的或将来可能实现的内插算法。
对于输入光点的其他光点属性信息,诸如输入光点的光分布特性或其他与发射光源111的发光模式相对应的属性等,同样可以采用上述方法采样建立相应的光点属性-距离样本表,以用于后续直接查询该样本表获得距离Z,或基于该样本表通过样本内插算法计算获得距离Z。
优选地,配合参阅图1-5,在本发明的一个优选实施例中,摄像头122拍摄发射光源111的多帧图像;检测设备120根据所述多帧图像,检测每一帧图像中发射光源111的输入光点;随后,检测设备120通过多帧平均算法,根据所述输入光点的光点属性信息,基于预定的映射关系,获取输入设备110的三维位置信息。
在此,检测设备120获取输入设备110的三维位置信息包括但不限于以下方式:
1)根据每一帧图像中输入光点的光点属性信息,通过多帧平均算法,获得平均光点属性信息,并根据所述平均光点属性信息,基于预定的映射关系,获取输入设备110的三维位置信息。
例如,以当前帧为基准,向前查询前5帧图像中每一帧的输入光点的亮度和圆半径,结合当前帧的输入光点的亮度和圆半径,通过算术平均算法,对这6帧图像中输入光点的亮度和圆半径取均值,并根据该平均亮度和平均圆半径,基于前述拟合曲线或光点属性样本表,获得当前帧所对应的输入设备110的三维位置信息。
2)根据每一帧图像中输入光点的光点属性信息,基于预定的映射关系,获取每一帧所对应的输入设备110的参考三维位置信息;根据所述参考三维位置信息,通过多帧平均算法,获得输入设备110的三维位置信息。
例如,以当前帧为基准,向前查询5帧图像中每一帧所对应的输入设备110的参考三维位置信息,通过加权平均算法,如距离当前帧越近的帧,其权重越高,对这6帧图像所对应的发射光源111的参考三维位置信息计算均值,并将该均值作为当前帧所对应的输入设备110的三维位置信息。
其中,所述多帧平均算法包括但不限于任何可适用于本发明的平均算法,诸如基于高斯分布的平均算法、算术平均算法、加权平均算法等与低通滤波算法类似的算法。
本领域技术人员应能理解上述获取发射光源的三维位置信息的方式以及多帧平均算法仅为举例,其他现有的或今后可能出现的获取发射光源的三维位置信息的方式或者多帧平均算法如可适用于本发明,也应包含在本发明保护范围以内,并以引用方式包含于此。
图6为根据本发明再一个实施例的方法流程图,示出一种用于检测输入设备的三维位置信息的过程。其中,输入设备110包括一个发射光源111,检测设备120外接一个摄像头122。
配合参阅图1和图6,在步骤S601中,摄像头122拍摄发射光源111的成像信息;在步骤S6021中,检测设备120根据所述成像信息,获取多个候选光点;在步骤S6022中,检测设备120按照预定筛选条件,从所述多个候选光点中确定发射光源111的输入光点;在步骤S603中,检测设备120根据所述输入光点的光点属性信息,基于预定的映射关系,获取输入设备110的三维位置信息。
例如,在步骤S601中,摄像头122拍摄发射光源111的图像;在步骤S6021中,检测设备120在该图像中检测到多个候选光点,如图7所示;在步骤S6022中,检测设备120按照预定筛选条件,从该等候选光点中确定发射光源111的输入光点,如从候选光点中选择圆形的光点作为该输入光点,当圆形的候选光点仍有多个时,还可以进一步结合光点半径和/或亮度选择输入光点,如仅将半径属于预定的有效半径范围的候选光点作为该输入光点,或仅将亮度值最大的候选光点作为该输入光点;在步骤S603中,检测设备120根据所述输入光点的光点属性信息,基于预定的映射关系,获取发射光源111的三维位置信息。
优选地,所述预定筛选条件包括但不限于,以下任一项:
1)所述输入光点为指定形状,如圆形、椭圆形;
2)所述输入光点为指定颜色,如通过诸RGB、HSV等各种颜色空间对所述成像信息进行处理获得输入光点的颜色;
3)所述输入光点的大小属于预定范围,如圆半径属于预定的有效半径范围;
4)所述输入光点的亮度值最大,如亮度值比其他光点的亮度值大;
5)所述输入光点的相应属性与发射光源111的发光模式相符,如当发射光源111的发光模式为中心发白光,则相应输入光点的中心为亮点。
在此,本领域的技术人员应能理解,上述筛选条件仅为示例,以为简便地阐述本发明之用,而不应理解为对本发明的任何限制,其他现有的或将来出现的筛选条件如可适用于本发明,也应当纳入本发明的保护范围。
图8为根据本发明又一个实施例的方法流程图,示出一种用于检测输入设备的三维位置信息的过程。其中,输入设备110包括多个发射光源111,检测设备120外接一个摄像头122。在此,多个LED光源可以有多种排列方式:图9示出一种4个LED光源的排列方式;图10示出一种3个LED光源的排列方式;图11示出一种2个LED光源的排列方式。
本发明中,对于多个发射光源111的情形,可以对每个发射光源111按照不同的方式进行配置,从而检测设备120根据每个发射光源111的配置方式,如光学特性、发光模式等,有效识别出每个发射光源111所对应的输入光点,进而可计算每个发射光源111的三维位置信息。例如,将多个发射光源111按照一定的距离和夹角进行放置,并可对每个发射光源111设定不同的光学特性或发光模式,如发不同颜色、频率或亮度的光、加反光材料或透光材料以改变输入光点的形状等,从而利用多个发射光源111之间的几何结构计算获得输入设备110的三维位置信息。并且,由于每个发射光源111的配置方式不同,检测设备120可以采集更多的输入光点的光点属性信息,以丰富光点属性样本表,以及获得更精确的拟合曲线。例如,每个发射光源111采用不同的亮度,如I1、I2和I3,则输入设备110的夹角拟合曲线为θ=h(r1,r2,r3,I1,I2,I3),或者输入设备110的距离拟合曲线为Z=f(l/r1,l/r2,l/r3,I1,I2,I3)。
如图8所示,在步骤S801中,摄像头122拍摄多个发射光源111的成像信息;在步骤S8021中,检测设备120根据所述成像信息,获取多个发射光源111所对应的输入光点组,其中,所述输入光点组中的每一个输入光点对应多个发射光源111之一;在步骤S8022中,检测设备120检测所述输入光点组中的一个或多个输入光点,以用于获取多个发射光源111中一个或多个的三维位置信息;在步骤S803中,检测设备120根据所述一个或多个输入光点的光点属性信息,基于预定的映射关系,获取多个发射光源111中一个或多个的三维位置信息;在步骤S804中,检测设备120根据多个发射光源111中一个或多个的三维位置信息,确定输入设备110的三维位置信息。
在此,对于输入设备110的三维位置信息,至少可从以下两个维度来确定:
1)先确定所述输入光点组中用于计算的输入光点,再根据该等输入光点所对应发射光源111的三维位置信息,确定输入设备110的三维位置信息。
例如,在步骤S801中,摄像头122拍摄全部发射光源111的成像信息;在步骤S8021中,检测设备120根据该成像信息,获取全部发射光源111所对应的输入光点组,其中,该输入光点组中的每一个输入光点与一个发射光源111相对应;在步骤S8022中,检测设备120根据诸如输入光点的光点属性信息、发射光源111之间的几何结构等,从该输入光点组中选择部分输入光点,以用于获取该部分输入光点所对应的发射光源111的三维位置信息;在步骤S803中,检测设备120根据该等部分输入光点的光点属性信息,基于预定的映射关系,获取该部分输入光点所对应的部分发射光源111的三维位置信息;在步骤S804中,检测设备120对该部分发射光源111的三维位置信息求均值,以获得输入设备110的三维位置信息。
2)先获取所述输入光点组中每个输入光点的三维位置信息,再通过对该等三维位置信息的各种计算处理,确定输入设备110的三维位置信息。
例如,在步骤S801中,摄像头122拍摄全部发射光源111的成像信息;在步骤S8021中,检测设备120根据该成像信息,获取全部发射光源111所对应的输入光点组,其中,该输入光点组中的每一个输入光点与一个发射光源111相对应;在步骤S8022中,检测设备120获取该输入光点组中的每一个输入光点,以用于获取每一个输入光点所对应的发射光源111的三维位置信息;在步骤S803中,检测设备120根据每一个输入光点的光点属性信息,基于预定的映射关系,获取每一个发射光源111的三维位置信息;在步骤S804中,检测设备120基于发射光源111之间的几何结构,根据每个发射光源111的三维位置信息,计算全部发射光源111所构成的几何体的重心的三维位置信息,并将该重心的三维位置信息作为输入设备110的三维位置信息。
以图10为例,3个LED光源LED1、LED2和LED3按照等边三角形进行放置,该等边三角形的边长为L,重心坐标标记为(Xg,Yg,Zg),三维转动位置信息标记为(α,β,γ)。LED1、LED2和LED3的输入光点在其成像中的圆心坐标分别为(x1,y1)、(x2,y2)和(x3,y3),根据公式Z=f(l/r,I),以及X=x(λ-Z)/λ,Y=y(λ-Z)/λ,分别计算获得LED1、LED2和LED3的三维平动位置信息(X1,Y1,Z1)、(X2,Y2,Z2)和(X3,Y3,Z3)。根据LED1、LED2和LED3的成像中该等边三角形的重心点与LED1的连线的角度变化计算该等边三角形的自转角度γ,通过公式 即可计算获得Xg、Yg、Zg和α、β,从而获得该等边三角形的重心的三维平动位置信息(Xg,Yg,Zg),以及该等边三角形的重心的三维转动位置信息(α,β,γ)。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一,第二等词语用来表示名称,而并不表示任何特定的顺序。
Claims (19)
1.一种用于检测输入设备的三维位置信息的方法,其中,所述输入设备包括至少一个发射光源;
其中,该方法包括以下步骤:
a由一个摄像头拍摄所述发射光源的成像信息;
b根据所述成像信息,检测所述发射光源的输入光点;
c根据所述输入光点的光点属性信息,基于预定的映射关系,获取所述输入设备的三维位置信息。
2.根据权利要求1所述的方法,其中,所述三维位置信息包括所述输入设备的三维转动位置信息。
3.根据权利要求1或2所述的方法,其中,所述步骤c包括:
-根据所述输入光点的光点属性信息,基于预定的拟合曲线,获取所述输入设备的三维位置信息。
4.根据权利要求3所述的方法,其中,所述输入设备的三维位置信息包括所述输入设备的三维平动位置信息,所述预定的拟合曲线包括预定的距离拟合曲线;
其中,所述步骤c包括:
-根据所述输入光点的光点属性信息,基于所述预定的距离拟合曲线,确定所述输入设备相对所述摄像头的距离信息;
-根据所述距离信息,以及所述输入光点在所述成像信息的二维坐标,获取所述输入设备的三维平动位置信息。
5.根据权利要求1或2所述的方法,其中,所述步骤c包括:
-根据所述输入光点的光点属性信息,通过查询预定的光点属性样本表,获取所述输入设备的三维位置信息。
6.根据权利要求5所述的方法,其中,所述步骤c包括:
-根据所述输入光点的光点属性信息,查询预定的光点属性样本表,并通过样本内插算法,获得所述输入设备的三维位置信息。
7.根据权利要求5所述的方法,其中,所述输入设备的三维位置信息包括所述输入设备的三维平动位置信息,所述预定的光点属性样本表包括预定的光点属性-距离样本表;
其中,所述步骤c包括:
c1根据所述输入光点的光点属性信息,基于所述预定的光点属性-距离样本表,确定所述输入设备相对所述摄像头的距离信息;
-根据所述距离信息,以及所述输入光点在所述成像信息的二维坐标,获取所述输入设备的三维平动位置信息。
8.根据权利要求7所述的方法,其中,所述步骤c1包括:
-根据所述输入光点的光点属性信息,基于所述预定的光点属性-距离样本表,通过样本内插算法,确定所述距离信息。
9.根据权利要求1至8中任一项所述的方法,其中,所述成像信息包括所述发射光源的多帧图像;
其中,所述步骤c包括:
-通过多帧平均算法,根据所述输入光点的光点属性信息,基于预定的映射关系,获取所述输入设备的三维位置信息。
10.根据权利要求9所述的方法,其中,所述步骤c包括:
-根据所述多帧图像的每一个中所述输入光点的光点属性信息,通过多帧平均算法,获得平均光点属性信息;
-根据所述平均光点属性信息,基于预定的映射关系,获取所述输入设备的三维位置信息。
11.根据权利要求9所述的方法,其中,所述步骤c包括:
-根据所述多帧图像的每一个中所述输入光点的光点属性信息,基于预定的映射关系,获取所述多帧图像中每一个所对应的所述输入设备的参考三维位置信息;
-根据所述参考三维位置信息,通过多帧平均算法,获得所述输入设备的三维位置信息。
12.根据权利要求1至11中任一项所述的方法,其中,所述成像信息包括所述发射光源在同一时刻的至少两个图像,其中,所述至少两个图像中的每一个分别属于不同的分辨率等级;
其中,所述步骤b包括:
-根据所述至少两个图像中属于相对低分辨率等级的图像,获取所述输入光点所对应的候选区域;
-根据所述至少两个图像中属于相对高分辨率等级的图像中的所述候选区域,获取所述输入光点。
13.根据权利要求1至12中任一项所述的方法,其中,所述步骤b包括:
-根据所述成像信息,获取多个候选光点;
-按照预定筛选条件,从所述多个候选光点中确定所述输入光点。
14.根据权利要求13所述的方法,其中,所述预定筛选条件包括以下至少任一项:
-所述输入光点为指定形状;
-所述输入光点为指定颜色;
-所述输入光点的大小属于预定范围;
-所述输入光点的亮度值最大;
-所述输入光点的相应属性与所述发射光源的发光模式相符。
15.根据权利要求1至14中任一项所述的方法,其中,所述输入光点的光点属性信息包括以下至少任一项:
-所述输入光点的形状;
-所述输入光点的大小;
-所述输入光点的亮度;
-所述输入光点的光分布特性;
-与所述发射光源的发光模式相对应的属性。
16.根据权利要求1至15中任一项所述的方法,其中,所述输入设备包括多个发射光源;
其中,所述步骤b包括:
-根据所述成像信息,获取所述多个发射光源所对应的输入光点组,其中,所述输入光点组中的每一个输入光点对应所述多个发射光源之一;
-检测所述输入光点组中的一个或多个输入光点,以用于获取所述多个发射光源中一个或多个的三维位置信息;
其中,在所述步骤c之后,该方法还包括:
-根据所述多个发射光源中一个或多个的三维位置信息,确定所述输入设备的三维位置信息。
17.根据权利要求16所述的方法,其中,所述多个发射光源按照预定规则进行配置,所述预定规则包括以下至少任一项:
-所述多个发射光源按照不同的光学特性进行配置;
-所述多个发射光源按照不同的发光模式进行配置;
-所述多个发射光源按照预定的几何结构进行配置。
18.一种用于检测输入设备的三维位置信息的系统,其中,该系统包括输入设备和检测设备,所述输入设备包括至少一个发射光源,所述检测设备包括一个摄像头和至少一个处理装置;
所述摄像头用于拍摄所述发射光源的成像信息;
其中,所述处理装置用于:
-根据所述成像信息,检测所述发射光源的输入光点;
-根据所述输入光点的光点属性信息,基于预定的映射关系,获取所述输入设备的三维位置信息。
19.根据权利要求18所述的系统,其中,所述输入设备包括多个发射光源;
其中,所述检测所述发射光源的输入光点的操作包括:
-根据所述成像信息,获取所述多个发射光源所对应的输入光点组,其中,所述输入光点组中的每一个输入光点对应所述多个发射光源之一;
-检测所述输入光点组中的一个或多个输入光点,以用于获取所述多个发射光源中一个或多个的三维位置信息;
其中,所述处理装置还用于:
-根据所述多个发射光源中一个或多个的三维位置信息,确定所述输入设备的三维位置信息。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2012100046580A CN103197773A (zh) | 2012-01-09 | 2012-01-09 | 一种用于检测输入设备的三维位置信息的方法与系统 |
US14/371,391 US20150085078A1 (en) | 2012-01-09 | 2013-01-09 | Method and System for Use in Detecting Three-Dimensional Position Information of Input Device |
PCT/CN2013/070285 WO2013104313A1 (zh) | 2012-01-09 | 2013-01-09 | 一种用于检测输入设备的三维位置信息的方法与系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2012100046580A CN103197773A (zh) | 2012-01-09 | 2012-01-09 | 一种用于检测输入设备的三维位置信息的方法与系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103197773A true CN103197773A (zh) | 2013-07-10 |
Family
ID=48720429
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2012100046580A Pending CN103197773A (zh) | 2012-01-09 | 2012-01-09 | 一种用于检测输入设备的三维位置信息的方法与系统 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20150085078A1 (zh) |
CN (1) | CN103197773A (zh) |
WO (1) | WO2013104313A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106886218A (zh) * | 2017-03-05 | 2017-06-23 | 长沙修恒信息科技有限公司 | 一种基于机器视觉的自动追踪防护方法 |
CN106907993A (zh) * | 2017-03-05 | 2017-06-30 | 长沙修恒信息科技有限公司 | 一种基于机器视觉的位置检测模组及实时防护系统 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110044334B (zh) * | 2018-01-16 | 2020-04-21 | 京东方科技集团股份有限公司 | 基于维诺图的室内空间定位 |
EP3848900A1 (en) * | 2020-01-10 | 2021-07-14 | Aptiv Technologies Limited | Methods and systems for calibrating a camera |
CN114298993A (zh) * | 2021-12-23 | 2022-04-08 | 杭州萤石软件有限公司 | 光学镜头的检测方法和检测装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1605191A (zh) * | 2001-12-14 | 2005-04-06 | 皇家飞利浦电子股份有限公司 | 用于电视接收机的遥控系统和方法 |
CN201413506Y (zh) * | 2009-06-17 | 2010-02-24 | 中国华录集团有限公司 | 一种图像捕捉定位装置 |
US20110141222A1 (en) * | 2009-12-16 | 2011-06-16 | Tandberg Telecom As | Method and device for automatic camera control |
CN102253766A (zh) * | 2011-02-24 | 2011-11-23 | 友达光电股份有限公司 | 交互式立体显示系统及计算三维坐标的方法 |
CN102270298A (zh) * | 2010-06-04 | 2011-12-07 | 株式会社理光 | 激光点/区域检测方法和装置 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6697504B2 (en) * | 2000-12-15 | 2004-02-24 | Institute For Information Industry | Method of multi-level facial image recognition and system using the same |
JP4419320B2 (ja) * | 2000-12-25 | 2010-02-24 | コニカミノルタホールディングス株式会社 | 3次元形状データの生成装置 |
US6944263B2 (en) * | 2002-12-31 | 2005-09-13 | Tsinghua University | Apparatus and methods for multiple view angle stereoscopic radiography |
US7627197B2 (en) * | 2003-04-07 | 2009-12-01 | Honda Motor Co., Ltd. | Position measurement method, an apparatus, a computer program and a method for generating calibration information |
JP4595705B2 (ja) * | 2005-06-22 | 2010-12-08 | オムロン株式会社 | 基板検査装置並びにそのパラメータ設定方法およびパラメータ設定装置 |
EP2038815B1 (en) * | 2006-07-06 | 2012-05-16 | Microsoft Corporation | Method and system for fast calibration of three-dimensional (3d) sensors |
CN102269569A (zh) * | 2010-06-03 | 2011-12-07 | 蒋安邦 | 双摄像头对移动光源目标在三维空间位置确定传感器 |
-
2012
- 2012-01-09 CN CN2012100046580A patent/CN103197773A/zh active Pending
-
2013
- 2013-01-09 WO PCT/CN2013/070285 patent/WO2013104313A1/zh active Application Filing
- 2013-01-09 US US14/371,391 patent/US20150085078A1/en not_active Abandoned
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1605191A (zh) * | 2001-12-14 | 2005-04-06 | 皇家飞利浦电子股份有限公司 | 用于电视接收机的遥控系统和方法 |
CN201413506Y (zh) * | 2009-06-17 | 2010-02-24 | 中国华录集团有限公司 | 一种图像捕捉定位装置 |
US20110141222A1 (en) * | 2009-12-16 | 2011-06-16 | Tandberg Telecom As | Method and device for automatic camera control |
CN102270298A (zh) * | 2010-06-04 | 2011-12-07 | 株式会社理光 | 激光点/区域检测方法和装置 |
CN102253766A (zh) * | 2011-02-24 | 2011-11-23 | 友达光电股份有限公司 | 交互式立体显示系统及计算三维坐标的方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106886218A (zh) * | 2017-03-05 | 2017-06-23 | 长沙修恒信息科技有限公司 | 一种基于机器视觉的自动追踪防护方法 |
CN106907993A (zh) * | 2017-03-05 | 2017-06-30 | 长沙修恒信息科技有限公司 | 一种基于机器视觉的位置检测模组及实时防护系统 |
CN106886218B (zh) * | 2017-03-05 | 2020-11-20 | 日照安泰科技发展有限公司 | 一种基于机器视觉的自动追踪防护方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2013104313A1 (zh) | 2013-07-18 |
US20150085078A1 (en) | 2015-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103196362B (zh) | 一种用于确定发射装置相对检测装置的三维位置的系统 | |
US5930383A (en) | Depth sensing camera systems and methods | |
CN107113415B (zh) | 用于多技术深度图获取和融合的方法和设备 | |
US10083522B2 (en) | Image based measurement system | |
CN206650757U (zh) | 一种装置 | |
US20170251143A1 (en) | System and method for assisted 3d scanning | |
US8294762B2 (en) | Three-dimensional shape measurement photographing apparatus, method, and program | |
US20070126735A1 (en) | Method and apparatus for 3-D data input to a personal computer with a multimedia oriented operating system | |
EP3371779B1 (en) | Systems and methods for forming models of three dimensional objects | |
CN106716059A (zh) | 用于光学确定至少一个对象的位置的检测器 | |
JP6553624B2 (ja) | 計測機器、及びシステム | |
CN103390290B (zh) | 信息处理设备及信息处理方法 | |
CN107607957B (zh) | 一种深度信息获取系统及方法、摄像模组和电子设备 | |
CN103197773A (zh) | 一种用于检测输入设备的三维位置信息的方法与系统 | |
CN205333856U (zh) | 一种基于普通摄像头芯片的低成本激光测距装置 | |
CN107592922A (zh) | 用于对地面实施作业的方法 | |
TW201941100A (zh) | 物品定損方法及裝置 | |
JP2018522235A (ja) | 撮影デバイス及び奥行き情報を取得するための方法 | |
CN109741307A (zh) | 摄像模组的杂光检测方法、杂光检测装置及杂光检测系统 | |
CN107991665A (zh) | 一种基于定焦相机的对标靶三维坐标连续测量方法 | |
CN110349216A (zh) | 货箱位置检测方法及装置 | |
CN107966100A (zh) | 基于相机阵列的测量方法及测量系统 | |
CN106651925A (zh) | 一种彩色深度图像的获取方法、获取设备 | |
CN108802746A (zh) | 一种抗干扰的测距方法及装置 | |
US20230334819A1 (en) | Illuminant estimation method and apparatus for electronic device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20130710 |