CN114830190A - 将三维坐标与二维特征点相关联 - Google Patents
将三维坐标与二维特征点相关联 Download PDFInfo
- Publication number
- CN114830190A CN114830190A CN202080090683.8A CN202080090683A CN114830190A CN 114830190 A CN114830190 A CN 114830190A CN 202080090683 A CN202080090683 A CN 202080090683A CN 114830190 A CN114830190 A CN 114830190A
- Authority
- CN
- China
- Prior art keywords
- dimensional
- light
- interpolation
- points
- feature points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 84
- 238000012545 processing Methods 0.000 claims description 55
- 238000003384 imaging method Methods 0.000 description 26
- 230000001815 facial effect Effects 0.000 description 13
- 230000006870 function Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000012937 correction Methods 0.000 description 4
- 239000003550 marker Substances 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 238000003491 array Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 210000003811 finger Anatomy 0.000 description 1
- 238000003331 infrared imaging Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/02—Details
- G01C3/06—Use of electric means to obtain final indication
- G01C3/08—Use of electric radiation detectors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/145—Illumination specially adapted for pattern recognition, e.g. using gratings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/653—Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/469—Contour-based spatial representations, e.g. vector-coding
- G06V10/471—Contour-based spatial representations, e.g. vector-coding using approximation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/12—Acquisition of 3D measurements of objects
- G06V2201/121—Acquisition of 3D measurements of objects using special illumination
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
- Character Discrimination (AREA)
Abstract
一种示例方法包括使得距离传感器的光投影系统将光的三维图案投影到对象上,其中光的三维图案包括共同形成图案的多个光点,使得距离传感器的光接收系统获取投影到对象上的光的三维图案的图像,使得光接收系统获取对象的二维图像,检测对象的二维图像中的特征点,标识特征点的插值区域,以及通过使用插值区域内的所述多个点中的两个点的三维坐标进行插值来计算特征点的三维坐标。
Description
相关申请的交叉引用
本申请要求2019年12月29日提交的美国临时专利申请序列号62/954,533的优先权,该美国临时专利申请通过引用以其整体并入本文。
技术领域
本发明总体上涉及距离测量,并且更特别地涉及将三维坐标与二维特征点相关联。
背景技术
面部识别通常用于设备和应用认证。例如,尝试向设备或应用认证的用户的实时面部图像可以与授权用户的一个或多个存储的面部图像进行比较;如果尝试认证的用户的面部图像与存储的面部图像匹配,则用户可以被认证。
一些面部识别技术获取用户脸部的二维图像,从二维图像中提取特征点,并且然后基于特征点的位置关系生成用户标识。由于特征点由二维坐标表示,因此可以使用三维测量值执行校正。例如,如果二维图像中到用户脸部的总体距离是已知的,则可以可能的是确定用户脸部的绝对大小,这有助于校正特征点的位置关系。附加地,可以可能的是通过获取三维地图的整个形状并使用该形状来校正特征点来检测用户脸部的倾斜。
发明内容
在一个示例中,一种由包括至少一个处理器的处理系统执行的方法包括使得距离传感器的光投影系统将光的三维图案投影到对象上,其中光的三维图案包括共同形成图案的多个光点,使得距离传感器的光接收系统获取投影到对象上的光的三维图案的图像,使得光接收系统获取对象的二维图像,检测对象的二维图像中的特征点,标识特征点的插值区域,以及通过使用插值区域内的所述多个点中的两个点的三维坐标进行插值来计算特征点的三维坐标。
在另一示例中,一种非暂时性机器可读存储介质编码有由包括至少一个处理器的处理系统可执行的指令。当被执行时,所述指令使得处理系统执行操作,所述操作包括使得距离传感器的光投影系统将光的三维图案投影到对象上,其中光的三维图案包括共同形成图案的多个光点,使得距离传感器的光接收系统获取投影到对象上的光的三维图案的图像,使得光接收系统获取对象的二维图像,检测对象的二维图像中的特征点,标识特征点的插值区域,以及通过使用插值区域内的所述多个点中的两个点的三维坐标进行插值来计算特征点的三维坐标。
在另一示例中,一种装置包括处理系统,所述处理系统包括至少一个处理器和编码有由处理系统可执行的指令的非暂时性机器可读存储介质。当被执行时,所述指令使得处理系统执行操作,所述操作包括使得距离传感器的光投影系统将光的三维图案投影到对象上,其中光的三维图案包括共同形成图案的多个光点,使得距离传感器的光接收系统获取投影到对象上的光的三维图案的图像,使得光接收系统获取对象的二维图像,检测对象的二维图像中的特征点,标识特征点的插值区域,以及通过使用插值区域内的所述多个点中的两个点的三维坐标进行插值来计算特征点的三维坐标。
附图说明
图1A-1B图示了本公开的示例距离传感器的不同配置;
图2是图示了根据本公开示例的用于将三维坐标与二维图像的特征点相关联的示例方法的流程图;
图3A图示了三维图案投影到其上的脸部的示例面向前的图像;
图3B图示了图3A中所图示的脸部的示例对角捕获图像;
图3C图示了图3A中所图示的脸部的示例横向捕获图像;
图4A图示了示例特征点和围绕特征点的插值区域;
图4B图示了计算图4A的特征点的三维坐标的替代方法;
图5图示了使用样条曲线将三维图案的点的插值位置与二维特征点相匹配;
图6图示了使用贝塞尔曲线将三维图案的点的插值位置与二维特征点相匹配;
图7A图示了通道的第一部分,其中本公开的技术可以应用于路径识别;
图7B图示了图7A的通道的第二部分;和
图8描绘了用于计算从传感器到对象的距离的示例电子设备的高级框图。
具体实施方式
本公开广义地描述了一种用于将三维坐标与二维特征点相关联的装置、方法和非暂时性计算机可读介质。如上所讨论的,一些面部识别技术获取用户脸部的二维图像,从二维图像中提取特征点,并且然后基于特征点的位置关系生成用户标识。由于特征点由二维坐标表示,因此可以使用三维测量值执行校正。
附加地,诸如样条计算的技术可以用于从二维图像重建三维表面。然而,以这种方式重建整个三维表面可能是时间和计算密集型的过程;因此,当计算资源有限时和/或当立即需要结果时,该技术不理想。
本公开的示例通过在二维图像中的指定点处执行插值计算,极大地减少了将三维距离检测图案与二维图像匹配所需的计算和时间量。特别地,可以检测二维图像中的特征点,并且可以通过在该特征点的插值区域内的三维图案的两个或更多个点的三维位置之间进行插值,来使用所述两个或更多个点来估计特征点的三维坐标。取决于各种因素、诸如特征点的类型、环境/周围环境条件以及三维图案的点的布置,可以使用诸如平面内处理、样条处理和贝塞尔曲线处理之类的技术来执行插值。
尽管在面部识别的上下文内描述了本公开的示例,但是将理解,所公开的示例也可以用于改进距离和除了脸部之外的对象特征的计算。例如,本公开的示例也可以在检测手势方面有用,该手势可以与计算系统或设备要采取的预定义动作相关联。
在本公开的上下文内,“二维图像”被理解为是指使用对于人眼可见的光谱中的光获取的图像(例如,通过常规的红、绿、蓝(RGB)图像传感器)。相比之下,使用对于人眼不可见的光谱中的光来获取三维图案的图像(例如,通过红外成像传感器)。
图1A-1B图示了本公开的示例距离传感器100的不同配置。当相同的部件出现在图1A和图1B中时,使用相同的附图标记。距离传感器100可以以与美国专利申请序列号14/920,246、15/149,323和15/149,429中描述的距离传感器相类似的方式配置。
例如,图1A图示了包括光投影系统102、光接收系统104和处理器126的距离传感器100。光投影系统104被配置为将图案106投影到表面或对象108上,其中图案106包括多个光点。光点可以布置在网格中,如图1A中所示(例如,布置在多行和多列中)。网格的行和列可以以共线的方式对准,或者可以交错。光点对于人眼可能是不可见的,但是对于距离传感器100的成像传感器是可见的(如下面进一步详细讨论的)。
因此,三维图案106的点可以布置在由第一轴112和垂直于第一轴112的第二轴114限定的坐标系中。可以在第一轴112和第二轴114相交之处限定基准点110。
为此,光投影系统102可以包括一个或多个激光光源,所述一个或多个激光光源能够投影对于人眼基本上不可见的波长(例如,红外波长)中的光束。光投影系统104还可以包括一个或多个衍射光学元件,用于将光束拆分成附加光束。当每个光束入射到表面或对象108上时,在表面或对象108上创建图案106的点。
光接收系统104可以包括用于捕获图像的成像传感器。成像传感器可以是互补金属氧化物半导体(CMOS)传感器。图像可以包括表面或对象108的二维图像,以及表面或对象108上的三维图案106的图像。因此,在一个示例中,在光接收系统104包括单个成像传感器(例如,相机)来捕获二维图像和三维图案106的图像二者的情况下,光接收系统104还可以包括带通滤波器。在这种情况下,当捕获二维图像(其是使用由用于生成图案106的相同光源(例如,红外光源)照射而获取的)时,可能需要带通滤波器来去除周围环境光。然而,在二维图像是在较暗的环境中获取的其他示例中,可能不需要带通滤波器来去除周围环境光。
在表面或对象108的二维图像和三维图案106的图像由同一成像传感器获取的示例中,可以使用与第一轴112、第二轴114和基准点110相关联的坐标系来获得图像中的位置之间的自动对应性,如下面进一步详细讨论的。
处理器126可以被配置为控制光投影系统106来投影三维图案106,并照射表面或对象108以进行图像捕获。处理器126还可以控制光接收系统104来捕获表面或对象108的二维图像和三维图案106的图像。处理器126还可以执行操作以将表面或对象108的二维图像与三维图案106的图像对准,如下面进一步详细讨论的。
图1B的距离传感器100类似于图1A中所图示的距离传感器,除了在图1B中,光接收系统104包括用于获取二维图像和三维图案106的图像的单独的成像传感器。具体而言,图1B的光接收系统104包括用于捕获三维图案106的图像的第一成像传感器124和用于捕获表面或对象108的二维图像的第二成像传感器116。在这种情况下,第一成像传感器124和第二成像传感器116均不可以包括带通滤波器。第一成像传感器124和第二成像传感器116均可以包括CMOS成像传感器,并且可以具有相对于彼此的固定位置。
然而,由于二维图像和三维图案106的图像由不同的成像传感器和不同的光学系统捕获,因此校正二维图像和三维图案106的图像之间的视差变得有必要。具体而言,从由第二成像传感器116捕获的二维图像中获得表面或对象108的特征点。然而,二维图像和三维图案106的图像的位置需要对准,以便能够正确地将三维坐标与特征点相关联。
在一个示例中,视差校正可以通过校准过程来计算。例如,第二成像传感器116可以捕获相对于相机参考位置具有已知大小的校准对象(例如,棋盘)的二维图像,而第一成像传感器124同时捕获三维图案106的图像。可以观察和存储校准对象的二维图像和三维图案106的图像之间的关系。
在另一个示例中,美国专利申请序列号16/869,358中描述的方法可以用于确定第一成像传感器124和第二成像传感器116之间的关系,而不需要红外照明和/或校准对象。
在一个示例中,视差校正导致三维图案106的距离测量坐标轴调整到第二成像传感器116的前节点。如图示的,这导致第一轴112移动到校正的第一轴120的位置,第二轴114移动到校正的第二轴122的位置,并且基准点110移动到校正的基准点118的位置。
图2是图示了根据本公开示例的用于将三维坐标与二维图像的特征点相关联的示例方法200的流程图。方法200可以例如由包括至少一个处理器的处理系统、诸如距离传感器的处理系统(例如,图1A和图1B的处理器126)执行。为了举例,方法200被描述为由处理系统执行。
方法200可以在步骤202中开始。在步骤204中,处理系统可以使得距离传感器的光投影系统将光的三维图案投影到对象上,其中光的图案包括共同形成图案的多个光点。例如,处理系统可以向光投影系统发送电子信号,其中电子信号编码指令。如上所讨论的,光可以具有对于人眼基本上不可见、但是由距离传感器的成像传感器可检测到的波长(例如,红外光)。
光的图案可以由距离传感器的光投影系统投影的多个光束创建。多个光束可以将多个光点投影到对象上,其中多个光点共同形成光的图案或“投影图案”。在一个示例中,多个光点可以布置成包括多行和多列的网格图案。例如,美国专利申请序列号16/150,918描述了一种用于通过多点投影获得三维点图的方法,该美国专利申请通过引用以其整体并入本文。
在步骤206中,处理系统可以使得距离传感器的光接收系统获取对象上的三维投影图案的图像。三维投影图案的图像也可以被称为“点图”(尽管光点可以采用除了点之外的形状)。例如,处理系统可以向光接收系统发送电子信号,其中电子信号编码指令。如上所讨论的,尽管投影图案(例如,形成投影图案的光)对于人眼可能是不可见的,但是它对于光接收系统的图像传感器可能是可见的。
在步骤208中,处理系统可以使得距离传感器的光接收系统获取对象的二维图像(例如,没有投影图案)。在一个示例中,光接收系统可以照射对象,以便获取二维图像。在一个示例中,在三维投影图案的图像和对象的二维图像均由同一成像传感器捕获的情况下,光接收系统可以使用用于生成投影图案的同一光源(例如,红外光源)来照射对象。
在步骤210中,处理系统可以检测对象的二维图像中的特征点。在一个示例中,检测到的特征点的类型可以基于对象的类型而变化,并且特征点的三维特性将取决于特征点的类型而变化。随后的处理技术可以取决于特征点的类型而变化。
例如,在对象是脸部的情况下(例如,如可能是面部认证系统的情况),二维特征点可以包括嘴、鼻子和眼睛等上的点。然而,在对象是手的情况下(例如,如可能是手势识别系统的情况),二维特征点可以包括指尖、手指根部、手掌等上的点。
例如,图3A图示了三维图案(在图3A中表示为黑点)投影到其上的脸部的示例面向前的图像300。图像300包括多个特征点3021-302n(下文中单独称为“特征点302”或统称为“特征点302”),所述多个特征点3021-302n在图3A中示出为白点。在图3A中,三维图案的每个点包括距离信息,该距离信息可以使用三维图案的基准点(例如,如图1A-1B中所图示)作为参考来计算。
图3B图示了图3A中图示的脸部的示例对角捕获图像306,而图3C图示了图3A中图示的脸部的示例横向捕获图像308。如共同从图3A-3C可以看到的,每个特征点302相对于脸部图像被捕获的方向具有不同的特性。例如,鼻尖上的特征点302n没有清楚地指示面向前的图像300中的特征,但是在横向捕获的(侧面)图像308中提供了该特征的更清楚的指示。然而,特征点302n也位于面部侧面或轮廓的末端附近,在那里存在入射到脸部上的三维图案的较少围绕点。另一方面,在图像300、306和308的任何一个中,外眼角处的特征点3021不位于面部侧面或轮廓的末端附近。每个特征点302和面部部分(例如,鼻尖、外眼角等)之间的对应性可以被预先假设,并且可以激励特定插值技术的选择,如下面更详细讨论的。
返回参考图2,在步骤212中,处理系统可以标识特征点的插值区域。插值区域可以包括围绕特征点的预定义半径(例如,限于三维图案中与特征点邻近或紧邻的所有点、三维图案中在特征点x厘米内的所有点等)。例如,再次参考图3A-3C,特征点3021与插值区域3041相关联,而特征点302n与插值区域304n相关联。
在步骤214中,处理系统可以通过使用三维图案中在特征点的插值区域内的两个(或更多个)点的三维坐标进行插值来计算特征点的三维坐标。三维坐标的计算可以包括从多种候选插值技术当中选择一种插值技术。例如,在一个示例中,可以使用平面内处理技术来执行插值。在另一个示例中,样条曲线可以用于将三维坐标匹配到特征点。在另一个示例中,贝塞尔曲线可以用于将三维坐标匹配到特征点。
对于平面内处理,可以假设三维图案的每个网格区域(例如,由邻近点界定的区域)包括一个平面。例如,图4A图示了示例特征点400和围绕特征点400的插值区域。具体而言,三维图案的点P1、P2、P3、P4、P5和P6邻近特征点400,而三维图案的附加点可以邻近点P1-P6。每个点P1-P6与一组三维坐标(例如,xi,yi,zi,si,其中I = {1,…,6})相关联。
在图4的示例中,假设不存在视差(例如,基于捕获二维图像和三维图案的图像的同一成像传感器,二维图像和三维图案的图像的坐标系匹配)。因此,在这种情况下,通过使用已知的插值方法在点P1、P2和P3的三维坐标之间进行插值,可以容易地计算特征点400的三维坐标(x0,y0,z0,s0)。
图4B图示了计算图4A的特征点400的三维坐标的替代方法。在图4B的情况下,特征点400与相邻表面——平面2-3-4(其被限定在三维图案的点P2、P3和P4之间)的关系也在使用已知插值方法的计算中被考虑。因此,平面1-2-3和2-3-4之间的中间三维坐标位置可以产生特征点400的三维坐标位置。
更特别地,围绕特征点400的边是(1-2)、(2-3)和(3-1)(其中“边”被限定为连接三维图案的两个点的线,例如,边1-2连接点P1和P2)。获得特征点400的三维坐标的一种方式将是在围绕边中离特征点最近的边和与该最近边相邻的表面之间进行插值。在一个示例中,插值使三维图案中其坐标用于插值计算的点的数量最小化。其坐标被利用的点可以是最接近特征点的n个点。例如,图4B中所示的示例利用六个点的坐标(即P1-P6),而图4A中所示的示例利用十二个点的坐标(即P1-P12)。这降低了插值计算的计算复杂度。
在图4B中,可以使用平面1-2-6(限定在点P1、P2和P6之间)和1-3-5(限定在点P1、P3和P5之间)来执行相同的计算。在一个示例中,可以通过根据特征点的类型(例如,端点、平滑表面的中心部分等)选择对特征点400有贡献的表面或平面来计算特征点400的最准确的三维坐标。
在其他示例中,代替平面内处理,可以利用样条处理和/或贝塞尔曲线处理。样条处理和贝塞尔曲线处理是用于平滑地连接平面中的点的技术。例如,样条曲线可以用于连接并排布置的多个平面上的三维点阵列。假设包括特征点的位置(具有二维坐标(x,y))的第一平面基本上正交于包括样条曲线(例如,第一组样条曲线)的平面,第一平面和每个第一样条曲线的交叉点可以与第二样条曲线连接。特征点在第二样条曲线上的位置可以表示特征点的三维坐标(例如,(x,y,z))。该方法假设三维图案的点布置在基本上直的、规则的线(例如,行或列)上,而不是随机分布的。
图5图示了使用样条曲线将三维图案的点的插值位置与二维特征点500相匹配。如上所图示和讨论的,三维图案的点可以以基本上线性的方式布置。在所图示的示例中,多个样条曲线5021-502k(下文中单独称为“样条曲线502”或统称为“样条曲线502”)是从布置在第一样条506的多个平面5041-504k(下文中单独称为“平面504”或统称为“平面504”)上的点获得的。此外,平面508穿过特征点500,并且基本上垂直于多个平面504定位。平面508和样条曲线的每个交点被连接以获得最终的样条曲线。特征点500的三维坐标(xs,ys,zs)可以从特征点500和样条曲线的二维坐标(xp,yp)获得。此外,特征点500的方向510(指示诸如向量、曲率等表面特征)可以从最终样条曲线和从多个样条曲线502中获得。
贝塞尔曲线可以从由围绕特征点的三维图案的点形成的第一平面和接近第一平面的第二平面获得。然后可以从贝塞尔曲线获得特征点的三维坐标。包括二维特征点的贝塞尔曲线可以通过使用与包括特征点的三角形区域相邻的表面的倾斜度和相邻边界线的位置来绘制。
图6图示了使用贝塞尔曲线将三维图案的点的插值位置与二维特征点500相匹配。在这种情况下,特征点600的三维坐标可以由贝塞尔曲线608来指定,贝塞尔曲线608是通过与包括二维特征点600的平面相邻的平面602和穿过二维特征点600的任意垂直平面604相交的线获得的。
无论是使用平面内处理技术、样条处理还是贝塞尔曲线处理来计算插值,在特征点附近的三维图案的少量点之间进行插值就足够(并且仅针对特征点的三维位置)。如上所讨论的,这降低了插值计算的计算复杂度。附加地,当使用样条处理或贝塞尔曲线处理时,由于可以同时计算表面或对象的曲线,所以计算包括特征点的表面或对象所定位的方向相对简单。
在一个示例中,可以基于对可能影响所选技术的准确度的一个或多个因素的考虑来选择用于计算特征点的三维坐标的技术,所述一个或多个因素诸如是特征点的类型(其可以由处理系统在计算三维坐标之前确定)、环境条件和其他因素。
方法200可以在步骤216中结束。
方法200的准确度、并且特别是与二维图像的特征点相关联的三维坐标的准确度可能由于诸如到表面或对象的距离、校准的规范以及所使用的插值技术之类的因素而变化。然而,表面或对象的距离以及校准的规范是可以预先确定的因素(即,在执行方法200之前),并且因此,可以与三维坐标相关联地输出计算的三维坐标中的估计置信度。
三维坐标的所需或期望准确度可以取决于应用以及取决于特征点的类型而变化。例如,对于面部认证,取决于特征点是眼睛、嘴、鼻子上的点还是另一面部特征,所需的准确度可能不同。
在一个示例中,如果三维图案的点丢失(例如,在三维图案的图像中未被识别),或者如果在三维图案的点当中检测到异常坐标值(例如,与点的已知间距不一致的值),则用于检测点的三维坐标的技术可以被修改。例如,三维图案的点的三维坐标可以在连续的基础上被检测(例如,包括捕获二维图像之前和之后)。然后,可以随时间比较各点的三维坐标,以检测单一检测中的异常或反常。在点的位置不稳定的实例中(例如,由于表面或对象材料等中不稳定的照明条件和实例),在对象的表面包括需要不同曝光条件的具有不同反射属性(例如,黑色和白色)的材料的实例中,该方法也可以对于补偿而言有用。
应当注意,尽管没有明确指定,但是上述方法200的一些框、功能或操作可以包括针对特定应用的存储、显示和/或输出。换句话说,取决于特定应用,方法200中讨论的任何数据、记录、字段和/或中间结果可以被存储、显示和/或输出到另一个设备。此外,图2中记载确定操作或涉及决策的框、功能或操作不意味着确定操作的两个分支均被实践。换句话说,取决于确定操作的结果,可以不执行确定操作的分支之一。
尽管本公开的示例是在面部认证的上下文内讨论的,但是将领会的是,本文公开的技术可以应用于其中将三维坐标与二维特征点相关联可能有用的其他应用。例如,本公开的示例也可以应用于路径识别、手势识别和其他应用。
例如,图7A-7B图示了通道的示例图像,其中本公开的技术可以应用于路径识别。具体而言,图7A图示了通道的第一部分,其中本公开的技术可以应用于路径识别,而图7B图示了图7A的通道的第二部分。特别地,已知的标记7001-700m(下文中单独称为“标记700”或统称为“标记700”)可以在关键点处附着到通道。通过采用标记700作为特征点,可以促进通道的三维识别。在一个示例中,标记700可以具有不同的形状或图案来指示通道内的不同类型的关键点(例如,平面、拐角、边缘、底面等)。例如,标记7001可以被成形为指示墙壁的平面部分;标记7002可以被成形为指示墙壁的边缘部分;标记7003可以被成形为指示墙壁的底面;并且标记700m可以被成形为指示墙壁的拐角。使用特定于不同类型特征的专用标记可以改进三维坐标的计算效率。
在路径检测的上下文内,本公开的示例可以用于例如通过无人驾驶交通工具(例如,汽车、无人机等)检测障碍物的位置。已知表面上的标记700可以用于增加为特征点计算的三维坐标的置信度,从而改进车辆避免与障碍物碰撞的能力。
参考回图1B,本公开的示例还可以用于手势识别,这在其中特定手势可以被映射到计算系统或设备的特定操作的应用中可能是有用的(例如,挥动使得图像被捕获,竖起大拇指使得应用启动等)。手(对象108)的二维图像上的特征点1301-130k(下文中单独称为“特征点130”或统称为“特征点130”)可能需要在三维传感器(例如,第一成像传感器124)的坐标系中表示。相反,三维传感器的坐标系中的任何点可以用二维相机坐标(例如,像素x,y坐标)来代替。如果已知坐标系之间的相互位置关系,那么从二维到三维的转换是可能的,或者反之亦然。
移动三维坐标系的过程相对容易,这是因为该过程可以仅通过数学计算来执行。因此,获得三维成像传感器的坐标系相对于二维成像传感器的坐标系的位置的过程可以通过确定三维成像传感器坐标系相对于机械参考点的位置来开始(这可能在三维传感器校准过程期间已经完成)。三维传感器和二维传感器的机械定位可以是固定的。二维传感器的坐标(光学位置)相对于机械参考(例如,中心轴偏差、图像旋转、图像失真等)点的位置可以被测量和校正。
如果三维传感器的坐标轴与二维相机的光轴一致,则三维传感器的坐标系中的点(x=0,y=0,z)可以保持在二维图像的中心。此外,通过将三维传感器的坐标系的基准点放置在二维相机的入射点(即,捕获镜头的前节点)处,三维传感器的坐标系可以总是与二维图像坐标位置一致。
图8描绘了用于计算从传感器到对象的距离的示例电子设备800的高级框图。照此,电子设备800可以被实现为电子设备或系统的处理器,诸如距离传感器(例如图1A-1B的处理器126)。
如图8中所描绘的,电子设备800包括:硬件处理器元件802,例如中央处理单元(CPU)、微处理器或多核处理器;存储器804,例如随机存取存储器(RAM)和/或只读存储器(ROM);用于将三维坐标与二维特征点相关联的模块805;以及各种输入/输出设备806,例如存储设备,包括但不限于磁带驱动器、软盘驱动器、硬盘驱动器或压缩盘驱动器、接收器、发射器、显示器、输出端口、输入端口和用户输入设备,诸如键盘、小键盘、鼠标、麦克风、相机、激光光源、LED光源等。
尽管示出了一个处理器元件,但是应当注意,电子设备800可以采用多个处理器元件。此外,尽管在图中示出了一个电子设备800,但是如果对于特定的说明性示例,以分布式或并行的方式来实现如上面所讨论的(一种或多种)方法,即,跨多个或并行的电子设备来实现上面(一种或多种)方法的框或整个(一种或多种)方法,则该图的电子设备800意图表示那些多个电子设备中的每一个。
应当注意,本公开可以通过机器可读指令和/或机器可读指令和硬件的组合来实现,例如,使用专用集成电路(ASIC)、包括现场可编程门阵列(FPGA)的可编程逻辑阵列(PLA)、或部署在硬件设备上的状态机、通用计算机或任何其它硬件等同物,例如,与上面讨论的(一种或多种)方法相关的计算机可读指令可以用于配置硬件处理器来执行上面公开的(一种或多种)方法的框、功能和/或操作。
在一个示例中,用于将三维坐标与二维特征点相关联的本模块或过程805的指令和数据(例如机器可读指令)可以被加载到存储器804中,并由硬件处理器元件802执行,以实现如上面结合方法200讨论的框、功能或操作。此外,当硬件处理器执行指令来执行“操作”时,这可以包括硬件处理器直接执行操作和/或促进、引导另一硬件设备或部件(例如,协处理器等)或者与之协作来执行操作。
执行与上面描述的(一种或多种)方法相关的机器可读指令的处理器可以被视为编程处理器或专用处理器。照此,本公开的用于将三维坐标与二维特征点相关联的本模块805可以存储在有形的或物理的(广义上非暂时性的)计算机可读存储设备或介质上,所述计算机可读存储设备或介质例如是易失性存储器、非易失性存储器、ROM存储器、RAM存储器、磁性或光学驱动器、设备或磁盘等。更特别地,计算机可读存储设备可以包括提供存储信息的能力的任何物理设备,所述信息诸如是要由处理器或电子设备(诸如计算机或安全性传感器系统的控制器)访问的数据和/或指令。
将领会的是,上面公开的变体以及其它特征和功能或其替代物可以组合到许多其它不同的系统或应用中。随后可以在其中进行各种目前未预见或未预料到的替代、修改或变化,这也意图被以下权利要求书涵盖。
Claims (20)
1.一种方法,包括:
由距离传感器的处理系统使得距离传感器的光投影系统将光的三维图案投影到对象上,其中光的三维图案包括共同形成图案的多个光点;
由处理系统使得距离传感器的光接收系统获取投影到对象上的光的三维图案的图像;
由处理系统使得光接收系统获取对象的二维图像;
由处理系统检测对象的二维图像中的特征点;
由处理系统标识特征点的插值区域;以及
由处理系统通过使用插值区域内的所述多个点中的两个点的三维坐标进行插值来计算特征点的三维坐标。
2.根据权利要求1所述的方法,其中所述检测进一步包括:
由处理系统检测特征点的类型。
3.根据权利要求2所述的方法,其中所述计算进一步包括:
由处理系统从多个候选插值技术当中选择用于计算的插值技术。
4.根据权利要求3所述的方法,其中插值技术是平面内插值技术。
5.根据权利要求3所述的方法,其中插值技术是样条处理技术。
6.根据权利要求3所述的方法,其中插值技术是贝塞尔曲线处理技术。
7.根据权利要求1所述的方法,其中插值区域限于三维图案的位于特征点的预定义半径内的多个点的子集。
8.根据权利要求7所述的方法,其中预定义半径将插值区域限制为所述多个点中邻近特征点的点。
9.根据权利要求1所述的方法,其中所述计算进一步包括:
由处理系统从插值中获得特征点的方向。
10.根据权利要求1所述的方法,其中所述两个点的三维坐标由处理系统连续获取。
11.根据权利要求1所述的方法,其中距离传感器是面部认证系统的一部分。
12.根据权利要求1所述的方法,其中距离传感器是手势识别系统的一部分。
13.根据权利要求1所述的方法,其中距离传感器是路径识别系统的一部分。
14.一种编码有由包括至少一个处理器的处理系统可执行的指令的非暂时性机器可读存储介质,其中,当由处理系统执行时,所述指令使得处理系统执行操作,所述操作包括:
使得距离传感器的光投影系统将光的三维图案投影到对象上,其中光的三维图案包括共同形成图案的多个光点;
使得距离传感器的光接收系统获取投影到对象上的光的三维图案的图像;
使得光接收系统获取对象的二维图像;
检测对象的二维图像中的特征点;
标识特征点的插值区域;以及
通过使用插值区域内的所述多个点中的两个点的三维坐标进行插值来计算特征点的三维坐标。
15.根据权利要求14所述的非暂时性机器可读存储介质,其中所述检测进一步包括:
检测特征点的类型。
16.根据权利要求15所述的非暂时性机器可读存储介质,其中所述计算进一步包括:
从多个候选插值技术当中选择用于计算的插值技术。
17.根据权利要求16所述的非暂时性机器可读存储介质,其中插值技术是平面内插值技术。
18.根据权利要求16所述的非暂时性机器可读存储介质,其中插值技术是样条处理技术。
19.根据权利要求16所述的非暂时性机器可读存储介质,其中插值技术是贝塞尔曲线处理技术。
20.一种装置,包括:
处理系统;和
编码有由处理系统可执行的指令的非暂时性机器可读存储介质,其中,当被执行时,所述指令使得处理系统执行操作,所述操作包括:
使得距离传感器的光投影系统将光的三维图案投影到对象上,其中光的三维图案包括共同形成图案的多个光点;
使得距离传感器的光接收系统获取投影到对象上的光的三维图案的图像;
使得光接收系统获取对象的二维图像;
检测对象的二维图像中的特征点;标识特征点的插值区域;以及
通过使用插值区域内的所述多个点中的两个点的三维坐标进行插值来计算特征点的三维坐标。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962954533P | 2019-12-29 | 2019-12-29 | |
US62/954533 | 2019-12-29 | ||
PCT/US2020/066554 WO2021138139A1 (en) | 2019-12-29 | 2020-12-22 | Associating three-dimensional coordinates with two-dimensional feature points |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114830190A true CN114830190A (zh) | 2022-07-29 |
Family
ID=76546476
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202080090683.8A Pending CN114830190A (zh) | 2019-12-29 | 2020-12-22 | 将三维坐标与二维特征点相关联 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11580662B2 (zh) |
EP (1) | EP4094181A4 (zh) |
JP (1) | JP7598381B2 (zh) |
KR (1) | KR20220122645A (zh) |
CN (1) | CN114830190A (zh) |
WO (1) | WO2021138139A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114255337A (zh) * | 2021-11-03 | 2022-03-29 | 北京百度网讯科技有限公司 | 文档图像的矫正方法、装置、电子设备及存储介质 |
CN118625855A (zh) * | 2024-08-13 | 2024-09-10 | 四川大学 | 一种基于vicsek模型具有目标导向的无人机集群避障方法 |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4214081A4 (en) | 2020-09-18 | 2024-10-02 | Nubis Communications, Inc. | DATA PROCESSING SYSTEM WITH OPTICAL COMMUNICATION MODULES |
US12066653B2 (en) | 2021-04-22 | 2024-08-20 | Nubis Communications, Inc. | Communication systems having optical power supplies |
EP4356175A1 (en) * | 2021-06-17 | 2024-04-24 | Nubis Communications, Inc. | Communication systems having pluggable modules |
EP4152065A1 (en) | 2021-09-16 | 2023-03-22 | Nubis Communications, Inc. | Communication systems having co-packaged optical modules |
US12250024B2 (en) | 2021-09-16 | 2025-03-11 | Nubis Communications, Inc. | Data processing systems including optical communication modules |
WO2023215315A1 (en) | 2022-05-02 | 2023-11-09 | Nubis Communications, Inc. | Communication systems having pluggable optical modules |
Family Cites Families (154)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4914460A (en) | 1987-05-29 | 1990-04-03 | Harbor Branch Oceanographic Institution Inc. | Apparatus and methods of determining distance and orientation |
US4954962A (en) | 1988-09-06 | 1990-09-04 | Transitions Research Corporation | Visual navigation and obstacle avoidance structured light system |
JPH0451112A (ja) | 1990-06-19 | 1992-02-19 | Fujitsu Ltd | マルチスリット投光器 |
JPH08555A (ja) | 1994-06-16 | 1996-01-09 | Fuji Photo Optical Co Ltd | 内視鏡の照明装置 |
US5699444A (en) | 1995-03-31 | 1997-12-16 | Synthonics Incorporated | Methods and apparatus for using image data to determine camera location and orientation |
JP3328111B2 (ja) | 1995-08-23 | 2002-09-24 | 日本電気株式会社 | 空間距離測定方法及び空間距離測定装置 |
JP2913021B2 (ja) | 1996-09-24 | 1999-06-28 | 和歌山大学長 | 形状計測方法及び装置 |
US6038415A (en) | 1997-07-18 | 2000-03-14 | Minolta Co., Ltd. | Image forming apparatus and image-carrier cartridge device which is employed in the same |
DE69823116D1 (de) | 1997-08-05 | 2004-05-19 | Canon Kk | Bildverarbeitungsverfahren und -gerät |
US5980454A (en) | 1997-12-01 | 1999-11-09 | Endonetics, Inc. | Endoscopic imaging system employing diffractive optical elements |
US5870136A (en) | 1997-12-05 | 1999-02-09 | The University Of North Carolina At Chapel Hill | Dynamic generation of imperceptible structured light for tracking and acquisition of three dimensional scene geometry and surface characteristics in interactive three dimensional computer graphics applications |
JP3705923B2 (ja) * | 1998-04-09 | 2005-10-12 | 株式会社ソニー・コンピュータエンタテインメント | 画像処理装置および画像処理方法、プログラム提供媒体、並びにデータ提供媒体 |
AUPP299498A0 (en) | 1998-04-15 | 1998-05-07 | Commonwealth Scientific And Industrial Research Organisation | Method of tracking and sensing position of objects |
JP2000076452A (ja) | 1998-08-28 | 2000-03-14 | Minolta Co Ltd | 3次元形状データ処理装置及び立体模型作成装置 |
US7193645B1 (en) | 2000-07-27 | 2007-03-20 | Pvi Virtual Media Services, Llc | Video system and method of operating a video system |
US6937350B2 (en) | 2001-06-29 | 2005-08-30 | Massachusetts Institute Of Technology | Apparatus and methods for optically monitoring thickness |
US7940299B2 (en) | 2001-08-09 | 2011-05-10 | Technest Holdings, Inc. | Method and apparatus for an omni-directional video surveillance system |
GB2395261A (en) | 2002-11-11 | 2004-05-19 | Qinetiq Ltd | Ranging apparatus |
TWI247104B (en) | 2003-02-26 | 2006-01-11 | Hon Hai Prec Ind Co Ltd | A measuring method for pattern of light guide plate |
DE10308383A1 (de) | 2003-02-27 | 2004-09-16 | Storz Endoskop Produktions Gmbh | Verfahren und optisches System zur Vermessung der Topographie eines Meßobjekts |
WO2004114063A2 (en) * | 2003-06-13 | 2004-12-29 | Georgia Tech Research Corporation | Data reconstruction using directional interpolation techniques |
US20070165243A1 (en) | 2004-02-09 | 2007-07-19 | Cheol-Gwon Kang | Device for measuring 3d shape using irregular pattern and method for the same |
US7191056B2 (en) | 2005-01-04 | 2007-03-13 | The Boeing Company | Precision landmark-aided navigation |
JP4216824B2 (ja) | 2005-03-07 | 2009-01-28 | 株式会社東芝 | 3次元モデル生成装置、3次元モデル生成方法および3次元モデル生成プログラム |
JP2006313116A (ja) | 2005-05-09 | 2006-11-16 | Nec Viewtechnology Ltd | 距離傾斜角度検出装置および該検出装置を備えたプロジェクタ |
JP4644540B2 (ja) | 2005-06-28 | 2011-03-02 | 富士通株式会社 | 撮像装置 |
US20070091174A1 (en) | 2005-09-30 | 2007-04-26 | Topcon Corporation | Projection device for three-dimensional measurement, and three-dimensional measurement system |
JP4760391B2 (ja) | 2006-01-13 | 2011-08-31 | カシオ計算機株式会社 | 測距装置及び測距方法 |
JP4799216B2 (ja) | 2006-03-03 | 2011-10-26 | 富士通株式会社 | 距離測定機能を有する撮像装置 |
US7375803B1 (en) | 2006-05-18 | 2008-05-20 | Canesta, Inc. | RGBZ (red, green, blue, z-depth) filter system usable with sensor systems, including sensor systems with synthetic mirror enhanced three-dimensional imaging |
JP4889373B2 (ja) | 2006-05-24 | 2012-03-07 | ローランドディー.ジー.株式会社 | 3次元形状測定方法およびその装置 |
WO2008066742A1 (en) | 2006-11-22 | 2008-06-05 | Geng Z Jason | Wide field-of-view reflector and method of designing and making same |
TWI320480B (en) | 2007-04-23 | 2010-02-11 | Univ Nat Formosa | One diffraction 6 degree of freedom optoelectronic measurement system |
EP2283383B1 (en) | 2008-04-11 | 2013-07-17 | École Polytechnique Fédérale de Lausanne (EPFL) | Time-of-flight based imaging system using a display as illumination source |
US8282485B1 (en) | 2008-06-04 | 2012-10-09 | Zhang Evan Y W | Constant and shadowless light source |
DE102008031942A1 (de) | 2008-07-07 | 2010-01-14 | Steinbichler Optotechnik Gmbh | Verfahren und Vorrichtung zur 3D-Digitalisierung eines Objekts |
US8531650B2 (en) | 2008-07-08 | 2013-09-10 | Chiaro Technologies LLC | Multiple channel locating |
US8334900B2 (en) | 2008-07-21 | 2012-12-18 | The Hong Kong University Of Science And Technology | Apparatus and method of optical imaging for medical diagnosis |
JP2010091855A (ja) | 2008-10-09 | 2010-04-22 | Denso Corp | レーザビーム照射装置 |
JP5251419B2 (ja) | 2008-10-22 | 2013-07-31 | 日産自動車株式会社 | 距離計測装置および距離計測方法 |
CN101794065A (zh) | 2009-02-02 | 2010-08-04 | 中强光电股份有限公司 | 投影显示系统 |
US20100223706A1 (en) | 2009-03-03 | 2010-09-09 | Illinois Tool Works Inc. | Welding helmet audio communication systems and methods with bone conduction transducers |
JP5484098B2 (ja) | 2009-03-18 | 2014-05-07 | 三菱電機株式会社 | 投写光学系及び画像表示装置 |
JP4991787B2 (ja) | 2009-04-24 | 2012-08-01 | パナソニック株式会社 | 反射型光電センサ |
GB0921461D0 (en) | 2009-12-08 | 2010-01-20 | Qinetiq Ltd | Range based sensing |
US8320621B2 (en) | 2009-12-21 | 2012-11-27 | Microsoft Corporation | Depth projector system with integrated VCSEL array |
US20110188054A1 (en) | 2010-02-02 | 2011-08-04 | Primesense Ltd | Integrated photonics module for optical projection |
JP5612916B2 (ja) | 2010-06-18 | 2014-10-22 | キヤノン株式会社 | 位置姿勢計測装置、その処理方法、プログラム、ロボットシステム |
JP5499985B2 (ja) | 2010-08-09 | 2014-05-21 | ソニー株式会社 | 表示装置組立体 |
US8964189B2 (en) | 2010-08-19 | 2015-02-24 | Canon Kabushiki Kaisha | Three-dimensional measurement apparatus, method for three-dimensional measurement, and computer program |
JP5163713B2 (ja) | 2010-08-24 | 2013-03-13 | カシオ計算機株式会社 | 距離画像センサ及び距離画像生成装置並びに距離画像データ取得方法及び距離画像生成方法 |
US8830637B2 (en) | 2010-08-31 | 2014-09-09 | Texas Instruments Incorporated | Methods and apparatus to clamp overvoltages for alternating current systems |
US20120056982A1 (en) | 2010-09-08 | 2012-03-08 | Microsoft Corporation | Depth camera based on structured light and stereo vision |
US8593535B2 (en) | 2010-09-10 | 2013-11-26 | Apple Inc. | Relative positioning of devices based on captured images of tags |
EP2433716A1 (en) | 2010-09-22 | 2012-03-28 | Hexagon Technology Center GmbH | Surface spraying device with a nozzle control mechanism and a corresponding method |
TWI428558B (zh) | 2010-11-10 | 2014-03-01 | Pixart Imaging Inc | 測距方法、測距系統與其處理軟體 |
JP5815940B2 (ja) | 2010-12-15 | 2015-11-17 | キヤノン株式会社 | 距離計測装置、距離計測方法、およびプログラム |
CN103477644B (zh) | 2011-02-04 | 2017-04-12 | 皇家飞利浦电子股份有限公司 | 记录图像和从图像获得3d信息的方法、相机系统 |
JP5746529B2 (ja) | 2011-03-16 | 2015-07-08 | キヤノン株式会社 | 三次元距離計測装置、三次元距離計測方法、およびプログラム |
EP2685811B1 (en) | 2011-03-17 | 2016-03-02 | Mirobot Ltd. | System and method for three dimensional teat modeling for use with a milking system |
JP2014122789A (ja) | 2011-04-08 | 2014-07-03 | Sanyo Electric Co Ltd | 情報取得装置、投射装置および物体検出装置 |
JP5830270B2 (ja) | 2011-05-24 | 2015-12-09 | オリンパス株式会社 | 内視鏡装置および計測方法 |
CA2835306C (en) | 2011-06-07 | 2016-11-15 | Creaform Inc. | Sensor positioning for 3d scanning |
KR101974651B1 (ko) | 2011-06-22 | 2019-05-02 | 성균관대학교산학협력단 | 경계선 상속을 통하여 계층적으로 직교화된 구조광을 디코딩하는 방법 및 이를 이용하는 3차원 거리 영상 측정 시스템 |
US10054430B2 (en) | 2011-08-09 | 2018-08-21 | Apple Inc. | Overlapping pattern projector |
KR101605224B1 (ko) | 2011-10-05 | 2016-03-22 | 한국전자통신연구원 | 패턴 광을 이용한 깊이 정보 획득 장치 및 방법 |
US9142025B2 (en) | 2011-10-05 | 2015-09-22 | Electronics And Telecommunications Research Institute | Method and apparatus for obtaining depth information using optical pattern |
TW201329509A (zh) | 2012-01-10 | 2013-07-16 | Walsin Lihwa Corp | 立體掃瞄裝置及其立體掃瞄方法 |
US9986208B2 (en) | 2012-01-27 | 2018-05-29 | Qualcomm Incorporated | System and method for determining location of a device using opposing cameras |
WO2013116299A1 (en) | 2012-01-31 | 2013-08-08 | 3M Innovative Properties Company | Method and apparatus for measuring the three dimensional structure of a surface |
EP2821748B1 (en) | 2012-03-01 | 2019-07-31 | Nissan Motor Co., Ltd | Range finding device and range finding method |
WO2013145164A1 (ja) | 2012-03-28 | 2013-10-03 | 富士通株式会社 | 撮像装置 |
JP6250040B2 (ja) | 2012-05-18 | 2017-12-20 | シーメンス・ヘルスケア・ダイアグノスティックス・インコーポレーテッドSiemens Healthcare Diagnostics Inc. | 魚眼レンズ・アナライザ |
US8699005B2 (en) | 2012-05-27 | 2014-04-15 | Planitar Inc | Indoor surveying apparatus |
PT2872030T (pt) | 2012-07-10 | 2017-02-23 | Wavelight Gmbh | Processo e aparelho para determinação de aberrações óticas de um olho |
US20140016113A1 (en) | 2012-07-13 | 2014-01-16 | Microsoft Corporation | Distance sensor using structured light |
JP2014020978A (ja) | 2012-07-20 | 2014-02-03 | Fujitsu Ltd | 照射装置、距離測定装置、照射装置のキャリブレーションプログラム及びキャリブレーション方法 |
EP2696590B1 (en) | 2012-08-06 | 2014-09-24 | Axis AB | Image sensor positioning apparatus and method |
US9741184B2 (en) | 2012-10-14 | 2017-08-22 | Neonode Inc. | Door handle with optical proximity sensors |
CN104884862B (zh) | 2012-10-24 | 2019-11-19 | 视瑞尔技术公司 | 照明设备 |
US9285893B2 (en) | 2012-11-08 | 2016-03-15 | Leap Motion, Inc. | Object detection and tracking with variable-field illumination devices |
WO2014097539A1 (ja) | 2012-12-20 | 2014-06-26 | パナソニック株式会社 | 3次元測定装置および3次元測定方法 |
US10466359B2 (en) | 2013-01-01 | 2019-11-05 | Inuitive Ltd. | Method and system for light patterning and imaging |
US9691163B2 (en) | 2013-01-07 | 2017-06-27 | Wexenergy Innovations Llc | System and method of measuring distances related to an object utilizing ancillary objects |
US8768559B1 (en) | 2013-01-22 | 2014-07-01 | Qunomic Virtual Technology, LLC | Line projection system |
US9142019B2 (en) | 2013-02-28 | 2015-09-22 | Google Technology Holdings LLC | System for 2D/3D spatial feature processing |
US10105149B2 (en) | 2013-03-15 | 2018-10-23 | Board Of Regents Of The University Of Nebraska | On-board tool tracking system and methods of computer assisted surgery |
US9364167B2 (en) | 2013-03-15 | 2016-06-14 | Lx Medical Corporation | Tissue imaging and image guidance in luminal anatomic structures and body cavities |
US20140320605A1 (en) | 2013-04-25 | 2014-10-30 | Philip Martin Johnson | Compound structured light projection system for 3-D surface profiling |
WO2014177750A1 (en) | 2013-04-29 | 2014-11-06 | Nokia Corporation | A method and apparatus for fusing distance data from a distance sensing camera with an image |
US9536339B1 (en) | 2013-06-13 | 2017-01-03 | Amazon Technologies, Inc. | Processing unordered point cloud |
US10061028B2 (en) | 2013-09-05 | 2018-08-28 | Texas Instruments Incorporated | Time-of-flight (TOF) assisted structured light imaging |
JP6211876B2 (ja) | 2013-10-01 | 2017-10-11 | 株式会社トプコン | 測定方法及び測定装置 |
CN103559735B (zh) | 2013-11-05 | 2017-03-01 | 重庆安钻理科技股份有限公司 | 一种三维重建方法及系统 |
BR112016015664A8 (pt) | 2014-01-06 | 2020-06-09 | Eyelock Llc | aparelho para gerar repetidamente imagens de uma íris e dispositivo de reconhecimento de imagem de íris de uso repetitivo |
GB2522248A (en) | 2014-01-20 | 2015-07-22 | Promethean Ltd | Interactive system |
JP6299269B2 (ja) | 2014-02-24 | 2018-03-28 | 株式会社リコー | 画像処理システム、プログラム及び投影装置 |
KR102166691B1 (ko) | 2014-02-27 | 2020-10-16 | 엘지전자 주식회사 | 객체의 3차원 형상을 산출하는 장치 및 방법 |
US9526427B2 (en) | 2014-03-21 | 2016-12-27 | Hypermed Imaging, Inc. | Compact light sensors with symmetrical lighting |
US9307231B2 (en) | 2014-04-08 | 2016-04-05 | Lucasfilm Entertainment Company Ltd. | Calibration target for video processing |
WO2015166915A1 (ja) * | 2014-04-30 | 2015-11-05 | シナノケンシ株式会社 | 計測装置 |
JP5829306B2 (ja) | 2014-05-12 | 2015-12-09 | ファナック株式会社 | レンジセンサの配置位置評価装置 |
KR101592405B1 (ko) | 2014-05-20 | 2016-02-05 | 주식회사 메디트 | 3차원 영상 획득 방법, 장치 및 컴퓨터 판독 가능한 기록 매체 |
US10207193B2 (en) | 2014-05-21 | 2019-02-19 | Universal City Studios Llc | Optical tracking system for automation of amusement park elements |
US9699393B2 (en) | 2014-06-26 | 2017-07-04 | Semiconductor Components Industries, Llc | Imaging systems for infrared and visible imaging with patterned infrared cutoff filters |
WO2016025502A1 (en) | 2014-08-11 | 2016-02-18 | Gerard Dirk Smits | Three-dimensional triangulation and time-of-flight based tracking systems and methods |
KR20160020323A (ko) | 2014-08-13 | 2016-02-23 | 옥은호 | 평행 적외선 투사기와 카메라 모듈로 구성되는 거리 측정 센서 |
JP6370177B2 (ja) | 2014-09-05 | 2018-08-08 | 株式会社Screenホールディングス | 検査装置および検査方法 |
KR20170072319A (ko) | 2014-10-24 | 2017-06-26 | 매직 아이 인코포레이티드 | 거리 센서 |
JP6121063B1 (ja) | 2014-11-04 | 2017-04-26 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | カメラ較正方法、デバイス及びシステム |
US10080004B2 (en) | 2014-11-06 | 2018-09-18 | Disney Enterprises, Inc. | Method and system for projector calibration |
US20160128553A1 (en) | 2014-11-07 | 2016-05-12 | Zheng Jason Geng | Intra- Abdominal Lightfield 3D Endoscope and Method of Making the Same |
US20160157725A1 (en) | 2014-12-08 | 2016-06-09 | Luis Daniel Munoz | Device, system and methods for assessing tissue structures, pathology, and healing |
KR102369792B1 (ko) | 2015-03-05 | 2022-03-03 | 한화테크윈 주식회사 | 촬영 장치 및 촬영 방법 |
JP6484072B2 (ja) | 2015-03-10 | 2019-03-13 | アルプスアルパイン株式会社 | 物体検出装置 |
CN107407728B (zh) | 2015-03-26 | 2020-05-22 | 富士胶片株式会社 | 距离图像获取装置以及距离图像获取方法 |
WO2016157593A1 (ja) | 2015-03-27 | 2016-10-06 | 富士フイルム株式会社 | 距離画像取得装置及び距離画像取得方法 |
US9694498B2 (en) | 2015-03-30 | 2017-07-04 | X Development Llc | Imager for detecting visual light and projected patterns |
US10215557B2 (en) | 2015-03-30 | 2019-02-26 | Fujifilm Corporation | Distance image acquisition apparatus and distance image acquisition method |
WO2016172856A1 (zh) * | 2015-04-28 | 2016-11-03 | 北京旷视科技有限公司 | 用于识别人脸的装置、系统、方法和计算机程序产品 |
US10488192B2 (en) | 2015-05-10 | 2019-11-26 | Magik Eye Inc. | Distance sensor projecting parallel patterns |
KR20180006377A (ko) | 2015-05-10 | 2018-01-17 | 매직 아이 인코포레이티드 | 거리 센서 |
DE102015209143B4 (de) | 2015-05-19 | 2020-02-27 | Esaote S.P.A. | Verfahren zur Bestimmung einer Abbildungsvorschrift und bildgestützten Navigation sowie Vorrichtung zur bildgestützten Navigation |
JP6548727B2 (ja) | 2015-05-29 | 2019-07-24 | オリンパス株式会社 | 照明装置及び計測装置 |
KR20170005649A (ko) | 2015-07-06 | 2017-01-16 | 엘지전자 주식회사 | 3차원 깊이 카메라 모듈 및 이를 구비하는 이동 단말기 |
JP6566768B2 (ja) | 2015-07-30 | 2019-08-28 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
DE102015115011A1 (de) | 2015-09-08 | 2017-03-09 | Valeo Schalter Und Sensoren Gmbh | Laserscanner für Kraftfahrzeuge |
US10176554B2 (en) | 2015-10-05 | 2019-01-08 | Google Llc | Camera calibration using synthetic images |
JP6597150B2 (ja) | 2015-10-09 | 2019-10-30 | 富士通株式会社 | 距離測定装置、距離測定方法、距離測定プログラムおよびテーブルの作成方法 |
FR3042610B1 (fr) | 2015-10-14 | 2018-09-07 | Quantificare | Dispositif et procede pour reconstruire en trois dimensions la tete et le corps |
US10942261B2 (en) | 2015-10-21 | 2021-03-09 | Samsung Electronics Co., Ltd | Apparatus for and method of range sensor based on direct time-of-flight and triangulation |
DE112015007146T5 (de) | 2015-11-25 | 2018-08-02 | Mitsubishi Electric Corporation | Vorrichtung und verfahren zur dreidimensionalen bildmessung |
KR20170094968A (ko) | 2016-02-12 | 2017-08-22 | 엘지이노텍 주식회사 | 피사체 거리 측정 부재, 이를 갖는 카메라 모듈 |
US11030775B2 (en) | 2016-03-17 | 2021-06-08 | Flir Systems, Inc. | Minimal user input video analytics systems and methods |
CN113727000A (zh) | 2016-05-27 | 2021-11-30 | 松下知识产权经营株式会社 | 摄像系统 |
US9686539B1 (en) | 2016-06-12 | 2017-06-20 | Apple Inc. | Camera pair calibration using non-standard calibration objects |
US10337860B2 (en) | 2016-12-07 | 2019-07-02 | Magik Eye Inc. | Distance sensor including adjustable focus imaging sensor |
US20180227566A1 (en) | 2017-02-06 | 2018-08-09 | Microsoft Technology Licensing, Llc | Variable field of view and directional sensors for mobile machine vision applications |
US11025887B2 (en) | 2017-02-27 | 2021-06-01 | Sony Corporation | Field calibration of stereo cameras with a projector |
US10769914B2 (en) | 2017-06-07 | 2020-09-08 | Amazon Technologies, Inc. | Informative image data generation using audio/video recording and communication devices |
US10708574B2 (en) * | 2017-06-15 | 2020-07-07 | Align Technology, Inc. | Three dimensional imaging apparatus with color sensor |
CN109729721B (zh) | 2017-08-29 | 2021-04-16 | 深圳市汇顶科技股份有限公司 | 光学测距方法以及光学测距装置 |
EP3692501A4 (en) | 2017-10-08 | 2021-07-07 | Magik Eye Inc. | CALIBRATION OF A SENSOR SYSTEM INCLUDING MULTIPLE MOBILE SENSORS |
JP7565212B2 (ja) | 2017-10-08 | 2024-10-10 | マジック アイ インコーポレイテッド | 縦グリッドパターンを使用した距離測定 |
US10679076B2 (en) | 2017-10-22 | 2020-06-09 | Magik Eye Inc. | Adjusting the projection system of a distance sensor to optimize a beam layout |
WO2019182881A1 (en) | 2018-03-20 | 2019-09-26 | Magik Eye Inc. | Distance measurement using projection patterns of varying densities |
EP3769505A4 (en) | 2018-03-20 | 2021-12-01 | Magik Eye Inc. | ADJUSTING THE EXPOSURE OF A CAMERA FOR THREE-DIMENSIONAL DEPTH DETECTION AND TWO-DIMENSIONAL IMAGING |
US12062249B2 (en) * | 2018-05-04 | 2024-08-13 | Northeastern University | System and method for generating image landmarks |
CN112513565B (zh) | 2018-06-06 | 2023-02-10 | 魔眼公司 | 使用高密度投影图案的距离测量 |
US11475584B2 (en) | 2018-08-07 | 2022-10-18 | Magik Eye Inc. | Baffles for three-dimensional sensors having spherical fields of view |
WO2020117785A1 (en) | 2018-12-08 | 2020-06-11 | Magik Eye Inc. | Vertical cavity surface emitting laser-based projector |
US11483503B2 (en) | 2019-01-20 | 2022-10-25 | Magik Eye Inc. | Three-dimensional sensor including bandpass filter having multiple passbands |
CN110070564B (zh) * | 2019-05-08 | 2021-05-11 | 广州市百果园信息技术有限公司 | 一种特征点匹配方法、装置、设备及存储介质 |
DE102020007613A1 (de) * | 2020-12-11 | 2021-03-18 | Daimler Ag | Verfahren zur Generierung einer dreidimensionalen Tiefeninformationskarte einer Umgebung |
-
2020
- 2020-12-22 EP EP20909726.0A patent/EP4094181A4/en active Pending
- 2020-12-22 WO PCT/US2020/066554 patent/WO2021138139A1/en unknown
- 2020-12-22 KR KR1020227021931A patent/KR20220122645A/ko active Pending
- 2020-12-22 US US17/130,378 patent/US11580662B2/en active Active
- 2020-12-22 JP JP2022539683A patent/JP7598381B2/ja active Active
- 2020-12-22 CN CN202080090683.8A patent/CN114830190A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114255337A (zh) * | 2021-11-03 | 2022-03-29 | 北京百度网讯科技有限公司 | 文档图像的矫正方法、装置、电子设备及存储介质 |
CN118625855A (zh) * | 2024-08-13 | 2024-09-10 | 四川大学 | 一种基于vicsek模型具有目标导向的无人机集群避障方法 |
CN118625855B (zh) * | 2024-08-13 | 2024-11-15 | 四川大学 | 一种基于vicsek模型具有目标导向的无人机集群避障方法 |
Also Published As
Publication number | Publication date |
---|---|
KR20220122645A (ko) | 2022-09-02 |
US20210201529A1 (en) | 2021-07-01 |
JP2023508501A (ja) | 2023-03-02 |
JP7598381B2 (ja) | 2024-12-11 |
US11580662B2 (en) | 2023-02-14 |
EP4094181A4 (en) | 2024-04-03 |
EP4094181A1 (en) | 2022-11-30 |
WO2021138139A1 (en) | 2021-07-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114830190A (zh) | 将三维坐标与二维特征点相关联 | |
US11039121B2 (en) | Calibration apparatus, chart for calibration, chart pattern generation apparatus, and calibration method | |
CN107368730B (zh) | 解锁验证方法和装置 | |
CN107563304B (zh) | 终端设备解锁方法及装置、终端设备 | |
CN107480613B (zh) | 人脸识别方法、装置、移动终端和计算机可读存储介质 | |
KR102170182B1 (ko) | 패턴 프로젝션을 이용한 왜곡 보정 및 정렬 시스템, 이를 이용한 방법 | |
US11475584B2 (en) | Baffles for three-dimensional sensors having spherical fields of view | |
US20160117824A1 (en) | Posture estimation method and robot | |
CN106991377A (zh) | 结合深度信息的人脸识别方法、人脸识别装置和电子装置 | |
JP2008537190A (ja) | 赤外線パターンを照射することによる対象物の三次元像の生成 | |
CN107808398B (zh) | 摄像头参数算出装置以及算出方法、程序、记录介质 | |
KR20230065978A (ko) | 구조화된 광을 사용하여 장면에서 평면 표면들을 직접 복구하기 위한 시스템, 방법 및 매체 | |
CN107277053A (zh) | 身份验证方法、装置及移动终端 | |
CN114073075B (zh) | 将三维深度图数据映射到二维图像上 | |
JP7298687B2 (ja) | 物体認識装置及び物体認識方法 | |
CN108052813A (zh) | 终端设备的解锁方法、装置及移动终端 | |
WO2022209166A1 (ja) | 情報処理装置、情報処理方法、及び較正用ターゲット | |
US20200041262A1 (en) | Method for performing calibration by using measured data without assumed calibration model and three-dimensional scanner calibration system for performing same | |
JP7101250B2 (ja) | 情報処理装置およびプレイフィールド逸脱検知方法 | |
US9948926B2 (en) | Method and apparatus for calibrating multiple cameras using mirrors | |
CN107742071A (zh) | 网络游戏的装备解锁方法和电子装置 | |
US20200234458A1 (en) | Apparatus and method for encoding in structured depth camera system | |
CN107589834B (zh) | 终端设备操作方法及装置、终端设备 | |
CN107483814A (zh) | 拍照模式设置方法、装置及移动设备 | |
TWM619722U (zh) | 偵測物件深度和水平距離的系統 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |