[go: up one dir, main page]

CN114092539A - 一种基于动态二值化算法的深度值获取方法及系统 - Google Patents

一种基于动态二值化算法的深度值获取方法及系统 Download PDF

Info

Publication number
CN114092539A
CN114092539A CN202111393145.9A CN202111393145A CN114092539A CN 114092539 A CN114092539 A CN 114092539A CN 202111393145 A CN202111393145 A CN 202111393145A CN 114092539 A CN114092539 A CN 114092539A
Authority
CN
China
Prior art keywords
measured
point
parallax
image
bit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111393145.9A
Other languages
English (en)
Other versions
CN114092539B (zh
Inventor
杜源
白一川
杜力
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University
Original Assignee
Nanjing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University filed Critical Nanjing University
Priority to CN202111393145.9A priority Critical patent/CN114092539B/zh
Publication of CN114092539A publication Critical patent/CN114092539A/zh
Application granted granted Critical
Publication of CN114092539B publication Critical patent/CN114092539B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • G06T2207/20032Median filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Measurement Of Optical Distance (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本申请涉及深度相机识别领域,尤其涉及一种基于动态二值化算法的深度值获取方法及系统,获取参照图像和待测点对应的8‑bit灰度图,通过局部动态二值化模型,将参照图像和所述待测点对应的8‑bit灰度图,转换为1‑bit图像,并得到对应的1‑bit二值化值,通过匹配代价模型,得到待测点不同视差的匹配代价值,选取最小的匹配代价值,为待测点的初步视差;对初步视差进行消噪平滑,得到待测点的视差;将待测点的视差映射为待测点的深度值。本申请提供的一种基于动态二值化算法的深度值获取方法及系统,可实现减少深度算法当中的计算量,从而减小对逻辑门数的需求,在提供高质量的深度图的同时,提高深度算法加速器的面积效率和功率效率。

Description

一种基于动态二值化算法的深度值获取方法及系统
技术领域
本申请涉及深度相机识别领域,尤其涉及一种基于动态二值化算法的深度值获取方法及系统。
背景技术
随着机器视觉,自动驾驶等颠覆性技术的发展,采用深度相机进行物体识别、行为识别和场景建模的相关应用越来越多,深度相机可通过该相机检测出拍摄空间的景深距离,具有高分辨率、高精度的特点,可以说深度相机就是终端和机器人的眼睛。通过深度相机获取到的数据,能准确知道图像中每个点离摄像头距离,加上该点在2D图像中的坐标,就能获取图像中每个点的三维空间坐标,通过三维坐标就能还原真实场景,实现场景建模等应用。
结构光相机作为深度相机的一种,通常包括红外随机点阵投影仪和热红外相机。红外随机点阵投影仪,采用特定波长的不可见红外激光作为光源,它发射出来的光经过一定的编码投影在物体上,并形成具有一定结构特征的随机点阵,再由热红外相机采集反射的随机点阵,最后通过一定算法来计算返回的编码图案的畸变,来得到物体的位置和深度信息。
其中,随机点阵本身是一个二值的信息,在现有技术中,从红外相机得到的都是8-bit的灰度图像,8-bit的灰度图像存在信息冗余,直接基于8-bit的匹配代价的计算,会造成不必要的计算量增多,从而在相同吞吐率要求下,结构光相机内的分析处理硬件与计算量大小呈正比,因此会导致所需硬件的面积增大,功耗增多。
发明内容
为了实现通过简化深度值的计算,从而减小硬件面积和降低功耗,本申请提供一种基于动态二值化算法的深度值获取方法及系统。
本申请第一方面,提供一种基于动态二值化算法的深度值获取方法,包括:
获取待测物体的参照图像和红外随机点阵图像,并选取所述红外随机点阵图像任一点为待测点,所述参照图像为距离结构光相机一定距离的一个平面上的红外随机点阵图像。
获取所述参照图像和所述待测点对应的8-bit灰度图,通过局部动态二值化模型,将所述参照图像和所述待测点对应的8-bit灰度图,转换为1-bit图像,并得到对应的1-bit二值化值。
根据所述1-bit二值化值,通过匹配代价模型,得到待测点不同视差的匹配代价值。
根据所述待测点不同视差的匹配代价值,选取最小的匹配代价值,为待测点的初步视差。
根据所述初步视差,对所述初步视差进行消噪平滑,得到待测点的视差。
根据所述待测点的视差,将所述待测点的视差映射为待测点的深度值。
可选的,所述局部动态二值化模型为:
Figure BDA0003369456770000011
W为以p为中心的一个窗口,pn为W中的一个像素值,N为W中像素的个数,p为8-bit的灰度值,q为1-bit二值化值。
可选的,所述匹配代价模型为:
Figure BDA0003369456770000021
Cd为视差的匹配代价值,qn为待测点的1-bit图像中对应窗口的像素,q′(n,d)为参照图像的1-bit图像中对应窗口的像素。
可选的,所述对初步视差进行消噪平滑,得到待测点的视差的步骤中,采用亚像素估计,斑点去除以及中值滤波器,对初步视差进行消噪平滑。
可选的,所述将待测点的视差映射为待测点的深度值的步骤中,采用三角法,利用三角关系将视差映射为深度值。
本申请第二方面提供一种基于动态二值化算法的深度值获取系统,包括:图像获取模块、图像二值化模块、匹配模块、筛选模块、后处理模块和映射模块。
所述图像获取模块,用于获取待测物体的参照图像和红外随机点阵图像,并选取所述红外随机点阵图像任一点为待测点。
所述图像二值化模块,用于获取所述参照图像和所述待测点对应的8-bit灰度图,通过局部动态二值化模型,将所述参照图像和所述待测点对应的8-bit灰度图,转换为1-bit图像,并得到对应的1-bit二值化值。
所述匹配模块,用于根据所述1-bit二值化值,通过匹配代价模型,得到待测点不同视差的匹配代价值。
所述筛选模块,用于根据所述待测点不同视差的匹配代价值,选取最小的匹配代价值,为待测点的初步视差。
所述后处理模块,用于根据所述初步视差,对所述初步视差进行消噪平滑,得到待测点的视差。
所述映射模块,用于根据所述待测点的视差,将所述待测点的视差映射为待测点的深度值。
可选的,所述局部动态二值化模型为:
Figure BDA0003369456770000022
W为以p为中心的一个窗口,pn为W中的一个像素值,N为W中像素的个数,p为8-bit的灰度值,q为1-bit二值化值。
可选的,所述匹配代价模型为:
Figure BDA0003369456770000023
Cd为视差的匹配代价值,qn为待测点的1-bit图像中对应窗口的像素,q′(n,d)为参照图像的1-bit图像中对应窗口的像素。
可选的,所述对初步视差进行消噪平滑,得到待测点的视差的步骤中,采用亚像素估计,斑点去除以及中值滤波器,对初步视差进行消噪平滑。
可选的,所述将待测点的视差映射为待测点的深度值的步骤中,采用三角法,利用三角关系将视差映射为深度值。
由以上技术方案可知,本申请提供一种基于动态二值化算法的深度值获取方法及系统,通过获取待测物体的参照图像和红外随机点阵图像,并选取所述红外随机点阵图像任一点为待测点,获取所述参照图像和所述待测点对应的8-bit灰度图,通过局部动态二值化模型,将所述参照图像和所述待测点对应的8-bit灰度图,转换为1-bit图像,并得到对应的1-bit二值化值,通过匹配代价模型,得到待测点不同视差的匹配代价值,选取最小的匹配代价值,为待测点的初步视差;对所述初步视差进行消噪平滑,得到待测点的视差;将所述待测点的视差映射为待测点的深度值。本申请提供的一种基于动态二值化算法的深度值获取方法及系统,可实现减少深度算法当中的计算量,从而减小对逻辑门数的需求,在提供高质量的深度图的同时,提高深度算法加速器的面积效率和功率效率。
附图说明
为了更清楚地说明本申请的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的基于动态二值化算法的深度值获取方法的流程图;
图2为本申请实施例提供的将红外灰度图转换为二值化红外图的示意图;
图3为本申请实施例提供的基于动态二值化算法生成的深度图;
图4为现有的绝对距离求和算法生成的深度图;
图5为现有的红外图像增强的绝对距离求和算法生成的深度图;
图6为现有的普查转换算法生成的深度图;
图7为三角法映射深度值的具体计算实施图;
图8为本申请实施例与现有的其它方案性能对比折线图;
图9为本申请实施例提供的基于动态二值化算法的深度值获取系统的架构图。
具体实施方式
下面将详细地对实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下实施例中描述的实施方式并不代表与本申请相一致的所有实施方式。仅是与权利要求书中所详述的、本申请的一些方面相一致的系统和方法的示例。
参见图1,为本申请实施例提供的基于动态二值化算法的深度值获取方法的流程图。
本申请实施例第一方面,提供一种基于动态二值化算法的深度值获取方法,包括:
S1,获取待测物体的参照图像和红外随机点阵图像,并选取所述红外随机点阵图像任一点为待测点,所述参照图像为距离结构光相机一定距离的一个平面上的红外随机点阵图像。
在本申请实施例中,使用结构光相机来获取待测物体的深度值,结构光相机中红外随机点阵投影仪和红外相机配合使用,可提供从物体表面反射回来的随机点阵的信息,拍摄到的图片当中,和参照图片深度不同的位置会产生视差。
需要说明的是参照图像具体获取步骤为:拍摄一个和相机固定距离(如1m)的平面,得到参照平面的红外随机点阵图像,并将拍摄得到的参照图像存储到相机内部,以用于后续的视差计算。
S2,获取所述参照图像和所述待测点对应的8-bit灰度图,通过局部动态二值化模型,将所述参照图像和所述待测点对应的8-bit灰度图,转换为1-bit图像,并得到对应的1-bit二值化值。
如图2所示,为本申请实施例提供的将红外灰度图转换为二值化红外图的示意图。
其中,所述局部动态二值化模型为:
Figure BDA0003369456770000041
W为以p为中心的一个窗口(如5pixel x 5pixel的窗口),对5x5窗口来说W为25,pn为W中的一个像素值,N为W中像素的个数,p为8-bit的灰度值,q为1-bit二值化值。
S3,根据所述1-bit二值化值,通过匹配代价模型,得到待测点不同视差的匹配代价值。
其中,通过基于窗口的匹配代价算法,计算出不同视差下的匹配代价。代价计算基于二值化之后的图像,计算某个像素一定范围的视差的匹配代价值。实际计算时将整个窗口内部的二值化的像素作为序列,使用汉明距离来评估代价,所述匹配代价模型为:
Figure BDA0003369456770000042
Cd为视差的匹配代价值,qn为待测点的1-bit图像中对应窗口的像素,q′(n,d)为参照图像的1-bit图像中对应窗口的像素。
S4,根据所述待测点不同视差的匹配代价值,选取最小的匹配代价值,为待测点的初步视差。
其中,在选取最小匹配代价值时,采用以下模型选取:
dest=argmin(Cd)
其中,dest为待测点的初步视差。
S5,根据所述初步视差,对所述初步视差进行消噪平滑,得到待测点的视差。
其中,所述对初步视差进行消噪平滑,得到待测点的视差的步骤中,采用亚像素估计,斑点去除以及中值滤波器,对初步视差进行消噪平滑。
亚像素估计,采用基于抛物线拟合的方法,使用临近视差的代价值来对视差作平滑处理,公式如下所示:
Figure BDA0003369456770000043
其中,C(d)和C(d±n)为在视差d和d±n上的匹配代价。
斑点去除,是为了去除图像当中孤立的小斑点,通过统计与中心像素视差值相差较大的周围像素的数量,如果数量超过一个阈值,则将中心像素视为斑点,将其替换成最近的非斑点的像素值。
中值滤波器,采用3x3的窗口,用来进一步提高平滑性。
S6,根据所述待测点的视差,将所述待测点的视差映射为待测点的深度值。
所述将待测点的视差映射为待测点的深度值的步骤中,采用三角法,利用三角关系将视差映射为深度值。
如图7所示,为三角法映射深度值的具体计算实施图。
图中,Z0为参考平面距离,Z为物体平面距离(即本申请实施例中的深度值),f为红外相机焦距,d为视差,b为基线距离,深度值的获取公式,具体为:
Figure BDA0003369456770000044
为了更好的验证本申请实施例的有益效果,下面将通过具体实施例进行说明:
首先进行定性分析,将本申请实施例提供的动态二值化算法,生成的深度图与现有技术中的三种算法生成的深度图进行比较。如图3所示,为本申请实施例提供的基于动态二值化算法生成的深度图。如图4所示,为现有的绝对距离求和算法Sum of AbsoluteDistance(SAD),生成的深度图。如图5所示,为现有的红外图像增强的绝对距离求和算法Enhanced Sum of Absolute Distance(Enhanced SAD),生成的深度图,如图6所示,为现有的普查转换算法Census Transform(CT),生成的深度图。
其中,黑色像素代表测量误差大于100mm的部分,由图3、图4、图5和图6,可知本申请实施例提供的基于1-bit动态二值化算法生成的深度图,误差大于100mm的部分的面积要明显小于其它方案。
其次进行定量分析,如图8所示,为本申请实施例与现有的其它方案性能对比折线图。基于70个场景,就若干指标量化评估了在相同窗口尺寸的情况下本申请实施例的方案相比起其它方案的优势。其中,性能指标包含了在不同阈值下的坏点百分比(Bad PixelPercentage),平均绝对误差(Average Absolute Error)和均方根误差(Root-mean-squareError)。坐标横轴为窗口尺寸(Window Size),不同形状的标志代表不同的算法,所有的指标的值越小,代表性能越好,算法越具有优势。当窗口尺寸大于13x13时,本申请实施例的方案在各个指标上相比其他前沿的方案更具优势。
最后基于本申请实施例的方案,对结构光相机硬件加速器的面积和功率进行评估。通过SMIC 55nm CMOS工艺实现了基于DB(涉及本申请提供方案的动态二值化算法),SAD,Enhanced SAD和CT的结构光深度算法加速器面积和功率的评估。使用17x17的匹配窗口,频率为133MHz,帧率为每秒432.94帧。面积效率和功率效率如表1所示,表1为加速器的面积和功率效率的对比表。
表-1-加速器的面积和功率效率的对比表
Figure BDA0003369456770000051
由表1可知,基于DB的加速器,代价计算模块的逻辑门相比起其他方法有79.7%-86.7%的减少。对于整个结构光深度算法加速器来说,相比起基于其他方法的加速器,面积效率提升了235%-367%,功率效率提升了35%-94%。
由以上技术方案可知,本申请实施例提供一种基于动态二值化算法的深度值获取方法,通过获取待测物体的参照图像和红外随机点阵图像,并选取所述红外随机点阵图像任一点为待测点,获取所述参照图像和所述待测点对应的8-bit灰度图,通过局部动态二值化模型,将所述参照图像和所述待测点对应的8-bit灰度图,转换为1-bit图像,并得到对应的1-bit二值化值,通过匹配代价模型,得到待测点不同视差的匹配代价值,选取最小的匹配代价值,为待测点的初步视差;对所述初步视差进行消噪平滑,得到待测点的视差;将所述待测点的视差映射为待测点的深度值。本申请实施例提供的一种基于动态二值化算法的深度值获取方法,可实现减少深度算法当中的计算量,从而减小对逻辑门数的需求,在提供高质量的深度图的同时,提高深度算法加速器的面积效率和功率效率。
参见图9,为本申请实施例提供的基于动态二值化算法的深度值获取系统的架构图。
本申请实施例第二方面提供一种基于动态二值化算法的深度值获取系统,包括:图像获取模块、图像二值化模块、匹配模块、筛选模块、后处理模块和映射模块。
S01,所述图像获取模块,用于获取待测物体的参照图像和红外随机点阵图像,并选取所述红外随机点阵图像任一点为待测点。
S02,所述图像二值化模块,用于获取所述参照图像和所述待测点对应的8-bit灰度图,通过局部动态二值化模型,将所述参照图像和所述待测点对应的8-bit灰度图,转换为1-bit图像,并得到对应的1-bit二值化值。
S03,所述匹配模块,用于根据所述1-bit二值化值,通过匹配代价模型,得到待测点不同视差的匹配代价值。
S04,所述筛选模块,用于根据所述待测点不同视差的匹配代价值,选取最小的匹配代价值,为待测点的初步视差。
S05,所述后处理模块,用于根据所述初步视差,对所述初步视差进行消噪平滑,得到待测点的视差。
S06,所述映射模块,用于根据所述待测点的视差,将所述待测点的视差映射为待测点的深度值。
将待测物体的参照图像和红外随机点阵图像输入进所述获取模块,并选取所述红外随机点阵图像任一点为待测点;所述获取模块将所述参照图像与待测点传递至所述图像二值化模块,所述图像二值化模块获取所述参照图像和所述待测点对应的8-bit灰度图,通过局部动态二值化模型,将所述参照图像和所述待测点对应的8-bit灰度图,转换为1-bit图像,并得到对应的1-bit二值化值;所述图像二值化模块将所述1-bit二值化值传递至所述匹配模块,所述匹配模块根据所述1-bit二值化值,通过匹配代价模型,得到待测点不同视差的匹配代价值;所述匹配模块将所述待测点不同视差的匹配代价值传递至所述筛选模块,所述筛选模块根据所述待测点不同视差的匹配代价值,选取最小的匹配代价值,为待测点的初步视差;所述筛选模块将所述初步视差传递至所述后处理模块,所述后处理模块,根据所述初步视差,对所述初步视差进行消噪平滑,得到待测点的视差,所述后处理模块将所述待测点的视差传递至所述映射模块,所述映射模块,根据所述待测点的视差,将所述待测点的视差映射为待测点的深度值。
由以上技术方案可知,本申请实施例提供一种基于动态二值化算法的深度值获取方法及系统,通过获取待测物体的参照图像和红外随机点阵图像,并选取所述红外随机点阵图像任一点为待测点,获取所述参照图像和所述待测点对应的8-bit灰度图,通过局部动态二值化模型,将所述参照图像和所述待测点对应的8-bit灰度图,转换为1-bit图像,并得到对应的1-bit二值化值,通过匹配代价模型,得到待测点不同视差的匹配代价值,选取最小的匹配代价值,为待测点的初步视差;对所述初步视差进行消噪平滑,得到待测点的视差;将所述待测点的视差映射为待测点的深度值。本申请实施例提供的一种基于动态二值化算法的深度值获取方法及系统,可实现减少深度算法当中的计算量,从而减小对逻辑门数的需求,在提供高质量的深度图的同时,提高深度算法加速器的面积效率和功率效率。
本申请提供的实施例之间的相似部分相互参见即可,以上提供的具体实施方式只是本申请总的构思下的几个示例,并不构成本申请保护范围的限定。对于本领域的技术人员而言,在不付出创造性劳动的前提下依据本申请方案所扩展出的任何其他实施方式都属于本申请的保护范围。

Claims (10)

1.一种基于动态二值化算法的深度值获取方法,其特征在于,包括:
获取待测物体的参照图像和红外随机点阵图像,并选取所述红外随机点阵图像任一点为待测点,所述参照图像为距离结构光相机一定距离的一个平面上的红外随机点阵图像,;
获取所述参照图像和所述待测点对应的8-bit灰度图,通过局部动态二值化模型,将所述参照图像和所述待测点对应的8-bit灰度图,转换为1-bit图像,并得到对应的1-bit二值化值;
根据所述1-bit二值化值,通过匹配代价模型,得到待测点不同视差的匹配代价值;
根据所述待测点不同视差的匹配代价值,选取最小的匹配代价值,为待测点的初步视差;
根据所述初步视差,对所述初步视差进行消噪平滑,得到待测点的视差;
根据所述待测点的视差,将所述待测点的视差映射为待测点的深度值。
2.根据权利要求1所述的一种基于动态二值化算法的深度值获取方法,其特征在于,所述局部动态二值化模型为:
Figure FDA0003369456760000011
W为以p为中心的一个窗口,pn为W中的一个像素值,N为W中像素的个数,p为8-bit的灰度值,q为1-bit二值化值。
3.根据权利要求1所述的一种基于动态二值化算法的深度值获取方法,其特征在于,所述匹配代价模型为:
Figure FDA0003369456760000012
Cd为视差的匹配代价值,qn为待测点的1-bit图像中对应窗口的像素,q′(n,d)为参照图像的1-bit图像中对应窗口的像素。
4.根据权利要求1所述的一种基于动态二值化算法的深度值获取方法,其特征在于,所述对初步视差进行消噪平滑,得到待测点的视差的步骤中,采用亚像素估计,斑点去除以及中值滤波器,对初步视差进行消噪平滑。
5.根据权利要求1所述的一种基于动态二值化算法的深度值获取方法,其特征在于,所述将待测点的视差映射为待测点的深度值的步骤中,采用三角法,利用三角关系将视差映射为深度值。
6.一种基于动态二值化算法的深度值获取系统,其特征在于,所述一种基于动态二值化算法的深度值获取系统用于执行权利要求1-5任一项所述的一种基于动态二值化算法的深度值获取方法,包括:图像获取模块、图像二值化模块、匹配模块、筛选模块、后处理模块和映射模块;
所述图像获取模块,用于获取待测物体的参照图像和红外随机点阵图像,并选取所述红外随机点阵图像任一点为待测点;
所述图像二值化模块,用于获取所述参照图像和所述待测点对应的8-bit灰度图,通过局部动态二值化模型,将所述参照图像和所述待测点对应的8-bit灰度图,转换为1-bit图像,并得到对应的1-bit二值化值;
所述匹配模块,用于根据所述1-bit二值化值,通过匹配代价模型,得到待测点不同视差的匹配代价值;
所述筛选模块,用于根据所述待测点不同视差的匹配代价值,选取最小的匹配代价值,为待测点的初步视差;
所述后处理模块,用于根据所述初步视差,对所述初步视差进行消噪平滑,得到待测点的视差;
所述映射模块,用于根据所述待测点的视差,将所述待测点的视差映射为待测点的深度值。
7.根据权利要求6所述的一种基于动态二值化算法的深度值获取系统,其特征在于,所述局部动态二值化模型为:
Figure FDA0003369456760000021
W为以p为中心的一个窗口,pn为W中的一个像素值,N为W中像素的个数,p为8-bit的灰度值,q为1-bit二值化值。
8.根据权利要求6所述的一种基于动态二值化算法的深度值获取系统,其特征在于,所述匹配代价模型为:
Figure FDA0003369456760000022
Cd为视差的匹配代价值,qn为待测点的1-bit图像中对应窗口的像素,q′(n,d)为参照图像的1-bit图像中对应窗口的像素。
9.根据权利要求6所述的一种基于动态二值化算法的深度值获取系统,其特征在于,所述对初步视差进行消噪平滑,得到待测点的视差的步骤中,采用亚像素估计,斑点去除以及中值滤波器,对初步视差进行消噪平滑。
10.根据权利要求6所述的一种基于动态二值化算法的深度值获取系统,其特征在于,所述将待测点的视差映射为待测点的深度值的步骤中,采用三角法,利用三角关系将视差映射为深度值。
CN202111393145.9A 2021-11-23 2021-11-23 一种基于动态二值化算法的深度值获取方法及系统 Active CN114092539B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111393145.9A CN114092539B (zh) 2021-11-23 2021-11-23 一种基于动态二值化算法的深度值获取方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111393145.9A CN114092539B (zh) 2021-11-23 2021-11-23 一种基于动态二值化算法的深度值获取方法及系统

Publications (2)

Publication Number Publication Date
CN114092539A true CN114092539A (zh) 2022-02-25
CN114092539B CN114092539B (zh) 2025-03-07

Family

ID=80303134

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111393145.9A Active CN114092539B (zh) 2021-11-23 2021-11-23 一种基于动态二值化算法的深度值获取方法及系统

Country Status (1)

Country Link
CN (1) CN114092539B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115082351A (zh) * 2022-07-14 2022-09-20 上海物骐微电子有限公司 一种深度图像生成方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109360235A (zh) * 2018-09-29 2019-02-19 中国航空工业集团公司上海航空测控技术研究所 一种基于光场数据的混合深度估计方法
CN112750157A (zh) * 2020-08-11 2021-05-04 腾讯科技(深圳)有限公司 一种深度图像生成方法及装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109360235A (zh) * 2018-09-29 2019-02-19 中国航空工业集团公司上海航空测控技术研究所 一种基于光场数据的混合深度估计方法
CN112750157A (zh) * 2020-08-11 2021-05-04 腾讯科技(深圳)有限公司 一种深度图像生成方法及装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115082351A (zh) * 2022-07-14 2022-09-20 上海物骐微电子有限公司 一种深度图像生成方法及系统

Also Published As

Publication number Publication date
CN114092539B (zh) 2025-03-07

Similar Documents

Publication Publication Date Title
CN103824318B (zh) 一种多摄像头阵列的深度感知方法
US9025862B2 (en) Range image pixel matching method
US11651581B2 (en) System and method for correspondence map determination
US9835438B2 (en) Distance measuring apparatus and method
US20180091798A1 (en) System and Method for Generating a Depth Map Using Differential Patterns
CN109716348B (zh) 独立地处理多个所关注的区域
US20160245641A1 (en) Projection transformations for depth estimation
WO2012096747A1 (en) Forming range maps using periodic illumination patterns
CN116188558B (zh) 基于双目视觉的立体摄影测量方法
CN107463659B (zh) 物体搜索方法及其装置
WO2018147059A1 (ja) 画像処理装置、および画像処理方法、並びにプログラム
US20200082641A1 (en) Three dimensional representation generating system
KR20160121509A (ko) 2개의 카메라로부터의 곡선의 세트의 구조형 광 매칭
CN116802688A (zh) 用于图像内对应分析的设备和方法
CN115456945A (zh) 一种芯片引脚缺陷的检测方法、检测装置及设备
KR102327304B1 (ko) 깊이영상 카메라로부터 획득된 3d 영상의 품질 향상 방법
CN114092539B (zh) 一种基于动态二值化算法的深度值获取方法及系统
CN113723432B (zh) 一种基于深度学习的智能识别、定位追踪的方法及系统
CN111160233A (zh) 基于三维成像辅助的人脸活体检测方法、介质及系统
JP2016081088A (ja) 画像処理装置、画像処理方法及びプログラム
CN112802114A (zh) 多视觉传感器融合装置及其方法和电子设备
CN117115242B (zh) 标志点的识别方法、计算机存储介质和终端设备
JP6671589B2 (ja) 3次元計測システム、3次元計測方法及び3次元計測プログラム
CN112102335B (zh) 基于新型散斑特征编码的双目三维成像方法及系统
CN113048899A (zh) 基于线结构光的厚度测量方法和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant