CN112903093B - 基于深度学习的近场分布光度测量方法及装置 - Google Patents
基于深度学习的近场分布光度测量方法及装置 Download PDFInfo
- Publication number
- CN112903093B CN112903093B CN202110138378.8A CN202110138378A CN112903093B CN 112903093 B CN112903093 B CN 112903093B CN 202110138378 A CN202110138378 A CN 202110138378A CN 112903093 B CN112903093 B CN 112903093B
- Authority
- CN
- China
- Prior art keywords
- neural network
- measurement
- matrix
- deep neural
- light intensity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 238000005375 photometry Methods 0.000 title claims abstract description 29
- 238000013135 deep learning Methods 0.000 title claims abstract description 25
- 238000005259 measurement Methods 0.000 claims abstract description 262
- 239000011159 matrix material Substances 0.000 claims abstract description 210
- 230000004907 flux Effects 0.000 claims abstract description 185
- 238000003062 neural network model Methods 0.000 claims abstract description 124
- 238000013528 artificial neural network Methods 0.000 claims abstract description 85
- 238000004364 calculation method Methods 0.000 claims abstract description 24
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 16
- 230000006870 function Effects 0.000 claims description 68
- 238000012549 training Methods 0.000 claims description 40
- 238000005286 illumination Methods 0.000 claims description 36
- 238000003384 imaging method Methods 0.000 claims description 20
- 239000007787 solid Substances 0.000 claims description 4
- 239000004576 sand Substances 0.000 claims 1
- 230000008569 process Effects 0.000 abstract description 13
- 230000004913 activation Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 238000010606 normalization Methods 0.000 description 6
- 238000011176 pooling Methods 0.000 description 6
- 230000009466 transformation Effects 0.000 description 5
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 3
- 238000010200 validation analysis Methods 0.000 description 3
- 239000000463 material Substances 0.000 description 2
- 238000013480 data collection Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J1/00—Photometry, e.g. photographic exposure meter
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Circuit Arrangement For Electric Light Sources In General (AREA)
- Photometry And Measurement Of Optical Pulse Characteristics (AREA)
Abstract
本发明公开了一种基于深度学习的近场分布光度测量方法及装置,该方法包括:采集待重建光场多个角度的亮度图像组成亮度图像集,根据卷积神经网络架构搭建光通量测量深度神经网络模型、照度测量深度神经网络模型和空间光强测量深度神经网络模型,通过训练好的光通量测量深度神经网络模型、照度测量深度神经网络模型和空间光强测量深度神经网络模型进行光场重建,输出待重建光场的光通量测量矩阵、照度测量矩阵及空间光强测量矩阵。该方法能够解决传统近场分布式光度测量方法计算过程复杂耗时,测量效率低的问题,有效提升传统近场光度测量系统的全空间计算效率,实现对照明装置或光源的快速光场分布测量。
Description
技术领域
本发明涉及光度测量技术领域,特别涉及一种基于深度学习的近场分布光度测量方法及装置。
背景技术
分布式光度计是一种近场光度测量仪器,能够通过全空间间接计算测量的方式获得光源或照明装置的光度信息,包括亮度分布、光强分布、照度分布和光通量信息等。分布式光度计的本质是一种光场测量仪器,主要光学探测装置为成像亮度计。在采集过程中,成像亮度计固定在能够扫描4π空间范围的旋转机械臂上,以完成对照明装置或光源的三维空间全角度亮度信息扫描采集。
成像亮度计像素平面每一个像素代表一根光线信息,因此在推导计算光度参数时,需要利用传统近场光度测量方法光线追迹拟合算法对每个采集位置获得的二维图像中的每个像素亮度数值进行逐一推导计算,才能够获得完整的光线数据。假设成像亮度计在4π空间共采集M张亮度图像,成像亮度计的像素分辨率为w×h,那么像素数据集可表示为P(w,h,M)。利用O(n)表示算法时间复杂度,那么光线追迹拟合算法的时间复杂度为O(w×h×M)。光线追迹拟合算法在每一次循环过程中计算重建过程需要进行大量复杂数学运算,计算耗时长,无法完成照明装置或光源的快速重建,存在测量效率低问题。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明的一个目的在于提出一种基于深度学习的近场分布光度测量方法,该方法能够解决传统近场分布式光度测量方法计算过程复杂耗时,测量效率低的问题,有效提升传统近场光度测量系统的全空间计算效率,实现对照明装置或光源的快速光场分布测量。
本发明的另一个目的在于提出一种基于深度学习的近场分布光度测量装置。
为达到上述目的,本发明一方面实施例提出了一种基于深度学习的近场分布光度测量方法,包括:
S1,采集待重建光场多个角度的亮度图像组成亮度图像集;
S2,根据卷积神经网络架构搭建光通量测量深度神经网络模型;
S3,将所述亮度图像集输入所述光通量测量深度神经网络模型,输出光通量估计矩阵,根据所述亮度图像集计算光通量先验矩阵,根据所述光通量估计矩阵和所述光通量先验矩阵构建损失函数,根据所述亮度图像集和损失函数对所述光通量测量深度神经网络模型进行训练,获得优化后的光通量测量深度神经网络权重值及偏移项,并通过优化后的光通量测量神经网络计算所述待重建光场的光通量测量矩阵;
S4,利用完成训练的光通量测量神经网络获得准确光通量估计矩阵数据集;
S5,根据卷积神经网络架构搭建照度测量深度神经网络模型;
S6,将所述准确光通量估计矩阵数据集输入所述照度测量深度神经网络模型,输出照度分布估计矩阵,根据实际照度计算模型计算得到空间任意位置面元内的照度分布先验矩阵,根据所述照度分布估计矩阵和所述照度分布先验矩阵构建损失函数,对所述照度测量深度神经网络模型进行训练,获得优化后的照度测量深度神经网络权重值及偏移项,并通过优化后的照度测量神经网络计算所述待重建光场的照度测量矩阵;
S7,根据卷积神经网络架构搭建空间光强测量深度神经网络模型;
S8,将所述准确光通量估计矩阵数据集输入所述空间光强测量深度神经网络模型,输出空间光强分布估计矩阵,根据空间光强计算模型计算得到空间光强分布先验矩阵,根据所述空间光强分布估计矩阵和所述空间光强分布先验矩阵构建损失函数,对所述空间光强测量深度神经网络模型进行训练,获得优化后的空间光强测量深度神经网络权重值及偏移项,并通过优化后的空间光强测量深度神经网络计算所述待重建光场的空间光强测量矩阵;
S9,利用训练后的所述光通量测量深度神经网络模型、所述照度测量深度神经网络模型和所述空间光强测量深度神经网络模型对所述待重建光场进行光场重建,输出所述待重建光场的光通量测量矩阵、照度测量矩阵及空间光强测量矩阵。
本发明实施例的基于深度学习的近场分布光度测量方法,利用搭载亮度测量装置(例如成像亮度计等)的近场分布光度计采集照明装置或光源的各角度亮度图像,形成亮度图像集;通过搭建光通量测量深度神经网络模型;将亮度图像集作为输入图像,以光通量先验物理模型和网络输出光通量矩阵构建损失函数,训练光通量测量深度神经网络,获得优化后的光通量测量网络权重值及偏移项;搭建照度测量深度神经网络模型;将光通量矩阵作为输入参量,以照度分布计算实际物理模型和网络输出照度分布阵构建照度分布损失函数,训练照度测量深度神经网络,获得优化后的照度测量深度神经网络权重值及偏移项;搭建空间光强测量深度神经网络模型;将光通量矩阵作为输入参量,以空间光强分布计算实际物理模型和网络输出空间光强分布构建空间光强损失函数,训练空间光强测量深度神经网络,获得优化后的空间光强测量深度神经网络权重值及偏移项;利用训练后的光通量测量深度神经网络模型、照度测量深度神经网络模型和空间光强测量深度神经网络模型对待测照明装置或光源进行空间光场重建。该装置能够获得光通量信息、空间光强分布及照度分布信息,通过先验矩阵与网络输出估计矩阵联立构造损失函数,能够有效降低训练时需要的训练数据集规模,同时在重建过程中无需进行复杂坐标变换,能够有效提升重建效率,解决传统近场光度测量重建过程计算耗时过长的问题。
另外,根据本发明上述实施例的基于深度学习的近场分布光度测量方法还可以具有以下附加的技术特征:
进一步地,在本发明的一个实施例中,所述S1进一步包括:
利用搭载亮度测量装置的近场分布光度计采集所述待重建光场的各角度亮度图像,所述亮度测量装置包括但不限于成像亮度计。
进一步地,在本发明的一个实施例中,所述S3进一步包括:
以所述光通量先验矩阵ΔΦS和所述光通量估计矩阵ΔΦm构造损失函数,表示为:
LossΦ=||ΔΦm-ΔΦS||2。
进一步地,在本发明的一个实施例中,所述S6进一步包括:
将所述准确光通量估计矩阵数据集输入所述照度测量深度神经网络模型,输出所述照度分布估计矩阵ΔEm;
根据实际照度计算模型计算得到空间任意位置ΔA面元内的照度分布先验矩阵,公式为:
根据所述照度分布估计矩阵和所述照度分布先验矩阵构建损失函数为:
LossE=||ΔEm-ΔES||2。
进一步地,在本发明的一个实施例中,所述S8进一步包括:
将所述准确光通量估计矩阵数据集输入所述空间光强测量深度神经网络模型,输出所述空间光强分布估计矩阵为ΔIm;
根据空间光强计算模型计算得到空间光强分布先验矩阵ΔIS,公式为:
根据所述空间光强分布估计矩阵和所述空间光强分布先验矩阵构建损失函数为:
LossI=||ΔIm-ΔIS||2。
为达到上述目的,本发明另一方面实施例提出了一种基于深度学习的近场分布光度测量装置,包括:
数据采集模块,用于采集待重建光场多个角度的亮度图像组成亮度图像集;
驱动模块,用于驱动和控制所述数据采集模块进行数据采集;
模型搭建模块,用于根据卷积神经网络架构搭建光通量测量深度神经网络模型、照度测量深度神经网络模型和空间光强测量深度神经网络模型;
训练模块,用于对所述光通量测量深度神经网络模型、所述照度测量深度神经网络模型和所述空间光强测量深度神经网络模型进行训练;
重建模块,用于通过训练好的光通量测量深度神经网络模型、照度测量深度神经网络模型和空间光强测量深度神经网络模型进行光场重建,输出所述待重建光场的光通量测量矩阵、所述照度测量矩阵及所述空间光强测量矩阵。
本发明实施例的基于深度学习的近场分布光度测量装置,利用搭载亮度测量装置(例如成像亮度计等)的近场分布光度计采集照明装置或光源的各角度亮度图像,形成亮度图像集;通过搭建光通量测量深度神经网络模型;将亮度图像集作为输入图像,以光通量先验物理模型和网络输出光通量矩阵构建损失函数,训练光通量测量深度神经网络,获得优化后的光通量测量网络权重值及偏移项;搭建照度测量深度神经网络模型;将光通量矩阵作为输入参量,以照度分布计算实际物理模型和网络输出照度分布阵构建照度分布损失函数,训练照度测量深度神经网络,获得优化后的照度测量深度神经网络权重值及偏移项;搭建空间光强测量深度神经网络模型;将光通量矩阵作为输入参量,以空间光强分布计算实际物理模型和网络输出空间光强分布构建空间光强损失函数,训练空间光强测量深度神经网络,获得优化后的空间光强测量深度神经网络权重值及偏移项;利用训练后的光通量测量深度神经网络模型、照度测量深度神经网络模型和空间光强测量深度神经网络模型对待测照明装置或光源进行空间光场重建。该装置能够获得光通量信息、空间光强分布及照度分布信息,通过先验矩阵与网络输出估计矩阵联立构造损失函数,能够有效降低训练时需要的训练数据集规模,同时在重建过程中无需进行复杂坐标变换,能够有效提升重建效率,解决传统近场光度测量重建过程计算耗时过长的问题。
另外,根据本发明上述实施例的基于深度学习的近场分布光度测量装置还可以具有以下附加的技术特征:
进一步地,在本发明的一个实施例中,所述数据采集模块,具体用于,利用搭载亮度测量装置的近场分布光度计采集所述待重建光场的各角度亮度图像,所述亮度测量装置包括但不限于成像亮度计。
进一步地,在本发明的一个实施例中,所述训练模块具体用于,
将所述亮度图像集输入所述光通量测量深度神经网络模型,输出光通量估计矩阵,根据所述亮度图像集计算光通量先验矩阵,根据所述光通量估计矩阵和所述光通量先验矩阵构建损失函数,根据所述亮度图像集和损失函数对所述光通量测量深度神经网络模型进行训练,获得优化后的光通量测量深度神经网络权重值及偏移项,并通过优化后的光通量测量神经网络计算所述待重建光场的光通量测量矩阵。
进一步地,在本发明的一个实施例中,所述训练模块具体用于,利用完成训练的光通量测量神经网络获得准确光通量估计矩阵数据集,将所述准确光通量估计矩阵数据集输入所述照度测量深度神经网络模型,输出照度分布估计矩阵,根据实际照度计算模型计算得到空间任意位置面元内的照度分布先验矩阵,根据所述照度分布估计矩阵和所述照度分布先验矩阵构建损失函数,对所述照度测量深度神经网络模型进行训练,获得优化后的照度测量深度神经网络权重值及偏移项,并通过优化后的照度测量神经网络计算所述待重建光场的照度测量矩阵。
进一步地,在本发明的一个实施例中,所述训练模块具体用于,将所述准确光通量估计矩阵数据集输入所述空间光强测量深度神经网络模型,输出空间光强分布估计矩阵,根据空间光强计算模型计算得到空间光强分布先验矩阵,根据所述空间光强分布估计矩阵和所述空间光强分布先验矩阵构建损失函数,对所述空间光强测量深度神经网络模型进行训练,获得优化后的空间光强测量深度神经网络权重值及偏移项,并通过优化后的空间光强测量深度神经网络计算所述待重建光场的空间光强测量矩阵。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为根据本发明一个实施例的基于深度学习的近场分布光度测量方法流程图;
图2为根据本发明一个实施例的光通量测量深度神经网络模型结构示意图;
图3为根据本发明一个实施例的深度神经网络残差模块结构示意图;
图4为根据本发明一个实施例的C坐标系示意图;
图5为根据本发明一个实施例的照度测量深度神经网络模型结构示意图;
图6为根据本发明一个实施例的空间光强测量深度神经网络模型结构示意图;
图7为根据本发明一个实施例的于深度学习的近场分布光度测量方法流程框图;
图8为根据本发明一个实施例的于深度学习的近场分布光度测量装置结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
下面参照附图描述根据本发明实施例提出的基于深度学习的近场分布光度测量方法及装置。
首先将参照附图描述根据本发明实施例提出的基于深度学习的近场分布光度测量方法。
图1为根据本发明一个实施例的基于深度学习的近场分布光度测量方法流程图。
如图1所示,该基于深度学习的近场分布光度测量方法包括以下步骤:
步骤S1,采集待重建光场多个角度的亮度图像组成亮度图像集。
进一步地,利用搭载亮度测量装置(例如成像亮度计等)的近场分布光度计采集照明装置或光源的各角度亮度图像,形成亮度图像集。
具体地,亮度图像表示为其中,D为以近场分布光度计为原点的旋转坐标系,θD为水平旋转角度,为垂直旋转角度,m表示成像亮度计绕光源或照明装置共采集1,2,L,M幅亮度图像。此时,空间坐标位置为Xm(xD,yD,zD)。
步骤S2,根据卷积神经网络架构搭建光通量测量深度神经网络模型。
在本发明的实施例中,以卷积神经网络中的U-net结构作为光通量测量深度神经网络的基本框架来阐述训练过程,如图2所示。光通量测量深度神经网络主要包含6个模块:输入层401、卷积模块402a-402b、残差模块403a-403g、池化模块404a-404c、上采样模块405a-405c和输出层406。卷积层402a-402b内置3×3卷积核、批量归一化操作和LeakyRelu激活函数;上采样模块405内置3×3转置卷积核、批量归一化操作和LeakyRelu激活函数;输出层406采用Sigmoid函数作为激活函数。池化层404的步长为2。残差模块403a-403g网络结构如图3所示,主要包含卷积结构407a-407c。
步骤S3,将亮度图像集输入光通量测量深度神经网络模型,输出光通量估计矩阵,根据亮度图像集计算光通量先验矩阵,根据光通量估计矩阵和光通量先验矩阵构建损失函数,根据亮度图像集和损失函数对光通量测量深度神经网络模型进行训练,获得优化后的光通量测量深度神经网络权重值及偏移项,并通过优化后的光通量测量神经网络计算待重建光场的光通量测量矩阵。
进一步地,在本发明的一个实施例中,S3进一步包括:
以光通量先验矩阵ΔΦS和光通量估计矩阵ΔΦm构造损失函数,表示为:
LossΦ=||ΔΦm-ΔΦS||2。
进一步地,根据亮度图像通过光线追迹拟合方法计算光通量先验矩阵。如图4所示,C坐标系为以成像亮度计圆心为光线出射点的坐标系,i和j分别表示成像亮度计感光芯片像素的行序数及列序数。成像亮度计感光芯片每一个像素表征一根光线,因此第i行,第j列像素亮度值表示为其中表示该点像素与光线原点间的偏离角。因此,第i行,第j列像素亮度值对应的光通量值为:
其中,dΩ表示单位立体角,dA表示发光面的单位面积,θ表示和发光面法线的夹角。
进一步地,通过该方法计算每一点像素的先验光通量数值,构成光通量先验矩阵ΔΦ'm。
进一步地,设S坐标系为以被测光源或照明装置的直角坐标系,通过两次坐标变换计算得到光通量先验矩阵ΔΦS。
进一步地,以光通量先验矩阵ΔΦS和网络输出光通量估计矩阵ΔΦm构造损失函数,表示为:
LossΦ=||ΔΦm-ΔΦS||2。
在本发明的实施例中,训练时将亮度图像归一化,输入到光通量神经网络的输入层401中,使用Adam算法优化网络参数,初始学习率设置为0.001,批量大小为1,epoch(数据集被完整训练一次为一个epoch)为1000当验证集的Loss函数值小于0.0001可视为训练完成。
进一步地,训练光通量测量深度神经网络,获得优化后的光通量测量深度神经网络权重值及偏移项,并通过优化后的光通量测量神经网络计算待测光源或照明装置的光通量矩阵。
步骤S4,利用完成训练的光通量测量神经网络获得准确光通量估计矩阵数据集。
步骤S5,根据卷积神经网络架构搭建照度测量深度神经网络模型。
在本发明的实施例中,以卷积神经网络中的U-net结构作为照测量深度神经网络的基本框架来阐述训练过程,如图5所示。照度测量深度神经网络主要包含6个模块:输入层401、卷积模块402a-402b、残差模块403a-403g、池化模块404a-404c、上采样模块405a-405c和输出层406。卷积层402a-402b内置3×3卷积核、批量归一化操作和LeakyRelu激活函数;上采样模块405内置3×3转置卷积核、批量归一化操作和LeakyRelu激活函数;输出层406采用Sigmoid函数作为激活函数。池化层404的步长为2。残差模块403a-403g网络结构如图3所示,主要包含卷积结构407a-407c。
步骤S6,将准确光通量估计矩阵数据集输入照度测量深度神经网络模型,输出照度分布估计矩阵,根据实际照度计算模型计算得到空间任意位置面元内的照度分布先验矩阵,根据照度分布估计矩阵和照度分布先验矩阵构建损失函数,对照度测量深度神经网络模型进行训练,获得优化后的照度测量深度神经网络权重值及偏移项,并通过优化后的照度测量神经网络计算待重建光场的照度测量矩阵。
进一步地,在本发明的一个实施例中,S6进一步包括:
将准确光通量估计矩阵数据集输入照度测量深度神经网络模型,输出照度分布估计矩阵ΔEm;
根据实际照度计算模型计算得到空间任意位置ΔA面元内的照度分布先验矩阵,公式为:
根据照度分布估计矩阵和照度分布先验矩阵构建损失函数为:
LossE=||ΔEm-ΔES||2。
具体地,将光通量矩阵ΔΦm作为输入参量,通过照度测量深度神经网络模型后输出照度分布估计矩阵为ΔEm。
在本发明的实施例中,训练时将亮度图像归一化,输入到照度测量深度神经网络的输入层401中,使用Adam算法优化网络参数,初始学习率设置为0.001,批量大小为1,epoch(数据集被完整训练一次为一个epoch)为1000当验证集的Loss函数值小于0.0001可视为训练完成。
进一步地,训练照度测量深度神经网络,获得优化后的照度测量深度神经网络权重值及偏移项,并通过优化后的照度测量神经网络计算待测光源或照明装置的照度测量矩阵。
步骤S7,根据卷积神经网络架构搭建空间光强测量深度神经网络模型。
在本发明的实施例中,以卷积神经网络中的U-net结构作为空间光强测量深度神经网络的基本框架来阐述训练过程,如图6所示。空间光强测量深度神经网络主要包含6个模块:输入层401、卷积模块402a-402b、残差模块403a-403g、池化模块404a-404c、上采样模块405a-405c和输出层406。卷积层402a-402b内置3×3卷积核、批量归一化操作和LeakyRelu激活函数;上采样模块405内置3×3转置卷积核、批量归一化操作和LeakyRelu激活函数;输出层406采用Sigmoid函数作为激活函数。池化层404的步长为2。残差模块403a-403g网络结构如图3所示,主要包含卷积结构407a-407c。
步骤S8,将准确光通量估计矩阵数据集输入空间光强测量深度神经网络模型,输出空间光强分布估计矩阵,根据空间光强计算模型计算得到空间光强分布先验矩阵,根据空间光强分布估计矩阵和空间光强分布先验矩阵构建损失函数,对空间光强测量深度神经网络模型进行训练,获得优化后的空间光强测量深度神经网络权重值及偏移项,并通过优化后的空间光强测量深度神经网络计算待重建光场的空间光强测量矩阵。
进一步地,在本发明的一个实施例中,S8进一步包括:
将准确光通量估计矩阵数据集输入空间光强测量深度神经网络模型,输出空间光强分布估计矩阵为ΔIm;
根据空间光强计算模型计算得到空间光强分布先验矩阵ΔIS,公式为:
根据空间光强分布估计矩阵和空间光强分布先验矩阵构建损失函数为:
LossI=||ΔIm-ΔIS||2。
具体地,将光通量估计矩阵ΔΦm作为输入参量,通过空间光强测量深度神经网络模型输出空间光强分布估计矩阵为ΔIm。
在本发明的实施例中,训练时将亮度图像归一化,输入到空间光强测量深度神经网络的输入层401中,使用Adam算法优化网络参数,初始学习率设置为0.001,批量大小为1,epoch(数据集被完整训练一次为一个epoch)为1000当验证集的Loss函数值小于0.0001可视为训练完成。
进一步地,训练空间光强测量深度神经网络,获得优化后的空间光强测量深度神经网络权重值及偏移项,并通过优化后的空间光强测量深度神经网络计算待测光源或照明装置的空间光强测量矩阵。
步骤S9,利用训练后的光通量测量深度神经网络模型、照度测量深度神经网络模型和空间光强测量深度神经网络模型对待重建光场进行光场重建,输出待重建光场的光通量测量矩阵、照度测量矩阵及空间光强测量矩阵。
基于深度神经网络的近场光度测量方法框架如图7所示。
根据本发明实施例提出的基于深度学习的近场分布光度测量方法,利用搭载亮度测量装置(例如成像亮度计等)的近场分布光度计采集照明装置或光源的各角度亮度图像,形成亮度图像集;通过搭建光通量测量深度神经网络模型;将亮度图像集作为输入图像,以光通量先验物理模型和网络输出光通量矩阵构建损失函数,训练光通量测量深度神经网络,获得优化后的光通量测量网络权重值及偏移项;搭建照度测量深度神经网络模型;将光通量矩阵作为输入参量,以照度分布计算实际物理模型和网络输出照度分布阵构建照度分布损失函数,训练照度测量深度神经网络,获得优化后的照度测量深度神经网络权重值及偏移项;搭建空间光强测量深度神经网络模型;将光通量矩阵作为输入参量,以空间光强分布计算实际物理模型和网络输出空间光强分布构建空间光强损失函数,训练空间光强测量深度神经网络,获得优化后的空间光强测量深度神经网络权重值及偏移项;利用训练后的光通量测量深度神经网络模型、照度测量深度神经网络模型和空间光强测量深度神经网络模型对待测照明装置或光源进行空间光场重建。该方法能够获得光通量信息、空间光强分布及照度分布信息,通过先验矩阵与网络输出估计矩阵联立构造损失函数,能够有效降低训练时需要的训练数据集规模,同时在重建过程中无需进行复杂坐标变换,能够有效提升重建效率,解决传统近场光度测量重建过程计算耗时过长的问题。
其次参照附图描述根据本发明实施例提出的基于深度学习的近场分布光度测量装置。
图8为根据本发明一个实施例的基于深度学习的近场分布光度测量装置结构示意图。
如图8所示,该基于深度学习的近场分布光度测量装置包括:数据采集模块801、驱动模块802、模型搭建模块803、训练模块804和重建模块805。
数据采集模块801,用于采集待重建光场多个角度的亮度图像组成亮度图像集。
驱动模块802,用于驱动和控制数据采集模块进行数据采集。
模型搭建模块803,用于根据卷积神经网络架构搭建光通量测量深度神经网络模型、照度测量深度神经网络模型和空间光强测量深度神经网络模型。
训练模块804,用于对光通量测量深度神经网络模型、照度测量深度神经网络模型和空间光强测量深度神经网络模型进行训练。
重建模块805,用于通过训练好的光通量测量深度神经网络模型、照度测量深度神经网络模型和空间光强测量深度神经网络模型进行光场重建,输出待重建光场的光通量测量矩阵、照度测量矩阵及空间光强测量矩阵。
进一步地,在本发明的一个实施例中,数据采集模块,具体用于,利用搭载亮度测量装置的近场分布光度计采集待重建光场的各角度亮度图像,亮度测量装置包括但不限于成像亮度计。
进一步地,在本发明的一个实施例中,训练模块具体用于,
将亮度图像集输入光通量测量深度神经网络模型,输出光通量估计矩阵,根据亮度图像集计算光通量先验矩阵,根据光通量估计矩阵和光通量先验矩阵构建损失函数,根据亮度图像集和损失函数对光通量测量深度神经网络模型进行训练,获得优化后的光通量测量深度神经网络权重值及偏移项,并通过优化后的光通量测量神经网络计算待重建光场的光通量测量矩阵。
进一步地,在本发明的一个实施例中,训练模块具体用于,利用完成训练的光通量测量神经网络获得准确光通量估计矩阵数据集,将准确光通量估计矩阵数据集输入照度测量深度神经网络模型,输出照度分布估计矩阵,根据实际照度计算模型计算得到空间任意位置面元内的照度分布先验矩阵,根据照度分布估计矩阵和照度分布先验矩阵构建损失函数,对照度测量深度神经网络模型进行训练,获得优化后的照度测量深度神经网络权重值及偏移项,并通过优化后的照度测量神经网络计算待重建光场的照度测量矩阵。
进一步地,在本发明的一个实施例中,训练模块具体用于,将准确光通量估计矩阵数据集输入空间光强测量深度神经网络模型,输出空间光强分布估计矩阵,根据空间光强计算模型计算得到空间光强分布先验矩阵,根据空间光强分布估计矩阵和空间光强分布先验矩阵构建损失函数,对空间光强测量深度神经网络模型进行训练,获得优化后的空间光强测量深度神经网络权重值及偏移项,并通过优化后的空间光强测量深度神经网络计算待重建光场的空间光强测量矩阵。
需要说明的是,前述对方法实施例的解释说明也适用于该实施例的装置,此处不再赘述。
根据本发明实施例提出的基于深度学习的近场分布光度测量装置,利用搭载亮度测量装置(例如成像亮度计等)的近场分布光度计采集照明装置或光源的各角度亮度图像,形成亮度图像集;通过搭建光通量测量深度神经网络模型;将亮度图像集作为输入图像,以光通量先验物理模型和网络输出光通量矩阵构建损失函数,训练光通量测量深度神经网络,获得优化后的光通量测量网络权重值及偏移项;搭建照度测量深度神经网络模型;将光通量矩阵作为输入参量,以照度分布计算实际物理模型和网络输出照度分布阵构建照度分布损失函数,训练照度测量深度神经网络,获得优化后的照度测量深度神经网络权重值及偏移项;搭建空间光强测量深度神经网络模型;将光通量矩阵作为输入参量,以空间光强分布计算实际物理模型和网络输出空间光强分布构建空间光强损失函数,训练空间光强测量深度神经网络,获得优化后的空间光强测量深度神经网络权重值及偏移项;利用训练后的光通量测量深度神经网络模型、照度测量深度神经网络模型和空间光强测量深度神经网络模型对待测照明装置或光源进行空间光场重建。该装置能够获得光通量信息、空间光强分布及照度分布信息,通过先验矩阵与网络输出估计矩阵联立构造损失函数,能够有效降低训练时需要的训练数据集规模,同时在重建过程中无需进行复杂坐标变换,能够有效提升重建效率,解决传统近场光度测量重建过程计算耗时过长的问题。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (7)
1.一种基于深度学习的近场分布光度测量方法,其特征在于,包括以下步骤:
S1,采集待重建光场多个角度的亮度图像组成亮度图像集;
S2,根据卷积神经网络架构搭建光通量测量深度神经网络模型;
S3,将所述亮度图像集输入所述光通量测量深度神经网络模型,输出光通量估计矩阵,根据所述亮度图像集计算光通量先验矩阵,根据所述光通量估计矩阵和所述光通量先验矩阵构建损失函数,根据所述亮度图像集和损失函数对所述光通量测量深度神经网络模型进行训练,获得优化后的光通量测量深度神经网络权重值及偏移项,并通过优化后的光通量测量深度神经网络计算所述待重建光场的光通量测量矩阵;
S4,利用完成训练的光通量测量深度神经网络获得准确光通量估计矩阵数据集;
S5,根据卷积神经网络架构搭建照度测量深度神经网络模型;
S6,将所述准确光通量估计矩阵数据集输入所述照度测量深度神经网络模型,输出照度分布估计矩阵,根据实际照度计算模型计算得到空间任意位置面元内的照度分布先验矩阵,根据所述照度分布估计矩阵和所述照度分布先验矩阵构建损失函数,对所述照度测量深度神经网络模型进行训练,获得优化后的照度测量深度神经网络权重值及偏移项,并通过优化后的照度测量深度神经网络计算所述待重建光场的照度测量矩阵;
S7,根据卷积神经网络架构搭建空间光强测量深度神经网络模型;
S8,将所述准确光通量估计矩阵数据集输入所述空间光强测量深度神经网络模型,输出空间光强分布估计矩阵,根据空间光强计算模型计算得到空间光强分布先验矩阵,根据所述空间光强分布估计矩阵和所述空间光强分布先验矩阵构建损失函数,对所述空间光强测量深度神经网络模型进行训练,获得优化后的空间光强测量深度神经网络权重值及偏移项,并通过优化后的空间光强测量深度神经网络计算所述待重建光场的空间光强测量矩阵;
S9,利用训练后的所述光通量测量深度神经网络模型、所述照度测量深度神经网络模型和所述空间光强测量深度神经网络模型对所述待重建光场进行光场重建,输出所述待重建光场的光通量测量矩阵、照度测量矩阵及空间光强测量矩阵。
2.根据权利要求1所述的方法,其特征在于,所述S1进一步包括:
利用搭载亮度测量装置的近场分布光度计采集所述待重建光场的各角度亮度图像,所述亮度测量装置包括成像亮度计。
6.一种基于深度学习的近场分布光度测量装置,其特征在于,包括:
数据采集模块,用于采集待重建光场多个角度的亮度图像组成亮度图像集;
驱动模块,用于驱动和控制所述数据采集模块进行数据采集;
模型搭建模块,用于根据卷积神经网络架构搭建光通量测量深度神经网络模型、照度测量深度神经网络模型和空间光强测量深度神经网络模型;
训练模块,用于对所述光通量测量深度神经网络模型、所述照度测量深度神经网络模型和所述空间光强测量深度神经网络模型进行训练;
重建模块,用于通过训练好的光通量测量深度神经网络模型、照度测量深度神经网络模型和空间光强测量深度神经网络模型进行光场重建,输出所述待重建光场的光通量测量矩阵、所述照度测量矩阵及所述空间光强测量矩阵;
所述训练模块具体用于,将所述亮度图像集输入所述光通量测量深度神经网络模型,输出光通量估计矩阵,根据所述亮度图像集计算光通量先验矩阵,根据所述光通量估计矩阵和所述光通量先验矩阵构建损失函数,根据所述亮度图像集和损失函数对所述光通量测量深度神经网络模型进行训练,获得优化后的光通量测量深度神经网络权重值及偏移项,并通过优化后的光通量测量深度神经网络计算所述待重建光场的光通量测量矩阵;
所述训练模块具体用于,利用完成训练的光通量测量深度神经网络获得准确光通量估计矩阵数据集,将所述准确光通量估计矩阵数据集输入所述照度测量深度神经网络模型,输出照度分布估计矩阵,根据实际照度计算模型计算得到空间任意位置面元内的照度分布先验矩阵,根据所述照度分布估计矩阵和所述照度分布先验矩阵构建损失函数,对所述照度测量深度神经网络模型进行训练,获得优化后的照度测量深度神经网络权重值及偏移项,并通过优化后的照度测量深度神经网络计算所述待重建光场的照度测量矩阵;
所述训练模块具体用于,将所述准确光通量估计矩阵数据集输入所述空间光强测量深度神经网络模型,输出空间光强分布估计矩阵,根据空间光强计算模型计算得到空间光强分布先验矩阵,根据所述空间光强分布估计矩阵和所述空间光强分布先验矩阵构建损失函数,对所述空间光强测量深度神经网络模型进行训练,获得优化后的空间光强测量深度神经网络权重值及偏移项,并通过优化后的空间光强测量深度神经网络计算所述待重建光场的空间光强测量矩阵。
7.根据权利要求6所述的装置,其特征在于,所述数据采集模块,具体用于,利用搭载亮度测量装置的近场分布光度计采集所述待重建光场的各角度亮度图像,所述亮度测量装置包括成像亮度计。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110138378.8A CN112903093B (zh) | 2021-02-01 | 2021-02-01 | 基于深度学习的近场分布光度测量方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110138378.8A CN112903093B (zh) | 2021-02-01 | 2021-02-01 | 基于深度学习的近场分布光度测量方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112903093A CN112903093A (zh) | 2021-06-04 |
CN112903093B true CN112903093B (zh) | 2022-04-08 |
Family
ID=76121074
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110138378.8A Active CN112903093B (zh) | 2021-02-01 | 2021-02-01 | 基于深度学习的近场分布光度测量方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112903093B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114529506B (zh) * | 2021-12-31 | 2024-12-20 | 厦门阳光恩耐照明有限公司 | 一种基于机器学习的灯光监测方法和监测系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108827460A (zh) * | 2018-04-25 | 2018-11-16 | 中国科学院南海海洋研究所 | 辐亮度探头和光学测量系统 |
CN109724692A (zh) * | 2018-12-29 | 2019-05-07 | 华南农业大学 | 一种光照度传感器校正方法、系统、存储介质、计算设备 |
CN109949354A (zh) * | 2019-03-13 | 2019-06-28 | 北京信息科技大学 | 一种基于全卷积神经网络的光场深度信息估计方法 |
-
2021
- 2021-02-01 CN CN202110138378.8A patent/CN112903093B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108827460A (zh) * | 2018-04-25 | 2018-11-16 | 中国科学院南海海洋研究所 | 辐亮度探头和光学测量系统 |
CN109724692A (zh) * | 2018-12-29 | 2019-05-07 | 华南农业大学 | 一种光照度传感器校正方法、系统、存储介质、计算设备 |
CN109949354A (zh) * | 2019-03-13 | 2019-06-28 | 北京信息科技大学 | 一种基于全卷积神经网络的光场深度信息估计方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112903093A (zh) | 2021-06-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7413321B2 (ja) | 日常シーン復元エンジン | |
EP3516625B1 (en) | A device and method for obtaining distance information from views | |
TWI722050B (zh) | 單一影像偵測 | |
Zhang et al. | Cameras as rays: Pose estimation via ray diffusion | |
CN108520537B (zh) | 一种基于光度视差的双目深度获取方法 | |
CN102488493B (zh) | 小动物活体多模态分子成像系统和成像方法 | |
CN110443882A (zh) | 基于深度学习算法的光场显微三维重建方法及装置 | |
CN106896069A (zh) | 一种基于彩色数码相机单幅rgb图像的光谱重建方法 | |
CN114174783A (zh) | 用于创建具有改进的图像捕获的局部制剂的系统和方法 | |
CN101947103B (zh) | 全光学生物发光断层成像方法 | |
Ciortan et al. | A practical reflectance transformation imaging pipeline for surface characterization in cultural heritage | |
CN112903093B (zh) | 基于深度学习的近场分布光度测量方法及装置 | |
CN114972284A (zh) | 基于自监督深度学习的无透镜显微成像系统及方法 | |
CN113327305B (zh) | 一种模型驱动的深度学习荧光分子断层成像方法及系统 | |
CN110379015B (zh) | 基于卷积神经网络的火焰场快速监测装置及方法 | |
CN109087341A (zh) | 一种近距离高光谱相机与测距传感器的融合方法 | |
CN112750155A (zh) | 基于卷积神经网络的全景深度估计方法 | |
CN114241059B (zh) | 一种光度立体视觉系统中相机和光源的同步标定方法 | |
TW200931000A (en) | Neural network-based two-dimensional luminance measurement method | |
Ahmad et al. | Single-image-based 3D reconstruction of endoscopic images | |
WO2022256962A1 (zh) | 一种高维材质的自由式采集方法 | |
CN210244394U (zh) | 一种叶片扫描装置及病害识别系统 | |
Mathew et al. | Self-supervised monocular depth estimation for high field of view colonoscopy cameras | |
CN113362466B (zh) | 一种高维材质的自由式采集方法 | |
Visentini-Scarzanella et al. | Tissue shape acquisition with a hybrid structured light and photometric stereo endoscopic system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |