CN114529040A - 一种机电产品装配误差在线预测方法 - Google Patents
一种机电产品装配误差在线预测方法 Download PDFInfo
- Publication number
- CN114529040A CN114529040A CN202210004705.5A CN202210004705A CN114529040A CN 114529040 A CN114529040 A CN 114529040A CN 202210004705 A CN202210004705 A CN 202210004705A CN 114529040 A CN114529040 A CN 114529040A
- Authority
- CN
- China
- Prior art keywords
- kernel
- encoder
- data
- prediction
- sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 67
- 230000006870 function Effects 0.000 claims abstract description 55
- 230000008569 process Effects 0.000 claims abstract description 39
- 238000012360 testing method Methods 0.000 claims abstract description 21
- 230000009467 reduction Effects 0.000 claims abstract description 12
- 238000012549 training Methods 0.000 claims description 50
- 239000011159 matrix material Substances 0.000 claims description 26
- 210000002569 neuron Anatomy 0.000 claims description 10
- 238000011478 gradient descent method Methods 0.000 claims description 8
- 230000003247 decreasing effect Effects 0.000 claims description 6
- 230000004913 activation Effects 0.000 claims description 4
- 238000013528 artificial neural network Methods 0.000 claims description 4
- 238000012512 characterization method Methods 0.000 claims description 4
- 238000010606 normalization Methods 0.000 claims description 4
- 238000007781 pre-processing Methods 0.000 claims description 4
- 238000013507 mapping Methods 0.000 claims description 3
- 230000001174 ascending effect Effects 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 claims description 2
- 230000000717 retained effect Effects 0.000 claims description 2
- 230000008859 change Effects 0.000 claims 1
- 238000004519 manufacturing process Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000003908 quality control method Methods 0.000 description 2
- 238000007405 data analysis Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 239000002574 poison Substances 0.000 description 1
- 231100000614 poison Toxicity 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 229910000679 solder Inorganic materials 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Economics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Strategic Management (AREA)
- General Engineering & Computer Science (AREA)
- Human Resources & Organizations (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Evolutionary Biology (AREA)
- Health & Medical Sciences (AREA)
- Development Economics (AREA)
- Biomedical Technology (AREA)
- Game Theory and Decision Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Entrepreneurship & Innovation (AREA)
- Marketing (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明提出了一种基于自编码器与Boosting‑OSKELM算法的机电产品装配误差在线预测方法,首先针对某一道装配工序,结合其装配工艺与装配误差历史装配数据,构建相应样本数据集;其次基于带有Fine‑Tuning技巧的自编码器对每个样本点的输入工艺数据进行降维,降维后的工艺数据与原装配误差数据组成新的降阶表征数据;接着将降维后的工艺数据输入至Boosting‑KELM模型中,结合在测试集上的预测性能,确定核函数的提升顺序以及对应的超参数;最后根据在线贯序核极限学习机的增量学习递推公式,形成Boosting‑OSKELM模型,从而实现装配误差的在线预测。本方法可对机电产品的装配误差进行在线预测。
Description
技术领域
本发明属于机电产品装配质量领域,特别是一种基于自编码器与Boosting-OSKELM算法的机电产品装配误差在线预测方法。
背景技术
智能制造是机电产品制造的重要方向,对促进机械、信息、电子等行业的发展具有重要意义。机电产品种类繁多、功能多样,已被广泛应用于民用生活、设备生产、海洋探索、航空航天等多个领域,在保证民生和国家战略层面具有重要地位。
机电产品,尤其是高精密装备机电产品,往往有着十分复杂的装配过程,其装配活动多是由装配操作人员在特定的环境下,通过工人手动地,或是操作机器设备,按照规定的装配工艺对产品进行装配。由于装配的不确定性,机电产品装配质量会受到多种不同因素的影响,难以对装配误差进行合理、准确的预测,不利于企业的装配活动的开展与产品质量的控制,加重了企业生产负担。
在机电产品的装配活动中,会产生大量的工业数据,如装配顺序、装配力、焊点应力等。这些数据从多个层级、多个角度隐式地影响着产品装配误差。然而,受限于数据分析能力与装配数据特点,企业并未能很好地利用这部分数据建立起工艺参数与装配误差的映射关系。因此,如何基于这部分工业数据实现对装配误差的科学预测,对于改进装配工艺、提高企业装配效率、降低企业装配成本具有重要意义。
发明内容
本发明的目的在于提供一种基于自编码器与Boosting-OSKELM算法的机电产品装配误差在线预测方法,有利于促进对机电产品装配过程质量控制与装配工艺改善,推动企业智能制造的实施。
实现本发明目的的技术解决方案为:
一种基于自编码器与Boosting-OSKELM算法的机电产品装配误差在线预测方法,包括以下步骤:
步骤1、构建训练样本数据集:确定机电产品装配线中某一工序的装配工艺参数与装配误差;根据历史装配过程数据,组建样本集,每个样本点的输入即为工序的装配工艺参数,输出即为与之对应的装配误差;最后,对该样本集的输入与输出分别做无量纲化处理;最后,将样本数据分为训练集与测试集;
步骤2、基于带有Fine-Tuning技巧的自编码器进行样本数据降阶表征:根据样本集输入维度数目,搭建自编码器神经网络结构;该神经网络结构分为编码器与解码器部分,编码器是由神经元数量逐渐减少的网络层堆叠而成,而解码器是由神经元数量逐渐增加的网络层堆叠而成;接着,在编码器的输出层拼接多层感知机,其输出结果为所要预测的装配误差;然后,结合修正后的整体网络损失函数,使用梯度下降法更新整体网络连接权重与偏置;训练完成后,将整体网络前部的自编码器剥离下来,结合自编码器重构损失函数,重新训练;随后,将自编码器前部的编码器部分剥离下来,并将原样本数据中的工艺输入数据输入至该结构中,输出结果即为原样本输入数据的降维结果;最后,将该降维结果与原样本输出数据组建成新的训练数据集,从而实现样本数据的降阶表征;
步骤3、基于Boosting-OSKELM的装配误差在线预测:确定可供选择的核函数以及核函数中可供选取的超参数取值;采用Boosting提升策略,确定不同核的提升顺序;在既定超参数与提升顺序下,使用基于第一个核的核极限学习机在降阶后的训练集上进行预测,并将预测结果的残差替换掉样本集中的输出;同样地,使用基于第二个核的核极限学习机在样本集上进行预测,并将预测结果的残差替换掉上一次的残差,依此类推,直至所有的核极限学习机均完成预测;随后,将不同核极限学习机的预测结果进行累加,即可得到Boosting-KELM的预测性能;通过对预测性能的比较,筛选出预测精度最高的Boosting-KELM模型及其对应的核函数超参数与提升顺序;最后,基于最优超参数与最优提升顺序,按照在线贯序极限学习机的增量学习递推公式,实现装配误差的在线预测。本发明与现有技术相比,其显著优点是:
(1)在复杂机电产品的装配中,一道装配工序可能牵涉到大量的装配工艺,因而样本数据点处于较高维的空间中,这就使得装配误差预测易受到多个不同维度数据的影响。本发明提出的降阶表征能够缩小高维空间样本的距离,尽量保留样本有价值的信息,既有利于提升预测算法的推断速度,又有利于预测算法预测精度的提升。
(2)对于某些复杂机电产品,企业的生产多是属于小批量模式,这就使得可提供机器学习的样本数据量并不充足。工程上,常用克里金算法来解决小样本问题,该方法虽然不太依赖数据量,但是比较依赖数据的分布,倘若数据集分布不佳,克里金可能出现难以收敛的情况。除此以外,诸如k近邻算法、支持向量回归等统计学习方法也能够解决小样本问题,但是这些算法往往采用的是离线学习的方式,对于装配过程中产生的新样本数据并没有很好的在线学习方式。本发明提出的基于Boosting-OSKELM算法的预测方法,不仅吸收了极限学习机的优点:极快的学习速度与网络权重的全局最优,还引入了增量学习,能够较好地适应小样本环境,同时也能应对传统在线学习中的“数据毒药”问题。
附图说明
图1为一种基于自编码器与Boosting-OSKELM算法的装配误差在线预测方法流程图。
图2为带有Fine-Tuning技巧的自编码器的训练流程。
图3为Boosting提升的原理。
具体实施方式
下面结合附图及具体实施例对本发明做进一步的介绍。
附图1是一种基于自编码器与Boosting-OSKELM算法的装配误差在线预测方法流程图,本发明包括以下步骤:
步骤1、构建训练样本数据集:
根据某一工序历史数据,构建其相应的数据集,将数据集的80%划分为训练集D,剩余的20%划分为测试集E,二者仅在样本数据量上有差别,而在特征结构及输出结构上保持一致。
训练集矩阵中,每一行为一个样本点,N为样本数量,M1与M2分别为工艺参数与误差的维度数目;对于第i个样本点,将其输入与输出分别记为xi=[xi1,xi2,xi3,...]与yi=[yi1,yi2,yi3,...];按照归一化数据预处理方法,将训练集矩阵D的每一列数据放缩至[0,1]的范围内,归一化公式如下:
同样地,对于测试集E也要进行归一化处理,其归一化公式如下:
式中,e(j)与e′(j)分别为原测试集矩阵与预处理后的第j列。最后,将预处理后的训练集矩阵与测试集矩阵分别记为D′和E′。
步骤2、基于带有Fine-Tuning技巧的自编码器进行样本数据降阶表征:
降阶表征就是一种特征抽取方法,能够有效地去除特征与特征之间的冗余、复杂关系,利于下一步预测算法的实施。
附图2为带有Fine-Tuning技巧的自编码器的训练流程。
(1)搭建预测网络结构:自编码器的输入层与输出层的神经元数目与训练集中的输入维度M1一致,编码器部分与解码器部分呈对称结构,中间隐层神经元遵循先逐渐减小再逐渐增大的原则,激活函数选择Tanh函数,Tanh函数如下:
多层感知机的输入层神经元数目为M1,输出层的数目与训练集中的输出维度数目M2一致,其中间隐层元数目遵循先增大再减小的原则,激活函数选择ReLU函数,ReLU函数如下:
在确定自编码器与多层感知机的网络结构后,将多层感知机的输入层拼接在自编码器的输出层,形成整体网络。
(2)初始化:随机初始化整体网络连接权重W与偏置b、设置优化器学习率η以及终止条件迭代总次数Epoch。
(3)梯度下降法更新网络连接权重:对整体网络结构的损失函数按照下式进行修正:
L=α1L1+α2L2
式中,α1与α2为平衡系数,L1为自编码器的重构损失,L2为整体网络的预测损失,二者的计算公式如下所示:
式中,f(·)与g(·)分别表示编码器与解码器,W(1)、b(1)与W(2)、b(2)分别为编码器与解码器对应的权重与偏置,H(·)表示整体网络。
根据(2)中初始化的网络参数,将归一后的X′输入至整体网络结构,得到对应的损失L(X′),接着使用梯度下降法对网络连接权重与偏置进行更新,更新迭代公式如下所示:
按照上式,在指定的终止条件迭代总次数Epoch内更新网络参数,并分别绘制出训练集与测试集上损失L随迭代的变化情况,采用Early-Stopping策略选取最佳网络参数。
(4)精调自编码器网络连接权重:整体网络训练完成后,将前部的自编码器剥离下来,保留其内部网络内部权重;根据重构损失函数,使用梯度下降法继续训练其内部参数;同样地,也需绘制出训练集与测试集上损失L1随迭代的变化情况,并采用Early-Stopping策略选取最佳自编码器网路内部参数。
(5)将自编码器中的编码器部分剥离下来,并保留(3)中确定的自编码器网络内部参数;编码器的输入为数据集D′中的X′,其输出结果为输入特征的降维结果;与归一化后的训练集输出Y′组成新的训练集即完成了训练数据集的降阶表征。
步骤3、基于Boosting-OSKELM进行装配误差在线预测:
(1)确定核函数类型:核函数是一种常用的解决非线性问题的方法,它将原来的特征空间中的数据映射到新的高维特征空间中。学习是隐式地在新特征空间进行的,不需要显式地定义特征空间核映射函数。根据Mercer条件定义核矩阵Ω,如下式所示:
式中,K(xi,xj)表示训练集中第i个样本与第j个样本的核函数关系,其输出结果为一个标量。常见的核函数有:
1)多项式核函数:
K(xi,xj)=(a·xi·xj+b)p
2)高斯核函数:
3)线性核函数(线性核即无核):
K(xi,xj)=xi·xj
上述核函数中的a,b,p,σ均为常数。
在一些有明显线性关系的工序中,可以优先选择线性核;对于无明显线性关系的工序,则优先选择诸如高斯核之类的非线性核。
(2)确定核函数超参数:Boosting提升的原理如附图3所示,根据(1)中确定的核函数,枚举出各种不同的提升顺序,例如高斯核-线性核-多项式核的提升顺序,提升顺序不必非要不同的核函数,也可以对同一核进行多次提升,例如高斯核-高斯核-高斯核。根据经验给出可供选择的核函数超参取值,常见的超参数取值有:a=1,2,3;b=1,2,3;p=1,2,3;σ=10,50,100。随后,在每一种提升顺序上,进行网格搜索,使用不同的超参数组合在训练集上学习,并在测试集上测试,从而选取出最优测试性能所对应的提升顺序与超参组合。
(3)在线序贯核极限学习机增量学习:在既定核函数与超参的情况下,设截至t时刻的样本集{(x1,t1),...,(xt,tt)},对于第t+1时刻产生的新样本xt+1,可根据下式进行预测:
式中,I表示单位矩阵,C取一个较大的数,通常取1000,Tt为数据集中输出的某一列。
记:
kt(x)=[K(xt+1,x1),K(xt+1,x2),...,K(xt+1,xN)]
根据块矩阵求逆公式,得到矩阵At+1的逆矩阵为:
同样地,对于t+2时刻的装配误差预测结果,即为:
上述过程仅为单个核的装配误差预测结果,按照(2)中的最优提升顺序及最优超参,使用不同核对应的在线序贯核极限学习机逐个预测,并将各预测残差结果相加,即可得到最终的装配误差预测结果。
Claims (4)
1.一种基于自编码器与Boosting-OSKELM算法的机电产品装配误差在线预测方法,其特征在于,包括以下步骤:
步骤1、构建训练样本数据集:确定机电产品装配线中某一工序的装配工艺参数与装配误差;根据历史装配过程数据,组建样本集,每个样本点的输入即为工序的装配工艺参数,输出即为与之对应的装配误差;随后,对该样本集的输入与输出分别做无量纲化处理;最后,将样本数据分为训练集与测试集;
步骤2、基于带有Fine-Tuning技巧的自编码器进行样本数据降阶表征:根据样本集输入维度数目,搭建自编码器神经网络结构;该神经网络结构分为编码器与解码器部分,编码器是由神经元数量逐渐减少的网络层堆叠而成,而解码器是由神经元数量逐渐增加的网络层堆叠而成;接着,在编码器的输出层拼接多层感知机,其输出结果为所要预测的装配误差;然后,结合修正后的整体网络损失函数,使用梯度下降法更新整体网络连接权重与偏置;训练完成后,将整体网络前部的自编码器剥离下来,结合自编码器重构损失函数,重新训练;随后,将自编码器前部的编码器部分剥离下来,并将原样本数据中的工艺输入数据输入至该结构中,输出结果即为原样本输入数据的降维结果;最后,将该降维结果与原样本输出数据组建成新的训练数据集,从而实现样本数据的降阶表征;
步骤3、基于Boosting-OSKELM的装配误差在线预测:确定可供选择的核函数以及核函数中可供选取的超参数取值;采用Boosting提升策略,确定不同核的提升顺序;在既定超参数与提升顺序下,使用基于第一个核的核极限学习机在降阶后的训练集上进行预测,并将预测结果的残差替换掉样本集中的输出;同样地,使用基于第二个核的核极限学习机在样本集上进行预测,并将预测结果的残差替换掉上一次的残差,依此类推,直至所有的核极限学习机均完成预测;随后,将不同核极限学习机的预测结果进行累加,即可得到Boosting-KELM的预测性能;通过对预测性能的比较,筛选出预测精度最高的Boosting-KELM模型及其对应的核函数超参数与提升顺序;最后,基于最优超参数与最优提升顺序,按照在线贯序极限学习机的增量学习递推公式,实现装配误差的在线预测。
2.根据权利要求1所述的基于自编码器与Boosting-OSKELM算法的机电产品装配误差在线预测方法,其特征在于,步骤1、构建训练样本数据集,具体包括以下步骤:
根据某一工序历史数据,构建其相应的数据集,将数据集的80%划分为训练集D,剩余的20%划分为测试集E,二者仅在样本数据量上有差别,而在特征结构及输出结构上保持一致;
训练集矩阵中,每一行为一个样本点,N为样本数量,M1与M2分别为工艺参数与误差的维度数目;对于第i个样本点,将其输入与输出分别记为xi=[xi1,xi2,xi3,...]与yi=[yi1,yi2,yi3,...];按照归一化数据预处理方法,将训练集矩阵D的每一列数据放缩至[0,1]的范围内,归一化公式如下:
同样地,对于测试集E也要进行归一化处理,其归一化公式如下:
式中,e(j)与e′(j)分别为原测试集矩阵与预处理后的第j列。最后,将预处理后的训练集矩阵与测试集矩阵分别记为D′和E′。
3.根据权利要求1所述的基于自编码器与Boosting-OSKELM算法的机电产品装配误差在线预测方法,其特征在于,步骤2、基于自编码器进行样本数据降阶表征,具体包括以下步骤:
(1)基于Fine-Tuning技巧搭建预测网络结构:自编码器的输入层与输出层的神经元数目与训练集中的输入维度数目M1一致,编码器部分与解码器部分呈对称结构,中间隐层神经元遵循先逐渐减小再逐渐增大的原则,激活函数选择Tanh函数,Tanh函数如下:
多层感知机的输入层神经元数目为M1,输出层的数目与训练集中的输出维度数目M2一致,其中间隐层元数目遵循先增大再减小的原则,激活函数选择ReLU函数,ReLU函数如下:
在确定自编码器与多层感知机的网络结构后,将多层感知机的输入层拼接在自编码器的输出层,形成整体网络;
(2)初始化:随机初始化整体网络连接权重W与偏置b、设置优化器学习率η以及终止条件迭代总次数Epoch;
(3)梯度下降法更新网络连接权重:对整体网络结构的损失函数按照下式进行修正:
L=α1L1+α2L2
式中,α1与α2为平衡系数,L1为自编码器的重构损失,L2为整体网络的预测损失,二者的计算公式如下所示:
式中,f(·)与g(·)分别表示编码器与解码器,W(1)、b(1)与W(2)、b(2)分别为编码器与解码器对应的权重与偏置,H(·)表示整体网络;
根据(2)中初始化的网络参数,将归一后的X′输入至整体网络结构,得到对应的损失L(X′),接着使用梯度下降法对网络连接权重与偏置进行更新,更新迭代公式如下所示:
按照上式,在指定的终止条件迭代总次数Epoch内更新网络参数,并分别绘制出训练集与测试集上损失L随迭代的变化情况,采用Early-Stopping策略选取最佳网络参数;
(4)精调自编码器网络连接权重:整体网络训练完成后,将前部的自编码器剥离下来,保留其内部网络内部权重;根据重构损失函数,使用梯度下降法继续训练其内部参数;同样地,也需绘制出训练集与测试集上损失L1随迭代的变化情况,并采用Early-Stopping策略选取最佳自编码器网路内部参数;
4.根据权利要求1所述的基于自编码器与Boosting-OSKELM算法的机电产品装配误差在线预测方法,其特征在于,基于Boosting-OSKELM进行装配误差在线预测,具体包括以下步骤:
(1)确定核函数类型:核函数是一种常用的解决非线性问题的方法,它将原来的特征空间中的数据映射到新的高维特征空间中。学习是隐式地在新特征空间进行的,不需要显式地定义特征空间核映射函数。根据Mercer条件定义核矩阵Ω,如下式所示:
式中,K(xi,xj)表示训练集中第i个样本与第j个样本的核函数关系,其输出结果为一个标量;常见的核函数有:
1)多项式核函数:
K(xi,xj)=(a·xi·xj+b)p
2)高斯核函数:
3)线性核函数(线性核即无核):
K(xi,xj)=xi·xj
上述核函数中的a,b,p,σ均为常数;
在一些有明显线性关系的工序中,可以优先选择线性核;对于无明显线性关系的工序,则优先选择诸如高斯核之类的非线性核;
(2)确定核函数超参数:根据(1)中确定的核函数,枚举出各种不同的提升顺序,例如高斯核-线性核-多项式核的提升顺序,提升顺序不必非要不同的核函数,也可以对同一核进行多次提升,例如高斯核-高斯核-高斯核。根据经验给出可供选择的核函数超参取值,常见的超参数取值有:a=1,2,3;b=1,2,3;p=1,2,3;σ=10,50,100。随后,在每一种提升顺序上,进行网格搜索,使用不同的超参数组合在训练集上学习,并在测试集上测试,从而选取出最优测试性能所对应的提升顺序与超参组合;
(3)在线序贯核极限学习机增量学习:在既定核函数与超参的情况下,设截至t时刻的样本集{(x1,t1),...,(xt,tt)},对于第t+1时刻产生的新样本xt+1,可根据下式进行预测:
式中,I表示单位矩阵,C取一个较大的数,通常取1000,Tt为数据集中输出的某一列;
记:
kt(x)=[K(xt+1,x1),K(xt+1,x2),...,K(xt+1,xN)]
根据块矩阵求逆公式,得到矩阵At+1的逆矩阵为:
同样地,对于t+2时刻的装配误差预测结果,即为:
上述过程仅为单个核的装配误差预测结果,按照(2)中的最优提升顺序及最优超参,使用不同核对应的在线序贯核极限学习机逐个预测,并将各预测残差结果相加,即可得到最终的装配误差预测结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210004705.5A CN114529040A (zh) | 2022-01-05 | 2022-01-05 | 一种机电产品装配误差在线预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210004705.5A CN114529040A (zh) | 2022-01-05 | 2022-01-05 | 一种机电产品装配误差在线预测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114529040A true CN114529040A (zh) | 2022-05-24 |
Family
ID=81620644
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210004705.5A Pending CN114529040A (zh) | 2022-01-05 | 2022-01-05 | 一种机电产品装配误差在线预测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114529040A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116384257A (zh) * | 2023-05-29 | 2023-07-04 | 浙江大学 | 一种空分整装冷箱装配误差预测与公差优化方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102016201622A1 (de) * | 2016-02-03 | 2017-08-03 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und System zur Vermeidung von Montagefehlern |
CN109948207A (zh) * | 2019-03-06 | 2019-06-28 | 西安交通大学 | 一种航空发动机高压转子装配误差预测方法 |
CN110245781A (zh) * | 2019-05-14 | 2019-09-17 | 贵州科学院 | 基于自编码器的极限学习机在工业生产预测的建模应用 |
-
2022
- 2022-01-05 CN CN202210004705.5A patent/CN114529040A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102016201622A1 (de) * | 2016-02-03 | 2017-08-03 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und System zur Vermeidung von Montagefehlern |
CN109948207A (zh) * | 2019-03-06 | 2019-06-28 | 西安交通大学 | 一种航空发动机高压转子装配误差预测方法 |
CN110245781A (zh) * | 2019-05-14 | 2019-09-17 | 贵州科学院 | 基于自编码器的极限学习机在工业生产预测的建模应用 |
Non-Patent Citations (2)
Title |
---|
YIFEI TONG ET AL: "Prediction of Array Antenna Assembly Accuracy Based on Auto-Encoder and Boosting-OSKELM", PROCESSES, vol. 11, 11 May 2023 (2023-05-11), pages 1460 * |
周彤: "阵列天线装配质量决策及优化研究", 南京理工大学硕士学位论文, 15 February 2024 (2024-02-15) * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116384257A (zh) * | 2023-05-29 | 2023-07-04 | 浙江大学 | 一种空分整装冷箱装配误差预测与公差优化方法 |
CN116384257B (zh) * | 2023-05-29 | 2023-09-29 | 浙江大学 | 一种空分整装冷箱装配误差预测与公差优化方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112580263B (zh) | 基于时空特征融合的涡扇发动机剩余使用寿命预测方法 | |
CN111027772B (zh) | 基于pca-dbilstm的多因素短期负荷预测方法 | |
Li et al. | Smooth group L1/2 regularization for input layer of feedforward neural networks | |
CN110707763B (zh) | 一种基于集成学习的交直流配电网负荷预测方法 | |
Xiang et al. | A concise self-adapting deep learning network for machine remaining useful life prediction | |
Nasser et al. | A hybrid of convolutional neural network and long short-term memory network approach to predictive maintenance | |
Chinnathambi et al. | Deep neural networks (DNN) for day-ahead electricity price markets | |
CN114004346B (zh) | 基于门控堆叠同构自编码器的软测量建模方法及存储介质 | |
CN114218872A (zh) | 基于dbn-lstm半监督联合模型的剩余使用寿命预测方法 | |
CN113191092A (zh) | 一种基于正交增量随机配置网络的工业过程产品质量软测量方法 | |
CN110991605A (zh) | 多变量时间序列深度信念网络的低压铸造模温预测方法 | |
CN110222387A (zh) | 基于混合漏积分crj网络的多元钻井时间序列预测方法 | |
CN112288140A (zh) | 一种基于Keras的短期电力负荷预测方法、存储介质和设备 | |
CN112508286A (zh) | 一种基于Kmeans-BiLSTM-DMD模型的短期负荷预测方法 | |
CN115062528A (zh) | 一种针对工业过程时序数据的预测方法 | |
CN113836783A (zh) | 斜拉桥主梁温致挠度监测基准值的数字回归模型建模方法 | |
CN112578089A (zh) | 一种基于改进tcn的空气污染物浓度预测方法 | |
CN116681159A (zh) | 一种基于鲸鱼优化算法和dresn的短期电力负荷预测方法 | |
CN114384427B (zh) | 基于量子神经网络的锂离子电池容量非线性退化预测方法 | |
CN114529040A (zh) | 一种机电产品装配误差在线预测方法 | |
CN110378035A (zh) | 一种基于深度学习的加氢裂化软测量建模方法 | |
CN111461229A (zh) | 一种基于目标传递和线搜索的深层神经网络优化及图像分类方法 | |
WO2023151201A1 (zh) | 一种快速灵活全纯嵌入式神经网络广域寻优训练方法 | |
CN114638421A (zh) | 一种发电机组备件需求的预测方法 | |
CN114297795A (zh) | 一种基于PR-Trans的机械设备剩余寿命预测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |