CN107330294A - 带遗忘因子的在线时序多隐含层极限学习机的应用方法 - Google Patents
带遗忘因子的在线时序多隐含层极限学习机的应用方法 Download PDFInfo
- Publication number
- CN107330294A CN107330294A CN201710577695.3A CN201710577695A CN107330294A CN 107330294 A CN107330294 A CN 107330294A CN 201710577695 A CN201710577695 A CN 201710577695A CN 107330294 A CN107330294 A CN 107330294A
- Authority
- CN
- China
- Prior art keywords
- mtr
- mtd
- mrow
- msub
- mtable
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16Z—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS, NOT OTHERWISE PROVIDED FOR
- G16Z99/00—Subject matter not provided for in other main groups of this subclass
Landscapes
- External Artificial Organs (AREA)
Abstract
本发明涉及一种带遗忘因子的在线时序多隐含层极限学习机的应用方法,包括以下步骤:1)求一个具有多隐含层的极限学习机模型,得到该多隐含层极限学习机模型的输出表达式;2)对上述多隐含层极限学习机模型进行实时更新,输出更新后模型的表达式。本发明采用带遗忘因子的在线时序多隐含层极限学习机的方法来处理间歇过程的数据变化,法既能根据数据结构上的变化来调整模型,也可以对模型参数进行深度优化,达到更好的效果,保证最终的隐藏输出更接近预期的隐藏输出。
Description
技术领域
本发明涉及一种学习机,具体为一种带遗忘因子的在线时序多隐含层极限学习机的应用方法。
背景技术
由于间歇过程的变量间存在着很强的非线性和耦合性,且很多实时数据都随时间变化,具有很强的时效性,而传统的单隐层极限学习机或者多隐层极限学习机都是事先根据建立好的模型预测结果输出,不能根据数据结构上的变化来调整模型的变化,模型太过僵硬;单隐层的极限学习机对模型结构参数的优化不够彻底,不能有效的减少噪声的干扰,无法保证最终的隐藏输出更接近预期的隐藏输出。因此需要使用集成的在线时序单隐层极限学习机(EOS-ELM),或者带遗忘机制的集成的在线时序单隐层极限学习机(FOS-ELM),它们可以根据数据结构上的变化调整模型变化,适应不同的时间阶段,达到更好地效果;由于实时变化的数据都带有一系列的不可避免噪声信号的干扰。
目前,能够满足上述要求的在线时序学习机尚未见报道。
发明内容
针对现有技术中单隐层极限学习机或者多隐层极限学习机存在不能根据数据结构上的变化来调整模型变化等不足,本发明要解决的问题是提供一种既能根据数据结构上的变化来调整模型,也可以对模型参数进行深度优化的带遗忘因子的在线时序多隐含层极限学习机的应用方法。
为解决上述技术问题,本发明采用的技术方案是:
本发明一种带遗忘因子的在线时序多隐含层极限学习机的应用方法,包括以下步骤:
1)求一个具有多隐含层的极限学习机模型,得到该多隐含层极限学习机模型的输出表达式;
2)对上述多隐含层极限学习机模型进行实时更新,输出更新后模型的表达式。
步骤1)中,求一个具有多隐含层的极限学习机模型,得到该多隐含层极限学习机模型的输出表达式,具体为:
11)给定样本和多个隐含层的网络结构,隐含层的激活函数为g,网络输出为g(a,b,X),其中a为输入层和第一隐含层之间的权重,b为第一隐层的偏差,X为输入矩阵;
12)假设数据分批次变化,且每一批次都持续S个单位时间,在第k-th个单位时间的数据表示为Nj为j批次数据的个数;χk在[k k+s]的范围内有效,j=0,1,…k.,ti为标志变量,在第(k+1)-th个单位时间的数据表示为k为任意大的正整数,xi为输入样本,ti为样本标志量,th为批次。
13)假设k≥s-1,训练数据的个数远大于隐藏层节点的数目,Zk+1为第(k+1)-th个单位时间预测出的结果,设l=k-s+1,k-s+2,…k;数据在l-th时刻网络第一个隐含层的输出为:
(ai,bi)为输入层和第一个隐含层之间的权值与阈值,i=1,...L.随机初始化;G为隐含层激活函数,T为[k-s+1,k]内批数据样本的标志量,Tl为第l批数据样本的标志量;l为在[k-s+1,k]内的一个正整数;
得到最终隐含层的输出权值β为:
且
14)假设第二个隐含层的权值和偏差为W1,B1,则第二个隐含层的输出为:
15)假设WHE=[B1 W1],则第二个隐含层的权值和偏差通过计算且假设HE=[1 H]T,1为元素全为1的一维行向量,g-1(x)为激活函数的g(x)反函数,WHE和HE为假设的变量;
16)更新第二个隐含层的输出为H2=g(WHEHE);更新最终隐含层的输出权值β为
17)假设第三个隐含层的权值和偏差为W2,B2,则第三个隐含层的输出为
18)假设WHE1=[B2 W2],则第三个隐含层的权值和偏差通过计算且HE1=[1 H2]T,1为元素全为1的一维行向量;g-1(x)为激活函数的g(x)反函数;WHE1、HE1为为假设的变量;
更新第三个隐含层的输出为:
H4=g(WHE1HE1) (2)
19)更新最终隐含层的输出权值β为:
则最终的输出为f=βnew1H4。
对于具有多个隐含层的网络结构,循环迭代公式(1)、(2)、(3),三个隐层迭代一次,四个隐层迭代两次,N个隐层迭代N-2次,每次迭代结束使得βnew=βnew1,H2=H4。
步骤2)中,对上述多隐含层极限学习机模型进行实时更新,输出更新后模型的表达式,具体为:
21)假设Zk+2为第(k+2)-th个单位时间预测出的结果,在(k+1)-th时间的结果已知的情况下,与上一次保持同样的(ai,bi),i=1,...L,输出权值表示为:
且则Pk+1由Pk表示为:
且
则
22)假设第二个隐含层的权值和偏差为W1,B1,则第二个隐含层的输出为
23)假设WHE=[B1 W1],则第二个隐含层的权值和偏差通过计算且HE=[1 H]T,1为元素全为1的一维行向量;g-1(x)为激活函数的g(x)反函数,
24)更新第二个隐含层的输出为H2=g(WHEHE);更新最终隐含层的输出权值β为
25)假设第三个隐含层的权值和偏差为W2,B2,则第三个隐含层的输出为
26)假设WHE1=[B2 W2],则第三个隐含层的权值和偏差通过计算且HE1=[1 H2]T,1为元素全为1的一维行向量,g-1(x)为激活函数的g(x)反函数;
27)更新第三个隐含层的输出为:H4=g(WHE1HE1) (5)
28)更新最终隐含层的输出权值β为:
则最终的输出为f=βnew1H4。
本发明还包括以下步骤:
对于具有多个隐含层的网络结构,循环迭代公式(4)、(5)、(6),三个隐层迭代一次,四个隐层迭代两次,N个隐层迭代N-2次,每次迭代结束,使得βnew=βnew1,H2=H4。
本发明具有以下有益效果及优点:
1.本发明采用带遗忘因子的在线时序多隐含层极限学习机的方法来处理间歇过程的数据变化,法既能根据数据结构上的变化来调整模型,也可以对模型参数进行深度优化,达到更好的效果,保证最终的隐藏输出更接近预期的隐藏输出。
附图说明
图1为FOS-ELM模型和FOS-MELM模型下,在每一批次的数据只有2个有效时间时,训练集的均方根误差值;
图2为FOS-ELM模型和FOS-MELM模型下,在每一批次的数据只有2个有效时间时,测试集的均方根误差值;
图3为FOS-ELM模型和FOS-MELM模型下,在每一批次的数据只有3个有效时间时,训练集的均方根误差值;
图4为FOS-ELM模型和FOS-MELM模型下,在每一批次的数据只有3个有效时间时,测试集的均方根误差值。
具体实施方式
下面结合说明书附图对本发明作进一步阐述。
为了使训练输出更加接近于实际输出,考虑到单隐层的极限学习机对模型结构参数的优化不够彻底,不能有效的减少噪声的干扰,因此为了保证最终的隐藏输出更接近预期的隐藏输出,结合以前的改进极限学习机的优势成果,本发明用一种带遗忘因子的在线时序多隐含层极限学习机的方法来处理间歇过程的数据变化,这种方法既能根据数据结构上的变化来调整模型,也可以对模型参数进行深度优化,以达到更好地效果。
本发明带遗忘因子的在线时序多隐含层极限学习机的应用方法包括以下步骤:
1)求一个具有多隐含层的极限学习机模型,得到该多隐含层极限学习机模型的输出表达式;
2)对上述多隐含层极限学习机模型进行实时更新,输出更新后模型的表达式。
本实施例使用一个带有三个隐含层的ELM网络结构为例,来分析带遗忘机制的在线时序多隐层极值学习机(FOS-MELM)的算法步骤。步骤1)中,求一个具有多隐含层的极限学习机模型,得到该多隐含层极限学习机模型的输出表达式,具体为:
11)首先给定样本和三个隐含层的网络结构(每个隐含层含有L个节点),隐含层的激活函数选择为g,因此网络输出为g(a,b,X),其中a为输入层和第一隐含层之间的权重,b为第一隐层的偏差,X为输入矩阵;
12)假设数据是一批一批的变化,且每一批都持续S个单位时间。因此在第k-th个单位时间的数据可以表示为并且Nj为j批次数据的个数,χk在[kk+s]的范围内有效j=0,1,…k.,ti为标志变量。所以在第(k+1)-th个单位时间的数据可以表示为
13)假设k≥s-1,训练数据的个数远大于隐藏层节点的数目,Zk+1为第(k+1)-th个单位时间预测出的结果,设l=k-s+1,k-s+2,…k.。数据在l-th时刻网络第一个隐含层的输出为:
(ai,bi)为输入层和第一个隐含层之间的权值与阈值,i=1,...L.为随机初始化的;可以得到最终隐含层的输出权值β为:
且
24)假设第二个隐含层的权值和偏差为W1,B1,则第二个隐含层的输出为:
15)假设WHE=[B1 W1],则第二个隐含层的权值和偏差通过计算且HE=[1 H]T,1为元素全为1的一维行向量。g-1(x)为激活函数的g(x)反函数,
16)更新第二个隐含层的输出为H2=g(WHEHE);更新最终隐含层的输出权值β为
17)现在假设第三个隐含层的权值和偏差为W2,B2,则第三个隐含层的输出为
18)假设WHE1=[B2 W2],则第三个隐含层的权值和偏差通过计算且HE1=[1 H2]T,1为元素全为1的一维行向量;g-1(x)为激活函数的g(x)反函数;更新第三个隐含层的输出为H4=g(WHE1HE1)(2)
19)更新最终隐含层的输出权值β为
则最终的输出为f=βnew1H4。
对于具有多个隐含层的网络结构,循环迭代公式(1)、(2)、(3),三个隐层迭代一次,四个隐层迭代两次,N个隐层迭代N-2次,每次迭代结束使得βnew=βnew1,H2=H4。
步骤2)中,对上述多隐含层极限学习机模型进行实时更新,输出更新后模型的表达式,具体为:
21)假设Zk+2为第(k+2)-th个单位时间预测出的结果,在(k+1)-th时间的结果已知的情况下,与上一次保持同样的(ai,bi),i=1,...L;输出权值可以表示为:
且则Pk+1可以由Pk表示为
且
则
22)现在假设第二个隐含层的权值和偏差为W1,B1,则第二个隐含层的输出为
23)现在假设WHE=[B1 W1],则第二个隐含层的权值和偏差通过计算且HE=[1 H]T,1为元素全为1的一维行向量,g-1(x)为激活函数的g(x)反函数,
24)更新第二个隐含层的输出为H2=g(WHEHE);更新最终隐含层的输出权值β为
25)现在假设第三个隐含层的权值和偏差为W2,B2,则第三个隐含层的输出为
26)现在假设WHE1=[B2 W2],则第三个隐含层的权值和偏差通过计算且HE1=[1 H2]T,1为元素全为1的一维行向量。g-1(x)为激活函数的g(x)反函数;
27)更新第三个隐含层的输出为H4=g(WHE1HE1) (5)
28)更新最终隐含层的输出权值β为
则最终的输出为f=βnew1H4。
对于具有多个隐含层的网络结构,循环迭代公式(4)、(5)、(6),三个隐层迭代一次,四个隐层迭代两次,N个隐层迭代N-2次,每次迭代结束,使得βnew=βnew1,H2=H4。
本实施例采用苯乙烯的聚合反应器作为研究对象,该反应器的生产目的是通过调节反应器的温度,使得反应的转化率、反应产物的数均链长和重均链长在反应结束时接近最优。反应的机理模型如下:
表3.2标称参数值
式中T表示反应器的绝对温度,Tc为摄氏温度值,Aw和B为重均链长与温度的相关系数,Am和Em为单体聚合反应的频率因子和激活能量,r1-r4为密度-温度修正值,Mm和χ分别为单体分子重量和聚合体相互作用参数。产品的质量指标包括转化率y1,无量纲数均链长y2,无量纲重均链长y3,即终点质量指标为:y=[y1(tf)y2(tf)y3(tf)],tf代表终点时刻。设总反应时间设定为400分钟,控制变量为反应器温度T,按时间平均分成20个区间段,在每一段内温度保持恒定,即过程变量为X=[T1 T2 T3 … T20],方程中的参数由表3.2给出。产生60个批次的数据X(60×20),在反应器上实施得到质量变量矩阵Y(60×3)。取前20个数据作为训练样本,建立初始模型;中间20个样本作为更新样本;后20个数据作为测试样本,用于检验模型预测效果。建模前选取激励函数为sigmoid函数。
如图1~4所示,图1、2分别为当每一批次的数据只有2个有效时间时,训练集与测试集的均方根误差值在两种不同的模型下(FOS-ELM和FOS-MELM)和不同的隐含层节点;图3、4分别为当每一批次的数据只有3个有效时间时,训练集与测试集的均方根误差值在两种不同的模型下(FOS-ELM和FOS-MELM)和不同的隐含层节点。
以上图示说明,由于聚合反应器的参数变化有时效性,为了有效的预测温度值,我们采用本方法在线时序更新系统模型,减少甚至避免数据剧烈变化对模型以及预测输出带来的影响。
Claims (5)
1.一种带遗忘因子的在线时序多隐含层极限学习机的应用方法,其特征在于包括以下步骤:
1)求一个具有多隐含层的极限学习机模型,得到该多隐含层极限学习机模型的输出表达式;
2)对上述多隐含层极限学习机模型进行实时更新,输出更新后模型的表达式。
2.根据权利要求1所述的带遗忘因子的在线时序多隐含层极限学习机的应用方法,其特征在于:
步骤1)中,求一个具有多隐含层的极限学习机模型,得到该多隐含层极限学习机模型的输出表达式,具体为:
11)给定样本和多个隐含层的网络结构,隐含层的激活函数为g,网络输出为g(a,b,X),其中a为输入层和第一隐含层之间的权重,b为第一隐层的偏差,X为输入矩阵;
12)假设数据分批次变化,且每一批次都持续S个单位时间,在第k-th个单位时间的数据表示为Nj为j批次数据的个数;χk在[k k+s]的范围内有效,j=0,1,…k.,ti为标志变量,在第(k+1)-th个单位时间的数据表示为k为任意大的正整数,xi为输入样本,ti为样本标志量,th为批次。
13)假设k≥s-1,训练数据的个数远大于隐藏层节点的数目,Zk+1为第(k+1)-th个单位时间预测出的结果,设l=k-s+1,k-s+2,…k;数据在l-th时刻网络第一个隐含层的输出为:
(ai,bi)为输入层和第一个隐含层之间的权值与阈值,i=1,...L.随机初始化;(G为隐含层激活函数,T为[k-s+1,k]内批数据样本的标志量,Tl为第l批数据样本的标志量;l为在[k-s+1,k]内的一个正整数;
得到最终隐含层的输出权值β为:
<mrow>
<mi>&beta;</mi>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msup>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<msub>
<mi>H</mi>
<mrow>
<mi>k</mi>
<mo>-</mo>
<mi>s</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>H</mi>
<mi>k</mi>
</msub>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>+</mo>
</msup>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<msub>
<mi>T</mi>
<mrow>
<mi>k</mi>
<mo>-</mo>
<mi>s</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>T</mi>
<mi>k</mi>
</msub>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>=</mo>
<msub>
<mi>P</mi>
<mi>k</mi>
</msub>
<msup>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<msub>
<mi>H</mi>
<mrow>
<mi>k</mi>
<mo>-</mo>
<mi>s</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>H</mi>
<mi>k</mi>
</msub>
</mtd>
</mtr>
</mtable>
</mfenced>
<mi>T</mi>
</msup>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<msub>
<mi>T</mi>
<mrow>
<mi>k</mi>
<mo>-</mo>
<mi>s</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>T</mi>
<mi>k</mi>
</msub>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
且
14)假设第二个隐含层的权值和偏差为W1,B1,则第二个隐含层的输出为:
<mrow>
<msub>
<mi>H</mi>
<mn>1</mn>
</msub>
<mo>=</mo>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<msub>
<mi>T</mi>
<mrow>
<mi>k</mi>
<mo>-</mo>
<mi>s</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>T</mi>
<mi>k</mi>
</msub>
</mtd>
</mtr>
</mtable>
</mfenced>
<mi>&beta;</mi>
<msup>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
<mo>+</mo>
</msup>
<mo>;</mo>
</mrow>
15)假设WHE=[B1 W1],则第二个隐含层的权值和偏差通过计算且假设HE=[1 H]T,1为元素全为1的一维行向量,g-1(x)为激活函数的g(x)反函数,WHE和HE为假设的变量;
16)更新第二个隐含层的输出为H2=g(WHEHE);更新最终隐含层的输出权值β为
17)假设第三个隐含层的权值和偏差为W2,B2,则第三个隐含层的输出为
<mrow>
<msub>
<mi>H</mi>
<mn>3</mn>
</msub>
<mo>=</mo>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<msub>
<mi>T</mi>
<mrow>
<mi>k</mi>
<mo>-</mo>
<mi>s</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>T</mi>
<mi>k</mi>
</msub>
</mtd>
</mtr>
</mtable>
</mfenced>
<msubsup>
<mi>&beta;</mi>
<mrow>
<mi>n</mi>
<mi>e</mi>
<mi>w</mi>
</mrow>
<mo>+</mo>
</msubsup>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
18)假设WHE1=[B2 W2],则第三个隐含层的权值和偏差通过计算且HE1=[1 H2]T,1为元素全为1的一维行向量;g-1(x)为激活函数的g(x)反函数;WHE1、HE1为为假设的变量;
更新第三个隐含层的输出为:
H4=g(WHE1HE1) (2)
19)更新最终隐含层的输出权值β为:
<mrow>
<msub>
<mi>&beta;</mi>
<mrow>
<mi>n</mi>
<mi>e</mi>
<mi>w</mi>
<mn>1</mn>
</mrow>
</msub>
<mo>=</mo>
<msubsup>
<mi>H</mi>
<mn>4</mn>
<mo>+</mo>
</msubsup>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<msub>
<mi>T</mi>
<mrow>
<mi>k</mi>
<mo>-</mo>
<mi>s</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>T</mi>
<mi>k</mi>
</msub>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>3</mn>
<mo>)</mo>
</mrow>
</mrow>
则最终的输出为f=βnew1H4。
3.根据权利要求2所述的带遗忘因子的在线时序多隐含层极限学习机的应用方法,其特征在于:
对于具有多个隐含层的网络结构,循环迭代公式(1)、(2)、(3),三个隐层迭代一次,四个隐层迭代两次,N个隐层迭代N-2次,每次迭代结束使得βnew=βnew1,H2=H4。
4.根据权利要求1所述的带遗忘因子的在线时序多隐含层极限学习机的应用方法,其特征在于:
步骤2)中,对上述多隐含层极限学习机模型进行实时更新,输出更新后模型的表达式,具体为:
21)假设Zk+2为第(k+2)-th个单位时间预测出的结果,在(k+1)-th时间的结果已知的情况下,与上一次保持同样的(ai,bi),i=1,...L,输出权值表示为:
<mrow>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<msub>
<mi>H</mi>
<mrow>
<mi>k</mi>
<mo>-</mo>
<mi>s</mi>
<mo>+</mo>
<mn>2</mn>
</mrow>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>H</mi>
<mrow>
<mi>k</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
</mtd>
</mtr>
</mtable>
</mfenced>
<mi>&beta;</mi>
<mo>=</mo>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<msub>
<mi>T</mi>
<mrow>
<mi>k</mi>
<mo>-</mo>
<mi>s</mi>
<mo>+</mo>
<mn>2</mn>
</mrow>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>T</mi>
<mrow>
<mi>k</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
</mtd>
</mtr>
</mtable>
</mfenced>
<mi>a</mi>
<mi>n</mi>
<mi>d</mi>
<mi>&beta;</mi>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>+</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msup>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<msub>
<mi>H</mi>
<mrow>
<mi>k</mi>
<mo>-</mo>
<mi>s</mi>
<mo>+</mo>
<mn>2</mn>
</mrow>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>H</mi>
<mrow>
<mi>k</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>+</mo>
</msup>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<msub>
<mi>T</mi>
<mrow>
<mi>k</mi>
<mo>-</mo>
<mi>s</mi>
<mo>+</mo>
<mn>2</mn>
</mrow>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>T</mi>
<mrow>
<mi>k</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>=</mo>
<msub>
<mi>P</mi>
<mrow>
<mi>k</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<msup>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<msub>
<mi>H</mi>
<mrow>
<mi>k</mi>
<mo>-</mo>
<mi>s</mi>
<mo>+</mo>
<mn>2</mn>
</mrow>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>H</mi>
<mrow>
<mi>k</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
</mtd>
</mtr>
</mtable>
</mfenced>
<mi>T</mi>
</msup>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<msub>
<mi>T</mi>
<mrow>
<mi>k</mi>
<mo>-</mo>
<mi>s</mi>
<mo>+</mo>
<mn>2</mn>
</mrow>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>T</mi>
<mrow>
<mi>k</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>35</mn>
<mo>)</mo>
</mrow>
</mrow>
且则Pk+1由Pk表示为:
<mfenced open = "" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>P</mi>
<mrow>
<mi>k</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>=</mo>
<msup>
<mrow>
<mo>(</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>l</mi>
<mo>=</mo>
<mi>k</mi>
<mo>-</mo>
<mi>s</mi>
<mo>+</mo>
<mn>2</mn>
</mrow>
<mrow>
<mi>k</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</munderover>
<msubsup>
<mi>H</mi>
<mi>l</mi>
<mi>T</mi>
</msubsup>
<msub>
<mi>H</mi>
<mi>l</mi>
</msub>
<mo>)</mo>
</mrow>
<mrow>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msup>
<mo>=</mo>
<msup>
<mrow>
<mo>(</mo>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>l</mi>
<mo>=</mo>
<mi>k</mi>
<mo>-</mo>
<mi>s</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
<mrow>
<mi>k</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</munderover>
<msubsup>
<mi>H</mi>
<mi>l</mi>
<mi>T</mi>
</msubsup>
<msub>
<mi>H</mi>
<mi>l</mi>
</msub>
<mo>+</mo>
<msup>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mrow>
<mo>-</mo>
<msub>
<mi>H</mi>
<mrow>
<mi>k</mi>
<mo>-</mo>
<mi>s</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>H</mi>
<mrow>
<mi>k</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
</mtd>
</mtr>
</mtable>
</mfenced>
<mi>T</mi>
</msup>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<msub>
<mi>H</mi>
<mrow>
<mi>k</mi>
<mo>-</mo>
<mi>s</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>H</mi>
<mrow>
<mi>k</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
<mo>)</mo>
</mrow>
<mrow>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msup>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>=</mo>
<msub>
<mi>P</mi>
<mi>k</mi>
</msub>
<mo>-</mo>
<msub>
<mi>P</mi>
<mi>k</mi>
</msub>
<msup>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mrow>
<mo>-</mo>
<msub>
<mi>H</mi>
<mrow>
<mi>k</mi>
<mo>-</mo>
<mi>s</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>H</mi>
<mrow>
<mi>k</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
</mtd>
</mtr>
</mtable>
</mfenced>
<mi>T</mi>
</msup>
<msup>
<mrow>
<mo>(</mo>
<mrow>
<mi>I</mi>
<mo>+</mo>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mrow>
<mo>-</mo>
<msub>
<mi>H</mi>
<mrow>
<mi>k</mi>
<mo>-</mo>
<mi>s</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>H</mi>
<mrow>
<mi>k</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
</mtd>
</mtr>
</mtable>
</mfenced>
<msub>
<mi>P</mi>
<mi>k</mi>
</msub>
<msup>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mrow>
<mo>-</mo>
<msub>
<mi>H</mi>
<mrow>
<mi>k</mi>
<mo>-</mo>
<mi>s</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>H</mi>
<mrow>
<mi>k</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
</mtd>
</mtr>
</mtable>
</mfenced>
<mi>T</mi>
</msup>
</mrow>
<mo>)</mo>
</mrow>
<mrow>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msup>
<mo>&times;</mo>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<msub>
<mi>H</mi>
<mrow>
<mi>k</mi>
<mo>-</mo>
<mi>s</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>H</mi>
<mrow>
<mi>k</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
</mtd>
</mtr>
</mtable>
</mfenced>
<msub>
<mi>P</mi>
<mi>k</mi>
</msub>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
且
则
22)假设第二个隐含层的权值和偏差为W1,B1,则第二个隐含层的输出为
<mrow>
<msub>
<mi>H</mi>
<mn>1</mn>
</msub>
<mo>=</mo>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<msub>
<mi>T</mi>
<mrow>
<mi>k</mi>
<mo>-</mo>
<mi>s</mi>
<mo>+</mo>
<mn>2</mn>
</mrow>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>T</mi>
<mrow>
<mi>k</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
</mtd>
</mtr>
</mtable>
</mfenced>
<mi>&beta;</mi>
<msup>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>+</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
<mo>+</mo>
</msup>
<mo>;</mo>
</mrow>
23)假设WHE=[B1 W1],则第二个隐含层的权值和偏差通过计算且HE=[1H]T,1为元素全为1的一维行向量;g-1(x)为激活函数的g(x)反函数,
24)更新第二个隐含层的输出为H2=g(WHEHE);更新最终隐含层的输出权值β为
25)假设第三个隐含层的权值和偏差为W2,B2,则第三个隐含层的输出为
<mrow>
<msub>
<mi>H</mi>
<mn>3</mn>
</msub>
<mo>=</mo>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<msub>
<mi>T</mi>
<mrow>
<mi>k</mi>
<mo>-</mo>
<mi>s</mi>
<mo>+</mo>
<mn>2</mn>
</mrow>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>T</mi>
<mrow>
<mi>k</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
</mtd>
</mtr>
</mtable>
</mfenced>
<msubsup>
<mi>&beta;</mi>
<mrow>
<mi>n</mi>
<mi>e</mi>
<mi>w</mi>
</mrow>
<mo>+</mo>
</msubsup>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>4</mn>
<mo>)</mo>
</mrow>
</mrow>
26)假设WHE1=[B2 W2],则第三个隐含层的权值和偏差通过计算且HE1=[1 H2]T,1为元素全为1的一维行向量,g-1(x)为激活函数的g(x)反函数;
27)更新第三个隐含层的输出为:H4=g(WHE1HE1) (5)
28)更新最终隐含层的输出权值β为:
则最终的输出为f=βnew1H4。
5.根据权利要求4所述的带遗忘因子的在线时序多隐含层极限学习机的应用方法,其特征在于还包括以下步骤:
对于具有多个隐含层的网络结构,循环迭代公式(4)、(5)、(6),三个隐层迭代一次,四个隐层迭代两次,N个隐层迭代N-2次,每次迭代结束,使得βnew=βnew1,H2=H4。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710577695.3A CN107330294A (zh) | 2017-07-15 | 2017-07-15 | 带遗忘因子的在线时序多隐含层极限学习机的应用方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710577695.3A CN107330294A (zh) | 2017-07-15 | 2017-07-15 | 带遗忘因子的在线时序多隐含层极限学习机的应用方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107330294A true CN107330294A (zh) | 2017-11-07 |
Family
ID=60226989
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710577695.3A Pending CN107330294A (zh) | 2017-07-15 | 2017-07-15 | 带遗忘因子的在线时序多隐含层极限学习机的应用方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107330294A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109255477A (zh) * | 2018-08-24 | 2019-01-22 | 国电联合动力技术有限公司 | 一种基于深度极限学习机的风速预测方法及其系统和机组 |
CN109377752A (zh) * | 2018-10-19 | 2019-02-22 | 桂林电子科技大学 | 短时交通流变化预测方法、装置、计算机设备及存储介质 |
CN112381139A (zh) * | 2020-11-13 | 2021-02-19 | 长春工业大学 | 基于elm-adhdp的复杂分离过程优化方法 |
CN119541475A (zh) * | 2025-01-21 | 2025-02-28 | 东莞市华泽电子科技有限公司 | 语音频谱重构的音频处理方法及系统 |
CN119541475B (zh) * | 2025-01-21 | 2025-04-18 | 东莞市华泽电子科技有限公司 | 语音频谱重构的音频处理方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012177792A9 (en) * | 2011-06-24 | 2013-06-06 | Sequenom, Inc. | Methods and processes for non-invasive assessment of a genetic variation |
CN103593550A (zh) * | 2013-08-12 | 2014-02-19 | 东北大学 | 一种基于集成均值子时段rpls-os-elm的荒管质量建模与预报方法 |
US20140187988A1 (en) * | 2010-03-15 | 2014-07-03 | Nanyang Technological University | Method of predicting acute cardiopulmonary events and survivability of a patient |
CN104182622A (zh) * | 2014-08-12 | 2014-12-03 | 大连海事大学 | 基于极限学习机的隧道施工中的反馈分析方法及其装置 |
CN106845144A (zh) * | 2017-03-17 | 2017-06-13 | 泉州装备制造研究所 | 一种基于工业大数据挖掘的状态预测方法 |
-
2017
- 2017-07-15 CN CN201710577695.3A patent/CN107330294A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140187988A1 (en) * | 2010-03-15 | 2014-07-03 | Nanyang Technological University | Method of predicting acute cardiopulmonary events and survivability of a patient |
WO2012177792A9 (en) * | 2011-06-24 | 2013-06-06 | Sequenom, Inc. | Methods and processes for non-invasive assessment of a genetic variation |
CN103593550A (zh) * | 2013-08-12 | 2014-02-19 | 东北大学 | 一种基于集成均值子时段rpls-os-elm的荒管质量建模与预报方法 |
CN104182622A (zh) * | 2014-08-12 | 2014-12-03 | 大连海事大学 | 基于极限学习机的隧道施工中的反馈分析方法及其装置 |
CN106845144A (zh) * | 2017-03-17 | 2017-06-13 | 泉州装备制造研究所 | 一种基于工业大数据挖掘的状态预测方法 |
Non-Patent Citations (3)
Title |
---|
B.Y. QU等: "Two-hidden-layer extreme learning machine for regression and classification", 《NEUROCOMPUTING》 * |
DONG XIAO等: "The research on the modeling method of batch process based on OS-ELM-RMPLS", 《CHEMOMETRICS AND INTELLIGENT LABORATORY SYSTEMS》 * |
JIANWEIZHAO等: "Online sequential extreme learning machine with forgetting mechanism", 《NEUROCOMPUTING》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109255477A (zh) * | 2018-08-24 | 2019-01-22 | 国电联合动力技术有限公司 | 一种基于深度极限学习机的风速预测方法及其系统和机组 |
CN109377752A (zh) * | 2018-10-19 | 2019-02-22 | 桂林电子科技大学 | 短时交通流变化预测方法、装置、计算机设备及存储介质 |
CN112381139A (zh) * | 2020-11-13 | 2021-02-19 | 长春工业大学 | 基于elm-adhdp的复杂分离过程优化方法 |
CN112381139B (zh) * | 2020-11-13 | 2023-07-25 | 长春工业大学 | 基于elm-adhdp的复杂分离过程优化方法 |
CN119541475A (zh) * | 2025-01-21 | 2025-02-28 | 东莞市华泽电子科技有限公司 | 语音频谱重构的音频处理方法及系统 |
CN119541475B (zh) * | 2025-01-21 | 2025-04-18 | 东莞市华泽电子科技有限公司 | 语音频谱重构的音频处理方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2023019601A1 (zh) | 基于结构优化算法的复值神经网络的信号调制识别方法 | |
CN103413174B (zh) | 基于深度学习方法的短期风速多步预测方法 | |
CN111045326B (zh) | 一种基于递归神经网络的烘丝过程水分预测控制方法及系统 | |
CN109299430A (zh) | 基于两阶段分解与极限学习机的短期风速预测方法 | |
Nariman-Zadeh et al. | Evolutionary design of generalized polynomial neural networks for modelling and prediction of explosive forming process | |
CN107330294A (zh) | 带遗忘因子的在线时序多隐含层极限学习机的应用方法 | |
CN101872444A (zh) | 一种结合中期修正策略的间歇过程批到批优化方法 | |
CN111950711A (zh) | 复值前向神经网络的二阶混合构建方法及系统 | |
CN107103397A (zh) | 一种基于蝙蝠算法的交通流预测方法、装置及系统 | |
CN106600001B (zh) | 基于混合高斯分布相关学习机的玻璃窑炉温度预报方法 | |
CN110018675A (zh) | 基于lwdnn-arx模型的非线性系统建模方法 | |
Zhang et al. | Energy-dissipative evolutionary deep operator neural networks | |
CN108142976B (zh) | 一种叶丝干燥工艺参数优化方法 | |
CN110221540A (zh) | 基于Hammerstein模型的连续搅拌反应器系统控制方法 | |
Yang et al. | A neural network learning algorithm of chemical process modeling based on the extended Kalman filter | |
CN115167150B (zh) | 具有未知系统动态的批次过程二维离轨策略交错q学习最优跟踪控制方法 | |
CN110085255B (zh) | 语音转换基于深度内核学习高斯过程回归建模方法 | |
CN105426962A (zh) | 一种不完全递归支集动态神经网络构建及训练方法 | |
CN107168066A (zh) | 一种温室环境自适应控制方法 | |
Nagata et al. | Exchange Monte Carlo sampling from Bayesian posterior for singular learning machines | |
Subbotin et al. | Entropy based evolutionary search for feature selection | |
CN117828245A (zh) | 基于神经常微分方程的不稳定周期轨道检测方法 | |
CN109212972A (zh) | 间歇过程的受限滚动时域混杂2d跟踪控制方法 | |
CN104330968A (zh) | 一种基于改进支持向量回归的逆模型pid复合控制方法 | |
CN110656385B (zh) | 一种基于神经网络的静电纺丝纤维平均直径预测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20171107 |
|
RJ01 | Rejection of invention patent application after publication |