CN107274016A - 随机蛙跳算法优化对称极限学习机的带钢出口厚度预测方法 - Google Patents
随机蛙跳算法优化对称极限学习机的带钢出口厚度预测方法 Download PDFInfo
- Publication number
- CN107274016A CN107274016A CN201710442183.6A CN201710442183A CN107274016A CN 107274016 A CN107274016 A CN 107274016A CN 201710442183 A CN201710442183 A CN 201710442183A CN 107274016 A CN107274016 A CN 107274016A
- Authority
- CN
- China
- Prior art keywords
- mrow
- msub
- learning machine
- extreme learning
- frog
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004422 calculation algorithm Methods 0.000 title claims abstract description 41
- 238000000034 method Methods 0.000 title claims abstract description 31
- 238000005457 optimization Methods 0.000 title claims abstract description 16
- 229910000831 Steel Inorganic materials 0.000 claims abstract description 32
- 239000010959 steel Substances 0.000 claims abstract description 32
- 239000011159 matrix material Substances 0.000 claims abstract description 26
- 230000006870 function Effects 0.000 claims description 39
- 238000005096 rolling process Methods 0.000 claims description 28
- 230000004913 activation Effects 0.000 claims description 18
- 238000004364 calculation method Methods 0.000 claims description 16
- 241000269350 Anura Species 0.000 claims description 13
- 210000002569 neuron Anatomy 0.000 claims description 13
- 238000012549 training Methods 0.000 claims description 9
- 238000012360 testing method Methods 0.000 claims description 8
- 238000012795 verification Methods 0.000 claims description 6
- 238000004458 analytical method Methods 0.000 claims description 4
- 238000002474 experimental method Methods 0.000 abstract description 6
- 238000012545 processing Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 5
- XEEYBQQBJWHFJM-UHFFFAOYSA-N Iron Chemical compound [Fe] XEEYBQQBJWHFJM-UHFFFAOYSA-N 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000019637 foraging behavior Effects 0.000 description 1
- 229910052742 iron Inorganic materials 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011664 nicotinic acid Substances 0.000 description 1
- 239000002994 raw material Substances 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000010845 search algorithm Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/04—Manufacturing
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Strategic Management (AREA)
- General Physics & Mathematics (AREA)
- Economics (AREA)
- Physics & Mathematics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Software Systems (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Manufacturing & Machinery (AREA)
- Development Economics (AREA)
- Game Theory and Decision Science (AREA)
- Entrepreneurship & Innovation (AREA)
- Operations Research (AREA)
- Primary Health Care (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Control Of Metal Rolling (AREA)
Abstract
随机蛙跳优化对称极限学习机的带钢出口厚度预测方法,先在传统的极限学习机中加入对称性先验信息,使得改进后的极限学习机能够对包含对称特性的一类数据进行处理,提出对称极限学习机,对改进后的Sym‑ELM算法进一步的优化,用随机蛙跳算法来选取Sym‑ELM算法的输入权值和隐含层偏置值,并将优化的极限学习机用于带钢出口厚度预测,对于对称极限学习机算法的优化不仅使均方根误差值最小,还要考虑隐含层输出矩阵的范式条件数。通过实验表明,相对于传统的极限学习,本发明提高传统的极限学习机处理包含对称性信息的带钢数据的预测性能,减小模型的预测误差,提高模型的泛化性能。
Description
技术领域
本发明涉及随机蛙跳优化对称极限学习机的带钢出口厚度预测方法,属于带钢出口厚度预测技术领域。
背景技术
在钢铁工业的轧制生产中,带钢的出口厚度的精度是带钢质量的重要评价标准。因此,控制带钢厚度,提高带钢厚度精度成为国内外冶金行业普遍关注的重要课题。在实际钢铁轧制过程中,带钢的出口厚度精度会受到钢板原材料入口厚度、硬度、热膨胀、轧辊偏心等多方面的影响。通过对带钢轧制数据的数据特点进行分析,发现影响带钢的出口厚度的各个因素的实际值总是波动在一段区间内。换句活说,影响带钢出口厚度的各个因素在这段区间之内是满足对称规律的,而传统意义上的建模方式往往都无法有效的利用这些对称性信息。
近年来,极限学习机算法也逐渐应用于轧钢厚度预测中,由于初始网络参数的随机给定能够在一定的程度上使得网络的训练速度和学习能力得到一定的提升,但是同样是由于初始网络参数的随机给定,极限学习机的初始参数如果选择的不够合理,将使极限学习机需要更多的隐含层节点,影响其泛化性。
发明内容
本发明创造的目的是对传统的极限学习机进行改进和优化,在提高改进后的极限学习机训练和学习速度的同时,又不影响其泛化性能。本发明将随机蛙跳优化对称极限学习机算法应用在工业轧制中的带钢出口厚度预测中,使得带钢出口厚度的预测精确度得到提高。
为了实现上述目的,本发明采用的技术方案是:随机蛙跳优化对称极限学习机的带钢出口厚度预测方法,其特征在于,其步骤为:
步骤一)、分析采集的带钢数据信号:利用数据处理软对带钢数据信号进行分析,选出对带钢出口厚度敏感的轧制力,辊缝,轧制速度,电机电流4个参数作为极限学习机的输入变量;
步骤二)、提出对称极限学习机:对传统的极限学习机中加入对称性的先验信息,初步简化极限学习机的网络结构,从而减少ELM的隐含层节点数目,其称极限学习机公式为:
为公式(2)中的激活函数,(ai,bi)为样本集中随机生成。
步骤三)、用随机蛙跳算法对步骤二)中的对称极限学习机的输入权值和隐含层偏置值进行选择,运用广义逆法分析决定输出权值,得到具有最小范数值的输出权值矩阵,以此得到最优的极限学习机参数;
步骤四)、对步骤三)中的对称极限学习机建立模型:首先建立三层的改进极限学习机的网络模型,其输入层有4个节点表示输入参数,输出层有一个节点表示对带钢出口厚度的预测结果,隐含层节点数是30个,极限学习机各层节点之间的权值通过步骤三)中的优化计算得出。
步骤五)、将步骤一)选定的4个参数输入改进的极限学习机中对带钢的出口厚度进行预测。
所述的步骤二)中具体为:
2.1)、把极限学习机模型的公式(1):
的隐含层神经元的激活函数g(x)进行对称性改进,具体的改进如公式(2)所示:
g(x)是极限学习机在改进之前的隐含层神经元激活函数,当θ=+1时,改进后的隐含层神经元的激活函数为偶函数;当θ=-1时,为奇函数;
2.2)经过对称性的改进之后,新的极限学习机的输出函数f(x)为公式(3):
为公式(2)中的激活函数,(ai,bi)为样本集中随机生成;
由此把加入对称性先验信息的极限学习机命名为对称极限学习机。
所述的步骤三)中具体为:
3.1)随机初始化蛙群:采用蛙群算法对步骤二)对称极限学习机中的参数进行优化,蛙群中的每个青蛙个体Pi都由一系列极限学习机的输入权值ωj和隐含层偏移值bj构成。每个青蛙个体可以表示为公式(4):
Pi=[ω11,ω12,...,ω1H,ω21,ω22,...,ω2H,...,ωd1,ωd2,...,ωdH,b1,b2,...,bH] (4)
ωj为极限学习机的输入权值,bj为隐含层偏移值,公式(4)中所有参数都被初始化为处于[0,1]范围内的随机数。
3.2)适应度值的确定:首先将带钢数据集分成训练样本集,校验样本集和测试样本集;应用均方根误差值RMSE和输出矩阵的条件范数K(H)来对适应度值进行评价:
均方根误差值的计算方法如公式(5)所示:
nv为校验样本数,βig(wi*xj+bi)为隐含层计算公式,tj为每个样本期望输出值,RMSE的值越小,代表算法的预测精度越高;
输出矩阵的条件范数K(H)的计算方法如公式(6)所示:
ωmin为矩阵HTH的最小特征值,ωmax为矩阵HTH的最大特征值;K(H)的值是一个大于1的数,K(H)越接近1,表示极限学习机泛化性能也会越好;K(H)的值越大,模型的泛化性能降低;
适应度值的计算方式如公式(7)所示:
RMSE为公式(5)中的均方根误差值,K(H)为公式(6)中的输出矩阵的条件范数;根据适应度函数计算每个青蛙个体的适应值,之后根据计算出来的适应度值的大小来对青蛙个体进行从大到小的顺序排列,并记录下具有全局最优适应度值的青蛙个体;
3.3)蛙群组中划分子蛙群组:根据公式(8)划分子群组:
j为群组中的第j只青蛙个体被选入子群组的概率,Pj为第j只青蛙个体被选入子群组的概率;
3.4)计算最差青蛙个体的更新:在子群组划分完毕之后,在青蛙子群组内进行局部搜索的过程中,需要根据适应度函数值的大小来对各个青蛙个体进行排序,记录下具有全局最优适应度值的青蛙个体Pbest,并改进最差青蛙个体Pworst,计算最差青蛙的位置公式为(9) 和(10):
W=Rand()×(Pbest-Pworst) (9)
newPworst=Pworst+W (10)
Rand()的作用是在[0,1]之间取随机数;W表示青蛙个体每次搜索时候移动的步长, -Wmax≤W≤Wmax。newPworst表示更新后的最差青蛙;
3.5)不断重复4)中的局部搜索策略,直到达到事先设定好的局部搜索的迭代次数,之后继续重复3)、4)的过程,直到选取全局最优解Pbest中的输入权值和偏置值,对带钢的测试样本集数据进行预测
本发明创造带来的有益效果为:
本发明采用上述优化方法,先在传统的极限学习机中加入对称性先验信息,使得改进后的极限学习机能够对包含对称特性的一类数据进行处理,提出对称极限学习机,对改进后的 Sym-ELM算法进一步的优化,用随机蛙跳算法来选取Sym-ELM算法的输入权值和隐含层偏置值,并将优化的极限学习机用于带钢出口厚度预测,对于对称极限学习机算法的优化不仅使均方根误差值最小,还要考虑隐含层输出矩阵的范式条件数。通过实验表明,相对于传统的极限学习,本发明提高传统的极限学习机在处理包含对称性信息的带钢数据的预测性能,减小模型的预测误差,提高模型的泛化性能。
附图说明
图1是实施例1中轧制力与带钢出口厚度的关系图。
图2是实施例1中是辊缝与带钢出口厚度的关系图。
图3是实施例1中电机电流与带钢出口厚度的关系图。
图4是实施例1中轧制速度与带钢出口厚度的关系图。
图5是实施例1中本发明预测结果图。
图6是实施例1中传统极限学习机预测结果图。
图7是极限学习机的网络结构图。
具体实施方式
一种随机蛙跳优化对称极限学习机带钢出口厚度预测方法,其步骤如下:
(1)分析采集的带钢数据信号:利用数据处理软件ibaAnalyzer对带钢轧制工业中采集到的信号数据进行综合的分析,选择出与带钢出口厚度相关性较大的轧制力、轧制速度、辊缝以及电流四个因素作为预测模型的输入特征值。
(2)提出对称极限学习机(Sym-ELM):利用先验信息的对称性对传统极限学习机的激活函数进行改进,使得改进后的模型能够对包含对称信息的带钢数据进行处理和学习。
(3)随机蛙跳算法优化对称极限学习机(SFLASym-ELM):主要是针对极限学习机输入权值和隐含层偏置值的随机选取问题。优化的过程中充分考虑隐含层输出矩阵的范式条件数。最终实现对对称极限学习机的参数优化。
(4)建立优化的极限学习机模型:首先建立三层的改进极限学习机的网络模型,设置输入层、隐含层、输出层节点,极限学习机各层节点之间的权值通过步骤(3)优化计算得出。
(5)将步骤(1)选定的4个参数输入改进的极限学习机中对带钢的出口厚度进行预测。
步骤(2)中传统极限学习机改进成对称极限学习机(Sym-ELM)过程如下:
1)传统极限学习机的模型为公式(1):
如果中所有的gi(x)部具有相同的对称性质,则f(x)也必然具有相同的对称性。
2)把极限学习机算法的隐含层神经元的激活函数g(x)进行对称性改进,具体的改进如公式(2)所示:
其中,g(x)是极限学习机在改进之前的隐含层神经元激活函数。当θ=+1时,改进后的隐含层神经元的激活函数为偶函数;当θ=-1时,为奇函数。
3)经过对称性的改进之后,新的极限学习机的输出函数f(x)为公式(3):
其中,为公式(2)中的激活函数,(ai,bi)为样本集中随机生成,把加入对称性先验信息的极限学习机命名为对称极限学习机(Symmetry Extreme Learning Machine,Sym- ELM)。
步骤(3)中随机蛙跳算法优化对称极限学习机的过程如下:
1)随机初始化蛙群。采用蛙群算法对对称极限学习机中的参数进行优化,蛙群中的每个青蛙个体Pi都由一系列极限学习机的输入权值ωj和隐含层偏移值bj构成。每个青蛙个体可以表示为公式(4):
Pi=[ω11,ω12,...,ω1H,ω21,ω22,...,ω2H,...,ωd1,ωd2,...,ωdH,b1,b2,...,bH] (4)
其中,ωj为极限学习机的输入权值,bj为隐含层偏移值,公式(4)中所有参数都被初始化为处于[0,1]范围内的随机数。
2)适应度值的确定。首先将带钢数据集分成训练样本集,校验样本集和测试样本集。在这里应用两个指标来对适应度值进行评价,一个是均方根误差值,另一个是输出矩阵的条件范数。
其中,均方根误差值的计算方法如公式(5)所示:
其中,nv为校验样本数,βig(wi*xj+bi)为隐含层计算公式,tj为每个样本期望输出值。在公式(5)中,均方根误差值RMSE的值应保证尽可能的小。RMSE的值越小,代表算法的预测精度越高。
输出矩阵的条件范数的计算方法如公式(6)所示:
其中,ωmin为矩阵HTH的最小特征值,ωmax为矩阵HTH的最大特征值,K(H)的值是一个大于1的数,K(H)越接近1,表示极限学习机泛化性能也会越好,反之,K(H)的值越大,会导致模型的泛化性能降低。
本发明选取均方根误差值(RMSE)和隐含层输出矩阵H的条件范数值作为随机蛙跳算法的适应度值来对青蛙个体进行评价。均方根误差值(RMSE)和隐含层输出矩阵H的条件范数值都需要在校验样本集上计算而得到。适应度值的计算方式如公式(7)所示:
其中,RMSE为公式(5)中的均方根误差值,K(H)为公式(6)中的输出矩阵的条件范数。根据适应度函数计算每个青蛙个体的适应值,根据计算出来的适应度值的大小来对青蛙个体进行从大到小的顺序排列,并记录下具有全局最优适应度值的青蛙个体。
3)蛙群组中划分子蛙群组。根据公式(8)划分子群组:
其中,j为群组中的第j只青蛙个体被选入子群组的概率。Pj为第j只青蛙个体被选入子群组的概率。
4)计算最差青蛙个体的更新。在子群组划分完毕之后,在进行青蛙子群组内局部搜索的过程中,需要根据适应度函数值的大小来对各个青蛙个体进行排序,记录下具有全局最优适应度值的青蛙个体Pbest,并更新最差青蛙个体Pworst。
计算最差青蛙的位置公式为(9)和(10)。
W=Rand()×(Pbest-Pworst) (9)
newPworst=Pworst+W (10)
其中,Rand()的作用是在[0,1]之间取随机数。W表示青蛙个体每次搜索时候移动的步长,-Wmax≤W≤Wmax。newPworst是最差的青蛙更新之后的表示方法。
5)不断重复4)中的局部搜索策略,直到达到事先设定好的局部搜索的迭代次数,之后继续重复3)、4)的过程,直到选取全局最优解Pbest中的输入权值和偏置值,对带钢的测试样本集数据进行预测。
步骤(4)建立优化的极限学习机模型过程如下:首先建立SFLASym-ELM模型,其输入层节点数为4个,表示输入参数,隐含层节点数设置为30个,表示对称极限学习机各层节点之间的权值,由步骤(3)优化计算得出。输出层节点为1个,表示带钢出口厚度的预测结果。
步骤(5)将步骤一)选定的4个参数输入改进的极限学习机中对带钢的出口厚度进行预测。
本发明的理论依据:
1、极限学习机的提出
极限学习机是一种特殊的单隐层前馈神经网络的学习算法,在2004年由黄广斌提出,主要由输入层、隐含层以及输出层三个部分组成。其网络结构图如7所示。
其中,ωi=[ω1i,ω2i,...,ωmi]表示连接极限学习机的输入层节点与极限学习机的第i个隐层节点的输入权值向量,在初始状态下是随机选定的;βi=[βi1,βi2,...,βin]T表示连接极限学习机的第i个隐层节点与极限学习机的输出层节点的输出权值向量,通过计算得到的一个最小二乘解;oi=[oi1,oi2,...,oin]T表示极限学习机的输出值。激活函数g(·)主要有线性函数、非线性函数、Sigmoid函数以及高斯函数等类型。
给定一个训练数据集L={(x(n),t(n)),n=1,2,...,N},其中x(n)=(x1(n),...,xd(n))T∈Rd, t(n)=(t1(n),...,tm(n))T∈Rm。一个具有激活函数g(·)和H个隐含层神经元节点的极限学习机可以表示为公式(11):
公式(11)也可以以矩阵的方式表示如公式(12)和(13)所示:
Hβ=T (12)
其中,
其中,ωj=(ωj1,...,ωjd)T∈Rd是连接极限学习机的输入层和极限学习机的第j个隐含层神经元节点的输入权值向量,bj是极限学习机的第j个隐含层神经元的偏置值,βj=(βj1,...,βjm)T是连接极限学习机的第j个隐含层神经元节点和极限学习机的输出层的输出权值向量。
所以,在计算极限学习机的输出权值时,需要找出给定的线性系统的最小二乘解。一个具有最小范数值的线性系统的最小二乘解可以表示为(14):
其中是矩阵H的广义逆。通常情况下,一个给定的线性系统的最小二乘解有且仅有一个,并在所有的最小二乘解中具有最小的条件范数值。通过矩阵的广义逆的运用,极限学习机可以极大的提高进行训练和学习的速度,同时还能够达到所要求的泛化性能。
2、随机蛙跳算法:
随机蛙跳算法是一种以种群为基础的搜索算法,在2003年由Eusuff和Lansey为解决组合优化问题提出。随机蛙跳算法(SFLA)的实现过程,则是对自然界中青蛙群体进行觅食行为的一种仿生模拟。
首先产生F只青蛙组成蛙群,每只蛙表示解空间的一个解X=(x1,x1,...,xs),其中s表示变量的数量。然后将蛙群内的青蛙个体按照适应值进行降序排列,找到全局最好解Pbest。
将蛙群分成m个族群,每个族群包含n只青蛙,满足关系F=m×n。其中第1只蛙进入第 1个族群,第2只蛙进入第2个族群,第m只蛙进入第m个族群,第m+1只蛙进入第1个族群,…,直至所有蛙进入指定位置。根据公式(15),随机从族群中选择q个个体进入子族群并将子族群进行排序。
pj=2(n+1-j)/[n(n+1)],j=1,...,n (15)
其中,j为第j只蛙,pj表示第j只蛙被选中的概率。
然后找出子族群中的最好解Pbest和最差解Pworst,按照式(16)和式(17)对每个子族群进行局部深度搜索。
S=Rand()×(Pbest-Pworst) (16)
NewPworst=Pworst+S,-Smax≤S≤Smax (17)
其中,Rand()表示在0到1之间进行取值的随机数,S表示青蛙的跳动步长,NewPworst表示更新后的Pworst。如果NewPworst是处于可行解空间中,计算NewPworst对应的适值。如果 NewPworst所对应的适值次于Pworst所对应的适值,则采用Px代替式(16)中的Pbest重新更新 Pworst;如果仍然没有改进,则随机产生一个新的蛙来代替Pworst。否则就重复更新过程,直到达到预先设定的局部迭代次数。完成所有族群的深度搜索后,将所有蛙群中的青蛙进行重新混合和排序,之后再将蛙群分成族群和子族群,继续进行局部搜索,直到任何一个预先设定的算法停止条件得到满足为止。
实施例1:
将本发明随机蛙跳优化对称极限学习机用于带钢出口厚度的预测中,并与传统的极限学习机进行结果对比,以此验证本发明的有效性,具体步骤如下:
1、分析采集的带钢数据信号。带钢实验数据来自国内的某钢厂在实际的带钢轧制过程中实时采集到的信号数据。在进行带钢轧制的过程中,轧制带钢的机组一共有9个轧制机架组成,每个机架的各种参数都会对带钢的出口厚度产生一定的作用。原始带钢数据是以信号的形式存储的,使用ibaAnalyzer数据分析软件对其有影响的轧制力,轧制速度,电机电流,轧制力,辊缝等数据信号进行分析。提取到几个能对带钢出口厚度产生影响的主要因素,并将可用的数据导入到excel中筛选使用。
数据的采集由九个机架的数据组成,从时间上看,第九个机架的的数据信号与带钢出口厚度的时间序列大致相同。其他八个机架的数据信号与出口厚度存在一定的延迟。所以选择第九个机架的相关数据信号进行实验。
由于样本数据在带钢出口厚度的预测中作用重大,所以样本数据的选择必须覆盖整个数据空间并具有代表性。为了保证数据集选择的合理性,将带钢的出口厚度和其他的数据信号进行对比,对比关系曲线图如图1到图4所示。其中带钢出口厚度受到轧制力,辊缝,轧制速度,电机电流的影响较大,所以将对出口厚度较为敏感的轧制力,辊缝,轧制速度,电机电流4个参数作为极限学习机的输入变量。
2、利用先验信息的对称性对传统极限学习机的激活函数进行改进,使得改进后的模型能够对包含对称信息的带钢数据进行处理和学习。
3、用随机蛙跳算法对对称极限学习机的输入权值和隐含层偏置值进行优化选择,以得到具有最小范数值的输出权值矩阵。
4、将步骤1的4个参数输入步骤3所得出的优化的对称极限学习机中,用于带钢出口厚度的预测中,并与传统的极限学习机进行结果对比,以此验证本发明的有效性。
4.1)实验初始化。随机蛙跳优化对称极限学习机的带钢出口厚度预测算法(SFLASym- ELM)与传统的极限学习机进行对比实验,实验结果的评价性能除了由均方根误差 (RMSE)和条件范数值K(H)的大小来衡量极限学习机的性能之外,还制定一个评价SFLASym-ELM模型预测精度的标准预测拟合度S和评价模型过拟合度的指标C。
在样本数据数的选取中,运用ibaAnalyzer软件将取样区间设定为0.2s所导出的样本数足够反映轧机的状况。经过数据的筛选,最终选取400个数据进行实验。传统的极限学习机算法则各选取200个作为训练样本集和测试样本集。SFLASym-ELM预测算法中,青蛙个体属设置为60个,青蛙群组的个数设置为6个,每个群组中有10个青蛙个体,蛙群每次进行移动的最大步长设置为4,最大的搜索次数设置为90次。SFLASym-ELM模型的输入层节点数为4个,隐含层节点数设置为30个,输出层节点为1个,各选取200个作为训练样本集和测试样本集。
4.2)实验结果分析。将轧制力,辊缝,轧制速度和电机电流输入极限学习机中得到带钢出口厚度的预测值,为了便于分析实验结果,传统的极限学习机和SFLASym-ELM的带钢出口厚度预测结果曲线如图5,6所示。图6为传统的极限学习机算法对应模型的预测结果。图5为SFLASym-ELM算法对应模型的预测结果,SFLASym-ELM算法与传统的极限学习机(ELM)算法相比,预测的精度更高,预测误差更小,从而验证SFLASym-ELM算法的有效性。
为了验证本发明算法的预测精度和鲁棒性,在对极限学习机的隐含层节点数进行选择的时候,采用的是多次实验的方法试凑出一个最优的隐含层节点数,对比实验的结果如表1所示,在隐含层节点数为30个的时候,无论是本发明的SFLASym-ELM模型还是传统的极限学习机模型,部达到比较小的均方根误差值和较好的条件范数值K(H)。通过表2所示,SFLASym-ELM算法在预测拟合度方面比传统的极限学习机要好很多,做到与传统的极限学习机差持平的情况下,改善网络的结构,提高预测的精度,并且更不容易产生过拟合现象,所以本方法具有较高的预测精度和较好的鲁棒性。
表1两种算法实验对比结果
表2两种算法实验对比结果
Claims (3)
1.随机蛙跳优化对称极限学习机的带钢出口厚度预测方法,其特征在于,其步骤为:
步骤一)、分析采集的带钢数据信号:利用数据处理软对带钢数据信号进行分析,选出对带钢出口厚度敏感的轧制力,辊缝,轧制速度,电机电流4个参数作为极限学习机的输入变量;
步骤二)、提出对称极限学习机:对传统的极限学习机中加入对称性的先验信息,初步简化极限学习机的网络结构,从而减少ELM的隐含层节点数目,其对称极限学习机公式为:
<mrow>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msubsup>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>M</mi>
</msubsup>
<msub>
<mi>&beta;</mi>
<mi>i</mi>
</msub>
<msub>
<mover>
<mi>g</mi>
<mo>~</mo>
</mover>
<mi>i</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msubsup>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>M</mi>
</msubsup>
<msub>
<mi>&beta;</mi>
<mi>i</mi>
</msub>
<mover>
<mi>g</mi>
<mo>~</mo>
</mover>
<mrow>
<mo>(</mo>
<msub>
<mi>a</mi>
<mi>i</mi>
</msub>
<mo>,</mo>
<msub>
<mi>b</mi>
<mi>i</mi>
</msub>
<mo>,</mo>
<mi>x</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>3</mn>
<mo>)</mo>
</mrow>
</mrow>
为公式(2)中的激活函数,(ai,bi)为样本集中随机生成。
步骤三)、用随机蛙跳算法对步骤二)中的对称极限学习机的输入权值和隐含层偏置值进行选择,运用广义逆法分析决定输出权值,得到具有最小范数值的输出权值矩阵,以此得到最优的极限学习机参数;
步骤四)、对步骤三)中的对称极限学习机建立模型:首先建立三层的改进极限学习机的网络模型,其输入层有4个节点表示输入参数,输出层有一个节点表示对带钢出口厚度的预测结果,隐含层节点数是30个,极限学习机各层节点之间的权值通过步骤三)中的优化计算得出。
步骤五)、将步骤一)选定的4个参数输入改进的极限学习机中对带钢的出口厚度进行预测。
2.根据权利要求1所述的随机蛙跳优化对称极限学习机的带钢出口厚度预测方法,其特征在于,所述的步骤二)中具体为:
2.1)、把极限学习机模型的公式(1):
<mrow>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msubsup>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>M</mi>
</msubsup>
<msub>
<mi>&beta;</mi>
<mi>i</mi>
</msub>
<msub>
<mi>g</mi>
<mi>i</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
的隐含层神经元的激活函数g(x)进行对称性改进,具体的改进如公式(2)所示:
<mrow>
<msub>
<mover>
<mi>g</mi>
<mo>~</mo>
</mover>
<mi>i</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msub>
<mi>g</mi>
<mi>i</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>)</mo>
</mrow>
<mo>+</mo>
<msub>
<mi>&theta;g</mi>
<mi>i</mi>
</msub>
<mrow>
<mo>(</mo>
<mo>-</mo>
<mi>x</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>2</mn>
<mo>)</mo>
</mrow>
</mrow>
g(x)是极限学习机在改进之前的隐含层神经元激活函数,当θ=+1时,改进后的隐含层神经元的激活函数为偶函数;当θ=-1时,为奇函数;
2.2)经过对称性的改进之后,新的极限学习机的输出函数f(x)为公式(3):
<mrow>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msubsup>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>M</mi>
</msubsup>
<msub>
<mi>&beta;</mi>
<mi>i</mi>
</msub>
<msub>
<mover>
<mi>g</mi>
<mo>~</mo>
</mover>
<mi>i</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msubsup>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>M</mi>
</msubsup>
<msub>
<mi>&beta;</mi>
<mi>i</mi>
</msub>
<mover>
<mi>g</mi>
<mo>~</mo>
</mover>
<mrow>
<mo>(</mo>
<msub>
<mi>a</mi>
<mi>i</mi>
</msub>
<mo>,</mo>
<msub>
<mi>b</mi>
<mi>i</mi>
</msub>
<mo>,</mo>
<mi>x</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>3</mn>
<mo>)</mo>
</mrow>
</mrow>
为公式(2)中的激活函数,(ai,bi)为样本集中随机生成;
由此把加入对称性先验信息的极限学习机命名为对称极限学习机。
3.根据权利要求1所述的随机蛙跳优化对称极限学习机的带钢出口厚度预测方法,其特征在于:所述的步骤三)中具体为:
3.1)随机初始化蛙群:采用蛙群算法对步骤二)对称极限学习机中的参数进行优化,蛙群中的每个青蛙个体Pi都由一系列极限学习机的输入权值ωj和隐含层偏移值bj构成。每个青蛙个体可以表示为公式(4):
Pi=[ω11,ω12,…,ω1H,ω21,ω22,…,ω2H,…,ωd1,ωd2,…,ωdH,b1,b2,…,bH] (4)
ωj为极限学习机的输入权值,bj为隐含层偏移值,公式(4)中所有参数都被初始化为处于[0,1]范围内的随机数。
3.2)适应度值的确定:首先将带钢数据集分成训练样本集,校验样本集和测试样本集;
应用均方根误差值RMSE和输出矩阵的条件范数K(H)来对适应度值进行评价:
均方根误差值的计算方法如公式(5)所示:
<mrow>
<mi>R</mi>
<mi>M</mi>
<mi>S</mi>
<mi>E</mi>
<mo>=</mo>
<msqrt>
<mfrac>
<mrow>
<msubsup>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<msub>
<mi>n</mi>
<mi>v</mi>
</msub>
</msubsup>
<mo>|</mo>
<mo>|</mo>
<msubsup>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>H</mi>
</msubsup>
<msub>
<mi>&beta;</mi>
<mi>i</mi>
</msub>
<mi>g</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>w</mi>
<mi>i</mi>
</msub>
<mo>*</mo>
<msub>
<mi>x</mi>
<mi>j</mi>
</msub>
<mo>+</mo>
<msub>
<mi>b</mi>
<mi>i</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>-</mo>
<msub>
<mi>t</mi>
<mi>j</mi>
</msub>
<mo>|</mo>
<msubsup>
<mo>|</mo>
<mn>2</mn>
<mn>2</mn>
</msubsup>
</mrow>
<msub>
<mi>n</mi>
<mi>v</mi>
</msub>
</mfrac>
</msqrt>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>5</mn>
<mo>)</mo>
</mrow>
</mrow>
nv为校验样本数,βig(wi*xj+bi)为隐含层计算公式,tj为每个样本期望输出值,RMSE的值越小,代表算法的预测精度越高;
输出矩阵的条件范数K(H)的计算方法如公式(6)所示:
<mrow>
<mi>K</mi>
<mrow>
<mo>(</mo>
<mi>H</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msqrt>
<mfrac>
<msub>
<mi>&omega;</mi>
<mrow>
<mi>m</mi>
<mi>a</mi>
<mi>x</mi>
</mrow>
</msub>
<msub>
<mi>&omega;</mi>
<mi>min</mi>
</msub>
</mfrac>
</msqrt>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>6</mn>
<mo>)</mo>
</mrow>
</mrow>
ωmin为矩阵HTH的最小特征值,ωmax为矩阵HTH的最大特征值;K(H)的值是一个大于1的数,K(H)越接近1,表示极限学习机泛化性能也会越好;K(H)的值越大,模型的泛化性能降低;
适应度值的计算方式如公式(7)所示:
<mrow>
<mi>f</mi>
<mo>=</mo>
<mfrac>
<mrow>
<mi>R</mi>
<mi>M</mi>
<mi>S</mi>
<mi>E</mi>
<mo>+</mo>
<mi>K</mi>
<mrow>
<mo>(</mo>
<mi>H</mi>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mi>R</mi>
<mi>M</mi>
<mi>S</mi>
<mi>E</mi>
<mo>&times;</mo>
<mi>K</mi>
<mrow>
<mo>(</mo>
<mi>H</mi>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>7</mn>
<mo>)</mo>
</mrow>
</mrow>
RMSE为公式(5)中的均方根误差值,K(H)为公式(6)中的输出矩阵的条件范数;
根据适应度函数计算每个青蛙个体的适应值,之后根据计算出来的适应度值的大小来对青蛙个体进行从大到小的顺序排列,并记录下具有全局最优适应度值的青蛙个体;
3.3)蛙群组中划分子蛙群组:根据公式(8)划分子群组:
<mrow>
<msub>
<mi>P</mi>
<mi>j</mi>
</msub>
<mo>=</mo>
<mfrac>
<mrow>
<mn>2</mn>
<mrow>
<mo>(</mo>
<mi>n</mi>
<mo>+</mo>
<mn>1</mn>
<mo>-</mo>
<mi>j</mi>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mi>n</mi>
<mrow>
<mo>(</mo>
<mi>n</mi>
<mo>+</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>8</mn>
<mo>)</mo>
</mrow>
</mrow>
j为群组中的第j只青蛙个体被选入子群组的概率,Pj为第j只青蛙个体被选入子群组的概率;
3.4)计算最差青蛙个体的更新:在子群组划分完毕之后,在青蛙子群组内进行局部搜索的过程中,需要根据适应度函数值的大小来对各个青蛙个体进行排序,记录下具有全局最优适应度值的青蛙个体Pbest,并改进最差青蛙个体Pworst,计算最差青蛙的位置公式为(9)和(10):
W=Rand()×(Pbest-Pworst) (9)
newPworst=Pworst+W (10)
Rand()的作用是在[0,1]之间取随机数;W表示青蛙个体每次搜索时候移动的步长,-Wmax≤W≤Wmax。newPworst表示更新后的最差青蛙;
3.5)不断重复4)中的局部搜索策略,直到达到事先设定好的局部搜索的迭代次数,之后继续重复3)、4)的过程,直到选取全局最优解Pbest中的输入权值和偏置值,对带钢的测试样本集数据进行预测。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710442183.6A CN107274016A (zh) | 2017-06-13 | 2017-06-13 | 随机蛙跳算法优化对称极限学习机的带钢出口厚度预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710442183.6A CN107274016A (zh) | 2017-06-13 | 2017-06-13 | 随机蛙跳算法优化对称极限学习机的带钢出口厚度预测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107274016A true CN107274016A (zh) | 2017-10-20 |
Family
ID=60066208
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710442183.6A Pending CN107274016A (zh) | 2017-06-13 | 2017-06-13 | 随机蛙跳算法优化对称极限学习机的带钢出口厚度预测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107274016A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107729943A (zh) * | 2017-10-23 | 2018-02-23 | 辽宁大学 | 信息反馈极限学习机优化估值的缺失数据模糊聚类算法及其应用 |
CN108198134A (zh) * | 2017-12-29 | 2018-06-22 | 天津科技大学 | 基于组合平均极限学习机的单图像超分辨率重建方法 |
CN110110447A (zh) * | 2019-05-09 | 2019-08-09 | 辽宁大学 | 一种混合蛙跳反馈极限学习机带钢厚度预测方法 |
CN112170501A (zh) * | 2020-09-16 | 2021-01-05 | 太原理工大学 | 一种轧辊磨损凸度和热凸度的预测方法 |
CN112729826A (zh) * | 2020-12-21 | 2021-04-30 | 湘潭大学 | 一种人工鱼群-蛙跳优化极限学习机的轴承故障诊断方法 |
CN113505875A (zh) * | 2021-07-20 | 2021-10-15 | 珠海格力电器股份有限公司 | 一种故障预测方法、装置及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014113522A1 (en) * | 2013-01-16 | 2014-07-24 | Assurerx Health, Inc. | Methods for pharmacogenomic classification |
CN104200268A (zh) * | 2014-09-03 | 2014-12-10 | 辽宁大学 | 一种基于粒子群优化极限学习机的带钢出口厚度预测方法 |
CN104537033A (zh) * | 2014-12-23 | 2015-04-22 | 清华大学 | 基于贝叶斯网络和极限学习机的区间型指标预报方法 |
CN104657602A (zh) * | 2015-02-02 | 2015-05-27 | 北京科技大学 | 一种热连轧生产过程中带钢厚度预测方法及系统 |
-
2017
- 2017-06-13 CN CN201710442183.6A patent/CN107274016A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014113522A1 (en) * | 2013-01-16 | 2014-07-24 | Assurerx Health, Inc. | Methods for pharmacogenomic classification |
CN104200268A (zh) * | 2014-09-03 | 2014-12-10 | 辽宁大学 | 一种基于粒子群优化极限学习机的带钢出口厚度预测方法 |
CN104537033A (zh) * | 2014-12-23 | 2015-04-22 | 清华大学 | 基于贝叶斯网络和极限学习机的区间型指标预报方法 |
CN104657602A (zh) * | 2015-02-02 | 2015-05-27 | 北京科技大学 | 一种热连轧生产过程中带钢厚度预测方法及系统 |
Non-Patent Citations (1)
Title |
---|
张士强: "随机蛙跳优化的对称极限学习机算法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107729943A (zh) * | 2017-10-23 | 2018-02-23 | 辽宁大学 | 信息反馈极限学习机优化估值的缺失数据模糊聚类算法及其应用 |
CN108198134A (zh) * | 2017-12-29 | 2018-06-22 | 天津科技大学 | 基于组合平均极限学习机的单图像超分辨率重建方法 |
CN108198134B (zh) * | 2017-12-29 | 2022-01-18 | 天津科技大学 | 基于组合平均极限学习机的单图像超分辨率重建方法 |
CN110110447A (zh) * | 2019-05-09 | 2019-08-09 | 辽宁大学 | 一种混合蛙跳反馈极限学习机带钢厚度预测方法 |
CN110110447B (zh) * | 2019-05-09 | 2023-04-18 | 辽宁大学 | 一种混合蛙跳反馈极限学习机带钢厚度预测方法 |
CN112170501A (zh) * | 2020-09-16 | 2021-01-05 | 太原理工大学 | 一种轧辊磨损凸度和热凸度的预测方法 |
CN112170501B (zh) * | 2020-09-16 | 2022-05-27 | 太原理工大学 | 一种轧辊磨损凸度和热凸度的预测方法 |
CN112729826A (zh) * | 2020-12-21 | 2021-04-30 | 湘潭大学 | 一种人工鱼群-蛙跳优化极限学习机的轴承故障诊断方法 |
CN113505875A (zh) * | 2021-07-20 | 2021-10-15 | 珠海格力电器股份有限公司 | 一种故障预测方法、装置及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107274016A (zh) | 随机蛙跳算法优化对称极限学习机的带钢出口厚度预测方法 | |
CN109685252B (zh) | 基于循环神经网络和多任务学习模型的建筑能耗预测方法 | |
CN112989635B (zh) | 基于自编码器多样性生成机制的集成学习软测量建模方法 | |
Gholizadeh et al. | Optimal design of structures subjected to time history loading by swarm intelligence and an advanced metamodel | |
CN112053560B (zh) | 基于神经网络的短时交通流量预测方法、系统和存储介质 | |
CN104200268B (zh) | 一种基于粒子群优化极限学习机的带钢出口厚度预测方法 | |
CN107481048A (zh) | 一种基于混合模型的金融品种价格预测方法及系统 | |
CN110110447B (zh) | 一种混合蛙跳反馈极限学习机带钢厚度预测方法 | |
CN114896672B (zh) | 一种基于CSO-BiLSTM网络的桥梁动态位移重构方法 | |
Buragohain | Adaptive network based fuzzy inference system (ANFIS) as a tool for system identification with special emphasis on training data minimization | |
Lee et al. | Dynamic BIM component recommendation method based on probabilistic matrix factorization and grey model | |
Askari et al. | A new evolving compact optimised Takagi–Sugeno fuzzy model and its application to nonlinear system identification | |
Ibarra et al. | Deep learning for predicting the thermomechanical behavior of shape memory polymers | |
Tang et al. | Modeling high dimensional frequency spectral data based on virtual sample generation technique | |
BLASI | PERFORMANCE INCREMENT OF HIGH SCHOOL STUDENTS USING ANN MODEL AND SA ALGORITHM. | |
Cai et al. | A modified artificial bee colony algorithm for parameter estimation of fractional-order nonlinear systems | |
Zhong et al. | Multi-fidelity enhanced few-shot time series prediction model for structural dynamics analysis | |
Yerramareddy et al. | Developing empirical models from observational data using artificial neural networks | |
Mu et al. | Memristor-based Echo State Network and Prediction for Time Series | |
Saen | The use of artificial neural networks for technology selection in the presence of both continuous and categorical data | |
CN111563767A (zh) | 股票价格预测方法及装置 | |
Xianjiang et al. | Quantitative detection for gas mixtures based on the adaptive genetic algorithm and BP network | |
Xia et al. | Comparison of hybrid methods with different meta model used in bridge model-updating | |
Huang et al. | Prediction of mechanical properties of hot rolled strip based on DBN and composite quantile regression | |
Feng et al. | TrTr: A Versatile Pre-Trained Large Traffic Model based on Transformer for Capturing Trajectory Diversity in Vehicle Population |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20171020 |
|
WD01 | Invention patent application deemed withdrawn after publication |