[go: up one dir, main page]

JPH0890020A - Device for setting draft schedule for tandem rolling mill - Google Patents

Device for setting draft schedule for tandem rolling mill

Info

Publication number
JPH0890020A
JPH0890020A JP6218694A JP21869494A JPH0890020A JP H0890020 A JPH0890020 A JP H0890020A JP 6218694 A JP6218694 A JP 6218694A JP 21869494 A JP21869494 A JP 21869494A JP H0890020 A JPH0890020 A JP H0890020A
Authority
JP
Japan
Prior art keywords
learning
data
rolling
neural network
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6218694A
Other languages
Japanese (ja)
Inventor
Toshinori Tsubomoto
利紀 坪本
Hiroshi Narasaki
博司 楢崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kobe Steel Ltd
Original Assignee
Kobe Steel Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kobe Steel Ltd filed Critical Kobe Steel Ltd
Priority to JP6218694A priority Critical patent/JPH0890020A/en
Publication of JPH0890020A publication Critical patent/JPH0890020A/en
Pending legal-status Critical Current

Links

Landscapes

  • Control Of Metal Rolling (AREA)
  • Feedback Control In General (AREA)

Abstract

PURPOSE: To quantify an operator's knowledge/operation concerning a draft schedule by outputting through an inference means the draft data of each stand, which are stored in a second storing means corresponding to an information processing part that is ignited when inputted in a neural network after learning. CONSTITUTION: The learning data for rolling conditions and rolling purpose of a tandem rolling mill and the draft data of each stand are preliminarily stored in a first storage part 3. By inputting the learning data in a self- organizing neural network, a self-learning is performed in a learning part 5 on each information processing part constituting the neural network. The draft data of each stand, which correspond to each data classified at the time of completion of learning in the learning part 5, are stored in a third storage part 8 for each information processing in which the learning data are classified. The draft data of the third storage part 8, which correspond to the information processing part that is ignited when inputted in the neural network after learning, are outputted from an inference part 9.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は,タンデム式圧延機のド
ラフトスケジュール設定装置に係り,詳しくは圧延条件
や圧延目的に基づいてタンデム式圧延機のドラフトスケ
ジュールを決定する装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a draft schedule setting device for a tandem rolling mill, and more particularly to a device for determining a draft schedule for a tandem rolling mill based on rolling conditions and rolling objectives.

【0002】[0002]

【従来の技術】鋼板等の被圧延材をタンデム配置した複
数のスタンドに連続的に通して圧延する連続圧延機にお
けるドラフトスケジュール(圧下率配分)を圧延条件に
応じて最適化することは安定操業,品質精度確保のうえ
で重要である。このドラフトスケジュールを計算機を用
いて自動設定する方法が特開平5−38511号公報に
開示されている。この従来のドラフトスケジュール設定
方法は,予めオペレータのドラフトスケジュールに関す
る知識をバックプロパゲーションアルゴリズムで学習し
た階層型ニューラルネットワークを用いて定量化し,そ
れを用いてドラフトスケジュールを設定するものであ
る。図5はその概略処理手順を示したものであり,以下
説明する。まず,階層型ニューラルネットワークの構築
及び学習について説明する。最初に構成を以下のように
定義した階層型ニューラルネットワークの構築を行う
(図6参照)(S51)。 (1)入力層のユニット数はオペレータがドラフトスケ
ジュールを決定するために必要な板幅,板厚,ロール粗
さ,圧延材材質等の圧延条件の数とする。 (2)出力層のユニット数はタンデム圧延機のスタンド
数とする。 (3)中間層の層数は2層とし,ユニット数は入力層の
ユニット数以上で,かつ出力層のユニット数以上の任意
の数とする。 次に,入力層に入力する圧延条件と出力層の望ましい出
力(熟練オペレータが設定した各スタンドの圧下率配
分)から構成されたデータ対の集合を上記ステップS5
1で構築された階層型ニューラルネットワークの学習デ
ータとして収集する(S52)。この収集した学習デー
タの入力データ(圧延条件),教師データ(オペレータ
の設定した圧下率)に対し各データが±0.5の範囲内
に収まるように正規化を行う(S53)。次に,上記ス
テップS52,S53で得られた学習データを用い,正
規化後の圧延条件を入力すると,それと対になっている
教師データを出力するように,ユニット間の重みをバッ
クプロパゲーション法を用いて修正する(S54)。学
習は,ニューラルネットワークの出力と教師データの2
乗平均誤差が任意の設定値αより小さくなった時点まで
行う方法と,学習回数が任意の設定回数Nに達した時点
まで行う方法があるが,ここでは過学習を避けるため,
学習回数を設定する方法をとっている(S55)。次
に,対象圧延材の圧延条件に対するドラフトスケジュー
ルを求める方法を説明する。まず,対象圧延材の圧延条
件に対し学習時と同様の正規化を行う。そして,正規化
後の上記圧延条件を学習済みのニューラルネットワーク
に入力すると,出力層より正規化されたドラフトスケジ
ュール推定値を得ることができる(S56,S57)。
出力層からの各スタンドの圧下率の推定値は±0.5に
正規化されたものであるから,非正規化を行うことによ
り,対象圧延材の圧延条件に対するドラフトスケジュー
ルを求めることができる。(S58)。
2. Description of the Related Art It is a stable operation to optimize a draft schedule (reduction ratio distribution) in a continuous rolling mill in which a material to be rolled such as a steel plate is continuously passed through a plurality of stands arranged in tandem and rolled according to rolling conditions. , It is important for ensuring quality accuracy. A method for automatically setting this draft schedule using a computer is disclosed in Japanese Patent Laid-Open No. 5-38511. This conventional draft schedule setting method is to quantify the knowledge of the operator's draft schedule in advance using a hierarchical neural network learned by a backpropagation algorithm, and use this to set the draft schedule. FIG. 5 shows a schematic processing procedure thereof, which will be described below. First, the construction and learning of a hierarchical neural network will be described. First, a hierarchical neural network whose structure is defined as follows is constructed (see FIG. 6) (S51). (1) The number of units in the input layer is the number of rolling conditions such as strip width, strip thickness, roll roughness, and rolled material required for the operator to determine the draft schedule. (2) The number of units in the output layer is the number of stands in the tandem rolling mill. (3) The number of intermediate layers is two, and the number of units is any number that is greater than or equal to the number of units in the input layer and greater than or equal to the number of units in the output layer. Next, a set of data pairs composed of the rolling conditions input to the input layer and the desired output of the output layer (reduction ratio distribution of each stand set by a skilled operator) is set in the above step S5.
The learning data of the hierarchical neural network constructed in 1 is collected (S52). The input data (rolling condition) of the collected learning data and the teacher data (reduction ratio set by the operator) are normalized so that each data falls within a range of ± 0.5 (S53). Next, using the learning data obtained in steps S52 and S53 above, when the normalized rolling conditions are input, the weights between the units are backpropagated so that the teacher data paired with them are output. Is corrected using (S54). Learning consists of neural network output and teacher data.
There are a method of performing until the time when the multiplicative mean error becomes smaller than an arbitrary set value α and a method of performing until the time when the number of learning times reaches an arbitrary set number N, but here, in order to avoid overlearning,
The method of setting the number of times of learning is adopted (S55). Next, a method for obtaining a draft schedule for the rolling conditions of the target rolled material will be described. First, the same normalization as during learning is performed on the rolling conditions of the target rolled material. Then, when the normalized rolling condition is input to the learned neural network, the normalized draft schedule estimated value can be obtained from the output layer (S56, S57).
Since the estimated value of the rolling reduction of each stand from the output layer is normalized to ± 0.5, the draft schedule for the rolling condition of the target rolled material can be obtained by performing non-normalization. (S58).

【0003】[0003]

【発明が解決しようとする課題】上記したような従来の
タンデム式圧延機のドラフトスケジュール設定装置で
は,入力データが少ない場合(例えば,板幅,板厚,ロ
ール粗さ,圧延材材質の4データ),バックプロパゲー
ションアルゴリズムを用いて学習を繰り返し,必要とさ
れる誤差内の圧下率を出力するように階層型ネットワー
クを得ることができる。ところが実際にオペレータがド
ラフトスケジュールを設定する場合には,圧延条件のみ
ならず,圧延目的(例えば板厚重視,板幅重視,生産性
重視,クラウン重視)をも考慮に入れている。このよう
なオペレータの知識/操作をより正確に再現するため入
力データ数を多くすると,局所解に落ち込むなどによ
り,必要とされる誤差内の圧下率を出力する階層型ニュ
ーラルネットワークを得ることができなくなるという教
師あり学習特有の問題があった。本発明では,上記事情
に鑑みてなされたものであり,その目的とするところ
は,入力データ数が多い場合でもオペレータのドラフト
スケジュールに関する知識/操作を定量化し,必要とさ
れる誤差内の圧下率を出力可能なドラフトスケジュール
設定装置を提供することである。
In the conventional draft schedule setting device for the tandem type rolling mill as described above, when the input data is small (for example, 4 data of strip width, strip thickness, roll roughness, rolled material). ), The learning is repeated using the backpropagation algorithm, and a hierarchical network can be obtained so as to output the reduction rate within the required error. However, when the operator actually sets the draft schedule, not only the rolling conditions but also the rolling purpose (for example, emphasis on sheet thickness, sheet width, productivity, crown) is taken into consideration. If the number of input data is increased in order to more accurately reproduce the knowledge / operation of such an operator, it is possible to obtain a hierarchical neural network that outputs a reduction ratio within the required error due to a drop in the local solution. There was a problem peculiar to supervised learning that it disappeared. The present invention has been made in view of the above circumstances, and an object thereof is to quantify the knowledge / operation regarding the draft schedule of the operator even when the number of input data is large, and to reduce the reduction ratio within the required error. It is to provide a draft schedule setting device capable of outputting.

【0004】[0004]

【課題を解決するための手段】上記目的を達成するため
に本発明は,タンデム式圧延機の圧下条件及び圧延目的
からなる学習データと各スタンドの圧下率データとを対
応させて予め記憶しておく第1の記憶手段と,上記第1
の記憶手段に記憶された学習データを自己組織型ニュー
ラルネットワークに入力することにより,該ニューラル
ネットワークを構成する各情報処理部の自己学習を行う
学習手段と,上記学習手段による学習の完了時に分類さ
れた学習データに対応する各スタンドの圧下データを,
学習データが分類された情報処理部ごとに記憶する第2
の記憶手段と,新たに入力された圧下条件及び圧下目的
からなる入力データを,上記学習後のニューラルネット
ワークに入力したときに発火する情報処理部に対応する
上記第2の記憶手段に記憶された各スタンドの圧下率デ
ータを出力する推論手段とを具備してなるタンデム式圧
延機のドラフトスケジュール設定装置として構成されて
いる。さらには,上記学習データ,圧下率データ及び入
力データがいずれも正規化されたデータであるタンデム
式圧延機のドラフトスケジュール設定装置である。さら
には,上記推論手段における情報処理部の発火条件が該
情報処理部の荷重と入力データとの内積が最大となるこ
とであるタンデム式圧延機のドラフトスケジュール設定
装置である。さらには,上記第2の記憶手段が各スタン
ドの圧下率データを平均化して記憶するタンデム式圧延
機のドラフトスケジュール設定装置である。
In order to achieve the above object, the present invention stores learning data consisting of a rolling condition and a rolling purpose of a tandem type rolling mill and the rolling reduction data of each stand in association with each other. A first storage means for storing the first storage means;
By inputting the learning data stored in the memory means to the self-organizing neural network, the learning means for performing self-learning of each information processing unit constituting the neural network, and the learning means classified when the learning by the learning means are completed. The reduction data of each stand corresponding to the learning data
Second storing the learning data for each information processing unit into which the learning data is classified
The storage means and the newly input input data including the reduction condition and the reduction purpose are stored in the second storage means corresponding to the information processing unit that is fired when input to the neural network after learning. It is configured as a draft schedule setting device of a tandem rolling mill, which is provided with an inference unit that outputs rolling reduction data of each stand. Further, it is a draft schedule setting device for a tandem rolling mill in which all of the learning data, the rolling reduction data and the input data are normalized data. Further, it is a draft schedule setting device for a tandem rolling mill in which the ignition condition of the information processing unit in the inference means is that the inner product of the load of the information processing unit and the input data is maximum. Further, the second storage means is a draft schedule setting device for a tandem type rolling mill that averages and stores the rolling reduction data of each stand.

【0005】[0005]

【作用】本発明によれば,タンデム式圧延機の圧延条件
及び圧延目的からなる学習データと各スタンドの圧下率
データとが第1の記憶手段により予め記憶される。上記
第1の記憶手段に記憶された学習データが自己組織型ニ
ューラルネットワークに入力されることにより,該ニュ
ーラルネットワークを構成する各情報処理部の自己学習
が学習手段により行われる。上記学習手段による学習の
完了時に分類された各データに対応する各スタンドの圧
下率データが,学習データが分類された情報処理毎に第
2の記憶手段により記憶される。新たに入力された圧延
条件及び圧延目的からなる入力データが,上記学習後の
ニューラルネットワークに入力された時に発火する情報
処理部に対応する上記第2の記憶手段に記憶された各ス
タンドの圧下率データが推論手段により出力される。こ
れにより,入力データ数が多い場合でも,オペレータの
ドラフトスケジュールに関する知識/操作を定量化し,
自己組織化型ニューラルネットワークにより教師無し学
習を行うので,上記入力データ数の増大にもかかわらず
学習のための反復計算回数はほとんど変化せず,かつ誤
差の少ないドラフトスケジュールの推測が可能となる。
According to the present invention, the learning data including the rolling condition and the rolling purpose of the tandem type rolling mill and the rolling reduction data of each stand are stored in advance by the first storage means. When the learning data stored in the first storage means is input to the self-organizing neural network, the learning means performs self-learning of each information processing unit that constitutes the neural network. The rolling reduction data of each stand corresponding to each data classified when the learning by the learning unit is completed is stored in the second storage unit for each information processing in which the learning data is classified. The reduction rate of each stand stored in the second storage means corresponding to the information processing unit that is fired when the newly input input data including the rolling condition and the rolling purpose is input to the learned neural network. The data is output by the inference means. As a result, even if the number of input data is large, the operator's knowledge / operation regarding the draft schedule can be quantified,
Since unsupervised learning is performed by the self-organizing neural network, the number of iterative calculations for learning hardly changes despite the increase in the number of input data and it is possible to estimate the draft schedule with less error.

【0006】[0006]

【実施例】以下添付図面を参照して,本発明を具体化し
た実施例につき説明し,本発明の理解に供する。尚,以
下の実施例は,本発明を具体化した一例であって,本発
明の技術的範囲を限定する性格のものではない。ここ
に,図1は本発明の一実施例に係るタンデム式圧延機の
ドラフトスケジュール設定装置A廻りの概略構成を示す
ブロック図,図2は上記装置Aによる概略処理手順を示
すフロー図,図3はコホーネン型ニューラルネットワー
クの概念図,図4はコホーネン型ニューラルネットワー
クの発火状態の変化を示す説明図である。図1に示すご
とく,本実施例に係るタンデム式圧延機のドラフトスケ
ジュール設定装置Aは,主として,タンデム式圧延機の
圧下条件及び圧延目的からなる学習データと各スタンド
の圧下率データとを対応させて予め記憶しておく第1記
憶部3(第1の記憶手段に相当)と,第1記憶部3に記
憶された学習データを自己組織型ニューラルネットワー
クに入力することにより,このニューラルネットワーク
を構成する各情報処理部の自己学習を行う学習部5(学
習手段に相当)と,学習部5による学習の完了時に分類
された学習データに対応する各スタンドの圧下率データ
を,学習データが分類された情報処理部ごとに記憶する
第3記憶部8(第2の記憶手段に相当)と,新たに入力
された圧下条件及び圧延目的からなる入力データを,上
記学習後のニューラルネットワークに入力したときに発
火する情報処理部に対応する第3記憶部8に記憶された
各スタンドの圧下率データを出力する推定部9(推論手
段に相当)とから構成されている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments embodying the present invention will be described below with reference to the accompanying drawings for the understanding of the present invention. The following embodiments are examples of embodying the present invention and are not intended to limit the technical scope of the present invention. Here, FIG. 1 is a block diagram showing a schematic configuration around a draft schedule setting device A of a tandem rolling mill according to an embodiment of the present invention, FIG. 2 is a flow chart showing a schematic processing procedure by the device A, and FIG. Is a conceptual diagram of the Kohonen type neural network, and FIG. 4 is an explanatory diagram showing changes in the firing state of the Kohonen type neural network. As shown in FIG. 1, the draft schedule setting device A of the tandem rolling mill according to the present embodiment mainly associates learning data including rolling reduction conditions and rolling purposes of the tandem rolling mill with rolling reduction data of each stand. A first storage unit 3 (corresponding to a first storage unit) that is stored in advance and learning data stored in the first storage unit 3 are input to a self-organizing neural network to configure this neural network. The learning data is classified into the learning unit 5 (corresponding to learning means) that performs self-learning of each information processing unit and the rolling reduction data of each stand corresponding to the learning data classified when the learning by the learning unit 5 is completed. The third storage unit 8 (corresponding to the second storage unit) that stores each information processing unit, and the input data including the newly input reduction condition and rolling purpose It is composed of an estimation unit 9 (corresponding to an inference unit) that outputs the rolling reduction data of each stand stored in the third storage unit 8 corresponding to the information processing unit that fires when input to the subsequent neural network. .

【0007】さらに,上記学習データ,圧下率データ及
び入力データがいずれも正規化されたデータであるとし
てもよい。さらに,上記推定部9における情報処理部の
発火条件が,その情報処理部の荷重と入力データとの内
積が最大となることであるとしてもよい。さらに,上記
第3記憶部8が各スタンドの圧下率データを平均化して
記憶することとしてもよい。以下,図2を参照して上記
装置Aによる処理手順について説明する。この処理手順
の全体構成は,「学習過程」(ステップS1〜S3)と
「想起プロセス」(ステップS4〜S8)とに大別され
る。まず,「学習過程」について説明する。予めオペレ
ータの知識を学習させる際に使用する圧延材の圧延条件
(板幅,狙い厚,圧延材質,ロール粗さ,ラフバー厚)
や圧延目的(板厚重視,生産性重視,クラウン重視で0
〜1の実数)からなる学習データとオペレータが設定し
た各スタンドの圧下率(0〜1の実数にて正規化済み)
とを対にして収集しておき,それを第1記憶部3に格納
しておく(S1)。上記学習データで圧延条件はオーダ
ーの異なる複数のデータより構成されており,演算によ
る桁落ちによって誤差が発生するのを防ぐため,まず各
データを一律に扱うことができるように正規化部4にて
正規化を行う(S2)。
Further, all of the learning data, the rolling reduction data, and the input data may be normalized data. Furthermore, the firing condition of the information processing unit in the estimation unit 9 may be that the inner product of the load of the information processing unit and the input data is maximum. Furthermore, the third storage unit 8 may average and store the rolling reduction data of each stand. Hereinafter, the processing procedure of the apparatus A will be described with reference to FIG. The overall structure of this processing procedure is roughly classified into a "learning process" (steps S1 to S3) and a "recall process" (steps S4 to S8). First, the "learning process" will be described. Rolling conditions (roll width, target thickness, rolling material, roll roughness, rough bar thickness) of rolled material used when learning operator's knowledge in advance
And rolling purpose (0 for emphasis on plate thickness, productivity, crown)
Learning data consisting of ~ 1) and the rolling reduction of each stand set by the operator (normalized with a real number of 0 ~ 1)
And are collected in pairs and stored in the first storage unit 3 (S1). In the above learning data, the rolling condition is composed of a plurality of data of different orders, and in order to prevent an error from occurring due to a cancellation of digits due to calculation, first, the normalizing unit 4 is arranged so that each data can be treated uniformly. Normalization is performed (S2).

【0008】次に正規化後の学習データを用いて図3
(a)にその概念を示したコホーネン型ネットワーク
(自己組織化型ネットワーク)の学習(自己組織化特徴
マッピング)を以下のようにして行う。 (1)コホーネン型ネットワークへ正規化後の学習デー
タを入力し,ニューロン(情報処理部)の内付随する荷
重と入力データとの内積が最大であるニューロンを抽出
する。その場合,荷重,入力データ共に規格化されてお
り,両者の方向が同じになったとき,その内積が最大と
なる。 (2)抽出されたニューロン及び図4で示された範囲の
ニューロンの荷重を入力データとの内積が大きくなるよ
うに修正する。 (3)上記処理を繰り返すことにより,各ニューロンに
分類される学習データの代表的な値が付随している荷重
に学習される。 以上のような自己組織化特徴マッピングは教師無し学習
であり,上記(1),(2)の反復回数は入力データ数
が増加しても十分な学習データが用意されているならば
5000回程度で十分である。ここで,学習についてさ
らに説明を加える。圧延条件,圧延目的を表す正規化さ
れた学習データの集合を次式で表す。 D=〔d1 ,d2 ,…dn 〕 次に集合Dのデータを次のようなパターンに分類する方
法をニューラルネットワークに学習させる。 Dp =〔d1 p ,d2 p ,…dm p 〕,m<n 通常,コホーネン型ニューラルネットワークにおいて
は,図3(a)に示すようにニューロンが格子状に並べ
られる。 ここでは,説明の便宜上,図3(a)を簡略
化した図3(b)について述べる。
Next, using the learning data after normalization, FIG.
Learning (self-organizing feature mapping) of the Kohonen network (self-organizing network) whose concept is shown in (a) is performed as follows. (1) The learning data after normalization is input to the Kohonen network, and the neuron (in the information processing unit) having the maximum inner product of the associated weight and the input data is extracted. In that case, both the load and the input data are standardized, and the inner product becomes maximum when the directions of both are the same. (2) The weights of the extracted neurons and the neurons in the range shown in FIG. 4 are corrected so that the inner product with the input data becomes large. (3) By repeating the above process, the weights associated with the representative values of the learning data classified into each neuron are learned. The self-organizing feature mapping as described above is unsupervised learning, and the number of iterations of (1) and (2) above is about 5000 if sufficient learning data is prepared even if the number of input data increases. Is enough. Here, the learning will be further explained. The set of normalized learning data representing rolling conditions and rolling purpose is expressed by the following equation. D = [d 1 , d 2 , ... D n ] Next, the neural network is trained to learn a method of classifying the data of the set D into the following patterns. D p = [d 1 p , d 2 p , ... d m p ], m <n Normally, in the Kohonen type neural network, neurons are arranged in a lattice as shown in FIG. Here, for convenience of description, FIG. 3B, which is a simplified version of FIG. 3A, will be described.

【0009】今,m=m1 ×m2 とする。各ニューロン
j (j=1,2,…,m)に対し,パターンベクトル
j p が対応づけられている。データベクトルdi (i
=1,2,…,n)がニューラルネットワークに入力さ
れると,各ニューロンnj はデータベクトルdi と自分
のパターンベクトルdj p の内積分だけ発火する。すな
わち,各ニューロンnj の発火度Aj は次式で与えられ
る。 Aj =(di ,dj p ) 今, Ak =max Aj (1≦j≦m)(すなわち,nk
は発火度最大のニューロン) とすれば,データdはパターンdk p に分類される。コ
ホーネン型ニューラルネットワークの学習では,データ
Dを繰り返し,ニューラルネットワークに入力し,その
たびに発火度の最大のニューロンとその近傍のニューロ
ンとに対し,それらのパターンベクトルdj p を次のよ
うに更新する。
Now, let m = m 1 × m 2 . A pattern vector d j p is associated with each neuron n j (j = 1, 2, ..., M). Data vector d i (i
, 1, 2, ..., N) is input to the neural network, each neuron n j fires only the inner integral of the data vector d i and its own pattern vector d j p . That is, the firing degree A j of each neuron n j is given by the following equation. A j = (d i , d j p ) Now, A k = max A j (1 ≦ j ≦ m) (that is, n k
Is the neuron with the highest firing degree), the data d is classified into the pattern d k p . In the learning of the Kohonen type neural network, the data D is repeatedly input to the neural network, and each time, the pattern vector d j p of the neuron having the highest firing degree and the neighboring neurons is updated as follows. To do.

【数1】 このようにして,〔dj p ;j=1,2,…,m〕が獲
得される。すなわち,自己学習がなされる。
[Equation 1] In this way, [d j p ; j = 1, 2, ..., M] is obtained. That is, self-learning is performed.

【0010】上記学習完了後,コホーネン型ニューラル
ネットワークを構成しているニューロンの荷重を第2記
憶部6に格納する(S3)。引き続いて「想起プロセ
ス」について説明する。上記第1記憶部3に記憶されて
いる全ての学習データを正規化部4により正規化した
後,学習後の荷重をセットしたコホーネン型ニューラル
ネットワークに入力し,データ分類部7によりニューロ
ンに付随する荷重と入力データとの内積が最大となった
ニューロンに入力データを分類する(S4)。分類され
た入力データに対応する各スタンドの圧下率の平均を入
力データが分類されたニューロン毎に第3記憶部8に格
納する(S5)。次に入力部2より入力された新たな圧
延状態,圧延目的から各スタンドの圧下率を推測する場
合について述べる。まず,上位コンピュータ1より入力
部2を介して圧延状態(圧延条件)や圧延目的からなる
入力データを入力する(S6)。この入力データを正規
化部4により正規化する(S7)。この後,第2記憶部
6に格納されている学習済みの荷重をセットしたコホー
ネン型ニューラルネットワークに入力し,データ分類部
7によりニューロンの内付随する荷重と入力データとの
内積が最大であるニューロンを抽出し,抽出されたニュ
ーロンに対応している第3記憶部8に格納されている各
スタンドの圧下率の平均値を推定部9において上記圧延
状態や圧延目的を持つ圧延材の各スタンド毎の圧下率と
推定する(S8)。
After the learning is completed, the weights of the neurons forming the Kohonen type neural network are stored in the second storage section 6 (S3). Next, the "recall process" will be described. After normalizing all the learning data stored in the first storage unit 3 by the normalization unit 4, it is input to the Kohonen type neural network in which the weights after learning are set, and the data classification unit 7 accompanies the neurons. The input data is classified into the neuron having the maximum inner product of the weight and the input data (S4). The average of the rolling reduction of each stand corresponding to the classified input data is stored in the third storage unit 8 for each neuron into which the input data is classified (S5). Next, a case will be described in which the rolling reduction of each stand is estimated from the new rolling state and the rolling purpose input from the input unit 2. First, input data including a rolling condition (rolling condition) and a rolling purpose is input from the host computer 1 via the input unit 2 (S6). This input data is normalized by the normalization unit 4 (S7). After that, the learned weights stored in the second storage unit 6 are input to the Kohonen type neural network, and the data classification unit 7 outputs the inner product of the associated weights of the neurons and the input data to the maximum neuron. And the average value of the rolling reduction of each stand stored in the third storage unit 8 corresponding to the extracted neuron is estimated by the estimation unit 9 for each stand of the rolled material having the above-mentioned rolling state or rolling purpose. (S8).

【0011】上記「想起プロセス」では,学習済みのニ
ューラルネットワークに新たなデータdを入力し,発火
度最大のニューロンを探すこととしている。このとき,
同一のニューロンを発火させるデータは「似ている」と
みなす。ただし,「想起プロセス」においては,次のよ
うな過程がある。 (1)まず,学習に用いたデータに対し,それがどのニ
ューロンを最大に発火させるかにより,学習データを次
のように分類する。 D=D1 ∪D2 ∪…∪Dm (2)分類データDi に対して平均圧下率パターンを計
算しておく。すなわち,各ニューロンnj に対し,平均
圧下率パターンを対応させておく。 (3)あるデータdが与えられたとき,それに対して発
火度が最大になるニューロンを探し,そのニューロンに
対応する平均圧下率パターンを呼び出す。 上記ステップS4が(1)の過程を,ステップS5が
(2)の過程を,ステップS6〜S8が(3)の過程を
それぞれ実行する。前記各スタンドの圧下率を実現する
ため,計測機器10,駆動モータ制御装置11,圧下制
御装置12に情報を伝達する。従って,オペレータの知
識/操作を自動的に定量化できる本ドラフトスケジュー
ル設定装置によると,圧延条件や圧延目的で構成される
入力データ毎に荷重を付与し,上記入力データと荷重の
総和に関する関する関数を出力するべく格子状に概念上
配列された複数のニューロンからなるコホーネン型ニュ
ーラルネットワーク部を自己組織化特徴マッピングにて
教師無し学習するので,入力データ数が増加しても学習
のための反復計算回数はほとんど変化せず,かつ誤差の
少ないドラフトスケジュールの推測が可能となる。尚,
上記実施例では,第3記憶部8には各スタンドの圧下率
の平均値を格納しているが,実使用に際しては,個別の
データを格納し,推定部9による推定時に平均化するこ
とでもよい。また,圧下率の平均値ではなく,その特定
の値を用いることとしてもよい。例えば最大値,最小値
等でもよい。
In the above "recall process", new data d is input to the learned neural network to search for a neuron having the highest firing degree. At this time,
Data that fires the same neuron is considered "similar". However, the "recall process" has the following processes. (1) First, with respect to the data used for learning, the learning data is classified as follows according to which neuron fires the maximum. D = D 1 ∪D 2 ∪ ... ∪D m (2) Calculate the average rolling reduction pattern for the classification data D i . That is, the average rolling reduction pattern is associated with each neuron n j . (3) When a certain data d is given, the neuron with the highest firing degree is searched for, and the average rolling reduction pattern corresponding to the neuron is called. The step S4 executes the step (1), the step S5 executes the step (2), and the steps S6 to S8 execute the step (3). Information is transmitted to the measuring device 10, the drive motor control device 11, and the reduction control device 12 in order to realize the reduction ratio of each stand. Therefore, according to this draft schedule setting device capable of automatically quantifying the operator's knowledge / operation, a load is given to each input data composed of rolling condition and rolling purpose, and a function related to the sum of the input data and the load is given. Since the Kohonen-type neural network part consisting of a plurality of neurons conceptually arranged in a grid pattern to output is unsupervised learning by self-organizing feature mapping, iterative calculation for learning is performed even if the number of input data increases. It is possible to infer a draft schedule with almost no change in the number of times and with little error. still,
In the above-described embodiment, the average value of the rolling reduction ratio of each stand is stored in the third storage unit 8. However, in actual use, individual data may be stored and averaged at the time of estimation by the estimation unit 9. Good. Further, instead of the average value of the rolling reduction, its specific value may be used. For example, the maximum value or the minimum value may be used.

【0012】[0012]

【発明の効果】本発明に係るタンデム式圧延機のドラフ
トスケジュール設定装置は,上記したように構成されて
いるため,入力データ数が多い場合でも,オペレータの
ドラフトスケジュールに関する知識/操作を定量化し,
自己組織化型ニューラルネットワークにより教師無し学
習を行うので,上記入力データ数の増大にもかかわらず
学習のための反復計算回数はほとんど変化せず,かつ誤
差の少ないドラフトスケジュールの推測が可能となる。
Since the draft schedule setting device for the tandem rolling mill according to the present invention is configured as described above, even if the number of input data is large, the operator's knowledge / operation regarding the draft schedule can be quantified.
Since unsupervised learning is performed by the self-organizing neural network, the number of iterative calculations for learning hardly changes despite the increase in the number of input data and it is possible to estimate the draft schedule with less error.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明の一実施例に係るタンデム式圧延機の
ドラフトスケジュール設定装置A廻りの概略構成を示す
ブロック図。
FIG. 1 is a block diagram showing a schematic configuration around a draft schedule setting device A of a tandem rolling mill according to an embodiment of the present invention.

【図2】 上記装置Aによる概略処理手順を示すフロー
図。
FIG. 2 is a flowchart showing a schematic processing procedure by the apparatus A.

【図3】 コホーネン型ニューラルネットワークの概念
図。
FIG. 3 is a conceptual diagram of a Kohonen neural network.

【図4】 コホーネン型ニューラルネットワークの発火
状態の変化を示す説明図。
FIG. 4 is an explanatory diagram showing changes in the firing state of a Kohonen neural network.

【図5】 従来のタンデム式圧延機のドラフトスケジュ
ール設定方法の一例における概略処理手順を示すフロー
図。
FIG. 5 is a flowchart showing a schematic processing procedure in an example of a draft schedule setting method for a conventional tandem rolling mill.

【図6】 従来の階層型ニューラルネットワークの概念
図。
FIG. 6 is a conceptual diagram of a conventional hierarchical neural network.

【符号の説明】[Explanation of symbols]

A…ドラフトスケジュール設定装置 3…第1記憶部(第1の記憶手段に相当) 5…学習部(学習手段に相当) 8…第3記憶部(第2の記憶手段に相当) 9…推定部(推論手段に相当) A ... Draft schedule setting device 3 ... First storage unit (corresponding to first storage unit) 5 ... Learning unit (corresponding to learning unit) 8 ... Third storage unit (corresponding to second storage unit) 9 ... Estimating unit (Equivalent to inference means)

フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G05B 13/02 L 9131−3H G06F 15/18 550 E 8837−5L G06G 7/60 Continuation of front page (51) Int.Cl. 6 Identification number Office reference number FI Technical display location G05B 13/02 L 9131-3H G06F 15/18 550 E 8837-5L G06G 7/60

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 タンデム式圧延機の圧下条件及び圧延目
的からなる学習データと各スタンドの圧下率データとを
対応させて予め記憶しておく第1の記憶手段と,上記第
1の記憶手段に記憶された学習データを自己組織型ニュ
ーラルネットワークに入力することにより,該ニューラ
ルネットワークを構成する各情報処理部の自己学習を行
う学習手段と,上記学習手段による学習の完了時に分類
された学習データに対応する各スタンドの圧下データ
を,学習データが分類された情報処理部ごとに記憶する
第2の記憶手段と,新たに入力された圧下条件及び圧下
目的からなる入力データを,上記学習後のニューラルネ
ットワークに入力したときに発火する情報処理部に対応
する上記第2の記憶手段に記憶された各スタンドの圧下
率データを出力する推論手段とを具備してなるタンデム
式圧延機のドラフトスケジュール設定装置。
1. A first storage means for preliminarily storing, in association with each other, learning data consisting of a rolling condition of a tandem type rolling mill and a rolling purpose and rolling reduction data of each stand, and the first storing means. By inputting the stored learning data to the self-organizing neural network, a learning means for performing self-learning of each information processing unit constituting the neural network, and learning data classified when the learning by the learning means is completed Second learning means for storing the corresponding rolling reduction data of each stand for each information processing unit into which the learning data is classified, and the newly input neural network after the learning, with the input data including the rolling reduction condition and the rolling reduction purpose. It is recommended to output the rolling reduction data of each stand stored in the second storage means corresponding to the information processing unit that fires when input to the network. And a draft schedule setting device for a tandem type rolling mill.
【請求項2】 上記学習データ,圧下率データ及び入力
データがいずれも正規化されたデータである請求項1記
載のタンデム式圧延機のドラフトスケジュール設定装
置。
2. The draft schedule setting device for a tandem rolling mill according to claim 1, wherein the learning data, the reduction ratio data, and the input data are all normalized data.
【請求項3】 上記推論手段における情報処理部の発火
条件が該情報処理部の荷重と入力データとの内積が最大
となることである請求項1記載のタンデム式圧延機のド
ラフトスケジュール設定装置。
3. The draft schedule setting device for a tandem rolling mill according to claim 1, wherein the ignition condition of the information processing unit in the inference means is that the inner product of the load of the information processing unit and the input data is maximum.
【請求項4】 上記第2の記憶手段が各スタンドの圧下
率データを平均化して記憶する請求項1記載のタンデム
式圧延機のドラフトスケジュール設定装置。
4. The draft schedule setting device for a tandem rolling mill according to claim 1, wherein the second storage means averages and stores the rolling reduction data of each stand.
JP6218694A 1994-09-13 1994-09-13 Device for setting draft schedule for tandem rolling mill Pending JPH0890020A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6218694A JPH0890020A (en) 1994-09-13 1994-09-13 Device for setting draft schedule for tandem rolling mill

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6218694A JPH0890020A (en) 1994-09-13 1994-09-13 Device for setting draft schedule for tandem rolling mill

Publications (1)

Publication Number Publication Date
JPH0890020A true JPH0890020A (en) 1996-04-09

Family

ID=16723954

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6218694A Pending JPH0890020A (en) 1994-09-13 1994-09-13 Device for setting draft schedule for tandem rolling mill

Country Status (1)

Country Link
JP (1) JPH0890020A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010036220A (en) * 2008-08-05 2010-02-18 Kobe Steel Ltd Rolling condition arithmetic unit, method for the same and rolling system
WO2020166124A1 (en) 2019-02-12 2020-08-20 Jfeスチール株式会社 Method for determining setting conditions of manufacturing facility, method for determining mill setup setting value of rolling mill, device for determining mill setup setting value of rolling mill, method for manufacturing manufactured object, and method for manufacturing rolled stock
CN113926865A (en) * 2020-06-29 2022-01-14 宝山钢铁股份有限公司 Casting blank slag inclusion forecasting method, machine cleaning control method, computing device and storage medium

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010036220A (en) * 2008-08-05 2010-02-18 Kobe Steel Ltd Rolling condition arithmetic unit, method for the same and rolling system
WO2020166124A1 (en) 2019-02-12 2020-08-20 Jfeスチール株式会社 Method for determining setting conditions of manufacturing facility, method for determining mill setup setting value of rolling mill, device for determining mill setup setting value of rolling mill, method for manufacturing manufactured object, and method for manufacturing rolled stock
JP2020134967A (en) * 2019-02-12 2020-08-31 Jfeスチール株式会社 Method for determining setting conditions for manufacturing equipment, method for determining mill setup setting value for rolling mill, device for determining mill setup setting value for rolling mill, manufacturing method for manufactured products, and manufacturing method for rolled material
KR20210114459A (en) 2019-02-12 2021-09-23 제이에프이 스틸 가부시키가이샤 A method for determining the setting conditions of a manufacturing facility, a method for determining a mill set-up set value of a rolling mill, an apparatus for determining a mill set-up set value for a rolling mill, a manufacturing method for a product, and a manufacturing method for a rolled material
CN113439244A (en) * 2019-02-12 2021-09-24 杰富意钢铁株式会社 Method for determining setting conditions of manufacturing facility, method for determining rolling mill setting values of rolling mill, device for determining rolling mill setting values of rolling mill, method for manufacturing product, and method for manufacturing rolled material
US12285792B2 (en) 2019-02-12 2025-04-29 Jfe Steel Corporation Setup condition determining method for manufacturing facilities, mill setup value determining method for rolling mill, mill setup value determining device for rolling mill, product manufacturing method, and rolled material manufacturing method
CN113926865A (en) * 2020-06-29 2022-01-14 宝山钢铁股份有限公司 Casting blank slag inclusion forecasting method, machine cleaning control method, computing device and storage medium
CN113926865B (en) * 2020-06-29 2024-03-08 宝山钢铁股份有限公司 Casting blank slag inclusion prediction method, machine cleaning control method, computing equipment and storage medium

Similar Documents

Publication Publication Date Title
WO1989011684A1 (en) Inference rule determination method and inference apparatus
CN113011567B (en) Training method and device of convolutional neural network model
US5680784A (en) Method of controlling form of strip in rolling mill
CN113570007B (en) Method, device and equipment for optimizing construction of part defect identification model and storage medium
CN115879369A (en) Coal mill fault early warning method based on optimized LightGBM algorithm
JPH0636061A (en) Learning system of hierarchic neural network
US7480535B2 (en) Method for the computer-supported generation of prognoses for operative systems and a system for the generation of prognoses for operative systems
John et al. Hybrid neural–GA model to predict and minimise flatness value of hot rolled strips
JPH08117827A (en) Rolling device
CN111932091A (en) A Survival Analysis Hazard Function Prediction Method Based on Gradient Survival Boosting Tree
JP3579553B2 (en) Method and apparatus for diagnosing abnormal state of equipment and product process
Bouhouche et al. Evaluation using online support-vector-machines and fuzzy reasoning. Application to condition monitoring of speeds rolling process
JPH0890020A (en) Device for setting draft schedule for tandem rolling mill
CN118567240B (en) Adaptive control method and system for aluminum smelting process parameters based on big data modeling
CN118245869A (en) Method for predicting strip deviation in cold rolling continuous annealing furnace based on SMOTE algorithm and deep neural network
CN115780530B (en) Method and device for steel rolling fault traceability based on joint drive of expert knowledge and data
CN111814976A (en) A method and system for relearning fault error of air conditioning system sensor
JPH0895938A (en) Time-series data learning method and time-series data learning device
Farag et al. Neuro-fuzzy modeling of complex systems using genetic algorithms
JP2646900B2 (en) Determination of draft schedule for tandem rolling mill
JP2023041629A (en) Method for creation of rolling equipment shape control actuator setting model, rolling equipment shape control actuator setting method, steel plate shape control method, steel plate manufacturing method, and rolling equipment shape controller
JPH07204718A (en) Rolling device
Liang et al. Online shop daily sale prediction using adaptive network-based fuzzy inference system
Bukovsky et al. Learning entropy of adaptive filters via clustering techniques
Wang et al. SCN-SABO-based Parameter Prediction Methods of Calender Rubber Sheet

Legal Events

Date Code Title Description
S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees