JPH03134706A - Knowledge acquiring method for supporting operation of sewage-treatment plant - Google Patents
Knowledge acquiring method for supporting operation of sewage-treatment plantInfo
- Publication number
- JPH03134706A JPH03134706A JP1271679A JP27167989A JPH03134706A JP H03134706 A JPH03134706 A JP H03134706A JP 1271679 A JP1271679 A JP 1271679A JP 27167989 A JP27167989 A JP 27167989A JP H03134706 A JPH03134706 A JP H03134706A
- Authority
- JP
- Japan
- Prior art keywords
- plant
- layer
- input
- knowledge
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 53
- 239000010865 sewage Substances 0.000 title claims description 14
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 14
- 238000011156 evaluation Methods 0.000 claims description 13
- 239000000126 substance Substances 0.000 claims description 10
- 230000001537 neural effect Effects 0.000 claims description 9
- 230000008859 change Effects 0.000 claims description 3
- 238000003062 neural network model Methods 0.000 claims 1
- 238000013528 artificial neural network Methods 0.000 description 44
- 230000008569 process Effects 0.000 description 25
- 239000010802 sludge Substances 0.000 description 19
- 210000002569 neuron Anatomy 0.000 description 16
- 238000004891 communication Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 238000005273 aeration Methods 0.000 description 5
- 238000003745 diagnosis Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 229910052760 oxygen Inorganic materials 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 239000001301 oxygen Substances 0.000 description 3
- 238000003672 processing method Methods 0.000 description 3
- 239000000047 product Substances 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- QGZKDVFQNNGYKY-UHFFFAOYSA-N Ammonia Chemical compound N QGZKDVFQNNGYKY-UHFFFAOYSA-N 0.000 description 2
- IJGRMHOSHXDMSA-UHFFFAOYSA-N Atomic nitrogen Chemical compound N#N IJGRMHOSHXDMSA-UHFFFAOYSA-N 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 239000005416 organic matter Substances 0.000 description 2
- 238000004062 sedimentation Methods 0.000 description 2
- 238000007619 statistical method Methods 0.000 description 2
- ZAMOUSCENKQFHK-UHFFFAOYSA-N Chlorine atom Chemical compound [Cl] ZAMOUSCENKQFHK-UHFFFAOYSA-N 0.000 description 1
- JVMRPSJZNHXORP-UHFFFAOYSA-N ON=O.ON=O.ON=O.N Chemical compound ON=O.ON=O.ON=O.N JVMRPSJZNHXORP-UHFFFAOYSA-N 0.000 description 1
- OAICVXFJPJFONN-UHFFFAOYSA-N Phosphorus Chemical compound [P] OAICVXFJPJFONN-UHFFFAOYSA-N 0.000 description 1
- MMDJDBSEMBIJBB-UHFFFAOYSA-N [O-][N+]([O-])=O.[O-][N+]([O-])=O.[O-][N+]([O-])=O.[NH6+3] Chemical compound [O-][N+]([O-])=O.[O-][N+]([O-])=O.[O-][N+]([O-])=O.[NH6+3] MMDJDBSEMBIJBB-UHFFFAOYSA-N 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 229910021529 ammonia Inorganic materials 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000001364 causal effect Effects 0.000 description 1
- 239000000460 chlorine Substances 0.000 description 1
- 229910052801 chlorine Inorganic materials 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000012407 engineering method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 244000005700 microbiome Species 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 229910052757 nitrogen Inorganic materials 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 229910052698 phosphorus Inorganic materials 0.000 description 1
- 239000011574 phosphorus Substances 0.000 description 1
- 239000006228 supernatant Substances 0.000 description 1
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02W—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO WASTEWATER TREATMENT OR WASTE MANAGEMENT
- Y02W10/00—Technologies for wastewater treatment
- Y02W10/10—Biological treatment of water, waste water, or sewage
Landscapes
- Feedback Control In General (AREA)
- Treatment Of Biological Wastes In General (AREA)
- Activated Sludge Processes (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.
Description
【発明の詳細な説明】
〔産業上の利用分野〕
本発明は、下水処理プラントの状態評価知識または操作
知識を自動獲得し、さらには、プラントを適正に運転す
るための制御法に関する。DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to a control method for automatically acquiring state evaluation knowledge or operation knowledge of a sewage treatment plant, and further for properly operating the plant.
下水処理プラントでは、■流入水の物理的・化学的・生
物的特性、■プラントの状態量、■季節と時間、を種々
勘案して、■プラント状態を評価し、これに基づき■プ
ラントを操作している。プラントの維持管理とはこの評
価と操作(または制御)を適切に行うことである。しか
し、プラント固有の形状や処理方式の違い、あるいは流
入水の量と質に差があるため、■■■■■との関係は複
雑で一義的に定まらない傾向にあり、かつ、下水処理メ
カニズムも完全に解明されていない。これらのためオペ
レータが過去の実績により蓄積した勘と経験による評価
と操作がなされている。In a sewage treatment plant, ■physical, chemical, and biological characteristics of the inflow water, ■state quantities of the plant, ■season and time are taken into account, ■evaluates the plant condition, and ■operates the plant based on this. are doing. Plant maintenance and management means performing this evaluation and operation (or control) appropriately. However, due to differences in plant-specific shapes and treatment methods, as well as differences in the quantity and quality of inflow water, the relationship between is also not completely elucidated. For these reasons, evaluation and operation are performed based on intuition and experience accumulated by operators based on their past performance.
この評価と操作を自動化する方法として、物理・化学・
生物学的な数学モデルを構築してシミュレーションを活
用して適正な運転を行う方法、並びに、オペレータの運
転操作を模擬した知識工学やファジィ理論による運転支
援方式や制御方式などが提案されている。As a method of automating this evaluation and operation, physical, chemical,
Proposed methods include constructing biological mathematical models and utilizing simulations to perform proper driving, as well as driving support and control methods based on knowledge engineering and fuzzy theory that simulate operator driving operations.
シミュレーションでは満足のいく方式は未開発である。 No satisfactory method for simulation has yet been developed.
また、膨大なデータ解析やオペレータへのインタビュー
を通して、知識工学では「もし・・・ならば・・・せよ
」といったルール作成が、他方、ファジィ制御ではあい
まいさを定量化する特性関数であるメンバーシップ関数
の作成や推論のためのルール作成が、各々行われている
が、これらの作業にも経験と多大の労力とを必要とする
。さらには、ルールやメンバーシップ関数や推論ルール
の追加、削除、改良などソフトウェアメンテナンスにも
多大の労力を要する。In addition, through extensive data analysis and interviews with operators, we have learned that in knowledge engineering, rules such as "if... then..." are created, while in fuzzy control, membership is a characteristic function that quantifies ambiguity. Although functions are created and rules for inference are created, these tasks also require experience and a great deal of effort. Furthermore, software maintenance such as adding, deleting, and improving rules, membership functions, and inference rules requires a great deal of effort.
さらには、下水処理場では前記■■■■に基づき■プラ
ントの操作を、過去の経験と運転実績に着目すると共に
、現時点の状況を踏まえて手動制御しており、煩雑で継
続的な監視が不可欠であった。Furthermore, in sewage treatment plants, plant operations are manually controlled based on the above ■■■■ by focusing on past experience and operational records and taking into account the current situation, which eliminates the need for complicated and continuous monitoring. It was essential.
前述したルール(推論ルール含む)やメンバーシップ関
数の作成だけでなく、追加、削除、改良を容易に行なう
ことができ、かつオペレータと同等の操作を実現するた
めに、ニューラルネット(神経回路モデル)のもつ学習
能力を活用する。In addition to creating the aforementioned rules (including inference rules) and membership functions, we also use neural networks (neural circuit models) to easily add, delete, and improve them, and to achieve operations equivalent to operators. Take advantage of your own learning abilities.
オペレータは、過去の運転履歴を参考にしながら、■流
入水の物理的・化学的・生物的特性、■プラントの状態
量、■季節と時間、を種々勘案して、■プラント状態を
予測しながら評価し、■これしこ基づいてプラントを操
作している。これらを人工的に行なうためにニューラル
ネットを適用する。The operator refers to the past operation history, takes into account various factors such as the physical, chemical, and biological characteristics of the inflow water, the state quantities of the plant, and the season and time, and predicts the plant state. We evaluate and operate the plant based on this. Neural networks are applied to perform these tasks artificially.
まず、ニューラルネットに過去の複数時点での■流入水
の物理的・化学的・生物的特性、■プラントの状態量、
■季節と時間、■プラント状態の評価結果、■プラント
の操作状態の各々のパターンを学習させる。これらを実
行するニューラルネットの具体的構成は、ニューロン素
子モデルを基本として構成される入力層、少なくとも1
層の中間層、出力層、比較層、並びに教師層からなる階
層構造であり、具体的学習方法は公知の誤差逆伝搬法に
より行なう。続いて、学習済みのニューラルネットの入
力層に、未学習である現時点または将来の■■■を入力
し、出力層に■■を出力(予測)させるようにした。こ
の予測値に基づいてプラントを操作する。First, the neural network is applied to the physical, chemical, and biological characteristics of the inflow water at multiple points in the past, and the state quantities of the plant.
Learn each pattern of ■season and time, ■plant condition evaluation results, and ■plant operating status. The specific configuration of the neural network that executes these functions includes an input layer configured based on a neuron element model, and at least one
It has a hierarchical structure consisting of an intermediate layer, an output layer, a comparison layer, and a teacher layer, and the specific learning method is a known error backpropagation method. Next, the unlearned current or future ■■■ was input to the input layer of the trained neural network, and the output layer was made to output (predict) ■■. The plant is operated based on this predicted value.
ニューラルネットは過去の複数時点での前記■■■■■
を学習させることにより、オペレータと同等の感覚を身
に付ける。この実態は、ニューラルネットの重み係数の
分布が変化するものである。A neural network can be used to calculate the above ■■■■■ at multiple points in the past.
By having the robot learn the following, it will acquire the same sense as an operator. The actual situation is that the distribution of the weighting coefficients of the neural network changes.
次に、学習済みニューラルネットに、未学習の■■■を
入力することにより■■を予測する。これは、オペレー
タが過去の種々の実績を勘案して■■を行う方法を模擬
したものである。このように、ニューラルネットを利用
することにより、オペレータと同等の評価と操作が実現
できる。Next, by inputting unlearned ■■■ into the trained neural network, ■■ is predicted. This is a simulation of the method by which an operator performs ■■ by considering various past results. In this way, by using a neural network, evaluation and operation equivalent to that of an operator can be realized.
本発明は、下水処理場の■流入水の物理的・化学的・生
物的特性、■プラントの状態量、■季節と時間、■プラ
ント状態の評価量、■プラント操作量、以上■■■■■
の過去履歴をニューラルネットに学習させて、■■■と
■とに関する知識、並びに■■■と■とに関する知識、
を自動的に獲得すると共に、学習済みのニューラルネッ
トの連想作用により、プラントの運転操作(制御含む)
をガイダンスするものである。The present invention focuses on the physical, chemical, and biological characteristics of inflow water of sewage treatment plants, ■state quantities of the plant, ■season and time, ■evaluated quantities of plant conditions, and ■plant operating quantities. ■
By having a neural network learn the past history of , knowledge about ■■■ and ■, knowledge about ■■■ and ■,
In addition to automatically acquiring the
This is to provide guidance.
実行工程は、(1)学習用神経回路モデル(学習用ニュ
ーラルネット)による学習工程、(2)知識獲得工程、
(3)知識診断工程、(4)推論工程、(5)学習済み
ニューラルネット(予測用ニューラルネット)の連想予
測工程、(6)プラント運転操作制御工程からなる。The execution process includes (1) a learning process using a learning neural circuit model (learning neural network), (2) a knowledge acquisition process,
It consists of (3) knowledge diagnosis process, (4) inference process, (5) associative prediction process of trained neural network (prediction neural network), and (6) plant operation control process.
第1図の実施例で構成と動作を説明する。まず、下水処
理プロセスのフローを以下に説明する。最初沈殿池9で
は、流入下水中の浮遊物質の一部が重力沈降により除去
される。曝気槽15には最初沈殿池9から越流した下水
と返送汚泥管16P1からの返送汚泥が流入する。曝気
槽15にはブロワ−17から制御バルブ17A、17B
を経て空気が供給され、下水と返送汚泥が混合撹拌され
る。The configuration and operation will be explained using the embodiment shown in FIG. First, the flow of the sewage treatment process will be explained below. In the initial settling tank 9, a portion of suspended solids in the inflowing sewage is removed by gravity settling. The sewage that has overflowed from the initial settling tank 9 and the return sludge from the return sludge pipe 16P1 flow into the aeration tank 15. Control valves 17A and 17B are connected to the aeration tank 15 from the blower 17.
Air is supplied through the system, and the sewage and returned sludge are mixed and stirred.
返送汚泥(活性汚泥)は供給された空気中の酸素を吸収
し、下水中の有機物が分解されて最終沈殿池16に導か
れる。最終沈殿池16では活性汚泥の重力沈降により活
性汚泥が沈降し上澄水は放流される。最終沈殿池16内
に沈降した活性汚泥は引き抜かれて、一部は余剰汚泥と
して余剰汚泥管16P2とポンプ16C2により排出さ
れる。排出されなかった残り大部分の活性汚泥は、返送
汚泥として返送汚泥ポンプ16C1から返送汚泥管16
P1を通して曝気槽15に返送される。The returned sludge (activated sludge) absorbs oxygen from the supplied air, decomposes organic matter in the sewage, and is led to the final settling tank 16. In the final settling tank 16, the activated sludge settles due to gravity settling, and the supernatant water is discharged. The activated sludge settled in the final settling tank 16 is pulled out, and a portion is discharged as surplus sludge by the surplus sludge pipe 16P2 and pump 16C2. Most of the remaining activated sludge that was not discharged is transferred as return sludge from the return sludge pump 16C1 to the return sludge pipe 16.
It is returned to the aeration tank 15 through P1.
次に計測器について説明する。最初沈殿池9゜曝気槽1
5、最終沈殿池16には各々計測器9M。Next, the measuring device will be explained. First sedimentation tank 9゜Aeration tank 1
5. Each final settling tank 16 has a measuring device of 9M.
15M、16Mが設置される。計測項目は、流入下水量
、浮遊物質濃度、化学的酸素要求量、pH5窒素濃度、
アンモニア濃度、硝酸性窒素濃度、亜硝酸性窒素濃度、
リン濃度、溶存酸素濃度、汚泥界面高さ(SVI:Sl
udge Volume Index、など)、並びに
微生物や浮遊性物質の画像情報などである。15M and 16M will be installed. Measurement items include inflow sewage volume, suspended solids concentration, chemical oxygen demand, pH5 nitrogen concentration,
Ammonia concentration, nitrate nitrogen concentration, nitrite nitrogen concentration,
Phosphorus concentration, dissolved oxygen concentration, sludge interface height (SVI: Sl
udge Volume Index, etc.), as well as image information of microorganisms and floating substances.
続いて、予測運転制御装置80の構成を説明する。Next, the configuration of the predictive operation control device 80 will be explained.
予測運転制御装置80はコンピュータシステムであり本
発明の説明を容易にするために第1図には処理のフロー
図を示しである。なお、図中ネットワークと記載されて
いる部分は後述する第4図の実線702に相当する多数
の配線(または情報の連絡経路)を示す。The predictive operation control device 80 is a computer system, and a flowchart of the processing is shown in FIG. 1 to facilitate explanation of the present invention. In addition, the part described as network in the figure indicates a large number of wirings (or information communication routes) corresponding to a solid line 702 in FIG. 4, which will be described later.
履歴パターンデータファイル71Fは、■計測器9Mで
計測した流入水特性、■計測器15M。The history pattern data file 71F includes: ■Inflow water characteristics measured by measuring device 9M; ■Measuring device 15M.
16Mで計測したプラント状態量、■季節と時間、■計
測器15M、16Mの計測量の一部であるプラント状態
評価量、■ポンプ16C2、返送汚泥ポンプ16C1、
ブロワ−17、制御バルブ17A。Plant status quantities measured by 16M, ■Season and time, ■Plant status evaluation quantities that are part of the measured quantities of measuring instruments 15M and 16M, ■Pump 16C2, return sludge pump 16C1,
Blower 17, control valve 17A.
17Bなどのプラント操作量、以上■〜■の時系列デー
タが記憶される。Plant operation amounts such as 17B and time series data of the above items 1 to 2 are stored.
学習用ニューラルネット71には、履歴パターンデータ
ファイル71Fの中から自動的にまたは交信手段46か
らの指示71Sにより、■流入水特性の選択されたデー
タ列D1、■プラント状態量の選択されたデータ列D2
.04節と時間の選択されたデータ列D3、■プラント
状態評価量の選択されたデータ列D4、■プラント操作
量の選択されたデータ列D5が各々出力される。なお、
各データ列は実際には複数の項目を含むが5本実施例で
は説明を容易にするため代表の記号D1〜D5で表すも
のとする。学習用ニューラルネット71ではデータDi
、D2.D3.D4.D5を用いて学習が実行され、実
行結果71S1と7182とが、知識獲得工程73と予
測用ニューラルネット72とに出力される。The learning neural network 71 automatically receives from the historical pattern data file 71F or by an instruction 71S from the communication means 46, ■ selected data string D1 of inflow water characteristics, and ■ selected data of plant state quantities. Column D2
.. 04 node and time selected data string D3, (1) selected data string D4 of plant condition evaluation amount, and (2) selected data string D5 of plant operation amount are output, respectively. In addition,
Each data string actually includes a plurality of items, but in this embodiment, five items are represented by representative symbols D1 to D5 for ease of explanation. In the learning neural network 71, data Di
, D2. D3. D4. Learning is executed using D5, and execution results 71S1 and 7182 are output to the knowledge acquisition process 73 and the prediction neural network 72.
知識獲得工程73では71S1と71S2に基づいて前
記■■■と■、または■■■と■に関する知識を記号ま
たは言葉に変換する。知識診断工程74では、知識獲得
工程73で得た知識を交信手段46からの指示(図示省
略)により知識候補ベース60Bまたは知識ベース60
Aに格納する。In the knowledge acquisition step 73, the knowledge regarding ■■■ and ■ or ■■■ and ■ is converted into symbols or words based on 71S1 and 71S2. In the knowledge diagnosis step 74, the knowledge obtained in the knowledge acquisition step 73 is transferred to the knowledge candidate base 60B or the knowledge base 60 according to instructions from the communication means 46 (not shown).
Store in A.
推論機構61は知識ベース60Aと、あらかじめ入力し
た知識ベース60Cを受けて推論を実行し、運転制御工
程75に信号61Sを出力する。The inference mechanism 61 receives the knowledge base 60A and the knowledge base 60C input in advance, performs inference, and outputs a signal 61S to the operation control process 75.
一方、予測用ニューラルネット72では履歴パターンデ
ータファイル71Fの中から予測に必要なデータを選択
して予測に使用する。予測結果は予測信号72Sとして
交信手段46に表示すると共に、運転制御工程75に出
力する。On the other hand, the prediction neural network 72 selects data necessary for prediction from the history pattern data file 71F and uses it for prediction. The prediction result is displayed on the communication means 46 as a prediction signal 72S, and is also output to the operation control process 75.
運転制御工程75は予測信号72Sと信号61Sとを受
け、信号75Sを出力して■ポンプ16c2、返送汚泥
ポンプ16C1、ブロワ−17、制御バルブ17A、1
7Bなどのプラント操作量を制御する。同時に、制御目
標値信号75Sを交信手段46に表示して、必要に応じ
てオペレータ101の選択により実際の制御量を補正す
る。補正値は再び出力する。The operation control process 75 receives the prediction signal 72S and the signal 61S, outputs the signal 75S, and operates the pump 16c2, the return sludge pump 16C1, the blower 17, and the control valves 17A, 1.
Controls plant operation amounts such as 7B. At the same time, the control target value signal 75S is displayed on the communication means 46, and the actual control amount is corrected as required by the operator 101's selection. The correction value is output again.
次に、第1図を用い本発明の詳細な説明する。Next, the present invention will be explained in detail using FIG.
詳細構成と動作の説明には第2図以降を用いる。FIG. 2 and subsequent figures will be used to explain the detailed configuration and operation.
まず、履歴パターンデータファイル71Fへデータを記
憶する方法について説明する。時刻し=Oの履歴パター
ンデータDI(0)〜D5(0)を履歴パターンデータ
ファイル71Fに記憶する。これを繰り返してt=Q、
−1,−2,・・・のデータを順次記憶する。時間間隔
は本実施例では一例として1時間の場合を説明するが、
この時間設定により本発明の実施は制約を受けない。First, a method for storing data in the history pattern data file 71F will be explained. The history pattern data DI(0) to D5(0) with time=O are stored in the history pattern data file 71F. Repeat this until t=Q,
-1, -2, . . . data are stored sequentially. In this embodiment, a case of one hour will be explained as an example of the time interval, but
Implementation of the present invention is not restricted by this time setting.
続いて、学習工程における学習用ニューラルネット71
の動作を以下に説明する。学習用ニューラルネット71
では、履歴パターンデータファイル71Fの中から選択
されたデータを受けて学習を実行する。このデータ選択
と学習方法を以下に第1図と第2図とを用いて以下に説
明する。Next, the learning neural network 71 in the learning process
The operation will be explained below. Learning neural network 71
Now, learning is executed by receiving data selected from the history pattern data file 71F. This data selection and learning method will be explained below using FIGS. 1 and 2.
第2図に示すように、D1〜D5について任意の時刻1
=1□を基準に過去にさかのぼってt工1、t、−2,
・・・をまず学習する。同様に、1=12(tz≠t□
)を基準にしてt2−1.t2−2.・・・のパターン
データを学習し、合計9個のパターンデータを学習する
。q個のパターンの選択は過去の代表的なパターンが望
ましい。学習はこれら一群のデータを入力用データと教
師用データとに分けて行なう。第1図に示すように、入
力N710には任意の時刻1 (1= 1□、tl、・
・・)におけるDi(t)〜D3(t)と、時刻tから
過去にさかのぼってDi(t−1)〜D5(t−1)を
順次入力する。ここで、D4(t−1)、D5(t、−
1)が追加されることに注意されたい。以下t=t−2
,t−3,・・・についても同様である。一方、教師層
750には、D4(t)、D5(t)を入力する。学習
は、入力層710.中間層720、出力層30、比較層
740、教師層750からなる構成の学習用ニューラル
ネット71で行なう。As shown in FIG. 2, any time 1 for D1 to D5
=1□ as a reference, go back to the past and calculate t-work 1, t, -2,
First learn... Similarly, 1=12(tz≠t□
) based on t2-1. t2-2. ... and learns a total of nine pattern data. It is desirable that the q patterns be selected from past representative patterns. Learning is performed by dividing this group of data into input data and teacher data. As shown in FIG. 1, input N710 has an arbitrary time 1 (1=1□,tl,
), and Di(t-1) to D5(t-1) are input sequentially starting from time t. Here, D4(t-1), D5(t, -
Note that 1) is added. Below t=t-2
, t-3, . . . On the other hand, D4(t) and D5(t) are input to the teacher layer 750. Learning is performed at the input layer 710. This is performed using a learning neural network 71 consisting of an intermediate layer 720, an output layer 30, a comparison layer 740, and a teacher layer 750.
学習方法における信号処理方法を以下に第3図を用いて
説明する。第3図の構成と信号処理方法とは、前述した
入力データと教師M750の設定法を除いて公知である
。すなわち、第3図の構成と信号処理方法とはRume
lhartらによって考案された公知技術であり、詳細
は文献(ParallellDistributed
Processing、HIT Press、 Vol
、1゜(1986))を参照されたい。The signal processing method in the learning method will be explained below using FIG. The configuration and signal processing method shown in FIG. 3 are known, except for the input data and the setting method of the teacher M750 described above. That is, the configuration and signal processing method shown in FIG.
This is a known technique devised by Lhart et al., and details can be found in the literature (Parallel Distributed
Processing, HIT Press, Vol.
, 1° (1986)).
第3図の構成と動作の概略を説明する。第3図でOは、
積和演算とシグモイド変換機能を有するニューロン素子
モデル701であり、OとOとを連結する実線702は
ニューロン素子モデル701間の情報のやりとりがある
ことを示す。ここで、各層は有限数のニューロン素子モ
デルからなり、隣接する各層のニューロン素子モデル間
が全て連結される。中間層720は複数層あって良いが
、本実施例では説明の簡単のため中間層の数が一つの例
を示す。また、第3図において出力層730、比較層7
40、教師N750はD4(t)、D5(t)の2つで
あるが、一般的な表現として複数の場合を図示した。第
3図の構成をニューラルネット(神経回路モデル)と称
する。The configuration and operation of FIG. 3 will be outlined. In Figure 3, O is
This is a neuron element model 701 having a product-sum operation and a sigmoid transformation function, and a solid line 702 connecting O and O indicates that information is exchanged between the neuron element models 701. Here, each layer consists of a finite number of neuron element models, and all neuron element models in adjacent layers are connected. Although there may be a plurality of intermediate layers 720, this embodiment shows an example in which the number of intermediate layers is one for ease of explanation. In addition, in FIG. 3, an output layer 730, a comparison layer 7
40. There are two teacher N750s, D4(t) and D5(t), but a plurality of cases is illustrated as a general expression. The configuration shown in FIG. 3 is called a neural network (neural circuit model).
次に、ニューロン素子モデル701の基本演算を第4図
で説明する。入力層710に入力するデータD1〜D5
の各々の時系列を一括(全部でn個あるとする)して、
第4図に示すようにn個の変数値Y□〜Ynと記す。入
力された信号値Y1〜Ynの各々に重み係数Wjiを乗
じ、さらにこれらを加算する演算(積和演算)を(1)
式で計算する。Next, basic operations of the neuron element model 701 will be explained with reference to FIG. Data D1 to D5 input to input layer 710
Collectively, each time series (assuming there are n in total),
As shown in FIG. 4, n variable values are written as Y□ to Yn. The operation (product-sum operation) of multiplying each of the input signal values Y1 to Yn by the weighting coefficient Wji and further adding these values is performed as (1)
Calculate by formula.
ここで、Yi(1):入力層(第1層)のYi値、Wj
i(2←1):入力層(第1層)のi番目の変数から中
間層(第2層)のj番目のニューロン素子モデルへの重
み係数、Zj(2):中間層(第2層)のj番目のニュ
ーロン素子モデルへの入力総和値である。Here, Yi (1): Yi value of input layer (first layer), Wj
i (2←1): Weighting coefficient from the i-th variable of the input layer (first layer) to the j-th neuron element model of the hidden layer (second layer), Zj (2): Weight coefficient of the hidden layer (second layer) ) is the total input value to the j-th neuron element model.
ニューロン素子モデル701では、Zj(2)の大小に
応じてここでの出力値が(2)式(シグモイド変換)で
計算される。In the neuron element model 701, the output value here is calculated using equation (2) (sigmoid transformation) depending on the magnitude of Zj(2).
(2)式の計算内容は第5図のような非線形変換である
が、線形変換を適用しても同等の効果かえられる。計算
値Yj(2)は、さらに出力層へ送られ、出力層でも同
様の計算が実行される。Although the calculation content of equation (2) is nonlinear transformation as shown in FIG. 5, the same effect can be obtained even if linear transformation is applied. The calculated value Yj(2) is further sent to the output layer, and the same calculation is performed in the output layer.
次に、ニューラルネットでの計算方法の概要について説
明する。前述した変数値Y 1(1)は第3図の入力層
710に入力され、この信号値は中間層720のニュー
ロン素子モデルに出力される。中間M720のニューロ
ン素子モデルではこれら出力値yi(1)と重み係数W
ij(2←l)との積和Zj(2)を(1)式で計算し
、この大小に応じて出力層730への出力値Yj(2)
を(2)式で決定する。同様にして、中間fi 720
の出力値Yj(2)はさらに中間層(第2暦)720と
出力層(第3層)730との重み係数Wij(3←2)
との積和Z j (3)を(3)式で計算する。Next, an overview of the calculation method using a neural network will be explained. The aforementioned variable value Y 1 (1) is input to the input layer 710 in FIG. 3, and this signal value is output to the neuron element model of the intermediate layer 720. In the intermediate M720 neuron element model, these output values yi(1) and the weighting coefficient W
The sum of products Zj(2) with ij(2←l) is calculated using equation (1), and the output value Yj(2) to the output layer 730 is calculated according to the magnitude.
is determined using equation (2). Similarly, intermediate fi 720
The output value Yj (2) is further calculated by the weighting coefficient Wij (3←2) between the intermediate layer (second calendar) 720 and the output layer (third layer) 730.
The sum of products Z j (3) is calculated using equation (3).
ここで、Yi(2):中間層(第2層)の値、Wji(
3←2):中間層(第2層)のi番目の変数から出力層
(第3層)のj番目のニューロン素子モデルへの重み係
数、Zj(3):出力層(第3層)のj番目のニューロ
ン素子モデルへの入力総和値である。Here, Yi(2): value of the middle layer (second layer), Wji(
3←2): Weighting coefficient from the i-th variable of the intermediate layer (second layer) to the j-th neuron element model of the output layer (third layer), Zj (3): Weight coefficient of the output layer (third layer) This is the total input value to the j-th neuron element model.
さらに、Z j (3)の大小に応じて出力層730へ
の出力値Yj(3)を(4)式で計算する。Furthermore, the output value Yj(3) to be output to the output layer 730 is calculated using equation (4) depending on the magnitude of Z j (3).
このようにして、出力層の計算値Yj(3)が得られる
。Yj(3)は本実施例では04(t)*、D5(t)
*である。In this way, the calculated value Yj(3) of the output layer is obtained. Yj(3) is 04(t)*, D5(t) in this example
*It is.
ニューラルネットでの学習手順を説明する。まず、比較
層740で出力N730の信号730Sと教師信号層7
50の教師信号750Sとを比較する。例えば、出力信
号730SであるD4(t)*と教師信号750Sであ
るD4(t)との大小が各々比較される。両者の偏差が
小さくなるように、重み係数Wji(3←2)及びWj
i(2←])の大きさを修正する。この修正値を用いて
再度(1)−(4)式の計算を実行し、出力信号730
Sと教師信号750Sとの大小を再度比較して再度重み
係数値を修正していく。この繰返しにより、偏差があら
かじめ決められた値以下になるまで続ける。最初は重み
係数は乱数の発生によりランダムに与えるので偏差は大
きいが、出力信号値は次第に教師信号値に近づく。この
時、(1) −(4)式において値が変更されるのは重
み係数値Wjiだけであるから、学習結果はWji値の
分布に反映していく。なお、予測工程ではこのWji値
を用いる。Explain the learning procedure using neural networks. First, in the comparison layer 740, the signal 730S of the output N730 and the teacher signal layer 7
50 teacher signal 750S. For example, the magnitude of D4(t)*, which is the output signal 730S, and D4(t), which is the teacher signal 750S, is compared. The weighting coefficients Wji (3←2) and Wj are set so that the deviation between the two is small.
Correct the size of i(2←]). Using this corrected value, calculate the equations (1) to (4) again, and the output signal 730
The magnitude of S and the teacher signal 750S is compared again and the weighting coefficient value is corrected again. This process is repeated until the deviation becomes less than or equal to a predetermined value. At first, the weighting coefficients are given randomly by generating random numbers, so the deviation is large, but the output signal value gradually approaches the teacher signal value. At this time, since only the weighting coefficient value Wji is changed in equations (1) to (4), the learning results are reflected in the distribution of Wji values. Note that this Wji value is used in the prediction process.
このように偏差を修正していく方法は誤差逆伝搬法とよ
ばれ、Rumelhartらによって考案された公知技
術を利用する。詳細は文献(Parallell Di
stributed Processing、HIT
Press、 Vol、1.(1986))を参照され
たい。このような、学習方法そのものは公知であるが、
本発明は特に、異なる複数時刻(t=t1゜1、.1□
2・・・tq)の履歴パターンデータ群を繰返し学習さ
せ、かつ教師信号としてアナログ値を用いる。The method of correcting the deviation in this manner is called the error backpropagation method, and uses a known technique devised by Rumelhart et al. For details, see the literature (Parallel Di
distributed processing, HIT
Press, Vol. 1. (1986)). Although this learning method itself is well known,
The present invention particularly provides a plurality of different times (t=t1゜1, .1□
2...tq) are repeatedly learned, and analog values are used as teacher signals.
この結果、オペレータの過去の経験に匹敵するパターン
把握能力がニューラルネットの各重み係数Wjiに蓄積
記憶されていく。この操作により、オペレータの過去の
経験と同等の作用を持たせるようにした。As a result, pattern grasping ability comparable to the operator's past experience is accumulated and stored in each weighting coefficient Wji of the neural network. This operation was made to have the same effect as the operator's past experience.
複数時刻1=1工+t2+tl+・・・t、における履
歴パターンデ;り群の学習方法を以下に説明する。複数
の履歴パターンデータ群は時刻tを任意に変えて学習す
る。この日t1ttz+t3t・・・t(はオペレータ
が選択する場合と、自動的に選択する場合とがあり、以
下に両者を説明する。A method of learning historical pattern data at a plurality of times 1 = 1 time + t2 + tl + . . . t will be described below. A plurality of historical pattern data groups are learned by arbitrarily changing the time t. This day t1ttz+t3t...t( may be selected by the operator or automatically, and both will be explained below.
オペレータが選択する場合とは、後で運転に反映させた
いと考えるような、変数値Y工〜Ynの代表的なパター
ンや、後日参考にしたい異常時のパターンである。結果
的に、ニューラルネットはこれら学習した内容に応じて
結果を出力するので、この選択は重要である。オペレー
タに選択をまかせるのは、オペレータの持つ経験的で総
合的なデータ判断能力に頼るものである。この場合、学
習させるパターンは、過去の異なる時刻におけるパター
ンであり、複数のパターンを繰返し学習させる。この結
果、ニューラルネットはオペレータの過去の経験に匹敵
するパターン把握能力を身につける。オペレータによる
時刻の設定は交信手段46を介するマンマシン会話によ
り行う。例えば。The operator's selection is a typical pattern of variable values Y~Yn that he/she would like to reflect in the operation later, or a pattern for an abnormality that he/she would like to refer to later. As a result, the neural network outputs results according to what it has learned, so this selection is important. Leaving the selection to the operator relies on the operator's empirical and comprehensive ability to judge data. In this case, the patterns to be learned are patterns at different times in the past, and a plurality of patterns are repeatedly learned. As a result, the neural net acquires a pattern recognition ability comparable to the operator's past experience. The operator sets the time by man-machine conversation via the communication means 46. for example.
1月の代表的パターンから12月の代表的なパターンま
で12パターンを各々学習する。特に、代表的な流入水
質の時に、I&終沈殿池16の計測器16Mで計測した
処理水質(浮遊物質濃度、有機物濃度など)が良好な(
基準を最低温たしている)時のパターンを学習する。つ
まり、処理が良好な時にはどのような操作が行なわれた
かを学習する。Learn each of 12 patterns from the typical pattern of January to the typical pattern of December. In particular, when the inflow water quality is typical, the treated water quality (suspended solids concentration, organic matter concentration, etc.) measured by the measuring device 16M of the I & final sedimentation tank 16 is good (
Learn the pattern when the standard is at its lowest temperature). In other words, it learns what operations were performed when the processing was good.
他方、自動的に行う場合には、事前にデータ列の統計解
析を行う。すなわち、統計解析により最も発生頻度が高
いパターンを求めて正常時の代表例とみなしてこれを学
習させ、一方で、発生頻度が低い場合を異常時のパター
ンを代表例とみなしてこれらを学習させる。第1図の実
施例ではニューラルネットはひとつであるが、正常時用
ニューラルネットと異常時(非定常時)用ニューラルネ
ットとに分けて適用すればさらに効果的である。On the other hand, when performing automatically, statistical analysis of the data string is performed in advance. In other words, the system uses statistical analysis to find the most frequently occurring pattern and considers it as a representative example of normal conditions, and then learns this pattern.On the other hand, it learns patterns that occur less frequently, considering it as a typical example of abnormal conditions. . In the embodiment shown in FIG. 1, there is only one neural network, but it will be more effective if the neural network is divided into a neural network for normal times and a neural network for abnormal times (unsteady times).
次に、知識獲得工程73では71S1と71S2に基づ
いて前記■■■と■、または■■■と■、または■と■
に関する各々の知識を記号または言葉に変換する。入力
ff1710に設定する変数と出力層730に設定する
変数との関係を総合的に評価する指標として、(5)式
で定義する因果性尺度Ijiを用いる。Next, in the knowledge acquisition step 73, based on 71S1 and 71S2, the above ■■■ and ■, or ■■■ and ■, or ■ and ■
convert each knowledge about into symbols or words. As an index for comprehensively evaluating the relationship between variables set in the input ff 1710 and variables set in the output layer 730, a causality measure Iji defined by equation (5) is used.
ここで、mは中間層のニューロン素子モデル数である。Here, m is the number of neuron element models in the hidden layer.
これは、入力層から出力層にいたるすべての経路の重み
係数の積和をとった値となる。■jjが大きな値をとれ
ば、i番目の入力とj番目の出力とには、ある因果関係
がある可能性が高い。入力層と出力層との全ての組み合
わせについて工jiを計算し、結果を知識候補として日
本語に変換する。This value is the sum of the products of the weighting coefficients of all routes from the input layer to the output layer. ■If jj takes a large value, there is a high possibility that there is a certain causal relationship between the i-th input and the j-th output. Compute ji for all combinations of the input layer and output layer, and convert the results into Japanese as knowledge candidates.
この変換方法は工jiが正の値で大であれば以下のよう
に変換する。In this conversion method, if ji is a positive value and large, the conversion is performed as follows.
知識候補:「i番目の入力値が大であればj番目の出力
値は大きい。」
■jiが負の値で大であれば以下になる。Knowledge candidate: "If the i-th input value is large, the j-th output value is large." ■If ji is a negative value and large, the following will occur.
知識候補=「i番目の入力値が大であればj番目の出力
値は小さい。」
得られた知識候補はこのままでは妥当な知識か否かが不
明であるので、知識診断工程74では、知識獲得工程7
3で得た知識候補を交信手段46からの指示(図示省略
)により知識か否かを判定後、知識候補ベース60Bま
たは知識ベース60Aに記憶する。−旦、知識候補ベー
ス60Bに記憶された知識候補でも複数回起こる場合に
は、生起回数をカウントして所定回数(例えば2回)を
越えたら、交信手段46によりオペレータ101に再度
問い合わせ、知識診断工程74を繰り返す。Knowledge candidate = "If the i-th input value is large, the j-th output value is small." Since it is unclear whether the obtained knowledge candidate is valid knowledge or not, in the knowledge diagnosis step 74, the knowledge Acquisition process 7
After determining whether or not the knowledge candidate obtained in step 3 is knowledge based on an instruction from the communication means 46 (not shown), it is stored in the knowledge candidate base 60B or the knowledge base 60A. - If the knowledge candidate stored in the knowledge candidate base 60B occurs multiple times, the number of occurrences is counted and when it exceeds a predetermined number (for example, two times), the operator 101 is contacted again by the communication means 46 and knowledge diagnosis is performed. Repeat step 74.
推論機構61は知識ベース60Aと知識ベース60Gと
を受けて推論を実行し、運転制御工程75に信号61S
を出力する。知識ベース60Cはオペレータ101に予
め従来手法であるインタビューによって獲得した知識を
記憶しておき補助的に利用する。なお、知識ベース60
Cを利用しなくても本実施例は実施可能である。推論機
構61はプロダクションルールあるいはファジィルール
に基づく推論(前向き、後向き)を実行する。ファジィ
推論の場合にはメンバーシップ関数が必要であるが、本
発明では、Iji値の大きさを利用してファジィ推論の
メンバーシップ関数値を設定することができる。推論方
法は公知の技術であるので説明を割愛する。知識ベース
としては、どのようなの流入条件とのプラント状態量、
■季節と時間の時に、どのような■プラント状態評価量
となり、その結果、■プラントをいかに操作したら処理
が良好になるか、に関するものである。The inference mechanism 61 executes inference upon receiving the knowledge base 60A and the knowledge base 60G, and sends a signal 61S to the operation control process 75.
Output. The knowledge base 60C stores knowledge acquired by the operator 101 in advance through a conventional interview, and uses the knowledge base 60C for supplementary purposes. Furthermore, knowledge base 60
This embodiment can be implemented without using C. The inference mechanism 61 executes inference (forward or backward) based on production rules or fuzzy rules. In the case of fuzzy inference, a membership function is required, but in the present invention, the membership function value for fuzzy inference can be set using the magnitude of the Iji value. Since the inference method is a well-known technique, a description thereof will be omitted. As a knowledge base, what kind of inflow conditions and plant state quantities,
■What kind of plant condition evaluation quantity will be obtained at the time of season and time, and as a result, ■How to operate the plant to improve the treatment.
次に、予測用ニューラルネット72による予測工程を説
明する。予測用ニューラルネット72の構成を第6図に
示す。第1図に示したように、予測用ニューラルネット
72では学習用ニューラルネット71での学習結果、す
なわち1重み係数値Wji(3←2)及びWji(2←
1)の値を信号71S1と71S2として受ける。なお
、第1図では学習用ニューラルネット71と予測用ニュ
ーラルネット72とは処理フローの説明のために別々に
記載されているが、同一のニューラルネットを用いて良
いことは勿論である。Next, the prediction process by the prediction neural network 72 will be explained. The configuration of the prediction neural network 72 is shown in FIG. As shown in FIG. 1, the prediction neural network 72 uses the learning results of the learning neural network 71, that is, 1 weighting coefficient values Wji (3←2) and Wji (2←
1) as signals 71S1 and 71S2. In FIG. 1, the learning neural network 71 and the predictive neural network 72 are shown separately for explanation of the processing flow, but it goes without saying that the same neural network may be used.
次に、予測用ニューラルネット72の動作を第6図と第
1図を用いて説明する。第6図に示すように、予測用ニ
ューラルネット72は学習用ニュ−ラルネット71から
比較層740と教師層750を除いた構成である。予測
用ニューラルネット72では、前記■■■に対応して、
未知の前記■■を予測するものである。このために、ま
ず入力層710に入力層パターンとして、1=0を基準
に設定した変数値Y i (Di (0)〜D3(0)
)と、t=−1,−2゜・・・を基準に設定した変数値
Yi(Di(i)〜D5(i)、C−1,−2,・・・
)を入力層710に入力する。この変数値Yiは第1図
に示すように、(1)現時点で既知の■■■、(2)過
去(t=−1,−2,・・・)における■〜■である。Next, the operation of the prediction neural network 72 will be explained using FIG. 6 and FIG. 1. As shown in FIG. 6, the prediction neural network 72 has a configuration in which the comparison layer 740 and the teacher layer 750 are removed from the learning neural network 71. In the prediction neural network 72, corresponding to the above ■■■,
This is to predict the unknown above-mentioned ■■. For this purpose, first, as an input layer pattern in the input layer 710, variable values Y i (Di (0) to D3 (0)
) and variable values Yi (Di(i) to D5(i), C-1, -2,...
) is input to the input layer 710. As shown in FIG. 1, this variable value Yi is (1) the current known ■■■, and (2) the past (t=-1, -2, . . . ) ■ to ■.
これらは全て実績値あるいは既知のデータであることに
注意されたい。これらの値に基づいて前述の(1) −
(4)式の計算を実行し、未知の■プラント状態評価量
(処理水質)o4t(o)と■プラント操作量(返送/
余剰汚泥量、曝気空気量)OS本(O)とを出力層73
0に出力する。前記■については交信手段46にガイダ
ンス表示し、■については制御信号72Sを運転制御工
程75に出力する。Please note that all of these are actual values or known data. Based on these values, the above (1) −
Execute the calculation of equation (4) and calculate the unknown ■Plant status evaluation quantity (treated water quality) o4t(o) and ■Plant operation quantity (return/
Excess sludge amount, aeration air amount) OS book (O) and output layer 73
Output to 0. Regarding the above-mentioned (2), guidance is displayed on the communication means 46, and regarding (2), the control signal 72S is output to the operation control process 75.
続いて運転制御工程75を以下に説明する。運転制御工
程75では、OS*(O)の信号72Sと推論機構61
の結果信号61Sとを受けて、まず両者の整合性を調べ
る。信号72Sが618と矛盾しなければ、プラント操
作量の目標値として信号75Sをポンプ16C2、返送
汚泥ポンプ16C1、ブロワ−17、制御バルブ17A
、17Bなどに出力する。逆に矛盾すれば交信手段46
を通してオペレータ101に報知し、修正を加える。な
お、制御頻度は本実施例では1時間毎であるが、この時
間単位は任意に設定できる。勿論、時間間隔が小さけれ
ば予測精度は向上する。設定した時間間隔(本実施例で
は1時間)が長いために短い時間(例えば1分間)の塩
素注入量を予測できない場合には、数学的な補間により
予測する。同時に、目標値(予測結果)の注入量目標値
信号75Sを交信手段46に表示して、必要に応じてオ
ペレータ101の選択により実際の操作を補正する。Next, the operation control process 75 will be explained below. In the operation control process 75, the OS*(O) signal 72S and the inference mechanism 61
Upon receiving the result signal 61S, first, the consistency between the two is checked. If the signal 72S does not contradict 618, the signal 75S is sent to the pump 16C2, the return sludge pump 16C1, the blower 17, and the control valve 17A as the target value of the plant operation amount.
, 17B, etc. On the other hand, if there is a contradiction, the means of communication 46
The operator 101 is notified of the change and corrections are made. Note that although the control frequency is every hour in this embodiment, this time unit can be set arbitrarily. Of course, the smaller the time interval, the better the prediction accuracy. If the set time interval (one hour in this embodiment) is too long to predict the amount of chlorine to be injected over a short period of time (for example, one minute), the prediction is made by mathematical interpolation. At the same time, the injection amount target value signal 75S of the target value (prediction result) is displayed on the communication means 46, and the actual operation is corrected according to selection by the operator 101 as necessary.
本発明の効果について以下に述べる。下水処理場の従来
の制御方法は、多量のデータ解析、オペレータへのイン
タビューによる知識獲得、さらには推論ルールの作成、
追加、修正、削除、改良などに多くの労力を要していた
。知識工学の方法では、獲得する知識は特定のオペレー
タの主観的判断に依存していた。しかし、本発明では、
過去の実績データから知識を自動獲得し、かつ、ニュー
ラルネットの予測により運転ガイダンス及び制御を行な
い得る。したがって、本発明を適用すれば。The effects of the present invention will be described below. Conventional control methods for sewage treatment plants involve analyzing large amounts of data, acquiring knowledge through interviews with operators, and creating inference rules.
Additions, corrections, deletions, improvements, etc. required a lot of effort. In knowledge engineering methods, the knowledge acquired was dependent on the subjective judgment of a particular operator. However, in the present invention,
Knowledge is automatically acquired from past performance data, and driving guidance and control can be performed using neural network predictions. Therefore, if the present invention is applied.
より少ない労力で、オペレータが実施している「実績と
前例に即した運転」を容易に行なうことができる。また
学習を随時行なうことが可能であるので、状況の変化に
迅速に追随して学習しかつ制御することができる。Operators can easily perform ``operations based on past experience and precedent'' with less effort. Furthermore, since learning can be performed at any time, it is possible to quickly follow changes in the situation, learn and control.
特に、本発明では、■流入水の物理的・化学的・生物的
特性、■プラント状態量、■季節と時間、■プラント状
態の評価量、■プラント操作量に着目し、過去の■■■
に基づいて■プラント状態表か量と■プラント操作量を
予測することができるので、オペレータと同等の操作を
行ない得る。In particular, the present invention focuses on ■physical, chemical, and biological characteristics of inflow water, ■plant state quantities, ■season and time, ■plant status evaluation quantities, and ■plant operation quantities, and analyzes past ■■■
Since it is possible to predict (1) plant status table quantity and (2) plant operation amount based on the following, it is possible to perform operations equivalent to those of an operator.
第1図は本発明の実施例の構成を示す説明図、第2図は
学習パターンの説明図、第3図はニューラルネットの構
成図、第4図はニューロン素子モデルを示す説明図、第
5図はニューロン素子モデルでの信号変換を示す特性図
、第6図は予測工程を説明する説明図である。
9・・・最初沈殿池、15・・・曝気槽、16・・・最
終沈殿池、17・・・ブロワ−,16C1・・・返送汚
泥ポンプ、16C2・・・ポンプ、9M、15M、16
M・・・計測器、46・・・交信手段、101・・・オ
ペレータ、71F・・・履歴パターンデータファイル、
71・・・学習用ニューラルネット、72・・・予測用
ニューラルネット、73・・・知識獲得工程、74・・
・知識診断工程、75・・・運転制御工程、61・・・
推論機構、710・・・入力層、720・・・中間層、
730・・・出力層、740・・・比較層、750・・
・教師層、701・・・第
2
因
第6図
入力層FIG. 1 is an explanatory diagram showing the configuration of an embodiment of the present invention, FIG. 2 is an explanatory diagram of a learning pattern, FIG. 3 is a configuration diagram of a neural network, FIG. 4 is an explanatory diagram showing a neuron element model, and FIG. The figure is a characteristic diagram showing signal conversion in the neuron element model, and FIG. 6 is an explanatory diagram explaining the prediction process. 9... First settling tank, 15... Aeration tank, 16... Final settling tank, 17... Blower, 16C1... Return sludge pump, 16C2... Pump, 9M, 15M, 16
M... Measuring instrument, 46... Communication means, 101... Operator, 71F... History pattern data file,
71... Neural network for learning, 72... Neural network for prediction, 73... Knowledge acquisition process, 74...
・Knowledge diagnosis process, 75... Operation control process, 61...
Reasoning mechanism, 710...input layer, 720...middle layer,
730... Output layer, 740... Comparison layer, 750...
・Teacher layer, 701...2nd factor Figure 6 input layer
Claims (1)
的・物的特性、(2)プラントの状態量、(3)季節と
時間、に対して、(4)プラント状態の評価量、(5)
プラント操作量を出力するものであって、入力層、少な
くとも1層の中間層、および出力層からなる階層構造の
神経回路モデルを備え、過去の複数時点での、前記(1
)(2)(3)を入力すると共に、当該入力に対応する
前記(4)(5)を教師パターンとして前記神経回路モ
デルに学習させることにより、前記(1)(2)(3)
(4)(5)の間の関係を記述する知識を記号または言
葉で表現することを特徴とする、下水処理場運転支援の
ための知識獲得方法。 2、時間と共に変化する、(1)流入水の物理的・化学
的・生物的特性、(2)プラントの状態量、(3)季節
と時間、(4)プラント状態の評価量に対して、(5)
プラント操作量を出力し制御するものであって、 入力層、少なくとも1層の中間層、および出力層からな
る階層構造の神経回路モデルを備え、過去の複数時点で
の、前記(1)(2)(3)を入力すると共に、当該入
力に対応する前記(4)(5)を教師パターンとして前
記神経回路モデルに学習させ、該学習した神経回路モデ
ルに、現時点または将来予想される(1)(2)(3)
を入力し、当該入力に対応する(4)(5)を出力させ
、前記(5)プラント操作量を制御することを特徴とす
る、下水処理場運転支援のための知識獲得方法。[Claims] 1. For (1) physical, chemical, and physical characteristics of inflow water, (2) state quantities of the plant, and (3) season and time, which change with time, (4) ) Evaluation quantity of plant condition, (5)
It outputs the plant operation amount, and includes a neural circuit model with a hierarchical structure consisting of an input layer, at least one intermediate layer, and an output layer,
), (2), and (3), and the neural circuit model learns the above (4) and (5) corresponding to the input as a teacher pattern, thereby obtaining the above (1), (2), and (3).
(4) A knowledge acquisition method for sewage treatment plant operation support, characterized by expressing knowledge describing the relationship between (5) in symbols or words. 2. Regarding (1) physical, chemical, and biological characteristics of inflow water, (2) plant state quantities, (3) season and time, and (4) plant state evaluation quantities that change over time, (5)
It outputs and controls the plant operation amount, and is equipped with a neural circuit model with a hierarchical structure consisting of an input layer, at least one intermediate layer, and an output layer, and has a neural network model that outputs and controls plant operation amounts at multiple points in the past. )(3), and the neural circuit model learns the above-mentioned (4) and (5) corresponding to the input as a teacher pattern, and the learned neural circuit model is used to input (1) which is expected at present or in the future. (2)(3)
A knowledge acquisition method for supporting operation of a sewage treatment plant, the method comprising: inputting the following information, outputting (4) and (5) corresponding to the input, and controlling the plant operating amount (5).
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1271679A JPH03134706A (en) | 1989-10-20 | 1989-10-20 | Knowledge acquiring method for supporting operation of sewage-treatment plant |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1271679A JPH03134706A (en) | 1989-10-20 | 1989-10-20 | Knowledge acquiring method for supporting operation of sewage-treatment plant |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH03134706A true JPH03134706A (en) | 1991-06-07 |
Family
ID=17503364
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP1271679A Pending JPH03134706A (en) | 1989-10-20 | 1989-10-20 | Knowledge acquiring method for supporting operation of sewage-treatment plant |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH03134706A (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1994019729A1 (en) * | 1993-02-16 | 1994-09-01 | Optum Umwelttechnik Gmbh | Process for operating a sewage water clarification plant and sewage water clarification plant |
WO1998003434A1 (en) * | 1996-07-19 | 1998-01-29 | Mitsubishi Chemical Corporation | Device for controlling dissolved oxygen concentration of aeration tank, device for controlling temperature of aeration tank, device for controlling flow rate of raw water for homogeneous-flow liquid surface, and wastewater treatment equipment used in activated sludge process |
KR100456413B1 (en) * | 2002-06-21 | 2004-11-10 | 에치투엘 주식회사 | System and method for AI controlling waste-water treatment by neural network and back-propagation algorithm |
JP2012228645A (en) * | 2011-04-26 | 2012-11-22 | Hitachi Ltd | Water treatment apparatus, water treating method, and program for the method |
JP2014050773A (en) * | 2012-09-05 | 2014-03-20 | Metawater Co Ltd | Filtration assistant injection control method and filtration assistant injection control device |
CN105549519A (en) * | 2014-10-28 | 2016-05-04 | 兰州理工大学 | Automation control system of liming process in production process of gelatin |
CN107055732A (en) * | 2017-05-17 | 2017-08-18 | 北京易沃特科技有限公司 | A kind of heavy metals minimizing technology and device |
CN108640272A (en) * | 2018-06-01 | 2018-10-12 | 杭州师范大学 | The method of qualitative assessment anaerobic ammonia oxidation process impact resistance and recovery capability |
WO2022018974A1 (en) * | 2020-07-21 | 2022-01-27 | 巴工業株式会社 | Machine learning device, data processing system, and machine learning method |
WO2022018975A1 (en) * | 2020-07-21 | 2022-01-27 | 巴工業株式会社 | Machine-learning device, data processing system, and machine-learning method |
WO2022018976A1 (en) * | 2020-07-21 | 2022-01-27 | 巴工業株式会社 | Machine learning device, data processing system, and machine learning method |
-
1989
- 1989-10-20 JP JP1271679A patent/JPH03134706A/en active Pending
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1994019729A1 (en) * | 1993-02-16 | 1994-09-01 | Optum Umwelttechnik Gmbh | Process for operating a sewage water clarification plant and sewage water clarification plant |
WO1998003434A1 (en) * | 1996-07-19 | 1998-01-29 | Mitsubishi Chemical Corporation | Device for controlling dissolved oxygen concentration of aeration tank, device for controlling temperature of aeration tank, device for controlling flow rate of raw water for homogeneous-flow liquid surface, and wastewater treatment equipment used in activated sludge process |
KR100456413B1 (en) * | 2002-06-21 | 2004-11-10 | 에치투엘 주식회사 | System and method for AI controlling waste-water treatment by neural network and back-propagation algorithm |
JP2012228645A (en) * | 2011-04-26 | 2012-11-22 | Hitachi Ltd | Water treatment apparatus, water treating method, and program for the method |
JP2014050773A (en) * | 2012-09-05 | 2014-03-20 | Metawater Co Ltd | Filtration assistant injection control method and filtration assistant injection control device |
CN105549519A (en) * | 2014-10-28 | 2016-05-04 | 兰州理工大学 | Automation control system of liming process in production process of gelatin |
CN107055732A (en) * | 2017-05-17 | 2017-08-18 | 北京易沃特科技有限公司 | A kind of heavy metals minimizing technology and device |
CN108640272A (en) * | 2018-06-01 | 2018-10-12 | 杭州师范大学 | The method of qualitative assessment anaerobic ammonia oxidation process impact resistance and recovery capability |
CN108640272B (en) * | 2018-06-01 | 2021-01-19 | 杭州师范大学 | A method for quantitatively assessing the shock resistance and resilience of anammox processes |
WO2022018974A1 (en) * | 2020-07-21 | 2022-01-27 | 巴工業株式会社 | Machine learning device, data processing system, and machine learning method |
WO2022018975A1 (en) * | 2020-07-21 | 2022-01-27 | 巴工業株式会社 | Machine-learning device, data processing system, and machine-learning method |
WO2022018976A1 (en) * | 2020-07-21 | 2022-01-27 | 巴工業株式会社 | Machine learning device, data processing system, and machine learning method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
De Canete et al. | Soft-sensing estimation of plant effluent concentrations in a biological wastewater treatment plant using an optimal neural network | |
JP2533942B2 (en) | Knowledge extraction method and process operation support system | |
Suykens et al. | NL/sub q/theory: checking and imposing stability of recurrent neural networks for nonlinear modeling | |
CN101566829A (en) | Method for computer-aided open loop and/or closed loop control of a technical system | |
CN115345344A (en) | Sewage treatment plant effluent quality prediction method based on attention mechanism and long-short term memory network | |
JPH03134706A (en) | Knowledge acquiring method for supporting operation of sewage-treatment plant | |
KR950007882B1 (en) | Apparatus and method for automatically generating membership functions and fuzzy inference rules for fuzzy inference systems | |
Souza et al. | Co-evolutionary genetic multilayer perceptron for feature selection and model design | |
Serrao et al. | Hybrid modelling of nitrogen removal by biofiltration using high-frequent operational data | |
JPH03259302A (en) | Information processing system | |
Najim et al. | Learning systems: Theory and application | |
JP2000305606A (en) | Water distribution demand predictive method | |
JPH03134704A (en) | Knowledge acquiring method and process operation supporting method | |
Al-Tabtabai et al. | Construction project control using artificial neural networks | |
Panoutsos et al. | An incremental learning structure using granular computing and model fusion with application to materials processing | |
JPH03134703A (en) | Demand pattern predicting method and plant operating method | |
Aponte-Rengifo et al. | Optimal set point generation based on deep reinforcement learning and transfer knowledge for Wastewater Treatment Plants | |
He et al. | Application of neural network model based on combination of fuzzy classification and input selection in short term load forecasting | |
JP2000163394A (en) | Method for predicting water distribution demand amount | |
Voipan et al. | Enhancing Effluent Quality Predictions in Wastewater Treatment with LSTM Neural Network | |
Miao et al. | Multi-output behavioral cloning framework: A knowledge-based predictive control methodology based on deep learning for wastewater treatment plants | |
Lee et al. | Constructed Wetlands: prediction of performance with case-based reasoning (Part B) | |
JPH03135497A (en) | Chlorine injection control method | |
Patry et al. | Innovative computing techniques for development of an integrated computer control system | |
Sanz et al. | Computational intelligence in process control |