[go: up one dir, main page]

JPH03134706A - Knowledge acquiring method for supporting operation of sewage-treatment plant - Google Patents

Knowledge acquiring method for supporting operation of sewage-treatment plant

Info

Publication number
JPH03134706A
JPH03134706A JP1271679A JP27167989A JPH03134706A JP H03134706 A JPH03134706 A JP H03134706A JP 1271679 A JP1271679 A JP 1271679A JP 27167989 A JP27167989 A JP 27167989A JP H03134706 A JPH03134706 A JP H03134706A
Authority
JP
Japan
Prior art keywords
plant
layer
input
knowledge
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1271679A
Other languages
Japanese (ja)
Inventor
Kenji Baba
研二 馬場
Ichirou Enbutsu
伊智朗 圓佛
Shoji Watanabe
昭二 渡辺
Toshio Yahagi
矢萩 捷夫
Harumi Matsuzaki
松崎 晴美
Naoki Hara
直樹 原
Mikio Yoda
幹雄 依田
Toshihiko Uejima
上島 寿彦
Yoshimasa Asada
浅田 能勝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP1271679A priority Critical patent/JPH03134706A/en
Publication of JPH03134706A publication Critical patent/JPH03134706A/en
Pending legal-status Critical Current

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02WCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO WASTEWATER TREATMENT OR WASTE MANAGEMENT
    • Y02W10/00Technologies for wastewater treatment
    • Y02W10/10Biological treatment of water, waste water, or sewage

Landscapes

  • Feedback Control In General (AREA)
  • Treatment Of Biological Wastes In General (AREA)
  • Activated Sludge Processes (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、下水処理プラントの状態評価知識または操作
知識を自動獲得し、さらには、プラントを適正に運転す
るための制御法に関する。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to a control method for automatically acquiring state evaluation knowledge or operation knowledge of a sewage treatment plant, and further for properly operating the plant.

〔従来の技術〕[Conventional technology]

下水処理プラントでは、■流入水の物理的・化学的・生
物的特性、■プラントの状態量、■季節と時間、を種々
勘案して、■プラント状態を評価し、これに基づき■プ
ラントを操作している。プラントの維持管理とはこの評
価と操作(または制御)を適切に行うことである。しか
し、プラント固有の形状や処理方式の違い、あるいは流
入水の量と質に差があるため、■■■■■との関係は複
雑で一義的に定まらない傾向にあり、かつ、下水処理メ
カニズムも完全に解明されていない。これらのためオペ
レータが過去の実績により蓄積した勘と経験による評価
と操作がなされている。
In a sewage treatment plant, ■physical, chemical, and biological characteristics of the inflow water, ■state quantities of the plant, ■season and time are taken into account, ■evaluates the plant condition, and ■operates the plant based on this. are doing. Plant maintenance and management means performing this evaluation and operation (or control) appropriately. However, due to differences in plant-specific shapes and treatment methods, as well as differences in the quantity and quality of inflow water, the relationship between is also not completely elucidated. For these reasons, evaluation and operation are performed based on intuition and experience accumulated by operators based on their past performance.

この評価と操作を自動化する方法として、物理・化学・
生物学的な数学モデルを構築してシミュレーションを活
用して適正な運転を行う方法、並びに、オペレータの運
転操作を模擬した知識工学やファジィ理論による運転支
援方式や制御方式などが提案されている。
As a method of automating this evaluation and operation, physical, chemical,
Proposed methods include constructing biological mathematical models and utilizing simulations to perform proper driving, as well as driving support and control methods based on knowledge engineering and fuzzy theory that simulate operator driving operations.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

シミュレーションでは満足のいく方式は未開発である。 No satisfactory method for simulation has yet been developed.

また、膨大なデータ解析やオペレータへのインタビュー
を通して、知識工学では「もし・・・ならば・・・せよ
」といったルール作成が、他方、ファジィ制御ではあい
まいさを定量化する特性関数であるメンバーシップ関数
の作成や推論のためのルール作成が、各々行われている
が、これらの作業にも経験と多大の労力とを必要とする
。さらには、ルールやメンバーシップ関数や推論ルール
の追加、削除、改良などソフトウェアメンテナンスにも
多大の労力を要する。
In addition, through extensive data analysis and interviews with operators, we have learned that in knowledge engineering, rules such as "if... then..." are created, while in fuzzy control, membership is a characteristic function that quantifies ambiguity. Although functions are created and rules for inference are created, these tasks also require experience and a great deal of effort. Furthermore, software maintenance such as adding, deleting, and improving rules, membership functions, and inference rules requires a great deal of effort.

さらには、下水処理場では前記■■■■に基づき■プラ
ントの操作を、過去の経験と運転実績に着目すると共に
、現時点の状況を踏まえて手動制御しており、煩雑で継
続的な監視が不可欠であった。
Furthermore, in sewage treatment plants, plant operations are manually controlled based on the above ■■■■ by focusing on past experience and operational records and taking into account the current situation, which eliminates the need for complicated and continuous monitoring. It was essential.

〔課題を解決するための手段〕[Means to solve the problem]

前述したルール(推論ルール含む)やメンバーシップ関
数の作成だけでなく、追加、削除、改良を容易に行なう
ことができ、かつオペレータと同等の操作を実現するた
めに、ニューラルネット(神経回路モデル)のもつ学習
能力を活用する。
In addition to creating the aforementioned rules (including inference rules) and membership functions, we also use neural networks (neural circuit models) to easily add, delete, and improve them, and to achieve operations equivalent to operators. Take advantage of your own learning abilities.

オペレータは、過去の運転履歴を参考にしながら、■流
入水の物理的・化学的・生物的特性、■プラントの状態
量、■季節と時間、を種々勘案して、■プラント状態を
予測しながら評価し、■これしこ基づいてプラントを操
作している。これらを人工的に行なうためにニューラル
ネットを適用する。
The operator refers to the past operation history, takes into account various factors such as the physical, chemical, and biological characteristics of the inflow water, the state quantities of the plant, and the season and time, and predicts the plant state. We evaluate and operate the plant based on this. Neural networks are applied to perform these tasks artificially.

まず、ニューラルネットに過去の複数時点での■流入水
の物理的・化学的・生物的特性、■プラントの状態量、
■季節と時間、■プラント状態の評価結果、■プラント
の操作状態の各々のパターンを学習させる。これらを実
行するニューラルネットの具体的構成は、ニューロン素
子モデルを基本として構成される入力層、少なくとも1
層の中間層、出力層、比較層、並びに教師層からなる階
層構造であり、具体的学習方法は公知の誤差逆伝搬法に
より行なう。続いて、学習済みのニューラルネットの入
力層に、未学習である現時点または将来の■■■を入力
し、出力層に■■を出力(予測)させるようにした。こ
の予測値に基づいてプラントを操作する。
First, the neural network is applied to the physical, chemical, and biological characteristics of the inflow water at multiple points in the past, and the state quantities of the plant.
Learn each pattern of ■season and time, ■plant condition evaluation results, and ■plant operating status. The specific configuration of the neural network that executes these functions includes an input layer configured based on a neuron element model, and at least one
It has a hierarchical structure consisting of an intermediate layer, an output layer, a comparison layer, and a teacher layer, and the specific learning method is a known error backpropagation method. Next, the unlearned current or future ■■■ was input to the input layer of the trained neural network, and the output layer was made to output (predict) ■■. The plant is operated based on this predicted value.

〔作用〕[Effect]

ニューラルネットは過去の複数時点での前記■■■■■
を学習させることにより、オペレータと同等の感覚を身
に付ける。この実態は、ニューラルネットの重み係数の
分布が変化するものである。
A neural network can be used to calculate the above ■■■■■ at multiple points in the past.
By having the robot learn the following, it will acquire the same sense as an operator. The actual situation is that the distribution of the weighting coefficients of the neural network changes.

次に、学習済みニューラルネットに、未学習の■■■を
入力することにより■■を予測する。これは、オペレー
タが過去の種々の実績を勘案して■■を行う方法を模擬
したものである。このように、ニューラルネットを利用
することにより、オペレータと同等の評価と操作が実現
できる。
Next, by inputting unlearned ■■■ into the trained neural network, ■■ is predicted. This is a simulation of the method by which an operator performs ■■ by considering various past results. In this way, by using a neural network, evaluation and operation equivalent to that of an operator can be realized.

〔実施例〕〔Example〕

本発明は、下水処理場の■流入水の物理的・化学的・生
物的特性、■プラントの状態量、■季節と時間、■プラ
ント状態の評価量、■プラント操作量、以上■■■■■
の過去履歴をニューラルネットに学習させて、■■■と
■とに関する知識、並びに■■■と■とに関する知識、
を自動的に獲得すると共に、学習済みのニューラルネッ
トの連想作用により、プラントの運転操作(制御含む)
をガイダンスするものである。
The present invention focuses on the physical, chemical, and biological characteristics of inflow water of sewage treatment plants, ■state quantities of the plant, ■season and time, ■evaluated quantities of plant conditions, and ■plant operating quantities. ■
By having a neural network learn the past history of , knowledge about ■■■ and ■, knowledge about ■■■ and ■,
In addition to automatically acquiring the
This is to provide guidance.

実行工程は、(1)学習用神経回路モデル(学習用ニュ
ーラルネット)による学習工程、(2)知識獲得工程、
(3)知識診断工程、(4)推論工程、(5)学習済み
ニューラルネット(予測用ニューラルネット)の連想予
測工程、(6)プラント運転操作制御工程からなる。
The execution process includes (1) a learning process using a learning neural circuit model (learning neural network), (2) a knowledge acquisition process,
It consists of (3) knowledge diagnosis process, (4) inference process, (5) associative prediction process of trained neural network (prediction neural network), and (6) plant operation control process.

第1図の実施例で構成と動作を説明する。まず、下水処
理プロセスのフローを以下に説明する。最初沈殿池9で
は、流入下水中の浮遊物質の一部が重力沈降により除去
される。曝気槽15には最初沈殿池9から越流した下水
と返送汚泥管16P1からの返送汚泥が流入する。曝気
槽15にはブロワ−17から制御バルブ17A、17B
を経て空気が供給され、下水と返送汚泥が混合撹拌され
る。
The configuration and operation will be explained using the embodiment shown in FIG. First, the flow of the sewage treatment process will be explained below. In the initial settling tank 9, a portion of suspended solids in the inflowing sewage is removed by gravity settling. The sewage that has overflowed from the initial settling tank 9 and the return sludge from the return sludge pipe 16P1 flow into the aeration tank 15. Control valves 17A and 17B are connected to the aeration tank 15 from the blower 17.
Air is supplied through the system, and the sewage and returned sludge are mixed and stirred.

返送汚泥(活性汚泥)は供給された空気中の酸素を吸収
し、下水中の有機物が分解されて最終沈殿池16に導か
れる。最終沈殿池16では活性汚泥の重力沈降により活
性汚泥が沈降し上澄水は放流される。最終沈殿池16内
に沈降した活性汚泥は引き抜かれて、一部は余剰汚泥と
して余剰汚泥管16P2とポンプ16C2により排出さ
れる。排出されなかった残り大部分の活性汚泥は、返送
汚泥として返送汚泥ポンプ16C1から返送汚泥管16
P1を通して曝気槽15に返送される。
The returned sludge (activated sludge) absorbs oxygen from the supplied air, decomposes organic matter in the sewage, and is led to the final settling tank 16. In the final settling tank 16, the activated sludge settles due to gravity settling, and the supernatant water is discharged. The activated sludge settled in the final settling tank 16 is pulled out, and a portion is discharged as surplus sludge by the surplus sludge pipe 16P2 and pump 16C2. Most of the remaining activated sludge that was not discharged is transferred as return sludge from the return sludge pump 16C1 to the return sludge pipe 16.
It is returned to the aeration tank 15 through P1.

次に計測器について説明する。最初沈殿池9゜曝気槽1
5、最終沈殿池16には各々計測器9M。
Next, the measuring device will be explained. First sedimentation tank 9゜Aeration tank 1
5. Each final settling tank 16 has a measuring device of 9M.

15M、16Mが設置される。計測項目は、流入下水量
、浮遊物質濃度、化学的酸素要求量、pH5窒素濃度、
アンモニア濃度、硝酸性窒素濃度、亜硝酸性窒素濃度、
リン濃度、溶存酸素濃度、汚泥界面高さ(SVI:Sl
udge Volume Index、など)、並びに
微生物や浮遊性物質の画像情報などである。
15M and 16M will be installed. Measurement items include inflow sewage volume, suspended solids concentration, chemical oxygen demand, pH5 nitrogen concentration,
Ammonia concentration, nitrate nitrogen concentration, nitrite nitrogen concentration,
Phosphorus concentration, dissolved oxygen concentration, sludge interface height (SVI: Sl
udge Volume Index, etc.), as well as image information of microorganisms and floating substances.

続いて、予測運転制御装置80の構成を説明する。Next, the configuration of the predictive operation control device 80 will be explained.

予測運転制御装置80はコンピュータシステムであり本
発明の説明を容易にするために第1図には処理のフロー
図を示しである。なお、図中ネットワークと記載されて
いる部分は後述する第4図の実線702に相当する多数
の配線(または情報の連絡経路)を示す。
The predictive operation control device 80 is a computer system, and a flowchart of the processing is shown in FIG. 1 to facilitate explanation of the present invention. In addition, the part described as network in the figure indicates a large number of wirings (or information communication routes) corresponding to a solid line 702 in FIG. 4, which will be described later.

履歴パターンデータファイル71Fは、■計測器9Mで
計測した流入水特性、■計測器15M。
The history pattern data file 71F includes: ■Inflow water characteristics measured by measuring device 9M; ■Measuring device 15M.

16Mで計測したプラント状態量、■季節と時間、■計
測器15M、16Mの計測量の一部であるプラント状態
評価量、■ポンプ16C2、返送汚泥ポンプ16C1、
ブロワ−17、制御バルブ17A。
Plant status quantities measured by 16M, ■Season and time, ■Plant status evaluation quantities that are part of the measured quantities of measuring instruments 15M and 16M, ■Pump 16C2, return sludge pump 16C1,
Blower 17, control valve 17A.

17Bなどのプラント操作量、以上■〜■の時系列デー
タが記憶される。
Plant operation amounts such as 17B and time series data of the above items 1 to 2 are stored.

学習用ニューラルネット71には、履歴パターンデータ
ファイル71Fの中から自動的にまたは交信手段46か
らの指示71Sにより、■流入水特性の選択されたデー
タ列D1、■プラント状態量の選択されたデータ列D2
.04節と時間の選択されたデータ列D3、■プラント
状態評価量の選択されたデータ列D4、■プラント操作
量の選択されたデータ列D5が各々出力される。なお、
各データ列は実際には複数の項目を含むが5本実施例で
は説明を容易にするため代表の記号D1〜D5で表すも
のとする。学習用ニューラルネット71ではデータDi
、D2.D3.D4.D5を用いて学習が実行され、実
行結果71S1と7182とが、知識獲得工程73と予
測用ニューラルネット72とに出力される。
The learning neural network 71 automatically receives from the historical pattern data file 71F or by an instruction 71S from the communication means 46, ■ selected data string D1 of inflow water characteristics, and ■ selected data of plant state quantities. Column D2
.. 04 node and time selected data string D3, (1) selected data string D4 of plant condition evaluation amount, and (2) selected data string D5 of plant operation amount are output, respectively. In addition,
Each data string actually includes a plurality of items, but in this embodiment, five items are represented by representative symbols D1 to D5 for ease of explanation. In the learning neural network 71, data Di
, D2. D3. D4. Learning is executed using D5, and execution results 71S1 and 7182 are output to the knowledge acquisition process 73 and the prediction neural network 72.

知識獲得工程73では71S1と71S2に基づいて前
記■■■と■、または■■■と■に関する知識を記号ま
たは言葉に変換する。知識診断工程74では、知識獲得
工程73で得た知識を交信手段46からの指示(図示省
略)により知識候補ベース60Bまたは知識ベース60
Aに格納する。
In the knowledge acquisition step 73, the knowledge regarding ■■■ and ■ or ■■■ and ■ is converted into symbols or words based on 71S1 and 71S2. In the knowledge diagnosis step 74, the knowledge obtained in the knowledge acquisition step 73 is transferred to the knowledge candidate base 60B or the knowledge base 60 according to instructions from the communication means 46 (not shown).
Store in A.

推論機構61は知識ベース60Aと、あらかじめ入力し
た知識ベース60Cを受けて推論を実行し、運転制御工
程75に信号61Sを出力する。
The inference mechanism 61 receives the knowledge base 60A and the knowledge base 60C input in advance, performs inference, and outputs a signal 61S to the operation control process 75.

一方、予測用ニューラルネット72では履歴パターンデ
ータファイル71Fの中から予測に必要なデータを選択
して予測に使用する。予測結果は予測信号72Sとして
交信手段46に表示すると共に、運転制御工程75に出
力する。
On the other hand, the prediction neural network 72 selects data necessary for prediction from the history pattern data file 71F and uses it for prediction. The prediction result is displayed on the communication means 46 as a prediction signal 72S, and is also output to the operation control process 75.

運転制御工程75は予測信号72Sと信号61Sとを受
け、信号75Sを出力して■ポンプ16c2、返送汚泥
ポンプ16C1、ブロワ−17、制御バルブ17A、1
7Bなどのプラント操作量を制御する。同時に、制御目
標値信号75Sを交信手段46に表示して、必要に応じ
てオペレータ101の選択により実際の制御量を補正す
る。補正値は再び出力する。
The operation control process 75 receives the prediction signal 72S and the signal 61S, outputs the signal 75S, and operates the pump 16c2, the return sludge pump 16C1, the blower 17, and the control valves 17A, 1.
Controls plant operation amounts such as 7B. At the same time, the control target value signal 75S is displayed on the communication means 46, and the actual control amount is corrected as required by the operator 101's selection. The correction value is output again.

次に、第1図を用い本発明の詳細な説明する。Next, the present invention will be explained in detail using FIG.

詳細構成と動作の説明には第2図以降を用いる。FIG. 2 and subsequent figures will be used to explain the detailed configuration and operation.

まず、履歴パターンデータファイル71Fへデータを記
憶する方法について説明する。時刻し=Oの履歴パター
ンデータDI(0)〜D5(0)を履歴パターンデータ
ファイル71Fに記憶する。これを繰り返してt=Q、
−1,−2,・・・のデータを順次記憶する。時間間隔
は本実施例では一例として1時間の場合を説明するが、
この時間設定により本発明の実施は制約を受けない。
First, a method for storing data in the history pattern data file 71F will be explained. The history pattern data DI(0) to D5(0) with time=O are stored in the history pattern data file 71F. Repeat this until t=Q,
-1, -2, . . . data are stored sequentially. In this embodiment, a case of one hour will be explained as an example of the time interval, but
Implementation of the present invention is not restricted by this time setting.

続いて、学習工程における学習用ニューラルネット71
の動作を以下に説明する。学習用ニューラルネット71
では、履歴パターンデータファイル71Fの中から選択
されたデータを受けて学習を実行する。このデータ選択
と学習方法を以下に第1図と第2図とを用いて以下に説
明する。
Next, the learning neural network 71 in the learning process
The operation will be explained below. Learning neural network 71
Now, learning is executed by receiving data selected from the history pattern data file 71F. This data selection and learning method will be explained below using FIGS. 1 and 2.

第2図に示すように、D1〜D5について任意の時刻1
=1□を基準に過去にさかのぼってt工1、t、−2,
・・・をまず学習する。同様に、1=12(tz≠t□
)を基準にしてt2−1.t2−2.・・・のパターン
データを学習し、合計9個のパターンデータを学習する
。q個のパターンの選択は過去の代表的なパターンが望
ましい。学習はこれら一群のデータを入力用データと教
師用データとに分けて行なう。第1図に示すように、入
力N710には任意の時刻1 (1= 1□、tl、・
・・)におけるDi(t)〜D3(t)と、時刻tから
過去にさかのぼってDi(t−1)〜D5(t−1)を
順次入力する。ここで、D4(t−1)、D5(t、−
1)が追加されることに注意されたい。以下t=t−2
,t−3,・・・についても同様である。一方、教師層
750には、D4(t)、D5(t)を入力する。学習
は、入力層710.中間層720、出力層30、比較層
740、教師層750からなる構成の学習用ニューラル
ネット71で行なう。
As shown in FIG. 2, any time 1 for D1 to D5
=1□ as a reference, go back to the past and calculate t-work 1, t, -2,
First learn... Similarly, 1=12(tz≠t□
) based on t2-1. t2-2. ... and learns a total of nine pattern data. It is desirable that the q patterns be selected from past representative patterns. Learning is performed by dividing this group of data into input data and teacher data. As shown in FIG. 1, input N710 has an arbitrary time 1 (1=1□,tl,
), and Di(t-1) to D5(t-1) are input sequentially starting from time t. Here, D4(t-1), D5(t, -
Note that 1) is added. Below t=t-2
, t-3, . . . On the other hand, D4(t) and D5(t) are input to the teacher layer 750. Learning is performed at the input layer 710. This is performed using a learning neural network 71 consisting of an intermediate layer 720, an output layer 30, a comparison layer 740, and a teacher layer 750.

学習方法における信号処理方法を以下に第3図を用いて
説明する。第3図の構成と信号処理方法とは、前述した
入力データと教師M750の設定法を除いて公知である
。すなわち、第3図の構成と信号処理方法とはRume
lhartらによって考案された公知技術であり、詳細
は文献(ParallellDistributed 
Processing、HIT Press、 Vol
、1゜(1986))を参照されたい。
The signal processing method in the learning method will be explained below using FIG. The configuration and signal processing method shown in FIG. 3 are known, except for the input data and the setting method of the teacher M750 described above. That is, the configuration and signal processing method shown in FIG.
This is a known technique devised by Lhart et al., and details can be found in the literature (Parallel Distributed
Processing, HIT Press, Vol.
, 1° (1986)).

第3図の構成と動作の概略を説明する。第3図でOは、
積和演算とシグモイド変換機能を有するニューロン素子
モデル701であり、OとOとを連結する実線702は
ニューロン素子モデル701間の情報のやりとりがある
ことを示す。ここで、各層は有限数のニューロン素子モ
デルからなり、隣接する各層のニューロン素子モデル間
が全て連結される。中間層720は複数層あって良いが
、本実施例では説明の簡単のため中間層の数が一つの例
を示す。また、第3図において出力層730、比較層7
40、教師N750はD4(t)、D5(t)の2つで
あるが、一般的な表現として複数の場合を図示した。第
3図の構成をニューラルネット(神経回路モデル)と称
する。
The configuration and operation of FIG. 3 will be outlined. In Figure 3, O is
This is a neuron element model 701 having a product-sum operation and a sigmoid transformation function, and a solid line 702 connecting O and O indicates that information is exchanged between the neuron element models 701. Here, each layer consists of a finite number of neuron element models, and all neuron element models in adjacent layers are connected. Although there may be a plurality of intermediate layers 720, this embodiment shows an example in which the number of intermediate layers is one for ease of explanation. In addition, in FIG. 3, an output layer 730, a comparison layer 7
40. There are two teacher N750s, D4(t) and D5(t), but a plurality of cases is illustrated as a general expression. The configuration shown in FIG. 3 is called a neural network (neural circuit model).

次に、ニューロン素子モデル701の基本演算を第4図
で説明する。入力層710に入力するデータD1〜D5
の各々の時系列を一括(全部でn個あるとする)して、
第4図に示すようにn個の変数値Y□〜Ynと記す。入
力された信号値Y1〜Ynの各々に重み係数Wjiを乗
じ、さらにこれらを加算する演算(積和演算)を(1)
式で計算する。
Next, basic operations of the neuron element model 701 will be explained with reference to FIG. Data D1 to D5 input to input layer 710
Collectively, each time series (assuming there are n in total),
As shown in FIG. 4, n variable values are written as Y□ to Yn. The operation (product-sum operation) of multiplying each of the input signal values Y1 to Yn by the weighting coefficient Wji and further adding these values is performed as (1)
Calculate by formula.

ここで、Yi(1):入力層(第1層)のYi値、Wj
i(2←1):入力層(第1層)のi番目の変数から中
間層(第2層)のj番目のニューロン素子モデルへの重
み係数、Zj(2):中間層(第2層)のj番目のニュ
ーロン素子モデルへの入力総和値である。
Here, Yi (1): Yi value of input layer (first layer), Wj
i (2←1): Weighting coefficient from the i-th variable of the input layer (first layer) to the j-th neuron element model of the hidden layer (second layer), Zj (2): Weight coefficient of the hidden layer (second layer) ) is the total input value to the j-th neuron element model.

ニューロン素子モデル701では、Zj(2)の大小に
応じてここでの出力値が(2)式(シグモイド変換)で
計算される。
In the neuron element model 701, the output value here is calculated using equation (2) (sigmoid transformation) depending on the magnitude of Zj(2).

(2)式の計算内容は第5図のような非線形変換である
が、線形変換を適用しても同等の効果かえられる。計算
値Yj(2)は、さらに出力層へ送られ、出力層でも同
様の計算が実行される。
Although the calculation content of equation (2) is nonlinear transformation as shown in FIG. 5, the same effect can be obtained even if linear transformation is applied. The calculated value Yj(2) is further sent to the output layer, and the same calculation is performed in the output layer.

次に、ニューラルネットでの計算方法の概要について説
明する。前述した変数値Y 1(1)は第3図の入力層
710に入力され、この信号値は中間層720のニュー
ロン素子モデルに出力される。中間M720のニューロ
ン素子モデルではこれら出力値yi(1)と重み係数W
ij(2←l)との積和Zj(2)を(1)式で計算し
、この大小に応じて出力層730への出力値Yj(2)
を(2)式で決定する。同様にして、中間fi 720
の出力値Yj(2)はさらに中間層(第2暦)720と
出力層(第3層)730との重み係数Wij(3←2)
との積和Z j (3)を(3)式で計算する。
Next, an overview of the calculation method using a neural network will be explained. The aforementioned variable value Y 1 (1) is input to the input layer 710 in FIG. 3, and this signal value is output to the neuron element model of the intermediate layer 720. In the intermediate M720 neuron element model, these output values yi(1) and the weighting coefficient W
The sum of products Zj(2) with ij(2←l) is calculated using equation (1), and the output value Yj(2) to the output layer 730 is calculated according to the magnitude.
is determined using equation (2). Similarly, intermediate fi 720
The output value Yj (2) is further calculated by the weighting coefficient Wij (3←2) between the intermediate layer (second calendar) 720 and the output layer (third layer) 730.
The sum of products Z j (3) is calculated using equation (3).

ここで、Yi(2):中間層(第2層)の値、Wji(
3←2):中間層(第2層)のi番目の変数から出力層
(第3層)のj番目のニューロン素子モデルへの重み係
数、Zj(3):出力層(第3層)のj番目のニューロ
ン素子モデルへの入力総和値である。
Here, Yi(2): value of the middle layer (second layer), Wji(
3←2): Weighting coefficient from the i-th variable of the intermediate layer (second layer) to the j-th neuron element model of the output layer (third layer), Zj (3): Weight coefficient of the output layer (third layer) This is the total input value to the j-th neuron element model.

さらに、Z j (3)の大小に応じて出力層730へ
の出力値Yj(3)を(4)式で計算する。
Furthermore, the output value Yj(3) to be output to the output layer 730 is calculated using equation (4) depending on the magnitude of Z j (3).

このようにして、出力層の計算値Yj(3)が得られる
。Yj(3)は本実施例では04(t)*、D5(t)
*である。
In this way, the calculated value Yj(3) of the output layer is obtained. Yj(3) is 04(t)*, D5(t) in this example
*It is.

ニューラルネットでの学習手順を説明する。まず、比較
層740で出力N730の信号730Sと教師信号層7
50の教師信号750Sとを比較する。例えば、出力信
号730SであるD4(t)*と教師信号750Sであ
るD4(t)との大小が各々比較される。両者の偏差が
小さくなるように、重み係数Wji(3←2)及びWj
i(2←])の大きさを修正する。この修正値を用いて
再度(1)−(4)式の計算を実行し、出力信号730
Sと教師信号750Sとの大小を再度比較して再度重み
係数値を修正していく。この繰返しにより、偏差があら
かじめ決められた値以下になるまで続ける。最初は重み
係数は乱数の発生によりランダムに与えるので偏差は大
きいが、出力信号値は次第に教師信号値に近づく。この
時、(1) −(4)式において値が変更されるのは重
み係数値Wjiだけであるから、学習結果はWji値の
分布に反映していく。なお、予測工程ではこのWji値
を用いる。
Explain the learning procedure using neural networks. First, in the comparison layer 740, the signal 730S of the output N730 and the teacher signal layer 7
50 teacher signal 750S. For example, the magnitude of D4(t)*, which is the output signal 730S, and D4(t), which is the teacher signal 750S, is compared. The weighting coefficients Wji (3←2) and Wj are set so that the deviation between the two is small.
Correct the size of i(2←]). Using this corrected value, calculate the equations (1) to (4) again, and the output signal 730
The magnitude of S and the teacher signal 750S is compared again and the weighting coefficient value is corrected again. This process is repeated until the deviation becomes less than or equal to a predetermined value. At first, the weighting coefficients are given randomly by generating random numbers, so the deviation is large, but the output signal value gradually approaches the teacher signal value. At this time, since only the weighting coefficient value Wji is changed in equations (1) to (4), the learning results are reflected in the distribution of Wji values. Note that this Wji value is used in the prediction process.

このように偏差を修正していく方法は誤差逆伝搬法とよ
ばれ、Rumelhartらによって考案された公知技
術を利用する。詳細は文献(Parallell Di
stributed Processing、HIT 
Press、 Vol、1.(1986))を参照され
たい。このような、学習方法そのものは公知であるが、
本発明は特に、異なる複数時刻(t=t1゜1、.1□
2・・・tq)の履歴パターンデータ群を繰返し学習さ
せ、かつ教師信号としてアナログ値を用いる。
The method of correcting the deviation in this manner is called the error backpropagation method, and uses a known technique devised by Rumelhart et al. For details, see the literature (Parallel Di
distributed processing, HIT
Press, Vol. 1. (1986)). Although this learning method itself is well known,
The present invention particularly provides a plurality of different times (t=t1゜1, .1□
2...tq) are repeatedly learned, and analog values are used as teacher signals.

この結果、オペレータの過去の経験に匹敵するパターン
把握能力がニューラルネットの各重み係数Wjiに蓄積
記憶されていく。この操作により、オペレータの過去の
経験と同等の作用を持たせるようにした。
As a result, pattern grasping ability comparable to the operator's past experience is accumulated and stored in each weighting coefficient Wji of the neural network. This operation was made to have the same effect as the operator's past experience.

複数時刻1=1工+t2+tl+・・・t、における履
歴パターンデ;り群の学習方法を以下に説明する。複数
の履歴パターンデータ群は時刻tを任意に変えて学習す
る。この日t1ttz+t3t・・・t(はオペレータ
が選択する場合と、自動的に選択する場合とがあり、以
下に両者を説明する。
A method of learning historical pattern data at a plurality of times 1 = 1 time + t2 + tl + . . . t will be described below. A plurality of historical pattern data groups are learned by arbitrarily changing the time t. This day t1ttz+t3t...t( may be selected by the operator or automatically, and both will be explained below.

オペレータが選択する場合とは、後で運転に反映させた
いと考えるような、変数値Y工〜Ynの代表的なパター
ンや、後日参考にしたい異常時のパターンである。結果
的に、ニューラルネットはこれら学習した内容に応じて
結果を出力するので、この選択は重要である。オペレー
タに選択をまかせるのは、オペレータの持つ経験的で総
合的なデータ判断能力に頼るものである。この場合、学
習させるパターンは、過去の異なる時刻におけるパター
ンであり、複数のパターンを繰返し学習させる。この結
果、ニューラルネットはオペレータの過去の経験に匹敵
するパターン把握能力を身につける。オペレータによる
時刻の設定は交信手段46を介するマンマシン会話によ
り行う。例えば。
The operator's selection is a typical pattern of variable values Y~Yn that he/she would like to reflect in the operation later, or a pattern for an abnormality that he/she would like to refer to later. As a result, the neural network outputs results according to what it has learned, so this selection is important. Leaving the selection to the operator relies on the operator's empirical and comprehensive ability to judge data. In this case, the patterns to be learned are patterns at different times in the past, and a plurality of patterns are repeatedly learned. As a result, the neural net acquires a pattern recognition ability comparable to the operator's past experience. The operator sets the time by man-machine conversation via the communication means 46. for example.

1月の代表的パターンから12月の代表的なパターンま
で12パターンを各々学習する。特に、代表的な流入水
質の時に、I&終沈殿池16の計測器16Mで計測した
処理水質(浮遊物質濃度、有機物濃度など)が良好な(
基準を最低温たしている)時のパターンを学習する。つ
まり、処理が良好な時にはどのような操作が行なわれた
かを学習する。
Learn each of 12 patterns from the typical pattern of January to the typical pattern of December. In particular, when the inflow water quality is typical, the treated water quality (suspended solids concentration, organic matter concentration, etc.) measured by the measuring device 16M of the I & final sedimentation tank 16 is good (
Learn the pattern when the standard is at its lowest temperature). In other words, it learns what operations were performed when the processing was good.

他方、自動的に行う場合には、事前にデータ列の統計解
析を行う。すなわち、統計解析により最も発生頻度が高
いパターンを求めて正常時の代表例とみなしてこれを学
習させ、一方で、発生頻度が低い場合を異常時のパター
ンを代表例とみなしてこれらを学習させる。第1図の実
施例ではニューラルネットはひとつであるが、正常時用
ニューラルネットと異常時(非定常時)用ニューラルネ
ットとに分けて適用すればさらに効果的である。
On the other hand, when performing automatically, statistical analysis of the data string is performed in advance. In other words, the system uses statistical analysis to find the most frequently occurring pattern and considers it as a representative example of normal conditions, and then learns this pattern.On the other hand, it learns patterns that occur less frequently, considering it as a typical example of abnormal conditions. . In the embodiment shown in FIG. 1, there is only one neural network, but it will be more effective if the neural network is divided into a neural network for normal times and a neural network for abnormal times (unsteady times).

次に、知識獲得工程73では71S1と71S2に基づ
いて前記■■■と■、または■■■と■、または■と■
に関する各々の知識を記号または言葉に変換する。入力
ff1710に設定する変数と出力層730に設定する
変数との関係を総合的に評価する指標として、(5)式
で定義する因果性尺度Ijiを用いる。
Next, in the knowledge acquisition step 73, based on 71S1 and 71S2, the above ■■■ and ■, or ■■■ and ■, or ■ and ■
convert each knowledge about into symbols or words. As an index for comprehensively evaluating the relationship between variables set in the input ff 1710 and variables set in the output layer 730, a causality measure Iji defined by equation (5) is used.

ここで、mは中間層のニューロン素子モデル数である。Here, m is the number of neuron element models in the hidden layer.

これは、入力層から出力層にいたるすべての経路の重み
係数の積和をとった値となる。■jjが大きな値をとれ
ば、i番目の入力とj番目の出力とには、ある因果関係
がある可能性が高い。入力層と出力層との全ての組み合
わせについて工jiを計算し、結果を知識候補として日
本語に変換する。
This value is the sum of the products of the weighting coefficients of all routes from the input layer to the output layer. ■If jj takes a large value, there is a high possibility that there is a certain causal relationship between the i-th input and the j-th output. Compute ji for all combinations of the input layer and output layer, and convert the results into Japanese as knowledge candidates.

この変換方法は工jiが正の値で大であれば以下のよう
に変換する。
In this conversion method, if ji is a positive value and large, the conversion is performed as follows.

知識候補:「i番目の入力値が大であればj番目の出力
値は大きい。」 ■jiが負の値で大であれば以下になる。
Knowledge candidate: "If the i-th input value is large, the j-th output value is large." ■If ji is a negative value and large, the following will occur.

知識候補=「i番目の入力値が大であればj番目の出力
値は小さい。」 得られた知識候補はこのままでは妥当な知識か否かが不
明であるので、知識診断工程74では、知識獲得工程7
3で得た知識候補を交信手段46からの指示(図示省略
)により知識か否かを判定後、知識候補ベース60Bま
たは知識ベース60Aに記憶する。−旦、知識候補ベー
ス60Bに記憶された知識候補でも複数回起こる場合に
は、生起回数をカウントして所定回数(例えば2回)を
越えたら、交信手段46によりオペレータ101に再度
問い合わせ、知識診断工程74を繰り返す。
Knowledge candidate = "If the i-th input value is large, the j-th output value is small." Since it is unclear whether the obtained knowledge candidate is valid knowledge or not, in the knowledge diagnosis step 74, the knowledge Acquisition process 7
After determining whether or not the knowledge candidate obtained in step 3 is knowledge based on an instruction from the communication means 46 (not shown), it is stored in the knowledge candidate base 60B or the knowledge base 60A. - If the knowledge candidate stored in the knowledge candidate base 60B occurs multiple times, the number of occurrences is counted and when it exceeds a predetermined number (for example, two times), the operator 101 is contacted again by the communication means 46 and knowledge diagnosis is performed. Repeat step 74.

推論機構61は知識ベース60Aと知識ベース60Gと
を受けて推論を実行し、運転制御工程75に信号61S
を出力する。知識ベース60Cはオペレータ101に予
め従来手法であるインタビューによって獲得した知識を
記憶しておき補助的に利用する。なお、知識ベース60
Cを利用しなくても本実施例は実施可能である。推論機
構61はプロダクションルールあるいはファジィルール
に基づく推論(前向き、後向き)を実行する。ファジィ
推論の場合にはメンバーシップ関数が必要であるが、本
発明では、Iji値の大きさを利用してファジィ推論の
メンバーシップ関数値を設定することができる。推論方
法は公知の技術であるので説明を割愛する。知識ベース
としては、どのようなの流入条件とのプラント状態量、
■季節と時間の時に、どのような■プラント状態評価量
となり、その結果、■プラントをいかに操作したら処理
が良好になるか、に関するものである。
The inference mechanism 61 executes inference upon receiving the knowledge base 60A and the knowledge base 60G, and sends a signal 61S to the operation control process 75.
Output. The knowledge base 60C stores knowledge acquired by the operator 101 in advance through a conventional interview, and uses the knowledge base 60C for supplementary purposes. Furthermore, knowledge base 60
This embodiment can be implemented without using C. The inference mechanism 61 executes inference (forward or backward) based on production rules or fuzzy rules. In the case of fuzzy inference, a membership function is required, but in the present invention, the membership function value for fuzzy inference can be set using the magnitude of the Iji value. Since the inference method is a well-known technique, a description thereof will be omitted. As a knowledge base, what kind of inflow conditions and plant state quantities,
■What kind of plant condition evaluation quantity will be obtained at the time of season and time, and as a result, ■How to operate the plant to improve the treatment.

次に、予測用ニューラルネット72による予測工程を説
明する。予測用ニューラルネット72の構成を第6図に
示す。第1図に示したように、予測用ニューラルネット
72では学習用ニューラルネット71での学習結果、す
なわち1重み係数値Wji(3←2)及びWji(2←
1)の値を信号71S1と71S2として受ける。なお
、第1図では学習用ニューラルネット71と予測用ニュ
ーラルネット72とは処理フローの説明のために別々に
記載されているが、同一のニューラルネットを用いて良
いことは勿論である。
Next, the prediction process by the prediction neural network 72 will be explained. The configuration of the prediction neural network 72 is shown in FIG. As shown in FIG. 1, the prediction neural network 72 uses the learning results of the learning neural network 71, that is, 1 weighting coefficient values Wji (3←2) and Wji (2←
1) as signals 71S1 and 71S2. In FIG. 1, the learning neural network 71 and the predictive neural network 72 are shown separately for explanation of the processing flow, but it goes without saying that the same neural network may be used.

次に、予測用ニューラルネット72の動作を第6図と第
1図を用いて説明する。第6図に示すように、予測用ニ
ューラルネット72は学習用ニュ−ラルネット71から
比較層740と教師層750を除いた構成である。予測
用ニューラルネット72では、前記■■■に対応して、
未知の前記■■を予測するものである。このために、ま
ず入力層710に入力層パターンとして、1=0を基準
に設定した変数値Y i (Di (0)〜D3(0)
)と、t=−1,−2゜・・・を基準に設定した変数値
Yi(Di(i)〜D5(i)、C−1,−2,・・・
)を入力層710に入力する。この変数値Yiは第1図
に示すように、(1)現時点で既知の■■■、(2)過
去(t=−1,−2,・・・)における■〜■である。
Next, the operation of the prediction neural network 72 will be explained using FIG. 6 and FIG. 1. As shown in FIG. 6, the prediction neural network 72 has a configuration in which the comparison layer 740 and the teacher layer 750 are removed from the learning neural network 71. In the prediction neural network 72, corresponding to the above ■■■,
This is to predict the unknown above-mentioned ■■. For this purpose, first, as an input layer pattern in the input layer 710, variable values Y i (Di (0) to D3 (0)
) and variable values Yi (Di(i) to D5(i), C-1, -2,...
) is input to the input layer 710. As shown in FIG. 1, this variable value Yi is (1) the current known ■■■, and (2) the past (t=-1, -2, . . . ) ■ to ■.

これらは全て実績値あるいは既知のデータであることに
注意されたい。これらの値に基づいて前述の(1) −
(4)式の計算を実行し、未知の■プラント状態評価量
(処理水質)o4t(o)と■プラント操作量(返送/
余剰汚泥量、曝気空気量)OS本(O)とを出力層73
0に出力する。前記■については交信手段46にガイダ
ンス表示し、■については制御信号72Sを運転制御工
程75に出力する。
Please note that all of these are actual values or known data. Based on these values, the above (1) −
Execute the calculation of equation (4) and calculate the unknown ■Plant status evaluation quantity (treated water quality) o4t(o) and ■Plant operation quantity (return/
Excess sludge amount, aeration air amount) OS book (O) and output layer 73
Output to 0. Regarding the above-mentioned (2), guidance is displayed on the communication means 46, and regarding (2), the control signal 72S is output to the operation control process 75.

続いて運転制御工程75を以下に説明する。運転制御工
程75では、OS*(O)の信号72Sと推論機構61
の結果信号61Sとを受けて、まず両者の整合性を調べ
る。信号72Sが618と矛盾しなければ、プラント操
作量の目標値として信号75Sをポンプ16C2、返送
汚泥ポンプ16C1、ブロワ−17、制御バルブ17A
、17Bなどに出力する。逆に矛盾すれば交信手段46
を通してオペレータ101に報知し、修正を加える。な
お、制御頻度は本実施例では1時間毎であるが、この時
間単位は任意に設定できる。勿論、時間間隔が小さけれ
ば予測精度は向上する。設定した時間間隔(本実施例で
は1時間)が長いために短い時間(例えば1分間)の塩
素注入量を予測できない場合には、数学的な補間により
予測する。同時に、目標値(予測結果)の注入量目標値
信号75Sを交信手段46に表示して、必要に応じてオ
ペレータ101の選択により実際の操作を補正する。
Next, the operation control process 75 will be explained below. In the operation control process 75, the OS*(O) signal 72S and the inference mechanism 61
Upon receiving the result signal 61S, first, the consistency between the two is checked. If the signal 72S does not contradict 618, the signal 75S is sent to the pump 16C2, the return sludge pump 16C1, the blower 17, and the control valve 17A as the target value of the plant operation amount.
, 17B, etc. On the other hand, if there is a contradiction, the means of communication 46
The operator 101 is notified of the change and corrections are made. Note that although the control frequency is every hour in this embodiment, this time unit can be set arbitrarily. Of course, the smaller the time interval, the better the prediction accuracy. If the set time interval (one hour in this embodiment) is too long to predict the amount of chlorine to be injected over a short period of time (for example, one minute), the prediction is made by mathematical interpolation. At the same time, the injection amount target value signal 75S of the target value (prediction result) is displayed on the communication means 46, and the actual operation is corrected according to selection by the operator 101 as necessary.

〔発明の効果〕〔Effect of the invention〕

本発明の効果について以下に述べる。下水処理場の従来
の制御方法は、多量のデータ解析、オペレータへのイン
タビューによる知識獲得、さらには推論ルールの作成、
追加、修正、削除、改良などに多くの労力を要していた
。知識工学の方法では、獲得する知識は特定のオペレー
タの主観的判断に依存していた。しかし、本発明では、
過去の実績データから知識を自動獲得し、かつ、ニュー
ラルネットの予測により運転ガイダンス及び制御を行な
い得る。したがって、本発明を適用すれば。
The effects of the present invention will be described below. Conventional control methods for sewage treatment plants involve analyzing large amounts of data, acquiring knowledge through interviews with operators, and creating inference rules.
Additions, corrections, deletions, improvements, etc. required a lot of effort. In knowledge engineering methods, the knowledge acquired was dependent on the subjective judgment of a particular operator. However, in the present invention,
Knowledge is automatically acquired from past performance data, and driving guidance and control can be performed using neural network predictions. Therefore, if the present invention is applied.

より少ない労力で、オペレータが実施している「実績と
前例に即した運転」を容易に行なうことができる。また
学習を随時行なうことが可能であるので、状況の変化に
迅速に追随して学習しかつ制御することができる。
Operators can easily perform ``operations based on past experience and precedent'' with less effort. Furthermore, since learning can be performed at any time, it is possible to quickly follow changes in the situation, learn and control.

特に、本発明では、■流入水の物理的・化学的・生物的
特性、■プラント状態量、■季節と時間、■プラント状
態の評価量、■プラント操作量に着目し、過去の■■■
に基づいて■プラント状態表か量と■プラント操作量を
予測することができるので、オペレータと同等の操作を
行ない得る。
In particular, the present invention focuses on ■physical, chemical, and biological characteristics of inflow water, ■plant state quantities, ■season and time, ■plant status evaluation quantities, and ■plant operation quantities, and analyzes past ■■■
Since it is possible to predict (1) plant status table quantity and (2) plant operation amount based on the following, it is possible to perform operations equivalent to those of an operator.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の実施例の構成を示す説明図、第2図は
学習パターンの説明図、第3図はニューラルネットの構
成図、第4図はニューロン素子モデルを示す説明図、第
5図はニューロン素子モデルでの信号変換を示す特性図
、第6図は予測工程を説明する説明図である。 9・・・最初沈殿池、15・・・曝気槽、16・・・最
終沈殿池、17・・・ブロワ−,16C1・・・返送汚
泥ポンプ、16C2・・・ポンプ、9M、15M、16
M・・・計測器、46・・・交信手段、101・・・オ
ペレータ、71F・・・履歴パターンデータファイル、
71・・・学習用ニューラルネット、72・・・予測用
ニューラルネット、73・・・知識獲得工程、74・・
・知識診断工程、75・・・運転制御工程、61・・・
推論機構、710・・・入力層、720・・・中間層、
730・・・出力層、740・・・比較層、750・・
・教師層、701・・・第 2 因 第6図 入力層
FIG. 1 is an explanatory diagram showing the configuration of an embodiment of the present invention, FIG. 2 is an explanatory diagram of a learning pattern, FIG. 3 is a configuration diagram of a neural network, FIG. 4 is an explanatory diagram showing a neuron element model, and FIG. The figure is a characteristic diagram showing signal conversion in the neuron element model, and FIG. 6 is an explanatory diagram explaining the prediction process. 9... First settling tank, 15... Aeration tank, 16... Final settling tank, 17... Blower, 16C1... Return sludge pump, 16C2... Pump, 9M, 15M, 16
M... Measuring instrument, 46... Communication means, 101... Operator, 71F... History pattern data file,
71... Neural network for learning, 72... Neural network for prediction, 73... Knowledge acquisition process, 74...
・Knowledge diagnosis process, 75... Operation control process, 61...
Reasoning mechanism, 710...input layer, 720...middle layer,
730... Output layer, 740... Comparison layer, 750...
・Teacher layer, 701...2nd factor Figure 6 input layer

Claims (1)

【特許請求の範囲】 1、時間と共に変化する、(1)流入水の物理的・化学
的・物的特性、(2)プラントの状態量、(3)季節と
時間、に対して、(4)プラント状態の評価量、(5)
プラント操作量を出力するものであって、入力層、少な
くとも1層の中間層、および出力層からなる階層構造の
神経回路モデルを備え、過去の複数時点での、前記(1
)(2)(3)を入力すると共に、当該入力に対応する
前記(4)(5)を教師パターンとして前記神経回路モ
デルに学習させることにより、前記(1)(2)(3)
(4)(5)の間の関係を記述する知識を記号または言
葉で表現することを特徴とする、下水処理場運転支援の
ための知識獲得方法。 2、時間と共に変化する、(1)流入水の物理的・化学
的・生物的特性、(2)プラントの状態量、(3)季節
と時間、(4)プラント状態の評価量に対して、(5)
プラント操作量を出力し制御するものであって、 入力層、少なくとも1層の中間層、および出力層からな
る階層構造の神経回路モデルを備え、過去の複数時点で
の、前記(1)(2)(3)を入力すると共に、当該入
力に対応する前記(4)(5)を教師パターンとして前
記神経回路モデルに学習させ、該学習した神経回路モデ
ルに、現時点または将来予想される(1)(2)(3)
を入力し、当該入力に対応する(4)(5)を出力させ
、前記(5)プラント操作量を制御することを特徴とす
る、下水処理場運転支援のための知識獲得方法。
[Claims] 1. For (1) physical, chemical, and physical characteristics of inflow water, (2) state quantities of the plant, and (3) season and time, which change with time, (4) ) Evaluation quantity of plant condition, (5)
It outputs the plant operation amount, and includes a neural circuit model with a hierarchical structure consisting of an input layer, at least one intermediate layer, and an output layer,
), (2), and (3), and the neural circuit model learns the above (4) and (5) corresponding to the input as a teacher pattern, thereby obtaining the above (1), (2), and (3).
(4) A knowledge acquisition method for sewage treatment plant operation support, characterized by expressing knowledge describing the relationship between (5) in symbols or words. 2. Regarding (1) physical, chemical, and biological characteristics of inflow water, (2) plant state quantities, (3) season and time, and (4) plant state evaluation quantities that change over time, (5)
It outputs and controls the plant operation amount, and is equipped with a neural circuit model with a hierarchical structure consisting of an input layer, at least one intermediate layer, and an output layer, and has a neural network model that outputs and controls plant operation amounts at multiple points in the past. )(3), and the neural circuit model learns the above-mentioned (4) and (5) corresponding to the input as a teacher pattern, and the learned neural circuit model is used to input (1) which is expected at present or in the future. (2)(3)
A knowledge acquisition method for supporting operation of a sewage treatment plant, the method comprising: inputting the following information, outputting (4) and (5) corresponding to the input, and controlling the plant operating amount (5).
JP1271679A 1989-10-20 1989-10-20 Knowledge acquiring method for supporting operation of sewage-treatment plant Pending JPH03134706A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1271679A JPH03134706A (en) 1989-10-20 1989-10-20 Knowledge acquiring method for supporting operation of sewage-treatment plant

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1271679A JPH03134706A (en) 1989-10-20 1989-10-20 Knowledge acquiring method for supporting operation of sewage-treatment plant

Publications (1)

Publication Number Publication Date
JPH03134706A true JPH03134706A (en) 1991-06-07

Family

ID=17503364

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1271679A Pending JPH03134706A (en) 1989-10-20 1989-10-20 Knowledge acquiring method for supporting operation of sewage-treatment plant

Country Status (1)

Country Link
JP (1) JPH03134706A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1994019729A1 (en) * 1993-02-16 1994-09-01 Optum Umwelttechnik Gmbh Process for operating a sewage water clarification plant and sewage water clarification plant
WO1998003434A1 (en) * 1996-07-19 1998-01-29 Mitsubishi Chemical Corporation Device for controlling dissolved oxygen concentration of aeration tank, device for controlling temperature of aeration tank, device for controlling flow rate of raw water for homogeneous-flow liquid surface, and wastewater treatment equipment used in activated sludge process
KR100456413B1 (en) * 2002-06-21 2004-11-10 에치투엘 주식회사 System and method for AI controlling waste-water treatment by neural network and back-propagation algorithm
JP2012228645A (en) * 2011-04-26 2012-11-22 Hitachi Ltd Water treatment apparatus, water treating method, and program for the method
JP2014050773A (en) * 2012-09-05 2014-03-20 Metawater Co Ltd Filtration assistant injection control method and filtration assistant injection control device
CN105549519A (en) * 2014-10-28 2016-05-04 兰州理工大学 Automation control system of liming process in production process of gelatin
CN107055732A (en) * 2017-05-17 2017-08-18 北京易沃特科技有限公司 A kind of heavy metals minimizing technology and device
CN108640272A (en) * 2018-06-01 2018-10-12 杭州师范大学 The method of qualitative assessment anaerobic ammonia oxidation process impact resistance and recovery capability
WO2022018974A1 (en) * 2020-07-21 2022-01-27 巴工業株式会社 Machine learning device, data processing system, and machine learning method
WO2022018975A1 (en) * 2020-07-21 2022-01-27 巴工業株式会社 Machine-learning device, data processing system, and machine-learning method
WO2022018976A1 (en) * 2020-07-21 2022-01-27 巴工業株式会社 Machine learning device, data processing system, and machine learning method

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1994019729A1 (en) * 1993-02-16 1994-09-01 Optum Umwelttechnik Gmbh Process for operating a sewage water clarification plant and sewage water clarification plant
WO1998003434A1 (en) * 1996-07-19 1998-01-29 Mitsubishi Chemical Corporation Device for controlling dissolved oxygen concentration of aeration tank, device for controlling temperature of aeration tank, device for controlling flow rate of raw water for homogeneous-flow liquid surface, and wastewater treatment equipment used in activated sludge process
KR100456413B1 (en) * 2002-06-21 2004-11-10 에치투엘 주식회사 System and method for AI controlling waste-water treatment by neural network and back-propagation algorithm
JP2012228645A (en) * 2011-04-26 2012-11-22 Hitachi Ltd Water treatment apparatus, water treating method, and program for the method
JP2014050773A (en) * 2012-09-05 2014-03-20 Metawater Co Ltd Filtration assistant injection control method and filtration assistant injection control device
CN105549519A (en) * 2014-10-28 2016-05-04 兰州理工大学 Automation control system of liming process in production process of gelatin
CN107055732A (en) * 2017-05-17 2017-08-18 北京易沃特科技有限公司 A kind of heavy metals minimizing technology and device
CN108640272A (en) * 2018-06-01 2018-10-12 杭州师范大学 The method of qualitative assessment anaerobic ammonia oxidation process impact resistance and recovery capability
CN108640272B (en) * 2018-06-01 2021-01-19 杭州师范大学 A method for quantitatively assessing the shock resistance and resilience of anammox processes
WO2022018974A1 (en) * 2020-07-21 2022-01-27 巴工業株式会社 Machine learning device, data processing system, and machine learning method
WO2022018975A1 (en) * 2020-07-21 2022-01-27 巴工業株式会社 Machine-learning device, data processing system, and machine-learning method
WO2022018976A1 (en) * 2020-07-21 2022-01-27 巴工業株式会社 Machine learning device, data processing system, and machine learning method

Similar Documents

Publication Publication Date Title
De Canete et al. Soft-sensing estimation of plant effluent concentrations in a biological wastewater treatment plant using an optimal neural network
JP2533942B2 (en) Knowledge extraction method and process operation support system
Suykens et al. NL/sub q/theory: checking and imposing stability of recurrent neural networks for nonlinear modeling
CN101566829A (en) Method for computer-aided open loop and/or closed loop control of a technical system
CN115345344A (en) Sewage treatment plant effluent quality prediction method based on attention mechanism and long-short term memory network
JPH03134706A (en) Knowledge acquiring method for supporting operation of sewage-treatment plant
KR950007882B1 (en) Apparatus and method for automatically generating membership functions and fuzzy inference rules for fuzzy inference systems
Souza et al. Co-evolutionary genetic multilayer perceptron for feature selection and model design
Serrao et al. Hybrid modelling of nitrogen removal by biofiltration using high-frequent operational data
JPH03259302A (en) Information processing system
Najim et al. Learning systems: Theory and application
JP2000305606A (en) Water distribution demand predictive method
JPH03134704A (en) Knowledge acquiring method and process operation supporting method
Al-Tabtabai et al. Construction project control using artificial neural networks
Panoutsos et al. An incremental learning structure using granular computing and model fusion with application to materials processing
JPH03134703A (en) Demand pattern predicting method and plant operating method
Aponte-Rengifo et al. Optimal set point generation based on deep reinforcement learning and transfer knowledge for Wastewater Treatment Plants
He et al. Application of neural network model based on combination of fuzzy classification and input selection in short term load forecasting
JP2000163394A (en) Method for predicting water distribution demand amount
Voipan et al. Enhancing Effluent Quality Predictions in Wastewater Treatment with LSTM Neural Network
Miao et al. Multi-output behavioral cloning framework: A knowledge-based predictive control methodology based on deep learning for wastewater treatment plants
Lee et al. Constructed Wetlands: prediction of performance with case-based reasoning (Part B)
JPH03135497A (en) Chlorine injection control method
Patry et al. Innovative computing techniques for development of an integrated computer control system
Sanz et al. Computational intelligence in process control