DE19527521C1 - Neural network training method - Google Patents
Neural network training methodInfo
- Publication number
- DE19527521C1 DE19527521C1 DE19527521A DE19527521A DE19527521C1 DE 19527521 C1 DE19527521 C1 DE 19527521C1 DE 19527521 A DE19527521 A DE 19527521A DE 19527521 A DE19527521 A DE 19527521A DE 19527521 C1 DE19527521 C1 DE 19527521C1
- Authority
- DE
- Germany
- Prior art keywords
- neural network
- adaptation
- training data
- data points
- learning method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B13/00—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
- G05B13/02—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
- G05B13/0265—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
- G05B13/027—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0499—Feedforward networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B21—MECHANICAL METAL-WORKING WITHOUT ESSENTIALLY REMOVING MATERIAL; PUNCHING METAL
- B21B—ROLLING OF METAL
- B21B2265/00—Forming parameters
- B21B2265/12—Rolling load or rolling pressure; roll force
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B21—MECHANICAL METAL-WORKING WITHOUT ESSENTIALLY REMOVING MATERIAL; PUNCHING METAL
- B21B—ROLLING OF METAL
- B21B37/00—Control devices or methods specially adapted for metal-rolling mills or the work produced thereby
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Automation & Control Theory (AREA)
- Feedback Control In General (AREA)
Abstract
Description
Neuronale Netze müssen, bevor sie ihre Generalisierungsfä higkeit erhalten, zunächst mit Lern- oder Trainingsdaten trainiert werden. Das Sammeln dieser Trainingsdaten ist oft langwierig und mit hohem Aufwand verbunden.Neural networks need to be ability, first with learning or training data be trained. Collecting this training data is often lengthy and associated with great effort.
Ein Beispiel hierfür ist das aus der DE-OS 44 16 364 bekannte neuronale Netz, das aus einer Vielzahl von ihm zugeführten vorausberechneten Eingangsgrößen als Netzwerkantwort einen Prozeßparameter berechnet, der zur Voreinstellung eines Sy stems zur Regelung eines technischen Prozesses dient. So wird z. B. bei einem Walzprozeß ein Vorhersagewert für die Walz kraft in Abhängigkeit von der Walzguttemperatur, der Dicken abnahme und anderen material- und anlagenspezifischen Ein gangsgrößen berechnet. Der von dem neuronalen Netz nachgebil dete Zusammenhang zwischen der Walzkraft und den Eingangsgrö ßen wird on-line nach jedem Prozeßablauf, also nach jedem Walzgutdurchlauf, an das reale Prozeßgeschehen angepaßt. Dazu werden die während des Prozeßablaufs gemessenen und anschlie ßend nachberechneten Eingangsgrößen und die Walzkraft in ei nem Datenpunkt zusammengefaßt, der dann zur Adaption von Pa rametern des neuronalen Netzes herangezogen wird. Die Adap tion erfolgt mit jedem neu ermittelten Datenpunkt, also on- line. Die Adaption muß sich durch eine besondere Stabilität auszeichnen, da sie häufig direkt und ohne Überwachung durch einen Fachmann auf der prozeßausführenden Anlage durchgeführt wird. Daher werden beim on-line Training nur unkritische Parameter des neuronalen Netzes adaptiert, wobei Adaptions algorithmen verwendet werden, die eine Stabilität des Verfah rens gewährleisten; z. B. Minimierung der quadratischen Feh lerfunktion zwischen der Netzwerkantwort und der nachberech neten Walzkraft, wobei die Fehlerfunktion nur ein globales Minimum, aber keine lokalen Minima aufweist. An example of this is that known from DE-OS 44 16 364 neural network that fed from a variety of it predicted input variables as a network response Process parameters calculated, which is used to preset a Sy serves to regulate a technical process. So will e.g. B. in a rolling process a predictive value for the rolling force depending on the rolling stock temperature, the thickness acceptance and other material- and system-specific gears are calculated. The one from the neural network correlation between the rolling force and the input size Eating is done online after each process sequence, i.e. after each Roll pass, adapted to the real process. To the measured during the process and then ß recalculated input variables and the rolling force in egg nem data point summarized, which then for the adaptation of Pa parameters of the neural network is used. The adap tion takes place with each newly determined data point, i.e. on- line. The adaptation must go through a special stability distinguish themselves because they are often direct and without monitoring carried out a specialist on the process-executing plant becomes. Therefore, online training only becomes non-critical Adapted parameters of the neural network, whereby adaptations algorithms are used that ensure the stability of the process ensure rens; e.g. B. Minimize the square mistake ler function between the network response and the post-calculation neten rolling force, the error function being only a global one Minimum but no local minima.
Aus der DE 43 38 615 A1 ist ein Verfahren bekannt, gemäß dem ein aus mehreren Teilmodellen bestehendes analytisches Modell eines Prozesses mittels eines neuronalen Netzes korrigiert wird. Aus der WO 95/14277 ist bekannt, ein neuronales Netz parallel zu einem herkömmlichen Regler einzusetzen. Aus der DE 43 01 130 A1 ist bekannt, die Parameter für ein Regelungsmodell mittels eines neuronalen Netzes zu beeinflussen. Aus der DE 40 12 278 A1 ist bekannt, ein neuronales Netzwerk zur Diagnose zu verwenden. IEEE Transactions on Systems, Man and Cybernetics, Vol. 24, No. 4, April 1994, Seiten 678-683, beschreibt das grundsätzliche Vorgehen bei der Adaption eines neuronalen Netzes. Aus der DE 44 39 986 A1 ist ein in einem neuronalen Netz verwirklichtes Prozeßoptimierungsmodell bekannt. Das Modell des Prozesses wird dadurch geändert, daß die Gewichtung des neuronalen Netzes in Übereinstimmung mit einem Lernalgorithmus des neuronalen Netzes geändert wird. IEEE Transactions on Neural Networks, Vol. 4, No. 3, May 1993, Seiten 462-469, beschreibt die Implementierung eines kohonen neuronalen Netzes auf einem Chip. IEEE Transactions on Neural Networks, Vol. 6, No. 1, Jan. 1995, Seiten 144-156, beschreibt eine auf neuronalen Netzen basierende Architektur eines Reglers, wobei zwei neuronale Netze, eines zur Regelung und eines zur Parameteridentifikation, eingesetzt werden. DE 43 38 615 A1 discloses a method according to an analytical model of a process consisting of several sub-models using a neural network is corrected. From WO 95/14277 is known a neural network parallel to a conventional controller to use. From DE 43 01 130 A1 it is known that Parameters for a control model using a neural To influence the network. From DE 40 12 278 A1 known to use a neural network for diagnosis. IEEE Transactions on Systems, Man and Cybernetics, Vol. 24, No. 4, April 1994, pages 678-683, describes the basic Procedure for the adaptation of a neural network. From the DE 44 39 986 A1 is a Process optimization model implemented in a neural network known. The model of the process is changed in that the Weighting of the neural network in accordance with a learning algorithm of the neural network is changed. IEEE Transactions on Neural Networks, Vol. 4, No. 3, May 1993, pages 462-469 describes the implementation of a coherent neural network on a chip. IEEE transactions on Neural Networks, Vol. 6, No. 1, Jan. 1995, pages 144-156, describes an architecture based on neural networks of a controller, two neural networks, one for regulation and one for parameter identification.
Damit das bekannte neuronale Netz bereits zu Beginn des on- line-Trainings zumindest annähernd sinnvolle Walzkraftwerte vorhersagt, kann es anhand eines die Walzkraft in Abhängig keit von zufällig vorgegebenen Eingangsgrößen berechnenden Walzkraftmodells vortrainiert werden. Steht ein derartiges Modell nicht zur Verfügung, so kann das für das Vortraining nötige Vorwissen durch das Sammeln von Trainingsdaten bei spielsweise auf vergleichbaren Anlagen erworben und in das neuronale Netz eingebracht werden.So that the well-known neural network already at the beginning of the line trainings at least approximately reasonable rolling force values predicts it can depend on a rolling force calculating randomly predetermined input variables Pre-trained rolling force model. Is there such a thing Model not available, so this can be for pre-training necessary prior knowledge by collecting training data acquired for example on comparable systems and in the neural network.
Der Erfindung liegt die Aufgabe zugrunde, insbesondere bei der Neuinbetriebnahme einer Anlage oder wesentlichen Verände rungen einer bestehenden Anlage, die mit neuronalen Netzen gesteuert wird, oder beim Umrüsten einer bestehenden Anlage auf neuronal gestützte Steuerung, wenn auf eine vorherige Sammlung von Trainingsdaten verzichtet werden soll, das neu ronale Netz in die Lage zu versetzen, ohne Vortraining direkt auf der Anlage bereits nach wenigen Datenpunkten ein sinnvol les Verhalten zu zeigen. Ferner sollen Langzeitdriften der Anlage erkannt und kompensiert werden.The invention has for its object, in particular the commissioning of a system or significant changes existing system using neural networks is controlled, or when converting an existing system on neuron-based control if on a previous one Collection of training data should be dispensed with, the new enable ronal network directly without pre-training a sensible on the system after just a few data points to show les behavior. Long-term drifts of the System can be recognized and compensated.
Gemäß der Erfindung wird die Aufgabe durch das in Patentan spruch 1 angegebene Lernverfahren gelöst.According to the invention the object is achieved by the in Patentan Proverb 1 specified learning method solved.
Vorteilhafte Weiterbildungen des erfindungsgemäßen Verfahrens sind in den Unteransprüchen angegeben.Advantageous further developments of the method according to the invention are specified in the subclaims.
Zur Erläuterung der Erfindung wird im folgenden auf die Figuren der Zeichnung Bezug genommen; im einzelnen zeigenTo explain the invention, reference is made to the following Figures of the drawing referenced; show in detail
Fig. 1 ein Beispiel für ein neuronales Netz mit einem ständig on-line ablaufenden und einem zyklisch wiederholten Adaptionsalgorithmus, Fig. 1 is an example of a neural network with a continuously on-line running and a cyclically repeated adaptation algorithm,
Fig. 2 ein Beispiel für die erfindungsgemäße Kombination der on-line Adaption und der zyklisch wiederholten Adaption des neuronalen Netzes, Figure 2 is an example of the inventive combination of the on-line adaptation and the cyclically repeated adaptation of the neural network.,
Fig. 3+4 Beispiele für die bei der zyklisch wiederholten Adaption verwendete Trainingsdatenmenge, Fig. 3 + 4 examples used in the cyclically repeated adaptation training data set,
Fig. 5 ein Beispiel für die Trainingsdatenmenge beim Ler nen mit exponentiellem Vergessen und Fig. 5 shows an example of the amount of training data when learning with exponential forgetting and
Fig. 6 ein Beispiel für den typischen Fehlerverlauf bei dem erfindungsgemäßen Lernverfahren im Vergleich zu einem Referenz-Lernverfahren. Fig. 6 shows an example for the typical error profile in the inventive learning method in comparison to a reference-learning method.
Fig. 1 zeigt ein neuronales Netz, dem eine Mehrzahl von in ei nem Eingangsvektor x zusammengefaßten Eingangsgrößen zuge führt wird und das in Abhängigkeit davon eine, gegebenenfalls ebenfalls mehrdimensionale, Antwort yNN erzeugt. Die Antwort yNN ist von einstellbaren Parametern p des neuronalen Netzes 1 abhängig. Das neuronale Netz 1 dient bei dem gezeigten Aus führungsbeispiel dazu, den Zusammenhang zwischen Einflußgrö ßen eines technischen Prozesses, die durch den Eingangsvektor x repräsentiert werden, und einem Prozeßparameter y, reprä sentiert durch die Antwort yNN, nachzubilden. Ein Beispiel hierfür ist die Vorhersage der Walzkraft in einem Walzprozeß in Abhängigkeit von material- und anlagenspezifischen Ein flußgrößen, wie unter anderem der Walzguttemperatur, der Walzgutfestigkeit, der Walzgutdicke und der Dickenabnahme. Fig. 1 shows a neural network, where a plurality of x summarized in egg nem input vector the input variables supplied is lead and the one, optionally also multi-dimensional, depending on response y NN generated. The answer y NN depends on adjustable parameters p of the neural network 1 . In the exemplary embodiment shown, the neural network 1 is used to emulate the relationship between influencing variables of a technical process, which are represented by the input vector x, and a process parameter y, represented by the response y NN . An example of this is the prediction of the rolling force in a rolling process as a function of material and plant-specific influencing variables, such as the temperature of the rolling stock, the strength of the rolling stock, the thickness of the rolling stock and the decrease in thickness.
Um den nachzubildenden Zusammenhang zu lernen, und das neuro nale Netz 1 an das tatsächliche Prozeßgeschehen anzupassen, werden die Parameter p des neuronalen Netzes 1 mit Hilfe von Adaptionsalgorithmen 2 und 3 im Sinne einer Verringerung des Fehlers zwischen der von dem neuronalen Netz 1 gelieferten Antwort yNN und dem tatsächlichen Wert des Prozeßparameters y verändert.In order to learn the relationship to be simulated and to adapt the neural network 1 to the actual process, the parameters p of the neural network 1 are adapted with the aid of adaptation algorithms 2 and 3 in the sense of a reduction in the error between the response y supplied by the neural network 1 NN and the actual value of the process parameter y changed.
Dabei erfolgt nach jedem n-ten (n 1) Prozeßablauf, in die sem Falle also nach jedem Walzgutdurchlauf, mittels des Adap tionsalgorithmus 2 eine on-line-Adaption, indem die während des erfolgten aktuellen Prozeßablaufs gemessenen und nachbe rechneten Einflußgrößen xnach dem neuronalen Netz 1 aufgege ben werden und die daraus resultierende Antwort yNN mit dem ebenfalls gemessenen oder nachberechneten Prozeßparameter y verglichen wird. Nicht plausible Werte oder Meßfehler werden durch die Nachberechnung ausgeschieden. In Abhängigkeit von dem dabei ermittelten Fehler y-yNN werden ausgewählte Para meter p₁ des neuronalen Netzes 1 im Sinne einer Fehlerverrin gerung verändert. Dabei werden unkritische Parameter p₁ und solche Adaptionsalgorithmen gewählt, die eine Stabilität der on-line-Adaption gewährleisten und es erlauben, schnellen Prozeßzustandsänderungen zu folgen. Unkritische Parameter sind z. B. die Steigungen der Regressionsebenen; ein mögli ches Adaptionsverfahren ist der Gradientenabstieg.After every nth (n 1) process sequence, in this case after every rolling pass, an adaptation is carried out on-line by means of the adaptation algorithm 2 , in that the influencing variables x measured and recalculated during the current process sequence take place after the neural Network 1 are given up and the resulting response y NN is compared with the process parameter y, which is also measured or recalculated. Implausible values or measurement errors are eliminated by the recalculation. Depending on the error yy NN determined , selected parameters p 1 of the neural network 1 are changed in the sense of an error reduction. Non-critical parameters p 1 and such adaptation algorithms are selected that ensure the stability of the on-line adaptation and allow rapid changes in the process state to be followed. Non-critical parameters are e.g. B. the slopes of the regression levels; a possible adaptation procedure is the gradient descent.
Die nach jedem n-ten Walzgutdurchlauf ermittelten Eingangs größen des Eingangsvektors x bilden zusammen mit dem gemesse nen bzw. nachberechneten Prozeßparameter y, der als Bezugs größe für den Vergleich mit der Antwort yNN dient, einen Datenpunkt, der in einer Speichereinrichtung 4 gespeichert wird. Auf der Grundlage einer aus mehreren gespeicherten Datenpunkten gegebenenfalls durch Clustern, Selektieren oder Mitteln gebildeten Trainingsdatenmenge wird in zyklischen Abständen ein Training des neuronalen Netzes 1 vorgenommen, wobei die Parameter p₂ des neuronalen Netzes 1 mittels des Adaptionsalgorithmus 3 adaptiv verändert werden. Die Parame ter p₁ und p₂ können dieselben oder teilweise oder ganz un terschiedlich sein. Wird das zyklisch wiederholte Training als Hintergrund-Training durchgeführt, so unterliegt es kei nen on-line-Echtzeitbedingungen und kann dann damit auf der Basis beliebig großer Trainingsdatenmengen und mit zeitauf wendigen global optimierenden Lernalgorithmen arbeiten, die nicht on-line-fähig sind.The input variables of the input vector x determined after every nth rolling stock pass together with the measured or recalculated process parameter y, which serves as a reference variable for comparison with the answer y NN , form a data point which is stored in a memory device 4 . Training of the neural network 1 is carried out at cyclical intervals on the basis of a training data set, possibly formed by clustering, selecting or averaging, the parameters p 2 of the neural network 1 being adaptively changed by means of the adaptation algorithm 3 . The parameters ter p₁ and p₂ can be the same or partially or completely different. If the cyclically repeated training is carried out as background training, it is not subject to online real-time conditions and can then work on the basis of training data of any size and with time-consuming globally optimizing learning algorithms that are not online-capable.
Nach Abschluß eines zyklisch wiederholten Trainings wird das neuronale Netz 1 zuerst einer on-line Adaption mit zumindest einem Teil der der Trainingsdatenmenge zugrunde liegenden Datenpunkte unterzogen, bevor das neuronale Netz 1 wieder für die Steuerung der Anlage aktiviert wird und mit neuen Daten punkten on-line weitertrainiert wird. So wird sichergestellt, daß sich das neuronale Netz nach dem globalen Hintergrund training sofort wieder an die aktuelle Tagesform der zu steu ernden Anlage anpaßt. After completion of a cyclically repeated training, the neural network 1 is first subjected to an on-line adaptation with at least part of the data points on which the training data set is based, before the neural network 1 is reactivated for controlling the system and scores with new data on-line is trained. This ensures that the neural network immediately adapts to the current form of the system to be controlled after the global background training.
Fig. 2 verdeutlicht das erfindungsgemäße Lernverfahren anhand zweier Blöcke 5 und 6, von denen der Block 5 die ständig ab laufende on-line Adaption und der Block 6 die zyklisch erfol gende Adaption bezeichnet. Die zyklisch erfolgende Adaption 6 besteht aus einer anfänglichen Initiallernphase 7 und einer späteren Nachlernphase 8. Fig. 2 illustrates the learning method according to the invention with the aid of two blocks 5 and 6 , of which block 5 denotes the on-line adaptation that is constantly running and block 6 denotes the adaptation which takes place cyclically. The cyclical adaptation 6 consists of an initial initial learning phase 7 and a later re-learning phase 8 .
Diese beiden unterschiedlichen Lernphasen 7 und 8 sind in Fig. 3 verdeutlicht, in der die Anzahl der zum zyklischen Training des neuronalen Netzes 1 verwendeten Datenpunkte N in Abhän gigkeit von dem Beitrag K dieser Datenpunkte N zum Training aufgetragen sind. Während der Initiallernphase 7 erfolgt das zyklisch wiederholte Training mit einer stetig wachsenden Trainingsdatenmenge 9, wobei jedesmal alle von Beginn des Lernverfahrens an gespeicherten Datenpunkte verwendet werden. Die Häufigkeit des zyklisch wiederholten Trainings ist ein für die vorgegebene Anwendung zu optimierender Parameter, wo bei z. B. nach jedem neuen Datenpunkt, nach einem vorgegebe nen prozentualen Anwachsen der Trainingsdatenmenge oder wenn der Fehler y-yNN einen bestimmten Wert übersteigt eine erneu te Adaption erfolgt. Darüber hinaus läßt sich die Größe des neuronalen Netzes 1 in Abhängigkeit von der Größe der vorlie genden Trainingsdatenmenge verändern, wobei mit einem kleinen neuronalen Netz begonnen wird, das im Laufe der Zeit langsam vergrößert wird. Die Festlegung der Netzgröße z. B. durch Methoden der "Cross-Validation" oder andere Heuristiken wie Residualfehler im Eingangsraum erfolgt.These two different learning phases 7 and 8 are illustrated in FIG. 3, in which the number of data points N used for the cyclic training of the neural network 1 are plotted as a function of the contribution K of these data points N to the training. During the initial learning phase 7 , the cyclically repeated training takes place with a steadily increasing amount of training data 9 , all data points stored from the beginning of the learning process being used each time. The frequency of the cyclically repeated training is a parameter to be optimized for the given application. B. after every new data point, after a predetermined percentage increase in the amount of training data, or if the error yy NN exceeds a certain value, a new adaptation takes place. In addition, the size of the neural network 1 can be changed as a function of the size of the amount of training data available, starting with a small neural network that slowly increases over time. The definition of the network size z. B. by methods of "cross-validation" or other heuristics such as residual errors in the entrance space.
Nach einer vorgegebenen Zeit oder wenn die Trainingsdaten menge N einen vorgegebenen Wert NF erreicht, beginnt die Nachlernphase, in der die Trainingsdatenmenge 10 konstant gehalten wird. Die Größe NF kann statisch sein oder dynamisch beispielsweise durch Techniken der Cross-Validation festge legt werden. Die Häufigkeit der zyklisch erfolgenden Adaption sowie die Größe des neuronalen Netzes 1 ist entweder konstant oder wird auf ähnliche Weise bestimmt, wie in der Initial lernphase. After a predetermined time or when the training data amount N reaches a predetermined value N F , the learning phase begins, in which the training data amount 10 is kept constant. The size N F can be static or dynamic, for example by means of cross-validation techniques. The frequency of the cyclical adaptation and the size of the neural network 1 is either constant or is determined in a similar manner to that in the initial learning phase.
Zu Beginn der Inbetriebnahme einer neuronal gesteuerten An lage werden in der Regel noch sehr viele Anlagenparameter verändert, um die Anlage zu optimieren. Das suboptimale Ver halten direkt nach der Inbetriebnahme sollte aber von dem neuronalen Netz 1 möglichst wieder vergessen werden. Deshalb ist entsprechend der Darstellung in Fig. 4 vorgesehen, die in der Initiallernphase 7 ständig wachsende Trainingsdatenmenge 11 nicht komplett zu verwenden, sondern die ältesten Daten punkte sukzessive zu vergessen. Das Wachstum der Trainings datenmenge 11 hat dabei natürlich schneller zu erfolgen, als das Vergessen. Die Geschwindigkeit des Vergessens kann in Form eines konstanten Bruchteils der Wachstumsrate der Trai ningsdatenmenge 11, in Abhängigkeit von dem Fehler y-yNN oder in Abhängigkeit von dem Expertenwissen des Inbetriebnehmers festgelegt werden.When a neuron-controlled system is started up, a large number of system parameters are usually changed in order to optimize the system. The suboptimal behavior immediately after start-up should be forgotten by the neural network 1 if possible. Therefore, according to the representation in FIG. 4, it is provided that the amount of training data 11 , which is constantly growing in the initial learning phase 7, is not used completely, but rather successively forgetting the oldest data points. The growth of the amount of training data 11 must of course take place faster than forgetting. The speed of forgetting can be determined in the form of a constant fraction of the growth rate of the training data set 11 , depending on the error yy NN or depending on the expert knowledge of the commissioning engineer.
Fig. 5 zeigt ein Beispiel für eine exponentiell abfallende "natürliche" Vergessensfunktion einer Trainingsdatenmenge 12, die dadurch zustande kommt, daß die Datenpunkte in der Trai ningsdatenmenge 12 mit zunehmenden Alter mit einem immer ge ringeren Gewichtsfaktor gewichtet werden. Fig. 5 shows an example of an exponentially decreasing "natural" forgetting function of a training data set 12 , which is caused by the fact that the data points in the training data set 12 are weighted with increasing age with an ever smaller weight factor.
In Fig. 6 ist für das erfindungsgemäße Lernverfahren der ty pische Fehlerverlauf 13 des Residualfehlers F des neuronalen Netzes 1 in Abhängigkeit von der Anzahl der zur Verfügung stehenden Datenpunkte N im Vergleich zu dem Fehlerverlauf 14 eines Referenz-Lernverfahrens, hier Vererbungsdatei im ein geschwungenen Zustand, aufzeigt.In Fig. 6 is for the inventive learning method of the ty european error profile 13 of the residual error F of the neural network 1 in accordance with the number of available data points N in comparison with the error profile 14 of a reference-learning method, here inheritance file in a curved state, shows.
Claims (8)
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE19527521A DE19527521C1 (en) | 1995-07-27 | 1995-07-27 | Neural network training method |
| US08/686,792 US6745169B1 (en) | 1995-07-27 | 1996-07-26 | Learning process for a neural network |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE19527521A DE19527521C1 (en) | 1995-07-27 | 1995-07-27 | Neural network training method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| DE19527521C1 true DE19527521C1 (en) | 1996-12-19 |
Family
ID=7767965
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE19527521A Expired - Fee Related DE19527521C1 (en) | 1995-07-27 | 1995-07-27 | Neural network training method |
Country Status (1)
| Country | Link |
|---|---|
| DE (1) | DE19527521C1 (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO1999002282A1 (en) * | 1997-07-07 | 1999-01-21 | Siemens Aktiengesellschaft | Process and system for controlling or pre-setting a roll stand |
| CN113496308A (en) * | 2020-04-07 | 2021-10-12 | 乔治费歇尔加工方案公司 | Method for predicting the state of a machining operation |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE4012278A1 (en) * | 1989-04-14 | 1990-10-18 | Hitachi Ltd | CONDITION DIAGNOSTIC SYSTEM FOR A PLANT |
| DE4301130A1 (en) * | 1992-01-20 | 1993-07-22 | Hitachi Ltd | Control system with highly nonlinear characteristic - uses learning function and derives control values from selected parameter values of set point adjustment model |
| DE4416364A1 (en) * | 1993-05-17 | 1994-11-24 | Siemens Ag | Method and control device for controlling a process |
| DE4338615A1 (en) * | 1993-11-11 | 1995-05-18 | Siemens Ag | Method and device for managing a process in a regulated system |
| WO1995014277A1 (en) * | 1993-11-17 | 1995-05-26 | Grumman Aerospace Corporation | Stabilized adaptive neural network based control system |
| DE4439986A1 (en) * | 1993-11-09 | 1995-06-01 | Rockwell International Corp | Adaptive process control system and method |
-
1995
- 1995-07-27 DE DE19527521A patent/DE19527521C1/en not_active Expired - Fee Related
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE4012278A1 (en) * | 1989-04-14 | 1990-10-18 | Hitachi Ltd | CONDITION DIAGNOSTIC SYSTEM FOR A PLANT |
| DE4301130A1 (en) * | 1992-01-20 | 1993-07-22 | Hitachi Ltd | Control system with highly nonlinear characteristic - uses learning function and derives control values from selected parameter values of set point adjustment model |
| DE4416364A1 (en) * | 1993-05-17 | 1994-11-24 | Siemens Ag | Method and control device for controlling a process |
| DE4439986A1 (en) * | 1993-11-09 | 1995-06-01 | Rockwell International Corp | Adaptive process control system and method |
| DE4338615A1 (en) * | 1993-11-11 | 1995-05-18 | Siemens Ag | Method and device for managing a process in a regulated system |
| WO1995014277A1 (en) * | 1993-11-17 | 1995-05-26 | Grumman Aerospace Corporation | Stabilized adaptive neural network based control system |
Non-Patent Citations (3)
| Title |
|---|
| IEEE Transactions on Neural Networks, Vol. 4, No. 3, May 1993, S. 462-469 * |
| IEEE Transactions on Neural Networks, Vol. 6, No. 1, Jan. 1995, S. 144-156 * |
| IEEE Transactions on Systems, Man and Cybernetics, Vol. 24, No. 4, April 1994, S. 678-683 * |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO1999002282A1 (en) * | 1997-07-07 | 1999-01-21 | Siemens Aktiengesellschaft | Process and system for controlling or pre-setting a roll stand |
| CN113496308A (en) * | 2020-04-07 | 2021-10-12 | 乔治费歇尔加工方案公司 | Method for predicting the state of a machining operation |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE102016010064B4 (en) | Numerical control with machining condition adjustment function to reduce the occurrence of chatter or tool wear / breakage | |
| DE102007001025B4 (en) | Method for computer-aided control and / or regulation of a technical system | |
| DE102007042440B3 (en) | Method for computer-aided control and / or regulation of a technical system | |
| EP3662418B1 (en) | Method and apparatus for machine learning in a computational unit | |
| EP0663632B1 (en) | Method and apparatus for controlling a process | |
| DE102016011525B4 (en) | Machine learning apparatus and coil production apparatus | |
| DE102018000342A1 (en) | NUMERICAL CONTROL AND MECHANICAL LEARNING DEVICE | |
| EP3701433B1 (en) | Method, device and computer program for developing a deep neural network | |
| DE10241746B4 (en) | Method for cyclic quality assessment and process monitoring in periodical production processes | |
| DE102019114488B4 (en) | Method for operating a bottling plant and bottling plant | |
| EP0897155A1 (en) | Method for controlling processes | |
| DE4121453C2 (en) | Approximation inference device | |
| DE19527521C1 (en) | Neural network training method | |
| DE102017103390A1 (en) | Method for operating a hybrid system for a vehicle | |
| DE102019214640A1 (en) | CONTROL DEVICE AND CONTROL METHOD | |
| EP0956531B1 (en) | Method and device for transforming a fuzzy logic used to simulate a technical process into a neural network | |
| DE19624301B4 (en) | Learning method for a neural network | |
| EP0813986B1 (en) | Method for distance control in a vehicle | |
| WO2020193481A1 (en) | Method and device for training and producing an artificial neural network | |
| DE19624614C2 (en) | Process for designing or adapting a fuzzy controller or a system of linked fuzzy controllers | |
| DE102013206274A1 (en) | Method and apparatus for adapting a non-parametric function model | |
| WO2022002652A1 (en) | Method for closed-loop control of a closed-loop control system, training method, computer program, storage medium and control unit | |
| DE102021116388A1 (en) | Method for optimizing a controller and control system with a controller optimized in this way | |
| DE102022203386B4 (en) | Control method, control system, motor vehicle, computer program product and computer-readable medium | |
| DE102016209721A1 (en) | Model-based determination of a system state by means of a dynamic system |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 8100 | Publication of patent without earlier publication of application | ||
| D1 | Grant (no unexamined application published) patent law 81 | ||
| 8364 | No opposition during term of opposition | ||
| R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |
Effective date: 20130201 |