[go: up one dir, main page]

DE19527521C1 - Neural network training method - Google Patents

Neural network training method

Info

Publication number
DE19527521C1
DE19527521C1 DE19527521A DE19527521A DE19527521C1 DE 19527521 C1 DE19527521 C1 DE 19527521C1 DE 19527521 A DE19527521 A DE 19527521A DE 19527521 A DE19527521 A DE 19527521A DE 19527521 C1 DE19527521 C1 DE 19527521C1
Authority
DE
Germany
Prior art keywords
neural network
adaptation
training data
data points
learning method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE19527521A
Other languages
German (de)
Inventor
Martin Dr Ing Schlang
Einar Dr Rer Nat Broese
Otto Dr Ing Gramckow
Frank-Oliver Malisch
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Siemens Corp
Original Assignee
Siemens AG
Siemens Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG, Siemens Corp filed Critical Siemens AG
Priority to DE19527521A priority Critical patent/DE19527521C1/en
Priority to US08/686,792 priority patent/US6745169B1/en
Application granted granted Critical
Publication of DE19527521C1 publication Critical patent/DE19527521C1/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • G05B13/027Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0499Feedforward networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B21MECHANICAL METAL-WORKING WITHOUT ESSENTIALLY REMOVING MATERIAL; PUNCHING METAL
    • B21BROLLING OF METAL
    • B21B2265/00Forming parameters
    • B21B2265/12Rolling load or rolling pressure; roll force
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B21MECHANICAL METAL-WORKING WITHOUT ESSENTIALLY REMOVING MATERIAL; PUNCHING METAL
    • B21BROLLING OF METAL
    • B21B37/00Control devices or methods specially adapted for metal-rolling mills or the work produced thereby

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Automation & Control Theory (AREA)
  • Feedback Control In General (AREA)

Abstract

Neural networks are trained using training data before they can obtain their generalisation function. The neural network is trained using continuously running on-line adaptation in combination with a cyclically repeated adaptation of network parameters. The on-line adaptation is limited to a selected parameter of the neural network. The on-line adaptation is provided for each new training data point, while the cyclically repeated adaptation occurs every time, depending on the amount of training data accumulated for the preceding data points.

Description

Neuronale Netze müssen, bevor sie ihre Generalisierungsfä­ higkeit erhalten, zunächst mit Lern- oder Trainingsdaten trainiert werden. Das Sammeln dieser Trainingsdaten ist oft langwierig und mit hohem Aufwand verbunden.Neural networks need to be ability, first with learning or training data be trained. Collecting this training data is often lengthy and associated with great effort.

Ein Beispiel hierfür ist das aus der DE-OS 44 16 364 bekannte neuronale Netz, das aus einer Vielzahl von ihm zugeführten vorausberechneten Eingangsgrößen als Netzwerkantwort einen Prozeßparameter berechnet, der zur Voreinstellung eines Sy­ stems zur Regelung eines technischen Prozesses dient. So wird z. B. bei einem Walzprozeß ein Vorhersagewert für die Walz­ kraft in Abhängigkeit von der Walzguttemperatur, der Dicken­ abnahme und anderen material- und anlagenspezifischen Ein­ gangsgrößen berechnet. Der von dem neuronalen Netz nachgebil­ dete Zusammenhang zwischen der Walzkraft und den Eingangsgrö­ ßen wird on-line nach jedem Prozeßablauf, also nach jedem Walzgutdurchlauf, an das reale Prozeßgeschehen angepaßt. Dazu werden die während des Prozeßablaufs gemessenen und anschlie­ ßend nachberechneten Eingangsgrößen und die Walzkraft in ei­ nem Datenpunkt zusammengefaßt, der dann zur Adaption von Pa­ rametern des neuronalen Netzes herangezogen wird. Die Adap­ tion erfolgt mit jedem neu ermittelten Datenpunkt, also on- line. Die Adaption muß sich durch eine besondere Stabilität auszeichnen, da sie häufig direkt und ohne Überwachung durch einen Fachmann auf der prozeßausführenden Anlage durchgeführt wird. Daher werden beim on-line Training nur unkritische Parameter des neuronalen Netzes adaptiert, wobei Adaptions­ algorithmen verwendet werden, die eine Stabilität des Verfah­ rens gewährleisten; z. B. Minimierung der quadratischen Feh­ lerfunktion zwischen der Netzwerkantwort und der nachberech­ neten Walzkraft, wobei die Fehlerfunktion nur ein globales Minimum, aber keine lokalen Minima aufweist. An example of this is that known from DE-OS 44 16 364 neural network that fed from a variety of it predicted input variables as a network response Process parameters calculated, which is used to preset a Sy serves to regulate a technical process. So will e.g. B. in a rolling process a predictive value for the rolling force depending on the rolling stock temperature, the thickness acceptance and other material- and system-specific gears are calculated. The one from the neural network correlation between the rolling force and the input size Eating is done online after each process sequence, i.e. after each Roll pass, adapted to the real process. To the measured during the process and then ß recalculated input variables and the rolling force in egg nem data point summarized, which then for the adaptation of Pa parameters of the neural network is used. The adap tion takes place with each newly determined data point, i.e. on- line. The adaptation must go through a special stability distinguish themselves because they are often direct and without monitoring carried out a specialist on the process-executing plant becomes. Therefore, online training only becomes non-critical Adapted parameters of the neural network, whereby adaptations algorithms are used that ensure the stability of the process ensure rens; e.g. B. Minimize the square mistake ler function between the network response and the post-calculation neten rolling force, the error function being only a global one Minimum but no local minima.  

Aus der DE 43 38 615 A1 ist ein Verfahren bekannt, gemäß dem ein aus mehreren Teilmodellen bestehendes analytisches Modell eines Prozesses mittels eines neuronalen Netzes korrigiert wird. Aus der WO 95/14277 ist bekannt, ein neuronales Netz parallel zu einem herkömmlichen Regler einzusetzen. Aus der DE 43 01 130 A1 ist bekannt, die Parameter für ein Regelungsmodell mittels eines neuronalen Netzes zu beeinflussen. Aus der DE 40 12 278 A1 ist bekannt, ein neuronales Netzwerk zur Diagnose zu verwenden. IEEE Transactions on Systems, Man and Cybernetics, Vol. 24, No. 4, April 1994, Seiten 678-683, beschreibt das grundsätzliche Vorgehen bei der Adaption eines neuronalen Netzes. Aus der DE 44 39 986 A1 ist ein in einem neuronalen Netz verwirklichtes Prozeßoptimierungsmodell bekannt. Das Modell des Prozesses wird dadurch geändert, daß die Gewichtung des neuronalen Netzes in Übereinstimmung mit einem Lernalgorithmus des neuronalen Netzes geändert wird. IEEE Transactions on Neural Networks, Vol. 4, No. 3, May 1993, Seiten 462-469, beschreibt die Implementierung eines kohonen neuronalen Netzes auf einem Chip. IEEE Transactions on Neural Networks, Vol. 6, No. 1, Jan. 1995, Seiten 144-156, beschreibt eine auf neuronalen Netzen basierende Architektur eines Reglers, wobei zwei neuronale Netze, eines zur Regelung und eines zur Parameteridentifikation, eingesetzt werden. DE 43 38 615 A1 discloses a method according to an analytical model of a process consisting of several sub-models using a neural network is corrected. From WO 95/14277 is known a neural network parallel to a conventional controller to use. From DE 43 01 130 A1 it is known that Parameters for a control model using a neural To influence the network. From DE 40 12 278 A1 known to use a neural network for diagnosis. IEEE Transactions on Systems, Man and Cybernetics, Vol. 24, No. 4, April 1994, pages 678-683, describes the basic Procedure for the adaptation of a neural network. From the DE 44 39 986 A1 is a Process optimization model implemented in a neural network known. The model of the process is changed in that the Weighting of the neural network in accordance with a learning algorithm of the neural network is changed. IEEE Transactions on Neural Networks, Vol. 4, No. 3, May 1993, pages 462-469 describes the implementation of a coherent neural network on a chip. IEEE transactions on Neural Networks, Vol. 6, No. 1, Jan. 1995, pages 144-156, describes an architecture based on neural networks of a controller, two neural networks, one for regulation and one for parameter identification.  

Damit das bekannte neuronale Netz bereits zu Beginn des on- line-Trainings zumindest annähernd sinnvolle Walzkraftwerte vorhersagt, kann es anhand eines die Walzkraft in Abhängig­ keit von zufällig vorgegebenen Eingangsgrößen berechnenden Walzkraftmodells vortrainiert werden. Steht ein derartiges Modell nicht zur Verfügung, so kann das für das Vortraining nötige Vorwissen durch das Sammeln von Trainingsdaten bei­ spielsweise auf vergleichbaren Anlagen erworben und in das neuronale Netz eingebracht werden.So that the well-known neural network already at the beginning of the line trainings at least approximately reasonable rolling force values predicts it can depend on a rolling force calculating randomly predetermined input variables Pre-trained rolling force model. Is there such a thing Model not available, so this can be for pre-training necessary prior knowledge by collecting training data acquired for example on comparable systems and in the neural network.

Der Erfindung liegt die Aufgabe zugrunde, insbesondere bei der Neuinbetriebnahme einer Anlage oder wesentlichen Verände­ rungen einer bestehenden Anlage, die mit neuronalen Netzen gesteuert wird, oder beim Umrüsten einer bestehenden Anlage auf neuronal gestützte Steuerung, wenn auf eine vorherige Sammlung von Trainingsdaten verzichtet werden soll, das neu­ ronale Netz in die Lage zu versetzen, ohne Vortraining direkt auf der Anlage bereits nach wenigen Datenpunkten ein sinnvol­ les Verhalten zu zeigen. Ferner sollen Langzeitdriften der Anlage erkannt und kompensiert werden.The invention has for its object, in particular the commissioning of a system or significant changes existing system using neural networks is controlled, or when converting an existing system on neuron-based control if on a previous one Collection of training data should be dispensed with, the new enable ronal network directly without pre-training a sensible on the system after just a few data points to show les behavior. Long-term drifts of the System can be recognized and compensated.

Gemäß der Erfindung wird die Aufgabe durch das in Patentan­ spruch 1 angegebene Lernverfahren gelöst.According to the invention the object is achieved by the in Patentan Proverb 1 specified learning method solved.

Vorteilhafte Weiterbildungen des erfindungsgemäßen Verfahrens sind in den Unteransprüchen angegeben.Advantageous further developments of the method according to the invention are specified in the subclaims.

Zur Erläuterung der Erfindung wird im folgenden auf die Figuren der Zeichnung Bezug genommen; im einzelnen zeigenTo explain the invention, reference is made to the following Figures of the drawing referenced; show in detail

Fig. 1 ein Beispiel für ein neuronales Netz mit einem ständig on-line ablaufenden und einem zyklisch wiederholten Adaptionsalgorithmus, Fig. 1 is an example of a neural network with a continuously on-line running and a cyclically repeated adaptation algorithm,

Fig. 2 ein Beispiel für die erfindungsgemäße Kombination der on-line Adaption und der zyklisch wiederholten Adaption des neuronalen Netzes, Figure 2 is an example of the inventive combination of the on-line adaptation and the cyclically repeated adaptation of the neural network.,

Fig. 3+4 Beispiele für die bei der zyklisch wiederholten Adaption verwendete Trainingsdatenmenge, Fig. 3 + 4 examples used in the cyclically repeated adaptation training data set,

Fig. 5 ein Beispiel für die Trainingsdatenmenge beim Ler­ nen mit exponentiellem Vergessen und Fig. 5 shows an example of the amount of training data when learning with exponential forgetting and

Fig. 6 ein Beispiel für den typischen Fehlerverlauf bei dem erfindungsgemäßen Lernverfahren im Vergleich zu einem Referenz-Lernverfahren. Fig. 6 shows an example for the typical error profile in the inventive learning method in comparison to a reference-learning method.

Fig. 1 zeigt ein neuronales Netz, dem eine Mehrzahl von in ei­ nem Eingangsvektor x zusammengefaßten Eingangsgrößen zuge­ führt wird und das in Abhängigkeit davon eine, gegebenenfalls ebenfalls mehrdimensionale, Antwort yNN erzeugt. Die Antwort yNN ist von einstellbaren Parametern p des neuronalen Netzes 1 abhängig. Das neuronale Netz 1 dient bei dem gezeigten Aus­ führungsbeispiel dazu, den Zusammenhang zwischen Einflußgrö­ ßen eines technischen Prozesses, die durch den Eingangsvektor x repräsentiert werden, und einem Prozeßparameter y, reprä­ sentiert durch die Antwort yNN, nachzubilden. Ein Beispiel hierfür ist die Vorhersage der Walzkraft in einem Walzprozeß in Abhängigkeit von material- und anlagenspezifischen Ein­ flußgrößen, wie unter anderem der Walzguttemperatur, der Walzgutfestigkeit, der Walzgutdicke und der Dickenabnahme. Fig. 1 shows a neural network, where a plurality of x summarized in egg nem input vector the input variables supplied is lead and the one, optionally also multi-dimensional, depending on response y NN generated. The answer y NN depends on adjustable parameters p of the neural network 1 . In the exemplary embodiment shown, the neural network 1 is used to emulate the relationship between influencing variables of a technical process, which are represented by the input vector x, and a process parameter y, represented by the response y NN . An example of this is the prediction of the rolling force in a rolling process as a function of material and plant-specific influencing variables, such as the temperature of the rolling stock, the strength of the rolling stock, the thickness of the rolling stock and the decrease in thickness.

Um den nachzubildenden Zusammenhang zu lernen, und das neuro­ nale Netz 1 an das tatsächliche Prozeßgeschehen anzupassen, werden die Parameter p des neuronalen Netzes 1 mit Hilfe von Adaptionsalgorithmen 2 und 3 im Sinne einer Verringerung des Fehlers zwischen der von dem neuronalen Netz 1 gelieferten Antwort yNN und dem tatsächlichen Wert des Prozeßparameters y verändert.In order to learn the relationship to be simulated and to adapt the neural network 1 to the actual process, the parameters p of the neural network 1 are adapted with the aid of adaptation algorithms 2 and 3 in the sense of a reduction in the error between the response y supplied by the neural network 1 NN and the actual value of the process parameter y changed.

Dabei erfolgt nach jedem n-ten (n 1) Prozeßablauf, in die­ sem Falle also nach jedem Walzgutdurchlauf, mittels des Adap­ tionsalgorithmus 2 eine on-line-Adaption, indem die während des erfolgten aktuellen Prozeßablaufs gemessenen und nachbe­ rechneten Einflußgrößen xnach dem neuronalen Netz 1 aufgege­ ben werden und die daraus resultierende Antwort yNN mit dem ebenfalls gemessenen oder nachberechneten Prozeßparameter y verglichen wird. Nicht plausible Werte oder Meßfehler werden durch die Nachberechnung ausgeschieden. In Abhängigkeit von dem dabei ermittelten Fehler y-yNN werden ausgewählte Para­ meter p₁ des neuronalen Netzes 1 im Sinne einer Fehlerverrin­ gerung verändert. Dabei werden unkritische Parameter p₁ und solche Adaptionsalgorithmen gewählt, die eine Stabilität der on-line-Adaption gewährleisten und es erlauben, schnellen Prozeßzustandsänderungen zu folgen. Unkritische Parameter sind z. B. die Steigungen der Regressionsebenen; ein mögli­ ches Adaptionsverfahren ist der Gradientenabstieg.After every nth (n 1) process sequence, in this case after every rolling pass, an adaptation is carried out on-line by means of the adaptation algorithm 2 , in that the influencing variables x measured and recalculated during the current process sequence take place after the neural Network 1 are given up and the resulting response y NN is compared with the process parameter y, which is also measured or recalculated. Implausible values or measurement errors are eliminated by the recalculation. Depending on the error yy NN determined , selected parameters p 1 of the neural network 1 are changed in the sense of an error reduction. Non-critical parameters p 1 and such adaptation algorithms are selected that ensure the stability of the on-line adaptation and allow rapid changes in the process state to be followed. Non-critical parameters are e.g. B. the slopes of the regression levels; a possible adaptation procedure is the gradient descent.

Die nach jedem n-ten Walzgutdurchlauf ermittelten Eingangs­ größen des Eingangsvektors x bilden zusammen mit dem gemesse­ nen bzw. nachberechneten Prozeßparameter y, der als Bezugs­ größe für den Vergleich mit der Antwort yNN dient, einen Datenpunkt, der in einer Speichereinrichtung 4 gespeichert wird. Auf der Grundlage einer aus mehreren gespeicherten Datenpunkten gegebenenfalls durch Clustern, Selektieren oder Mitteln gebildeten Trainingsdatenmenge wird in zyklischen Abständen ein Training des neuronalen Netzes 1 vorgenommen, wobei die Parameter p₂ des neuronalen Netzes 1 mittels des Adaptionsalgorithmus 3 adaptiv verändert werden. Die Parame­ ter p₁ und p₂ können dieselben oder teilweise oder ganz un­ terschiedlich sein. Wird das zyklisch wiederholte Training als Hintergrund-Training durchgeführt, so unterliegt es kei­ nen on-line-Echtzeitbedingungen und kann dann damit auf der Basis beliebig großer Trainingsdatenmengen und mit zeitauf­ wendigen global optimierenden Lernalgorithmen arbeiten, die nicht on-line-fähig sind.The input variables of the input vector x determined after every nth rolling stock pass together with the measured or recalculated process parameter y, which serves as a reference variable for comparison with the answer y NN , form a data point which is stored in a memory device 4 . Training of the neural network 1 is carried out at cyclical intervals on the basis of a training data set, possibly formed by clustering, selecting or averaging, the parameters p 2 of the neural network 1 being adaptively changed by means of the adaptation algorithm 3 . The parameters ter p₁ and p₂ can be the same or partially or completely different. If the cyclically repeated training is carried out as background training, it is not subject to online real-time conditions and can then work on the basis of training data of any size and with time-consuming globally optimizing learning algorithms that are not online-capable.

Nach Abschluß eines zyklisch wiederholten Trainings wird das neuronale Netz 1 zuerst einer on-line Adaption mit zumindest einem Teil der der Trainingsdatenmenge zugrunde liegenden Datenpunkte unterzogen, bevor das neuronale Netz 1 wieder für die Steuerung der Anlage aktiviert wird und mit neuen Daten­ punkten on-line weitertrainiert wird. So wird sichergestellt, daß sich das neuronale Netz nach dem globalen Hintergrund­ training sofort wieder an die aktuelle Tagesform der zu steu­ ernden Anlage anpaßt. After completion of a cyclically repeated training, the neural network 1 is first subjected to an on-line adaptation with at least part of the data points on which the training data set is based, before the neural network 1 is reactivated for controlling the system and scores with new data on-line is trained. This ensures that the neural network immediately adapts to the current form of the system to be controlled after the global background training.

Fig. 2 verdeutlicht das erfindungsgemäße Lernverfahren anhand zweier Blöcke 5 und 6, von denen der Block 5 die ständig ab­ laufende on-line Adaption und der Block 6 die zyklisch erfol­ gende Adaption bezeichnet. Die zyklisch erfolgende Adaption 6 besteht aus einer anfänglichen Initiallernphase 7 und einer späteren Nachlernphase 8. Fig. 2 illustrates the learning method according to the invention with the aid of two blocks 5 and 6 , of which block 5 denotes the on-line adaptation that is constantly running and block 6 denotes the adaptation which takes place cyclically. The cyclical adaptation 6 consists of an initial initial learning phase 7 and a later re-learning phase 8 .

Diese beiden unterschiedlichen Lernphasen 7 und 8 sind in Fig. 3 verdeutlicht, in der die Anzahl der zum zyklischen Training des neuronalen Netzes 1 verwendeten Datenpunkte N in Abhän­ gigkeit von dem Beitrag K dieser Datenpunkte N zum Training aufgetragen sind. Während der Initiallernphase 7 erfolgt das zyklisch wiederholte Training mit einer stetig wachsenden Trainingsdatenmenge 9, wobei jedesmal alle von Beginn des Lernverfahrens an gespeicherten Datenpunkte verwendet werden. Die Häufigkeit des zyklisch wiederholten Trainings ist ein für die vorgegebene Anwendung zu optimierender Parameter, wo­ bei z. B. nach jedem neuen Datenpunkt, nach einem vorgegebe­ nen prozentualen Anwachsen der Trainingsdatenmenge oder wenn der Fehler y-yNN einen bestimmten Wert übersteigt eine erneu­ te Adaption erfolgt. Darüber hinaus läßt sich die Größe des neuronalen Netzes 1 in Abhängigkeit von der Größe der vorlie­ genden Trainingsdatenmenge verändern, wobei mit einem kleinen neuronalen Netz begonnen wird, das im Laufe der Zeit langsam vergrößert wird. Die Festlegung der Netzgröße z. B. durch Methoden der "Cross-Validation" oder andere Heuristiken wie Residualfehler im Eingangsraum erfolgt.These two different learning phases 7 and 8 are illustrated in FIG. 3, in which the number of data points N used for the cyclic training of the neural network 1 are plotted as a function of the contribution K of these data points N to the training. During the initial learning phase 7 , the cyclically repeated training takes place with a steadily increasing amount of training data 9 , all data points stored from the beginning of the learning process being used each time. The frequency of the cyclically repeated training is a parameter to be optimized for the given application. B. after every new data point, after a predetermined percentage increase in the amount of training data, or if the error yy NN exceeds a certain value, a new adaptation takes place. In addition, the size of the neural network 1 can be changed as a function of the size of the amount of training data available, starting with a small neural network that slowly increases over time. The definition of the network size z. B. by methods of "cross-validation" or other heuristics such as residual errors in the entrance space.

Nach einer vorgegebenen Zeit oder wenn die Trainingsdaten­ menge N einen vorgegebenen Wert NF erreicht, beginnt die Nachlernphase, in der die Trainingsdatenmenge 10 konstant gehalten wird. Die Größe NF kann statisch sein oder dynamisch beispielsweise durch Techniken der Cross-Validation festge­ legt werden. Die Häufigkeit der zyklisch erfolgenden Adaption sowie die Größe des neuronalen Netzes 1 ist entweder konstant oder wird auf ähnliche Weise bestimmt, wie in der Initial­ lernphase. After a predetermined time or when the training data amount N reaches a predetermined value N F , the learning phase begins, in which the training data amount 10 is kept constant. The size N F can be static or dynamic, for example by means of cross-validation techniques. The frequency of the cyclical adaptation and the size of the neural network 1 is either constant or is determined in a similar manner to that in the initial learning phase.

Zu Beginn der Inbetriebnahme einer neuronal gesteuerten An­ lage werden in der Regel noch sehr viele Anlagenparameter verändert, um die Anlage zu optimieren. Das suboptimale Ver­ halten direkt nach der Inbetriebnahme sollte aber von dem neuronalen Netz 1 möglichst wieder vergessen werden. Deshalb ist entsprechend der Darstellung in Fig. 4 vorgesehen, die in der Initiallernphase 7 ständig wachsende Trainingsdatenmenge 11 nicht komplett zu verwenden, sondern die ältesten Daten­ punkte sukzessive zu vergessen. Das Wachstum der Trainings­ datenmenge 11 hat dabei natürlich schneller zu erfolgen, als das Vergessen. Die Geschwindigkeit des Vergessens kann in Form eines konstanten Bruchteils der Wachstumsrate der Trai­ ningsdatenmenge 11, in Abhängigkeit von dem Fehler y-yNN oder in Abhängigkeit von dem Expertenwissen des Inbetriebnehmers festgelegt werden.When a neuron-controlled system is started up, a large number of system parameters are usually changed in order to optimize the system. The suboptimal behavior immediately after start-up should be forgotten by the neural network 1 if possible. Therefore, according to the representation in FIG. 4, it is provided that the amount of training data 11 , which is constantly growing in the initial learning phase 7, is not used completely, but rather successively forgetting the oldest data points. The growth of the amount of training data 11 must of course take place faster than forgetting. The speed of forgetting can be determined in the form of a constant fraction of the growth rate of the training data set 11 , depending on the error yy NN or depending on the expert knowledge of the commissioning engineer.

Fig. 5 zeigt ein Beispiel für eine exponentiell abfallende "natürliche" Vergessensfunktion einer Trainingsdatenmenge 12, die dadurch zustande kommt, daß die Datenpunkte in der Trai­ ningsdatenmenge 12 mit zunehmenden Alter mit einem immer ge­ ringeren Gewichtsfaktor gewichtet werden. Fig. 5 shows an example of an exponentially decreasing "natural" forgetting function of a training data set 12 , which is caused by the fact that the data points in the training data set 12 are weighted with increasing age with an ever smaller weight factor.

In Fig. 6 ist für das erfindungsgemäße Lernverfahren der ty­ pische Fehlerverlauf 13 des Residualfehlers F des neuronalen Netzes 1 in Abhängigkeit von der Anzahl der zur Verfügung stehenden Datenpunkte N im Vergleich zu dem Fehlerverlauf 14 eines Referenz-Lernverfahrens, hier Vererbungsdatei im ein­ geschwungenen Zustand, aufzeigt.In Fig. 6 is for the inventive learning method of the ty european error profile 13 of the residual error F of the neural network 1 in accordance with the number of available data points N in comparison with the error profile 14 of a reference-learning method, here inheritance file in a curved state, shows.

Claims (8)

1. Lernverfahren für ein neuronales Netz (1) bestehend aus einer Kombination von einer ständig ablaufenden on-line Adap­ tion (5) und einer zyklisch wiederholten Adaption (6) von Parametern (p) des neuronalen Netzes (1), wobei die on-line Adaption (5) jeweils in Abhängigkeit von einem aktuellen Datenpunkt erfolgt, der aus dein neuronalen Netz (1) aktuell zugeführten Eingangsgrößen (x) und mit der darauf erfolgenden Antwort (yNN) des neuronalen Netzes (1) zu vergleichenden Bezugsgrößen (y) besteht, und wobei die zyklisch wiederholte Adaption (6) in Abhängigkeit von einer aus den bis dahin vorgekommenen Datenpunkten (x, y) gebildeten Trainings­ datenmenge (9 bis 12) erfolgt.1. Learning method for a neural network ( 1 ) consisting of a combination of a constantly running on-line adaptation ( 5 ) and a cyclically repeated adaptation ( 6 ) of parameters (p) of the neural network ( 1 ), the on- line adaptation (5) in each case takes place in response to a current data point from your neural network (1) currently supplied input variables (x) and to the performance thereon response (y NN) of the neural network (1) to be compared reference variables (y) there, and the cyclically repeated adaptation ( 6 ) takes place as a function of a training data volume ( 9 to 12 ) formed from the data points (x, y) that have occurred up to that point. 2. Lernverfahren nach Anspruch 1, dadurch gekennzeichnet, daß die on-line Adaption (5) auf ausgewählte Parameter (p₁) des neuronalen Netzes (1) beschränkt ist.2. Learning method according to claim 1, characterized in that the on-line adaptation ( 5 ) to selected parameters (p₁) of the neural network ( 1 ) is limited. 3. Lernverfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß in einer anfänglichen Initiallernphase (7) die zyklisch wiederholte Adaption (6) jedesmal auf der Grundlage der mit jeder zwischenzeitlich erfolgenden on-line Adaption (5) wachsenden Trainingsdatenmenge (9, 11) durchgeführt wird und daß in einer späteren Nachlernphase (8) die Trainingsdaten­ menge (10) für die zyklisch wiederholte Adaption (6) begrenzt wird, indem die jeweils ältesten in der Trainingsdatenmenge (10) enthaltenen Datenpunkte in dem Maße vergessen werden, wie neue Datenpunkte zu der Trainingsdatenmenge (10) hinzu­ kommen.3. Learning method according to claim 1 or 2, characterized in that in an initial initial learning phase ( 7 ) the cyclically repeated adaptation ( 6 ) each time on the basis of the training data amount ( 9 , 11 ) which grows with each interim online adaptation ( 5 ). is performed and that at a later Nachlernphase (8), the training data set (10) for cyclically repeated adaptation (6) bounded by the respectively oldest in the training data set of data points contained (10) to the extent forget how new data points to the training data set ( 10 ). 4. Lernverfahren nach Anspruch 3, dadurch gekennzeichnet, daß während der Initiallernphase (7) die jeweils ältesten Datenpunkte der Trainingsdatenmenge (11) in geringerem Maße vergessen werden, als neue Datenpunkte zu der Trainingsdaten­ menge (11) hinzukommen.4. The learning method according to claim 3, characterized in that during the initial learning phase (7), the oldest data points of the training data set (11) are not being a lesser extent, amount as the new data points to the training data (11) added. 5. Lernverfahren nach Anspruch 3 oder 4, dadurch gekennzeichnet, daß die Datenpunkte vergessen werden, indem sie aus der Trainingsdatenmenge (11) entfernt werden.5. Learning method according to claim 3 or 4, characterized in that the data points are forgotten by being removed from the training data set ( 11 ). 6. Lernverfahren nach Anspruch 3 oder 4, dadurch gekennzeichnet, daß die Datenpunkte vergessen werden, indem sie mit zuneh­ mendem Alter mit einem immer geringeren Gewichtsfaktor ge­ wichtet werden.6. learning method according to claim 3 or 4, characterized, that the data points are forgotten by increasing with age with an ever lower weight factor be weighted. 7. Lernverfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, daß die Größe des neuronalen Netzes (1) in Abhängigkeit von der Größe der vorliegenden Trainingsdatenmenge (9 bis 12) geändert wird.7. Learning method according to one of the preceding claims, characterized in that the size of the neural network ( 1 ) is changed depending on the size of the amount of training data present ( 9 to 12 ). 8. Lernverfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, daß sich an eine zyklisch erfolge Adaption zunächst eine on­ line Adaption mit zumindest einem Teil der der Trainingsda­ tenmenge (9 bis 12) zugrunde liegenden Datenpunkte an­ schließt, bevor das neuronale Netz (1) mit neuen Datenpunkten weitertrainiert wird.8. Learning method according to one of the preceding claims, characterized in that a cyclically successful adaptation is first followed by an on-line adaptation with at least part of the data points on which the training data set ( 9 to 12 ) is based before the neural network ( 1 ) is trained with new data points.
DE19527521A 1995-07-27 1995-07-27 Neural network training method Expired - Fee Related DE19527521C1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE19527521A DE19527521C1 (en) 1995-07-27 1995-07-27 Neural network training method
US08/686,792 US6745169B1 (en) 1995-07-27 1996-07-26 Learning process for a neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19527521A DE19527521C1 (en) 1995-07-27 1995-07-27 Neural network training method

Publications (1)

Publication Number Publication Date
DE19527521C1 true DE19527521C1 (en) 1996-12-19

Family

ID=7767965

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19527521A Expired - Fee Related DE19527521C1 (en) 1995-07-27 1995-07-27 Neural network training method

Country Status (1)

Country Link
DE (1) DE19527521C1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999002282A1 (en) * 1997-07-07 1999-01-21 Siemens Aktiengesellschaft Process and system for controlling or pre-setting a roll stand
CN113496308A (en) * 2020-04-07 2021-10-12 乔治费歇尔加工方案公司 Method for predicting the state of a machining operation

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4012278A1 (en) * 1989-04-14 1990-10-18 Hitachi Ltd CONDITION DIAGNOSTIC SYSTEM FOR A PLANT
DE4301130A1 (en) * 1992-01-20 1993-07-22 Hitachi Ltd Control system with highly nonlinear characteristic - uses learning function and derives control values from selected parameter values of set point adjustment model
DE4416364A1 (en) * 1993-05-17 1994-11-24 Siemens Ag Method and control device for controlling a process
DE4338615A1 (en) * 1993-11-11 1995-05-18 Siemens Ag Method and device for managing a process in a regulated system
WO1995014277A1 (en) * 1993-11-17 1995-05-26 Grumman Aerospace Corporation Stabilized adaptive neural network based control system
DE4439986A1 (en) * 1993-11-09 1995-06-01 Rockwell International Corp Adaptive process control system and method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4012278A1 (en) * 1989-04-14 1990-10-18 Hitachi Ltd CONDITION DIAGNOSTIC SYSTEM FOR A PLANT
DE4301130A1 (en) * 1992-01-20 1993-07-22 Hitachi Ltd Control system with highly nonlinear characteristic - uses learning function and derives control values from selected parameter values of set point adjustment model
DE4416364A1 (en) * 1993-05-17 1994-11-24 Siemens Ag Method and control device for controlling a process
DE4439986A1 (en) * 1993-11-09 1995-06-01 Rockwell International Corp Adaptive process control system and method
DE4338615A1 (en) * 1993-11-11 1995-05-18 Siemens Ag Method and device for managing a process in a regulated system
WO1995014277A1 (en) * 1993-11-17 1995-05-26 Grumman Aerospace Corporation Stabilized adaptive neural network based control system

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
IEEE Transactions on Neural Networks, Vol. 4, No. 3, May 1993, S. 462-469 *
IEEE Transactions on Neural Networks, Vol. 6, No. 1, Jan. 1995, S. 144-156 *
IEEE Transactions on Systems, Man and Cybernetics, Vol. 24, No. 4, April 1994, S. 678-683 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999002282A1 (en) * 1997-07-07 1999-01-21 Siemens Aktiengesellschaft Process and system for controlling or pre-setting a roll stand
CN113496308A (en) * 2020-04-07 2021-10-12 乔治费歇尔加工方案公司 Method for predicting the state of a machining operation

Similar Documents

Publication Publication Date Title
DE102016010064B4 (en) Numerical control with machining condition adjustment function to reduce the occurrence of chatter or tool wear / breakage
DE102007001025B4 (en) Method for computer-aided control and / or regulation of a technical system
DE102007042440B3 (en) Method for computer-aided control and / or regulation of a technical system
EP3662418B1 (en) Method and apparatus for machine learning in a computational unit
EP0663632B1 (en) Method and apparatus for controlling a process
DE102016011525B4 (en) Machine learning apparatus and coil production apparatus
DE102018000342A1 (en) NUMERICAL CONTROL AND MECHANICAL LEARNING DEVICE
EP3701433B1 (en) Method, device and computer program for developing a deep neural network
DE10241746B4 (en) Method for cyclic quality assessment and process monitoring in periodical production processes
DE102019114488B4 (en) Method for operating a bottling plant and bottling plant
EP0897155A1 (en) Method for controlling processes
DE4121453C2 (en) Approximation inference device
DE19527521C1 (en) Neural network training method
DE102017103390A1 (en) Method for operating a hybrid system for a vehicle
DE102019214640A1 (en) CONTROL DEVICE AND CONTROL METHOD
EP0956531B1 (en) Method and device for transforming a fuzzy logic used to simulate a technical process into a neural network
DE19624301B4 (en) Learning method for a neural network
EP0813986B1 (en) Method for distance control in a vehicle
WO2020193481A1 (en) Method and device for training and producing an artificial neural network
DE19624614C2 (en) Process for designing or adapting a fuzzy controller or a system of linked fuzzy controllers
DE102013206274A1 (en) Method and apparatus for adapting a non-parametric function model
WO2022002652A1 (en) Method for closed-loop control of a closed-loop control system, training method, computer program, storage medium and control unit
DE102021116388A1 (en) Method for optimizing a controller and control system with a controller optimized in this way
DE102022203386B4 (en) Control method, control system, motor vehicle, computer program product and computer-readable medium
DE102016209721A1 (en) Model-based determination of a system state by means of a dynamic system

Legal Events

Date Code Title Description
8100 Publication of patent without earlier publication of application
D1 Grant (no unexamined application published) patent law 81
8364 No opposition during term of opposition
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20130201