[go: up one dir, main page]

DE19527521C1 - Lernverfahren für ein neuronales Netz - Google Patents

Lernverfahren für ein neuronales Netz

Info

Publication number
DE19527521C1
DE19527521C1 DE19527521A DE19527521A DE19527521C1 DE 19527521 C1 DE19527521 C1 DE 19527521C1 DE 19527521 A DE19527521 A DE 19527521A DE 19527521 A DE19527521 A DE 19527521A DE 19527521 C1 DE19527521 C1 DE 19527521C1
Authority
DE
Germany
Prior art keywords
neural network
adaptation
training data
data points
learning method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE19527521A
Other languages
English (en)
Inventor
Martin Dr Ing Schlang
Einar Dr Rer Nat Broese
Otto Dr Ing Gramckow
Frank-Oliver Malisch
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Siemens Corp
Original Assignee
Siemens AG
Siemens Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG, Siemens Corp filed Critical Siemens AG
Priority to DE19527521A priority Critical patent/DE19527521C1/de
Priority to US08/686,792 priority patent/US6745169B1/en
Application granted granted Critical
Publication of DE19527521C1 publication Critical patent/DE19527521C1/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • G05B13/027Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0499Feedforward networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B21MECHANICAL METAL-WORKING WITHOUT ESSENTIALLY REMOVING MATERIAL; PUNCHING METAL
    • B21BROLLING OF METAL
    • B21B2265/00Forming parameters
    • B21B2265/12Rolling load or rolling pressure; roll force
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B21MECHANICAL METAL-WORKING WITHOUT ESSENTIALLY REMOVING MATERIAL; PUNCHING METAL
    • B21BROLLING OF METAL
    • B21B37/00Control devices or methods specially adapted for metal-rolling mills or the work produced thereby

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Automation & Control Theory (AREA)
  • Feedback Control In General (AREA)

Description

Neuronale Netze müssen, bevor sie ihre Generalisierungsfä­ higkeit erhalten, zunächst mit Lern- oder Trainingsdaten trainiert werden. Das Sammeln dieser Trainingsdaten ist oft langwierig und mit hohem Aufwand verbunden.
Ein Beispiel hierfür ist das aus der DE-OS 44 16 364 bekannte neuronale Netz, das aus einer Vielzahl von ihm zugeführten vorausberechneten Eingangsgrößen als Netzwerkantwort einen Prozeßparameter berechnet, der zur Voreinstellung eines Sy­ stems zur Regelung eines technischen Prozesses dient. So wird z. B. bei einem Walzprozeß ein Vorhersagewert für die Walz­ kraft in Abhängigkeit von der Walzguttemperatur, der Dicken­ abnahme und anderen material- und anlagenspezifischen Ein­ gangsgrößen berechnet. Der von dem neuronalen Netz nachgebil­ dete Zusammenhang zwischen der Walzkraft und den Eingangsgrö­ ßen wird on-line nach jedem Prozeßablauf, also nach jedem Walzgutdurchlauf, an das reale Prozeßgeschehen angepaßt. Dazu werden die während des Prozeßablaufs gemessenen und anschlie­ ßend nachberechneten Eingangsgrößen und die Walzkraft in ei­ nem Datenpunkt zusammengefaßt, der dann zur Adaption von Pa­ rametern des neuronalen Netzes herangezogen wird. Die Adap­ tion erfolgt mit jedem neu ermittelten Datenpunkt, also on- line. Die Adaption muß sich durch eine besondere Stabilität auszeichnen, da sie häufig direkt und ohne Überwachung durch einen Fachmann auf der prozeßausführenden Anlage durchgeführt wird. Daher werden beim on-line Training nur unkritische Parameter des neuronalen Netzes adaptiert, wobei Adaptions­ algorithmen verwendet werden, die eine Stabilität des Verfah­ rens gewährleisten; z. B. Minimierung der quadratischen Feh­ lerfunktion zwischen der Netzwerkantwort und der nachberech­ neten Walzkraft, wobei die Fehlerfunktion nur ein globales Minimum, aber keine lokalen Minima aufweist.
Aus der DE 43 38 615 A1 ist ein Verfahren bekannt, gemäß dem ein aus mehreren Teilmodellen bestehendes analytisches Modell eines Prozesses mittels eines neuronalen Netzes korrigiert wird. Aus der WO 95/14277 ist bekannt, ein neuronales Netz parallel zu einem herkömmlichen Regler einzusetzen. Aus der DE 43 01 130 A1 ist bekannt, die Parameter für ein Regelungsmodell mittels eines neuronalen Netzes zu beeinflussen. Aus der DE 40 12 278 A1 ist bekannt, ein neuronales Netzwerk zur Diagnose zu verwenden. IEEE Transactions on Systems, Man and Cybernetics, Vol. 24, No. 4, April 1994, Seiten 678-683, beschreibt das grundsätzliche Vorgehen bei der Adaption eines neuronalen Netzes. Aus der DE 44 39 986 A1 ist ein in einem neuronalen Netz verwirklichtes Prozeßoptimierungsmodell bekannt. Das Modell des Prozesses wird dadurch geändert, daß die Gewichtung des neuronalen Netzes in Übereinstimmung mit einem Lernalgorithmus des neuronalen Netzes geändert wird. IEEE Transactions on Neural Networks, Vol. 4, No. 3, May 1993, Seiten 462-469, beschreibt die Implementierung eines kohonen neuronalen Netzes auf einem Chip. IEEE Transactions on Neural Networks, Vol. 6, No. 1, Jan. 1995, Seiten 144-156, beschreibt eine auf neuronalen Netzen basierende Architektur eines Reglers, wobei zwei neuronale Netze, eines zur Regelung und eines zur Parameteridentifikation, eingesetzt werden.
Damit das bekannte neuronale Netz bereits zu Beginn des on- line-Trainings zumindest annähernd sinnvolle Walzkraftwerte vorhersagt, kann es anhand eines die Walzkraft in Abhängig­ keit von zufällig vorgegebenen Eingangsgrößen berechnenden Walzkraftmodells vortrainiert werden. Steht ein derartiges Modell nicht zur Verfügung, so kann das für das Vortraining nötige Vorwissen durch das Sammeln von Trainingsdaten bei­ spielsweise auf vergleichbaren Anlagen erworben und in das neuronale Netz eingebracht werden.
Der Erfindung liegt die Aufgabe zugrunde, insbesondere bei der Neuinbetriebnahme einer Anlage oder wesentlichen Verände­ rungen einer bestehenden Anlage, die mit neuronalen Netzen gesteuert wird, oder beim Umrüsten einer bestehenden Anlage auf neuronal gestützte Steuerung, wenn auf eine vorherige Sammlung von Trainingsdaten verzichtet werden soll, das neu­ ronale Netz in die Lage zu versetzen, ohne Vortraining direkt auf der Anlage bereits nach wenigen Datenpunkten ein sinnvol­ les Verhalten zu zeigen. Ferner sollen Langzeitdriften der Anlage erkannt und kompensiert werden.
Gemäß der Erfindung wird die Aufgabe durch das in Patentan­ spruch 1 angegebene Lernverfahren gelöst.
Vorteilhafte Weiterbildungen des erfindungsgemäßen Verfahrens sind in den Unteransprüchen angegeben.
Zur Erläuterung der Erfindung wird im folgenden auf die Figuren der Zeichnung Bezug genommen; im einzelnen zeigen
Fig. 1 ein Beispiel für ein neuronales Netz mit einem ständig on-line ablaufenden und einem zyklisch wiederholten Adaptionsalgorithmus,
Fig. 2 ein Beispiel für die erfindungsgemäße Kombination der on-line Adaption und der zyklisch wiederholten Adaption des neuronalen Netzes,
Fig. 3+4 Beispiele für die bei der zyklisch wiederholten Adaption verwendete Trainingsdatenmenge,
Fig. 5 ein Beispiel für die Trainingsdatenmenge beim Ler­ nen mit exponentiellem Vergessen und
Fig. 6 ein Beispiel für den typischen Fehlerverlauf bei dem erfindungsgemäßen Lernverfahren im Vergleich zu einem Referenz-Lernverfahren.
Fig. 1 zeigt ein neuronales Netz, dem eine Mehrzahl von in ei­ nem Eingangsvektor x zusammengefaßten Eingangsgrößen zuge­ führt wird und das in Abhängigkeit davon eine, gegebenenfalls ebenfalls mehrdimensionale, Antwort yNN erzeugt. Die Antwort yNN ist von einstellbaren Parametern p des neuronalen Netzes 1 abhängig. Das neuronale Netz 1 dient bei dem gezeigten Aus­ führungsbeispiel dazu, den Zusammenhang zwischen Einflußgrö­ ßen eines technischen Prozesses, die durch den Eingangsvektor x repräsentiert werden, und einem Prozeßparameter y, reprä­ sentiert durch die Antwort yNN, nachzubilden. Ein Beispiel hierfür ist die Vorhersage der Walzkraft in einem Walzprozeß in Abhängigkeit von material- und anlagenspezifischen Ein­ flußgrößen, wie unter anderem der Walzguttemperatur, der Walzgutfestigkeit, der Walzgutdicke und der Dickenabnahme.
Um den nachzubildenden Zusammenhang zu lernen, und das neuro­ nale Netz 1 an das tatsächliche Prozeßgeschehen anzupassen, werden die Parameter p des neuronalen Netzes 1 mit Hilfe von Adaptionsalgorithmen 2 und 3 im Sinne einer Verringerung des Fehlers zwischen der von dem neuronalen Netz 1 gelieferten Antwort yNN und dem tatsächlichen Wert des Prozeßparameters y verändert.
Dabei erfolgt nach jedem n-ten (n 1) Prozeßablauf, in die­ sem Falle also nach jedem Walzgutdurchlauf, mittels des Adap­ tionsalgorithmus 2 eine on-line-Adaption, indem die während des erfolgten aktuellen Prozeßablaufs gemessenen und nachbe­ rechneten Einflußgrößen xnach dem neuronalen Netz 1 aufgege­ ben werden und die daraus resultierende Antwort yNN mit dem ebenfalls gemessenen oder nachberechneten Prozeßparameter y verglichen wird. Nicht plausible Werte oder Meßfehler werden durch die Nachberechnung ausgeschieden. In Abhängigkeit von dem dabei ermittelten Fehler y-yNN werden ausgewählte Para­ meter p₁ des neuronalen Netzes 1 im Sinne einer Fehlerverrin­ gerung verändert. Dabei werden unkritische Parameter p₁ und solche Adaptionsalgorithmen gewählt, die eine Stabilität der on-line-Adaption gewährleisten und es erlauben, schnellen Prozeßzustandsänderungen zu folgen. Unkritische Parameter sind z. B. die Steigungen der Regressionsebenen; ein mögli­ ches Adaptionsverfahren ist der Gradientenabstieg.
Die nach jedem n-ten Walzgutdurchlauf ermittelten Eingangs­ größen des Eingangsvektors x bilden zusammen mit dem gemesse­ nen bzw. nachberechneten Prozeßparameter y, der als Bezugs­ größe für den Vergleich mit der Antwort yNN dient, einen Datenpunkt, der in einer Speichereinrichtung 4 gespeichert wird. Auf der Grundlage einer aus mehreren gespeicherten Datenpunkten gegebenenfalls durch Clustern, Selektieren oder Mitteln gebildeten Trainingsdatenmenge wird in zyklischen Abständen ein Training des neuronalen Netzes 1 vorgenommen, wobei die Parameter p₂ des neuronalen Netzes 1 mittels des Adaptionsalgorithmus 3 adaptiv verändert werden. Die Parame­ ter p₁ und p₂ können dieselben oder teilweise oder ganz un­ terschiedlich sein. Wird das zyklisch wiederholte Training als Hintergrund-Training durchgeführt, so unterliegt es kei­ nen on-line-Echtzeitbedingungen und kann dann damit auf der Basis beliebig großer Trainingsdatenmengen und mit zeitauf­ wendigen global optimierenden Lernalgorithmen arbeiten, die nicht on-line-fähig sind.
Nach Abschluß eines zyklisch wiederholten Trainings wird das neuronale Netz 1 zuerst einer on-line Adaption mit zumindest einem Teil der der Trainingsdatenmenge zugrunde liegenden Datenpunkte unterzogen, bevor das neuronale Netz 1 wieder für die Steuerung der Anlage aktiviert wird und mit neuen Daten­ punkten on-line weitertrainiert wird. So wird sichergestellt, daß sich das neuronale Netz nach dem globalen Hintergrund­ training sofort wieder an die aktuelle Tagesform der zu steu­ ernden Anlage anpaßt.
Fig. 2 verdeutlicht das erfindungsgemäße Lernverfahren anhand zweier Blöcke 5 und 6, von denen der Block 5 die ständig ab­ laufende on-line Adaption und der Block 6 die zyklisch erfol­ gende Adaption bezeichnet. Die zyklisch erfolgende Adaption 6 besteht aus einer anfänglichen Initiallernphase 7 und einer späteren Nachlernphase 8.
Diese beiden unterschiedlichen Lernphasen 7 und 8 sind in Fig. 3 verdeutlicht, in der die Anzahl der zum zyklischen Training des neuronalen Netzes 1 verwendeten Datenpunkte N in Abhän­ gigkeit von dem Beitrag K dieser Datenpunkte N zum Training aufgetragen sind. Während der Initiallernphase 7 erfolgt das zyklisch wiederholte Training mit einer stetig wachsenden Trainingsdatenmenge 9, wobei jedesmal alle von Beginn des Lernverfahrens an gespeicherten Datenpunkte verwendet werden. Die Häufigkeit des zyklisch wiederholten Trainings ist ein für die vorgegebene Anwendung zu optimierender Parameter, wo­ bei z. B. nach jedem neuen Datenpunkt, nach einem vorgegebe­ nen prozentualen Anwachsen der Trainingsdatenmenge oder wenn der Fehler y-yNN einen bestimmten Wert übersteigt eine erneu­ te Adaption erfolgt. Darüber hinaus läßt sich die Größe des neuronalen Netzes 1 in Abhängigkeit von der Größe der vorlie­ genden Trainingsdatenmenge verändern, wobei mit einem kleinen neuronalen Netz begonnen wird, das im Laufe der Zeit langsam vergrößert wird. Die Festlegung der Netzgröße z. B. durch Methoden der "Cross-Validation" oder andere Heuristiken wie Residualfehler im Eingangsraum erfolgt.
Nach einer vorgegebenen Zeit oder wenn die Trainingsdaten­ menge N einen vorgegebenen Wert NF erreicht, beginnt die Nachlernphase, in der die Trainingsdatenmenge 10 konstant gehalten wird. Die Größe NF kann statisch sein oder dynamisch beispielsweise durch Techniken der Cross-Validation festge­ legt werden. Die Häufigkeit der zyklisch erfolgenden Adaption sowie die Größe des neuronalen Netzes 1 ist entweder konstant oder wird auf ähnliche Weise bestimmt, wie in der Initial­ lernphase.
Zu Beginn der Inbetriebnahme einer neuronal gesteuerten An­ lage werden in der Regel noch sehr viele Anlagenparameter verändert, um die Anlage zu optimieren. Das suboptimale Ver­ halten direkt nach der Inbetriebnahme sollte aber von dem neuronalen Netz 1 möglichst wieder vergessen werden. Deshalb ist entsprechend der Darstellung in Fig. 4 vorgesehen, die in der Initiallernphase 7 ständig wachsende Trainingsdatenmenge 11 nicht komplett zu verwenden, sondern die ältesten Daten­ punkte sukzessive zu vergessen. Das Wachstum der Trainings­ datenmenge 11 hat dabei natürlich schneller zu erfolgen, als das Vergessen. Die Geschwindigkeit des Vergessens kann in Form eines konstanten Bruchteils der Wachstumsrate der Trai­ ningsdatenmenge 11, in Abhängigkeit von dem Fehler y-yNN oder in Abhängigkeit von dem Expertenwissen des Inbetriebnehmers festgelegt werden.
Fig. 5 zeigt ein Beispiel für eine exponentiell abfallende "natürliche" Vergessensfunktion einer Trainingsdatenmenge 12, die dadurch zustande kommt, daß die Datenpunkte in der Trai­ ningsdatenmenge 12 mit zunehmenden Alter mit einem immer ge­ ringeren Gewichtsfaktor gewichtet werden.
In Fig. 6 ist für das erfindungsgemäße Lernverfahren der ty­ pische Fehlerverlauf 13 des Residualfehlers F des neuronalen Netzes 1 in Abhängigkeit von der Anzahl der zur Verfügung stehenden Datenpunkte N im Vergleich zu dem Fehlerverlauf 14 eines Referenz-Lernverfahrens, hier Vererbungsdatei im ein­ geschwungenen Zustand, aufzeigt.

Claims (8)

1. Lernverfahren für ein neuronales Netz (1) bestehend aus einer Kombination von einer ständig ablaufenden on-line Adap­ tion (5) und einer zyklisch wiederholten Adaption (6) von Parametern (p) des neuronalen Netzes (1), wobei die on-line Adaption (5) jeweils in Abhängigkeit von einem aktuellen Datenpunkt erfolgt, der aus dein neuronalen Netz (1) aktuell zugeführten Eingangsgrößen (x) und mit der darauf erfolgenden Antwort (yNN) des neuronalen Netzes (1) zu vergleichenden Bezugsgrößen (y) besteht, und wobei die zyklisch wiederholte Adaption (6) in Abhängigkeit von einer aus den bis dahin vorgekommenen Datenpunkten (x, y) gebildeten Trainings­ datenmenge (9 bis 12) erfolgt.
2. Lernverfahren nach Anspruch 1, dadurch gekennzeichnet, daß die on-line Adaption (5) auf ausgewählte Parameter (p₁) des neuronalen Netzes (1) beschränkt ist.
3. Lernverfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß in einer anfänglichen Initiallernphase (7) die zyklisch wiederholte Adaption (6) jedesmal auf der Grundlage der mit jeder zwischenzeitlich erfolgenden on-line Adaption (5) wachsenden Trainingsdatenmenge (9, 11) durchgeführt wird und daß in einer späteren Nachlernphase (8) die Trainingsdaten­ menge (10) für die zyklisch wiederholte Adaption (6) begrenzt wird, indem die jeweils ältesten in der Trainingsdatenmenge (10) enthaltenen Datenpunkte in dem Maße vergessen werden, wie neue Datenpunkte zu der Trainingsdatenmenge (10) hinzu­ kommen.
4. Lernverfahren nach Anspruch 3, dadurch gekennzeichnet, daß während der Initiallernphase (7) die jeweils ältesten Datenpunkte der Trainingsdatenmenge (11) in geringerem Maße vergessen werden, als neue Datenpunkte zu der Trainingsdaten­ menge (11) hinzukommen.
5. Lernverfahren nach Anspruch 3 oder 4, dadurch gekennzeichnet, daß die Datenpunkte vergessen werden, indem sie aus der Trainingsdatenmenge (11) entfernt werden.
6. Lernverfahren nach Anspruch 3 oder 4, dadurch gekennzeichnet, daß die Datenpunkte vergessen werden, indem sie mit zuneh­ mendem Alter mit einem immer geringeren Gewichtsfaktor ge­ wichtet werden.
7. Lernverfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, daß die Größe des neuronalen Netzes (1) in Abhängigkeit von der Größe der vorliegenden Trainingsdatenmenge (9 bis 12) geändert wird.
8. Lernverfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, daß sich an eine zyklisch erfolge Adaption zunächst eine on­ line Adaption mit zumindest einem Teil der der Trainingsda­ tenmenge (9 bis 12) zugrunde liegenden Datenpunkte an­ schließt, bevor das neuronale Netz (1) mit neuen Datenpunkten weitertrainiert wird.
DE19527521A 1995-07-27 1995-07-27 Lernverfahren für ein neuronales Netz Expired - Fee Related DE19527521C1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE19527521A DE19527521C1 (de) 1995-07-27 1995-07-27 Lernverfahren für ein neuronales Netz
US08/686,792 US6745169B1 (en) 1995-07-27 1996-07-26 Learning process for a neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19527521A DE19527521C1 (de) 1995-07-27 1995-07-27 Lernverfahren für ein neuronales Netz

Publications (1)

Publication Number Publication Date
DE19527521C1 true DE19527521C1 (de) 1996-12-19

Family

ID=7767965

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19527521A Expired - Fee Related DE19527521C1 (de) 1995-07-27 1995-07-27 Lernverfahren für ein neuronales Netz

Country Status (1)

Country Link
DE (1) DE19527521C1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999002282A1 (de) * 1997-07-07 1999-01-21 Siemens Aktiengesellschaft Verfahren und einrichtung zur steuerung bzw. voreinstellung eines walzgerüstes
CN113496308A (zh) * 2020-04-07 2021-10-12 乔治费歇尔加工方案公司 预测加工操作的状态的方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4012278A1 (de) * 1989-04-14 1990-10-18 Hitachi Ltd Zustands-diagnosesystem fuer eine anlage
DE4301130A1 (en) * 1992-01-20 1993-07-22 Hitachi Ltd Control system with highly nonlinear characteristic - uses learning function and derives control values from selected parameter values of set point adjustment model
DE4416364A1 (de) * 1993-05-17 1994-11-24 Siemens Ag Verfahren und Regeleinrichtung zur Regelung eines Prozesses
DE4338615A1 (de) * 1993-11-11 1995-05-18 Siemens Ag Verfahren und Vorrichtung zur Führung eines Prozesses in einem geregelten System
WO1995014277A1 (en) * 1993-11-17 1995-05-26 Grumman Aerospace Corporation Stabilized adaptive neural network based control system
DE4439986A1 (de) * 1993-11-09 1995-06-01 Rockwell International Corp Adaptives Prozeßsteuerungssystem und Verfahren

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4012278A1 (de) * 1989-04-14 1990-10-18 Hitachi Ltd Zustands-diagnosesystem fuer eine anlage
DE4301130A1 (en) * 1992-01-20 1993-07-22 Hitachi Ltd Control system with highly nonlinear characteristic - uses learning function and derives control values from selected parameter values of set point adjustment model
DE4416364A1 (de) * 1993-05-17 1994-11-24 Siemens Ag Verfahren und Regeleinrichtung zur Regelung eines Prozesses
DE4439986A1 (de) * 1993-11-09 1995-06-01 Rockwell International Corp Adaptives Prozeßsteuerungssystem und Verfahren
DE4338615A1 (de) * 1993-11-11 1995-05-18 Siemens Ag Verfahren und Vorrichtung zur Führung eines Prozesses in einem geregelten System
WO1995014277A1 (en) * 1993-11-17 1995-05-26 Grumman Aerospace Corporation Stabilized adaptive neural network based control system

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
IEEE Transactions on Neural Networks, Vol. 4, No. 3, May 1993, S. 462-469 *
IEEE Transactions on Neural Networks, Vol. 6, No. 1, Jan. 1995, S. 144-156 *
IEEE Transactions on Systems, Man and Cybernetics, Vol. 24, No. 4, April 1994, S. 678-683 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999002282A1 (de) * 1997-07-07 1999-01-21 Siemens Aktiengesellschaft Verfahren und einrichtung zur steuerung bzw. voreinstellung eines walzgerüstes
CN113496308A (zh) * 2020-04-07 2021-10-12 乔治费歇尔加工方案公司 预测加工操作的状态的方法

Similar Documents

Publication Publication Date Title
DE102016010064B4 (de) Numerische Steuerung mit Bearbeitungsbedingungsanpassungsfunktion zum Verringern des Auftretens von Rattern oder Werkzeugverschleiss/-bruch
DE102007001025B4 (de) Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
EP3662418B1 (de) Verfahren und vorrichtung für maschinelles lernen in einer recheneinheit
DE102018003266B4 (de) Controller und maschinelle lernvorrichtung
EP0663632B1 (de) Verfahren und Vorrichtung zur Führung eines Prozesses
DE102016011525B4 (de) Vorrichtung für maschinelles Lernen und Spulen-Produktionsvorrichtung
DE102018000342A1 (de) Numerische steuerung und maschinelle lernvorrichtung
EP3701433B1 (de) Verfahren, vorrichtung und computerprogramm zur erstellung eines tiefen neuronalen netzes
DE10241746B4 (de) Verfahren zur zyklischen Qualitätsbewertung und Prozessüberwachung bei periodischen Produktionsprozessen
DE102019114488B4 (de) Verfahren zum Betreiben einer Abfüllanlage und Abfüllanlage
DE4121453C2 (de) Näherungsschlußfolgerungsvorrichtung
DE19527521C1 (de) Lernverfahren für ein neuronales Netz
DE102017103390A1 (de) Verfahren zum Betreiben eines Hybridsystems für ein Fahrzeug
DE19624301B4 (de) Lernverfahren für ein neuronales Netz
EP0813986B1 (de) Verfahren zur Abstandsregelung für ein Fahrzeug
WO2020193481A1 (de) Verfahren und vorrichtung für training und herstellung eines künstlichen neuronalen netzes
DE19624614C2 (de) Verfahren zum Entwurf oder zur Adaption eines Fuzzy-Reglers oder eines Systems von verknüpften Fuzzy-Reglern
DE69123623T2 (de) Unscharfe Folgerungsanlage
EP0956531A1 (de) Verfahren zur transformation einer zur nachbildung eines technischen prozesses dienenden fuzzy-logik in ein neuronales netz
DE102013206274A1 (de) Verfahren und Vorrichtung zum Anpassen eines nicht parametrischen Funktionsmodells
WO2022002652A1 (de) Verfahren zur regelung eines regelsystems, trainingsverfahren, computerprogramm, speichermedium und steuereinheit
DE102021116388A1 (de) Verfahren zum Optimieren eines Reglers und Regelsystem mit einem derart optimierten Regler
DE102022203386B4 (de) Regelverfahren, Regelsystem, Kraftfahrzeug, Computerprogrammprodukt und computerlesbares Medium
DE102016209721A1 (de) Modellbasierte Ermittlung eines Systemzustandes mittels eines dynamischen Systems
DE4323432C2 (de) Spannungs- und Blindleistungsregler für ein Stromsystem auf der Basis neuronaler Netzwerke

Legal Events

Date Code Title Description
8100 Publication of patent without earlier publication of application
D1 Grant (no unexamined application published) patent law 81
8364 No opposition during term of opposition
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20130201