DE19527521C1 - Lernverfahren für ein neuronales Netz - Google Patents
Lernverfahren für ein neuronales NetzInfo
- Publication number
- DE19527521C1 DE19527521C1 DE19527521A DE19527521A DE19527521C1 DE 19527521 C1 DE19527521 C1 DE 19527521C1 DE 19527521 A DE19527521 A DE 19527521A DE 19527521 A DE19527521 A DE 19527521A DE 19527521 C1 DE19527521 C1 DE 19527521C1
- Authority
- DE
- Germany
- Prior art keywords
- neural network
- adaptation
- training data
- data points
- learning method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B13/00—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
- G05B13/02—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
- G05B13/0265—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
- G05B13/027—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0499—Feedforward networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B21—MECHANICAL METAL-WORKING WITHOUT ESSENTIALLY REMOVING MATERIAL; PUNCHING METAL
- B21B—ROLLING OF METAL
- B21B2265/00—Forming parameters
- B21B2265/12—Rolling load or rolling pressure; roll force
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B21—MECHANICAL METAL-WORKING WITHOUT ESSENTIALLY REMOVING MATERIAL; PUNCHING METAL
- B21B—ROLLING OF METAL
- B21B37/00—Control devices or methods specially adapted for metal-rolling mills or the work produced thereby
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Automation & Control Theory (AREA)
- Feedback Control In General (AREA)
Description
Neuronale Netze müssen, bevor sie ihre Generalisierungsfä
higkeit erhalten, zunächst mit Lern- oder Trainingsdaten
trainiert werden. Das Sammeln dieser Trainingsdaten ist oft
langwierig und mit hohem Aufwand verbunden.
Ein Beispiel hierfür ist das aus der DE-OS 44 16 364 bekannte
neuronale Netz, das aus einer Vielzahl von ihm zugeführten
vorausberechneten Eingangsgrößen als Netzwerkantwort einen
Prozeßparameter berechnet, der zur Voreinstellung eines Sy
stems zur Regelung eines technischen Prozesses dient. So wird
z. B. bei einem Walzprozeß ein Vorhersagewert für die Walz
kraft in Abhängigkeit von der Walzguttemperatur, der Dicken
abnahme und anderen material- und anlagenspezifischen Ein
gangsgrößen berechnet. Der von dem neuronalen Netz nachgebil
dete Zusammenhang zwischen der Walzkraft und den Eingangsgrö
ßen wird on-line nach jedem Prozeßablauf, also nach jedem
Walzgutdurchlauf, an das reale Prozeßgeschehen angepaßt. Dazu
werden die während des Prozeßablaufs gemessenen und anschlie
ßend nachberechneten Eingangsgrößen und die Walzkraft in ei
nem Datenpunkt zusammengefaßt, der dann zur Adaption von Pa
rametern des neuronalen Netzes herangezogen wird. Die Adap
tion erfolgt mit jedem neu ermittelten Datenpunkt, also on-
line. Die Adaption muß sich durch eine besondere Stabilität
auszeichnen, da sie häufig direkt und ohne Überwachung durch
einen Fachmann auf der prozeßausführenden Anlage durchgeführt
wird. Daher werden beim on-line Training nur unkritische
Parameter des neuronalen Netzes adaptiert, wobei Adaptions
algorithmen verwendet werden, die eine Stabilität des Verfah
rens gewährleisten; z. B. Minimierung der quadratischen Feh
lerfunktion zwischen der Netzwerkantwort und der nachberech
neten Walzkraft, wobei die Fehlerfunktion nur ein globales
Minimum, aber keine lokalen Minima aufweist.
Aus der DE 43 38 615 A1 ist ein Verfahren bekannt, gemäß
dem ein aus mehreren Teilmodellen bestehendes analytisches Modell eines Prozesses mittels eines neuronalen Netzes
korrigiert wird. Aus der WO 95/14277 ist bekannt, ein
neuronales Netz parallel zu einem herkömmlichen Regler
einzusetzen. Aus der DE 43 01 130 A1 ist bekannt, die
Parameter für ein Regelungsmodell mittels eines neuronalen
Netzes zu beeinflussen. Aus der DE 40 12 278 A1 ist
bekannt, ein neuronales Netzwerk zur Diagnose zu verwenden.
IEEE Transactions on Systems, Man and Cybernetics, Vol. 24,
No. 4, April 1994, Seiten 678-683, beschreibt das grundsätzliche
Vorgehen bei der Adaption eines neuronalen Netzes. Aus der
DE 44 39 986 A1 ist ein
in einem neuronalen Netz verwirklichtes Prozeßoptimierungsmodell
bekannt.
Das Modell des Prozesses wird dadurch geändert, daß die
Gewichtung des neuronalen Netzes in Übereinstimmung mit
einem Lernalgorithmus des neuronalen Netzes geändert wird.
IEEE Transactions on Neural Networks, Vol. 4,
No. 3, May 1993, Seiten 462-469, beschreibt die Implementierung
eines kohonen neuronalen Netzes auf einem Chip. IEEE Transactions on
Neural Networks, Vol. 6, No. 1, Jan. 1995, Seiten 144-156,
beschreibt eine auf neuronalen Netzen basierende Architektur
eines Reglers, wobei zwei neuronale Netze, eines zur Regelung
und eines zur Parameteridentifikation, eingesetzt werden.
Damit das bekannte neuronale Netz bereits zu Beginn des on-
line-Trainings zumindest annähernd sinnvolle Walzkraftwerte
vorhersagt, kann es anhand eines die Walzkraft in Abhängig
keit von zufällig vorgegebenen Eingangsgrößen berechnenden
Walzkraftmodells vortrainiert werden. Steht ein derartiges
Modell nicht zur Verfügung, so kann das für das Vortraining
nötige Vorwissen durch das Sammeln von Trainingsdaten bei
spielsweise auf vergleichbaren Anlagen erworben und in das
neuronale Netz eingebracht werden.
Der Erfindung liegt die Aufgabe zugrunde, insbesondere bei
der Neuinbetriebnahme einer Anlage oder wesentlichen Verände
rungen einer bestehenden Anlage, die mit neuronalen Netzen
gesteuert wird, oder beim Umrüsten einer bestehenden Anlage
auf neuronal gestützte Steuerung, wenn auf eine vorherige
Sammlung von Trainingsdaten verzichtet werden soll, das neu
ronale Netz in die Lage zu versetzen, ohne Vortraining direkt
auf der Anlage bereits nach wenigen Datenpunkten ein sinnvol
les Verhalten zu zeigen. Ferner sollen Langzeitdriften der
Anlage erkannt und kompensiert werden.
Gemäß der Erfindung wird die Aufgabe durch das in Patentan
spruch 1 angegebene Lernverfahren gelöst.
Vorteilhafte Weiterbildungen des erfindungsgemäßen Verfahrens
sind in den Unteransprüchen angegeben.
Zur Erläuterung der Erfindung wird im folgenden auf die
Figuren der Zeichnung Bezug genommen; im einzelnen zeigen
Fig. 1 ein Beispiel für ein neuronales Netz mit einem
ständig on-line ablaufenden und einem zyklisch
wiederholten Adaptionsalgorithmus,
Fig. 2 ein Beispiel für die erfindungsgemäße Kombination
der on-line Adaption und der zyklisch wiederholten
Adaption des neuronalen Netzes,
Fig. 3+4 Beispiele für die bei der zyklisch wiederholten
Adaption verwendete Trainingsdatenmenge,
Fig. 5 ein Beispiel für die Trainingsdatenmenge beim Ler
nen mit exponentiellem Vergessen und
Fig. 6 ein Beispiel für den typischen Fehlerverlauf bei
dem erfindungsgemäßen Lernverfahren im Vergleich zu
einem Referenz-Lernverfahren.
Fig. 1 zeigt ein neuronales Netz, dem eine Mehrzahl von in ei
nem Eingangsvektor x zusammengefaßten Eingangsgrößen zuge
führt wird und das in Abhängigkeit davon eine, gegebenenfalls
ebenfalls mehrdimensionale, Antwort yNN erzeugt. Die Antwort
yNN ist von einstellbaren Parametern p des neuronalen Netzes
1 abhängig. Das neuronale Netz 1 dient bei dem gezeigten Aus
führungsbeispiel dazu, den Zusammenhang zwischen Einflußgrö
ßen eines technischen Prozesses, die durch den Eingangsvektor
x repräsentiert werden, und einem Prozeßparameter y, reprä
sentiert durch die Antwort yNN, nachzubilden. Ein Beispiel
hierfür ist die Vorhersage der Walzkraft in einem Walzprozeß
in Abhängigkeit von material- und anlagenspezifischen Ein
flußgrößen, wie unter anderem der Walzguttemperatur, der
Walzgutfestigkeit, der Walzgutdicke und der Dickenabnahme.
Um den nachzubildenden Zusammenhang zu lernen, und das neuro
nale Netz 1 an das tatsächliche Prozeßgeschehen anzupassen,
werden die Parameter p des neuronalen Netzes 1 mit Hilfe von
Adaptionsalgorithmen 2 und 3 im Sinne einer Verringerung des
Fehlers zwischen der von dem neuronalen Netz 1 gelieferten
Antwort yNN und dem tatsächlichen Wert des Prozeßparameters y
verändert.
Dabei erfolgt nach jedem n-ten (n 1) Prozeßablauf, in die
sem Falle also nach jedem Walzgutdurchlauf, mittels des Adap
tionsalgorithmus 2 eine on-line-Adaption, indem die während
des erfolgten aktuellen Prozeßablaufs gemessenen und nachbe
rechneten Einflußgrößen xnach dem neuronalen Netz 1 aufgege
ben werden und die daraus resultierende Antwort yNN mit dem
ebenfalls gemessenen oder nachberechneten Prozeßparameter y
verglichen wird. Nicht plausible Werte oder Meßfehler werden
durch die Nachberechnung ausgeschieden. In Abhängigkeit von
dem dabei ermittelten Fehler y-yNN werden ausgewählte Para
meter p₁ des neuronalen Netzes 1 im Sinne einer Fehlerverrin
gerung verändert. Dabei werden unkritische Parameter p₁ und
solche Adaptionsalgorithmen gewählt, die eine Stabilität der
on-line-Adaption gewährleisten und es erlauben, schnellen
Prozeßzustandsänderungen zu folgen. Unkritische Parameter
sind z. B. die Steigungen der Regressionsebenen; ein mögli
ches Adaptionsverfahren ist der Gradientenabstieg.
Die nach jedem n-ten Walzgutdurchlauf ermittelten Eingangs
größen des Eingangsvektors x bilden zusammen mit dem gemesse
nen bzw. nachberechneten Prozeßparameter y, der als Bezugs
größe für den Vergleich mit der Antwort yNN dient, einen
Datenpunkt, der in einer Speichereinrichtung 4 gespeichert
wird. Auf der Grundlage einer aus mehreren gespeicherten
Datenpunkten gegebenenfalls durch Clustern, Selektieren oder
Mitteln gebildeten Trainingsdatenmenge wird in zyklischen
Abständen ein Training des neuronalen Netzes 1 vorgenommen,
wobei die Parameter p₂ des neuronalen Netzes 1 mittels des
Adaptionsalgorithmus 3 adaptiv verändert werden. Die Parame
ter p₁ und p₂ können dieselben oder teilweise oder ganz un
terschiedlich sein. Wird das zyklisch wiederholte Training
als Hintergrund-Training durchgeführt, so unterliegt es kei
nen on-line-Echtzeitbedingungen und kann dann damit auf der
Basis beliebig großer Trainingsdatenmengen und mit zeitauf
wendigen global optimierenden Lernalgorithmen arbeiten, die
nicht on-line-fähig sind.
Nach Abschluß eines zyklisch wiederholten Trainings wird das
neuronale Netz 1 zuerst einer on-line Adaption mit zumindest
einem Teil der der Trainingsdatenmenge zugrunde liegenden
Datenpunkte unterzogen, bevor das neuronale Netz 1 wieder für
die Steuerung der Anlage aktiviert wird und mit neuen Daten
punkten on-line weitertrainiert wird. So wird sichergestellt,
daß sich das neuronale Netz nach dem globalen Hintergrund
training sofort wieder an die aktuelle Tagesform der zu steu
ernden Anlage anpaßt.
Fig. 2 verdeutlicht das erfindungsgemäße Lernverfahren anhand
zweier Blöcke 5 und 6, von denen der Block 5 die ständig ab
laufende on-line Adaption und der Block 6 die zyklisch erfol
gende Adaption bezeichnet. Die zyklisch erfolgende Adaption 6
besteht aus einer anfänglichen Initiallernphase 7 und einer
späteren Nachlernphase 8.
Diese beiden unterschiedlichen Lernphasen 7 und 8 sind in Fig.
3 verdeutlicht, in der die Anzahl der zum zyklischen Training
des neuronalen Netzes 1 verwendeten Datenpunkte N in Abhän
gigkeit von dem Beitrag K dieser Datenpunkte N zum Training
aufgetragen sind. Während der Initiallernphase 7 erfolgt das
zyklisch wiederholte Training mit einer stetig wachsenden
Trainingsdatenmenge 9, wobei jedesmal alle von Beginn des
Lernverfahrens an gespeicherten Datenpunkte verwendet werden.
Die Häufigkeit des zyklisch wiederholten Trainings ist ein
für die vorgegebene Anwendung zu optimierender Parameter, wo
bei z. B. nach jedem neuen Datenpunkt, nach einem vorgegebe
nen prozentualen Anwachsen der Trainingsdatenmenge oder wenn
der Fehler y-yNN einen bestimmten Wert übersteigt eine erneu
te Adaption erfolgt. Darüber hinaus läßt sich die Größe des
neuronalen Netzes 1 in Abhängigkeit von der Größe der vorlie
genden Trainingsdatenmenge verändern, wobei mit einem kleinen
neuronalen Netz begonnen wird, das im Laufe der Zeit langsam
vergrößert wird. Die Festlegung der Netzgröße z. B. durch
Methoden der "Cross-Validation" oder andere Heuristiken wie
Residualfehler im Eingangsraum erfolgt.
Nach einer vorgegebenen Zeit oder wenn die Trainingsdaten
menge N einen vorgegebenen Wert NF erreicht, beginnt die
Nachlernphase, in der die Trainingsdatenmenge 10 konstant
gehalten wird. Die Größe NF kann statisch sein oder dynamisch
beispielsweise durch Techniken der Cross-Validation festge
legt werden. Die Häufigkeit der zyklisch erfolgenden Adaption
sowie die Größe des neuronalen Netzes 1 ist entweder konstant
oder wird auf ähnliche Weise bestimmt, wie in der Initial
lernphase.
Zu Beginn der Inbetriebnahme einer neuronal gesteuerten An
lage werden in der Regel noch sehr viele Anlagenparameter
verändert, um die Anlage zu optimieren. Das suboptimale Ver
halten direkt nach der Inbetriebnahme sollte aber von dem
neuronalen Netz 1 möglichst wieder vergessen werden. Deshalb
ist entsprechend der Darstellung in Fig. 4 vorgesehen, die in
der Initiallernphase 7 ständig wachsende Trainingsdatenmenge
11 nicht komplett zu verwenden, sondern die ältesten Daten
punkte sukzessive zu vergessen. Das Wachstum der Trainings
datenmenge 11 hat dabei natürlich schneller zu erfolgen, als
das Vergessen. Die Geschwindigkeit des Vergessens kann in
Form eines konstanten Bruchteils der Wachstumsrate der Trai
ningsdatenmenge 11, in Abhängigkeit von dem Fehler y-yNN oder
in Abhängigkeit von dem Expertenwissen des Inbetriebnehmers
festgelegt werden.
Fig. 5 zeigt ein Beispiel für eine exponentiell abfallende
"natürliche" Vergessensfunktion einer Trainingsdatenmenge 12,
die dadurch zustande kommt, daß die Datenpunkte in der Trai
ningsdatenmenge 12 mit zunehmenden Alter mit einem immer ge
ringeren Gewichtsfaktor gewichtet werden.
In Fig. 6 ist für das erfindungsgemäße Lernverfahren der ty
pische Fehlerverlauf 13 des Residualfehlers F des neuronalen
Netzes 1 in Abhängigkeit von der Anzahl der zur Verfügung
stehenden Datenpunkte N im Vergleich zu dem Fehlerverlauf 14
eines Referenz-Lernverfahrens, hier Vererbungsdatei im ein
geschwungenen Zustand, aufzeigt.
Claims (8)
1. Lernverfahren für ein neuronales Netz (1) bestehend aus
einer Kombination von einer ständig ablaufenden on-line Adap
tion (5) und einer zyklisch wiederholten Adaption (6) von
Parametern (p) des neuronalen Netzes (1), wobei die on-line
Adaption (5) jeweils in Abhängigkeit von einem aktuellen
Datenpunkt erfolgt, der aus dein neuronalen Netz (1) aktuell
zugeführten Eingangsgrößen (x) und mit der darauf erfolgenden
Antwort (yNN) des neuronalen Netzes (1) zu vergleichenden
Bezugsgrößen (y) besteht, und wobei die zyklisch wiederholte
Adaption (6) in Abhängigkeit von einer aus den bis dahin
vorgekommenen Datenpunkten (x, y) gebildeten Trainings
datenmenge (9 bis 12) erfolgt.
2. Lernverfahren nach Anspruch 1,
dadurch gekennzeichnet,
daß die on-line Adaption (5) auf ausgewählte Parameter (p₁)
des neuronalen Netzes (1) beschränkt ist.
3. Lernverfahren nach Anspruch 1 oder 2,
dadurch gekennzeichnet,
daß in einer anfänglichen Initiallernphase (7) die zyklisch
wiederholte Adaption (6) jedesmal auf der Grundlage der mit
jeder zwischenzeitlich erfolgenden on-line Adaption (5)
wachsenden Trainingsdatenmenge (9, 11) durchgeführt wird und
daß in einer späteren Nachlernphase (8) die Trainingsdaten
menge (10) für die zyklisch wiederholte Adaption (6) begrenzt
wird, indem die jeweils ältesten in der Trainingsdatenmenge
(10) enthaltenen Datenpunkte in dem Maße vergessen werden,
wie neue Datenpunkte zu der Trainingsdatenmenge (10) hinzu
kommen.
4. Lernverfahren nach Anspruch 3,
dadurch gekennzeichnet,
daß während der Initiallernphase (7) die jeweils ältesten
Datenpunkte der Trainingsdatenmenge (11) in geringerem Maße
vergessen werden, als neue Datenpunkte zu der Trainingsdaten
menge (11) hinzukommen.
5. Lernverfahren nach Anspruch 3 oder 4,
dadurch gekennzeichnet,
daß die Datenpunkte vergessen werden, indem sie aus der
Trainingsdatenmenge (11) entfernt werden.
6. Lernverfahren nach Anspruch 3 oder 4,
dadurch gekennzeichnet,
daß die Datenpunkte vergessen werden, indem sie mit zuneh
mendem Alter mit einem immer geringeren Gewichtsfaktor ge
wichtet werden.
7. Lernverfahren nach einem der vorangehenden Ansprüche,
dadurch gekennzeichnet,
daß die Größe des neuronalen Netzes (1) in Abhängigkeit von
der Größe der vorliegenden Trainingsdatenmenge (9 bis 12)
geändert wird.
8. Lernverfahren nach einem der vorangehenden Ansprüche,
dadurch gekennzeichnet,
daß sich an eine zyklisch erfolge Adaption zunächst eine on
line Adaption mit zumindest einem Teil der der Trainingsda
tenmenge (9 bis 12) zugrunde liegenden Datenpunkte an
schließt, bevor das neuronale Netz (1) mit neuen Datenpunkten
weitertrainiert wird.
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE19527521A DE19527521C1 (de) | 1995-07-27 | 1995-07-27 | Lernverfahren für ein neuronales Netz |
| US08/686,792 US6745169B1 (en) | 1995-07-27 | 1996-07-26 | Learning process for a neural network |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE19527521A DE19527521C1 (de) | 1995-07-27 | 1995-07-27 | Lernverfahren für ein neuronales Netz |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| DE19527521C1 true DE19527521C1 (de) | 1996-12-19 |
Family
ID=7767965
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE19527521A Expired - Fee Related DE19527521C1 (de) | 1995-07-27 | 1995-07-27 | Lernverfahren für ein neuronales Netz |
Country Status (1)
| Country | Link |
|---|---|
| DE (1) | DE19527521C1 (de) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO1999002282A1 (de) * | 1997-07-07 | 1999-01-21 | Siemens Aktiengesellschaft | Verfahren und einrichtung zur steuerung bzw. voreinstellung eines walzgerüstes |
| CN113496308A (zh) * | 2020-04-07 | 2021-10-12 | 乔治费歇尔加工方案公司 | 预测加工操作的状态的方法 |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE4012278A1 (de) * | 1989-04-14 | 1990-10-18 | Hitachi Ltd | Zustands-diagnosesystem fuer eine anlage |
| DE4301130A1 (en) * | 1992-01-20 | 1993-07-22 | Hitachi Ltd | Control system with highly nonlinear characteristic - uses learning function and derives control values from selected parameter values of set point adjustment model |
| DE4416364A1 (de) * | 1993-05-17 | 1994-11-24 | Siemens Ag | Verfahren und Regeleinrichtung zur Regelung eines Prozesses |
| DE4338615A1 (de) * | 1993-11-11 | 1995-05-18 | Siemens Ag | Verfahren und Vorrichtung zur Führung eines Prozesses in einem geregelten System |
| WO1995014277A1 (en) * | 1993-11-17 | 1995-05-26 | Grumman Aerospace Corporation | Stabilized adaptive neural network based control system |
| DE4439986A1 (de) * | 1993-11-09 | 1995-06-01 | Rockwell International Corp | Adaptives Prozeßsteuerungssystem und Verfahren |
-
1995
- 1995-07-27 DE DE19527521A patent/DE19527521C1/de not_active Expired - Fee Related
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE4012278A1 (de) * | 1989-04-14 | 1990-10-18 | Hitachi Ltd | Zustands-diagnosesystem fuer eine anlage |
| DE4301130A1 (en) * | 1992-01-20 | 1993-07-22 | Hitachi Ltd | Control system with highly nonlinear characteristic - uses learning function and derives control values from selected parameter values of set point adjustment model |
| DE4416364A1 (de) * | 1993-05-17 | 1994-11-24 | Siemens Ag | Verfahren und Regeleinrichtung zur Regelung eines Prozesses |
| DE4439986A1 (de) * | 1993-11-09 | 1995-06-01 | Rockwell International Corp | Adaptives Prozeßsteuerungssystem und Verfahren |
| DE4338615A1 (de) * | 1993-11-11 | 1995-05-18 | Siemens Ag | Verfahren und Vorrichtung zur Führung eines Prozesses in einem geregelten System |
| WO1995014277A1 (en) * | 1993-11-17 | 1995-05-26 | Grumman Aerospace Corporation | Stabilized adaptive neural network based control system |
Non-Patent Citations (3)
| Title |
|---|
| IEEE Transactions on Neural Networks, Vol. 4, No. 3, May 1993, S. 462-469 * |
| IEEE Transactions on Neural Networks, Vol. 6, No. 1, Jan. 1995, S. 144-156 * |
| IEEE Transactions on Systems, Man and Cybernetics, Vol. 24, No. 4, April 1994, S. 678-683 * |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO1999002282A1 (de) * | 1997-07-07 | 1999-01-21 | Siemens Aktiengesellschaft | Verfahren und einrichtung zur steuerung bzw. voreinstellung eines walzgerüstes |
| CN113496308A (zh) * | 2020-04-07 | 2021-10-12 | 乔治费歇尔加工方案公司 | 预测加工操作的状态的方法 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE102016010064B4 (de) | Numerische Steuerung mit Bearbeitungsbedingungsanpassungsfunktion zum Verringern des Auftretens von Rattern oder Werkzeugverschleiss/-bruch | |
| DE102007001025B4 (de) | Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems | |
| EP3662418B1 (de) | Verfahren und vorrichtung für maschinelles lernen in einer recheneinheit | |
| DE102018003266B4 (de) | Controller und maschinelle lernvorrichtung | |
| EP0663632B1 (de) | Verfahren und Vorrichtung zur Führung eines Prozesses | |
| DE102016011525B4 (de) | Vorrichtung für maschinelles Lernen und Spulen-Produktionsvorrichtung | |
| DE102018000342A1 (de) | Numerische steuerung und maschinelle lernvorrichtung | |
| EP3701433B1 (de) | Verfahren, vorrichtung und computerprogramm zur erstellung eines tiefen neuronalen netzes | |
| DE10241746B4 (de) | Verfahren zur zyklischen Qualitätsbewertung und Prozessüberwachung bei periodischen Produktionsprozessen | |
| DE102019114488B4 (de) | Verfahren zum Betreiben einer Abfüllanlage und Abfüllanlage | |
| DE4121453C2 (de) | Näherungsschlußfolgerungsvorrichtung | |
| DE19527521C1 (de) | Lernverfahren für ein neuronales Netz | |
| DE102017103390A1 (de) | Verfahren zum Betreiben eines Hybridsystems für ein Fahrzeug | |
| DE19624301B4 (de) | Lernverfahren für ein neuronales Netz | |
| EP0813986B1 (de) | Verfahren zur Abstandsregelung für ein Fahrzeug | |
| WO2020193481A1 (de) | Verfahren und vorrichtung für training und herstellung eines künstlichen neuronalen netzes | |
| DE19624614C2 (de) | Verfahren zum Entwurf oder zur Adaption eines Fuzzy-Reglers oder eines Systems von verknüpften Fuzzy-Reglern | |
| DE69123623T2 (de) | Unscharfe Folgerungsanlage | |
| EP0956531A1 (de) | Verfahren zur transformation einer zur nachbildung eines technischen prozesses dienenden fuzzy-logik in ein neuronales netz | |
| DE102013206274A1 (de) | Verfahren und Vorrichtung zum Anpassen eines nicht parametrischen Funktionsmodells | |
| WO2022002652A1 (de) | Verfahren zur regelung eines regelsystems, trainingsverfahren, computerprogramm, speichermedium und steuereinheit | |
| DE102021116388A1 (de) | Verfahren zum Optimieren eines Reglers und Regelsystem mit einem derart optimierten Regler | |
| DE102022203386B4 (de) | Regelverfahren, Regelsystem, Kraftfahrzeug, Computerprogrammprodukt und computerlesbares Medium | |
| DE102016209721A1 (de) | Modellbasierte Ermittlung eines Systemzustandes mittels eines dynamischen Systems | |
| DE4323432C2 (de) | Spannungs- und Blindleistungsregler für ein Stromsystem auf der Basis neuronaler Netzwerke |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 8100 | Publication of patent without earlier publication of application | ||
| D1 | Grant (no unexamined application published) patent law 81 | ||
| 8364 | No opposition during term of opposition | ||
| R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |
Effective date: 20130201 |