Skip to main content

Full text: 15: Wasserstandsvorhersage mittels neuronaler Netze

42 
Vorhersage übertragen. Die Bildmatrix entspricht dem Indikationszeitraum einer Zeitreihe, die 
Ziffer dem Prognosezeitraum. 
3.5.2. Realzeit Lernen 
In Kap.3.4 wurden im Rahmen der Vorhersage zusätzlich zu den Backpropagation- und 
Kohonen-Netzen noch andere Netztypen erwähnt: Das zeitverzögerte (time delay) und das 
rückläufige (recurrent) neuronale Netz. Beide Netztypen sind mit dem Backpropagation-Netz, 
d.h.'mit dem Multilayer Perzeptron mit Fehler-Backpropagation-Algorithmus, verwandt. Das 
zeitverzögerte (time delay) neuronale Netz ist funktional zum FIR Multilayer Perzeptron 
äquivalent [Wan 93]. FIR bedeutet finite-duration impulse response (Antwort auf Impulse 
endlicher Länge). In einem Backpropagation-Netz, das auf univariate, d.h. autoregressive oder 
klassifizierende, Weise trainiert wird, werden zeitlich aufeinander folgende Messungen 
bestimmter Größen gleichzeitig dem Netz präsentiert. D.h. es findet eine statische Präsenta 
tion der Messungen statt. 
Um eine dynamische Präsentation zu ermöglichen, wurde ein anderes Modell der Ver 
bindungen bzw. Synapsen entwickelt, das des synaptischen FIR Filters (siehe oben). Ein FIR 
Multilayer Perzeptron wird mit Hilfe des zeitlichen Backpropagation-Algorithmus’ angelernt. 
Wenn es ausgelernt hat, sind allerdings wie beim normalen Backpropagation-Netz sämtliche 
Gewichte des Netzes wieder fixiert [Haykin 94]. Somit ist die Präsentation letztlich doch 
wieder statisch oder höchstens pseudodynamisch. Der zweite Netztyp, das rückläufige (recur 
rent) neuronale Netz, benutzt zwar ein normales Neuronenmodell (Schwellwertneuron), leitet 
aber die Information der Ausgabeneuronen wieder zurück zu den Eingabeneuronen (Feed 
back). Auf diese Weise werden die Gewichte während der dynamischen Präsentation der 
Daten fortlaufend verändert. D.h. das Netz lernt in Realzeit (real-time bzw. in-situ) [Haykin 
94], [Williams et al. 89]. Darum wird es auch als Realzeit rückläufiges (real-time recurrent) 
neuronales Netz bezeichnet. Solch ein Netz kostet sehr viel Rechenzeit [Caudill 93]. Es 
eignet sich besonders für statistisch Variante Signale (z.B. Sprache). Werden Backpropaga- 
tion-Netze auf autoregressive Weise angewandt, werden sie als nichthneare autoregressive 
(NLAR-) oder (NAR-)Modelle (Kap2.3.2) bezeichnet [Connor et al. 91], [Schlittgen et al. 
94] und recurrent neuronale Netze als nichtlineare autoregressive rnoving average (NARMA-) 
Modelle [Connor et al. 91]. 
Für die Wasserstandsvorhersage wurde entschieden, ein neuronales Netz zu wählen, das 
nicht in Realzeit (bzw. off-line) lernt. D.h. das Netz wird einmal mit einer bestimmten Daten 
basis angelernt und anschließend Operationen genutzt, ohne daß es verändert wird. Das wird 
damit begründet, daß die Informationen bzw. Messungen, die im stündlichen oder im Hoch/- 
Niedrigwasser Rhythmus (ungefähr zweimal pro Tag) neu erscheinen, sich in ihren Merkma 
len oder Charakteristiken nicht wesentlich ändern. Die Signale sind statistisch weitgehend 
invariant. Allerdings ist eine langfristige Änderung der Merkmale auf zweierlei Weise 
möglich. Erstens wird durch Ausbaumaßnahmen der Elbe die Tidedynamik verändert [Stengel 
94], was sich auch bei Cuxhaven bemerkbar macht, und zweitens erhöht sich der Meeres 
spiegel langfristig durch die Klimaänderung (Kap.4.2.3). Darum wird vorgeschlagen, das Netz 
von Jahr zu Jahr mit der entsprechend um ein Jahr erweiterten Datenbasis jeweils neu 
anzulernen. Die dafür notwendigen technischen Einzelheiten sind im Anhang beschrieben. 
Es wäre denkbar, das alte ausgelernte neuronale Netz Jahr für Jahr jeweils wieder lernfä 
hig zu machen ("aufzufrieren") und die neuen aktuellen Daten hinzuzulernen. Es ist aber die 
Frage, wie weit einerseits das Netz wieder lernfähig gemacht ("aufgefroren") werden darf, 
d.h. wie stark sich die Gewichte ändern dürfen, damit die alte früher angelernte Information
	        
Waiting...

Note to user

Dear user,

In response to current developments in the web technology used by the Goobi viewer, the software no longer supports your browser.

Please use one of the following browsers to display this page correctly.

Thank you.