42
Vorhersage übertragen. Die Bildmatrix entspricht dem Indikationszeitraum einer Zeitreihe, die
Ziffer dem Prognosezeitraum.
3.5.2. Realzeit Lernen
In Kap.3.4 wurden im Rahmen der Vorhersage zusätzlich zu den Backpropagation- und
Kohonen-Netzen noch andere Netztypen erwähnt: Das zeitverzögerte (time delay) und das
rückläufige (recurrent) neuronale Netz. Beide Netztypen sind mit dem Backpropagation-Netz,
d.h.'mit dem Multilayer Perzeptron mit Fehler-Backpropagation-Algorithmus, verwandt. Das
zeitverzögerte (time delay) neuronale Netz ist funktional zum FIR Multilayer Perzeptron
äquivalent [Wan 93]. FIR bedeutet finite-duration impulse response (Antwort auf Impulse
endlicher Länge). In einem Backpropagation-Netz, das auf univariate, d.h. autoregressive oder
klassifizierende, Weise trainiert wird, werden zeitlich aufeinander folgende Messungen
bestimmter Größen gleichzeitig dem Netz präsentiert. D.h. es findet eine statische Präsenta
tion der Messungen statt.
Um eine dynamische Präsentation zu ermöglichen, wurde ein anderes Modell der Ver
bindungen bzw. Synapsen entwickelt, das des synaptischen FIR Filters (siehe oben). Ein FIR
Multilayer Perzeptron wird mit Hilfe des zeitlichen Backpropagation-Algorithmus’ angelernt.
Wenn es ausgelernt hat, sind allerdings wie beim normalen Backpropagation-Netz sämtliche
Gewichte des Netzes wieder fixiert [Haykin 94]. Somit ist die Präsentation letztlich doch
wieder statisch oder höchstens pseudodynamisch. Der zweite Netztyp, das rückläufige (recur
rent) neuronale Netz, benutzt zwar ein normales Neuronenmodell (Schwellwertneuron), leitet
aber die Information der Ausgabeneuronen wieder zurück zu den Eingabeneuronen (Feed
back). Auf diese Weise werden die Gewichte während der dynamischen Präsentation der
Daten fortlaufend verändert. D.h. das Netz lernt in Realzeit (real-time bzw. in-situ) [Haykin
94], [Williams et al. 89]. Darum wird es auch als Realzeit rückläufiges (real-time recurrent)
neuronales Netz bezeichnet. Solch ein Netz kostet sehr viel Rechenzeit [Caudill 93]. Es
eignet sich besonders für statistisch Variante Signale (z.B. Sprache). Werden Backpropaga-
tion-Netze auf autoregressive Weise angewandt, werden sie als nichthneare autoregressive
(NLAR-) oder (NAR-)Modelle (Kap2.3.2) bezeichnet [Connor et al. 91], [Schlittgen et al.
94] und recurrent neuronale Netze als nichtlineare autoregressive rnoving average (NARMA-)
Modelle [Connor et al. 91].
Für die Wasserstandsvorhersage wurde entschieden, ein neuronales Netz zu wählen, das
nicht in Realzeit (bzw. off-line) lernt. D.h. das Netz wird einmal mit einer bestimmten Daten
basis angelernt und anschließend Operationen genutzt, ohne daß es verändert wird. Das wird
damit begründet, daß die Informationen bzw. Messungen, die im stündlichen oder im Hoch/-
Niedrigwasser Rhythmus (ungefähr zweimal pro Tag) neu erscheinen, sich in ihren Merkma
len oder Charakteristiken nicht wesentlich ändern. Die Signale sind statistisch weitgehend
invariant. Allerdings ist eine langfristige Änderung der Merkmale auf zweierlei Weise
möglich. Erstens wird durch Ausbaumaßnahmen der Elbe die Tidedynamik verändert [Stengel
94], was sich auch bei Cuxhaven bemerkbar macht, und zweitens erhöht sich der Meeres
spiegel langfristig durch die Klimaänderung (Kap.4.2.3). Darum wird vorgeschlagen, das Netz
von Jahr zu Jahr mit der entsprechend um ein Jahr erweiterten Datenbasis jeweils neu
anzulernen. Die dafür notwendigen technischen Einzelheiten sind im Anhang beschrieben.
Es wäre denkbar, das alte ausgelernte neuronale Netz Jahr für Jahr jeweils wieder lernfä
hig zu machen ("aufzufrieren") und die neuen aktuellen Daten hinzuzulernen. Es ist aber die
Frage, wie weit einerseits das Netz wieder lernfähig gemacht ("aufgefroren") werden darf,
d.h. wie stark sich die Gewichte ändern dürfen, damit die alte früher angelernte Information