41
zu bringen, mißglückte leider und wurde aus Zeitgründen aufgegeben. So kann leider kein
Vergleich der Vorhersagefehler von Backpropagation- und Kohonen-Netzen geboten werden.
3.5.1. Vorhersage
Neuronale Netze können quantitative und qualitative Vorhersagen erstellen. Qualitativer Art
ist z.B. die Vorhersage der aktuellen Gefahrenstufe bei Lawinengefahr [Schweizer et al. 94].
Die Gefahrenstufen können als Klassen in einem Kohonen-Netz angelernt werden. Das
Lernen erfolgt in diesem Fall unüberwacht. Für eine Vorhersage quantitativer Art wie der
Wasserstandsvorhersage könnte theoretisch eine Klasseneinteilung in Zentimeter vorgenom
men werden. Doch z.B. für Hamburg beträgt der maximale Tidenhub (höchste Sturmflut
minus niedrigste Sturmebbe) ungefähr 10 m (Maximum: 6.45 m über Normal Null, Mini
mum: -3.48 m über Normal Null). Das würde 1000 Klassen für eine Vorhersagegenauigkeit
im Zentimeterbereich bedeuten. Für eine realistische Klassifikation muß die Anzahl der
Klassen aber deutlich geringer sein, worunter andererseits aber die Vorhersagegenauigkeit
leidet, d.h. der Vorhersagefehler zunimmt. Einen Ausweg aus diesem Dilemma bieten
überwachte Lern verfahren, die den maximalen Tidenhub kontinuierlich abdecken. Überwachte
Lernverfahren brauchen einen Lehrer. Im Fall der Wasserstandsvorhersage ist der Lehrer der
bereits gemessene Wasserstand oder der Stau. Überwachte Verfahren wie die Backpropaga-
tion-Netze lernen somit im Hindcast (Kap.2.1).
Um die Berechnung einer Vorhersage mittels Backpropagation-Netzen zu erklären, wird
solch ein Netz auf hypothetische Weise z.B. mit Lernvektoren trainiert, die auf einem
univariaten Zeitmuster basieren. Als Daten könnten auf hypothetische Weise z.B. die
Stauwerte bei Cuxhaven verwendet werden. Von den Lernvektoren wird jeweils der Indika
tionszeitraum der Eingabeschicht solch eines Netzes präsentiert (Abb.3.1). Diese Information
wird "vorwärts gefüttert" (feed forward), bis sie durch die Netzgewichte verändert an der
Ausgabeschicht ankommt. Die so errechneten Werte in der Ausgabeschicht schlägt das Netz
als zukünftige Stauwerte vor (zuzüglich einer entsprechenden Nachbearbeitung, siehe
Kap.4.2.4). Die Vorschläge werden mit den bereits gemessenen Stauwerten des Prognose
zeitraums der Lernvektoren verglichen. Die Differenz zwischen Messung und Vorhersage,
quadriert und summiert über alle Ausgabeneuronen ergibt eine Fehler- oder Kostenfunktion,
die in das Netz zurückgeleitet (backpropagated) wird. Dadurch werden die Netzgewichte
entsprechend verändert. Die Präsentation der Lernvektoren geschieht so oft, bis die Fehler
funktion minimal ist, die Gewichte sich nicht mehr verändern und das Netz damit ausgelernt
hat. Die Präsentation der Lernvektoren, bzw. die Lernphase, kann in Lernepochen eingeteilt
werden. Während einer Lernepoche wird der gesamte Trainingsdatensatz, d.h. sämtliche
Lernvektoren angelernt. Während einer Lernphase, die aus mehreren Lernepochen besteht,
werden die Trainingsdaten somit wiederholt den Eingabeneuronen präsentiert [de Groot 93].
In dem hypothetischen Beispiel hat das Backpropagation-Netz Daten in Form eines univa
riaten, d.h. klassifizierenden oder autoregressiven, Zeitmusters gelernt. Es ist für das Netz
aber auch genauso gut möglich, Daten in Form eines multivariaten, d.h. multiregressiven oder
eines Multi-Window Zeitmusters zu lernen. Bei der univariaten Vorhersage mittels Back-
propagation-Netze werden auch andere Bezeichnungen in der Literatur über neuronale Netze
verwendet: Einschrittvorhersage (single-step prediction) für die Autoregression und Mehr
schrittvorhersage (multi-step prediction) für die Klassifikation [Refenes et al. 93], [Weigend
et al. 90a], Es scheint so, als ob der auf diese Weise gebrauchte Begriff der Klassifikation
mit der Art und Weise der Verwendung in Kap.3.2 kollidiert. Es läßt sich aber das dort
angegebene Beispiel, in dem einer Bildmatrix eine Ziffer zugeordnet wird, leicht auf die