Skip to main content

Full text: 15: Wasserstandsvorhersage mittels neuronaler Netze

41 
zu bringen, mißglückte leider und wurde aus Zeitgründen aufgegeben. So kann leider kein 
Vergleich der Vorhersagefehler von Backpropagation- und Kohonen-Netzen geboten werden. 
3.5.1. Vorhersage 
Neuronale Netze können quantitative und qualitative Vorhersagen erstellen. Qualitativer Art 
ist z.B. die Vorhersage der aktuellen Gefahrenstufe bei Lawinengefahr [Schweizer et al. 94]. 
Die Gefahrenstufen können als Klassen in einem Kohonen-Netz angelernt werden. Das 
Lernen erfolgt in diesem Fall unüberwacht. Für eine Vorhersage quantitativer Art wie der 
Wasserstandsvorhersage könnte theoretisch eine Klasseneinteilung in Zentimeter vorgenom 
men werden. Doch z.B. für Hamburg beträgt der maximale Tidenhub (höchste Sturmflut 
minus niedrigste Sturmebbe) ungefähr 10 m (Maximum: 6.45 m über Normal Null, Mini 
mum: -3.48 m über Normal Null). Das würde 1000 Klassen für eine Vorhersagegenauigkeit 
im Zentimeterbereich bedeuten. Für eine realistische Klassifikation muß die Anzahl der 
Klassen aber deutlich geringer sein, worunter andererseits aber die Vorhersagegenauigkeit 
leidet, d.h. der Vorhersagefehler zunimmt. Einen Ausweg aus diesem Dilemma bieten 
überwachte Lern verfahren, die den maximalen Tidenhub kontinuierlich abdecken. Überwachte 
Lernverfahren brauchen einen Lehrer. Im Fall der Wasserstandsvorhersage ist der Lehrer der 
bereits gemessene Wasserstand oder der Stau. Überwachte Verfahren wie die Backpropaga- 
tion-Netze lernen somit im Hindcast (Kap.2.1). 
Um die Berechnung einer Vorhersage mittels Backpropagation-Netzen zu erklären, wird 
solch ein Netz auf hypothetische Weise z.B. mit Lernvektoren trainiert, die auf einem 
univariaten Zeitmuster basieren. Als Daten könnten auf hypothetische Weise z.B. die 
Stauwerte bei Cuxhaven verwendet werden. Von den Lernvektoren wird jeweils der Indika 
tionszeitraum der Eingabeschicht solch eines Netzes präsentiert (Abb.3.1). Diese Information 
wird "vorwärts gefüttert" (feed forward), bis sie durch die Netzgewichte verändert an der 
Ausgabeschicht ankommt. Die so errechneten Werte in der Ausgabeschicht schlägt das Netz 
als zukünftige Stauwerte vor (zuzüglich einer entsprechenden Nachbearbeitung, siehe 
Kap.4.2.4). Die Vorschläge werden mit den bereits gemessenen Stauwerten des Prognose 
zeitraums der Lernvektoren verglichen. Die Differenz zwischen Messung und Vorhersage, 
quadriert und summiert über alle Ausgabeneuronen ergibt eine Fehler- oder Kostenfunktion, 
die in das Netz zurückgeleitet (backpropagated) wird. Dadurch werden die Netzgewichte 
entsprechend verändert. Die Präsentation der Lernvektoren geschieht so oft, bis die Fehler 
funktion minimal ist, die Gewichte sich nicht mehr verändern und das Netz damit ausgelernt 
hat. Die Präsentation der Lernvektoren, bzw. die Lernphase, kann in Lernepochen eingeteilt 
werden. Während einer Lernepoche wird der gesamte Trainingsdatensatz, d.h. sämtliche 
Lernvektoren angelernt. Während einer Lernphase, die aus mehreren Lernepochen besteht, 
werden die Trainingsdaten somit wiederholt den Eingabeneuronen präsentiert [de Groot 93]. 
In dem hypothetischen Beispiel hat das Backpropagation-Netz Daten in Form eines univa 
riaten, d.h. klassifizierenden oder autoregressiven, Zeitmusters gelernt. Es ist für das Netz 
aber auch genauso gut möglich, Daten in Form eines multivariaten, d.h. multiregressiven oder 
eines Multi-Window Zeitmusters zu lernen. Bei der univariaten Vorhersage mittels Back- 
propagation-Netze werden auch andere Bezeichnungen in der Literatur über neuronale Netze 
verwendet: Einschrittvorhersage (single-step prediction) für die Autoregression und Mehr 
schrittvorhersage (multi-step prediction) für die Klassifikation [Refenes et al. 93], [Weigend 
et al. 90a], Es scheint so, als ob der auf diese Weise gebrauchte Begriff der Klassifikation 
mit der Art und Weise der Verwendung in Kap.3.2 kollidiert. Es läßt sich aber das dort 
angegebene Beispiel, in dem einer Bildmatrix eine Ziffer zugeordnet wird, leicht auf die
	        
Waiting...

Note to user

Dear user,

In response to current developments in the web technology used by the Goobi viewer, the software no longer supports your browser.

Please use one of the following browsers to display this page correctly.

Thank you.