5. Anwendung der Kohonen-Netze
In diesem Kapitel wird die Anwendung der Kohonen-Netze (Kap.3.6) auf die in Kap.4 be
schriebenen Daten beschrieben. Zuerst wird auf das Lern verfahren im Detail eingegangen.
Dabei wird zum Teil von Ansätzen Gebrauch gemacht, die zur Lösung der Probleme der
Backpropagation-Netze verwendet worden sind (Kap.5.1). Anschließend werden die Zeitmu
ster spezifiziert. Im wesentlichen werden die Längen der einzelnen Indikations- und Progno
sezeiträume festgelegt, sofern es das entsprechende Muster erfordert. Bestimmte Zeitmuster
erfordern Zusatzprognosen, die auch mit Hilfe bestimmter Muster gewonnen werden. Es wird
der Zusammenhang zwischen den Mustern der Zusatz- und der Hauptprognose beschrieben.
Dabei wird die unterschiedliche zeitliche Struktur der Vorhersage berücksichtigt (Kap.5.2).
Darauf folgen die restlichen drei Abschnitte dieses Kapitels, in denen die Vorhersa
geergebnisse vorgestellt werden, die im Hindcastmodus gewonnen wurden. Die Gliederung
in diese drei Abschnitte ergibt sich aus der unterschiedlichen zeitlichen Struktur der Vorher
sage. Diese Struktur ist zum Teil eng an die Zeitmuster gebunden. Im ersten dieser Ab
schnitte werden die stündlichen Vorhersagen des Staus bei Cuxhaven vorgestellt (Kap.5.3).
Im zweiten dieser Abschnitte werden die ebenfalls stündlichen Vorhersagen der meteorologi
schen Größen und der Fernwellen vorgestellt, die als Zusatzprognose für bestimmte Zeitmu
ster erforderlich sind (Kap.5.4). Im dritten und letzten dieser Abschnitte schließlich werden
die Vorhersagen des Staus bei Cuxhaven zu Hoch- und Niedrigwasserzeiten vorgestellt. Diese
Vorhersagen können aus den stündlichen Stauvorhersagen berechnet, aber auch direkt mit
Hilfe von multiregressiven Zeitmustern gewonnen werden (Kap.5.5).
5.1. Lern verfahren
Damit die Kohonen-Netze lernen können, müssen vor dem Start des Lernens bzw. einer
Lernphase verschiedene Parameter festgelegt werden. Es wird unterschieden zwischen
Parametern, die sich direkt aus dem Algorithmus der Kohonen-Netze ergeben (Kap.5.1.1),
und solchen Parametern, die durch den Algorithmus indirekt vorausgesetzt werden
(Kap.5.1.2). Die Lernphase selbst kann nach dem Start verfolgt und an geeigneter Stelle
abgebrochen werden (Kap.5.1.3). Das auf diese Weise gewonnene nichtlineare Lernverfahren
kann mit Hilfe von Daten validiert werden, die einem linearen Prozeß gehorchen (Kap.5.1.4).
In Kap.5.1.2 wird die Ursache für den Aufbau der vorliegenden Arbeit beschrieben, die sich
besonders auf die Reihenfolge der Kap.4.2, 4.3 und 5.1 bezieht. In der Einleitung zu Kap.4.2
wurde bereits dieser Zusammenhang erklärt. Eine starke Motivation für die Entwicklung der
Selektionsverfahren in Kap.4.3 ist außerdem durch Kap.5.1.3 bedingt.
5.1.1. Lernparameter
In dem Algorithmus der Kohonen-Netze existieren die beiden Parameter Lernschrittweite e
und Reichweite bzw. Radius G der Nachbarschaftsfunktion h rr - [3.6]. Für gute Ergebnisse und
rasche Konvergenz ist eine geeignete Wahl für ihre Abnahme mit der Anzahl der Lernschritte
wichtig. Bei zu rascher zeitlicher Abnahme "frieren" die Synapsenstärken ein, noch bevor die
Karte einen Gleichgewichtszustand erreicht hat. Bei zu langsamer Abnahme dauert der
Vorgang dagegen unnötig lange (Kap.3.6.1). In Anlehnung an [Ritter et al. 92] wird für beide
Parameter jeweils ein exponentielles Abnahmegesetz verwendet. Die Parameter e und G
werden ausgehend von den Anfangswerten e a und g a über eine maximale Anzahl von Lern
schritten n max bis hin zu den Endwerten e E und g e verkleinert. n max kann in eine maximale