Skip to main content

Full text: 15: Wasserstandsvorhersage mittels neuronaler Netze

5. Anwendung der Kohonen-Netze 
In diesem Kapitel wird die Anwendung der Kohonen-Netze (Kap.3.6) auf die in Kap.4 be 
schriebenen Daten beschrieben. Zuerst wird auf das Lern verfahren im Detail eingegangen. 
Dabei wird zum Teil von Ansätzen Gebrauch gemacht, die zur Lösung der Probleme der 
Backpropagation-Netze verwendet worden sind (Kap.5.1). Anschließend werden die Zeitmu 
ster spezifiziert. Im wesentlichen werden die Längen der einzelnen Indikations- und Progno 
sezeiträume festgelegt, sofern es das entsprechende Muster erfordert. Bestimmte Zeitmuster 
erfordern Zusatzprognosen, die auch mit Hilfe bestimmter Muster gewonnen werden. Es wird 
der Zusammenhang zwischen den Mustern der Zusatz- und der Hauptprognose beschrieben. 
Dabei wird die unterschiedliche zeitliche Struktur der Vorhersage berücksichtigt (Kap.5.2). 
Darauf folgen die restlichen drei Abschnitte dieses Kapitels, in denen die Vorhersa 
geergebnisse vorgestellt werden, die im Hindcastmodus gewonnen wurden. Die Gliederung 
in diese drei Abschnitte ergibt sich aus der unterschiedlichen zeitlichen Struktur der Vorher 
sage. Diese Struktur ist zum Teil eng an die Zeitmuster gebunden. Im ersten dieser Ab 
schnitte werden die stündlichen Vorhersagen des Staus bei Cuxhaven vorgestellt (Kap.5.3). 
Im zweiten dieser Abschnitte werden die ebenfalls stündlichen Vorhersagen der meteorologi 
schen Größen und der Fernwellen vorgestellt, die als Zusatzprognose für bestimmte Zeitmu 
ster erforderlich sind (Kap.5.4). Im dritten und letzten dieser Abschnitte schließlich werden 
die Vorhersagen des Staus bei Cuxhaven zu Hoch- und Niedrigwasserzeiten vorgestellt. Diese 
Vorhersagen können aus den stündlichen Stauvorhersagen berechnet, aber auch direkt mit 
Hilfe von multiregressiven Zeitmustern gewonnen werden (Kap.5.5). 
5.1. Lern verfahren 
Damit die Kohonen-Netze lernen können, müssen vor dem Start des Lernens bzw. einer 
Lernphase verschiedene Parameter festgelegt werden. Es wird unterschieden zwischen 
Parametern, die sich direkt aus dem Algorithmus der Kohonen-Netze ergeben (Kap.5.1.1), 
und solchen Parametern, die durch den Algorithmus indirekt vorausgesetzt werden 
(Kap.5.1.2). Die Lernphase selbst kann nach dem Start verfolgt und an geeigneter Stelle 
abgebrochen werden (Kap.5.1.3). Das auf diese Weise gewonnene nichtlineare Lernverfahren 
kann mit Hilfe von Daten validiert werden, die einem linearen Prozeß gehorchen (Kap.5.1.4). 
In Kap.5.1.2 wird die Ursache für den Aufbau der vorliegenden Arbeit beschrieben, die sich 
besonders auf die Reihenfolge der Kap.4.2, 4.3 und 5.1 bezieht. In der Einleitung zu Kap.4.2 
wurde bereits dieser Zusammenhang erklärt. Eine starke Motivation für die Entwicklung der 
Selektionsverfahren in Kap.4.3 ist außerdem durch Kap.5.1.3 bedingt. 
5.1.1. Lernparameter 
In dem Algorithmus der Kohonen-Netze existieren die beiden Parameter Lernschrittweite e 
und Reichweite bzw. Radius G der Nachbarschaftsfunktion h rr - [3.6]. Für gute Ergebnisse und 
rasche Konvergenz ist eine geeignete Wahl für ihre Abnahme mit der Anzahl der Lernschritte 
wichtig. Bei zu rascher zeitlicher Abnahme "frieren" die Synapsenstärken ein, noch bevor die 
Karte einen Gleichgewichtszustand erreicht hat. Bei zu langsamer Abnahme dauert der 
Vorgang dagegen unnötig lange (Kap.3.6.1). In Anlehnung an [Ritter et al. 92] wird für beide 
Parameter jeweils ein exponentielles Abnahmegesetz verwendet. Die Parameter e und G 
werden ausgehend von den Anfangswerten e a und g a über eine maximale Anzahl von Lern 
schritten n max bis hin zu den Endwerten e E und g e verkleinert. n max kann in eine maximale
	        
Waiting...

Note to user

Dear user,

In response to current developments in the web technology used by the Goobi viewer, the software no longer supports your browser.

Please use one of the following browsers to display this page correctly.

Thank you.