Skip to main content

Full text: 15: Wasserstandsvorhersage mittels neuronaler Netze

115 
proportional ist. 
Mit diesen Anforderungen wurden verschiedene Experimente mit den Kohonen-Netzen 
durchgeführt, die hier nicht im einzelnen dargelegt werden. Als Ergebnis dieser Experimente 
werden folgende zwei heuristischen Gleichungen vorgeschlagen, mit denen sowohl Netzgröße 
als auch Lerndauer automatisch an die Größe des Trainingsdatensatzes angepaßt und somit 
auf einen Modellparameter reduziert werden können: 
n N =10 n LV (5.3a) 
"L.m„= 10/! 1/2 L V ( 53t >) 
mit « LV , /i N , « Umax GN 
Für die Abhängigkeit der maximalen Anzahl Lernepochen genügte ein Quadratwurzelansatz, 
da die Netze auf die Lerndauer weniger kritisch reagieren als auf die Netzgröße. Da als Basis 
für die Kohonen-Netze quadratische Neuronengitter gew'ählt wurden, muß die Anzahl 
Neuronen n N eine natürliche Quadratzahl sein. Außerdem muß die maximale Anzahl Lernepo 
chen eine natürliche Zahl sein. Daher müssen die Zahlen in [5.3] gerundet werden. Die 
Ergebnisse dieser heuristischen Gleichungen werden im folgenden anhand einiger Beispiele 
demonstriert, die zum Teil später für die Berechnung der Wasserstandsvorhersagen verwandt 
wurden (Tab.5.1). Statt der Neuronengesamtzahl selbst ist ihre Wurzel angegeben. 
2 
5 
10 
20 
50 
100 
200 
300 
400 
500 
600 
700 
5 
8 
10 
15 
23 
32 
45 
55 
64 
71 
78 
84 
20 
30 
40 
50 
80 
100 
150 
180 
200 
230 
250 
270 
Tab.5.1: Ausgewählte Beispiele der heuristischen Abhängigkeiten [5.3]. 
Weiter oben wurde beschrieben, daß bei der Entwicklung der heuristischen Gleichungen [5.3] 
auf die Existenz eines Minimums des Validationsfehlers während der Lernphase (eines 
zeitlich-globalen Minimums) geachtet wurde. Diese Vorgehensweise hatte einen besonderen 
Grund. Im Rahmen der Konvergenzbetrachtungen wurde auf eine mehrdimensionale Fehler 
oberfläche hingewiesen. Diese Oberfläche besitzt lokale Minima, in die der Netzzustand 
während einer Lernphase hineinlaufen kann, dort nicht mehr herauskommt und somit das 
globale Minimum dieser Oberfläche nicht findet. Solch eine Fehleroberfläche kann natürlich 
auch für Kohonen-Netzen definiert werden. Es wurde argumentiert, daß bei Backpropagation- 
Netzen die Architektur, die Trainingsdaten und die Initialisierung verändert werden sollten, 
um diese Netze zu verbessern. Ein Abbruch der Lernphase würde nur die Symptome 
behandeln. Im Zusammenhang mit Backpropagation-Netzen spricht manches für diese 
Argumentation (Kap.3.5.3). Kohonen-Netze dagegen hängen nicht in dem Maße von der In 
itialisierung ab wie die Backpropagation-Netze (siehe oben). Außerdem wirkt die Architektur 
der Kohonen-Netze eher genau anders herum. Im Gegensatz zu Backpropagation-Netzen 
wirkt eine größere Architektur eher förderlich auf Kohonen-Netze (siehe oben). Weiterhin 
wurde durch die Art der Selektion der Trainingsdaten (Kap.4.3) auch in diesem Punkt auf 
eine Verbesserung der Kohonen-Netze geachtet. Somit verbleibt für diese Netze nur noch die 
Anwendung eines Lernabbruchs als letzte z.Zt. bekannte Methode, um in der Fehlerober 
fläche ein globales Minimum zu finden. Um dieses Minimum zu finden - besser im Sinne 
einer Näherung: ein lokales Minimum zu finden, das von seiner Tiefe her möglichst nah an 
das globale Minimum herankommt -, wurde versucht, das zeitliche "overfitting" zu vermeiden
	        
Waiting...

Note to user

Dear user,

In response to current developments in the web technology used by the Goobi viewer, the software no longer supports your browser.

Please use one of the following browsers to display this page correctly.

Thank you.