115
proportional ist.
Mit diesen Anforderungen wurden verschiedene Experimente mit den Kohonen-Netzen
durchgeführt, die hier nicht im einzelnen dargelegt werden. Als Ergebnis dieser Experimente
werden folgende zwei heuristischen Gleichungen vorgeschlagen, mit denen sowohl Netzgröße
als auch Lerndauer automatisch an die Größe des Trainingsdatensatzes angepaßt und somit
auf einen Modellparameter reduziert werden können:
n N =10 n LV (5.3a)
"L.m„= 10/! 1/2 L V ( 53t >)
mit « LV , /i N , « Umax GN
Für die Abhängigkeit der maximalen Anzahl Lernepochen genügte ein Quadratwurzelansatz,
da die Netze auf die Lerndauer weniger kritisch reagieren als auf die Netzgröße. Da als Basis
für die Kohonen-Netze quadratische Neuronengitter gew'ählt wurden, muß die Anzahl
Neuronen n N eine natürliche Quadratzahl sein. Außerdem muß die maximale Anzahl Lernepo
chen eine natürliche Zahl sein. Daher müssen die Zahlen in [5.3] gerundet werden. Die
Ergebnisse dieser heuristischen Gleichungen werden im folgenden anhand einiger Beispiele
demonstriert, die zum Teil später für die Berechnung der Wasserstandsvorhersagen verwandt
wurden (Tab.5.1). Statt der Neuronengesamtzahl selbst ist ihre Wurzel angegeben.
2
5
10
20
50
100
200
300
400
500
600
700
5
8
10
15
23
32
45
55
64
71
78
84
20
30
40
50
80
100
150
180
200
230
250
270
Tab.5.1: Ausgewählte Beispiele der heuristischen Abhängigkeiten [5.3].
Weiter oben wurde beschrieben, daß bei der Entwicklung der heuristischen Gleichungen [5.3]
auf die Existenz eines Minimums des Validationsfehlers während der Lernphase (eines
zeitlich-globalen Minimums) geachtet wurde. Diese Vorgehensweise hatte einen besonderen
Grund. Im Rahmen der Konvergenzbetrachtungen wurde auf eine mehrdimensionale Fehler
oberfläche hingewiesen. Diese Oberfläche besitzt lokale Minima, in die der Netzzustand
während einer Lernphase hineinlaufen kann, dort nicht mehr herauskommt und somit das
globale Minimum dieser Oberfläche nicht findet. Solch eine Fehleroberfläche kann natürlich
auch für Kohonen-Netzen definiert werden. Es wurde argumentiert, daß bei Backpropagation-
Netzen die Architektur, die Trainingsdaten und die Initialisierung verändert werden sollten,
um diese Netze zu verbessern. Ein Abbruch der Lernphase würde nur die Symptome
behandeln. Im Zusammenhang mit Backpropagation-Netzen spricht manches für diese
Argumentation (Kap.3.5.3). Kohonen-Netze dagegen hängen nicht in dem Maße von der In
itialisierung ab wie die Backpropagation-Netze (siehe oben). Außerdem wirkt die Architektur
der Kohonen-Netze eher genau anders herum. Im Gegensatz zu Backpropagation-Netzen
wirkt eine größere Architektur eher förderlich auf Kohonen-Netze (siehe oben). Weiterhin
wurde durch die Art der Selektion der Trainingsdaten (Kap.4.3) auch in diesem Punkt auf
eine Verbesserung der Kohonen-Netze geachtet. Somit verbleibt für diese Netze nur noch die
Anwendung eines Lernabbruchs als letzte z.Zt. bekannte Methode, um in der Fehlerober
fläche ein globales Minimum zu finden. Um dieses Minimum zu finden - besser im Sinne
einer Näherung: ein lokales Minimum zu finden, das von seiner Tiefe her möglichst nah an
das globale Minimum herankommt -, wurde versucht, das zeitliche "overfitting" zu vermeiden