113
aller Neuronen n N vor Beginn der Lernphase bekannt sein.
Aus dem Blickwinkel der Computerressourcen gesehen, stellt die Gesamtzahl aller
Neuronen ein Maß für den Verbrauch des Hauptspeichers dar und die maximale Anzahl
Lernepochen ein Maß für die Rechenzeit. Beide Größen können in Analogie zu aero- und
hydrodynamischen Modellen gesehen werden. Für diese Modelle werden Gitter mit bestimm
ter Maschenweite über bestimmte geographische Gebiete gelegt. Je kleiner diese Maschen
weite ist oder je größer dieses Gebiet gewählt wird, desto mehr Speicher wird verbraucht.
Solche dynamischen Modelle sind im wesentlichen ein Satz von Differentialgleichungen, die
integriert werden. Je kleiner dabei die Integrationsschrittweite oder je höher dabei die Anzahl
Integrationsschritte gewählt werden, desto mehr Rechenzeit wird verbraucht. Auf diese Weise
besteht zwischen den Kohonen-Netzen und den dynamischen Modellen eine gewisse Analo
gie. Bei den dynamischen Modellen wird oft so argumentiert, daß größere und schnellere
Rechner bessere Ergebnisse bringen. Es wurde angestrebt, daß das gleiche Argument auch für
Kohonen-Netze gilt, daß also die Wasserstandsvorhersage mittels neuronaler Netze in
Abhängigkeit von leistungsfähigeren Computern verbessert werden könne (Kap.4.3). Damit
wurde die Vorstellung verfolgt, daß. je größer die Gesamtzahl aller Neuronen eines Kohonen-
Gitters und die entsprechende maximale Anzahl Lernepochen gewählt würden, die Vorhersa
gefehler der Kohonen-Netze entsprechend sinken würden. Diese Vorstellung ließ sich mit
Backpropagation-Netzen nicht realisieren. Im Gegenteil, bei diesen Netzen zeigen sich
größere Architekturen, d.h. größere Anzahlen von Neuronen, eher hinderlich für eine
Erniedrigung des Vorhersagefehlers (Kap.3.5.3).
Bei der Diskussion der Backpropagation-Netze wurde bereits auf einen Zusammenhang
zwischen der Netz-Architektur und der Größe des Trainingsdatensatzes hingewiesen. Um eine
Überladung ("overload") bzw. einen Informationsverlust zu vermeiden, d.h. um zu vermeiden,
daß Kohonen-Netze Gelerntes wieder vergessen bzw. verlernen (Kap.3.5.3), wird darum vor
geschlagen, die Gesamtzahl aller Neuronen n N eines quadratischen Kohonen-Gitters in
Abhängigkeit von der Anzahl der Lernvektoren n LV zu wählen. Es wurde eine lineare
Abhängigkeit angesetzt. Auf diese Weise können die Kohonen-Netze allein über die Wahl der
Größe des Trainingsdatensatzes an beliebige Rechnerressourcen leicht angepaßt werden.
Diese Art der Anpassung der Kohonen-Netze an die Computer hatte einen großen Einfluß auf
den Aufbau der vorliegenden Arbeit, wie bereits in Kap.4.2 dargelegt wurde.
Analog zur erwähnten Abhängigkeit der Netzgröße von den Lerndaten wird auch eine Ab
hängigkeit der maximalen Anzahl Lernepochen n Lmax von der Anzahl der Lernvektoren n LV
vorgeschlagen. Durch diesen Vorschlag würde die Dauer des Lernverfahrens mit der
gewählten Größe der Kohonen-Netze konsistent sein. Denn die Erfahrung lehrte, daß größere
Kohonen-Netze auch länger lernen müssen. Größere Netze bedeuten größeres n LV . Größeres
n LV bedeutet "mehr Stoff zum Lernen". Um "diesen Stoff zu bewältigen", müssen die
Kohonen-Netze nicht nur "aufgrund der größeren Stoffmenge", sondern auch "aufgrund von
mehr Bezügen innerhalb eines größeren Stoffes", länger lernen. Das bedeutet, daß n Lmax mit
n LV vergrößert werden muß (siehe [5.1]).
Bevor die Abhängigkeiten im Detail beschrieben werden, wird zuerst erklärt, wie die
Trainings-, Validations- und Vorhersagefehler bei Kohonen-Netzen berechnet werden. Wäh
rend der Lernphase werden Lernvektoren zur Bestimmung der "bestmatch" Neuronen und zur
anschließenden Adaptation der Gewichte benötigt (siehe [3.7], [3.8]). Für diese beiden Auf
gaben werden nur die Trainingsdatensätze verwendet. Nach Abschluß einer Lernepoche, d.h.
wenn alle Vektoren des Trainingsdatensatzes jeweils einmal für diese beiden Aufgaben
verwandt worden sind, werden die Trainingsvektoren noch ein weiteres Mal zur Bestimmung
der "bestmatch" Neuronen herangezogen, aber ohne daß in diesem Fall die Gewichte an