Skip to main content

Full text: 15: Wasserstandsvorhersage mittels neuronaler Netze

113 
aller Neuronen n N vor Beginn der Lernphase bekannt sein. 
Aus dem Blickwinkel der Computerressourcen gesehen, stellt die Gesamtzahl aller 
Neuronen ein Maß für den Verbrauch des Hauptspeichers dar und die maximale Anzahl 
Lernepochen ein Maß für die Rechenzeit. Beide Größen können in Analogie zu aero- und 
hydrodynamischen Modellen gesehen werden. Für diese Modelle werden Gitter mit bestimm 
ter Maschenweite über bestimmte geographische Gebiete gelegt. Je kleiner diese Maschen 
weite ist oder je größer dieses Gebiet gewählt wird, desto mehr Speicher wird verbraucht. 
Solche dynamischen Modelle sind im wesentlichen ein Satz von Differentialgleichungen, die 
integriert werden. Je kleiner dabei die Integrationsschrittweite oder je höher dabei die Anzahl 
Integrationsschritte gewählt werden, desto mehr Rechenzeit wird verbraucht. Auf diese Weise 
besteht zwischen den Kohonen-Netzen und den dynamischen Modellen eine gewisse Analo 
gie. Bei den dynamischen Modellen wird oft so argumentiert, daß größere und schnellere 
Rechner bessere Ergebnisse bringen. Es wurde angestrebt, daß das gleiche Argument auch für 
Kohonen-Netze gilt, daß also die Wasserstandsvorhersage mittels neuronaler Netze in 
Abhängigkeit von leistungsfähigeren Computern verbessert werden könne (Kap.4.3). Damit 
wurde die Vorstellung verfolgt, daß. je größer die Gesamtzahl aller Neuronen eines Kohonen- 
Gitters und die entsprechende maximale Anzahl Lernepochen gewählt würden, die Vorhersa 
gefehler der Kohonen-Netze entsprechend sinken würden. Diese Vorstellung ließ sich mit 
Backpropagation-Netzen nicht realisieren. Im Gegenteil, bei diesen Netzen zeigen sich 
größere Architekturen, d.h. größere Anzahlen von Neuronen, eher hinderlich für eine 
Erniedrigung des Vorhersagefehlers (Kap.3.5.3). 
Bei der Diskussion der Backpropagation-Netze wurde bereits auf einen Zusammenhang 
zwischen der Netz-Architektur und der Größe des Trainingsdatensatzes hingewiesen. Um eine 
Überladung ("overload") bzw. einen Informationsverlust zu vermeiden, d.h. um zu vermeiden, 
daß Kohonen-Netze Gelerntes wieder vergessen bzw. verlernen (Kap.3.5.3), wird darum vor 
geschlagen, die Gesamtzahl aller Neuronen n N eines quadratischen Kohonen-Gitters in 
Abhängigkeit von der Anzahl der Lernvektoren n LV zu wählen. Es wurde eine lineare 
Abhängigkeit angesetzt. Auf diese Weise können die Kohonen-Netze allein über die Wahl der 
Größe des Trainingsdatensatzes an beliebige Rechnerressourcen leicht angepaßt werden. 
Diese Art der Anpassung der Kohonen-Netze an die Computer hatte einen großen Einfluß auf 
den Aufbau der vorliegenden Arbeit, wie bereits in Kap.4.2 dargelegt wurde. 
Analog zur erwähnten Abhängigkeit der Netzgröße von den Lerndaten wird auch eine Ab 
hängigkeit der maximalen Anzahl Lernepochen n Lmax von der Anzahl der Lernvektoren n LV 
vorgeschlagen. Durch diesen Vorschlag würde die Dauer des Lernverfahrens mit der 
gewählten Größe der Kohonen-Netze konsistent sein. Denn die Erfahrung lehrte, daß größere 
Kohonen-Netze auch länger lernen müssen. Größere Netze bedeuten größeres n LV . Größeres 
n LV bedeutet "mehr Stoff zum Lernen". Um "diesen Stoff zu bewältigen", müssen die 
Kohonen-Netze nicht nur "aufgrund der größeren Stoffmenge", sondern auch "aufgrund von 
mehr Bezügen innerhalb eines größeren Stoffes", länger lernen. Das bedeutet, daß n Lmax mit 
n LV vergrößert werden muß (siehe [5.1]). 
Bevor die Abhängigkeiten im Detail beschrieben werden, wird zuerst erklärt, wie die 
Trainings-, Validations- und Vorhersagefehler bei Kohonen-Netzen berechnet werden. Wäh 
rend der Lernphase werden Lernvektoren zur Bestimmung der "bestmatch" Neuronen und zur 
anschließenden Adaptation der Gewichte benötigt (siehe [3.7], [3.8]). Für diese beiden Auf 
gaben werden nur die Trainingsdatensätze verwendet. Nach Abschluß einer Lernepoche, d.h. 
wenn alle Vektoren des Trainingsdatensatzes jeweils einmal für diese beiden Aufgaben 
verwandt worden sind, werden die Trainingsvektoren noch ein weiteres Mal zur Bestimmung 
der "bestmatch" Neuronen herangezogen, aber ohne daß in diesem Fall die Gewichte an
	        
Waiting...

Note to user

Dear user,

In response to current developments in the web technology used by the Goobi viewer, the software no longer supports your browser.

Please use one of the following browsers to display this page correctly.

Thank you.