Skip to main content

Full text: 15: Wasserstandsvorhersage mittels neuronaler Netze

121 
können. Aufgrund der nicht vorhersagbaren Variabilität der Lernkurven ist die Anzahl der 
Schnittpunkte nicht von vornherein klar. Die Anzahl müßte aber klar sein, da der Abbruch 
nur beim letzten Schnittpunkt erfolgen soll. Außerdem ist nicht immer dafür garantiert, daß 
der Validationsfehler zu Beginn der Lernphase kleiner als der Trainingsfehler ist. Aus diesen 
Gründen wurde auch dieses Abbruchkriterium verworfen. Somit wurden trotz der Bedenken 
eines zu "unsensiblen" cut-off-Kriteriums keine weiteren Kriterien zu dem kombinierten Ab 
bruchkriterium hinzugenommen. Diese Entscheidung wurde durch noch zwei weitere Gründe 
gestützt. 
Der erste der beiden weiteren Gründe ist durch die Initialisierung der Kohonen-Netze 
inklusive des Minimalvarianz-Selektionsverfahrens bedingt. Es können dies Verfahren und die 
Netze jeweils mit unterschiedlichen Sätzen von Zufallszahlen initialisiert werden. In beiden 
Fällen können jeweils die Vorhersagefehler der Netze berechnet werden. Daraus können 
jeweils Mittelwert und Standardabweichung über die verschiedenen Zufallszahlensätze 
errechnet werden. Über beide Fälle summiert ergeben die jeweils mit dem Mittelwert gewich 
teten Standardabweichungen ungefähr zwei bis drei Prozent. D.h. der Vorhersagefehler der 
Kohonen-Netze hängt nur zu zwei bis drei Prozent von der Initialisierung der Netze und des 
Minimalvarianz-Selektionsverfahrens ab. Diese Zahlen sind eindeutig kleiner als die zehn 
Prozent Abhängigkeit der Backpropagation-Netze von der Initialisierung (Kap.3.5.3). Die 
zwei bis drei Prozent wurden für den Fall in Abb.5.1 berechnet, für den sich damit eine 
entsprechende Standardabweichung von ungefähr ± (0.7 bis 1 cm) ergibt. 
Wenn die Standardabweichung ungefähr ± 0.5 cm betragen würde, brauchte sie nicht mit 
angegeben zu werden, da sie in der Einheit cm der Vorhersagefehler untergehen würde. 
Durch die Subtraktion der Gezeitenvorausberechnungen von den Pegeldaten, d.h. beim 
Übergang von Pegel- zu Staudaten, mit denen die Kohonen-Netze trainiert wurden, wurde der 
Vorhersagefehler bereits dermaßen gesenkt (s.u.), daß diese Voraussetzung einer Standard 
abweichung von höchstens ± 0.5 cm schon ganz gut erfüllt ist. Sie ist um so besser erfüllt, 
je kleiner die Vorhersagefehler sind (Kap.5.5). Es wurde angenommen, daß die zwei bis drei 
Prozent Abhängigkeit von der Initialisierung nicht nur im Fall von Abb.5.1, sondern auch in 
allen anderen Fällen gelten. Aufgrund dieser Annahme wurde für jeden Fall nur eine einzige 
Realisierung gerechnet, d.h. nur ein einziges Kohonen-Netz trainiert, das auf Basis eines 
bestimmten Satzes von Zufallszahlen initialisiert wurde. Somit konnten mehrere Realisierun 
gen auf Basis unterschiedlicher Sätze von Zufallszahlen gespart werden. 
Allerdings variieren bei den Kohonen-Netzen die Zeitpunkte der zeitlich-globalen Minima 
um ungefähr zehn Prozent von der Gesamtlänge der Lernphase (n Lmax ). Der "cut-off'-Zeit- 
punkt im Vergleich dazu schwankt nur um ungefähr ein Prozent. Da die Mehrzahl der 
Abbrüche aber bei den Zeitpunkten der Minima geschieht, variieren die Abbruchpunkte des 
kombinierten Kriteriums entsprechend. Die oben angedeuteten verworfenen Abbruchkriterien, 
die für eine eventuelle Erweiterung des kombinierten Lernabbruchkriteriums überlegt wurden, 
würden eine Variation des Abbruchpunktes von ungefähr derjenigen Größenordnung bewir 
ken, in der die Abbruchpunkte schon allein durch das kombinierte Kriterium variieren. Somit 
würde das "Feintuning" der verworfenen zusätzlichen Abbruchkriterien in dieser Variation der 
Abbruchpunkte untergehen. 
Der zweite der beiden weiteren Gründe, die zusätzlichen Abbruchkriterien nicht zu ver 
wenden, kann aus einer Sequenz von U-Matrizen heraus abgeleitet werden. Mit Hilfe dieser 
Sequenz wird zudem gezeigt, ob das kombinierte Lernabbruchkriterium mit dem Vorgang der 
Selbstorganisation konform ist. Die Sequenz wurde so gewählt, daß sie zu den Lernkurven 
in Abb.5.1 paßt. D.h. es wurden bei dem oben angegebenen Beispiel nach jeder Lernepoche 
nicht nur die Validations- und Trainingsfehler, sondern auch von den Gewichten des aktuel 
len Netzzustands jeweils die U-Matrix berechnet (Kap.3.6.6). Aus den resultierenden 100 U- 
Matrizen wurden 18 U-Matrizen ausgewählt und abgebildet (Abb.5.2), um die verschiedenen
	        
Waiting...

Note to user

Dear user,

In response to current developments in the web technology used by the Goobi viewer, the software no longer supports your browser.

Please use one of the following browsers to display this page correctly.

Thank you.