148
die gewünschte Anzahl Lernvektoren selektiert. Im ersten Fall der stündlichen Werte ist M
einiges größer als im zweiten Fall der Hoch- und Niedrigwasserzeitpunkte (ungefähr Faktor
12 wegen der Periode der dominanten M 2 -Tide). Im zweiten Fall wird durch die Extraktion
der Werte zu Hoch- und Niedrigwasserzeitpunkten aus stündlichen Werten mit Hilfe eines
kubischen Splines (Kap.2.1.2) eine Art von Vorselektion getroffen, bevor die eigentliche
Selektion beginnt (Kap.4.3).
MR-Modelle können mit diesen beiden unterschiedlichen Arten von Trainingsdatensätzen
trainiert werden, wobei aber mit dem gleichen Validationsdatensatz validiert wird. Um diese
beiden Arten von Trainingsdatensätzen miteinander zu vergleichen, wurden nur Wind- und
Staudaten trainiert und die Validationsfehler der entsprechenden Modelle berechnet. Die
Validationsfehler derjenigen Modelle, die mit Werten zu Hoch- und Niedrigwasserzeitpunkten
trainiert wurden, waren im Mittel einen guten Zentimeter kleiner als die von Modellen, die
mit stündlichen Werten trainiert wurden. Dieses Ergebnis weist auf eine Wechselwirkung
zwischen Stau und Gezeiten hin, die schon vom Wasserstandsvorhersagedienst beobachtet
wurde (Kap.2.1.4). Aus diesem Grunde wurden die MR-Modelle nur noch mit Werten zu
Hoch- und Niedrigwasserzeitpunkten trainiert, die mit Hilfe eines kubischen Splines
(Kap.2.1.2) aus den stündlichen Werten extrahiert wurden. Da sowohl die Indikationsräume
als auch der Prognosezeitraum der MR-Modelle aus jeweils nur einem Zeitpunkt bestehen,
können einerseits die Gewichtsvektoren der Kohonen-Netze klein genug gehalten werden und
andererseits der Wind als Indikationsgröße berücksichtigt werden, ohne daß der Vorhersage
fehler der MR-Modelle in dem Maße beeinträchtigt wird wie bei den MR- und RW-Modellen
(Kap.5.3).
Bevor die Ergebnisse der MR-Modelle, die auf die Vorhersage des Staus zu Hoch- und
Niedrigwasserzeitpunkten angewandt wurden, im einzelnen vorgestellt wurden, werden zuerst
ein paar allgemeine Bemerkungen gemacht, die ein paar Ergebnisse in Kap.5.3 betreffen.
Diese Bemerkungen beziehen sich aber nur auf die Vorhersage des Staus zu Hochwasser
zeiten. In Kap.5.3 wurde bemerkt, daß die nichtlineare Transformation der Daten sich beim
KL-Modell nicht auf den Vorhersagefehler auswirkt. Beim MR-Modell dagegen scheint sich
durch diese Transformation eine Senkung des Vorhersagefehlers um durchschnittlich ungefähr
einen halben Zentimeter abzuzeichnen. Durchschnittlich heißt, daß die Vorhersagefehler ver
schiedener MR-Modelle gemittelt wurden. Aufgrund der Standardabweichung der Vorhersa
gefehler, die durch die Initialisierung der Kohonen-Netze bedingt ist, ist dieser halbe Zenti
meter jedoch nicht signifikant. Unter diesen Umständen scheint die nichtlineare Trans
formation überflüssig zu sein. In dem Bemühen, dem Vergleichsmaßstab standzuhalten und,
wenn möglich, alle Verfahren, die mit den Kohonen-Netzen konkurrieren, zu unterbieten,
genügte aber dieser halbe Zentimeter, die Daten weiterhin nichtlinear zu transformieren.
In Abb.5.6 (Kap.5.3) sind Vorhersagefehler der KL-Modelle für den Stau und Validations
fehler von MR-Modellen, die nur mit Wind- und Staudaten trainiert wurden, in Abhängigkeit
von der selektierten Anzahl von Trainings Vektoren dargestellt. Im Gegensatz zu den KL-
Modellen ist bei den MR-Modellen eine Abnahme der Validationsfehler mit höherer Vektor
zahl zu beobachten. Die in Abb.5.6 dargestellen Validationsfehler sollen nur verdeutlichen,
daß bei den MR-Modellen eher eine Senkung der Validations- und auch der Vorhersagefehler
zu erwarten ist als bei den KL-Modellen. Die Beobachtung, daß die in Abb.5.6 dargestellten
Validationsfehler der MR-Modelle nicht monoton bis zu 700 Trainings Vektoren hin ab
nehmen, ist nicht typisch. Die Fehler unterliegen einer entsprechenden Standardabweichung,
die durch die Initialisierung der Kohonen-Netze bedingt ist. Ein weiteres Beispiel für eine
Senkung des Validationsfehlers bei Erhöhung der Anzahl Lernvektoren bietet Tab.5.14. Dort
sind die Ergebnisse eines MR-Modells aufgelistet, das mit Wind- und Staudaten und mit