97
Netze auf die Wasserstandsvorhersage eine weitere Erfahrung heraus. Die Verwendung von
Luftdruckmessungen an Wetterstationen in Nordwest-Europa stellt u.a. einen Versuch dar, die
luftdruckbedingten ozeanischen Fernwellen auf diese Weise mit zu erfassen (Kap.4.1.3). Aus
dieser Betrachtungsweise heraus ergibt sich eine Alternative der Datenreduktion. Die Daten
können nicht nur mit Hilfe der Spektraldarstellung reduziert werden, sondern auch auf
physikalische Weise, indem der Stau von weiteren Nordseepegeln zum Anlernen der Koho-
nen-Netze benutzt wird. Dabei wird angenommen, daß die Fernwellen entlang der Nord
seeküste laufen (coastal trapped waves) (Kap.2.1.7). Diese Art von Datenreduktion ist mit
weit weniger Aufwand verbunden. Um aber den Einfluß von Staudaten mit dem Einfluß von
europäischen Luftdruckdaten auf den Vorhersagefehler der Kohonen-Netze zu vergleichen,
wurden aus der anfangs recht großen Anzahl von Wetterstationen ein paar wenige Stationen
"ausgewählt", die ungefähr ein grobmaschiges Gitter über Nordwest-Europa ergaben
(Kap.4.1.3). Bei der Auswahl wurde aber nicht quantifiziert, ob die wenigen Wetterstationen
für Nordwest-Europa repräsentativ sind.
Die Selektion der Daten bezieht sich auf eine Reduktion der Daten in der Zeit. Die
einfachste und zugleich problematischste Methode, Zeitreihen zum Anlernen von neuronalen
Netzen aufzubereiten, ist die sukzessive Anwendung eines Zeitfensters. D.h. ein Zeitfenster
gleitet in der Weise durch eine Zeitreihe, daß jeweils der erste Zeitpunkt des folgenden
Fensters an den letzten Zeitpunkt des vorigen Fensters anschließt (sliding window). Auf diese
Weise wird zwar die gesamte Information im Zeitbereich berücksichtigt, die Spektralinforma
tion erleidet aber in den ausgeschnittenen Zeitfenstern starke Einbußen. In diesem Zusam
menhang wäre es sinnvoll, die Zeitreihe mit Hilfe der Gabortransformation auf den Zeit- und
Freqenzbereich abzubilden, wobei die Fenster auch im Spektralbereich sukzessiv angewandt
werden. Dabei beschreibt die Heisenberg’sehe Unschärferelation die Grenze, an der ein
Gewinn an Information im Zeitbereich einen Verlust an Information im Spektralbereich nach
sich zieht und umgekehrt. Diese Art von Datenaufbereitung wurde im Zusammenhang mit
Backpropagation-Netzen diskutiert, die nicht nur aus realen, sondern auch aus komplexen
Neuronen bestehen können [Masters 93]. Es gibt sicher Gründe, die für eine solche Daten
aufbereitung bei Backpropagation-Netzen sprechen. Dabei wird vorausgesetzt, daß die Zeitrei
hen nicht sehr lang sind. Es ist nicht gesagt, daß sich diese Art von Datenaufbereitung ohne
weiteres auf Kohonen-Netze übertragen läßt. Doch diese Frage wurde erst gar nicht überprüft,
weil andere Gründe gegen die Verwendung dieser Aufbereitung sprachen. Zum einen ist
durch die zusätzliche Spektraldarstellung mittels Gabortransformation der Vergleich mit dem
Gesamtansatz, der sich nur auf den Zeitbereich bezieht, nicht mehr gewährleistet. Zum andern
sind die Zeitreihen, die für die Anwendung von neuronalen Netzen auf die Wasserstands
vorhersage maßgeblich sind, sehr lang. Um eine Anzahl von ausgeschnittenen Zeitfenstern zu
erhalten, die zwar gleichmäßig über die gesamte Zeitreihe verteilt sind, aber noch in vertret
barem zeitlichen Rahmen von Kohonen-Netzen anlernbar sind, würde der Abstand der
Zeitfenster sehr groß werden (Selektion mittels maximalen Abstands bei vorgegebener Anzahl
Lernvektoren). Sie würden nicht mehr aneinander anschließen und die Information zwischen
ihnen wäre verloren. Um diesen Informationsverlust zu vermeiden, wurde ein anderer Weg
eingeschlagen, der über die geordnete Menge aller Zeitmustervektoren führt.
Solch eine geordnete Menge setzt eine diskrete Zeitreihe voraus. Auf diese Zeitreihe wird
ein gleitendes Zeitfenster angewandt, das nicht auf diese Weise gleitet, daß die Enden der
Zeitfenster aneinander anschließen, sondern daß das Gleiten von Meßzeitpunkt zu Meßzeit
punkt geschieht. Umfaßt das Zeitfenster mehr als einen Zeitpunkt, werden auf diese Weise
Zeitfenster ausgeschnitten, die sich gegenseitig überlappen. Bei einer Zeitfensterlänge m wird
somit eine Datenmenge erzeugt, die ungefähr m mal so groß wie die Länge n der Original-