87
so transformiert, daß Datensätze entstehen, die unterschiedlich schief verteilt sind. Dabei wird
die ladder of power systematisch durchlaufen. Die simulierten Daten können inklusiv der ver
wendeten Exponenten von Kohonen-Netzen angelernt werden. Anschließend können gemesse
ne Daten hinsichtlich der Exponenten klassifiziert werden, die sie für eine Reduktion der
Schiefe ihrer Verteilung benötigen [Halmans 91]. Es galt die Vorstellung, die Kohonen-Netze
nur auf die Wasserstandsvorhersage hin anzuwenden. Es erschien etwas befremdlich, Koho
nen-Netze für die Vorbereitung von Daten zum Anlernen von Kohonen-Netzen zu ver
wenden. Das Thema der Datenvorbereitung wäre dann wieder aufgetaucht. Halmans benutzte
zwar nur eine z-Transformation (Kap.4.2.4), aber weitere Bedenken galten der Fähigkeit
dieser Methode, die Verteilungen der ozeanographisch/meteorologischen Natur einwandfrei
auf den optimalen Exponenten hin klassifizieren zu können. Aufgrund dieser Gründe wurde
ein herkömmliches statistisches Verfahren bevorzugt. Es wurde folgender zweiter Weg für die
Suche nach dem optimalen Exponenten eingeschlagen.
Es wurde ein iteratives Verfahren erstellt, das den Exponenten in Abhängigkeit von der
gewünschten Genauigkeit bestimmt. Dazu wurde die ladder of power so erweitert, daß die
Exponenten mehrere Dezimalstellen zulassen. Um ein Maß für die Schiefe, d.h. für die
Abweichung von der Symmetrie zu bekommen, wurden die nach ihrem Rang geordneten
gemessenen Zeitreihen, d.h. die gemessenen a-Quantile, mit den oc-Quantilen der Normalver
teilung verglichen. Mit Hilfe der Approximation nach Hastings wurden soviele a-Quantile
einer Normal Verteilung erzeugt, wie der gemessenen a-Quantile entsprechen [Hartung et al.
92]. Von jedem gemessenen Quantil wurde das entsprechende Quantil der Normalverteilung
subtrahiert, die Differenz quadriert und die Quadrate aufsummiert. Die Summe wurde als
Schiefemaß verwendet. Sie wurde durch ein Verfahren der explorativen Datenanalyse, durch
den Q/Q-Plot (Quantil/Quantil-Plot), angeregt [Hartung et al. 86].
In dem iterativen Verfahren wurden in einer ersten Iteration alle ganzzahligen Exponenten
einer ladder of power von 5 bis -5 durchlaufen. Für jeden Exponenten wurde das beschriebe
ne Schiefemaß berechnet. Um einen Vergleich der Schiefemaße zu ermöglichen, wurden die
Quantile nach jeder Potenzierung auf einen vergleichbaren Wertebereich abgebildet (drittes
Teilziel der Vorverarbeitung) [Ultsch 91a], Der Exponent p, der dem kleinsten Schiefemaß
entsprach, wurde als Startwert für die nächste Iteration verwendet. In der zweiten Iteration
wurde die erste Dezimalstelle des optimalen Exponenten bestimmt. Dazu wurde eine ladder
of power von p+1 bis p-1 in 0.1-Schritten durchlaufen. Es wurde wiederum für jeden
Exponenten das Schiefemaß berechnet und nach dem kleinsten Maß gesucht. Der Exponent
p, der wiederum dem kleinsten Schiefemaß entsprach, hätte theoretisch die Ausgangsbasis für
eine dritte Iteration sein können. Doch auf eine dritte Iteration wurde verzichtet. Somit wurde
der Exponent der nichtlinearen Transformation auf eine Dezimalstelle genau bestimmt. Diese
Genauigkeit, die den Grad der Schiefereduktion bestimmt, wurde als ausreichend angesehen.
Der Exponent wird aufgrund der Suche nach dem kleinsten Schiefemaß im folgenden auch
minimaler Exponent genannt.
In allen betrachteten Zeitreihen wurde in dem vorgegebenen Bereich der ladder of power
(5 bis -5) ein Minimum des Schiefemaßes gefunden. Als ein erster Grund dafür waren die
Verteilungen nicht extrem schief, was u.a. mit der großen Länge der Zeitreihen (neun Jahre
stündlicher Werte) zusammenhängt. Als ein zweiter Grund muß aber eine bestimmte Vor
behandlung der Daten angeführt werden. Ohne diese Behandlung konnte z.B. beim Luftdruck
in dem angegebenen Bereich kein Minimum des Schiefemaßes gefunden werden. Die Varianz
des Luftdrucks ist gegenüber seinem Mittelwert (in hPa) um Größenordnungen kleiner. Um
auch bei solchen Zeitreihen für die Existenz eines Minimums des Schiefemaßes in dem vor
gegebenen Bereich der ladder of power zu sorgen, wurde folgende Transformation der Daten