22
2.3. Statistische Modelle
In der Statistik existieren eine ganze Reihe von Verfahren zur Zeitreihenanalyse und Progno
se. Den Verfahren liegt i.a. die Theorie stochastischer Prozesse zugrunde. D.h. Zeitreihen
werden systematisch als Realisierungen dynamischer Vorgänge mit Zufallscharakter ver
standen [Schlittgen et al. 94]. In Abhängigkeit von der Registrierzeit (diskret oder kontinuier
lich) und dem Zustandstyp (ebenfalls diskret oder kontinuierlich) werden vier verschiedene
Typen stochastischer Prozesse unterschieden [Müller 86]. Pegelmessungen sind in ihrer
Originalform (Pegelbögen) in Registrierzeit und Zustandstyp jeweils kontinuierlich und daher
korrekterweise durch Gaußprozesse zu beschreiben. Um die Messungen aber der EDV-
gestützten statistischen Auswertung zugänglich zu machen, werden sie digitalisiert, d.h.
diskretisiert. In dieser neuen Form werden sie durch autoregressive Prozesse beschrieben. Die
meteorologischen Größen Wind, Luftdruck und Temperatur sind ebenfalls vom kontinuierli
chen Zustandstyp, werden an den Wetterstationen aber von vornherein nur zu bestimmten
Zeiten gemessen. Weitere Größen wie z.B. Niederschlag und Sonnenschein werden nicht nur
diskret registriert, sondern sind auch diskret im Zustandstyp. Zu ihrer Beschreibung dienen
Markov-Ketten [Hess et al. 89a], [Fraedrich et al. 83], [Hess et al. 89b] und [Müller 86]. Die
im folgenden beschriebenen statistischen Modelle wurden bis auf eine Ausnahme (Nearest
Neighbor-Verfahren) nicht implementiert und dienen nur für Vergleiche mit neuronalen
Netzen hinsichtlich ihres Vorhersagefehlers (Kap.3).
2.3.1. Lineare autoregressive Prozesse
Autoregressive (AR-)Prozesse sind Folgen von Zufallsvariablen, die verschiedenen zeitlichen
Zuständen eines dynamischen Systems zugeordnet werden können. Die Zufallsvariablen sind
dabei auf lineare Weise von denjenigen Variablen abhängig, die mindestens einem direkt vor
angehenden Zustand des Systems entsprechen. AR-Prozesse können durch Moving Average
(gleitendes Mittel) (MA-)Prozesse erweitert werden, die ebenfalls Folgen von Zufallsvariablen
sind. Da sie aber im Gegensatz zu den Variablen der AR-Prozesse unabhängig sind, wirkt
ihre Linearkombination wie ein gewichtetes gleitendes Mittel. Während "AR" die Rolle des
inneren Gedächtnisses spielt, ist "MA" für die externe Eingabe zuständig [Gershenfeld et al.
93] . Die freien Koeffizienten der aus AR- und MA-Prozessen kombinierten AR(-)MA-
Prozesse können auf rekursive Weise, z.B. mittels Box-Jenkins-Verfahren [Schlittgen et al.
94] an bestimmte Realisierungen, d.h. gemessene Zeitreihen, angepaßt werden. Typisch für
die linearen ARMA-Modelle ist das Superpositionsprinzip, d.h. die Ausgabe des Modells läßt
sich in das Eingabesignal und eine davon unabhängige Transferfunktion zerlegen. Außerdem
ist das Fourierspektrum der Ausgabe nur dann ein breites Band von unstrukturiertem weißen
Rauschen, wenn die Eingabe aus unkorreliertem weißen Rauschen besteht. Im Falle linearer
Systeme gibt es einen direkten Zusammenhang zwischen den ARMA-Koeffizienten und den
Autokorrelationskoeffizienten, wobei sämtliche Kreuzterme der Autokorrelation verschwinden
[Gershenfeld et al. 93]. ARMA-Modelle setzen stationäre Zeitreihen voraus. Für einen
bestimmten Typ von Instationarität von Zeitreihen eignen sich ARIMA-Prozesse (I für
"integriert"). Die Zeitreihe wird durch sukzessive Differenzenbildung in eine stationäre
umgewandelt.
Um das dynamische System bestmöglich zu beschreiben, muß vor der Anpassung eines
ARMA-Prozesses seine Ordnung bestimmt werden, d.h. die Anzahl der Koeffizienten, die
angepaßt werden sollen. Als Maß für die bestmögliche Beschreibung des Systems kann der
Vorhersagefehler eines ARMA-Modells mit gegebener Ordnung im Hindcast berechnet