205
overfitting: Zunahme des Vorhersagefehlers mit zunehmender Ordnung 2.3.1 23
eines Vorhersagemodells (z.B. mit zunehmender Anzahl versteckter
Neuronen bei Backpropagation-Netzen), nachdem bei einer bestimm
ten Ordnung ein Minimum des Vorhersagefehlers erreicht worden
war.
overload: Überladen von neuronalen Netzen. Die Netze können Gelerntes 3.5.3 43
wieder "vergessen".
parallel: Gleichzeitige Informationsverarbeitung. 3.2 31
Parameter: Variablen zur Steuerung der Lern verfahren, z.B. die maxima- 5.1 111
le Anzahl von Lernepochen.
Pegel: Gerät zur Messung des Wasserstands. 2.1.2 4
Persistenz: Das einfachste aller Vorhersageverfahren: Die Beständigkeit, 2.4.1 25
d.h. "in der nächsten Zukunft wird es genau so sein wie heute".
PIP’s und POP’s: Principal Interaction Patterns und Principal Oscillation 2.3.3 24
Patterns. Verfahren zur Reduktion von komplexen Systemen auf Basis
von EOF’s und autoregressiven Prozessen. PIP’s sind die nichtlineare
Erweiterung der linearen POP’s.
Prognosegröße: Die vorherzusagende Größe. Im allgemeinen wird der 2.2.2 18
Stau bei Cuxhaven vorhergesagt. Es können aber auch meteorologi
sche Größen vorhergesagt werden (z.B. Windgeschwindigkeit und
Windrichtung).
Prognosezeitreihe: Zeitreihe einer Prognosegröße. 2.2.2 18
Prognosemuster: Die Gesamtheit aller Prognosezeiträume. In der Regel 2.2.3 21
wird nur ein einziger Prognosezeitraum verwendet. Ausnahme ist das
doppelklassifizierende Zeitmuster.
Prognosezeitraum: Zeitfenster einer Prognosezeitreihe. 2.2.2 19
quasistündlich: Ist durch die 12,42 h -Periode der M 2 -Tide bedingt und 2.1.2 4
entsteht durch Einteilung der Zeit zwischen aufeinanderfolgenden
Hoch- und Niedrigwasserereignissen in jeweils sechs gleiche Ab
schnitte.
Radius der Nachbarschaftsfunktion: Die Nachbarschaftsfunktion wird 5.1.1 111
radialsymmetrisch definiert. Der Radius gibt die Größe der Nachbar
schaftsumgebung und damit die Anzahl der miterregten Neuronen
während eines bestimmten Lernschritts an.