33
zu extrapolieren. Dabei wird unterschieden zwischen der bekannten Zukunft, die eine Ab
schätzung des Vorhersagefehlers der lernfähigen Verfahren ermöglicht (Hindcastmodus) und
der unbekannten Zukunft, die den Operationellen Alltag des Wasserstandsvorhersagedienstes
des BSH darstellt (Forecastmodus).
3.3. Funktionsweise
3.3.1. Kurzeinführung zweier Netztypen
Für die weitere Argumentation ist es an dieser Stelle nötig, zwei verschiedene Typen von
neuronalen Netzen einzuführen. Ihre Architekturen sollen hier kurz vorgestellt werden. Der
erste Netztyp ist ein mehrschichtiges Feedforward-Netzwerk (Multilayer Perzeptron) mit
überwachtem Lernverfahren [Haykin 94]. Er basiert auf mehreren eindimensionalen Schichten
von Neuronen, die von Schicht zu Schicht miteinander verbunden sind (Abb.3.1). Innerhalb
einer Schicht gibt es keine Verbindungen. Die Verbindungen von Schicht zu Schicht sind
gerichtet. D.h. die Information "läuft" über mindestens eine Zwischen- oder versteckte
Schicht (hidden layer) zur Ausgabeschicht (output layer). Dabei wird die Information von
einem Neuron der einen Schicht zu allen Neuronen der nächsten Schicht weitergeleitet. In
den versteckten Schichten und der Ausgabeschicht werden die hereinkommenden Informa
tionen durch spezielle Neuronenmodelle zu einer einzigen hinausgehenden Information
zusammengefaßt. Dazu werden Aktivierungsfunktionen benutzt. Die hereinkommenden
Informationen werden in Abhängigkeit eines Schwellwertes weitergeleitet. Zu den Aktivie
rungsfunktionen gehören die Sigma-Funktion und sigmoide Funktionen wie z.B. der tanh und
die Fermi-Funktion. Die Verbindungen zwischen den Neuronen variieren in ihrer Stärke und
werden als "Gewichte" bezeichnet. Während des Lernvorgangs werden die Gewichte mittels
des Fehler-Backpropagation-Algorithmus’ an die Struktur der Eingangssignale adaptiert.
[Rumelhart et al. 86a], [Rumelhart et al. 86b], Daher wird dieser Netztyp auch kurz Back
propagation-Netz genannt. Mehr Details sind in Kap.3.5 zu finden.
Der zweite Netztyp ist eine selbstorganisierende Merkmalskarte (self-organizing feature
map) mit untiberwachtem Lernverfahren oder kurz Kohonen-Netz nach dem finnischen
Physiker Teuvo Kohonen [Kohonen 89], [Halmans 91]. Im Gegensatz zum ersten Netztyp ist
die Ausgabeschicht von Kohonen-Netzen in der Regel zweidimensional. Diese Form wird
durch die Situation im Kortex motiviert, wo die Neuronen blattweise angeordnet sind [Walter
et al. 90]. Außerdem sind die Verbindungen in Kohonen-Netzen nicht gerichtet. Weiterhin
sind die Ausgabeneuronen bei diesem Netztyp untereinander verbunden, meistens in Form
eines regelmäßigen Gitters (Abb.3.2). Die Eingangssignale bewirken durch die Rückkopplung
der Neuronen untereinander eine räumlich begrenzte und innerhalb des Gitters lokalisierbare
Zone der Reaktion bzw. Erregung der Neuronen. Ziel des Lernalgorithmus’ ist die Umsetzung
der Ähnlichkeit der Eingangssignale in Lagenachbarschaft. Während des Lernvorgangs
werden die Erregungszentren in Abhängigkeit von den Eingangssignalen nacheinander
gesucht und die Gewichte innerhalb einer Nachbarschaftsumgebung um das jeweils aktuelle
Zentrum herum adaptiert. Am Ende der Lernphase hat sich eine Struktur von Klassen bzw.
Clustern herausgebildet, die über das gesamte Gitter verteilt ist. Das Verfahren nach Kohonen
umgeht dabei die Modellierung der Neuronen als Schwellwertneuronen. Mehr Details und die
formale Beschreibung der Kohonen-Netze sind in Kap.3.6 zu finden.
Kohonen-Netze bieten mit ihrer Klassenstruktur, die sich am Ende der Lernphase her
ausgebildet hat, eine günstige Ausgangsbasis für Expertensysteme. Auf diese Struktur können
Verfahren angewandt werden, die sie in Regeln umsetzen (sig*-Verfahren) [Ultsch 91a],