Skip to main content

Full text: 15: Wasserstandsvorhersage mittels neuronaler Netze

33 
zu extrapolieren. Dabei wird unterschieden zwischen der bekannten Zukunft, die eine Ab 
schätzung des Vorhersagefehlers der lernfähigen Verfahren ermöglicht (Hindcastmodus) und 
der unbekannten Zukunft, die den Operationellen Alltag des Wasserstandsvorhersagedienstes 
des BSH darstellt (Forecastmodus). 
3.3. Funktionsweise 
3.3.1. Kurzeinführung zweier Netztypen 
Für die weitere Argumentation ist es an dieser Stelle nötig, zwei verschiedene Typen von 
neuronalen Netzen einzuführen. Ihre Architekturen sollen hier kurz vorgestellt werden. Der 
erste Netztyp ist ein mehrschichtiges Feedforward-Netzwerk (Multilayer Perzeptron) mit 
überwachtem Lernverfahren [Haykin 94]. Er basiert auf mehreren eindimensionalen Schichten 
von Neuronen, die von Schicht zu Schicht miteinander verbunden sind (Abb.3.1). Innerhalb 
einer Schicht gibt es keine Verbindungen. Die Verbindungen von Schicht zu Schicht sind 
gerichtet. D.h. die Information "läuft" über mindestens eine Zwischen- oder versteckte 
Schicht (hidden layer) zur Ausgabeschicht (output layer). Dabei wird die Information von 
einem Neuron der einen Schicht zu allen Neuronen der nächsten Schicht weitergeleitet. In 
den versteckten Schichten und der Ausgabeschicht werden die hereinkommenden Informa 
tionen durch spezielle Neuronenmodelle zu einer einzigen hinausgehenden Information 
zusammengefaßt. Dazu werden Aktivierungsfunktionen benutzt. Die hereinkommenden 
Informationen werden in Abhängigkeit eines Schwellwertes weitergeleitet. Zu den Aktivie 
rungsfunktionen gehören die Sigma-Funktion und sigmoide Funktionen wie z.B. der tanh und 
die Fermi-Funktion. Die Verbindungen zwischen den Neuronen variieren in ihrer Stärke und 
werden als "Gewichte" bezeichnet. Während des Lernvorgangs werden die Gewichte mittels 
des Fehler-Backpropagation-Algorithmus’ an die Struktur der Eingangssignale adaptiert. 
[Rumelhart et al. 86a], [Rumelhart et al. 86b], Daher wird dieser Netztyp auch kurz Back 
propagation-Netz genannt. Mehr Details sind in Kap.3.5 zu finden. 
Der zweite Netztyp ist eine selbstorganisierende Merkmalskarte (self-organizing feature 
map) mit untiberwachtem Lernverfahren oder kurz Kohonen-Netz nach dem finnischen 
Physiker Teuvo Kohonen [Kohonen 89], [Halmans 91]. Im Gegensatz zum ersten Netztyp ist 
die Ausgabeschicht von Kohonen-Netzen in der Regel zweidimensional. Diese Form wird 
durch die Situation im Kortex motiviert, wo die Neuronen blattweise angeordnet sind [Walter 
et al. 90]. Außerdem sind die Verbindungen in Kohonen-Netzen nicht gerichtet. Weiterhin 
sind die Ausgabeneuronen bei diesem Netztyp untereinander verbunden, meistens in Form 
eines regelmäßigen Gitters (Abb.3.2). Die Eingangssignale bewirken durch die Rückkopplung 
der Neuronen untereinander eine räumlich begrenzte und innerhalb des Gitters lokalisierbare 
Zone der Reaktion bzw. Erregung der Neuronen. Ziel des Lernalgorithmus’ ist die Umsetzung 
der Ähnlichkeit der Eingangssignale in Lagenachbarschaft. Während des Lernvorgangs 
werden die Erregungszentren in Abhängigkeit von den Eingangssignalen nacheinander 
gesucht und die Gewichte innerhalb einer Nachbarschaftsumgebung um das jeweils aktuelle 
Zentrum herum adaptiert. Am Ende der Lernphase hat sich eine Struktur von Klassen bzw. 
Clustern herausgebildet, die über das gesamte Gitter verteilt ist. Das Verfahren nach Kohonen 
umgeht dabei die Modellierung der Neuronen als Schwellwertneuronen. Mehr Details und die 
formale Beschreibung der Kohonen-Netze sind in Kap.3.6 zu finden. 
Kohonen-Netze bieten mit ihrer Klassenstruktur, die sich am Ende der Lernphase her 
ausgebildet hat, eine günstige Ausgangsbasis für Expertensysteme. Auf diese Struktur können 
Verfahren angewandt werden, die sie in Regeln umsetzen (sig*-Verfahren) [Ultsch 91a],
	        
Waiting...

Note to user

Dear user,

In response to current developments in the web technology used by the Goobi viewer, the software no longer supports your browser.

Please use one of the following browsers to display this page correctly.

Thank you.