Skip to main content

Full text: 15: Wasserstandsvorhersage mittels neuronaler Netze

37 
zengleichungen diskretisiert werden. Das hat zur Folge, daß z.B. der gesamte Weltozean und 
die gesamte Erdatmosphäre in eine Reihe von Quadern oder auch Rhomben zerlegt und 
einem Gitterpunkt zugeordnet werden. D.h. jeder Gitterpunkt repräsentiert ein bestimmtes 
geographisch abgegrenztes Stückchen des Systems Ozean/Atmosphäre. In einem Kohonen- 
Netz sind die Neuronen ebenfalls in einem Gitter angeordnet. Allerdings ist es in diesem Fall 
nicht mehr so, daß ein Neuron für ein bestimmtes Stückchen des Ozean/Atmosphäresystems 
zuständig ist, sondern daß an jedem Neuron theoretisch das gesamte Ozean/Atmosphäresy 
stem repräsentiert wird, nur von Neuron zu Neuron in jeweils anderen Systemzuständen. 
So gesehen kann das Kohonen-Netz als eine Tabelle von verschiedenen Ozeanzuständen 
aufgefaßt werden. In der vorliegenden Arbeit werden diese Ozeanzustände auf sehr einfache 
Weise mittels eines feststehenden Zeitmusters dargestellt. Im Unterschied zu "normalen" 
Tabellen ist die Zuordnung zwischen Tabelleneinträgen und Eingangswerten nicht von Beginn 
an starr festgelegt, sondern sie wird durch eine adaptive Verteilung der Einträge über den 
Raum der Muster möglichst optimal organisiert (Kap.3.6.2) [Ritter et al. 92]. In bezug auf die 
erwähnten Zeitmuster entsprächen dann die Tabelleneinträge den Prognosemustern und die 
Eingangswerte den Indikationsmustern. Aus dieser Tabelle kann das Indikationsmuster, das 
der aktuellen Situation am ähnlichsten ist, herausgesucht und das entsprechende Prognosemu 
ster als Vorhersage interpretiert werden. Wie das im einzelnen durchgeführt wird, ist in 
Kap.3.6 eingehend beschrieben. 
Als "normale" Tabelle kann das K-Nearest-Neighbor Verfahren angesehen werden, bei 
dem die Zuordnung zwischen Tabelleneinträgen und Eingangswerten von Anfang an starr 
festgelegt ist. Aufgrund dieser Tabellenstruktur eignet sich das Verfahren als Vergleich dafür, 
wie gut die Kohonen-Netze die Einträge über den Musterraum adaptiv verteilen oder anders 
formuliert, wie gut diese Art von Interpolation ist, die die Kohonen-Netze bei den Prognose 
mustern durchführen [Ultsch, pers. Komm.]. 
Neuronale Netze werden durch einen im Vergleich zu den hydrodynamischen Gleichungen 
recht einfachen Algorithmus beschrieben. Allerdings muß der Datenvorbereitung ein breiterer 
Raum gewidmet werden (Kap.4). Die Datenvorbereitung oder auch "Codierung" der Daten 
entscheidet über Erfolg und Mißerfolg der neuronalen Netze [Ultsch, pers. Komm.]. Zur 
Datenvorbereitung gehört u.a. die Datenvorverarbeitung (Kap.4.2.4). Das Know-How zur 
Datenvorverarbeitung wurde von Ultsch und seiner Arbeitsgruppe zur Verfügung gestellt und 
an die Zwecke der vorliegenden Arbeit angepaßt. Analog zur Vorverarbeitung als Teil der 
Datenvorbereitung ist auch eine Nachbearbeitung notwendig, in der die einzelnen Schritte der 
Vorverarbeitung umgekehrt werden (Kap.4.2.4). 
3.4. Anwendungen 
Um einen Überblick über Anwendungen von neuronalen Netzen zu erhalten, sei auf das Buch 
von Berns und Kolb hingewiesen. Dieses Buch richtet sich in erster Linie an Informatiker 
und Ingenieure, die für industrielle und kommerzielle Problemstellungen geeignete Lösungs 
verfahren suchen und möglichst schnell abschätzen wollen, inwieweit neuronale Netze zur 
Lösung geeignet erscheinen. Neben dem Anwender aus der Industrie kann dieses Buch auch 
dem praxisorientierten Forscher empfohlen werden [Berns und Kolb 94]. In dem Buch ist 
bereits zu erkennen, daß die Mehrheit der Anwendungen mit Hilfe von Backpropagation- 
Netzen realisiert wird. Das ist auch der Grund, warum sie in Kap.3.3 erwähnt werden. Über 
dieses Buch hinaus wird im folgenden eine Reihe von Quellen zitiert, die über weitere 
Anwendungen von neuronalen Netzen berichten.
	        
Waiting...

Note to user

Dear user,

In response to current developments in the web technology used by the Goobi viewer, the software no longer supports your browser.

Please use one of the following browsers to display this page correctly.

Thank you.