Skip to main content

Full text: 15: Wasserstandsvorhersage mittels neuronaler Netze

lassen sich wiederum parallel verschalten [Ramacher 92]. Die mikroelektronische Realisie 
rung von neuronalen Netzen unterliegt aber gewissen kommunikativen Einschränkungen. 
Abhilfe können optische Elemente schaffen. Die vielversprechendsten Elemente sind Holo 
gramme [Abu-Mostafa et al. 91]. 
3.2. Eigenschaften und Fähigkeiten 
Neuronale Netze besitzen eine gewisse Verwandtschaft mit statistischen Vorhersagemodellen 
(Kap.2.3). Genauso wie sie können sie Zeitreihen von gemessenen Daten verarbeiten. Die 
Verarbeitung geschieht aber nach ganz anderen Prinzipien, die in diesem Abschnitt erläutert 
werden sollen. Neuronale Netze eignen sich nicht nur für Vorhersagezwecke. Allgemein 
können die Anwendungsmöglichkeiten in Abhängigkeit von vier Fähigkeiten der Netze 
betrachtet werden [Grau 91]. 
An erster Stelle steht die Fähigkeit zur Generalisierung. D.h. die Netze sind fähig, auf 
neue Daten hin zu extrapolieren. Die Netze können als ein Assoziativgedächtnis angesehen 
werden, das fähig ist, Muster zu vervollständigen [Efltsch et al. 91a], [Kohonen 89]. Der 
Zugriff erfolgt über einen Schlüssel - das Eingangsmuster - und nicht über eine Adresse wie 
bei herkömmlichem Computerspeicher. Zweitens können die Netze Funktionen approximie 
ren, d.h. den realen Verlauf einer Größe nachbilden [Blum et al. 91]. Dafür werden häufig 
Splines verwendet, an deren Stelle auch neuronale Netze verwendbar sind. Drittens können 
sie klassifizieren. Ein Klassifikator weist ein Eingabemuster einer Klasse zu. Ein typisches 
Beispiel ist die Erkennung von Ziffern. Hier stellt eine Bildmatrix das Muster dar, und der 
Klassifikator bestimmt, welche Ziffer vorliegt [Brause 91]. Auf die unterschiedliche Ver 
wendung des Begriffs "Klassifikation" im Vergleich mit Kap.2.2.2 wird später eingegangen 
werden (Kap.3.5.1 und 3.6). Viertens können die Netze die Dimension von Räumen reduzie 
ren. Z.B. kann ein höherdimensionaler Eingangsraum auf einen zweidimensionalen Ausgangs 
raum abgebildet werden [Ritter et al. 92]. Dies bewirkt eine Verdichtung bzw. Kompression 
der Information. Die vier Fähigkeiten sind eng miteinander gekoppelt. Die Anwendung von 
Netzen z.B. auf die Vorhersage kann als Problem der Klassifikation oder auch der Musterver 
vollständigung angesehen werden. Die meisten neuronalen Netze, die als Klassifikatoren 
eingesetzt werden, können durch sechs Attribute bzw. Eigenschaften charakterisiert werden: 
parallel, adaptiv, induktiv, verteilt, nichtlinear und noise-robust (widerstandsfähig gegen 
Rauschen) [Rodrigues et al. 92]. 
In Kap.3.1 klang bereits an, daß sich neuronale Netze beim Einsatz von Parallelrechnern 
erheblich effizienter nutzen lassen. Die Modellneuronen agieren parallel, d.h. zur gleichen 
Zeit, während sie untereinander Informationen austauschen. Daher könnten sie theoretisch 
jeweils einem Prozessor zugewiesen werden. In der Praxis müssen aber Kompromisse 
geschlossen werden, da meistens mehr Neuronen verwendet werden als Prozessoren zur Ver 
fügung stehen [Guimaraes 92]. 
Neuronale Netze müssen "trainiert" bzw. "angelernt" werden. Das Lernen erfolgt in einer 
Reihe von Schritten, die aufeinander aufbauen. Dabei wird von einer Unkenntnis des zu 
lernenden Sachverhalts (des Lernstoffs) ausgegangen. Die Unkenntnis wird durch einen 
zufällig gewählten Anfangszustand dargestellt. Während des Lernens wird das Netz all 
mählich an den Lernstoff herangeführt. Diese Vorgehensweise wird in der Pädagogik mit 
induktiv, d.h. hinführend bezeichnet. Sie steht im Gegensatz zur deduktiven, d.h. wegführen 
den Wissensvermittlung, in der zuerst der gesamte Lernstoff auf einmal präsentiert und dann 
erst erklärt wird. Der Lernstoff besteht aus speziell vorbereiteten Daten, denen eine gewisse 
Struktur innewohnt. Während des Lernens passen sich die neuronalen Netze an diese Struktur
	        
Waiting...

Note to user

Dear user,

In response to current developments in the web technology used by the Goobi viewer, the software no longer supports your browser.

Please use one of the following browsers to display this page correctly.

Thank you.