lassen sich wiederum parallel verschalten [Ramacher 92]. Die mikroelektronische Realisie
rung von neuronalen Netzen unterliegt aber gewissen kommunikativen Einschränkungen.
Abhilfe können optische Elemente schaffen. Die vielversprechendsten Elemente sind Holo
gramme [Abu-Mostafa et al. 91].
3.2. Eigenschaften und Fähigkeiten
Neuronale Netze besitzen eine gewisse Verwandtschaft mit statistischen Vorhersagemodellen
(Kap.2.3). Genauso wie sie können sie Zeitreihen von gemessenen Daten verarbeiten. Die
Verarbeitung geschieht aber nach ganz anderen Prinzipien, die in diesem Abschnitt erläutert
werden sollen. Neuronale Netze eignen sich nicht nur für Vorhersagezwecke. Allgemein
können die Anwendungsmöglichkeiten in Abhängigkeit von vier Fähigkeiten der Netze
betrachtet werden [Grau 91].
An erster Stelle steht die Fähigkeit zur Generalisierung. D.h. die Netze sind fähig, auf
neue Daten hin zu extrapolieren. Die Netze können als ein Assoziativgedächtnis angesehen
werden, das fähig ist, Muster zu vervollständigen [Efltsch et al. 91a], [Kohonen 89]. Der
Zugriff erfolgt über einen Schlüssel - das Eingangsmuster - und nicht über eine Adresse wie
bei herkömmlichem Computerspeicher. Zweitens können die Netze Funktionen approximie
ren, d.h. den realen Verlauf einer Größe nachbilden [Blum et al. 91]. Dafür werden häufig
Splines verwendet, an deren Stelle auch neuronale Netze verwendbar sind. Drittens können
sie klassifizieren. Ein Klassifikator weist ein Eingabemuster einer Klasse zu. Ein typisches
Beispiel ist die Erkennung von Ziffern. Hier stellt eine Bildmatrix das Muster dar, und der
Klassifikator bestimmt, welche Ziffer vorliegt [Brause 91]. Auf die unterschiedliche Ver
wendung des Begriffs "Klassifikation" im Vergleich mit Kap.2.2.2 wird später eingegangen
werden (Kap.3.5.1 und 3.6). Viertens können die Netze die Dimension von Räumen reduzie
ren. Z.B. kann ein höherdimensionaler Eingangsraum auf einen zweidimensionalen Ausgangs
raum abgebildet werden [Ritter et al. 92]. Dies bewirkt eine Verdichtung bzw. Kompression
der Information. Die vier Fähigkeiten sind eng miteinander gekoppelt. Die Anwendung von
Netzen z.B. auf die Vorhersage kann als Problem der Klassifikation oder auch der Musterver
vollständigung angesehen werden. Die meisten neuronalen Netze, die als Klassifikatoren
eingesetzt werden, können durch sechs Attribute bzw. Eigenschaften charakterisiert werden:
parallel, adaptiv, induktiv, verteilt, nichtlinear und noise-robust (widerstandsfähig gegen
Rauschen) [Rodrigues et al. 92].
In Kap.3.1 klang bereits an, daß sich neuronale Netze beim Einsatz von Parallelrechnern
erheblich effizienter nutzen lassen. Die Modellneuronen agieren parallel, d.h. zur gleichen
Zeit, während sie untereinander Informationen austauschen. Daher könnten sie theoretisch
jeweils einem Prozessor zugewiesen werden. In der Praxis müssen aber Kompromisse
geschlossen werden, da meistens mehr Neuronen verwendet werden als Prozessoren zur Ver
fügung stehen [Guimaraes 92].
Neuronale Netze müssen "trainiert" bzw. "angelernt" werden. Das Lernen erfolgt in einer
Reihe von Schritten, die aufeinander aufbauen. Dabei wird von einer Unkenntnis des zu
lernenden Sachverhalts (des Lernstoffs) ausgegangen. Die Unkenntnis wird durch einen
zufällig gewählten Anfangszustand dargestellt. Während des Lernens wird das Netz all
mählich an den Lernstoff herangeführt. Diese Vorgehensweise wird in der Pädagogik mit
induktiv, d.h. hinführend bezeichnet. Sie steht im Gegensatz zur deduktiven, d.h. wegführen
den Wissensvermittlung, in der zuerst der gesamte Lernstoff auf einmal präsentiert und dann
erst erklärt wird. Der Lernstoff besteht aus speziell vorbereiteten Daten, denen eine gewisse
Struktur innewohnt. Während des Lernens passen sich die neuronalen Netze an diese Struktur