34
Ausgabeschicht
P
"versteckte" Schicht
Eingabeschicht
1 Indikationszeitraum
P Prognosezeitraum
Abb.3.1: Beispiel für ein zweischichtiges Feedforward-Netz mit Backpropagation-Lernalgorithmus
[Ultsch 91b], [Ultsch et al. 91b], Kohonen-Netze können außerdem als Basis für die Ex
traktion von natürlichsprachlichen Regeln für Expertensysteme verwendet werden, die auf
dem Fuzzy-Konzept basieren [Ultsch et al. 91a], Mit Hilfe dieses Konzepts wird versucht,
unscharfe ("fuzzy") Begriffe der natürlichen Sprache zu quantifizieren und in Regeln ein
zubinden. Nicht nur Kohonen-Netze, sondern neuronale Netze allgemein werden heute mit
der Fuzzy-Theorie verschmolzen [Demant 91], [Keller et al. 92], [Simpson 92].
3.3.2. Erklärungsversuche und Vergleich mit nichtlinearen statistischen Modellen
Im Falle der Backpropagation-Netze wurden verschiedene Versuche unternommen, ihre Funk
tionsweise zu erklären. Klimasauskas versuchte z.B., den Prozeß der Entscheidungsfindung
in einem Backpropagation-Netz mittels Sensitivitäts-Analyse zu erfassen [Klimasauskas 91].
Ein anderer Erklärungsversuch konzentrierte sich auf die Neuronen der versteckten Schichten
[Touretzky et al. 89]. Lapedes et al. extrahierten aus einem ausgelernten Backpropagation-
Netz (mit zwei versteckten Neuronen-Schichten) eine nichtlineare Formel in Abhängigkeit
vom tanh (tangens hyperbolicus) [Lapedes et al. 87]. Den versteckten Neuronen kommt eine
erhebliche Bedeutung zu, da sie für die Nichtlinearität in einem Backpropagation-Netz ver
antwortlich sind. Wenn das Netz keinen nichtlinearen Zusammenhang entdeckt hat, sind die
Verbindungen zwischen versteckten und Ausgabeneuronen nicht signifikant aktiv, d.h. die
Gewichte weichen nicht signifikant von Null ab [Anders 93], [Schlittgen et al. 94].
Backpropagation-Netze können mit nichtlinearen statistischen Modellen qualitativ ver
glichen werden. In Kap.2.3.2 wurden Volterra-Reihen als Beispiel für nichtlineare statistische
Vorhersagemodelle erwähnt. Die Reihen sind Teil der Gabor-Volterra-Weiner Polynom-