57
Ein anderer Ansatz, der die nichtlineare Dynamik der Eingangssignale berücksichtigt, ist,
die Netzdimension an die fraktale Dimension der Daten anzupassen. Auch in diesem Fall
kann mit Hilfe des topographischen Produkts eine zumindest verbesserte Erhaltung der
Topologie nachgewiesen werden. Außerdem wird durch die Anpassung der Netzdimension
an die fraktale Dimension der Daten das Lernverfahren beschleunigt [Speckmann et al. 94].
3.6.6. Visualisierung
Für Kohonen-Netze mit zweidimensionaler Ausgabeschicht wurde ein Verfahren entwickelt,
das den Lernvorgang dreidimensional visualisiert. Die Visualisierung geschieht mit Hilfe
einer "unified distance matrix" (U-Matrix) [Ultsch et al. 90], [Ultsch 91a], Nach jeder
Lemepoche kann eine U-Matrix der aktuellen sensorischen oder motorischen Karte berechnet
werden. Auf diese Weise kann verfolgt werden, wie sich die Klassenstruktur während des
Lernvorgangs herausbildet. Für die Anwendung der Kohonen-Netze auf die Wasserstands
vorhersage wurden zusätzliche Mechanismen entwickelt, die die Konvergenz des Verfahrens
fördern und die Anzahl der Modellparameter reduzieren (Kap.5). Zu den Mechanismen gehört
u.a. ein Kriterium für den Abbruch der Lernphase. Bei der Diskussion der Backpropagation-
Netze wurde bereits auf einen Lernabbruch eingegangen (Kap.3.5.3). Um zu überprüfen, ob
der Lernabbruch mit dem Vorgang der Selbstorganisation konform ist, wird der Verlauf der
Trainings- und Validationsfehler der Kohonen-Netze mit einer entsprechenden U-Matrix-
Sequenz verglichen.
Für die Kohonen-Netze wurden zweidimensionale Ausgabeschichten gewählt. Damit
konnten die U-Matrix angewandt und der Vorgang der Selbstorganisation visualisiert werden.
Durch die Beschränkung der Kohonen-Netze auf zwei Dimensionen ist es zwar möglich, daß
die Topologie weniger gut erhalten ist als in dem Fall, wenn die Anzahl der Dimension an
die fraktale Dimension der Daten angepaßt wäre. Die Beschränkung auf zwei Dimensionen
hat aber den Vorteil, daß die Frage nach der Konformität des Lernabbruchs mit dem Vorgang
der Selbstorganisation beantwortet werden kann.
U-Matrizen bewirken eine dreidimensionale Darstellung eines hochdimensionalen Raumes.
Die Raumdimension wird durch die Länge der Lernvektoren bestimmt. Eine U-Matrix wird
auf folgende Weise berechnet. Ein Neuron in einer zweidimensionalen Ausgabeschicht eines
Kohonen-Netzes wurde bisher durch einen zweidimensionalen Ortsvektor r beschrieben
(Kap.3.6.1). Da r = (x,y) e N 2 , kann r auch mit x^ (i,j = l,...n) bezeichnet werden, wobei ein
quadratisches Neuronengitter mit n Neuronen entlang einer Dimension vorausgesetzt wird.
Auf der Basis von vier benachbarten (quadratisch angeordneten) Neuronen x lj; x j+1 J; x ij+1 und
x i+i, J+ i werden vier verschiedene Distanzen definiert:
(1) dx(i,f) = d(x u ,x Mj ) (2) dy(i,j) = d{x^,x^)
(3) dxy(i,j) = d(x ip x, +1J+1 ) (4) dyx(i, j) = d(x^, x i+iJ ), (3-11)
wobei dx(i,j), dy(i,j), dxy(i,j) und dyx(i,j) durch die euklidische Vektornorm [3.10] definiert
werden. Zur topologisch korrekten Darstellung der vier Distanzen, wird von Ultsch vor
geschlagen, sie in einer Matrix DU e wie folgt einzutragen:
DU
.. 2j-l
2j
2j+l
2i-l
dz(i-l,j-l)
dy(i-Lj)
dz(i-l,j)
2i
dx(i,j-l)
du(ij)
dx(ij)
2i+l
dz(ij-l)
dy(ij)
dz(ij)