Skip to main content

Full text: 15: Wasserstandsvorhersage mittels neuronaler Netze

57 
Ein anderer Ansatz, der die nichtlineare Dynamik der Eingangssignale berücksichtigt, ist, 
die Netzdimension an die fraktale Dimension der Daten anzupassen. Auch in diesem Fall 
kann mit Hilfe des topographischen Produkts eine zumindest verbesserte Erhaltung der 
Topologie nachgewiesen werden. Außerdem wird durch die Anpassung der Netzdimension 
an die fraktale Dimension der Daten das Lernverfahren beschleunigt [Speckmann et al. 94]. 
3.6.6. Visualisierung 
Für Kohonen-Netze mit zweidimensionaler Ausgabeschicht wurde ein Verfahren entwickelt, 
das den Lernvorgang dreidimensional visualisiert. Die Visualisierung geschieht mit Hilfe 
einer "unified distance matrix" (U-Matrix) [Ultsch et al. 90], [Ultsch 91a], Nach jeder 
Lemepoche kann eine U-Matrix der aktuellen sensorischen oder motorischen Karte berechnet 
werden. Auf diese Weise kann verfolgt werden, wie sich die Klassenstruktur während des 
Lernvorgangs herausbildet. Für die Anwendung der Kohonen-Netze auf die Wasserstands 
vorhersage wurden zusätzliche Mechanismen entwickelt, die die Konvergenz des Verfahrens 
fördern und die Anzahl der Modellparameter reduzieren (Kap.5). Zu den Mechanismen gehört 
u.a. ein Kriterium für den Abbruch der Lernphase. Bei der Diskussion der Backpropagation- 
Netze wurde bereits auf einen Lernabbruch eingegangen (Kap.3.5.3). Um zu überprüfen, ob 
der Lernabbruch mit dem Vorgang der Selbstorganisation konform ist, wird der Verlauf der 
Trainings- und Validationsfehler der Kohonen-Netze mit einer entsprechenden U-Matrix- 
Sequenz verglichen. 
Für die Kohonen-Netze wurden zweidimensionale Ausgabeschichten gewählt. Damit 
konnten die U-Matrix angewandt und der Vorgang der Selbstorganisation visualisiert werden. 
Durch die Beschränkung der Kohonen-Netze auf zwei Dimensionen ist es zwar möglich, daß 
die Topologie weniger gut erhalten ist als in dem Fall, wenn die Anzahl der Dimension an 
die fraktale Dimension der Daten angepaßt wäre. Die Beschränkung auf zwei Dimensionen 
hat aber den Vorteil, daß die Frage nach der Konformität des Lernabbruchs mit dem Vorgang 
der Selbstorganisation beantwortet werden kann. 
U-Matrizen bewirken eine dreidimensionale Darstellung eines hochdimensionalen Raumes. 
Die Raumdimension wird durch die Länge der Lernvektoren bestimmt. Eine U-Matrix wird 
auf folgende Weise berechnet. Ein Neuron in einer zweidimensionalen Ausgabeschicht eines 
Kohonen-Netzes wurde bisher durch einen zweidimensionalen Ortsvektor r beschrieben 
(Kap.3.6.1). Da r = (x,y) e N 2 , kann r auch mit x^ (i,j = l,...n) bezeichnet werden, wobei ein 
quadratisches Neuronengitter mit n Neuronen entlang einer Dimension vorausgesetzt wird. 
Auf der Basis von vier benachbarten (quadratisch angeordneten) Neuronen x lj; x j+1 J; x ij+1 und 
x i+i, J+ i werden vier verschiedene Distanzen definiert: 
(1) dx(i,f) = d(x u ,x Mj ) (2) dy(i,j) = d{x^,x^) 
(3) dxy(i,j) = d(x ip x, +1J+1 ) (4) dyx(i, j) = d(x^, x i+iJ ), (3-11) 
wobei dx(i,j), dy(i,j), dxy(i,j) und dyx(i,j) durch die euklidische Vektornorm [3.10] definiert 
werden. Zur topologisch korrekten Darstellung der vier Distanzen, wird von Ultsch vor 
geschlagen, sie in einer Matrix DU e wie folgt einzutragen: 
DU 
.. 2j-l 
2j 
2j+l 
2i-l 
dz(i-l,j-l) 
dy(i-Lj) 
dz(i-l,j) 
2i 
dx(i,j-l) 
du(ij) 
dx(ij) 
2i+l 
dz(ij-l) 
dy(ij) 
dz(ij)
	        
Waiting...

Note to user

Dear user,

In response to current developments in the web technology used by the Goobi viewer, the software no longer supports your browser.

Please use one of the following browsers to display this page correctly.

Thank you.