112
Anzahl von Lemepochen n, (Kap.3.5.1) von je n LV Lernschritten aufgeteilt werden, so daß
n max = n Lv n L,max- Der Anzahl der selektierten Lernvektoren (LV) entspricht n LV , wobei die
Anteile, die auf die beiden Selektionsverfahren jeweils entfallen, unterschiedlich sein können
(Kap.4.3). Somit ergeben sich für die beiden Parameter e und o folgende Abnahmegesetze:
£(') = £ a
und
cr(/) = o A
mit i — ... n
^L,max
(5.1)
Als Anfangs- und Endwerte wurden gewählt: e A = 1, £ e = 0.1, g a = n N ' /2 und g e = 1. n N ist
die Gesamtzahl aller Neuronen eines quadratischen Neuronengitters, das auch als Matrix
aufgefaßt werden kann (Kap.3.6.6). Somit ist n N ‘ /2 die Anzahl der Neuronen entlang einer
Reihe oder einer Spalte dieser Matrix. Die vorgestellte Wahl der Anfangs- und Endwerte
erbrachte die besten Ergebnisse. D.h. es ergaben sich die kleinsten Validationsfehler bei
ausgelemten Netzen im Vergleich mit anderen Anfangs- und Endwerten. Außerdem wird vor
geschlagen, e quadratisch exponentiell statt linear exponentiell abnehmen zu lassen, wodurch
die Konvergenz des Lern Verfahrens verbessert wurde (s.u.).
Aufgrund der Erfahrung, daß die Form der Nachbarschaftsfunktion in dem Algorithmus
der Kohonen-Netze keine Rolle spielt [Ultsch, pers. Komm.], können stattdessen andere
Funktionen verwendet werden, die nicht so viel Rechenzeit verbrauchen wie die in Kap.3.6.1
vorgestellte Gaußglocke [3.6]. Als Ersatz wird eine Funktion vorgeschlagen, die die Form
eines rautenförmigen Daches besitzt und auf dem Manhattan-Abstand zweier Punkte beruht.
Der Manhattan-Abstand ist die kürzeste Verbindung zwischen zwei Punkten in einem
regelmäßigen Gitter, d.h. in einem diskreten Raum [Ritter et al. 92]. In einem kontinuierli
chen Raum würde der Manhattan-Abstand der Lj-Norm entsprechen (Kap.4.2). Auch in dieser
dachförmigen Funktion h rr . ist ein Radius G enthalten, der nach [5.1] verkleinert wird:
h„.= 1-——mit Ir-r’l = Ix-Wl + ly-yj (5.2)
o
Die Abnahmegesetze und die Nachbarschaftsfunktion gelten zunächst nur für den Algorith
mus der sensorischen Karten [3.7]. Da aber für die Vorhersagezwecke bei den Lernvektoren
zwischen Indikations- und Prognosemuster unterschieden werden, muß der Algorithmus der
motorischen Karten angewandt werden [3.8]. In diesem Algorithmus wird zwischen einer
Lernschrittweite für das Indikationsmuster und einer für das Prognosemuster unterschieden.
Analoges gilt auch für die Nachbarschaftsfunktion und ihren Radius. Der Einfachheit halber
wurden die Parameter für die beiden Muster jeweils gleich gesetzt, d.h.: s ! = £, h’ rr ' = h rr .
und ct’ = G.
5.1.2. Netzgröße und Lemdauer
Über diese beiden Parameter hinaus, die sich direkt aus dem Algorithmus der Kohonen-Netze
[3.8] ergeben, müssen vor Beginn einer Lernphase noch zwei weitere Parameter festgelegt
werden, die der Algorithmus indirekt voraussetzt. Der erste dieser Parameter ergibt sich aus
den Abnahmegesetzen für die Lemschrittweite und für den Radius der Nachbarschafts
funktion (Kap.5.1.1). Für diese Gesetze wird über die Anzahl der Lernvektoren n LV hinaus
jeweils die maximale Anzahl Lernepochen n Lmax benötigt. Für das Abnahmegesetz des
Nachbarschaftsradius G wird weiterhin die Gesamtanzahl aller Neuronen n N benötigt. In dem
Algorithmus [3.8] werden Ortsvektoren r e A zur Beschreibung des Ortes eines Gewichts
vektors im quadratischen Neuronengitter A verwendet. Dazu muß ebenfalls die Gesamtzahl