Skip to main content

Full text: 15: Wasserstandsvorhersage mittels neuronaler Netze

112 
Anzahl von Lemepochen n, (Kap.3.5.1) von je n LV Lernschritten aufgeteilt werden, so daß 
n max = n Lv n L,max- Der Anzahl der selektierten Lernvektoren (LV) entspricht n LV , wobei die 
Anteile, die auf die beiden Selektionsverfahren jeweils entfallen, unterschiedlich sein können 
(Kap.4.3). Somit ergeben sich für die beiden Parameter e und o folgende Abnahmegesetze: 
£(') = £ a 
und 
cr(/) = o A 
mit i — ... n 
^L,max 
(5.1) 
Als Anfangs- und Endwerte wurden gewählt: e A = 1, £ e = 0.1, g a = n N ' /2 und g e = 1. n N ist 
die Gesamtzahl aller Neuronen eines quadratischen Neuronengitters, das auch als Matrix 
aufgefaßt werden kann (Kap.3.6.6). Somit ist n N ‘ /2 die Anzahl der Neuronen entlang einer 
Reihe oder einer Spalte dieser Matrix. Die vorgestellte Wahl der Anfangs- und Endwerte 
erbrachte die besten Ergebnisse. D.h. es ergaben sich die kleinsten Validationsfehler bei 
ausgelemten Netzen im Vergleich mit anderen Anfangs- und Endwerten. Außerdem wird vor 
geschlagen, e quadratisch exponentiell statt linear exponentiell abnehmen zu lassen, wodurch 
die Konvergenz des Lern Verfahrens verbessert wurde (s.u.). 
Aufgrund der Erfahrung, daß die Form der Nachbarschaftsfunktion in dem Algorithmus 
der Kohonen-Netze keine Rolle spielt [Ultsch, pers. Komm.], können stattdessen andere 
Funktionen verwendet werden, die nicht so viel Rechenzeit verbrauchen wie die in Kap.3.6.1 
vorgestellte Gaußglocke [3.6]. Als Ersatz wird eine Funktion vorgeschlagen, die die Form 
eines rautenförmigen Daches besitzt und auf dem Manhattan-Abstand zweier Punkte beruht. 
Der Manhattan-Abstand ist die kürzeste Verbindung zwischen zwei Punkten in einem 
regelmäßigen Gitter, d.h. in einem diskreten Raum [Ritter et al. 92]. In einem kontinuierli 
chen Raum würde der Manhattan-Abstand der Lj-Norm entsprechen (Kap.4.2). Auch in dieser 
dachförmigen Funktion h rr . ist ein Radius G enthalten, der nach [5.1] verkleinert wird: 
h„.= 1-——mit Ir-r’l = Ix-Wl + ly-yj (5.2) 
o 
Die Abnahmegesetze und die Nachbarschaftsfunktion gelten zunächst nur für den Algorith 
mus der sensorischen Karten [3.7]. Da aber für die Vorhersagezwecke bei den Lernvektoren 
zwischen Indikations- und Prognosemuster unterschieden werden, muß der Algorithmus der 
motorischen Karten angewandt werden [3.8]. In diesem Algorithmus wird zwischen einer 
Lernschrittweite für das Indikationsmuster und einer für das Prognosemuster unterschieden. 
Analoges gilt auch für die Nachbarschaftsfunktion und ihren Radius. Der Einfachheit halber 
wurden die Parameter für die beiden Muster jeweils gleich gesetzt, d.h.: s ! = £, h’ rr ' = h rr . 
und ct’ = G. 
5.1.2. Netzgröße und Lemdauer 
Über diese beiden Parameter hinaus, die sich direkt aus dem Algorithmus der Kohonen-Netze 
[3.8] ergeben, müssen vor Beginn einer Lernphase noch zwei weitere Parameter festgelegt 
werden, die der Algorithmus indirekt voraussetzt. Der erste dieser Parameter ergibt sich aus 
den Abnahmegesetzen für die Lemschrittweite und für den Radius der Nachbarschafts 
funktion (Kap.5.1.1). Für diese Gesetze wird über die Anzahl der Lernvektoren n LV hinaus 
jeweils die maximale Anzahl Lernepochen n Lmax benötigt. Für das Abnahmegesetz des 
Nachbarschaftsradius G wird weiterhin die Gesamtanzahl aller Neuronen n N benötigt. In dem 
Algorithmus [3.8] werden Ortsvektoren r e A zur Beschreibung des Ortes eines Gewichts 
vektors im quadratischen Neuronengitter A verwendet. Dazu muß ebenfalls die Gesamtzahl
	        
Waiting...

Note to user

Dear user,

In response to current developments in the web technology used by the Goobi viewer, the software no longer supports your browser.

Please use one of the following browsers to display this page correctly.

Thank you.