Skip to main content

Full text: 15: Wasserstandsvorhersage mittels neuronaler Netze

109 
Lemvektoren maximiert, könnte es zur Abgrenzung zum Minimaldistanz-Verfahren auch mit 
Maximaldistanz-Verfahren bezeichnet werden. Im weiteren Verlauf der Arbeit wird aber die 
ursprüngliche Bezeichnung vorgezogen. 
Beide Verfahren können auch miteinander kombiniert eingesetzt werden (Kap.4.3.1). Das 
bedeutet, daß in diesem Fall die von dem einen Verfahren aus der geordneten Menge aller 
Zeitmustervektoren selektierten Vektoren nicht wieder zurückgelegt werden. Sie stehen damit 
dem anderen Verfahren nicht mehr zur Verfügung. Auf diese Weise wird vermieden, daß sich 
eventuell doppelte Vektoren unter der Gesamtzahl aller selektierten Lernvektoren befinden. 
Diese Lernvektoren können auf zweifache Weise behandelt werden. Sie können zur Berech 
nung der bisher verwandten Informationsmaße und natürlich auch als Basis von Vorhersage 
modellen dienen. Bei der Motivierung des ZGR-Verfahrens (Einleitung zu Kap.4.3) war 
bereits von der euklidischen Distanz als Informationsmaß die Rede. Es können auch die 
mittlere euklidische Distanz [4.7b], die am Ende des ZGR-Verfahrens berechnet wird, und 
zusätzlich auch das Varianzkriterium [4.10], das während des Minimaldistanz-Verfahrens 
mehrmals berechnet wird, als Informationsmaß aufgefaßt und von allen Lernvektoren berech 
net werden. 
Die Lernvektoren können sowohl in die K-Nearest-Neighbor Verfahren eingegeben 
(Kap.2.3.4) als auch von den Kohonen-Netzen angelernt werden. Da für die K-Nearest- 
Neighbor Verfahren die euklidische Distanz als Ähnlichkeitsmaß gewählt wurde (Kap.2.4.1), 
entstand dadurch auch in diesem Fall eine gewisse Verwandtschaft mit den Kohonen-Netzen. 
Die K-Nearest-Neighbor Verfahren suchen den ähnlichsten Vektor nicht wie diese Netze aus 
Gewichtsvektoren, die mit Hilfe der selektierten Lernvektoren iterativ adaptiert wurden, 
sondern aus diesen Lernvektoren selbst. Dabei wird wie bei den Netzen die Ähnlichkeit nur 
auf das Indikationsmuster bezogen (Kap.2.2.3). Die Wahl K = 1 bei den K-Nearest-Neighbor 
Verfahren (Kap.2.4.1) entspricht bei den Kohonen-Netzen der Suche nach dem einzigen 
"bestmatch" Neuron für eine Vorhersage (Kap.3.6). Theoretisch könnten für jede Vorhersage 
der Kohonen-Netze auch mehrere "bestmatch" Neuronen gesucht werden. Ob das die Vorher 
sagefähigkeit dieser Netze verbessern würde, wurde nicht untersucht. Die Lernvektoren 
wurden für die Eingabe in die Nearest-Neighbor Verfahren (das K wird ab dieser Stelle 
weggelassen) genauso vorbereitet wie für die Eingabe in die Kohonen-Netze (Kap.4.3.2). 
Anteile MD:ZGR jeweils in %: 
100:0 
75:25 
50:50 
25:75 
0:100 
Nearest-Neighbor-Verfahren: 
29 
45 
52 
71 
115 
Kohonen-Netze: 
22 
24 
23 
25 
33 
Varianzkriterium (10 4 cm 2 ): 
28 
30 
33 
37 
255 
mittlere euklid. Distanz (cm): 
7 
17 
21 
25 
28 
Tab.4.4: Mittlerer quadratischer Vorhersagefehler (mrmse) des Nearest-Neighbor-Verfahrens und der Kohonen- 
Netze für den Stau bei Cuxhaven in cm. Vergleich des Minimaldistanz-Verfahrens (MD) mit dem Verfahren 
der zirkularen Gruppenreduktion (ZGR). Beide Verfahren wurden in Kombination für die Selektion einer 
bestimmten Gesamtzahl von Lernvektoren verwendet. In der obersten Zeile sind die Anteile (in % von der 
Gesamtzahl), die von den beiden Verfahren jeweils selektiert wurden, angegeben. Es wurde ein klassifi 
zierendes Zeitmuster gewählt. 
In Tab.4.4 sind die entsprechenden Ergebnisse zusammengefaßt. In der obersten Zeile der 
Tabelle sind die Anteile der beiden Selektionsverfahren angegeben. Die Darstellung wurde 
so gewählt, daß der Anteil des Minimaldistanz-Verfahrens (MD) von links nach rechts ab-
	        
Waiting...

Note to user

Dear user,

In response to current developments in the web technology used by the Goobi viewer, the software no longer supports your browser.

Please use one of the following browsers to display this page correctly.

Thank you.