109
Lemvektoren maximiert, könnte es zur Abgrenzung zum Minimaldistanz-Verfahren auch mit
Maximaldistanz-Verfahren bezeichnet werden. Im weiteren Verlauf der Arbeit wird aber die
ursprüngliche Bezeichnung vorgezogen.
Beide Verfahren können auch miteinander kombiniert eingesetzt werden (Kap.4.3.1). Das
bedeutet, daß in diesem Fall die von dem einen Verfahren aus der geordneten Menge aller
Zeitmustervektoren selektierten Vektoren nicht wieder zurückgelegt werden. Sie stehen damit
dem anderen Verfahren nicht mehr zur Verfügung. Auf diese Weise wird vermieden, daß sich
eventuell doppelte Vektoren unter der Gesamtzahl aller selektierten Lernvektoren befinden.
Diese Lernvektoren können auf zweifache Weise behandelt werden. Sie können zur Berech
nung der bisher verwandten Informationsmaße und natürlich auch als Basis von Vorhersage
modellen dienen. Bei der Motivierung des ZGR-Verfahrens (Einleitung zu Kap.4.3) war
bereits von der euklidischen Distanz als Informationsmaß die Rede. Es können auch die
mittlere euklidische Distanz [4.7b], die am Ende des ZGR-Verfahrens berechnet wird, und
zusätzlich auch das Varianzkriterium [4.10], das während des Minimaldistanz-Verfahrens
mehrmals berechnet wird, als Informationsmaß aufgefaßt und von allen Lernvektoren berech
net werden.
Die Lernvektoren können sowohl in die K-Nearest-Neighbor Verfahren eingegeben
(Kap.2.3.4) als auch von den Kohonen-Netzen angelernt werden. Da für die K-Nearest-
Neighbor Verfahren die euklidische Distanz als Ähnlichkeitsmaß gewählt wurde (Kap.2.4.1),
entstand dadurch auch in diesem Fall eine gewisse Verwandtschaft mit den Kohonen-Netzen.
Die K-Nearest-Neighbor Verfahren suchen den ähnlichsten Vektor nicht wie diese Netze aus
Gewichtsvektoren, die mit Hilfe der selektierten Lernvektoren iterativ adaptiert wurden,
sondern aus diesen Lernvektoren selbst. Dabei wird wie bei den Netzen die Ähnlichkeit nur
auf das Indikationsmuster bezogen (Kap.2.2.3). Die Wahl K = 1 bei den K-Nearest-Neighbor
Verfahren (Kap.2.4.1) entspricht bei den Kohonen-Netzen der Suche nach dem einzigen
"bestmatch" Neuron für eine Vorhersage (Kap.3.6). Theoretisch könnten für jede Vorhersage
der Kohonen-Netze auch mehrere "bestmatch" Neuronen gesucht werden. Ob das die Vorher
sagefähigkeit dieser Netze verbessern würde, wurde nicht untersucht. Die Lernvektoren
wurden für die Eingabe in die Nearest-Neighbor Verfahren (das K wird ab dieser Stelle
weggelassen) genauso vorbereitet wie für die Eingabe in die Kohonen-Netze (Kap.4.3.2).
Anteile MD:ZGR jeweils in %:
100:0
75:25
50:50
25:75
0:100
Nearest-Neighbor-Verfahren:
29
45
52
71
115
Kohonen-Netze:
22
24
23
25
33
Varianzkriterium (10 4 cm 2 ):
28
30
33
37
255
mittlere euklid. Distanz (cm):
7
17
21
25
28
Tab.4.4: Mittlerer quadratischer Vorhersagefehler (mrmse) des Nearest-Neighbor-Verfahrens und der Kohonen-
Netze für den Stau bei Cuxhaven in cm. Vergleich des Minimaldistanz-Verfahrens (MD) mit dem Verfahren
der zirkularen Gruppenreduktion (ZGR). Beide Verfahren wurden in Kombination für die Selektion einer
bestimmten Gesamtzahl von Lernvektoren verwendet. In der obersten Zeile sind die Anteile (in % von der
Gesamtzahl), die von den beiden Verfahren jeweils selektiert wurden, angegeben. Es wurde ein klassifi
zierendes Zeitmuster gewählt.
In Tab.4.4 sind die entsprechenden Ergebnisse zusammengefaßt. In der obersten Zeile der
Tabelle sind die Anteile der beiden Selektionsverfahren angegeben. Die Darstellung wurde
so gewählt, daß der Anteil des Minimaldistanz-Verfahrens (MD) von links nach rechts ab-