110
und der Anteil des Verfahrens der zirkularen Gruppenreduktion (ZGR) zunimmt. Zwei Dinge
fallen in Tab.4.4 auf.
Erstens existiert beim Varianzkriterium im Gegensatz zur mittleren euklidischen Distanz
ein Sprung an derjenigen Stelle, an der der Anteil des MD-Verfahrens ganz verschwindet
(von 37-IO 4 cm 2 auf 255-IO 4 cm 2 ). D.h. das Varianzkriterium wird dann relativ groß, wenn
nur allein das ZGR-Verfahren der Selektion dient. Aber auch beim Vorhersagefehler der
Kohonen-Netze ist an der gleichen Stelle ein Sprung zu bemerken (von 25 cm auf 33 cm).
Somit haben schon anteilsmäßig wenig Lernvektoren, die vom MD-Verfahren selektiert
werden, einen nicht unerheblichen senkenden Einfluß auf den Vorhersagefehler.
Zweitens fällt in Tab.4.4 auf, daß die Vorhersagefehler der Nearest-Neighbor Verfahren
mit zunehmendem Anteil des ZGR-Verfahrens im Vergleich zu den Vorhersagefehlern der
Kohonen-Netze viel stärker ansteigen. Mit dieser Scherung der Vorhersagefehler wird die
Überlegenheit der Kohonen-Netze gegenüber den Nearest-Neighbor Verfahren recht deutlich.
Allerdings gelten diese Ergebnisse nur für Kohonen-Netze auf Basis eines klassifizierenden
Zeitmusters, das als Beispiel für diesen Vergleich gewählt wurde. Bei diesem Zeitmuster war
der Vorhersagefehler der Kohonen-Netze dann am kleinsten, wenn die Lernvektoren aus
schließlich mittels des MD-Verfahrens selektiert wurden, d.h. einen Anteil von 100% an der
Gesamtzahl hatten. Das bedeutet, daß beim klassifizierenden Zeitmuster das Konzept der Re
präsentativität ausreichte und das ZGR-Verfahren das MD-Verfahren nicht ergänzen konnte
(Kap.4.3.1). Bei anderen Zeitmustern sehen die Ergebnisse anders aus (Kap.5.5).
Die Lernvektoren, die mit Hilfe des Minimalvarianz-Verfahrens allein oder zusammen mit
dem ZGR-Verfahren selektiert werden können, stehen anschließend den Kohonen-Netzen zum
Anlernen zur Verfügung. Bei Vektoren, die durch das Minimaldistanz-Verfahren selektiert
werden, bleibt die zeitliche Reihenfolge der Zeitmustervektoren nicht erhalten. Bei Vektoren
dagegen, die durch das zirkulare Gruppenreduktionsverfahren selektiert werden, bleibt die
zeitliche Reihenfolge erhalten. Kohonen-Netze lernen am besten, wenn die Lern Vektoren
zufällig im Sinne einer Gauß'schen Zufalls variablen verteilt, d.h. normalverteilt sind. Um
dieser Anforderung gerecht zu werden und auch jegliche zeitliche Reihenfolge mit Sicherheit
auszuschließen, wurden die selektierten Lernvektoren den Kohonen-Netzen in zufälliger
Reihenfolge präsentiert. Das bezieht sich nicht nur auf eine einzige Lernepoche (Kap.3.5.1),
sondern die Reihenfolge wurde auch von Lernepoche zu Lernepoche auf zufällige Weise
jeweils neu permutiert.