Skip to main content

Full text: 15: Wasserstandsvorhersage mittels neuronaler Netze

110 
und der Anteil des Verfahrens der zirkularen Gruppenreduktion (ZGR) zunimmt. Zwei Dinge 
fallen in Tab.4.4 auf. 
Erstens existiert beim Varianzkriterium im Gegensatz zur mittleren euklidischen Distanz 
ein Sprung an derjenigen Stelle, an der der Anteil des MD-Verfahrens ganz verschwindet 
(von 37-IO 4 cm 2 auf 255-IO 4 cm 2 ). D.h. das Varianzkriterium wird dann relativ groß, wenn 
nur allein das ZGR-Verfahren der Selektion dient. Aber auch beim Vorhersagefehler der 
Kohonen-Netze ist an der gleichen Stelle ein Sprung zu bemerken (von 25 cm auf 33 cm). 
Somit haben schon anteilsmäßig wenig Lernvektoren, die vom MD-Verfahren selektiert 
werden, einen nicht unerheblichen senkenden Einfluß auf den Vorhersagefehler. 
Zweitens fällt in Tab.4.4 auf, daß die Vorhersagefehler der Nearest-Neighbor Verfahren 
mit zunehmendem Anteil des ZGR-Verfahrens im Vergleich zu den Vorhersagefehlern der 
Kohonen-Netze viel stärker ansteigen. Mit dieser Scherung der Vorhersagefehler wird die 
Überlegenheit der Kohonen-Netze gegenüber den Nearest-Neighbor Verfahren recht deutlich. 
Allerdings gelten diese Ergebnisse nur für Kohonen-Netze auf Basis eines klassifizierenden 
Zeitmusters, das als Beispiel für diesen Vergleich gewählt wurde. Bei diesem Zeitmuster war 
der Vorhersagefehler der Kohonen-Netze dann am kleinsten, wenn die Lernvektoren aus 
schließlich mittels des MD-Verfahrens selektiert wurden, d.h. einen Anteil von 100% an der 
Gesamtzahl hatten. Das bedeutet, daß beim klassifizierenden Zeitmuster das Konzept der Re 
präsentativität ausreichte und das ZGR-Verfahren das MD-Verfahren nicht ergänzen konnte 
(Kap.4.3.1). Bei anderen Zeitmustern sehen die Ergebnisse anders aus (Kap.5.5). 
Die Lernvektoren, die mit Hilfe des Minimalvarianz-Verfahrens allein oder zusammen mit 
dem ZGR-Verfahren selektiert werden können, stehen anschließend den Kohonen-Netzen zum 
Anlernen zur Verfügung. Bei Vektoren, die durch das Minimaldistanz-Verfahren selektiert 
werden, bleibt die zeitliche Reihenfolge der Zeitmustervektoren nicht erhalten. Bei Vektoren 
dagegen, die durch das zirkulare Gruppenreduktionsverfahren selektiert werden, bleibt die 
zeitliche Reihenfolge erhalten. Kohonen-Netze lernen am besten, wenn die Lern Vektoren 
zufällig im Sinne einer Gauß'schen Zufalls variablen verteilt, d.h. normalverteilt sind. Um 
dieser Anforderung gerecht zu werden und auch jegliche zeitliche Reihenfolge mit Sicherheit 
auszuschließen, wurden die selektierten Lernvektoren den Kohonen-Netzen in zufälliger 
Reihenfolge präsentiert. Das bezieht sich nicht nur auf eine einzige Lernepoche (Kap.3.5.1), 
sondern die Reihenfolge wurde auch von Lernepoche zu Lernepoche auf zufällige Weise 
jeweils neu permutiert.
	        
Waiting...

Note to user

Dear user,

In response to current developments in the web technology used by the Goobi viewer, the software no longer supports your browser.

Please use one of the following browsers to display this page correctly.

Thank you.