Skip to main content

Full text: 15: Wasserstandsvorhersage mittels neuronaler Netze

51 
Auflösung der Eingabe-Ausgaberelation möglich wird. Selten oder nie benutzte Tabellenein 
träge werden "umgewidmet". Dies ermöglicht eine sehr ökonomische Ausnutzung der 
verfügbaren Speicherplätze. 
Aufgrund des topologieerhaltenden Charakters der Zuordnung zwischen Wertepaaren und 
Speicherplätzen erhalten im Neuronengitter benachbart hegende Speicherplätze in der Regel 
ähnliche Wertepaare zugewiesen. Im Falle eines stetigen Zusammenhangs zwischen Ein 
gangs- und Ausgangswerten müssen benachbarte Speicherplätze daher auch ähnliche Aus 
gangswerte w r (aus) lernen. Die Teilnahme jeweils einer ganzen Nachbarschaftsumgebung des 
bei jedem Lernschritt ausgewählten Speicherplatzes r an einem Lernschritt für die Ausgangs 
werte w r (aus) stellt somit eine rudimentäre Form der Verallgemeinerung dar, die den Lernvor 
gang beschleunigt. Gibt man der Funktion h rr ., die diese Umgebung festlegt, zu Beginn der 
Lernphase eine große Reichweite (o), so nehmen an jedem Lernschritt sehr viele Speicher 
plätze teil, auch wenn der Lernschritt für die meisten von ihnen nur ungefähr "richtig" ist. 
Dadurch entwickelt sich schon nach wesentlich weniger Lernschritten als Speicherplätze 
vorhanden sind eine vollständig belegte Tabelle, die eine gute Näherung der korrekten 
Eingabe-Ausgaberelation bietet. Indem man im weiteren Verlauf der Lernphase die Reichwei 
te der Funktion h rr . immer weiter verringert, wird die Teilnahme der Speicherplätze an einem 
Lernschritt immer selektiver, so daß nach und nach auch feinere Details der Eingabe-Aus 
gaberelation gelernt werden können. 
. 3.6.3. Vorhersage 
Die Anwendung von Kohonen-Netzen auf die Vorhersage kann auf zweierlei Weise motiviert 
werden: Zum einen über die sensorischen und zum andern über die motorischen Karten. Das 
Ergebnis ist in beiden Fällen dasselbe. 
Das Problem der Vorhersage spricht die zeitliche Entwicklung eines Systems an. Es 
können verschiedene Größen gemessen werden, die Aufschluß über die Dynamik des Systems 
geben. Wenn diese Größen diskret gemessen oder für die elektronische Datenverarbeitung 
diskretisiert werden (z.B. Digitalisierung von Pegelbögen), können sie prinzipiell als Eingabe 
für sensorische Karten dienen (natürlich auch für Backpropagation-Netze). Über jede "Ein 
gabefaser" kann jeweils eine diskrete Messung der Karte präsentiert werden. Damit kann 
zwar die zeitliche Entwicklung des Systems gelernt werden, es ist aber damit noch keine 
quantitative Vorhersage möglich (aber eine qualitative, Kap.3.5.1). Um eine quantitative 
Vorhersage zu ermöglichen, muß eine entsprechende Ausgabe des Netzes vorhanden sein. 
Außerdem muß eine Beziehung zwischen vergangenen und zukünftigen Systemzuständen 
lernbar sein. Beim Backpropagation-Netz wird das dadurch gelöst, indem vergangene 
Zustände der Eingabeschicht präsentiert und die Werte der Ausgabeschicht als zukünftige 
Entwicklung interpretiert werden. Im Falle der sensorischen Karten existiert solch eine Aus 
gabeschicht nicht. Da die Ausgabeschicht der sensorischen Karten zweidimensional ist, ist 
nicht klar, wie die eindimensionale Struktur der Zeit dort abgebildet werden kann. 
Da aber eine Unterscheidung zwischen Zustandsbeschreibung (vergangene Zustände) und 
Prognosebeschreibung (zukünftige Zustände) für die Vorhersage zwingend notwendig ist, 
wird von Ultsch vorgeschlagen, den Lernvektor entsprechend zu teilen. Wenn eine Vorher 
sage im Forecast erstellt werden soll, sind die vergangenen Zustände zwar schon bekannt 
bzw. gemessen, die zukünftigen aber noch nicht. D.h. die Lernvektoren bestehen in diesem 
Fall nur aus dem Teil der Zustandsbeschreibung. Daher schlägt Ultsch vor, den Lernalgorith 
mus auch entsprechend zu ändern, indem die Bestimmung des Erregungszentrums, d.h. des 
"bestmatch" Neurons nur von der Zustandsbeschreibung allein abhängt. Halmans konkretisier-
	        
Waiting...

Note to user

Dear user,

In response to current developments in the web technology used by the Goobi viewer, the software no longer supports your browser.

Please use one of the following browsers to display this page correctly.

Thank you.