Skip to main content

Full text: 15: Wasserstandsvorhersage mittels neuronaler Netze

120 
Minimums dar. 
Die Lernkurven in Abb.5.1 wurden mit Hilfe eines Kohonen-Netzes auf Basis eines univa- 
riaten klassifizierenden Zeitmusters berechnet. Statt des Staus bei Cuxhaven wurden aber 
Messungen des Pegels selbst, d.h. ohne daß vorher die Gezeitenvorausberechnungen sub 
trahiert wurden, von diesem Netz angelernt (siehe auch Kap.5.1.4). Da die Pegelmessungen 
in erster Näherung einem linearen Prozeß gehorchen - bedingt durch die dominierende M 2 - 
Tide (Kap.2.1.2) -, ist jedoch die Bedingung der optimalen Anpassung an die Erfordernisse 
der Netze nicht erfüllt. Diese Bedingung besagt, daß die Daten einen möglichst zufälligen 
Prozeß im Sinne einer Gauß’sehen Zufallsvariablen widerspiegeln müssen. Daher sind die 
Validationsfehler insgesamt und die Trainingsfehler im ersten Teil der Lernphase höher als 
beim Trainieren der Netze mit Staudaten (Kap.5.3). Aufgrund der Dominanz der M 2 -Tide 
wurde nur ein Jahr (1992) an Pegeldaten trainiert. Aus der Größe des gewählten Trainings 
datensatzes (n LV = 100) folgt nach [5.3] n‘ /2 N = 32 und n Lmax = 100. Bei dieser Anzahl 
Lernvektoren liegt der Abbruchpunkt des kombinierten Kriteriums bei c-n Lmax mit c ~ 0.5. 
Bei größeren n LV wird c ein wenig kleiner. Dieses Verhalten wird durch die heuristischen 
Gleichungen bewirkt. Diese Gleichungen wurden so gewählt, daß das Minimum des Valida 
tionsfehlers bei größeren n LV nicht aus der Lernphase "nach rechts" (siehe Abb.5.1) heraus 
rutscht, sondern sich zur Sicherheit eher etwas "nach links" verschiebt. 
Das cut-off-Kriterium erscheint möglicherweise als ein zu hartes und "unsensibles" 
Abbruchkriterium. Um es abzumildern, wurden verschiedene Erweiterungen des beschriebe 
nen kombinierten Abbruchkriteriums überlegt. Ein zusätzliches Kriterium könnte z.B. darin 
bestehen, die Steigung der Lernkurve zu bestimmen. Wenn die Steigung kleiner als eine 
bestimmte Konstante ist, könnte die Lernphase abgebrochen werden (Kap.3.5.3). Dieses 
Kriterium setzt voraus, daß sich die Steigung monoton verhält. Die Steigung könnte z.B. mit 
Hilfe eines "running mean" berechnet werden. D.h. es müßte ein Zeitintervall definiert 
werden, das sich über mehrere Lernepochen erstreckt und über das eine lineare Regression 
der Validationsfehler durchgeführt werden würde. Die Steigung der Geraden, die auf diese 
Weise an die Validationsfehler angepaßt würde, würde der Mitte dieses Intervalls zugeordnet 
werden. Damit würde eine Steigung, die kleiner als eine bestimmte vorgegebene Konstante 
wäre, den Abbruchpunkt markieren. Um die Monotonie dieser Geradensteigungen zu gewähr 
leisten, müßte das Zeitintervall aufgrund der sehr variablen Lernkurven sehr groß gewählt 
werden. Folglich müßte über den markierten Zeitpunkt des Abbruchs weit hinaus gelernt 
werden, ehe dies Abbruchkriterium zuschlagen könnte. Dadurch wird wiederum unnötig 
Rechenzeit verbraucht. Außerdem müßte für jeden Zeitpunkt zwischen Intervallmitte und 
Intervallende der Zustand des Netzes in Form seiner Gewichte für den eventuellen späteren 
Zugriff vorgehalten werden, wodurch bei großen Kohonen-Netzen eine Menge Speicherplatz 
verbraucht wird. Daher wurde dieses Abbruchkriterium verworfen. 
Es wurden andere Steigungsdefinitionen geometrischer Art überlegt. Diese Definitionen, 
die hier nicht im einzelnen beschrieben werden, erwiesen sich als zu speziell und nur auf 
bestimmte Typen von Lernkurven hin ausgerichtet. Somit waren diese Definitionen zur 
Bestimmung von allgemeingültigen Lernabbruchkriterien nicht geeignet. 
Es wurde noch ein weiteres Abbruchkriterium überlegt. Wenn der Validationsfehler zu 
Beginn der Lernphase kleiner als der Trainingsfehler ist, existiert mindestens ein Schnittpunkt 
zwischen den Lernkurven, der für einen Lernabbruch berücksichtigt werden könnte. D.h. der 
Abbruch der Lernphase könnte dann geschehen, wenn der Trainingsfehler kleiner als der 
Validationsfehler geworden wäre. Dies erinnert an das cut-off-Kriterium [5.4], das einen 
Abbruch dann erzwingt, wenn der Trainingsfehler kleiner als die Hälfte des Validations 
fehlers geworden ist. Es ist möglich, daß sich die Lernkurven mehr als einmal schneiden
	        
Waiting...

Note to user

Dear user,

In response to current developments in the web technology used by the Goobi viewer, the software no longer supports your browser.

Please use one of the following browsers to display this page correctly.

Thank you.