zum Directory-modus

Neuronale Netze - komplett

Prinzip des Lernverfahrens Backpropagation

Backpropagation ist ein Gradientenabstiegsverfahren. Wenn man den Fehler eines neuronalen Netzes als Funktion der Gewichte des Netzwerks graphisch aufträgt, erhält man eine Fehlerfläche, die sich im zweidimensionalen Fall anschaulich graphisch darstellen lässt.

Abb.1
Fehlerfläche eines neuronalen Netzes als Funktion der Gewichte w 1 und w 2 .
E W = E w 1 w n

Die dargestellte Fehlerfunktion in Gleichung gibt den Fehler an, den das Netzwerk bei gegebenen Gewichten w 1 , , w n über alle Trainingsmuster aufsummiert besitzt. Mit einem Gradientenverfahren, d.h. der Methode des steilsten Abstiegs, wird nun versucht, möglichst schnell ein globales Minimum der Fehlerfunktion zu finden, d.h. eine Konfiguration der Gewichte, bei der die Fehlersumme über alle Trainingsmuster minimal ist.

Seite 29 von 33