zum Directory-modus

Grundlagen der Parameterschätzung/Optimierung

Der steilste Abstieg: Einführung

Ableitungsbehaftete Verfahren

Optimierungsverfahren, welche im Laufe der Lösung eines Optimierungsproblemes auf Ableitungsinformationen zurückgreifen werden auch als Gradientenverfahren bezeichnet. Zu diesen Gradietenverfahren gehört u.a. die Methode des steilsten Abstiegs.

Mit der Zusatzinformation, die man durch die Ableitung bekommt, wird erwartet, dass die Methode sicherer und schneller zum Minimum konvergiert. Dazu muss die zu untersuchende Funktion jedoch die Eigenschaft besitzen, dass der Gradient bzw. die Ableitung existiert und analytisch angegeben werden kann.

Das einfachste Beispiel für dieses Verfahren sollte jeder kennen. Dazu sehen wir uns den Sinus f(x)= sin(x) und dessen Ableitung, den Kosinus f'(x)= cos(x), einmal genauer an:

Abb.1

Wie man in der Abbildung erkennen kann, hat der sin(x) genau immer dann ein Minimum oder ein Maximum, wenn seine erste Ableitung, der cos(x), durch den Nullpunkt läuft.

Weitere ableitungsbehaftete Verfahren sind das Newton-Verfahren und das Verfahren des konjugierten Gradienten. Auf den folgenden Seiten gehen wir nun genauer auf das Verfahren des steilsten Abstiegs ein.

Seite 16 von 19