zum Directory-modus

Grundlagen der Parameterschätzung/Optimierung

Steilster Abstieg

Die Methode des steilsten Abstiegs

Ausgehend von einer Zielfunktion f(x) mit n unabhängigen Variablen x=(x1,...,xn) ist das Minimum zu bestimmen. Dazu muss als erstes der Gradient bestimmt werden, d.h. die Funktion muss partiell abgeleitet werden:

grad ( f ( x ) ) = ( f x 1 ,..., f x n ) T

Der Gradient steht nun als Vektor in jedem Punkt x senkrecht auf der dort hindurchgehenden Niveaufläche und weist in Richtung des steilsten Anstiegs. Setzt man den Vektor v(x) = -grad(f(x)), so weist er in Richtung des steilsten Abstiegs.

Die Abbildung zeigt das bereits in der Einleitung angesprochene Beispiel: Die Ableitung des Sinus, der Kosinus, wird an der x-Achse gespiegelt.

Abb.1

Die Vorschrift

x=x0-r·grad(f(x0))

erlaubt daher, ausgehend vom Punkt x0 einen neuen, besseren Punkt x zu errechnen, wenn es gelingt, r so zu bestimmen, dass der neue Funktionswert kleiner als der für den vorangegangenen Punkt ist.

f(x)=f(x0-r·grad(f(x0)))≤f(x0)

Das gelingt, wenn die folgende Teilaufgabe gelöst wird:

g(r)=f(x0-r·grad(f(x0)))=Min!

Hierfür muss für die neu eingeführte Funktion g(r) bezüglich r das Minimum ermittelt werden. Zu beachten ist, dass jetzt nur noch eine Variable, nämlich die neu eingeführte, nichtnegative Hilfsvariable r, vorliegt. Die Teilaufgabe ist ein eindimensionales Minimum-Problem, für dessen Lösung im Prinzip alle eindimensionalen Suchmethoden eingesetzt werden können.

Seite 17 von 19