zum Directory-modus

Grundlagen der Parameterschätzung/Optimierung

Einleitung zur Parameterschätzung/Optimierung

Überblick über die Verfahren der Parameterschätzung

Der Komplex Parameterschätzung/Optimierung kann prinzipiell in folgende Verfahren und Methoden eingeteilt werden:

Lineare Optimierung

  • Simplex I

Eindimensionale Suche

  • Rastern
  • Goldener Schnitt

Nicht lineare Optimierung

  • Steilster Anstieg
  • Polytop (Simplex II)
    • Basismethode
    • Simplex nach Nelder-Mead

Stochastische Verfahren

  • Monte Carlo
  • Genetische Algorithmen

Nachfolgend soll die Parameterschätzung anhand ausgewählter Verfahren dargestellt werden. Es wird näher auf einzelne Anwendungsgebiete der Verfahren eingegangen, sie werden mathematisch beschrieben und durch Beispiele erläutert.Darüber hinaus sind auf einigen Seiten interaktive Elemente zu finden, die das Verständnis erleichtern sollen. Sie haben zum Teil erläuternden Charakter, dienen aber auch zum Testen der Verfahren.

Folgende Verfahren werden näher erläutert:

  • Eindimensionale Suche: Äquidistante Suche und goldener Schnitt
  • Lineare Optimierung: Simplex-Verfahren
  • Nichtlineare Optimierung: auf Basis der Verfahren Polytop und steilster Abstieg

Zusammenhänge und Bedeutung der einzelnen Verfahren

Die lineare Optimierung besitzt eine große wirtschaftliche Bedeutung, da sie häufig bei Planungsproblemen angewandt wird. Sie ermöglicht es, aus einer Vielzahl von Varianten unter Betrachtung einer Zielfunktion die günstigste zu berechnen.

Unter der eindimensionalen Suche versteht man die Suche entlang einer Achse oder Richtung. Sie hat eigenständige Bedeutung für das Auffinden von Minima bzw. Maxima einer Funktion in einer gegebenen Richtung. Andererseits ist die eindimensionale Suche ein wichtiger Baustein für die Verfahren der nichtlinearen Optimierung. Diese Verfahren benötigen nach Auffinden der Suchrichtung eine Methode zum Auffinden des Extremums der Zielfunktion in der vorgegebenen Richtung. Hier können eindimensionale Suchverfahren eingesetzt werden.

Die Verfahren der nichtlinearen Optimierung kann man in zwei Klassen unterteilen. Die Verfahren, die für die Organisation des Suchprozesses nur die Werte der Zielfunktionen verwenden (ableitungsfreie Verfahren) und die Methoden, die neben den Werten der Zielfunktionen auch Informationen über die erste und zweite Ableitung benötigen (ableitungsbehaftete Verfahren).

<Seite 1 von 19