zum Directory-modus

Eigenwerte einer Matrix

Grundbegriffe

In der Einführung werden Eigenwertgleichungen anschaulich behandelt. Hier betrachten wir sie von der mathematischen Seite. Als erstes behandeln wir ein paar Definitionen. Wir beschränken uns zunächst auf den reellen Fall und übertragen die Begriffe später auf den komplexen.

Eigenwerte und Eigenvektoren einer Matrix
Seien eine reelle n × n -Matrix A und eine reelle Zahl λ gegeben. λ heißt Eigenwert von A , falls es einen vom Nullvektor verschiedenen Vektor x gibt, so dass
A x = λ x .
In diesem Fall heißt x Eigenvektor von A zum Eigenwert λ .

Sei im Folgenden vorausgesetzt, dass λ tatsächlich ein Eigenwert von A ist. Wir wissen dann, dass es einen Eigenvektor x zu λ gibt, und zwar aufgrund obiger Definition. Diese besagt genauer, dass es mindestens einen solchen Vektor gibt. Kann oder muss es sogar weitere geben, d.h. weitere Eigenvektoren zum selben Eigenwert λ ? Gehen wir der Frage nach. Sei c irgendeine von Null verschiedene Zahl. Dann ist c x vom Nullvektor verschieden und

A c x = c A x = c λ x = λ c x ,

wie man mit Hilfe der Vektor- und Matrixrechenregeln leicht nachprüft. Mit x ist also auch jedes c x mit beliebigem c , c 0 , Eigenvektor von A zu λ . Alle diese Vektoren liegen offenbar auf einer Geraden durch den Ursprung mit der Richtung x ; umgekehrt ist jeder auf der Geraden liegende Vektor Eigenvektor zum betrachteten Eigenwert λ - außer dem Nullvektor natürlich. In (Abb. 1) ist das für den dreidimensionalen Fall ( n = 3 ) skizziert.

Abb.1
Mit x ist auch c x mit beliebigem c 0 Eigenvektor zu λ

Beleuchten wir das Ganze von einer anderen Seite: Sei außer unserem Eigenvektor x ein Vektor y gegeben. Wir wissen bereits, dass, wenn zwischen x und y die Beziehung y = c x mit einem Skalar c 0 besteht, y ebenfalls Eigenvektor zum Eigenwert λ sein muss. Die Frage ist nun: Gilt davon auch die Umkehrung, d.h. muss zwischen x und y zwangsläufig die Beziehung y = c x bestehen, wenn y Eigenvektor zum betrachteten Eigenwert ist? Die Antwort lautet nein. Ein ganz einfaches Gegenbeispiel liefert die Matrix

A = 3 0 0 0 3 0 0 0 2 ,

von der

x = 1 0 0 und y = 0 1 0

zwei Eigenvektoren sind, die zum selben Eigenwert λ = 3 gehören, aber nicht kollinear sind (d.h. y geht nicht durch Multiplikation mit einem Skalar c aus x hervor, was offensichtlich ist; dass x und y Eigenvektoren zum angegebenen Eigenwert sind, prüft man leicht durch Multiplizieren von A mit x bzw. y nach). Eigenvektoren zum selben Eigenwert müssen also nicht kollinear sein; es gibt aber trotzdem eine interessante Beziehung zwischen ihnen. Nehmen wir an, x und y seien beides Eigenvektoren zum Eigenwert λ . Dann gilt offensichtlich

A ( x + y ) = A x + A y = λ x + λ y = λ ( x + y ) ,

d.h. auch x + y ist Eigenvektor zu λ . Da wir x und y noch beide mit einem skalaren Faktor 0 versehen dürfen, können wir sogar sagen: Mit x und y ist auch jede Linearkombination c x + d y mit c , d 0 Eigenvektor zu λ ; es braucht sogar nur einer der beiden Skalare c , d ungleich 0 zu sein, wie man leicht einsieht. Mit anderen Worten: Jede Linearkombination von x und y , die nicht der Nullvektor ist, ist Eigenvektor zu λ . Alle diese Linearkombinationen bilden zusammengenommen offenbar eine zweidimensionale Fläche, welche durch den Ursprung geht und x und y als Richtungsvektoren hat, wobei der Ursprung selbst ( = Nullvektor) natürlich nicht Eigenvektor ist. In (Abb. 2) ist das wieder für den dreidimensionalen Fall ( n = 3 ) skizziert.

Abb.2
Mit x und y ist auch jede vom Nullvektor verschiedene Linearkombination c x + d y Eigenvektor zu λ

Das lässt sich in naheliegender Weise auf mehr als zwei Eigenvektoren übertragen. Was dabei herauskommt, ist das so genannte Superpositionsprinzip:

Theorem
Sind x 1 , , x m Eigenvektoren von A zu λ , so ist auch jede vom Nullvektor verschiedene Linearkombination
c 1 x 1 + + c m x m ,
c 1 , , c m beliebig aus , Eigenvektor von A zu λ .

Seine Richtigkeit prüft man selbst leicht nach (Hinweis: man identifiziere c m x m bzw. c m -1 x m -1 + + c 1 x 1 mit x bzw. y von oben, wende an, dass x + y Eigenvektor zu λ ist, falls dies für x und y zutrifft, und führe den Beweis induktiv).

Betrachten wir nun die Menge D λ aller Eigenvektoren von A zu λ . Diese ist offenbar abgeschlossen gegenüber der Bildung von Linearkombinationen, die nicht den Nullvektor ergeben - das besagt das Superpositionsprinzip. Damit ist klar, dass D λ - beinahe - einen Untervektorraum von n bildet; „beinahe” deshalb, weil dieser Menge der Nullvektor fehlt, Unterräume aber stets den Nullvektor enthalten müssen. Es ist sinnvoll, den Nullvektor noch hinzuzunehmen, D λ also zu definieren als die Menge aller Eigenvektoren der Matrix A zum Eigenwert λ und dem Nullvektor. Wir nennen D λ den Eigenraum von A zu λ .

Eigenraum
D λ = { x | A x = λ x }

Die Dimension d von D λ ist eine wichtige Größe zur Charakterisierung von Eigenwerten. Wir nennen d geometrische Vielfachheit von λ . Ist d > 1 , so sagen wir, λ sei ein entarteter, genauer ein (geometrisch) d -fach entarteter Eigenwert. Der Zusatz „geometrisch” ist notwendig, weil es dieselben Begriffe auch mit dem Zusatz „algebraisch” gibt.

Betrachten wir zum Schluss noch Eigenvektoren, die zu verschiedenen Eigenwerten gehören. Bei zwei solchen Eigenvektoren x , y ist sofort klar, dass sie linear unabhängig sein müssen: wären sie linear abhängig, gäbe es einen Skalar c mit x = c y , dann aber müssten x und y nach dem oben Gesagten zum selben Eigenwert gehören. Das überträgt sich auch auf mehr als zwei Vektoren, so dass also allgemein gilt:

Theorem
Eigenvektoren von A zu verschiedenen Eigenwerten sind linear unabhängig. Etwas präziser: Sind x 1 , , x m Eigenvektoren von A zu paarweise verschiedenen Eigenwerten, so sind x 1 , , x m linear unabhängig.

Beweis siehe Literatur. Was bedeutet dies anschaulich? Zwei Eigenräume zu verschiedenen Eigenwerten haben außer dem Nullvektor keinen gemeinsamen Punkt, was, wenn man sich das einmal geometrisch vorstellt, die möglichen Kombinationen von Eigenräumen schon recht stark einschränkt, zumindest bei niedrigen Dimensionen n . Es bedeutet aber auch, dass die Anzahl der (verschiedenen) Eigenwerte n sein muss (warum? - da in einem n -dimensionalen Raum höchstens n Vektoren linear unabhängig sind - Link). Eine interessante Frage ist, ob sich eine Basis aus Eigenvektoren zusammenstellen lässt (für den Raum n ); mit anderen Worten: kann man jeden Vektor nach Eigenvektoren entwickeln (d.h. als Linearkombination von ihnen darstellen)? Die Antwort ist für einige Matrizen ja, für andere nein. Es gibt eine spezielle Klasse von Matrizen, die so genannten symmetrischen bzw. hermiteschen, bei denen stets eine Basis aus Eigenvektoren existiert. Mit ihr beschäftigen wir uns auf einer späteren Seite.

Die naheliegende Steigerung von linearer Unabhängigkeit ist Orthogonalität. (Zur Erinnerung: sind Nicht-Nullvektoren paarweise orthogonal, so sind sie auch linear unabhängig; die Umkehrung gilt aber nicht). Wie steht es mit der Orthogonalität von Eigenvektoren? Die Antwort ist negativ in dem Sinne: Eigenvektoren von A zu verschiedenen Eigenwerten sind nicht notwendigerweise orthogonal. Z.B. hat die Matrix

1 -3 0 -2

die Eigenwerte λ 1 = 1 und λ 2 = -2 und die Eigenvektoren

x 1 = 1 0 und x 2 = 1 1 ,

wobei x 1 und x 2 zu λ 1 bzw. λ 2 gehören, also zu verschiedenen Eigenvektoren, aber nicht orthogonal sind (man prüft das leicht selbst nach). In (Abb. 3) ist das skizziert.

Abb.3
Eigenvektoren

Eigenvektoren zu verschiedenen Eigenwerten müssen nicht orthogonal sein: Hier dargestellt am Beispiel der Eigenvektoren der Matrix .

Unmöglich ist der Fall orthogonaler Eigenvektoren (zu verschiedenen Eigenwerten) aber auch nicht; so hat etwa

-1 0 0 3

die Eigenwerte -1 und 3 , zu denen die folgenden, offensichtlich orthogonalen Eigenvektoren gehören:

1 0 bzw. 0 1 .

Es gibt sogar eine Klasse besonders wichtiger Matrizen (die symmetrischen bzw. hermiteschen), bei denen Eigenvektoren zu verschiedenen Eigenvektoren stets orthogonal sind. Wir kommen auf der schon erwähnten späteren Seite noch dazu. - Nur der Deutlichkeit halber:

Hinweis
Eigenvektoren zum selben Eigenwert λ können natürlich immer orthogonal gewählt werden, sofern die Vielfacheit d von λ größer als eins ( λ also entartet) ist, denn dann ist der Eigenraum D λ mehrdimensional und enthält immer auch zueinander orthogonale Eigenvektoren.

Die in diesem Abschnitt gegebenen Definitionen und Sätze bezogen sich auf reelle Matrizen, lassen sich aber wörtlich auf komplexe übertragen (Eigenwerte und -vektoren sind dann natürlich auch komplex).

Hinweis
Hierbei tritt eine gewisse Schwierigkeit auf. Oben haben wir für reelle Matrizen nur reelle Eigenwerte und -vektoren zugelassen. Jede reelle ist aber auch eine komplexe Matrix (nämlich eine, bei der die Imaginärteile aller Matrixelemente verschwinden) und kann als solche komplexe Eigenwerte und -vektoren haben. Um drohende Unklarheiten zu vermeiden, vereinbaren wir, unter dem Begriff reelle Matrix grundsätzlich ein Gebilde zu verstehen, mit der vollständig im Reellen zu operieren ist. Es gibt dann dasselbe quadratische Zahlenschema auch als komplexe Matrix. Mit dieser darf im Komplexen operiert werden. Es ist aber nicht unbedingt nötig, dies konsequent einzuhalten.
<Seite 1 von 11