zum Directory-modus

Eigenwerte einer Matrix

Symmetrische, orthogonale und andere spezielle Matrizen

Bisher haben wir immer die allgemeine Eigenwertgleichung einer beliebigen Matrix betrachtet. Setzt man einen bestimmten Typ von Matrix voraus, ergeben sich oft ganz erhebliche Vereinfachungen. Dazu kommen wir jetzt. Wir beginnen mit einem Typ, der uns in den Beispielen schon begegnet ist.

Diagonalmatrizen

Eine n × n -Matrix A heißt Diagonalmatrix, falls sie die Form

A = μ 1 0 0 0 0 μ 2 0 0 0 0 μ 3 0 0 0 0 μ n

hat. In diesem Fall gilt:

Theorem
Die Eigenwerte von A sind die (nicht notwendigerweise alle verschiedenen) Zahlen μ 1 , , μ n . Sei eine beliebige von ihnen herausgegriffen und mit λ bezeichnet. Die geometrische ist gleich der algebraischen Vielfachheit von λ und gleich der Anzahl der μ k ' s, die gleich λ sind. Der Eigenraum D λ zu λ wird aufgespannt von allen Vektoren
e k = δ k 1 δ k 2 δ k n
mit μ k = λ .

Hierbei bedeutet δ k j das Kronecker-Symbol, d.h.

δ k j = 1 für j = k 0 für j k .

Man prüft die Richtigkeit leicht selbst nach. Vielleicht noch ein Beispiel. Hat A die Form

A = 5 0 0 0 0 1 0 0 0 0 1 0 0 0 0 5 ,

so sind die Eigenwerte 5 und 1 , der Eigenraum zu 5 wird aufgespannt von

e 1 = 1 0 0 0 und e 4 = 0 0 0 1 ,

der zu 1 von

e 2 = 0 1 0 0 und e 3 = 0 0 1 0 .

Symmetrische und Hermite´sche Matrizen

Sei wieder eine quadratische Matrix

A = a 11 a 1 n a n 1 a n n

gegeben. A heißt symmetrisch, wenn

a j k = a k j für alle j , k = 1 , , n

(wenn also die Matrix beim Spiegeln an der Hauptdiagonalen in sich selbst übergeht). A heißt hermitesch, wenn

a j k = ( a k j ) * für alle j , k = 1 , , n .

Statt () bzw. () kann völlig äquivalent auch

A T = A

bzw.

A + = A

geschrieben werden, wobei A T die zu A transponierte und A + die zu A adjungierte Matrix bezeichnet. A + ist definiert als die Matrix, die aus A T durch Ersetzen der Matrixelemente durch ihre konjugiert komplexen Werte hervorgeht. Für eine reelle Matrix gilt A + = A T ; für eine solche Matrix sind symmetrisch und hermitesch also gleichbedeutend. Es reicht deshalb, in folgendem Satz nur von hermiteschen Matrizen zu sprechen:

Theorem
Ist A hermitesch, so sind alle Eigenwerte reell (was natürlich nur im komplexen Fall etwas besonderes ist), Eigenvektoren zu verschiedenen Eigenwerten sind orthogonal, es gibt (im Raum n bzw. n ) eine Orthonormalbasis aus Eigenvektoren, und für alle Eigenwerte stimmen geometrische und algebraische Vielfachheit überein.

Die erste Aussage ist von ihrer Bedeutung her klar, die zweite stellt eine Verschärfung der weiter oben festgestellten Tatsache dar, dass Eigenvektoren zu verschiedenen Eigenwerten stets linear unabhängig sind (dazu beachte man, dass aus Orthogonalität lineare Unabhängigkeit folgt, aber nicht umgekehrt), die dritte beinhaltet die weiter oben angekündigte Aussage, dass im Fall hermitescher Matrizen eine Basis aus Eigenvektoren existiert, geht aber darüber hinaus, da die Basisvektoren sogar orthogonal (und normiert, was aber wieder nichts Besonderes ist) gewählt werden können. Die dritte Aussage wird auch Hauptachsentheorem genannt.

Es gibt noch eine weitere Klasse von Matrizen, die hinsichtlich des Eigenwertproblems interessant sind: die orthogonalen bzw. unitären.

Orthogonale und unitäre Matrizen

Betrachten wir wieder

A = a 11 a 1 n a n 1 a n n .

Sei zunächst angenommen, A ist reell. Zur Wiederholung: A heißt orthogonal, wenn

A T A = E

( A T bezeichnet wieder die zu A transponierte Matrix, E die n × n -Einheitsmatrix). Nun zum (allgemeineren) Fall eines komplexen A . Der der Orthogonalität entsprechende Begriff ist die Unitarität. A heißt unitär, wenn

A + A = E

( A + ist die zu A adjungierte Matrix, s.o.). Jede unitäre Matrix ist natürlich auch orthogonal. Es gilt folgendes:

Theorem
Ist A eine reelle orthogonale Matrix, so ist jeder Eigenwert von A gleich 1 oder -1 . Ist A eine komplexe unitäre Matrix, so liegen alle Eigenwerte auf dem Einheitskreis, haben also die Form e i φ .

Singuläre Matrizen

Zum Schluss eine Bemerkung zu singulären (aber immer noch quadratischen) Matrizen. Bekanntlich heißt A singulär, falls det A = 0 . Wir wissen, dass jede Zahl λ , die det ( A - λ E ) zu Null macht, Eigenwert ist. Ist A singulär, so ist dies offensichtlich für λ = 0 der Fall, denn det ( A - 0 E ) = det A = 0 , also ist 0 in diesem Fall Eigenwert. Davon gilt auch die Umkehrung: ist 0 Eigenwert, so folgt offenbar 0 = det ( A - 0 E ) = det A , es verschwindet also die Determinante von A , womit A singulär ist. Fassen wir das in einem Satz zusammen:

Theorem
Eine quadratische Matrix A ist genau dann singulär, wenn die Zahl 0 Eigenwert von A ist.

Singuläre Matrizen treten z.B. bei der Lösung von Differenzialgleichungssystemen 1. Ordnung auf, die gekoppelte chemische Reaktionen erster Ordnung beschreiben.

Seite 8 von 11