zum Directory-modus

Diagonalisierung von Matrizen

Diagonalisierung Hermite´scher Matrizen

Sei eine (reelle oder komplexe) n × n -Matrix A gegeben. Sei ferner eine invertierbare Matrix S gleicher Gestalt gegeben (zur Erinnerung: invertierbar heißt, dass die inverse Matrix S -1 existiert). Betrachten wir die Formel

A ' = S -1 A S .

Auf der linken Seite steht offenbar wieder eine n × n -Matrix. Der Übergang von A zu A ' wird Ähnlichkeitstransformation genannt und A und A ' sind ähnlich. A heißt diagonalisierbar, wenn es eine Ähnlichkeitstransformation gibt, bei der A ' eine Diagonalmatrix ist; die Durchführung einer solchen Ähnlichkeitstransformation wird Diagonalisierung von A genannt. Zwei ähnliche Matrizen A und A ' haben identische charakteristische Polynome

P A ( λ ) P A ' ( λ ) ,

aber das Gegenteil gilt nicht.

Damit es nicht zu kompliziert wird, und weil der Fall besonders wichtig ist, betrachten wir nur die Diagonalisierung hermitescher Matrizen (was die reell-symmetrischen mit einschließt).

Sei also A reell-symmetrisch bzw. komplex-hermitesch angenommen. Es gibt für den Raum n bzw. n (je nachdem, ob A reell oder komplex ist) eine Orthonormalbasis

s 1 , s 2 , , s n

aus Eigenvektoren von A (siehe Link). Für jedes k = 1 , , n sei μ k der Eigenwert von A , zu dem s k Eigenvektor ist. Die Komponenten von s k seien gemäß

s k = s 1 k s 2 k s n k

bezeichnet. Wir bilden nun die n × n -Matrix S , deren Spaltenvektoren gerade s 1 , , s n sind; also

S = s 11 s 1 n s n 1 s n n .

S ist ganz offensichtlich orthogonal bzw. unitär (je nachdem, ob A reell oder komplex ist), denn die Spaltenvektoren stehen ja aufeinander senkrecht. Für solche Matrizen gilt bekanntlich

S -1 = S T im reellen bzw. S -1 = S + im komplexen Fall,

so dass die Form

A ' = S T A S

bzw.

A ' = S + A S

annimmt. Man rechnet leicht nach, dass A ' in beiden Fällen die Diagonalmatrix

A ' = μ 1 μ n

ist. Das kommt daher, dass (1) der k -te Spaltenvektor von A S durch A s k gegeben ist, was wegen der Eigenvektoreigenschaft von s k nichts anderes als μ k s k ergibt, und (2) bei der Multiplikation von S T bzw. S + mit A S im wesentlichen die Skalarprodukte der Vektoren s k berechnet werden, welche paarweise orthogonal sind (man führe die Rechnung zur Übung selbst aus). Fassen wir zusammen:

Theorem
Ist A eine reelle symmetrische bzw. komplexe hermitesche Matrix, so wird A durch die Matrix S diagonalisiert, welche als Spaltenvektoren die Vektoren s 1 , , s n einer Orthonormalbasis aus Eigenvektoren von A enthält. Auf der Hauptdiagonalen der transformierten Matrix S T A S bzw. S + A S stehen die Eigenwerte von A .

Zwei Matrizen A und A ' heißen kongruent, wenn es eine invertierbare Matrix S gibt mit

A ' = S + A S

In Anwendungen hat S oft eine natürliche Interpretation als Basis- oder Koordinatentransformation. Hier seien nur zwei Stichworte gegeben:

  • Hauptachsentransformation eines Tensors.
  • Normalschwingungen. Hier geht es darum, geeignete Koordinaten – so genannte Normalkoordinaten – aufzufinden, in denen die interne Bewegung eines Moleküls näherungsweise durch unabhängige harmonische Oszillatoren dargestellt wird. Man erhält die Normalkoordinaten durch Diagonalisierung einer bestimmten symmetrischen Matrix.
Beispiel

Die Matrix

A = 1 -1 0 -1 1 0 0 0 2

ist offenbar symmetrisch. Die Lösung ihrer Eigenwertgleichung ergibt folgendes: A hat die beiden Eigenwerte 2 und 0 . 2 ist zweifach entartet, 0 nicht entartet (da A symmetrisch ist, brauchen wir nicht zwischen geometrischer und algebraischer Vielfachheit zu unterscheiden). Die Eigenvektoren sind

s 1 = 1 2 1 1 0 , s 2 = 1 2 -1 1 0 , s 3 = 0 0 1 ,

wobei s 2 und s 3 den zweidimensionalen Eigenraum zum Eigenwert 2 aufspannen (d.h. eine Basis für ihn bilden) und s 1 zum Eigenwert 0 gehört. Man prüft dies alles leicht nach. s 1 , s 2 und s 3 sind normiert und paarweise orthogonal, bilden also, da außerdem ihre Anzahl gleich der Dimension 3 des 3 ist, eine Orthonormalbasis für 3 . Bilden wir nun die Matrix . Das ergibt

S = 1 2 - 1 2 0 1 2 1 2 0 0 0 1

und damit

S T = 1 2 1 2 0 - 1 2 1 2 0 0 0 1

und es gilt tatsächlich

A ' = S T A S = 2 0 0 0 2 0 0 0 0 ,

wie man leicht nachrechnet.

Interpretieren wir das ganze geometrisch: Sei ein Punkt P im dreidimensionalen Raum gegeben (ein Ortsvektor). P kann bezüglich eines gegebenen kartesischen Koordinatensystems durch drei Koordinaten x 1 , x 2 , x 3 gekennzeichnet werden, die sich zum Tripel

x = x 1 x 2 x 3 3

zusammenfassen lassen. Da s 1 , s 2 , s 3 eine Basis im 3 sind, lässt sich x nach ihnen entwickeln:

x = y 1 s 1 + y 2 s 2 + y 3 s 3 .

Hierbei sind y 1 , y 2 und y 3 Zahlen, durch die P ebenso charakterisiert ist wie durch x 1 , x 2 , x 3 und die sich zu einem zweiten Tripel

y = y 1 y 2 y 3 3

zusamenfassen lassen. Wir können sie interpretieren als Koordinaten von P bezüglich eines zweiten Koordinatensystems, dessen drei Achsen (im ersten System) durch die Vektoren s 1 , s 2 , s 3 bestimmt sind. Dieses ist wie das erste kartesisch, da letztere Vektoren orthogonal sind. Wie ist nun der Zusammenhang zwischen den alten und neuen Koordinaten? Multiplizieren wir der Reihe nach mit s 1 , s 2 und s 3 (Skalarprodukt) und berücksichtigen wir die Normiertheit und paarweise Orthogonalität der s k ' s, so ergibt sich

y 1 = s 1 x , y 2 = s 2 x , y 3 = s 3 x .

Bedenken wir, dass s 1 , s 2 , s 3 die Spaltenvektoren von S und damit die Zeilenvektoren von S T sind, so erkennen wir, dass wir dies auch als

y = S T x

schreiben können. Da S T = S -1 , gilt umgekehrt

x = S y .

Mit und ist die oben gestellte Frage beantwortet: liefert die neuen Koordinaten in Abhängigkeit von den alten, die alten in Abhängigkeit von den neuen. Sehen wir uns noch an, was der Matrix A im neuen Koordinatensystem entspricht. Durch A werden die Koordinaten x von P in die Koordinaten

x ' = A x

eines anderen Punktes P ' überführt. Sind y ' die Koordinaten von P ' im neuen System, so ergibt sich

y ' = S T x ' = S T A x = S T A S y ,

also

y ' = A ' y .

Etwas salopp ausgedrückt macht A ' also in den neuen Koordinaten genau das, was A in den alten macht. Bleibt noch zu erwähnen, dass wir im vorliegenden Beispiel S unschwer noch konkreter beschreiben können: S ist offenbar nichts anderes als die Matrix einer Drehung um +45 um die x 3 -Achse. Das neue Koordinatenkreuz geht also aus dem alten durch solch eine Drehung hervor. In (Abb. 1) ist das grafisch dargestellt.

Abb.1
In Orange ist das neue Koordinatensystem aufgezeichnet, das von den drei Eigenvektoren s 1 , s 2 , s 3 (rot) aufgespannt wird.

Betrachten wir eine symmetrische 2 × 2 -( 3 × 3 )-Matrix A als lineare Abbildung, dann ist das Bild des Einheitskreises (-kugels) unter A eine Ellipse (ein Ellipsoid). Die Eigenvektoren von A sind gerade die Achsen dieser Ellipse und die Eigenwerte sind die Länge dieser Hauptachsen.

<Seite 1 von 2