Eigenwerte und Eigenvektoren

Werbung
Zusammenfassung: Determinanten
Definition:
Entwicklungssätze:
und Unterdeterminante
mit
(streiche Zeile i & Spalte j v. A, bilde dann die Determinante)
Eigenschaften v. Determinanten:
Multilinearität, Vorzeichenwechseln beim Vertausch v. Zeilen oder Spalten,
Null bei zwei gleichen Zeilen oder Spalten, Multiplikationstheorem, Inverse
existiert, mit
Def: Orthogonale Matrix:
oder, äquivalent:
Eigenschaft:
Eigenwerte und Eigenvektoren
Anwendungen in der Physik, insbesondere für die Bestimmung der
charakteristische Schwingungen eines Systems, z.B.
- Bestimmung der Normalmoden von gekoppelten harmonischen Oszillatoren
- Bestimmung der Eigenzuständen und Eigenenergien eines Quantensystems
Die quadratische Matrix
vermittelt eine lineare Abbildung:
Definition: Eigenvektor, Eigenwert
Ein (nicht-Null) Vektor
heißt "Eigenvektor" (EV) von
(also
heißt der "Eigenwert" (EW) von
)
zugehörig zum Eigenvektor
Eine Gleichung der Form (3) heißt "Eigenwertgleichung".
falls
Oft wird der Zusammenhang zwischen
und nennt man den Eigenvektor
und
oder
mit einen Index angedeutet,
Beispiel 1: Nullmatrix
Jeder beliebige Vektor
ist EV der Nullmatrix, mit EW
Beispiel 2: Einheitsmatrix
Jeder beliebige Vektor
ist EV der Einheitsmatrix, mit EW
Beispiel 3: Diagonalmatrix
(nur Diagonalmatrixelemente sind ungleich 0)
Betrachte kanonische Basis von
:
Spaltenvektor:
j-te Stelle
Dann:
Also:
j-te Stelle
Diagonalmatrizen haben kanonische Basisvektoren
als EV
und Diagonalmatrixelemente
als dazugehörige EW.
Diagonalisieren einer Matrix
Angenommen, ein Satz von n linear unabhängigen EV
(also eine Basis für
) ist bekannt, mit EW
also:
Betrachte Matrix
,
deren Spaltenvektoren
durch diese EV gegeben sind:
Eigenvektor j
Dann:
Spalte j von A(v1, ..., vj, ... vn) = A vj
Diagonalmatrix
Das Inverse
Man sagt: "
v.
existiert, da
ist ähnlich zu
per Annahme eine Basis bilden
" ("Äquivalenzrelation") falls derartiges
heißt diagonalisierbar, falls
ähnlich einer Diagonalmatrix ist.
(Bedingungen für Diagonalisierbarkeit: siehe Vorlesung Lineare Algebra )
Bestimmung der Eigenvektoren und Eigenwerte
Sei
Also:
mit EV
und EW
existiert.
nicht
invertierbar.
Dann ist
die Matrix
Denn: wäre
invertierbar, dann würde aus (48.6) folgen:
im Widerspruch zu (1)
Laut (31.1) ist eine Matrix genau dann nicht invertierbar, wenn ihre Determinante Null
ist:
(4) ist eine notwendige und hinreichende Bedingung an alle EW
somit nützlich für deren Bestimmung!
Def: "charakteristisches Polynom der Matrix
von
,
":
[siehe Gl. (4) unten]
Laut (48.4) liefern die
Nullstellen von
die
Eigenwerte von
ist ein EW von
ist ein Polynom n-ten Grades [höchste Potenz v.
ist
, kommend von
beim Berechnen v. (1) ]
Fundamentalsatz der Algebra: (Doktorarbeit v. Gauss (1799)! Siehe Lin. Alg. Vorlesung)
Ein Polynom n-ten Grades hat genau n (möglicherweise komplexe) Nullstellen.
Die Nullstellen müssen nicht alle verschieden sein. Sind zwei Nullstellen gleich, heißen
sie "entartet".
Rezept zur Bestimmung von EW: Berechne
, finde dessen Nullstellen!
Beispiel 4:
Finde EW und EV von
Bestimme zunächst EW, via Nullstellen des charakteristischen Polynoms:
Die zwei EW sind durch die
zwei Lösungen der quadratischen
Gleichung (3) gegeben:
Allgemein: die quadratischen Gleichung
hat zwei Lösungen, gegeben durch:
Check:
Fortsetzung Beispiel 4: Bestimmung der EV:
Eigenwertgleichung:
Setze EW
in EW-Gleichung (1) ein, löse resultierendes lineares Gl-System nach
:
j=1: EV zu
Lösung von (2): z.B.
(oder alle Vielfache)
(Zeilenvektoren sind
offensichtlich linear abhängig)
Check: erfüllt
(3) die EW-Gl. (1) ?
j=2: EV zu
Lösung von (4): z.B.
(oder alle Vielfache)
Check: erfüllt
(6) die EW-Gl. (1) ?
(Zeilenvektoren sind
offensichtlich linear abhängig)
Zusammenfassend:
hat EV
hat EV
Konstruiere nun die Matrizen
EV als
Spalten:
und
, die
diagonalisieren!
Allgemein gilt für das Inverse
einer 2x2-Matrix (siehe
Inverse
von
Check:
Check (48.1):
Beispiel 5: 3x3 Matrix
Finde EW und EV der Matrix
Charakteristisches Polynom:
Entwicklung nach Spalte
1 liefert sofort:
Nullstellen sind offensichtlich:
Eigenwertgleichung:
Setze EW
in EW-Gleichung (4) ein, löse resultierendes lineares Gl-System nach
j=1: EV zu
Lösung:
(oder Vielfache davon)
:
j=2: EV zu
Lösung:
(oder Vielfache davon)
j=3: EV zu
Lösung:
(oder Vielfache davon)
EV als
Spalten:
via (31.3), oder durch Ausprobieren!
Check:
Check (48.1):
Entarteter Unterraum
Def: hat das charakteristische Polynom eine
dann kommt derselbe Eigenwert
-fache Nullstelle bei
mal vor und wird er "m-fach entartet" genannt.
Falls m linear unabhängige EV mit demselben EW
existieren,
bilden sie eine Basis für einen m-dimensionalen "Eigenraum":
Jeder Vektor
in diesem Eigenraum ist ebenfalls ein EV mit EW
Check:
,
:
Bemerkung: Diagonalisieren nicht immer möglich:
Beispiel 6:
Charakt.
Polynom:
Nullstellen sind komplex:
Diagonalisieren im Reellen nicht möglich (wohl aber im Komplexen).
Beispiel 7:
Charakt.
Polynom:
Doppelte Nullstelle:
Nur ein Eigenvektor (statt zwei):
ist nicht diagonalisierbar, da das zwei linear unabhängige EW erfordern würde!
Kriterien dafür, dass
Zur Kenntnisnahme: falls
diagonalisierbar ist: siehe Lin. Algebra Vorlesung
nicht diagonalisierbar ist, was kommt dem am nächsten?
Die "Jordan-Normalform":
Die einzigen nicht-Diagonalelemente
liegen direkt über der Diagonale,
und sind gleich 1. Die Diagonalelemente
direkt links und direkt unter einer
solchen 1 sind gleich.
z.B.:
Diagonalisieren symmetrischer Matrizen
Def:
ist symmetrisch, falls
(oder
)
Satz: Für symmetrische Matrix sind die EV zu verschiedenen EW orthogonal.
Beweis:
und
seien
zwei verschiedene EW, mit
zugehörigen EV
und
:
Transposition von (4):
Linksmultiplikation:
Falls
Satz: Für eine symmetrische reelle Matrix sind alle EW reell.
Sei
eine komplexe Lösung von
, mit komplexen EV
Dann gilt:
Komplex konjugieren:
ist reell:
Also ist
ein EW von
mit EV
Laut Argumentation
auf Seite M59 gilt
Gl. (59.9) auch hier:
explizit als Skalarprodukt:
(Zahl größer als Null)
ist reel.
streng >,
da
Satz: Symmetrische reelle Matrizen sind diagonalisierbar
Beweisidee: Man zeigt, dass immer n linear unabhängige Eigenvektoren existieren
(Details: Lineare Algebra Vorlesung), und argumentiert dann wie auf Seite M47.
Folgerung von
(Spaltenvektoren sind die EV)
mit
Wir wissen bereits von (58.2): EV zu verschiedenen EW sind orthogonal.
Ferner: EV in einem entarteten Unterraum
können paarweise orthogonal gewählt werden:
Sei
d.h.
mit
Ziehe von
(d.h. mit gleichem EW
entartet
(linear unabhängig, d.h., nicht parallel)
aber
dessen Projektion auf
, siehe 56.3)
ab:
Per Konstruktion:
Check:
Ferner ist, laut (56.5),
ebenfalls ein EV mit EW
Wiederholtes Anwenden dieser Konstruktion ("Gram-SchmidtOrthogonalisierungsverfahren") liefert eine Orthogonalbasis für
.
.
Durch Normieren derer Basisvektoren erhält man eine Orthonormalbasis für
Dasselbe Verfahren kann für alle EW wiederholt werden.
Fazit: für eine symmetrische, reelle Matrix
können die
n EV
so gewählt werden, dass sie eine Orthonormalbasis für
bilden:
Diese Wahl macht das Diagonalisieren von
Wir wissen bereits:
EV als Spalten
vektoren:
besonders einfach:
Eigenvektor j
Das Inverse von
ist
die Matrix, deren Zeilenvektoren
durch diese EV gegeben ist:
Eigenvektor j
Denn:
Fazit: Diagonalisierung einer symmetrischen, reellen Matrix:
von orthonormierten EV der Matrix
mit zugehörigen EW
wird durch folgende "Ähnlichkeitstransformation" "diagonalisiert":
EV als
Zeilenvektoren
EV als
Spalten-
sei ein Satz
.
Bemerkung: laut (62.2) & (62.3), gilt:
S ist eine orthogonale Matrix, beschreibt also eine "Drehung"!
Fazit: die Diagonalisierung von symmetrischen reellen Matrizen ist durch Drehungen
erreichbar:
mit
Bemerkung: symmetrische Matrizen (oder deren Verallgemeinerung im Komplexen,
"hermitesche Matrizen", mit
) finden in der Physik sehr viele
Anwendungen:
- kleine Schwingungen um Gleichgewichtslage: EV liefern "Normalmoden",
EW deren charakteristische Frequenzen.
- Quantenmechanik: Observablen werden durch "hermitesche Operatoren", salopp
gesagt, "hermitesche Matrizen", beschrieben. Eigenwerte des Hamilton-Operators
(Energie-Operators) liefern die "Eigenenergien" eines Quantensystems
Herunterladen