Zusammenfassung: Determinanten Definition: Entwicklungssätze: und Unterdeterminante mit (streiche Zeile i & Spalte j v. A, bilde dann die Determinante) Eigenschaften v. Determinanten: Multilinearität, Vorzeichenwechseln beim Vertausch v. Zeilen oder Spalten, Null bei zwei gleichen Zeilen oder Spalten, Multiplikationstheorem, Inverse existiert, mit Def: Orthogonale Matrix: oder, äquivalent: Eigenschaft: Eigenwerte und Eigenvektoren Anwendungen in der Physik, insbesondere für die Bestimmung der charakteristische Schwingungen eines Systems, z.B. - Bestimmung der Normalmoden von gekoppelten harmonischen Oszillatoren - Bestimmung der Eigenzuständen und Eigenenergien eines Quantensystems Die quadratische Matrix vermittelt eine lineare Abbildung: Definition: Eigenvektor, Eigenwert Ein (nicht-Null) Vektor heißt "Eigenvektor" (EV) von (also heißt der "Eigenwert" (EW) von ) zugehörig zum Eigenvektor Eine Gleichung der Form (3) heißt "Eigenwertgleichung". falls Oft wird der Zusammenhang zwischen und nennt man den Eigenvektor und oder mit einen Index angedeutet, Beispiel 1: Nullmatrix Jeder beliebige Vektor ist EV der Nullmatrix, mit EW Beispiel 2: Einheitsmatrix Jeder beliebige Vektor ist EV der Einheitsmatrix, mit EW Beispiel 3: Diagonalmatrix (nur Diagonalmatrixelemente sind ungleich 0) Betrachte kanonische Basis von : Spaltenvektor: j-te Stelle Dann: Also: j-te Stelle Diagonalmatrizen haben kanonische Basisvektoren als EV und Diagonalmatrixelemente als dazugehörige EW. Diagonalisieren einer Matrix Angenommen, ein Satz von n linear unabhängigen EV (also eine Basis für ) ist bekannt, mit EW also: Betrachte Matrix , deren Spaltenvektoren durch diese EV gegeben sind: Eigenvektor j Dann: Spalte j von A(v1, ..., vj, ... vn) = A vj Diagonalmatrix Das Inverse Man sagt: " v. existiert, da ist ähnlich zu per Annahme eine Basis bilden " ("Äquivalenzrelation") falls derartiges heißt diagonalisierbar, falls ähnlich einer Diagonalmatrix ist. (Bedingungen für Diagonalisierbarkeit: siehe Vorlesung Lineare Algebra ) Bestimmung der Eigenvektoren und Eigenwerte Sei Also: mit EV und EW existiert. nicht invertierbar. Dann ist die Matrix Denn: wäre invertierbar, dann würde aus (48.6) folgen: im Widerspruch zu (1) Laut (31.1) ist eine Matrix genau dann nicht invertierbar, wenn ihre Determinante Null ist: (4) ist eine notwendige und hinreichende Bedingung an alle EW somit nützlich für deren Bestimmung! Def: "charakteristisches Polynom der Matrix von , ": [siehe Gl. (4) unten] Laut (48.4) liefern die Nullstellen von die Eigenwerte von ist ein EW von ist ein Polynom n-ten Grades [höchste Potenz v. ist , kommend von beim Berechnen v. (1) ] Fundamentalsatz der Algebra: (Doktorarbeit v. Gauss (1799)! Siehe Lin. Alg. Vorlesung) Ein Polynom n-ten Grades hat genau n (möglicherweise komplexe) Nullstellen. Die Nullstellen müssen nicht alle verschieden sein. Sind zwei Nullstellen gleich, heißen sie "entartet". Rezept zur Bestimmung von EW: Berechne , finde dessen Nullstellen! Beispiel 4: Finde EW und EV von Bestimme zunächst EW, via Nullstellen des charakteristischen Polynoms: Die zwei EW sind durch die zwei Lösungen der quadratischen Gleichung (3) gegeben: Allgemein: die quadratischen Gleichung hat zwei Lösungen, gegeben durch: Check: Fortsetzung Beispiel 4: Bestimmung der EV: Eigenwertgleichung: Setze EW in EW-Gleichung (1) ein, löse resultierendes lineares Gl-System nach : j=1: EV zu Lösung von (2): z.B. (oder alle Vielfache) (Zeilenvektoren sind offensichtlich linear abhängig) Check: erfüllt (3) die EW-Gl. (1) ? j=2: EV zu Lösung von (4): z.B. (oder alle Vielfache) Check: erfüllt (6) die EW-Gl. (1) ? (Zeilenvektoren sind offensichtlich linear abhängig) Zusammenfassend: hat EV hat EV Konstruiere nun die Matrizen EV als Spalten: und , die diagonalisieren! Allgemein gilt für das Inverse einer 2x2-Matrix (siehe Inverse von Check: Check (48.1): Beispiel 5: 3x3 Matrix Finde EW und EV der Matrix Charakteristisches Polynom: Entwicklung nach Spalte 1 liefert sofort: Nullstellen sind offensichtlich: Eigenwertgleichung: Setze EW in EW-Gleichung (4) ein, löse resultierendes lineares Gl-System nach j=1: EV zu Lösung: (oder Vielfache davon) : j=2: EV zu Lösung: (oder Vielfache davon) j=3: EV zu Lösung: (oder Vielfache davon) EV als Spalten: via (31.3), oder durch Ausprobieren! Check: Check (48.1): Entarteter Unterraum Def: hat das charakteristische Polynom eine dann kommt derselbe Eigenwert -fache Nullstelle bei mal vor und wird er "m-fach entartet" genannt. Falls m linear unabhängige EV mit demselben EW existieren, bilden sie eine Basis für einen m-dimensionalen "Eigenraum": Jeder Vektor in diesem Eigenraum ist ebenfalls ein EV mit EW Check: , : Bemerkung: Diagonalisieren nicht immer möglich: Beispiel 6: Charakt. Polynom: Nullstellen sind komplex: Diagonalisieren im Reellen nicht möglich (wohl aber im Komplexen). Beispiel 7: Charakt. Polynom: Doppelte Nullstelle: Nur ein Eigenvektor (statt zwei): ist nicht diagonalisierbar, da das zwei linear unabhängige EW erfordern würde! Kriterien dafür, dass Zur Kenntnisnahme: falls diagonalisierbar ist: siehe Lin. Algebra Vorlesung nicht diagonalisierbar ist, was kommt dem am nächsten? Die "Jordan-Normalform": Die einzigen nicht-Diagonalelemente liegen direkt über der Diagonale, und sind gleich 1. Die Diagonalelemente direkt links und direkt unter einer solchen 1 sind gleich. z.B.: Diagonalisieren symmetrischer Matrizen Def: ist symmetrisch, falls (oder ) Satz: Für symmetrische Matrix sind die EV zu verschiedenen EW orthogonal. Beweis: und seien zwei verschiedene EW, mit zugehörigen EV und : Transposition von (4): Linksmultiplikation: Falls Satz: Für eine symmetrische reelle Matrix sind alle EW reell. Sei eine komplexe Lösung von , mit komplexen EV Dann gilt: Komplex konjugieren: ist reell: Also ist ein EW von mit EV Laut Argumentation auf Seite M59 gilt Gl. (59.9) auch hier: explizit als Skalarprodukt: (Zahl größer als Null) ist reel. streng >, da Satz: Symmetrische reelle Matrizen sind diagonalisierbar Beweisidee: Man zeigt, dass immer n linear unabhängige Eigenvektoren existieren (Details: Lineare Algebra Vorlesung), und argumentiert dann wie auf Seite M47. Folgerung von (Spaltenvektoren sind die EV) mit Wir wissen bereits von (58.2): EV zu verschiedenen EW sind orthogonal. Ferner: EV in einem entarteten Unterraum können paarweise orthogonal gewählt werden: Sei d.h. mit Ziehe von (d.h. mit gleichem EW entartet (linear unabhängig, d.h., nicht parallel) aber dessen Projektion auf , siehe 56.3) ab: Per Konstruktion: Check: Ferner ist, laut (56.5), ebenfalls ein EV mit EW Wiederholtes Anwenden dieser Konstruktion ("Gram-SchmidtOrthogonalisierungsverfahren") liefert eine Orthogonalbasis für . . Durch Normieren derer Basisvektoren erhält man eine Orthonormalbasis für Dasselbe Verfahren kann für alle EW wiederholt werden. Fazit: für eine symmetrische, reelle Matrix können die n EV so gewählt werden, dass sie eine Orthonormalbasis für bilden: Diese Wahl macht das Diagonalisieren von Wir wissen bereits: EV als Spalten vektoren: besonders einfach: Eigenvektor j Das Inverse von ist die Matrix, deren Zeilenvektoren durch diese EV gegeben ist: Eigenvektor j Denn: Fazit: Diagonalisierung einer symmetrischen, reellen Matrix: von orthonormierten EV der Matrix mit zugehörigen EW wird durch folgende "Ähnlichkeitstransformation" "diagonalisiert": EV als Zeilenvektoren EV als Spalten- sei ein Satz . Bemerkung: laut (62.2) & (62.3), gilt: S ist eine orthogonale Matrix, beschreibt also eine "Drehung"! Fazit: die Diagonalisierung von symmetrischen reellen Matrizen ist durch Drehungen erreichbar: mit Bemerkung: symmetrische Matrizen (oder deren Verallgemeinerung im Komplexen, "hermitesche Matrizen", mit ) finden in der Physik sehr viele Anwendungen: - kleine Schwingungen um Gleichgewichtslage: EV liefern "Normalmoden", EW deren charakteristische Frequenzen. - Quantenmechanik: Observablen werden durch "hermitesche Operatoren", salopp gesagt, "hermitesche Matrizen", beschrieben. Eigenwerte des Hamilton-Operators (Energie-Operators) liefern die "Eigenenergien" eines Quantensystems