1 Lineare Algebra 1.1 Slide 3 Matrizen und Vektoren Matrizen • Eine Matrix ist ein rechteckiges Zahlenschema • eine n × m-Matrix A besteht aus n Zeilen Matrixelementen aij , i=1...n und j=1...m a11 a12 . . . a21 a22 . . . A = A = .. .. ... . . an1 an2 . . . und m Spalten mit den a1m a2m .. . anm • die aij sind reelle oder komplexe Zahlen • eine n × 1-Matrix (Spaltenmatrix) heißt (Spalten)Vektor v11 v1 v21 v2 ~v = v = ... = ... vn1 vn • Zwei Matrizen A und B sind gleich, wenn die Zahl der Zeilen in A und B gleich sind, die Zahl der Spalten in A und B gleich sind, und wenn gilt aij = bij ∀i, j. Slide 4 Matrixoperationen • Wenn A und B beides n × m-Matrizen sind, dann ist die Summe der Matrizen C = A + B definiert als cij = aij + bij mit 3 1≤i≤n und 1≤j≤m • Wenn A eine m × l-Matrix und B eine l × n-Matrix ist, dann ist das Matrixprodukt C = A · B definiert als cij = l X aik · bkj mit 1≤i≤m und 1≤j≤n k=1 Die Zahl der Spalten von A muss gleich der Zahl der Zeilen von B sein!! • skalare Multiplikation: B = kA bedeutet bij = k · aij ∀i, j k∈R • Die Multiplikation von Matrizen ist assoziativ aber ia. nicht kommutativ. Für Addition und Multiplikation gilt das Distributivgesetz. A · B 6= B · A A · (B · C) = (A · B) · C A · (B + C) = (A · B) + (A · C) 1.2 Slide 5 Spezielle Matrizen Spezielle Matrizen • Eine quadratische Matrix hat genauso viele Zeilen wie Spalten (n × nMatrix). n heißt die Ordnung der Matrix. • Eine diagonale Matrix D besitzt lediglich auf der Hauptdiagonalen (i = j) von Null verschiedene Elemente. d11 0 0 ... 0 0 d22 0 ... 0 0 0 d . . . 0 33 dij = dij δij = .. .. .. .. . . . . . . . 0 0 0 . . . dnn mit dem Kronecker-δ-Symbol δij = 1, wenn i = j und δij = 0 wenn i 6= j. 4 • Die spezielle diagonale Matrix E mit eij = δij heißt Einheitsmatrix. • Eine Obere Dreiecksmatrix hat u11 0 uij = 0 .. . 0 die Form u12 u22 0 .. . u13 u23 u33 .. . ... ... ... .. . u1n u2n u3n .. . 0 0 . . . unn also uij = 0 wenn i > j. • Analog heißt L eine Untere Dreiecksmatrix, wenn Sie die folgende Form (lij = 0 wenn i < j) besitzt: l11 0 0 . . . 0 l21 l22 0 . . . 0 lij = l31 l32 l33 . . . 0 .. .. .. . . . .. . . . . ln1 ln2 ln3 . . . lnn • Die Matrix N mit nij = 0 ∀i, j heißt Nullmatrix. • Die Matrix T = S T heißt die Transponierte von S, wenn gilt tij = sji ∀i, j • Eine 1 × n-Matrix S heißt Zeilenvektor. S ist die Transponierte eines Spaltenvektors A, also oder S = AT s1n = an1 . • Das Produkt eines Zeilenvektors mit einem Spaltenvektor S ·V = n X i=1 heißt Skalarprodukt 5 si vi • Das Produkt eines Spaltenvektors mit einem Zeilenvektor V · S = A mit aij = vi sj heißt äußeres Produkt oder Tensorprodukt und ist eine quadratische Matrix. • Die Matrix S heißt symmetrisch, wenn gilt sij = sji ∀i, j • Die Matrix A heißt antisymmetrisch, wenn gilt aij = −aji ∀i, j . Insbesondere gilt hier aii = 0 • Die Matrix B = A† ist die Adjungierte von A, wenn gilt bij = (aji )∗ • Die Matrix H heißt hermitesch, wenn sie gleich Ihrer Adjungierten ist (wenn sie also selbstadjungiert ist). Dann gilt hij = (hji )∗ ∀i, j Insbesondere gilt, dass die Diagonalelemente reell sind, also hii = (hii )∗ . Wenn alle Matrixelemente reell sind, ist die Matrix sowohl hermitesch als auch symmetrisch. 1.3 Slide 6 Die Spur einer Matrix Die Spur einer Matrix • Die Summe der Diagonalelemente aii einer Matrix A T r(A) = N X aii i=1 heißt die Spur der Matrix A. • die Spur der n-dimensionalen Einheitsmatrix ist gleich n: T r(En ) = n 6 1.4 Slide 7 Matrixdeterminanten Determinanten I • Es gibt N ! verschiedene Permutationen der Zahlen 1, 2, . . . N • Die Determinante einer N × N -Matrix A ist eine Zahl, berechnet nach a11 . . . a1N .. det(A) = |A| = ... . aN 1 . . . aN N N! X = (−1)pi Pi a11 a22 . . . aN N i=1 • Pi ist ein Permutationsoperator, der die Spaltenindizes vertauscht. Die Summe läuft über alle N ! Permutationen. Slide 8 Determinanten II N! X detA = (−1)pi Pi a11 a22 . . . aN N i=1 • pi ist die Zahl der Transpositionen (Vertauschungen), die zur Wiederherstellung der Diagonalform notwendig sind. • Es ist nur wichtig, ob die Zahl der Transpositionen gerade oder ungerade ist. Slide 9 7 Determinanten von 1 × 1 und 2 × 2-Matrizen a11 a12 • Sei A = a21 a22 • Es gibt 2 Permutationen der Zeilenindizes 1 2 (p1 = 0) 2 1 (p1 = 1) • Nach der Definition ist also a11 a12 0 1 a21 a22 = (−1) a11 a22 + (−1) a12 a21 = a11 a22 − a12 a21 • Die Determinante einer 1 × 1-Matrix ist das Matrixelement a11 det(a11 ) = a11 Slide 10 3 × 3-Determinanten • Entwicklungssatz a11 a12 a13 a21 a22 a23 a31 a32 a33 = a11 a22 a23 a32 a33 a21 a22 a21 a23 −a12 + a13 a31 a33 a31 a32 = a11 a22 a33 − a11 a23 a32 − a12 a21 a33 +a12 a31 a23 + a13 a21 a32 − a13 a31 a22 • Die 2 × 2-Determinante, die sich durch Streichen der i. Reihe und j. Spalte einer Determinante ergibt, heißt Minore oder Unterdeterminante Mij • Der Cofaktor Cij (oft auch ãij ) ist definiert als Cij = (−1)i+j Mij Slide 11 8 Determinanten gößerer Matrizen • Verallgemeinerung: (n−1)×(n−1)-Unterdeterminanten Mij entstehen durch Streichen der i. Reihe und j. Spalte einer n × n-Determinante • Verallgemeinerung des Entwicklungssatzes a11 . . . a1N N N X X .. det(A) = ... = a C = alk Clk kl kl . l=1 aN 1 . . . aN N l=1 • Entwicklung nach beliebigen Zeilen oder Spalten möglich • jede der n verschiedenen (n − 1) × (n − 1)-Determinanten kann dann (rekursiv) wieder nach dem Entwicklungssatz berechnet werden, bis zur Ordnung 2 (oder 1). Slide 12 Eigenschaften von Determinanten • det(AT ) = det(A) ⇒ det(A† ) = det(A)∗ • det(A · B) = det(A) · detB • det A = 0, wenn alle Elemente einer Zeile (Spalte) gleich 0 sind • Vertauschen von zwei Reihen (Spalten) ändert das Vorzeichen der Determinante • det A = 0, wenn zwei Reihen (Spalten) identisch sind • Der Wert der Determinante bleibt unverändert, wenn man ein beliebiges Vielfaches einer Reihe (Spalte) zu einer anderen Reihe (Spalte) addiert. • die Determinanten einer Diagonalmatrix oder einer (oberen oder unteren) Dreiecksmatrix sind gleich dem Produkt der Diagonalelemente! 1.5 Slide 13 Inverse Matrizen 9 Inverse Matrix I • Die Matrix B = A−1 heißt die Linksinverse von A, wenn gilt A−1 · A = E . • Analog heißt die Matrix C = A−1 die Rechtsinverse von A, wenn gilt A · A−1 = E . • Für quadratische Matrizen sind die Rechts- und die Linksinverse gleich und heißt die Inverse Matrix von A A · A−1 = A−1 · A = E • Hermitesche Matrizen haben (i.d.R.) eine Inverse. Slide 14 Inverse Matrix II • Für nichtquadratische Matrizen sind Rechtsinverse AR −1 und Linksinverse AL −1 nicht gleich. Wenn A eine n × m-Matrix ist, dann ist AL −1 · A = Em A · AR −1 = En Einheitsmatrix der Ordnung m Einheitsmatrix der Ordnung n Beispiel Slide 15 10 Inverse einer 2 × 2-Matrix • Gegeben sei eine 2 × 2-Matrix A mit A = a11 a12 a21 a22 • Dann ist die Inverse A−1 gegeben durch 1 a22 −a12 −1 A = a11 a11 a22 − a12 a21 −a21 • Die Inverse existiert also genau dann, wenn det(A) 6= 0 ist. • Dies kann auf beliebig große quadratische Matrizen verallgemeinert werden. Slide 16 Orthogonale und Unitäre Matrizen • Eine Matrix O heißt orthogonal, wenn ihre Transponierte gleich ihrer Inversen OT = O−1 ist, also O · OT = E • Eine Matrix U heißt unitär, wenn ihre Adjungierte gleich ihrer Inversen U † = U −1 ist, also U · U† = E • Beachte: Aufgrund der Definition sind symmetrische, antisymmetrische, hermitesche, orthogonale und unitäre Matrizen notwendigerweise quadratisch!. 1.6 Eigenwerte und Eigenvektoren Slide 17 11 Matrixeigenwertgleichungen I • Multipliziert man einen Spaltenvektor von links mit einer quadratischen Matrix, so erhält man wieder einen Spaltenvektor. • Multipliziert man einen Zeilenvektor von rechts mit einer quadratischen Matrix, so erhält man wieder einen Zeilenvektor. a11 a12 . . . a1n c1 a21 a22 . . . a2n c2 • A = .. und ~c = .. seien eine quadra.. .. . . . . . . . an1 an2 . . . ann cn tische n × n-Matrix bzw. ein n-dimensionaler Spaltenvektor. λ sei ein Skalar (=Zahl). Slide 18 Matrixeigenwertgleichungen II • Wenn ~c die Gleichung A~c = λ~c oder (A − λE)~c = 0 erfüllt, dann heißt ~c Eigenvektor von A, und λ heißt der dazugehörige Eigenwert von A. • Eine solche Matrixeigenwertgleichung ist äquivalent zu einem gekoppelten homogenen linearen Gleichungssystem aus n Gleichungen (a11 − λ)c1 +a12 c2 + . . . +a1n cn a21 c1 +(a22 − λ)c2 + . . . +a2n cn ... ... ... ... an1 c1 +an2 c2 + . . . +(ann − λ)cn Slide 19 12 =0 =0 =0 =0 Matrixeigenwertgleichungen III • nichttriviale Lösungen der Matrixeigenwertgleichung A~c = λ~c = λE~c existieren nur, wenn det(A − λE) = 0 (∗) • (∗) heißt die charakteristische Gleichung (oder das charakteristische Polynom) der Matrix A. • Das charakteristische Polynom hat n Wurzeln für λi . • Einige der Wurzeln können gleich sein. Die Eigenwerte heißen dann entartet. Slide 20 Eigenwerte und Eigenvektoren • Ist A diagonal, so sind die Wurzeln λi = aii , da det(A − λE) = (a11 − λ) · (a22 − λ) . . . (ann − λ) • Eigenvektoren können durch Multiplikation mit einer Konstante normiert werden. • Die Eigenwerte einer hermiteschen Matrix sind reell. • Eigenvektoren zu zwei verschiedenen Eigenwerten λ1 und λ2 sind orthogonal, d.h. c~1 † · c~2 = 0 • Für Eigenvektoren, die zu zwei entarteten Eigenwerten (also λ1 = λ2 ) gehören, lassen sich immer 2 zueinander orthogonale Linearkombinationen der Eigenvektoren konstruieren! Slide 21 13 Der n-dimensionale Vektorrraum • eine n × n-Matrix hat also n Eigenvektoren, die alle zueinander orthogonal sind. • Man sagt, dass die n Eigenvektoren einen n-dimensionalen (Vektor)Raum aufspannen. • Jeder Vektor in diesem Raum kann durch eine Linearkombination der Eigenvektoren ausgedrückt werden. • Die Eigenvektoren sind ein vollständiger Satz von Basisvektoren Beispiel 1.7 1.7.1 Slide 22 Beispiele Inverse einer Rechtecksmatrix Inverse einer Rechtecksmatrix I • Betrachte die 1 × 2 Matrix A= 1 2 • Eine Rechtsinverse ist offensichtlich AR −1 = 1 0 denn A · AR −1 = 1 · 1 + 2 · 0 = 1 = E1 . • Eine andere Rechtsinverse ist offensichtlich 0 0 −1 AR = 0.5 denn A · AR −1 = 1 · 0 + 2 · 0.5 = 1 = E1 Slide 23 14 Inverse einer Rechtecksmatrix II • die Matrix A hat offensichtlich keine Linksinverse, denn es müsste gelten: ! −1 (a−1 L )11 · a11 = (aL )11 · 1 = 1 = e11 ! −1 (a−1 L )21 · a11 = (aL )21 · 1 = 0 = e21 ! −1 (a−1 L )11 · a12 = (aL )11 · 2 = 0 = e12 ! −1 (a−1 L )21 · a12 = (aL )21 · 2 = 1 = e22 Zurück 1.7.2 Slide 24 Eigenwerte einer 3 × 3-Matrix Eigenwerte einer 3 × 3-Matrix 1 0 0 • Beispielmatrix: A = 0 2 0 0 0 3 • Die Matrix ist diagonal. • Die Eigenwertgleichung lautet: A~c(i) = λi~c(i) für i = 1, 2, 3 • Es gibt also 3 verschiedene Eigenwerte und Eigenvektoren. 1−λ 0 0 2−λ 0 • Die charakteristische Gleichung lautet 0 0 0 3−λ • Die Wurzeln lauten: λ1 = 1, λ2 = 2 und λ3 = 3. • Wie erhält man nun aus den Eigenwerten die Eigenvektoren? Slide 25 15 =0 Eigenvektoren einer 3 × 3-Matrix • Man setzt für jeden Eigenvektor separat den entsprechenden Eigenwert in die Eigenwertgleichung ein. • also, für i = 1 (1) (1) c c1 1 0 0 1 0 0 1 (1) (1) 0 2 0 ~c = 0 2 0 c = 1 · c (1) 2 2 (1) (1) 0 0 3 0 0 3 c3 c3 • Das dazugehörige Gleichungssystem lautet: (1) (1) (1) (1) = 1c1 +0c3 +0c2 1c1 (1) (1) (1) (1) 0c1 +2c2 +0c3 = 1c2 (1) (1) (1) (1) 0c1 +0c2 +3c3 = 1c3 (1) (1) (1) • Die offensichtliche Lösung lautet: c1 ist beliebig, c2 = c3 = 0. Slide 26 Eigenvektoren (1) • Wählen wir c1 1 0 0 = 1, erhält man den normierten Eigenvektor ~c (1) = • Analog erhält man für λ2 = 2 den Eigenvektor ~c (2) 0 = 1 0 • und für λ3 = 3 erhält man ~c (3) 0 = 0 1 • Die drei Vektoren sind orthogonal und spannen den gesamten dreidimensionalen Raum auf! Zurück 16