4.4. Rang und Inversion einer Matrix Der Rang einer Matrix ist die Dimension ihres Zeilenraumes, also die Maximalzahl linear unabhängiger Zeilen. Daß der Rang sich bei elementaren Zeilenumformungen nicht ändert, ist klar (denn es bleibt ja sogar der Zeilenraum der selbe). Schwerer zu zeigen ist, daß der Rang auch bei elementaren Spaltenumformungen erhalten bleibt (wir glauben das an dieser Stelle den Mathematikern). Der Rang ist nichts anderes als die Zeilenzahl der umgeformten Matrix nach Schritt 3 des Gauß-Jordan-Verfahrens und kann daher auf diesem Weg bestimmt werden. Nach Konstruktion ist der Rang auch die Zahl der positiven Diagonalemente nach Schritt 4. Andererseits ist die Zahl der negativen Diagonalelemente die Dimension des Lösungsraumes für das homogene Gleichungssystem A x = 0. Der Kern einer Matrix (bzw. der durch sie dargestellten linearen Abbildung) ist der Lösungsraum des zugehörigen homogenen Gleichunsgsystems. Wir haben damit folgende wichtigen Gleichungen: (R1) Rang A = Dimension des Zeilenraumes = Dimension des Spaltenraumes = Rang AT (R2) Rang A + dim Kern A = Spaltenzahl von A. Kennt man also den Rang, so auch die Dimension des Lösungsraumes und die des Bildraumes. Die Summe der beiden Dimensionen ist die Spaltenzahl. Das Ergebnis des Gauß-Jordan-Verfahrens bis einschließlich Schritt 3 (und damit die Bestimmung einer Basis des Zeilenraumes und insbesondere des Ranges) liefert MAPLE in einem Schritt nach Eingabe des Befehls gaussjord(A). Beispiel 1: Eine Basis des Zeilenraums der 3x5-Matrix 1 2 0 2 0 1 0 1 2 -1 -2 0 0 0 9 Nach Schritt 3 des Gauß-Jordan-Verfahrens gelangt man zu folgender Zeilenbasis: 1 0 0 0 1 0 0 0 1 -1 -2 0 1 0 4 Offenbar ist der Rang einer mxn-Matrix höchstens so groß wie das Minimum von m und n. Die Wahrscheinlichkeit, daß er echt kleiner als dieses Minimum wird, ist Null - aber es passiert eben doch in Spezialfällen. Zum Beispiel hat jede Matrix der Form aT a für einen beliebigen von 0 verschiedenen Zeilenvektor den Rang 1 (denn alle Spalten sind Vielfache von aT). Die Rang-Ungleichung Rang( AB ) ≤ min( Rang( A ), Rang( B ) ) gilt für beliebige Matrizen A und B, deren Produkt definiert ist. Der Test zufälliger Matrizen zeigt, dass die Rang-Ungleichung fast immer eine Gleichung ist! Beispiel 2: Rang von Produktmatrizen -85 A= -35 -11519 AB = 4838 79 -37 , B = 49 50 57 -55 97 -8675 -6042 , BA = -6370 1201 -2780 56 63 -59 1087 3416 -8858 -123 1337 -5059 Rang( A ) = 2, Rang( B ) = 2, Rang( AB ) = 2, Rang( BA ) = 2 Wenn für zwei Matrizen A und B sowohl das Produkt AB als auch BA definiert ist (wann ist das der Fall?), so braucht der Rang von AB dennoch nicht mit dem Rang von BA übereinzustimmen. Beispiel 3: Produkte mit verschiedenen Rängen 1 A = 1 0 0 0 1 0 0, 0 0 B = 1 1 0 0 1 0 1 1 0 AB = 0 1 0 0 0 0 0 0 , BA = 1 2 1 0 1 1 0 0 0 Rang( A ) = 2, Rang( B ) = 2, Rang( AB ) = 1, Rang( BA ) = 2 Ohne die Lösungen zu berechnen, testet man mit Hilfe des Ranges die Lösbarkeit eines linearen Gleichungssystems Das Gleichungssystem A x = b ist genau dann lösbar, wenn der Rang der geränderten Matrix (A,b) mit dem Rang von A übereinstimmt. Denn das bedeutet gerade, daß der Spaltenraum von A die gleiche Dimension wie der Spaltenraum von (A,b) hat, also mit diesem bereits zusammenfällt - und das passiert dann und nur dann, wenn b eine Linearkombination der Spalten von A , also in der Form A x = b darstellbar ist. Beispiel 4: Ein unlösbares Gleichungssystem 45 A = -93 43 -8 77 92, b = 66, Rang( A ) = 2, Rang( A, b ) = 3 -62 54 Ein Gleichungssystem mit einer 3x2-Matrix A ist nur sehr selten lösbar, weil A höchstens Rang 2 haben kann, die geränderte Matrix aber fast immer den Rang 3 hat! Invertierbare Matrizen Eine quadratische Matrix A heißt invertierbar, falls es eine Matrix B mit A B = B A = E gibt. Im nächsten Satz stellen wir eine ganze Reihe von Kriterien für die Invertierbarkeit einer Matrix zusammen. Invertierbarkeitskriterien Die folgenden Aussagen über eine Matrix A aus K (n x n) sind äquivalent: (a1) A ist invertierbar. (a2) Es gibt eine Matrix B mit A B = E. (a3) Es gibt eine Matrix C mit C A = E. (b1) Die durch A dargestellte lineare Abbildung ist bijektiv. (b2) Die durch A dargestellte lineare Abbildung ist surjektiv. (b3) Die durch A dargestellte lineare Abbildung ist injektiv. (c1) A x = b hat für jedes b aus Kn genau eine Lösung. (c2) A x = b hat für jedes b aus Kn mindestens eine Lösung. (c3) A x = b hat für jedes b aus Kn höchstens eine Lösung. (d1) Die Spalten von A bilden eine Basis des Kn. (d2) Die Spalten von A bilden ein Erzeugendensystem des Kn. (d3) Die Spalten von A sind linear unabhängig. (e1) A x = 0 hat nur die Lösung x = 0. (e2) A läßt sich durch elementare Zeilenumformungen in die Einheitsmatrix umformen. (e3) Rang A = n. In jeder dieser Aussagen kann man A durch AT ersetzen. Beweisschema: Die nachfolgenden Implikationen sind sämtlich ohne Mühe nachzuprüfen. (a2) ---> (b2) ---> (c2) ---> (d2) ---> (e2) / / / / / (a1) ---> (b1) ---> (c1) ---> (d1) ---> (e1) \ \ \ \ \ (a3) ---> (b3) ---> (c3) ---> (d3) ---> (e3) Auch von (e2) bzw. (e3) zurück nach (a2) kommt man relativ leicht. Etwas trickreich ist der Schritt von (a2) nach (a1). Daß eine linksinverse Matrix mit einer rechtsinversen übereinstimmen muß, sieht man so: A B = E = C A ==> B = E B = C A B = C E = C . Aufgrund des obigen Satzes gibt es zu einer invertierbaren Matrix A genau eine Matrix , deren Multiplikation mit A (von links oder rechts) die Einheitsmatrix ergibt. Man nennt diese Matrix die Inverse von A und bezeichnet sie mit ( −1 ) A . Sind A und B invertierbare nxn-Matrizen, so auch AB, und es gilt ( −1 ) (A B) =B ( −1 ) ( −1 ) A . Denn aufgrund des Assoziativgesetzes haben wir ( −1 ) ABB A ( −1 ) =AEA ( −1 ) =AA ( −1 ) = E. Beispiel 5: Diagonalmatrizen Jede Diagonalmatrix mit von Null verschiedenen Diagonalelementen ist invertierbar, und die Inverse ist wieder eine Diagonalmatrix: Ist A von der Form a1 0 0 und gilt aj bj = 1, so hat B = A ( −1 ) 0 a2 0 0 0 a3 0 b2 0 0 0 b3 die Gestalt b1 0 0 Orthogonale Matrizen sind dadurch charakterisiert, daß ihre Spalten (oder Zeilen) eine Orthonormalbasis bilden. Jede orthogonale Matrix A ist wegen AT A = E = A AT invertierbar, und die Inverse ist die Transponierte. Die orthogonalen 3x3-Matrizen bzw. die durch sie dargestellten linearen Abbildungen werden vollständig durch den Hauptsatz am Ende von Kapitel 3.3 charakterisiert: Drehmatrizen und Spiegelmatrizen Eine orthogonale 3x3-Matrix A beschreibt genau dann eine Drehung oder Spiegelung, wenn es einen Einheitsvektor u gibt mit A u = u. Ist A dabei symmetrisch, so handelt es sich um eine Spiegelung, und u liegt in der Spiegelebene. Ansonsten handelt es sich um eine Drehung, und u erzeugt die Drehachse. Alle anderen orthogonalen Matrizen beschreiben Drehspiegelungen, sind also Produkte von Drehund Spiegelmatrizen. Spur und Drehwinkel Die Spur einer quadratischen Matrix ist die Summe ihrer Diagonalelemente: n Spur( A ) = ∑a j, j . j=1 Bei einer Drehmatrix A berechnet sich der Cosinus des Drehwinkels φ nach der Formel Spur( A ) = 1 + 2 cos( φ ). Denn wie wir früher gesehen haben, gilt mit s = sin( φ ) und c = cos( φ ): c + (1 − c) u 2 1 A = ( 1 − c ) u1 u2 + u3 s ( 1 − c ) u u − u s 1 3 2 ( 1 − c ) u1 u3 + u2 s ( 1 − c ) u2 u3 − u1 s 2 c + ( 1 − c ) u3 ( 1 − c ) u1 u2 − u3 s c + ( 1 − c ) u2 2 ( 1 − c ) u2 u3 + u1 s 2 2 2 also Spur( A ) = 3 c + ( 1 − c ) ( u1 + u2 + u3 ) = 1 + 2 c. Beispiel 6: Achse und Drehwinkel einer Drehmatrix Die folgende Matrix ist orthogonal: A := 2 1 3 -2 3 2 3 1 3 2 3 3 -2 3 -1 3 2 3 Probe: 1 A A = 0 0 T 0 1 0 0 0 1 Die Transponierte ist also die Inverse: AT = Für den Einheitsvektor u = ( −1, 1, 1 )T/ 3 2 -2 3 1 3 2 3 -2 3 -1 3 3 1 3 2 3 2 3 ergibt sich A u = u. (Wenn man diesen "Eigenvektor" nicht errät, kann man ihn durch Lösen des Gleichungssystems A u = u finden; davon später mehr). Da A nicht symmetrisch ist, muß es eine Drehmatrix sein. In der Tat beschreibt A eine Drehung um die Achse R u und einen Winkel von 600 bzw. π/3. Denn die Spurformel liefert 1 cos( φ ) = . 2 Spiegelmatrizen sind stets zu sich selbst invers. Das ist klar aufgrund der geometrischen Bedeutung von Spiegelungen (zweimal spiegeln ergibt die Ausgangsfigur). Folglich gilt für jede Spiegelmatrix S: S=S ( −1 ) = ST. Beispiel 7: Vom Drehen zum Spiegeln In der Drehmatrix aus Beispiel 6 vertauscht man zweite und dritte Spalte und bekommt eine Spiegelung: S := 2 -2 3 -2 3 -1 3 1 3 2 3 3 1 3 2 3 2 3 Berechnung der Inversen Die Inverse einer Matrix A kann man mit Hilfe des Gauß-Jordan-Algorithmus bestimmen (aber in der Praxis geht das nur für kleine Matrizen): Man wendet elementare Zeilenumformungen simultan auf A und E an. Am Ende hat man A in E umgeformt, und dann ist aus E die Inverse zu A geworden. Das liegt daran, daß jede elementare Zeilenumformung durch Multiplikation mit einer invertierbaren Matrix von links bewirkt wird. Das Produkt all dieser Matrizen sei B. Dann ist B A = E, also ( −1 ) B=A . Es passiert relativ selten, dass die Inverse einer ganzzahligen Matrix wieder ganzzahlig ist. Beispiel 9: Eine ganzzahlige Matrix mit ganzzahliger Inverser 1 3 0 2 1 2 1 1 0, 0 1 0 0 1 0 0 0 1 Subtraktion der dreifachen ersten Zeile von der zweiten Zeile: 1 0 0 1 1 -3, -3 1 0 2 -5 2 0 1 0 0 0 1 0 1 0 0 3 1 0 1 0 -1 3 1 Addition der dreifachen dritten Zeile zur zweiten Zeile: 1 0 0 1 1 0, -3 1 0 2 1 2 Subtraktion der dritten Zeile von der ersten Zeile: 1 0 0 0 1 0, -3 1 0 0 1 2 Subtraktion der zweifachen zweiten Zeile von der dritten Zeile: 1 0 0 0 1 0 0 1 0, -3 1 6 0 1 -2 -1 3 -5 Die rechts unten stehende Matrix ist also die Inverse von A. Invertiert man sie nochmals, kommt natürlich die ursprüngliche Matrix A heraus. Probe: 1 -3 6 0 1 -2 -1 1 3 3 -5 0 2 1 2 1 1 0 = 0 1 0 0 1 0 0 0 1 Transponieren und Invertieren Die Transponierte einer invertierbaren Matrix A ist wieder invertierbar, und die Inverse von AT ist ( −1 ) die Transponierte von A . Potenzen von Matrizen Man kann nun beliebige ganzzahlige Potenzen einer invertierbaren Matrix definieren. Für positive Exponenten k und jede quadratische Matrix A ist Ak natürlich das k-fache Produkt von A mit sich selbst, und für negative Exponenten setzt man ( −k ) ( −1 ) k ( −1 ) A := ( A ) = ( Ak ) , sofern A invertiebar ist. Es gelten dann die üblichen Potenzregeln, wie z.B. A (k + l) l = Ak Al und (k l) ( Ak ) = A . Beispiel 10: Potenzen einer Drehmatrix cos( φ ) −sin( φ ) A= sin( φ ) cos( φ ) beschreibt die ebene Drehung um den Winkel φ, also cos( k φ ) −sin( k φ ) Ak = sin( k φ ) cos( k φ ) die Drehung um den k-fachen Winkel. Speziell ist beispielsweise cos( φ )2 − sin( φ )2 cos( 2 φ ) −sin( 2 φ ) = A A = A2 = sin( 2 φ ) cos( 2 φ ) 2 cos( φ ) sin( φ ) −2 cos( φ ) sin( φ ) , cos( φ )2 − sin( φ )2 woraus man sofort die Additonstheoreme für den doppelten Winkel ablesen kann. Beispiel 11: Potenzen einer Bandmatrix bei der in der Hauptdiagonalen und in der ersten Diagonalen darüber Einsen stehen. 1 0 B = 0 0 0 1 1 0 0 0 0 1 1 0 0 0 0 1 1 0 0 1 0 0 2 0, B = 0 0 1 1 0 2 1 0 0 0 1 2 1 0 0 0 1 2 1 0 0 1 0 0 3 1, B = 0 0 2 1 0 1 4 6 4 1 1 5 0 1 4 6 4 0 1 5 4 B = 0 0 1 4 6 , B = 0 0 0 0 0 1 4 0 0 0 0 0 0 1 0 0 In den Zeilen wie in den Spalten dieser Matrizen stehen die Binomialkoeffizienten n! B( n, k ) = . k! ( n − k )! 10 5 1 0 0 10 10 5 1 0 3 1 0 0 0 3 3 1 0 0 1 3 3 1 0 0 1 3 3 1 5 10 10 5 1 Sie ergeben sich bei der Entwicklung des Polynoms n (1 + x) = n ∑ B( n, k ) x . k k=0 Pascalsches Dreieck Jede Zahl in diesem Dreieck außer den Einsen ist die Summe der zwei darüber stehenden Zahlen. 1 1 1 1 2 1 1 3 3 1 1 4 6 4 1 1 5 10 10 5 1