technische universität dortmund Fakultät für Mathematik Prof. Dr. H. M. Möller Dortmund, im Januar 2012 Lineare Algebra für Lehramt Gymnasien und Berufskolleg Zusammenfassung der Abschnitte 5.1 und 5.2 5. Matrizen und Determinanten 5.1 Matrixkalkül Die Menge aller Matrizen A := a11 a21 .. . a12 a22 .. . . . . a1n . . . a2n .. . am1 am2 . . . amn mit aij ∈ K für i = 1, . . . , m, j = 1, . . . , n wird mit K m×n bezeichnet. (In der Literatur findet man auch als Bezeichnungen wie M atm,n (K) oder M (m × n, K) oder ähnliches.) Dabei gibt m die Anzahl der Zeilen und n die der Spalten an. Eine Matrix A ∈ K m×n kann man als Vektorsystem aus m Zeilenvektoren auffassen oder eines aus n Spaltenvektoren. Eine Matrix aus K m×1 besteht aus einer Spalte, so dass man sie auch als Spaltenvektor ansehen kann. Entsprechend sehen wir eine Matrix aus K 1×n auch als Zeilenvektor an. Die Abbildung Φ : K m×n → K m·n , Φ(A) := (a11 , . . . , a1n , a21 , . . . , a2n , . . . , am1 , . . . , amn ), ist offensichtlich bijektiv. Sie ist auch linear. Weil (mit s = m · n ∈ N) K s = K m·n ein K-Vektorraum ist, ist infolge der Isomorphie auch K m×n ein K-Vektorraum. (Dass K m×n sogar ein Ring ist, zeigen wir später.) Definition 5.1 (Matrix-Vektor-Multiplikation) Für A ∈ K m×n und x ∈ K n definiert man b := Ax ∈ K m durch b1 := a11 x1 + a12 x2 + . . . + a1n xn , b2 := a21 x1 + a22 x2 + . . . + a2n xn , .. . bm := am1 x1 + am2 x2 + . . . + amn xn . 1 Bemerkung 1 Ein LGS mit Koeffizientenmatrx A ∈ K m×n und rechter Seite b ∈ K m kann man jetzt kurz schreiben als Ax = b. Bemerkung 2 Sind a1 , . . . , an die Spalten von A, dann ist Ax = b gleichbedeutend mit b = x 1 a1 + x 2 a2 + . . . x n an . Satz 5.2 (Charakterisierung linearer Abbildungen) Sei A ∈ K m×n . Die Abbildung Φ : K n → K m , x 7→ Ax, ist linear. Umgekehrt, wenn Φ : K n → K m linear ist, dann gibt es eine Matrix A ∈ K m×n mit Φ(x) = Ax. Die Spalten der Matrix A sind Φ(e1 ), Φ(e2 ), . . . , Φ(en ). Dabei sind e1 , . . . , en die Einheitsvektoren aus K n . Beweis. Die Linearität der Abbildung Φ : K n → K m , x 7→ Ax folgt aus a11 (x1 + y1 ) + a12 (x2 + y2 ) + . . . + a1n (xn + yn ) a21 (x1 + y1 ) + a22 (x2 + y2 ) + . . . + a2n (xn + yn ) A(x + y) = ... am1 (x1 + y1 ) + am2 (x2 + y2 ) + . . . + amn (xn + yn ) (a11 x1 + a12 x2 + . . . + a1n xn ) + (a11 y1 + a12 y2 + . . . + a1n yn ) (a21 x1 + a22 x2 + . . . + a2n xn ) + (a21 y1 + a22 y2 + . . . + a2n yn ) = ... (am1 x1 + am2 x2 + . . . + amn xn ) + (am1 y1 + am2 y2 + . . . + amn yn ) a11 x1 + a12 x2 + . . . + a1n xn a11 y1 + a12 y2 + . . . + a1n yn a21 x1 + a22 x2 + . . . + a2n xn a21 y1 + a22 y2 + . . . + a2n yn + = ... ... am1 x1 + am2 x2 + . . . + amn xn am1 y1 + am2 y2 + . . . + amn yn = Ax + Ay und entsprechend a11 x1 + a12 x2 + . . . + a1n xn a21 x1 + a22 x2 + . . . + a2n xn αAx = α · ... am1 x1 + am2 x2 + . . . + amn xn = α(a11 x1 + a12 x2 + . . . + a1n xn ) α(a21 x1 + a22 x2 + . . . + a2n xn ) = ... α(am1 x1 + am2 x2 + . . . + amn xn ) a11 αx1 + a12 αx2 + . . . + a1n αxn a21 αx1 + a22 αx2 + . . . + a2n αxn = A(αx). ... am1 αx1 + am2 αx2 + . . . + amn αxn 2 Ist umgekehrt Φ : K n → K m linear und bezeichnet man mit A die Matrix mit Φ(e1 ), Φ(e2 ), . . . , Φ(en ) als Spalten, dann folgt für x = (x1 , . . . , xn ) ∈ K n Ax = x1 Φ(e1 )+x2 Φ(e2 )+. . .+xn Φ(en ) = Φ(x1 e1 +x2 e2 +. . .+xn en ) = Φ(x). Das war zu zeigen. 2 0 Beispiel 1 Sei A1 := . Die Abbildung Φ1 : R2 → R2 , (x1 , x2 ) 7→ 0 1 x1 2x1 A1 = bildet den ersten Einheitsvektor e1 = (1, 0) auf x2 x2 2 Φ1 (e1 ) = ab und den zweiten Einheitsvektor e2 = (0, 1) auf sich 0 0 selbst Φ1 (e2 ) = . Die Vektoren (x1 , x2 ) ∈ R2 werden also durch Φ1 in 1 Richtung der x1 -Achse gestreckt. cos(ϕ) − sin(ϕ) Beispiel 2 Sei ϕ ein fester Winkel und A2 := . Schreibt sin(ϕ) cos(ϕ) man jetzt die Elemente des R2 in Polarkoordinaten, also (r cos(ψ), r sin(ψ)) statt (x1 , x2 ), dann ist die lineare Abbildung1 r cos(ψ) r cos(ϕ + ψ) 2 2 Φ2 : R → R , (r cos(ψ), r sin(ψ)) 7→ A2 = . r sin(ψ) r sin(ϕ + ψ) Mittels Φ2 wird also jedes Element von R2 um den Winkel ϕ gedreht. Man schreibt oft ΦA für die lineare Abbildung Φ, wenn Φ : x 7→ Ax gilt. Sind A und B Matrizen gleichen Formats, A, B ∈ K m×n , dann gilt auch A + B ∈ K m×n und man sieht leicht ein, dass ΦA+B = ΦA + ΦB gilt. Entsprechend gilt für die Skalarmultiplikation ΦαA = αΦA . Für lineare Abbildungen von einem K-Vektorraum V in einen K-Vektorraum W gilt allgemein der folgende Satz. Satz 5.3 Sind V und W zwei K-Vektorräume und ist L(V, W ) die Menge aller linearen Abbildungen von V nach W , dann ist L(V, W ) ein Untervektorraum von Abb(V, W ). Beweis Für je zwei linearen Abbildungen Φ1 , Φ2 : V → W sind auch Φ1 + Φ2 : V → W, x 7→ Φ1 (x) + Φ2 (x), und für α ∈ K αΦ1 : V → W, x 7→ αΦ1 (x), 1 Unter Verwendung der Additionstheoreme für den Sinus und Cosinus cos(ϕ) cos(ψ) − sin(ϕ) sin(ψ) = cos(ϕ + ψ) und sin(ϕ) cos(ψ) + cos(ϕ) sin(ψ) = sin(ϕ + ψ) 3 in L(V, W ). Die Nullabbildung 0 : V → W, x 7→ 0, ist ebenfalls in L(V, W ). Also ist L(V, W ) ein Untervektorraum von Abb(V, W ). Die Komposition von linearen Abbildungen ist (falls die Komposition möglich ist) wieder eine lineare Abbildung. Der Einfachheit halber beschränken wir uns hier auf lineare Abbildungen, die durch Matrizen beschrieben werden: Sei ΦA : K n → K m , ΦB : K ` → K n . Dann gilt ΦC := ΦA ◦ ΦB : K ` → K n und für beliebige x, y ∈ K ` ΦC (x + y) = ΦA (ΦB (x + y)) = ΦA (ΦB (x) + ΦB (y)) = ΦA (ΦB (x)) + ΦA (ΦB (y)) = ΦC (x) + ΦC (y). sowie für beliebige x ∈ K ` und α ∈ K ΦC (αx) = ΦA (ΦB (αx)) = ΦA (αΦB (x)) = αΦA (ΦB (x)) = αΦC (x). Wegen A = (aij ) ∈ K m×n und B = (bij ) ∈ K n×` gilt C = (cij ) ∈ K m×` und mit langer, in der Vorlesung vorgeführter Rechnung (Wir haben da ΦC (e1 ), . . . , ΦC (e` ) berechnet) bekommt man schließlich cij = n X aik bk` für i = 1, . . . , m, j = 1, . . . , `. k=1 Definition 5.4 (Matrixprodukt) Das Produkt A · B von Matrizen A = (aij ) ∈ K m×n , B = (bij ) ∈ K r×s ist nur definiert für n = r. In diesem Fall ist (cij ) := A · B ∈ K m×s definiert durch cij = n X aik bk` für i = 1, . . . , m, j = 1, . . . , s. k=1 Beispiele Sei 1 2 A := 1 −1 , 0 1 B := 3 1 −1 0 0 1 1 1 . Weil A genausoviele Spalten wie B Zeilen hat, ist A · B definiert. Man bekommt mit etwas Rechnung 3 3 1 2 A · B = 3 0 −2 −1 . 0 1 1 1 4 Mit A wie eben, aber B = 3 0 bekommt man 3 A · B = 3 . 0 Hier hatten wir B als Matrix mit nur einer Spalte angesehen (und A · B entsprechend als Matrixmultiplikation interpretiert). Hätten wir dagegen B als Vektor angesehen, so wäre bei der Matrix-Vektor-Multiplikation dasselbe Resultat (jetzt aber als Vektor und nicht als Matrix aufgefasst) herausgekommen. Die Matrix E ∈ K n×n , E := 1 0 0 ... 0 1 0 ... 0 0 1 ... .. .. . . 0 0 0 .. . , 0 0 0 ... 1 wird als Einheitsmatrix (in K n×n ) bezeichnet. Man rechnet leicht nach, dass A · E = A und E · A = A gilt für alle A ∈ K n×n . Satz 5.5 Seien A ∈ K m×n und B ∈ K n×` . Dann gilt für die lineare Abbildung Φ := ΦA ◦ ΦB : K ` → K m , x 7→ Cx, C = A · B. Die Abbildung ΦE : K n → K n , x 7→ Ex, ist die identische Abbildung und Φ0 : K n → K n , x 7→ 0, die Nullabbildung. Satz 5.6 Die Matrixmultiplikation ist assoziativ und (zusammen mit der Matrixaddition) auch distributiv. Beweis Die Assoziativität folgt aus der Assoziativität der Komposition von Abbildungen, (ΦA ◦ ΦB ) ◦ ΦC = ΦA ◦ (ΦB ◦ ΦC ) ⇒ (A · B) · C = A · (B · C). Dasselbe gilt für die Distributivgesetze ΦA ◦ (ΦB + ΦC ) = ΦA ◦ ΦB + ΦA ◦ ΦC ⇒ A · (B + C) = A · B + A · C, (ΦA + ΦB ) ◦ ΦC = ΦA ◦ ΦC + ΦB ◦ ΦC ⇒ (A + B) · C = A · C + B · C . 5 Mit Satz 5.6 bekommt man sofort folgendes Resultat. Satz 5.7 K n×n ist ein Ring mit der Matrixaddition als Addition und der Matrixmultiplikation als Multiplikation. E ist das neutrale Element bezüglich der Matrixmultiplikation. Folgender Satz ist ein nützliches Hilfsmittel bei vielen Gelegenheiten. Satz 5.8 Sei Φ : V → W eine lineare Abbildung. Dann gilt: Φ ist genau dann injektiv, wenn Kern(Φ) = {0} ist. Beweis Weil Φ linear ist, gilt Φ(0) = 0, also 0 ∈ Kern(Φ). “ ⇒ 00 Ist Φ injektiv, dann gibt es zu jedem w ∈ Bild(Φ) ⊆ W nur ein Urbild. Das gilt insbesondere für w = 0. Also folgt Kern(Φ) = {0}. “ ⇐00 Sei Kern(Φ) = {0}. Betrachte v1 , v2 ∈ V mit Φ(v1 ) = Φ(v2 ). Aus der Linearität von Φ folgt dann Φ(v1 − v2 ) = 0, d.h., v1 − v2 liegt im Kern, also v1 − v2 = 0. Definition 5.9 (Transposition) Ist A = (aij ) ∈ K m×n , dann wird AT = (cij ) ∈ K n×m definiert durch cij := aji für i = 1, . . . , n j = 1, . . . , m. AT heißt transponiert zu A. Die Zeilen von A sind die Spalten von AT und die Spalten von A sind die Zeilen von AT . Gilt A = AT , so heißt A symmetrisch. Gilt A = −AT , so heißt A schiefsymmetrisch. 1 2 1 1 0 Beispiel Zu A := 1 −1 ist die transponierte Matrix 2 −1 1 0 1 AT . Die Einheitsmatrix E ist symmetrisch. Die Nullmatrix 0 ∈ K n×n ist als einzige n × n-Matrix zugleich symmetrisch und schiefsymmetrisch. Bemerkung Es gilt (A · B)T = B T · AT , denn mit C = (cij ) := A · B ist ja cij das Produkt aus i-ter Zeile von A und j-ter Spalte von B. Damit steht cij in der j-ten Zeile an Position i von C T = (A · B)T . An der i-ten Position der j-ten Zeile von einem Matrixprodukt U · V steht aber das Produkt aus j-ter Zeile von U und i-ter Spalte von V . Die j-te Spalte von U = B T ist die j-te Zeile von B und die i-te Spalte von V = AT ist die i-te Zeile von A. 6 5.2 Matrizen und lineare Gleichungssysteme Definition 5.10 (Rang) Der Rang eines Vektorsystems v1 , . . . , vm (im Vektorraum V ) ist definiert durch rang{v1 , . . . , vm } := dimLin{v1 , . . . , vm }. Sind s1 , . . . , sn die Spalten und z1 , . . . , zm die Zeilen einer Matrix A ∈ K m×n , dann definiert man Srang(A) := rang{s1 , . . . , sn } (Spaltenrang), Zrang(A) := rang{z1 , . . . , zm } (Zeilenrang). Wir wollen zeigen, dass Srang(A) = Zrang(A) für alle Matrizen A gilt. Lemma 5.11 Bei den folgenden Umformungen eines Vektorsystems v1 , . . . , vm ändert sich Lin{v1 , . . . , vm } nicht, und damit auch nicht rang{v1 , . . . , vm }. 1) Vertauschen zweier Vektoren. 2) Ersetzen eines Vektors vi durch αvi mit 0 6= α ∈ K. 3) Ersetzen eines vi durch vi + αvj mit i 6= j und α ∈ K. Beweis Sei w1 , . . . , wm durch eine der drei Umformungsarten aus v1 , . . . , vm entstanden. Zu zeigen ist Lin{w1 , . . . , wm } = Lin{v1 , . . . , vm }. Im Fall 1) gilt mit wi = vj und wj = vi und sonst vk = wk ⇔ v = α1 v1 + . . . + αi vi + . . . + αj vj + . . . + αm vm , v = α1 w1 + . . . + αj wi + . . . + αi wj + . . . + αm wm . Im Fall 2) gilt mit wi = αvi und sonst wk = vk ⇔ v = α1 v1 + . . . + αi vi + . . . + αm vm , v = α1 w1 + . . . + ααi wi + . . . + αm wm . Im Fall 3) gilt wegen wi = vi + αvj ⇔ vi = wi − αvj = wi − αwj ⇔ v = α1 v1 + . . . + αi vi + . . . + αj vj + . . . + αm v m , v = α1 w1 + . . . + αi wi + . . . + (αj − ααi )wj + . . . + αm wm . Damit erzeugen v1 , . . . , vm und w1 , . . . , wm den selben Vektorraum. Korollar 5.12 Der Zeilenrang einer Matrix ist gleich der Anzahl der Stufen der (durch elementare Zeilenumformungen) auf Stufenform gebrachten Matrix. Beweis Elementare Zeilenumformungen sind Umformungen im Sinn von 1), 2) und 3) von Lemma 5.11. Die zu den Stufen gehörenden Zeilenvektoren 7 sind linear unabhängig und spannen den Zeilenraum auf. Satz 5.13 Der Zeilenrang einer Matrix ist gleich ihrem Spaltenrang (den wir deshalb kurz als Rang der Matrix bezeichnen dürfen). Beweis Seien o.B.d.A. die ersten r := Srang(A) Spalten von A ∈ K m×n linear unabhängig. Dann ist jedes LGS a11 a12 . . . a1r α1 a1i a21 a22 . . . a2r α2 a2i i = r + 1, . . . , n, .. .. .. = .. , . . . . am1 am2 . . . amr αr ami eindeutig lösbar. Somit hat die (gemeinsame) Koeffizientenmatrix dieser n−r LGS, wenn man sie auf Stufenform bringt, r Stufen. Damit hat dann aber auch die gesamte Matrix A, auf Stufenform gebracht, r Stufen, also ist nach Korollar 5.12 auch Zrang(A) = r. Satz 5.14 Das LGS Ax = b hat genau dann eine Lösung, wenn rang(A) = rang(A | b). Beweis Seien s1 , . . . , sn die Spalten von A. Das LGS Ax = b ist genau dann lösbar, wenn die rechte Seite b in Lin{s1 , . . . , sn } liegt (vgl. Bemerkung 2 nach Definition 5.1), d.h., genau dann wenn Lin{s1 , . . . , sn } = Lin{s1 , . . . , sn , b} gilt. Wegen Lin{s1 , . . . , sn } ⊆ Lin{s1 , . . . , sn , b} ist das genau dann der Fall, wenn beide linearen Vektorräume die gleiche Dimension haben, also rang(A) = rang(A | b). Satz 5.15 (Dimensionsformel für LGS) Sei A ∈ K m×n mit rang(A) = r. Dann gilt dimL(A, 0) = n − r. Wenn A schon Stufenform hat, 1 0 . . . A= 0 0 . .. 0 und die Stufen in den ersten r Spalten sind, ∗ ∗ ∗ ... ∗ 1 ∗ ∗ ... ∗ .. .. .. . . . 0 ... 1 ... ∗ , 0 ... 0 ... 0 .. .. .. . . . 0 ... 0 ... 0 dann erhält man eine Basis von L(A, 0), indem man für die letzten n − r Komponenten der Reihe nach die n − r Einheitsvektoren aus K n−r einsetzt 8 und dann die ersten r Komponenten der Lösung aus Ax = 0 bestimmt. Beispiel Sei A ∈ R4×6 mit 1 −1 0 4 2 0 1 −1 0 2 A= 0 0 1 4 0 0 0 0 0 0 0 4 . 0 0 Hier ist also r = 3, m = 4 und n = 6. Die Einheitsvektoren des Rn−r = R3 werden der Reihe nach in die letzten drei Komponenten eingesetzt: (x4 , x5 , x6 ) = (1, 0, 0) in das LGS x1 −x2 +4x4 +2x5 = 0, x2 −x3 +2x5 +4x6 = 0, x3 +4x4 =0 eingesetzt gibt x3 = −4, x2 = −4 und x1 = −8, also die erste Basislösung (−8, −4, −4, 1, 0, 0). (x4 , x5 , x6 ) = (0, 1, 0) in das LGS eingesetzt gibt x3 = 0, x2 = −2 und x1 = −4, also die zweite Basislösung (−4, −2, 0, 0, 1, 0). (x4 , x5 , x6 ) = (0, 0, 1) in das LGS eingesetzt gibt dann als dritte Basislösung (−4, −4, 0, 0, 0, 1). Jedes Lösung des homogenen LGS, also jedes Element aus L(A, 0) ist Linearkombination aus diesen drei Basislösungen, denn ist v := (α1 , . . . , α6 ) in L(A, 0), dann auch w := v − α4 (−8, −4, −4, 1, 0, 0) − α5 (−4, −2, 0, 0, 1, 0) − α6 (−4, −4, 0, 0, 0, 1) = (α1 + 8α4 + 4α5 + 4α6 , α2 + 4α4 + 2α5 + 4α6 , α3 + 4α4 , 0, 0, 0). Aus Aw = 0 folgt aber, dass auch die ersten drei Komponenten von w Null sind, also w = 0, und damit v = α4 (−8, −4, −4, 1, 0, 0) + α5 (−4, −2, 0, 0, 1, 0) + α6 (−4, −4, 0, 0, 0, 1) Korollar 5.16 Sei A ∈ K m×n und rang(A) = r. Dann ist r = n äquivalent dazu, dass jedes LGS Ax = b höchstens eine Lösung besitzt. 9 Beweis Es gibt genau dann höchstens eine Lösung, wenn L(A, 0) = {0}. Das ist nach Satz 5.15 genau dann der Fall, wenn r = n gilt. Korollar 5.16 Sei A ∈ K m×n und rang(A) = r. Ax = b ist genau dann lösbar für jedes b ∈ K m , wenn r = m gilt. (Man sagt dann, das LGS mit Koeffizientenmatrix A ist universell lösbar.) Beweis Der von den Spalten von A aufgespannte K-Vektorraum ist genau dann der K m , wenn das LGS universell lösbar ist. In diesem Fall gilt r = n. Definition 5.18 (reguläre Matrix) Eine Matrix A ∈ K m×n heißt regulär, wenn m = n und rang(A) = n gilt. Beispiel Seien e1 , . . . , en die Einheitsvektoren aus K n . Die Matrix mit diesen Vektoren als Spalten heisst Einheitsmatrix und wird mit En bezeichnet. Sie ist regulär, weil sie (quadratisch ist und) Matrix in Stufenform mit n Stufen ist, also den Rang n hat. Hilfssatz 5.19 Sei A ∈ K m×n und B ∈ K n×` . Dann gilt rang(AB) ≤ rang(A) und rang(AB) ≤ rang(B). Beweis Seien a1 , . . . , an die Spalten von A und b1 , . . . , b` die von B sowie S := Lin{a1 , . . . , an }. Die Matrix AB hat Ab1 , . . . , Ab` als Spalten. Weil jedes Abi eine Linearkombination der Spalten von A ist, gilt Abi ∈ S für i = 1, . . . , ` und Lin{Ab1 , . . . , Ab` } ⊆ S. Aus der Definition des (Spalten-)rangs folgt rang(AB) ≤ dim(S) = r. Weil Spaltenrang und Zeilenrang gleich sind, folgt rang(A) = rang(AT ), rang(B) = rang(B T ) und rang((AB)T ) = rang(AB). Mit dem eben bewiesenen (mit B T für A und AT für B) daher rang(AB) = rang((AB)T ) = rang(B T AT ) ≤ rang(B T ) = rang(B). Das war zu beweisen. Satz 5.20 Für quadratische Matrizen A ∈ K n×n sind die folgenden Aussagen äquivalent. i) A ist regulär. ii) Für jedes b ∈ K n hat das LGS Ax = b eine eindeutige Lösung. iii) Zu A gibt es ein R ∈ K n×n mit AR = En . iv) Zu A gibt es ein L ∈ K n×n mit LA = En . v) A ist invertierbar, d.h., es gibt ein B ∈ K n×n mit AB = En = BA. vi) ΦA : K n → K n , x 7→ Ax, ist bijektiv. 10 Beweis Wir zeigen zuerst im Ringschluss, dass i), ii) und iii) äquivalent sind. Dann die Äquivalenz von iv) und v) zu den ersten drei Aussagen und abschließend die Äquivalenz von ii) und vi). “i) ⇒ ii)00 Wenn i) gilt dann hat Ax = b nach Korollar 5.16 höchstens und nach Korollar 5.17 mindestens eine Lösung. Also gilt dann ii). “ii) ⇒ iii)00 Wenn ii) gilt, sind die LGS Ax = ei , i = 1, . . . , n, eindeutig lösbar. Die Lösungen seien r1 , . . . , rn . Die Matrix R ∈ K n×n mit der Lösung ri des LGS Ax = ei in Spalte i erfüllt dann AR = En . “iii) ⇒ i)00 Die Matrix A hat höchstens den Rang n. Daher folgt mit Hilfssatz 5.19 n = rang(En ) = rang(AR) ≤ rang(A) ≤ n. Das ist nur möglich, wenn rang(A) = n gilt, wenn also A regulär ist. Damit sind i), ii) und iii) äquivalent. “i) ⇒ iv)00 Ist A regulär, dann rang(AT ) = rang(A) = n, also auch AT regulär. Nach iii) folgt für das reguläre AT , dass es ein R ∈ K n×n gibt mit AT R = En . Transponieren ergibt dann LA = En mit L := RT . “iv) ⇒ i)00 Analog zu “iii) ⇒ i)00 . “i) ⇒ v)00 Aus i) folgt iii) und iv). Wegen R = En R = (LA)R = L(AR) = LEn = L gilt v) mit B := L = R. “v) ⇒ iii)00 Man setze R := B. “ii) ⇔ vi)00 ΦA ist genau dann bijektiv, wenn es zu jedem x ∈ K n genau ein b ∈ K n gibt mit ΦA (x) = b. Das ist mit ΦA (x) = Ax genau die Aussage ii). Definition 5.21 (Inverse Matrix) Sei A ∈ K n×n regulär. Die Matrix B aus Satz 5.20 v) wird Inverse von A oder invers zu A genannt und mit A−1 bezeichnet. Sind c1 , . . . , cn die Spalten von A−1 , dann ist Aci = ei für i = 1, . . . , n wegen AA−1 = En . Daher gibt die Lösung von Ax = e1 die erste Spalte von A−1 , gibt die Lösung von Ax = e2 die zweite Spalte von A−1 , u.s.w. bis gibt die Lösung von Ax = en die letzte Spalte von A−1 . Das sind n LGS mit derselben Koeffizientenmatrix A. Man kann deshalb die Gaußelimination gleichzeitig auf alle erweiterte Matrizen anwenden, indem man alle n rechten Seiten e1 , . . . , en simultan mit umformt. Wenn dieses Verfahren scheitert, dann war eines der LGS nicht lösbar und nach Satz 5.20 i) ⇔ ii) die Matrix A nicht regulär. 11 Beispiel Sei A ∈ R3×3 mit 1 2 0 A = 3 −4 4 . −1 2 1 Dann geben elementare Zeilenumformungen 1 2 3 −4 −1 2 1 2 0 −10 0 4 1 0 0 1 0 0 1 0 0 1 0 0 1 0 4 0 0 1 0 1 4 −3 1 1 0 1 0 0 1 0 2 5 3 10 −1 5 6 13 7 26 −1 13 1 5 −1 10 2 5 1 13 −1 26 2 13 4 5 −2 5 13 5 0 0 1 0 0 1 0 0 1 0 0 1 −4 13 2 13 5 13 Hieraus liest man die Lösungen der LGS und damit die inverse Matrix ab, 6 1 −4 A−1 = 13 7 26 −1 13 13 −1 26 2 13 13 2 13 5 13 . Bemerkung Ist A regulär, dann hat Ax = b als Lösung x = A−1 b. Man könnte also meinen, dass man am besten erst A−1 ausrechnet und dann die Lösung x = A−1 b durch eine einfache Matrix-Vektor-Multiplikation bekommt. Das ist aber erst dann sinnvoll, wenn man (mindestens) n LGS mit der selben Koeffizientenmatrix zu lösen hat, den man hat ja diesen Aufwand zur Berechnung von A−1 zu betreiben. Im Fall n = 2 kann man A−1 ohne Gaußelimination bekommen: Man rechnet a b leicht nach dass A = genau dann regulär ist, wenn ad − bc 6= 0 c d gilt. Dann ist A−1 = d ad−bc −c ad−bc −b ad−bc a ad−bc . Satz 5.22 Die regulären Matrizen A ∈ K n×n bilden eine Gruppe bezüglich der Matrixmultiplikation. (Diese Gruppe nennt man allgemeine lineare Gruppe über K und bezeichnet sie mit GLn (K).) 12 Beweis Sind A, B ∈ K n×n regulär, dann existieren A−1 und B −1 . Die Matrix AB ∈ K n×n ist dann auch regulär, denn sie besitzt als Inverse B −1 A−1 wegen AB(B −1 A−1 ) = ABB −1 A−1 = AA−1 = En , (B −1 A−1 )AB = B −1 A−1 AB = B −1 B = En . Damit ist die Matrixmultiplikation eine Verknüpfung in GLn (K). Das Assoziativgesetz gilt hier, weil es für beliebige n × n-Matrizen gilt. Jedes Element besitzt ein Inverses nach Satz 5.20 v). Die Einheitsmatrix En liegt in GLn (K) und ist das neutrale Element bzgl. der Verknüpfung. 13