5. Matrizen und Determinanten - Fakultät für Mathematik, TU Dortmund

Werbung
technische universität dortmund
Fakultät für Mathematik
Prof. Dr. H. M. Möller
Dortmund, im Januar 2012
Lineare Algebra für Lehramt Gymnasien und Berufskolleg
Zusammenfassung der Abschnitte 5.1 und 5.2
5. Matrizen und Determinanten
5.1 Matrixkalkül
Die Menge aller Matrizen



A := 

a11
a21
..
.
a12
a22
..
.
. . . a1n
. . . a2n
..
.





am1 am2 . . . amn
mit aij ∈ K für i = 1, . . . , m, j = 1, . . . , n wird mit K m×n bezeichnet.
(In der Literatur findet man auch als Bezeichnungen wie M atm,n (K) oder
M (m × n, K) oder ähnliches.) Dabei gibt m die Anzahl der Zeilen und n
die der Spalten an. Eine Matrix A ∈ K m×n kann man als Vektorsystem aus
m Zeilenvektoren auffassen oder eines aus n Spaltenvektoren. Eine Matrix
aus K m×1 besteht aus einer Spalte, so dass man sie auch als Spaltenvektor
ansehen kann. Entsprechend sehen wir eine Matrix aus K 1×n auch als Zeilenvektor an.
Die Abbildung
Φ : K m×n → K m·n , Φ(A) := (a11 , . . . , a1n , a21 , . . . , a2n , . . . , am1 , . . . , amn ),
ist offensichtlich bijektiv. Sie ist auch linear. Weil (mit s = m · n ∈ N)
K s = K m·n ein K-Vektorraum ist, ist infolge der Isomorphie auch K m×n ein
K-Vektorraum. (Dass K m×n sogar ein Ring ist, zeigen wir später.)
Definition 5.1 (Matrix-Vektor-Multiplikation)
Für A ∈ K m×n und x ∈ K n definiert man b := Ax ∈ K m durch
b1 := a11 x1 + a12 x2 + . . . + a1n xn ,
b2 := a21 x1 + a22 x2 + . . . + a2n xn ,
..
.
bm := am1 x1 + am2 x2 + . . . + amn xn .
1
Bemerkung 1 Ein LGS mit Koeffizientenmatrx A ∈ K m×n und rechter Seite b ∈ K m kann man jetzt kurz schreiben als Ax = b.
Bemerkung 2 Sind a1 , . . . , an die Spalten von A, dann ist Ax = b gleichbedeutend mit
b = x 1 a1 + x 2 a2 + . . . x n an .
Satz 5.2 (Charakterisierung linearer Abbildungen)
Sei A ∈ K m×n . Die Abbildung Φ : K n → K m , x 7→ Ax, ist linear. Umgekehrt, wenn Φ : K n → K m linear ist, dann gibt es eine Matrix A ∈ K m×n
mit Φ(x) = Ax. Die Spalten der Matrix A sind Φ(e1 ), Φ(e2 ), . . . , Φ(en ). Dabei
sind e1 , . . . , en die Einheitsvektoren aus K n .
Beweis. Die Linearität der Abbildung Φ : K n → K m , x 7→ Ax folgt aus


a11 (x1 + y1 ) + a12 (x2 + y2 ) + . . . + a1n (xn + yn )
 a21 (x1 + y1 ) + a22 (x2 + y2 ) + . . . + a2n (xn + yn ) 

A(x + y) = 


...
am1 (x1 + y1 ) + am2 (x2 + y2 ) + . . . + amn (xn + yn )


(a11 x1 + a12 x2 + . . . + a1n xn ) + (a11 y1 + a12 y2 + . . . + a1n yn )
 (a21 x1 + a22 x2 + . . . + a2n xn ) + (a21 y1 + a22 y2 + . . . + a2n yn ) 

=


...
(am1 x1 + am2 x2 + . . . + amn xn ) + (am1 y1 + am2 y2 + . . . + amn yn )

 

a11 x1 + a12 x2 + . . . + a1n xn
a11 y1 + a12 y2 + . . . + a1n yn
 a21 x1 + a22 x2 + . . . + a2n xn   a21 y1 + a22 y2 + . . . + a2n yn 
+

=

 

...
...
am1 x1 + am2 x2 + . . . + amn xn
am1 y1 + am2 y2 + . . . + amn yn
= Ax + Ay
und entsprechend


a11 x1 + a12 x2 + . . . + a1n xn
 a21 x1 + a22 x2 + . . . + a2n xn 

αAx = α · 


...
am1 x1 + am2 x2 + . . . + amn xn



=


α(a11 x1 + a12 x2 + . . . + a1n xn )
 α(a21 x1 + a22 x2 + . . . + a2n xn ) 

=


...
α(am1 x1 + am2 x2 + . . . + amn xn )

a11 αx1 + a12 αx2 + . . . + a1n αxn
a21 αx1 + a22 αx2 + . . . + a2n αxn 
 = A(αx).

...
am1 αx1 + am2 αx2 + . . . + amn αxn
2
Ist umgekehrt Φ : K n → K m linear und bezeichnet man mit A die Matrix
mit Φ(e1 ), Φ(e2 ), . . . , Φ(en ) als Spalten, dann folgt für x = (x1 , . . . , xn ) ∈ K n
Ax = x1 Φ(e1 )+x2 Φ(e2 )+. . .+xn Φ(en ) = Φ(x1 e1 +x2 e2 +. . .+xn en ) = Φ(x).
Das war zu zeigen.
2 0
Beispiel 1 Sei A1 :=
. Die Abbildung Φ1 : R2 → R2 , (x1 , x2 ) 7→
0
1
x1
2x1
A1
=
bildet den ersten Einheitsvektor e1 = (1, 0) auf
x2 x2
2
Φ1 (e1 ) =
ab und den zweiten Einheitsvektor e2 = (0, 1) auf sich
0 0
selbst Φ1 (e2 ) =
. Die Vektoren (x1 , x2 ) ∈ R2 werden also durch Φ1 in
1
Richtung der x1 -Achse gestreckt.
cos(ϕ) − sin(ϕ)
Beispiel 2 Sei ϕ ein fester Winkel und A2 :=
. Schreibt
sin(ϕ) cos(ϕ)
man jetzt die Elemente des R2 in Polarkoordinaten, also (r cos(ψ), r sin(ψ))
statt (x1 , x2 ), dann ist die lineare Abbildung1
r cos(ψ)
r cos(ϕ + ψ)
2
2
Φ2 : R → R , (r cos(ψ), r sin(ψ)) 7→ A2
=
.
r sin(ψ)
r sin(ϕ + ψ)
Mittels Φ2 wird also jedes Element von R2 um den Winkel ϕ gedreht.
Man schreibt oft ΦA für die lineare Abbildung Φ, wenn Φ : x 7→ Ax gilt.
Sind A und B Matrizen gleichen Formats, A, B ∈ K m×n , dann gilt auch
A + B ∈ K m×n und man sieht leicht ein, dass ΦA+B = ΦA + ΦB gilt. Entsprechend gilt für die Skalarmultiplikation ΦαA = αΦA . Für lineare Abbildungen
von einem K-Vektorraum V in einen K-Vektorraum W gilt allgemein der
folgende Satz.
Satz 5.3 Sind V und W zwei K-Vektorräume und ist L(V, W ) die Menge
aller linearen Abbildungen von V nach W , dann ist L(V, W ) ein Untervektorraum von Abb(V, W ).
Beweis Für je zwei linearen Abbildungen Φ1 , Φ2 : V → W sind auch
Φ1 + Φ2 : V → W, x 7→ Φ1 (x) + Φ2 (x),
und für α ∈ K
αΦ1 : V → W, x 7→ αΦ1 (x),
1
Unter Verwendung der Additionstheoreme für den Sinus und Cosinus cos(ϕ) cos(ψ) −
sin(ϕ) sin(ψ) = cos(ϕ + ψ) und sin(ϕ) cos(ψ) + cos(ϕ) sin(ψ) = sin(ϕ + ψ)
3
in L(V, W ). Die Nullabbildung 0 : V → W, x 7→ 0, ist ebenfalls in L(V, W ).
Also ist L(V, W ) ein Untervektorraum von Abb(V, W ).
Die Komposition von linearen Abbildungen ist (falls die Komposition möglich
ist) wieder eine lineare Abbildung. Der Einfachheit halber beschränken wir
uns hier auf lineare Abbildungen, die durch Matrizen beschrieben werden:
Sei ΦA : K n → K m , ΦB : K ` → K n . Dann gilt ΦC := ΦA ◦ ΦB : K ` → K n
und für beliebige x, y ∈ K `
ΦC (x + y) = ΦA (ΦB (x + y)) = ΦA (ΦB (x) + ΦB (y))
= ΦA (ΦB (x)) + ΦA (ΦB (y)) = ΦC (x) + ΦC (y).
sowie für beliebige x ∈ K ` und α ∈ K
ΦC (αx) = ΦA (ΦB (αx)) = ΦA (αΦB (x))
= αΦA (ΦB (x)) = αΦC (x).
Wegen A = (aij ) ∈ K m×n und B = (bij ) ∈ K n×` gilt C = (cij ) ∈ K m×`
und mit langer, in der Vorlesung vorgeführter Rechnung (Wir haben da
ΦC (e1 ), . . . , ΦC (e` ) berechnet) bekommt man schließlich
cij =
n
X
aik bk`
für i = 1, . . . , m, j = 1, . . . , `.
k=1
Definition 5.4 (Matrixprodukt)
Das Produkt A · B von Matrizen A = (aij ) ∈ K m×n , B = (bij ) ∈ K r×s ist nur
definiert für n = r. In diesem Fall ist (cij ) := A · B ∈ K m×s definiert durch
cij =
n
X
aik bk`
für i = 1, . . . , m, j = 1, . . . , s.
k=1
Beispiele Sei


1
2
A :=  1 −1  ,
0
1
B :=
3 1 −1 0
0 1
1 1
.
Weil A genausoviele Spalten wie B Zeilen hat, ist A · B definiert. Man bekommt mit etwas Rechnung


3 3
1
2
A · B =  3 0 −2 −1  .
0 1
1
1
4
Mit A wie eben, aber B =
3
0
bekommt man


3
A · B =  3 .
0
Hier hatten wir B als Matrix mit nur einer Spalte angesehen (und A · B
entsprechend als Matrixmultiplikation interpretiert). Hätten wir dagegen B
als Vektor angesehen, so wäre bei der Matrix-Vektor-Multiplikation dasselbe
Resultat (jetzt aber als Vektor und nicht als Matrix aufgefasst) herausgekommen.
Die Matrix E ∈ K n×n ,




E := 


1 0 0 ...
0 1 0 ...
0 0 1 ...
..
..
.
.
0
0
0
..
.




,


0 0 0 ... 1
wird als Einheitsmatrix (in K n×n ) bezeichnet. Man rechnet leicht nach, dass
A · E = A und E · A = A gilt für alle A ∈ K n×n .
Satz 5.5 Seien A ∈ K m×n und B ∈ K n×` . Dann gilt für die lineare Abbildung
Φ := ΦA ◦ ΦB : K ` → K m , x 7→ Cx,
C = A · B. Die Abbildung ΦE : K n → K n , x 7→ Ex, ist die identische Abbildung und Φ0 : K n → K n , x 7→ 0, die Nullabbildung.
Satz 5.6 Die Matrixmultiplikation ist assoziativ und (zusammen mit der
Matrixaddition) auch distributiv.
Beweis Die Assoziativität folgt aus der Assoziativität der Komposition von
Abbildungen,
(ΦA ◦ ΦB ) ◦ ΦC = ΦA ◦ (ΦB ◦ ΦC ) ⇒ (A · B) · C = A · (B · C).
Dasselbe gilt für die Distributivgesetze
ΦA ◦ (ΦB + ΦC ) = ΦA ◦ ΦB + ΦA ◦ ΦC ⇒ A · (B + C) = A · B + A · C,
(ΦA + ΦB ) ◦ ΦC = ΦA ◦ ΦC + ΦB ◦ ΦC ⇒ (A + B) · C = A · C + B · C
.
5
Mit Satz 5.6 bekommt man sofort folgendes Resultat.
Satz 5.7 K n×n ist ein Ring mit der Matrixaddition als Addition und der Matrixmultiplikation als Multiplikation. E ist das neutrale Element bezüglich
der Matrixmultiplikation.
Folgender Satz ist ein nützliches Hilfsmittel bei vielen Gelegenheiten.
Satz 5.8 Sei Φ : V → W eine lineare Abbildung. Dann gilt: Φ ist genau
dann injektiv, wenn Kern(Φ) = {0} ist.
Beweis Weil Φ linear ist, gilt Φ(0) = 0, also 0 ∈ Kern(Φ).
“ ⇒ 00 Ist Φ injektiv, dann gibt es zu jedem w ∈ Bild(Φ) ⊆ W nur ein Urbild. Das gilt insbesondere für w = 0. Also folgt Kern(Φ) = {0}.
“ ⇐00 Sei Kern(Φ) = {0}. Betrachte v1 , v2 ∈ V mit Φ(v1 ) = Φ(v2 ). Aus der
Linearität von Φ folgt dann Φ(v1 − v2 ) = 0, d.h., v1 − v2 liegt im Kern, also
v1 − v2 = 0.
Definition 5.9 (Transposition)
Ist A = (aij ) ∈ K m×n , dann wird AT = (cij ) ∈ K n×m definiert durch
cij := aji für i = 1, . . . , n j = 1, . . . , m.
AT heißt transponiert zu A. Die Zeilen von A sind die Spalten von AT und die
Spalten von A sind die Zeilen von AT . Gilt A = AT , so heißt A symmetrisch.
Gilt A = −AT , so heißt A schiefsymmetrisch.


1
2
1
1
0
Beispiel Zu A :=  1 −1  ist
die transponierte Matrix
2 −1 1
0
1
AT . Die Einheitsmatrix E ist symmetrisch. Die Nullmatrix 0 ∈ K n×n ist als
einzige n × n-Matrix zugleich symmetrisch und schiefsymmetrisch.
Bemerkung Es gilt (A · B)T = B T · AT , denn mit C = (cij ) := A · B ist ja
cij das Produkt aus i-ter Zeile von A und j-ter Spalte von B. Damit steht
cij in der j-ten Zeile an Position i von C T = (A · B)T . An der i-ten Position der j-ten Zeile von einem Matrixprodukt U · V steht aber das Produkt
aus j-ter Zeile von U und i-ter Spalte von V . Die j-te Spalte von U = B T
ist die j-te Zeile von B und die i-te Spalte von V = AT ist die i-te Zeile von A.
6
5.2 Matrizen und lineare Gleichungssysteme
Definition 5.10 (Rang)
Der Rang eines Vektorsystems v1 , . . . , vm (im Vektorraum V ) ist definiert
durch
rang{v1 , . . . , vm } := dimLin{v1 , . . . , vm }.
Sind s1 , . . . , sn die Spalten und z1 , . . . , zm die Zeilen einer Matrix A ∈ K m×n ,
dann definiert man
Srang(A) := rang{s1 , . . . , sn } (Spaltenrang),
Zrang(A) := rang{z1 , . . . , zm } (Zeilenrang).
Wir wollen zeigen, dass Srang(A) = Zrang(A) für alle Matrizen A gilt.
Lemma 5.11 Bei den folgenden Umformungen eines Vektorsystems v1 , . . . , vm
ändert sich Lin{v1 , . . . , vm } nicht, und damit auch nicht rang{v1 , . . . , vm }.
1) Vertauschen zweier Vektoren.
2) Ersetzen eines Vektors vi durch αvi mit 0 6= α ∈ K.
3) Ersetzen eines vi durch vi + αvj mit i 6= j und α ∈ K.
Beweis Sei w1 , . . . , wm durch eine der drei Umformungsarten aus v1 , . . . , vm
entstanden. Zu zeigen ist Lin{w1 , . . . , wm } = Lin{v1 , . . . , vm }.
Im Fall 1) gilt mit wi = vj und wj = vi und sonst vk = wk
⇔
v = α1 v1 + . . . + αi vi + . . . + αj vj + . . . + αm vm ,
v = α1 w1 + . . . + αj wi + . . . + αi wj + . . . + αm wm .
Im Fall 2) gilt mit wi = αvi und sonst wk = vk
⇔
v = α1 v1 + . . . + αi vi + . . . + αm vm ,
v = α1 w1 + . . . + ααi wi + . . . + αm wm .
Im Fall 3) gilt wegen wi = vi + αvj ⇔ vi = wi − αvj = wi − αwj
⇔
v = α1 v1 + . . . + αi vi + . . . + αj vj
+ . . . + αm v m ,
v = α1 w1 + . . . + αi wi + . . . + (αj − ααi )wj + . . . + αm wm .
Damit erzeugen v1 , . . . , vm und w1 , . . . , wm den selben Vektorraum.
Korollar 5.12 Der Zeilenrang einer Matrix ist gleich der Anzahl der Stufen
der (durch elementare Zeilenumformungen) auf Stufenform gebrachten Matrix.
Beweis Elementare Zeilenumformungen sind Umformungen im Sinn von 1),
2) und 3) von Lemma 5.11. Die zu den Stufen gehörenden Zeilenvektoren
7
sind linear unabhängig und spannen den Zeilenraum auf.
Satz 5.13 Der Zeilenrang einer Matrix ist gleich ihrem Spaltenrang (den wir
deshalb kurz als Rang der Matrix bezeichnen dürfen).
Beweis Seien o.B.d.A. die ersten r := Srang(A) Spalten von A ∈ K m×n
linear unabhängig. Dann ist jedes LGS


 

a11 a12 . . . a1r
α1
a1i
 a21 a22 . . . a2r   α2   a2i 


 

i = r + 1, . . . , n,
 ..
..   ..  =  ..  ,
 .




.
.
. 
am1 am2 . . . amr
αr
ami
eindeutig lösbar. Somit hat die (gemeinsame) Koeffizientenmatrix dieser n−r
LGS, wenn man sie auf Stufenform bringt, r Stufen. Damit hat dann aber
auch die gesamte Matrix A, auf Stufenform gebracht, r Stufen, also ist nach
Korollar 5.12 auch Zrang(A) = r.
Satz 5.14 Das LGS Ax = b hat genau dann eine Lösung, wenn rang(A) =
rang(A | b).
Beweis Seien s1 , . . . , sn die Spalten von A. Das LGS Ax = b ist genau dann
lösbar, wenn die rechte Seite b in Lin{s1 , . . . , sn } liegt (vgl. Bemerkung 2 nach
Definition 5.1), d.h., genau dann wenn Lin{s1 , . . . , sn } = Lin{s1 , . . . , sn , b}
gilt. Wegen Lin{s1 , . . . , sn } ⊆ Lin{s1 , . . . , sn , b} ist das genau dann der
Fall, wenn beide linearen Vektorräume die gleiche Dimension haben, also
rang(A) = rang(A | b).
Satz 5.15 (Dimensionsformel für LGS)
Sei A ∈ K m×n mit rang(A) = r. Dann gilt
dimL(A, 0) = n − r.
Wenn A schon Stufenform hat,

1
 0
 .
 .
 .

A= 0

 0
 .
 ..
0
und die Stufen in den ersten r Spalten sind,

∗ ∗ ∗ ... ∗
1 ∗ ∗ ... ∗ 
.. 
.. ..

.
.
. 

0 ... 1 ... ∗ ,

0 ... 0 ... 0 
..
..
.. 
.
.
. 
0 ... 0 ... 0
dann erhält man eine Basis von L(A, 0), indem man für die letzten n − r
Komponenten der Reihe nach die n − r Einheitsvektoren aus K n−r einsetzt
8
und dann die ersten r Komponenten der Lösung aus Ax = 0 bestimmt.
Beispiel Sei A ∈ R4×6 mit

1 −1
0 4 2
 0
1 −1 0 2
A=
 0
0
1 4 0
0
0
0 0 0

0
4 
.
0 
0
Hier ist also r = 3, m = 4 und n = 6. Die Einheitsvektoren des Rn−r = R3
werden der Reihe nach in die letzten drei Komponenten eingesetzt:
(x4 , x5 , x6 ) = (1, 0, 0) in das LGS
x1 −x2
+4x4 +2x5
= 0,
x2 −x3
+2x5 +4x6 = 0,
x3 +4x4
=0
eingesetzt gibt x3 = −4, x2 = −4 und x1 = −8, also die erste Basislösung
(−8, −4, −4, 1, 0, 0).
(x4 , x5 , x6 ) = (0, 1, 0) in das LGS eingesetzt gibt x3 = 0, x2 = −2 und
x1 = −4, also die zweite Basislösung
(−4, −2, 0, 0, 1, 0).
(x4 , x5 , x6 ) = (0, 0, 1) in das LGS eingesetzt gibt dann als dritte Basislösung
(−4, −4, 0, 0, 0, 1).
Jedes Lösung des homogenen LGS, also jedes Element aus L(A, 0) ist Linearkombination aus diesen drei Basislösungen, denn ist v := (α1 , . . . , α6 ) in
L(A, 0), dann auch
w := v − α4 (−8, −4, −4, 1, 0, 0) − α5 (−4, −2, 0, 0, 1, 0) − α6 (−4, −4, 0, 0, 0, 1)
= (α1 + 8α4 + 4α5 + 4α6 , α2 + 4α4 + 2α5 + 4α6 , α3 + 4α4 , 0, 0, 0).
Aus Aw = 0 folgt aber, dass auch die ersten drei Komponenten von w Null
sind, also w = 0, und damit
v = α4 (−8, −4, −4, 1, 0, 0) + α5 (−4, −2, 0, 0, 1, 0) + α6 (−4, −4, 0, 0, 0, 1)
Korollar 5.16 Sei A ∈ K m×n und rang(A) = r. Dann ist r = n äquivalent
dazu, dass jedes LGS Ax = b höchstens eine Lösung besitzt.
9
Beweis Es gibt genau dann höchstens eine Lösung, wenn L(A, 0) = {0}. Das
ist nach Satz 5.15 genau dann der Fall, wenn r = n gilt.
Korollar 5.16 Sei A ∈ K m×n und rang(A) = r. Ax = b ist genau dann
lösbar für jedes b ∈ K m , wenn r = m gilt. (Man sagt dann, das LGS mit
Koeffizientenmatrix A ist universell lösbar.)
Beweis Der von den Spalten von A aufgespannte K-Vektorraum ist genau
dann der K m , wenn das LGS universell lösbar ist. In diesem Fall gilt r = n. Definition 5.18 (reguläre Matrix)
Eine Matrix A ∈ K m×n heißt regulär, wenn m = n und rang(A) = n gilt.
Beispiel Seien e1 , . . . , en die Einheitsvektoren aus K n . Die Matrix mit diesen
Vektoren als Spalten heisst Einheitsmatrix und wird mit En bezeichnet. Sie
ist regulär, weil sie (quadratisch ist und) Matrix in Stufenform mit n Stufen
ist, also den Rang n hat.
Hilfssatz 5.19 Sei A ∈ K m×n und B ∈ K n×` . Dann gilt
rang(AB) ≤ rang(A) und rang(AB) ≤ rang(B).
Beweis Seien a1 , . . . , an die Spalten von A und b1 , . . . , b` die von B sowie
S := Lin{a1 , . . . , an }. Die Matrix AB hat Ab1 , . . . , Ab` als Spalten. Weil
jedes Abi eine Linearkombination der Spalten von A ist, gilt Abi ∈ S für
i = 1, . . . , ` und
Lin{Ab1 , . . . , Ab` } ⊆ S.
Aus der Definition des (Spalten-)rangs folgt rang(AB) ≤ dim(S) = r.
Weil Spaltenrang und Zeilenrang gleich sind, folgt rang(A) = rang(AT ),
rang(B) = rang(B T ) und rang((AB)T ) = rang(AB). Mit dem eben bewiesenen (mit B T für A und AT für B) daher
rang(AB) = rang((AB)T ) = rang(B T AT ) ≤ rang(B T ) = rang(B).
Das war zu beweisen.
Satz 5.20 Für quadratische Matrizen A ∈ K n×n sind die folgenden Aussagen
äquivalent.
i)
A ist regulär.
ii) Für jedes b ∈ K n hat das LGS Ax = b eine eindeutige Lösung.
iii) Zu A gibt es ein R ∈ K n×n mit AR = En .
iv) Zu A gibt es ein L ∈ K n×n mit LA = En .
v) A ist invertierbar, d.h., es gibt ein B ∈ K n×n mit AB = En = BA.
vi) ΦA : K n → K n , x 7→ Ax, ist bijektiv.
10
Beweis Wir zeigen zuerst im Ringschluss, dass i), ii) und iii) äquivalent
sind. Dann die Äquivalenz von iv) und v) zu den ersten drei Aussagen und
abschließend die Äquivalenz von ii) und vi).
“i) ⇒ ii)00 Wenn i) gilt dann hat Ax = b nach Korollar 5.16 höchstens und
nach Korollar 5.17 mindestens eine Lösung. Also gilt dann ii).
“ii) ⇒ iii)00 Wenn ii) gilt, sind die LGS Ax = ei , i = 1, . . . , n, eindeutig
lösbar. Die Lösungen seien r1 , . . . , rn . Die Matrix R ∈ K n×n mit der Lösung
ri des LGS Ax = ei in Spalte i erfüllt dann AR = En .
“iii) ⇒ i)00 Die Matrix A hat höchstens den Rang n. Daher folgt mit Hilfssatz
5.19
n = rang(En ) = rang(AR) ≤ rang(A) ≤ n.
Das ist nur möglich, wenn rang(A) = n gilt, wenn also A regulär ist.
Damit sind i), ii) und iii) äquivalent.
“i) ⇒ iv)00 Ist A regulär, dann rang(AT ) = rang(A) = n, also auch AT
regulär. Nach iii) folgt für das reguläre AT , dass es ein R ∈ K n×n gibt mit
AT R = En . Transponieren ergibt dann LA = En mit L := RT .
“iv) ⇒ i)00 Analog zu “iii) ⇒ i)00 .
“i) ⇒ v)00 Aus i) folgt iii) und iv). Wegen
R = En R = (LA)R = L(AR) = LEn = L
gilt v) mit B := L = R.
“v) ⇒ iii)00 Man setze R := B.
“ii) ⇔ vi)00 ΦA ist genau dann bijektiv, wenn es zu jedem x ∈ K n genau ein
b ∈ K n gibt mit ΦA (x) = b. Das ist mit ΦA (x) = Ax genau die Aussage ii). Definition 5.21 (Inverse Matrix)
Sei A ∈ K n×n regulär. Die Matrix B aus Satz 5.20 v) wird Inverse von A
oder invers zu A genannt und mit A−1 bezeichnet.
Sind c1 , . . . , cn die Spalten von A−1 , dann ist Aci = ei für i = 1, . . . , n wegen
AA−1 = En . Daher
gibt die Lösung von Ax = e1 die erste Spalte von A−1 ,
gibt die Lösung von Ax = e2 die zweite Spalte von A−1 ,
u.s.w. bis
gibt die Lösung von Ax = en die letzte Spalte von A−1 .
Das sind n LGS mit derselben Koeffizientenmatrix A. Man kann deshalb die
Gaußelimination gleichzeitig auf alle erweiterte Matrizen anwenden, indem
man alle n rechten Seiten e1 , . . . , en simultan mit umformt. Wenn dieses Verfahren scheitert, dann war eines der LGS nicht lösbar und nach Satz 5.20
i) ⇔ ii) die Matrix A nicht regulär.
11
Beispiel Sei A ∈ R3×3 mit


1
2 0
A =  3 −4 4  .
−1
2 1
Dann geben elementare Zeilenumformungen
1
2
3 −4
−1
2
1
2
0 −10
0
4
1
0
0
1
0
0
1
0
0
1
0
0
1
0
4
0
0
1
0
1
4 −3
1
1
0
1
0
0
1
0
2
5
3
10
−1
5
6
13
7
26
−1
13
1
5
−1
10
2
5
1
13
−1
26
2
13
4
5
−2
5
13
5
0
0
1
0
0
1
0
0
1
0
0
1
−4
13
2
13
5
13
Hieraus liest man die Lösungen der LGS und damit die inverse Matrix ab,

 6
1
−4
A−1 = 
13
7
26
−1
13
13
−1
26
2
13
13
2
13
5
13
.
Bemerkung Ist A regulär, dann hat Ax = b als Lösung x = A−1 b. Man
könnte also meinen, dass man am besten erst A−1 ausrechnet und dann
die Lösung x = A−1 b durch eine einfache Matrix-Vektor-Multiplikation bekommt. Das ist aber erst dann sinnvoll, wenn man (mindestens) n LGS mit
der selben Koeffizientenmatrix zu lösen hat, den man hat ja diesen Aufwand
zur Berechnung von A−1 zu betreiben.
Im Fall n = 2 kann man
A−1 ohne
Gaußelimination bekommen: Man rechnet
a b
leicht nach dass A =
genau dann regulär ist, wenn ad − bc 6= 0
c d
gilt. Dann ist
A−1 =
d
ad−bc
−c
ad−bc
−b
ad−bc
a
ad−bc
.
Satz 5.22 Die regulären Matrizen A ∈ K n×n bilden eine Gruppe bezüglich
der Matrixmultiplikation. (Diese Gruppe nennt man allgemeine lineare Gruppe über K und bezeichnet sie mit GLn (K).)
12
Beweis Sind A, B ∈ K n×n regulär, dann existieren A−1 und B −1 . Die Matrix
AB ∈ K n×n ist dann auch regulär, denn sie besitzt als Inverse B −1 A−1 wegen
AB(B −1 A−1 ) = ABB −1 A−1 = AA−1 = En ,
(B −1 A−1 )AB = B −1 A−1 AB = B −1 B = En .
Damit ist die Matrixmultiplikation eine Verknüpfung in GLn (K). Das Assoziativgesetz gilt hier, weil es für beliebige n × n-Matrizen gilt. Jedes Element
besitzt ein Inverses nach Satz 5.20 v). Die Einheitsmatrix En liegt in GLn (K)
und ist das neutrale Element bzgl. der Verknüpfung.
13
Herunterladen