TECHNISCHE UNIVERSITÄT MÜNCHEN Lineare Algebra 1

Werbung
TECHNISCHE UNIVERSITÄT MÜNCHEN
Zentrum Mathematik
Prof. Dr. Friedrich Roesler
Ralf Franken, PhD
Max Lein
Lineare Algebra 1
WS 2006/07
Lösungen Blatt 2
30.10.2006
Matrizen als lineare Abbildungen, Permutationen
Zentralübungsaufgaben
Z4 Matrizen als Abbildungen
Sei A ∈ Mn (R) eine n × n-Matrix. Dann definieren wir die zugehörige Abbildung fA als
fA : Rn −→ Rn , x 7→ fA(x) := Ax
(i) Zeigen Sie, dass fA eine lineare Abbildung ist, das heißt es gilt fA(x 1 +λx 2 ) = fA(x 1 )+λ fA(x 2 )
für alle x 1 , x 2 ∈ Rn , λ ∈ R.
(ii) Das Bild von fA, im fA, ist die Menge der Vektoren, die ein Urbild haben.
im fA := z ∈ Rn | z = fA(x), x ∈ Rn
Zeigen Sie, dass das Bild die Menge der Linearkombinationen der Spaltenvektoren der Matrix
A ist, fA(Rn ) := im fA = lin { fA(e1 ), . . . , fA(en )}.
(iii) Zeigen Sie, dass eine Matrix genau dann invertierbar ist, wenn die Spalten linear unabhängig
sind.
(iv) Zeigen Sie, dass im fA ein Vektorraum ist.
(v) Seien A, A1 und A2 n × n-Matrizen. Dann gilt:
(a) fA1 ◦ fA2 = fA1 ·A2
(b) fA ist genau dann invertierbar, wenn A invertierbar ist und es gilt fA−1 = fA−1 .
−1
(c) Falls A1 und A2 invertierbar sind, gilt fA1 ◦ fA2
= fA2 −1 ◦ fA1 −1 = fA2 −1 ·A1 −1 .
(vi) Zeigen Sie, dass fA genau dann invertierbar ist, wenn im fA = Rn ist.
Lösung
In der Analysis unterscheidet man sehr genau zwischen Gleichungen der Form y = x 2 und der
zugehörigen Funktion, x 7→ f (x) := x 2 , meist kurz als f bezeichnet. Genau dieselbe Unterscheidung
wird in der linearen Algebra getroffen: die zu einer n × n-Matrix A gehörige Abbildung fA ist nicht
mit y = Ax identisch. Das mag spitzfindig klingen, ist es aber nicht: beispielsweise wir können nur
Funktionen ableiten und nur Funktionen haben bestimmte Symmetrieeigenschaften. Das bedeutet,
die zu A gehörige Abbildung, fA, ist linear (und nicht etwa ‘die Matrix’).
1
(i) Wir setzen direkt die Definition der Abbildung fA in fA(x + λ y), x, y ∈ Rn , λ ∈ R, ein und
erhalten
 
  

y
x1
a11 . . . a1n
 .1 
  . 
 .
.
.
..  ·  ..  + λ  .. 
fA(x + λ y) = A · (x + λ y) = 
 
  
 .
yn
xn
an1 . . . ann

 

a
. . . a1n
x + λy
 11
  1 . 1
.
.

.
..  · 
..
=
 .
 

an1 . . . ann
x n + λ yn
P n
 P n

P n

a1l (x l + λ yl )
a1l x l
a1l yl
l=1
l=1
l=1

 



..
..
..
=
 + λ

=
.
.
.
P
 P

P

n
n
n
l=1 anl (x l + λ yl )
l=1 anl x l
l=1 anl yl

  

  
a11 . . . a1n
x1
a11 . . . a1n
y
 .
 .
 .
  .1 
.
.
.
..  ·  ..  + λ  ..
..  ·  .. 
=
 .
  

  
an1 . . . ann
xn
an1 . . . ann
yn
= A · x + λ A · y = fA(x) + λ fA( y)
Also ist die Abbildung fA linear.
(ii) Wir können jeden Vektor x ∈ Rn eindeutig als Linearkombination der Standardbasis schreiben,
da die Standardbasis aus linear unabhängigen Vektoren besteht.
 
α
n
X
 .1 


.
x =  .  = α1 e1 + . . . + αn en =
αl el
αn
l=1
{e1 , . . . , en } bezeichnen die üblichen Basisvektoren.
 
0
.
 .. 
 
0
 
1

el = 
0
 
0
 
 .. 
.
0
l-te Zeile
Wie man leicht nachrechnen kann, gibt fA(el ) = Ael =: sl die l-te Spalte der Matrix, beispielsweise ist fA(e1 ) = s1

  
  
a11 . . . a1n
1
1 · a11 + 0 + . . . + 0
a
 .
  
  11

.
.
 =  ..  = s
.
..  0 = 
..
fA(el ) = Ael = 
1
. 
 .
  . 
..
a
... a
1 · a + 0 + ... + 0
a
n1
nn
n1
2
n1
Pn
Sei z ∈ Rn beliebig, aber fest, z = l=1 βl el . Nehmen wir an, es gäbe ein x ∈ Rn mit fA(x) = z.
Dann gilt ja mit (i) (Linearität von fA)
fA(x) = fA
P
n
l=1 αl el
n
n
l=1
l=1
X
Linearität X
=
αl fA(el ) =
αl sl
Die Spaltenvektoren sl = (ail )1≤i≤n sind genau dann linear unabhängig, wenn die Zerlegung
von z als Linearkombination der Spaltenvektoren eindeutig ist.
Die Menge der Linearkombinationen der Spaltenvektoren (die, wie wir sehen werden, wieder
ein Vektorraum ist, siehe Teilaufgabe (iv)), lin {s1 , . . . , sn } ist definiert als
Pn
lin {s1 , . . . , sn } := z ∈ Rn | z = l=1 αl sl , α1 , . . . , αn ∈ R
Das heißt, das Bild setzt sich aus Linearkombinationen von Spaltenvektoren zusammen.
(iii) Hinweis: sobald die Floskel ‘A genau dann B’ fällt (in der Mathematik schreibt man auch
A ⇔ B), heißt das, dass sowohl aus A B folgt, A ⇒ B, als auch B A impliziert, B ⇒ A. Das heißt
man muss beide Richtungen überprüfen und nicht nur eine!
Hinrichtung, ‘⇒’: Sei A also invertierbar. Wir müssen zeigen, dass { fA(e1 ), . . . , fA(en )} linear
unabhängig sind.
Wir können fA(x) = z für gegebenes z ∈ Rn als Gleichungssystem auffassen, das n Gleichungen und n Unbekannte hat, A · x = z. In Komponenten ausgedrückt erhalten wir so

    
a11 . . . a1n
α
β
 .
 1  1
.. 
 .
 ·  ..  =  .. 
(∗)
.   .   . 
 .
an1 . . . ann
αn
βn
Ein Gleichungssystem kann entweder keine Lösung haben, genau eine oder unendlich viele.
Gäbe es allerdings keine oder unendlich viele Lösungen, so wäre A nicht invertierbar. Denn
 
 
β1
λ
 
 .1 
−1
−1  .. 

A · z = A ·  .  =:  .. 
 = xz
βn
λn
ist genau diese eine Lösung für beliebiges z ∈ Rn . Daher muss das Gleichungssystem genau eine
Lösung haben und die Spaltenvektoren {sl }1≤l≤n = { fA(el )}1≤l≤n müssen linear unabhängig
sein.
Rückrichtung, ⇐: Seien also die Spaltenvektoren der Matrix linear unabhängig. Wir müssen
zeigen, dass die Matrix dann auch invertierbar ist. Wir definieren dieses Mal die Umkehrabbildung explizit.
Wir können jeden Vektor z ∈ im fA, für den ein x ∈ Rn existiert mit zP= fA(x), als eine eindeutig
n
bestimmte Linearkombination der Spaltenvektoren darstellen, z = l=1 λl sl . Dann definieren
wir eine Umkehrabbildung fA−1 als
 
λ
n
X
 .1 
−1

z 7→ fA (z) =:
λl el =  .. 

l=1
λn
3
Da aber n linear unabhängige Vektoren einen n-dimensionalen Unterraum aufspannen (zwei
Vektoren im R3 spannen beispielsweise eine Ebene auf), der gesamte Vektorraum aber nur
n-dimensional ist, können wir jeden Vektor auf diese Art und Weise darstellen.
Diese Aufgabe beweist die Behauptung, dass Matrizen, dessen Spalten (und Zeilen) nicht
linear unabhängig sind, auch nicht invertierbar sind.
(iv) Das Bild einer linearen Abbildung fA : Rn −→ Rn ist definiert als die Menge der Punkte z im
Rn , zu denen ein Vektor x existiert mit fA(x) = z.
Erfüllt die Menge im fA ⊆ Rn , aufgefasst als Teilmenge des Rn die Vektorraumaxiome? Wir
müssen also überprüfen, ob
(V1) die Addition assoziativ ist ((x 1 + x 2 ) + x 3 = x 1 + (x 2 + x 3 ) für alle x 1 , x 2 , x 3 ∈ Rn ),
(V2) die Addition ein Nullelement hat (es existiert ein 0 ∈ Rn mit x + 0 = x, x ∈ Rn ),
(V3) ein Inverses bezüglich der Addition existiert (für alle x ∈ Rn existiert ein −x ∈ Rn mit
x + (−x) = 0),
(V4) die Addition kommutiert (x 1 + x 2 = x 2 + x 1 ∀x 1 , x 2 ∈ Rn ),
(V5) die Skalarmultiplikation distributiv ist ((α + β)x = αx + β x ∀α, β ∈ R, x ∈ Rn ),
(V6) die Skalarmultiplikation assoziativ ist ((α · β)x = α(β x) ∀α, β ∈ R, x ∈ Rn ) und
(V7) ein Identitätselement 1 ∈ R bezüglich der Skalarmultiplikation existiert (1 x = x ∀x ∈
Rn ).
Im wesentlichen bedeutet die Aussage, dass Abbilder (bezüglich linearer Abbildungen) wieder
Vektorräume sind, dass lineare Abbildungen mit der Struktur von Vektorräumen kompatibel
sind. Dieses Konzept wird einem in der Mathematik immer wieder begegnen.
Wir überprüfen hier nur (V1) und (V2), der Rest funktioniert analog und ist als Hausaufgabe
zu lösen.
(V1) Seien also z1 , z2 , z3 ∈ im fA. Dann existieren x 1 , x 2 , x 3 ∈ Rn mit fA(x j ) = z j , j = 1, 2, 3.
Dann haben wir
z1 + (z2 + z3 ) = fA(x 1 ) + ( fA(x 2 ) + fA(x 3 )) = fA(x 1 ) + fA(x 2 + x 3 )
= fA(x 1 + x 2 + x 3 ) = fA(x 1 + x 2 ) + fA(x 3 ) = ( fA(x 1 ) + fA(x 2 )) + fA(x 3 )
= (z1 + z2 ) + z3
wobei wir die Linearität von fA ausgenutzt haben.
(V2) Da fA linear ist, gilt fA(0) = 0. Somit ist immer 0 ∈ im fA und wir haben für alle z ∈ im fA
(und x ∈ Rn derart, dass fA(x) = z)
z + 0 = fA(x) + fA(0) = fA(x + 0) = fA(x)
=z
(v) (a) Werden zwei lineare Abbildungen fA1 , fA2 : Rn −→ Rn hintereinanderausgeführt, fA1 ◦ fA2 ,
so stellt sich die Frage, welche Matrix die Kompositionsabbildung hat. Das kann man
4
allerdings ganz leicht ausrechnen. Sei x ∈ Rn beliebig, aber fest. Dann ist ( fA1 ◦ fA2 )(x)
gegeben durch
( fA1 ◦ fA2 )(x) = fA1 fA2 (x) = fA1 (A2 x) = A1 · A2 x
= fA1 ·A2 (x)
Wie wir später sehen werden, ist die Matrixmultiplikation assoziativ, das heißt A1 · (A2 ·
A3 ) = (A1 · A2 ) · A3 für alle Matrizen A1 , A2 , A3 ∈ Mn (R). Somit ist die Komposition von
linearen Abbildungen ebenfalls assoziativ1 .
(b) Das Inverse von fA, fA−1 , erfüllt die Gleichung fA ◦ fA−1 = idRn . Die Matrix der Identitätsabbildung ist die Einheitsmatrix. Angenommen, die zu fA−1 gehörige Matrix sei C. Dann
wissen wir mit Teilaufgabe (a), dass A · C = idRn ist. Die einzige Matrix, die das erfüllt, ist
das Inverse zu A.
(c) Wir zeichnen uns erst ein Diagramm von den Räumen und den Abbildungen zwischen
ihnen.
( fA1 ◦ fA2 )−1
y
Rn m
fA2
f A2
- Rn m
−1
f A1
fA1
−1
- n
9R
fA1 ◦ fA2
An diesem Diagramm sieht man schon, dass man die Reihenfolge der inversen Abbildungen umdrehen muss, mathematisch rigoros ist diese Argumentationslinie jedoch nicht.
Erst mit dem Wissen, dass die Verknüpfung von linearen Abbildungen assoziativ ist (was
aus der Assoziativität des Matrixprodukts folgt).
Sei z ∈ Rn ein Vektor. Um fA1 ◦ fA2 umzukehren, müssen wir zuerst fA1 −1 = fA1 −1 auf z
anwenden und dann erst fA2 −1 = fA2 −1 . Daher erhalten wir mit (b)
( fA1 ◦ fA2 )−1 = fA2 −1 ◦ fA1 −1 = fA2 −1 ◦ fA1 −1
(b)
= fA2 −1 ·A1 −1
Daher gilt für zwei invertierbare Matrizen (A · B)−1 = B −1 · A−1 .
(vi) ⇒: Sei A invertierbar. Wir werden zeigen, dass das Bild der zugehörigen Abbildung fA ganz Rn
ist.
Nach Teilaufgabe (v)(b) A ist genau dann invertierbar, wenn fA invertierbar ist. Angenommen
im fA ( Rn . Dann wählen wir einen Vektor z ∈ Rn \im fA und wenden fA−1 auf z an, fA−1 (z) =
x z . Wir haben also ein x z ∈ Rn gefunden mit fA(x z ) = z. Also ist z ∈ im fA, Widerspruch!
Daher muss im fA = Rn gelten.
⇐: Sei im fA = Rn . Wir werden durch Widerspruch zeigen, dass A invertierbar sein muss.
Pn
Wähle ein z ∈ im fA = Rn , z = l=1 αl el . Da z ∈ im fA muss das Gleichungssystem fA(x) =
Ax = z mindestens eine Lösung haben. Angenommen fA wäre nicht invertierbar. Dann gäbe
1
Nicht alle Produkte sind assoziativ. Ein Gegenbeispiel ist bereits aus der Schule bekannt, das Kreuzprodukt: a×(a×v) 6=
(a × a) × v, a, v ∈ R3
5
es zu jedem z ∈ im fA mehr als P
eine Lösung (genauer:
unendlich viele Lösungen). Seien x und
P
x̃ zwei solcher Lösungen, x = l=1 βl el , x̃ = l=1 β̃l el . Dann gilt
n
0 = z − z = fA(x) − fA(x̃)
Linearität X
=
(βl − β̃l ) fA(el )
l=1
n
X
=
(βl − β̃l )sl
l=1
Da die Spaltenvektoren nicht linear unabhängig sind (Teilaufgabe (ii)), ist auch die Matrix
A nicht invertierbar. Das bedeutet allerdings, dass es Vektoren gibt z ∈ Rn gibt, die nicht in
lin {s1 , . . . , sn } liegen: es sind ja höchstens n − 1 der Spaltenvektoren linear unabhängig und
der von ihnen aufgespannte Raum hat die Dimension n − 1, Widerspruch!
Daher ist die Annahme falsch und A muss invertierbar sein.
Z5 Permutationen
Sei Mn := {1, . . . , n} die Menge der Zahlen 1 bis n; dann ist Sn die Menge der Permutationen, das
heißt jedes σ ∈ Sn , σ : Mn −→ Mn , ist bijektiv.
(i) Betrachten Sie S4 . Zerlegen Sie eine Permutation in Paarvertauschungen. Ist diese Zerlegung
eindeutig?
(ii) Geben Sie die Gruppenaxiome an.
(iii) Versuch 1: Zeigen Sie, dass S6 eine Gruppe ist.
(iv) Geben Sie die Matrixrepräsentation einer Permutation an.
(v) Versuch 2: Zeigen Sie, dass S6 (in Matrixrepräsentation) eine Gruppe ist.
Lösung
Permutationen sind Abbildungen vom Zahlentupel Mn := {1, . . . , n} in sich selbst,
σ : Mn −→ Mn
Beispielsweise ordnet die Permutation
σ=
1 2 3 4 5 6
6 1 4 3 5 2
∈ S6
die 1 auf die 6 ab, die 2 auf die 1, usw. Dass die Hintereinanderausführung zweier Permutation
wieder eine Permutation ist, ist intuitiv wahr, aber muss mathematisch trotzdem noch bewiesen
werden.
Dass zwei Permutationen σ1 , σ2 ∈ Sn , n ≥ 3, nicht vertauschen, das heißt σ1 ◦ σ2 6= σ2 ◦ σ1 , ist
auch klar: sei n = 3, wir betrachten also die Permutationen des Tripels M3 = {1, 2, 3}. Dann ist
1 2 3
1 2 3
1 2 3
1 2 3
1 2 3
1 2 3
=
◦
6=
◦
=
2 3 1
1 3 2
3 2 1
3 2 1
1 3 2
3 1 2
6
(i) Betrachten wir die Permutation
σ=
1 2 3 4
∈ S4
1 4 2 3
Man kann leicht zeigen, dass σ sich nicht eindeutig zerlegen lässt, sowohl
1 2 3 4
1 2 3 4
◦
1 3 2 4
1 4 3 2
als auch
1 2 3 4
1 2 3 4
1 2 3 4
1 2 3 4
◦
◦
◦
4 2 3 1
2 1 3 4
3 2 1 4
4 2 3 1
sind zwei mögliche Zerlegungen. Es gibt noch unendlich viele andere. Allerdings kann man
zeigen, dass sich jede Permutation nur in entweder eine gerade oder ungerade Anzahl von
Paarvertauschungen zerlegen lässt.
(ii) Sei G eine Menge mit Multiplikation ∗ : G × G −→ G. Dann ist das Paar (G, ∗) eine Gruppe,
wenn folgende drei Axiome erfüllt sind:
(G1) Die Multiplikation ∗ ist assoziativ, das heißt ∀g1 , g2 , g3 ∈ G gilt (g1 ∗g2 )∗g3 = g1 ∗(g2 ∗g3 ).
(G2) Es existiert ein neutrales Element (auch Einselement oder Eins) id mit g ∗ id = g.
(G3) Zu jedem g ∈ G existiert ein inverses Element g −1 mit g ∗ g −1 = id = g −1 ∗ g.
Das Produkt ∗ muss nicht abelsch/kommutativ sein!
(iii) Fangen wir mit (G2) an: offensichtlich ist
1 2 3 4 5 6
id =
1 2 3 4 5 6
das Einselement. (G3) kann man auch leicht nachweisen, denn man kann das Inverse direkt
angeben: seien a, b, c, d, e, f ∈ M6 , so dass keine Zahl doppelt vorkommt. Dann ist das Inverse
von
1 2 3 4 5 6
σ=
a b c d e f
die Permutation
∗
σ−1 =
a b c d e f
1 2 3 4 5 6
Das Gleichheitszeichen mit ∗ bedeutet, dass wir die Spalten in aufsteigender Reihenfolge (der
oberen Elemente) sortieren müssen. Hier wird es also schon etwas unanschaulich, zumindest
wenn man im Abstraktem bleibt!
Noch schwieriger wird es, die Assoziativität des Produkts zu zeigen. Wir könnten an dieser
Stelle drei allgemeine Permutationen angeben und versuchen sie zu multiplizieren, aber wieso
einfach, wenn es auch schwierig geht? (Man kann das auch abstrakt machen, indem man zeigt,
dass für alle Elemente der Menge σ1 ◦ (σ2 ◦ σ3 ) und (σ1 ◦ σ2 ) ◦ σ3 dasselbe Bild haben.)
7
(iv) Sei σ ∈ S6 die Permutation
σ=
1 2 3 4 5 6
1 2 6 5 3 4
Wir betrachten nun den Vektorraum R6 mit Standardbasisvektoren {e1 , . . . , en }. Jeder Zahl im
Tupel wird nun der entsprechende Basisvektor zugeordnet, der 1 entspricht e1 , der 2 entspricht
e2 , usw.
Jeder Permutation ordnen wir eine Matrix zu. Beispielsweise wird mit σ die Matrix


1 0 0 0 0 0


0 1 0 0 0 0 

0 0 0 0 1 0 

e1 e2 e6 e5 e3 e4 = 

0 0 0 0 0 1 


0 0 0 1 0 0 
0 0 1 0 0 0
assoziiert, wobei e j der j-te Einheitsvektor ist. Das heißt in der 1. Spalte steht der Vektor e1 ,
da 1 nicht vertauscht wird. Andererseits steht in der 3. Zeile e6 , da wir 3 mit 6 vertauschen.
Eine allgemeine Permutation
σ=
1 2 3 4 5 6
a b c d e f
wird also dargestellt durch
σ̂ = ea
eb
ec
ed
ee
ef
und wir wissen, dass σ̂e1 = ea ist, usw. Das Produkt von zwei Permutation wird einfach zum
Matrixprodukt, wir können also direkt σ̂1 · σ̂2 ausrechnen.
(v) Nun benutzen wir die Matrixdarstellung um nachzuweisen, dass die Permutationen tatsächlich
eine Gruppe bilden.
Gruppenaxiom folgt sofort aus der entsprechenden Eigenschaft für Matrizen: die Matrixmultiplikation ist assoziativ, also ist auch die Hintereinanderausführung von Permutationen assoziativ. In der Matrixdarstellung ist auch klar, wieso Permutationen im allgemeinen nicht
miteinander kommutieren: das Matrixprodukt ist ebenfalls nicht kommutativ!
Das Einselement der Permutationen wird auf die Identitätsmatrix abgebildet, also haben wir
(G2) bestätigt.
Zu guter Letzt (G3): da Permutationsmatrizen nur die Standardbasisvektoren vertauschen ist
im σ̂ = Rn für alle Permutationsmatrizen σ̂. Aus Z4 (iv) folgern wir, dass alle Permutationsmatrizen invertierbar sind. Also ist auch (G3) erfüllt.
Tutoraufgaben
T4 Matrizen als Abbildung
(i) Der Kern einer Abbildung fA ist definiert als ker fA := x ∈ Rn | fA(x) = 0 . Zeigen Sie, dass
fA genau dann invertierbar ist, wenn ker fA = {0} trivial ist.
8
(ii) Berechnen Sie Kern und Bild zu den zu folgenden Matrizen assoziierten Abbildungen:






7 5
1
1 0 −5
−5 −3 1






5 
2 −2
A = 5 −5 −25
B = −1 0
C = 3
1 −3 −11
7 0 −35
1
1 −1
Lösung
(i) Der Kern einer linearen Abbildung fA ist die Menge aller Vektoren, die – eingesetzt in die
Abbildung – 0 ergeben. Insbesondere ist jede Lösung der Gleichung fA(x) = z nur modulo
Vektoren im Kern bestimmt (siehe H4 (ii)).
=⇒: Sei fA (und somit A) also invertierbar.
Sei k ∈ ker fA, das heißt fA(k) = 0. Dann muss auch
fA−1 (0)
Z4 (v) (b)
=
fA−1 (0) = A−1 · 0 = 0
gelten. Das heißt k = 0 und somit ker fA = {0}, der Kern ist trivial.
⇐=: Sei also ker fA = {0}.
Da ker fA = {0} ist, hat das Gleichungssystem
Ax = 0
nur eine Lösung. Das bedeutet, die Spalten sind linear unabhängig und nach Z4 (iii) ist die
Matrix invertierbar. Daraus folgt wiederum, dass im fA = Rn sein muss (Z4 (vi)).
(ii) Wir rechnen immer zuerst den Kern und dann das Bild aus.
Fangen wir mit fA an: ker fA ist die Lösungsmenge der Gleichung

   
7 5
1
x
0

  1  
5
−5
−25
x

  2  =  0
1 −3 −11
x3
0
Wir erhalten also drei Gleichungen mit drei Unbekannten:
7x 1 + 5x 2 + x 3 = 0
5x 1 − 5x 2 − 25x 3 = 0 =⇒ x 1 = x 2 + 5x 3
x 1 − 3x 2 − 11x 3 = 0
Wir setzen Gleichung (ii) in (iii) ein und erhalten
(x 2 + 5x 3 ) − 3x 2 − 11x 3 = 0 =⇒ −2x 2 − 6x 3 = 0
=⇒ x 2 = −3x 3
=⇒ x 1 = −3x 3 + 5x 3 = 2x 3
Das setzen wir in Gleichung (i) ein.
7 · (2x 3 ) + 5 · (−3x 3 ) + x 3 = 0
9
(i)
(ii)
(iii)
Diese Gleichung ist immer erfüllt und x 3 ist unser freier Parameter. Der Kern von fA ist
 
 2 
ker fA = lin −3


1
Da wir einen freien Parameter haben, sind nur zwei Spalten linear unabhängig und das Bild
wird von zwei Spaltenvektoren aufgespannt (da wir keine Nullspalten haben bzw. keine kolinearen Vektoren, können wir uns zwei Spalten aussuchen).
   
7  5  im fA = lin 5 , −5 = x ∈ Rn | 5x 1 − 13x 2 + 30x 3 = 0


1
−3
Allerdings können wir in diesem Fall das Bild auch als Ebenengleichung angeben: wir kreuzmultiplizieren die zwei Vektoren, die das Bild aufspannen und erhalten
    



7
5
−15 + 5
5
    



ñA = 5 × −5 =  5 + 21  = −2 · −13 =: −2nA
1
−3
−35 − 25
30
Die Bildebene ist also gegeben durch die Gleichung nA · x = 0.
Wir wiederholen die obige Prozedur für f B mit


1 0 −5


5 
B = −1 0
7 0 −35
Die Matrix enthält eine Nullspalte und einen kolinearen Vektor – wir erwarten also, dass der
Kern zwei-dimensional ist und das Bild von der ersten (bzw. dritten) Spalte aufgespannt wird,
das Bild ist eine Gerade. Fangen wir jedoch trotzdem mit dem Kern an:

   
1 0 −5
x
0

  1  
5   x 2  = 0
−1 0
7 0 −35
x3
0
Wir lösen das Gleichungssystem direkt auf:
x 1 − 5x 3 = 0 =⇒ x 1 = 5x 3
−x 1 + 5x 3 = 0 =⇒ x 1 = 5x 3
7x 1 − 35x 3 = 0 =⇒ x 1 = 5x 3
Wir haben also zwei freie Parameter, x 2 und x 3 . Der Kern ist also gegeben durch
   
5 0 ker f B = lin 0 , 1 = x ∈ R3 | x 1 − 5x 3 = 0


1
0
10
Das Bild ist gegeben durch
 
 1 
im f B = lin −1


7
Nun zu f C . Um den Kern zu berechnen, müssen wir
   
0
−5 −3 1
x

  1  
2 −2  x 2  = 0
3
0
1
1 −1
x3

lösen. Wir erhalten drei Gleichungen und setzen immer gleich ein:
−5x 1 − 3x 2 + x 3 = 0 =⇒ x 3 = 5x 1 + 3x 2
3x 1 + 2x 2 − 2 (5x 1 + 3x 2 ) = 0 =⇒ 4x 2 = −7x 1
x 1 + − 47 x 1 − 5x 1 − 3 · 47 x 1 = 0 =⇒ − 21 x 1 = 0
(i)
(ii)
(iii)
Also müssen x 1 = 0 = x 2 = x 3 sein, der Kern ist trivial, ker f C = {0} (enthält also nur den
Nullvektor), und die Matrix ist nach Teilaufgabe (i) invertierbar. Da C invertierbar ist, muss
das Bild ganz R3 sein, im f C = R3 (siehe Aufgabe Z4 (vi)).
T5 Permutationsgruppe S6
(i) Geben Sie die Matrixdarstellung der Permutationen σ j ∈ S6 , j = 1, 2, 3, an.
σ1 =
1 2 3 4 5 6
6 4 1 3 2 5
1 2 3 4 5 6
σ2 =
1 3 2 4 5 6
1 2 3 4 5 6
σ3 =
6 1 3 4 5 2
(ii) Berechnen Sie σ1 ◦ σ2 ◦ σ3 und vergleichen Sie das Ergebnis mit σ̂1 · σ̂2 · σ̂3 .
(iii) Wann kommutieren Permutationen? Geben Sie Beispiele an!
Lösung
11
(i) Wir wenden das Schema der Zentralübung an und erhalten so für die einzelnen Permutationen


0 0 1 0 0 0


0 0 0 0 1 0 


0 0 0 1 0 0 
σ̂1 = e6 e4 e1 e3 e2 e5 = 

0 1 0 0 0 0 


0 0 0 0 0 1 
1 0 0 0 0 0


1 0 0 0 0 0


0 0 1 0 0 0 

0 1 0 0 0 0 

e
e
e
e
e
e
σ̂2 = 1 3 2 4 5 6 = 

0 0 0 1 0 0 


0 0 0 0 1 0 
0 0 0 0 0 1


0 1 0 0 0 0


0 0 0 0 0 1 


0 0 1 0 0 0 
σ̂3 = e6 e1 e3 e4 e5 e2 = 

0 0 0 1 0 0 


0 0 0 0 1 0 
1 0 0 0 0 0
(ii) Wir berechnen zunächst die Komposition von σ1 ◦ σ2 ◦ σ3 .
1 2 3 4 5 6
1 2 3 4 5
σ1 ◦ σ2 ◦ σ3 =
◦
6 4 1 3 2 5
1 3 2 4 5
1 2 3 4 5 6
1 2 3 4 5
=
◦
6 4 1 3 2 5
6 1 2 4 5
1 2 3 4 5 6
=
5 6 4 3 2 1
12
6
1 2 3 4 5 6
◦
6
6 1 3 4 5 2
6
3
Nun versuchen wir dieselbe Rechnung über Matrizenmultiplikation.

 
 
0 0 1 0 0 0
1 0 0 0 0 0
0

 
 
0 0 0 0 1 0 0 0 1 0 0 0 0

 
 
0 0 0 1 0 0 0 1 0 0 0 0 0
σ̂1 · σ̂2 · σ̂3 = 
·
 
·
0 1 0 0 0 0 0 0 0 1 0 0 0

 
 
0 0 0 0 0 1 0 0 0 0 1 0 0
1 0 0 0 0 0
0 0 0 0 0 1
1

 

0 0 1 0 0 0
0 1 0 0 0 0

 

0 0 0 0 1 0 0 0 1 0 0 0

 

0 0 0 1 0 0 0 0 0 0 0 1
=
·

0 1 0 0 0 0 0 0 0 1 0 0

 

0 0 0 0 0 1 0 0 0 0 1 0
1 0 0 0 0 0
1 0 0 0 0 0


0 0 0 0 0 1


0 0 0 0 1 0 


0 0 0 1 0 0 
=
 = e5 e6 e4 e3 e2 e1
0
0
1
0
0
0




1 0 0 0 0 0 
0 1 0 0 0 0
1
0
0
0
0
0
0
0
1
0
0
0
0
0
0
1
0
0
0
0
0
0
1
0

0

1

0

0

0
0
(iii) Permutationen kommutieren, wenn sie beispielsweise andere Elemente vertauschen, σ12 ∈ S6
(die Permutation, die 1 und 2 vertauscht) kommutiert beispielsweise mit σ34 ∈ S6 .
Hausaufgaben
H3 Vektorraumaxiome
Vervollständigen Sie den Beweis in Z4(iv): zeigen Sie, dass die Axiome (V3)-(V7) erfüllt sind.
Lösung
(V3) Sei z ∈ im fA und x ∈ Rn derart, dass fA(x) = z. Dann haben wir
z + (−z) = fA(x) + fA(−x) = fA x + (−x) = fA(0) = 0
Also ist −z ∈ im fA (da fA linear ist, liegt −z auch im Bild) das Inverse der Addition zu
z ∈ im fA.
(V4) Seien z1 , z2 ∈ im fA und x 1 , x 2 ∈ Rn derart, dass fA(x j ) = z j , j = 1, 2.
z1 + z2 = fA(x 1 ) + fA(x 2 ) = fA(x 1 + x 2 )
= fA(x 2 + x 1 ) = fA(x 2 ) + fA(x 1 ) = z2 + z1
Also ist die Addition kommutativ.
(V5) Sei z ∈ im fA und x ∈ Rn derart, dass fA(x) = z, sowie α, β ∈ R. Dann ist die Skalarmultiplikation auf im fA ebenfalls distributiv.
(α + β) z = (α + β) fA(x)
Linearität
=
fA (α + β)x = fA(αx + β x)
= α fA(x) + β fA(x) = α z + β z
13
(V6) Seien x, z, α und β wie gehabt. Dann ist die Skalarmultiplikation aus assoziativ.
(α β) z = (α β) fA(x) = fA (α β) x = fA α (β x)
= α fA(β x) = α β fA(x) = α (βz)
(V7) Auch hier ist die 1 ∈ R das Identitätselement der Skalarmultiplikation, denn für x ∈ Rn ,
z ∈ im fA derart, dass fA(x) = z, gilt
1 z = 1 fA(x) = fA(1 x) = fA(x) = z
H4 Bilder und Kerne von linearen Abbildungen
(i) Berechnen Sie Bild und Kern für die folgenden zu den Matrizen A, B ∈ Mn (R) assoziierten
Abbildungen (gegebenenfalls in Abhängigkeit von λ):




−5 −6 −1
5
λ
0




4
3
A= 3
Bλ = 0 2λ − 9 1 
1
2
5
2
−2
−4
(ii) Sei x z ∈ Rn eine Lösung der Gleichung fA(x z ) = z. Zeigen Sie, dass auch x z + k, k ∈ ker fA,
eine Lösung ist.
Lösung
(i) Wir wenden uns zunächst fA zu und berechnen ker fA.

   
−5 −6 −1
x
0

  1  
4
3   x 2  = 0
3
1
2
5
x3
0
Wir haben also drei Gleichungen mit drei Unbekannten.
−5x 1 − 6x 2 − x 3 = 0 =⇒ x 3 = −5x 1 − 6x 2
3x 1 + 4x 2 + 3(−5x 1 − 6x 2 ) = 0 =⇒ x 1 =
− 67 x 2
(i)
(ii)
Aus der letzten Gleichung folgt auch x 3 = − 16 x 2 . Eingesetzt in die letzte Gleichung erhalten
wir
− 67 x 2 + 2x 2 + 5(− 61 x 2 ) = 0
(iii)
Die letzte Gleichung ist immer erfüllt und x 2 ist ein freier Parameter. Der Kern ist der Unterraum (also eine Gerade durch den Ursprung), der von der Lösung aufgespannt wird.
 
−7
ker fA = lin  6 


−1
14
Es sind nur zwei der Vektoren linear unabhängig und das Bild ist eine Ebene.
   
−5 −6 im fA = lin  3  ,  4  = x ∈ R3 | x 1 + 2x 2 − x 3 = 0


1
2
Die Abbildung f Bλ . Man kann erkennen, dass für λ = 5, die mittlere Spalte die Summe der
äußeren beiden ist – in diesem Fall ist der Kern eindimensional, das Bild zweidimensional.

   
0
5
λ
0
x

  1  
0 2λ − 9 1   x 2  = 0
0
2
−2
−4
x3
Die drei Gleichungen lassen sich besonders leicht umstellen:
5x 1 + λx 2 = 0 =⇒ x 1 = − λ5 x 2
2 · (− λ5 x 2 ) − 2x 2
(2λ − 9)x 2 + x 3 = 0 =⇒ x 3 = −(2λ − 9)x 2
− 4 · −(2λ − 9)x 2 = 0
(i)
(ii)
Die letzte Gleichung impliziert
38
λ
−
38
x3
5
=0
Das heißt entweder ist λ = 5 und die Gleichung ist immer erfüllt. Dann ist x 3 ein freier
Parameter und wir erhalten
 
 1 
ker f B5 = −1


1
Das Bild wird von aufgespannt von zwei der Spalten.
   
5  0  im f B5 = 0 ,  1  = x ∈ R3 | − 2x 1 + 20x 2 + 5x 3 = 0


2
−4
Für λ 6= 5 sind die Spaltenvektoren linear unabhängig und Bild und Kern sind trivial, ker f Bλ =
{0} und im f Bλ = R3 .
(ii) Sei x z eine Lösung der Gleichung fA(x z ) = z für z ∈ im fA beliebig, aber fest. Sei weiterhin
k ∈ ker fA. Da fA linear ist, gilt
fA(x z + k) = fA(x z ) + fA(k) = z + 0 = z
Das bedeutet eben, dass Lösungen von Gleichungssystemen nur modulo Vektoren im Kern
bestimmt sind.
H5 Permutationen
15
(i) Berechnen Sie σ2 ◦ σ3 ◦ σ1 (aus T5) und vergleichen Sie das Ergebnis mit σ̂2 · σ̂3 · σ̂1 .
(ii) Geben Sie die Inversen der Matrizen σ̂ j , j = 1, 2, 3 an (Hinweis: invertieren Sie zuerst σ j in
der ürsprünglichen Darstellung).
Lösung
(i) Fangen wir mit dem Produkt in der üblichen Darstellung an:
1 2 3 4 5 6
1 2 3 4 5
σ2 ◦ σ3 ◦ σ1 =
◦
1 3 2 4 5 6
6 1 3 4 5
1 2 3 4 5 6
1 2 3 4 5
◦
=
1 3 2 4 5 6
2 4 6 3 1
1 2 3 4 5 6
=
3 4 6 2 1 5
6
1 2 3 4 5 6
◦
2
6 4 1 3 2 5
6
5
In der Matrixdarstellung sieht dieselbe Rechnung folgendermaßen aus:
 
 

0
0 1 0 0 0 0
1 0 0 0 0 0
 
 

0 0 1 0 0 0 0 0 0 0 0 1 0
 
 

0 1 0 0 0 0 0 0 1 0 0 0 0
σ̂2 · σ̂3 · σ̂1 = 
·
·
0 0 0 1 0 0 0 0 0 1 0 0 0
 
 

0 0 0 0 1 0 0 0 0 0 1 0 0
1
1 0 0 0 0 0
0 0 0 0 0 1

 

1 0 0 0 0 0
0 0 0 0 1 0

 

0 0 1 0 0 0 1 0 0 0 0 0

 

0 1 0 0 0 0 0 0 0 1 0 0
=
·

0 0 0 1 0 0 0 1 0 0 0 0

 

0 0 0 0 1 0 0 0 0 0 0 1
0 0 0 0 0 1
0 0 1 0 0 0


0 0 0 0 1 0


0 0 0 1 0 0 


1 0 0 0 0 0 
=
 = e3 e4 e6 e2 e1 e5
0 1 0 0 0 0 


0 0 0 0 0 1 
0 0 1 0 0 0
0
0
0
1
0
0
1
0
0
0
0
0
0
0
1
0
0
0
0
1
0
0
0
0

0

0

0

0

1
0
(ii) In der Standarddarstellung erhält man die Inversen von σ j , j = 1, 2, 3 indem die beiden Zeilen
vertauscht werden.
6 4 1 3 2 5
1 3 2 4 5 6
6 1 3 4 5 2
−1
−1
−1
σ2 =
σ3 =
σ1 =
1 2 3 4 5 6
1 2 3 4 5 6
1 2 3 4 5 6
Jetzt sortieren wir die Spalten, so dass in der ersten Zeile wieder die Zahlen der Größe nach
geordnet sind.
1 2 3 4 5 6
1 2 3 4 5 6
1 2 3 4 5 6
−1
−1
−1
σ3 =
σ1 =
σ2 =
3 5 4 2 6 1
1 3 2 4 5 6
2 6 3 4 5 1
16
Nun können wir die Inverse wieder ablesen und erhalten so

0 0 0

0 0 0

1 0 0
σ̂1−1 = e3 e5 e4 e2 e6 e1 = 
0 0 1

0 1 0
0 0 0

1 0 0

0 0 1

0 1 0
σ̂2−1 = e1 e3 e2 e4 e5 e6 = 
0 0 0

0 0 0
0 0 0

0 0 0

1 0 0

0 0 1
−1
e
e
e
e
e
e
σ̂3 = 2 6 3 4 5 1 = 
0 0 0

0 0 0
0 1 0
0
1
0
0
0
0
0
0
0
0
0
1
0
0
0
1
0
0
0
0
0
0
1
0
0
0
0
1
0
0
0
0
0
0
1
0
  
1
z
  6
0 z4 
  
0 z1 
= 
0 z3 
  
0 z2 
0
z5
  
0
e
  1
0 e3 
  
0 e2 
= 
0 e4 
  
0 e5 
1
e6
  
1
z
  6
0 z1 
  
0 z3 
= 
0 z4 
  
0 z5 
0
z2
Wenn man sich die Matrizen genau ansieht, erkennt man, dass sie genauso wie σ j s aussehen,
nur ‘auf den Kopf gestellt’ (transponiert).
17
Herunterladen