II. Lineare Algebra

Werbung
Mathematik für Ingenieure I, WS 2008/2009
Dienstag 13.1
$Id: linabb.tex,v 1.4 2009/01/13 19:38:02 hk Exp $
$Id: anageo.tex,v 1.2 2009/01/13 21:11:17 hk Exp hk $
II. Lineare Algebra
§9
Lineare Abbildungen
9.2
Matrixdarstellung linearer Abbildungen
Wir setzen unser Beispiel




x
x+y+z
f : R3 → R3 ;  y  →
7  2y − z 
z
x − y + 2z
nun noch etwas fort, und wollen überlegen wie sich die Matrix dieser linearen Abbildung
beim Übergang zu anderen Basen ändert. Wir hatten ja beispielsweise ausgerechnet,
dass das Bild unserer linearen Abbildung f : R3 → R3 gerade der Teilraum



 t + s 


t
W :=
t, s ∈ R

s
des R3 ist, und wir können f auch als lineare Abbildung f : R3 → W auffassen. Für
den zweidimensionalen Vektorraum W haben wir die Basis
 
 
1
1



1 , w2 :=
0 
w1 :=
0
1
und bezüglich dieser Basis sind die Bilder der kanonischen Einheitsvektoren des R3
 
1

0  = w2 ,
f (e1 ) =
1


1
f (e2 ) =  2  = 2w1 − w2 ,
−1


1
f (e3 ) =  −1  = −w1 + 2w2 .
2
19-1
Mathematik für Ingenieure I, WS 2008/2009
Dienstag 13.1
Die Matrix einer linearen Abbildung bezüglich gegebener ergab sich mit dem bereits
mehrfach beschriebenen Rechschema Die Spalten der Matrix von f sind die Koeffi”
zienten der Bilder der Basisvektoren des linken Vektorraums bezüglich der Basis des
rechten Vektorraums“. Als Matrix von f : R3 → W bezüglich der kanonischen Basis
des R3 und der Basis w1 , w2 von W ergibt sich also diesmal die 2 × 3 Matrix
0
2 −1
A=
.
1 −1
2
Beachte hier, dass sich die Anzahl der Zeilen der Matrix hier von 3 auf 2 verringert
hat, dies liegt eben daran das wir f hier nicht als Abbildung in den dreidimensionalen
R3 sondern als Abbildung in den zweidimensionalen Vektorraum W betrachten.
Nun kehren wir wieder zur Originalabbildung f : R3 → R3 zurück. Auch bei Änderung der Basis des linken Vektorraums V verändert sich die Matrix der linearen Abbildung f . Auf dem R3 haben wir beispielsweise die Basis






1
−1
0
v1 :=  −1  , v2 :=  −1  , v3 :=  3  .
0
1
−1
Wegen

 


 

1
0
−1
−1
f (v1 ) = f  −1  =  −2  , f (v2 ) = f  −1  =  −3  ,
0
2
1
2

 

0
2
f (v3 ) = f  3  =  7  ,
−1
−5
ist die Matrix von f : R3 → R3 bezüglich der Basen v1 , v2 , v3 und e1 , e2 , e3 des R3 gleich


0 −1
2
7 .
A =  −2 −3
2
2 −5
Beachte es zwischen dieser Matrix und der Matrix von f bezüglich der kanonischen
Basis auf beiden Seiten keinen direkt ersichtlichen Zusammenhang gibt. Es gibt aber
trotzdem eine oftmals nützliche Formel, die die Änderung der Matrix einer linearen
Abbildung beim Übergang zu anderen Basen beschreibt. Durch die relativ große Anzahl beteiligter Objekte ist die Herleitung dieser Formel leider zunächst etwas unübersichtlich. Für praktische Zwecke ist das zum Glück nicht weiter tragisch, da man die
herzuleitende Formel auch ohne Kenntnis ihrer Herleitung gut verwenden kann.
Wir wollen die folgende allgemeinen Situation betrachten: Gegeben sei eine lineare
Abbildung f : V → W zwischen zwei endlichdimensionalen Vektorräumen V, W über
K. Weiter seien zwei Basen v1 , . . . , vn und v10 , . . . , vn0 von V sowie zwei Basen w1 , . . . , wm
19-2
Mathematik für Ingenieure I, WS 2008/2009
Dienstag 13.1
0
und w10 , . . . , wm
von W gegeben. Zur linearen Abbildung f gehören dann zwei m × n
Matrizen, einmal die Matrix A von f bezüglich der Basen v1 , . . . , vn und w1 , . . . , wm
0
und zum anderen die Matrix A0 von f bezüglich der Basen v10 , . . . , vn0 und w10 , . . . , wm
.
In Termen unserer Koordinatenabbildungen gelten dann
f (Ψv (x)) = Ψw (Ax), f (Ψv0 (x)) = Ψw0 (A0 x)
für alle x ∈ K n . Der Zusammenhang zwischen A und A0 wird über die in §7 eingeführten
Transformationsmatrizen hergestellt. Es bezeichne S die Transformationsmatrix von
der Basis v1 , . . . , vn zur Basis v10 , . . . , vn0 von V und T die Transformationsmatrix von
0
der Basis w1 , . . . , wm zur Basis w10 , . . . , wm
von W . Die definierende Eigenschaft dieser
Transformationsmatrizen sind dabei die Formeln
Ψv (x) = Ψv0 (Sx) (x ∈ K n ), Ψw (x) = Ψw0 (T x) (x ∈ K m ),
d.h. die Matrix S übersetzt Koordinaten bezüglich v1 , . . . , vn in Koordinaten bezüglich
v10 , . . . , vn0 , und analog für T . Für jeden Vektor x ∈ K n haben wir dann
Ψw0 (A0 x) = f (Ψv0 (x)) = f (Ψv (S −1 x)) = Ψw (AS −1 x) = Ψw0 (T AS −1 x)
und dies bedeutet gerade
A0 = T AS −1 .
Damit haben wir den folgenden Satz bewiesen:
Satz 9.4 (Transformationsverhalten von Matrizen)
Seien V, W zwei endlichdimensionale Vektorräume über K und f : V → W eine lineare
Abbildung. Weiter seien v1 , . . . , vn und v10 , . . . , vn0 zwei Basen von V sowie w1 , . . . , wm
0
und w10 , . . . , wm
zwei Basen von W . Sind dann A die Matrix von f bezüglich der Basen
v1 , . . . , vn von V und w1 , . . . , wm von W , S die Transformationsmatrix von der Basis
v1 , . . . , vn von V zur Basis v10 , . . . , vn0 und T die Transformationsmatrix von der Basis
0
w1 , . . . , wm von W zur Basis w10 , . . . , wm
, so ist T AS −1 die Matrix von f bezüglich der
0
0
0
0
Basen v1 , . . . , vn und w1 , . . . , wm .
Wir wollen dies einmal an unserem obigen Beispiel überprüfen. Wir haben
e2 = v1 + v2 + v3 ,
e1 = v1 + e2 = 2v1 + v2 + v3 ,
e3 = 3e2 − v3 = 3v1 + 3v2 + 2v3
und die Transformationsmatrix von der Basis
damit gleich

2 1
S= 1 1
1 1
19-3
e1 , e2 , e3 des R3 zur Basis v1 , v2 , v3 ist

3
3 .
2
Mathematik für Ingenieure I, WS 2008/2009
Dienstag 13.1
Die Inverse von S ist die Transformationsmatrix in die andere Richtung, also


1 −1
0
3 .
S −1 =  −1 −1
0
1 −1
Ist A wieder die Matrix von f bezüglich der kanonischen Basis des R3 auf beiden
Seiten, so sagt unser Satz, dass AS −1 die Matrix von f bezüglich der Basen v1 , v2 , v3
und e1 , e2 , e3 ist. Dies können wir leicht verifizieren

 
 

0 −1
2
1 −1
0
1
1
1
7 ,
3  =  −2 −3
2 −1  ·  −1 −1
AS −1 =  0
2
2 −5
0
1 −1
1 −1
2
und wir erhalten tatsächlich die bereits oben berechnete Matrix. Unser Satz liefert uns
hier also wirklich das korrekte Ergebnis. Wir wollen nun auch noch die Matrix von f
bezüglich der Basis v1 , v2 , v3 auf beiden Seiten bestimmen. Wieder nach dem Satz ist
diese gleich

 
 

2 1 3
0 −1
2
−4 1 −4
7  =  4 2 −6  .
SAS −1 =  1 1 3  ·  −2 −3
1 1 2
2
2 −5
2 0 −1
Für lineare Abbildungen f : V → V eines Vektorraums in sich selbst, betrachtet man
natürlich in den allermeisten Fällen auf beiden Seite dieselbe Basis von V . Gehen wir
dann von einer Basis v1 , . . . , vn durch eine Transformationsmatrix S zu einer anderen
Basis v10 , . . . , vn0 von V über, so haben wir in der Situation des Satzes auf beiden Seiten
denselben Basiswechsel vorliegen, und unsere Formel wird zu A0 = SAS −1 .
Die Transformationsmatrizen selbst stellen sich nun auch als spezielle Beispiele
von Matrizen zu linearen Abbildungen heraus. Vergleichen wir einmal die Rechenverfahren zur Bestimmung von Transformationsmatrizen beziehungsweise von Matrizen
linearer Abbildungen. Die Transformationsmatrix ergab sich durch das Schema: Die
”
Spalten der Transformationsmatrix sind die Koeffizienten der Vektoren der ursprünglichen Basis bezüglich der neuen Basis“, während die Matrix einer linearen Abbildung
durch Die Spalten der Matrix sind die Koeffizienten der Bilder der Basiselemente des
”
linken Vektorraums bezüglich der Basis des rechten Vektorraums“. In beiden Rechnungen wird beidesmal fast dasselbe gemacht, bei der Transformationsmatrix werden
nur keine Bilder berechnet. Aber wir können etwas künstlich ein Berechnen von Bil”
dern“ hier hereininterpretieren, es werden halt Bilder bezüglich der linearen Abbildung
x 7→ x betrachtet. Damit sehen wir dann, dass die Transformationsmatrix von der
Basis v1 , . . . , vn von V zur Basis v10 , . . . , vn0 von V dasselbe wir die Matrix der linearen
Abbildung f : V → V ; x 7→ x bezüglich der Basen v1 , . . . , vn und v10 , . . . , vn0 ist.
Zum Abschluß dieses Abschnitts wollen wir noch, wie bereits angekündigt, die Begründung der Matrixmultiplikation liefern. Wir betrachten drei Vektorräume U, V, W
über K sowie zwei lineare Abbildungen f : U → V , g : V → W . Es ist eine leichte
19-4
Mathematik für Ingenieure I, WS 2008/2009
Dienstag 13.1
Übung einzusehen, dass auch die Hintereinanderausführung g ◦ f : U → W linear ist.
Seien nun u1 , . . . , ur eine Basis von U , v1 , . . . , vn eine Basis von V und w1 , . . . , wm eine
Basis von W . Bezüglich dieser Basen haben wir eine Matrix A von f und eine Matrix
B von g. Für jeden Spaltenvektor x ∈ K r gilt nun
(g ◦ f )(Ψu (x)) = g(f (Ψu (x))) = g(Ψv (Ax)) = Ψw (BAx),
d.h. die Matrix von g ◦ f bezüglich unserer Basen ist gerade das Matrizenprodukt BA.
Damit entspricht die Multiplikation von Matrizen der Hintereinanderausführung linearer Abbildungen. Dies ist natürlich kein Zufall, die Multiplikation von Matrizen wurde
von vornherein so definiert, dass die Hintereinanderausführung linearer Abbildungen
der Multiplikation von Matrizen entspricht.
Diese Tatsache hat einige wichtige Konsequenzen, von denen wir hier nur eine
besonderns nützliche festhalten wollen. Zunächst folgt, dass eine lineare Abbildung
f : V → V genau dann bijektiv ist, also eine Umkehrabbildung f −1 : V → V hat,
wenn ihre Matrix A invertierbar ist, und die inverse Matrix A−1 ist dann die Matrix
der Umkehrabbildung f −1 . Weiter übersetzt sich der Satz Satz 3 in die folgende Tatsache: Gegeben seien zwei n × n Matrizen A, B über K. Es gelte AB = En oder auch
BA = En . Dann ist schon AB = BA = En , d.h. die Matrix A ist invertierbar mit
A−1 = B. Zum Überprüfen der Invertierbarkeit einer Matrix A reicht es also bereits
eine der beiden Gleichungen AB = En oder BA = En zu testen, die andere Gleichung
folgt dann automatisch. Gilt etwa BA = En , so folgt für zugehörige lineare Abbildungen f, g : V → V die Gleichung g ◦f = idV , also g(f (x)) = x für alle x ∈ V . Damit ist f
aber injektiv, denn sind x, y ∈ V mit f (x) = f (y), so folgt durch Anwenden von g auch
x = g(f (x)) = g(f (y)) = y. Nach Satz 3 ist f also sogar bijektiv und A ist invertierbar.
Für AB = En argumentiert man ähnlich mit Surjektivität statt Injektivität.
9.3
Der Rang einer Matrix
In diesem abschließenden Abschnitt wollen wir noch den Rang einer Matrix einführen.
Wir werden hier nur die Definition und mehr oder weniger kommentarlos einige Eigenschaften des Ranges angeben. In diesem Kapitel wurde schließlich wahrlich schon
genug bewiesen.
Definition 9.6: Der Rang einer m × n Matrix A ist die maximale Anzahl linear unabhängiger Spalten von A erzeugten. Wir schreiben dann auch rang A für den Rang
einer Matrix A.
Die Grundeigenschaften des Ranges sind nun die folgenden Tatsachen, die wir hier wie
schon bemerkt nicht mehr beweisen wollen:
(a) Ist f : V → W eine lineare Abbildung und ist A eine Matrix von f bezüglich
irgendwelcher Basen von V und W , so ist dim Bild(f ) = rang A.
(b) Der Rang einer Matrix ändert sich nicht bei elementaren Zeilen- und Spaltenumformungen.
19-5
Mathematik für Ingenieure I, WS 2008/2009
Dienstag 13.1
(c) Entstehen bei Anwendung des Gaußschen Eliminationsverfahrens auf eine m × n
Matrix A genau r von Null verschiedene Zeilen, so ist r = rang A.
Diese letzte Eigenschaft zeigt uns, dass wir den Rang in Wahrheit schon die ganze
Zeit kennen, wir haben ihm nur bisher keinen Namen gegeben. Insbesondere können
wir den Rang einer Matrix leicht berechnen, wir müssen wieder nur das Gaußsche
Eliminationsverfahren laufen lassen, und schauen wieviele von Null verschiedene Zeilen
in der Stufenform überbleiben. Da wir Beispiele dieser Rechnungen schon reichlich
gesehen haben, wird hier auf ein konkretes Beispiel zur Rangberechnung verzichtet.
Der Rangbegriff erlaubt es uns auch alle unsere bisherigen Ergebnisse über lineare
Gleichungssysteme in einem sehr übersichtlichen Satz zusammenzufassen. Um diesen
Satz auszusprechen benötigen wir noch den Begriff eines affinen Teilraums eines Vektorraums. Dies sind einfach um einen konstanten Vektor verschobe Teilräume. Beispielsweise sind die eindimensionalen Teilräume eines Vektorraums, etwa des R3 , gerade die
durch Null gehenden Geraden in diesem Vektorraum und die eindimensionalen affinen
Teilräume sind dann sämtliche Geraden im Vektorraum.
Definition 9.7: Sei V ein Vektorraum. Ein affiner Teilraum von V ist eine Teilmenge
der Form A = U + v wobei U ein Teilraum von V ist und v ∈ V ein Vektor aus V ist.
Die Dimension des affinen Teilraums A ist dann als die Dimension dim U des Teilraums
U definiert.
Beispielsweise sind die nicht-leeren Lösungsmengen eines linearen Gleichungssystems
immer affine Teilräume des K n , dies ist im Wesentlichen gerade die Aussage des Satzes
§6.Satz 2.(b).
Satz 9.5 (Hauptsatz über lineare Gleichungssysteme)
Sei Ax = b ein lineares Gleichungssystem aus m Gleichungen in n Unbekannten. Dann
ist das lineare Gleichungssystem genau dann lösbar wenn der Rang der Koeffizientenmatrix A gleich dem Rang der erweiterten Koeffizientenmatrix (A|b) ist
r := rang A = rang(A|b).
In diesem Fall ist die Lösungsmenge des linearen Gleichungssystems ein (n − r)dimensionaler affiner Teilraum des K n .
Dieser Satz ist wie bereits gesagt eigentlich nur eine Zusammenfassung unserer bisherigen Ergebnisse über lineare Gleichungssysteme. Lösen wir das lineare Gleichungssystem
indem wir es über das Gaußsche Eliminationsverfahren in Stufenform bringen, so haben
wir bereits bemerkt, dass der Rang r von A gerade die Anzahl von Null verschiedenen
Zeilen im System in Stufenform ist. Die Gleichung ist dann genau dann lösbar wenn
die unteren n − r Einträge der rechten Seite dann gleich Null sind, und dies bedeutet
gerade, dass Hinzufügen der rechten Seite zu A den Rang nicht mehr ändert. Weiter
legt jede der r Zeilen ungleich Null eine der Unbekannten fest, d.h. es verbleiben n − r
frei wählbare Variablen.
19-6
Mathematik für Ingenieure I, WS 2008/2009
§10
Dienstag 13.1
Analytische Geometrie
Unter analytischer Geometrie versteht man die Behandlung geometrischer Probleme durch Beschreibung der geometrischen Objekte mittels Koordinaten. Im engeren
Sinne meinen wir hier damit die Beschreibung der geometrischen Gebilde durch Vektoren im Rn . Dabei sind hauptsächlich die beiden kleinen Dimensionen n = 2 und
n = 3 von Interesse, aber viele der hier vorgestellten Methoden funktionieren völlig
unabhängig von der Dimension. Der Gegensatz zu analytischer Geometrie ist die sogenannte synthetische Geometrie, die eben ohne Koordinaten auskommt. Diese haben
Sie bereits in der Schule kennengelernt, beispielsweise sind all die trickreichen Beweise geometrischer Eigenschaften, die nur mit Längen, Winkeln und so weiter arbeiten
Beispiele synthetischer Geometrie.
10.1
Das Skalarprodukt
Das Skalarprodukt zweier Vektoren im Rn , wobei Sie sich wie bereits bemerkt stets
n = 2 oder n = 3 vorstellen können, auch wenn dies keine Rolle spielt, ist eine Zahl,
eben ein Skalar. Eine Methode zur Definition des Skalarprodukts ist die Beschreibung
u · v = Länge von u · Länge von v · Cosinus des eingeschlossenen Winkels,
allerdings ist dies als Definition etwas unhandlich. Wir werden das Skalarprodukt auf
eine einfachere, wenn auch etwas weniger anschauliche, Art definieren und uns dann
klarmachen das es die oben erwähnte geometrische Interpretation hat.
Definition 10.1: Sind u, v ∈ Rn zwei Spaltenvektoren, so heißt die Zahl
u · v := u1 · v1 + · · · + un · vn
das Skalarprodukt von u und v. Beispielsweise ist

 

−1
1
 1  ·  −2  = −1 − 2 + 3 = 0.
3
1
Die Länge eines Spaltenvektors u ∈ Rn definieren wir als die Zahl
√
|u| := u · u.
Neben der hier verwendeten Multiplikationsschreibweise für das Skalarprodukt sind
noch viele andere alternative Schreibweisen üblich, beispielsweise
u · v = hu|vi = hu, vi = (u|v) = (u, v).
√
Die Bezeichnung Länge von u“ für |u| = u · u bedarf natürlich noch einer Be”
gründung. Diese wollen wir hier für n = 2 vorführen, der allgemeine Fall folgt hieraus,
da jeder Vektor im Rn in einem zweidimensionalen Teilraum, also in einem R2 liegt. Dies
ist zumindest für n ≥ 2 so, aber für n = 1 ist sowieso nichts zu zeigen.
19-7
Mathematik für Ingenieure I, WS 2008/2009
Dienstag 13.1
u
Betrachte nun einen Vektor
x
u=
∈ R2 .
y
l
y
Dann betrachten wir das nebenstehende rechtwinklige
Dreiecke. Die Komponenten x, y, beziehungsweise eigentlich ihre Beträge, sind dann die beiden Kathetenlängen
im diesem Dreieck. Nach dem Satz von Pythagoras addie- 0
x
2
ren sich ihre Quadrate damit zum Quadrat l der Länge
der Hypotenuse des Dreiecks. Aber diese wird gerade
p vom Vektor u gebildet, ihre Länge
ist also gerade die Länge des Vektors
u, d.h. l = x2 + y 2 . Andererseits ist aber auch
p
√
u · u = x2 + y 2 , d.h. u · u = x2 + y 2 ist tatsächlich die Länge von u.
Wie bereits angekündigt wollen wir die eingangs beschriebene geometrische Interpretation des Skalarprodukts herleiten. Hierzu ist es sehr nützlich zunächst zu zeigen,
daß genau dann u · v = 0 ist wenn die beiden Vektoren u und v senkrecht aufeinander
stehen. Auch dies wollen wir wieder im ebenen Fall n = 2 nachweisen, da auch je zwei
Vektoren in einer Ebene liegen folgt hieraus wieder der allgemeine Fall. Gegeben seien
also zwei Vektoren
0 x
x
u=
,v=
,
y
y0
deren Skalarprodukt sich als u · v = xx0 + yy 0 ergibt. Wir können uns auf den Fall
u 6= 0 beschränken. Dass u und v senkrecht aufeinander stehen, bedeutet das v ein
Vielfaches des um π/2 (also 90◦ ) gedrehten Vektors u. Erinnern wir uns an die Matrix
einer Drehung um den Winkel φ
cos φ − sin φ
A(φ) =
sin φ
cos φ
aus §7, so wird die Matrix unserer Drehung um π/2 wegen cos(π/2) = 0, sin(π/2) = 1
zu
0 −1
A=
.
1
0
Der gedrehte Vektor ist also
A·u=
0 −1
1
0
x
−y
·
=
.
y
x
Dass u und v senkrecht aufeinander stehen bedeutet nun also das v ein Vielfaches dieses
Vektors ist, also x0 = −cy, y 0 = cx für eine reelle Zahl c, und damit xx0 + yy 0 = 0.
Die Rückrichtung folgt dann ebenso. Damit haben wir das Senkrechtstehen durch die
Bedingung u · v = 0 beschrieben.
Diese kleine geometrische Tatsache läßt sich nun leicht zur geometrischen Beschreibung des allgemeinen Skalarprodukts erweitern. Wieder können wir uns auf den ebenen
Fall n = 2 beschränken. Gegeben seien also wieder zwei Vektoren u und v im R2
19-8
Mathematik für Ingenieure I, WS 2008/2009
Dienstag 13.1
v
w
u
p
0
Wir betrachten dann den von u und v eingeschlossenen Winkel φ. Weiter fällen wir
das Lot von v auf die Gerade durch 0 und u. Der Lotfußpunkt werde mit p bezeichnet,
und den Vektor von p nach v nennen wir w, d.h. es ist v = p + w wobei u und w
senkrecht aufeinander stehen. Wie bereits gezeigt ist damit u · w = 0. Weiter ist p ein
Vielfaches von u, wir können also p = λu mit einer reellen Zahl λ ∈ R schreiben. Im
obigen Bild ist der Winkel φ kleiner als π/2, und damit liegt p auf derselben Seite wie
u und wir haben λ ≥ 0. Ist φ größer als π/2, so liegt p links von 0 und es wird λ < 0,
aber diesen Fall wollen wir nicht gesondert ausführen da er zu keinem anderen Ergebnis
führt. Damit ist v = p + w = λu + w und wir rechnen
u · v = u · (λu + w) = λ u · u + u · w = λ|u|2 .
Dabei haben wir die aus der Definition des Skalarprodukts offensichtlichen Formeln
x · (y + z) = x · y + x · z, x · (λy) = λ x · y verwendet. Um nun den Winkel φ in Geschäft
zu bringen betrachten wir noch das von 0, p und v gebildete rechtwinklige Dreieck. Die
Ankathete bezüglich des Winkels φ hat in diesem Dreieck die Länge |p| = λ|u|, und die
Hypotenuse wird vom Vektor v gebildet, hat also die Länge |v|. Also ist cos φ = λ|u|/|v|.
Damit rechnen wir nun
|u| · |v| · cos φ = |u| · |v| ·
19-9
λ|u|
= λ|u|2 = u · v.
|v|
Herunterladen