II. Lineare Algebra

Werbung
Mathematik für Ingenieure I, WS 2008/2009
Freitag 5.12
$Id: matrix.tex,v 1.4 2008/12/02 21:08:55 hk Exp $
$Id: vektor.tex,v 1.2 2008/12/05 11:27:45 hk Exp hk $
II. Lineare Algebra
§6
Die Matrixmultiplikation
6.3
Inverse Matrizen und reguläre lineare Gleichungssysteme
Wir wollen nun noch kurz begründen, warum der Algorithmus zur Berechnung der
inversen Matrix funktioniert. Hierzu wollen wir uns klarmachen, dass die drei elementaren Zeilenumformungen sich durch Multiplikation mit geeigneten Matrizen von links
realisieren lassen. Wir haben zum Beispiel




1 λ 0 ··· 0
a11 · · · a1n
 0 1 0 ··· 0 

  .
.. 
..
 .. .. .. . . ..  ·  ..
.
. 
 . . .
. . 
am1 · · · amn
0 0 0 ··· 1


a11 + λa21 a12 + λa22 · · · a1n + λa2n


a21
a22
···
a2n


=
,
..
..
.
.
.
.


.
.
.
.
am1
am2
···
amn
ist also P die links stehende Matrix, so entsteht die Matrix P A aus A durch Addition
des λ-fachen der zweiten Zeile zur ersten Zeile. Analog erhalten wir auch eine Matrix
P so, dass P A aus A durch Addition eines Vielfachen der i-ten Zeile zur j-ten Zeile
entsteht. Vertauschen zweier Zeilen sowie die Multiplikation einer Zeile mit einer Zahl
λ 6= 0 lassen sich ebenfalls durch Matrixmultiplikation bewirken, wie etwa in den
folgenden Beispielen gezeigt wird






a21 a22 · · · a2n
0 1 0 ··· 0
a11 · · · a1n


 1 0 0 ··· 0 
  ..
  a11 a12 · · · a1n 

.
.
.
.
 .. .. .. . . ..  ·  .
.
.. 
.
.. . .
. =
 ..
 . . .
.
. . 
. 
.
am1 · · · amn
am1 an2 · · · amn
0 0 0 ··· 1
und






λ
1
...
1



a11 · · · a1n


  ..
 
.
.
.
.
· .
.
. =


am1 · · · amn
13-1
λa11 λa12
a21 a22
..
..
.
.
am1 am2
· · · λa1n
· · · a2n
..
...
.
· · · amn



.

Mathematik für Ingenieure I, WS 2008/2009
Freitag 5.12
Also lassen sich sämtliche elementaren Zeilenoperationen durch Linksmultiplikation
mit geeigneten Matrizen bewirken. Damit ist es nun leicht unseren Algorithmus zu
rechtfertigen. Formen wir A in t Schritten durch elementare Zeilenoperationen in die
Einheitsmatrix um, so gibt es Matrizen P1 , . . . , Pt , die diese Zeilenumformungen bewirken, und mit diesen gilt dann
Pt . . . P1 A = En ,
beziehungsweise
A = P1−1 . . . Pt−1 .
Mit Satz 3.(b) folgt hieraus
A−1 = (Pt−1 )−1 . . . (P1−1 )−1 = Pt . . . P1 = Pt . . . P1 En .
Letzteres ist aber gerade die Anwendung der durch P1 , . . . , Pt vermittelten Zeilenumformungen auf die Einheitsmatrix, d.h. A−1 geht aus En durch dieselben Zeilenumformungen hervor, die A in die Einheitsmatrix überführt haben. Dies ist aber gerade
unser Algorithmus zur Inversion der Matrix A.
6.4
Transposition von Matrizen
Zum Abschluß dieses Abschnitts wollen wir kurz eine weitere der üblichen algebraischen
Operationen mit Matrizen einführen.
Definition 6.5: Sei


a11 · · · a1n

.. 
..
A =  ...
.
. 
am1 · · · amn
eine m × n Matrix. Die Transponierte At von A ist dann die n × m Matrix


a11 · · · am1

..  ,
At :=  ... . . .
. 
a1n · · · amn
deren Zeilen gerade die Spalten von A sind.
Beispielsweise ist

1
1 −1 0 2
 −1
 2
4 7 1  =
 0
−3 −5 7 11
2

t

2 −3
4 −5 
.
7
7 
1 11
Auch die Matrixtransposition erfüllt einige einfache Rechenregeln:
Satz 6.5 (Rechenregeln für die Transposition)
Seien n, m, l ∈ N drei natürliche Zahlen.
13-2
Mathematik für Ingenieure I, WS 2008/2009
Freitag 5.12
(a) Für jedes m × n Matrix A gilt (At )t = A.
(b) Sind A, B zwei m × n Matrizen, so gilt (A + B)t = At + B t .
(c) Sind A eine m × n Matrix und c ∈ K eine Zahl, so gilt (cA)t = cAt .
(d) Sind A eine m × l und B eine l × n Matrix, so gilt (AB)t = B t At .
(e) Ist A eine invertierbare n × n Matrix, so ist auch At invertierbar, und es gilt
(At )−1 = (A−1 )t .
Beweis: (a,b,c) Diese Aussagen sind klar.
(d) Da B t eine n × l und At eine l × m Matrix sind, sind (AB)t und B t At beides n × m
Matrizen. Für alle 1 ≤ i ≤ n, 1 ≤ j ≤ m ergibt sich der Eintrag in der i-ten Zeile und
der j-ten Spalte zu
t
t
(B A )ij =
l
X
t
Bik
Atkj
k=1
=
l
X
Ajk Bki = (AB)ji = (AB)tij ,
k=1
d.h. es gilt tatsächlich (AB)t = B t At .
(e) Mit Teil (d) rechnen wir
At · (A−1 )t = (A−1 A)t = Ent = En ,
und ebenso (A−1 )t At = En . Damit ist At invertierbar und es gilt (At )−1 = (A−1 )t .
Aufgrund von Teil (e) dieses Satzes können wir für eine invertierbare n × n Matrix A
auch einfach
A−t := (A−1 )t = (At )−1
schreiben.
§7
Vektorräume
Abstrakte Vektorräume sind eine Verallgemeinerung der bereits betrachteten Vektorräume K n , also Rn und Cn . Wie in den bisherigen Abschnitten steht K wieder für
die reellen oder die komplexen Zahlen. In diesem Semester werden wir es ausschließlich
mit Teilräumen von Rn oder Cn zu tun haben, aber später werden auch andere Sorten
von Vektorräumen, wie etwa Räume von Funktionen, eine Rolle spielen.
13-3
Mathematik für Ingenieure I, WS 2008/2009
7.1
Freitag 5.12
Der Vektorraumbegriff
Definition 7.1: Ein Vektorraum über K besteht aus einer Menge V , deren Elemente
dann Vektoren genannt werden, versehen mit zwei Abbildungen
+ : V × V → V ; (x, y) 7→ x + y
und
· : K × V → V ; (λ, x) 7→ λx,
die die folgenden Vektorraumaxiome erfüllen:
(a) Assoziativgesetz der Addition Für alle x, y, z ∈ V gilt (x+y)+z = x+(y +z).
(b) Kommutativgesetz der Addition Für alle x, y ∈ V gilt x + y = y + x.
(c) Existenz der Null Es gibt ein Element 0 ∈ V mit 0 + x = x für alle x ∈ V .
(d) Existenz additiver Inverser Für jedes x ∈ V existiert ein −x ∈ V mit (−x) +
x = 0.
(e) Assoziativgesetz der Multiplikation Für alle λ, µ ∈ K und alle x ∈ V gilt
λ(µx) = (λµ)x.
(f ) Multiplikation mit Eins Für jedes x ∈ V gilt 1 · x = x.
(g) Distributivgesetz für Vektoren Für alle λ ∈ K und alle x, y ∈ V gilt λ(x+y) =
λx + λy.
(h) Distributivgesetz für Skalare Für alle λ, µ ∈ K, x ∈ V gilt (λ+µ)x = λx+µx.
Aus den angegebenen Vektorraumaxiomen kann man nun all die üblichen Rechenregeln
herleiten, also Dinge wie die Eindeutigkeit von 0 und −x für x ∈ V , die Formeln 0·x = 0
und −x = (−1) · x für jeden Vektor x und so weiter. Wie schon öfters in diesem Skript
wollen wir diese Herleitungen hier nicht weiter durchgehen, sondern einfach glauben,
dass sich in allgemeinen Vektorräumen wie gewohnt rechnen läßt.
Wir wollen jetzt lieber ein Paar Beispiele von Vektorräumen durchgehen. Das Urbeispiel eines Vektorraums ist der Vektorraum K n der n-Tupel von Zahlen aus K, also
Rn oder Cn . Die Addition derartiger n-Tupel und die Multiplikation mit Skalaren hatten wir in §6 eingeführt, und sie sollte Ihnen auch aus der Schule bekannt sein. Ein
sehr ähnliches Beispiel eines Vektorraums ist die Menge





a11 · · · a1n 

 ..

.
.
.
.
Mm,n (K) :=  .
.
.  a11 , . . . , amn ∈ K 

 a

m1 · · · amn
13-4
Mathematik für Ingenieure I, WS 2008/2009
Freitag 5.12
aller m × n Matrizen über K, erneut mit der in §6 eingeführten Addition und Multiplikation mit Skalaren. Ein anderer wichtiger Typ von Vektorräumen sind Funktionsräume, also Mengen deren Elemente Funktionen sind. Ist M eine beliebige Menge,
so betrachten wir die Menge
K M := {f |f : M → K ist eine Abbildung}
aller Abbildungen von M nach K. Die Elemente von K M können wir addieren, sind
f, g ∈ K M , so sind f und g Abbildungen von M nach K, und wir definieren die Summe
f + g dieser Abbildungen durch
f + g : M → K; x 7→ f (x) + g(x).
Ebenso können wir für eine Funktion f ∈ K M und eine Zahl c ∈ K eine neue Funktion
c · f : M → K durch
c · f : M → K; x 7→ cf (x)
definieren. Es ist leicht, aber etwas ermüdend, hier die Gültigkeit der Vektorraumaxiome vorzuführen, daher wollen wir uns dies wieder ersparen, beziehungsweise es uns als
eine Übungsaufgabe stellen.
Betrachten wir etwa ganz konkret den Fall K = M = R, so ist V := RR die Menge
aller reellen Funktionen f : R → R. Zum Beispiel sind die Sinusfunktion sin, der
Cosinus cos, die Exponentialfunktion exp dann Elemente des Vektorraums V , und wir
können Ausdrücke wie
√
f := sin + 2 · cos − 2 · exp
hinschreiben. Dies ist dann die Funktion
f : R → R; x 7→ sin x + 2 cos x −
√
2ex .
Hieran sieht man insbesondere, dass das Wort Vektor“ hier nur eine Rollenbeschrei”
bung der Elemente x ∈ V und keine intrinsische Eigenschaft der Elemente x ∈ V ist.
In unserem Vektorraum V = RR ist die Sinusfunktion sin selbst ein Vektor. Ebenso
sprechen wir im Zusammenhang mit Vektorräumen oft von Skalaren statt von Zahlen,
auch dies ist nur eine Rollenbezeichnung, Skalare sind einfach Zahlen, das andere Wort
wird nur verwendet um anzudeuten, dass wir sie an Vektoren heranzumultiplizieren
gedenken.
7.2
Untervektorräume
Die für uns wichtigste Quelle von Vektorräumen sind die Teilräume, oder auch Untervektorräume, von bereits vorhandenen Vektorräumen.
Definition 7.2: Sei V ein Vektorraum über K. Ein Teilraum von V ist eine Teilmenge
U ⊆ V mit den folgenden drei Eigenschaften:
(a) Es ist 0 ∈ U .
13-5
Mathematik für Ingenieure I, WS 2008/2009
Freitag 5.12
(b) Für alle x, y ∈ U ist auch x + y ∈ U .
(c) Für alle x ∈ U und jeden Skalar c ∈ K ist auch cx ∈ U .
Ist U solch ein Teilraum, so können wir U selbst als einen Vektorraum über K betrachten, indem wir für + und · einfach die Addition und die Multiplikation von V verwenden. Synonym spricht man auch von einem Untervektorraum von V . Wir schreiben
auch U ≤ V für die Aussage U ist ein Teilraum von V “.
”
Gehen wir einige Beispiele von Teilräumen durch. Haben wir ein homogenes lineares
Gleichungssystem
a11 x1
a21 x1
..
.
+ a12 x2
+ a22 x2
..
.
am1 x1 + am2 x2
+ · · · + a1n xn = 0
+ · · · + a2n xn = 0
..
.
. = ..
+ · · · + amn xn = 0
über K, so ist die Menge U aller Lösungen dieses Gleichungssystems nach §6.Satz 2.(a)
ein Untervektorraum des Vektorraums K n . Tatsächlich kann überhaupt jeder Untervektorraum des K n so beschrieben werden, aber dies spielt für uns erstmal keine Rolle.
Wir wollen auch einmal naheliegende Beispiele für Unterräume von Funktionsräumen
angeben. Die Menge aller Polynome
K[x] := {x 7→ an xn + . . . + a1 x + a0 |n ∈ N0 , a0 , . . . , an ∈ K} ⊆ K K
ist ein Untervektorraum des Vektorraums K K aller Abbildungen f : K → K. Ebenso
haben wir die Menge
U := {f : R → R|Für jedes x ∈ R gilt f (x + 2π) = f (x)}
aller 2π-periodischen Funktionen R → R als Untervektorraum des Vektorraums aller
reellen Funktionen f : R → R.
Für unsere Zwecke entstehen Untervektorräume entweder als Lösungsmenge homogener linearer Gleichungssysteme oder als das sogenannte Erzeugnis gegebener Vektoren in einem Vektorraum. Diese Erzeugnisse und den damit verbundenen Begriff einer
Linearkombination wollen wir nun einführen.
Definition 7.3: Sei V ein Vektorraum über K. Sind v1 , . . . , vn ∈ V , so heißt ein weiterer
Vektor v ∈ V eine Linearkombination von v1 , . . . , vn , wenn es Skalare λ1 , . . . , λn ∈ K
mit
n
X
v = λ1 v 1 + . . . + λn v n =
λk v k
k=1
gibt. Die Menge aller Linearkombinationen von v1 , . . . , vn heißt das Erzeugnis, oder
auch der Aufspann, von v1 , . . . , vn , geschrieben als
( n
)
X
λk v k λ1 , . . . , λ n ∈ K .
hv1 , . . . , vn i = span(v1 , . . . , vn ) :=
k=1
13-6
Mathematik für Ingenieure I, WS 2008/2009
Freitag 5.12
Schließlich heißen v1 , . . . , vn ein Erzeugendensystem von V , wenn V = hv1 , . . . , vn i ist,
wenn also jeder Vektor v ∈ V Linearkombination von v1 , . . . , vn ist.
13-7
Herunterladen