Mathematik für Ingenieure I, WS 2008/2009 Freitag 5.12 $Id: matrix.tex,v 1.4 2008/12/02 21:08:55 hk Exp $ $Id: vektor.tex,v 1.2 2008/12/05 11:27:45 hk Exp hk $ II. Lineare Algebra §6 Die Matrixmultiplikation 6.3 Inverse Matrizen und reguläre lineare Gleichungssysteme Wir wollen nun noch kurz begründen, warum der Algorithmus zur Berechnung der inversen Matrix funktioniert. Hierzu wollen wir uns klarmachen, dass die drei elementaren Zeilenumformungen sich durch Multiplikation mit geeigneten Matrizen von links realisieren lassen. Wir haben zum Beispiel 1 λ 0 ··· 0 a11 · · · a1n 0 1 0 ··· 0 . .. .. .. .. .. . . .. · .. . . . . . . . am1 · · · amn 0 0 0 ··· 1 a11 + λa21 a12 + λa22 · · · a1n + λa2n a21 a22 ··· a2n = , .. .. . . . . . . . . am1 am2 ··· amn ist also P die links stehende Matrix, so entsteht die Matrix P A aus A durch Addition des λ-fachen der zweiten Zeile zur ersten Zeile. Analog erhalten wir auch eine Matrix P so, dass P A aus A durch Addition eines Vielfachen der i-ten Zeile zur j-ten Zeile entsteht. Vertauschen zweier Zeilen sowie die Multiplikation einer Zeile mit einer Zahl λ 6= 0 lassen sich ebenfalls durch Matrixmultiplikation bewirken, wie etwa in den folgenden Beispielen gezeigt wird a21 a22 · · · a2n 0 1 0 ··· 0 a11 · · · a1n 1 0 0 ··· 0 .. a11 a12 · · · a1n . . . . .. .. .. . . .. · . . .. . .. . . . = .. . . . . . . . . am1 · · · amn am1 an2 · · · amn 0 0 0 ··· 1 und λ 1 ... 1 a11 · · · a1n .. . . . . · . . . = am1 · · · amn 13-1 λa11 λa12 a21 a22 .. .. . . am1 am2 · · · λa1n · · · a2n .. ... . · · · amn . Mathematik für Ingenieure I, WS 2008/2009 Freitag 5.12 Also lassen sich sämtliche elementaren Zeilenoperationen durch Linksmultiplikation mit geeigneten Matrizen bewirken. Damit ist es nun leicht unseren Algorithmus zu rechtfertigen. Formen wir A in t Schritten durch elementare Zeilenoperationen in die Einheitsmatrix um, so gibt es Matrizen P1 , . . . , Pt , die diese Zeilenumformungen bewirken, und mit diesen gilt dann Pt . . . P1 A = En , beziehungsweise A = P1−1 . . . Pt−1 . Mit Satz 3.(b) folgt hieraus A−1 = (Pt−1 )−1 . . . (P1−1 )−1 = Pt . . . P1 = Pt . . . P1 En . Letzteres ist aber gerade die Anwendung der durch P1 , . . . , Pt vermittelten Zeilenumformungen auf die Einheitsmatrix, d.h. A−1 geht aus En durch dieselben Zeilenumformungen hervor, die A in die Einheitsmatrix überführt haben. Dies ist aber gerade unser Algorithmus zur Inversion der Matrix A. 6.4 Transposition von Matrizen Zum Abschluß dieses Abschnitts wollen wir kurz eine weitere der üblichen algebraischen Operationen mit Matrizen einführen. Definition 6.5: Sei a11 · · · a1n .. .. A = ... . . am1 · · · amn eine m × n Matrix. Die Transponierte At von A ist dann die n × m Matrix a11 · · · am1 .. , At := ... . . . . a1n · · · amn deren Zeilen gerade die Spalten von A sind. Beispielsweise ist 1 1 −1 0 2 −1 2 4 7 1 = 0 −3 −5 7 11 2 t 2 −3 4 −5 . 7 7 1 11 Auch die Matrixtransposition erfüllt einige einfache Rechenregeln: Satz 6.5 (Rechenregeln für die Transposition) Seien n, m, l ∈ N drei natürliche Zahlen. 13-2 Mathematik für Ingenieure I, WS 2008/2009 Freitag 5.12 (a) Für jedes m × n Matrix A gilt (At )t = A. (b) Sind A, B zwei m × n Matrizen, so gilt (A + B)t = At + B t . (c) Sind A eine m × n Matrix und c ∈ K eine Zahl, so gilt (cA)t = cAt . (d) Sind A eine m × l und B eine l × n Matrix, so gilt (AB)t = B t At . (e) Ist A eine invertierbare n × n Matrix, so ist auch At invertierbar, und es gilt (At )−1 = (A−1 )t . Beweis: (a,b,c) Diese Aussagen sind klar. (d) Da B t eine n × l und At eine l × m Matrix sind, sind (AB)t und B t At beides n × m Matrizen. Für alle 1 ≤ i ≤ n, 1 ≤ j ≤ m ergibt sich der Eintrag in der i-ten Zeile und der j-ten Spalte zu t t (B A )ij = l X t Bik Atkj k=1 = l X Ajk Bki = (AB)ji = (AB)tij , k=1 d.h. es gilt tatsächlich (AB)t = B t At . (e) Mit Teil (d) rechnen wir At · (A−1 )t = (A−1 A)t = Ent = En , und ebenso (A−1 )t At = En . Damit ist At invertierbar und es gilt (At )−1 = (A−1 )t . Aufgrund von Teil (e) dieses Satzes können wir für eine invertierbare n × n Matrix A auch einfach A−t := (A−1 )t = (At )−1 schreiben. §7 Vektorräume Abstrakte Vektorräume sind eine Verallgemeinerung der bereits betrachteten Vektorräume K n , also Rn und Cn . Wie in den bisherigen Abschnitten steht K wieder für die reellen oder die komplexen Zahlen. In diesem Semester werden wir es ausschließlich mit Teilräumen von Rn oder Cn zu tun haben, aber später werden auch andere Sorten von Vektorräumen, wie etwa Räume von Funktionen, eine Rolle spielen. 13-3 Mathematik für Ingenieure I, WS 2008/2009 7.1 Freitag 5.12 Der Vektorraumbegriff Definition 7.1: Ein Vektorraum über K besteht aus einer Menge V , deren Elemente dann Vektoren genannt werden, versehen mit zwei Abbildungen + : V × V → V ; (x, y) 7→ x + y und · : K × V → V ; (λ, x) 7→ λx, die die folgenden Vektorraumaxiome erfüllen: (a) Assoziativgesetz der Addition Für alle x, y, z ∈ V gilt (x+y)+z = x+(y +z). (b) Kommutativgesetz der Addition Für alle x, y ∈ V gilt x + y = y + x. (c) Existenz der Null Es gibt ein Element 0 ∈ V mit 0 + x = x für alle x ∈ V . (d) Existenz additiver Inverser Für jedes x ∈ V existiert ein −x ∈ V mit (−x) + x = 0. (e) Assoziativgesetz der Multiplikation Für alle λ, µ ∈ K und alle x ∈ V gilt λ(µx) = (λµ)x. (f ) Multiplikation mit Eins Für jedes x ∈ V gilt 1 · x = x. (g) Distributivgesetz für Vektoren Für alle λ ∈ K und alle x, y ∈ V gilt λ(x+y) = λx + λy. (h) Distributivgesetz für Skalare Für alle λ, µ ∈ K, x ∈ V gilt (λ+µ)x = λx+µx. Aus den angegebenen Vektorraumaxiomen kann man nun all die üblichen Rechenregeln herleiten, also Dinge wie die Eindeutigkeit von 0 und −x für x ∈ V , die Formeln 0·x = 0 und −x = (−1) · x für jeden Vektor x und so weiter. Wie schon öfters in diesem Skript wollen wir diese Herleitungen hier nicht weiter durchgehen, sondern einfach glauben, dass sich in allgemeinen Vektorräumen wie gewohnt rechnen läßt. Wir wollen jetzt lieber ein Paar Beispiele von Vektorräumen durchgehen. Das Urbeispiel eines Vektorraums ist der Vektorraum K n der n-Tupel von Zahlen aus K, also Rn oder Cn . Die Addition derartiger n-Tupel und die Multiplikation mit Skalaren hatten wir in §6 eingeführt, und sie sollte Ihnen auch aus der Schule bekannt sein. Ein sehr ähnliches Beispiel eines Vektorraums ist die Menge a11 · · · a1n .. . . . . Mm,n (K) := . . . a11 , . . . , amn ∈ K a m1 · · · amn 13-4 Mathematik für Ingenieure I, WS 2008/2009 Freitag 5.12 aller m × n Matrizen über K, erneut mit der in §6 eingeführten Addition und Multiplikation mit Skalaren. Ein anderer wichtiger Typ von Vektorräumen sind Funktionsräume, also Mengen deren Elemente Funktionen sind. Ist M eine beliebige Menge, so betrachten wir die Menge K M := {f |f : M → K ist eine Abbildung} aller Abbildungen von M nach K. Die Elemente von K M können wir addieren, sind f, g ∈ K M , so sind f und g Abbildungen von M nach K, und wir definieren die Summe f + g dieser Abbildungen durch f + g : M → K; x 7→ f (x) + g(x). Ebenso können wir für eine Funktion f ∈ K M und eine Zahl c ∈ K eine neue Funktion c · f : M → K durch c · f : M → K; x 7→ cf (x) definieren. Es ist leicht, aber etwas ermüdend, hier die Gültigkeit der Vektorraumaxiome vorzuführen, daher wollen wir uns dies wieder ersparen, beziehungsweise es uns als eine Übungsaufgabe stellen. Betrachten wir etwa ganz konkret den Fall K = M = R, so ist V := RR die Menge aller reellen Funktionen f : R → R. Zum Beispiel sind die Sinusfunktion sin, der Cosinus cos, die Exponentialfunktion exp dann Elemente des Vektorraums V , und wir können Ausdrücke wie √ f := sin + 2 · cos − 2 · exp hinschreiben. Dies ist dann die Funktion f : R → R; x 7→ sin x + 2 cos x − √ 2ex . Hieran sieht man insbesondere, dass das Wort Vektor“ hier nur eine Rollenbeschrei” bung der Elemente x ∈ V und keine intrinsische Eigenschaft der Elemente x ∈ V ist. In unserem Vektorraum V = RR ist die Sinusfunktion sin selbst ein Vektor. Ebenso sprechen wir im Zusammenhang mit Vektorräumen oft von Skalaren statt von Zahlen, auch dies ist nur eine Rollenbezeichnung, Skalare sind einfach Zahlen, das andere Wort wird nur verwendet um anzudeuten, dass wir sie an Vektoren heranzumultiplizieren gedenken. 7.2 Untervektorräume Die für uns wichtigste Quelle von Vektorräumen sind die Teilräume, oder auch Untervektorräume, von bereits vorhandenen Vektorräumen. Definition 7.2: Sei V ein Vektorraum über K. Ein Teilraum von V ist eine Teilmenge U ⊆ V mit den folgenden drei Eigenschaften: (a) Es ist 0 ∈ U . 13-5 Mathematik für Ingenieure I, WS 2008/2009 Freitag 5.12 (b) Für alle x, y ∈ U ist auch x + y ∈ U . (c) Für alle x ∈ U und jeden Skalar c ∈ K ist auch cx ∈ U . Ist U solch ein Teilraum, so können wir U selbst als einen Vektorraum über K betrachten, indem wir für + und · einfach die Addition und die Multiplikation von V verwenden. Synonym spricht man auch von einem Untervektorraum von V . Wir schreiben auch U ≤ V für die Aussage U ist ein Teilraum von V “. ” Gehen wir einige Beispiele von Teilräumen durch. Haben wir ein homogenes lineares Gleichungssystem a11 x1 a21 x1 .. . + a12 x2 + a22 x2 .. . am1 x1 + am2 x2 + · · · + a1n xn = 0 + · · · + a2n xn = 0 .. . . = .. + · · · + amn xn = 0 über K, so ist die Menge U aller Lösungen dieses Gleichungssystems nach §6.Satz 2.(a) ein Untervektorraum des Vektorraums K n . Tatsächlich kann überhaupt jeder Untervektorraum des K n so beschrieben werden, aber dies spielt für uns erstmal keine Rolle. Wir wollen auch einmal naheliegende Beispiele für Unterräume von Funktionsräumen angeben. Die Menge aller Polynome K[x] := {x 7→ an xn + . . . + a1 x + a0 |n ∈ N0 , a0 , . . . , an ∈ K} ⊆ K K ist ein Untervektorraum des Vektorraums K K aller Abbildungen f : K → K. Ebenso haben wir die Menge U := {f : R → R|Für jedes x ∈ R gilt f (x + 2π) = f (x)} aller 2π-periodischen Funktionen R → R als Untervektorraum des Vektorraums aller reellen Funktionen f : R → R. Für unsere Zwecke entstehen Untervektorräume entweder als Lösungsmenge homogener linearer Gleichungssysteme oder als das sogenannte Erzeugnis gegebener Vektoren in einem Vektorraum. Diese Erzeugnisse und den damit verbundenen Begriff einer Linearkombination wollen wir nun einführen. Definition 7.3: Sei V ein Vektorraum über K. Sind v1 , . . . , vn ∈ V , so heißt ein weiterer Vektor v ∈ V eine Linearkombination von v1 , . . . , vn , wenn es Skalare λ1 , . . . , λn ∈ K mit n X v = λ1 v 1 + . . . + λn v n = λk v k k=1 gibt. Die Menge aller Linearkombinationen von v1 , . . . , vn heißt das Erzeugnis, oder auch der Aufspann, von v1 , . . . , vn , geschrieben als ( n ) X λk v k λ1 , . . . , λ n ∈ K . hv1 , . . . , vn i = span(v1 , . . . , vn ) := k=1 13-6 Mathematik für Ingenieure I, WS 2008/2009 Freitag 5.12 Schließlich heißen v1 , . . . , vn ein Erzeugendensystem von V , wenn V = hv1 , . . . , vn i ist, wenn also jeder Vektor v ∈ V Linearkombination von v1 , . . . , vn ist. 13-7