Definition 2.6 — Ist (V, +, ·) ein K-Vektorraum und U ⊂ V eine nicht-leere Teilmenge von V , die bezüglich der auf V definierten Verknüpfungen + und · abgeschlossen ist, d.h. i) ∀ a, b ∈ U : a + b ∈ U , ii) ∀ a ∈ U ∀α ∈ K : α · a ∈ U , so bezeichnet man (U, +, ·) als Untervektorraum von (V, +, ·). Bemerkung — Ein Untervektorraum (U, +, ·) eines Vektorraums (V, +, ·) ist selbst ein Vektorraum. Bemerkung — Sind (U, +, ·) und (W, +, ·) Untervektorräume eines Vektor- raums (V, +, ·), so ist auch der Durchschnitt (U ∩ W, +, ·) ein Untervektorraum von (V, +, ·). Bemerkung — Sind (U, +, ·) und (W, +, ·) Untervektorräume eines Vektor- raums (V, +, ·), ist hingegen die Vereinigung (U ∪ W, +, ·) im Allgemeinen kein Vektorraum und damit auch kein Untervektorraum von (V, +, ·) (Ausnahme: U ⊂ W oder W ⊂ U ). Die Summe der beiden Vektorräume U + W := {v ∈ V | v = u + w mit u ∈ U, w ∈ W } ist jedoch ein Untervektorraum (U + W, +, ·) von (V, +, ·). Es seien (V, +, ·) ein K-Vektorraum und (U, +, ·) bzw. (W, +, ·) Untervektorräume von (V, +, ·) mit U +W = V . Gilt zusätzlich U ∩ W = {0}, U 6= {0}, W 6= {0} (wobei 0 das Nullelement von V ist), so bezeichnet man V als direkte Summe von U und W und schreibt Definition 2.7 — V =U ⊕W . Die direkte Summe stellt also eine Art Zerlegung eines Vektorraums in Untervektorräume dar. Umgekehrt kann man auch aus zwei Vektorräumen einen neuen Vektorraum durch Produktbildung konstruieren. 21 Definition 2.8 — Es seien (U, +, ·) und (W, +, ·) K-Vektorräume. Bildet man die Produktmenge U × W := {(u, w)| u ∈ U, w ∈ W } , und definiert auf U × W eine Vektoraddition komponentenweise durch (u1 , w1 ) + (u2 , w2 ) := (u1 + u2 , w1 + w2 ) , u1 , u2 ∈ U , w1 , w2 ∈ W bzw. die Multiplikation mit einem Skalar durch λ(u, w) := (λu, λw) , u ∈ U , w ∈ W ,λ ∈ K, so ist (U × W, +, .) ein Vektorraum, das sog. direkte Produkt der Vektorräume (U, +, ·) und (W, +, ·). Bemerkung — Aus den obigen Definitionen ist unmittelbar ersichtlich, dass sich die Begriffe “direkte Summe” und “direktes Produkt” sofort auf endlich viele Summanden bzw. Faktoren verallgemeinern lassen, d.h. V = ⊕ni=1 Vi = V1 ⊕V2 ⊕· · ·⊕Vn bzw. n Y Wi = W1 ×W2 ×· · ·×Wn . i=1 Nachdem wir nun die wichtigsten algebraischen Strukturen kennengelernt haben, auf die wir in Hinkunft immer wieder stoßen werden, wenden wir uns wieder dem Rechnen mit Matrizen zu. Nachdem wir schon gelernt haben Matrizen zu multiplizieren und Determinanten von quadratischen Matrizen zu berechnen, erhebt sich die Frage, wie die Determinante eines Produktes von quadratischen Matrizen aussieht. Die Antwort ist sehr einfach: det( N Y Âi ) = i=1 N Y det(Âi ) , (2.1) i=1 wobei Âi ∈ Kn×n , i = 1, 2, . . . , N , quadratische n×n-Matrizen mit Matrixelementen aus einem Skalarenkörper K sind. Der direkte Beweis dieser Aussage ist recht mühsam. Ein eleganterer Beweis basiert auf dem Zusammenhang zwischen Matrizen und linearen Abbildungen bzw. dem Begriff der Determinante einer linearen Abbildung. Bemerkung — Eine analoge Aussage gilt im Allgemeinen nicht für die Summe von quadratischen n × n-Matrizen (siehe auch (D5) auf Seite 8). Das P PN bedeutet daher, dass det( N i=1 Âi )6= i=1 det(Âi ). 22 Nachdem wir nun wissen, wie man Matrizen addiert und multipliziert, sind wir in der Lage ein allgemeines lineares Gleichungssystem bestehend aus n Gleichungen in m Unbekannten a11 x1 + a12 x2 + . . . a21 x1 + a22 x2 + . . . .. . an1 x1 + an2 x2 + . . . + a1m xm = b1 + a2m xm = b2 .. . . = .. + anm xm = bn (2.2) in eine sehr kompakte Form zu bringen, indem wir Koeffizienten, Unbekannte und Inhomogenitäten zu einer Matrix bzw. zu Vektoren zusammenfassen: x1 a11 a12 . . . a1m b1 a21 a22 . . . a2m x2 b2 . (2.3) .. .. .. = .. . . . . . . . xm bn an1 an2 . . . anm | {z } | {z } | {z } ~ X  ~ B Wenn man die linke Seite dieser Gleichung ausmultipliziert, und das i-te Element ~ gleichsetzt, erhält man des resultierenden Vektors mit dem i-ten Element von B genau die i-te Gleichung von (2.2). Somit lässt sich das Gleichungssystem (2.2) in der kompakten Form ~ =B ~  · X (2.4) ~ ein m-dimensionaler Vektor und B̂ ein schreiben, wobei  eine n × m-Matrix ist, X n-dimensionaler Vektor. Bemerkung — Um die Cramer’sche Regel anwenden zu können, muss n = m vorausgesetzt werden. Ist n > m, so ist das Gleichungssystem (2.2) überbestimmt. Ist n < m, so ist es unterbestimmt und es kann zumindest keine eindeutige Lösung geben. Ob es in allen diesen Fällen eine Lösung gibt, oder nicht, zeigt erst eine genauere Analyse der (erweiterten) Koeffizientenmatrix. Ist n = m und existiert die, zu  inverse Matrix Â−1 (d.h. Â−1  = ÂÂ−1 = 1̂), so liegt es nahe, Gleichung (2.4) mittels Matrixinversion zu lösen: −1 ~ −1 ~ ~ =B ~ ⇒ Â−1  X ~ ~ Â−1 · \ ÂX | {z } =  B ⇒ X =  B . 1̂ 23 (2.5) Ein sehr allgemeines Lösungsverfahren für lineare Gleichungssysteme der Form (2.2) ist der Gauß-Algorithmus: Das Verfahren läuft darauf hinaus, dass man die erweiterte Koeffizientenmatrix durch Zeilenumformungen systematisch auf obere Dreiecksform bringt. Für das Gleichungssystem bedeuten diese Zeilenumformungen, dass das Vielfache einer Gleichung zu einer anderen addiert wird. Das ändert natürlich nichts an der Lösung des Gleichungssystems. Sehen wir uns das der Einfachheit halber für den Fall n = m an. Die erweiterte Koeffizientenmatrix besitzt dann die Form: a11 a12 . . . a1n b1 a21 a22 . . . a2n b2 . .. .. . . . . an1 an2 . . . ann bn Nun subtrahiert man von der i-ten Zeile, i = 2, 3, . . . , n, das (ai1 /a11 )-fache der ersten Zeile: a11 a12 ... a1n b1 a21 0 a22 − a12a11a21 . . . a2n − a1n b2 − b1aa1121 a11 . .. .. . . . . 0 an2 − a12 an1 a11 ... ann − a1n an1 a11 bn − b1 an1 a11 Als Nächstes kann man durch Subtraktion der zweiten Zeile (multipliziert mit geeigneten Vorfaktoren) von den darunterliegenden Zeilen in der zweiten Spalte lauter Nullen unter der Hauptdiagonalen bekommen, usw. Es kann dabei passieren, dass nach dem i-ten Schritt das Diagonalelement in der (i + 1)-ten Zeile Null ist. In diesem Fall muss man eventuell die (i + 1)-te Zeile mit einer der nachfolgenden Zeilen vertauschen, die in der (i + 1)-Spalte ein nichtverschwindendes Matrixelement aufweist. Letztendlich kann man damit die erweiterte Koeffizientenmatrix auf die Form a11 a12 . . . a1n b1 0 ã22 . . . ã2n b̃2 . . ... . . . . .. . 0 0 ... ãnn b̃n Die “˜” deuten an, dass es sich um Matrixelemente handelt, die wir nach maximal (n − 1) Schritten gewonnen haben. Daraus können wir nun aber die Unbekannten xi beginnend mit xn gewinnen. Wir haben nämlich xn = b̃n . ãnn 24 Aus der vorletzten Zeile ergibt sich xn−1 n b̃n−1 − ã(n−1) n ãb̃nn b̃n−1 − ã(n−1) n xn = = , ã(n−1)(n−1) ã(n−1)(n−1) usw. Das Ganze setzt natürlich voraus, dass ãnn , ã(n−1)(n−1) , usw. verschieden von Null sind. Verschwinden etwa alle Zeilen ab der (k + 1)-ten identisch, so bekommt man eine mehrdeutige Lösung. xk+1 , . . . , xn sind dann freie Parameter. Die restlichen xi lassen sich dann aber auch durch sukzessives Rückeinsetzen gewinnen. Sind in einer oder mehreren Zeilen die einzigen nichtverschwindenden Matrixelemente die b̃, so ist das Gleichungssystem widersprüchlich. Bemerkung — Da das Verfahren iterativ ist, eignet es sich besonders zur numerischen Lösung von linearen Gleichungssystemen mittels Computer. Das Gauß-Jordan-Verfahren und das Gauß-Pivot-Verfahren stellen Verfeinerungen dar, die zur Beschleunigung bzw. zur Verbesserung der Rechengenauigkeit dienen. Die inverse Matrix: Wir haben zuvor schon festgestellt, dass sich eine eindeutige Lösung eines linearen Gleichungssystems, sofern diese existiert, auch durch Matrixinversion gewinnen läßt (siehe Glchg. (2.5)). Wir stellen uns nun die Frage, wie sich die, zu einer Matrix Â, inverse Matrix Â−1 berechnen lässt, sodass Â−1  = ÂÂ−1 = 1̂ gilt. Cji ,  = ij det  wobei Cij die Kofaktoren von  sind, die wir schon in Satz 1.1 (Laplace’scher Behauptung: −1 ij Entwicklungssatz) kennengelernt haben. Beweis: Wir suchen zur n × n-Matrix  eine Matrix X̂ mit n2 unbekannten Matrixelementen xij , sodass ÂX̂ = 1̂ . 25