Definition 2.6 — Ist (V,+,·) ein K-Vektorraum und U ⊂ V eine nicht

Werbung
Definition 2.6 — Ist (V, +, ·) ein K-Vektorraum und U ⊂ V eine nicht-leere
Teilmenge von V , die bezüglich der auf V definierten Verknüpfungen +
und · abgeschlossen ist, d.h.
i) ∀ a, b ∈ U : a + b ∈ U ,
ii) ∀ a ∈ U ∀α ∈ K : α · a ∈ U ,
so bezeichnet man (U, +, ·) als Untervektorraum von (V, +, ·).
Bemerkung — Ein Untervektorraum (U, +, ·) eines Vektorraums (V, +, ·) ist
selbst ein Vektorraum.
Bemerkung — Sind (U, +, ·) und (W, +, ·) Untervektorräume eines Vektor-
raums (V, +, ·), so ist auch der Durchschnitt (U ∩ W, +, ·) ein Untervektorraum von (V, +, ·).
Bemerkung — Sind (U, +, ·) und (W, +, ·) Untervektorräume eines Vektor-
raums (V, +, ·), ist hingegen die Vereinigung (U ∪ W, +, ·) im Allgemeinen kein Vektorraum und damit auch kein Untervektorraum von (V, +, ·)
(Ausnahme: U ⊂ W oder W ⊂ U ).
Die Summe der beiden Vektorräume
U + W := {v ∈ V | v = u + w
mit u ∈ U, w ∈ W }
ist jedoch ein Untervektorraum (U + W, +, ·) von (V, +, ·).
Es seien (V, +, ·) ein K-Vektorraum und (U, +, ·) bzw.
(W, +, ·) Untervektorräume von (V, +, ·) mit U +W = V . Gilt zusätzlich
U ∩ W = {0}, U 6= {0}, W 6= {0} (wobei 0 das Nullelement von V ist),
so bezeichnet man V als direkte Summe von U und W und schreibt
Definition 2.7 —
V =U ⊕W .
Die direkte Summe stellt also eine Art Zerlegung eines Vektorraums in Untervektorräume dar. Umgekehrt kann man auch aus zwei Vektorräumen einen neuen Vektorraum durch Produktbildung konstruieren.
21
Definition 2.8 — Es seien (U, +, ·) und (W, +, ·) K-Vektorräume. Bildet man
die Produktmenge
U × W := {(u, w)| u ∈ U, w ∈ W } ,
und definiert auf U × W eine Vektoraddition komponentenweise durch
(u1 , w1 ) + (u2 , w2 ) := (u1 + u2 , w1 + w2 ) ,
u1 , u2 ∈ U , w1 , w2 ∈ W
bzw. die Multiplikation mit einem Skalar durch
λ(u, w) := (λu, λw) ,
u ∈ U , w ∈ W ,λ ∈ K,
so ist (U × W, +, .) ein Vektorraum, das sog. direkte Produkt der Vektorräume (U, +, ·) und (W, +, ·).
Bemerkung — Aus den obigen Definitionen ist unmittelbar ersichtlich, dass
sich die Begriffe “direkte Summe” und “direktes Produkt” sofort auf
endlich viele Summanden bzw. Faktoren verallgemeinern lassen, d.h.
V =
⊕ni=1
Vi = V1 ⊕V2 ⊕· · ·⊕Vn
bzw.
n
Y
Wi = W1 ×W2 ×· · ·×Wn .
i=1
Nachdem wir nun die wichtigsten algebraischen Strukturen kennengelernt haben, auf
die wir in Hinkunft immer wieder stoßen werden, wenden wir uns wieder dem Rechnen
mit Matrizen zu. Nachdem wir schon gelernt haben Matrizen zu multiplizieren und
Determinanten von quadratischen Matrizen zu berechnen, erhebt sich die Frage, wie
die Determinante eines Produktes von quadratischen Matrizen aussieht. Die
Antwort ist sehr einfach:
det(
N
Y
Âi ) =
i=1
N
Y
det(Âi ) ,
(2.1)
i=1
wobei Âi ∈ Kn×n , i = 1, 2, . . . , N , quadratische n×n-Matrizen mit Matrixelementen
aus einem Skalarenkörper K sind.
Der direkte Beweis dieser Aussage ist recht mühsam. Ein eleganterer Beweis basiert
auf dem Zusammenhang zwischen Matrizen und linearen Abbildungen bzw. dem Begriff der Determinante einer linearen Abbildung.
Bemerkung — Eine analoge Aussage gilt im Allgemeinen nicht für die Summe
von quadratischen n × n-Matrizen (siehe auch (D5) auf Seite 8). Das
P
PN
bedeutet daher, dass det( N
i=1 Âi )6=
i=1 det(Âi ).
22
Nachdem wir nun wissen, wie man Matrizen addiert und multipliziert, sind wir in der
Lage ein allgemeines lineares Gleichungssystem bestehend aus n Gleichungen
in m Unbekannten
a11 x1 + a12 x2 + . . .
a21 x1 + a22 x2 + . . .
..
.
an1 x1 + an2 x2 + . . .
+ a1m xm = b1
+ a2m xm = b2
..
.
.
= ..
+ anm xm = bn
(2.2)
in eine sehr kompakte Form zu bringen, indem wir Koeffizienten, Unbekannte und
Inhomogenitäten zu einer Matrix bzw. zu Vektoren zusammenfassen:
   

x1
a11 a12 . . . a1m
b1
   

 a21 a22 . . . a2m   x2   b2 
   
 .
(2.3)
..
.. 
  ..  =  ..  .
 .
.
.
.
 .   . 

xm
bn
an1 an2 . . . anm
|
{z
} | {z } | {z }
~
X
Â
~
B
Wenn man die linke Seite dieser Gleichung ausmultipliziert, und das i-te Element
~ gleichsetzt, erhält man
des resultierenden Vektors mit dem i-ten Element von B
genau die i-te Gleichung von (2.2). Somit lässt sich das Gleichungssystem (2.2) in
der kompakten Form
~ =B
~
 · X
(2.4)
~ ein m-dimensionaler Vektor und B̂ ein
schreiben, wobei  eine n × m-Matrix ist, X
n-dimensionaler Vektor.
Bemerkung — Um die Cramer’sche Regel anwenden zu können, muss n = m
vorausgesetzt werden. Ist n > m, so ist das Gleichungssystem (2.2)
überbestimmt. Ist n < m, so ist es unterbestimmt und es kann zumindest keine eindeutige Lösung geben. Ob es in allen diesen Fällen eine
Lösung gibt, oder nicht, zeigt erst eine genauere Analyse der (erweiterten)
Koeffizientenmatrix.
Ist n = m und existiert die, zu  inverse Matrix Â−1 (d.h. Â−1  = ÂÂ−1 = 1̂), so
liegt es nahe, Gleichung (2.4) mittels Matrixinversion zu lösen:
−1 ~
−1 ~
~ =B
~ ⇒ Â−1 Â X
~
~
Â−1 · \ ÂX
| {z } = Â B ⇒ X = Â B .
1̂
23
(2.5)
Ein sehr allgemeines Lösungsverfahren für lineare Gleichungssysteme der Form (2.2)
ist der Gauß-Algorithmus:
Das Verfahren läuft darauf hinaus, dass man die erweiterte Koeffizientenmatrix durch
Zeilenumformungen systematisch auf obere Dreiecksform bringt. Für das Gleichungssystem bedeuten diese Zeilenumformungen, dass das Vielfache einer Gleichung zu
einer anderen addiert wird. Das ändert natürlich nichts an der Lösung des Gleichungssystems. Sehen wir uns das der Einfachheit halber für den Fall n = m an.
Die erweiterte Koeffizientenmatrix besitzt dann die Form:


a11 a12 . . . a1n b1


 a21 a22 . . . a2n b2 
 .
..
.. 
 .

.
.
 .
an1 an2 . . .
ann bn
Nun subtrahiert man von der i-ten Zeile, i = 2, 3, . . . , n, das (ai1 /a11 )-fache der
ersten Zeile:


a11
a12
...
a1n
b1


a21
 0 a22 − a12a11a21 . . . a2n − a1n
b2 − b1aa1121 
a11

 .
..
..

 .
.
.

 .
0
an2 −
a12 an1
a11
...
ann −
a1n an1
a11
bn −
b1 an1
a11
Als Nächstes kann man durch Subtraktion der zweiten Zeile (multipliziert mit geeigneten Vorfaktoren) von den darunterliegenden Zeilen in der zweiten Spalte lauter Nullen
unter der Hauptdiagonalen bekommen, usw. Es kann dabei passieren, dass nach dem
i-ten Schritt das Diagonalelement in der (i + 1)-ten Zeile Null ist. In diesem Fall muss
man eventuell die (i + 1)-te Zeile mit einer der nachfolgenden Zeilen vertauschen, die
in der (i + 1)-Spalte ein nichtverschwindendes Matrixelement aufweist. Letztendlich
kann man damit die erweiterte Koeffizientenmatrix auf die Form


a11 a12 . . . a1n b1


 0 ã22 . . . ã2n b̃2 
 .
.
...
 .

. . . .. 
 .
0
0
...
ãnn b̃n
Die “˜” deuten an, dass es sich um Matrixelemente handelt, die wir nach maximal
(n − 1) Schritten gewonnen haben. Daraus können wir nun aber die Unbekannten xi
beginnend mit xn gewinnen. Wir haben nämlich
xn =
b̃n
.
ãnn
24
Aus der vorletzten Zeile ergibt sich
xn−1
n
b̃n−1 − ã(n−1) n ãb̃nn
b̃n−1 − ã(n−1) n xn
=
=
,
ã(n−1)(n−1)
ã(n−1)(n−1)
usw. Das Ganze setzt natürlich voraus, dass ãnn , ã(n−1)(n−1) , usw. verschieden von
Null sind. Verschwinden etwa alle Zeilen ab der (k + 1)-ten identisch, so bekommt
man eine mehrdeutige Lösung. xk+1 , . . . , xn sind dann freie Parameter. Die restlichen
xi lassen sich dann aber auch durch sukzessives Rückeinsetzen gewinnen. Sind in einer
oder mehreren Zeilen die einzigen nichtverschwindenden Matrixelemente die b̃, so ist
das Gleichungssystem widersprüchlich.
Bemerkung — Da das Verfahren iterativ ist, eignet es sich besonders zur
numerischen Lösung von linearen Gleichungssystemen mittels Computer.
Das Gauß-Jordan-Verfahren und das Gauß-Pivot-Verfahren stellen Verfeinerungen dar, die zur Beschleunigung bzw. zur Verbesserung der Rechengenauigkeit dienen.
Die inverse Matrix:
Wir haben zuvor schon festgestellt, dass sich eine eindeutige Lösung eines linearen
Gleichungssystems, sofern diese existiert, auch durch Matrixinversion gewinnen läßt
(siehe Glchg. (2.5)). Wir stellen uns nun die Frage, wie sich die, zu einer Matrix Â,
inverse Matrix Â−1 berechnen lässt, sodass
Â−1 Â = ÂÂ−1 = 1̂
gilt.
Cji
,
Â
=
ij
det Â
wobei Cij die Kofaktoren von Â
sind, die wir schon in Satz 1.1 (Laplace’scher
Behauptung:
−1
ij
Entwicklungssatz) kennengelernt haben.
Beweis:
Wir suchen zur n × n-Matrix  eine Matrix X̂ mit n2 unbekannten Matrixelementen
xij , sodass
ÂX̂ = 1̂ .
25
Herunterladen