Repetitorium lineare Algebra

Werbung
Repetitorium lineare Algebra
Stephan Lukits
18. Juli 2006
Zusammenfassung
Dies ist eine Zusammenfassung der Vorlesung zur linearen Algebra, die von Herrn Prof. Petterson et al verfasst wurde. Alle
hier enthaltenen Fehler gehen natürlich allein zu meinen Lasten.
Inhaltlich wird nach einigen Vorbereitugen zunächst auf die algebraischen Strukturen des Körpers, Vektorraums und Untervektorraumes eingegangen, dann wird der Matrizenkalkül entwickelt und
gezeigt, dass sich lineare Abbildungen mit Matrizen identifizieren
lassen. Nachdem die theoretischen Grundlagen gelegt sind, werden
zwei Anwendungen diskutiert, das lösen linearer Gleichungssysteme und das Eigenwertproblem.
Inhaltsverzeichnis
0 Präliminarien
0.1 Mengen . . . . . . . . . . . . . . . . . . . . .
0.2 Abbildungen . . . . . . . . . . . . . . . . . .
0.3 Zahlen . . . . . . . . . . . . . . . . . . . . . .
0.3.1 Natürliche Zahlen . . . . . . . . . . .
0.3.1.1 Definition durch Rekursion .
0.3.1.2 Vollständige Induktion . . .
0.3.2 Komplexe Zahlen . . . . . . . . . . . .
0.3.2.1 Geometrische Betrachtungen
0.4 Der Körperbegriff . . . . . . . . . . . . . . . .
0.4.1 Rechnen im Körper . . . . . . . . . .
0.4.1.1 Summenzeichen . . . . . . .
0.4.1.2 Produktzeichen . . . . . . .
1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3
3
6
9
9
10
11
13
14
16
18
20
22
INHALTSVERZEICHNIS
INHALTSVERZEICHNIS
1 Vektorraumtheorie
1.1 Rechnen im Vektorraum . . . . . .
1.2 Untervektorraum . . . . . . . . . .
1.3 Erzeugendensystem . . . . . . . . .
1.4 Lineare Unabhängigkeit und Basis
1.5 Dimension eines Vektorraumes . .
1.6 Lineare Abbildungen . . . . . . . .
1.6.1 Kern und Bild . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2 Matrizen
2.1 Vektorraum der Matrizen . . . . . . . . . . . . . .
2.2 Rang einer Matrix . . . . . . . . . . . . . . . . . .
2.3 Elementare Matrizenumformungen . . . . . . . . .
2.4 Matrizenmultiplikation . . . . . . . . . . . . . . . .
2.4.1 General Linear Group . . . . . . . . . . . .
2.4.2 Inversbildung durch Matrizenumformungen
2.5 (2 × 2)-Matrizen . . . . . . . . . . . . . . . . . . .
2.6 lineare Abbildungen . . . . . . . . . . . . . . . . .
2.6.1 Linearformen, dualer Raum . . . . . . . . .
2.7 Determinante . . . . . . . . . . . . . . . . . . . . .
3 Lineare Gleichungssysteme
3.1 Lösungsmenge eines LGS . . . . . . . .
3.2 Lineare Abbildungen . . . . . . . . . . .
3.3 Lösbarkeitkriterien . . . . . . . . . . . .
3.3.1 Rangkriterium . . . . . . . . . .
3.3.2 Matrixkriterien . . . . . . . . . .
3.4 Lösen eines LGS . . . . . . . . . . . . .
3.4.1 Gaußsches Eliminationsverfahren
3.4.2 Gaußscher Algorithmus . . . . .
3.4.3 Cramersche Regel . . . . . . . .
4 Eigenwertproblem
4.1 Polynome . . . . . . . . . . . . . .
4.1.1 Nullstellen und Teilbarkeit
4.2 Eigenwerte . . . . . . . . . . . . .
4.3 Diagonalisierbarkeit . . . . . . . .
Index
Repetitorium
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
23
24
27
32
32
38
41
43
.
.
.
.
.
.
.
.
.
.
46
48
49
50
54
55
57
59
59
66
68
.
.
.
.
.
.
.
.
.
76
78
79
79
79
80
81
81
82
83
.
.
.
.
84
84
88
90
93
97
2
lineare Algebra
0 Präliminarien
0 Präliminarien
Diese Zusammenfassung entstand während der Vorbereitung zu einer
mündlichen Vordiplomprüfung in linearer Algebra. Um eine Art mathematisches Sprachtraining zu praktizieren wurden Sätze häufig ausführlich „wortsprachlich” formuliert anstatt formal und kurz.
Für den Textsatz wurden die concrete Schriften und für den Formelsatz die Eulerschrift verwendet, die auch in dem Buch Conrete Mathematics [Knu04] Verwendung finden. Wegen ihres hohen Grauwertes
sind sie gut am Bildschirm lesbar; für einen brauchbaren Ausdruck benötigt man wenigstens eine Auflösung von 600 dpi.
Über die Mitteilung von Fehlern, die in diesem Exzerpt enthalten
sind, würde ich mich freuen.
0.1 Mengen
Unter einer ,Menge‘ verstehen wir jede Zusammenfassung M von bestimmten wohlunterschieden Objekten m
unserer Anschauung oder unseres Denkens (welche ,Elemente’ von M genannt werden) zu einem Ganzen.
D1
D2
Soll Georg Cantor laut [Dei04] in seiner letzten mengentheoretischen
Arbeit 1895 zur Charakterisierung des Mengenbegriffs geschrieben haben. Diese naive Beschreibung genügt für diesen Text. Mengen definiert
man entweder durch die Aufzählung ihrer Objekte wie z.B. {A, B, C}
oder durch die Angabe einer Konstruktionsvorschrift wie z.B. {x | x ist
ein Schuh}.
Eine Zusammenfassung von geordneten Objekten1 heißt (geordnetes)
n-Tupel und wird formal mit (a1 , . . . , an ) bezeichnet. Ein n-Tupel mit
zwei Komponenten heißt Paar, mit drei Tripel, mit vier Quadrupel,
mit fünf Quintupel usw. Statt Komponente werden auch die Bezeichnungen Koordinate oder Dimension verwendet – siehe auch [Lex00,
S. 307].
2
Die Buchstaben N, Z, Q, R, C bezeichnen im Weiteren die Mengen der
natürlichen, ganzen, rationalen, reellen und komplexen Zahlen. Für diesen Abschnitt bezeichnen die Buchstaben A, B, C, D beliebige Mengen
und I eine Indexmenge.
An wichtigen Beziehungen zwischen Mengen wird die Identität (A =
B), die Teilmengen- oder auch Untermengenrelation (A ⊂ B) und
die Obermengenrelation (A ⊃ B) festgelegt.
Zwei Mengen A und B sind gleich, wenn alle Elemente von A auch
1
Es gibt also ein erstes Objekt, ein zweites, ein drittes und so weiter.
Repetitorium
3
lineare Algebra
0 Präliminarien
Mengen
Elemente von B sind und umgekehrt. Dieser Umstand wird auch als
Extensionalitätsprinzip bezeichnet.
2
D3
D4
S 1.1
S 1.2
D 5.1
D 5.2
D 5.3
D 5.4
D 5.5
S 2.1
S 2.2
S 2.3
Währen zwei n-Tupel a, b genau dann gleich sind, wenn die erste Komponente von a gleich der ersten Komponente von b ist usw, wenn also
für alle i ∈ {1, . . . , n} gilt ai = bi .
2
Enthält eine Menge A alle Elemente einer anderen Menge B, dann heißt
A Obermenge von B und B Teilmenge von A. Man spricht von einer echten Teilmenge B, wenn B wenigstens ein Element von A nicht
enthält.
2
Hieraus ergeben sich die folgenden naheliegenden Schlüsse.
A und B sind gleich genau dann, wenn A eine Teilmenge von B ist und
B eine Teilmenge von A ist.
Alle drei Relationen sind transitiv, also ArB, BrC ⇒ ArC, wobei r eine
der gerade genannten Relationen ist.
2
An Mengenoperationen wird der Durchschnitt (A∩B), die Vereinigung
(A ∪ B), die Differenz (A\B) und das kartesische Produkt (A × B)
zweier Mengen benötigt.
Die Schnittmenge zweier Mengen ist die Menge aller Objekte, die Elemente beider Mengen sind.
Die Vereinigung zweier Mengen ist die Menge aller Objekt, die Elemente einer der beiden Mengen sind.
Die Differenz zweier Mengen A und B ist die Menge aller Objekte aus
A, die nicht Element von B sind.
Ist B eine Teilmenge von A, dann heißt die Differenz von A und B das
Komplement von B (bezüglich A). Man schreibt Bc oder auch B 0 .
Das kartesische Produkt zweier Mengen A, B ist schließlich die Menge
aller Paare deren erste Komponente aus A und deren zweite Komponente aus B ist. Synonyme zum kartesischen Produkt sind direktes
Produkt, Kreuzprodukt, Mengenprodukt und Produktmenge – siehe
2
auch [Lex00, S. 307].
Grundlegende Folgerungen, die sich aus dem Zusammenspiel der gerade
eingeführten Mengenoperationen und -relationen ergeben, sind:
Die Schnittmenge zweier Mengen ist sowohl Teilmenge einer jeden dieser beiden Mengen, als auch Teilmenge der Vereinigung dieser beiden
Mengen.
Bezüglich der Vereinigung bzw. dem Durchschnitt zweier Mengen sind
die beiden Mengen umstellbar, es gilt also das Kommutativgesetz.
Es ist egal in welcher Reihenfolge man schneidet bzw. vereinigt, es gilt
Repetitorium
4
lineare Algebra
0 Präliminarien
Mengen
also das Assoziativgesetz bezüglich der Vereinigung bzw. des Durchschnitts, so dass hierbei auf Klammerung verzichtet werden kann.
S 2.4
S 2.5
S 2.6
S 2.7
S 2.8
D6
S 3.1
S 3.2
S 3.3
Auch ist es egal, ob zwei Mengen A und B zuerst geschnitten und dann
mit einer dritten Menge C vereinigt werden, oder ob zuerst A mit C
und B mit C geschnitten werden um dann die beiden Schnittmengen
zu vereinigen. Diese Aussage gilt auch, wenn man den Schnittemengenoperator durch den Vereinigungsoperator ersetzt und umgekehrt. Es
gilt also das Distributivgestz bezüglich dieser beiden Operationen.
Unter der doppelten Differenzregel versteht man die Tatsache, dass
der Schnitt zweier Mengen A und B identisch ist mit der Differenz von
A und der Differenz von A und B. (A ∩ B = A\(A\B))
Die de Morganschen Gesetze schließlich besagen, dass die Differenz
von einer Menge A und dem Schnitt zweier Mengen B und C identisch
ist mit der Vereinigung der Differenzen von A und B sowie von A und
C. Dieses Gesetz gilt auch wenn man Schnitt- und Vereinigungsoperator
vertauscht.
Ist A eine Teilmenge von C und B eine Teilmenge von D, dann ist auch
das kartesische Produkt von A und B eine Teilmenge des kartesischen
Produkts von C und D.
Der Durchschnitt zweier kartesischer Produkte A × B und C × D ist
identisch mit dem kartesischen Produkt der beiden Durchschnitte A∩C
und B ∩ D.
2
Möchte man auf beliebig vielen Mengen Aa , Ab , Ac , . . . operieren, die
Teilmengen eines festen Universums sind, ist es nützlich eine Indexmengen I zu Definieren, deren Elemente die Mengen indizieren, über
die man operieren möchte. Man schreibt dann
S
T
i∈I Ai bzw.
i∈I Ai .
(Ai )i∈I bezeichnet man als eine Familie von Mengen und gilt I = N,
spricht man auch von einer Mengenfolge.
2
Wichtig in diesem Zusammenhang ist, dass sich die de Morganschen
Gesetze und die Distributivgesetze verallgemeinern lassen
T
S
S
T
und
B\( i∈I Ai ) = i∈I (B\Ai ),
B\( i∈I Ai ) = i∈I (B\Ai )
T
T
S
S
und
B ∪ i∈I Ai = i∈I (B ∪ Ai ),
B ∩ i∈I Ai = i∈I (B ∩ Ai )
außerdem kann als Verallgemeinerung von S 2.1 festgehalten werden,
dass der Durchschnitt einer Familie sowohl Teilmenge der Vereinigung
der Familie als auch Teilmenge einer beliebigen Menge der Familie ist.
2
Repetitorium
5
lineare Algebra
0 Präliminarien
Abbildungen
0.2 Abbildungen
D7
Um Strukturen von Mengen zu beschreiben ist die Begriffsbildung der
Abbildung bzw. Funktion nützlich.
Um eine Abbildung f festlegen zu können benötigt man zwei Mengen D
und W, die Definitionsmenge und Wertemenge genannt werden, und
man benötigt eine Zuordnungsvorschrift, die jedem Element aus der
Definitionsmenge in eindeutiger Weise ein Element der Wertemenge
zuordnet. Dieses zugeordnete Element der Wertemenge heißt (Funktions)Wert von f an der Stelle bzw. in x mit x ∈ D. Manchmal spricht
man auch von dem Bild von x unter f und bezeichnet den Wert mit
f(x). Dabei nennt man x ein Urbild 2 von y = f(x) unter f.
2
D8
Zwei Abbildungen f, g heißen genau dann gleich, wenn die jeweilige
Definitions- Df , Dg und Wertemengen Wf , Wg identisch sind und für
alle x ∈ Df die Bilder von x unter f und g ebenfalls identisch sind. 2
Die Begriffe Funktion und Abbildung werden im weiteren Verlauf synonym verwendet.
D9
Wichtige Beispiele sind die
konstante Funktionen:
f : A → B, x 7→ f(x) := c ∈ B
Identität:
idA : A → A, x 7→ idA (x) := x
kanonische Injektion oder natürliche Einbettung:
A ∈ B, inA,B : A → B, x 7→ inA,B (x) := x
i-te Projektion:
f : A1 × · · · × An → Ai , x 7→ f(x1 , . . . , xn ) := xi
2
D 10
Eine Abbildung f : A × A → A nennt man auch eine zweistellige Operation auf A.
2
D 11.1
Ist f : A → B eine Abbildung, dann heißt die Menge aller Bilder unter f
Bild von A unter f. Man schreibt f(A) oder Bild f und für Teilmengen
U von A schreibt man f(U).
D 11.2
Für B oder eine Teilmenge B 0 von B heißt die Menge aller Elemente
der Definitionsmenge, die auf B bzw. B 0 abgebildet werden, das Urbild
von B bzw. B 0 unter f.
2
Elementare benennens- und untersuchenswerte Eigenschaften einer Abbildung sind die Injektivität, Surjektivität und Bijektivität. Eine AbEin Element der Wertemenge kann kein, genau eins oder mehrere Urbilder aus
der Definitionsmenge haben.
2
Repetitorium
6
lineare Algebra
0 Präliminarien
D 12.1
D 12.2
D 12.3
D 13
D 14
S 4.1
S 4.2
S 4.3
S 4.4
S 4.5
Abbildungen
bildung f : A → B heißt
injektiv falls jedes Element der Wertemenge höchstens ein Urbild unter
f besitzt.
surjektiv falls jedes Element der Wertemenge einem Urbild unter f
zugeordnet wird.
bijektiv falls jedes Element der Wertemenge genau ein Urbild unter f
2
besitzt.3
Ist eine Abbildung von A in B bijektiv, dann spricht man von einer
Abbildung von A auf B. Durch einschränken der Wertemenge einer
Abbildung f auf ihr Bild, lässt sich eine surjektive Abbildung definieren, die im wesentlichen die gleichen Eigenschaften wie f hat (aber nicht
gleich f ist s. D 8). Auch in dem man die Definitionsmenge entsprechend
einschränkt, lässt sich oft eine Abbildung definieren, die noch alle wesentlichen Merkmale der ursprünglichen Abbildung hat, ergänzt um die
Injektivität. Hierzu definiert man die Beschränkung einer Abbildung.
Eine Abbildung f : A → B heißt Beschränkung auf à ⊂ A, falls jedem
Element aus à das selbe Element wie dem entsprechenden Element aus
A zugeordnet wird. Man schreibt f|Ã : Ã → B, (f|Ã )(x) := f(x).
2
Um das hintereinander Ausführen von geeigneten Funktionen formalisieren zu können, definiert man den Begriff der Komposition bzw.
Verkettung.
Die Abbildung g ◦ f heißt Komposition, wobei sie die Definitionsmenge
der Abbildung f und die Wertemenge der Abbildung g hat. Die Zuordnungsvorschrift setzt sich zusammen aus dem hintereinander Ausführen
der Zuordnungsvorschriften von f auf x und von g auf f(x), woraus sich
für die Existenz von g ◦ f ergibt, dass die Bildmenge von f Teilmenge
der Definitionsmenge von g sein muss.
2
Mit dem bis hier hin entwickelten Begriffsapparat zu Abbildungen, können die folgenden Aussagen abgeleitet werden.
Die Komposition dreier Abbildungen f, g, h ist assoziativ, d.h. es gilt
(h ◦ g) ◦ f = h ◦ (g ◦ f)
Alle Abbildungen f : A → B sind bezüglich der Komposition unitär,
d.h. idA ◦ f = f = f ◦ idB .
Weiter gilt für beliebige Abbildungen f : A → B, g : B → C
Ist sowohl f als auch g injektiv, so ist auch g ◦ f injektiv.
Ist sowohl f als auch g surjektiv, so ist auch g ◦ f injektiv.
Ist sowohl f als auch g bijektiv, so ist auch g ◦ f bijektiv.
3
also genau dann, wenn f injektiv und surjektiv ist
Repetitorium
7
lineare Algebra
0 Präliminarien
Abbildungen
S 4.6
Ergibt die Komposition von f : M → N nach g : N → M die Identität
von N, dann ist f injektiv und g surjektiv.
S 4.7
Ergibt die Komposition von f nach g die Identität von N und umgekehrt
die Komposition von g nach f die Identität von M, dann sind beide
Abbildungen bijektiv.
S 4.8
Ist f : A → B bijektiv, so existiert genau eine Abbildung g : B → A mit
den Eigenschaften, dass die Komposition von g, f identisch ist mit der
Identität von A, während die Komposition von f und g identisch ist
mit der Identität von B.
2
D 15
S 5.1
S 5.2
S 5.3
Da die in S 4.8 genannte Abbildung g öfter Gegenstand von Untersuchungen ist, lohnt es eine eigene Bezeichnung für sie einzuführen.
Ist f : A → B eine bijektive Abbildung, dann heißt die eindeutig bestimmte Abbildung f−1 , deren Wertemenge die Definitionsmenge von
f, deren Definitionsmenge die Wertemenge von f ist, und die jedem Element y ihrer Definitionsmenge das eindeutig bestimmte Urbild x unter
f zuordnet, Umkehrabbildung von f.
2
Mit dem Begriff der Umkehrabbildung lassen sich noch weitere elementare Folgerungen ableiten.
Für jede Menge A ist idA bijektiv und identisch mit ihrer Umkehrabbildung.
Ist die Abbildung f bijektiv, dann ist auch die Umkehrabbildung von
f bijektiv und die Umkehrabbildung der Umkehrabbildung ist wieder f
selbst.
Sind die Abbildungen g und f bijektiv, dann ist auch die Komposition
von g und f bijektiv und die Umkehrabbildung der Komposition von g
und f gleich der Komposition der jeweiligen Umkehrabbildungen von g
2
und f. Wobei g und f entsprechend D 14 vorliegen müssen.
Es sei an dieser Stelle noch angemerkt, dass das Kommutativgesetz
bezüglich der Komposition zweier wohldefinierter Komposita im Allgemeinen nicht gilt. Es kann mitunter der Übersichtlichkeit dienen, Komposita in einem Diagramm darzustellen.
f
Derartige Diagramme heißen kommutaX
Y
tiv, falls die Komposition aller Abbildungen, die auf dem Weg von einer Menj
ψ
ϕ
g
ge X zu einer Menge Y liegen, identisch
V
U
ist mit allen anderen Kompositionen aller
h
Abbildungen anderer Wege zwischen den
Kommutativ Diagramm
Mengen X und Y. Das nebenstehende Diagramm entspricht der Assoziativitätsaussage von S 4.1 für Funktionen
Repetitorium
8
lineare Algebra
0 Präliminarien
D 16
Zahlen
f : X → Y, g : Y → U und h : U → V. (s. [Ama98, S. 19], [Jän03, S. 12])
Schließlich lässt sich der Begriff der Permutation auf den Abbildungsbegriff zurückführen.
Eine bijektive Abbildung von M auf sich selbst heißt Permutation von
M. Die Menge aller Permutationen einer Menge M wird formal mit
S(M) bezeichnet.
2
0.3 Zahlen
Eine gute Möglichkeit die Begriffe Menge und Abbildung anzuwenden
ist die Konstruktion der, für den mathematischen Alltag benötigten,
Zahlen.
0.3.1 Natürliche Zahlen
D 17
Es beginnt mit den natürlichen Zahlen, deren Charakterisierung dem
intuitiven Zählen nachempfunden ist und durch die Peanoaxiome4 formalisiert werden.
Eine Menge N heißt Menge der natürlichen Zahlen, wenn sie durch die
folgenden Axiome beschrieben wird. Sei f : N → N\{erstes Element}
die Abbildung, die einer natürlichen Zahl ihren Nachfolger zuordnet.
P 17.1 Es gibt ein ausgezeichnetes erstes Element in N.
P 17.2 Ist n aus N, dann ist auch f(n) – also ihr Nachfolger – aus N.
P 17.3 Ist n aus N, dann ist f(n) nicht das erste Element. Das erste
Element ist also die einzige Zahl die keiner Zahl nachfolgt.
P 17.4 f ist injektiv. Jede natürliche Zahl hat also ihren individuellen
Nachfolger.
P 17.5 Ist A eine Teilmenge von N, das erste Element liegt in A und
für jedes a ∈ A ist gauch f(a) ∈ A, dann gilt A = N.5 Dieses
Axiom stellt sicher, dass alle Zahlen durch Zählen erreicht werden
können (f ist surjektiv).
2
D 18.1
D 18.2
Für gewöhnlich definiert man 1 := erstes Element gemäss P 17.1,
2 := f(1), 3 := f(2), . . .
und n + 1 := f(n)
2
Ohne weiteren Beweis sei festgehalten, dass die Menge der natürlichen
Zahlen existiert und es sinnvoll ist im Zusammenhang mit den Natürlichen Zahlen einen bestimmten Artikel zu verwenden, also von der
4
5
Die Peanoaxiome gehen auf R. Dedekind und G. Peano zurück
Induktionsaxiomschema
Repetitorium
9
lineare Algebra
0 Präliminarien
Zahlen
Menge der natürlichen Zahlen zu sprechen, wenngleich sie nicht im üblichen Sinne eindeutig ist.
D 19
Die Menge der natürlichen Zahlen von 1 bis n sei im Weiteren mit Nn
bezeichnet.
2
Aus dem fünften Peanoaxiom motiviert man ein wichtiges Beweis- und
Definitionsverfahren.
0.3.1.1 Definition durch Rekursion
Das Definitionsverfahren nennt man rekursiv und man definiert durch
Angabe einer Rekursionsvorschrift. Dieses Verfahren kommt zum Einsatz wenn beliebig viele Objekte definiert werden sollen, von denen ein
jedes durch eine natürliche Zahl eindeutig bestimmt werden kann. Man
definiert zunächst einen Rekursionsanfang (RA), indem das erste Objekt ausdrücklich angegeben wird. Dann nimmt man im Rekursionsschritt (RS) an, dass ein n-tes Objekt schon definiert ist und definiert
das (n + 1)-te Objekt. Der Trick hierbei ist, dass durch die explizite
Angabe des ersten Objektes, ein konkretes Objekt vorliegt, welches als
n-tes Objekt benutzt werden kann. Damit erhält man dann durch Anwendung des Rekursionsschritts das zweite konkrete Objekt, auf das
sich wieder der Rekursionsschritt anwenden lässt und so weiter. Das
fünfte Peanoaxiom garantiert nun, dass jedes Objekt erreicht wird, das
durch die Rekursionsvorschrift definiert ist.
Beispielsweise könnte man das Ergebnis sb des Hinzuzählens einer natürlichen Zahl b zu einer natürlichen Zahl a definieren wollen.
D 20
Dann definiert man über b den Rekursionsanfang mit:
s1 := a + 1 := f(a),
und unter der Annahme sb = a + b sei bereits definiert, legt man den
Rekursionsschritt fest:
sb+1 := a + f(b) := f(a + b).
2
5 + 3 lässt sich dann wie folgt berechnen:
5+3
= 5 + f(2)
(D 18.1)
= f(5 + 2)
(D 20 Rekursionsschritt)
= f(5 + f(1))
(D 18.1)
= f(f(5 + 1))
(D 20 Rekursionsschritt)
(D 20 Rekursionsanfang oder D 18.2)
= f(f(f(5)))
= f(f(6))
(D 18.1)
= f(7)
(D 18.1)
= 8
(D 18.1)
Repetitorium
10
lineare Algebra
0 Präliminarien
D 21
Zahlen
Nun könnte man noch definieren, dass sb = a + b Summe von a und
b heißt.
2
Da sb auf die Nachfolgerfunktion zurückgeführt wird und jede natürliche Zahl einen Nachfolger hat P 17.2 ist die Existenz von sb gesichert. Da jede natürliche Zahl genau einen Nachfolger hat P 17.4 ist sb
eindeutig. Damit könnte man jetzt noch die wohldefiniere zweistellige
Operation (s. D 10)
D 22
+ : N × N → N, (a, b) 7−→ a + b
festlegen und ihr den Namen Addition geben.
2
0.3.1.2 Vollständige Induktion
Das aus dem fünften Peanoaxiom resultierende Beweisverfahren wird
vollständige Induktion über eine Variable n aus N genannt und liefert eine Aussage über beliebig viele natürliche Zahlen mit endlichen
Mitteln. Hierbei zeigt man im sogenannten Induktionsanfang, dass eine Aussage für eine bestimmte natürliche Zahl z.B. der 1 gilt.
Dann setzt man in der Induktionsannahme voraus, dass die Aussage
für ein beliebiges Element n aus N gilt.
Um dann im Induktionsschritt zu zeigen, dass die Aussage für n+1
gilt (unter der Voraussetzung, dass die Induktionsannahme gültig ist).
Da n beliebig ist und nur während des Induktionsschrittes fixiert wird,
kann man statt n die Zahl aus dem Induktionsanfang einsetzen für die,
die Gültigkeit der Aussage explizit bewiesen wurde. Dann gilt aber wegen des Induktionsschrittes die Aussage auch für den Nachfolger des
Induktionsanfangs. Gilt die Aussage für den Nachfolger des Induktionsanfangs, dann gilt sie wegen des Induktionsschrittes auch für den
Nachfolger des Nachfolgers des Induktionsanfangs und so weiter und so
fort. Und mit P 17.5 ist sichergestellt, dass die Aussage für alle natürlichen Zahlen ab dem Induktionsanfang gültig ist.
Man kann beispielsweise das Assoziativgesetz
a + (b + c) = (a + b) + c für alle a, b, c ∈ N
für die oben definierten Addition mittels vollständiger Induktion über
c beweisen.
Der Induktionsanfang sei 1 es muss also gezeigt werden, dass
(IA)
a + (b + 1) = (a + b) + 1
gilt.
a + (b + 1)
= a + f(b)
(D 20 Rekursionsanfang)
= f(a + b)
(D 20 Rekursionsschritt)
(D 20 Rekursionsanfang)
= (a + b) + 1
Repetitorium
11
lineare Algebra
0 Präliminarien
Zahlen
Also ist (IA) wahr. Sei nun
(IV)
a + (b + c) = (a + b) + c
für ein beliebig gewähltes c als gültig vorausgesetzt.
Im Induktionsschritt versucht man zu zeigen, dass die Aussage auch für
c + 1 gültig ist, also
(IS)
a + (b + (c + 1)) = (a + b) + (c + 1).
a + (b + (c + 1))
= a + (b + f(c))
(D 20 Rekursionsanfang)
= a + f((b + c))
(D 20 Rekursionsschritt)
= f(a + (b + c))
(D 20 Rekursionsschritt)
= f((a + b) + c)
(wegen (IV))
= (a + b) + f(c)
(D 20 Rekursionsschritt)
(D 20 Rekursionsanfang)
= (a + b) + (c + 1)
Also ist (IS) bewiesen unter der Voraussetzung, dass (IV) gültig ist.
Wegen (IA) gilt die zu beweisende Aussage für c = 1, mit [IS] gilt sie
dann aber auch für c = 2 und wegen P 17.5 gilt sie für alle c ∈ N.
Mittels der Menge N kann man den Begriff der endlichen bzw. unendlichen Menge M für die Bedürfnisse dieses Exzerpts präzisieren.
D 23.1
Ist M die leere Menge oder existiert ein n aus den natürlichen Zahlen
und lassen sich die Elemente von M mit den natürlichen Zahlen von 1
bis n abzählen, also M = {m1 , . . . , mn }, dann ist M endlich.
D 23.2
Ist M eine endliche Menge, dann heißt das n ∈ N im Sinne von D 23.1
die Kardinalzahl oder auch die Kardinalität von M. Man schreibt
formal n =: |M| und setzt |∅| := 0.
Eine Menge heißt unendlich, wenn sie nicht endlich ist.
2
Mit dieser Begriffsbildung und der Addition der natürlichen Zahlen
lässt sich nun zeigen, dass
D 23.3
S 6.1
S 6.2
sowohl die Vereinigung als auch der Durchschnitt zweier endlichen Mengen A, B endlich ist.
Es gilt der Zusammenhang |A ∪ B| = |A| + |B| − |A ∩ B|
2
D 24
Die Menge aller Permutationen (D 16) der Zahlen von 1 bis n wird
formal mit Sn := S(Nn ) bezeichnet.
2
S7
Sn ist endlich und enthält n · (n − 1) · · · · · 2 · 1 Permutationen.
2
Der Beweis |Sn | = n · (n − 1) · · · · · 2 · 1 kann per vollständiger Induktion
über n geführt werden. Man kann auch einen eher informellen Beweis
führen, der durchsichtiger ist als der Induktionsbeweis. Nimmt man an,
dass n-Stellen zur Verfügung stehen etwa (−1 , −2 , −3 , . . . , −n ) um die
n-Elemente von Nn zu verteilen, dann hat man offensichtlich für die
Repetitorium
12
lineare Algebra
0 Präliminarien
D 25
Zahlen
erste Zahl n Möglichkeiten sie auf eine der Stellen zu verteilen. Für die
zweite Zahl bleiben für jede der n Möglichkeiten der ersten Zahl n − 1
Möglichkeiten auf eine der verbleibenden Stellen verteilt zu werden, so
dass es insgesamt n · (n − 1) Möglichkeiten zur Verteilung der ersten
beiden Zahlen gibt. Für die dritte Zahl gibt es dann (n−2) Verteilungsmöglichkeiten je n · (n − 1) Möglichkeiten der ersten beiden Zahlen, also
insgesamt n · (n − 1) · (n − 2) Möglichkeiten die ersten drei Zahlen auf n
Stellen zu verteilen. Dies lässt sich bis zur n-ten Zahl fortsetzen wobei
für jede weitere Zahl immer eine Stelle weniger je Anzahl der vorangegangenen Möglichkeiten zur Verfügung steht. Insgesamt gibt es also
die Behaupteten n · (n − 1) · · · · · 2 · 1 Möglichkeiten die Zahlen 1 bis n
anzuordnen. Dieser Beweis lässt sich im Übrigen auf eine Menge aus n
beliebigen Objekten verallgemeinern. Abkürzend definiert man:
Das Produkt der Faktoren von 1 bis n heißt Fakultät von n und wird
formal mit n! := 1 · · · · · n bezeichnet.
2
0.3.2 Komplexe Zahlen
Motivieren lässt sich die Einführung der komplexen Zahlen durch den
Wunsch auch Gleichungen wie z.B. x2 + 1 = 0 lösen zu können, die
wegen x2 + 1 = x2 + 12 > 0 in R keine Lösung haben kann. Man kann
durch die Erweiterung der reellen Zahlen auch der gerade genannten
Gleichung eine Lösung zuordnen.
D 26
Man definiert auf der Menge aller Paare, deren Komponenten aus den
reellen Zahlen sind, eine Addition
(a, b) ⊕ (a 0 , b 0 ) := (a + a 0 , b + b 0 ) =: (a, b) + (a 0 , b 0 )
und eine Multiplikation
(a, b) (a 0 , b 0 ) := (aa 0 − bb 0 , ab 0 + ba 0 ) =: (a, b)(a 0, b 0 )
und nennen diese Menge C bzw. Menge der komplexen Zahlen.
2
Da (a, 0)(a , 0) = (aa , 0) und (a, 0) + (a , 0) = (a + a , 0) gilt, kann
man (a, 0) und (a 0 , 0) mit den reellen Zahlen a und a 0 identifizieren
und mit R = {(a, 0) | a ∈ R} ⊂ C die komplexen Zahlen als Erweiterung
der reellen betrachten.
0
D 27
S 8.1
S 8.2
0
0
0
Man definiert für gewöhnlich i := (0, 1) ∈ C und nennt diese komplexe
Zahl imaginäre Einheit.
2
Damit kann der Satz formuliert werden, dass
zu jeder komplexen Zahl z zwei eindeutig bestimmte reelle Zahlen a, b
existieren mit der Eigenschaft z = a + bi = (a, 0) + (b, 0)(0, 1) = (a, b).
Benutzt man diese eindeutige Darstellung kann weiter gezeigt werden
z + z 0 = (a + bi) + (a 0 + b 0 i) = (a + a 0 ) + (b + b 0 )i
Repetitorium
13
lineare Algebra
0 Präliminarien
Zahlen
zz 0 = (a + bi)(a 0 + b 0 i) = (aa 0 + bb 0 ) + (ab 0 + ba 0 )i.
2
D 28
Dadurch ist das Rechnen mit komplexen Zahlen in gewohnte Bahnen
gelenkt, und folgende Definition motiviert:
Stellt man eine komplexe Zahl in der Form z = a + bi mit a, b ∈ R dar,
dann heißt a der Realteil von z und man definiert a =: Re z. Weiter
heißt b der Imaginärteil von z und man definiert b =: Im z. Man sagt
z ist reell falls der Imaginärteil von z Null ist. Schließlich heißt z rein
imaginär falls der Realteil von z Null ist.
2
|b|
0.3.2.1 Geometrische Betrachtungen
Im
Da C mit der Menge R2 übereinstimmt können
z
die komplexen Zahlen als Punkte in der Zeiche|
nebene gedeutet werden. Man spricht dabei von i
|z
der komplexen Ebene oder auch von der Gaußϕ |a|
schen Zahlenebene [Lex00, S. 325]. Wobei man
Re
1
die Abszisse als reelle Achse bezeichnet und die
komplexe Ebene
Ordinate als imaginäre Achse. Unter Zuhilfenahme des Satzes des Pythagoras lässt sich das Quadrat der Hypotenuse z2 eines rechtwinkligen Dreiecks als die Summe der quadrierten
Katheten a2 , b2 darstellen.
D 29
Hiervon motiviert kann man definieren, dass
für eine komplexe Zahl z die Wurzel aus der Summe des quadrierten
Imaginärteils und des quadrierten Realteils der Betrag von z heißt, also
√
|z| = a2 + b2 mit z = a + bi ∈ C.
2
In dem oben angegebenen Dreieck 0za kann vermöge elementarer Trigonometrie der Kosinus und der Sinus von ϕ mit dem Real– und Imaginärteil von z in Verbindung gebracht werden. Denn es gilt
cos ϕ =
sin ϕ =
D 30
Ankathete
Hypotenuse
=
Gegenkathete
Hypotenuse
a
|z|
=
⇒ a = |z| cos ϕ,
b
|z|
⇒ b = |z| sin ϕ.
Damit lässt sich die Darstellung in Polarkoordinaten einer komplexen
Zahl z definieren
z = |z|(cos ϕ + i sin ϕ)
2
Repetitorium
14
lineare Algebra
0 Präliminarien
Zahlen
Spiegelt man eine komplexe Zahl
z = a + bi ∈ C
an der reellen Achse, dann heißt die
gespiegelte Zahl
z̄ = a − bi
die konjugiert komplexe Zahl von z.
Die Summe zweier komplexer Zahlen
z, z 0 lässt sich geometrisch ermitteln
indem man über den beiden Strecken
0z, 0z 0 ein Parallelogramm errichtet
und in diesem von der 0 ausgehend die
Diagonale bildet.
i
Im
z
Re
1
z̄
konjugiert komplex
Im
z + z0
i
0
z
z0
Re
1
komplexe addition
S 9.1
S 9.2
0
ϕ
+
ϕ
Stellt man das Produkt zweier komplexer
Im
Zahlen in der Polarform dar
0
0
0
0
zz 0
zz = |z||z |(cos ϕ + i sin ϕ)(cosϕ + i sin ϕ )
dann folgt mit den Additionstheoremen des
Sinus und Kosinus
z
i
zz 0 = |z||z 0 | (cos(ϕ + ϕ 0 ) + i sin(ϕ + ϕ 0 ))
z0
Das Produkt kommt also zustande indem
ϕ0
ϕ
man die beiden Winkel ϕ und ϕ 0 aufsum0
Re
1
miert und das Produkt der Beträge von z
komplexe Multiplikation
und z 0 bildet.
Zum Abschluss dieses Abschnitts noch ein paar Folgerungen zum Rechnen mit komplexen Zahlen.
Das Quadrat der komplexen Einheit ist −1.
Das konjugiert Komplexe einer konjugiert komplexen Zahl ist die komplexe Zahl selbst.
S 9.3
Das konjugiert Komplexe einer Summe zweier komplexer Zahlen ist
gleich der Summe des jeweiligen konjugiert Komplexen dieser beiden
komplexen Zahlen.
S 9.4
Das konjugiert Komplexe eines Produkts zweier komplexer Zahlen ist
gleich dem Produkt des jeweiligen konjugiert Komplexen dieser beiden
komplexen Zahlen.
S 9.5
Ist eine komplexe Zahl nicht Null, dann ist auch das konjugiert Komplexe dieser Zahl nicht Null, und das konjugiert Komplexe des Kehrwerts
dieser komplexen Zahl ist gleich dem Kehrwert des konjugiert Komplexen dieser Zahl.
S 9.6
Das Produkt einer komplexen Zahl und ihrem konjugiert Komplexen
Repetitorium
15
lineare Algebra
0 Präliminarien
Der Körperbegriff
ist identisch mit dem quadrierten Betrag dieser komplexen Zahl und
somit eine reelle Zahl6 .
S 9.7
S 9.8
S 9.9
S 9.10
Eine komplexe Zahl ist gleich ihrem konjugiert Komplexen genau dann,
wenn der Imaginärteil Null ist.
Der Betrag einer komplexen Zahl ist stets nicht negativ und Null genau
dann, wenn die komplexe Zahl selbst Null ist.
Der Betrag eines Produktes zweier komplexer Zahlen ist identisch mit
dem Produkt der jeweiligen Beträge dieser komplexer Zahlen.
Der Betrag einer komplexen Zahl ist gleich dem Betrag des konjugiert
Komplexen dieser Zahl.
2
0.4 Der Körperbegriff
Der Körperbegriff definiert eine Struktur, die das aus der Schule gewohnte Rechnen mit rationalen und reellen Zahlen formalisiert und
verallgemeinert. Dies hat den Vorteil, dass das „Rechnen” systematischer (logischer) Untersuchungen zugänglich wird, und dass sich das
wesentliche des Rechnens auch auf andere Mengen als die rationalen
und reellen Zahlen übertragen lässt. So kann man beispielsweise mit
geeigneten Definitionen für die Addition und Multiplikation auf der
Menge {0, 1} rechnen wie auf der Menge der rationalen Zahlen.
D 31
Ein Körper K ist ein Tripel (K, +, ·) bestehend aus einer Menge K, einer
zweistelligen Operation + auf K (s. D 10) und einer zweistelligen Operation · auf K. Die Operation + heißt Addition und · Multiplikation.
K 31.1 Von der Menge K wird gefordert, dass sie wenigstens zwei Elemente enthält.
K 31.2 Bezüglich beider Operationen gilt sowohl das Kommutativgesetz als auch das Assoziativgesetz.
K 31.3 Bezüglich der Multiplikation kann ein Distributivgesetz formuliert werden, es ist also egal ob zuerst die Summe zweier Elemente
a, b aus K gebildet wird, die dann mit einem weiteren Element c
aus K multipliziert wird; oder ob zuerst die beiden Produkte von
c und a sowie von c und b gebildet werden, die dann aufsummiert
werden.
K 31.4 Es existiert bezüglich beider Operationen ein neutrales Element,
so dass alle Paare aus K × K, bestehend aus einem beliebigen
Element k und dem jeweiligen neutralen Element, auf k abgebildet
werden.
Damit kann ein komplexer Nenner eines Bruchs durch erweitern mit dem konjugiert Komplexen des Nenners stets reell gemacht werden.
6
Repetitorium
16
lineare Algebra
0 Präliminarien
Der Körperbegriff
K 31.5 Es existiert bezüglich beider Operationen ein inverses Element,
so dass alle Paare aus K × K, bestehend aus einem beliebigen Element k und dem jeweiligen inversen Element, auf das jeweilige
neutrale Element abgebildet werden. Hierbei muss allerdings das
neutrale Element der Addition von der multiplikativen Inversion ausgeschlossen werden. Da die Existenz eines multiplikativen
inversen zum neutralen Element der Addition es ermöglichte, widersprüchliche Sätze aus dem Körperbegriff abzuleiten.
S 10
S 11
2
Indem man annimmt es gäbe je zwei Elemente in K mit den Eigenschaften des neutralen Elements der Addition bzw. Multiplikation7 und des
additiven bzw. multiplikativen Inversen8 lässt sich zeigen, dass
das neutrale Element der Addition bzw. Multiplikation sowie das jeweilige additive bzw. multiplikative Inverse eindeutig bestimmt sind. 2
Unter Zuhilfenahme des Axioms K 31.1 kann man ableiten, dass
das neutrale Element der Addition und das neutrale Element der Multiplikation zwei verschiedene Elemente aus K sind.
2
Um die Verbindung zum gewohnten Rechnen herzustellen, ist es sinnvoll noch einige Benennungen vorzunehmen.
D 32.1
Das eindeutig bestimmte neutrale Element der Addition heißt Null und
wird formal mit 0 bezeichnet.
D 32.2
Das eindeutig bestimmte neutrale Element der Multiplikation heißt
Eins und wird formal mit 1 bezeichnet.
Das für ein Element k aus K eindeutig bestimmte additive Inverse heißt
das Negative von k und wird formal mit −k bezeichnet.
Das für eine Element k aus K eindeutig bestimmte multiplikative Inverse
2
heißt das Reziproke von k und wird formal mit k1 bezeichnet.
D 32.3
D 32.4
D 33
Körper lassen sich definieren auf der Menge der rationalen, reellen, komplexen Zahlen sowie auf den Mengen Fp := {0, . . . , p − 1} wobei p eine
Primzahl ist. Die Addition bzw. Multiplikation wird auf Fp als Rest der
Division des Ergebnisses der jeweiligen Operation auf den natürlichen
Zahlen und der Primzahl p definiert.
In diesem Zusammenhang führt man den Begriff der Charakteristik
eines Körper ein. Existiert eine natürliche Zahl n, so dass das n-Fachen
des neutralen Elements der Multiplikation das neutrale Element der
Addition ergibt, dann hat der Körper die Charakteristik n anderenfalls
0.
2
7
8
für alle k ∈ K
für ein k ∈ K
Repetitorium
17
lineare Algebra
0 Präliminarien
D 34
Der Körperbegriff
Im Anschluss an diese Begriffsbildung kann man zeigen, dass n stets
eine Primzahl ist, indem man die Annahme zum Widerspruch führt, es
gäbe ein Produkt dessen Faktoren größer als Eins sind, das n ergibt
und die gerade genannten Eigenschaft hat [Jän03, S. 37 f.].
Der Begriff des Körpers lässt sich noch deutlich kompakter definieren
indem der Begriff der Gruppe eingeführt wird.
Eine Gruppe ist ein Paar (G, ?), dass aus einer Menge G und einer
Operation ? : G × G → G besteht, die den folgenden Axiomen genügen:
G 34.1 Bezüglich ? gilt das Assoziativgesetz.
G 34.2 Es gibt ein Element g̃ mit dem alle Elemente aus G auf sich
selbst abgebildet werden (g ? g̃ = g).
G 34.3 Es gibt zu jedem Element g aus G ein Element ḡ aus G so dass
g und ḡ auf g̃ abgebildet werden (g ? ḡ = g̃)
g̃ wird analog zur Körperdefinition neutrales Element genannt und ḡ
als Inverses von g bezeichnet.
2
D 35
Sei G = (G, ?) ein Gruppe. G heißt kommutative oder auch abelsche
Gruppe genau dann, wenn ? kommutativ ist.
2
Nun könnte man einen Körper als Tripel (K, +, ·) definieren, das bezüglich der Paare (K, +) und (K\{0}, ·) abelsche Gruppe bildet mit einer
Menge K, die wenigstens zwei Elemente enthält, und dessen Operation
+ und · distributiv sind.
0.4.1 Rechnen im Körper
S 12
S 13.1
S 13.2
Im folgenden sei K = (K, +, ·) ein Körper und a, b, c, d, a1, . . . , an sind
Elemente aus diesem. Außerdem sind n und m Elemente der natürlichen Zahlen.
Da es zu weit führen würde die Begriffe Beklammerung und Reihenfolge formal zu präzisieren, seien hier die Verallgemeinerung des
Assoziativ- und Distributivgesetzes genannt, ohne die Beweismöglichkeit mit eingeführten Begriffen.
Das Assoziativ und Distributivgesetz der Addition bzw. Multiplikation
gilt für endlich viele Elemente aus K.
2
Mit K 31.4, 31.3 folgt, dass das Produkt aus einem beliebig und dem
neutralen Element der Addition stets das neutrale Element der Addition
ergibt.
Aus K 31.5, 31.2 lässt sich die Kürzungsregel ableiten. D.h. sind die
beiden Produkte von a und c sowie von b und c identisch, und ist
c nicht das neutrale Element der Addition, dann sind auch a und b
identisch.
Repetitorium
18
lineare Algebra
0 Präliminarien
Der Körperbegriff
S 13.3
Das K nullteilerfrei ist kann man vermöge S 13.1, 13.2 zeigen. D.h.
unter der Annahme, dass das Produkt von a und b das neutrale Element
der Addition ist folgt, dass a oder b mit dem neutralen Element der
Addition identisch ist.
2
D 36
Definiert man nun noch die Differenz von a und b mit a−b := a+(−b);
wobei a der Minuend und b der Subtrahend heißt.
2
Dann lassen sich die gewohnten Vorzeichenregeln der Addition und Multiplikation ableiten.
S 14.1
Mit K 31.5, 31.2 lässt sich ableiten, dass das Negative vom Negativen
von a, a selbst ist.
S 14.2
Das Negative der Summe von a und b ist mit der Differenz vom negativen von a und b identisch, wie sich unter Zuhilfenahme von D 36,
K 31.5, S 12 zeigen lässt.
Per Definitionem D 36 gilt, dass die Differenz aus dem neutralen Element der Addition und einem Element aus K das Negative dieses Elements ist.
Das Produkt aus a und −b ist identisch mit dem Produkt aus −a und
b sowie mit dem Negativen des Produktes von a und b, wovon man
sich mit K 31.5, 31.3 und S 13.1 überzeugen kann.
Mit dem gerade formulierten Satz S 14.4 und S 14.1 gilt, dass das Produkt von zwei negativen Elementen gleich dem Produkt von diesem
beiden Elementen ist.
2
Um die Regeln des Bruchrechnens abzuleiten muss zunächst festgelegt
werden was ein Bruch ist.
S 14.3
S 14.4
S 14.5
D 37
Die Begriffe Produkt und Reziproke lassen sich weiterentwickeln zum
Quotienten von a und b, der als ab definiert ist durch das Produkt von
a und dem Reziproken von b. Elemente von K der Form ab heißen auch
Brüche in K. a heißt Zähler und b Nenner .
2
Nenner sind im Folgenden stets vom neutralen Element der Addition
verschieden.
S 15.1
Mit der gerade durchgeführten Definition und der Kürzungsregel folgt,
dass der Quotient von a und b genau dann mit dem Quotienten von c
und d identisch ist, wenn das Produkt von a und b mit dem von b und
c identisch ist.
S 15.2
Ein Bruch ist erweiterbar, denn der Quotient von a und dem neutralen
Element der Multiplikation ist a selbst, und der Quotient von a und a
ist das neutrale Element der Multiplikation.
S 15.3
Mit den Vorzeichenregeln ergibt sich, dass das Negative eines QuotienRepetitorium
19
lineare Algebra
0 Präliminarien
S 15.4
S 15.5
S 15.6
Der Körperbegriff
ten von a und b identisch ist mit dem Quotienten von negativem a und
b bzw. mit dem Quotienten von a und negativem b.
Das Produkt der Quotienten von a und b sowie von c und d ist gleich
dem Quotienten der Produkte von a und c sowie von b und d. Dies
lässt sich mit D 37, S 12 ableiten.
Die Summe zweier Quotienten von a und b sowie von c und d ist
identisch mit dem Quotienten von der Summe der Produkte von a und
d sowie von b und c und dem Produkt von b und d, was sich durch
geeignete Erweiterungen, das Distributivgesetz und der Definition des
Quotienten zeigen lässt.
Mit S 15.1, 15.2, 12 kann man zeigen, dass der Quotient zweier Quotienten von a und b sowie von c und d identisch ist mit dem Quotienten
der beiden Produkte von a und d sowie von b und c.
2
Um Additionen und Multiplikationen mit beliebig vielen Summanden
bzw. Faktoren in kompakter Weise aufschreiben zu können, führt man
das Summen und Produktzeichen ein.
0.4.1.1 Summenzeichen
D 38
D 39
P
Für die Summe a1 +· · ·+an wird die Bezeichnung9 n
i=1 ai eingeführt.
Wobei i Summationsindex oder auch Summationsbuchstabe heißt.
Die 1 und das n heißen untere bzw. oberer Summationsgrenzen. 2
Neben dieser intuitiven Definition des Summenzeichens gibt es noch
eine alternative rekursive Definition (s. 0.3.1.1) des Summenzeichens,
die vor allem für Induktionsbeweise nützlich sind, die Eigenschaften
von Summen belegen.
P0
Pk+1
Pk
+ ak+1 für alle k 6 n − 1
2
a
:=
0,
a
:=
a
i
i
i
i=1
i=1
i=1
Im Umgang mit Summen stellte sich die Verallgemeinerung von
P0
Pn
i=1 ai := 0 zu
i=m ai := 0 für alle n < m
als eine nützliche Konvention heraus.
Eine weitere Technik, die gelegentlich hilfreich in Beweisen eingesetzt
werden kann, ist die sogenannte Indexverschiebung
Pn
Pn+m
i=1 ai =
i=m+1 ai−m für alle m ∈ Z.
Und unter Ausnutzung des allgemeinen Kommutativgesetzes S 12 kann
man eine Summe auch von „Hinten nach Vorne” abarbeiten
Pn
Pn
a
=
i
i=1
i=1 a(n+1)−i
Es lassen sich einige naheliegende Rechenregeln für Summen ableiten,
deren Beweise in der Regel Induktionsbeweise über die obere Summationsgrenze sind. Der Induktionsanfang ist Null, so dass der Rekursions9
lies: Summe von i gleich eins bis n über ai
Repetitorium
20
lineare Algebra
0 Präliminarien
S 16.1
S 16.2
S 16.3
S 16.4
Der Körperbegriff
anfang der rekursiven Definition des Summenzeichens D 39 angewendet
P
werden kann. Im Induktionsschritt wird dann die Summe n+1
i=1 ai auf
Pn
die Summe i=1 ai + an+1 zurückgeführt, so dass die Induktionsvoraussetzung in die Argumentation eingehen kann.
Seien nun n, m ∈ N0 , a, a1 , . . . , an , . . . , an+m , b1 , . . . , bn ∈ K.
Eine Summe lässt sich in mehrere Summen zerlegen10
Pn+m
Pn
Pn+m
i=1 ai =
i=1 ai +
i=n+1 ai .
Eine Summe über eine Addition lässt sich zerlegen in Summen über die
jeweiligen Summanden der Addition
Pn
Pn
Pn
i=1 (ai + bi ) =
i=1 ai +
i=1 bi .
Ebenso kann man die Summe über eine Differenz in eine Summe über
den Minuend und eine über den Subtrahend zerlegen.
Pn
Pn
Pn
i=1 (ai − bi ) =
i=1 ai −
i=1 bi .
Es gilt das allgemeine Distributivgesetz
Pn
Pn
a i=1 ai = i=1 aai .
2
Gelegentlich stößt man auf Summen deren Summanden alle übereinstimmen. Für diese Summen führt man in der Regel einen eigenen Begriff ein.
D 40
Für ein n aus den ganzen Zahlen und ein a aus einem Körper definiert man das n-Fache von a und schreibt na gemäß der folgenden
Fallunterscheidung
Fall n > 0:
Pn
D 39
· · + a}
0a := 0, (n + 1)a := na + a −−−→ na = i=1 a = a
| + ·{z
n−Summanden
Fall n < 0:
na := (−n)(−a) =
S 17.1
S 17.2
S 17.3
P−n
i=1 (−a)
= −a
· · + −a}
| + ·{z
n−Summanden
2
Es lassen sich die nachstehenden Rechenregeln über Vielfache für alle
m, n aus den ganzen Zahlen ableiten.
Das n-Fache von 0 ist 0, das 1-Fache von a ist a und das −1-Fache von
a ist das negative von a.
Das (n + m)-Fache von a ist die Summe des n-Fachen von a und mFachen von a.
Das (nm)-Fache von a ist das n-Fache vom m-Fachen von a.
Natürlich können zwei geeignet indizierte Summen mit geeigneten Summanden
auch zusammengezogen werden.
10
Repetitorium
21
lineare Algebra
0 Präliminarien
Der Körperbegriff
S 17.4
Das n-Fache der Summe von a und b ist die Summe vom n-Fachen von
a und dem n-Fachen von b.
S 17.5
Das n-Fache des Produktes von a und b ist sowohl das Produkt des
n-Fachen von a und b als auch das Produkt von a und dem n-Fachen
von b.
2
0.4.1.2 Produktzeichen
D 41
Für das eindeutig bestimmte und von seiner Klammerung unabhängige
Produkt a1 · · · ·· an ∈ K führt man das Produktzeichen ein, indem man
setzt11
Qn
i=1 ai := a1 · · · · · an
2
D 42
Auch hier lässt sich eine nützliche rekursive Definition (s. 0.3.1.1) angeben
Q0
Qk+1
Qk
i=1 ai := 1,
i=1 ai :=
i=1 ai · ak+1 für alle k 6 n − 1,
Q0
2
und in Verallgemeinerung von i=1 ai := 1
Qn
i=m ai := 1 für alle n < m
festlegen.
Selbstverständlich lässt sich auch hier eine Identität zur Indexverschiebung formulieren
Qn
Qn+m
a
=
i
i=1
i=m+1 ai−m für alle n ∈ Z
und das Produkt von „Hinten nach Vorne” abarbeiten
Qn
Qn
i=1 ai =
i=1 an+1−i .
S 18.1
S 18.2
Mit einer analogen Vorgehensweise wie bei den Summen können die
Rechenregeln über Produkte bewiesen werden. Auch hier ist wieder
m, n ∈ N und a1 , . . . , an , . . . , am+n , b1 , . . . , bn ∈ K vorausgesetzt.
Ein Produkt lässt sich in mehrere Produkte zerlegen
Qn+m
Qn+m
Qn
i=1 ai =
i=n+1 ai .
i=1 ai
Ein Produkt über eine Multiplikation lässt sich zerlegen in Produkte
über die jeweiligen Faktoren des Produkts.
Qn
Qn
Qn
i=1 bi .
i=1 ai
i=1 (ai bi ) =
2
Analog zum n-Fachen eines Elements aus K, dem n-maligen aufsummierens dieses Elements, kürzt man das n-malige Multiplizieren eines
Elements aus K ab, indem man
Repetitorium
22
lineare Algebra
1 Vektorraumtheorie
D 43
die n-te Potenz von a als an rekursiv definiert durch
Qn
D 42
· · · a}
a0 := 1, an+1 := an · a −−−→ an = i=1 a = a
| · ·{z
n−Faktoren
für n ∈ N . Ist n ∈ Z und a 6= 0, dann definiert man die n-te Potenz
für n < 0 mit
0
an :=
1 −n
.
a
a heißt Basis und n der Exponent der Potenz an .
S 19.1
S 19.2
S 19.3
S 19.4
2
Ist n, m ∈ Z und sind a, b ∈ K ungleich Null für den Fall, dass n, m
kleiner als Null sind, dann gelten die folgenden Rechenregeln für Potenzen
Die n-te Potenz des neutralen Elements der Multiplikation ergibt das
neutrale Element der Multiplikation.
Die (n + m)-te Potenz von a ist identisch mit dem Produkt der n-ten
Potenz von a und der m-ten Potenz von a.
Die n-te Potenz der m-ten Potenz von a ist (nm)-te Potenz von a.
Die n-te Potenz des Produktes von a und b ist gleich dem Produkt der
n-ten Potenz von a und der n-ten Potenz von b.
2
1 Grundlagen der Vektorraumtheorie
Die im nachfolgenden entwickelten Begriffe und herausgearbeiteten Eigenschaft der Vektorraumtheorie erfahren erst in einem späteren Abschnitt, der lineare Gleichungssysteme und deren Lösbarkeit diskutiert,
ihre Motivation.
Auch der Vektorraum ist eine Struktur die altbekanntes abstrahiert.
Vektoren kommen erstmals in Newtons Philosophiae Naturalis Principia Mathematica im Jahre 1687 vor und werden als gerichtete Strecke
definiert. Da es neben den aus der Physik bekannten Vektoren noch eine
ganze reihe anderer (mathematischer) Objekte gibt, die einen Umgang
wie mit physikalischen Vektoren erlauben, führt man verallgemeinernd
den Begriff des Vektorraums ein, wobei die Elemente der Menge, auf
der eine Vektorraumstruktur definiert wird, Vektoren heißen.
Nach [Koe03] treten erstmals 1827 in August Ferdinand Möbius‘ „barycentrischen Calcul” mathematische Objekte in Erscheinung, die ein
Rechnen ähnlich wie mit Vektoren zulassen. Im Jahre 1844 erscheint
eine erste Fassung der Grassmannschen Ausdehnungslehre von Hermann Günther Grassmann, in der Begriffe entwickelt werden, die man
aus einem modernen Blickwinkel mit den Begriffen wie Vektorraum,
Skalarprodukt usw. in Verbindung bringen kann.
11
Lies: Produkt von i gleich 1 bis n über ai
Repetitorium
23
lineare Algebra
1 Vektorraumtheorie
D 44
Rechnen im Vektorraum
Sei K ein Körper. Ein Vektorraum V über K12 ist ein Tripel (V, +, ·)
bestehend aus der Menge V, der zweistelligen Operation + auf V und
der Operation · : K × V → V von K auf V. Die Operation + heißt
(Vektor)Addition und die Operation ·, in der K auf V operiert, heißt
Skalarmultiplikation.
V 44.1 Die Addition ist assoziativ und kommutativ.
V 44.2 Bezüglich der Addition existiert ein neutrales und ein inverses
Element.
V 44.3 Es besteht ein linkes Distributivgesetz, das besagt, dass das
Skalarprodukt aus der Summe zweier Skalare a, b und einem Vektor v identisch ist mit der Summe der beiden Skalarprodukte av
und bv.
Außerdem besteht noch ein rechtes Distributivgesetz, das besagt, dass das Skalarprodukt von einem Skalar a und der Summe
zweier Vektoren u und v identisch ist mit der Summe der beiden
Skalarprodukte au und av.
V 44.4 Die skalare Multiplikation ist assoziativ, d.h das Skalarprodukt
von dem Produkt zweier Skalare a, b und dem Vektor u ist identisch mit dem Skalarprodukt von dem Skalar a und dem Skalarprodukt bu.
V 44.5 Das Skalarprodukt des neutralen Elements der Multiplikation
des Körpers und einem Vektor ergibt den Vektor.
2
S 20
Da an die vektorielle Addition die gleichen Anforderungen gestellt werden wie an die Addition im Körper lässt sich hier analog die Eindeutigkeit des neutralen Elements und des jeweiligen inversen Elements der
Addition zeigen.
2
D 45.1
Was wiederum Anlass gibt zur Definition der Null13 als Bezeichnung
für das neutrale Element der Addition deren formale Darstellung auch 0
ist. Wobei zu beachten ist, dass die Null eines Vektorraums ein anderes
Objekt als die Null eines Körpers ist.
Auch heißt das additive Inverse eines Vektors v das Negative von v und
wird mit −v symbolisiert. Abkürzend definiert man wieder v − w :=
v + (−w) mit v, w ∈ V, die Differenz von v und w und bezeichnet v
als Minuend und w als Subtrahend.
2
D 45.2
12
13
man spricht auch von einem K-Vektorraum
Man spricht auch vom Nullelement oder dem Nullvektor
Repetitorium
24
lineare Algebra
1 Vektorraumtheorie
Rechnen im Vektorraum
1.1 Rechnen im Vektorraum
S 21
Wie bereits bemerkt ist die Addition eines Vektorraumes identisch mit
der eines Körpers. Es gelten also alle Aussagen über die Körperaddition
auch für die Vektoraddition. Also gilt das allgemeine Assoziativ- und
Kommutativgesetz für endlich viele Vektoren.
2
D 46
Auch lässt sich das n-Fache von v in V wieder rekursiv definieren mit
mv := 0 und (m + 1)v := mv + v und somit
Pn
mv = i=1 v = v| + ·{z
· · + v} .
n−Summanden
2
S 22.1
S 22.2
S 22.3
S 22.4
Die elementaren Rechenregeln über Summen lassen sich ebenso adaptieren wobei nun v1 , . . . , vn , . . . , vn+m aus V sind und a, a1, . . . , an ∈ K.
Summen über Vektoren lassen sich zerlegen
Pn+m
Pn
Pn+m
i=1 vi =
i=1 vi +
i=n+1 vi .
Eine Summe über eine Addition lässt sich in eine Addition von Summen
über die Summanden zerlegen
Pn
Pn
Pn
i=1 (vi + wi ) =
i=1 vi +
i=1 wi .
Eine Summe über eine Differenz lässt sich in eine Differenz der Summe
über den Minuend und der Summe über den Subtrahend zerlegen
Pn
Pn
Pn
i=1 (vi − wi ) =
i=1 vi −
i=1 wi .
Schließlich gilt auch ein allgemeines Distributivgesetz
P
Pn
Pn
Pn
a n
i=1 vi =
i=1 avi ,
i=1 ai v =
i=1 ai v.
2
In Anlehnung der Nullteilerfreiheit eines Körpers lässt sich die folgende
Aussage über Vektorräume formulieren.
S 23
S 24.1
S 24.2
Ein Skalarprodukt ist identisch mit dem Nullvektor genau dann, wenn
der Skalar oder der Vektor Null ist.
2
Analog zum Körper lassen sich die folgenden Rechenregeln für Vorzeichen und Vielfache ableiten.
Das Skalarprodukt des neutralen Elements der Addition eines Körpers
und eines beliebigen Vektors, ist das neutrale Element der Addition des
Vektorraums.
Das Negative des Negativen eines Vektors ist der Vektor selbst.
S 24.4
Das Negative einer Vektoraddition von v und w ist die Differenz von
−v und w.
Die Differenz von 0V und v ist das Negative von v.
S 24.5
Das n-Fache des Nullvektors ist der Nullvektor.
S 24.3
Repetitorium
25
lineare Algebra
1 Vektorraumtheorie
S 24.6
S 24.7
S 24.8
S 24.9
Rechnen im Vektorraum
Das −1-Fache eines Vektors ist das Negative dieses Vektors.
Das (n + m)-Fache eines Vektors ist gleich der Summe vom n und
m-Fachen dieses Vektors.
Das (nm)-Fache eines Vektors ist identisch mit dem n-Fachen des mFachen dieses Vektors.
Das m-Fache der Summe zweier Vektoren ist gleich der Summe des
jeweiligen m-Fachen dieser beiden Vektoren.
S 24.10
Das Skalarprodukt von dem m-Fachen eines Skalars und eines Vektors
ist identisch mit dem Skalarprodukt von dem Skalar und dem m-Fachen
des Vektors.
S 24.11
Das Skalarprodukt von a und dem Negativen eines Vektors v ist sowohl
gleich dem Skalarprodukt von negativem a und v als auch gleich dem
Negativen des Skalarprodukts von a und v.
Das Skalarprodukt von negativem Skalars und negativem Vektor ist
identisch mit dem Skalarprodukt von diesem Skalar und diesem Vektor.
Die Skalarprodukte zweier Vektoren mit dem gleichen Skalar sind identisch genau dann, wenn der Skalar Null ist oder wenn die beiden Vektoren identisch sind.
2
Einer der wichtigsten Vektorräume ist der n-dimensionale Spalten(!
a1
Vektor-)raum über K, dessen Namen sich von den Elemen.
ten der Menge ableitet, auf der er definiert ist. Die Vektoren v = ..
an
sind n-Tupel die als Spalte geschrieben werden, wobei die
a1 , . . . , an beliebige Elemente aus K sind. Analog zur Gleichheit von
n-Tupeln bezeichnet man zwei Spaltenvektoren als gleich, wenn sie in
jeder Komponente übereinstimmen.
S 24.12
S 24.13
D 47.1
Die Menge aller n-Tupel über K heißt Kn und wird formal definiert
!
a1
durch Kn := { ... | ai ∈ K für 1 6 i 6 n}
an
D 47.2
Weiter kann man eine als Addition bezeichnete Operation auf Kn komponentenweise definieren.
a1
..
.
an
!
b1
+
..
.
bn
!
a1 +b1
=
..
.
an +bn
!
D 47.3
Und schließlich lässt sich noch eine Operation von K auf Kn definieren
!
!
a1
aa1
die naheliegenderweise skalare Multiplikation ge.
..
.
nannt und ebenfalls komponentenweise ausgeführt a .. =
aan
an
wird.
2
S 25
Mit den Körpereigenschaften lässt sich zeigen, dass die Menge Kn mit
den gerade definierten Operationen, dem nebenstehenden Nullelement
Repetitorium
26
lineare Algebra
1 Vektorraumtheorie
Untervektorraum
und negativem Element eines beliebiges Element aus Kn , ein Vektor- 0Kn :=
raum über K ist.
01
..
.
0n
!
a1
, −
..
.
an
!
−a1
:=
..
.
−an
!
2
D 48
Der in S 25 konstruierte Vektorraum heißt der n-dimensionale Spalten(Vektor-)raum über K und wird mit Kn bezeichnet. Die Elemente der
zugrundeliegenden Menge Kn heißen n-dimensionale Spaltenvektoren
über K. Der Nullvektor wird auch (n-dimensionale) Nullspalte (über
K) genannt.
2
Offensichtlich sind die Teilmengen der reellen Zahlen(gerade), auf denen
sich ein Körper definieren lässt, ein Spezialfall der Menge Kn . Identifiziert man K1 mit K sind diese Körper auch (eindimensionale) Vektorräume. Da sich die Menge des Körper der komplexen Zahlen mit
der Menge der reellen Paare identifizieren lässt und diese Menge wiederrum ein Spezialfall der Menge Kn ist, bilden auch die Komplexen
Zahlen einen (zweidimensionalen) Vektorraum. Die Eigenschaft der Dimension eines Vektorraums wird im weiteren Verlauf noch präzisiert
und definiert.
Im weiteren dieses Abschnitts symbolisiert K einen Körper mit der
Menge K und V ein beliebiger Vektorraum über K auf der Menge V.
1.2 Untervektorraum
Möchte man mit einer nichtleeren Teilmenge U von V wie mit einem
Vektorraum arbeiten, muss diese abgeschlossen sein bezüglich der von
V induzierten Strukturen der Addition und Skalarmultiplikation.
D 49
U = (U, +, ·) mit U ⊂ V heißt Unter(vektor)raum 14 von V, wenn gilt
U 49.1 U ist nicht die leere Menge.
U 49.2 Für je zwei Vektoren aus U, ist auch die Summe dieser Vektoren
aus U.
U 49.3 Für einen Skalar aus K und einen Vektor aus U, ist auch deren
Skalarprodukt aus U.
2
S 26
Eine hierzu gleichwertige Formulierung ist:
Auf einer nichtleere Teilmenge U von V lässt sich genau dann ein Untervektorraum von V definieren, wenn für je zwei Vektoren aus U und
je zwei Skalare aus K auch die Summe der jeweiligen Skalarprodukte
aus U ist.
2
14
auch Teil(vektor)raum von V
Repetitorium
27
lineare Algebra
1 Vektorraumtheorie
Untervektorraum
S 27.1
Mit S 24.1, 24.6 folgt unmittelbar, dass auch der Nullvektor und zu jedem Vektor aus U auch sein Negatives in U liegt.
S 27.2
Mit der induzierten Addition und Multiplikation von V ist U ein Vektorraum dessen Nullvektor mit dem aus V übereinstimmt, und für jeden Vektor aus U ist das gebildete Negative mit dem in V gebildeten
Negativem identisch. Man sagt auch U trägt die induzierte Vektorraumstruktur.
2
D 50
Offensichtlich lassen sich auf den Teilmengen U = {0} und U = V
von V Unterräume definieren. Diese Unterräume heißen die trivialen
Unterräume von V , außerdem nennt man {0} den Nullraum von V 2
Im weiteren sei U ein Untervektorraum auf der Menge U. Jeder Untervektorraum von V wird künftig ohne weiteres als Vektorraum über K
aufgefasst.
Da in der Vektorraumtheorie Summen über Skalarprodukte eine wichtige Rolle spielen, ist es sinnvoll ihnen einen eigenen Namen zu geben.
Die (endliche) Summe von Skalarprodukten mit beliebigen Skalaren
Pn
i=1 ai vi mit n ∈ N, a1 , . . . , an ∈ K, v1 , . . . , vn ∈ V
D 51.1
heißt Linearkombination der verwendeten Vektoren und die verwendeten Skalare heißen Koeffizienten der Linearkombination.
D 51.2
D 51.3
S 28
Sind alle Koeffizienten einer Linearkombination Null, dann heißt die
Linearkombination trivial.
Ein Vektor heißt Linearkombination einer Menge von Vektoren, wenn
es eine Linearkombination dieser Vektoren gibt, die sich mit dem Vektor
identifizieren lässt. In diesem Falle sagt man auch v ist als Linearkombination der v1 , . . . , vn darstellbar.
2
Nun lässt sich eine Verallgemeinerung von S 26 formulieren.
Für beliebige Vektoren aus U, ist auch jede Linearkombination dieser
Vektoren aus U. (Beweis durch vollständige Induktion über die Anzahl
der Vektoren.)
2
Außerdem können mit Hilfe des Begriffs der Linearkombination Untervektorräume von V konstruiert werden. Bevor dieses mächtige Konstruktionswerkzeug eingeführt und untersucht wird, soll das Verhalten von Untervektorräumen bezüglich der Mengenoperationen Durchschnitt und Vereinigung und Differenz betrachtet werden.
Schneidet man die Mengen zweier Untervektorräume U, U 0 eines Vektorraumes, dann ist mit S 27.1 der Nullvektor aus dem Durchschnitt,
also ist dieser nicht leer. Per Definition des Durchschnitts D 5.1 sind
zwei Vektoren aus dem Durchschnitt insbesondere sowohl aus U als
auch aus U 0 und damit liegt auch die Summe dieser Vektoren sowohl
Repetitorium
28
lineare Algebra
1 Vektorraumtheorie
Untervektorraum
in U als auch in U 0 und damit auch im Durchschnitt. Analoges gilt für
das Skalarprodukt eines beliebigen Skalar mit einem Vektor aus dem
Durchschnitt.
Mit S 27.1 sieht man sofort, dass der Nullvektor nicht in U\U 0 liegt.
Ist U eine Teilmenge von U 0 oder U 0 eine Teilmenge von U, ist die
Vereinigung von U und U 0 entweder U oder U 0 , also ein Untervektorraum.
Ist weder U eine Teilmenge von U 0 noch U 0 eine von U, dann existiert
die Vektoren u ∈ U\U 0 und u 0 ∈ U 0 \U, und damit U∪U 0 ein Unterraum
ist muss gelten u + u 0 ∈ U ∪ U 0 . Wenn aber (u + u 0 ) aus U ist dann
müsste auch (u + u 0 ) − u = u 0 aus U sein und Analog müsste für
(u + u 0 ) ∈ U 0 auch (u + u 0 ) − u 0 = u aus U 0 sein. Beides widerspricht
aber der Voraussetzung u ∈ U\U 0 , u 0 ∈ U 0 \U und damit kann die
Summe von u und u 0 nicht in der Vereinigung von U und U 0 liegen.
Zusammengefasst gilt:
S 29.1
Auf der Schnittmenge der Mengen zweier Unterräume eines Vektorraumes lässt sich also ein Untervektorraum definieren15 .
S 29.2
Auf der Vereinigung der Mengen zweier Unterräume eines Vektorraums
lässt sich genau dann ein Unterraum definieren, wenn eine der Beiden
Teilmenge der anderen ist (⇒ sonst nicht).
Auf der Differenz der Mengen zweier Unterräume eines Vektorraums
lässt sich in keinem Falle ein Unterraum definieren.
2
Als Ersatz für die Vereinigung zweier Untervektorräume definiert man
die Menge
S 29.3
D 52
S 30
U + U 0 := {(u + u 0 ) ∈ V | u ∈ U, u 0 ∈ U 0 }
genannt die Summe von U und U 0
2
Da 0 ∈ U ∪ U 0 ist U + U 0 nicht leer und wegen
a1 (u1 + u10 ) + a2 (u2 + u20 ) = (a1 u1 + a2 u2 ) + (a1 u10 + a2 u20 ) ∈ U + U 0
folgt, dass sich ein Unterraum auf U + U 0 definieren lässt16 .
2
Ist jedes Element von U + U 0 eindeutig darstellbar, dann gilt (*) für
alle u aus U und u 0 aus U 0 dass u + u 0 = 0 die Identität u = u 0 = 0
Impliziert. Setzt man nun (*) und u ∈ U∩U 0 voraus, dann gilt u+u 0 = 0
mit u ∈ U, u 0 := −u ∈ U 0 und (*) ergibt u = u 0 = 0, also U ∩ U 0 ⊂ {0}.
Mit S 27.1 folgt dann dass U ∩ U 0 der Nullraum ist. Geht man nun von
der letzten Folgerung aus und möchte eine Vektor v aus U + U 0 auf zwei
Weisen u + u 0 , w + w 0 mit u, w ∈ U und u 0 , w 0 ∈ U 0 darstellen, dann
Analog kann man dies auch für den Schnitt einer Familie von Unterraummengen
zeigen
16
Dies lässt sich für Unterräumen U1 , . . . , Un mit n ∈ N verallgemeinern
15
Repetitorium
29
lineare Algebra
1 Vektorraumtheorie
S 31
D 53
Untervektorraum
folgt u−w = u 0 −w 0 und damit dass beide Seiten aus dem Durchschnitt
von U und U 0 sind. Was wiederum u−w = 0 = u 0 −w 0 , also u = w, u 0 =
w 0 impliziert. Damit ist jedes Element von U+U 0 eindeutig darstellbar.
In einem Satz zusammengefasst lautet dieser Ringschluss dann, dass für
die Untervektorräume U, U 0 eines Vektorraums V die folgenden Aussagen äquivalent sind.
(i)
⇐⇒ Jedes Element der Summe von U und U 0 ist eindeutig durch u+u 0
mit u ∈ U und u 0 ∈ U 0 darstellbar.
(ii)
⇐⇒ Ist die Summe von u ∈ U und u 0 ∈ U 0 Null, dann ist sowohl u
als auch u 0 Null.
(iii)
⇐⇒ Der Durchschnitt von U und U 0 ist der Nullraum.
2
Die Summe zweier Untervektorräume die eine (also alle) der Bedingungen aus S 31 erfüllen heißt direkte Summe17 und man schreibt
U ⊕ U 0 := U + U 0 .
S 32
U 0 heißt der zu U komplementäre Unterraum
2
Mit der nachfolgenden Begriffsentwicklung der linearen Hülle lässt sich
dann zeigen, dass U+U 0 der kleinste Untervektorraum ist, dessen Menge
U ∪ U 0 enthält.
Wie bereits angedeutet wird nun dargestellt wie mit Hilfe des Begriffs
der Linearkombination Untervektorräume von V konstruiert werden.
Es lässt sich nämlich zeigen, dass sich auf der Menge aller Linearkombinationen
P n
Lin(M) :=
i=1 ai vi | n ∈ N, ai ∈ K, vi ∈ M, i ∈ {1 6 i 6 n}
einer nichtleeren Teilmenge M von V stets einen Untervektorraum
von V definieren lässt der M enthält. Wegen der trivialen Linearkombination enthält Lin(M) wenigstens den Nullvektor, ist also nicht leer.
Unter Ausnutzung von S 22.2, des linken Distributivgesetzes V 44.3 und
der definitionsgemäßen Abgeschlossenheit der Addition eines Körpers
lässt sich die additive Abgeschlossenheit von Lin(M) zeigen. Schließlich
ist auch eine Skalarmultiplikation mit einer Linearkombination wieder
aus Lin(M). Ist der Skalar 0 ist das Skalarprodukt 0, also die triviale Linearkombination. Ist der Skalar nicht Null führt die Existenz des
Reziproken eines Skalars, die Kürzungsregel, V 44.5, der Umstand, dass
sich ein Faktor in eine Summe ziehen lässt und die definitionsgemäße Abgeschlossenheit der Körpermultiplikation zum Nachweis, dass die
Skalarmultiplikation mit einer Linearkombination wieder eine Linearkombination ist.
2
17
Diese Begriffsbildung lässt sich auf Unterräume U1 , . . . , Un mit n ∈ N ausdehnen
Repetitorium
30
lineare Algebra
1 Vektorraumtheorie
D 54
Untervektorraum
Legt man nun noch fest, dass die Linearkombination der Vektoren
der leeren Menge der Nullraum ist, also Lin(∅) := {0}, dann sind für
Lin(M) mit M ⊂ V die folgenden Bezeichnungen üblich.
Für eine Teilmenenge M von V heißt Lin(M) der von M erzeugte
Untervektorraum oder der von M aufgespannte Teilvektorraum von
V, manchmal auch die lineare Hülle von M in V.
Ist M = {v1 , . . . , vn } (n ∈ N0 ) dann definiert man
Lin(v1 , . . . , vn ) := Lin({v1 , . . . , vn })
und nennt diese den von den v1 , . . . , vn erzeugten Unterraum oder
den von den v1 , . . . , vn aufgespannten Teilraum von V
2
S 33
S 34.1
S 34.2
S 34.3
S 34.4
S 34.5
S 28 lehrt, dass jede Linearkombination von Vektoren die aus eine Unterraum sind in selbem liegen. Außerdem kann man zeigen, dass die
Vektoren, die einen Teilvektorraum erzeugen auch der Menge desselben angehören indem man für den i-ten Vektor der erzeugenden den
Koeffizienten der Linearkombination a1 v1 + · · · + an vn auf 1 setzt und
für die Übrigen auf 0.
Zusammenfassend kann man, die Transitivität der Teilmengenrelation
ausnutzend, für eine Teilmenge M und einen Untervektorraum U von V
bzw. V festhalten, dass M eine Teilmenge von U ist genau dann, wenn
2
die lineare Hülle von M auch Teilmenge von U ist18 .
Es lassen sich einige Rechenregeln zur linearen Hülle formulieren.
M, M 0 sind im Weiteren Teilmengen von V
Die lineare Hülle der leeren Menge lässt sich mit der linearen Hülle des
Nullvektors identifizieren.
Für eine beliebigen Vektor v aus V gilt Lin(v) = Kv := {av | a ∈ K}
Ist v aus M, dann ist v auch aus der lineare Hülle von M.
M ist Teilmenge der linearen Hülle von M.
Ist M Teilmenge von M 0 , ist auch die lineare Hülle von M Teilmenge
der linearen Hülle von M 0 .
S 34.6
M ist Untervektorraum von V gdw, M identisch ist mit der linearen
Hülle von M.
S 34.7
Die lineare Hülle der linearen Hülle von M ist identisch mit der linearen
Hülle von M.
Ist M eine Teilmenge der linearen Hülle von M 0 , dann ist die lineare
Hülle von M Teilmenge der linearen Hülle von M 0 .
2
0
Nun kann noch zur Summe von U und U nachgetragen werden, dass
ein beliebigen Vektor u aus U wegen u = u + 0 auch aus U + U 0 ist und
S 34.8
18
Den Fall M = ∅ nicht vergessen!
Repetitorium
31
lineare Algebra
1 Vektorraumtheorie
S 35
Erzeugendensystem
analoges gilt für einen Vektor aus U 0 , also gilt U ∪ U 0 ⊂ Lin(U ∪ U 0 ) ⊂
U + U 0 , da U + U 0 ein Unterraum ist. Umgekehrt entsteht jeder Vektor
v aus U + U 0 aus einer Linearkombination 1u + 1u 0 deren Vektoren aus
U ∪ U 0 sind, also sind die Vektoren aus U + U 0 aus der linearen Hülle
von U ∪ U 0 und somit gilt
für zwei Untervektorräume U, U 0 eines Vektorraums, dass
U + U 0 = Lin(U ∪ U 0 ).
2
1.3 Erzeugendensystem
D 55.1
D 55.2
D 55.3
D 56
S 36
Für eine Teilmenge von V, deren lineare Hülle den trivialen Unterraum
V erzeugt, führt man einen eigenen Namen ein.
Sei E eine Teilmenge von V. Ist die lineare Hülle von E identisch mit V,
dann heißt E Erzeugendensystem von V.
V heißt endlich erzeugt, falls ein endliches Erzeugensystem19 für V
existiert.
Man sagt V wird von den v1 , . . . , vn erzeugt, oder die v1 , . . . , vn erzeugen V , wenn {v1 , . . . , vn } ein Erzeugendensystem ist. Man sagt in
diesem Falle, V wird von n Vektoren erzeugt.
2
Um vom Erzeugendensystem die Brücke zum Begriff der Basis schlagen
zu können, ist es dienlich den Begriff des i-ten Einheitsvektors von Kn
zu definieren.
Der Spaltenvektor ei dessen i-te Komponente Eins ist und dessen übrigen Komponenten Null sind heißt der i-te Einheitsvektor von Kn ,
wobei 1 6 i 6 n.
2
n
Ein beliebiger Vektor aus K mit den Komponenten a1 , . . . , an lässt sich
dann als Summe der n Skalarprodukte darstellen, deren i-tes Skalar die
i-te Komponente ist und deren i-ter Vektor der i-te Einheitsvektor ist.
Man kann also festhalten, dass die Menge der Einheitsvektoren {e1 , . . . , en } ein Erzeugendensystem von
Kn ist und somit Kn ein endlich erzeugter Vektorraum ist.
a1
..
.
an
!
=
n
P
ai e i
i=1
2
S 37
Da die Elemente von U + U 0 durch die Linearkombinationen 1u + 1u 0
entstehen mit u aus U und u 0 aus U 0 , ist die Vereinigung von je einem
Erzeugendensystem des U und U 0 ein Erzeugendensystem des U + U 0 .2
19
siehe auch D 23.1
Repetitorium
32
lineare Algebra
1 Vektorraumtheorie
Lineare Unabhängigkeit und Basis
1.4 Lineare Unabhängigkeit und Basis
Der weitere Verlauf ist Motiviert von der Frage ob auch jeder Untervektorraum eines endlich erzeugten Vektorraums endlich erzeugt ist.
Wie später noch gezeigt wird, ist der Lösungsraum eines homogenen
linearen Gleichungssystem ein Untervektorraum des Kn .
Neben dem Erzeugendensystem ist für die obige Fragestellung und
für die lineare Algebra überhaupt die Eigenschaft der linearen Unabhängigkeit mehrerer Vektoren von zentraler Bedeutung.
D 57
Endliche viele (nicht notwendig verschiedene) Vektoren heißen genau
dann linear unabhängig, wenn nur die triviale Linearkombination den
Nullvektor ergibt D 51.2. Linear abhängig heißen sie genau dann, wenn
sie nicht linear unabhängig sind.
2
S 38.1
Wegen des allgemeinen Kommutativgesetzes S 21 ist nicht die Reihenfolge der Skalarprodukte für die lineare Abhängigkeit bzw. Unabhängigkeit entscheidend.
Da man eine Summe in zwei Summen zerlegen kann S 16.1 ergibt sich
sofort, dass die Vektoren v1 , . . . , vn linear abhängig sind, wenn es die
Vektoren v1 , . . . , vm mit 1 6 m 6 n sind.
Ist einer der untersuchten Vektoren der Nullvektor, dann sind sie offensichtlich linear abhängig, da sich vor den Nullvektor ein beliebiger
Skalar schreiben lässt. Sind zwei der Vektoren identisch ergibt die Differenz aus ihnen Null, also sind die Vektoren auch dann linear abhängig.
Ein einzelner Vektor ist genau dann linear unabhängig, wenn er vom
Nullvektor verschieden ist.
S 38.2
S 38.3
S 38.4
S 38.5
Zwei Vektoren sind linear abhängig, wenn einer der Vektoren der Nullvektor ist, oder wenn der eine Vektor ein skalares Vielfaches des anderen
Vektors ist.
2
Sind Vektoren v1 , . . . , vn linear abhängig, dann existiert ein ai , 1 6
i 6 n, das nicht Null ist und somit ist
a1 v1 +· · ·+an vn = 0 ⇔
a1
v +· · ·+ aai−1
vi−1 + aai+1
vi+1 +· · ·+ aani vn
ai 1
i
i
= vi
ein wohldefinierter Ausdruck und vi ist Element der linearen Hülle der
übrigen Vektoren.
Geht man nun davon aus, dass vi Element der linearen Hülle der übrigen
Vektoren ist, dann gilt per Definition S 32
Pi−1
Pn
Pi−1
Pn
vi = j=1 aj vj + j=i+1 aj vj ⇔ 0 = j=1 aj vj + j=i+1 aj vj + (−1)vi
also gibt es mit ai = −1 eine nichttriviale Linearkombination der Vektoren v1 , . . . , vn , die den Nullvektor ergibt. Es gilt also für ein n ∈ N
und v1 , . . . , vn ∈ V
Repetitorium
33
lineare Algebra
1 Vektorraumtheorie
S 39
Lineare Unabhängigkeit und Basis
v1 , . . . , vn sind genau dann linear abhängig, wenn einer der Vektoren
Element der linearen Hülle der Übrigen ist.
2
Vorausgesetzt die Vektoren v1 , . . . , vn ∈ V sind linear unabhängig
während die Vektoren v1 , . . . , vn , v linear Abhängig sind, dann lässt
sich die Äquivalenz folgern
Pn
P n ai
i=1 ai vi + av = 0 ⇐⇒
i=1 a vi = v ∈ Lin(v1 , . . . , vn ),
S 40
a muss ungleich Null sein da sonst aufgrund der linearen Unabhängigkeit von v1 , . . . , vn die Koeffizient a1 , . . . , an Null sein müssten, was
aber der linearen Abhängigkeit von v1 , . . . , vn , v wiederspräche. Damit
existiert das multiplikative Inverse a1 von a außerdem tun die Kürzungsregel und das allgemeine rechte Distributivgesetz ihr übriges. Geht man
Pn
Pn
davon aus, dass es zwei Linearkombinationen i=1 ai vi , i=1 bi vi gibt,
die v ergeben, wird man finden, dass die jeweiligen Koeffizienten identisch sind, also ai = bi .
Man kann also festhalten, dass sich v eindeutig als Linearkombination
von v1 , . . . , vn darstellen lässt, wenn v1 , . . . , vn linear unabhängig und
v1 , . . . , vn , v linear abhängig ist, womit v ∈ Lin(v1 , . . . , vn ) gilt.
2
Bevor der Begriff der Basis eingeführt werden kann, muss die lineare
Unabhängigkeit verallgemeinert werden.
D 58.1
M ⊂ V heißt linear unabhängig, falls entweder M die leere Menge
ist oder je endlich viele paarweise verschiedene Vektoren aus M linear
unabhängig sind.
D 58.2
M heißt linear abhängig, wenn M nicht linear unabhängig ist.
B ⊂ V heißt eine Basis von V genau dann, wenn B linear unabhängig
2
und ein Erzeugendensystem D 55.1 von V ist.
Demnach ist definitionsgemäß die leere Menge eine Basis des Nullraums.
Ein weiteres Beispiel sind die Mengen B := a mit a ∈ K\{0}; eine jede
von ihnen ist eine Basis des K1 Vektorraums über K.
Ist die Teilmenge B von V eine Basis, dann ist jeder Vektor v aus V eine Linearkombination der Vektoren aus B, da B ein Erzeugendensystem
ist, und damit sind wegen S 39 die Vektoren b1 , . . . , bn ∈ B und v linear
abhängig, also lässt sich mit S 40 v eindeutig als Linearkombination der
Vektoren aus B darstellen.
Setzt man nun aber voraus, dass sich ein beliebiger Vektor v aus V
eindeutig als Linearkombination der Vektoren aus B darstellen lässt,
dann ist B offensichtlich ein erzeugenden System. Da es nur eine Möglichkeit gibt, also die Triviale, den Nullvektor als Linearkombination der
Vektoren aus B darzustellen sind die Vektoren aus B linear unabhängig und in Verbindung mit der Eigenschaft Erzeugendensystem zu sein,
D 58.3
Repetitorium
34
lineare Algebra
1 Vektorraumtheorie
S 41
D 59
(∗)
S 42
S 43
Lineare Unabhängigkeit und Basis
also eine Basis von V. Dies führt zu dem nachstehenden Basiskriterium.
Die Vektoren v1 , . . . , vn ∈ V sind verschieden und bilden zu einer Menge
B zusammengefasst eine Basis von V genau dann, wenn jeder Vektor
aus V als eindeutige Linearkombination der Vektoren aus B darstellbar
ist.
2
!
n
a
1
Da sich jeder Vektor aus K eindeutig aus einer Lin
.. = P a e
j j
.
nearkombination der Einheitsvektoren e1 , . . . , en darj=1
an
stellen lässt, sind die Einheitsvektoren e1 , . . . , en eine
Basis des Kn .
Die Basis {e1 , . . . , en } des Kn heißt Standardbasis, Einheitsbasis oder
auch kanonische Basis des Kn
2
Sei E ein Erzeugendensystem von V, und B eine linear unabhängige
Teilmenge von E, deren Obermengen stets linear abhängig sind. Dann
folgt mit S 34.5, dass die lineare Hülle von B Teilmenge der lineare Hülle
von E ist. Mit S 34.3 sind alle Vektoren aus E die zugleich in B sind
auch aus Lin(B). Für jeden der übrigen Vektoren aus E gilt zusammen
mit den Vektoren aus B linear Abhängigkeit, also folgt mit S 40, dass
auch diese aus der linearen Hülle von B sind. Da also E Teilmenge der
linearen Hülle von B ist gilt wegen S 34.8, dass Lin(E) Teilmengen von
Lin(B) ist, und somit folgt V = Lin(E) = Lin(B). Damit ist B auch ein
Erzeugendensystem von V und ob seiner linearen Unabhängigkeit eine
Basis von V.
Mit den unter (∗) gemachten Voraussetzungen ist B eine Basis des Vektorraums V.
2
Ein zentraler Satz der linearen Algebra ist der Austauschsatz. Sein Inhalt ist, dass Vektoren eines Erzeugendensystems E eines Vektorraums
V ausgetauscht werden können durch Vektoren einer linear unabhängigen Teilmenge M von V, ohne dass E seine Eigenschaft verliert Erzeugendensystem zu sein.
Sei E ein Erzeugendensystem von V und M eine linear unabhängige
Teilmenge von V. Dann existiert eine Teilmenge E 0 von E mit den Eigenschaften
(i) E 0 vereinigt mit M ist ein Erzeugendensystem von V.
(ii) E 0 und M sind disjunkt.
(iii) Die Kardinalität von E ohne E 0 ist identisch mit der von M.
(iv) Die Kardinalität von M vereinigt E 0 ist identisch mit der von E.
2
Repetitorium
35
lineare Algebra
1 Vektorraumtheorie
Lineare Unabhängigkeit und Basis
Da in S 43 E = (E\E 0 ) ∪ E 020 gilt und wegen (i) M ∪ E 0 ein Erzeugendensystem ist, können die Vektoren aus E\E 0 in E durch die aus M
ersetzt werden ohne dass E die Eigenschaft Erzeugendensystem zu sein
verliert.
Wenn M und E 0 disjunkt sind dann entspricht die Kardinalität ihre Vereinigung der Summe ihrer jeweiligen Kardinalitäten. Kann die
Kardinalität von M durch die von E\E 0 ersetzt werden folgt, dass die
Kardinalität der Vereinigung von M und E 0 identisch ist mit der von
E, (iv) ergibt sich also aus (ii) und (iii).
(ii)
(iii)
|M ∪ E 0 | = |M| + |E 0 | = |E\E 0 | + |E| = |E|
(∗)
(3)
Also bleiben noch die Eigenschaften (i), (ii) und (iii) zu zeigen. Für
den Fall M ⊂ E kann man E 0 = E\M setzen und sieht, dass E 0 die
geforderten Eigenschaften hat. Anschaulich wird hier gezeigt, dass M
durch M austauschbar ist falls M ⊂ E gilt.
Der allgemeine Fall kann mit vollständige Induktion über die Kardinalität von M gezeigt werden.
Geht man im Induktionsanfang von n = 0, also M = ∅ ∈ E kommt
(∗) zum Zuge.
Den Induktionsschritt vollzieht man praktischerweise von n − 1 nach
n wobei n > 0 gilt.
Für die Induktionsvoraussetzung gilt damit, dass es zu einer beliebigen
linear unabhängigen Menge21 der Kardinalität n−1 eine Menge mit den
Eigenschaften (i)–(iii) gibt.
Weiterhin gilt M 6⊂ E, da der gegenteilige Fall schon in (∗) abgehandelt wurde. Damit folgt aber, dass es in einem linear unabhängigen
M der Kardinalität n wenigstens ein Element m gibt, dass nicht in
E ist und aufgrund der Induktionsvoraussetzung gibt es zu der Menge
M1 := M\{m} – die offensichtlich die Kardinalität n − 1 hat – eine
Menge E10 mit den Eigenschaften von (i) bis (iii). Da M als linear unabhängig vorausgesetzt war, ist m nicht durch eine Linearkombination
der Vektoren aus M1 darstellbar, da M1 ∪ E10 ein Erzeugendensystem
ist, ist m als Linearkombination der Vektoren aus M1 ∪ E10 darstellbar
m = a1 m1 + · · · + an−1 mn−1 + b1 v1 + · · · + bk vk mit ai , bi ∈ K, mi ∈ M1 , vi ∈ E10 ,
also muss einer der Linearkoeffizienten der Vektoren aus E10 von Null
verschieden sein. Setzt man nun E 0 auf E10 ohne den Vektor vi dessen Linearkoeffizient von Null verschieden ist, dann erhält man das
gewünschte E 0 zu M.
(E\E 0 ) ∪ E 0 ⇒ (x ∈ E ∧ x 6∈ E 0 ) ∨ x ∈ E 0 ⇒ (x ∈ E ∨ x ∈ E 0 ) ∧ (x 6∈ E 0 ∨ x ∈ E 0 ) ⇒
E 0 ⊂E
x ∈ E ∨ x ∈ E 0 =⇒ x ∈ E
21
die während des Induktionsschrittes zu fixieren ist
20
Repetitorium
36
lineare Algebra
1 Vektorraumtheorie
Lineare Unabhängigkeit und Basis
Denn M ∪ E 0 ist eine Teilmenge von Lin(M1 ∪ E10 ), da M1 ∪ E10 ein
Erzeugendensystem ist. Weiter folgt aus (3) und der Existenz von vi
vi =
a1
vi m 1
+···+
an−1
vi
+
−1
vi m
+
b1
vi v 1
+···+
bi−1
vi vi−1
+
bi+1
vi vi+1
+··· +
bk
vi v k
und damit, dass M1 ∪ E10 Teilmenge von Lin(M ∪ E 0 ) und Lin(M ∪ E 0 )
somit auch ein Erzeugendensystem von V ist. (ii) lässt sich über einen
Widerspruchsbeweis zeigen, der Voraussetzt M und E 0 wären nicht disjunkt. (iii) kann man unter Ausnutzung von |M1 | = |E\E10 | aus der
Induktionsvoraussetzung, |E10 | = |E 0 | + 1 aus der Definition von E 0 und
E 0 ⊂ E10 ⊂ E nachrechnen
|M| = n − 1 + 1 = |M1 | + 1 = |E\E10 | + 1 = |E\E 0 |.
S 44
Eine unmittelbare Folgerung des Austauschsatzes ist, dass eine linear
unabhängiger Menge M eines endlich erzeugten Vektorraums wieder
endlich ist und M höchstens so viele Elemente enthält, wie ein beliebiges
Erzeugendensystem von V.
2
Nach diesen Vorbereitungen lassen sich einige Folgerungen über eine
Basis eines endlich erzeugten Vektorraumes V aufschreiben.
S 45.1
S 45.2
S 45.3
S 45.4
S 45.5
S 45.6
Da eine Basis B linear unabhängig ist und ein endliches Erzeugendensystem E für V existiert, ist mit S 44 jede Basis von V endlich.
Per Definition D 58.3 ist eine Basis linear unabhängig und ein Erzeugendensystem22 . Dann gilt mit S 44 für zwei Basen B, B 0 von V sowohl
|B| 6 |B 0 | als auch |B 0 | 6 |B| und damit folgt |B| = |B 0 |. Zwei Basen von
V enthalten also stets gleichviele Elemente.
Ist M eine linear unabhängige Teilmenge von E und E ein endliches
Erzeugendensystem von V, wobei E die Kardinalität k habe. Dann ist
die Kardinalität einer jeden linear unabhängigen Menge höchstens k
und es kann die Existenz einer linear unabhängigen Menge B gefordert
werden mit M ⊂ B ⊂ E und der größt möglichen Anzahl von Elementen,
so dass jede echte Obermenge von B in E linear abhängig ist. Dann ist
B mit S 42 eine Basis von V. Unter den gemachten Voraussetzungen
existiert also eine Basis B von V mit M ⊂ B ⊂ E.
Setzt man in S 45.3 E := V folgt unmittelbar, dass sich jede linear
unabhängige Teilmenge von V zu einer Basis ergänzen lässt.
Mit M := ∅ in S 45.3 gilt offensichtlich, dass es zu jedem Erzeugendensystem von V eine Basis B von V gibt mit B ⊂ E.
Und last but not least ist mit M := ∅, E := V in S 45.3 die Existenz
wenigstens einer Basis von V gesichert.
2
22
In diesem Falle sogar ein endliches!
Repetitorium
37
lineare Algebra
1 Vektorraumtheorie
Dimension eines Vektorraumes
1.5 Dimension eines Vektorraumes
D 60
Nach den Vorbereitungen in diesem Abschnitt kann der für die gesamte
Mathematik bedeutende Begriff der Dimension eingeführt werden.
Sei V endlich erzeugt. Dann sichert S 45.6 die Existenz einer Basis B,
die wegen S 45.1 endlich ist und deren Kardinalität n dank S 45.2 von
der Wahl der Basis unabhängig ist. n heißt dann Dimension von V
dim V := dimK V := |B| bzw. dim V := dimK V := ∞,
D 61
S 46
falls |B| = ∞ also V nicht endlich erzeugt ist, außerdem setzt man noch
dim{0} = 0.
2
Ein Vektorraum heißt endlich-dimensional oder er hat endliche Dimension, falls er endlich erzeugt ist. Anderenfalls heißt er unendlichdimensional oder hat unendliche Dimension.
2
Damit folgt für einen endlich erzeugten Vektorraum V und eine beliebige Teilmenge B von V die Äquivalenz der folgenden Aussagen.
(i)
⇐⇒ B ist eine Basis von V.
(ii)
⇐⇒ B ist maximal linear unabhängig, also alle echte Obermengen
von B sind linear abhängig.
(iii)
⇐⇒ B ist ein minimales Erzeugendensystem von V, also jede echte
Teilmenge von B ist kein Erzeugendensystem von V.
2
Berücksichtigt man die Definition der Dimension und die Existenz der
Standardbasis des Kn D 59 dann gilt:
S 47
Die Dimension des n-dimensionalen Spaltenraums über K ist n.
2
n
womit nun auch der Name des K gerechtfertigt ist. Außerdem kann
ein weiteres nützliches Basiskriterium formuliert werden.
S 48
Sei V endlich-dimensional, n := dim V und B ⊂ V. Dann bedingen zwei
der folgenden Aussagen die dritte
(i) B ist linear unabhängig.
(ii) B ist eine Erzeugendensystem von V
(iii) B besteht aus n Elementen.
und insgesamt implizieren sie, dass B eine Basis ist.
S 49
2
In Anlehnung an den Austauschsatz S 43 kann unter dem Eindruck von
S 48 der Steinitzscher Austauschsatz formuliert werden.
Ist B eine Basis eines endlich-dimensionalen Vektorraums V und M eine
linear unabhängige Teilmenge von V. Dann existiert eine Teilmenge B 0
von V, so dass M ∪ B 0 eine Basis von V ist und M ∩ B 0 = ∅ gilt.
2
Ist V endlich-dimensional und die Dimension kleiner oder gleich d (aus
N0 ). Dann hat eine Basis von V wegen D 60 höchstens d Elemente. Da
Repetitorium
38
lineare Algebra
1 Vektorraumtheorie
Dimension eines Vektorraumes
eine Basis per Definition ein Erzeugendensystem ist, hat wegen Satz
S 45.3 jede linear unabhängige Menge höchstens d Elemente und somit
ist jede Menge mit der Kardinalität d + 1 linear abhängig.
Ist andererseit jede Teilmenge eines Vektorraums mit d + 1 Elementen
linear abhängig, dann kann man der Menge aller natürlichen Zahlen n
für die gilt, dass je n + 1 Vektoren aus V linear abhängig sind, ihr Minimum m entnehmen23 . Ist m Null ist jeder Vektor aus V linear abhängig
womit V nur noch der Nullraum sein kann mit der Dimension 0. Ist m
größer als Null, dann ist m − 1 zwar aus N0 aber kein Element der
Menge der m entnommen Wurde. Damit gibt es m Vektoren v1 , . . . , vm
aus V, die linear unabhängig sind und da jede echte Obermenge n + 1
Elemente enthält, die voraussetzungsgemäß linear abhängig sind; also
ist nach S 42 mit E = V die Menge {v1 , . . . , vm } eine endliche Basis von
V und V damit endlich-dimensional mit der Dimension m.
S 50
Also ist ein Vektorraum genau dann endlich-dimensional mit
dim V 6 d ∈ N0 ,
wenn je d + 1 Vektoren aus V linear abhängig sind
S 51
S 52
2
Nun kann auch eine Antwort gegeben werden, auf die am Anfang des
Abschnittes 1.4 gestellte Frage. Denn ist ein Vektorraum V endlichdimensional mit der Dimension n, dann sind je n + 1 Vektoren aus
V linear abhängig. Also sind insbesondere aus der Menge U eines Untervektorraumes von V n + 1 Vektoren linear abhängig. Da U auch ein
Vektorraum ist folgt aus dem vorhergehenden Satz, dass dim U 6 dim V,
also ist U endlich erzeugt.
Ist U der Unterraum eines endlich-dimensionalen Vektorraums V, dann
ist U endlich-dimensional und es gilt dim U 6 dim V.
2
Weiter lässt sich mit dem Dimensionsbegriff noch ein Identitätskriterium für eine Vektorraum und einen seiner Unterräume ableiten. Denn
gilt n := dim U = dim V, dann hat eine Basis B von U n Elementen
und ist selbstverständlich linear unabhängig. Mit S 48 folgt dann, dass
B auch eine Basis von V ist, also U = Lin(B) = V gilt.
Somit kann man festhalten, dass ein Vektorraum genau dann mit einem
Unterraum identisch ist, wenn er die gleiche Dimension hat.
2
In Anlehnung an S 6.2 kann eine Dimensionsformel für die Summe
zweier endlichdimensionaler Unterräume U, U 0 entwickelt werden.
S 53
Zunächst sei festgehalten, dass der Unterraum auf U ∩ U 0 ⊂ U offensichtlich endlich dimensional ist. Da je eine Basis von U und U 0 endlich
23
Das Minimum existiert, da die Menge wenigstens d enthält
Repetitorium
39
lineare Algebra
1 Vektorraumtheorie
Dimension eines Vektorraumes
ist, ist die Vereinigung dieser Basen mit S 37 ein endliches Erzeugendensystem von U + U 0 . Damit ist auch die Basis von U + U 0 endlich und
mit D 60 ist schließlich U + U 0 endlich dimensional.
2
S 54.1
Die Dimensionsformel für endlich erzeugte Unterräume U, U 0 lautet
dim(U + U 0 ) = dim U + dim U 0 − dim(U ∩ U 0 )
S 54.2
Die Summe U + U 0 ist genau dann direkt wenn
dim(U + U 0 ) = dim U + dim U 0
2
Denn es Existiert eine endliche Basis BU∩U 0 = {u1 , . . . , ur } von dim(U∩
U 0 ), die sich zu den endlichen Basen BU = {u1 , . . . , ur , vr+1 , . . . , vs }
und BU 0 = {u1 , . . . , ur , wr+1 , . . . , wt } von U bzw. U 0 ergänzen lässt. Mit
S 6.1,6.2, D 60 gilt dann
|BU ∪ BU 0 | = |BU | + |BU 0 | − |BU ∩ BU 0 | = dim U + dim U 0 − dim(U ∩ U 0 ).
Wegen S 37 ist BU ∪ BU 0 ein Erzeugendensystem von U + U 0 . Kann noch
gezeigt werden, dass BU ∪ BU 0 linear unabhängig ist, dann ist BU ∪ BU 0
eine Basis von U + U 0 und S 54.2 wäre bewiesen.
(∗)
r
P
ai u i +
i=1
s
P
bj v j +
j=r+1
t
P
k=r+1
P
ck wk = 0 ⇐⇒
t
P
c k wk = −
k=r+1
r
P
ai u i −
i=1
s
P
j=r+1
bj v j ∈ U
Da also tk=r+1 ck wk in U und sowieso in U 0 liegt, ist es auch aus U ∩ U 0
also existieren geeignete a10 , . . . , ar0 so dass gilt
cr+1 wr+1 + · · · + ct wt = a10 u1 + · · · + ar0 ur
da aber u1 , . . . , ur , wr+1 , . . . , wt eine Basis von U 0 bilden, sind sie linear
unabhängig und die Linearkoeffizienten müssen alle Null sein. Setzt man
nun die rechte Seite in die linke Seite von (∗) ein, dann folgt
r
s
r
r
s
P
P
P
P
P
ai u i +
bj v j +
0uk = 0 ⇐⇒
(ai + 0)ui +
bj v j = 0
i=1
D 62
S 55.1
S 55.2
j=r+1
k=1
i=1
j=r+1
Da diese Linearkombination nur aus den Basisvektoren von U besteht,
sind diese linear unabhängig, was dazu führt, dass auch alle ai und bj
Null sein müssen. Also ist B ∪ B 0 linear unabhängig.
Um das hier gewonnene auf lineare Gleichungssysteme anwenden zu
können, ist es nützlich den Rangbegriff einzuführen.
Ist M eine Teilmengen eines endlich-dimensionalen K-Vektorraum, dann
heißt rang M := dim Lin(M) der Rang von M.
2
Zurückgreifend auf ähnliche Aussagen über die Dimension und ihrer
definierten Eigenschaften, kann man für zwei Teilmengen M, M 0 eines
endlich-dimensionalen Vektorraums V, einen Vektor w aus V und einem
m aus N0 die nachstehenden Folgerungen zeigen.
Der Rang von M verschwindet genau dann, wenn M die leere Menge
oder der Nullraum ist.
Der Rang von M ist höchstens so groß wie der von M 0 , vorausgesetzt
Repetitorium
40
lineare Algebra
1 Vektorraumtheorie
S 55.3
S 55.4
S 55.5
Lineare Abbildungen
M ist eine Teilmengen von M 0 .
Der Rang von M ist höchstens so groß wie die Dimension von V, wobei
genau dann Gleichheit besteht wenn M den Vektorraum erzeugt.
Der Rang von M ist identisch mit der maximalen Anzahl linear unabhängiger Vektoren aus M, welche jeden weiteren Vektor aus M eindeutig darstellen.
Ein Vektor ist genau dann aus der linearen Hülle von M, wenn sein
Hinzufügen zu M dessen Rang nicht verändert.
2
1.6 Lineare Abbildungen
Zum Abschluss der Vektorraumtheorie werden noch Abbildungen zwischen Vektorräumen betrachtet. Von besonderem mathematischen Interesse sind Abbildungen, die mit den Strukturmerkmalen24 verträglich
sind. Im Weiteren ist K wieder ein Körper und U, V, W beliebige Vektorräume über K.
D 63
Eine Abbildung f : V → W heißt linear, falls die folgenden Eigenschaften hat.
LA 63.1 Für alle Vektoren v, v 0 aus V gilt f(v + v 0 ) = f(v) + f(v 0 ).
LA 63.2 Für alle Skalare a ∈ K und Vektoren v ∈ V gilt f(av) = af(v).
Synonym zu linearer Abbildung werden auch die Bezeichnungen lineare
Transformation, linearer Operator oder (Vektorraum-)Homomorphismus verwendet.
2
Diese beiden Eigenschaften lassen sich zu einer Äquivalenzbedingung
für die Linearität einer Abbildung zusammenfassen.
S 56
S 57.1
S 57.2
S 57.3
S 57.4
f : V → W ist genau dann linear, wenn
f(av + a 0 v 0 ) = af(v) + a 0 f(v 0 ) für alle a, a 0 ∈ K, v, v 0 ∈ V
2
Außerdem lässt sich für eine lineare Funktion f : V → W noch Nachstehendes ableiten.
Wegen f(0) = f(0 + 0) = f(0) + f(0) folgt f(0) = 0.
Setzt man in LA 63.2 a = −1 dann folgt f(−v) = −f(v)
Mit einem Induktionsbeweis über m kann gezeigt werden, dass gilt
Pm
Pm
f( i=1 ai vi ) = i=1 ai f(vi ).
Ist U ein Unterraum von V, dann ist auch die Beschränkung D 13 von
f auf U linear.
2
Wichtige Beispiele für lineare Operatoren sind der Nullhomomorphismus von V in W OV,W : V → W, OV,W (v) := 0, die Identität, die
kanonische Injektion und die kanonische Projektion von Kn auf Km
24
Addition, Skalarmultiplikation
Repetitorium
41
lineare Algebra
1 Vektorraumtheorie
Lineare Abbildungen
mit m < n, siehe auch D 9. Das dies lineare Abbildungen sind lässt
sich leicht nachrechnen indem man entsprechend in die Definition oder
in S 56 einsetzt.
Ein wichtiges Gegenbeispiel ist die Translation mit w
tw : V → V, tw (v) := v + w für w 6= 0.
D 64
Verknüpft man zwei Homomorphismen in naheliegender weise mit
der Addition indem man die Bilder Addiert entsteht wieder eine Homomorphismus, mit dem Skalarprodukt bezüglich eines Homomorphismus
verfährt man ebenso und auch die Komposition zweier Homomorphismen ist wieder ein Homomorphismus25 .
Fast man nun die Menge aller Homomorphismen unter dem Bezeichnung homK (V, W) := Hom(V, W) := {f | f : V → W ist linear}
2
zusammen, dann lassen sich mit der eben eingeführten Summe von
Homomorphismen und dem Skalarprodukt von einem Skalar und einem
Homomorphismus
D 65
die Operationen Addition und skalare Multiplikation von Hom(V, W)
definieren
+ : Hom(V, W) × Hom(V, W) → Hom(V, W), +(f, g) := f + g
· : K × Hom(V, W) → Hom(V, W), ·(a, f) := af
S 58
S 59
2
Nun kann man nachrechnen, dass sich mit den gerade eingeführten
Operationen, dem Nullhomomorphismus und mit (−f)(v) := −f(v) als
dem Negativen von f ein Vektorraum über K auf Hom(V, W) definieren
lässt.
2
Eine Distributivgesetz bzw. Kommutativgesetzt bezüglich der Addition
bzw. skalaren Multiplikation und der Komposition ist auch gegeben. Sei
f1 , f2 , f3 ∈ Hom(V, W), g1 , g2 , g3 ∈ Hom(V, W)(U, V).
(i) f ◦ (g1 + g2 ) = f ◦ g1 + f ◦ g2 ,
(ii) (f1 + f2 ) ◦ g = f1 ◦ g + f2 ◦ g,
(iii) a(f ◦ g) = (af) ◦ g = f ◦ (ag).
2
Besonders ausgezeichnete Homomorphismen sind
D 66.1
zum einen der bijektive Homomorphismus von V auf W, der Isomorphismus von V auf W heißt. V heißt isomorph zu W, falls ein Iso∼ W.
morphismus von V in W existiert. Man schreibt V =
D 66.2
zum anderen ein Homomorphismus von V in V, der Endomorphismus
von V. Man setzt End(V) := Hom(V, V) .
2
f + g : V → W, (f + g)(v) := f(v) + g(v), af : U → W, (af)(v) := af(v) und
f ◦ g : V → W, (f ◦ g)(u) := f(g(u))
25
Repetitorium
42
lineare Algebra
1 Vektorraumtheorie
S 60.1
S 60.2
S 60.3
Lineare Abbildungen
Mit den in Abschnitt 0.2 eingeführten Begriffen und dargestellten Zusammenhängen lassen sich mit den gerade entwickelten Begriffen die
nachstehenden Folgerungen ableiten.
∼ V.
Die Identität ist ein Endomorphismus und ein Isomorphismus ⇒ V =
Die Komposition zweier Isomorphismen ist wieder ein Isomorphismus
∼ V, V =
∼ W⇒U=
∼ W.
⇒U=
Die Umkehrabbildung eines Isomorphismus ist auch ein Isomorphismus
∼ W⇔W=
∼ V.
⇒V=
2
Die Relation Isomorphie ist also reflexiv S 60.1, symmetrisch S 60.3
und transitiv S 60.2, also eine Äquivalenzrelation.
S 61
Ein bemerkenswertes Resultat ist, dass alle endlich-dimensionalen Vektorräume V mit n := dim V isomorph zum n-dimensionalen Spalten∼ Kn
raum Kn über K sind, also V =
2
!
a
1
Denn V hat eine Basis B = {v1 , . . . , vn } und man
n
.. ) := P a v
n
f(
j j
.
kann die Abbildung f : K → V mit nebenstehenj=1
an
der Abbildungsvorschrift definieren. Das f linear
ist lässt sich allgemein nachrechnen. Da das Basiskriterium S 41, 40
sicherstellt, dass ein Vektor aus V als Linearkombination der Basisvektoren aus B mit eindeutig bestimmten Linearfaktoren a1 , . . . , an
dargestellt wird, ist f bijektiv, womit S 61 bewiesen wäre.
1.6.1 Kern und Bild einer linearen Abbildung
D 67.1
D 67.2
S 62
Ziel ist es in diesem Abschnitt Begriffe wie Erzeugendensystem, lineare Unabhängigkeit und Basis mit linearen Abbildungen in Verbindung
zu bringen. Vor allem ist es interessant was mit der Dimension eines
Vektorraums geschieht, wenn auf ihn ein Homomorphismus angewendet
wird.
Zunächst wird die Menge aller Vektoren, die auf die Null abgebildet
werde als Kern von f definiert Kern f := {v ∈ V | f(v) = 0}.
Und die Menge aller Vektoren aus der Wertemenge, die abgebildet werden als Bild von f
Bild f := f(V) = {w ∈ W | ∃v ∈ V (f(v) = w)}.
2
Ist U ein Unterraum von V, dann gilt mit S 57.4 für f|U
Kern(f|U ) = (Kern f) ∩ U, Bild(f|U ) = f(U)
2
S 63
Da die Linearität strukturerhaltend ist kann man unter Ausnutzung
der Linearitätseigenschaften zeigen, dass sowohl der Kern als auch das
Bild einer linearen Abbildung ein Untervektorraum sind.
2
S 64
Eingedenk S 57.1 folgt dass der Kern einer injektiven linearen Abbildung f, der Nullraum ist; umgekehrt folgt aus der Linearität von f, dass
Repetitorium
43
lineare Algebra
1 Vektorraumtheorie
Lineare Abbildungen
f(v) = f(w) ⇔ f(v) − f(w) = f(v − w) = 0. Gilt nun noch Kern f = {0},
dann folgt v − w = 0 ⇔ v = w und damit ist f injektiv. Eine lineare
Abbildung ist also genau dann injektiv, wenn ihr Kern der Nullraum
ist.
2
Als nächstes soll die Frage beantwortet werden, was mit einem Erzeugendensystem und linear abhängigen bzw. unabhängigen Vektoren
{v1 , . . . , vn } der Definitionsmenge unter Einfluss einer linearen Abbildung f : V → W passiert. Ist v1 , . . . , vn ein Erzeugendensystem lässt
sich mit S 57.3 ein Bild von f als Linearkombination der Bilder von
Pn
Pn
v1 , . . . , vn darstellen w = f(v) = f( i=1 ai vi ) = i=1 ai f(vi ).
Nach ähnlichem Muster kann man mit den Sätzen S 57.1, 57.3 und dem
Ansatz 0 = f(0) zeigen, dass linear abhängige Vektoren v1 , . . . , vn aus
V auf linear abhängige Vektoren aus W abbilden.
Damit linear unabhängige Vektoren {v1 , . . . , vn } =: M auf linear unabhängige Vektoren f(M) abgebildet werden, muss noch die Injektivität
der Abbildung gefordert werden. Es muss also gezeigt werden, dass die
Linearkombination der Bilder f(M) nur im Falle der trivialen LinearP
kombination (D 51.2) verschwindet. Mit S 57.3 kann n
i=1 ai wi mit
Pn
P
n
f( i=1 ai vi ) mit vi ∈ M identifiziert werden. Also muss i=1 ai vi aus
dem Kern von f sein, der dank dem Injektivitätskriterium der Nullraum
Pn
ist. Somit muss gelten i=1 ai vi = 0, was unmittelbar das Verschwinden der Koeffizienten zur Folge hat, da die Vektoren v1 , . . . , vn linear
unabhängige sind. Zusammenfassend kann man also sagen, dass eine
lineare Abbildung
S 65.1
S 65.2
S 65.3
ein Erzeugendensystem der Definitionsmenge auf ein Erzeugendensystem des Bildes abbildet,
linear abhängige Vektoren der Definitionsmenge auf linear abhängige
Vektoren des Bildes abbildet und
linear unabhängige Vektoren der Definitionsmenge auf linear unabhängige Vektoren abbildet, falls der Homomorphismus injektiv ist.
2
S 66
Damit ergibt sich unmittelbar, dass ein Basis der Definitionsmenge eines injektiven Homomorphismus auf eine Basis des Bildes abgebildet
wird. Handelt es sich um einen Isomorphismus wird die Basis sogar auf
eine Basis der Wertemenge abgebildet.
2
S 67.1
Mit der Transitivität der Isomorphierelation, S 61 und dem vorstehenden Satz, ist ein endlichdimensionaler Vektorraum zu einem anderen
genau dann isomorph, wenn beide die gleiche Dimension haben.
S 67.2
Damit sind natürlich zwei verschiedendimensionale Spaltenvektorräume
nicht isomorph.
2
Repetitorium
44
lineare Algebra
1 Vektorraumtheorie
Lineare Abbildungen
Nun soll noch ein Zusammenhang zwischen dem Dimensionsbegriff und
dem Kern bzw. Bild eines Homomorphismus f, der auf einem endlichdimensionalen Vektorraum V definiert ist, hergestellt werden. Der Unterraum Kern f von V ist mit S 51 ebenso endlich-dimensional wie das
Bild f, dass mit S 65.1 durch eine Basis B von V mit f(B) endlich erzeugt
ist. Also existieren zwei Basen BK = {k1 , . . . , kp }, BB = {b1 , . . . , bq }. Für
jedes bj gibt es ein vj ∈ V mit f(vj ) = bj und k1 , . . . , kp , v1 , . . . , vq sind
linear unabhängig, denn es gilt mit S 57.3 und ki ∈ Kern f ⇒ f(ki ) = 0
0 = f(
p
P
a i ki +
i=1
q
P
cj vj ) =
p
P
ai f(ki ) +
j=1
i=1
j=1
q
P
cj f(vj ) =
q
P
cj f(vj ) =
q
P
c j bj .
j=1
j=1
Da die bj linear unabhängig sind impliziert dies das Verschwinden der
cj und die linearen Unabhängigkeit der ki erzwingt das Verschwinden
Pp
der ai , wenn i=1 ai ki = 0 gelten soll. Weiter kann man zeigen, dass
die k1 , . . . , kp , v1 , . . . , vq V erzeugen. Denn
f(v) =
S 68
S 69.1
S 69.2
S 69.3
D 68
Pq
j=1
c j bj =
Pq
j=1 cj f(vj )
= f(
Pq
j=1
cj vj ) und mit v 0 := v −
Pq
j=1 cj vj
folgt dann aufgrund der Linearität und der gerade gezeigten Identität
P
f(v 0 ) = f(v) − f( qj=1 cj vj ) = 0. Damit ist v 0 Element des Kerns und
lässt sich als linearkombination der k1 , . . . , kp darstellen, also gilt zuPp
Pq
sammenfassend v = i=1 ai ki + j=1 cj vj und {k1 , . . . , kp , v1 , . . . , vq }
ist eine Basis von V.
Ein Homomorphismus auf einem endlich-dimensionalen Vektorraum V
hat ein endlich-dimensionales Bild und einen endlich-dimensionalen
Kern deren aufsummierten Dimensionen die Dimension von V ergeben.2
Zusammen mit dem Injektivitätskriterium lässt sich unmittelbar für
endlich-dimensionale Vektorräume V und W schließen,
ist die Dimension von V größer als die von W, existiert keine injektive
lineare Abbildung von V in W.
ist die Dimension von W größer, existiert keine surjektive lineare Abbildung von V in W.
sind die Dimensionen gleich, sind die nachstehenden Aussagen für einen
Homomorphismus f von V in W äquivalent
(i)
⇐⇒ f ist injektiv
(ii)
⇐⇒ f ist surjektiv
(iii)
⇐⇒ f ist bijektiv
2
Nach diesen Vorbereitungen kann man einem Homomorphismus zwischen endlich-dimensionale Vektorräumen eine nicht negative ganze
Zahl zuordnen, die eine wichtige Rolle beim Lösen linearer Gleichungssysteme spielt.
Die Dimension des Bildes eines Homomorphismus zwischen endlichRepetitorium
45
lineare Algebra
2 Matrizen
dimensionale Vektorräumen heißt Rang von f. Man schreibt
rang f := dim Bild f = dim f(V)
S 70.1
S 70.2
S 70.3
S 70.4
S 70.5
S 70.6
S 71.1
S 71.2
2
Damit lassen sich einige gerade entwickelte Sätze für linearer Abbildung
umformulieren.
dim Kern f = dim V − rang f.
0 6 rang f 6 min(dim V, dim W).
rang OV,W = rang 0 = 0,
rang idV = dim V,
rang inU,V = dim U
und für p : Kn → Km mit m < n gilt wegen der Surjektivität der
Projektion rang p = dim Bild p = dimKm = m
2
Im Zusammenhang mit der Komposition lässt sich zeigen, dass folgendes für die beiden Homomorphismen f : V → W und g : U → V gilt.
Der Rang der Komposition von f und g ist identisch mit dem Rang
von f, das auf das Bild von g beschränkt ist und dieser ist wiederum Identisch mit der Differenz von g’s Rang und der Dimension des
Durchschnitts des Kerns von f und des Bildes von g.
Die Differenz der Summe der Ränge der beiden Homomorphismen und
der Dimension von V ist höchstens so groß wie der Rang der Komposition von f und g und dieser wiederum ist nicht größer als das Minimum
der Ränge von f und g.
2
2 Matrizen
Um mechanische Rechentechniken zur Bestimmung des Rangs eines
Systems m-dimensionalen Spaltenvektoren zu entwickeln, ist es nützlich
den Begriff der Matrix nebst zugehörigen Formalismus einzuführen. K
ist wie üblich ein Körper und m, n sind natürliche Zahlen.
D 69.1
Nebenstehendes rechteckiges Schema heißt Maa
...
a1n
 11

.
.. 
.
trix vom Typ (m, n) oder m × n-Matrix über A =
 .
.
. . 
 .



K mit beliebigen aij ∈ K mit 1 6 i 6 m,
am1
... amn
1 6 j 6 n. Abkürzend schreibt man auch
A = (aij )16i6m,16j6n oder falls es der Zusammenhang hergibt sogar A = (aij )i,j = (aij ).
D 69.2
Es heißt i der Zeilenindex und j der Spaltenindex von A.
aij heißt die (i, j)-Komponente oder die Komponente an der Stelle
(i, j) von A
D 69.3
D 69.4


Zwei Matrizen sind identisch, wenn sie gleichen Typs sind und in jeder
Komponente übereinstimmen.
Repetitorium
46
lineare Algebra
2 Matrizen
D 69.5
Die Menge aller m × n-Matrizen über einen Körper K wird formal mit
Matm,n (K) bezeichnet.
D 69.6
D 69.7
Eine Matrix vom Typ (m, 1) ist offensichtlich ein m-dimensionaler Spaltenvektor und Matm,1 (K) lässt sich mit dem m-dimensionalen Spaltenraum identifizieren. Analog definiert man den n-dimensionalen Zeilenraum Kn := Mat1,n (K) dessen Elemente n-dimensionaler Zeilenvektor über K heißen.
!
a1j
Ist A = (aij )ij aus der Menge aller n × m Matrizen,
.
..
dann ist der nebenstehende m-dimensionale Spaltenvek- vj :=
amj
tor die j-te Spalte von A. So dass sich jede Matrix als
n-Tupel ihrer Spalten(vektoren) schreiben lässt A = (v1 , . . . , vn ) und
jedes n-Tupel von m-dimensionalen Spaltenvektoren als Matrix vom
Typ (m, n).
D 69.8
Analoges gilt für die i-te Zeile einer m × n-Matrix A.
ui := (ai1 , . . . , ain ) ∈ Kn mit 1 6 i 6 m
D 69.9
D 69.10
D 69.11
heißt i-te Zeile bzw. der i-te Zeilenvektor von A. Eine Matrix lässt
sich also kanonisch als m-komponentige Spalte ihrer Zeilenvektoren auffassen und m n-dimensionale Zeilenvektoren fügen sich zu einer m × nMatrix.
Die aij = diag A mit i = j einer n × m-Matrix heißen Hauptdiagonale
von A
Die aij mit i < j 6 i + 1 6 n bzw. 0 < i − 1 6 j < i einer (n × m)
Matrix bilden die (obere bzw. untere) Nebendiagonale von A
Die Summe der Komponenten der Hauptdiagonale einer n × n-Matrix
2
A heißt Spur26 von A.
Es wird sich im Weiteren als praktisch erweisen, einige spezielle Matrizen mit einem eingenen Namen zu versehen.
D 70.1
Eine Matrix vom Typ (m, n) mit m = n heißt (n-reihig) quadratisch
man definiert Matn (K) := Matn,n (K)
D 70.2
Eine Matrix t A vom Typ (n, m), die aus der m × n-Matrix A durch
vertauschen von Zeilen- und Spaltenindizes entsteht, heißt die Transponierte, die transponierte Matrix oder auch die gespiegelte Matrix
von A. Von eine gespiegelten Matrix spricht man, weil man bei geeignetem Matrizentyp anstelle von Transponieren auch von Spiegeln an
der Hauptdiagonale sprechen kann.
Eine quadratische Matrix deren Komponenten nur in der Hauptdiago-
D 70.3
spur : Matn (K) → K, A 7→ spur A ist eine Linearform und es gilt spur(AB) =
spur(BA) sowie spur(ABC) = spur(ACB) ⇒ n = 1
26
Repetitorium
47
lineare Algebra
2 Matrizen
D 70.4
D 70.5
D 70.6
D 70.7
D 70.8
D 71.1
D 71.2
Vektorraum der Matrizen
nale von Null verschieden sind, nennt man Diagonalmatrix.
Eine n×m-Matrix deren Komponenten alle Null sind heißt Nullmatrix
(vom Typ (m, n)).
Eine Diagonalmatrix deren Komponenten in der Hauptdiagonale alle
Eins sind, wird die n-reihige Einheitsmatrix genannt.
Eine (n × m)-Matrix A, deren Komponenten aij nur für i 6 j 6 n
bzw. 1 6 j 6 i von Null verschieden sind, heißt obere bzw. untere
Dreiecksmatrix von A
Zerlegt man eine Matrix A vom Typ (m, n) in vier
A11 A12
Matrizen A11 ∈ Matr,s (K), A12 ∈ Matr,n-s (K), A := A
21 A22
A21 ∈ Matm-r,s (K), und A11 ∈ Matm-r,n-s (K),
dann nennt man A eine Blockmatrix der Stufe (r, s) mit 1 < r < m,
1 < s < n. Es ist zweckmäßig auch die Sonderfälle r = 0, r = m, s = 0
und s = n zuzulassen.
Eine Matrix Epq := Ep,q vom Typ (m, n), die in der p-ten Zeile und der
q-ten Spalte eine Eins und in den übrigen Komponenten eine Null stehen hat, heißt Matrizeneinheit aus Matm,n (K) oder vom Typ (m, n).
2
Der Begriff der Matrizeneinheit lässt sich mittels des Kronecker-Symbols
noch stärker formalisieren.
1 falls i = j,
Die Abbildung δ : N × N → {0, 1}, δij := δ(i, j) :=
heißt
0 falls i 6= j
Kronecker-Symbol oder auch Kronecker-δ.
Die für ganze p, q mit 1 6 p 6 m, 1 6 q 6 n definierten Matrizen
Epq := Ep,q := (δip δjq )16i6m,16j6n ∈ Matm,n (K)
D 71.3
heißen Matrizeneinheiten vom Typ (m, n)
n × n-Matrizen
(n)
Fλµ := Fλµ := 1n + Eλµ ,
(n)
Fλ (a) := Fλ
:= 1n + (a − 1)Eλλ
mit 1 6 λ, µ 6 n und λ 6= µ heißen Elementarmatrizen n-ten Grades
über K. Fλµ „ist” also eine Einheitsmatrix die in der (λ, µ)-ten Komponente eine Eins anstelle der Null stehen hat und Fλ eine Einheitsmatrix,
die in der (λ, λ)-ten Komponente ein a anstelle der Eins stehen hat. 2
2.1 Vektorraum Matm,n (K)
D 72.1
Man kann eine Summe zweier Matrizen A, B gleichen Typs festlegen
indem man die Summe der jeweiligen Komponenten bildet. A + B :=
(aij + bij )ij heißt dann Summe von A und B.
D 72.2
Analog lässt sich das n-Fache von A mit nA := (naij )ij definieren.
Repetitorium
48
lineare Algebra
2 Matrizen
Rang einer Matrix
Aufgrund der Abgeschlossenheit und Eindeutigkeit der Körperaddition
und -multiplikation lassen sich die Operationen
D 72.3
Addition durch die Abbildung
Matm,n (K) × Matm,n (K) → Matm,n (K), (A, B) 7→ A + B
D 72.4
und skalare Multiplikation durch die Abbildung
K × Matm,n (K) → Matm,n (K), (a, A) 7→ aA
D 72.5
definieren.
Zwei Blockmatrizen A, B vom Typ (n, m) der Stufe (r, s) addiert man
indem man die korrespondierenden Blöcke Aij , Bij addiert.
D 72.6
Ein Blockmatrix A vom Typ (n, m) der Stufe (r, s) multipliziert man
mit einem Skalar indem man die einzelnen Blöcke mit dem Skalar multipliziert.
2
S 72.1
Zurückgeführt auf die entsprechenden Körperoperationen kann man
nachrechnen, dass sich auf der Menge aller Matrizen vom Typ (m, n)
über K mit den unter D 72.3, 72.4 definierten Operationen ein Vektorraum definieren lässt. Wobei die Nullmatrix vom Typ (m, n), das Nullelement ist und (−aij )ij ∈ Matm,n (K) das Negative von A = (aij )ij ∈
Matm,n (K)
Man kann eine beliebige Matrix aus Matm,n (K) mit der Doppelsumme
Pm Pn
q=1 apq Epq identifizieren woraus folgt, dass
p=1
S 72.2
{Epq | 1 6 p 6 m, 1 6 q 6 n}
S 72.3
eine Basis von Matm,n (K) ist.
Die Dimension des Vektorraums aller Matrizen von Typ (m, n) ist das
Produkt von Zeilenanzahl und Spaltenanzahl.
2
2.2 Rang einer Matrix
D 73
S 73
D 74
Sei A eine Matrix vom Typ (m, n) und vj die j-te Spalte dieser Matrix.
Dann setzt man spaltenrang A := rang{v1 , . . . , vn } und bezeichnet dies
als Spaltenrang von A.
2
Dann gilt in Anlehnung an S 55.4
Das der Spaltenrang einer Matrix vom Typ (m, n) genau der maximalen Anzahl an linear unabhängiger Spaltenvektoren in {v1 , . . . , vn }
entspricht.
2
Analoges lässt sich natürlich auch für die Zeilen einer Matrix definieren
bzw. ableiten.
Sei A eine Matrix vom Typ (m, n) und ui die i-te Zeile dieser Matrix. Dann setzt man zeilenrang A := rang{u1 , . . . , um } und nennt dies
Zeilenrang von A.
2
Repetitorium
49
lineare Algebra
2 Matrizen
S 74
S 75.1
S 75.2
Elementare Matrizenumformungen
Und wieder gilt dann mit S 55.4
dass der Zeilenrang einer Matrix vom Typ (m, n) genau der maximalen Anzahl an linear unabhängiger Zeilenvektoren in {u1 , . . . , um }
entspricht.
2
Mittels des transponierten einer Matrix kann man einen Zusammenhang zwischen dem Zeilen- und dem Spaltenrang einer Matrix herstellen.
Definiert man eine Abbildung Transposition tm,n zwischen den Vektorräumen Matm,n (K) und Matn,m (K), die einer Matrix aus Matm,n (K)
ihr Transponiertes zuordnet, dann kann man die Bedingung S 56 nachrechnen, aus der die Linearität der Transposition folgt.
Die Position einer Matrixkomponente ist eindeutig durch zwei Indizes
bestimmt, die bei der Transposition vertauscht werden. Es ist naheliegend, dass ein abermaliges Vertauschen der Indizes eine Matrixkomponente wieder an ihren ursprünglichen Platz zurück befördert, dass also
eine zweimal transponierte Matrix wieder die ursprüngliche Matrix ist
t t
( A) = A.
S 75.3
Damit folgt dann, dass die Komposition von tn,m und tm,n die Identität
auf Matm,n (K) ist, genauso wie die Komposition von tm,n und tn,m
die Identität auf Matn,m (K) ist. Mit Satz S 4.7 folgt dann, dass die
Transposition bijektiv ist.
S 75.4
Zusammenfassend kann man also festhalten, dass die Abbildung
tm,n : Matm,n (K) −→ Matn,m (K),
ein Vektorraumisomorphismus ist.
S 75.5
S 76
D 75
(A) 7−→ t A
Mit S 65.1, 68 und diesem Ergebnis lässt sich ableiten, dass
zeilenrang A = spaltenrang t A, spaltenrang A = zeilenrang t A
2
Damit kann die zentrale Aussage dieses Abschnitts – die Ranggleichung
einer Matrix – formuliert werden.
Für jede Matrix vom Typ (m, n) gilt, dass ihr Spaltenrang mit dem
Zeilenrang identisch ist.
2
Womit der Rang einer Matrix definiert werden kann indem man für
eine Matrix A aus Matm,n (K) setzt
rang A := zeilenrang A = spaltenrang A
und dies mit Rang von A bezeichnet.
S 77
2
Mit S 75.5, 76 und der Rangdefinition ergibt sich der Zusammenhang
rang A = rang t A 6 min(m, n) für eine beliebige Matrix A aus dem
Vektorraum der Matrizen vom Typ (m, n) über K.
2
Repetitorium
50
lineare Algebra
2 Matrizen
Elementare Matrizenumformungen
2.3 Elementare Matrizenumformungen
Ist M := {v1 , . . . , vn } eine Teilmenge eines K-Vektorraumes und man
ersetzt einen der Vektoren vi aus M durch das Skalarprodukt von vi
und a ∈ K\{0} oder durch die Summe von vi und vj ∈ M, dann erhält
man Abwandlungen M 0 , M 00 von M die sich auf Linearkombinationen
der Vektoren aus M zurückführen lassen, also Lin(M 00 ) = Lin(M 0 ) =
Lin(M).
S 78
Für den Rang einer Menge von Vektoren {v1 , . . . , vn } gilt mit a ∈ K\{0}
rang {v1 , . . . , vk , . . . , vn } = rang {v1 , . . . , avk , . . . , vn }
D 76.1
rang {v1 , . . . , vk , . . . , vl , . . . , vn } = rang {v1 , . . . , vk + vl , . . . , vl , . . . , vn } 2
Nun kann man rangerhaltende elementare Zeilen- bzw. Spaltenumformungen von m × n-Matrizen definierten.
Jede dieser Operationen
EZU1: Addition zweier Zeilen,
EZU2: Multiplikation einer Zeile mit einem positiven oder negativen
Skalar,
EZU3: Addition einer Linearkombination von r Zeilen zu einer von
diesen verschiedenen Zeile.
EZU4: Vertauschung zweier Zeilen.
heißt elementare Zeilenumformung.
D 76.2
Das hintereinander Ausführen mehrerer elementarer Zeilenumformungen kann man zu einer iterierten elementaren Zeilenumformung zusammenfassen.
D 76.3
Analog zu den Zeilen heißt jede dieser Operationen
ESU1: Addition zweier Spalten,
ESU2: Multiplikation einer Spalte mit einem positiven oder negativen
Skalar,
ESU3: Addition einer Linearkombination von r Spalten zu einer von
diesen verschiedenen Spalte.
ESU4: Vertauschung zweier Spalten.
elementare Zeilenumformung.
D 76.4
Das hintereinander Ausführen mehrerer elementarer Spaltenumformungen kann man zu einer iterierten elementaren Spaltenumformung
zusammenfassen.
2
S 79
Man sieht, dass eine Matrix A 0 aus einer Matrix A genau dann durch
elementare Zeilenumformungen hervorgeht, wenn die Matrix tA 0 aus
elementaren Spaltenumformungen von tA hervorgeht.
2
Repetitorium
51
lineare Algebra
2 Matrizen
S 80
S 81
Elementare Matrizenumformungen
Mit einem Induktionsbeweis über die Anzahl der Zeilen r kann man
zeigen, dass EZU3 auf EZU1 zurückführbar ist. Der Induktionsanfang
mit r = 1 gilt offensichtlich, da die Addition einer Linearkombination
von einer Zeile nichts anderes ist als EZU2 und EZU1 hintereinander
ausgeführt. Ist bereits eine Linearkombination von r Zeilen auf EZU1
und EZU2 zurückgeführt, dann ist das Hinzufügen der r+1 Zeile wieder
durch hintereinander Anwenden von EZU2 und EZU1 zu realisieren,
womit der Induktionsschritt auch gezeigt wäre. Weiter lässt sich noch
nachrechnen, dass auch die vierte elementare Zeilenumformung durch
die ersten beide realisierbar ist. Seien ui , uj zwei verschiedene Zeilen
einer Matrix. Dann erhält man durch Addieren der j-ten Zeile zur i-ten
Zeile und dem anschließenden Multiplizieren der i-ten mit −1 die i-te
Zeile −(ui + uj ). Addiert man die aktuelle i-te Zeile zur j-ten ergibt
sich für die j-te Zeile −ui . Multipliziert man nun die i-te Zeile nochmals
mit −1 und addiert die aktuelle j-te Zeile hinzu ist die i-te Zeile uj . So
dass man nur noch die j-te Zeile mit −1 multiplizieren muss um in ihr
ui stehen zu haben. Also kann das vertauschen zweier Zeilen auch auf
EZU1 und EZU2 zurückgeführt werden. Unter Berücksichtigung S 79
kann festgehalten werden, dass
jede iterierte elementare Zeilen- oder Spaltenumformung auf EZU1 und
EZU2 bzw. ESU1 und ESU2 zurückführbar ist.
2
Die ranginvarianten Operationen aus S 78 könne mit EZU1 und EZU2
identifiziert werden. Damit kann man folgenden Invarianzsatz des Matrizenrangs bezüglich elementarer Matrizenumformungen aufschreiben.
Der Rang einer Matrix ist invariant bzgl. elementarer Umformungen.2
D 77
Definiert man nun noch den Begriff der iterierten Spaltenvertauschung
als das wiederholte Anwenden von ESU4,
2
S 82
dann hat man den Begriffsapparat um folgenden Äquivalenzaussage
über m × n Matrizen mit r aus N0 formulieren zu können.
(ii)
⇐⇒ Der Rang von A ist r.


(ii)
1
∗
···
∗
∗ ··· ∗ 
⇐⇒ Durch iterierte elementare Zei





.
.
.
.
.


.
.
.
.
.
lenumformungen und Spaltenver
.
.
0

.
.
.

 s
. .

.
.
.
tauschungen kann A in eine Ma.
. . . . ∗ ..
.. 

.






trix A 0 aus Matm,n (K) transfor- A 0 =
0

···
0
1
∗ ··· ∗ 



miert werden mit


···
···
··· ··· ··· 0 
0
0


rang A = s = rang A = r
.

.


.
.
(iii)
.
···
···
··· ··· ··· . 


⇐⇒ Durch iterierte elementare Um0
···
···
··· ··· ··· 0
formungen kann A in eine Matrix
A 0 transformiert werden.
Repetitorium
52
lineare Algebra
2 Matrizen
Elementare Matrizenumformungen
(iv)
⇐⇒ Durch iterierte elementare Umformun
B =

 gen kann A in eine Blockmatrix der neben0m−r,r 0m−r,n−r
stehenden Gestalt transformiert werden.
2
Der Beweis zu diesem Satz wird als Ringschluss konstruktiv geführt,
womit ein Verfahren zur Rangbestimmung bereitgestellt wird.
(i)=⇒(ii): Ist r = 0 also A die Nullmatrix gibt es nichts zu tun. Ist r >
0, dann enthält A wenigstes eine Zeile mit einer von Null verschiedenen
Komponente. Diese Komponente lässt sich durch geeignete Zeilen- und
Spaltenvertauschungen an die Position der Komponente a11 bringen,
so dass das Produkt der ersten Zeile und dem Kehrwert der neuen a11
Komponente an der Position a11 den Wert Eins garantiert. Zieht man
nun von den Zeilen a21 . . . a2n bis am1 . . . amn das jeweilige ai1 -Fache
der ersten Zeile ab, dann entsteht eine Matrix deren erste Spalte in der


ersten Komponente eine Eins und in den Übrigen eine
1
∗
···
∗




0
 Null stehen hat und in ihrer Form der nebenstehenden




.
 Matrix entspricht. Ist m oder n mit Eins indentisch
 ..
A1 



 oder ist A = 0, dann endet das Verfahren anderenfalls
1
0
wird es mit A1 wiederholt bis s = min(m, n) oder
Ai = 0 gilt. Also liegt nach Beendigung des Verfahrens eine Matrix vor,
wie in (ii) behauptet. Fast man A nun als ein m-elementige Menge von
Zeilenvektoren auf mit

1r
0r,n−r

u1 =(1,a12 ,...,a1n ),...,us =(0,...,0,1,as,s+1 ,...,asn ),us+1 =(0,...,0),...,um =(0,...,0),
und bildet eine Linearkombination von u1 , . . . , us , die verschwindet,
dann kann die erste Komponente von u1 nur mittels des Linearkoeffizienten Null verschwinden, dann kann aber die zweite Komponente von
u2 auch nur mit dem Linearkoeffizienten Null verschwinden usw. bis
us . Damit folgt die lineare Unabhängigkeit der Vektoren u1 , . . . , us . Da
us+1 = · · · = um = 0 gilt, folgt dass die Vektoren u1 , . . . , us , ui mit
s < i 6 m linear abhängige Vektoren sind, also ist per Definition der
Rang von A 0 = s = rang A = r.
(ii)=⇒(iii) Elementare Zeilenumformungen und Spaltenvertauschungen sind insbesondere elementare Umformungen,
(iii)=⇒(iv) Wegen (iii) können nun alle elementaren Umformungen
genutzt werden, womit man von einer Matrix A 0 aus (ii) ausgehen kann.
Zieht man nun das jeweilige Skalarprodukt der ersten Spalte und a1i
mit 2 6 i 6 n von der i-ten Spalte ab, verschwinden alle Komponenten
der ersten Zeile mit Ausnahme von a11 . Zieht man dann das a2i -Fache
mit 3 6 i 6 n der zweiten Spalte von der i-ten Spalte ab verschwinden auch alle Komponenten der zweiten Zeile bis auf a22 und nach
Repetitorium
53
lineare Algebra
2 Matrizen
S 83.1
S 83.2
S 83.3
S 83.4
Matrizenmultiplikation
r-Schritten erhält man die gewünschte Matrix B aus (iv).
(iv)=⇒(i) Mit S 81 haben A und B den selben Rang. Da die ersten
r-Spalten bis zur r-ten Zeile die kanonischen Einheitsvektoren des Kr
sind, kann man mit einer zur (i)=⇒(ii) analogen Argumentation ableiten, dass rang B = r = rang A gilt. Damit ist der Ringschluss vollzogen.
Mit den gerade verwendeten Methoden lassen sich noch weitere nützliche Aussagen ableiten.


Die Matrix A 0 aus (ii) lässt sich allein durch ele1
B
r
r,n−r 


mentare Zeilenumformungen in eine Matrix der  0
0
m−r,r
m−r,n−r
nebenstehenden Form überführen indem man je
das aii -Fache der i-ten Zeile von der ersten bis zur (i − 1)-ten Zeile abzieht.
Hat A den Rang n (6 m), dann kann A nur mit elementaren Zeilenumformungen in eine Matrix der Form A 0 aus (ii) umgewandelt werden,
da die n-Spalten linear unabhängig sind findet sich in jeder Spalte eine von Null verschiedene Komponente, die durch eine entsprechende
Zeilenvertauschung nach „links oben” gebracht werden kann.


Aus den beiden vorhergehenden Aussagen folgt unmittel1n 


bar, dass eine Matrix des Rangs n nur durch elementare  0
m−n,n
Zeilenumformungen in die nebenstehende Form gebracht
werden kann.
Gilt m = n kann also eine n-reihige quadratische Matrix vom Rang n
nur durch elementare Zeilenumformungen in die n-reihige Einheitsmatrix überführt werden.
2
2.4 Matrizenmultiplikation
Neben der Matrizenaddition und der skalaren Matrizenmultiplikation
kann als weitere brauchbare Operation die Matrizenmultiplikation definiert werden.
D 78
Die Abbildung
Matm,n (K) × Matn,p (K) → Matm,p (K), (A, B) 7→ AB := (
n
P
aik bkj )ij
k=1
heißt Matrizenmultiplikation mit dem Matrizenprodukt von A und
B, welches offensichtlich nur definiert ist, wenn die Anzahl der Spalten
der linken Matrix mit der Anzahl der Zeilen der rechten Matrix identisch ist. Spezialfälle sind m = 1, p = 1, n = p = 1, m = p = 1,
m = n = p.
Eine Blockmatrix A vom Typ (m, n) der Stufe (r, s) multipliziert man
mit einer Blockmatrix B vom Typ (n, p) der Stufe (s, r) indem man die
korrespondierenden Blöcke Aij , Bij multipliziert.
2
Repetitorium
54
lineare Algebra
2 Matrizen
S 84.1
S 84.2
S 84.3
S 84.4
S 84.5
Matrizenmultiplikation
Die nachfolgenden Eigenschaften der Matrizenmultiplikation lassen sich
in Erinnerung an die Matrizenaddition und skalare Multiplikation durch
einsetzen in die Matrizenmultiplikation für alle A, A 0 ∈ Matm,n (K),
B, B 0 ∈ Matn,p (K) und a ∈ K nachrechnen.
Skalarverträglichkeit: (aA)B = A(aB) = a(AB)
Links-distributiv: (A + A 0 )B = AB + A 0 B
Rechts-distributiv: A(B + B 0 ) = AB + AB 0
Assoziativ: (AB)C = A(BC) mit C ∈ Matpq (K)
Unitär: 1m A = A = A1n
2
!
u
1
Stellt man sich die Matrix A vom Typ (m, n) als den neben..
.
stehenden m-Komponentigen Spaltenvektor von Zeilenvektoren
um
vor und eine (n × p) Matrix B als p-Komponentigen Zeilenvektor (v1 , . . . , vp ) von Spaltenvektoren vor, dann kann man durch einsetzen in die Definition der Matrizenmultiplikation eingedenk der Spezialfälle die folgenden Aussagen zeigen.
S 85.1
Die (ij)-Komponente des Produkts von A und B errechnet sich indem
man die i-te Zeile von A mit der j-ten Spalte von B multipliziert, also
AB = (Av1 , . . . , Avp ) = (ui vj )ij .
S 85.2
A lässt sich vermöge der Standardbasis des Kn als n-Tupel ihrer Spaltenvektoren realisieren mit A = (Ae1 , . . . , Aen ) = (v1 , . . . , vn ).
Seien 1 6 µ 6 m, 1 6 ν, ρ 6 n, 1 6 σ 6 p. Dann gilt für die Matrizeneinheiten Eµν vom Typ (m, n) und Eρσ die Identität
Pn
= (δiµ δνρ δjσ )16i6m,16j6p = δνρ Eµσ .
Eµν Eρσ =
δ
δ
δ
δ
iµ
kν
kρ
jσ
k=1
Ein Äquivalenzsatz zur Kommutativität der Matrizenmultiplikation.
(i)
⇐⇒ AB ist für n-reihige quadratische Matrizen B kommutativ.
(ii)
⇐⇒ AEµν = Eµν A wobei Eµν A eine beliebige Matrizeneinheit aus
Matn (K) ist und µ, ν aus {1, . . . , n} sind.
(iii)
⇐⇒ Es gibt einen Skalar, so dass A mit dem Skalarprodukt von diesem
Skalar und der n-reihigen Einheitsmatrix identisch ist.
S 85.3
S 85.4
S 85.5
Sobald n > 1 gilt, besitzt die Matrizenmultiplikation auf Matn (K) Nullteiler und ist nicht kommutativ.
2
2.4.1 Invertierbare Matrizen GLn (K)
Neben dem vorstehenden Äquivalenzsatz gibt es noch weiteres bemerkenswertes den über Sonderfall m = n = p, also den n-reihigen quadratischen Matrizen zusagen. Augenscheinlich ist für Matrizen aus Matn (K)
die Matrizenmultiplikation stets definiert. Außerdem wurde bereits gezeigt, dass mit 1n ein neutrales Element existiert und dass das Assoziativgesetz gilt. Fände man nun noch ein Inverses zu jeder n-reihigen
Repetitorium
55
lineare Algebra
2 Matrizen
Matrizenmultiplikation
quadratischen Matrix, dann könnte man offensichtlich auf der Menge
dieser Matrizen eine Gruppe nach D 34 definieren.
D 79
Eine n-reihige quadratische Matrix P heißt invertierbar wenn eine nreihige quadratische Matrix P 0 existiert, so dass das Produkt von P und
P 0 die n-reihige Einheitsmatrix ergibt und kommutativ ist. Synonym zu
invertierbar wird auch regulär oder nichtsingulär gesagt.
2
S 86
Angenommen P ∈ Matn (K) ist invertierbar und es gäbe zwei Matrizen
P 0 , P 00 mit den oben genannten Eigenschaften von P 0 . Dann gilt
P 0 = 1n P 0 = (P 00 P)P 0 = P 00 (PP 0 ) = P 00 1n = P 00 .
Es folgt also mit dem Assoziativgesetz und der Unitarität der Matrizenmultiplikation, dass P 0 durch P eindeutig bestimmt ist.
2
D 80
S 87.1
S 87.2
Diese eindeutig bestimmte n-reihige quadratische Matrix heißt Inverse
oder inverse Matrix von P und wird formal mit P −1 bezeichnet.
2
Nachstehend werden einige naheliegenden Folgerungen über ein beliebige n-reihige quadratische invertierbare Matrix P aufgelistet.
Die n-reihige Einheitsmatrix ist invertierbar wobei die Inverse die nreinige Einheitsmatrix ist.
Die Inverse von P ist invertierbar mit P als Inverser.
S 87.3
Das Matrizenprodukt von P und Q ist invertierbar mit dem Matrizenprodukt von der inversen Matrix von P und der inversen Matrix von Q
als Inversen.
S 87.4
Das Skalarprodukt von a und P ist invertierbar wobei das Skalarprodukt von dem Reziproken von a und dem Inversen von P die inverse
Matrix von aP ist.
Die Transponierte von P ist invertierbar mit der Transponierten der
Inversen von P als Inverse.
2
Genauso offensichtlich wie die n-reihige Einheitsmatrix invertierbar ist,
ist die Nullmatrix 0n nicht invertierbar. Es sind also nicht alle n-reihige
quadratische Matrizen invertierbar, womit man die Menge der quadratischen Matrizen auf diejenigen einschränken muss, die invertierbar sind,
möchte man ein Gruppe definieren.
Sei GLn (K) die Menge der invertierbaren Matrizen dann heißt das Paar
GLn (K) := (GLn (K), ) Allgemeine lineare Gruppe n-ten Grades27 .
Wobei die von der Matrizenmultiplikation induzierte Operation auf
GLn (K) ist.
2
Daraus entsteht nun die Notwendigkeit entscheiden zu können ob eine
n-reihige quadratische Matrix P invertierbar, also aus GLn (K) ist.
S 87.5
D 81
27
Englisch: General Linear Group
Repetitorium
56
lineare Algebra
2 Matrizen
S 88
Matrizenmultiplikation
Dieser Äquivalenzsatz listet einige Entscheidungshilfen für diese Fragestellung.
(i)
⇐⇒ P ist invertierbar.
(ii)
⇐⇒ Der Rang von P ist n
(iii)
⇐⇒ Die Spalten von P sind eine Basis des Kn .
(iv)
⇐⇒ Die lineare Abbildung28 lP : Kn → Km , v 7→ Pv ist surjektiv.
(v)
⇐⇒ Die lineare Abbildung lP ist injektiv.
(vi)
⇐⇒ Die lineare Abbildung lP ist bijektiv.
(vii)
⇐⇒ Es gibt ein Q ∈ Matn (K) mit PQ = 1n
(viii)
⇐⇒ Es gibt ein Q ∈ Matn (K) mit QP = 1n
2
Einsehen lässt sich dieser Satz durch den Ringschluss
(i) ⇒ (viii) ⇒ (ii) ⇒ (iii) ⇒ (iv) ⇒ (v) ⇒ (vi) ⇒ (vii) ⇒ (i).
(i) ⇒ (viii) : Folgt unmittelbar aus der Definition der Invertierbarkeit.
(viii) ⇒ (ii) : Per Voraussetzung gilt
(e1 , . . . , en ) = 1n = QP = Q(v1 , . . . , vn ) = (Qv1 , . . . , Qvn ) = (lQ (v1 ), . . . , lQ (vn )).
Die lQ (vi ) werden also auf die linear unabhängigen Basisvektoren ei abgebildet. Da lQ eine lineare Abbildung ist folgt mit dem Umkehrschluss
von S 65.2, dass die Vektoren v1 , . . . , vn linear unabhängig sind und damit ist der Rang von P gleich n.
(ii) ⇒ (iii) : Die Spalten von P sind aufgrund der Rangdefiniton linear
unabhängig und ihre Anzahl lässt sich wegen S 47 mit der Dimension
des Kn identifizieren, also sind die Spalten von P mit S 48 eine Basis
Basis des Kn .
(iii) ⇒ (iv) : Die Spalten von P bilden eine Basis des Kn und nach S 97
sind sie ein Erzeugendensystem des Bildes von lP , also ist lP surjektiv
und mit S 69.3 auch injektiv (v) und bijektiv (vi).
(vi) ⇒ (vii) : Da lP bijektiv ist existieren wj mit j ∈ {1, . . . , n} derart, dass lP (wj ) der j-te Einheitsvektor der Einheitsbasis des Kn ist.
Definiert man nun Q als n-Tupel (w1 , . . . , wn ), dann gilt
PQ = (Pw1 , . . . , Pwn ) = (e1 , . . . , en ) = 1n .
(vii) ⇒ (i) : Q hat höchstens den Rang n. Da sich der Rang des Produkts PQ einerseits mit dem der n-reihigen Einheitsmatrix identifizieren lässt und andererseits mit S 101 höchstens der kleinere der beiden
Ränge von P und Q ist, hat Q genau den Rang n. Also existiert mit dem
Schluss von (ii) auf (vii) eine Matrix R mit der Eigenschaft QR = 1n .
Damit lässt sich nachrechnen R = 1n R = (PQ)R = P(QR) = P1n = P,
und es folgt weiter dass PQ = QP = 1n , also P ist invertierbar.
2.4.2 Inversbildung durch Matrizenumformungen
28
Diese Abbildung wird in Abschnitt 2.6 genauer betrachtet
Repetitorium
57
lineare Algebra
2 Matrizen
Matrizenmultiplikation
Man kann zeigen, dass sich mittels elementarer Matrizenumformungen
die Inverse einer n-reihigen quadratischen Matrix bilden bzw. sich ihre
Nichtexistenz erweisen lässt. Dies gelingt indem man die Umformungen
als Matrizenmultiplikationen mit in D 71.3 definierten Elementarmatrizen identifiziert. Zunächst noch ein paar hilfreiche Aussagen über
Elementarmatrizen. Die λ und µ befinden sich dabei selbstverständlich im Rahmen der annehmbaren Zeilen- bzw. Spaltenindizes und der
Skalar a ist von Null verschieden.
S 89.1
S 89.2
Es gilt Fλµ (1n − Eλµ ) = Fλµ Fµ (−1)Fλµ Fµ (−1) = 1n .
So wie Fλ (a)Fλ (1/a) = 1n gilt.
S 89.3
Jede Elementarmatrix ist invertierbar, und ihr inverses ist Produkt von
Elementarmatrizen.
Sei im Weiteren A aus Matm,n (K).
S 89.4
Man Erhält die Produkte AFλµ bzw. Fµλ A aus A durch Addition der
λ-ten Spalte bzw. Zeile zur µ-ten Spalte bzw. Zeile.
(n)
(m)
Des Weiteren erhält man die Produkte AFλ (a) bzw. Fλ (a)A vermöge des Skalarprodukts von a und A’s λ-ten Spalte bzw. Zeile.
Iterierte elementarer Spalten- bzw Zeilenumformungen von A entsprechen umkehrbar eindeutig der Multiplikation von rechts bzw. von links
mit einem Produkt von Elementarmatrizen des Grades n bzw. m. 2
Da nun erkannt wurde, dass elementare Umformungen durch Matrizenprodukte realisierbar sind, kann der Normalformensatz formuliert
werden.
!
Mit S 82 und S 89.6 ergibt sich unmittelbar, dass zu
1r 0
einer jeden Matrix A aus Matm,n (K) mit dem Rang r PAQ = 0 0
Produkte P bzw. Q von Elementarmatrizen des Grades m bzw. n gibt, so dass nebenstehende Identität erfüllt ist.
S 89.5
S 89.6
S 90
(n)
(m)
2
S 91
Um nun die Invertierbarkeit eine quadratischen Matrix A mit elementaren Matrizenumformungen in Verbindung zu bringen, kann man einen
weiteren Satz mit Äquivalenzkriterien zur Invertierbarkeit formulieren,
welcher in der Erzeugung der Inversen von A gipfelt.
(i)
⇐⇒ A ist invertierbar.
(ii)
⇐⇒ A kann allein durch iterierte elementare Zeilenumformungen in
die Einheitsmatrix überführt werden.
(iii)
⇐⇒ A kann allein durch iterierte elementare Spaltenumformungen in
die Einheitsmatrix überführt werden.
(iv)
⇐⇒ A ist ein Produkt von Elementarmatrizen n-ten Grades. Wendet
man die selben iterierten Zeilenumformungen, die A in die EinheitsmaRepetitorium
58
lineare Algebra
2 Matrizen
(2 × 2)-Matrizen
trix überführen, auf die n-reihige Einheitsmatrix an so wird diese in
die Inverse von A überführt.
2
Bemerkenswert ist an dieser Stelle noch, dass man sich zwischen elementaren Zeilen- und Spaltenumformungen entscheiden muss wenn
man auf diese Art und Weise die Inverse einer quadratischen Matrix bilden möchte.
2.5 (2 × 2)-Matrizen
D 82
S 92
S 93
S 94
S 95.1
S 95.2
S 95.3
Da n-reihige quadratische Matrizen eine zentrale Rolle spielen, ist es
nützlich den einfachsten nichttrivialen Fall – 2-reihige quadratische Matrizen – genauer zu betrachten, bevor allgemeinere Untersuchungen angestellt werden.
Sei A = ac bd ∈ Mat2 (K), dann heißt det A := ad − bc Determinante
von A und spur A := a + d die Spur von A.
2
Wegen der Rangdefinition verschwindet der Rang von A genau dann,
wenn A die Nullmatrix 02 ist.
2
Ist der Rang von A eins, sind die Spalten von A linear abhängig also
b = sa und d = sc. In det A eingesetz impliziert dies s(ac − ac) = 0 =
det A. Verschwindet umgekehrt die Determinante von A, nicht aber A
selbst und man nimmt an, die Spalten von A wären linear unabhängig.
Dann gilt mit
b
a
ab−ba
0
cb−da
b
a
a d − b c = ad−bc = 0 = cd−dc = c d − d c ,
dass a, b, c und d verschwinden müssen wegen der linearen Unabhängigkeit der Spalten von A. Damit verschwände A aber auch, was der
Voraussetzung wiederspricht, also sind die Spalten von A linear abhängig und damit der Rang von A eins.
Der Rang von A ist genau dann eins, wenn A nicht verschwindet und
det A schon.
2
Damit folgt schließlich, dass der Rang von A genau dann zwei ist, wenn
die Determinante von A nicht verschwindet.
2
Durch Nachrechnen lassen sich noch die folgenden Aussagen über zweireihige quadratische Matrizen A, A 0 rechtfertigen.
Die Determinante des Produkts von a und A 0 ist identisch mit dem
Produkt von a und det A 0 .
Die Spur des Produkts von A und A 0 ist die selbe wie die des Produkts
von A 0 und A.
Das Quadrat von A lässt sich identifizieren mit der Differenz der Produkte von spur A und A sowie von det A und 12 .
2
Repetitorium
59
lineare Algebra
2 Matrizen
lineare Abbildungen
2.6 lineare Abbildungen
S 96
S 97
Zwischen Matrizen und linearen Abbildungen kann eine Beziehung hergestellt werden. Summa summarum lässt sich zeigen, dass die beiden
Begriffe „Matrix” und „lineare Abbildung” einander entsprechen. Zunächst soll gezeigt werden, wie man einer Matrix eine lineare Abbildung zuordnen kann. Nun gilt ja wegen der Skalarverträglichkeit für
die Matrizen A vom Typ (m, n) und v vom Typ (n, 1), dass A(av) mit
a(Av) identisch ist. Hat man noch eine weiter Matrix v 0 vom Typ (n, 1),
dann folgt mit der rechts-Distributivität die Identität von A(v+v 0 ) und
Av + Av 0 . Damit ist die folgende Aussage als wahr erkannt.
Für ein beliebiges Vektor A aus dem Vektorraum der (m × n)-Matrizen
über einen Körper K ist die Abbildung lA : Kn → Km , v 7→ lA (v) := Av
linear und somit ein Element von Hom(Kn , Km ) .
2
Fasst man A als n-Tupel (a1 , . . . , an ) ihrer Spaltenvektoren auf, dann
bilden mit S 65.1 die Vektoren Aej = vj ein Erzeugendensystem von
Bild lA , und somit gilt
Bild lA = Lin(a1 , . . . , an )
2
Wie eingangs versprochen soll nun eine Zuordnung von einer Matrix zu
einem Homomorphismus angegeben werden, in Form der Abbildung
l : Matm,n (K) −→ Hom(Kn , Km ), A 7−→ l(A) := lA .
S 98
Nimmt man sich nun zwei Skalare a, b ∈ K und zwei Matrizen aus
Matm,n (K), dann kann man die Identität von laA+bB und alA + blB
nachrechnen indem man zeigt, dass laA+bB (v) = alA (v) + blB (v) für
alle v aus Kn gilt.
Die Abbildung l ist also ein Vekorraumhomomorphismus.
2
Möchte man zwei Abbildungen lA und lB mittels Komposition verknüpfen, dann muss analog zur Matrizenmultiplikation die Spaltenanzahl
von A mit der Zeilenanzahl von B übereinstimmen. Ist dies gegeben,
kann man sich davon Überzeugen, dass lAB und lA ◦ lB wohldefinierte
Ausdrücke sind und wegen
lAB (v) = (AB)v = A(Bv) = lA (lB (v)) = (lA ◦ lB )(v)
sind sie identisch.
S 99
Es gilt also lAB = lA ◦ lB mit A ∈ Matm,n (K), B ∈ Matn,p (K)
2
Da man nun jeder Matrix A kanonisch ein lineare Abbildung zuordnen
kann, können Informationen über A in Informationen über die Abbildung lA übersetzt werden. Beispielsweise wurde in S 97 festgestellt,
dass die Spalten von A ein Erzeugendensystem des Bildes von lA ist.
Eingedenk der beiden Rangdefinitionen D 74, 68 folgt nun unmittelbar,
Repetitorium
60
lineare Algebra
2 Matrizen
S 100
S 101
lineare Abbildungen
dass
der Rang einer Matrix A ∈ Matm,n (K) identisch ist mit dem von lA . 2
Nun kann das Produkt einer Matrizenmultiplikation mit dem Rangbegriff in Beziehung gesetzt werden indem man S 71.2 für Matrizen
A ∈ Matm,n (K) und B ∈ Matn,p (K) übersetzt.
Die Differenz der Summe der Matrizenränge und n ist höchstens so groß
wie der Rang des Produkt von A und B, welcher wiederum nicht größer
ist als der kleinere der beiden Ränge rang A und rang B.
2
Außerdem lässt sich nun auch das Bild und der Kern einer Matrix
sinnvoll definieren.
D 83.1
D 83.2
S 102
S 103
D 84.1
Die Menge aller m-dimensionaler Spaltenvektoren Av mit A ∈ Matm,n (K)
und v ∈ Kn heißt Bild von A.
Die Menge aller n-dimensionaler Spaltenvektoren, die von lA auf Null
abgebildet werden heißt Kern von A.
2
Damit lassen sich weitere Eigenschaften linearer Abbildungen auf Matrizen übertragen.
Mit S 70.1 folgt dim Kern A = n − rang A mit A ∈ Matm,n (K).
2
Für eine n-reihige quadratische Matrix kann die Äquivalenz der nachstehenden Aussagen gezeigt werden.
(i)
⇐⇒ Kern A = {0}.
(ii)
⇐⇒ Bild A = Kn .
(iii)
⇐⇒ rang A = n.
2
Da der Kern der Matrix A nichts anderes ist als der Kern der linearen
Abbildung lA folgt mit S 64 aus (i) die Injektivität von lA . Da A voraussetzungsgemäß quadratisch ist, sind lA ’s Definitions- und Wertemenge
Kn , also identisch. Damit ist die Voraussetzung für Satz S 69.3 erfüllt
und lA ist damit surjektiv was nichts anderes heißt als Bild A = Kn .
Da nach S 47 n die Dimension des Kn ist, folgt mit der Rangdefinition
D 68 linearer Abbildungen, dass der Rang von lA identisch mit n ist
und somit auch rang A = n definitionsgemäß gilt. Mit der obigen Dimensionsformel S 102 ergibt sich dann wieder (i) womit der Ringschluss
(i) ⇒ (ii) ⇒ (iii) ⇒ (i) vollzogen ist.
Nachdem mit der Abbildung lA jeder Matrix kanonisch ein Homomorphismus zugeordnet werden kann, soll nun gezeigt werden, wie man
einer jeden linearen Abbildung eine Matrix zuordnen kann. Hierfür wird
der Begriff der geordneten Basis benötigt.
Eine geordnete Basis eines endlich erzeugten Vektorraums ist ein nTupel (v1 , . . . , vn ) paarweise verschiedener Vektoren, die eine Basis des
Vektorraums bilden.
Repetitorium
61
lineare Algebra
2 Matrizen
lineare Abbildungen
D 84.2
Das n-Tupel von Einheitsvektoren heißt geordnete Standardbasis des
n-dimensionalen Spaltenraums. Man schreibt formal
E := E(n) := (e1 , . . . , en )
2
S 104.1
Lineare Abbildungen lassen sich durch Matrizen vollständig beschreiben29 , weil es zu einer geordneten Basis B := (v1 , . . . , vn ) von V und
einem n-Tupel von Vektoren (w1 , . . . , wn ) aus W genau eine lineare
Abbildung f von V in W gibt, für die gilt f(vj ) = wj ∀j ∈ {1, . . . , n}.
f ist genau dann ein Isomorphismus, wenn (w1 , . . . , wn ) eine geordnete
Basis von W ist.
2
Mit S 41 lässt sich jeder Vektor aus V eindeutig als Linearkombination der Vektoren aus B darstellen und mit S 57.3 folgt f(v) =
Pn
Pn
j=1 aj f(vj ) =
j=1 aj wj . Der Wert von f an der Stelle v ist also
durch v und die vorausgesetzten Eigenschaften von f vollständig bePn
stimmt, und mit der Abbildungsvorschrift f(v) := j=1 aj wj existierte
dann eine Abbildung mit den gewünschten Eigenschaften, die aufgrund
der oben genannten Eindeutigkeit wohldefiniert ist. Mit S 56 lässt sich
die Linearität von f nachrechnen.
Das (w1 , . . . , wn ) eine Basis von W ist ergibt sich mit S 66. Ist
(w1 , . . . , wn ) eine geordnete Basis, dann Existiert mit S 104.1 genau
eine Abbildung g : W → V mit g(wj ) = vj . Da die Komposition zweier
Homomorphismen wieder einen Homomorphismus ergibt, ist (g ◦ f) :
V → V mit (g ◦ f)(vj ) = vj auch ein Homomorphismus und dieser ist
mit der Basiseigenschaft von (v1 , . . . , vn ) und S 104.1 eindeutig. Damit
ergibt sich unmittelbar, dass g ◦ f mit der Identität auf V identisch ist.
Analog lässt sich der eindeutige Homomorphismus (f ◦ g) : W → W mit
(f ◦ g)(wj ) = wj als Identität auf W identifizieren. Also ist mit S 4.7 f
als bijektiv erkannt und somit S 104.2 verifiziert.
Setzt man nun insbesondere (w1 , . . . , wn ) = (0, . . . , 0), also f(vj ) =
0, dann verhält sich f für die Basisvektoren aus (v1 , . . . , vn ) wie die
Nullabbildung, da diese ein Homomorphismus ist, muss f mit S 104.1
die Nullabbildung sein.
2
Zu der Aussage, dass ein n-dimensionaler Vektorraum zum n-dimensionalen Spaltenraum isomorph ist (S 61), lässt sich mit der gerade
gewonnen Erkenntnis ein alternativer Beweis angeben. Denn f : Kn →
Pn
V, t (a1 , . . . , an ) := j=1 aj vj ist im Sinne von S 104.1 derjenige Homomorphismus, der f(ej ) den Vektor vj zuordnet. Da (e1 , . . . , en ) und
(v1 , . . . , vn ) per Definition geordnete Basen sind folgt mit S 104.2, dass
f ein Isomorphismus ist.
S 104.2
S 105
29
Dieser Umstand wird auch lineare Fortsetzung genannt.
Repetitorium
62
lineare Algebra
2 Matrizen
D 85
S 106.1
lineare Abbildungen
Ist f : V → W eine lineare Abbildung, B = (v1 , . . . , vn ) eine geordnete
Basis von V und C = (w1 , . . . , wn ) eine geordnete Basis von W. Stellt
man ein Bild von vj als eindeutige Linearkombination der w1 , . . . , wn
Pn
dar, also f(vj ) = i=1 aij wi mit den eindeutig bestimmten aij , dann
heißt die m × n Matrix MB
C (f) := (aij )ij ∈ Matm,n (K), die Matrix von
f bezüglich B und C.
Ist f ein Endomorphismus, dann setzt man MB (f) := MB
B (f) ∈ Matn (K)
und nennt MB (f) Matrix von f bezüglich B.
2
Die j-te Spalte von MC
B (f) wird also ermittelt, indem man die Linearkoeffizienten des Bildes von vj der Reihe nach zu einer Spalte zusammenfasst.
Dem Nullhomomorphismus von V in W wird dann beispielsweise die
Nullmatrix vom Typ (n, m) unabhängig von den gewählten Basen zugeordnet, und der Identität von V wird für eine beliebig gewählte geordnete Basis die n-reihige Einheitsmatrix zugeordnet. Dies sollte aber nicht
darüber hinwegtäuschen, dass im Regelfall die Matrix eines Homomorphismus bezüglich zweier Basen sehr wohl von diesen Basen abhängt.
Man errechnet zum Beispiel als Matrix der kanonischen Projektion von
Kn in Km bezüglich der geordneten Standardbasen E(n) und E(m) die
Matrix 1m 0 , die bezüglich anderer Basen auch anders aussieht.
Hat man einen Homomorphismus f von V in W und die geordneten
Basen B = (v1 , . . . , vn ) bzw. C = (w1 , . . . , wn ) von V bzw W gegeben.
(f) eindeuDann bestimmt definitionsgemäß die n × m-Matrix A = MB
CP
0
0
0
tig ein n-Tupel (w1 , . . . , wn ) von Vektoren aus W mit wj := m
i=1 aij wi
0
und f(vj ) = wj . Mit S 104.1 folgt, dass es genau eine solche lineare Abbildung gibt.
Man kann also festhalten, dass die Abbildung
B
MB
C : Hom(V, W) → Matm,n (K), f 7→ MC (f)
S 106.2
bijektiv ist. Rechnet man noch nach, dass MB
C linear ist, dann handelt
B
es sich bei MC um einen Vektorraumisomorphismus.
Satz S 67.1 lehrt, dass der Vektorraum auf den linearen Abbildungen
von V in W die gleiche Dimension wie der Vektorraum auf den m × nMatrizen über K hat, so dass mit S 72.3 folgt
dim Hom(V, W) = n · m = (dim V)(dim W).
Also ist der Vektorraum auf Menge der linearen Abbildungen von V in
W endlichdimensional.
S 106.3
Für den Vektorraum auf der Menge aller Endomorphismen von V über
K gilt dann entsprechend dim End(V) = (dim V)2 . Natürlich ist auch
End(V) endlich dimensional.
Repetitorium
63
lineare Algebra
2 Matrizen
S 106.4
lineare Abbildungen
Sei U ein endlich erzeugter Vektorraum mit der geordneten Basis A =
(u1 , . . . , up ) und der Homomorphismus g von U in V, dann lässt sich
folgende Identität nachrechnen
B
A
MA
C (f ◦ g) = MC (f)MB (g)
womit die Matrizenmultiplikation eine nachträgliche Rechtfertigung erPm
fährt. Denn definitionsgemäß gilt f(vj ) =
i=1 aij wi und g(uk ) =
Pn
j=1 bjk vj mit 1 6 k 6 p, also folgt für die Komposition
P
Pm
Pm Pn
bjk f(vj ) = n
j=1 (aij bjk )wi ,
i=1
j=1 bjk
i=1 aij wi =
Pn
B
A
MC (f ◦ g) = ( j=1 aij bjk )ik = (aij )ij (bjk )jk = MC (f)MA
B (g).
f(g(uk )) =
S 106.5
S 106.6
S 107
Pn
j=1
Weiter folgt mit dim V = n, dass f genau dann ein Isomorphismus ist,
wenn die Dimension von W ebenfalls n ist (S 67.1) und die Matrix
von f bezüglich B und C – aus der Menge der n-reihigen quadratischen
−1
−1
Matrizen – invertierbar ist. In diesem Falle gilt MB
= MC
).
C (f)
B (f
B
C −1
Da mit S 4.7, 60.3, D 15 und vorstehendem Satz MC (f)MB (f ) = 1n
folgt und mit S 88 die Invertierbarkeit von MB
C (f) mit der Inversen in
C
der geforderten Form. Umgekehrt gilt, da MB : Hom(W, V) → Matm,n
−1
−1
bijektiv ist, gibt es zu MC
) = MB
eine lineare Abbildung g
B (f
C (f)
−1
B
C
aus Hom(W, V) mit MB (g) = MC (f) , so dass sich in analoger Weise
zu S 104.2 f als Isomorphismus nachweisen lässt. Damit wurde die Frage
ob ein Homomorphismus ein Isomorphismus ist, in eine Frage nach der
Invertierbarkeit einer Matrix umgeformt.
Der Sonderfall der Endomorphismen, also U = V = W und A = B = C
soll ob seiner Wichtigkeit nocheinmal gesondert aufgeführt werden.
MB : End(V) → Matn (K), f 7→ MB (f) ist also ein Isomorphismus mit
MB (f ◦ g) = MB (f)MB (g), (f, g ∈ End(V)) und f ist ein Isomorphismus genau dann, wenn MB (f) aus der Menge der allgemeinen linearen
Gruppe n-ten Grades ist (D 81). Ist MB (f) ∈ GLn (K), dann ist die
Inverse der Matrix von f bezüglich B die Matrix der Umkehrabbildung
von f bezüglich B.
2
(n)
Nun kann S 98 noch ergänzt werden, denn mit D 85 und lA (ej ) =
Pm
(m)
folg, dass die Matrix von lA bezüglich der n bzw. mi=1 aij ei
dimensionalen geordneten Standardbasen identisch mit A ist. Die KomE(n)
E(n)
position von ME
(m) ◦ l ist also die Identität auf Matm,n (K). Da ME(m)
schon in S 106.1 als Vektorraumisomorphismus erkannt wurde, gilt selE(n) −1
.
biges für l = (ME
(m) )
(n)
E
Also gilt die Identität ME
(m) (lA ) = A für alle Matrizen vom Typ (m, n)
über K, und damit ist die Abbildung
l : Matm,n (K) −→ Hom(Kn , Km ), A 7−→ l(A) := lA
(n)
E
ein Vektorraumisomorphismus mit l−1 = ME
(m) .
Repetitorium
64
2
lineare Algebra
2 Matrizen
D 86
S 108.1
lineare Abbildungen
Möchte man ein lineare Abbildung f ∈ Hom(V, W) mit einer linearen
Abbildung lA ∈ Hom(Kn , Km ) vergleichen, muss man zunächst einen
Zusammenhang zwischen V und Kn bzw. zwischen W und Km herstellen, was sich mit dem Begriff des Übersetzungsisomorphismus realisieren lässt.
Ist V ein endlich erzeugter Vektorraum mit der geordneten Basis B =
(v1 , . . . , vn ). Dann heißt die mit S 104.1 eindeutig bestimmte lineare
Abbildung ΦB : V → Kn mit ΦB (vj ) = ej mit S 104.2 Übersetzungsisomorphismus von V auf Kn .
2
Sei B = (v1 , . . . , vn ) bzw. C = (w1 , . . . , wn ) die geordnete Basis des
Vektorraums V bzw. W, und f sei ein Homomorphismus von V in W
für die nachstehenden Sätze.
Mit A := MB
∈ Matm,n (K)
C (f)
gilt das nebenstehende Kommutativdiagramm, also ΦC ◦ f = lA ◦ ΦB . Um
diese Identität als wahr zu erkennen genügt es mit S 106.1 zu zeigen, dass die
Matrix von (ΦC ◦ f) bezüglich B und
E(m) identisch ist mit der von (lA ◦ΦB ).
f
V
W
ΦB
ΦC
lA
Kn
Km
Kommutativ Diagramm
(n)
E
B
B
MB(m) (ΦC ◦f)=MC(m) (ΦC )MB
C (f)=1m A=A1n =M (m) (lA )M (n) (ΦB )=M (m) (lA ◦ΦB )
E
S 108.2
S 108.3
S 108.4
E
E
E
(−1)
(−1)
Bild f = f(V) = ΦC (lA (ΦB (V))) = ΦC (Bild lA )
(−1)
Kern f = Kern(lA ΦB ) = ΦB (Kern A).
Auch hier sei der Fall, dass f aus der
Menge der Endomorphismen über K ist
gesondert notiert. Es gilt die durch das
nebenstehende Diagramm verdeutlichte Identität ΦB ◦ f = lA ◦ ΦB .
V
E
=
(−1)
ΦC (Bild A).
f
ΦB
Kn
V
ΦB
lA
Kn
2
Damit wurde nun gezeigt, dass sich sämtliche algebraischen Daten von
f eindeutig durch die Matrix A = MB
C (f) ausdrücken lassen. Da die
Matrix einer linearen Abbildung von den zugrundeliegenden Basen abhängt, kann das Aussehen der Matrix durch die Wahl der geordneten
Basen der Definitions- und Wertemenge beeinflusst werden. Dies motiviert eine Untersuchung des Transformationsverhalten einer Matrix
eines Homomorphismus wenn ein Basiswechsel vollzogen wird. Um den
Übergang einer Basis zu einer anderen zu untersuchen, ist die Begriffsbildung der Übergangsmatrix sinnvoll.
D 87
Sei B = (v1 , . . . , vn ) eine geordnete Basis und B 0 = (v10 , . . . , vn0 ) ein
Repetitorium
65
lineare Algebra
2 Matrizen
lineare Abbildungen
n-Tupel von Vektoren aus V. Dann lassen sich die Vektoren vj0 als LiP
nearkombinationen n
i=1 bij vi der v1 , . . . , vn darstellen und die wegen
S 41 eindeutig bestimmten bij bilden die Übergangsmatrix von B zu
B 0.
2
S 109
S 110.1
Mit S 104.1 existiert genau eine lineare Abbildung von V in V mit
f(vj ) = vj0 . Weiter ist definitionsgemäß die Matrix von f bezüglich B die
Übergangsmatrix von B zu B 0 . S 106.5 lehrt schließlich, dass die Übergangsmatrix genau dann invertierbar ist, falls f ein Isomorphismus ist,
was mit S 104.2 genau dann der Fall ist, wenn B 0 eine geordnete Basis
ist. B 0 ist also genau dann eine geordnete Basis, wenn die Übergangsmatrix von B zu B 0 invertierbar ist. Ist dies der Fall, folgt mit der Gleichung
Pn
idV (vj0 ) = vj0 = i=1 bij vi , ∀j ∈ {1, . . . , n}, dass die Übergangsmatrix,
0
die Matrix der Identität bezüglich B und B 0 ist, also ÜB = MB
B (idV ).2
Mit diesem Satz, kann das Transformationsverhalten einer Matrix eines
Homomorphismuses beschrieben werden.
Die oben genannten Mengen B und B 0 sind nun geordnete Basen von V
0
sowie C = (w1 , . . . , wm ) und C 0 = (w10 , . . . , wm
) geordnete Basen von
W sind. Außerdem ist ÜB ∈ GLn (K) die Übersetzungsmatrix von B zu
B 0 und ÜC ∈ GLn (K) die von C zu C 0 . Dann gilt für einen Homomor0
−1
B
phismus von V in W die Identität MB
C 0 (f) = ÜC MC (f)ÜB . Denn mit
dem oben formulierten Satz und S 106.4, 106.5 lässt sich nachrechnen
0
0
0
−1
B
B
MB
(f)=MB
((idW )−1 ◦f◦idV )=MC
((idW )−1 )MB
C (f)MB (idV )=ÜC MC (f)ÜB .
C0
C0
C0
S 110.2
0
Für den Spezialfall der Endomorphismen mit ÜB = MB
B 0 (idV ) gilt dann
−1
−1
MB 0 (f) = ÜB MB (f)ÜB für alle f ∈ EndK (V).
2
2.6.1 Linearformen, dualer Raum
D 88.1
D 88.2
D 88.3
S 111.1
In diesem Abschnitt werden einige wichtige Aspekte der Homomorphismen herausgearbeitet, die auf den eindimensionalen Spaltenraum
abbilden. Zunächst einige übliche Begriffsbildungen.
Unter einer Linearform auf oder auch von V versteht man eine lineare
Abbildung von V in K.
Die Menge aller Linearformen von V heißt der Dualraum von V und
wird formal mit V∗ = Hom(V, K) bezeichnet.
Ein Untervektorraum eines endlichdimensionalen Vektorraums, dessen
Dimension genau um eins geringer ist als die des Vektorraums heißt
Hyperebene des Vektorraums.
Die Hyperebene einer Ursprungsgeraden ist der Nullraum, einer Ebene
die in ihr enthaltenen Ursprungsgeraden usw.
2
Es ergibt sich, dass eine von Null verschiedene Linearform f auf V surRepetitorium
66
lineare Algebra
2 Matrizen
S 111.2
S 111.3
lineare Abbildungen
jektiv ist und der Kern von f ist eine Hyperebene von V, falls V endlichdimensional ist. Denn mit S 63 und f 6= 0 ist das Bild von f ein
eindimensionaler Unterraum von K und mit S 52 K selbst, was die Surjektivität belegt. Mit der Dimensionsformel S 68 ergibt sich der Rest
der Aussage.
Ist V endlichdimensional und B = (v1 , . . . , vn ) eine geordnete Basis von
V. Dann folgt mit S 104.1, dass es genau ein n-Tupel (f1 , . . . , fn ) von
Linearformen f1 , . . . , fn mit fi (vj ) = δij gibt.
P
Pn
Setzt man n
i=1 ai fi = 0, dann gilt insbesondere
i=1 ai fi (vj ) = 0 mit
j = 1, . . . , n. In jedem Summanden
(a1 f1 (v1 ) + · · · + a1 f1 (vn )) + · · · + (an fn (v1 ) + · · · + an fn (vn ))
verschwinden die fi (vj ) mit i 6= j, so dass nur die Summe a1 f1 (v1 ) +
· · · + an fn (vn ), also a1 + · · · + an bleibt, die genau dann verschwindet,
wenn alle ai verschwinden. Damit sind die f1 , . . . , fn linear unabhängig
und paarweise verschieden. Da für ein f aus V∗ ,
Pn
Pn
Pn
( i=1 f(vi )fi )(vj ) = i=1 f(vi )fi (vi ) = i=1 f(vi )δij = f(vj )
Pn
gilt, folgt mit S 104.1 die Identität f = i=1 f(vi )fi und zusammenfassend, dass B∗ := (f1 , . . . , fn ) eine geordnete Basis von V∗ ist.
2
D 89
S 112.1
S 112.2
S 112.3
S 112.4
S 112.5
Die gerade konstruierte geordnete Basis B∗ heißt die B-duale Basis
oder zu B duale Basis von V∗ .
2
Des weiteren lassen sich nachstehende Schlüsse über eine endlichdimensionale Vektorraum V und seinen Dualraum V∗ ziehen.
Ist V endlichdimensional, dann auch dessen Dualraum.
V hat die gleiche Dimension wie sein Dualraum.
Zu jedem von Null verschiedenen Vektor v gibt es eine Linearform auf
V, die diesen Vektor auf die Eins abbildet. Denn v ist linear unabhängig,
also gibt es mit S 45.4 eine geordnete Basis B = (v1 , . . . , vn ) von V mit
v1 = v. Ist nun noch B∗ = (f1 , . . . , fn ) die B-duale Basis von V∗ , dann
ist f1 die gesuchte Abbildung.
Wendet man nun S 112.3 auf v − v 0 6= 0 an, dann trennt V∗ die Punkte
von V, das heißt zu verschiedenen Vektoren v, v 0 ∈ V gibt es einen
Linearform f auf V mit f(v) 6= f(v 0 ).
Für die Matrix einer Linearform f ∈ V ∗ gilt mit der geordneten Standardbasis C := (1) von K1 , dass
B
uB (f) := MB
(1) (f) = MC (f) = (f(v1 ), . . . , f(vn )) ∈ Mat1,n (K) = Kn .
S 112.6
Und mit S 106.1 ist uB : V ∗ → Kn , f 7→ uB (f) ein Vektorraumisomorphismus.
Repetitorium
67
lineare Algebra
2 Matrizen
S 112.7
S 112.8
Determinante
Analog zu S 108.1 kann man mit den
Übersetzungshomomorphismen
ΦB : V → Kn und Φ(1) : K → K1 = K
– also Φ(1) = idK – ableiten, dass f =
lu ◦ ΦB und damit f(v) = lu (ΦB (v)) =
uΦB (v) für alle v ∈ V gilt.
V
f
K
f
ΦB
Kn
Φ(1)
lu
K
Ist in S 112.7 V = Kn und B die geordnete Standardbasis des Kn , dann
gilt ΦB = idn
2
K und somit f(v) = uv mit u = uB (f).
Die B-duale Basis von (Kn )∗ kann man ohne weiteres explizit berechnen. Ist B = (v1 , . . . , vn ) eine geordnete Basis des Kn , dann lässt sich
B auch als n-reihige quadratische Matrix interpretieren, die mit S 88
invertierbar ist und mit S 91 lässt sich die Inverse B−1 = t (u1 , . . . , un )
mit ui ∈ Kn berechnen. Die Abbildungen fi : Kn → K, v 7→ fi (v) := ui v
sind linearformen und mit S 85.1 folgt
(δij )ij = 1n = B−1 B = (ui vj )ij = (fi (vj ))ij ,
also (fi (vj ))ij = (δij )ij und damit ist B∗ := (f1 , . . . , fn ) die B−duale
Basis von (Kn )∗ .
2.7 Determinante
Der in Abschnitt 2.5 eingeführte Begriff, der Determinante kann verallgemeinert werden, da sich jeder n-reihigen quadratischen Matrix in
eindeutiger Art und Weise eine Determinante zuordnen lässt. Die geometrische Deutung der Determinante ist für eine 1×1-Matrix die Länge
einer Strecke, für eine 2 × 2-Matrix der Flächeninhalt des Parallelogramms, das durch die Vektoren v1 , v2 aufgespannt wird und für eine
3 × 3-Matrix ist es das orientierte Volumen des Parallelepipeds30 , der
von den Vektoren v1 , v2 , v3 aufgespannt wird. Orientiert deshalb, weil
das Volumen auch negativ sein kann, wenn z.B. Mat1 (K) 3 a < 0 gilt,
oder wenn v2 zu v1 in Richtung des positiven mathematischen Drehsinns31 liegt. Im Dreidimensionalen kann man die Orientierung des Volumens mit der Schraubenregel ermitteln. Dreht man eine Schraube
mit Rechtsgewinde auf der v1 − v2 -Ebene von v1 in Richtung v2 und
die Schraube windet sich daraufhin in Richtung v3 , dann ist das Volumen positiv anderenfalls negativ. Außerdem kann man sich mit Mitteln
der Schulgeometrie bezüglich, der von v1 und v2 aufgespannten, Fläche
überzeugen, dass
ist ein Prisma dessen Grund- und Deckfläche Parallelogramme sind; ein Prisma ist
ein Körper dessen Grund- und Deckfläche kongruente Polygone sind, die in parallelen
Ebenen liegen und dessen begrenzende Seitenflächen Parallelogramme sind.
31
gegen den Uhrzeigersinn
30
Repetitorium
68
lineare Algebra
2 Matrizen
S 113.1
S 113.2
S 113.3
Determinante
F(v1 , v2 ) = F(v1 , v2 + v1 ) = F(v1 + v2 , v2 ) und dass
aF(v1 , v2 ) = F(av1 , v2 ) = F(v1 , av2 ) gilt, falls die Vektoren linear unabhängig sind.
F(v1 , v2 ) = 0, falls die Vektoren linear abhängig sind.
2
Die ersten beiden Eigenschaften von F sollen die entscheidenenden Eigenschaften der Determinantenfunktion sein.
D 90
Gelten für eine Funktion ∆ : Matn (K) → K die Eigenschaften
DF 90.1 Die Bilder von A, B ∈ Matm,n (K) sind identisch falls B aus A
entsteht indem eine Spalte von A zu einer anderen von A addiert
wird.
DF 90.2 Das Bild von B ist das Produkt von a ∈ K und A, falls B aus A
durch Multiplikation einer Spalte A’s mit dem Skalar a entsteht.
Dann heißt die Funktion ∆ Determinantenfunktion auf Matn (K).
2
S 114.1
S 114.2
Mittels dem Begriff der Elementarmatrix D 71.3 und den Sätzen S 89.4,
S 89.3 lassen sich DF 90.1 und DF 90.2 auch wie folgt formulieren.
Das Bild von A einer Determinantenfunktion ist identisch mit dem Bild
des Produkts von A und Fλµ .
Das Bild des Produkts von A und Fλ (a) ist das Produkt von a und
dem Bild von A.
S 114.3
Daraus folgt mit S 91, dass es zu jedem Q aus der allgemeinen linearen Gruppe ein c aus K\{0} gibt, so dass für alle A aus Matn (K) gilt
∆(AQ) = c∆(A).
S 114.4
Und mit Hilfe von DF 90.2 gilt, dass ∆(B) = 0∆(A) falls A eine Nullspalte enthält, also dass Bild von A Null ist.
Womit die Determinante einer n-reinigen quadratischen Matrix Null ist
falls diese nicht vollen Rang hat.
Ist das Bild der Determinantenfunktion von 1n mit Null identisch, dann
verschwindet mit S 114.5, 114.3 (∆(A) = ∆(1n A) = c∆(1n ) = 0) auch
jedes Bild einer anderen Matrix aus Matn (K)
Seien im Weiteren ∆1 und ∆2 Determinantenfunktionen und a1 , a2 aus
K.
Dann ist auch
S 114.5
S 114.6
S 114.7
∆ : Matn (K) −→ K, A 7−→ ∆(A) := a1 ∆1 (A) + a2 ∆2 (A)
S 114.8
eine Determinantenfunktion.
Mit dieser Erkenntnis folgt, dass ∆(1n )∆2 (A) = ∆2 (1n )∆1 (A), da
∆ : Matn (K) → K, A 7→ ∆(A) := ∆1 (1n )∆(A) − ∆2 (1n )∆1 (A)
Repetitorium
69
lineare Algebra
2 Matrizen
Determinante
eine Determinantenfunktion ist, für die gilt, dass das Bild der Einheitsmatrix Null ist, dass sie also mit S 114.6 alle Matrizen aus der Menge
der n-reihigen quadratischen Matrizen auf die Null abbildet.
S 114.9
Weiter gilt, verschwindet ∆1 nicht identisch, dann ist auch das Bild der
n-reihigen Einheitsmatrix von Null verschieden, setzt man nun noch a
auf den Quotienten von ∆2 (1n ) und ∆1 (1n ), dann ist das Produkt von
a und ∆1 (A) identisch mit ∆2 (A).
S 114.10
Ist das Bild der n-reihigen Einheitsmatrix bezüglich einer Determinantenfunktion das Neutrale Element der Multiplikation, dann ist das Bild
des Produktes von A und B identisch mit dem Produkt der jeweiligen
Bilder von A und B.
2
Nun soll vorerst der Existenz- und Eindeutigkeitssatz zur Determinanten ohne Beweis angegeben werden.
S 115.1
S 115.2
S 115.3
D 91
Es gibt genau eine Determinantenfunktion det : Matn (K) → K auf
Matn (K) mit det(1n ) = 1 (siehe S 114.8, 114.4).
Die Funktion det ist spaltenmultilinear, d.h. die Abbildung
Kn → K, x 7→ det (v1 , . . . , vj−1 , x, vj+1 , . . . , vn )
ist linear.
Ist ∆ eine Determinantenfunktion auf Matn (K), dann ist das Bild von
A bezüglich ∆ identisch mit dem Produkt von ∆(1n ) und det(A) für
2
alle n-reihigen quadratischen Matrizen (siehe S 114.8, 114.4).
Die gerade genannte eindeutig bestimmte Determinantenfunktion auf
Matn (K), die der Einheitsmatrix die Eins zuordnet, heißt Determinante von Matn (K) und wird mit det bezeichnet, man setzt det A := det(A)
und sagt det A ist die Determinante von A.
2
Für den Fall n = 1, also det : Mat1 (K) → K ist det die Identität D 9.
Für den Fall n = 2 kann man nachrechnen, dass, wie in D 82 schon for
muliert, det ac db := ad−bc die zu det gehörende Abbildungsvorschrift
ist. Für den Fall n = 3 lässt sich nachrechnen, dass
det(A) = a11 a22 a33 +a12 a23 a31 +a13 a21 a32 −a31 a22 a13 −a32 a23 a11 −a33 a21 a12 .
Die ersten Faktoren der drei Summanden erhält man indem man die
erste Zeile abschreitet, den jeweils nächsten Faktor indem man eine Zeile nach unten und eine Spalte nach rechts geht. Ist rechter Hand keine
Spalte mehr beginnt man wieder mit der ersten. Für die Subtrahenden
gilt analoges, nur dass sich die drei ersten Faktoren durch sukzessives
Abschreiten der letzten Zeile ergeben und die jeweils folgenden Faktoren ergeben sich indem man eine Zeile nach oben wandert und eine
Repetitorium
70
lineare Algebra
2 Matrizen
S 116.1
S 116.2
Determinante
Spalte nach rechts geht. Eine andere Merkregel geht auf den Mathematiker Sarrus [Lex00, S. 93] zurück und wird auch Jägerzaunregel
genannt.
Nun sollen einige Eigenschaften der Determinante zusammengetragen
werden.
Mit S 114.5 folgt unmittelbar, dass die Determinante einer Matrix verschwindet, wenn diese linear abhängige Spalten/Zeilen, also keinen vollen Rang hat.
Die wichtige Erkenntnis aus S 114.10 sei an dieser Stelle nocheinmal
wiederholt. Die Determinante des Matrizenproduktes von A und B lässt
sich mit dem Produkt der Determinanten von A und B identifizieren.
S 116.3
Die Determinante einer Matrix A lässt sich mit der Determinante der
Transponierten von A identifizieren. Denn der Rang der Transponierten stimmt mit dem von A überein, also verschwindet die Determinante
von t A wie die von A, wenn A keinen vollen Rang hat. Hat A vollen
Rang, existieren mit S 91(iv) Elementarmatrizen P1 , . . . , Pr deren Produkt A ergibt und deren Transponierte als Produkt in umgekehrter
Reihenfolge t A ergibt. Mit S 116.2 kann also die Determinante von A
als Produkt der Determinanten der Pi dargestellt werden und analoges
gilt für t A und mittels des Kommutativgesetzes der Körpermultiplikation können die Determinanten von t Pi so geordnet werden, dass nur
noch det Pi = det t Pi gezeigt werden muss. Da t Pi und Pi Elementarmatrizen sind gilt mit S 114.1 det(1n Pi ) = det(1n t Pi ) = 1, falls Pi = Fλµ
und für Pi = Fλ (a) gilt trivialerweise Fλ (a) = t Pi .
Dadurch können nun die nachfolgenden Aussagen für Spalten und Zeilen gemacht werden.
S 116.4
Mit S 115.2 ergibt sich, dass die Determinanten in jeder Spalte/Zeile
linear ist.
det(v1 ,...,vj−1 ,av+a 0 v 0 ,vj+1 ,...,vn )=a det(v1 ,...,v,...,vn )+a 0 det(v1 ,...,v 0 ,...,vn )
S 116.5
Mit der Linearität lässt sich folgern, dass die Determinante homogen
vom Grade n ist, das heißt det(aA) = an det A.
S 116.6
Als Verallgemeinerung von S 113.1 kann man die Invarianz der Determinante bezüglich der Addition einer Spalte/Zeile zur Linearkombination
anderer Spalten/Zeilen festhalten.
Die Determinante ändert ihr Vorzeichen, wenn man zwei Spalten/Zeilen
vertauscht.
S 116.7
|v, w| := det(. . . , v, . . . , w, . . . ) ⇒ |v, w| = |v, v + w| = |v − (v + w), v + w| = |−w, v|
S 116.8
Und schließlich noch ein Äquivalenzkriterium für die Invertierbarkeit
von Matrizen. Eine n-reihige quadratische Matrix A ist genau dann
Repetitorium
71
lineare Algebra
2 Matrizen
Determinante
invertierbar, wenn die Determinante von A nicht verschwindet. Es folgt,
dass die Determinante der Inversen von A mit dem Reziproken der
Determinante von A identisch ist.
2
S 117.1
S 117.2
Auch wenn noch keine allgemeine Formel zur Determinantenberechnung abgeleitet wurden, können mit den bisherigen Aussagen zwei aufeinander aufbauende Sonderfälle untersucht werden, auf die dann allgemeine Formeln zur Determinantenberechnung zurückgeführt werden
können.
Ist A eine obere Dreiecksmatrix D 70.6, dann gilt aufgrund der Spaltenmultilinearität det A = a11 · · · · · ann det A 0 und die Diagonalkomponenten von A 0 sind alle Eins. Nun kann man mit S 116.6 und der
Methodik die im Beweis von S 82 für (iii) ⇒ (iv) verwendet wurde, A 0
zur Einheitsmatrix umgeformt werden ohne die Determinante von A 0
zu ändern, also detA 0 = 1 und somit detA = a11 · · · · · ann .
Die Determinante einer Blockmatrix, deren Hauptdiagonale nur aus
zwei quadratischen Blöcken besteht und deren Nebendiagonale einen
Nullblock enthält, ist das Produkt der Determinanten der beiden Blöcke
B = (det A)(det D) = det A 0
der Hauptdiagonalen: det A
0 D
C D mit A ∈
Matr (K), B ∈ Matr,n-r (K), C ∈ Matn-r,r (K) und D ∈ Matn-r (K). Fixiert
man B und D auf zwei beliebig gewählte Matrizen, dann kann mit
B
∆ : Matr (K) → K, ∆(A) := det A
0 D eine Determinantenfunktion auf
Matr (K) definiert werden. Die in D 90 geforderten Eigenschaften lassen
sich verifizieren, da die Spalten von A in der Blockmatrix mit Nullen
aufgefüllt werden. So kann man mit S 115.3 folgern
1r B
B
det A
0 D = ∆(A) = ∆(1r ) det A = (det A) det 0 D .
Mit S 116.3 kann man D durch t D ersetzen und analog zu ∆ auf
Matn-r (K) ein ∆ 0 (D) := det 10r tBD definieren was zu
1
B B
(det A) det 0r t (t D) = (det A)∆ 0 (t D) = (det A)(det D) det 10r 1n−r
führt, wobei der letzte Faktor die Determinante einer oberen Dreiecksmatrix ist, deren Komponenten in der Hauptdiagonale alle Eins sind.
Mit dem vorstehenden Satz ist damit die Determinante des letzten Faktors Eins und somit die Behauptung bewiesen.
2
Um eine geschlossenen Formel zur Inversenberechnung einer invertierbaren Matrix zu entwickeln ist die nachstehende Begriffsbildung nützlich. A ist im Weiteren eine n-reihige quadratische Matrix mit den
Komponenten aij und den Spalten vj mit 1 6 i, j 6 n.
D 92.1
Die Skalare
a#
ij := det(v1 , . . . , vi−1 , ej , vi+1 , . . . , vn ) ∈ K
heißen Kofaktoren oder algebraisches Komplement von A
Repetitorium
72
lineare Algebra
2 Matrizen
Determinante
D 92.2
Die Matrix A# := (a#
ij )ij heißt die Komplementärmatrix oder adjungierte Matrix bzw. die Adjunkte von A
D 92.3
Mit Aij aus Matn-1 (K) wird die Matrix bezeichnet, die aus A entsteht
durch entfernen der i-ten Zeile und i-ten Spalte. Die Determinante von
Aij heißt (n − 1)-reihige Unterdeterminante
2
S 118.1
S 118.2
Nun kann folgender Satz formuliert werden.
Der (ij)-te Kofaktor von A ist identisch mit der (n − 1)-reihigen Unterdeterminante von Aji mit der (i + j)-ten Potenz von −1 als Vorzeichen.
Die Transponierte der Adjunkten von A lässt sich mit der adjungierten
transponierten von A identifizieren.
2
#
Definitionsgemäß gilt aij = det(v1 , . . . , vi−1 , ej , vi+1 , . . . , vn ) bringt man
ej durch sukzessive Spaltenvertauschungen in die erste Spalte hat die
Determinante mit S 116.7 (i − 1)-mal das Vorzeichen gewechselt. Macht
man nun durch sukzessive Zeilenvertauschungen die j-te Zeile zur ersten Zeile, dann hat die Determinante weitere (j−1)-mal das Vorzeichen
gewechselt und es gilt
2
i−1
0
0
a#
(−1)j−1 det(e1 , v10 , . . . , vi−1
, vi+1
, . . . , vn0 )
ij = (−1) (−1)
wobei in vk0 die j-te Komponente an erster Stelle steht und alle Komponenten bis einschließlich zur j-ten um eins nach unten gerutscht sind.
Damit erhält man schließlich mit S 117.2
1 u
i+j
a#
=
(−1)
det
= (−1)i+j det Aji
0
A
ij
ji
Um sich S 118.2 klar zu machen setzt man B = t A mit bij = aji und
es folgt Bij = t (Aji ), also gilt mit S 118.1, 116.3
i+j
b#
det Bji = (−1)i+j dett (Aij ) = (−1)i+j det Aij = a#
ij = (−1)
ji
S 119
und somit (t A)# = B# = t (A# ).
Damit kann der Zentrale Satz formuliert werden, dass das Matrizenprodukt von A und deren Adjunkten kommutativ ist und sich mit der
Diagonalmatrix identifizieren lässt, deren Diagonalkomponenten ausschließlich die Determinante von A sind. Also AA# = (det A)1n = A# A
oder in einer algebraisch etwas zugänglicheren Form
Pn
Pn
#
( k=1 aik a#
kj )ij = (δij )ij (det A) = (
k=1 aik akj )ij
2
Für eine Komponente der rechten Matrix folgt dann mit K 31.2, S 116.4
und D 92.1
Pn
k=1
a#
ik akj =
wobei sich
Pn
k=1
Pn
Pn
k=1
akj ek ,vi+1 ,...,vn )
k=1
akj ek als der j-te Spaltenvektor von A erweist, also
k=1
a#
ik akj = det(v1 , . . . , vi−1 , vj , vi+1 , . . . , vn ).
Pn
Repetitorium
akj det(v1 ,...,vi−1 ,ek ,vi+1 ,...,vn )=det(v1 ,...,vi−1 ,
73
lineare Algebra
2 Matrizen
Determinante
Für den Fall j = i steht dort also det A für j 6= i sind die Vektoren
linear abhängig also ihre Determinante Null, also gilt
(det(v1 , . . . , vi−1 , vj , vi+1 , . . . , vn ))ij = (δij (det A))ij
und somit A# A = (det A)1n diese Beziehung gilt natürlich auch für
t
A =: B womit gilt
(det A)1n = (det t A)1n = (det B)1n = t ((det B)1n ) = t (B# B) = t Bt B# = AA# ,
was die behauptete Kommutativität bestätigt.
S 120
Nimmt man zusätzlich noch an, dass A invertierbar ist, dann gilt
(det A)1n = AA# ⇔ 1n = A det1 A A# ⇔ A−1 1n = A−1 A det1 A A# ⇔ A−1 =
1
#
det A A
womit eine geschlossene Formel für das Inverse einer Matrix abgeleitet
ist.
2
Als nächstes soll eine rekursive Formel zur Determinantenberechnung
einer n-reihigen quadratischen Matrix A entwickelt werden, indem die
Determinantenberechnung von A auf die Berechnung einer (n − 1) reihige Unterdeterminante zurückgeführt wird:
det A
P
= det(v1 , . . . , vj−1 , n
i=1 aij ei , vj+1 , . . . , vn )
Pn
=
i=1 aij det(v1 , . . . , vj−1 , ei , vj+1 , . . . , vn )
Pn
j−1
=
det(ei , v1 , . . . , vj−1 , vj+1 , . . . , vn )
i=1 aij (−1)
Pn
j−1
0
0
=
(−1)i−1 det(e1 , v10 , . . . , vj−1
, vj+1
, . . . , vn0 )
i=1 aij (−1)
Pn
j+i
=
det 10 Auij
i=1 aij (−1)
Pn
j+i
=
det(1) det Aij
i=1 aij (−1)
Pn
j+i
=
det Aij
i=1 aij (−1)
S 121.1
S 121.2
(D 69.7, S 36)
(S 115.2)
(S 116.7)
(S 116.7)
(S 70.7)
(S 117.2)
(D 91)
So dass der Entwicklungssatz nach der j-ten Spalte festgehalten werden
kann.
Die Determinante einer n-reihigen quadratischen Matrix lässt sich mit
Pn
j+i
det Aij identifizieren.
i=1 aij (−1)
Analog dazu der Entwicklungssatz nach der i-ten Zeile
P
i+j
det Aij
det A = n
j=1 aij (−1)
2
Mit diesen Ergebnissen lässt sich eine Determinantenformel für die
Vandermond Matrix V := (ai−1
)ij ableiten. Zunächst geht man zur
j
j−1
t
Transponierten V = (ai )ij über. Alle Komponenten der ersten Spalte von V sind mit a0i Eins. Zieht man für j = n, . . . , 2 das a11 -Fache
der (j − 1)-ten Spalte von der j-ten ab S 116.6, dann verschwindet die
erste Zeile bis auf die erste Komponente, die Eins ist. Für die übrigen
Komponenten mit Ausnahme der ersten Spalte gilt aj−1
− aj−2
a1 =
i
i
j−2
1
1
(ai − a1 )ai . Entwickelt man die Determinante nach der ersten Zeile
dann folgt det(aj−1
)ij = 1 · det((a1i − a11 )aj−2
)26i,j6n . Klammert man
i
i
nun noch aus jeder Zeile vermöge der Spaltenmultilinearität (a1i − a11 )
Repetitorium
74
lineare Algebra
2 Matrizen
S 122
Determinante
Qn
aus ergibt sich det(aj−1
)ij = i=2 (ai −a1 ) det(aj−2
)26i,j6n . Offensichti
i
lich sind wieder alle Komponenten der ersten Spalte von (aij−2 )26i,j6n
Eins ebenso wie die erste Zeile bis auf die erste Komponente wieder verschwindet wenn man das a22 Fache der (j − 1)-ten Spalte von der j-ten
abzieht wobei j die Spaltenindizes von n bis 2 durchläuft. Entwickelt
man wieder nach der ersten Zeile und zieht (ai − a2 ) heraus, dann folgt
Qn
Qn
det(aj−1
)ij = i=2 (ai − a1 ) i=3 (ai − a2 ) det(aj−3
)36i,j6n .
i
i
Diese Umformungen legen die Vermutung nahe, dass zu guter Letzt gilt
Qn−1 Qn
det(aj−1
)ij = k=1 i=k+1 (ai − ak ).
i
2
Diesen rekursive Zusammenhang kann man per vollständige Induktion
über n formal beweisen. Wobei es im Induktionsschritt vorteilhaft ist
von n − 1 nach n zu schließen.
ö Nachdem mit den Entwicklungssätzen eine rekursive Methode zur
Determinantenberechnung entwickelt wurde, soll nun noch eine geschlossene Formel in Abhängigkeit der Matrizenkomponenten entwickelt werden. Der sogenannte Leibnizsche Darstellungssatz soll zunächst für
den Fall A ∈ Mat2 (K) entwickelt werden, um die Vorgehensweise ausführlich und dennoch überschaubar darzustellen.s
det A
P
P
= det(v1 , v2 ) = det( 2i1 =1 ai1 1 ei1 , 2i2 =1 ai2 2 ei2 )
P
P
= a11 det(e1 , 2i2 =1 ai2 2 ei2 ) + a21 det(e2 , 2i2 =1 ai2 2 ei2 )
P2
P2
=
i2 =1 ai2 2 ei2 )
i1 =1 ai1 1 det(ei1 ,
P2
=
i =1 ai1 1 (a12 det(ei1 , e1 ) + a22 det(ei1 , e2 ))
P21
P2
=
i1 =1 ai1 1
i2 =1 ai1 2 det(ei1 , ei2 )
P2
P2
=
i1 =1
i2 =1 ai1 1 ai1 2 det(ei1 , ei2 )
(S 36)
(S 115.2)
(D 38)
(S 115.2)
(D 38)
(S 16.4)
Ist i1 = i2 = i dann Folgt, dass der dritte Faktor des Summanden
det(ei1 , ei2 ) mit det(ei , ei ) identisch ist, und somit verschwindet. Es
sind also nur die Indexkombinationen von Interesse deren Indizes (paarweise32 ) verschieden sind, dass ist aber genau die Menge aller Permutationen von B = {1, 2}, also die Menge aller Bijektionen von B in B:
S2 = {π1 , π2 } mit
π1 : B → B, π1 (1) := 1, π1 (2) := 2,
P2
i1 =1
=
P2
i =1
2
P2!
ai1 1 ai1 2 det(ei1 , ei2 )
πk=1 ∈S2
π2 : B → B, π2 (1) := 2, π2(2) := 1
aπk (1),1 aπk (2),2 det(eπk (1) , eπk (2) )
= a11 a22 det(e1 , e2 ) + a21 a12 det(e2 , e1 )
Und mit det(e1 , e2) = 1 und det(e2 , e1 ) = −1 folgt die aus D 82 schon
bekannte Determinantenforme a11 a22 − a21 a12 für 2 × 2-Matrizen. Berücksichtigt man, dass die Determinante einer n-reihigen Matrix, die
32
im Hinblick auf den allgemeinen Fall
Repetitorium
75
lineare Algebra
3 Lineare Gleichungssysteme
nur aus paarweise verschiedenen Einheitsvektoren besteht, sich durch
entsprechende Spaltenvertauschungen in die Einheitsmatrix transformieren lässt, so dass allgemein det(eπk (1) , . . . , eπk (n) ) entweder −1 oder
1 ist je nach Anzahl der Vertauschungen durch die Permutation πk .
Man kann zeigen, dass die Abbildung
Q
: Sn −→ {−1, 1}, π 7−→ (π) := 16i,j6n π(i)−π(j)
,
i−j
dass gesuchte Vorzeichen zu einer Permutation π liefert. Die Idee hierbei
basiert auf der Ordnung der natürlichen Zahlen mit der folgt, dass ein
Vertauschen des i-ten Einheitsvektors mit dem j-ten – wobei o.B.d.A.
i < j angenommen wird – genau ein Indexpaar mehr zur Folge hat für
das i < j, π(i) > π(j) gilt, was man auch einen Fehlstand nennt. Ist
γ(π) die Anzahl der Fehlstände, gilt (π) = (−1)γ(π) . Ersetzt man nun
an den entsprechenden Stellen des gerade besprochenen Spezialfalls die
2 durch n und fügt passend Auslassungspunkte hinzu, dann lässt sich
die Herleitung für den Fall A ∈ Matn (K) verallgemeinern und führt zu
folgender geschlossener Formel für die Determinantenberechnung einer
n × n-Matrix
n!
P
det A =
aπk (1),1 · · · aπk (n),n (πk ) =
πk=1 ∈Sn
n!
P
a1,πk (1) · · · an,πk (n) (πk )
πk=1 ∈Sn
Die zweite Identität erhält man durch den Übergang zur Transponierten
von A.
3 Lineare Gleichungssysteme
D 93.1
D 93.2
Mit den Abschnitten zur Vektorraum- und Matrizentheorie wurde nun
genug Material angehäuft um, wie versprochen, eine Motivation für
diese Abschnitte nachzureichen. Dies soll in Form einer Lösungstheorie
für linearer Gleichungssysteme geschehen.
Die Gleichung a11 x1 + · · · + a1n xn = b1 mit a1i ∈ K heißt lineare Gleichung über K mit den Koeffizienten a11 , . . . , a1n, den Unbekannten
x1 , . . . , xn und dem Ergebnis b1 .
Verschwindet das Ergebnis, dann spricht man von einer homogenen
linearen Gleichung über K .
2
Beispielsweise hat die homogene lineare Gleichung 0x1 = 0 mindestens
zwei Lösungen wegen K 31.1 und S 13.1. Die lineare Gleichung 0x = 1
hingegen hat wegen S 13.1 keine Lösung.
D 94.1
Repetitorium
76
lineare Algebra
3 Lineare Gleichungssysteme
Sind m von einander abhängige lineare Glei- a11 x1 + ··· + a1n xn = b1
..
..
..
..
chungen zu nebenstehenden rechteckigen Sche.
.
.
.
am1 x1 + ··· + amn xn = bm
ma angeordnet, dann spricht man von einem
linearen Gleichungssystem über K von m Gleichungen in n Unbekannten.
D 94.2
D 95.1
D 95.2
D 95.3
D 95.4
D 95.5
Gilt in dem voranstehenden Gleichungsschema b1 = · · · = bm = 0,
dann spricht man von einem homogenen linearen Gleichungssystem
über K von m Gleichungen in n Unbekannten.
2
Pn
j=1 a1j xj = b1
Unter Hinzunahme des Summenzeichens lässt sich das
.
..
Gleichungssystem in der kompakteren nebenstehenden Pn ..
.
Pn
j=1 amj xj = bm
Form schreiben, das sich wiederum zu j=1 aij xj = bi
mit 1 6 i 6 m zusammenfassen lässt, und nachfolgende Definitionen
motiviert.
P
Sei G := j=1 aij xj = bi mit 1 6 i 6 m ein lineares Gleichungssystem
von m Gleichungen in n Unbekannten über K.
Die aij heißen Koeffizienten von G
Fasst man die Koeffizientenspalten als m-dimensionale Spaltenvektoren
vj = t (a1j , . . . , amj ) auf und setzt w := t (b1 , . . . , bm ) ∈ Km , dann kann
Pn
Pn
G auch als j=1 vj xj = w bzw. j=1 xj vj = w geschrieben werden33 ,
in der sogenannten Vektorform.
Dann heißen die vj Spaltenvektoren von G.
Ein Spaltenvektor t (x1 , . . . , xn ) heißt Lösungsvektor von G falls mit
P
1 6 i 6 m gilt j=1 aij xj = bi .
w = t (b1 , . . . , am ) ∈ Km heißt Ergebnisvektor von G.
D 95.6
Man setzt L(G) := {x ∈ Kn | x ist Lösung von G} und nennt L(G)
Lösungsmenge von G.
D 95.7
Ein Gleichungssystem heißt lösbar, falls die Lösungsmenge von G nicht
leer ist.
G heißt universell lösbar, wenn es für alle w ∈ Km lösbar ist.
G heißt homogen, falls w der Nullvektor ist.
D 95.8
D 95.9
D 95.10
D 95.11
G heißt inhomogen, falls w von Null verschieden ist.
Pn
Das lineare Gleichungssystem G0 :=
j=1 xj vj = 0 heißt das zu G
gehörige homogene lineare Gleichungssystem oder kürzer die Homogenisierung von G.
2
Mit Hilfe des Matrizenkalküls und der darin entwickelten Matrizenmultiplikation lassen sich die Spaltenvektoren von G zu einer Matrix
A := (v1 , . . . , vn ) ∈ Matm,n (K) zusammenfassen deren Multiplikation
33
Siehe D 47.3 und K 31.2
Repetitorium
77
lineare Algebra
3 Lineare Gleichungssysteme
Lösungsmenge eines LGS
mit einem n-dimensionalen Spaltenvektor x := t(x1 , . . . , xn ) ∈ Kn der
linken Seite von G entspricht.
D 96.1
D 96.2
D 96.3
G lässt sich also auch in der Matrixform Ax = w darstellen.
Die Matrix A heißt Koeffizientenmatrix von G
Fügt man der Koeffizientenmatrix den Ergebnisvektor als (n + 1)-te
Spalte an, dann heißt die so entstandene Matrix (A, w) ∈ Matm,n+1 (K)
erweiterte (Koeffizienten)Matrix von G.
2
3.1 Lösungsmenge eines LGS
Der Einfachheit halber soll zunächst ein homogenes lineares GleichungsPn
system G := j=1 aij aj = 0 mit 1 6 i 6 m betrachtet werden. Offensichtlich ist x1 = · · · = xn = 0 immer eine Lösung von G, also enthält
die Lösungsmenge von G stets den Nullvektor (,ist also nie leer). Nimmt
man an, dass die n-dimensionalen Vektoren x, y aus der Lösungsmenge
von G sind, dann folgt
Pn
Pn
Pn
j=1 aij yj = a0 + b0 = 0.
j=1 aij xj + b
j=1 aij (axj + byj ) = a
damit gilt also, dass (ax + by) aus L(G) ist, vorausgesetzt x und y sind
aus der Lösungsmenge. Man kann also zusammenfassend festhalten,
S 123
dass sich auf der Lösungsmenge eines homogenes LGS von m-Gleichungen in n Unbekannten ein Unterraum des Kn definieren lässt.
2
D 97
Der n-dimensionale Nullvektor, der stets Lösung eines homogenen LGS
von m Gleichungen in n Unbekannten ist, heißt triviale Lösung von
G.
2
S 124.1
S 124.2
Geht man nun zu einem inhomogenen linearen Gleichungssystem von
P
m Gleichungen in n Unbekannten G := n
j=1 aij aj = bi mit 1 6 i 6
0
m und dessen Homogenisierung G über und nimmt an, dass v eine
Lösung von G ist. Ist y ein beliebiger Vektor aus dem Kn , dann existiert
aufgrund der Eindeutigkeit der Körperaddition genau ein x aus Kn , so
dass die Gleichung x + v = y erfüllt ist und mit dem Umstand das v
eine Lösung von G ist folgt
Pn
Pn
Pn
j=1 aij yj =
j=1 aij (vj + xj ) = bi +
j=1 aij xj .
Pn
Offensichtlich ist y genau dann eine Lösung von G – also j=1 aij yj =
P
bi –, wenn n
j=1 aij xj = 0 gilt, also x aus dem Lösungsraum der Homogenisierung von G ist.
Ist man in Besitz eines Lösungsvektors v eines linearen Gleichungssystems G, dann ist die Lösungsmenge von G durch die Lösungsmenge der Homogenisierung G0 von G vollständig bestimmt, denn es gilt
L(G) = {v + x | x ∈ L(G0 )}.
Damit ergibt sich – vorausgesetzt G ist lösbar –, dass G0 genau dann
Repetitorium
78
lineare Algebra
3 Lineare Gleichungssysteme
Lineare Abbildungen
nur die triviale Lösung besitzt, wenn G genau eine Lösung besitzt. 2
3.2 Lineare Abbildungen
Um eine Verbindung zu linearen Abbildungen herzustellen rechnet man
leicht nach, dass die Abbildung f vom n-dimensionalen in den mdimensionalen Spaltenraum mit der Abbildungsvorschrift
Pn
Pn
Pn
t
(x1 , . . . , xn ) 7−→ t ( j=1 a1j xj , . . . , j=1 amj xj ) = j=1 xj vj
ein Homomorphismus ist, indem man (at (x1 , . . . , xn ) + bt (y1 , . . . , yn ))
in Pf einsetzt.
P
Pn
!
!
n
y1 x1 a n
j=1 a1j (axj +byj )
j=1 a1j xj + b
j=1 a1j yj
.
.
.
..
= af( .. )+bf( ... )
=
..
..
.
Pn
j=1
amj (axj +byj )
a
Pn
j=1
amj xj + b
Pn
j=1
amj yj
xn
yn
Der Rang von f muß dann gleich dem Rang von {v1 , . . . , vn } sein,
da das Bild die Menge aller Linearkombination von v1 , . . . , vn , also
Lin(v1 , . . . , vn ) ist. Mit diesem Zusammenhang kann man die Lösungmenge eines homogenen linearen Gleichungssystem bzw. der Homogenisierung eines linearen Gleichungssystems als den Kern von f interpretieren und analog zu S 70.1 mit S 123 die Dimensionsformel formulieren:
S 125.1
Die Dimension des Lösungsraums eines homogenen LGS ist identisch
mit der Differenz von n und dem Rang der {v1 , . . . , vn }
S 125.2
Für die Matrixdarstellung eines linearen Gleichungssystems gilt, die
Dimension des Lösungsraums ist die Differenz von n und dem Rang
von A.
S 125.3
Daran schließt sich unmittelbar an, dass der Lösungsraum eines homogenen linearen Gleichungssystems von m Gleichungen in n Unbekannten wenigstens die Dimension n − m hat. Damit hat das homogene
LGS sicher dann eine nichttriviale Lösung, wenn es mehr Unbekannte
als Gleichungen hat.
2
3.3 Lösbarkeitskriterien
Nachdem eine Gewisse Vorstellung über die Lösungsmenge eines LGS
entwickelt wurde und es mit 0x = 1 offensichtlich auch LGS gibt die
nicht lösbar sind, stellt sich die Frage nach Lösbarkeitskriterien linearer
Gleichungssysteme.
3.3.1 Rangkriterium
Pn
Betrachtet man die Vektordarstellung j=1 xj vj = w kann man dies
offensichtlich als den Versuch interpretieren x1 , . . . , xn zu finden, so
dass w als Linearkombination der v1 , . . . , vn darstellbar ist, was mit
S 55.5 genau dann der Fall ist, wenn der Rang der Spaltenvektoren
Repetitorium
79
lineare Algebra
3 Lineare Gleichungssysteme
Lösbarkeitkriterien
eines LGS identisch ist mit dem Rang seiner erweiterten Matrix. Es
kann also nachstehender Äquivalenzsatz festgehalten werden.
S 126
Sei G ein lineares Gleichungssystem von m Gleichungen in n Unbekannten.
(i)
⇐⇒ G ist lösbar.
(ii)
⇐⇒ w ist aus der linearen Hülle der Spaltenvektoren von G.
(iii)
⇐⇒ Der Rang der Spaltenvektoren lässt sich mit dem Rang der Spaltenvektoren vereinigt mit w identifizieren.
2
Ist der Rang von {v1 , . . . , vn } gleich m, dann folgt mit S 55.3 dass
Lin(v1 , . . . , vn ) den m-dimensionalen Spaltenraum erzeugt und somit
jeden beliebigen Vektor w.
S 127
Ein lineares Gleichungssystem von m Gleichungen in n Unbekannten
ist genau dann universell lösbar, wenn {v1 , . . . , vn } den Rang m hat. 2
3.3.2 Matrixkriterien
S 128
S 129
S 130
Mittels der Matrixdarstellung eines linearen Gleichungssystems und des
Rangbegriffs lassen sich einige Lösungskriterien für LGS formulieren.
Nachfolgendes ist nichts anderes als ein Umschreiben des Vorstehenden
Äquivalenzsatzes für die Matrixdarstellung
Sei G ein lineares Gleichungssystem von m Gleichungen in n Unbekannten in Matrixdarstellung.
(i)
⇐⇒ G ist lösbar.
(ii)
⇐⇒ w ist aus dem Bild der Koeffizientenmatrix von G,
(iii)
⇐⇒ Der Rang der Koeffizientenmatrix von G ist identisch mit dem
Rang der erweiterten Matrix von G.
2
Auch S 127 lässt sich für die Matrixdarstellung übersetzen.
Ein lineares Gleichungssystem von m Gleichungen in n Unbekannten ist
genau dann universell lösbar, wenn der Rang der Koeffizientenmatrix
der Anzahl der Gleichungen Entspricht.
2
In Anlehnung an S 124.2 in Verbindung mit linearen Abbildungen kann
der Äquivalenzsatz für die eindeutige Lösbarkeit eines linearer Gleichungssystems in Matrixform formuliert werden.
Sei G ein LGS in Matrixdarstellung Ax = w.
(i)
⇐⇒ G ist eindeutig lösbar.
(ii)
⇐⇒ Der Kern der Koeffizientenmatrix von G ist der Nullraum.
(iii)
⇐⇒ Die Koeffizientenmatrix aus Matm,n (K) von G hat den Rang n. 2
Für die universelle eindeutige Lösbarkeit lässt sich nachstehendes Kriterium festhalten.
S 131
Für jeden Ergebnisvektor ist ein lineares Gleichungssystem von m GleiRepetitorium
80
lineare Algebra
3 Lineare Gleichungssysteme
Lösen eines LGS
chungen in n Unbekannten genau dann eindeutig lösbar, wenn die Anzahl der Gleichungen der Anzahl der Unbekannten entspricht und wenn
die Koeffizientenmatrix invertierbar ist.
2
Beschränkt man sich auf Gleichungssysteme deren Anzahl der Gleichungen sich mit der Anzahl der Unbekannten identifizieren lässt, dann
lassen sich die bisherigen Ergebnisse in dem folgenden Äquivalenzsatz
zusammenfassen.
S 132
Sei A eine n-reihige quadratische Matrix
(i)
⇐⇒ Für jeden Ergebnisvektor w ∈ Kn ist das LGS Ax = w lösbar.
(ii)
⇐⇒ Für jeden Ergebnisvektor w ∈ Kn ist das LGS Ax = w eindeutig
lösbar.
(iii)
⇐⇒ Es gibt ein einen Ergebnisvektor w, so dass das LGS Ax = w
eindeutig lösbar ist.
(iv)
⇐⇒ Das homogene LGS Ax = 0 besitzt nur die triviale Lösung.
(v)
⇐⇒ A ist invertierbar.
(vi)
⇐⇒ Die Determinante von A verschwindet nicht.
Für einen Ergebnisvektor w kann die Eindeutige Lösung von Ax = w
durch x = A−1 w dargestellt werden.
2
Mit S 129 ist der Rang von A mit n identisch, also gilt mit S 130
dass (ii) von (i) impliziert wird. Das (ii) ⇒ (iii) gilt sollte sich von
selbst verstehen. Auch die Implikation von (iii) nach (iv) ergibt sich
mit S 130. Die Dimensionsformel S 125.2 hat zur Folge, dass aus (iv) der
volle Rang von A folgt und mit dem Äquivalenzsatz zur Invertierbarkeit
von Matrizen S 88 wird schließlich (v) impliziert. Der Kreis schließt
sich, da mit der Invertierbarkeit auch die Existenz der Inversen von A
gesichert ist, so dass man für ein beliebiges w ∈ Kn x := A−1 w setzen
kann womit sowohl (i) als auch der Nachsatz des Äquivalenzsatzes gilt.
Die Äquivalenz von (v) und (vi) ergibt sich aus S 116.8
3.4 Lösen eines LGS
In diesem Abschnitt sollen drei Verfahren zum effektiven systematischen lösen von linearen Gleichungssystem von m-Gleichungen in nUnbekannten betrachtet werden.
3.4.1 Gaußsches Eliminationsverfahren
Verschwinden in der ersten Gleichung des LGS alle Koeffizienten und
ebenso b1 , dann lösen alle x1 , . . . , xn aus K die erste Gleichung womit sie
entfallen kann; verschwindet b1 nicht, dann existieren keine x1 , . . . , xn
die diese Gleichung oder die das Gleichungssystem lösen. Geht man
nun also davon aus, dass ein von Null verschiedener Koeffizient in der
Repetitorium
81
lineare Algebra
3 Lineare Gleichungssysteme
Lösen eines LGS
ersten Gleichung existiert, dann kann durch geeignete Umnummerierung der Koeffizienten und Unbekannten (allgemeines kommutativgesetz der Körperaddition) dieser Koeffizient an die erste Stelle gebracht
werden, also a11 6= 0. Schließlich kann man noch beide Seiten der ersten Gleiching mit dem Reziproken von a11 durchmultiplizieren, so dass
a11 = 1. Zieht man nun von der i-en Gleichung (2 6 i 6 m) das ai1 Fache der ersten Gleichung ab, dann fallen offensichtlich die Summanden a21 , . . . , am1 heraus. Da die Addition und Multiplikation mit der
Identität verträglich sind, hat das nach diesem Schritt entstandene LGS
die gleiche Lösungsmenge wie das ursprüngliche LGS. Verfährt man nun
0
0
mit der zweiten Gleichung a22
x2 + · · · + a2n
xn = b20 ebenso wie mit
der Ersten, dann werden die Summanden a32 x2 , . . . , am2x2 Eliminiert
usw. Diese Vorgehensweise führt man min(m, n) − 1 mal durch und
gelangt so zu einer vollständigen Übersicht der Lösungen des linearen
Gleichungssystems von m Gleichungen in n Unbekannten.
Die Operationen im Gaußschen Eliminationsverfahren erfolgten analog zu den in D 76.1 eingeführten elementaren Matrizenumformungen.
So lässt sich dann auch durch den Übergang zur Matrixdarstellung der
Gaußsche Algorithmus entwickeln.
3.4.2 Gaußscher Algorithmus
S 133.1
S 133.2
S 133.3
Sei G := Ax = w ein lineares Gleichungssystem in Matrixdarstellung. Durch iterierte elementare Zeilenumformungen und Spaltenvertauschungen wird die Koeffizientenmatrix A in die Matrix A 0 aus S 82
überführt. Die Zeilenumformungen müssen auch auf den Ergebnisvektor w des linearen Gleichungssystems angewandt werden, und über die
Spaltenvertauschungen muß im Lösungsvektor x Buch geführt werden.
Wird die i-te Spalte der Koeffizientenmatrix mit der j-ten vertauscht,
müssen xi und xj im Lösungsvektor vertauscht werden.
Das damit entstandene Gleichungssystem G 0 := A 0 x 0 = w 0 hat die
Identischen Lösungen wie G.
0
0
= · · · = bm
= 0 gilt.
G besitzt genau dann eine Lösung, wenn bs+1
0
, . . . , xn0 als frei wählbar setzt und
Man löst G 0 dann, indem man xs+1
P
Pn
n
0
0
xs0 = bs0 − j=s+1 arj
xj , . . . , x10 = b10 − j=2 a2j
xj
berechnet. Man berechnet also die i-Unbekannte (1 6 i 6 s) mit
Pn
0
xj
xi0 = bi0 − j=i+1 aij
2
Nach der Durchführung des Gaußschen Algorithmus liegt einer der drei
nachfolgenden Fälle vor.
Repetitorium
82
lineare Algebra
3 Lineare Gleichungssysteme

G ist genau dann lös
bar, wenn es neben- 

stehende Form an- 


nimmt.






1
∗
0
..
Lösen eines LGS
···













∗
..
.
···
.. . . . .
.
.
.
∗
..
.
..
.
0
···
0
1
∗
···
0
···
···
···
···
···
0
···
···
···
···
···
1
∗
..
.
..
.
G ist genau dann eindeutig
lösbar, wenn es nebenstehende
Form annimmt.
G ist genau dann
unlösbar,
wenn
es nebenstehende
Form annimmt.
∗
1
∗
0
..
···
.













..
.
0
0
..
.
0
..
.
.
···
∗
···
∗
0
···
0
1
∗
···
0
···
···
···
···
···
.
..
.
0
···
···
···
∗
···
..
···
∗
..
.
..
.
xs0
0
xs+1
..
.
0
xn

..
.
..
.






∗ 


0 

..  
. 
0
x10
..
.
..
.
0
xn
0


x10
0
···
.. . . . .
.
.
.
..






∗ 


0 

..  
. 
···
..
.
..
.
.
..
.
..
.

. 
. ..  


.. ..
.
. ∗ 


···
0
1 

···
···
0 

.. 
. 
..
0
∗
∗
x10
..
.
..
.
xs0
0
xs+1
..
.
0
xn

 
 
 
 
 
 
=
 
 
 
 
 




 
 
=
 
 







 
 
 
 
 
 
=
 
 
 
 
 
b10
..
.
..
.







bs0 

0 

.. 
. 
0
b10
..
.
..
.







0
bs 

0 

.. 
. 
0
b10
..
.
..
.
bs0
0
bs+1
..
.
0
bm













3.4.3 Cramersche Regel
S 134
Das auf Leibniz zurückgehende Verfahren wurde von Cramer wiederentdeckt, erstaunlicher Weise über ein Jahrhundert vor der Einführung
der Matrizentheorie. Da diese Lösungsmethode allein durch Determinanten realisiert wird, ist sie nur für Gleichungssysteme geeignet deren
Anzahl der Gleichungen identisch ist mit der Anzahl der Unbekannten.
Sei A eine n-quadratische Matrix deren Determinante nicht verschwindet. Dann ist mit S 132 die Lösung des linearen Gleichungssystems
Ax = w eindeutig und die i-te Komponente des Lösungsvektors ist der
Quotient der Determinante des n-Tupels (v1 , . . . , vi−1 , w, vi+1 , . . . , vn )
und der Determinante von A.
2
Beweisen lässt sich diese Aussage mit Hilfe der Spaltenmultilinearität
der Determinante. Denn wegen ihr gilt
Repetitorium
83
lineare Algebra
4 Eigenwertproblem
det(v1 , . . . , vi−1 , w, vi+1 , . . . , vn )
P
= det(v1 , . . . , vi−1 , n
j=1 xj vj , vi+1 , . . . , vn )
Pn
=
j=1 xj det(v1 , . . . , vi−1 , vj , vi+1 , . . . , vn )
= xi det(v1 , . . . , vi−1 , vi , vi+1 , . . . , vn )
( Voraussetzung )
( Spaltemultiliniarität S 115.2)
(S 116.1 ⇒ ∀vj6=i : xj det(. . . ) = 0)
Dividiert man nun beide Seiten mit der Determinante von A erhält man
die behauptete Beziehung.
4 Eigenwertproblem für Matrizen
D 98
Bei der Anwendung der linearen Algebra in der Mathematik, Physik,
Technik oder Ökonomie tritt das sogenannte Eigenwertproblem auf,
dass sich wie folgt formulieren lässt.
Zu einer gegebenen n-reihigen quadratischen Matrix A sollen alle Skalare λ ermittelt werden, deren Produkt mit einem n-dimensionalen von
Null verschiedenen Spaltenvektor x identisch ist mit dem Matrizenprodukt von A und x, also Ax = λx mit x 6= 0. Die λ heißen Eigenwerte
von A.
2
Da es im folgenden einfacher sein wird von einem Körper dessen Menge unendlich viele Elemente enthält auszugehen und dieser Umstand in
der Anwendung meist erfüllt ist, soll für diesen Abschnitt K ∈ {Q, R, C}
gelten.
Für die Untersuchung des Eigenwertproblems wird der Begriff des
Polynoms benötigt, der nachstehend so weit wie nötig entwickelt und
untersucht werden soll.
4.1 Polynome
Zunächst wird der Vektorraum auf der Menge aller Abbildungen von
M in K definiert wobei M eine beliebige Menge ist.
D 99.1
Man setzt Abb(M, K) := {f | f : M → K}
Weiter wird für die Abbildungen f, g von M in K und den Skalar a aus
K definiert:
D 99.2
f + g : M → K, (f + g)(x) := f(x) + g(x) heißt die Summe von f und
g.
af : M → K, (af)(x) := af(x) heißt das a-Fache von f.
fg : M → K, (fg)(x) := f(x)g(x) heißt das Produkt von f und g.
D 99.3
D 99.4
D 99.5
D 99.6
D 99.7
Die Abbildung Abb(M, K) × Abb(M, K) → Abb(M, K), (f, g) 7→ f + g
heißt Addition.
Die Abbildung K × Abb(M, K) → Abb(M, K), (a, f) 7→ af heißt skalare
Multiplikation.
Die Abbildung Abb(M, K) × Abb(M, K) → Abb(M, K), (f, g) 7→ fg
Repetitorium
84
lineare Algebra
4 Eigenwertproblem
S 135
D 100
Polynome
heißt Multiplikation.
2
Ist M ein beliebige Menge, dann lässt sich auf der Menge aller Abbildungen von M in K mit den gerade definierten Verknüpfungen Addition
und Multiplikation ein Vektorraum definieren, dessen neutrales Element
der Addition die konstante Nullabbildung ist und dessen Negatives von
f ∈ Abb(M, K) die Abbildung −f ∈ Abb(M, K) ist.
2
An dieser stelle soll vereinbart werden, dass sich jede konstante Abbildung M → K, x 7→ a mit a identifizieren lässt, so dass K eine Teilmenge
der Menge aller Abbildungen von M in K ist. In der Tat kann man zeigen, dass sich bei dieser Interpretation ein Unterraum von Abb(M, K)
auf K definieren lässt.
2
Die unter D 99.7 definierte Multiplikation hat die nachstehenden Eigenschaften.
S 136.1
S 136.2
S 136.3
S 136.4
Sie ist assoziativ, also (fg)h = f(gh)
Sie ist kommutativ, also fg = gf
Sie ist distributiv, also f(g + g 0 ) = fg + fg 0
Sie unitär34 , also f1 = 1f = f
S 136.5
Sie hat keinen Nullteiler und es folgt f0 = 0f = 0
2
Beweisen lässt sich dies, indem man diese Eigenschaften auf die entsprechenden Körpereigenschaften zurückführt.
Die Menge aller Abbildungen von M in K bildet mit der oben definierten Addition und Multiplikation eine Struktur, die alle Merkmale eines Körpers hat, außer der Eigenschaft für jede Abbildung aus
Abb(M, K)\{0} ein multiplikativen Inversen zu haben.
S 137
Enthält M wenigstens zwei Elemente kann man eine Abbildung f angeben mit der Eigenschaft f(x) 6= 0 = f(y), also auch f 6= 0. Soll nun
die Abbildung g das Reziproke von f sein gilt, fg = f(z)g(z) = 1 für
alle z ∈ M. Da aber f(y) = 0 vorausgesetzt wurde gibt es mit S 13.1
wenigstens ein z für das gilt f(z)g(z) = 0, nämlich z = y. Also existiert
für f kein Reziprokes in Abb(M, K) und auf Abb(M, K) lässt sich keine
Körperstruktur definieren.
2
Nun kann der Begriff des Polynoms eingeführt werden.
Eine Abbildung f : K → K heißt Polynom oder eine Polynomfunktion
über K, falls ein m aus N0 und a0 , . . . , am aus K existieren mit
Pm
f(x) = a0 x0 + · · · + am xm = i=0 ai xi
D 101.1
D 101.2
für alle x aus K.
Die Menge aller Polynome wird bezeichnet mit
34
Eine Struktur mit diesen Eigenschaften nennt man kommutativer Ring.
Repetitorium
85
lineare Algebra
4 Eigenwertproblem
Polynome
Pol K = {f ∈ Abb(K, K) | f ist ein Polynom }.
D 101.3
Die konstanten Abbildungen von K in K heißen konstante Polynome
D 101.4
Die Nullabbildung von K in K heißt das Nullpolynom.
Die a0 , . . . , am heißen Koeffizienten von f.
D 101.5
D 101.6
D 101.7
D 101.8
D 101.9
am heißt der höchste Koeffizient oder Leitkoeffizient von f.
a0 heißt der niedrigste Koeffizient oder das konstante Glied von f.
Der Index des von Null verschieden Koeffizienten mit dem größten Index heißt Grad von f und wird formal mit Grad f := m mit am 6= 0
bezeichnet.
Es ist zweckmäßig den Grad des Nullpolynoms auf −∞ zu setzen. Wobei
für alle r aus R die nachstehenden Eigenschaft bezüglich −∞ gesetzt
werden.
−∞ + r := r + −∞ := −∞ =: −∞ + −∞, −∞ < r
Ein Polynom, das den Grad 1, 2, 3, 4 hat heißt lineares, quadratisches,
kubisches, biquadratisches Polynom.
D 101.11 die Polynome 1 = x0 , x1 , x2 , . . . heißen Monome.
2
Folgende strukturelle Eigenschaften der Menge aller Polynome über K
lassen sich beweisen.
D 101.10
S 138.1
S 138.2
S 138.3
S 138.4
Auf der Menge aller Polynome über K lässt sich ein Unterraum des
Vektorraums aller Abbildungen von K in K definieren.
Auf Pol K kann man einen Unterring des kommutativen Ringes auf
Abb(K, K) definieren.
Für alle m aus N0 sind die Monome x0 , · · · , xm aus dem Vektorraum
der Polynome über K linear unabhängig.
Ist das Polynom f nicht das Nullpolynom, so gibt es eindeutig bestimmte Koeffizienten von f mit einem von Null verschiedenen LeitkoPm
effizienten und es gilt f(x) = i=0 ai xi für alle x aus K.
2
S 138.1 lässt sich beweisen indem man die geforderten Eigenschaften
eines Unterraums nachrechnet. S 138.2 indem man zeigt, dass ff 0 aus
Pol K ist für alle f, f 0 ∈ Pol K.
Für S 138.3 soll also gelten, dass die Linearkombination der Polynome
fi : K →, x 7→ xi mit 0 6 i 6 m nur dann verschwindet, wenn alle
Pm
Linearkoeffizienten a0 , . . . , am verschwinden. Das heißt i=0 ai xi = 0
für alle x ∈ K nur dann, wenn a1 = · · · = am = 0. Da dies für alle
x ∈ K gelten muss gilt es insbesondere für m + 1 paarweise verschiedene
P
i
Elemente35 c0 , · · · , cm aus K, so dass auch m
i=0 ai cj = 0 (0 6 j 6 m)
gilt. Damit ist v = t (a0 , · · · , am) ∈ Km+1 eine Lösung des homogenen
35
Diese existieren weil K unendlich viele Elemente enthält
Repetitorium
86
lineare Algebra
4 Eigenwertproblem
Polynome
Pm i
linearen Gleichungssystems G :=
i=0 cj xi = 0 (0 6 j 6 m). Nun
sieht man, dass die Koeffizientenmatrix von G die Vandermond Matrix
Qm−1 Qm
(cij )ji aus S 122 ist mit der Determinante k=0
j=k+1 (cj − ck ). Da
die cj paarweise verschieden sind, ist die Differenz von cj und ck mit
j 6= k stets von Null verschieden und damit auch die Determinante der
Koeffizientenmatrix. In diesem Fall lässt sich S 132(iv), (vi) anwenden
und es folgt, dass die einzige Lösung von G die triviale ist, also a0 =
· · · = am = 0.
Für S 138.4 nimmt man an es gäbe zwei identische Polynome
f : K → K, f(x) :=
Pm
i
0
0
i=0 ai x und f : K → K, f (x) :=
Pn
j=0
bj x j ,
P
Pn
36
i
j
m > n, und bj := 0
also m
i=0 ai x =
j=1 bj x für alle x aus K. Sei
für alle j > n.a, dann erhält man
Pm
i=0
S 139.1
ai x i =
Pm
i=0
bi xi =⇒
Pm
i=0 (ai
− bi )xi = 0.
Da die xi , wie gerade gezeigt linear unabhängig sind gilt ai − bi =
0 ⇒ ai = bi . Da die bi für i > n verschwinden, verschwinden die
entsprechenden ai auch, und somit ist m = n.
Es lassen sich die folgenden Rechenregeln festhalten.
Ein Polynom ist genau dann nicht das Nullpolynom, wenn der Grad
des Polynoms wenigstens Null ist.
S 139.2
Ein Polynom ist genau dann konstant, wenn der Grad des Polynoms
höchstens Null ist.
S 139.3
Ein Polynom ist genau dann konstant und verschwindet nicht, wenn
der Grad exakt Null ist.
Der Grad der Summe zweier Polynome ist höchstens der Grad des Polynoms mit dem größeren Grad.
Ist der Grad zweier Polynome verschieden, dann ist der Grad der Summe dieser beiden Polynome identisch mit dem Grad des Polynoms, das
den größeren Grad hat.
S 139.4
S 139.5
S 139.6
Der Grad des Produkts zweier Polynome ist identisch mit der Summe
des Grades des einen Polynoms und des Grades des anderen.
S 139.7
Das Produkt eines beliebigen Polynom und dem Nullpolynom ergibt
stets das Nullpolynom.
Die Menge aller Polynome über K ist nullteilerfrei. Denn sind zwei Polynome von Null verschieden hat ihr Produkt wenigstens den Grad Null
ist also in keinem Fall das Nullpolynom.
2
S 139.8
36
Der Beweis für n > m verläuft analog
Repetitorium
87
lineare Algebra
4 Eigenwertproblem
Polynome
4.1.1 Nullstellen und Teilbarkeit
D 102
Untersucht man das Eigenwertproblem gelangt man zu der Fragestellung „welche Lösungen hat die Gleichung f(λ) = 0?” wobei f hier ein
Polynom darstellt.
Ist f ein Polynom und λ ein Element aus K, das die Gleichung f(λ) = 0
erfüllt. Dann heißt λ Nullstelle von f.
2
Der Teilbarkeitsbegriff spielt eine Zentrale Rolle beim Lösen von Polynomgleichungen und diesbezüglich besteht eine enge Beziehung zwischen der Menge der Polynome über K und der Menge der ganzen Zahlen.
D 103
S 140.1
S 140.2
S 140.3
S 140.4
S 140.5
S 140.6
S 140.7
S 140.8
S 140.9
S 140.10
S 141
Ein Polynom f ist (k)ein Teiler37 eines Polynoms g – formal f | g (f g) – wenn (k)ein Polynom f 0 existiert mit g = ff 0 .
2
Die grundlegenden Eigenschaften der Teilbarkeitsrelation für Polynomen f, g, h ∈ Pol K.
Die Teilbarkeitsrelation ist reflexiv.
Die Teilbarkeitsrelation ist transitiv.
Ist f Teiler von sowohl g als auch h, dann ist es auch Teiler der Summe
von g und h.
Ist f Teiler von g, dann ist es auch Teiler des Produkts von g und h.
Jedes Polynom teilt das Nullpolynom.
Das Einspolynom teilt jedes Polynom.
Das Nullpolynom teilt f genau dann, wenn f das Nullpolynom ist.
f teilt das Einspolynom genau dann, wenn f konstant und nicht das
Nullpolynom ist.
Wenn f Teiler von g ist, und g vom Nullpolynom verschieden ist, dann
ist der Grad von f höchstens der Grad von g.
ist f ein Teiler von g und λ eine Nullstelle von f, dann ist λ auch es
auch eine Nullstelle von g.
2
Analog zu den Ganzen Zahlen wird nun die Division mit Rest entwickelt.
Zu zwei Polynomen f, g 6= 0 gibt es eindeutig bestimmte Polynome q, r
mit f = qg + r und Grad r < Grad g.
2
Ist der Grad von f kleiner als der von g, dann hat man mit q := 0
und r := f die beiden geforderten Polynome schon gefunden. Also
bleibt noch der Fall Grad f =: m > n := Grad g zu Untersuchen. Dies
geschieht per vollständiger Induktion nach m. Ist m Null, dann verschwindet auch n und f sowie g sind mit S 139.3 konstant und vom
37
man sagt auch f teilt g, f geht in g auf oder g ist ein Vielfaches von f.
Repetitorium
88
lineare Algebra
4 Eigenwertproblem
Polynome
Nullpolynom verschieden, also hat man mit q := gf und r := 0 die
gewünschten Polynome gefunden und den Induktionsanfang bewiesen.
Der Induktionsschritt wird von m − 1 nach m geführt. Definiert man
den Leitkoeffizienten von f als a und den von g als b, dann kann man
schreiben f = axm + f1 und g = bxn + g1 . Da voraussetzungsgemäß
gesichert ist, dass weder die Leitkoeffizienten verschwinden noch n > m
gilt, ist das Polynom q 0 := ab xm−n sicher vom Nullpolynom verschieden
sowie es einen kleineren Grad als m hat, und es gilt
q 0 g = ab xm−n (bxn + g1 ) = axm + h mit h = q 0 g1
S 142
S 143
Also ist mit S 139.6 der Grad von h kleiner m. f − q 0 g ist identisch mit
f1 − h und mit S 139.4 ist der Grad von f − q 0 g auch kleiner als m, so
dass mit der Induktionsannahme die Existenz derjenigen Polynome q
und r gefolgert werden kann, für die gilt f − q 0 g = qg + r. Löst man
diesen Ausdruck nach f auf folgt f = (q + q 0 )g + r, was zu beweisen
war. Die Eindeutigkeit wird wie üblich durch die Annahme es gäbe
zwei Paare von Polynomen die verschieden sind aber diesbezüglich die
gleichen Eigenschaften haben, also f = q1 g + r1 = q2 g + r2 . Dies hat
aber zur Folge (q1 − q2 )g = r2 − r1 und mit S 139.4, S 139.6, 139.1
folgt, dass der Grad von (q1 − q2 )g wenigstens n ist, während der von
r2 − r1 voraussetzungsgemäß kleiner als n ist. Es ergibt sich also ein
Widerspruch und somit gilt q1 = q2 was unmittelbar r1 = r2 zur Folge
hat.
Nachdem nun konstruktiv die Existenz der Polynome q und r bewiesen
wurden, kann man ein wichtiges Äquivalenzkriterium für Nullstellen
angeben. Nimmt man an, dass x−λ ein Teiler eines Polynoms f ist, dass
also gilt f = (x − λ)f1 . Dann ist f(λ) offensichtlich Null. Nimmt man
andererseits an, λ sei eine Nullstelle des Polynoms f und das Polynom
g des vorstehenden Satzes sei x − λ 6= 0, dann erhält man die Polynome
q, r mit f = qg + r und Grad r < Grad g. Dies impliziert, dass der
Grad von r höchstens Null ist und damit ist r konstant. Und da λ als
Nullstelle vorausgesetzt ist, gilt 0 = f(λ) = (λ − λ)q(λ) + r(λ) = r(λ).
Das Polynom r verschwindet also und setzt man f1 := q, dann hat man
f = (x − λ)f1
Ein Polynom f hat genau dann an der Stelle λ ∈ K eine Nullstelle wenn
das Polynom x − λ ein Teiler von f ist.
2
0
Jetzt kann mit vollständiger Induktion über den Grad m ∈ N eines
vom Nullpolynom verschiedenen Polynoms – wobei man geschickterweise von m − 1 nach m schließt – zeigen, dass
das Polynom höchstens endlich viele Nullstellen in K hat und deren
Anzahl höchstens der Grad von f ist.
2
Repetitorium
89
lineare Algebra
4 Eigenwertproblem
Eigenwerte
Mit x2 + 1 existiert ein Polynom, dass in R keine Nullstellen hat, wohl
aber in C. Um hier verschieden Körper differenzierter betrachten zu
können, führt man den Begriff der algebraischen Abgeschlossenheit ein.
D 104
S 144
Ein Körper heißt algebraisch abgeschlossen, falls jedes nichtkonstante
Polynom aus Pol K eine Nullstelle in K besitzt.
2
Dies führt zum Fundamentalsatz der Algebra, der hier ohne weiteren
Beweis angegeben wird.
Der Körper C der komplexen Zahlen ist algebraisch abgeschlossen. 2
Das heißt also, dass man die oben gesicherte Zerlegung f = (x − λ)f1 so
lange mit f1 wiederholen kann, bis f1 ein konstantes Polynom ist, falls
K ein abgeschlossener Körper und f nicht konstant ist.
S 145
Man sagt f zerfällt in Linearfaktoren, es existiert also eine Zerlegung
f = c(x − λ1 )m1 · · · · · (x − λr )mr . Wobei c aus K ist und nicht verschwindet, r, m1 , . . . , mr sind aus N und die λ sind aus K und paarweise
verschieden. Dabei ist c der Leitkoeffizient und die λ1 , . . . , λr sind die
verschiedenen Nullstellen von f in K und r ist deren Anzahl, schließlich
sind die Paare (λ1 , m1 ), · · · , (λr , mr ) durch f bis auf ihre Reihenfolge
eindeutig bestimmt.
2
D 105
Die m1 , . . . , mr werden formal mit mult(f, λj ) := mj mit 1 6 j 6 r
bezeichnet und heißen Vielfachheit oder Multiplizität der Nullstelle
λj von f. Nullstellen der Vielfachheit 1 heißen einfach.
2
S 146.1
S 146.2
S 146.3
Für die Nullstellen eines Polynoms gelten nachstehende Sätze.
Ist K algebraisch abgeschlossen und f ein Polynom über K, dass vom
Nullpolynom verschieden ist, dann ist die Anzahl der Nullstellen mit
ihrer Vielfachheit gezählt identisch mit dem Grad von f.
Eine komplexe Zahl ist genau dann eine Nullstelle von f, wenn auch die
Konjugierte dieser Zahl eine Nullstelle von f ist
Ist f nicht konstant gibt es eine Zerlegung
Q
Qs+t
2
mj
.
f = c sj=1 (x − λj )m
j
j=s+1 (x − aj x + bj )
Mit c ∈ R, c 6= 0, s, t ∈ N0 , m1 , . . . , ms+t ∈ N, paarweise verschiedenen
a2
λ1 , . . . , λs ∈ R, (as+1 , bs+1 ), . . . , (as+t , bs+t )R2 und 4j < bj für s + 1 6
j 6 s + t.
S 146.4
Ist f ein normiertes Polynom mit ganzen Koeffizienten und einem Grad
von wenigstens eins, dann ist λ ∈ Q eine Nullstelle von f, wenn λ eine
ganze Zahl ist die a0 teilt.
2
Nach dem der Polynombegriff geklärt ist, kann mit dem Eigenwertproblem fortgefahren werden.
Repetitorium
90
lineare Algebra
4 Eigenwertproblem
Eigenwerte
4.2 Eigenwerte
D 106.1
D 106.2
D 106.3
S 147
D 107
Die Menge aller n-dimensionaler Spaltenvektoren, die die Gleichung
Av = λv mit A ∈ Matn (K), λ ∈ K erfüllen, sind ein Untervektorraum
des n-dimensionalen Spaltenraums, da sie die Lösungsmenge des homogenen linearen Gleichungssystems GAλ := (λ1n − A)x = 0 sind.
Man definiert den Skalar λ als Eigenwert von A, falls ein n-dimensionaler
Spaltenvektor v existiert, der von Null verschieden ist und die Gleichung
Av = λv erfüllt.
Weiter definiert man die Menge aller Vektoren die diese Gleiching erfüllen als Eigenraum von A zum Eigenwert λ und schreibt formal
EigA (λ) := {v ∈ Kn | Av = λv}.
Die vom Nullvektor verschiedenen Elemente aus Eig A (λ) heißen Eigenvektoren von A zum Eigenwert λ. Ein von Null verschiedener Vektor
v ∈ Kn heißt Eignevektor von A falls ein Eigenwert von A existiert mit
v ∈ EigA (λ).
2
Für die Nullmatrix gilt Beispielsweise Eig 0 (0) = Kn . Für die Einheits v
=
matrix Eig1n (1) = Kn und für die Blockmatrix 10r 00 gilt 10r 00 w
v
v
r
n−1
0
}, EigA (1) = { 0 | v ∈ K }.
0 und somit EigA (0) = { w | w ∈ K
Ein Äquivalenzsatz für Eigenwerte.
(i)
⇐⇒ λ aus K ist ein Eigenwert der n-reihigen quadratischen Matrix A.
(ii)
⇐⇒ Der Eigenraum von A zum Eigenwert λ ist nicht der Nullraum.
(iii)
⇐⇒ Das homogene lineare Gleichungssystem GA,λ hat nicht nur die
triviale Lösung.
(iv)
⇐⇒ Die Determinante der Koeffizientenmatrix von GA,λ verschwindet.
2
Die letzte Äquivalenzaussage liefert eine Gleichung det(x1n − A) = 0
deren Lösungen die Eigenwerte einer Matrix A ist.
det(x1n − A) heißt charakteristische Gleichung von A.
2
Man könnte die charakteristische Gleichung von A auch als Abbildungsvorschrift einer Abbildung von K in K interpretieren. Bedient man sich
der Leibnizdarstellung und interpretiert man eine Komponente der Matrix (x1n − A) = (xδij − aij )ij als (xδij − aij ) dann gilt
det(x1n − A) =
n!
P
πk=1 ∈Sn
(πk )(xδπk (1),1 − aπk (1),1 ) · · · · · (xδπk (n),n − aπk (n),n ).
Also ist jeder Faktor eines jeden Summanden ein Polynom und da sowohl das Produkt als auch die Summe zweier Polynome wieder ein
Polynom ergibt, ist det(x1n − A) ein Polynom dessen Nullstellen die
Eigenwerte von A sind. Geht man zur Spaltendarstellung der Matrix
(x1n − A) über und betrachtet den Fall38 A ∈ Mat3 (K), dann lassen
38
Auch hier soll die Spezialisierung der Übersicht dienen der allgemeine Fall folgt
Repetitorium
91
lineare Algebra
4 Eigenwertproblem
Eigenwerte
sich aus det(xe1 − v1 , xe2 − v2 , xe3 − v3 ) mit der Spaltenmultiliniarität
die Subtrahenden „herausziehen.”
det(xe1 − v1 , xe2 − v2 , xe3 − v3 )
= det(xe1 , xe2 − v2 , xe3 − v3 ) + det(−v1 , xe2 − v2 , xe3 − v3 )
= det(xe1 , xe2 , xe3 − v3 ) + det(−v1 , xe2 − v2 , xe3 − v3 )
+ det(xe1 , −v2 , xe3 − v3 )
= det(xe1 , xe2 , xe3 ) + det(−v1 , xe2 − v2 , xe3 − v3 ) + det(xe1 , −v2 , xe3 − v3 )
+ det(xe1 , xe2 , −v3 )
Also lässt sich der erste Summand s1 als x3 det(e1 , e2 , e3) oder allgemein
als xn det(e1 , . . . , en ) schreiben.
In den übrigen Summanden sind noch zwei bzw (n − 1) Spalten von
x abhängig. Um auch hier x herauszuziehen, entfernt man wieder die
Subtrahenden und erhält
s1 + det(−v1 , xe2 , xe3 ) + det(xe1 , −v2 , xe3 ) + det(xe1 , xe2 , −v3 ) +
det(−v1 , −v2 , xe3 − v3 ) + det(−v1 , xe2 , −v3 ) + det(xe1 , −v2 , −v3 ),
so dass man die Determinanten in denen zwei Spalten von x abhängen
P
zusammenfassen kann zu s2 := x2 3i=1 (e1 , . . . , ei−1 , vi , ei+1 , . . . , e3 )
P
n
oder allgemein zu xn−1 i=1 (e1 , . . . , ei−1 , vi , ei+1 , . . . , en ). Dann könnte man die Summanden Bilden, in denen nur noch eine Spalte von x
abhängen, also
s1 + s2 + det(xe1 , −v2 , −v3 ) + det(−v1 , xe2 , −v3 ) + det(−v1 , −v2 , xe3 ) +
det(−v1 , −v2 , −v3 ).
Man sieht, dass das konstante Glied des Polynoms (x13 − A) die Determinante von (−v1 , −v2 , −v3 ) oder allgemein die Determinante von
(−v1 , . . . , −vn ) ist. Mit der Spurdefinition D 69.11 und der Identität
det(−v1 , . . . , −vn ) = (−1)n det A kann zusammenfassend festgehalten
werden:
S 148
Die Funktion
χA : K −→ K,
x 7−→ χA (x) := det(x1n − A)
ist ein normiertes Polynom vom Grad n mit
det(x1n − A) = xn − (spur A)xm−1 + · · · + (−1)n det A.
D 108
S 149.1
S 149.2
2
Die Funktion χA heißt charakteristisches Polynom von A.
2
Nun kann eine Beziehung zwischen einem Eigenwert λ ∈ K von A ∈
Matn (K) und einem Polynom hergestellt werden.
Denn λ ist genau dann eigenwert von A, wenn es Nullstelle des charakteristischen Polynoms ist.
Außerdem folgt mit S 143 unmittelbar, dass A höchstens n Eigenwerte
analog
Repetitorium
92
lineare Algebra
4 Eigenwertproblem
Diagonalisierbarkeit
hat; ist K algebraisch abgeschlossen hat A mit S 146.1 genau n Eigenwerte mit ihrer Vielfachheit gezählt.
2
Eine weitere Beziehung zwischen Polynomen und Matrizen erhält man
indem man den Ausdruck f(A) definiert, wobei f ein Polynom über K
und A eine n-reihige quadratische Matrix ist.
D 109.1
Ist r aus N0 , dann heißt Ar mit
A0 := 1n ,
Ar := A
· · · A} für r > 0
| · ·{z
r−mal
D 109.2
S 150
die r-te Potenz von A
Pm
i
Für ein Polynom f über K heißt f(A) =
i=0 ai A ∈ Matn (K) der
Wert von f in A oder der Wert von f an der Stelle A oder die
Einsetzung von A in f.
2
39
Es gelten die zur „Körper-Potenz” analogen Rechenregeln
1rn = 1n ,
Ar+s = Ar As ,
Ars = (Ar )s
und Ar = AAr−1 .
2
Nun lässt sich der Satz von Hamilton und Cayley zeigen, er besagt,
dass der Wert an der Stelle A des charakteristischen Polynoms von A
mit der Nullmatrix identisch ist. Der Beweis
χA (A) = det(A1n − A) = det(A − A) = det 0 = 0
ist falsch, da χA (A) ∈ Matn (K) währen det(. . . ) ∈ K . . .
Auf den tatsächlichen Beweis wird verzichtet. Es findet sich ein Beweis
zu diesem Satz im achten Kapitel von [Koe03].
4.3 Diagonalisierbarkeit
Eine n-reihige quadratische Matrix A heißt genau dann diagonalisierbar oder ist auf Diagonalgestalt transformierbar, falls eine Matrix
aus der allgemeinen linearen Gruppe n-ten Grades existiert, so dass die
Matrix P −1 AP diagonalgestalt hat.
Unter dem Diagonalisierungsproblem versteht man die Fragestellung,
welche n × n-Matrizen diagonalisierbar sind. Zunächst lässt sich ausrechnen
χP−1 AP (x) = det(x1n − P−1 AP)
= det(xP−1 P1n − P−1 AP) = det(xP−1 1n P − P−1 AP)
= det(P−1 (x1n − A)P)
= (det P−1 ) det(x1n − A)(det P)
= det(x1n − A)(det(P−1 P)) = det(x1n − A) det(1n )
= χA (x)
Negative Exponenten sind allerdings ausgeschlossen und i.d.R. ist (AB)r 6=
(A B ).
39
r r
Repetitorium
93
lineare Algebra
4 Eigenwertproblem
S 151
Diagonalisierbarkeit
Ist P −1 AP eine Diagonalmatrix, dann ist sie insbesondere auch eine
obere Dreiecksmatrix und (x1n −P −1 AP) ist dann auch eine obere Dreiecksmatrix mit den Diagonalkomponenten x − λi und mit S 117.1 gilt
Qn
det(x1n − P −1 AP) = i=1 x − λi , also verschwindet χP−1 AP (x) genau
dann wenn x = λ1 , . . . , λn . Damit sind dann wegen χP−1 AP = χA die
Diagonalkomponenten von P −1 AP die Eigenwerte von A.
Ist P ∈ GLn (K), A ∈ Matn (K), dann haben P −1 AP und A das gleiche
charakteristische Polynom und ist P −1 AP eine Diagonalmatrix, dann
sind die Diagonalelemente die Eigenwerte von A.
2
Mit Hilfe des nachstehenden Äquivalenzsatzes kann eine Beziehung zwischen Eigenwerten und Eigenvektoren hergestellt werden. Vorausgesetzt A ist aus Matn (K), B = (v1 , . . . , vn ) ist eine geordnete Basis des
Kn und P := (v1 , . . . , vn ) ist die Matrix, die sich aus diesen Vektoren
zusammensetzt. Da B eine geordnete Basis ist, ist P invertierbar. Sei
P −1 AP = (v10 , . . . , vn0 ) =: A 0 , dann folgt mit S 85.1
AP = (Av1 , . . . , Avn ) = (Pv10 , . . . , Pvn0 ) = PA 0
also Avi = Pvi0 . Angenommen P −1 AP ist eine Diagonalmatrix, dann ist
vi0 = λi ei und damit gilt Pvk0 = λi Pei . Da (Pe1 , . . . , Pen ) die Realisierung von P als n-Tupel seiner Spaltenvektoren ist, folgt
Pvi = λi Pei = λi vi = Avi .
S 152.1
S 152.2
S 153
Also ist P AP genau dann eine Diagonalmatrix mit den Diagonalkomponenten λ1 , . . . , λn ∈ K, wenn vj Eigenvektor von A zum Eigenwert λj
ist.
Oder anders ausgedrückt, eine Matrix vom Typ (n, n) ist genau dann
diagonalisierbar, wenn eine geordnete Basis des Kn existiert, deren
Spaltenvektoren allesamt Eigenvektoren von A sind.
2
Mit dieser Erkenntnis kann eine erste Antwort auf das Diagonalisierungsproblem gegeben werden. Eine von Null verschiedene obere Dreiecksmatrix A deren Diagonalkomponenten verschwinden, ist nicht diagonalisierbar. Denn der einzige Eigenwert von A ist die Null, gibt es
weiter ein P ∈ GLn (K), so dass P −1 AP eine Diagonalmatrix ist dann
müssten wegen S 151 alle Diagonalkomponenten verschwinden. Die restlichen Komponenten von P −1 AP sind sowieso Null, also P −1 AP = 0.
Da die Nullmatrix nicht in der Menge der allgemeinen linearen Gruppe
n-ten Grades enthalten ist folgt dass A verschwinden muss im Widerspruch zu der Voraussetzung, dass A von der Nullmatrix verschieden
ist.
Es sind also nicht alle n-reihigen quadratischen Matrizen diagonalisierbar.
2
−1
Repetitorium
94
lineare Algebra
4 Eigenwertproblem
Diagonalisierbarkeit
Ein einfaches Beispielmatrix, die nicht reell diagonalisierbar ist, ist
2
A := 10 −1
0 . Denn χA (x) = x + 1 hat keine reellen Eigenwerte, allerdings hat es die (rein) komplexen Eigenwerte ±i. Mit Av = λ1/2 v = ±iv
folgt, dass die Komponente z2 eines Eigenvektors zz12 mit ∓iz1 iden
1
tisch ist, damit ist −i
Eigenvektor zum Eigenwert i und 1i Eigen
1 1
1 1
6= 0 impliziert, dass P := −i
vektor zum Eigenwert −i. det −i
i
i
0
ist A diagonalisierbar.
invertierbar ist und mit P −1 AP = 0i −i
Möchte man nun von einer n-reihigen quadratischen Matrix A konkret entscheiden ob sie diagonalisierbar ist, kann man wie folgt vorgehen.
Zunächst ermittelt man das charakteristische Polynom
χA : K −→ K,
χA (x) := det(x1n − A).
von A. Zerfällt es nicht in linearfaktoren, ist A nicht diagonalisierbar.
Zerfällt es in Linearfaktoren, dann berechne man die Nullstellen
χA (x) = det(x1n − A) = 0
von χA (x) und somit die Eigenwerte von A.
Dann ermittle man die Eigenräume zu den jeweiligen Eigenwerten indem man die Lösungsräume der homogenen linearen Gleichungssysteme
(λj 1n − A)x = 0
bestimmt.
Anschließend ermittelt man zu den Eigenräumen geordnete Basen Bj =
(v1j , . . . , vmj ) mit mj = dim Eig(λj ) = mult(χA , λj ), sprich die Dimension eines Eigenraums bzw. die Anzahl der Basiselemente muss identisch
sein mit der Vielfachheit der Nullstelle λj des charakteristischen Polynoms von A.
Ist dies der Fall fügen sich die geordneten Basen Bj zu der Matrix
P = (B1 , . . . , Br ) = (v11 , . . . , vm1 , . . . , v1r , . . . , vmr )
des Typs (n, n). Man kann zeigen, dass diese Matrix diagonalisierbar
ist, folglich bilden ihre Spalten eine Basis des Kn und da sie auch Eigenvektoren von A sind gilt P −1 AP ist eine Diagonalmatrix, also A ist
diagonalisierbar.
Repetitorium
95
lineare Algebra
LITERATUR
LITERATUR
Literatur
[Ama98] Amann, Herber: Analysis I. Birkhäuser, 1998. – Erster Band
einer dreibändigen Einführung in die Analysis, die über das
Grundstudium hinausgeht und in der die Begriffe auf hohem
Abstraktionsniveau entwickelt werden.
[Dei04]
Deiser, Oliver: Einführung in die Mengenlehre. 2. Auflage. Springer, 2004. – Eine wirklich schöne Einführung in die
Mengenlehre.
[Jän03] Jänich, Klaus: Lineare Algebra. 10. Auflage. Springer, 2003.
– Das Buch zum einsteigen in die lineare Algebra.
[Knu04] Knuth, Donald E.: Concrete Mathematics (A fondation
for computer sience). 2. Auflage, 16. korr. Nachdruck. Addison Wesley, 2004. – Dieses Buch wurde wegen seines Layouts
in die Literaturliste aufgenommen, nicht wegen seines Inhalts.
Mir gefiel die Darstellung so gut, dass ich es dem Meister Don
Knuth nachtun wollte und mein TEX-System entsprechend
einrichtete. Zum Inhalt kann ich bisher sagen, dass es sich um
einen anspruchsvollen Rundumschlag handelt, was die mathematischen Bedürfnisse eines Informatikers bzw. einer Informatikerin anbelangt. Es ist eine gute Lektüre um sich im Lesen
(und Verfassen) englischsprachiger mathematischer Texte zu
üben.
[Koe03] Koecher, Max: Lineare Algebra und analytische Geometrie. 4. Auflage, 1. korr. Nachdruck. Springer, 2003. – Niveauvolles Buch über die lin. Algebra mit vielen historischen
Hintergründen und einem Kapitel, dass zeigt wie sich aus der
lin. Algebra die euklidische Geometrie ableiten lässt.
[Lex00] Lexikonredaktion, Meyers (Hrsg.): DUDEN Rechnen und
Mathematik. 6. Auflage. Bibliographisches Institut & F.A.
Brockhaus AG, 2000
Repetitorium
96
lineare Algebra
Index
a-Fache - Abbildungen, 84
Abb(M, K), 84
Abbildung, 6
abelsche Gruppe, 18
Addition - Abbildungen, 84
Addition – lineare Abbildung, 42
Addition – Matrizen, 49
additives Inverse – Vektorraum,
24
adjungierte Matrix, 73
Adjunkte, 73
algebraische Abgeschlossenheit, 90
algebraisches Komplement, 72
Allgemeine lineare GruppeGLn (K),
56
Assoziativgesetz – Abbildungen,
7
Assoziativgesetz – Mengen, 4
Austauschsatz, 35
B-duale Basis, 67
Basis, 34
Beschränkung einer Abbildung,
7
Betrag einer komplexen Zahl, 14
bijektiv, 7
bijektiv, Komposition, 7
Bild f, 6
Bild – lineare Abbildung, 43
Bild – Matrix, 61
Bild von x unter f, 6
Blockmatrix, 48
Charakteristik eines Körpers, 17–
18
charakteristische Gleichung, 91
de Morgan – allgemein, 5
de Morgan – Mengen, 5
Definitionsmenge, 6
Determinante, 70
Determinantenfunktion, 69
Diagonalmatrix, 47
Differenz – Körper, 19
Differenz – Mengen, 4
Dimension – Vektorraum, 38
direkte Summe – Unterräume, 30
Distributivgesetz – allgemein, 5
Distributivgesetz – Mengen, 5
doppelte Differenz, 5
Dreiecksmatrix, 48
Dualraum, 66
Eigenraum, 91
Eigenvektor, 91
Eigenwert, 91
Einfachheit einer Nullstelle, 90
Einheitsbasis, 35
Einheitsmatrix, 48
Einheitsvektor, 32
Eins – Neutrale der Körpermultiplikation, 17
elementare Spaltenumformungen,
51
elementare Zeilenumformungen,
51
Elementarmatrizen, 48
endlich erzeugt, 32
endlich-dimensionaler Vektorraum,
38
endliche Menge, 12
Endomorphismus, 42
Ergebnisvektor eines LGS, 77
erweiterte Matrix eines LGS, 78
Erzeugendensystem, 32
Extensionalitätsprinzip, 3–4
Fakultät, 13
Familie, 5
97
INDEX
INDEX
Fundamentalsatz der Algebra, 90
Funktionswert, 6
kanonische Basis, 35
Kardinalität, 12
Kardinalzahl, 12
kartesisches Produkt, 4
Kern – lineare Abbildung, 43
Kern – Matrix, 61
Koeffizienten eines LGS, 77
Koeffizientenmatrix eines LGS,
78
Kofaktor, 72
kommutative Gruppe, 18
Kommutativgesetz, Mengen, 4
Komplement, 4
komplementärer Unterraum, 30
Komplementärmatrix, 72–73
komplexe Zahlen, 13
Komponente – Matrix, 46
Komposition, 7
konjugiert komplexe Zahl, 15
Kronecker-δ, 48
General Linear Group, 56
geordnete Basis, 61
geordnete Standardbasis, 61–62
gespiegelte Matrix, 47
Gruppe, 18
Hauptdiagonale, 47
HomK (V, W), 42
homogene lineare Gleichung, 76
homogenes lineares Gleichungssystem, 77
Homogenisierung eines LGS, 77
Homogenität eines LGS, 77
Homomorphismus – Vektorraum,
41
Hyperebene, 66
Identität – Abbildung, 6
Identität – Matrizen, 46
Identität – Mengen, 3
Identität – Tupel, 4
imaginäre Einheit, 13
Imaginärteil, 14
Inhomogenität eines LGS, 77
injektiv, 7
injektiv, Komposition, 7
Inverse, 56
inverse Matrix, 56
invertierbare Matrix, 56
Isomorphismus, 42
iterierte elementare Spaltenumformungen, 51
iterierte Spaltenvertauschung, 52
Lösbarkeit eines LGS, 77
Lösungsmenge eines LGS, 77
Lösungsvektor eines LGS, 77
linear abhängig, 33
linear abhängig – Mengen, 34
linear unabhängig – Mengen, 34
lineare Abbildung, 41
lineare Gleichung, 76
lineare Hülle, 31
lineare Operatoren, 41
lineare Transformation, 41
lineare Unabhängigkeit, 33
lineares Gleichungssystem, 76
Linearform, 66
Linearkoeffizienten, 28
Linearkombination, 28
Jägerzaunregel, 71
Kn , 26
Körper Definition, 16–17
Kürzungsregel, 18
Repetitorium
Matm,n (K), 46–47
Matrix, 46
98
lineare Algebra
INDEX
INDEX
Matrix eines Homomorphismus,
62–63
Matrixform eines LGS, 78
Matrixrang, 50
Matrizeneinheit, 48
Matrizenidentität, 46
Matrizenmultiplikation, 54–55
Matrizenprodukt, 54
Menge der linearen Abbildungen,
42
Mengenfolge, 5
Minuend – Körper, 19
Multiplikation - Abbildungen, 84
Potenz – Körper, 22–23
Potenz – Matrix, 93
Produkt - Abbildungen, 84
Produktzeichen, 22
Π, 22
Produktzeichen – Rekursiv, 22
quadratische Matrix, 47
Quotient – Körper, 19
Nn , 10
n, 13
n-dimensionale Spaltenvektoren,
27
n-dimensionale Spaltenvektorraum,
27
n-Fache – Körper, 21
n-Fache – Matrix, 48
n-Fache – Vektoren, 25
Natürlichen Zahlen, 9
Nebendiagonale, 47
Negative – Körperaddition, 17
Nenner, 19
nichtsinguläre Matrix, 56
Normalformensatz, 58
Null – Neutrale der Körperaddition, 17
Nullmatrix, 48
Nullraum, 28
Nullspalte, 27
Nullstelle, 88
Nullvektor, 24
Operation, 6
Paar, 3
Permutation, 9
Polarkoordinaten, 14
Repetitorium
99
Rang – lineare Abbildung, 45–46
Rang – Matrix, 50
Rang – Menge, 40
Realteil, 14
Realteil einer kompl. Zahl, 14
reguläre Matrix, 56
rekursive Definition, 10
Reziproke – Körpermultiplikation, 17
S(M), 9
Sn , 12
Schnittmenge, 4
skalare Multiplikation - Abbildungen, 84
skalare Multiplikation – lineare
Abbildung, 42
skalare Multiplikation – Matrix,
49
Skalarmultiplikation Kn , 26
Spaltenindex, 46
Spaltenrang, 49
Spaltenvektor – Matrix, 47
Spaltenvektoren eines LGS, 77
span, 31
Spur – Matrix, 47
Standardbasis, 35
Subtrahend – Körper, 19
Summationsbuchstabe, 20
Summationsgrenze, 20
Summationsindex, 20
Summe - Abbildungen, 84
lineare Algebra
INDEX
INDEX
Summe – Matrizen, 48
Summe – Unterräume, 29
Summenzeichen, 20
Σ, 20
Summenzeichen – rekursiv, 20
surjektiv, 7
surjektiv, Komposition, 7
Zeilenindex, 46
Zeilenrang, 49–50
Zeilenraum, 47
Zeilenvektor – Matrix, 47
Zuordnungsvorschrift, 6
Teilbarkeit – Polynome, 88
Teilmengenrelation, 4
Teilvektorraum, 27
Transponierte, 47
transponierte Matrix, 47
triviale Lösung eines hLGS, 78
triviale Linearkombination, 28
trivialen Unterräume, 28
Tupel, 3
Übergangsmatrix, 65–66
Übersetzungsisomorphismus, 65
Umkehrabbildung, 8
unendlich-dimensionaler Vektorraum, 38
unendliche Menge, 12
unitär, Abbildungen, 7
universelle Lösbarkeit eines LGS,
77
Unterdeterminante, 73
Untervektorraum, 27
Urbild, 6
Vektoraddition – Kn , 26
Vektorform eines LGS, 77
Vektorraum V über K, 23–24
Vektorraumhomomorphismus, 41
Vereinigung, 4
Vielfachheit einer Nullstelle, 90
Wert einer Abbildung, 6
Wertemenge, 6
Zähler, 19
Repetitorium
100
lineare Algebra
Herunterladen