MLAE1 Mathematik: Lineare Algebra für Ingenieure 1

Werbung
MLAE1
Mathematik: Lineare Algebra für Ingenieure 1
Christoph Kirsch
28. Dezember 2015
Inhaltsverzeichnis
0 Überblick
1
1 Grundlagen
1.1 Mengenlehre . . . . . . . . . . . . . . . . .
1.2 Zahlen . . . . . . . . . . . . . . . . . . . .
1.2.1 Zahlenmengen und Operationen .
1.3 Funktionen . . . . . . . . . . . . . . . . .
1.4 Der Körper (R, +, · ) . . . . . . . . . . . .
1.4.1 Auflösen von linearen Gleichungen
1.5 Der Vektorraum (Rn , +, · ) . . . . . . . .
1.6 Matrizen . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2 Lineare Gleichungssysteme
2.1 Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Allgemeine Form und Matrixform . . . . . . . . . . . . . . . . . .
2.3 Lineare Gleichungssysteme in Zeilenstufenform . . . . . . . . . .
2.4 Gausssches Eliminationsverfahren . . . . . . . . . . . . . . . . . .
2.5 Zusammenfassung: Verfahren zur Lösung eines linearen Gleichungssystems . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.6 Gauss-Jordan-Algorithmus und inverse Matrix . . . . . . . . . .
2
2
5
5
6
7
10
11
17
26
26
27
28
35
40
42
3 Vektorräume und lineare Abbildungen
52
3.1 Vektorräume, Basis, Dimension . . . . . . . . . . . . . . . . . . . 52
3.2 Lineare Abbildungen, Darstellungsmatrizen . . . . . . . . . . . . 68
0
Überblick
In diesem ersten Teil einer zweisemestrigen Vorlesung über Lineare Algebra
für Ingenieure sollen Sie das Rechnen mit Vektoren, Matrizen und komplexen
Zahlen sowie Grundlagen der analytischen Geometrie erlernen.
1
1
GRUNDLAGEN
2
Zuerst betrachten wir die bekannte Addition und Multiplikation von reellen
Zahlen und stellen fest, dass die Menge R (der reellen Zahlen) zusammen mit
diesen Verknüpfungen einen Körper bildet. Durch Einführung von Vektoren erhalten wir den Vektorraum Rn , der sich für n = 2, 3 bequem veranschaulichen
lässt. Danach führen wir Matrizen als rechteckige Zahlenschemen ein. Eine Matrix kann mit einem Vektor multipliziert werden, was einen neuen Vektor ergibt.
Dies führt auf lineare Gleichungssysteme, für die wir einen direkten Lösungsalgorithmus (das Gausssche Eliminationsverfahren) kennen lernen.
Nach dieser Einführung untersuchen wir algebraische Strukturen wie Gruppen, Körper oder Vektorräume allgemeiner. Dabei werden auch die komplexen
Zahlen eingeführt, die u. a. bei der Lösung von quadratischen Gleichungen eine
Rolle spielen. Wir lernen den Begriff der Basis eines Vektorraums kennen und
überzeugen uns davon, dass sich lineare Abbildungen auf Vektorräumen mit
Hilfe von Matrizen darstellen lassen.
Diese allgemeineren Betrachtungen finden Anwendung in der analytischen
Geometrie, wo Methoden aus der linearen Algebra verwendet werden, um z. B. Geraden und Ebenen im dreidimensionalen Raum R3 zu beschreiben.
Die in dieser Vorlesung besprochenen Inhalte sollten in Ihrer Vorlesung
PHEMS1 direkte Anwendung finden.
1
Grundlagen
1.1
Mengenlehre
Definition 1 (nach Georg Cantor, 1895) Eine Menge ist eine Zusammenfassung von bestimmten wohlunterschiedenen Objekten unserer Anschauung oder
unseres Denkens zu einem Ganzen. Die Objekte einer Menge heissen Elemente.
Bemerkungen:
• Für ein Element x einer Menge M schreiben wir x ∈ M und sagen “x ist
Element von M ”.
• Weil die in einer Menge zusammengefassten Objekte gemäss Def. 1 “wohlunterschieden” sein müssen, kann eine Menge nicht zwei gleiche Elemente
enthalten.
Definition 2 (Teilmenge) Eine Menge A heisst Teilmenge einer Menge B,
wenn jedes Element von A auch Element von B ist.
Bemerkungen:
• Wir schreiben A ⊆ B, wenn A eine Teilmenge von B ist.
• Wir werden Mengen immer als Teilmengen einer Grundmenge G (eines
Universums) betrachten. G ist eine Menge aus allen in einem bestimmten Zusammenhang betrachteten Objekten. Alle in diesem Zusammenhang
betrachteten Mengen sind dann Teilmengen von G.
1
GRUNDLAGEN
3
• Ist x kein Element von M , so schreiben wir x 6∈ M . Beachten Sie aber,
dass immer noch x ∈ G gelten muss (das Universum kann nicht verlassen
werden)!
Beispiele:
1. G: Menge aller Früchte, B : Menge aller Apfelfrüchte, dann gilt für A :=
{Apfel, Birne, Quitte}: A ⊆ B. Es gelten auch die Aussagen Apfel ∈ A,
Birne ∈ B, Vogelbeere ∈ B, Vogelbeere 6∈ A. Insbesondere gilt A 6= B,
denn wir haben ein Element von B gefunden, das kein Element von A ist.
2. G: Menge aller Musikinstrumente, Ω : Menge aller Streichinstrumente,
dann gilt M := {Violine, Viola, Violoncello, Kontrabass} ⊆ Ω. Es gilt
{Violine, Viola} ⊆ M , Erhu ∈ Ω, Erhu 6∈ M , Querflöte 6∈ Ω.
3. Im Beispiel 1 ist der Ausdruck “Violine 6∈ B” unzulässig, weil die Violine
kein Element der dort betrachteten Grundmenge aller Früchte ist. Die
Aussage “Banane 6∈ B” ist hingegen zulässig, denn die Banane ist eine
Frucht.
4. “{Violine, Violine, Kontrabass}” ist keine Menge, weil die beiden Objekte
Violine nicht unterscheidbar sind. Dagegen ist {Violine, {Violine} , Kontrabass}
eine Menge, denn das Element Violine ist verschieden von der Menge mit
dem Element Violine.
5. Die leere Menge, ∅ oder {}, ist eine Menge, die keine Elemente enthält.
In diesen Beispielen haben wir bereits zwei Darstellungsformen von Mengen
kennen gelernt:
• die aufzählende Form, wie z. B. A = {Apfel, Birne, Quitte}. Hier werden
die Elemente einer Menge explizit aufgezählt, wobei die Reihenfolge keine
Rolle spielt.
• die beschreibende Form, wie z. B. “Ω ist die Menge aller Streichinstrumente”. Hier werden die Elemente einer Menge über ihre Eigenschaften
beschrieben. Formal schreiben wir auch
M = {x ∈ G | x hat die Eigenschaft E} ,
d. h. M enthält sämtliche Elemente der Grundmenge G, die die Eigenschaft E haben. Zum Beispiel lässt sich die Menge aller Streichinstrumente
im Universum G aller Musikinstrumente schreiben als
Ω = {x ∈ G | x ist ein Streichinstrument}.
Für die Definition der folgenden Mengenoperationen verwenden wir die folgenden Symbole aus der Aussagenlogik (s. MAE1):
• ∧: Konjunktion (UND)
• ∨: Disjunktion (ODER)
1
GRUNDLAGEN
4
Definition 3 (Mengenoperationen) Seien A und B Mengen. Dann definieren
wir die folgenden Mengen über ihre Eigenschaften:
• Komplement von A: Ac := {x ∈ G | x 6∈ A},
• Schnittmenge (Durchschnitt) von A und B: A∩B := {x ∈ G | x ∈ A ∧ x ∈ B},
• Vereinigungsmenge (Vereinigung) von A und B: A∪B := {x ∈ G | x ∈ A ∨ x ∈ B},
• Differenz von A und B: A \ B := {x ∈ G | x ∈ A ∧ x 6∈ B} = A ∩ B c .
Bemerkung: Mengenoperationen lassen sich mit Hilfe von Venn-Diagrammen
(nach J. Venn, 1834–1923) grafisch darstellen.
Definition 4 (Mengenprodukt) Für zwei Mengen A und B ist das Mengenprodukt definiert durch die Menge
A × B := {(a, b) | a ∈ A, b ∈ B} .
(1)
Bemerkungen:
• (a, b) bezeichnet ein geordnetes Paar. Hier ist die Reihenfolge der Elemente
wesentlich, und es gilt das Paaraxiom (G. Peano, 1897)
(a, b) = (c, d)
⇔
a=c ∧ b=d
(2)
(⇔ ist das Bikonditional aus der Aussagenlogik (“genau dann, wenn”)).
• Die Definition des Mengenprodukts lässt sich auf eine beliebige Anzahl von
Mengen verallgemeinern: Für ein n ∈ N seien M1 , M2 , . . . , Mn Mengen,
dann ist das Mengenprodukt gegeben durch
M1 ×M2 ×· · ·×Mn := {(x1 , x2 , . . . , xn ) | x1 ∈ M1 , x2 ∈ M2 , . . . , xn ∈ Mn } .
Hierbei bezeichnet (x1 , x2 , . . . , xn ) ein geordnetes n-Tupel.
• Für M1 = M2 = · · · = Mn = M schreiben wir auch
M n := M × M × · · · × M .
|
{z
}
(3)
n-mal
Beispiele:
1. Das Mengenprodukt der dreielementigen Mengen A := {1, 2, 3} und B :=
{x, y, z} ist gegeben durch die neunelementige Menge
A × B = {(1, x), (1, y), (1, z), (2, x), (2, y), (2, z), (3, x), (3, y), (3, z)} .
2. Später werden wir den Vektorraum Rn antreffen, ein n-faches Mengenprodukt der Menge der reellen Zahlen. Die Elemente von Rn (geordnete
n-Tupel) werden (n-dimensionale) Vektoren genannt. Ihre Einträge kann
man als Koordinaten von Punkten in einem n-dimensionalen Raum auffassen.
1
GRUNDLAGEN
1.2
5
Zahlen
Was sind und was sollen die Zahlen? [. . . ] die Zahlen sind freie Schöpfungen des menschlichen Geistes, sie dienen als ein Mittel, um die
Verschiedenheit der Dinge leichter und schärfer aufzufassen. Durch
den rein logischen Aufbau der Zahlen-Wissenschaft und durch das
in ihr gewonnene stetige Zahlen-Reich sind wir erst in den Stand
gesetzt, unsere Vorstellungen von Raum und Zeit genau zu untersuchen, indem wir dieselben auf dieses in unserem Geiste geschaffene
Zahlen-Reich beziehen.
(Richard Dedekind, 1893)
1.2.1
Zahlenmengen und Operationen
Die Menge R der reellen Zahlen entspricht der Menge aller Punkte auf der
Zahlengeraden. Wichtige Teilmengen von R sind:
• die natürlichen Zahlen N := {1, 2, 3, . . . }, N0 := {0, 1, 2, . . . },
• die ganzen Zahlen Z := {. . . , −2, −1, 0, 1, 2, . . . },
m, n ∈ Z, n 6= 0 .
• die rationalen Zahlen Q := m
n
Es gibt auch Erweiterungen der reellen Zahlen, z. B. die komplexen Zahlen
C := {a + ib | a, b ∈ R} ,
mit der imaginären Einheit i ∈ C \ R, i2 = −1. Es gilt N ⊆ Z ⊆ Q ⊆ R ⊆ C.
Diese Zahlenmengen enthalten im Unterschied zu den in Kap. 1.1 betrachteten
Mengen unendlich viele Elemente.
Bemerkung: Die fünf oben erwähnten Zahlenmengen N, Z, Q, R, C sind alle voneinander verschieden. Dies kann man z. B. zeigen, indem man Elemente aus den
paarweisen Differenzen angibt. So gelten z. B. −1 ∈ Z \ N, 32 ∈ Q \ Z, und
oben hatten wir bereits i ∈ C \ R gesehen. Beispiele für sog. irrationale Zahlen
(Elemente von R \ Q) sind
√
• 2 ' 1.414 . . . (Irrationalität bewiesen von Euklid, 3. Jh. v. Chr.),
• e ' 2.718 . . . (Irrationalität bewiesen von L. Euler, 1737),
• π ' 3.141 . . . (Irrationalität bewiesen von J. H. Lambert, 1761).
Auf den Zahlen können wir die Verknüpfungen Addition und Multiplikation mit
den bekannten Rechenregeln einführen. Die rationalen und die reellen Zahlen
bilden zusammen mit diesen Verknüpfungen jeweils einen Körper, wie wir später
in dieser Vorlesung sehen werden.
1
GRUNDLAGEN
1.3
6
Funktionen
Definition 5 (Funktion, Abbildung) Eine Funktion (oder Abbildung) ordnet
jedem Element x aus einer Menge D genau ein Element y aus einer Menge Z
zu:
f : D → Z, x 7→ y = f (x).
Bemerkungen:
• Wir nennen D die Definitionsmenge und Z die Zielmenge der Funktion f (manchmal schreibt man auch Df und Zf ). Das Element x ∈ D
heisst Argument der Funktion oder unabhängige Variable, das Element
y = f (x) ∈ Z heisst Funktionswert oder abhängige Variable. Wir sagen
auch, x werde durch f auf y abgebildet.
• Die Menge Gf := {(x, f (x)) | x ∈ D} ⊆ D × Z heisst der Graph der Funktion f .
Beispiele:
1. D := {1, 2, 3}, Z := {a, b, c}, f : D → Z definiert durch
f (1) := b,
f (2) := c,
f (3) := b,
ist eine Funktion. Beachten Sie, dass a ∈ Z kein Funktionswert von
f ist und dass b ∈ Z der Funktionswert von mehreren Elementen aus
D ist: f (1) = f (3) = b. Der Graph von f ist gegeben durch Gf =
{(1, b), (2, c), (3, b)}.
2. D := {1, 2, 3}, Z := {a, b, c}, f : D → Z definiert durch
f (1) := b,
f (1) := c,
f (2) := a
ist keine Funktion, weil dem Element 3 ∈ D kein Element in Z zugewiesen
wird, und weil das Element 1 ∈ D mehreren Elementen in Z zugewiesen
wird.
3. Durch die Abbildungsvorschrift x 7→ y = x2 wird eine Funktion f : R → R
definiert, deren Graph eine Parabel ist. Einige Funktionswerte von f sind
√
4
x
−3 0
2 2 3 π
1
7
f (x)
9
0 16
1
2
4 9 π2
49
(Wertetabelle). f hat bei x = 0 eine sog. Nullstelle: f (0) = 0.
4. D := {a, b} × {1, 2, 3} = {(a, 1), (a, 2), (a, 3), (b, 1), (b, 2), (b, 3)}, Z :=
{x, y, z}, g : D → Z definiert durch
g(a, 1) := x,
g(a, 2) := x,
g(b, 1) := y,
g(b, 2) := z,
g(a, 3) := z,
g(b, 3) := x
ist eine Funktion, deren Argumente geordnete Paare sind. Es ist üblich zu
sagen, g sei eine Funktion von zwei Argumenten.
1
GRUNDLAGEN
7
Für eine Menge M nennen wir jede Abbildung f : M × M → M eine innere
zweistellige Verknüpfung. Beispiele für solche Verknüpfungen sind die Addition
und die Multiplikation von Zahlen:
5. (Addition von rationalen Zahlen) + : Q × Q → Q definiert durch
(r, s) 7→ r + s
ist eine innere zweistellige Verknüpfung.
Mini-Aufgabe: Diskutieren Sie, ob für zwei beliebige rationale Zahlen r, s ∈
Q tatsächlich r + s ∈ Q gilt.
6. (Multiplikation von reellen Zahlen) · : R × R → R definiert durch
(x, y) 7→ x · y
ist eine innere zweistellige Verknüpfung.
Bemerkung: Bei der “Multiplikation mit Buchstaben” wird der Punkt oft
weggelassen, d. h. wir schreiben z. B. xy anstatt x · y.
Bemerkung: Beachten Sie, dass bei Anwendung einer inneren zweistelligen Verknüpfung die Menge M nicht verlassen wird. So ist z. B. das Ergebnis der
Addition von zwei natürlichen Zahlen (Elemente von N) wieder eine natürliche
Zahl.
1.4
Der Körper (R, +, · )
Wir betrachten die Menge R der reellen Zahlen (die Menge aller Punkte auf der
Zahlengeraden) zusammen mit den bekannten Grundrechenarten Addition und
Multiplikation.
• Die Addition ist eine innere zweistellige Verknüpfung + : R × R → R,
(x, y) 7→ x + y. Sie hat die folgenden Eigenschaften:
(A1) Assoziativität: (x + y) + z = x + (y + z), ∀ x, y, z ∈ R,
(A2) Existenz des neutralen Elements der Addition (Nullelement), 0 ∈ R:
x + 0 = 0 + x = x, ∀ x ∈ R,
(A3) Für jedes Element x ∈ R existiert das inverse Element der Addition
(Gegenzahl), −x ∈ R, mit x + (−x) = (−x) + x = 0,
(A4) Kommutativität: x + y = y + x, ∀ x, y ∈ R.
• Die Multiplikation ist eine innere zweistellige Verknüpfung · : R × R → R,
(x, y) 7→ x · y. Sie hat die folgenden Eigenschaften:
(M1) Assoziativität: (x · y) · z = x · (y · z), ∀ x, y, z ∈ R,
(M2) Existenz des neutralen Elements der Multiplikation (Einselement),
1 ∈ R: x · 1 = 1 · x = x, ∀ x ∈ R,
1
GRUNDLAGEN
8
(M3) Für jedes Element x ∈ R \ {0} existiert das inverse Element der
Multiplikation (Kehrwert), x−1 ∈ R \ {0}, mit x · x−1 = x−1 · x = 1,
(M4) Kommutativität: x · y = y · x, ∀ x, y ∈ R.
• Im Zusammenspiel der Addition mit der Multiplikation gelten die
(D) Distributivgesetze:
x · (y + z)
= x · y + x · z,
(x + y) · z
= x · z + y · z,
∀ x, y, z ∈ R.
Wenn eine Menge M mit einer Addition + und einer Multiplikation · versehen
wird, und wenn diese Verknüpfungen die Eigenschaften (A1)–(A4), (M1)–(M4),
sowie (D) erfüllen (wobei natürlich überall R durch M ersetzt werden muss),
dann nennen wir das Tripel (M, +, · ) einen Körper. Oft sagen wir auch einfach, M sei ein Körper, und nehmen dabei an, dass es klar ist, mit welchen
Verknüpfungen + und · die Menge M versehen ist.
Richard Dedekind schreibt über den Namen “Körper” (1893):
Dieser Name soll, ähnlich wie in den Naturwissenschaften, in der
Geometrie und in der menschlichen Gesellschaft, auch hier ein System bezeichnen, das eine gewisse Vollständigkeit, Vollkommenheit,
Abgeschlossenheit besitzt, wodurch es als ein organisches Ganzes,
als eine natürliche Einheit erscheint.
Bemerkungen:
• Die neutralen Elemente aus (A2) und (M2) (Nullelement, Einselement)
sind eindeutig bestimmt, d. h. es gibt keine weitere reelle Zahl mit diesen
Eigenschaften. Wir zeigen dies hier für das Nullelement 0 ∈ R: Sei 00 ∈ R
ein weiteres Nullelement; es gelten also (A2)
x = x + 0,
0
0 + x = x,
(4)
∀ x ∈ R,
(4)
∀ x ∈ R.
(5)
(5)
Dann gilt 00 = 00 + 0 = 0.
• Für jedes x ∈ R gelten
(A2)
(D)
(A2)
(D)
x · 0 = x · (0 + 0) = x · 0 + x · 0,
0 · x = (0 + 0) · x = 0 · x + 0 · x.
Wegen der Eindeutigkeit des Nullelements gilt also
x · 0 = 0 · x = 0,
∀ x ∈ R.
(6)
1
GRUNDLAGEN
9
• Die neutralen Elemente 0, 1 ∈ R erfüllen 1 6= 0. Wir führen einen Widerspruchsbeweis und nehmen an, diese Aussage sei falsch, d. h. es gelte
tatsächlich 1 = 0. Dann gilt für jedes x ∈ R:
(M2)
x = x·1
Annahme
=
(6)
x · 0 = 0.
Wir können aber ein x ∈ R mit x 6= 0 wählen, also ist dies ein Widerspruch!
Die Aussage 1 6= 0 muss also wahr sein.
• Die inversen Elemente aus (A3) und (M3) (Gegenzahl, Kehrwert) sind
eindeutig bestimmt, d. h. es gibt keine weitere reelle Zahl mit diesen Eigenschaften.
• Mit Hilfe des (eindeutigen) inversen Elements der Addition (Gegenzahl)
(A4)
definieren wir die Subtraktion x − y := x + (−y) = (−y) + x, x, y ∈ R.
• Mit Hilfe des (eindeutigen) inversen Elements der Multiplikation (Kehrwert) definieren wir die Division
x
y
(M4)
:= x · y −1 = y −1 · x, x, y ∈ R, y 6= 0.
• Im Fall x = 1 erhalten wir
1 Def. Division
(M2)
=
1 · y −1 = y −1 ,
y
d. h.
1
y
(7)
ist der Kehrwert von y ∈ R \ {0}.
• Mit der Gegenzahl −1 ∈ R des Einselements 1 ∈ R erhalten wir
(M2)
(D)
(A3)
(6)
x + (−1) · x = 1 · x + (−1) · x = (1 + (−1)) · x = 0 · x = 0,
für alle x ∈ R. Wegen der Eindeutigkeit der Gegenzahl gilt daher
−x = (−1) · x,
∀ x ∈ R,
(8)
d. h. (−1) · x ist die Gegenzahl von x ∈ R.
In der folgenden Tabelle geben wir für verschiedene Zahlenmengen (Kap. 1.2.1),
versehen mit der üblichen Addition und Multiplikation, an, welche Körpereigenschaften erfüllt sind und welche nicht.
M
N
N0
Z
Q
R
C
(A1)
X
X
X
X
X
X
(A2)
(A3)
X
X
X
X
X
X
X
X
X
(A4)
X
X
X
X
X
X
(M1)
X
X
X
X
X
X
(M2)
X
X
X
X
X
X
(M3)
X
X
X
(M4)
X
X
X
X
X
X
(D)
X
X
X
X
X
X
Gemäss dieser Tabelle sind die Tripel (Q, +, · ), (R, +, · ) und (C, +, · ) Körper,
die Tripel (N, +, · ), (N0 , +, · ) und (Z, +, · ) hingegen nicht.
Bemerkung: Die Addition und Multiplikation von komplexen Zahlen (Elemente
von C) führen wir in MLAE2 ein.
1
GRUNDLAGEN
1.4.1
10
Auflösen von linearen Gleichungen
Mit Hilfe der Körpereigenschaften (A1)–(A4), (M1)–(M4) und (D) können wir
lineare Gleichungen lösen. In Ihrer Schulzeit haben Sie schon oft Gleichungen
gelöst, aber vielleicht ohne genauer über die dabei verwendeten Rechenregeln
nachzudenken. Dies wollen wir hier nachholen.
Seien z. B. drei reelle Zahlen a, b, c ∈ R gegeben, dann können wir die lineare
Gleichung
(a · x) + b = c
(9)
betrachten. Wir nennen a, b, c die Koeffizienten der Gleichung und wollen diese
nach der Unbekannten x ∈ R auflösen. Wir betrachten zunächst die linke Seite
der Gleichung (9): gemäss der Klammersetzung werden zuerst die reellen Zahlen
a und x miteinander multipliziert – dies ergibt die (unbekannte) reelle Zahl
a · x. Zu dieser reellen Zahl wird die reelle Zahl b addiert, und das (unbekannte)
Ergebnis (a · x) + b ist wieder eine reelle Zahl. Gesucht sind jetzt Werte von x, so
dass diese reelle Zahl gleich c ist. Jede derartige Zahl x ∈ R ist eine Lösung der
Gleichung (9). Die Lösungsmenge der Gleichung (9) enthält sämtliche Lösungen:
L = {x ∈ R | x ist Lösung von (9)} = {x ∈ R | (a · x) + b = c} ⊆ R.
Mit der üblichen Konvention “Punkt vor Strich” können wir die Klammer auf
der linken Seite auch weglassen: a · x + b bedeutet (a · x) + b und nicht etwa
a · (x + b)!
Durch Anwenden der Subtraktion (Addition der Gegenzahl) formen wir die
Gleichung (9) um zu
a·x
(A2)
=
(9)
=
(A3)
(A1)
a · x + 0 = a · x + (b + (−b)) = (a · x + b) + (−b)
c + (−b)
Def. Subtraktion
=
c − b.
Weil c − b für reelle Zahlen b, c wieder eine reelle Zahl ist, genügt es, wenn wir
die lineare Gleichung
a·x=b
(10)
für gegebene reelle Zahlen a, b ∈ R nach x auflösen können (wobei i. A. die
Werte von b in (9) und (10) verschieden sind!): in einer Lösung von (10) muss
lediglich b durch c − b ersetzt werden, um eine Lösung von (9) zu erhalten.
Beispiel: Die Gleichung
3x − 1 = 4
(11)
ist von der Form (9) mit a = 3, b = −1 und c = 4 (wobei wir den Punkt für die
Multiplikation weggelassen haben). Durch Subtraktion von −1 (Addition der
Gegenzahl 1) auf beiden Seiten bringen wir (11) zuerst in die Form (10):
(11)
3x = 3x − 1 + 1 = 4 + 1 = 5.
(12)
Die Gleichung (12) ist von der Form (10) mit a = 3 und b = 5. Sie hat genau
eine Lösung, nämlich x = 35 ∈ Q ⊆ R. Derselbe Wert von x ist natürlich auch
die (einzige) Lösung der Gleichung (11).
1
GRUNDLAGEN
11
Wir betrachten jetzt die allgemeine Lösung der linearen Gleichung (10),
d. h. für beliebig vorgegebene reelle Zahlen a, b ∈ R. Wir unterscheiden dabei
zwei Fälle:
a 6= 0: In diesem Fall hat die Gleichung (10) genau eine Lösung, die wir durch
Division durch a auf beiden Seiten (Multiplikation mit dem Kehrwert von
a) bestimmen:
(M2)
(M3)
(M1)
(10)
x = 1 · x = (a−1 · a) · x = a−1 · (a · x) = a−1 · b
Def. Division
=
b
.
a
(6)
a = 0: In diesem Fall lautet die Gleichung (10): 0 = 0 · x = b. Die Lösungsmenge
der Gleichung hängt jetzt vom Wert des Koeffizienten b ab:
b = 0: In diesem Fall hat die Gleichung (10) unendlich viele Lösungen; die
Gleichung b = 0 ist nämlich erfüllt für jede beliebige reelle Zahl x.
b 6= 0: In diesem Fall hat die Gleichung (10) keine Lösung; es gibt keinen
Wert x ∈ R, für den die Gleichung b = 0 erfüllt ist.
Wir fassen diese Erkenntnisse im folgenden Satz zusammen:
Satz 1 Für gegebene Koeffizienten a, b ∈ R ist die Lösungsmenge der linearen
Gleichung
a·x=b
gegeben durch
 b
(genau eine Lösung)
 a , a 6= 0
L=
R,
a = 0, b = 0 (unendlich viele Lösungen) .

∅,
a = 0, b =
6 0 (keine Lösung)
(13)
Später werden wir sehen, dass die drei Fälle “genau eine Lösung”, “unendliche
viele Lösungen” und “keine Lösung” auch bei linearen Gleichungssystemen wieder auftreten. Dazu müssen wir zuerst Vektorräume und Matrizen definieren.
1.5
Der Vektorraum (Rn , +, · )
Sei (K, +, · ) ein Körper (Kap. 1.4) und n ∈ N eine natürliche Zahl, dann betrachten wir das n-fache Mengenprodukt
K n = K × K × · · · × K = {(v1 , v2 , . . . , vn ) | v1 ∈ K, v2 ∈ K, . . . , vn ∈ K}
|
{z
}
n-mal
der geordneten n-Tupel von Elementen in K. Die Elemente von K n heissen
Vektoren (daher auch der Buchstabe v). Versehen wir K n mit den zweistelligen
Verknüpfungen
• Vektoraddition + und
1
GRUNDLAGEN
12
• Skalarmultiplikation · (nicht zu verwechseln mit dem Skalarprodukt, das
erst später eingeführt wird!)
(die natürlich gewisse Eigenschaften erfüllen müssen), so erhalten wir einen Koordinatenraum der Dimension n. Dieser Koordinatenraum ist ein Spezialfall
eines Vektorraumes, und seine Elemente heissen Koordinatenvektoren. In diesem Kapitel wollen wir uns auf den vermutlich aus der Mittelschule bekannten
Fall K = R (mit der bekannten Addition und Multiplikation) beschränken. Die
Vektoren des R2 (n = 2) lassen sich besonders leicht grafisch darstellen.
Für eine natürliche Zahl n ∈ N betrachten wir also das Mengenprodukt
(Def. 4)
Rn = R × R × · · · × R = {(v1 , v2 , . . . , vn ) | v1 ∈ R, v2 ∈ R, . . . , vn ∈ R}
{z
}
|
n-mal
der geordneten n-Tupel (Vektoren) von reellen Zahlen. In der Regel verwenden
wir Spaltenvektoren, d. h. wir schreiben die Einträge (oder Komponenten) der
Vektoren untereinander:


v1
 v2 


v ∈ Rn ⇒ v =  .  , v1 , v2 , . . . , vn ∈ R
 .. 
vn
(⇒ bezeichnet die Implikation/das Konditional aus der Aussagenlogik (“wenn,
dann”)). Für den i-ten Eintrag des Vektors v schreiben wir manchmal auch (v)i .
Für zwei Vektoren v, w ∈ Rn gilt
v=w
⇔ vi = wi ,
∀ i ∈ {1, 2, . . . , n}
⇔ v1 = w1 ∧ v2 = w2 ∧ · · · ∧ vn = wn .
Beispiel: Im Fall n = 3 gilt
 


10 + 3
13
 7  =  2 + 5 ,
4
−2 + 6
(14)

aber
 

7
13
 4 =
6  7 .
13
4
Auf Rn führen wir jetzt zwei Verknüpfungen ein:
• Die Vektoraddition ist eine innere zweistellige Verknüpfung
+ : Rn × R n → Rn ,


v1 + w1
 v2 + w2 


(v, w) 7→ v+w := 
 , also (v+w)i = vi + wi ,
..


.
vn + wn
(15)
für i = 1, 2, . . . , n. Dabei bezeichnen v1 , v2 , . . . , vn ∈ R die Einträge des
Vektors v ∈ Rn und w1 , w2 , . . . , wn ∈ R die Einträge des Vektors w ∈ Rn .
1
GRUNDLAGEN
13
Beachten Sie, dass wir auf beiden Seiten von (15) dasselbe Symbol +
verwenden; auf der linken Seite haben wir jedoch eine Vektoraddition,
hingegen auf der rechten Seite eine Addition reeller Zahlen (Kap. 1.4).
Zur Unterscheidung verwenden wir in diesem Kapitel (!) unterschiedliche
Farben für die beiden Additionen.
Die Vektoraddition hat die folgenden Eigenschaften:
(V1) Assoziativität: (u+v)+w = u+(v+w), ∀ u, v, w ∈ Rn ,
(V2) Existenz des neutralen Elements der Vektoraddition (Nullvektor),
0 ∈ Rn : v+0 = 0+v = v, ∀ v ∈ Rn ,
(V3) Für jedes Element v ∈ Rn existiert das inverse Element der Vektoraddition, −v ∈ Rn , mit v+(−v) = −v+v = 0,
(V4) Kommutativität: v+w = w+v, ∀ v, w ∈ Rn .
• Die Skalarmultiplikation ist eine äussere zweistellige Verknüpfung (d. h. eines der beiden Argumente kommt “von ausserhalb”, nämlich in diesem Fall
aus R und nicht aus Rn ) · : R × Rn → Rn ,


α · v1
 α · v2 


(α, v) 7→ α·v := 
(16)
 , also (α·v)i = α · vi ,
..


.
α · vn
für i = 1, 2, . . . , n, wobei v1 , v2 , . . . , vn ∈ R die Einträge des Vektors
v ∈ Rn bezeichnen. Wieder verwenden wir auf beiden Seiten von (16)
dasselbe Symbol · ; auf der linken Seite haben wir jedoch eine Skalarmultiplikation, hingegen auf der rechten Seite eine Multiplikation reeller
Zahlen (Kap. 1.4). Zur Unterscheidung verwenden wir in diesem Kapitel
(!) unterschiedliche Farben für die beiden Multiplikationen. Wie bei der
Multiplikation reeller Zahlen wird auch bei der Skalarmultiplikation der
Punkt oft weggelassen, man schreibt also αv anstatt α·v.
Die Skalarmultiplikation hat die folgenden Eigenschaften:
(S1) Kompatibilität der Skalarmultiplikation und der Multiplikation (auch
gemischtes Assoziativgesetz genannt):
α· (β·v) = (α · β) ·v, ∀ α, β ∈ R, ∀ v ∈ Rn ,
(S2) Das neutrale Element der Multiplikation (Einselement) 1 ∈ R ist auch
das neutrale Element der Skalarmultiplikation: 1·v = v, ∀ v ∈ Rn ,
(S3) Distributivität der Skalarmultiplikation bzgl. der Vektoraddition:
α·(v+w) = (α·v)+(α·w), ∀ α ∈ R, ∀ v, w ∈ Rn ,
(S4) Distributivität der Skalarmultiplikation bzgl. der Addition:
(α + β)·v = (α·v)+(β·v), ∀ α, β ∈ R, ∀ v ∈ Rn .
Das Tripel (Rn , +, · ) erfüllt also die Eigenschaften (V1)–(V4) und (S1)–(S4),
und wir nennen es daher einen Vektorraum.
1
GRUNDLAGEN
14
Bemerkungen:
• Im Fall n = 1 sind die Vektoren des R1 reelle Zahlen. In diesem Fall sind
die Vektoraddition + und die Addition reeller Zahlen + identisch. Genauso
sind in diesem Fall die Skalarmultiplikation · und die Multiplikation reeller
Zahlen · identisch. Daher unterscheiden wir in der Regel nicht zwischen
dem Vektorraum (R1 , +, · ) und dem Körper (R, +, · ).
• Im Fall n > 1 sind die folgenden Operationen nicht definiert im Vektorraum (Rn , +, · ):
– Die Addition einer Zahl und eines Vektors sowie
– die Multiplikation von Vektoren.
• Im Fall n = 2 lassen sich die Vektoren des R2 als Ortsvektoren in der euklidischen Ebene darstellen. Beachten Sie, dass die Einträge der Vektoren
von der Wahl des Koordinatensystems abhängen! Auch die Vektoraddition
und die Skalarmultiplikation lassen sich in diesem Fall grafisch in der Ebene darstellen. In der analytischen Geometrie werden wir auf diese Dinge
genauer eingehen. Zuerst machen wir hier aber mit der Algebra weiter.
• Das neutrale Element aus (V2) (Nullvektor) ist eindeutig bestimmt, d. h. es
gibt keinen weiteren Vektor mit dieser Eigenschaft: Sei 00 ∈ R ein weiterer
Nullvektor; es gelten also (V2)
v = v+0,
0
0 +v = v,
(17)
∀ v ∈ Rn ,
(17)
∀ v ∈ Rn .
(18)
(18)
Dann gilt 00 = 00 +0 = 0.
• Mit der Aussage (14) über die Gleichheit von Vektoren gilt




 

v1 + 0 1
v1
01
 v2 + 02  (15)  v2   02 

(V2)




 


 =  ..  +  ..  = v+0 = v = 
..







.
.
.
vn + 0 n
vn
0n
v1
v2
..
.





vn
genau dann, wenn vi + 0i = vi , ∀ i ∈ {1, 2, . . . , n}. Daraus folgt wegen der
Eindeutigkeit des Nullelements 0 ∈ R: 0i = 0, i = 1, 2, . . . , n. Die Einträge
des Nullvektors 0 ∈ Rn sind also die Nullelemente 0 ∈ R:
 
0
 0 
 
0 =  . .
(19)
 .. 
0
1
GRUNDLAGEN
15
• Auf die gleiche Weise berechnen wir die Einträge von −v ∈ Rn für einen
gegebenen Vektor v ∈ Rn : Es gilt
 


 


0
(−v)1
v1
v1 + (−v)1


 v2 + (−v)2  (15)  v2   (−v)2 
(V3)
(19)  0 


 


 = v+(−v) = 0 =  .. 

 =  ..  + 
..
..
 . 

 .  


.
.
0
(−v)n
vn
vn + (−v)n
genau dann, wenn vi + (−v)i = 0, ∀ i ∈ {1, 2, . . . , n}. Daraus folgt wegen
der Eindeutigkeit der Gegenzahl: (−v)i = −vi , i = 1, 2, . . . , n. Die Einträge von −v ∈ Rn sind also die Gegenzahlen der Einträge von v ∈ Rn :




−v1
(−1) · v1
 −v2  (8)  (−1) · v2  (16)




−v =  .  = 
(20)
 = (−1)·v.
..
 .. 


.
−vn
(−1) · vn
• Wir definieren die Subtraktion von Vektoren mit Hilfe der Vektoraddition
und des inversen Elements der Vektoraddition als
(V4)
v−w := v+(−w) = (−w)+v, v, w ∈ Rn .
• Wir definieren die Division eines Vektors durch eine reelle Zahl mit Hilfe
der Skalarmultiplikation und des Kehrwerts als
v
−1
·v, α ∈ R \ {0}, v ∈ Rn .
α := α
√
Beispiel: (n = 3) Es seien α = 2, β = − 3 und

0
u =  π ,

7
3


1
,
v =  −5
√
2
2

e

w=
13
4

∈
R3 .
4
3
Gesucht seien die Einträge des Vektors x := α· (u+β·v) − w
α ∈ R . Zur Berechnung gehen wir schrittweise vor (wenn Sie die einzelnen Schritte in einer
solchen Berechnung verstanden haben, dann müssen Sie natürlich nicht mehr
jeden einzelnen Schritt aufschreiben):
1.
√


  √ 
−
1
3·1
−√ 3
√
 (16)
 − 3 · (−5)  =  5 3  ,
β · v = − 3 ·  −5
=
√
√
√ √
2
− 3 · 22
− 26
2
√

2.
√

 
√
  √ 

0 + (−√ 3)
−√ 3
− √
3
0
(15) 

u+β·v =  π  +  5 √3  =  π + 5 √3  =  π + 5√ 3  ,
7
6
7
6
7
− 26
3
3 + − 2
3 − 2

1
GRUNDLAGEN
16
3.
√
 

√
√


2 · (− √
3)
− √
3
−2 3√
(16) 

,
α· (u+β·v) = 2·  π + 5√ 3  =  2 · (π
+ 5√ 3)
 =  2π + 10
√ 3
6
7
14
6
7
2· 3 − 2
6
3 −
3 − 2

4.





e
e
w
1
 (7)
 (16)
= ·  13
= 
= α−1 ·w = 2−1 ·  13
4
4
α
2
4
4
5.


=
e
2
13
8

,
2

− 2e
w
 (20)
,
=  − 13
− = −
8
α
2
−2

e
2
13
8
1
2 ·e
1 13
2 · 4
1
2 ·4


6.
α· (u+β·v) −
w
α
=
(15)
=
√

 

−2 3√
− 2e
w

α· (u+β·v) + −
=  2π + 10
3  +  − 13
8
√
α
14
−2
6
3 −
√
√
 


e
3 + −2 −2 √
3 − 2e
−2 √
 2π + 10 3 + − 13  =  2π + 10 3 − 13  .
8
8
√
√
8
14
6 + (−2)
6
3 −
3 −
Alternativ können wir auch alle Rechnungen für den i-ten Eintrag machen und
am Schluss einsetzen:
w (15)
w
w
= α· (u+β·v) + −
= (α· (u+β·v))i + −
xi
=
α· (u+β·v) −
α i
α i
α i
1
(16), (20)
(15), (7)
=
α · (u+β·v)i − α−1 ·w i = α · (ui + (β·v)i ) −
·w
α
i
1
1
(16)
(D)
=
α · (ui + β · vi ) − · wi = α · ui + α · β · vi − · wi , i = 1, 2, 3.
α
α
Erst jetzt setzen wir Zahlen ein:
i=1:
i=2:
i=3:
√
√
w1
1
e
= 2 · 0 + 2 · (− 3) · 1 − · e = −2 3 − ,
α
2
2
√
w2
1 13
x2 = αu2 + αβv2 −
= 2 · π + 2 · (− 3) · (−5) − ·
α
2 4
√
13
= 2π + 10 3 − ,
8
√
√
w3
7
2 1
8 √
x3 = αu3 + αβv3 −
= 2 · + 2 · (− 3) ·
− · 4 = − 6.
α
3
2
2
3
x1 = αu1 + αβv1 −
Wie erwartet erhalten wir also dieselben Einträge wie oben.
1
GRUNDLAGEN
1.6
17
Matrizen
Definition 6 (Matrix) Sei (K, +, · ) ein Körper, und seien m, n ∈ N natürliche
Zahlen. Eine (m × n)-Matrix über K ist eine rechteckige Anordnung (Schema,
Tabelle) von Elementen aus K mit m Zeilen und n Spalten. Die Menge aller
(m × n)-Matrizen über K bezeichnen wir mit K m×n .
Bemerkungen:
• Es gilt

A ∈ K m×n
⇒
a11
a21
..
.
a12
a22
..
.
···
···
..
.
a1n
a2n
..
.
am1
am2
···
amn


A=




,

mit mn Einträgen a11 , a12 , . . . , a1n , . . . , am1 , am2 , . . . , amn ∈ K. Für den
ij-ten Eintrag der Matrix A schreiben wir aij oder (A)ij . Wir werden vor
allem den Fall K = R (reelle (m × n)-Matrizen) betrachten.
• Im Fall n = 1 erhalten wir (m × 1)-Matrizen. Für m = 1 sind dies reelle
Zahlen, für m > 1 Spaltenvektoren der Länge m. Zum Beispiel ist
 √ 
2
 −3 
2
3
eine reelle (3 × 1)-Matrix oder ein Spaltenvektor der Länge 3 (Kap. 1.5).
• Zwei Matrizen A, B ∈ K m×n sind gleich, wenn alle ihre Einträge gleich
sind:
A=B
⇔
aij = bij , ∀ i ∈ {1, 2, . . . , m}, ∀ j ∈ {1, 2, . . . , n}
⇔
a11 = b11 ∧ a12 = b12 ∧ · · · ∧ a1n = b1n ∧ · · · ∧ amn = bmn .
(21)
wobei aij die Einträge der Matrix A bezeichnen und bij die Einträge der
Matrix B, i = 1, 2, . . . , m, j = 1, 2, . . . , n. Zwei Matrizen mit unterschiedlicher Zeilen- oder Spaltenzahl können niemals gleich sein.
Beispiel: Es gelten
1.2
7
3
und
1.2
7
3
√
− 3
5
√
− 3
5
2
−2
2
−2
6=
5
7
3
−2
1.2

1.2
√
6  − 3
=
2
Auf K m×n führen wir jetzt zwei Verknüpfungen ein:
2
√
− 3
7
3

5 .
−2
1
GRUNDLAGEN
18
• Die Matrizenaddition ist eine innere zweistellige Verknüpfung
+ : K m×n × K m×n → K m×n ,

a11 + b11
a12 + b12 · · · a1n + b1n
 a21 + b21
a22 + b22 · · · a2n + b2n

(A, B) 7→ A+B := 
..
..
..
..

.
.
.
.
am1 + bm1 am2 + bm2 · · · amn + bmn



,

(22)
also (A+B)ij := aij + bij , für i = 1, 2, . . . , m, j = 1, 2, . . . , n. Dabei
bezeichnen die Elemente aij ∈ K die Einträge der Matrix A und die
Elemente bij ∈ K die Einträge der Matrix B. Auf der rechten Seite wird
die Addition + aus dem Körper (K, +, · ) verwendet.
Die Matrizenaddition hat die folgenden Eigenschaften:
– Assoziativität: (A+B) +C = A+ (B+C), ∀ A, B, C ∈ K m×n ,
– Existenz des neutralen Elements der Matrizenaddition (Nullmatrix),
0 ∈ K m×n : A+0 = 0+A = A, ∀ A ∈ K m×n ,
– Für jedes Element A ∈ K m×n existiert das inverse Element der
Matrizenaddition, −A ∈ K m×n , mit A+ (−A) = (−A) +A = 0,
– Kommutativität: A+B = B+A, ∀ A, B ∈ K m×n .
• Die Skalarmultiplikation (für Matrizen) ist eine äussere zweistellige Verknüpfung · : K × K m×n → K m×n ,


α · a11 α · a12 · · · α · a1n
 α · a21 α · a22 · · · α · a2n 


(α, A) 7→ α·A := 
(23)
,
..
..
..
..


.
.
.
.
α · am1
α · am2
···
α · amn
also (α·A)ij = α · aij , für i = 1, 2, . . . , m, j = 1, 2, . . . , n. Dabei bezeichnen
die Elemente aij ∈ K die Einträge der Matrix A. Auf der rechten Seite
wird die Multiplikation · aus dem Körper (K, +, · ) verwendet.
Die Skalarmultiplikation hat die folgenden Eigenschaften:
– Kompatibilität der Skalarmultiplikation und der Multiplikation (gemischtes Assoziativgesetz ):
α· (β·A) = (α · β) ·A, ∀ α, β ∈ K, ∀ A ∈ K m×n ,
– Das neutrale Element der Multiplikation (Einselement) 1 ∈ K ist
auch das neutrale Element der Skalarmultiplikation: 1·A = A, ∀ A ∈
K m×n ,
– Distributivität der Skalarmultiplikation bzgl. der Matrizenaddition:
α· (A+B) = (α·A) + (α·B), ∀ α ∈ K, ∀ A, B ∈ K m×n ,
– Distributivität der Skalarmultiplikation bzgl. der Addition:
(α + β) ·A = (α·A) + (β·A), ∀ α, β ∈ K, ∀ A ∈ K m×n .
1
GRUNDLAGEN
19
Bemerkungen:
• Durch einen Vergleich mit Kap. 1.5 stellen wir fest, dass die oben erwähnten Eigenschaften der Matrizenaddition + ähnlich sind wie jene der Vektoraddition, (V1)–(V4). Genauso sind die oben erwähnten Eigenschaften
der Skalarmultiplikation (für Matrizen) · ähnlich wie jene der Skalarmultiplikation (für Vektoren), (S1)–(S4). Daher haben wir hier auch dieselben
Symbole verwendet. Ausserdem nennen wir daher das Tripel (K m×n , +, · )
ebenfalls einen Vektorraum. Um Verwirrung zu vermeiden, nennen wir seine Elemente aber nicht Vektoren, sondern eben Matrizen.
• Im Fall n = 1 sind die (m × 1)-Matrizen in K m×1 Spaltenvektoren der
Länge m. In diesem Fall ist die Matrizenaddition (22) identisch mit der
Vektoraddition (15), und die Skalarmultiplikation (für Matrizen) (23) ist
identisch mit der Skalarmultiplikation (für Vektoren) (16). Wir unterscheiden daher in der Regel nicht zwischen dem Vektorraum (K m×1 , +, · ) der
(m × 1)-Matrizen und dem Vektorraum (K m , +, · ) der Spaltenvektoren
der Länge m (Kap. 1.5).
Gilt ausserdem m = 1, so unterscheiden wir nicht zwischen den Vektorräumen (K 1×1 , +, · ), (K 1 , +, · ) und dem Körper (K, +, · ).
• Im Fall n > 1 lassen sich (m × n)-Matrizen nicht wie Vektoren als Pfeile
im Raum darstellen. Wir verwenden Matrizen jedoch zur Darstellung von
sog. linearen Abbildungen zwischen Vektorräumen. Solche Abbildungen,
z. B. Spiegelungen, Drehungen und Streckungen, lassen sich geometrisch
darstellen.
• Wir berechnen die Einträge der Nullmatrix (neutrales Element der Matrizenaddition) mit Hilfe der Gleichung


a11 + 011
a12 + 012 · · · a1n + 01n
 a21 + 021
a22 + 022 · · · a2n + 02n 




..
..
..
..


.
.
.
.
am1 + 0m1 am2 + 0m2 · · · amn + 0mn

 

a11 a12 · · · a1n
011 012 · · · 01n



a22 · · · a2n 
(22)  a21
  021 022 · · · 02n 
=  .
+


..
..
.
..
.. 
..
..
 ..
.
.
.
.   ..
.
. 
am1
···
am2

=
a11
 a21

A+0 = A =  .
 ..
am1
amn
0m1
a12
a22
..
.
···
···
..
.
a1n
a2n
..
.
am2
···
amn
0m2

···
0mn


.

Sie gilt gemäss (21) genau dann, wenn aij + 0ij = aij , ∀ i = 1, 2, . . . , m,
∀ i = 1, 2, . . . , n. Daraus folgt wegen der Eindeutigkeit des Nullelements
1
GRUNDLAGEN
20
0 ∈ K: 0ij = 0, i = 1, 2, . . . , m, j = 1, 2, . . . , n. Die Einträge der Nullmatrix 0 ∈ K m×n sind also die Nullelemente 0 ∈ K:


0 0 ··· 0
 0 0 ··· 0 


.
(24)
0= . . .
. . ... 
 .. ..

0 0 ··· 0
• Auf die gleiche Weise berechnen wir die Einträge von −A ∈ K m×n für
eine gegebene Matrix A ∈ K m×n : Es gilt


a11 + (−A)11
a12 + (−A)12 · · · a1n + (−A)1n
 a21 + (−A)21
a22 + (−A)22 · · · a2n + (−A)2n 




..
..
..
..


.
.
.
.
am1 + (−A)m1 am2 + (−A)m2 · · · amn + (−A)mn

 
a11 a12 · · · a1n
(−A)11 (−A)12 · · · (−A)1n

 (−A)21 (−A)22 · · · (−A)2n
a22 · · · a2n 
(22)  a21
 
=  .
..
..  + 
..
..
..
..
..
 ..
.
.
.
.  
.
.
.
· · · amn

0 0
 0 0

A+ (−A) = 0 =  . .
 .. ..
am1
=
am2
0
0
···
···
..
.
···
0
0
..
.
(−A)m1

(−A)m2
···
(−A)mn




0
genau dann, wenn aij +(−A)ij = 0, ∀ i ∈ {1, 2, . . . , m}, ∀ j ∈ {1, 2, . . . , n}.
Daraus folgt wegen der Eindeutigkeit der Gegenzahl: (−A)ij = −aij , i =
1, 2, . . . , m, j = 1, 2, . . . , n. Die Einträge von −A ∈ K m×n sind also die
Gegenzahlen der Einträge von A ∈ K m×n :


−a11 −a12 · · · −a1n
 −a21 −a22 · · · −a2n 


−A = 
(25)

..
..
..
..


.
.
.
.
−am1 −am2 · · · −amn


(−1) · a11 (−1) · a12 · · · (−1) · a1n
 (−1) · a21 (−1) · a22 · · · (−1) · a2n 
(8)


= 

..
..
..
..


.
.
.
.
(−1) · am1
(23)
=
(−1) · am2
···
(−1) · amn
(−1)·A.
• Wir definieren die Subtraktion von Matrizen mit Hilfe der Matrizenaddition und des inversen Elements der Matrizenaddition als
A−B := A+ (−B) = (−B) +A, A, B ∈ K m×n .





1
GRUNDLAGEN
21
• Wir definieren die Division einer Matrix durch ein Körperelement mit
Hilfe der Skalarmultiplikation (für Matrizen) und des Kehrwerts als A
α :=
α−1 ·A, α ∈ K \ {0}, A ∈ K m×n .
√
Beispiel: (K = R) Seien α = 2, β = 43 und
5 √
0 e2 −1
3 0
√
7
A=
, B=
∈ R2×3 .
2
7
0 −π 4
− 23
3
2
2×3
Wir wollen die Matrix (α·A) + B
berechnen.
β ∈R
1. Wir berechnen die Matrix
√
√
0 e2 −1
2·0
(23)
√
√
α·A =
2·
=
2
2
7
−
2
· 73
3
3
2
√ !
√ 2
2e
− 2
0
√
√
∈ R2×3 .
=
7 2
−232
1
3
√
2 · e2
√
2 · − 23
!
√
2 · (−1)
√ √2
2· 2
2. Wir berechnen die Matrix
B
β
=
(16)
=
5 √
1
4
3 0
7
β ·B = ·B = ·
0 −π 4
β
3
√
4 5
√
4
4
4 3
20
3
3 · 7
3 ·
3 ·0
21
3
=
4
4
4
0 − 4π
3 ·0
3 · (−π)
3 ·4
3
(7)
−1
0
16
3
∈ R2×3 .
3. Wir berechnen die Summe
B
(α·A) +
β
=
(22)
=
=
√
√ ! √
4 3
20
− 2
0
21
3
+
16
7 2
0 − 4π
−232
1
3
3
3
!
√ 2 4√3
√
20
0√+ 21
2e + 3
− 2+0
√
7 2
2 2
4π
1 + 16
3 +0 − 3 + − 3
3
!
√
√
√
20
2e2√+ 4 3 3 − 2
21
√
∈ R2×3 .
7 2
2 2+4π
19
−
3
3
3
0
√
2
2e
√
Im Kap. 1.5 hatten wir bereits bemerkt, dass wir zwei Vektoren nicht miteinander multiplizieren können. Genauso können wir bisher auch zwei Matrizen nicht
miteinander multiplizieren. Wir führen jetzt eine neue Operation ein, um dies
zu ermöglichen.
Definition 7 (Matrizenmultiplikation) Für `, m, n ∈ N ist die Matrizenmultiplikation eine zweistellige Verknüpfung · : K `×m × K m×n → K `×n , (A, B) 7→
A·B. Die Einträge des Matrizenprodukts A·B ∈ K `×n sind dabei definiert als
(A·B)ik :=
m
X
j=1
aij · bjk ,
i = 1, 2, . . . , `, k = 1, 2, . . . , n,
(26)
1
GRUNDLAGEN
22
wobei aij ∈ K, i = 1, 2, . . . , `, j = 1, 2, . . . , m, die Einträge der Matrix A ∈
K `×m bezeichnen und bjk ∈ K, j = 1, 2, . . . , m, k = 1, 2, . . . , n, die Einträge
der Matrix B ∈ K m×n .
Bemerkungen:
• Wir verwenden in diesem Kapitel (!) drei verschiedene Farben für die Matrizenmultiplikation · , die Skalarmultiplikation (für Matrizen) · und für
die Multiplikation · im Körper K. Auch der Punkt für die Matrizenmultiplikation wird oft weggelassen, man schreibt also AB anstatt A·B.
• Das Matrizenprodukt A·B ist genau dann definiert, wenn die Anzahl der
Spalten von A gleich der Anzahl der Zeilen von B ist. Die Anzahl der
Zeilen von A·B ist dann gleich der Anzahl der Zeilen von A, und die
Anzahl der Spalten von A·B ist gleich der Anzahl der Spalten von B.
• Das Symbol
m
X
bezeichnet eine Summe der nachfolgenden Grössen mit
j=1
einem Summationsindex j, dessen Wert alle natürlichen Zahlen von 1 bis
m annimmt. Der Ausdruck in (26) ist daher eine Abkürzung:
m
X
aij · bjk = (ai1 · b1k ) + (ai2 · b2k ) + (ai3 · b3k ) + · · · + (bim · bmk ),
j=1
für i = 1, 2, . . . , `, k = 1, 2, . . . , n.
Beispiele: (K = R)
1. (` = 2, m = n = 3) Wir betrachten die reellen Matrizen


1
0 3.5
√
π −1 √0
A=
∈ R2×3 , B =  2 −3 34  ∈ R3×3 .
2 34
3
0
2
0
Das Matrizenprodukt A·B ∈ R2×3 ist eine reelle (2 × 3)-Matrix. Das Produkt B·A hingegen ist nicht definiert, denn die Anzahl der Spalten von B
ist nicht gleich der Anzahl der Zeilen von A! Wir berechnen exemplarisch
zwei Einträge des Matrizenprodukts A·B ∈ R2×3 gemäss Def. 7 (26):
√
√
(A·B)11 = (π · 1) + ((−1) · 2) + (0 · 0) = π − 2,
√
4 3
(A·B)23 = (2 · 3.5) +
·
+ ( 3 · 0) = 7 + 1 = 8.
3 4
Nachdem wir alle sechs Einträge des Matrizenprodukts A·B berechnet
haben, erhalten wir
√
π − √2
3
3.5π − 34
√
A·B =
∈ R2×3 .
2 + 34 2 2 3 − 4
8
1
GRUNDLAGEN
23
2. (` = 1, m = n = 2) Wir betrachten die reellen Matrizen
0 √43
A = 1 3 ∈ R1×2 , B =
∈ R2×2 .
−2
2
Das Matrizenprodukt A·B ∈ R1×2 ist eine reelle (1 × 2)-Matrix:
0 √34
1 3 ·
A·B =
−2
2
√ =
1 · 0 + 3 · (−2) 1 · 43 + 3 · 2
√ =
−6 34 + 3 2 ∈ R1×2 .
Das Matrizenprodukt B·A ist nicht definiert, denn die Anzahl der Spalten
von B ist nicht gleich der Anzahl der Zeilen von A.
Die Matrizenmultiplikation hat die folgenden Eigenschaften:
• Assoziativität:
(A·B) ·C = A· (B·C), ∀ A ∈ K `×m , ∀ B ∈ K m×n , ∀ C ∈ K n×p .
• Kompatibilität der Matrizenmultiplikation und der Skalarmultiplikation
für Matrizen (gemischtes Assoziativgesetz):
α· (A·B) = (α·A) ·B, ∀ α ∈ K, ∀ A ∈ K `×m , ∀ B ∈ K m×n ,
• Distributivität der Matrizenmultiplikation bzgl. der Matrizenaddition:
A· (B+C)
=
(A·B) + (A·C) ,
∀ A ∈ K `×m , ∀ B, C ∈ K m×n ,
(A+B) ·C
=
(A·C) + (B·C) ,
∀ A, B ∈ K `×m , ∀ C ∈ K m×n .
Im Fall ` = m = n ist das Matrizenprodukt · : K n×n × K n×n → K n×n eine
innere zweistellige Verknüpfung, d. h. das Matrizenprodukt von zwei (sog. quadratischen) (n × n)-Matrizen ist wieder eine (n × n)-Matrix. In diesem Fall gilt
zusätzlich die
– Existenz des neutralen Elements der Matrizenmultiplikation (Einheitsmatrix), I ∈ K n×n : I·A = A·I = A, ∀ A ∈ K n×n .
Wir berechnen die Einträge der Einheitsmatrix aus den Gleichungen
((I)i1 · a1k ) + ((I)i2 · a2k ) + · · · + ((I)ii · aik ) + · · · + ((I)in · ank )
n
X
=
(I)ij · ajk = (I·A)ik = (A)ik = aik , ∀ i, k ∈ {1, 2, . . . , n}.
j=1
Daher muss gelten: (I)ii = 1 und (I)ij = 0, falls j 6= i. Dies schreiben wir mit
dem Kronecker-Delta δij (nach L. Kronecker, 1823–1891) als
1, i = j
(I)ij = δij :=
, i, j = 1, 2, . . . , n.
0, i 6= j
1
GRUNDLAGEN
24
Die Einheitsmatrix ist also eine sog. Diagonalmatrix, die auf der Hauptdiagonalen das Einselement und sonst überall das Nullelement des Körpers (K, +, · )
enthält:


1 0 ··· 0
 0 1 ··· 0 


n×n
I= . . .
.
(27)
..  ∈ K
.
.
.
 . .
. . 
0 0 ··· 1
Bemerkung: Für quadratische Matrizen A, B ∈ K n×n sind immer beide Matrizenprodukte A·B ∈ K n×n und B·A ∈ K n×n definiert. Diese sind jedoch im
Allgemeinen nicht gleich, A·B 6= B·A (s. z. B. Serie 3, Aufg. 3c, d), d. h. das
Matrizenprodukt ist nicht kommutativ.
Wir wollen jetzt einige Spezialfälle von Matrizenmultiplikationen betrachten.
Dazu führen wir noch den Begriff der transponierten Matrix ein:
Definition 8 (Transposition) Die Transposition ist eine Funktion
>
: K m×n → K n×m ,
A 7→ A> .
(28)
Die Einträge der transponierten Matrix A> ∈ K n×m sind gegeben durch
A>
:= (A)ji , i = 1, 2, . . . , n, j = 1, 2, . . . , m.
(29)
ij
Bemerkungen:
• Die i-te Zeile von A> ist die i-te Spalte von A,
A> ist die j-te Zeile von A, d. h.

a11 a12 · · · a1n
 a21 a22 · · · a2n

A= .
..
..
..
 ..
.
.
.
⇒
am1 am2 · · · amn

a11 a21 · · · am1
 a12 a22 · · · am2

A> =  .
..
..
..
 ..
.
.
.
a1n a2n · · · amn
und die j-te Spalte von



 ∈ K m×n




 ∈ K n×m .

• Im Fall n = 1 wird aus dem Spaltenvektor der Länge m, v ∈ K m×1 , durch
Transposition der Zeilenvektor der Länge m, v > ∈ K 1×m :


v1
 v2 


v =  .  ∈ K m×1 ⇒ v > = v1 v2 · · · vm ∈ K 1×m .
 .. 
vm
1
GRUNDLAGEN
25
Beispiel: Aus der reellen (2 × 3)-Matrix
√
1
3
A=
0
− 53
π
0
∈ R2×3
erhalten wir durch Transposition die reelle (3 × 2)-Matrix


1 − 53
√
A> =  3 0  ∈ R3×2 .
π
0
Zeilenvektor mal Spaltenvektor Im Fall ` = n = 1 ist das Matrizenprodukt eines Zeilenvektors der Länge m, v > ∈ K 1×m , und eines Spaltenvektors der
Länge m, w ∈ K m×1 , gegeben durch das Körperelement v > ·w ∈ K 1×1 ≡ K,
v > ·w = v > ·w
11
=
m
X
v1j · wj1 = (v1 · w1 ) + (v2 · w2 ) + · · · + (vm · wm ).
j=1
Daher können wir im allgemeinen Fall den Eintrag (A·B)ik auch auffassen als
das Produkt der i-ten Zeile von A (Zeilenvektor der Länge m) und der k-ten
Spalte von B (Spaltenvektor der Länge m).
Spaltenvektor mal Zeilenvektor Im Fall m = 1 ist das Matrizenprodukt
eines Spaltenvektors der Länge `, v ∈ K `×1 , und eines Zeilenvektors der Länge
n, w> ∈ K 1×n , gegeben durch die (` × n)-Matrix v·w> ∈ K `×n ,
v·w>
ik
=
1
X
vij · wjk = vi1 · w1k = vi · wk ,
i = 1, 2, . . . , `, k = 1, 2, . . . , n.
j=1
Der ik-te Eintrag des Matrizenprodukts v·w> ∈ K `×n ist also gegeben durch
das Produkt des i-ten Eintrags des Spaltenvektors v ∈ K `×1 und des k-ten
Eintrags des Zeilenvektors w> ∈ K 1×n .
Matrix mal Spaltenvektor Im Fall `, m > 1, n = 1, ist das Produkt der
(` × m)-Matrix A ∈ K `×m und des Spaltenvektors der Länge m, v ∈ K m×1 ,
gegeben durch den Spaltenvektor der Länge `, A·v ∈ K `×1 . Die Einträge dieses
Vektors sind gegeben durch
(A·v)i = (A·v)i1 =
m
X
aij · vj1 =
j=1
m
X
aij · vj ,
i = 1, 2, . . . , `.
j=1
Wir schreiben manchmal auch

A·v =
m
X
j=1
vj · (A)· j ∈ K `×1 ,
wobei


(A)· j := 

a1j
a2j
..
.
a`j
die j-te Spalte der Matrix A bezeichnet, j = 1, 2, . . . , m.



 ∈ K `×1

2
LINEARE GLEICHUNGSSYSTEME
26
Zeilenvektor mal Matrix Im Fall ` = 1, m, n > 1, ist das Produkt des
Zeilenvektors der Länge m, v > ∈ K 1×m , und der (m × n)-Matrix A ∈ K m×n
gegeben durch den Zeilenvektor der Länge n, v > ·A ∈ K 1×n . Die Einträge dieses
Vektors sind gegeben durch
v > ·A
k
= v > ·A
1k
=
m
X
v1j · ajk =
j=1
Wir schreiben manchmal auch
m
X
v > ·A =
vj · (A)j · , wobei
m
X
vj · ajk ,
k = 1, 2, . . . , n.
j=1
aj1
(A)j · :=
aj2
···
ajn
∈ K 1×n
j=1
die j-te Zeile der Matrix A bezeichnet, j = 1, 2, . . . , m.
2
2.1
Lineare Gleichungssysteme
Einführung
Wir beginnen mit einer typischen Textaufgabe, die auf ein lineares Gleichungssystem führt:
Ein Hotel verfügt über eine Kapazität von 400 Betten in insgesamt
216 Zimmern, darunter Ein- und Zweibettzimmer. Wieviele Zimmer
von jeder Kategorie gibt es in diesem Hotel?
Wir definieren als Unbekannte die Zahlen
x1 : Anzahl der Einbettzimmer,
x2 : Anzahl der Zweibettzimmer.
Jetzt stellen wir aus den Informationen im Text zwei lineare Gleichungen auf:
(I)
(II)
x1 + 2x2
=
400 (Anzahl der Betten),
x1 + x2
=
216 (Anzahl der Zimmer).
Dies ist ein lineares Gleichungssystem mit zwei Gleichungen und zwei Unbekannten. Durch Subtraktion der zweiten Gleichung von der ersten erhalten wir
eine neue zweite Gleichung (symbolisch II ← I − II), in der x1 nicht mehr
vorkommt:
x1 + 2x2
=
400,
x2
=
184.
Damit haben wir das lineare Gleichungssystem auf Zeilenstufenform gebracht.
Dieses können wir durch Rückwärtseinsetzen lösen: wir setzen den Wert x2 =
184 in die erste Gleichung ein und erhalten
x1 + 2 · 184 = x1 + 368 = 400
⇔
x1 = 400 − 368 = 32.
Die Lösung der Textaufgabe von oben lautet also:
In dem Hotel gibt es 32 Einbettzimmer und 184 Zweibettzimmer.
2
LINEARE GLEICHUNGSSYSTEME
2.2
27
Allgemeine Form und Matrixform
Sei (K, +, · ) ein Körper, und seien m, n ∈ N. Jedes lineare Gleichungssystem
mit m Gleichungen und n Unbekannten kann in die allgemeine Form
a11 x1
a21 x1
..
.
+
+
..
.
a12 x2
a22 x2
..
.
am1 x1
+
am2 x2
+ ···
+ ···
.. . .
.
.
+ ···
+
+
..
.
a1n xn
a2n xn
..
.
=
=
..
.
b1 ,
b2 ,
..
.
+
amn xn
= bm ,
(30)
gebracht werden mit aij , bi , xj ∈ K, i = 1, 2, . . . , m, j = 1, 2, . . . , n.
Beispiel: (K = R, m = 2, n = 3) Das lineare Gleichungssystem
3
3(x1 − x2 ) + x3
4
4x1 + x2 − 4
=
x1 + 5,
=
4(x1 − 2) −
√
2x3 ,
ist nicht in der allgemeinen Form (30), kann aber durch elementare Umformungen auf diese gebracht werden: Wir bringen alle Terme, die Unbekannte
enthalten, auf die linke Seite und alle Terme ohne Unbekannte auf die rechte
Seite. Damit erhalten wir das lineare Gleichungssystem in der allgemeinen Form
(30),
3
2x1 − 3x2 + x3
4
√
x2 + 2x3
=
5,
= −4.
Im Folgenden nehmen wir an, dass unser lineares Gleichungssystem bereits in
der allgemeinen Form (30) vorliegt.
Für ein gegebenes lineares Gleichungssystem in allgemeiner Form (30) fassen
wir die Koeffizienten aij ∈ K, i = 1, 2, . . . , m, j = 1, 2, . . . , n, in der Koeffizientenmatrix zusammen:


a11 a12 · · · a1n
 a21 a22 · · · a2n 


m×n
A :=  .
.
..
..  ∈ K
..
 ..
.
.
. 
am1
am2
···
amn
Ausserdem fassen wir die Unbekannten x1 , x2 , . . . , xn sowie die Einträge der
rechten Seite b1 , b2 , . . . , bm in den Vektoren




x1
b1
 x2 
 b2 




x :=  .  ∈ K n , b :=  .  ∈ K m
.
.
 . 
 . 
xn
bm
zusammen. Damit erhalten wir das lineare Gleichungssystem in der Matrixform,
Ax = b.
(31)
2
LINEARE GLEICHUNGSSYSTEME
Auf der linken
vektor) Ax =

a11 a12
 a21 a22

 ..
..
 .
.
am1
|
28
Seite von (31) steht das Matrizenprodukt (Matrix mal Spalten···
···
..
.
a1n
a2n
..
.
am2 · · ·
{z
amn
m×n





}|
x1
x2
..
.




 Def. 7 
 = 


xn
{z }
n×1
|
a11 x1 + a12 x2 + · · · + a1n xn
a21 x1 + a22 x2 + · · · + a2n xn
..
.



,

am1 x1 + am2 x2 + · · · + amn xn
{z
}
m×1
und dies sind genau die Ausdrücke auf der linken Seite des linearen Gleichungssystems in der allgemeinen Form (30). Aus der Definition der Gleichheit von
Vektoren (14) wissen wir, dass
Ax = b
⇔
ai1 x1 + ai2 x2 + · · · ain xn = bi , ∀ i ∈ {1, 2, . . . , m},
und daher sind die allgemeine Form (30) und die Matrixform (31) eines linearen
Gleichungssystems tatsächlich äquivalent.
Später werden wir oft mit der erweiterten Koeffizientenmatrix arbeiten, die
entsteht, indem man zur Koeffizientenmatrix A die rechte Seite b als Spalte
hinzufügt:


a11 a12 · · · a1n b1
 a21 a22 · · · a2n b2 


m×(n+1)
.
(A | b) =  .
..  ∈ K
..
..
..
 ..
.
. 
.
.
am1
2.3
am2
···
amn
bm
Lineare Gleichungssysteme in Zeilenstufenform
In diesem Kapitel sei (K, +, · ) ein Körper, und m, n ∈ N. Die folgenden Definitionen gelten zunächst für beliebige Matrizen A ∈ K m×n . Erst später nehmen
wir an, dass es sich dabei um die Koeffizientenmatrix eines linearen Gleichungssystems mit m Gleichungen und n Unbekannten (Kap. 2.2) handelt.
Definition 9 (Nullzeile, Leitkoeffizient) Seien A ∈ K m×n und i ∈ {1, 2, . . . , m}.
• Die i-te Zeile der Matrix A ist eine Nullzeile, falls aij = 0, ∀ j ∈ {1, 2, . . . , n}.
• Ist die i-te Zeile der Matrix A keine Nullzeile (also eine Nichtnullzeile),
so heisst der Eintrag aiji 6= 0 mit ji := min{j ∈ {1, 2, . . . , n} | aij 6= 0} der
Leitkoeffizient dieser Zeile.
Beispiel: Wir betrachten die Matrix

0
 π
A := 
 0
0
2
0
0
0

−1
√
2 
 ∈ R4×3 .
0 
1
2
LINEARE GLEICHUNGSSYSTEME
29
Offensichtlich ist die dritte Zeile dieser Matrix eine Nullzeile. Die übrigen Zeilen
sind Nichtnullzeilen, und wir finden die Leitkoeffizienten
i=1: 2
i=2: π
i=4: 1
(j1 = 2),
(j2 = 1),
(j4 = 3).
Definition 10 (Matrix in Zeilenstufenform, Rang) Die Matrix A ist in Zeilenstufenform, falls sie die beiden folgenden Eigenschaften erfüllt:
1. Alle Nichtnullzeilen liegen oberhalb aller Nullzeilen und
2. der Leitkoeffizient jeder Nichtnullzeile liegt weiter rechts als der Leitkoeffizient der darüberliegenden Zeile.
Der Rang einer Matrix in Zeilenstufenform (!) ist die Anzahl ihrer Nichtnullzeilen (oder ihrer Leitkoeffizienten).
Bemerkungen:
• Den Rang einer Matrix A ∈ K m×n in Zeilenstufenform bezeichnen wir
mit rang(A). Es gilt rang(A) ∈ {0, 1, 2, . . . , min{m, n}} und rang(A) = 0
⇔ A = 0 (die Nullmatrix 0 ist die einzige Matrix mit Rang 0).
• Wir werden später in dieser Vorlesung den Rang einer Matrix für beliebige
Matrizen definieren. Die obige Definition des Rangs gilt nur für Matrizen
in Zeilenstufenform!
Beispiele:
1. Die Matrix

0 2 0
A :=  0 0 0
0 0 0
√1
2
0

0
−2  ∈ R3×5
0
ist in Zeilenstufenform mit j1 = 2, j2 = 4 und rang(A) = 2.
2. Die Matrix



A := 


π
0
0
0
0
0
2
0
0
0
1
−1
√
2
0
0



 ∈ R5×3


ist in Zeilenstufenform mit j1 = 1, j2 = 2, j3 = 3 und rang(A) = 3.
3. Die Matrizen

0 −1
A :=  0 0
0 0
√
2
0
2
3
4
3

0  ∈ R3×4
π

3
und B :=  √0
2

1
−1  ∈ R3×2
2
2
LINEARE GLEICHUNGSSYSTEME
30
sind nicht in Zeilenstufenform: In der Matrix A liegt eine Nichtnullzeile
unterhalb einer Nullzeile, und in der Matrix B liegt der Leitkoeffizient der
dritten Zeile nicht weiter rechts als der Leitkoeffizient der zweiten Zeile
(j1 = 1, j2 = 2, j3 = 1 < j2 ).
Definition 11 (lineares Gleichungssystem in Zeilenstufenform) Das lineare Gleichungssystem Ax = b mit m Gleichungen und n Unbekannten ist in Zeilenstufenform, falls seine erweiterte Koeffizientenmatrix (A | b) ∈ K m×(n+1) in
Zeilenstufenform ist.
Bemerkung: Ist die erweiterte Koeffizientenmatrix (A | b) in Zeilenstufenform,
so ist auch die Koeffizientenmatrix A in Zeilenstufenform, und es gilt rang(A) ≤
rang(A | b). Dies lesen wir aus der grafisch aus der Gestalt der erweiterten Koeffizientenmatrix ab (mit r = rang(A)): (A | b) =

0 ···
0 | a1j1 · · · · · ·
···
··· ···
···
· · · · · · · · · a1n
 0 ··· ···
·
·
·
·
·
·
0
|
a
·
·
·
·
·
·
·
·
·
·
· · · · · · · · a2n
2j
2

 .. . .
..
.
.
.
.
.
.
.
.
.
.. ... ...
..
..
..
..
..
..
..
..
 .
.
.

 0 ··· ···
·
·
·
·
·
·
·
·
·
·
·
·
·
·
·
0
|
a
·
·
·
·
·
·
·
·
·
a
rj
rn
r

 0 ··· ···
···
··· ···
···
··· ···
···
··· ··· ···
0

 0 ··· ···
·
·
·
·
·
·
·
·
·
·
·
·
·
·
·
·
·
·
·
·
·
·
·
·
·
·
·
·
·
·
0

 . .
..
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
 .
.
.
.
.
.
.
.
.
.
.
.
.
.
···
0
···
···
···
···
···
···
···
···
···
···
···
0
Es gilt
r = rang(A) = rang(A | b)
⇔
br+1 = br+2 = · · · = bm = 0.
Falls bi 6= 0 für ein i ∈ {r + 1, r + 2, . . . , m}, so gilt r = rang(A) < rang(A | b).
Beispiele:
1. Die erweiterte Koeffizientenmatrix des linearen Gleichungssystems aus Serie 5, Aufg. 5, ist gegeben durch


2 −5
−6√
4
(A | b) :=  0 −2 1 − 2 0  ∈ R3×(3+1) .
(32)
0 0
7
2
Sie ist in Zeilenstufenform, also ist auch das zugehörige lineare Gleichungssystem in Zeilenstufenform. Es gilt rang(A) = rang(A | b) = 3.
2. Die erweiterte Koeffizientenmatrix

0 2 0 √1
(A | b) :=  0 0 0
2
0 0 0 0
0
−2
0
3
4

0  ∈ R3×(5+1)
0
ist in Zeilenstufenform mit rang(A) = rang(A | b) = 2.
(33)
b1
b2
..
.
br
br+1
br+2
..
.
bm














2
LINEARE GLEICHUNGSSYSTEME
3. Die erweiterte Koeffizientenmatrix

π 0 1
 0 2 −1

√
A := 
2
 0 0
 0 0 0
0 0 0
31
√
2
−3
0
1
0



 ∈ R5×(3+1)


(34)
ist in Zeilenstufenform mit 3 = rang(A) < rang(A | b) = 4.
Lösbarkeitskriterium Der folgende Satz über die Lösbarkeit von linearen
Gleichungssystemen in Zeilenstufenform geht auf die drei Mathematiker G. Fontené (1848–1923), E. Rouché (1832–1910) und F. G. Frobenius (1849–1917) zurück:
Satz 2 (Lösbarkeit eines linearen Gleichungssystems in Zeilenstufenform) Ein
lineares Gleichungssystem Ax = b mit m Gleichungen und n Unbekannten in
Zeilenstufenform (!) ist genau dann lösbar, wenn rang(A) = rang(A | b). Gilt
zusätzlich rang(A | b) = n, so hat das lineare Gleichungssystem genau eine Lösung.
Bemerkung: Für ein lineares Gleichungssystem Ax = b mit m Gleichungen und
n Unbekannten in Zeilenstufenform erkennen wir dieselben drei Fälle wie für
lineare Gleichungen ax = b, a, b ∈ K (Satz 1 im Kap. 1.4.1):
• genau eine Lösung, falls rang(A) = rang(A | b) = n
• unendlich viele Lösungen, falls rang(A) = rang(A | b) < n
• keine Lösung, falls rang(A) < rang(A | b)
Für m = n = 1 erhalten wir in der Tat genau die Fälle aus Satz 1, denn in
diesem Fall ist die Koeffizientenmatrix gegeben durch A = (a) ∈ K 1×1 und die
rechte Seite durch b = (b) ∈ K 1 . Die erweiterte Koeffizientenmatrix ist daher
gegeben durch (A | b) = (a | b) ∈ K 1×(1+1) . Es gelten
1, a 6= 0
1, a 6= 0 ∨ b 6= 0
rang(A) =
, rang(A | b) =
.
0, a = 0
0, a = 0 ∧ b = 0
Damit erhalten wir die drei Fälle
• rang(A) = rang(A | b) = 1, falls a 6= 0 (genau eine Lösung),
• rang(A) = rang(A | b) = 0 < 1, falls a = 0 ∧ b = 0 (unendlich viele
Lösungen),
• 0 = rang(A) < rang(A | b) = 1, falls a = 0 ∧ b 6= 0 (keine Lösung).
2
LINEARE GLEICHUNGSSYSTEME
32
Beispiele:
1. Für die erweiterte Koeffizientenmatrix (32) gilt
rang(A) = rang(A | b) = 3 = n,
also hat das zugehörige lineare Gleichungssystem Ax = b genau eine
Lösung.
2. Für die erweiterte Koeffizientenmatrix (33) gilt
rang(A) = rang(A | b) = 2 < 5 = n,
also hat das zugehörige lineare Gleichungssystem Ax = b unendlich viele
Lösungen.
3. Für die erweiterte Koeffizientenmatrix (34) gilt
3 = rang(A) < rang(A | b) = 4,
also hat das zugehörige lineare Gleichungssystem Ax = b keine Lösung. In
der vorletzten Zeile steht nämlich 0x1 +0x2 +0x3 = 1, und diese Gleichung
kann für kein x = (x1 , x2 , x3 )> ∈ R3 erfüllt sein.
Lösung durch Rückwärtseinsetzen Die Lösungsmenge des linearen Gleichungssystems Ax = b mit m Gleichungen und n Unbekannten ist gegeben
durch
L = {x ∈ K n | Ax = b} ⊆ K n .
Ist das Gleichungssystem in Zeilenstufenform, so gilt gemäss Satz 2: L = ∅,
falls rang(A) < rang(A | b). In diesem Fall ist nichts mehr zu tun. Wir nehmen
deshalb im Folgenden an, dass rang(A) = rang(A | b); in diesem Fall gilt L 6= ∅,
d. h. das lineare Gleichungssystem Ax = b hat mindestens eine Lösung. Wir
definieren wieder r = rang(A) ∈ {0, 1, 2, . . . , min{m, n}}, und wir betrachten
die Menge J := {j1 , j2 , . . . , jr } der Spaltenindizes der Leitkoeffizienten in jeder
Nichtnullzeile. Es gibt k := n − r ≥ 0 Variablen xj mit j 6∈ J. Diesen ordnen
wir beliebige Werte λ1 , λ2 , . . . , λk ∈ K zu.
Bemerkung: Die Zahl k = n − r heisst der Defekt der Koeffizientenmatrix A.
Die Werte der restlichen Variablen xj mit j ∈ J können jetzt durch Rückwärtseinsetzen eindeutig als Funktionen von λ1 , λ2 , . . . , λk angegeben werden.
Wir geben hier einen Algorithmus (in Pseudocode) zur Lösung eines linearen
Gleichungssystems mit m Gleichungen und n Unbekannten in Zeilenstufenform
an:
Bestimme die Menge J := {j1 , j2 , . . . , jr } der Spaltenindizes der Leitkoeffizienten jeder Nichtnullzeile der erweiterten Koeffizientenmatrix
if k := n − r > 0
` = 0 (Zähler für die Spaltenindizes, die nicht in J liegen)
2
LINEARE GLEICHUNGSSYSTEME
33
for j = 1, 2, . . . , n
if j 6∈ J
`=`+1
xj = λ` ∈ K
end
end
(am Ende dieser Schleife gilt ` = k)
end
for i = r, r − 1, . . . , 1

bi −
xji = a−1
iji

n
X
aij xj 
j=ji +1
end
Beispiele:
1. Für die erweiterte Koeffizientenmatrix aus

2 −5
−6√
(A | b) =  0 −2 1 − 2
0 0
7
(32),

4
0  ∈ R3×(3+1) ,
2
gilt m = n = 3 und J = {1, 2, 3}, also r = 3 und damit k := n − r = 0.
Wir können also den ersten Teil des obigen Pseudocodes überspringen und
direkt zum zweiten Teil gehen:
1
2
i = 3: (j3 = 3) x3 = a−1
·2=
33 (b3 − 0) =
7

7
3
X
b2 −
a2j xj  = a−1
i = 2: (j2 = 2) x2 = a−1
22 (b2 − a23 x3 )
22
j=3
√
1− 2
=
7

3
X
b1 −
i = 1: (j1 = 1) x1 = a−1
a1j xj  = a−1
11
11 (b1 − a12 x2 − a13 x3 )
1
=
−2
1
=
2
√
2
0 − (1 − 2)
7

√
j=2
1− 2
2
4 − (−5)
− (−6)
7
7
!
=
√
45 − 5 2
14
Die Lösungsmenge des zu dieser erweiterten Koeffizientenmatrix gehörigen
Gleichungssystems ist also gegeben durch

√ 
2


 45−5

 1−14√2 
3
L= 
 ⊆R .
7




2
7
2
LINEARE GLEICHUNGSSYSTEME
34
2. Für die erweiterte Koeffizientenmatrix

0 2 0 √1
(A | b) =  0 0 0
2
0 0 0 0
aus (33),

3
0
4
−2 0  ∈ R3×(5+1) ,
0 0
gilt m = 3, n = 5 und J = {2, 4}, also r = 2 und damit k := n−r = 3 > 0.
Wir müssen also beide Teile des obigen Pseudocodes durchführen. Der
erste Teil verläuft wie folgt:
`=0
j = 1: 1 6∈ J
`=1
x1 = λ1 ∈ R
j = 2: 2 ∈ J
j = 3: 3 6∈ J
`=2
x3 = λ2 ∈ R
j = 4: 4 ∈ J
j = 5: 5 6∈ J
`=3
x5 = λ3 ∈ R
Im zweiten Teil folgt das Rückwärtseinsetzen:


5
X
b2 −
a2j xj  = a−1
i = 2: (j2 = 4) x4 = a−1
24 (b2 − a25 x5 )
24
j=5
√
1
= √ (0 − (−2)λ3 ) = 2λ3
2


5
X
b1 −
i = 1: (j1 = 2) x2 = a−1
a1j xj  = a−1
12
12 (b1 − a13 x3 − a14 x4 − a15 x5 )
j=3
1
=
2
√
3
− 0λ2 − 1 2λ3 − 0λ3
4
1
=
2
3 √
− 2λ3
4
√
3
2
= −
λ3
8
2
Die Lösungsmenge des zu dieser erweiterten Koeffizientenmatrix gehörigen
Gleichungssystems ist also gegeben durch



λ√1






2
3





 8 − 2 λ3  

L =  √λ2
λ1 , λ2 , λ3 ∈ R ⊆ R5 .







2λ3  



λ3
2
LINEARE GLEICHUNGSSYSTEME
35
Mit Hilfe der Vektoraddition und der Skalarmultiplikation (für Vektoren)
können wir die Lösungsmenge auch in der folgenden Form schreiben:



 
 


0√
0
0
1






3 
 − 2 
 0 

 0 




 
 
 8 
2 








L =  0  + λ1  0  + λ2  1  + λ3  √0  λ1 , λ2 , λ3 ∈ R .





 0 
 0 
 0 


2  



0
0
0
1
2.4
Gausssches Eliminationsverfahren
Im Kap. 2.3 haben wir gesehen, dass wir für ein lineares Gleichungssystem in
Zeilenstufenform leicht entscheiden können, ob es mindestens eine Lösung hat.
Ist dies der Fall, so können wir sämtliche Lösungen durch Rückwärtseinsetzen
bestimmen.
In diesem Kapitel lernen wir nun das Gausssche Eliminationsverfahren (nach
C. F. Gauss, 1777–1855) kennen, mit dem wir jedes beliebige lineare Gleichungssystem auf Zeilenstufenform bringen können. Eine Kombination dieses Verfahrens mit dem Rückwärtseinsetzen erlaubt uns schliesslich die Lösung jedes beliebigen linearen Gleichungssystems (sofern es eine Lösung hat).
Bemerkung: Oft wird diese Kombination der beiden Verfahren (nicht nur das
hier vorgestellte Verfahren zum Erreichen der Zeilenstufenform) als Gausssches
Eliminationsverfahren bezeichnet.
Wir nehmen im Folgenden an, dass ein lineares Gleichungssystem mit m
Gleichungen und n Unbekannten bereits in der Matrixform Ax = b vorliegt
(Kap. 2.2), und wir arbeiten mit der erweiterten Koeffizientenmatrix (A | b) ∈
K m×(n+1) .
Das Verfahren verwendet die folgenden elementaren Zeilenumformungen, um
die erweiterte Koeffizientenmatrix auf Zeilenstufenform zu bringen:
1. Vertauschen zweier Zeilen,
2. Multiplikation einer Zeile mit einem Skalar ungleich Null,
3. Addition eines Vielfachen einer Zeile zu einer anderen Zeile.
Wie im Kap. 1.6 bezeichnen wir die i-te Zeile der erweiterten Koeffizientenmatrix
mit
(A | b)i · := ai1 ai2 · · · ain bi ∈ K 1×(n+1) , i ∈ {1, 2, . . . , m}.
Die dazugehörige lineare Gleichung lautet ai1 x1 + ai2 x2 + · · · ain xn = bi . Die
elementaren Zeilenumformungen lassen sich damit auch schreiben als
1. (A | b)i1 · ↔ (A | b)i2 · , i1 , i2 ∈ {1, 2, . . . , m}, i1 6= i2 ,
2. (A | b)i · ← α(A | b)i · , i ∈ {1, 2, . . . , m}, α ∈ K \ {0},
3. (A | b)i1 · ← (A | b)i1 · + α(A | b)i2 · , i1 , i2 ∈ {1, 2, . . . , m}, i1 6= i2 , α ∈ K.
2
LINEARE GLEICHUNGSSYSTEME
36
Satz 3 Die elementaren Zeilenumformungen 1.–3. verändern die Lösungsmenge des linearen Gleichungssystems nicht.
Bemerkung: Mit Hilfe von Satz 3 können wir beliebig viele elementare Zeilenumformungen auf die erweiterte Koeffizientenmatrix anwenden, und es so – wie wir
anschliessend an den Beweis sehen werden – auf Zeilenstufenform bringen. Dieses
lineare Gleichungssystem in Zeilenstufenform hat dann dieselbe Lösungsmenge
wie das ursprüngliche lineare Gleichungssystem.
Beweis von Satz 3:
1. Die zu den Zeilen i1 , i2 ∈ {1, 2, . . . , m}, i1 6= i2 , gehörigen linearen Gleichungen lauten
ai1 1 x1 + ai1 2 x2 + · · · ai1 n xn
=
bi1 ,
ai2 1 x1 + ai2 2 x2 + · · · ai2 n xn
=
bi2 .
Die Behauptung ist also, dass
ai1 1 x1 + ai1 2 x2 + · · · ai1 n xn = bi1
a x + ai2 2 x2 + · · · ai2 n xn = bi2
⇔ i2 1 1
.
ai2 1 x1 + ai2 2 x2 + · · · ai2 n xn = bi2
ai1 1 x1 + ai1 2 x2 + · · · ai1 n xn = bi1
Sie ist offensichtlich erfüllt.
2. Für ein i ∈ {1, 2, . . . , m} und ein α ∈ K \ {0} gilt nach der Definition der
Skalarmultiplikation für Matrizen:
α(A | b)i · = αai1 αai2 · · · αain αbi ∈ K 1×(n+1) .
Die dazugehörige lineare Gleichung lautet
(αai1 )x1 + (αai2 )x2 + · · · + (αain )xn = αbi ,
wobei wir die Klammern wegen der Assoziativität der Multiplikation (M1)
auch weglassen können. Die Behauptung ist also, dass
ai1 x1 + ai2 x2 + · · · ain xn = bi ⇔ αai1 x1 + αai2 x2 + · · · αain xn = αbi .
Die Richtung “⇒” erhalten wir durch Multiplikation beider Seiten der
Gleichung auf der linken Seite mit α und mit den Distributivgesetzen (D).
Die Richtung “⇐” erhalten wir durch Division beider Seiten der Gleichung
auf der rechten Seite durch α 6= 0 und mit den Distributivgesetzen (D).
3. Für i1 , i2 ∈ {1, 2, . . . , m}, i1 6= i2 , und für ein α ∈ K gilt nach der Definition der Matrizenaddition und der Skalarmultiplikation für Matrizen:
(A | b)i1 · + α(A | b)i2 · =
ai1 1 + αai2 1 ai1 2 + αai2 2 · · · ai1 n + αai2 n bi1 + αbi2 ∈ K 1×(n+1) .
2
LINEARE GLEICHUNGSSYSTEME
37
Die Behauptung ist nun, dass
ai1 1 x1 + ai1 2 x2 + · · · ai1 n xn = bi1
(35)
ai2 1 x1 + ai2 2 x2 + · · · ai2 n xn = bi2
⇔
(ai1 1 + αai2 1 ) x1 + (ai1 2 + αai2 2 ) x2 + · · · + (ai1 n + αai2 n ) xn = bi1 + αbi2
(36)
ai2 1 x1 + ai2 2 x2 + · · · ai2 n xn = bi2
Mit den Distributivgesetzen (D), der Kommutativität der Addition (A4)
sowie der Assoziativität der Multiplikation (M1) erhalten wir
(ai1 1 + αai2 1 ) x1 + (ai1 2 + αai2 2 ) x2 + · · · + (ai1 n + αai2 n ) xn = bi1 + αbi2
⇔
(37)
ai1 1 x1 + ai1 2 x2 + · · · + ai1 n xn + α (ai2 1 x1 + ai2 2 x2 + · · · + ai2 n xn ) = bi1 + αbi2
“(35) ⇒ (36)”: Seien beide Gleichungen in (35) erfüllt, dann gilt auch
ai 1 x1 + ai1 2 x2 + · · · + ai1 n xn +α(ai2 1 x1 + ai2 2 x2 + · · · + ai2 n xn ) = bi1 +αbi2 ,
|1
{z
}
{z
}
|
=bi1
=bi2
und mit (37) ist also auch die erste Gleichung in (36) erfüllt. Die
zweite Gleichung in (36) ist identisch mit der zweiten Gleichung in
(35), also auch erfüllt.
“(36) ⇒ (35)”: Seien beide Gleichungen in (36) erfüllt, dann gilt mit (37):
ai1 1 x1 +ai1 2 x2 +· · ·+ai1 n xn +α(ai2 1 x1 + ai2 2 x2 + · · · + ai2 n xn ) = bi1 +αbi2 .
{z
}
|
=bi2
Durch Subtraktion von αbi2 auf beiden Seiten der Gleichung erhalten wir die erste Gleichung in (35). Die zweite Gleichung in (35) ist
identisch mit der zweiten Gleichung in (36), also auch erfüllt.
Der folgende Algorithmus bringt ein lineares Gleichungssystem mit m Gleichungen und n Unbekannten auf Zeilenstufenform. Beachten Sie, dass die erweiterte
Koeffizientenmatrix (A | b) laufend überschrieben wird:
k = 0, J := {j ∈ {1, 2, . . . , n} | ∃ i ∈ {1, 2, . . . , m} : aij 6= 0}
while J 6= ∅
k =k+1
jk := min J
Bestimme die Menge I := {i ∈ {k, k + 1, . . . , m} | aijk 6= 0}
Wähle ein ik ∈ I
2
LINEARE GLEICHUNGSSYSTEME
38
(A | b)k · ↔ (A | b)ik ·
for i = k + 1, k + 2, . . . , m
(A | b)i · ← (A | b)i · −
aijk
akjk
(A | b)k ·
end
J := {j ∈ {jk + 1, jk + 2, . . . , n} | ∃ i ∈ {k + 1, k + 2, . . . , m} : aij 6= 0}
end
Am Ende dieses Algorithmus ist (A | b) in Zeilenstufenform, und ausserdem gilt
k = rang(A). Beachten Sie, dass wir je nach Wahl der ik ∈ I unterschiedliche Zeilenstufenformen erhalten! Im k-ten Schritt des Algorithmus ist aik jk das
sog. Pivotelement. Nach der Vertauschung der k-ten und der ik -ten Zeile steht
es an der Position (k, jk ), und innerhalb der for-Schleife wird sein Kehrwert benötigt. Für einen beliebigen Körper K ist die Wahl ik = min I naheliegend. Im
Fall K = R ist es jedoch üblich, das betragsgrösste Element in der jk -ten Spalte
als Pivotelement zu wählen (dazu wird die Ordnungsrelation < auf R benötigt).
Diese Wahl verhindert in der Regel die Division durch sehr kleine Zahlen, was
numerisch ungünstig wäre.
Beispiel: Ein lineares Gleichungssystem Ax = b mit 4 Gleichungen und 4 Unbekannten habe die erweiterte Koeffizientenmatrix


3 2 0 0 1
 5 0 0 4 0 
4×(4+1)

.
(38)
(A | b) = 
 0 0 0 0 0 ∈R
2 1 0 3 3
Wir wollen diese mit Hilfe des obigen Algorithmus in Zeilenstufenform bringen,
wobei wir jeweils das betragsgrösste Element als Pivotelement wählen.
• k = 0, J = {1, 2, 4}
• k = 1, j1 = 1, I = {1, 2, 4}
i1 = 2 (a21 = 5 ist das betragsgrösste Element in der 1. Spalte), vertausche
die k-te (1.) und die ik -te (2.) Zeile:


5 0 0 4 0
 3 2 0 0 1 

(A | b) ← 
 0 0 0 0 0 
2 1 0 3 3
Die for-Schleife bringt alle Elemente der jk -ten (1.) Spalte unterhalb der
2
LINEARE GLEICHUNGSSYSTEME
k-ten (1.) Zeile auf Null:


5 0 0 4 0
 3 2 0 0 1 


 0 0 0 0 0 
2 1 0 3 3
39

II ← II − 35 I
→
III ← III −0 I
→
IV ← IV − 25 I
→
5 0
 0 2

 0 0
2 1

5 0
 0 2

 0 0
2 1

5 0
 0 2

 0 0
0 1
0
0
0
0
4
− 12
5
0
3
0
0
0
0
4
− 12
5
0
3
0
0
0
0
4
− 12
5
0
7
5

0
1 

0 
3

0
1 

0 
3

0
1 

0 
3
J = {2, 4}
• k = 2, j2 = 2, I = {2, 4}
i2 = 2, keine Zeilenvertauschung nötig
Die for-Schleife bringt alle Elemente der jk -ten
k-ten (2.) Zeile auf Null:



5 0 0
4
0
 0 2 0 − 12 1  III ← III −0 II 
5



→
 0 0 0

0
0 
7
0 1 0
3
5

IV ← IV − 21 II
→
(2.) Spalte unterhalb der
5 0 0
0 2 0
0 0 0
0 1 0
4
− 12
5
0
5 0 0
 0 2 0

 0 0 0
0 0 0
4
− 12
5
0
J = {4}
• k = 3, j3 = 4, I = {4}
i3 = 4, vertausche die k-te (3.) und

5
 0
(A | b) ← 
 0
0
die ik -te (4.) Zeile:

0 0
4
0
2 0 − 12
1 
5

13
5 
0 0
5
2
0
0 0
0
7
5
13
5

0
1 

0 
3

0
1 

0 
5
2
2
LINEARE GLEICHUNGSSYSTEME
Die for-Schleife bringt alle
k-ten (3.) Zeile auf Null:

5 0 0
4
0
 0 2 0 − 12 1
5

5
13
 0 0 0
5
2
0 0 0
0
0
40
Elemente der jk -ten (4.) Spalte unterhalb der


5 0 0
 IV ← IV −0 III  0 2 0


→
 0 0 0

0 0 0
4
− 12
5
13
5
0

0
1 

5 
2
0
J =∅
Die erweiterte Koeffizientenmatrix

5
 0
(A | b) = 
 0
0
0
2
0
0
0
0
0
0
4
− 12
5
13
5
0

0
1 

5 
2
0
ist in Zeilenstufenform mit rang(A) = 3, und die Lösungsmenge des zugehörigen linearen Gleichungssystems ist gemäss Satz 3 dieselbe wie diejenige des
ursprünglichen linearen Gleichungssystems mit erweiterter Koeffizientenmatrix
(38), weil wir nur elementare Zeilenumformungen vorgenommen haben.
2.5
Zusammenfassung: Verfahren zur Lösung eines linearen Gleichungssystems
Sei (K, +, · ) ein Körper, seien m, n ∈ N, und seien A ∈ K m×n sowie b ∈ K m
gegeben. Die Lösungsmenge des linearen Gleichungssystems mit m Gleichungen
und n Unbekannten in Matrixform, Ax = b bestimmen wir wie folgt:
1. Bringe die erweiterte Koeffizientenmatrix (A | b) ∈ K m×(n+1) mit dem
Gaussschen Eliminationsverfahren (Kap. 2.4) auf Zeilenstufenform.
2. Entscheide mit Hilfe von Satz 2, ob das zugehörige lineare Gleichungssystem mindestens eine Lösung hat (andernfalls gilt L = ∅, und wir sind
fertig).
3. Bestimme die Lösungsmenge des linearen Gleichungssystems in Zeilenstufenform durch Rückwärtseinsetzen (Kap. 2.3).
Beispiel: Wir führen das Beispiel aus Kap. 2.4 fort. Dort hatten wir im 1. Schritt
die erweiterte Koeffizientenmatrix in Zeilenstufenform gabracht:


5 0 0
4
0
 0 2 0 − 12 1 
4×(4+1)
5

(A | b) = 
(m = n = 4).
13
5 ∈R
 0 0 0
5
2
0 0 0
0
0
2. Es gilt offensichtlich r = rang(A) = rang(A | b) = 3 < 4, also hat das
lineare Gleichungssystem Ax = b gemäss Satz 2 unendlich viele Lösungen.
2
LINEARE GLEICHUNGSSYSTEME
41
3. Wir finden diese Lösungen durch Rückwärtseinsetzen (Kap. 2.3):
J = {1, 2, 4}
k =n−r =4−3=1>0
`=0
j=1∈J
j=2∈J
j = 3 6∈ J
` = 1, x3 = λ1 ∈ R
j=4∈J
i = 3: x4 = a−1
34 (b3 − 0) =

i = 2: x2 =
a−1
22
b2 −
4
X
5
2
13
5
25
26

=
1
a2j xj  =
2
j=3
12
1 − 0x3 + x4
5
1 6
43
+ x4 =
2 5
26


4
X
1
b1 −
a1j xj  = (0 − 0x2 − 0x3 − 4x4 )
i = 1: x1 = a−1
11
5
j=2
=
4
10
= − x4 = −
5
13
Die Lösungsmenge des linearen Gleichungssystems in Zeilenstufenform ist
also gegeben durch

  10 
− 13 




  43 
26


⊆ R4 .
λ
∈
R
L= 
1
λ1 






25
26
Zum Schluss prüfen wir noch nach, ob die Vektoren in L tatsächlich auch Lösungen des ursprünglichen linearen Gleichungssystems (38) sind: Sei x ∈ L, dann
gilt Ax =

  
  10  
30
− 13
− 13
+ 43
3 2 0 0
1
13
50
50
 5 0 0 4   43  
  0 
−
+
13
13

  26  
 =   = b, ∀ λ1 ∈ R. X
 0 0 0 0   λ1  = 
  0 
0
25
20
43
75
2 1 0 3
3
− 13 + 26 + 26
26
2
LINEARE GLEICHUNGSSYSTEME
2.6
42
Gauss-Jordan-Algorithmus und inverse Matrix
Im Kap. 2.4 haben wir das Gausssche Eliminationsverfahren kennengelernt, mit
dem wir jede Matrix auf Zeilenstufenform bringen können. Angewendet auf die
erweiterte Koeffizientenmatrix eines linearen Gleichungssystems können wir danach dessen Lösung durch Rückwärtseinsetzen bestimmen (falls eine Lösung
existiert). Wegen der Wahlmöglichkeit des Pivotelements ist die Zeilenstufenform einer Matrix nicht eindeutig. So können wir z. B. bei einer Matrix in
Zeilenstufenform zu einer Zeile ein Vielfaches einer darunterliegenden Zeile addieren, und die neue Matrix ist ebenfalls in Zeilenstufenform.
In diesem Kapitel lernen wir die reduzierte Zeilenstufenform kennen, die für
jede Matrix eindeutig bestimmt ist.
Definition 12 (reduzierte Zeilenstufenform) Eine Matrix ist in reduzierter Zeilenstufenform, falls sie die beiden folgenden Eigenschaften erfüllt:
1. Die Matrix ist in Zeilenstufenform und
2. jeder Leitkoeffizient hat den Wert 1, und er ist der einzige Nichtnulleintrag
in seiner Spalte.
Bemerkung: Bei einer Matrix in reduzierter Zeilenstufenform müssen alle Einträge oberhalb der Leitkoeffizienten gleich 0 sein.
Beispiele:
1. Die Matrix

−2
0
0
0 1
 0 0
0 0
π
1
0

√1
2  ∈ R3×5
2
ist in Zeilenstufenform mit Rang 3, aber nicht in reduzierter Zeilenstufenform: Es haben nicht alle Leitkoeffizienten den Wert 1, und sie sind auch
nicht die einzigen Nichtnulleinträge in ihren Spalten.
2. Die Matrix






1
0
0
0
0
√
2
0
0
0
0
0
1
0
0
0
0
0
1
0
0

π
0 

3 
∈ R5×5
2 

0
0
ist in reduzierter Zeilenstufenform mit Rang 3.
Analog zur Def. 11 sagen wir, ein lineares Gleichungssystem Ax = b mit m
Gleichungen und n Unbekannten sei in reduzierter Zeilenstufenform, wenn seine
erweiterte Koeffizientenmatrix (A | b) ∈ K m×(n+1) in reduzierter Zeilenstufenform ist.
2
LINEARE GLEICHUNGSSYSTEME
43
Für ein Gleichungssystem in reduzierter Zeilenstufenform ist die Bestimmung der Lösungen (Kap. 2.3) besonders einfach, denn seine erweiterte Koeffizientenmatrix hat die Gestalt


0 ···
0 | 1
∗
0
∗
0
∗ a1n
b1
 0 ··· ··· ···
0 | 1
∗
0
∗ a2n
b2 


 .. . .
.. 
.
.
.
.
.
.
..
.
.
.
.
.
 .
.
.
.
.
. 
0
0
.
.


 .. . .
.. 
.
.
.
..
..
..
..
..
..
..
 .

.
.
.
.
.
.
0
(A | b) = 
.
 0 ··· ···

b
0
·
·
·
·
·
·
0
|
1
∗
a
r
rn


 0 ··· ··· ··· ··· ··· ··· ··· ···

0
b
r+1 

 . .

.
.
.
.
.
.
.
.
.
..
.. 
..
..
..
..
..
..
..
..
 ..
bm
0 ··· ··· ··· ··· ··· ··· ··· ···
0
Falls br+1 = · · · = bm = 0, so gilt r = rang(A) = rang(A | b) ≤ min{m, n},
und das lineare Gleichungssystem hat gemäss Satz 2 mindestens eine Lösung.
Wir fassen wieder die Spaltenindizes der Leitkoeffizienten in der Menge J :=
{j1 , j2 , . . . , jr } zusammen. Die Variablen xj mit j 6∈ J sind frei und erhalten
beliebige Werte λ1 , λ2 , . . . , λk ∈ K, k := n − r, zugewiesen. Die Werte der
verbleibenden Variablen xj mit j ∈ J hängen nur von der rechten Seite sowie
von den freien Variablen ab: Für i ∈ {1, 2, . . . , r} gilt


n
n
n
X
X
X
aiji =1
aij =0, j∈J
bi −
aij xj .
aij xj
=
bi −
aij xj  =
bi −
xji = a−1
iji
j=ji +1
j=ji +1
j=ji +1
j6∈J
Ohne weitere Herleitungen zeigen wir hier ein einfaches Verfahren, um die Lösungsmenge eines linearen Gleichungssystems in reduzierter Zeilenstufenform
mit Hilfe seiner erweiterten Koeffizientenmatrix (A | b) ∈ K m×(n+1) (ebenfalls
in reduzierter Zeilenstufenform) zu bestimmen:
1. Streiche alle Nullzeilen.
2. Füge k = n − r neue Nullzeilen in die Matrix ein und zwar so, dass am
Schluss die Leitkoeffizienten der Nichtnullzeilen (= 1) auf der Hauptdiagonale stehen.
3. Schreibe −1 an die Stellen der Hauptdiagonale, an denen noch keine 1
steht.
4. Die Lösungsmenge des linearen Gleichungssystems ist jetzt gegeben durch
die rechte Seite plus eine beliebige Linearkombination (mit Parametern
λ1 , λ2 , . . . , λk ∈ K) der Spalten, bei denen eine −1 in der Hauptdiagonalen
steht.
2
LINEARE GLEICHUNGSSYSTEME
44
Beispiel: Die erweiterte Koeffizientenmatrix
√

1
2 0 0 π
 0 0 1 0 0

3
(A | b) := 
 0 0 0 1 2
 0 0 0 0 0
0 0 0 0 0
0
√1
2
0
0



 ∈ R5×(5+1)


ist in reduzierter Zeilenstufenform mit r = rang(A) = rang(A | b) = 3 < 5 =
n, also hat das zugehörige lineare Gleichungssystem Ax = b unendlich viele
Lösungen. Wir führen das oben beschriebene Verfahren durch:
1. Nach dem Streichen aller Nullzeilen
√

2 0
1
 0 0 1
0 0 0
erhalten wir die Matrix

0 π 0
0 0 √1  .
1 32
2
2. Nach dem Einfügen von k = n − r = 5 − 3 = 2 neuen Nullzeilen erhalten
wir
√


1
2 0 0 π 0
 0 0 0 0 0 0 


 0 0 1 0 0 1 ,


√
 0 0 0 1 3
2 
2
0 0 0 0 0 0
wobei jetzt die Einsen auf der Hauptdiagonale stehen.
3. Wir schreiben −1 an die Stellen der Hauptdiagonale, an denen noch keine
1 steht:
√


1
2 0 0 π
0
 0 −1 0 0 0
0 


 0 0 1 0 0
1 

.
√
 0 0 0 1 3

2
2
0 0 0 0 −1 0
4. Die Lösungsmenge des linearen
durch


 √
0
2





 −1

 0 



L= 
 √1  + λ1  0



 0

2



0
0
Gleichungssystems Ax = b ist gegeben






 + λ2 













 λ1 , λ2 ∈ R ⊆ R5 .


3 


2


−1 Wir prüfen dies nach: Für x ∈ L gilt tatsächlich

 √
√
2λ1 + πλ2
1
2 0 0 π
 0 0 1 0 0 
−λ1


3 
1
Ax = 
0
0
0
1

2  √
 0 0 0 0 0 
2 + 32 λ2
0 0 0 0 0
−λ2
π
0
0


 
 
=
 
 
0
√1
2
0
0



=b X


2
LINEARE GLEICHUNGSSYSTEME
45
Mit dem Gauss-Jordan-Algorithmus (nach C. F. Gauss, 1777–1855, und Wilhelm Jordan, 1842–1899) kann jede Matrix auf ihre reduzierte Zeilenstufenform
gebracht werden. Er ist eine Abwandlung des Gaussschen Eliminationsverfahrens aus Kap. 2.4 (wir haben die Änderungen hervorgehoben):
k = 0, J := {j ∈ {1, 2, . . . , n} | ∃ i ∈ {1, 2, . . . , m} : aij 6= 0}
while J 6= ∅
k =k+1
jk := min J
Bestimme die Menge I := {i ∈ {k, k + 1, . . . , m} | aijk 6= 0}
Wähle ein ik ∈ I
(A | b)k · ↔ (A | b)ik ·
(A | b)k · ← a−1
kjk (A | b)k ·
for i = 1, 2, . . . , k − 1, k + 1, k + 2, . . . , m
(A | b)i · ← (A | b)i · − aijk (A | b)k ·
end
J := {j ∈ {jk + 1, jk + 2, . . . , n} | ∃ i ∈ {k + 1, k + 2, . . . , m} : aij 6= 0}
end
Beispiel: Wir lösen noch einmal das lineare Gleichungssystem aus Kap. 2.4, aber
diesmal mit dem Gauss-Jordan-Algorithmus. Dabei bezeichnen wir die Zeilen
der erweiterten Koeffizientenmatrix mit römischen Zahlen I, II, III, IV. Als Pivotelement wählen wir jeweils den ersten Nichtnulleintrag in jeder Spalte (die am
Ende erhaltene reduzierte Zeilenstufenform ist unabhängig von dieser Wahl!):




3 2 0 0 1
1 23 0 0 13
 5 0 0 4 0  I ← 31 I  5 0 0 4 0 




 0 0 0 0 0  −→  0 0 0 0 0 
2 1 0 3 3
2 1 0 3 3




2
1
2
1
1
0 0
1
0 0
3
3
3
3
II ← II −5 I
3
 0 − 10 0 4 − 5  II ← − 10
II  0
1 0 − 56 12 
IV ← IV −2 I
3
3 



−→
−→
 0
 0 0 0 0
0
0 0 0 
0 
7
7
0 − 13 0 3
0 − 31 0 3
3
3




4
4
2
1
0
0
0
1
0
0
0
I ← I −
II
5
5
3
IV ← IV + 1 II  0
1 0 − 65 12 
0 1 0 − 56 12 
III ↔ IV 
3




−→
−→ 
5 
 0 0 0 0
0 
0 0 0 13
5
2
5
0 0 0 13
0 0 0 0
0
5
2




4
1 0 0
0
1 0 0 0 − 10
I ← I − 4 III
5
13
5
1  II ← II + 6 III 
43 
5
III  0 1 0 − 6
III ← 13
5
5
2 
26  .

 0 1 0 0
−→
−→
25
25 
 0 0 0 1
 0 0 0 1

26
26
0 0 0 0
0
0 0 0 0
0
2
LINEARE GLEICHUNGSSYSTEME
46
Zur Illustration, dass die reduzierte Zeilenstufenform tatsächlich unabhängig
von der Wahl des Pivotelements ist, wiederholen wir den Algorithmus mit einer
anderen Pivotstrategie. Wir wählen jeweils das betragsgrösste Element einer
Spalte als Pivotelement:





5 0 0 4 0
3 2 0 0 1
1 0 0 54 0
 5 0 0 4 0  I ↔ II  3 2 0 0 1  I ← 15 I  3 2 0 0 1





 0 0 0 0 0  →  0 0 0 0 0  →  0 0 0 0 0
2 1 0 3 3
2 1 0 3 3
2 1 0 3 3




4
4
1 0 0
1 0 0
0
0
5
5
II ← II −3 I
 0 2 0 − 12 1  II ← 21 II  0 1 0 − 6 1 
IV ← IV −2 I
5
5
2 

 −→ 
→
 0 0 0
 0 0 0 0
0
0 
0 
7
7
3
3
0 1 0
0 1 0
5
5




4
4
1 0 0
1 0 0
0
0
5
5
1 
1 
6
6
IV ← IV − II 
↔ IV 
 0 1 0 − 5 2  III−→
 0 1 0 −135 25 
−→
 0 0 0 0



0
0 0 0
5
2
13
5
0 0 0 0
0 0 0
0
5
2




4
1 0 0
0
1 0 0 0 − 10
I ← I − 4 III
5
13
5
1  II ← II + 6 III 
43 
5
III ← 13
III  0 1 0 − 6
5
2 
26  .

 0 1 0 0
−→
−→5
25 
25 
 0 0 0 1
 0 0 0 1
26
26
0 0 0 0
0
0 0 0 0
0
Die erweiterte Koeffizientenmatrix ist jetzt in reduzierter Zeilenstufenform, und
wir lesen ab: r = rang(A) = rang(A | b) = 3 < 4 = n, also hat das zugehörige lineare Gleichungssystem unendlich viele Lösungen. Wir bestimmen die
Lösungsmenge mit dem vorher beschriebenen Verfahren:
1. Streiche alle Nullzeilen:

1 0 0 0
 0 1 0 0
0 0 0 1
− 10
13
43
26
25
26


2. Füge k = n − r = 4 − 3 = 1 neue Nullzeile in die Matrix ein und zwar
so, dass am Schluss die Leitkoeffizienten der Nichtnullzeilen (= 1) auf der
Hauptdiagonale stehen:


1 0 0 0 − 10
13
43 
 0 1 0 0
26 

 0 0 0 0
0 
25
0 0 0 1
26
3. Schreibe −1 an die Stellen der Hauptdiagonale, an denen noch keine 1
steht:


1 0 0 0 − 10
13
43 
 0 1 0 0
26 

 0 0 −1 0
0 
25
0 0 0 1
26




2
LINEARE GLEICHUNGSSYSTEME
47
4. Die Lösungsmenge des linearen Gleichungssystems ist jetzt gegeben durch
die rechte Seite plus eine beliebige Linearkombination (mit Parameter λ1 ∈
R) der Spalte, bei der eine −1 in der Hauptdiagonale steht:
   10 

  10 


− 13 − 13
0








   43 

  43 
 0 
26
26






λ1 ∈ R = 
λ 1 ∈ R ⊆ R4 .
+ λ1 
L= 



−1 0


 −λ1 



 



25
25
0
26
26
Dies ist genau die Lösungsmenge, die wir für dasselbe Problem schon in Kap. 2.5
gefunden hatten.
Mehrere rechte Seiten Mit dem Gauss-Jordan-Algorithmus können wir leicht
mehrere lineare Gleichungssysteme mit unterschiedlichen rechten Seiten lösen.
Solche Gleichungssysteme treten z. B. bei Interpolationsproblemen auf, wo Kurven durch mehrere Datenpunkte mit verschiedenen y-Koordinaten (aber identischen x-Koordinaten) gelegt werden sollen. Wir betrachten also eine Koeffizientenmatrix A ∈ K m×n und k ∈ N rechte Seiten b1 , b2 , . . . , bk ∈ K m . Damit
erhalten wir k lineare Gleichungssysteme
Ax` = b` ,
` = 1, 2, . . . , k,
(39)
mit k Unbekannten x1 , x2 , . . . , xk ∈ K n . Wir fassen nun die Unbekannten und
die rechten Seiten in Matrizen zusammen:
X := x1 x2 · · · xk ∈ K n×k , B := b1 b2 · · · bk ∈ K m×k .
Nach Definition der Matrizenmultiplikation (Def. 7) sind die Einträge des Matrizenprodukts AX ∈ K m×k gegeben durch
(AX)i` =
n
X
aij xj` =
j=1
n
X
aij (x` )j = (Ax` )i ,
j=1
für i = 1, 2, . . . , m, ` = 1, 2, . . . , k, und damit gilt
AX =
Ax1
Ax2
···
Axk
(39)
=
b1
b2
···
bk
= B.
Die Matrizengleichung AX = B für die Unbekannte X ∈ K n×k können wir mit
dem Gauss-Jordan-Algorithmus lösen. Dazu betrachten wir wieder die erweiterte
Koeffizientenmatrix


a11 a12 · · · a1n b11 b12 · · · b1k
 a21 a22 · · · a2n b21 b22 · · · b2k 


m×(n+k)
(A | B) =  .
,
..
..
..
..
..  ∈ K
..
..
 ..
.
.
.
.
.
.
. 
am1 am2 · · · amn bm1 b12 · · · bmk
wobei bi` = (b` )i , i = 1, 2, . . . , m, ` = 1, 2, . . . , k, und bringen diese auf die
reduzierte Zeilenstufenform. Danach können wir die erweiterten Koeffizientenmatrizen (A | b` ) ∈ K m×(n+1) betrachten und mit Satz 2 für jedes einzelne
2
LINEARE GLEICHUNGSSYSTEME
48
Gleichungssystem Ax` = b` , ` = 1, 2, . . . , k entscheiden, ob es mindestens eine
Lösung hat. Die Lösungsmenge für jedes einzelne lineare Gleichungssystem in
reduzierter Zeilenstufenform bestimmen wir dann mit dem vorher beschriebenen
Verfahren.
Bemerkung: Die Matrizengleichung AX = B hat genau dann mindestens eine
Lösung, wenn jedes einzelne lineare Gleichungssystem Ax` = b` , ` = 1, 2, . . . , k,
mindestens eine Lösung hat.
Beispiel: Wir betrachten k = 2 lineare Gleichungssysteme Ax1 = b1 und Ax2 =
b2 mit jeweils m = 4 Gleichungen und n = 3 Unbekannten x1 , x2 ∈ R3 , mit
derselben Koeffizientenmatrix A ∈ R4×3 aber zwei unterschiedlichen rechten
Seiten b1 , b2 ∈ R4 :


 


−1 −2 5
3
−1
 1
 2 
 0 
1
1 

 


A=
 −2 2 −3  , b1 =  0  , b2 =  1  .
3
4 −3
1
−4
Wir definieren die Matrizen

X :=
x1
x2
x11
=  x21
x31
wobei xi` = (x` )i , i = 1, 2, 3, ` = 1, 2, und

B :=
b1
3
 2
b2 = 
 0
1
Die zu lösende Matrizengleichung ist
tenmatrix

−1 −2
 1
1
(A | B) = 
 −2 2
3
4

x12
x22  ∈ R3×2 ,
x32

−1
0 
 ∈ R4×2 .
1 
−4
also AX = B mit erweiterter Koeffizien5
1
−3
−3
3
2
0
1

−1
0 
 ∈ R4×(3+2) .
1 
−4
Mit dem Gauss-Jordan-Algorithmus erhalten wir ihre reduzierte Zeilenstufenform:




−1 −2 5 3 −1
1 2 −5 −3 1
 1

1
1 2 0 
2
0 

 I ← (−1) I  1 1 1

 −2 2 −3 0 1  −→  −2 2 −3 0
1 
3
4 −3 1 −4
3 4 −3 1 −4



1 2
−5 −3 1
1 2
−5 −3 1
II ← II − I
III ← III +2 I 
 II ← (−1) II  0 1
0
−1
6
5
−1
−6 −5 1
IV ← IV −3 I



−→
−→
 0 6 −13 −6 3 
 0 6 −13 −6 3
0 −2 12
10 −7
0 −2 12
10 −7




2
LINEARE GLEICHUNGSSYSTEME


1 0 7
7 −1
1
 0 1 −6 −5 1  III ← 23


−→
−→
 0 0 23 24 −3 
0 0 0
0 −5


7
2
1 0 0 − 23 − 23
I ← I −7 III
5
29
 0 1 0
 IV ← − 15
II ← II +6 III
23
23 

−→
−→
24
3 
 0 0 1
− 23
23
0 0 0
0
−5


I ← I + 2 IV
23
7
1 0 0 − 23
0
II ← II − 5 IV
23
29
III ← III + 3 IV  0
0 
1 0
23
.
−→ 23 
24
 0 0 1
0 
23
0
1
0 0 0
I ← I −2 II
III ← III −6 II
IV ← IV +2 II
49

1 0
III  0 1

 0 0
0 0

1 0
IV  0 1

 0 0
0 0
7
−6
1
0
0
0
1
0
7
−5
24
23
0
7
− 23
29
23
24
23
0

−1
1 

3 
− 23
−5

2
− 23
5

23 
3 
− 23
1
Die erweiterte Koeffizientenmatrix ist jetzt in reduzierter Zeilenstufenform. Wir
lesen ab: r = rang(A) = 3 = n = rang(A | b1 ) < rang(A | b2 ) = 4. Gemäss
Satz 2 hat also das erste lineare Gleichungssystem Ax1 = b1 genau eine Lösung,
aber das zweite lineare Gleichungssystem Ax2 = b2 hat keine Lösung. Daher
hat auch die Matrizengleichung AX = B keine Lösung. Wir erhalten also für
die Lösungsmenge des zweiten linearen Gleichungssystems:
L2 := x2 ∈ R3 | Ax2 = b2 = ∅,
und für die Lösungsmenge des ersten linearen Gleichungssystems


7

 − 23
 ⊆ R3 .
L1 := x1 ∈ R3 | Ax1 = b1 =  29
23


24
23
Inverse Matrix Im Fall m = n (quadratische Matrizen) haben wir in Kap. 1.6
gesehen, dass das neutrale Element der Matrizenmultiplikation – die Einheitsmatrix I ∈ K n×n – existiert, mit IA = AI = A, ∀ A ∈ K n×n . Wir hatten dort
auch die Einträge der Einheitsmatrix berechnet:


1 0 ··· 0
 0 1 ··· 0 
1, i = j


I= . . .
=
δ
=
, i, j = 1, 2, . . . , n.
,
also
(I)
ij
ij
. . ... 
0, i 6= j
 .. ..

0 0 ··· 1
Die zu einer quadratischen Matrix inverse Matrix ist nun das inverse Element
der Matrizenmultiplikation, falls es existiert:
Definition 13 (reguläre/invertierbare Matrix) Sei (K, +, · ) ein Körper, und
sei n ∈ N. Eine Matrix A ∈ K n×n heisst regulär (invertierbar), falls
∃ B ∈ K n×n :
AB = BA = I.
In diesem Fall ist A−1 := B ∈ K n×n die zu A inverse Matrix.
2
LINEARE GLEICHUNGSSYSTEME
50
Bemerkung:
• Im Fall n = 1 betrachten wir (1 × 1)-Matrizen über K, also Skalare.
Wir wissen, dass in einem Körper jedes Element ausser dem Nullelement
einen Kehrwert hat (M3). Jedes Körperelement ausser dem Nullelement
ist daher eine reguläre (invertierbare) (1 × 1)-Matrix über K, und die
dazu inversen Matrizen sind gerade die Kehrwerte. Im Fall n > 1 gibt es
jedoch unendlich viele (n × n)-Matrizen über K, die nicht regulär sind
(sog. singuläre Matrizen).
• Die zu einer regulären Matrix A inverse Matrix A−1 ist eindeutig bestimmt.
• Wenn die Matrix A regulär ist, dann ist auch die zu A inverse Matrix
−1
A−1 regulär mit A−1
= A.
• Wenn zwei Matrizen A, B ∈ K n×n die Matrizengleichung AB = I erfüllen, dann gilt auch BA = I und umgekehrt, und daher A−1 = B.
Das heisst, wir müssen immer nur eine der beiden Matrizengleichungen
nachprüfen. Falls nämlich AB = I erfüllt ist, dann gilt auch
(M2)
(M1)
B = BI = B (AB) = (BA) B,
und damit BA = I.
Die zu einer gegebenen Matrix A ∈ K n×n inverse Matrix A−1 ∈ K n×n finden
wir (falls sie existiert) durch Lösen der Matrizengleichung AX = I nach X.
Wie im vorherigen Abschnitt beschrieben, bringen wir dazu die erweiterte Koeffizientenmatrix (A | I) ∈ K n×(n+n) mit dem Gauss-Jordan-Algorithmus auf
die reduzierte Zeilenstufenform und können dann sofort ablesen, ob eine Lösung
existiert. Der Fall von unendlich vielen Lösungen kann hier nicht auftreten, weil
rang(A | I) = n, ∀ A ∈ K n×n (ohne Beweis).
Beispiele:
1. Um die zu

−2
A :=  4
−4

5 1
3 −2  ∈ R3×3
0 0
inverse Matrix zu finden, lösen wir die Matrizengleichung AX = I
erweiterter Koeffizientenmatrix (A | I) ∈ R3×(3+3) (k = m = n = 3)
dem Gauss-Jordan-Algorithmus nach X (falls eine Lösung existiert):



−2 5 1 1 0 0
1 − 52 − 21 − 12 0
I ← − 12 I
 4 3 −2 0 1 0  −→  4
3
−2
0 1
−4 0 0 0 0 1
0 0
−4 0
0


5
1
1
1 −2 −2 −2 0 0
II ← II −4 I
III ← III +4 I
 0 13
0
2 1 0 
−→
0 −10 −2 −2 0 1
mit
mit

0
0 
1
2
LINEARE GLEICHUNGSSYSTEME
1 − 52

0
1
−→
0 −10

I ← I + 5 II
1 0
2
III ← III +10 II
 0 1
−→
0 0

1 0
III ← − 12 III
 0 1
−→
0 0

1 0
I ← I + 12 III
 0 1
−→
0 0
51

II ←
1
13
II
− 21
0
−2
− 12
− 12
3
− 26
2
13
6
− 13
3
− 26
2
13
3
13
0
−2
− 12
0
1
0
0
1
0
2
13
−2
0
0
2
13
3
13
1
13
5
− 13
1
13
0
5
26
1
13
10
13
5
26
1
13
5
− 13

0
0 
1

0
0 
1

0
0 
− 12

− 41
0 .
− 12
Die erweiterte Matrix ist jetzt in reduzierter Zeilenstufenform, und es gilt
rang(A) = 3 = rang(A | I) = n. Die zu dieser erweiterten Koeffizientenmatrix gehörige Matrizengleichung lautet


0
0
− 41
1
2
0  ∈ R3×3 ,
A−1 = X = IX =  13
13
3
5
− 13 − 12
13
und damit haben wir die zu A inverse Matrix gefunden.
2. Wir wollen die inverse Matrix zu

−2 −4
0
A :=  0
1
2

−2
4  ∈ R3×3
5
finden. Wir wenden dazu den Gauss-Jordan-Algorithmus auf die Matrizengleichung AX = I an:




−2 −4 −2 1 0 0
1 2 1 − 12 0 0
I ← − 12 I
 0
0
4 0 1 0  −→  0 0 4 0 1 0 
1
2
5 0 0 1
1 2 5 0 0 1



1
1 2 1 − 12 0
1 2 1 −2 0 0
1
II
←
II
III ← III − I
4
1
 0 0 4 0 1 0  −→  0 0 1 0
−→
4
1
1
0 0 4
0 1
0 0 4
0
2
2



1 2 0 − 21 − 14 0
1 2 0 − 12
I ← I − II
III ← 2 III
III ← III −4 II
1
 0 0 1 0
0  −→  0 0 1 0
−→
4
1
0 0 0 1
0 0 0
−1
1
2


5
1 2 0 0 −4 1
I ← I + 21 III
1
 0 0 1 0
0 .
−→
4
0 0 0 1 −2 2
Die erweiterte Koeffizientenmatrix ist jetzt in reduzierter Zeilenstufenform, und es gilt rang(A) = 2 < 3 = rang(A | I) = n. Daher ist die
Matrix A nicht invertierbar (also singulär).

0
0 
1
− 14
1
4
−2

0
0 
2
3
VEKTORRÄUME UND LINEARE ABBILDUNGEN
52
Satz 4 Eine Matrix A ∈ K n×n ist genau dann invertierbar, wenn rang(A) = n.
3
Vektorräume und lineare Abbildungen
Die Untersuchung von Vektorräumen und linearen Abbildungen ist die Hauptaufgabe der linearen Algebra.
3.1
Vektorräume, Basis, Dimension
Wir haben spezielle Vektorräume bereits im Kap. 1.5 kennengelernt – hier geben
wir die allgemeine Definition:
Definition 14 (Vektorraum) Es sei (K, +, · ) ein Körper, und V sei eine Menge (der Vektoren) mit den zweistelligen Verknüpfungen
+
: V ×V →V
(Vektoraddition),
·
: K ×V →V
(Skalarmultiplikation),
welche die folgenden Eigenschaften erfüllen:
(V1) Assoziativität: (u+v)+w = u+(v+w), ∀ u, v, w ∈ V ,
(V2) Existenz des neutralen Elements der Vektoraddition (Nullvektor),
0 ∈ V : v+0 = 0+v = v, ∀ v ∈ V ,
(V3) Für jedes Element v ∈ V existiert das inverse Element der Vektoraddition,
−v ∈ V , mit v+(−v) = (−v)+v = 0,
(V4) Kommutativität: v+w = w+v, ∀ v, w ∈ V ,
(S1) Kompatibilität der Skalarmultiplikation und der Multiplikation (gemischtes Assoziativgesetz): α · (β · v) = (α · β) · v, ∀ α, β ∈ K, ∀ v ∈ V ,
(S2) Das neutrale Element der Multiplikation (Einselement) 1 ∈ K ist auch
das neutrale Element der Skalarmultiplikation: 1 · v = v, ∀ v ∈ V ,
(S3) Distributivität der Skalarmultiplikation bzgl. der Vektoraddition:
α · (v+w) = (α · v)+(α · w), ∀ α ∈ K, ∀ v, w ∈ V ,
(S4) Distributivität der Skalarmultiplikation bzgl. der Addition:
(α + β) · v = (α · v)+(β · v), ∀ α, β ∈ K, ∀ v ∈ V .
Dann heisst das Tripel (V, +, · ) ein Vektorraum über K oder ein K-Vektorraum.
Bemerkung: Wie in Kap. 1.5 schreiben wir nur V anstatt (V, +, · ), wenn es
klar ist, welche Vektoraddition + und welche Skalarmultiplikation · verwendet
werden.
3
VEKTORRÄUME UND LINEARE ABBILDUNGEN
53
Beispiele:
1. Koordinatenräume V = K n für ein n ∈ N (die Menge aller geordneten
n-Tupel mit Einträgen in K), mit der Vektoraddition (15) und der Skalarmultiplikation (16). So sind z. B. der R2 bzw. der R3 Modelle für die euklidische Ebene bzw. den euklidischen Raum (nach Euklid, 3. Jh. v. Chr.).
Ihre Elemente (Vektoren) werden sowohl als Punkte als auch als Pfeile in
der Ebene bzw. im Raum aufgefasst.
2. Die Menge V = K m×n der (m × n)-Matrizen über K mit der Matrizenaddition (22) und der Skalarmultiplikation für Matrizen (23).
3. Funktionenräume, z. B. die Menge V = {f : K → K | f ist eine Funktion}
(vgl. Def. 5) mit der punktweisen Addition und Skalarmultiplikation
(f +g)(x) := f (x) + g(x),
(α · f )(x) := α · f (x),
x ∈ K,
für α ∈ K und f, g ∈ V . Das neutrale Element der Vektoraddition ist hier
die Nullfunktion f (x) = 0, ∀ x ∈ K.
Bemerkung: Diese Beispiele zeigen, dass ein “Vektor” nicht immer ein geordnetes
n-Tupel (wie in einem Koordinatenraum K n ) sein muss! Jedes Element eines beliebigen Vektorraumes ist ein “Vektor”, und das können eben auch z. B. Matrizen
oder Funktionen sein. Wir werden uns hier jedoch vor allem mit den “klassischen
Vektoren”, also mit den Elementen der Koordinatenräume Rn , beschäftigen.
Definition 15 (Linearkombination) Sei (V, +, · ) ein Vektorraum über einem
Körper (K, +, · ), und sei n ∈ N. Eine Linearkombination der Vektoren
v 1 , v 2 , . . . , v n ∈ V ist eine endliche Summe
(λ1 · v 1 )+(λ2 · v 2 )+ · · · +(λn · v n ) =
n
X
λj · v j ∈ V,
j=1
mit beliebigen Koeffizienten λ1 , λ2 , . . . , λn ∈ K.
Bemerkung: Mit der Konvention “Punkt vor Strich” lassen wir die Klammern
künftig weg.
Für einen Körper (K, +, · ) und ein m ∈ N betrachten wir den Koordinatenraum (K m , +, · ) mit der eintragsweisen Addition + (15) und Skalarmultiplikation · (16). Es seien n ∈ N Vektoren v 1 , v 2 , . . . , v n ∈ K m gegeben. Wir
definieren die Matrix


v11 v12 · · · v1n


 v21 v22 · · · v2n 
m×n
V := v 1 v 2 · · · v n =  .
, (40)
..
..  ∈ K
..
 ..

.
.
.
vm1
vm2
···
vmn
3
VEKTORRÄUME UND LINEARE ABBILDUNGEN
deren j-te Spalte gegeben ist durch

 
(v j )1
 (v j )2  

 
vj = 
=
..

 
.
den Vektor

v1j
v2j 

m
..  ∈ K ,

.
54
j = 1, 2, . . . , n.
vmj
(v j )m
Für beliebige Skalare λ1 , λ2 , . . . , λn ∈ K

λ1
 λ2

λ :=  .
 ..
betrachten wir ausserdem den Vektor



 ∈ K n.

(41)
λn
Die Einträge des Matrix-Vektor-Produkts V · λ ∈ K m sind gemäss Def. 7 gegeben durch
(V · λ)i
=
n
X
vij · λj =
j=1
n
X
(M4)
(v j )i · λj =
n
X
λj · (v j )i
j=1
j=1
= λ1 · (v 1 )i + λ2 · (v 2 )i + · · · + λn · (v n )i ,
für i = 1, 2, . . . , m. Damit gilt



(V · λ)1
 (V · λ)  (42) 
2 


V ·λ = 
 = 
..



.
(V · λ)m
 

λ1 · (v 1 )1
 

(15)  λ1 · (v 1 )2 

= 
+
..



.
(16)
=
λ1 · (v 1 )m

(v 1 )1
 (v 1 )
2

λ1 · 
..

.

λ1 · (v 1 )1 + λ2 · (v 2 )1 + · · · + λn · (v n )1
λ1 · (v 1 )2 + λ2 · (v 2 )2 + · · · + λn · (v n )2
..
.




λ1 · (v 1 )m + λ2 · (v 2 )m + · · · + λn · (v n )m



λn · (v n )1
λ2 · (v 2 )1
 λn · (v n ) 
λ2 · (v 2 )2 
2 


+
·
·
·
+



..
..



.
.
λ2 · (v 2 )m

(v 2 )1

 (v 2 )
2


 +λ2 · 
..


.

(42)
λn · (v n )m

(v n )1

 (v n )
2


 + · · · +λn · 
..


.





(v 1 )m
=
(v 2 )m
(v n )m
n
X
λ1 · v 1 +λ2 · v 2 + · · · +λn · v n =
λj · v j ∈ K m .

(43)
j=1
Am Ende steht gemäss Def. 15 eine Linearkombination der Vektoren
v 1 , v 2 , . . . , v n ∈ K m . Wir haben also gezeigt: Jede Linearkombination von
Vektoren v 1 , v 2 , . . . , v n ∈ K m lässt sich schreiben als Matrix-Vektor-Produkt
V · λ ∈ K m , wobei die Spalten der Matrix V ∈ K m×n die gegebenen Vektoren
sind und der Vektor λ ∈ K n die Koeffizienten λ1 , λ2 , . . . , λn ∈ K enthält. Umgekehrt ist auch jedes Matrix-Vektor-Produkt V · λ ∈ K m eine Linearkombination
3
VEKTORRÄUME UND LINEARE ABBILDUNGEN
55
der Spalten der Matrix V ∈ K m×n , wobei die Koeffizienten der Linearkombination gerade die Einträge des Vektors λ ∈ K n sind.
Bemerkung: Wir werden die Matrix V ∈ K m×n bzw. den Vektor λ ∈ K n in
diesem Kapitel noch oft verwenden. Sie bezeichnen im Folgenden immer die Matrix aus (40), in der die Vektoren v 1 , v 2 , . . . , v n zusammengefasst sind, bzw. den
Vektor aus (41), in dem die Koeffizienten λ1 , λ2 , . . . , λn zusammengefasst sind.
Beispiel: (m = 3, n = 2) Wir betrachten die beiden Vektoren

−1

v 1 :=  √12  ,
2


0
1√  ∈ R3 .
v 2 := 
−2 2
(44)
Der Vektor

w

0
1√ 
:= 2 · v 1 +1 · v 2 = 2 ·  √21  +1 · 
−2 2
2


 
 
 
−2
0
−2 + 0
−2
1 +
1√  =  √ 1 + 1 √  =  2  ∈ R3
=  √
0
2 2
−2 2
2 2 + (−2 2)
−1


ist eine Linearkombination der Vektoren v 1 , v 2 mit Koeffizienten λ1 = 2, λ2 = 1.
Mit der Matrix V ∈ R3×2 und dem Vektor λ ∈ R2 erhalten wir den Vektor w
aus einer Matrix-Vektor-Multiplikation:




 
−1
0
−1 · 2 + 0 · 1
−2
2
 =  2  = w.
1√  ·
·1
V · λ =  √12
=  √ 21 · 2 + 1 √
1
0
2 −2 2
2 · 2 + (−2 2) · 1
Wir fragen uns jetzt, ob sich ein beliebig vorgegebener Vektor w ∈ K m
darstellen lässt als eine Linearkombination von n ∈ N gegebenen Vektoren
v 1 , v 2 , . . . , v n ∈ K m . Dies ist gemäss Def. 15 genau dann der Fall, wenn
∃ λ1 , λ2 , . . . , λn ∈ K :
n
X
(43)
λj · v j = w ⇔ V · λ = w.
j=1
Der Vektor w ∈ K m lässt sich also genau dann als Linearkombination der
Spalten der Matrix V ∈ K m×n darstellen, wenn das lineare Gleichungssystem
V · λ = w mit m Gleichungen und n Unbekannten (Kap. 2) mindestens eine Lösung λ ∈ K n hat. Gemäss Satz 2 ist dies genau dann der Fall, wenn rang(V ) =
rang(V | w), mit der erweiterten Koeffizientenmatrix (V | w) ∈ K m×(n+1) . Im
Kap. 2.6 haben wir gesehen, dass wir diese erweiterte Koeffizientenmatrix mit
dem Gauss-Jordan-Algorithmus auf ihre reduzierte Zeilenstufenform bringen
und daraus die Lösungsmenge des linearen Gleichungssystems einfach bestimmen können.
3
VEKTORRÄUME UND LINEARE ABBILDUNGEN
56
Beispiel: Wir betrachten dieselben Vektoren v 1 , v 2 ∈ R3 (44) wie im letzten
Beispiel, sowie die beiden Vektoren




−3
2
0  ∈ R3 .
(45)
w1 =  √1  , w2 =  √
2
6 2
Wir wollen wissen, ob sich w1 bzw. w2 als Linearkombination von v 1 , v 2 darstellen lassen. Dazu müssen wir die linearen Gleichungssysteme
V · λ1 = w 1
bzw. V · λ2 = w2
(46)
lösen. Im Kap. 2.6 haben wir gesehen, dass wir an Stelle von zwei linearen
Gleichungssystemen mit derselben Koeffizientenmatrix und unterschiedlichen
rechten Seiten (46) auch direkt die Matrizengleichung V · Λ = W lösen können,
wobei
Λ := λ1 λ2 ∈ R2×2 , W := w1 w2 ∈ R3×2 .
Wir wenden also den Gauss-Jordan-Algorithmus auf die erweiterte Koeffizientenmatrix (V | W ) ∈ R3×(2+2) an:
 I ← (−1)1I 


II ← II −
I
2
−3
1
0
−2
3
−1
0
2
√
III ← III − 2 I
1
3
 0

1√
0 
2
−√2 
1√
−→
√2
√1
√
√
2 −2 2
2 6 2
0 −2 2 3 2 3 2

 III ← 7√1 2 III 

3
1 0 −2
1 0 0 3
√
I ← I +2 III
III ← III +2 2 II
II ← II −2 III
 0 1
 0 1 0 −3  .
2
− 23 
−→
−→
2
√
0 0 1 0
0 0 7 2 0
Es gilt rang(V ) = rang(V | w2 ) = n = 2 < 3 = rang(V | w1 ) = rang(V | W ),
und daher haben sowohl die Matrizengleichung V · Λ = W als auch das lineare
Gleichungssystem V · λ1 = w1 keine Lösung:
L1 := λ1 ∈ R2 | V · λ1 = w1 = ∅.
Das lineare Gleichungssystem V · λ2 = w2 hat hingegen genau eine Lösung:
3
2
L2 := λ2 ∈ R | V · λ2 = w2 =
⊆ R2 ,
− 32
und daher hat w2 die folgende (eindeutige) Darstellung als Linearkombination
von v 1 , v 2 :
3
(43)
· v2 .
w 2 = V · λ2 = 3 · v 1 + −
2
Wir prüfen dies nach: 3 · v 1 + − 32 · v 2 =



 

−1
0
3 · (−1) + −32 · 0
3
3
1

1√  = 
3 ·  √12  + −
·
√3 · 2 + 3− 2 · 1 √
2
−2 2
2
3 · 2 + − 2 · (−2 2)


−3
0  = w2 X
=  √
6 2
3
VEKTORRÄUME UND LINEARE ABBILDUNGEN
57
Definition 16 (lineare Hülle, Spann) Sei (V, +, · ) ein Vektorraum über einem
Körper (K, +, · ). Die lineare Hülle oder der Spann einer Teilmenge M ⊆ V ist
die Menge


n

X
span (M ) :=
λj · v j λ1 , λ2 , . . . , λn ∈ K, v 1 , v 2 , . . . , v n ∈ M, n ∈ N0 ⊆ V.


j=1
Bemerkungen:
• Die Menge span (M ) ⊆ V ist die Menge aller Vektoren in V , die sich als
Linearkombination von Vektoren aus M ⊆ V darstellen lassen. Man sagt
auch, die Menge span(M ) werde durch die Vektoren in M aufgespannt.
• Obwohl die Menge M nicht notwendigerweise endlich ist (!), sind in der
linearen Hülle span(M ) nur Linearkombinationen von endlich vielen Vektoren aus M erlaubt.
• Es gilt span (∅) = {0} ⊆ V (d. h. span(∅) enthält nur den Nullvektor
0 ∈ V (V2)), weil die “leere Summe” nach Definition Null ergibt.
• Damit gilt 0 ∈ span(M ) für jede Teilmenge M ⊆ V eines Vektorraums V ,
also span(M ) 6= ∅. Es gilt auch M ⊆ span(M ) ⊆ V .
Für einen Koordinatenraum V = K m , m ∈ N, lässt sich die lineare Hülle einer
endlichen Teilmenge M := {v 1 , v 2 , . . . , v n } ⊆ K m , n ∈ N, wie folgt bestimmen:
Wir betrachten die Matrix (V | w) ∈ K m×(n+1) für einen beliebigen Vektor


w1
 w2 


w =  .  ∈ Km
 .. 
wm
und fassen sie auf als die erweiterte Koeffizientenmatrix des linearen Gleichungssystems V · λ = w. Es gilt w ∈ span(M ) genau dann, wenn dieses lineare Gleichungssystem mindestens eine Lösung hat, d. h. genau dann, wenn rang(V ) =
rang(V | w) (Satz 2). Wir können leicht entscheiden, ob dies erfüllt ist, nachdem
wir die Matrix (V | w) mit dem Gauss-Jordan-Algorithmus auf ihre reduzierte
Zeilenstufenform gebracht haben. Wir erhalten also
span({v 1 , v 2 , . . . , v n }) = {w ∈ K m | rang(V ) = rang(V | w)} ⊆ K m .
(47)
Beispiel: (K = R, m = 3, n = 2) Wir betrachten die Menge M := {v 1 , v 2 } ⊆ R3
mit den Vektoren v 1 , v 2 aus (44). Wir erhalten die erweiterte Koeffizientenmatrix


−1
0
w1
1√
w2  ∈ R3×(2+1) ,
(V | w) =  √21
2 −2 2 w3
3
VEKTORRÄUME UND LINEARE ABBILDUNGEN
58
für einen beliebigen Vektor w = (w1 , w2 , w3 )> ∈ R3 . Auf diese Matrix wenden
wir jetzt den Gauss-Jordan-Algorithmus an, um sie auf ihre reduzierte Zeilenstufenform zu bringen:
 I ← (−1)1I 

II ← II −
I
w1
1
0
−w1
2
√
2
I
III
←
III
−
1
 0
 1

w2 
1√
−→
√2
√2 w1 + w2
2
w3
0 −2 2
2w1 + w3


−w1
1 0
√
III ← III +2 2 II
1
.
 0 1
w
−→
√ 2 1 + w2
0 0 2 2(w1 + w2 ) + w3

−1
0
1√
−2 2
√
Es gilt rang(V ) = rang(V | w) genau dann, wenn 2 2(w1 + w2 ) + w3 = 0. Wir
erhalten also die lineare Hülle



 w1

√
span({v 1 , v 2 }) =  w2  ∈ R3 2 2(w1 + w2 ) + w3 = 0 ⊆ R3 .


w3
Bemerkung: Diese Menge beschreibt eine Ebene im dreidimensionalen euklidischen Raum, wie wir später in der analytischen Geometrie sehen werden.
Für w ∈ span({v 1 , v 2 }) ist die erweiterte Koeffizientenmatrix (V | w) in
reduzierter Zeilenstufenform:


1 0
−w1
−w1
 0 1 1 w1 + w2  ⇒ L := λ ∈ R2 | V · λ = w =
,
1
2
2 w1 + w2
0
0 0
und wir erhalten die folgende Darstellung von w als Linearkombination von
v1 , v2 :
1
(43)
w = V · λ = (−w1 ) · v 1 +
w1 + w2 · v 2 .
2
Für die beiden Vektoren w1 , w2 aus dem vorherigen Beispiel (45) erhalten wir
√
√
√
√
2 2 ((w1 )1 + (w1 )2 ) + (w1 )3 = 2 2(2 + 1) + 2 = 7 2 6= 0,
√
√
√
2 2 ((w2 )1 + (w2 )2 ) + (w2 )3 = 2 2(−3 + 0) + 6 2 = 0,
also gilt w1 6∈ span({v 1 , v 2 }), w2 ∈ span({v 1 , v 2 }). Die (eindeutige) Darstellung
von w2 als Linearkombination von v 1 , v 2 ist gegeben durch
1
3
(w2 )1 + (w2 )2 · v 2 = 3 ·v 1 + −
· v2 ,
w2 = (−(w2 )1 ) · v 1 +
2
2
wie wir es im vorherigen Beispiel berechnet haben.
Bemerkung: Für die Matrix V ∈ R3×2 in diesem Beispiel gilt rang(V ) = 2 =
n, d. h. wenn eine Lösung des linearen Gleichungssystems V · λ = w existiert (rang(V ) = rang(V | w)), so ist sie auch die einzige Lösung (weil dann
3
VEKTORRÄUME UND LINEARE ABBILDUNGEN
59
rang(V | w) = 2 = n gilt). Daher ist die Darstellung des Vektors w als Linearkombination der Vektoren v 1 , v 2 (44) eindeutig. Dies ist nicht immer der Fall, da
ein Gleichungssystem V · λ = w für eine allgemeine Matrix V auch unendlich
viele Lösungen haben kann! In diesem Fall gibt es unendlich viele Darstellungen
von w als Linearkombination der Spalten von V (Serie 8, Aufgabe 4).
Definition 17 (lineare Unabhängigkeit) Sei (V, +, · ) ein Vektorraum über einem Körper (K, +, · ). Eine Teilmenge M ⊆ V heisst linear unabhängig, falls
n
X
λj · v j = 0
⇒
λ1 = λ2 = · · · = λn = 0,
(48)
j=1
für alle n ∈ N0 und für jede beliebige Auswahl von Vektoren v 1 , v 2 , . . . , v n ∈ M .
Bemerkungen:
• Eine Teilmenge M ⊆ V , die nicht linear unabhängig ist, heisst linear
abhängig.
• Die Vektoren v 1 , v 2 , . . . , v n ∈ V , n ∈ N, heissen linear (un)abhängig, falls
die Menge M := {v 1 , v 2 , . . . , v n } ⊆ V linear (un)abhängig ist.
Für Koordinatenräume V = K m , m ∈ N, ist die Eigenschaft (48) äquivalent
dazu, dass der Nullvektor 0 ∈ V die einzige Lösung des linearen Gleichungssystems V · λ = 0 ist. Weil λ = 0 in jedem Fall eine Lösung ist, ist dies auch
äquivalent dazu, dass das lineare Gleichungssystem V · λ = 0 genau eine Lösung
hat (eben die Lösung λ = 0). Gemäss Satz 2 ist dies genau dann der Fall, wenn
rang(V ) = rang(V | 0) = n. Damit haben wir bewiesen:
Satz 5 Im Koordinatenraum K m , m ∈ N, sind n ∈ N Vektoren v 1 , v 2 , . . . , v n ∈
K m genau dann linear unabhängig, wenn rang(V ) = n.
Satz 6 Eine linear unabhängige Teilmenge M ⊆ K m des Koordinatenraumes
K m , m ∈ N, kann höchstens m Vektoren enthalten.
Beweis: Die Menge M := {v 1 , v 2 , . . . , v n } ⊆ K m mit n ∈ N Vektoren sei linear
unabhängig. Nach Satz 5 gilt dann rang(V ) = n. Weil für jede (m × n)-Matrix
rang(V ) ≤ min{m, n} gilt, muss also n ≤ m erfüllt sein.
Beispiel: (K = R, m = 3, n = 2) Die Vektoren v 1 , v 2 ∈ R3 (44) sind linear
unabhängig, denn es gilt rang(V ) = 2 = n. Also ist auch die Menge M :=
{v 1 , v 2 } ⊆ R3 linear unabhängig.
Satz 7 Sei (V, +, · ) ein Vektorraum über einem Körper (K, +, · ), und sei M ⊆
V eine linear unabhängige Teilmenge. Dann ist die Darstellung jedes Vektors in
span(M ) als Linearkombination von Vektoren aus M eindeutig.
Für Koordinatenräume V = K m , m ∈ N, sowie für endliche Teilmengen M :=
{v 1 , v 2 , . . . , v n } ⊆ K m , n ∈ N, ist dieser Satz leicht zu beweisen (im Allgemeinen jedoch nicht!): Sei w ∈ span(M ), dann gilt rang(V ) = rang(V | w) (47).
3
VEKTORRÄUME UND LINEARE ABBILDUNGEN
60
Nach Satz 5 gilt rang(V ) = n, also rang(V ) = rang(V | w) = n, und gemäss
Satz 2 hat daher das lineare Gleichungssystem V · λ = w genau eine Lösung λ ∈
K n . Diese enthält die Koeffizienten der eindeutigen Darstellung des Vektors w
als Linearkombination der Vektoren aus M .
()
Definition 18 (Erzeugendensystem) Sei (V, +, · ) ein Vektorraum über einem
Körper (K, +, · ). Die Teilmenge M ⊆ V heisst ein Erzeugendensystem von V ,
falls span(M ) = V . Falls V ein endliches Erzeugendensystem besitzt, so heisst
V endlich erzeugt.
Bemerkung: Für ein Erzeugendensystem eines Vektorraums verwendet man oft
auch die Bezeichnung E anstatt M .
Wir betrachten wieder den Spezialfall eines Koordinatenraums, V = K m ,
m ∈ N, sowie eine endliche Teilmenge M = {v 1 , v 2 , . . . , v n } ⊆ K m , n ∈ N. Sei
w ∈ K m . Wir hatten bereits hergeleitet (47), dass
w ∈ span(M )
⇔
rang(V ) = rang(V | w).
Die erweiterte Koeffizientenmatrix (V | w) ∈ K m×(n+1) kann mit dem Gaussschen Eliminationsverfahren auf die folgende Zeilenstufenform gebracht werden:


0 · · · | ṽ1j1 · · · · · · · · · · · · · · · ṽ1n
w̃1
 0 · · · · · · · · · | ṽ2j2 · · · · · · · · · ṽ2n
w̃2 


 .. . .
.
.. 
.
.
.
.
.
.
.
.
.
.
.
.
.
 .
.
.
.
.
.
.
.
.
. 


 0 · · · · · · · · · · · · · · · | ṽrjr · · · ṽrn
w̃r 


 0 ··· ··· ··· ··· ··· ··· ···
0 w̃r+1 


 . .
..
.. 
.. ... ... ... ... ... ...
 ..
.
. 
0 ··· ··· ··· ··· ··· ··· ···
0
w̃m
M ist genau dann ein Erzeugendensystem von K m , wenn rang(V ) = rang(V | w)
für alle w ∈ K m , und dies ist offensichtlich genau dann der Fall, wenn r =
rang(V ) = m. Wir haben also bewiesen:
Satz 8 Die Menge M := {v 1 , v 2 , . . . , v n } ⊆ K m , m, n ∈ N, ist genau dann ein
Erzeugendensystem von K m , wenn rang(V ) = m.
Satz 9 Ein Erzeugendensystem M ⊆ K m des Koordinatenraumes K m , m ∈ N,
muss mindestens m Vektoren enthalten.
Beweis: Die Menge M := {v 1 , v 2 , . . . , v n } ⊆ K m mit n ∈ N Vektoren sei ein
Erzeugendensystem von K m . Nach Satz 8 gilt dann rang(V ) = m. Weil für jede
(m×n)-Matrix rang(V ) ≤ min{m, n} gilt, muss also n ≥ m erfüllt sein.
Beispiel: (K = R, m = 2, n = 3) Die Menge
M :=
3
5
2
4
,
,
⊆ R2
−4
5
3
VEKTORRÄUME UND LINEARE ABBILDUNGEN
61
ist ein Erzeugendensystem von R2 . Um dies zu zeigen, bringen wir die Matrix
V ∈ R2×3 auf Zeilenstufenform:
II ← II − 35 I
3
2
4
3 2 4
−→
5 −4 5
− 53
0 − 22
3
Es gilt rang(V ) = 2 = m, also ist die Menge M nach Satz 8 ein Erzeugendensystem von R2 . Nach Satz 6 kann M jedoch nicht linear unabhängig sein.
Wir fassen zusammen: Falls eine Teilmenge M ⊆ V eines Vektorraums V
• linear unabhängig ist (Def. 17), so hat jeder Vektor in span(M ) eine eindeutige Darstellung als Linearkombination von Vektoren aus M (Satz 7).
Die Vektoren in V \ span(M ) lassen sich jedoch nicht als Linearkombination von Vektoren aus M darstellen.
• ein Erzeugendensystem von V ist (Def. 18), so lässt sich jeder Vektor in
V = span(M ) als Linearkombination der Vektoren aus M darstellen. Diese
Darstellung ist jedoch im Allgemeinen nicht eindeutig.
Wir kombinieren jetzt diese beiden Eigenschaften:
Definition 19 (Basis) Sei (V, +, · ) ein Vektorraum über einem Körper (K, +, · ).
Die Menge M ⊆ V heisst eine Basis von V , falls M ein linear unabhängiges
Erzeugendensystem von V ist.
Bemerkung: Für eine Basis eines Vektorraums verwendet man oft auch die Bezeichnung B anstatt M .
Satz 10 Sei (V, +, · ) ein Vektorraum über einem Körper (K, +, · ), und sei
B ⊆ V eine Basis von V . Dann lässt sich jeder Vektor in V eindeutig als
Linearkombination von Vektoren aus B darstellen.
Beweis: Satz 7 und Def. 18.
Satz 11 Die Menge M := {v 1 , v 2 , . . . , v m } ⊆ K m , m ∈ N, ist genau dann eine
Basis von K m , wenn rang(V ) = m.
Beweis: Satz 5 und Satz 8.
Bemerkungen:
• Eine Basis des Koordinatenraumes K m , m ∈ N, enthält genau m Vektoren.
Insbesondere ist K m ein endlich erzeugter Vektorraum.
• Eine Basis B ⊆ K m des Koordinatenraumes K m , m ∈ N, ist gleichzeitig
eine maximale linear unabhängige Teilmenge und ein minimales Erzeugendensystem von K m . Nach Satz 6 enthält nämlich eine linear unabhängige
Teilmenge höchstens m Elemente, und nach Satz 9 enthält ein Erzeugendensystem mindestens m Elemente.
3
VEKTORRÄUME UND LINEARE ABBILDUNGEN
62
• Mit Satz 4 ist die Menge M = {v 1 , v 2 , . . . , v m } ⊆ K m genau dann eine
Basis von K m , wenn V ∈ K m×m eine invertierbare Matrix ist. Auch die
Spalten der inversen Matrix V −1 (Def. 13) bilden dann eine Basis von
K m.
Beispiel: (K = R, m = 3) Die folgenden Mengen sind Basen des R3 :

    
0
1 
 √π
 2 , 3 , 0  ,
B1 :=


2
1
2
  
 

−1
3
 2

 3  ,  2  ,  −4  .
B2 :=


3
−3
−2
Gemäss Satz 11 müssen wir lediglich zeigen, dass die Matrizen V 1 und V 2 Rang
3 haben. Dazu bringen wir diese Matrizen mit dem Gaussschen Eliminationsverfahren auf Zeilenstufenform:


 II ← II − √2 I 

π 0
1√
π
π
0
1
π
0
1
√
√
III ← III − 2 I
III ← III − 23 II 
 2 3 0 
− π2 √
−→ π  0 3 − π2 
−→
 0 3
2 2 1
0 2 1 − π2
0 0 1 − π2 + 23π2
 II ← II − 3 I 



2
2 −1
3
2 −1
3
2 −1 3
3
III ← III − 3 I
III
←
III
+
II
7
7
17 
 3 2 −4 
 0 7 − 17
−
−→ 2  0
−→
2
2
2
2
3 −3 −2
0 − 23 − 13
0 0 − 71
2
7
Beide Matrizen haben also Rang 3.
Der folgende Satz ist für endlich erzeugte Vektorräume einfach zu beweisen,
aber im Allgemeinen schwierig!
Satz 12 Jeder Vektorraum besitzt eine Basis.
Für Koordinatenräume K m kann man z. B. sofort die Standardbasis angeben:
B := {e1 , e2 , . . . , em } mit (ej )i = δij , i, j = 1, 2, . . . , m, oder
 
 


1
0
0
 0 
 1 
 0 
 
 


 0 
 0 


e1 =   , e2 =   , · · · em =  ...  ∈ K m .
 .. 
 .. 


 . 
 . 
 0 
0
0
1
Der j-te Standardbasisvektor ej ist also einfach die j-te Spalte der Einheitsmatrix I ∈ K m×m (Kap. 1.6), j = 1, 2, . . . , m. Die Einheitsmatrix ist natürlich
invertierbar mit inverser Matrix I −1 = I (denn I · I = I), hat also nach Satz 4
den Rang m. Nach Satz 11 bilden ihre Spalten also eine Basis des K m .
Definition 20 (Dimension) Sei (V, +, · ) ein Vektorraum über einem Körper
(K, +, · ). Die Dimension von V über K, dimK (V ) ∈ N0 ∪ {∞}, ist definiert als
die Mächtigkeit einer Basis des Vektorraums V . Falls dimK (V ) < ∞, so heisst
V endlich-dimensional, ansonsten unendlich-dimensional.





3
VEKTORRÄUME UND LINEARE ABBILDUNGEN
63
Bemerkungen:
• Der Begriff der Mächtigkeit einer Menge stammt von Georg Cantor (1845–
1918). Die Mächtigkeit einer endlichen Menge ist einfach gleich der Anzahl
ihrer Elemente. Für unendliche Mengen ist der Begriff der Mächtigkeit
komplizierter, und wir werden in dieser Vorlesung nicht weiter darauf eingehen.
• Die Def. 20 setzt voraus, dass zwei beliebige Basen eines gegebenen Vektorraums dieselbe Mächtigkeit besitzen (ansonsten wäre die Dimension
eines Vektorraums nicht wohldefiniert). Für Koordinatenräume folgt dies
aus Satz 11 – es gilt aber auch allgemein (ohne Beweis).
• Jeder endlich erzeugte Vektorraum ist endlich-dimensional, denn ein solcher Vektorraum besitzt ein endliches Erzeugendensystem (Def. 18). Da
jede Basis auch ein minimales Erzeugendensystem ist, kann eine Basis eines endlich erzeugten Vektorraums höchstens endlich viele Vektoren enthalten. Es gilt auch die Umkehrung: jeder endlich-dimensionale Vektorraum ist endlich erzeugt, denn jede Basis eines Vektorraums ist auch ein
Erzeugendensystem (Def. 19).
• Der einzige null-dimensionale Vektorraum ist der sog. Nullvektorraum, der
nur den Nullvektor enthält: V = K 0 := {0} mit der Addition 0+0 = 0 und
der Skalarmultiplikation α · 0 = 0, ∀ α ∈ K, wobei (K, +, · ) ein beliebiger
Körper ist. Die einzige Basis des Nullvektorraums ist die leere Menge, die
keine Elemente enthält (daher dimK (K 0 ) = 0).
• Funktionenräume sind oft unendlich-dimensional, d. h. sie besitzen keine
Basis, die aus nur endlich vielen Vektoren (Funktionen) besteht. Zum Beispiel ist für D ⊆ R die Menge C 0 (D) aller stetigen Funktionen f : D → R
(s. MAE1) mit der punktweisen Addition und Skalarmultiplikation ein
unendlich-dimensionaler Vektorraum. Wir werden Beispiele solcher Vektorräume in MLAE2 behandeln.
Satz 13 Für einen Koordinatenraum (K n , +, · ), n ∈ N0 , gilt dimK (K n ) = n.
Beweis: Satz 11 und die obige Bemerkung für den Fall n = 0.
Definition 21 (Koordinaten) Sei (V, +, · ) ein Vektorraum über einem Körper
(K, +, · ), und sei B ⊆ V eine Basis von V . Der Vektor v ∈ V habe die folgende
eindeutige Darstellung als Linearkombination von Vektoren aus B:
v=
n
X
λ j · bj ,
λ1 , λ2 , . . . , λn ∈ K, b1 , b2 , . . . , bn ∈ B, n ∈ N0 .
j=1
Die Koeffizienten λ1 , λ2 , . . . , λn ∈ K dieser Linearkombination heissen die Koordinaten des Vektors v bezüglich der Basis B.
3
VEKTORRÄUME UND LINEARE ABBILDUNGEN
64
Für endlich-dimensionale Vektorräume definieren wir ausserdem den Koordinatenvektor:
Definition 22 (Koordinatenvektor) Sei (V, +, · ) ein Vektorraum über einem
Körper (K, +, · ) mit dimK (V ) = n ∈ N, und sei B = {b1 , b2 , . . . , bn } ⊆ V eine
Basis von V . Der Vektor v ∈ V habe die folgende eindeutige Darstellung als
Linearkombination von Vektoren aus B:
v=
n
X
λj · bj ,
λ1 , λ2 , . . . , λn ∈ K.
j=1
Der Koordinatenvektor von v bezüglich der Basis B ist definiert als


λ1
 λ2 


v B :=  .  ∈ K n .
 .. 
λn
Bemerkung: Die Elemente jedes beliebigen n-dimensionalen Vektorraumes V
lassen sich also mit Hilfe ihrer Koordinatenvektoren im Koordinatenraum K n
darstellen. Die Einträge der Koordinatenvektoren sind jedoch abhängig von der
Wahl der Basis! Wir verwenden den Index B für Koordinatenvektoren, um die
gewählte Basis anzuzeigen. Wenn ein Koordinatenvektor ohne Index B geschrieben wird, so gehen wir davon aus, dass es sich um einen Koordinatenvektor
bzgl. der Standardbasis {e1 , e2 , . . . , en } ⊆ V (die Spalten der Einheitsmatrix)
handelt.
Beispiel: (V = R3 ) Wir wählen die Basis B = {b1 , b2 , b3 } aus dem vorherigen
Beispiel, wobei die Koordinatenvektoren von b1 , b2 , b3 bzgl. der Standardbasis
gegeben sind durch


√
√π
b1 :=  2  ⇔ b1 = πe1 + 2e2 + 2e3 ,
(49)
2


0
b2 :=  3  ⇔ b2 = 0e1 + 3e2 + 2e3 ,
(50)
2


1
b3 :=  0  ⇔ b3 = 1e1 + 0e2 + 1e3 .
(51)
1
Der Vektor v ∈ R3 habe den folgenden Koordinatenvektor bzgl. der Standardbasis:


2π
√
√ +3
v =  2 2 − 3  ⇔ v = (2π + 3)e1 + (2 2 − 3)e2 + 5e3 .
(52)
5
3
VEKTORRÄUME UND LINEARE ABBILDUNGEN
65
Gesucht sei der Koordinatenvektor v B von v bzgl. der Basis B. Mit diesem noch
unbekannten Koordinatenvektor hat v die Darstellung
v
=
(49)–(51)
=
(v B )1 b1 + (v B )2 b2 + (v B )3 b3
√
(v B )1 πe1 + 2e2 + 2e3 + (v B )2 (0e1 + 3e2 + 2e3 ) +
+ (v B )3 (1e1 + 0e2 + 1e3 )
=
(π (v B )1 + 0 (v B )2 + 1 (v B )3 ) e1 +
√
+
2 (v B )1 + 3 (v B )2 + 0 (v B )3 e2 +
+ (2 (v B )1 + 2 (v B )2 + 1 (v B )3 ) e3 .
Ein Koeffizientenvergleich mit (52) liefert jetzt das folgende lineare Gleichungssystem für die Einträge des Koordinatenvektors v B von v bzgl. der Basis B:
π (v B )1 + 0 (v B )2 + 1 (v B )3
√
2 (v B )1 + 3 (v B )2 + 0 (v B )3
=
=
2π + 3,
√
2 2 − 3,
2 (v B )1 + 2 (v B )2 + 1 (v B )3
=
5.
Wir lösen dieses lineare Gleichungssystem durch Anwendung des Gauss-JordanAlgorithmus (Kap. 2.6) auf die erweiterte Koeffizientenmatrix und erhalten den
folgenden Koordinatenvektor von v bzgl. der Basis B:


2
(53)
v B =  −1  ⇔ v = 2b1 + (−1)b2 + 3b3 .
3
Wir schreiben auch

 

2π
2
√ +3
 2 2 − 3  =  −1  .
3
5
B
Durch einen Vergleich von (52) und (53) erkennen wir, dass der Koordinatenvektor des Vektors v bzgl. der Basis B nur ganzzahlige Einträge enthält, während
der Koordinatenvektor des Vektors v bzgl. der Standardbasis sogar irrationale
Einträge enthält. Durch den sog. Basiswechsel haben sich also die Einträge des
Koordinatenvektors vereinfacht. Eine solche Vereinfachung des Koordinatenvektors ist ein möglicher Grund dafür, einen Basiswechsel vorzunehmen.
Im Allgemeinen benötigen wir für einen Basiswechsel in einem n-dimensionalen
Vektorraum V über einem Körper K auch nicht die Standardbasis, sondern zwei
beliebige Basen B = {b1 , b2 , . . . , bn } ⊆ V und B 0 = {b1 , b2 , . . . , bn } ⊆ V . Der
Vektor v ∈ V habe bzgl. dieser Basen die Darstellungen
v=
n
X
j=1
(v B )j bj =
n
X
(v B 0 )i b0i ,
(54)
i=1
wobei der Koordinatenvektor v B 0 ∈ K n von v bzgl. der Basis B 0 bekannt sei
und der Koordinatenvektor v B ∈ K n von v bzgl. der Basis B gesucht. Um v B zu
3
VEKTORRÄUME UND LINEARE ABBILDUNGEN
66
berechnen, müssen wir zuerst die Basisvektoren in B mit Hilfe der Basisvektoren
in B 0 darstellen:
n
X
bj =
aij b0i , j = 1, 2, . . . , n,
i=1
wobei die Koeffizienten aij ∈ K, i, j = 1, 2, . . . , n, nach Satz 10 eindeutig bestimmt sind. Damit gilt nun


n
n
n
n
n
X
X
X
X
X

v=
(v B )j bj =
(v B )j
aij b0i =
aij (v B )j  b0i .
j=1
j=1
i=1
i=1
j=1
Ein Koeffizientenvergleich mit (54) liefert jetzt das folgende lineare Gleichungssystem für die unbekannten Einträge des Koordinatenvektors v B :
n
X
aij (v B )j = (v B 0 )i ,
i = 1, 2, . . . , n,
j=1
das heisst
i=1:
i=2:
a11 (v B )1 + a12 (v B )2 + · · · + a1n (v B )n
a21 (v B )1 + a22 (v B )2 + · · · + a2n (v B )n
i = n : an1 (v B )1 + an2 (v B )2 + · · · + ann (v B )n
oder

Av B = v B 0 ,


A=

a11
a21
..
.
a12
a22
..
.
···
···
..
.
a1n
a2n
..
.
an1
an2
···
ann
= (v B 0 )1 ,
= (v B 0 )2 ,
..
.
=
(v B 0 )n ,



 ∈ K n×n .

Die Lösung dieses linearen Gleichungssystems liefert schliesslich den gesuchten
Koordinatenvektor v B .
Im Spezialfall V = K n können wir die Vektoren der Basen B, B 0 in Matrizen
zusammenfassen:
B := b1 b2 · · · bn , B 0 := b01 b02 · · · b0n ∈ K n×n
Diese Matrizen sind gemäss den Sätzen 4 und 11 invertierbar. Ein Vektor v ∈ K n
hat nun die beiden Darstellungen
v = Bv B = B 0 v B 0 ,
wobei v B ∈ K n den Koordinatenvektor von v bzgl. der Basis B bezeichnet
und v B 0 ∈ K n den Koordinatenvektor von v bzgl. der Basis B 0 . Mit der zu B
inversen Matrix B −1 ∈ K n×n (Def. 13) erhalten wir
v B = Iv B = B −1 B v B = B −1 (Bv B ) = B −1 B 0 v B 0 = B −1 B 0 v B 0 .
3
VEKTORRÄUME UND LINEARE ABBILDUNGEN
67
0
−1 0
Mit der sog. Basiswechselmatrix T B
B ∈ K n×n schreiben wir auch:
B := B
0
vB = T B
B vB0 .
Bemerkung: Beachten Sie, dass die Basiswechselmatrix nur von den Basisvektoren abhängt, nicht aber vom Vektor v ∈ K n ! D. h. wenn wir diese Matrix
einmal berechnet haben, können wir danach mit ihrer Hilfe die Koordinaten
jedes beliebigen Vektors bzgl. der Basis B berechnen.
Beispiele:
1. (K = R, n = 2) Wir betrachten die Basen B, B 0 ⊆ R2 , wobei die Matrizen
der Basisvektoren (bzgl. der Standardbasis) gegeben seien durch
√ !
√
2
−√ 22
1 0
0
2
√
B=
, B =
∈ R2×2 .
2
2
0 1
2
2
Die Basiswechselmatrix ist gegeben durch
B0
TB
=B
−1
0
B =
√
2
2√
− 22
√
2
√2
2
2
!
.
0
Bemerkung: Die Basiswechselmatrix T B
B ist die Lösung der Matrizenglei0
chung BX = B . Die Lösung dieser Matrizengleichung ist oft weniger
aufwändig als die Berechnung der zu B inversen Matrix und anschliessende Multiplikation der inversen Matrix mit B 0 .
Damit können wir nun für jeden gegebenen Koordinatenvektor v B 0 ∈ R2
(bzgl. der Standardbasis B 0 ) den Koordinatenvektor v B ∈ R2 (bzgl. der
0
>
Basis B) berechnen: v B = T B
B v B 0 . So erhalten wir z. B. für v B 0 = (1, 3) :
√
√ !
√ 2
2
1
2√ 2
2.83
B0
2√
√2
=
'
.
vB = T B vB0 =
2
3
1.41
2
− 2
2
2
2. (Funktionenraum) Wir betrachten die Menge aller Polynomfunktionen
vom Grad kleiner oder gleich 2:
P2 := {p : R → R | p Polynomfunktion, deg(p) ≤ 2}.
Zusammen mit der punktweisen Addition und Skalarmultiplikation
(p+q)(x) := p(x)+q(x),
(α · p)(x) := α·p(x),
x ∈ R,
p, q ∈ P2 , α ∈ R,
ist das Tripel (P2 , +, · ) ein
dreidimensionaler reeller Vektorraum.
Wir betrachten die Basen B = 12 x2 − 23 x + 1, −x2 + 2x, 12 x2 − 12 x ⊆ P2 und
B 0 = {1, x, x2 } ⊆ P2 (Monome). Bzgl. der Basis B 0 erhalten wir die folgenden Matrizen der Basisvektoren: B 0 = I und




1
0
0
1 0 0
0
−1 0
2 − 12  ⇒ T B
B =  − 32
B =  1 1 1 .
B =B
1
1
1 2 4
−1
2
2
3
VEKTORRÄUME UND LINEARE ABBILDUNGEN
68
Betrachten wir jetzt z. B. das Polynom 4x2 + 5x − 3 ∈ P2 mit Koordinatenvektor (bzgl. B 0 ) v B 0 = (−3, 5, 4)> ∈ R3 , so erhalten wir den folgenden
Koordinatenvektor bzgl. B:


 

1
0
0
−3
−3
0
 1 1 1  5  =  6 .
vB = T B
B vB0 =
1 2 4
4
23
Wir prüfen dies nach: (−3) 12 x2 − 32 x + 1 +6 −x2 + 2x +23 21 x2 − 12 x =
3
23
9
23
− −6+
x2 +
+ 12 −
x + (−3) = 4x2 + 5x − 3 X
2
2
2
2
3.2
Lineare Abbildungen, Darstellungsmatrizen
Als letztes Thema in diesem Kapitel betrachten wir lineare Abbildungen zwischen Vektorräumen.
Definition 23 (lineare Abbildung) Seien (V, +, · ) und (W, +, · ) zwei Vektorräume über einem gemeinsamen Körper (K, +, · ). Eine Abbildung f : V → W
heisst linear (oder ein Vektorraumhomomorphismus), wenn
f (α · x+y) = α · f (x)+f (y),
∀ x, y ∈ V, ∀ α ∈ K.
(55)
Bemerkungen:
• Ein Homomorphismus ist im Allgemeinen eine Abbildung, die eine mathematische Struktur erhält bzw. mit ihr verträglich ist. Die Bilder (in W )
eines Vektorraumhomomorphismus verhalten sich hinsichtlich der Vektoraddition + und der Skalarmultiplikation · genauso, wie sich ihre Urbilder
(in V ) hinsichtlich der Vektoraddition + und der Skalarmultiplikation ·
verhalten.
• Sei f : V → W eine lineare Abbildung, und seien 0V ∈ V und 0W ∈ W
die Nullvektoren (neutrale Elemente der Vektoraddition; Def. 14, (V2))
der beiden Vektorräume. Dann gilt
f (0V )
(S2),(V2)
=
(55)
(S2)
f (1 · 0V +0V ) = 1 · f (0V )+f (0V ) = f (0V )+f (0V ),
und damit f (0V ) = 0W , weil der Nullvektor in jedem Vektorraum eindeutig bestimmt ist.
Beispiele:
1. (V = K n , W = K m ) Für m, n ∈ N sei A ∈ K m×n eine (m × n)-Matrix
über K. Dann ist die Abbildung
f : K n → K m,
v 7→ f (v) := A · v
3
VEKTORRÄUME UND LINEARE ABBILDUNGEN
69
(mit der Matrizenmultiplikation · , Def. 7) linear. Für x, y ∈ K n und für
α ∈ K gilt nämlich (f (α · x+y))i =
Def. 7
(A · (α · x+y))i =
n
X
aij · (α · x+y)j
j=1
(15),(16)
=
n
X
aij · (α · xj + yj )
(D),(M4)
=
j=1
(A4),(D)
=
α·
n
X
(α · aij · xj + aij · yj )
j=1
aij · xj +
j=1
=
n
X
n
X
aij · yj
Def. 7
= α · (A · x)i + (A · y)i
j=1
α · (f (x))i + (f (y))i ,
für i = 1, 2, . . . , m, und mit (15), (16) erhalten wir schliesslich
f (α · x+y) = α · f (x)+f (y).
2. Sei V ein n-dimensionaler Vektorraum über K, und sei W = K n , n ∈ N.
Sei B = {b1 , b2 , . . . , bn } ⊆ V eine Basis von V (Def. 19). Die Koordinatenabbildung ΦB : V → K n weist jedem Vektor v ∈ V seinen (eindeutig
bestimmten) Koordinatenvektor v B ∈ K n bzgl. der Basis B (Def. 22) zu:
v 7→ ΦB (v) := v B . Wir wollen zeigen, dass ΦB eine lineare Abbildung gemäss Def. 23 ist, und müssen dazu (55) nachweisen. Seien also α ∈ K und
x, y ∈ V . Die beiden Vektoren haben die folgende eindeutige Darstellung
als Linearkombination der Vektoren aus B:
x=
n
X
λj · bj , λ1 , λ2 , . . . , λn ∈ K,
j=1
y=
n
X
µj · bj , µ1 , µ2 , . . . , µn ∈ K.
j=1
Die Koordinatenvektoren von x und y sind damit gegeben durch




λ1
µ1
 λ2 
 µ2 




ΦB (x) = xB =  .  , ΦB (y) = y B =  .  ∈ K n .
 .. 
 .. 
λn
µn
Der Vektor α · x+y ∈ V hat ebenfalls eine eindeutige Darstellung als
Linearkombination der Vektoren aus B:

 

n
n
n
X
X
(S3),(V4) X




=
(α · λj + µj ) · bj .
α · x+y = α ·
λ j · bj +
µj · bj
j=1
Es gilt also ΦB (α · x+y) = (α · x+y)B =



 
α · λ1 + µ1
λ1
 α · λ2 + µ2  (15),(16)
 λ2  



 

 = α ·  ..  + 
..



.
.  
α · λn + µn
j=1
j=1
λn
µ1
µ2
..
.
µn



 = α · ΦB (x)+ΦB (y).

3
VEKTORRÄUME UND LINEARE ABBILDUNGEN
70
Definition 24 (besondere lineare Abbildungen) Seien (V, +, · ) und (W, +, · )
zwei Vektorräume über einem gemeinsamen Körper (K, +, · ).
• Eine lineare Abbildung f : V → W heisst Homomorphismus.
• Eine injektive lineare Abbildung f : V → W heisst Monomorphismus.
• Eine surjektive lineare Abbildung f : V → W heisst Epimorphismus.
• Eine bijektive lineare Abbildung f : V → W heisst Isomorphismus.
Sei (V, +, · ) ein Vektorraum über einem Körper (K, +, · ).
• Eine lineare Abbildung f : V → V heisst Endomorphismus.
• Eine bijektive lineare Abbildung f : V → V heisst Automorphismus.
Bemerkungen:
• Die Eigenschaften injektiv, surjektiv und bijektiv von Funktionen (Abbildungen) haben Sie in MAE1 kennengelernt.
• Wenn zwischen zwei Vektorräumen V und W ein Isomorphismus existiert,
so sagen wir, V und W seien isomorph, und wir schreiben dann V ' W
oder V ∼
= W.
Beispiele:
1. Für eine (m × n)-Matrix über K, A ∈ K m×n , ist die lineare Abbildung
f : K n → K m , f (v) := A · v, v ∈ K n ,
• ein Monomorphismus (injektiv) genau dann, wenn rang(A) = n,
d. h. wenn die Spalten von A linear unabhängig sind (Satz 5). Dies
erfordert n ≤ m (Satz 6).
• ein Epimorphismus (surjektiv) genau dann, wenn rang(A) = m,
d. h. wenn die Spalten von A ein Erzeugendensystem des K m sind
(Satz 8). Dies erfordert n ≥ m (Satz 9).
• ein Isomorphismus (bijektiv) genau dann, wenn rang(A) = m = n,
d. h. wenn die Spalten von A eine Basis des K m bilden. Weil in
diesem Fall m = n gelten muss, ist f : K m → K m dann auch ein
Automorphismus.
2. Für eine Basis B = {b1 , b2 , . . . , bn } ⊆ V von V ist die Koordinatenabbildung ΦB : V → K n , v 7→ ΦB (v) = v B , ein Isomorphismus. Wir haben
bereits gezeigt, dass ΦB eine lineare Abbildung ist. Ausserdem können wir
n
sofort die Umkehrabbildung Φ−1
B : K → V angeben, die jedem Koordin
natenvektor v B ∈ K genau einen Vektor in V zuweist:
v B 7→ Φ−1
B (v B ) =
n
X
j=1
(v B )j · bj ∈ V.
3
VEKTORRÄUME UND LINEARE ABBILDUNGEN
71
Satz 14 Sei n ∈ N, dann ist jeder n-dimensionale Vektorraum V über K isomorph zum Koordinatenraum K n : V ' K n .
Beweis: Wähle eine Basis B ⊆ V von V , dann ist die Koordinatenabbildung
ΦB : V → K n , v 7→ ΦB (v) = v B , ein Isomorphismus zwischen V und K n .
Bemerkung: Wegen dieser Eigenschaft wird oft gar nicht zwischen einem ndimensionalen Vektorraum über K und dem Koordinatenraum K n unterschieden. Beachten Sie aber, dass Isomorphie (V ' K n ) nicht dasselbe ist wie Gleichheit (V = K n )!
Wir haben bereits gesehen, dass jede Abbildung f : K n → K m von der Form
f (v) = A · v, mit A ∈ K m×n , eine lineare Abbildung ist. Jetzt zeigen wir, dass
jede lineare Abbildung f : V → W zwischen endlich-dimensionalen Vektorräumen mit Hilfe einer Abbildungsmatrix dargestellt werden kann. Für m, n ∈ N seien (V, +, · ) ein n-dimensionaler Vektorraum und (W, +, · ) ein m-dimensionaler
Vektorraum über einem Körper (K, +, · ). Sei B = {b1 , b2 , . . . , bn } ⊆ V eine Basis von V , C = {c1 , c2 , . . . , cm } ⊆ W eine Basis von W , und seien
ΦB : V → K n und ΦC : W → K m die zugehörigen Koordinatenabbildungen. Der Vektor v ∈ V hat eine eindeutige Darstellung als Linearkombination
der Basisvektoren in B:


λ1
n
 λ2 
X


v=
λj · bj , λ1 , λ2 , . . . , λn ∈ K ⇒ ΦB (v) =  .  ∈ K n . (56)
.. 

j=1
λn
Sei f : V → W eine lineare Abbildung, dann gilt nach Def. 23:




n
n
X
X
f (v) = f 
λj · bj  = f λ1 · b1 +
λ j · bj 
j=1
(55)
=
j=2




n
n
X
X
λ1 · f (b1 )+f 
λj · bj  = λ1 · f (b1 )+f λ2 · b2 +
λj · bj 
j=2
(55)
=
j=3


n
X
λ1 · f (b1 )+λ2 · f (b2 )+f 
λ j · bj  = · · ·
j=3
···
=
λ1 · f (b1 )+λ2 · f (b2 )+ · · · +λn · f (bn ) =
n
X
λj · f (bj ) ∈ W.
j=1
Die Bilder der Basisvektoren in B unter f , f (bj ) ∈ W , j = 1, 2, . . . , n, haben
eine eindeutige Darstellung als Linearkombination der Basisvektoren in C:


a1j
m
 a2j 
X


f (bj ) =
aij · ci ⇒ ΦC (f (bj )) =  .  ∈ K m ,
(57)
.. 

i=1
amj
3
VEKTORRÄUME UND LINEARE ABBILDUNGEN
72
für j = 1, 2, . . . , n. Damit gilt
f (v) =
n
X
(57)
λj · f (bj ) =
j=1
n
X
m
X
λj ·
j=1
!
aij · ci
(D),(A4)
=
i=1
m
X
i=1


n
X

aij · λj  · ci .
j=1
Für die Koordinaten von f (v) erhalten wir jetzt
ΦC (f (v)) =
n
X
(56)
aij · λj =
j=1
aij · (ΦB (v))j
Def. 7
= MB
C (f ) · ΦB (v),
(58)
j=1
oder f (v)C = M B
C (f ) · v B , mit

a11 a12
 a21 a22

MB
.
..
C (f ) = 
 ..
.
am1
am2
ΦC (f (b1 ))
=
n
X
der Abbildungsmatrix (Darstellungsmatrix )

· · · a1n
· · · a2n 

.. 
..
.
. 
···
amn
ΦC (f (b2 )) · · ·
ΦC (f (bn ))
∈ K m×n ,
mit Einträgen aij = (ΦC (f (bj )))i ∈ K, i = 1, 2, . . . , m, j = 1, 2, . . . , n. Wir
stellen die Gleichung (58) mit Hilfe eines kommutativen Diagramms dar:
f
V
−−−−→

Φ
y B
W

Φ
y C
ΦC (f (v)) = M B
C (f ) · ΦB (v).
K n −−−−−−→ K m
MB
C (f ) ·
Es drückt aus, dass wir die Koordinaten (bzgl. der Basis C) des Bildes von v
unter f auf zwei Arten erhalten können, nämlich
• entweder durch Anwenden der linearen Abbildung f gefolgt von der Koordinatenabbildung ΦC
• oder durch Anwenden der Koordinatenabbildung ΦB gefolgt von einer
Multiplikation mit der Abbildungsmatrix M B
C (f ).
Wir definieren hier noch einen speziellen Automorphismus:
Definition 25 (Identitätsabbildung) Sei (V, +, · ) ein Vektorraum über einem
Körper (K, +, · ). Der Automorphismus idV : V → V , v 7→ idV (v) := v, heisst
die Identitätsabbildung auf V oder die identische Abbildung auf V .
Beispiele:
1. (V = R3 , W = R2 ) Wir betrachten die Standardbasen in R3 und R3 ,
d. h. die Koordinatenabbildungen ΦB = idR3 und ΦC = idR2 sind einfach
die Identitätsabbildungen. Wir betrachten die Abbildung
−2 · v1 + 5 · v2 + 3 · v3
f (v) :=
, v ∈ R3 .
v1 − 4 · v2
3
VEKTORRÄUME UND LINEARE ABBILDUNGEN
73
für v ∈ R3 . f ist linear (Def. 23), denn es gilt f (α · x+y) =
−2 · (α · x+y)1 + 5 · (α · x+y)2 + 3 · (α · x+y)3
(α · x+y)1 − 4 · (α · x+y)2
(15),(16)
−2 · (α · x1 + y1 ) + 5 · (α · x2 + y2 ) + 3 · (α · x3 + y3 )
=
(α · x1 + y1 ) − 4 · (α · x2 + y2 )
α · (−2 · x1 + 5 · x2 + 3 · x3 ) + (−2 · y1 + 5 · y2 + 3 · y3 )
=
α · (x1 − 4 · x2 ) + (y1 − 4 · y2 )
−2 · x1 + 5 · x2 + 3 · x3
−2 · y1 + 5 · y2 + 3 · y3
=
α·
+
x1 − 4 · x2
y1 − 4 · y2
=
α · f (x)+f (y),
∀ x, y ∈ R3 , ∀ α ∈ R.
Für j ∈ {1, 2, 3} enthält die j-te Spalte der Abbildungsmatrix M (f ) die
Koordinaten des Bildes (in R2 ) des j-ten Basisvektors (in R3 ) unter f .
Diese sind gegeben durch
−2 · 1 + 5 · 0 + 3 · 0
−2
f (e1 ) =
=
,
1−4·0
1
−2 · 0 + 5 · 1 + 3 · 0
5
f (e2 ) =
=
,
0−4·1
−4
2·0+5·0+3·1
3
f (e3 ) =
=
.
0−4·0
0
Damit erhalten wir die Abbildungsmatrix
M (f ) =
f (e1 ) f (e2 ) f (e3 )
=
−2
1
5
−4
3
0
∈ R2×3 .
Das kommutative Diagramm von oben hat für dieses Beispiel die Form
f
R3 −−−−→

id
y R3
R2

id
y R2
f (v) = M (f ) · v.
R3 −−−−−→ R2
M (f ) ·
Allgemeiner ist für Koordinatenräume V = K n , W = K m , m, n ∈ N,
und für eine lineare Abbildung f : V → W von der Form f (v) := A · v
mit A ∈ K m×n , die Matrix A gerade die Darstellungsmatrix der linearen
Abbildung f bezüglich der Standardbasen in K n und K m , M (f ) = A:
f
K n −−−−→ K m


id n
id m
y K
y K
K n −−−−→ K m
A·
f (v) = A · v.
3
VEKTORRÄUME UND LINEARE ABBILDUNGEN
74
2. (Identitätsabbildung) Für ein n ∈ N sei (V, +, · ) ein n-dimensionaler Vektorraum über einem Körper (K, +, · ). Wir wählen zwei Basen B, B 0 ⊆ V
mit zugehörigen Koordinatenabbildungen ΦB , ΦB 0 : V → K n . Wir betrachten die Identitätsabbildung f := idV und wollen ihre Abbildungsn×n
bezüglich der Basen B und B 0 berechnen. Die
matrix M B
B 0 (idV ) ∈ K
j-te Spalte dieser Matrix enthält den Koordinatenvektor bzgl. der Basis
B des Bildes des j-ten Basisvektors in B 0 unter idV , j = 1, 2, . . . , n, d. h.
0
ΦB idV (b01 ) ΦB idV (b02 ) · · · ΦB idV (b0n )
MB
B (idV ) =
0
ΦB (b01 ) ΦB (b02 ) · · · ΦB (b0n ) = T B
=
B .
Die Darstellungsmatrix der Identitätsabbildung auf V bezüglich der Basen
B und B 0 ist also gerade die bereits früher einmal hergeleitete Basiswech0
n×n
. Das zugehörige kommutative Diagramm sieht so
selmatrix T B
B ∈ K
aus:
id
V −−−V−→ V


Φ 0
Φ
0
y B
y B
ΦB (v) = T B
B · ΦB 0 (v).
K n −−−−
→ Kn
0
TB
B ·
3. (Hintereinanderausführung) Für drei Zahlen `, m, n ∈ N betrachten wir
einen `-dimensionalen Vektorraum U , einen m-dimensionalen Vektorraum
V und einen n-dimensionalen Vektorraum W über einem gemeinsamen
Körper K. Wir wählen Basen A ⊆ U , B ⊆ V , C ⊆ W mit zugehörigen
Koordinatenabbildungen ΦA : U → K ` , ΦB : V → K m und ΦC : W →
K n . Seien nun f : V → W und g : U → V lineare Abbildungen. Dann
ist die Hintereinanderausführung (Komposition) f ◦ g : U → W , u 7→
(f ◦ g) (u) := f (g(u)), wieder eine lineare Abbildung, denn es gilt
(f ◦ g) (α · x + y)
f (g(α · x + y))
=
f linear
g linear
=
f (α · g(x) + g(y))
=
α · f (g(x)) + f (g(y))
=
α · (f ◦ g) (x) + (f ◦ g) (y),
∀ x, y ∈ U , ∀ α ∈ K. Die Abbildungsmatrizen von f bzw. g bzgl. der
n×m
gewählten Basen seien bekannt und gegeben durch M B
C (f ) ∈ K
A
m×`
bzw. M B (g) ∈ K
:
g
U −−−−→

Φ
y A
f
V
−−−−→

Φ
y B
W

Φ
y C
K ` −−−−−−→ K m −−−−−−→ K n
MA
B (g) ·
MB
C (f ) ·
n×`
Wir wollen die Darstellungsmatrix M A
der linearen AbbilC (f ◦ g) ∈ K
dung f ◦ g bzgl. der Basen A und C berechnen. Für jeden Vektor u ∈ U
3
VEKTORRÄUME UND LINEARE ABBILDUNGEN
75
gilt g(u) ∈ V , mit Koordinaten
ΦB (g(u)) = M A
B (g) · ΦA (u)
(59)
bzgl. der Basis B. Die Anwendung von f führt auf f (g(u)) = (f ◦ g) (u) ∈
W mit Koordinaten
ΦC ((f ◦ g) (u))
=
(59)
=
ΦC (f (g(u))) = M B
C (f ) · ΦB (g(u))
A
A
MB
C (f ) · M B (g) · ΦA (u) = M C (f ◦ g) · ΦA (u)
bzgl. der Basis C. Die gesuchte Darstellungsmatrix ist also gegeben durch
B
A
das Matrizenprodukt M A
C (f ◦ g) = M C (f ) · M B (g).
f ◦g
−−−−→
U

Φ
y A
W

Φ
y C
ΦC ((f ◦ g) (u)) = M A
C (f ◦ g) · ΦA (u)
K ` −−−−−−−→ K n
MA
C (f ◦g) ·
4. (Basiswechsel bei linearen Abbildungen) Wir kombinieren jetzt die Resultate aus den Beispielen 2 und 3: Für m, n ∈ N betrachten wir einen
n-dimensionalen Vektorraum V und einen m-dimensionalen Vektorraum
W über einem gemeinsamen Körper K. Wir wählen Basen B, B 0 ⊆ V und
C, C 0 ⊆ W , mit zugehörigen Koordinatenabbildungen ΦB , ΦB 0 : V → K n ,
ΦC , ΦC 0 : V → K m . Wir betrachten eine lineare Abbildung f : V → W ,
m×n
deren Darstellungsmatrix M B
bzgl. der Basen B und C beC (f ) ∈ K
0
m×n
kannt sei. Gesucht sei nun die Darstellungsmatrix M B
der
C 0 (f ) ∈ K
0
0
linearen Abbildung f bzgl. der Basen B und C . Zu ihrer Berechnung verknüpfen wir die lineare Abbildung f mit den Identitätsabbildungen idV
und idW :
f
id
id
V −−−V−→ V
−−−−→ W −−−W
−→ W




Φ 0
Φ
Φ
Φ 0
y B
y B
y C
y C
K n −−−−
→ K n −−−−−−→ K m −−−−→ K m
0
TB
B ·
MB
C (f ) ·
TC
·
C0
Die Identitätsabbildungen verändern die Vektoren in V bzw. W nicht,
aber sie erlauben uns den Basiswechsel gemäss Beispiel 2. Aus Beispiel
3 wissen wir, dass die Darstellungsmatrix der Hintereinanderausführung
idV ◦ f ◦ idW gegeben ist durch das Matrizenprodukt der einzelnen Dar0
C
B
B0
stellungsmatrizen, und damit erhalten wir M B
C 0 (f ) = T C 0 · M C (f ) · T B .
f
V
−−−−→

Φ 0
y B
W

Φ 0
y C
K n −−−−
−−→ K m
0
MB
(f ) ·
C0
0
ΦC 0 (f (v)) = M B
C 0 (f ) · ΦB 0 (v)
3
VEKTORRÄUME UND LINEARE ABBILDUNGEN
76
5. (Drehungen um einen Punkt in der Ebene R2 ) Wir identifizieren die euklidische Ebene mit dem Koordinatenraum (R2 , +, · ) (Vektorraum über
R) und wählen einen beliebigen Punkt als Ursprung, 0 ∈ R2 . Ausserdem
wählen wir die Standardbasis {e1 , e2 } ⊆ R2 . Dann betrachten wir die Abbildung f : R2 → R2 , v 7→ f (v), die einen beliebigen Vektor v ∈ R2 auf
den mit dem Winkel α ∈ R um den Ursprung gedrehten Vektor abbildet.
Die Drehung erfolgt dabei im mathematisch positiven Sinn, d. h. im Gegenuhrzeigersinn. Wir zeigen geometrisch, dass f eine lineare Abbildung
ist, d. h.
f (λ · x+y) = λ · f (x)+f (y), ∀ x, y ∈ R2 , ∀ λ ∈ R :
f (x)
f (λ · x + y)
x
f (v)
λ · f (x) α
λ·x
v
α
λ·x+y
α
f (y)
0
α
y
0
Die Darstellungsmatrix der linearen Abbildung f (bzgl. der Standardbasis) ist gegeben durch
Rα := M (f ) = f (e1 ) f (e2 ) ∈ R2×2 .
Die Koordinaten der Bilder der Basisvektoren ermitteln wir mit Hilfe der
Trigonometrie aus der folgenden Skizze:
e2 1
cos(α)
f (e2 )
α
f (e1 )
sin(α)
α
− sin(α)
0
Damit erhalten wir
cos(α)
f (e1 ) =
,
sin(α)
f (e2 ) =
e1
cos(α)1
− sin(α)
cos(α)
∈ R2 .
3
VEKTORRÄUME UND LINEARE ABBILDUNGEN
77
Die gesuchte Darstellungsmatrix der Drehung mit dem Winkel α um den
Ursprung ist also gegeben durch
cos(α) − sin(α)
Rα =
∈ R2×2 ,
sin(α) cos(α)
und wir erhalten das folgende kommutative Diagramm:
f
R2 −−−−→

id
y R2
R2

id
y R2
f (v) = Rα · v.
R2 −−−−→ R2
Rα ·
Sei g : R2 → R2 eine weitere Drehung mit dem Winkel β ∈ R um den
Ursprung. Gemäss Beispiel 3 ist die Darstellungsmatrix der Hintereinanderausführung g ◦ f : R2 → R2 gegeben durch
M (g ◦ f )
= M (g) · M (f ) = Rβ · Rα
cos(β) − sin(β)
cos(α) − sin(α)
=
·
sin(β) cos(β)
sin(α) cos(α)
cos(β) cos(α) − sin(β) sin(α) − cos(β) sin(α) − sin(β) cos(α)
=
sin(β) cos(α) + cos(β) sin(α) − sin(β) sin(α) + cos(β) cos(α)
cos(α) cos(β) − sin(α) sin(β) − (sin(α) cos(β) + cos(α) sin(β))
=
sin(α) cos(β) + cos(α) sin(β)
cos(α) cos(β) − sin(α) sin(β)
cos(α + β) − sin(α + β)
=
= Rα+β ,
sin(α + β) cos(α + β)
wobei wir die Additionstheoreme für die trigonometrischen Funktionen Sinus und Kosinus verwendet haben. Wie erwartet ist also die Darstellungsmatrix für eine Drehung mit dem Winkel α gefolgt von einer Drehung mit
dem Winkel β (um denselben Punkt) dieselbe wie die einer Drehung mit
dem Winkel α + β um diesen Punkt:
(g ◦ f ) (v)
f (v)
β
α+β
α
v
Als kommutative Diagramme dargestellt erhalten wir
g
R2 −−−−→

id
y R2
f
R2 −−−−→

id
y R2
R2

id
y R2
R2 −−−−→ R2 −−−−→ R2
Rβ ·
Rα ·
g◦f
R2 −−−−→

id
y R2
R2

id
y R2
R2 −−−−→ R2
Rα+β ·
3
VEKTORRÄUME UND LINEARE ABBILDUNGEN
78
Im Spezialfall β = −α erhalten wir
M (g ◦ f )
= R−α · Rα = Rα+(−α) = R0 =
1 0
=
= I = M (idR2 ).
0 1
cos(0)
sin(0)
− sin(0)
cos(0)
Weil die Darstellungsmatrix einer Abbildung bzgl. gewählten Basen (hier
die Standardbasis) eindeutig bestimmt ist, gilt also g ◦ f = idR2 , und
damit g = f −1 . Die Umkehrabbildung einer Drehung mit dem Winkel α
um den Ursprung ist also gegeben durch die Drehung mit dem Winkel −α
um denselben Punkt:
f (v)
α
−α
v = f −1 (f (v))
0
Aus der Rechnung von oben erhalten wir auch
cos(−α) − sin(−α)
cos(α)
R−1
=
=
=
R
−α
α
sin(−α) cos(−α)
− sin(α)
sin(α)
cos(α)
= R>
α,
wobei wir wieder Eigenschaften von Sinus und Kosinus verwendet haben.
Es gilt also R>
α · Rα = I. Matrizen mit dieser Eigenschaft nennen wir
orthogonal, und sie bilden sie sog. orthogonale Gruppe:
n
o
O(2, R) := A ∈ R2×2 | A> · A = I ⊆ R2×2 .
Bemerkung: Eine Gruppe ist eine algebraische Struktur, die wir in MLAE2
noch ausführlicher behandeln werden.
Es gilt also Rα ∈ O(2, R), ∀ α ∈ R. Die Drehmatrizen sind sogar Elemente
der speziellen orthogonalen Gruppe,
a −b
SO(2, R) :=
∈ R2×2 a2 + b2 = 1 ⊆ O(2, R),
b a
denn in Rα ist ja
a = cos(α),
b = sin(α),
mit a2 + b2 = cos2 (α) + sin2 (α) = 1
(Trigonometrischer Pythagoras), d. h. Rα ∈ SO(2, R), ∀ α ∈ R.
Bemerkung: Im Allgemeinen lassen sich Drehungen im n-dimensionalen
euklidischen Raum Rn durch Matrizen in SO(n, R) ⊆ O(n, R) ⊆ Rn×n
darstellen (s. MLAE2). Hier haben wir den Spezialfall n = 2 betrachtet.
3
VEKTORRÄUME UND LINEARE ABBILDUNGEN
79
6. (Zentrische Streckung) Wir identifizieren den n-dimensionalen euklidischen Raum mit dem Koordinatenraum (Rn , +, · ) (Vektorraum über R)
und wählen einen beliebigen Punkt als Ursrpung, 0 ∈ Rn . Ausserdem wählen wir die Standardbasis {e1 , e2 , . . . , en } ⊆ Rn . Dann betrachten wir die
Abbildung f : Rn → Rn , v 7→ f (v) := m · v, die einem beliebigen Vektor
den um den Faktor m ∈ R \ {0} (Streckungsfaktor) gestreckten Vektor
zuweist. Die Abbildung f ist linear, denn es gilt
f (λ · x+y) = m · (λ · x+y)
(D),(S1),(M4)
=
λ · m · x+m · y = λ · f (x)+f (y),
∀ x, y ∈ Rn , ∀ λ ∈ R. Die Darstellungsmatrix der zentrischen Streckung
f enthält die Koordinaten (bzgl. der Standardbasis) der Bilder der Standardbasisvektoren unter f :
f (e1 ) f (e2 ) · · · f (en )
M (f ) =
m · e1 m · e2 · · · m · en
=


m·1
0
···
0
 0
m · 1 ···
0 


=  .
.
.. 
.
..
..
 ..
. 
0
0
··· m · 1


1 0 ··· 0
 0 1 ··· 0 


= m · I =: S m ∈ Rn×n .
= m·  . . .
. . ... 
 .. ..

0
0
···
1
Wir erhalten S 1 = I (identische Abbildung) und S −1 = −I (Punktspiegelung am Ursprung).
Die Darstellungsmatrix der Hintereinanderausführung von zwei zentrischen Streckungen mit Streckungsfaktoren m, p ∈ R \ {0} ist gemäss Beispiel 3 gegeben durch das Matrizenprodukt
S p · S m = (p · I) · (m · I) = (m · p) · I = S mp ∈ Rn×n ,
also ist die Hintereinanderausführung der beiden zentrischen Streckungen
wieder eine zentrische Streckung mit Streckungsfaktor mp ∈ R \ {0}. Speziell für p = 1/m ∈ R \ {0} erhalten wir
S 1/m · S m = S m·1/m = S 1 = I ∈ Rn×n ,
also S −1
m = S 1/m . Die Umkehrabbildung einer zentrischen Streckung mit
Streckungsfaktor m ∈ R \ {0} ist also eine zentrische Streckung mit Streckungsfaktor 1/m ∈ R \ {0}.
7. (Drehstreckung) Wir betrachten wieder die euklidische Ebene und identifizieren sie mit dem Koordinatenraum (R2 , +, · ). Wir wählen einen beliebigen Punkt als Ursprung 0 ∈ R2 , sowie die Standardbasis. Dann betrachten
3
VEKTORRÄUME UND LINEARE ABBILDUNGEN
80
wir die Drehstreckung f : R2 → R2 ,
v 7→ f (v) := S r · Rϕ · v,
v ∈ R2 ,
also die Hintereinanderausführung einer Drehung um den Ursprung mit
Winkel ϕ ∈ R gefolgt von einer Streckung mit Streckungsfaktor r ∈ R\{0}.
Die Darstellungsmatrix von f bzgl. der Standardbasis ist gegeben durch
r 0
cos(ϕ) − sin(ϕ)
·
M (f ) = S r · Rϕ =
0 r
sin(ϕ) cos(ϕ)
r cos(ϕ) −r sin(ϕ)
=
∈ R2×2 .
r sin(ϕ) r cos(ϕ)
Für die Basis
B :=
2
1
−1
,
⊆ R2
1
(Koordinatenvektoren bzgl. der Standardbasis) wollen wir jetzt die Dar2×2
, berechnen.
stellungsmatrix von f bzgl. der Basis B, M B
B (f ) ∈ R
Gemäss Beispiel 4 benötigen wir dazu die Basiswechselmatrizen T B und
T B:
id
2
R2 −−−R−→

Φ
y B
f
R2 −−−−→

id
y R2
id
2
R2 −−−R−→

id
y R2
R2

Φ
y B
R2 −−−−→ R2 −−−−−→ R2 −−−−→ R2
TB ·
M (f ) ·
TB ·
f
R2 −−−−→ R2


Φ
Φ
y B
y B
R2 −−−−−−→ R2
MB
B (f ) ·
B
f (v)B = ΦB (f (v)) = M B
B (f ) · ΦB (v) = T B · M (f ) · T · v B
Für die Basiswechselmatrizen erhalten wir
1
2 −1
B
−1
3
T = B :=
, TB = B =
1 1
− 31
1
3
2
3
∈ R2×2 ,
(v = B · v B ⇔ v B = B −1 · v) und damit
MB
B (f )
= T B · M (f ) · T B = B −1 · M (f ) · B
r cos(ϕ) + 13 r sin(ϕ)
− 32 r sin(ϕ)
=
∈ R2×2 .
5
r cos(ϕ) − 13 r sin(ϕ)
3 r sin(ϕ)
Für die Koordinaten (bzgl. der Basis B) des Bildes des Vektors v mit
2
Koordinaten (3/2, 1)>
B ∈ R (bzgl. der Basis B) unter f erhalten wir
beispielsweise
f (v)B
=
=
=
MB
(f ) · v B
B
3 r cos(ϕ) + 31 r sin(ϕ)
− 23 r sin(ϕ)
2
·
5
1
r cos(ϕ) − 31 r sin(ϕ)
3 r sin(ϕ)
3
1
2 r cos(ϕ) − 6 r sin(ϕ)
∈ R2 .
r cos(ϕ) + 13
r
sin(ϕ)
6
B
3
VEKTORRÄUME UND LINEARE ABBILDUNGEN
81
Wenn jetzt die Koordinaten f (v)B ∈ R2 (bzgl. der Basis B) bekannt
sind, so können wir daraus den Drehwinkel und den Streckungsfaktor der
Abbildung f ermitteln.
Sei z. B.
√
3 3
1
− 24
√8
3
13
4 + 24
f (v)B =
!
∈ R2
gegeben, dann lösen wir zuerst ein lineares Gleichungssystem für die Unbekannten (r cos(ϕ), r sin(ϕ)):
!
√
√ 3
3 3
1
1
3
r
cos(ϕ)
−
−
r cos(ϕ)
2
6
8
24
√
4
=
⇒
=
13
1
3
13
r sin(ϕ)
r sin(ϕ)
1
6
4
4 + 24
Jetzt müssen wir noch zwei nichtlineare Gleichungen für r und ϕ lösen:
= r2 (cos2 (ϕ) + sin2 (ϕ)) = (r cos(ϕ))2 + (r sin(ϕ))2
√ !2 2
1
3
1
4
1
3
=
+
=
+
=
= ,
4
4
14 16
16
4
√
1
3
sin(ϕ)
r sin(ϕ)
1
tan(ϕ) =
=
= √4 = √ =
.
3
cos(ϕ)
r cos(ϕ)
3
3
4
r2
Damit erhalten wir die Lösungen
o
nπ
1 1
r∈ − ,
+ kπ k ∈ Z .
, ϕ∈
2 2
6
Schränken wir den Drehwinkel ϕ auf das Intervall [0, 2π) ein, so bleiben
schliesslich zwei Lösungen,
1 7π
1 π
(r, ϕ) ∈
,
, − ,
.
2 6
2 6
v
f (v)
π
6
b2
7π
6
b1
VEKTORRÄUME UND LINEARE ABBILDUNGEN
82
8. (Verschiebung des Graphen eines Polynoms) Wir betrachten den dreidimensionalen reellen Vektorraum (P2 , +, · ) der Polynomfunktionen vom
Grad kleiner oder gleich 2 mit reellen Koeffizienten. Dabei bezeichnen +
und · die punktweise Addition und Skalarmultiplikation. Wir wählen die
Basis der Monome, B = {b1 , b2 , b3 } ⊆ P2 , mit
b1 (x) := 1,
b3 (x) := x2 ,
b2 (x) := x,
x ∈ R.
Die Koordinatenabbildung ΦB : P2 → R3 ist ein Isomorphismus mit


a0
ΦB a0 + a1 x + a2 x2 = ΦB (a0 · b1 +a1 · b2 +a2 · b3 ) =  a1  ∈ R3 ,
a2
für beliebige Koeffizienten a0 , a1 , a2 ∈ R. Wir betrachten die Abbildung
f : P2 → P2 , deren Bild punktweise definiert ist durch
(f (p)) (x) := p(x + s),
x ∈ R,
für ein s ∈ R. Im Fall s > 0 wird durch die Anwendung von f der Graph
der Polynomfunktion nach links verschoben, im Fall s < 0 nach rechts:
y = p(x)
y = (f(p))(x) = p(x + s), s > 0
y
3
x
Die Abbildung f ist linear, denn es gilt
(f (λ·p+q)) (x)
=
(λ·p+q) (x + s) = λ · p(x + s) + q(x + s)
= λ · (f (p)) (x) + (f (q)) (x)
=
(λ·f (p)+f (q)) (x),
∀ x ∈ R,
also f (λ·p+q) = λ·f (p)+f (q), ∀ p, q ∈ P2 , ∀ λ ∈ R.
3×3
Die Darstellungsmatrix M B
ist gegeben durch
B (f ) ∈ R
ΦB (f (b1 )) ΦB (f (b2 )) ΦB (f (b3 )) ∈ R3×3 .
MB
B (f ) =
LITERATUR
83
Für die Bilder der Basisvektoren erhalten wir mit der Definition von f :


1
(f (b1 )) (x) = b1 (x + s) = 1 ⇒ ΦB (f (b1 )) =  0  ,
0


s
(f (b2 )) (x) = b2 (x + s) = x + s ⇒ ΦB (f (b2 )) =  1  ,
0
(f (b3 )) (x)
=
⇒
b3 (x + s) = (x + s)2 = x2 + 2sx + s2
 2 
s
ΦB (f (b3 )) =  2s  .
1
Wir erhalten also die Darstellungsmatrix


1 s s2
 0 1 2s  ∈ R3×3 ,
MB
B (f ) =
0 0 1
und das kommutative Diagramm
f
P2 −−−−→ P2


Φ
Φ
y B
y B
ΦB (f (p)) = M B
B (f ) · ΦB (p)
R3 −−−−−−→ R3
MB
B (f ) ·
Damit gilt z. B. für p(x) = 2 − 3x + x2 ∈ P2 und für s = 2:

 
  
1 2 4
2
0
ΦB (f (p)) =  0 1 4  ·  −3  =  1  ∈ R3 .
0 0 1
1
1
Dies prüfen wir mit einer direkten Rechnung nach:
(f (p)) (x)
2 − 3(x + 2) + (x + 2)2 = 2 − 3x − 6 + x2 + 4x + 4
 
0
= x + x2 ⇒ ΦB (f (p)) =  1  X
1
=
Literatur
[1] G. Fischer: Lernbuch Lineare Algebra und Analytische Geometrie; Springer
[2] H.-J. Kowalsky, G. O. Michler: Lineare Algebra; De Gruyter
[3] L. Papula: Mathematik für Ingenieure und Naturwissenschaftler (3 Bände);
Vieweg & Teubner
Herunterladen