5.4 Vektorrechnung in der Euklidischen Ebene

Werbung
106
Kapitel 5. Lineare Algebra
5.4
Vektorrechnung in der Euklidischen Ebene
Bereits in dem antiken Lehrbuch der Elemente von Euklid sind die Grundbegriffe
der ebenen Geometrie festgehalten, die noch heute in der Schule vermittelt werden.
Dazu gehören die Begriffe Punkt, Gerade, Ebene, Winkel oder Dreieck mit den dazugehörigen Lehrsätzen. Unter der euklidischen Ebene wollen wir hier eine solche
(intuitiv gegebene) Ebene verstehen, in der man Abstände zwischen Punkten und
Winkel zwischen Halbstrahlen messen kann und die bekannten Gesetze der euklidischen Geometrie gelten, wie zum Beispiel die folgenden:
• Durch je zwei verschiedene Punkte geht genau eine Verbindungsgerade.
• Je zwei nichtparallele Geraden schneiden sich in genau einem Punkt.
• Zu einer Geraden g und einem Punkt P , der nicht auf g liegt, gibt es genau
eine zu g parallele Gerade durch P .
• Sind g1 und g2 zwei parallele Geraden, so schneidet jede dazu nicht parallele
Gerade h die Geraden g1 und g2 unter demselben Winkel.
• Die Winkelsumme in jedem Dreieck beträgt 180◦.
Je zwei verschiedene Punkte A, B in der Ebene liefern einen Pfeil mit Anfangspunkt A und Endpunkt B. Wir betrachten zwei Pfeile als äquivalent, wenn sich der
erste Pfeil durch Parallelverschiebung in den zweiten Pfeil überführen lässt. Unter
einem Vektor versteht man eine Äquivalenzklasse von Pfeilen, also die Gesamtheit
aller zu einem bestimmten Pfeil äquivalenten Pfeile. Man sagt auch, ein bestimmter
Pfeil repräsentiere den entsprechenden Vektor. Ein Spezialfall ist der sogenannte
Nullvektor , nämlich die Klasse aller Pfeile, bei denen Anfangs- und Endpunkt übereinstimmen. Wir schreiben dafür einfach 0. Die Vektoraddition ist nun definiert
durch das Aneinanderhängen von Pfeilen.
Sind genauer u, v Vektoren und wird u repräsentiert durch den Pfeil von A nach
B, und wird v repräsentiert durch den Pfeil von B nach C, dann definieren wir
u + v als denjenigen Vektor, der vom Pfeil von A nach C repräsentiert wird. Hätten
wir einen anderen Startpunkt gewählt, etwa A′ , würde die gesamte Konfiguration
parallel verschoben, der Vektor u + v ist also von dieser Wahl unabhängig und daher
wohldefiniert.
Wird v durch den Pfeil von A nach B repräsentiert, so bezeichnet −v den Vektor,
der durch den Pfeil von B nach A repräsentiert wird. Offenbar gilt nach Definition
dann v + (−v) = 0. Weil sich beim Paralleltransport eines Pfeiles der Abstand
zwischen Anfangs- und Endpunkt nicht ändert, können wir diese Grösse als die Länge
des entsprechenden Vektors auffassen. Wir schreiben dafür ||v||. Die Multiplikation
eines Vektors v mit einem Skalar λ ∈ R ist folgendermassen erklärt: Ist λ > 0, so
ist λv derjenige Vektor, der parallel ist zu v, dessen Länge aber λ||v|| beträgt. Ist
λ < 0, so ist λv derjenige Vektor, der parallel ist zu −v, dessen Länge aber |λ|||v||
beträgt. Die Multiplikation mit 0 liefert den Nullvektor.
5.4. Vektorrechnung in der Euklidischen Ebene
107
Man kann sich davon überzeugen, dass für die so definierte Addition und Multiplikation mit Skalaren der Vektoren in der euklidischen Ebene folgende Rechengesetze gelten:
5.4.1 Satz Für alle Vektoren u, v, w in der euklidischen Ebene und alle α, β ∈ R
gilt:
• (u + v) + w = u + (v + w) (Assoziativgesetz für die Addition).
• u + v = v + u (Kommutativgesetz).
• u + 0 = u (neutrales Element).
• Zu v gibt es genau einen Vektor x mit v + x = 0, nämlich x = −v (Existenz
des additiven Inversen).
• (α · β)u = α(β · u) (Assoziativgesetz für die Skalarmultiplikation).
• 1 · u = u.
• (α + β)u = αu + βu (Distributivgesetz).
• α(u + v) = αu + αv (Distributivgesetz).
Nun wollen wir in der euklidischen Ebene einen Punkt auswählen und als Nullpunkt festlegen. Dann gibt es zu jedem Punkt P einen eindeutig bestimmten Vektor,
den sogenannten Ortsvektor von P , der durch den Pfeil vom Nullpunkt nach P repräsentiert wird. 7→ Die Zuordnung
{Punkte in der Ebene} → {ebene Vektoren} ,
Punkt 7→ Ortsvektor
ist eine Bijektion zwischen der Menge der Punkte in der Ebene einerseits und der
Menge der ebenen Vektoren andererseits.
Jeder Vektor v 6= 0 erzeugt in der Ebene eine Gerade durch den Nullpunkt.
Die entsprechenden Ortsvektoren bilden einen sogenannten linearen Unterraum der
Ebene:
gv := {λv | λ ∈ R} .
5.4.2 Definition Zwei Vektoren u, v 6= 0 in der Ebene heissen linear abhängig,
wenn sie dieselbe Gerade erzeugen. Das bedeutet, dass eine Zahl λ ∈ R existiert mit
u = λv. Ist dies nicht der Fall, nennt man u und v linear unabhängig.
5.4.3 Bemerkung Sind u, v 6= 0 zwei linear unabhängige Vektoren in der Ebene,
dann erzeugen sie bereits ganz V :
V = {αu + βv | α, β ∈ R} .
108
Kapitel 5. Lineare Algebra
Beweis. Jeder Vektor w ∈ V kann auf eindeutige Art in Komponenten in Richtung
von u bzw. v zerlegt werden, wie man das von Kräftediagrammen kennt. Dazu
stellt man u, v, w als Ortsvektoren dar. Sei P der Endpunkt des Ortsvektors, der
w repräsentiert. Schneidet man die zu v parallele Gerade durch P mit der Geraden
durch u, erhält man die Komponente αu von w in Richtung von u, und schneidet
man die zu u parallele Gerade durch P mit der Geraden durch v, so erhält man die
Komponente βv von w in Richtung von v. Weil nach Konstruktion αu, βv und w
ein Parallelogramm bilden, gilt w = αu + βv.
βv
w
v
b
u
αu
Die Zahlen α, β sind durch w eindeutig festgelegt. Denn angenommen, wir hätten
eine weitere Zerlegung w = α1 u + β1 v. Dann folgt durch Anwendung der Rechenregeln: (α − α1 )u = (β1 − β)v. Weil u und v linear unabhängig sind, müssen bereits
α = α1 und β = β1 sein.
q.e.d.
5.4.4 Definition Sind u, v 6= 0 zwei linear unabhängige Vektoren in der Ebene,
bezeichnet man das Paar (u, v) als Basis von V , weil sich jeder Vektor w ∈ V auf
eindeutige Weise als Linearkombination aus u und v der Form w = αu + βv (für
passende Zahlen α, β) darstellen lässt.
5.4.5 Bemerkung Jede Wahl einer Basis (u, v) von V liefert ein Koordinatensystem für V . Dabei verlaufen die Koordinatenachsen durch u bzw. v, und ist
w = αu + βv, so bezeichnet man α und β als die Koordinaten von w bezüglich
u und v. Die Abbildung
α
2
R →V ,
7→ αu + βv
β
ist bijektiv und verträglich mit der Addition und Multiplikation mit Skalaren von
Vektoren. Das heisst, addiert man zwei Vektoren in der Ebene, so addieren sich
entsprechende Koordinaten, und beim Multiplizieren mit einem Skalar werden die
Koordinaten mit diesem Skalar multipliziert.
Eine besondere Rolle spielen die rechtwinkligen Koordinatensysteme. Nehmen
wir an, wir hätten eine Basis aus Vektoren u1 und u2 der Länge 1 gewählt, die
senkrecht aufeinanderstehen. Dann sieht das entsprechende Koordinatensystem (bis
auf Drehung oder Spiegelung) so aus, wie man es aus der Schule kennt. Wenn wir
5.4. Vektorrechnung in der Euklidischen Ebene
109
nun einen Vektor v mit seinem Koordinatenvektor in R2 identifizieren, können wir
die Länge nach dem Satz von Pythagoras folgendermassen bestimmen:
p
x
2
2
||v|| = x + y , falls v =
.
y
x1
x2
5.4.6 Definition Sei v =
und w =
. Für das Skalarprodukt von v
y1
y2
und w verwenden wir die folgende Schreibweise:
hv, wi := x1 x2 + y1 y2 .
5.4.7 Bemerkung Das Skalarprodukt von v und w hat folgende geometrische Bedeutung:
hv, wi = ||v|| · ||w|| · cos(α) ,
wobei α den Winkel zwischen v und w bezeichnet. Insbesondere gilt:
hv, wi = 0
⇔
v und w stehen senkrecht aufeinander.
Ist ||v|| = 1, so gibt das Skalarprodukt von v und w die Länge der orthogonalen
Projektion von w auf die Gerade durch v an.
Beweis. Zeichnen wir v und w als Ortsvektoren und verbinden die Endpunkte, erhalten wir ein Dreieck mit den Seitenlängen ||v||, ||w|| und ||v − w||. Der Seite der
Länge ||v−w|| liegt der Winkel α gegenüber. Also liefert der Cosinussatz die folgende
Beziehung:
||v − w||2 = ||v||2 + ||w||2 − 2||v|| · ||w|| · cos(α) .
Daraus folgt
1
||v|| · ||w|| · cos(α) = (||v||2 + ||w||2 − ||v − w||2) .
2
Setzt man nun die Koordinaten von v und w ein, erhält man gerade das Skalarprodukt.
q.e.d.
a
b
5.4.8 Satz Sei v =
und w =
. Dann gilt:
c
d
a b
= ||v|| · ||w|| · sin(α) ,
det(v, w) = c d
wobei α den Winkel bezeichnet, den man von v nach w misst. Insbesondere gilt:
det(v, w) 6= 0
⇔
v und w sind linear unabhängig.
In diesem Fall gibt der Betrag der Determinante den Flächeninhalt des von v und w
erzeugten Parallelogramms an. Das Vorzeichen der Determinante ist positiv, wenn
0 < α < π, und negativ, wenn −π < α < 0.
110
Kapitel 5. Lineare Algebra
Beweis. Nach der eben gemachten Bemerkung ist
||v||2 · ||w||2 · sin2 (α) = ||v||2 · ||w||2(1 − cos2 (α)) = ||v||2 · ||w||2 − (hv, wi)2 .
Setzt man nun die Koordinaten ein, erhält man
||v||2 · ||w||2 · sin2 (α) = (det(v, w))2 .
Weil ausserdem die Determinante stetig von der Wahl der Vektoren v und w abhängt,
reicht es das Vorzeichen
für zwei
speziell gewählte Vektoren v und w zu überprüfen.
1
0
Für v =
und w =
ist einerseits α = π2 und daher sin(α) = 1, und
0
1
andererseits ist det(v, w) = 1. Also stimmen die Vorzeichen von Determinante und
sin(α) jeweils überein.
q.e.d.
Mithilfe der geometrischen Interpretation der Determinante können wir nun die
bereits formulierten Eigenschaften der Determinantenfunktion bezogen auf Spalten
einer Matrix besser verstehen.
5.4.9 Folgerung
1. det(v, αw) = α · det(v, w) für alle v, w ∈ R2 , α ∈ R.
2. det(v, w1 + w2 ) = det(v, w1) + det(v, w2 ) für alle v, w1 , w2 ∈ R2 .
3. det(v, w) = − det(w, v) für alle v, w ∈ R2 .
Beweis. (1) Ein skalarer Faktor sorgt für die Streckung (oder Stauchung) einer Seite
des Parallelogramms erzeugt von v und w, während der Winkel α unverändert bleibt.
Die Behauptung kann man also direkt ablesen.
(2) Wir betrachten nur den Fall, dass alle beteiligten Determinanten positiv sind.
Zeichnen wir zuerst v, w1 und w1 + w2 als Ortsvektoren. Das von v und w1 + w2
erzeugte Parallelogramm bildet zusammen mit dem Dreieck, erzeugt von w1 und
w1 + w2 , ein Fünfeck. Entfernen wir daraus die beiden von v und w1 bzw. von v und
w2 erzeugten Parallelogramme, so bleibt ein Dreieck übrig, das deckungsgleich ist
mit dem von w1 und w1 + w2 erzeugten Dreieck. Hieraus folgt die Behauptung.
(3) Bei der Vertauschung von v und w bleiben offenbar die Längen unverändert,
aber der Winkel α ändert sein Vorzeichen und damit auch der Sinus.
q.e.d.
5.5. Euklidischer Raum
5.5
111
Euklidischer Raum
Die im vorigen Abschnitt eingeführten Begriffe lassen sich auch auf den euklidischen
dreidimensionalen Raum übertragen. Wiederum legen je zwei verschiedene Punkte
im Raum einen Pfeil fest, und wir betrachten je zwei Pfeile als äquivalent, wenn sich
der erste Pfeil durch Parallelverschiebung in den zweiten Pfeil überführen lässt. Die
Vektoren im Raum sind die Äquivalenzklassen von Pfeilen. Jeder einzelne Vektor
hat also eine wohldefinierte Länge und eine Richtung. Wiederum können wir die
Addition solcher Vektor durch Aneinanderhängen entsprechender Pfeile definieren.
Und die Skalarmultiplikation definieren wir ebenfalls entsprechend wie in der Ebene.
Dann gelten bereits formulierten Rechengesetze.
Die Wahl eines Nullpunktes liefert wieder eine bijektive Zuordnung der Menge
der Punkte im Raum und der Menge der Vektoren V im Raum, indem wir jedem
Punkt P seinen Ortsvektor zuordnen, der durch den Pfeil vom Nullpunkt nach P
repräsentiert wird. Jeder Vektor v 6= 0 im Raum erzeugt eine Gerade durch 0 und
die entsprechenden Ortsvektoren bilden einen eindimensionalen linearen Unterraum
gv = {λv | λ ∈ R} in V .
5.5.1 Definition Wie in der Ebene, nennt man zwei Vektoren 0 6= u, v ∈ V linear
unabhängig, wenn sie nicht dieselbe Gerade erzeugen. Sind u, v linear unabhängig,
erzeugen sie eine Ebene durch 0. Die entsprechenden Ortsvektoren der Punkte dieser
Ebene bilden einen zweidimensionalen linearen Unterraum von V :
E = {αu + βv | α, β ∈ R} .
Drei Vektoren u, v, w ∈ V heissen linear unabhängig, wenn sie in keiner gemeinsamen
Ebene durch 0 liegen.
Ganz entsprechend wie im ebenen Fall kann man folgende Aussagen einsehen:
5.5.2 Bemerkung Je drei linear unabhängige Vektoren u, v, w bilden eine Basis
von V , das heisst, jeder Vektor in V lässt sich auf eindeutige Weise als Linearkombination von u, v, w in der Form αu + βv + γw (für passende Zahlen α, β, γ) schreiben.
Die Basis liefert also ein Koordinatensystem für den Raum. Die Abbildung
 
α
R3 → V ,  β  7→ αu + βv + γw
γ
ist bijektiv und verträglich mit der Addition und Skalarmultiplikation von Vektoren.
Das heisst, addiert man zwei Vektoren in der Ebene, so addieren sich entsprechende
Koordinaten, und beim Multiplizieren mit einem Skalar werden die Koordinaten mit
diesem Skalar multipliziert.
Nehmen wir nun wieder an, wir hätten eine Basis aus Vektoren der Länge 1
gewählt, die paarweise senkrecht aufeinander stehen. Dann können wir jeden Vektor
112
Kapitel 5. Lineare Algebra
mit seinem Koordinatenvektor in R3 identifizieren. Für die Länge gilt diesmal:
 
x
p
2
2
2

||v|| = x + y + z , falls v = y .
z
Das Skalarprodukt im R3 ist folgendermassen erklärt:
 
 
x1
x2



5.5.3 Definition Sei u = y1 und v = y2 . Für das Skalarprodukt von u
z1
z2
und v verwenden wir die folgende Schreibweise:
hu, vi := x1 x2 + y1 y2 + z1 z2 .
5.5.4 Bemerkung Entsprechend wie in der Ebene gilt:
hu, vi = ||u|| · ||v|| · cos(α) ,
wobei α den Winkel zwischen u und v, gemessen in der von u und v erzeugten Ebene,
bezeichnet. Insbesondere gilt:
hu, vi = 0
⇔
u und v stehen senkrecht aufeinander.
Ist ||v|| = 1, so gibt das Skalarprodukt von u und v die Länge der orthogonalen
Projektion von u auf die Gerade durch v an.
Eine neue Grösse, die wir nur im dreidimensionalen Raum definieren können, ist
das Vektorprodukt.
 
 
x1
x2
3



5.5.5 Definition Sei u = y1 ∈ R und v = y2  ∈ R3 . Der Vektor w :=
z1 
 z2
y1 z2 − z1 y2
u × v ∈ R3 ist definiert durch w =  z1 x2 − x1 z2 .
x1 y2 − y1 x2
Die geometrische Bedeutung des Vektorprodukts ist die folgende:
5.5.6 Satz Für u, v ∈ R3 gilt:
||u × v|| = ||u|| · ||v|| · | sin(α)| .
Also ist u × v = 0 genau dann, wenn u und v linear abhängig sind. Wenn u und v
linear unabhängig sind, gibt die Länge des Vektors w = u × v die Fläche des von
u und v erzeugten Parallelogramms an. Ausserdem steht w senkrecht auf der von
u und v erzeugten Ebene. Schliesslich ist w so orientiert, dass die Richtungen der
Vektoren u, v, w zur rechten Hand passen. Das heisst, man kann mit dem Daumen
in die Richtung von u, mit dem Zeigefinger in die Richtung von v und mit dem
Mittelfinger in die Richtung von w zeigen.
5.6. Abstrakter Vektorraum
Beweis. Zur Begründung kann man ganz ähnlich vorgehen wie bei Satz 4.55.
113
q.e.d.
Hier nun schliesslich der Zusammenhang zur Determinante von drei Vektoren im
R , der sich direkt aus der Definition ergibt:
3
5.5.7 Bemerkung Für alle u, v ∈ R3 und x, y, z ∈ R gilt:
 
 
x
x
hu × v,  y i = det(u, v,  y ) .
z
z
Wenn wir nun die Interpretation des Skalarproduktes und des Vektorproduktes
im Raum zusammensetzen, erhalten wir folgende Deutung der Determinante:
5.5.8 Folgerung Seien v1 , v2 , v3 ∈ R3 . Dann gilt:
| det(v1 , v2 , v3 )| = |hv1 × v2 , v3 i| = ||v1 × v2 || · ||v3 || · | cos(α)| ,
wobei α den Winkel zwischen v1 × v2 und v3 angibt. Die Determinante ist gleich
Null, wenn die drei Vektoren linear abhängig sind. Wenn v1 , v2 , v3 linear unabhängig
sind, erzeugen sie ein Spat im R3 , und dessen Volumen wird gerade durch den Betrag
der Determinante angegeben. Das Vorzeichen der Determinante ist positiv, wenn die
Richtungen der Vektoren v1 , v2 , v3 zur rechten Hand passen (wie eben beschrieben),
und negativ, wenn v1 , v2 , v3 zur linken Hand passen.
Beweis. Unter dem Spat, das von den Vektoren v1 , v2 , v3 in R3 erzeugt wird, versteht
man den verallgemeinerten Quader, dessen Seitenflächen die jeweils von zwei der drei
Vektoren erzeugten Parallelogramme sind. Die Grundfläche des Spates ist also das
von v1 , v2 erzeugte Parallelogramm und daher gegeben durch ||v1 × v2 ||. Die Höhe
des Spates ist gerade ||v3 || · | cos(α)|. Daraus folgt die Behauptung.
q.e.d.
5.6
Abstrakter Vektorraum
Für die Vektoraddition und die Multiplikation von Vektoren mit Skalaren im zweioder dreidimensionalen euklidischen Raum gelten bestimmte Rechengesetze, die man
auch in anderen Zusammenhängen antrifft. Diese Rechengesetze sind die Grundlage
für den Begriff des abstrakten Vektorraums.
5.6.1 Definition Ein reeller Vektorraum ist eine Menge V mit einem Nullelement 0, auf der zwei Rechenoperationen erklärt sind, nämlich Addition V × V → V ,
(v, w) 7→ v + w und Skalarmultiplikation R × V → V , (λ, v) → λ · v, und zwar so,
dass für alle u, v, w ∈ V , α, β ∈ R die folgenden Rechenregeln gelten:
• (u + v) + w = u + (v + w) (Assoziativgesetz für die Addition).
• u + v = v + u (Kommutativgesetz).
114
Kapitel 5. Lineare Algebra
• u + 0 = u (neutrales Element).
• Die Gleichung v + x = 0 besitzt zu jedem v ∈ V genau eine Lösung x ∈ V .
Wir schreiben dafür x = −v (Existenz des additiven Inversen).
• (α · β)u = α(β · u) (Assoziativgesetz für die Skalarmultiplikation).
• 1 · u = u.
• (α + β)u = αu + βu (Distributivgesetz).
• α(u + v) = αu + αv (Distributivgesetz).
Aus diesen acht Axiomen folgen alle weiteren vertrauten Regeln des Rechnens
mit Vektoren. Zum Beispiel gilt
0·v =0
für alle v ∈ V .
(Dabei ist mit der ersten 0 die Zahl Null in R gemeint und mit der zweiten 0 der
Nullvektor in V .) Denn aus dem Distributivgesetz folgt 1 · v + 0 · v = (1 + 0) · v =
1 · v = v. Addieren wir nun auf beiden Seiten −u dazu, erhalten wir die Behauptung.
Weiter gilt auch:
(−1) · v = −v für alle v ∈ V .
Denn wiederum nach dem Distributivgesetz ist (−1) · v + v = (−1) · v + 1 · v =
(−1 + 1)v = 0 · v = 0. Also stimmt (−1)v mit dem eindeutigen Inversen −v überein.
5.6.2 Beispiele
1. Der kleinstmögliche Vektorraum besteht nur aus dem Nullelement V = {0}.
2. Der Rn ist sozusagen der Prototyp des reellen Vektorraums (n ∈ N). Addition
und Skalarmultiplikation sind komponentenweise erklärt. Das heisst, für alle
vj , wj ∈ R, j = 1, . . . , n und λ ∈ R setzt man:



 


  
λv1
v1
v1 + w1
w1
v1
..
 und λ ·  ...  :=  ...  .
 ...  +  ...  := 
.
λvn
vn
vn + wn
wn
vn
Wie es aus der elementaren Vektorrechnung geläufig ist, sind hier alle in der
Definition angegebenen Rechenregeln erfüllt. Dabei ist das Nullelement der
Nullvektor, dessen sämtliche Einträge gleich Null sind.
3. Auf der Menge F (D, R) aller reellwertigen Funktionen auf einem festgewählten
Definitionsbereich D ⊂ R erklärt man üblicherweise Addition und Skalarmultiplikation durch (f + g)(x) = f (x) + g(x) und (α · f )(x) = α · f (x) für alle
x ∈ D, α ∈ R und f, g ∈ F (D, R). Mit diesen Verknüpfungen bildet F (D, R)
einen Vektorraum. Denn die acht definierenden Rechenregeln eines Vektorraums sind alle erfüllt; sie lassen sich jeweils auf die entsprechenden Rechengesetze im Wertebereich, also in der Menge der reellen Zahlen, zurückführen.
5.6. Abstrakter Vektorraum
115
Auf entsprechende Weise definiert man Vektorräume über den komplexen Zahlen
oder noch allgemeiner Vektorräume über beliebigen Körpern K.
5.6.3 Definition Sei K ein Körper. Ein K-Vektorraum ist eine Menge V mit einem
Nullelement 0, auf der eine Addition V × V → V, (v, w) 7→ v + w und eine Skalarmultiplikation K × V → V, (λ, v) 7→ λ · v erklärt ist, so dass für alle u, v, w ∈ V und
alle α, β ∈ K die oben genannten acht Rechenregeln gelten.
Wichtige Beispiele für komplexe Vektorräume erhält man, indem man in den eben
n
gegebenen Beispielen jeweils R durch C ersetzt. Der
 C (für fest gewähltes
 Raum
z1
 z2 

n ∈ N) besteht aus allen Spaltenvektoren der Form 
 ...  mit komplexen Einträgen
zn
zj ∈ C für j = 1, . . . , n. Addition und Skalarmultiplikation sind nun wiederum
komponentenweise erklärt.
Der Raum F (D, C) besteht aus allen Funktionen der Form f : D → C, definiert
auf einem Definitionsbereich D ⊂ C mit Werten in C. Zum Beispiel gehört dazu die
Funktion
f : C → C, f (z) = z 2 .
Analog erklärt man die Addition und Skalarmultiplikation in diesem Fall durch
(f + g)(z) = f (z) + g(z) und (α · f )(z) = α · f (z) für alle z ∈ D, α ∈ C und
f, g ∈ F (D, C). Mit diesen Verknüpfungen bildet F (D, C) einen Vektorraum.
Eine besondere Rolle spielen diejenigen Teilmengen von Vektorräumen, die unter
Addition und Skalarmultiplikation abgeschlossen sind, weil sie selbst wieder Vektorräume bilden.
5.6.4 Definition Eine nichtleere Teilmenge U ⊂ V eines K-Vektorraums V ist ein
linearer Unterraum von V , falls U unter Addition und Skalarmultiplikation abgeschlossen ist, das heisst, wenn folgendes gilt:
(A) u, v ∈ U =⇒ u + v ∈ U.
(S) u ∈ U =⇒ λ · u ∈ U für alle λ ∈ K.
Ist U ein linearer Unterraum von V , so bildet U mit den von V geerbten Operationen wieder einen Vektorraum. Denn offensichtlich bleiben die Assoziativgesetze, das
Kommutativgesetz und die Distributivgesetze erhalten. Und auch das Nullelement
von V liegt in U. Denn nach Voraussetzung ist U nichtleer, es gibt also mindestens
ein Element u0 ∈ U. Wegen der Eigenschaft (S) folgt jetzt 0 · u0 = 0 ∈ U. Schliesslich liegt mit u auch stets −u in U, denn −u = (−1) · u ∈ U wiederum wegen der
Eigenschaft (S).
5.6.5 Beispiele Der Vektorraum R2 hat die folgenden Unterräume: die “trivialen”
Unterräume {0} und R2 einerseits und andererseits Unterräume der Form gv = {λv |
λ ∈ R}, wobei v ∈ R2 festgewählt ist. Diese Unterräume entsprechen den Geraden
durch den Nullpunkt. Genauer besteht die Menge gv aus den Ortsvektoren sämtlicher
116
Kapitel 5. Lineare Algebra
Punkte auf der Geraden durch den Nullpunkt in Richtung v. Eine Gerade, die nicht
durch den Nullpunkt geht, entspricht keinem linearen Unterraum. Denn die Menge
der entsprechenden Ortsvektoren ist nicht unter Addition und Skalarmultiplikation
abgeschlossen.
Sind v, w 6= 0 zwei Vektoren in R3 , die nicht auf einer Geraden liegen, so spannen
sie eine Ebene durch den Nullpunkt auf, nämlich
E := {λv + µw | λ, µ ∈ R} .
Jede solche Ebene ist ein linearer Unterraum von R3 .
Und hier noch ein Beispiel für einen Unterraum des Funktionenraums:
5.6.6 Beispiel Jedes Polynom mit reellen Koeffizienten können wir als reellwertige
Funktion auf R auffassen. In diesem Sinn bilden die reellen Polynome eine Teilmenge
des Raum F (R, R). Diese Teilmenge ist ein linearer Unterraum, denn sowohl die
Summe von je zwei Polynomen ist wieder ein Polynom, als auch das Produkt eines
Polynoms mit einem festen Skalar.
Entsprechend bilden die Polynome mit komplexen Koeffizienten, betrachtet als
Funktionen auf C, einen linearen Unterraum des Raumes F (C, C).
Wir kommen nun wieder zurück auf lineare Gleichungssysteme, und beschreiben
jetzt deren Lösungsmengen in dem neuen begrifflichen Rahmen. Sei dazu K = R
oder K = C, und sei A eine m × n-Matrix mit Einträgen aij ∈ K. Sei weiter b ∈ Km
ein Spaltenvektor mit Einträgen in K. Das dazugehörige Gleichungssystem Ax = b
aus reellen oder komplexen linearen Gleichungen nennt man homogen, falls b der
Nullvektor ist, und andernfalls inhomogen. Es gilt folgendes:
5.6.7 Bemerkung Die Lösungsmenge


 
x1






 x2 
n

A
·
x
=
0
∈
K
L := x = 
 ... 






xn
des homogenen Gleichungssystems Ax = 0 (hier steht 0 für den Nullvektor in Km )
bildet einen linearen Unterraum des Kn .
Ist b ∈ Km nicht der Nullvektor, und hat das inhomogene Gleichungssystem
Ax = b eine Lösung v ∈ Kn , so ist die Lösungsmenge des inhomogenen Systems von
der Form
v + {x ∈ Kn | Ax = 0} .
Man erhält diese Menge also, indem man den Unterraum der Lösungen des zugehörigen homogenen Systems um v parallel verschiebt. Eine solche Menge bezeichnet man
als affinen Unterraum.
Ist zum Beispiel K = R, n = 3, m = 1 und A nicht gerade die Nullmatrix, so
bildet die Lösungsmenge des homogenen Gleichungssystems Ax = 0 eine Ebene in R3
5.6. Abstrakter Vektorraum
117
durch den Nullpunkt. Und die Lösungsmenge des inhomogenen Gleichungssystems
Ax = b (b 6= 0) ist eine dazu parallele Ebene.
Beweis. Betrachten wir zunächst das homogene Gleichungssystem Ax = 0. Offenbar
liegt der Nullvektor in der Lösungsmenge L, denn wenn man für jede der

 Variablen
x1
.
Null einsetzt, ist die Gleichung trivialerweise erfüllt. Seien jetzt u =  ..  und
xn
 
y1
.
v =  ..  Elemente von L. Dann gilt Au = 0 und Av = 0. Durch Addition der
yn
beiden Gleichungen erhalten wir Au + Av = 0. Weil die Multiplikation einer Matrix
mit Spaltenvektoren das Distributivgesetz erfüllt, folgt daraus A(u+v) = Au+Av =
0. Also ist auch u + v eine Lösung. Die Multiplikation mit einem Skalar λ liefert
ausserdem A(λu) = λAu = 0. Also liegt auch λu in der Lösungsmenge für alle
λ ∈ K. Damit ist gezeigt, dass L ein linearer Unterraum ist.
Betrachten wir jetzt das inhomogene Gleichungssystem Ax = b, wobei b ∈ Km
nicht der Nullvektor sei. Sind v, w ∈ Km zwei Lösungen des Systems Ax = b, so gilt
Av = b = Aw, und daraus folgt A(v−w) = Av−Aw = b−b = 0. Der Differenzvektor
v − w liegt also im Lösungsraum L des zugehörigen homogenen Gleichungssystems.
Das heisst w ∈ v + L. Ist umgekehrt u ∈ L, so folgt A(v + u) = Av + Au = b + 0 = b.
Also ist v + u eine Lösung des inhomogenen Gleichungssystems. Zusammen ergibt
sich die Behauptung.
q.e.d.
Zugehörige Unterlagen
Herunterladen