Die lineare Hülle

Werbung
Eine Menge v +U mit einem Untervektorraum U nennt man auch eine Nebenklasse
des Untervektorraumes U . Sie entsteht, wenn man die Translation τv auf die Menge U
anwendet.
Ausdrücke der Form αu + βv, auch mit mehr als zwei Summanden, sind uns schon
begegnet und werden uns noch häufig begegnen. Wir machen eine formale
Definition. Seien (V, K) ein Vektorraum, v1 , . . . , vn ∈ V und α1 , . . . , αn ∈ K , dann
heißt der Vektor
n
X
v = α1 v1 + α2 v2 + · · · + αn vn =
αi vi
i=1
Linearkombination der Vektoren vi mit Koeffizienten αi .
Direkt aus (12.6) folgt
(12.10) Es sei U ein Untervektorraum des Vektorraums (V, K). Dann sind mit v1 , . . . , vn ∈
U auch alle Linearkombinationen dieser Vektoren in U .
Als abschließendes Beispiel bestimmen wir die Untervektorräume des R2 . Sei
(0, 0) 6= u ∈ U ⊆ R2 . Damit U Untervektorraum sein kann, muss U alle Vielfachen von
u enthalten (vgl. auch (12.10)):
Für u ∈ U gilt dann αu ∈ U für alle α ∈ R, d.h. Ru = {αu ; α ∈ R} ⊆ U .
Wie gesehen ist Ru eine Gerade durch (0, 0). Jede solche Gerade ist nach (12.8) ein
Untervektorraum.
Damit haben wir bereits alle Untervektorräume gefunden!
(12.11) Sei U ⊆ R2 Untervektorraum. Dann ist U = {(0, 0)} oder U = Ru (Gerade
durch den Ursprung) oder U = R2 .
Beweis. Wir müssen zeigen: Besteht U nicht nur aus einer Geraden der Gestalt Ru, so
ist U bereits der gesamte Vektorraum R2 .
Sei also v = (v1 , v2 ) ∈ U, u = (u1 , u2 ) ∈ U , beide von Null verschieden, und v 6∈ Ru.
Nach (10.6) existieren dann zu jedem w ∈ R2 Elemente α, β ∈ R mit w = αu + βv.
Andererseits liegt wegen (12.10) dieses Element in U .
Daher liegt jedes Element von R2 in U , somit U = R2 .
Außer den trivialen Untervektorräumen {(0, 0)} und R2 sind (geometrisch gesprochen) nur noch Geraden durch den Nullpunkt (0, 0) Untervektorräume von R2 .
Frage: Wie sehen alle Untervektorräume von R3 aus?
Die lineare Hülle
Die Menge aller Linearkombinationen einer Menge von Vektoren bilden einen Untervektorraum.
49
(12.12) Seien (V, K) ein Vektorraum und v1 , . . . , vn ∈ V . Die Menge
L(v1 , . . . , vn ) := {α1 v1 + α2 v2 + · · · + αn vn ; α1 , . . . , αn ∈ K}
ist ein Untervektorraum von V .
Beweis. Übung!
Definition. Der Untervektorraum L(v1 , . . . , vn ) aller Linearkombinationen wird auch
lineare Hülle der Vektoren v1 , . . . , vn genannt.
(12.13) Beispiele. 1.) L(0) = {α0 ; α ∈ R} = {0}.
2.) L(v) = Rv.
3.) V = R2 : L((1, 0), (0, 1)) = α1 (1, 0) + α2 (0, 1) ; αi ∈ R = (α1 , α2 ) ; . . . = R2 .
4.) V = R2 : L((1, 0), (2, 0)) = α1 (1, 0) + α2 (2, 0) ; αi ∈ R = R(1, 0).
5.) V = R2 : L((1, 1), (1, −1)) = α1 (1, 1) + α2 (1, −1) ; αi ∈ R = ?
6.) V = R3 : Gesucht sind U1 = L((1, 0, 0), (0, 1, 0)); U2 = L((1, 0, 0), (1, 2, 0)) und
U3 = L((1, 2, 0), (2, 4, 0)).
Liegen (2, 1, 0) und/oder (1, 1, −1) in Uk ?
7.) Nur der Vollständigkeit halber sei erwähnt: L(∅) := {0}.
8.) V = R4 : L((1, 0, 0, 0), (0, 1, 0, 0)) ist
9.) V = C2 : L((1, i), (i, −1)) =
Bemerkung. Verschiedene Vektoren können durchaus die gleiche lineare Hülle haben,
wie U1 und U2 in Beispiel 6.) zeigen.
Beispiel 6.) zeigt auch, dass die Suche nach einer Darstellung eines Vektors als Linearkombination auf ein lineares Gleichungssystem führt. Wir betrachten das etwas genauer.
Gegeben seien v1 , . . . , vr ∈ Rn . Wie prüfen wir ob w ∈ L(v1 , . . . , vr ) ? Wir müssen
w als Linearkombination darstellen, d.h. wir suchen α1 , . . . , αr ∈ R mit
w = α1 v1 + · · · + αr vr .
Stellt man alle Vektoren

v11
 ..
w = α1  .
vn1
als Spalten dar, ergibt sich


 


v1r
v11 . . . v1r
α1

 .   .
..   ..  .
 + · · · + αr  ..  =  ..
.  . 
vnr
vn1 . . . vnr
αr
50
Es ist also ein lineares Gleichungssystem zu lösen. Die Spalten der Koeffizientenmatrix V
sind genau die Vektoren v1 , . . . , vr , die „rechte Seite“ ist der Vektor w. Man vergleiche
das mit der Spaltensicht (11.11) der Matrizenmultiplikation.
Ist dieses Gleichungssystem nicht lösbar, dann bedeutet das w 6∈ L(v1 , . . . , vr ).
Als nächstes stellt sich die Frage ob — im Fall der Existenz — diese Darstellung
eindeutig ist. Es wird sich herausstellen, dass man nur den Nullvektor untersuchen muss.
Die Gleichung α1 v1 + · · · + αr vr = 0 hat immer die (triviale) Lösung αi = 0 für alle
i = 1, . . . , r . Und wir wissen ja auch, dass 0 in jeder linearen Hülle liegt.
Gibt es in L(v1 , . . . , vr ) weitere Linearkombinationen α1 v1 + . . . + αr vr = 0?

!
!
!
1
1
0 
(12.14) Beispiele. 1.) V = R2 , L 
,
,
. Hier gilt beispielsweise
0
1
1
..................................................................................
..................................................................................
..................................................................................

2.) V = R2 , L 
0
0
1
0
!
=α·
!
0
1
,
1
0
!
 . Die Suche nach α, β ∈ R mit
!
+β·
0
1
!
=
α
β
!
ergibt zwingend α = β = 0.
Die Beispiele zeigen, dass mit r Vektoren v1 , . . . , vr manchmal die Darstellung des
Nullvektors als Linearkombination — wie im letzten Beispiel — ausschließlich auf triviale
Weise möglich ist. Manchmal sind wie in (12.14.1) auch andere Linearkombinationen
möglich.
Diese Beobachtung gibt Anlass zu einer
(12.15) Definition. Sei (V, K) ein beliebiger Vektorraum, v1 , . . . , vr ∈ V .
(1) (v1 , . . . , vr ) heißt linear unabhängig : ⇐⇒ Für alle α1 , α2 , . . . , αr ∈ K gilt
α1 v1 + . . . + αr vr = 0 =⇒ α1 = α2 = . . . = αr = 0.
Man sagt auch: Der Nullvektor lässt sich nur trivial aus v1 , . . . , vr kombinieren.
(2) (v1 , . . . , vr ) heißt linear abhängig : ⇐⇒ (v1 , . . . , vr ) ist nicht linear unabhängig.
51
Auch folgende Ausdrucksweisen für lineare (Un)abhängigkeit sind üblich: Die Vektoren v1 , . . . , vr sind linear (un)abhängig, {v1 , . . . , vr } ist linear (un)abhängig, usw.
Die Mengenschreibweise ist nicht ganz adäquat, weil in der Liste doppelte vorkommen
können. In diesem Fall sind die Vektoren aber immer linear abhängig; warum?
(12.16) Beispiele. 1.) Im Vektorraum R2 ist ((1, 0), (0, 1)) linear unabhängig, während ((1, 0), (1, 1), (0, 1)) linear abhängig ist.
2.) Untersuche die lineare Abhängigkeit von
((1, 0), (2, 0)),
((1, 1, 1), (0, 1, 2)),
((0, 0), (1, 2)),
und ((i, 2), (1, −2i)).
3.) v, w ∈ Rn \ {0} sind linear abhängig ⇐⇒ v ∈ Rw ⇐⇒ Rv = Rw.
Siehe dazu auch (10.2).
Direkt aus der Definition und den Vorüberlegungen ergibt sich
(12.17) Es sei A ∈ Rm×n eine Matrix. Dann ist Kern A = {0} genau dann, wenn die
Spalten von A linear unabhängig sind.
Die wichtigste Eigenschaft linear unabhängiger Systeme ist
(12.18) Seien v1 , . . . , vr ∈ V , dann gilt (v1 , . . . , vr ) ist linear unabhängig genau dann,
wenn jeder Vektor in L(v1 , . . . , vr ) eindeutig als Linearkombination der v1 , . . . , vr dargestellt werden kann.
Beweis. „ ⇐=“ ist trivial, denn insbesondere kann ja die Null nur auf eine Weise dargestellt werden.
„ =⇒“: Sei v ∈ L(v1 , . . . , vr ) auf zwei Weisen dargestellt:
v = α1 v1 + · · · + αr vr
v = β1 v1 + · · · + βr vr
Subtrahieren der Gleichungen liefert
0 = (α1 − β1 )v1 + · · · + (αr − βr )vr .
Weil (v1 , . . . , vr ) linear unabhängig ist, folgt αi − βi = 0. Daher gibt es nur eine Darstellung.
Will man Vektoren auf lineare (Un)abhängigkeit untersuchen, muss man stets alle
beteiligten Vektoren im Auge behalten.
Beispiel. ((1, 0), (1, 1), (0, 1)) ist linear abhängig, obwohl je zwei Vektoren linear unabhängig sind.
52
(12.19) Bemerkung. 1.) Sind Vektoren v1 , . . . , vr linear abhängig, kann man mindestens einen von ihnen als Linearkombination der übrigen aufschreiben; denn
P
αi vi = 0 und oE αr 6= 0 ergibt
vr = −αr−1 α1 · v1 − . . . − αr−1 αr−1 · vr−1 .
Dies bedeutet L(v1 , . . . , vr−1 ) = L(v1 , . . . , vr ). Um unnötigen Schreib- und Rechenaufwand zu vermeiden, ist man an linear unabhängigen Vektoren interessiert.
2.) Wir haben gesehen, dass der Kern einer Matrix und damit die Lösungsmenge U
eines homogenen linearen Gleichungssystems ein Untervektorraum ist. Das Gaußsche
Eliminationsverfahren liefert aber mehr: Es liefert Vektoren v1 , . . . , vr mit U =
L(v1 , . . . , vr ); und diese Vektoren sind linear unabhängig! Dabei ist r die Anzahl
der freien Variablen.
Vgl. dazu die Beispiele unter (11.13) und aus den Übungen.
Basen
Die vorige Bemerkung 2.) besagt, dass beim Eliminationsverfahren eine besonders günstige Beschreibung des Lösungsraumes entsteht — es entsteht eine Basis des Lösungsraums.
Definition. Sei V ein beliebiger Vektorraum, vi ∈ V .
(v1 , . . . , vr ) heißt Basis von V , wenn gilt
(B1)
(v1 , . . . , vr ) ist linear unabhängig;
(B2)
L(v1 , . . . , vr ) = V .
(12.20) Bemerkung. 1.) Basen sind minimale Erzeugendensysteme eines Vektorraumes. Jeder Vektor aus V liegt in der linearen Hülle einer Basis (Erzeugendensystem). Entfernt man einen Vektor aus einer Basis, umfasst die lineare Hülle der restlichen Vektoren nicht mehr alle Vektoren aus V (minimal). Vgl. dazu auch (12.19.1).
2.) Ist eine Basis (b1 , . . . , bn ) gegeben, kann jeder Vektor v wegen (B2) als Linearkombination dieser Basisvektoren geschrieben werden. Weil die Basisvektoren wegen
(B1) linear unabhängig sind, ist diese Darstellung nach (12.18) eindeutig, es gibt
also eindeutig bestimmte (α1 , . . . , αn ) ∈ Rn mit
v = α1 b1 + . . . + αn bn .
Die Eindeutigkeit ermöglicht den Koeffizientenvergleich.
3.) In der Physik (und auch in der Mathematik) wird die Lösung von Problemen oft
durch die Wahl eines geeigneten Koordinatensystems vereinfacht. Der Wechsel von
einem Koordinatensystem zu einem anderen mit demselben Ursprung, bedeutet den
Übergang zu einer anderen Basis!
53
4.) Falls auch der Ursprung verlegen werden soll, dann benutzt man noch eine Translation.
Die Aussage von (12.19.2) zusammen mit (11.14) über ein gegebenes lineares Gleichungssystem kann man so zusammenfassen:
(12.21) Das Gaußsche Eliminationsverfahren liefert eine Basis der Lösungsmenge des
homogenen Systems und zugleich eine spezielle Lösung des Systems.
Die Anzahl der Basisvektoren ist die Anzahl der freien Variablen.
Besser kann man die Lösungsmenge nicht beschreiben! Insbesondere kann man bei der
Beschreibung nichts weglassen.
Anstelle von einer Basis (v1 , . . . , vr ) spricht man auch von einer Basis {v1 , . . . , vr }
oder man sagt, die Vektoren v1 , . . . , vr bilden eine Basis.
Anmerkung: In dieser Vorlesung werden wir nicht auf Unterschiede eingehen, die sich
aus der Schreibweise einer Basis als geordnetes Tupel oder ungeordnete Menge ergeben
und je nach Gutdünken eine der beiden Darstellungen wählen.
(12.22) Beispiele. 1.) V = R2 : ((1, 0), (0, 1)) und ((1, 1), (1, 2)) sind Basen, für (2, 5) ∈
R2 gilt (2, 5) = 2 · (1, 0) + 5 · (0, 1) bzw. (2, 5) = (−1) · (1, 1) + 3 · (1, 2).
2.) ((1, 2), (1, 3), (1, 4)) ist keine Basis, denn
3.) V = R3 : ((1, 0, 0), (0, 1, 0), (0, 0, 1)) ist eine Basis. ((1, 0, 0), (0, 0, 1)) ist keine Basis,
denn
4.) V = Rn mit n ∈ N: Sei ei := (0, . . . , 0, 1, 0, . . . , 0) mit der 1 an i–ter Stelle. Diese
besonders einfache Basis (e1 , . . . , en ) wird kanonische Basis genannt.
5.) In der Schule haben Sie bereits mehr oder weniger bewusst die kanonische Basis
benutzt, um Punkte der Anschauungsebene R2 eindeutig anzugeben: P = (x, y)
bedeutet nichts anderes als P = (x, y) = x · (1, 0) + y · (0, 1) = x · e1 + y · e2 .
6.) Jede Basis von R2 muss zwei Elemente haben. Für ein einzelnes v ist L(v) 6=
R2 . Drei können nicht linear unabhängig sein, denn nach dem Beweis von (12.11),
kann man jedes Element in R2 schon mit je zwei linear unabhängigen Vektoren
ausdrücken. Gehen Sie den Beweis nochmals durch um sich das klar zu machen.
7.) Wir betrachten die Menge R[x] aller Polynome. Diese bilden einen Untervektorraum
von RR aller Abbildungen R → R. Man erkennt, dass (1, x, x2 , . . . , xn ) für alle
n ∈ N linear unabhängig ist. Das unendliche System (1, x, x2 , . . . , xn , . . . ) hat die
Eigenschaften einer Basis. Insbesondere kann jedes Polynom eindeutig als (endliche)
Linearkombination dieser Element dargestellt werden.
Der folgende Satz beschäftigt sich mit der Existenz von Basen. Er gilt viel allgemeiner
als hier formuliert. Der Beweis geht aber leider weit über den Stoff dieser Vorlesung
hinaus.
54
(12.23) Basisergänzungssatz. Sei V ein Vektorraum, {v1 , . . . , vr }, {w1 , . . . , ws } seien Teilmengen von V und es gelte L(v1 , . . . , vr , w1 , . . . , ws ) = V . Wenn (v1 , . . . , vr ) linear unabhängig ist, kann (v1 , . . . , vr ) durch Hinzufügen von Vektoren aus {w1 , . . . , ws }
zu einer Basis von V ergänzt werden.
Beweis (Skizze). 1. Wenn L(v1 , . . . , vr ) = V gilt, sind keine Vektoren hinzuzufügen —
auch dieser Fall ist eingeschlossen.
2. Sei L(v1 , . . . , vr ) 6= V = L(v1 , . . . , vr , w1 , . . . , ws ). Mit (12.19) erkennt man, dass
wi ∈ {w1 , . . . , ws } \ L(v1 , . . . , vr ) existiert, und es folgt, dass (v1 , . . . , vr , wi ) linear
unabhängig ist (um das zu zeigen ist etwas Detailarbeit erforderlich).
3. Man überprüft, ob L(v1 , . . . , vr , wi ) = V gilt. Wenn ja, ist man fertig, sonst führt
man 2. analog für L(v1 , . . . , vr , wi ) 6= V durch: ∃wj ∈ {w1 , . . . , ws } \ {wi } so, dass
(v1 , . . . , vr , wi , wj ) linear unabhängig ist, usw.
4. Nach spätestens s vielen Schritten ist man fertig.
Einen detailierten Bewies findet man z.B. in [Beu98] oder [Fis11].
(12.24) Beispiel. Im R3 ist (v1 , v2 ) = ((1, 0, 0), (0, 1, 0)) linear unabhängig, und für
(w1 , w2 , w3 ) = ((1, 1, 0), (0, 1, 1), (1, 1, 1)) gilt L(v1 , v2 , w1 , w2 , w3 ) = R3 (ohne Beweis).
Wegen L(v1 , v2 ) = (α1 , α2 , 0) ; αi ∈ R 6= R3 gibt es wi ∈ {w1 , w2 , w3 } mit wi 6∈
L(v1 , v2 ).
Wegen w1 = v1 +v2 ∈ L(v1 , v2 ) kommt w1 nicht in Frage, aber es ist w2 6∈ L(v1 , v2 ).
Daher ist (v1 , v2 , w2 ) linear unabhängig. Man kann zeigen, dass dies eine Basis von R3
ist.
Frage : Was ist mit (v1 , v2 , w3 )?
Dimension
Wir haben gesehen, dass ein Vektorraum viele verschiedene Basen haben kann. Es wird
uns allerdings nicht gelingen, eine Basis des R2 mit nur einem oder eine mit mehr als
zwei Vektoren zu finden (siehe (12.22.6)). Allgemeiner besteht jede Basis des Rn aus
genau n Vektoren. Der Beweis dieser simplen Aussage ist allerdings so schwierig, dass
er in dieser Vorlesung leider nicht durchgeführt werden kann. Siehe z.B. [Beu98] oder
[Fis11].
(12.25) Satz über die Gleichmächtigkeit von Basen. In einem Vektorraum seien
(v1 , . . . , vn ) und (w1 , . . . , wm ) Basen. Dann gilt n = m.
Dieser Satz erlaubt es uns, eine mathematische Definition des Dimensionsbegriffs zu
geben. Machen Sie sich klar, dass das unserer intuitiven Vorstellung von Dimension
(zumindest im Anschauungsraum) entspricht.
Definition. (1) Sei (v1 , . . . , vn ) eine Basis eines Vektorraumes (V, K). Dann heißt n
die Dimension von V , geschrieben dim V = n oder dimK V = n.
(2) Sei V ein Vektorraum, der für kein n ∈ N0 eine Basis (v1 , . . . , vn ) besitzt. Dann
heißt V unendlich dimensional, geschrieben dim V = ∞.
55
(12.26) Beispiele. 1.) Für die uns vertrauten reellen Vektorräume Rn gilt dim Rn = n
(auch für n = 1). Das folgt aus (12.22.4).
2.) dim R[x] = ∞ nach (12.22.7). Genauso gilt dim R[0,1] = ∞.
3.) C ist ein R-Vektorraum (der Nachweis ist einfach!). Was ist dimR C?
..................................................................................
..................................................................................
..................................................................................
.
4.) Was sind dimR R, dimQ R?
(12.27) Bemerkung. 1.) Um die lineare (Un)abhängigkeit konkreter Vektoren zu prüfen ist ein lineares Gleichungssystem zu lösen. Das wurde schon an Beispielen (auch
in den Übungen) durchgeführt.
2.) In einem Fall können Sie sich jede Rechenarbeit ersparen, nämlich wenn Sie in einem Vektorraum der Dimension n mehr als n Vektoren auf lineare Unabhängigkeit
untersuchen sollen.
3.) Wir können nun (12.21) nochmals ergänzen: Die Dimension des Kernes einer Matrix
ist die Anzahl der freien Variablen des zugehörigen linearen Gleichungssystems.
4.) Im Rn ist jede linear unabhängige Menge mit n Elementen eine Basis von Rn . Das
gilt auch für jedes Erzeugendensystem mit n Elementen.
5.) Interessierten Studierenden sei der Beweis des Satzes (12.25) ans Herz gelegt. Sie finden ihn in jedem Buch über lineare Algebra. Aber Vorsicht: Die unendliche Variante
ist noch schwieriger!
6.) Welche Dimension hat {0}?
..................................................................................
..................................................................................
56
..................................................................................
Um den folgenden Satz einfacher formulieren zu können machen wir eine
(12.28) Definition. Zu jeder Matrix A ∈ Rm×n sei L(A) die lineare Hülle der Spalten
von A. Es ist L(A) ein Untervektorraum von Rm , genannt der Spaltenraum von A.
Für lineare Gleichungssysteme haben unsere Betrachtungen folgende Konsequenzen.
(12.29) Satz. Es sei A ∈ Rm×n und
(1) Für b ∈ Rm existiert eine Lösung des Systems Ax = b genau dann, wenn b ∈ L(A).
(2) Äquivalent sind
(I) Das System Ax = b besitzt für alle b ∈ Rm höchstens eine Lösung.
(II) Die Spalten von A sind linear unabhängig.
(III) Kern A = {0}.
(3) Äquivalent sind
(I) Das System Ax = b besitzt für alle b ∈ Rm genau eine Lösung.
(II) m = n und die Spalten von A sind linear unabhängig.
(III) Die Spalten von A bilden eine Basis von Rm .
(IV) m = n und L(A) = Rm .
(V) A ist invertierbar.
Beweis. (1) ist eine Umformulierung der Spaltensicht der Matrizenmultiplikation (11.11).
(2) „(I) ⇐⇒ (II)“ folgt aus (12.17) und (11.14); „(II) ⇐⇒ (III)“ steht in (12.17).
(3) „(V) =⇒ (I)“ ist klar; „(I) ⇐⇒ (III)“ steht in (12.18) zusammen mit (1).
(III) =⇒ (II): Es gilt L(A) = Rm und es gibt n Spalten. Daher folgt m = n. Nach
Definition einer Basis sind die Spalten von A linear unabhängig.
(II) =⇒ (IV): A hat m = n Spalten, die linear unabhängig sind, also ist die lineare
Hülle gleich Rm . Das folgt aus (12.23) und (12.25).
Ähnlich folgt „(IV) =⇒ (III)“ durch zusammenwirken der beiden Sätze (12.23) und
(12.25). — Wie?
„(III) =⇒ (V)“ wird später behandelt.
(12.30) Bemerkung. 1.) Für eine Matrix A ∈ Rm×n wird dim L(A) auch Rang der
Matrix genannt. Es ist ein bedeutendere Satz der linearen Algebra, dass der Rang
einer Matrix zugleich die Dimension der linearen Hülle der Zeilen von A ist.
Kurz:
Zeilenrang = Spaltenrang.
2.) Mit diesen Begriffen (und solchen aus dem folgenden Kapitel) kann man die Liste
der äquivalenten Aussagen unter (3) noch erweitern.
57
Affine Unterräume
treten als Lösungsmengen linearer Gleichungsysteme auf. Vgl. zu diesem Abschnitt
auch (12.9). Dort fiel der Begriff der Nebenklasse.
Definition. Es sei U ein Untervektorraum eines Vektorraums V , dann heißt P + U =
τP (U ) für jedes P ∈ V ein affiner Unterraum von V .
Wir setzen dim(P + U ) := dim U und sprechen von der Dimension des affinen
Unterraums.
Etwas plakativ gesprochen sind affine Unterräume „verschobene“ Untervektorräume.
Ist (b1 , . . . , bn ) eine Basis von U , so gilt
P + U = P + L(b1 , . . . , bn ) = P + Rb1 + · · · + Rbn .
Man spricht daher von einer Parameterdarstellung des affinen Unterraums.
Spezialfall: Affine Unterräume der Dimension 2 werden Ebenen genannt. Eine Parameterdarstellung hat die Form P + Rb1 + Rb2 mit einem Stützpunkt P und den
Richtungsvektoren b1 , b2 , die linear unabhängig sein müssen. Bisher konnten wir
Ebenen nur im R3 in Koordinatendarstellung beschreiben.
Zusammenfassung
Dimension
Trivialname
Parameterdarstellung
0
Punkt
1
Gerade
2
Ebene
P = P + {0}
g = P + Rb1
E = P + Rb1 + Rb2
b1 6= 0
b1 , b2 lin. unabhängig
nur in R2
nur in R3
Koordinatendarstellung
g : ax1 + bx2 = c E : ax1 + bx2 + cx3 = d
(a, b) 6= (0, 0)
(a, b, c) 6= (0, 0, 0)
Koordinatendarstellung zu Parameterdarstellung: Man fasst die Gleichung als lineares Gleichungssystem mit nur einer Gleichung auf, führt freie Variable ein und bestimmt die Lösungsmenge.
Beispiel. E : 2x − y + 3z = 5
Parameterdarstellung zu Koordinatendarstellung: Man berechnet einige Punkte
aus g bzw. E und macht für diese Punkte den Ansatz
ap1 + bp2 + cp3 − d = 0
aq1 + bq2 + cq3 − d = 0
ar1 + br2 + cr3 − d = 0
und bestimmt eine Lösung (a, b, c, d) 6= (0, 0, 0, 0) dieses linearen Gleichungsystems.
58


 


1
1
−1
 
 


Beispiel. E =  1  + R  1  + R  0 
2
0
1
Bemerkung. Man könnte die Liste für höhere Dimensionen weiterführen. Eine Koordinatendarstellung für einen affinen Unterraum gibt es nur, wenn die Dimension um 1
kleiner ist als die Dimension des umgebenden Raumes.
59
Herunterladen