Montag 24.1.2011

Werbung
Mathematik für Physiker I, WS 2010/2011
Montag 24.1
$Id: vektor.tex,v 1.7 2011/01/24 14:10:45 hk Exp $
$Id: cartesisch.tex,v 1.3 2011/01/24 14:28:24 hk Exp $
§11
Vektorräume
11.5
Lineare Abbildungen
Am Ende der letzten Sitzung hatten wir die sogenannten linearen Abbildungen f : V →
W zwischen zwei Vektorräumen eingeführt, und einige ihrer direkt aus der Definition
ersichtlichen Eigenschaften aufgelistet. Insbesondere hatten wir das Bild
Bild(f ) := f (V ) = {f (x)|x ∈ V }
und den Kern
Kern(f ) := {x ∈ V |f (x) = 0}
einer solcgen linearen Abbildung definiert. Das Bild mißt sozusagen die Surjektivität
einer linearen Abbildung, denn f ist genau dann surjektiv wenn Bild(f ) = W ist. Auf
der anderen Seite mißt der Kern die Injektivität, in Lemma 9.(g) wurde festgehalten
das f genau dann injektiv ist wenn Kern(f ) = {0} ist. Im verbleibenden Teil dieses
Abschnitts wollen wir die grundlegende Dimensionsformel herleiten, die einen Zusammenhang zwischen der Größe von Kern und Bild einer linearen Abbildung herstellt.
Von besonderen Interesse werden die sogenannten Isomorphismen sein, dies sind lineare
Abbildungen die zugleich surjektiv und injektiv, also bijektiv sind.
Definition 11.11 (Isomorphismen von Vektorräumen)
Seien V, W zwei Vektorräume über K. Ein Isomorphismus von V nach W ist eine
bijektive lineare Abbildung f : V → W . Weiter nennen wir die Vektorräume V und W
isomorph, geschrieben als V ' W , wenn es einen Isomorphismus von V nach W gibt.
Wir kennen bereits einige Beispiele von Isomorphismen, nur dass wir diese bisher nicht
so genannt haben. Ist etwa v1 , . . . , vn eine Basis von V , so ist die Koordinatenabbildung
Ψ : K n → V ; x 7→
n
X
xi vi
i=1
bijektiv und linear, also ein Isomorphismus. An diesem Beispiel kann man schön sehen,
dass Isomorphismen im wesentlichen ein Übersetzungsmechanismus“ sind. Wollen wir
”
irgendetwas im Vektorraum V untersuchen, so können wir dies entweder in V selbst
tun, oder alles in Termen der Koordinaten bezüglich der Basis v1 , . . . , vn rechnen. Beide
Sichtweisen sind völlig gleichwertig und der Isomorphismus Ψ stellt die Übersetzung
zwischen ihnen her. Isomorphe Vektorräume sind also im wesentlichen gleich, und ein
Isomorphismus beschreibt in welchem Sinne sie gleich sind.
21-1
Mathematik für Physiker I, WS 2010/2011
Montag 24.1
Wir wollen auch noch ein etwas komplizierteres Beispiel eines Isomorphismus besprechen. Bei unserer Untersuchung von Reihen in §7 hatten wir den Reihenbegriff
über den Begriff der Partialsummen wieder auf Folgen zurückgeführt. Wir können uns
das Bilden der Partialsummen also als eine Übersetzung zwischen Folgen und Reihen
vorstellen, und dies ist in Wahrheit ein Beispiel eines Isomorphismus von Vektorräumen. Sei hierzu K ∈ {R, C} und betrachte den Vektorraum V := K N aller Folgen in
K.
P∞Einen eigenen ”Reihenvektorraum“ führen wir nicht ein, wir denken uns die Reihe
n=0 an als die Folge (an )n∈N ihrer Summanden. Die Partialsummen sind dann die
Abbildung
!
n
X
Σ : V → V ; (an )n∈N 7→
ak
.
k=0
n∈N
Die Abbildung Σ ist linear und auch bijektiv, also ein Isomorphismus. Zum Nachweis
der Bijektivität können wir gemäß §3.Lemma 3 die Umkehrabbildung hinschreiben, und
diese ist durch die Differenzenabbildung ∆ : V → V gegeben, die eine Folge (an )n∈N
auf die durch
(
an − an−1 , n ≥ 1,
a0n :=
a0 ,
n=0
gegebene Folge (a0n )n∈N abbildet. Den expliziten Nachweis dieser Behauptungen können
Sie als eine Übungsaufgabe betrachten. Nach diesen Beispielen kommen wir nun zu
einem allgemeinen Satz über das Verhalten von Basen und Dimension unter Isomorphismen.
Lemma 11.10 (Grundeigenschaften von Isomorphismen)
Seien V, W zwei Vektorräume über K und f : V → W eine lineare Abbildung.
(a) Ist f ein Isomorphismus, so ist auch die Umkehrabbildung f −1 : W → V ein
Isomorphismus.
(b) Sei v1 , . . . , vn eine Basis von V . Dann ist f genau dann ein Isomorphismus wenn
f (v1 ), . . . , f (vn ) eine Basis von W ist. Insbesondere ist dann auch W endlich
erzeugt mit dim V = dim W .
Beweis: (a) Es ist nur zu zeigen, dass f −1 : W → V wieder eine lineare Abbildung ist.
Seien also x, y ∈ W und λ ∈ K gegeben. Dann ist
f −1 (x+y) = f −1 (f (f −1 (x))+f (f −1 (y))) = f −1 (f (f −1 (x)+f −1 (y))) = f −1 (x)+f −1 (y)
und
f −1 (λx) = f −1 (λf (f −1 (x))) = f −1 (f (λf −1 (x))) = λf −1 (x),
und damit ist f −1 eine lineare Abbildung.
(b) Die zweite Aussage ist eine unmittelbare Folgerung der ersten Aussage, es reicht
also letztere zu beweisen.
21-2
Mathematik für Physiker I, WS 2010/2011
Montag 24.1
”=⇒” Sei also f ein Isomorphismus. Nach Lemma 9.(c) ist f (v1 ), . . . , f (vn ) ein Erzeugendensystem von Bild(f ) = W , es ist also nur noch zu zeigen,
Pndass diese Vektoren
auch linear unabhängig sind. Hierzu seien λ1 , . . . , λn ∈ K mit i=1 λi f (vi ) = 0 gegeben. Dann ist auch
!
n
n
X
X
f
λi v i =
λi f (vi ) = 0 = f (0)
i=1
i=1
Pn
nach Lemma 9.(a), also ist auch
i=1 λi vi = 0. Da die Vektoren v1 , . . . , vn linear
unabhängig sind, folgt λ1 = · · · = λn = 0. Damit sind auch f (v1 ), . . . , f (vn ) in W
linear unabhängig.
”⇐=” Nun nehmen wir an, dass die Vektoren f (v1 ), . . . , f (vn ) eine Basis von W bilden.
Nach Lemma 9.(c) ist dann
Bild(f ) = hf (v1 ), . . . , f (vn )i = W,
d.h. f : V → W ist zumindest surjektiv. Nun sei vP∈ Kern(f ) ein Vektor im Kern von
f , also f (v) = 0. Es gibt λ1 , . . . , λn ∈ K mit v = ni=1 λi vi . Wegen
!
n
n
X
X
λi f (vi ) = f
λi vi = f (v) = 0,
i=1
i=1
ergibt
Pndie lineare Unabhängigkeit von f (v1 ), . . . , f (vn ) auch λ1 = · · · = λn = 0, also
v = i=1 λi vi = 0. Dies zeigt Kern(f ) = {0} und nach Lemma 9.(f) ist f auch injektiv.
Insgesamt ist f damit bijektiv, also ein Isomorphismus.
Als nächstes Ziel wollen wir die schon erwähnte Dimensionsformel ansteuern. Diese
wird insbesondere implizieren, dass es für eine lineare Abbildung f : V → W zwischen
Vektorräumen gleicher Dimension, zum Test auf Isomorphie ausreicht zu zeigen, dass f
injektiv oder surjektiv ist, die andere Bedingung folgt dann automatisch. Zum Beweis
der Dimensionsformel benötigen wir eine Hilfsaussage über Untervektorräume, die wir
jetzt festhalten wollen.
Lemma 11.11: Seien V ein endlich erzeugter Vektorraum über K und U ≤ V ein
Untervektorraum von V . Dann ist auch U endlich erzeugt mit m := dim U ≤ dim V =:
n und es gibt eine Basis v1 , . . . , vn von V mit U = hv1 , . . . , vm i. Es ist genau dann
dim U = dim V wenn U = V gilt.
Beweis: Nach Korollar 7.(b) ist für jedes System v1 , . . . , vr linear unabhängiger Vektoren aus U stets r ≤ n. Damit existiert ein System v1 , . . . , vm linear unabhängiger
Vektoren in U der maximal möglichen Länge m ≤ n. Insbesondere sind diese Vektoren
maximal linear unabhängig in U , also ist v1 , . . . , vm nach Lemma 4 eine Basis von U .
Insbesondere ist U endlich erzeugt mit dim U = m ≤ n = dim V . Nach Satz 6.(c)
lassen sich die Vektoren v1 , . . . , vm zu einer Basis v1 , . . . , vn von V ergänzen. Es ist
U = hv1 , . . . , vm i und im Fall m = n haben wir damit sogar U = hv1 , . . . , vn i = V .
21-3
Mathematik für Physiker I, WS 2010/2011
Montag 24.1
Damit ist jetzt möglich die Dimensionsformel zu beweisen.
Satz 11.12 (Dimensionsformel für lineare Abbildungen)
Seien V, W zwei endlich erzeugte Vektorräume über K und f : V → W eine lineare
Abbildung. Dann gilt
dim Bild(f ) + dim Kern(f ) = dim V.
Beweis: Nach Lemma 9.(e) und Lemma 11 existiert eine Basis v1 , . . . , vn von V mit
Kern(f ) = hv1 , . . . , vm i wobei m = dim Kern(f ) ist. Wir behaupten, dass die Vektoren
f (vm+1 ), . . . , f (vn ) eine Basis des Bilds von f sind. Nach Lemma 9.(c) sind die Vektoren
f (v1 ), . . . , f (vn ) ein Erzeugendensystem von Bild(f ), und wegen f (v1 ) = · · · = f (vm ) =
0 ist auch f (vm+1 ), . . . , f (vn ) ein Erzeugendensystem von Bild(f ). Es bleibt also nur
noch diePlineare Unabhängigkeit dieser Vektoren zu zeigen. Seien hierzu λm+1 , . . . , λn ∈
K mit ni=m+1 λi f (vi ) = 0 gegeben. Dann ist auch
n
X
f
i=m+1
also
n
X
!
λi v i
=
n
X
λi f (vi ) = 0,
i=m+1
λi vi ∈ Kern(f ) = hv1 , . . . , vm i.
i=m+1
P
P
Pn
Also existieren λ1 , . . . , λm ∈ K mit ni=m+1 λi vi = − m
i=1 λi vi , also auch
i=1 λi vi =
0. Da die Vektoren v1 , . . . , vn linear unabhängig sind, bedeutet dies λ1 = · · · = λn = 0,
also insbesondere λm+1 = · · · = λn = 0. Damit sind die Vektoren f (vm+1 ), . . . , f (vn )
linear unabhängig, und bilden somit eine Basis von Bild(f ). Es folgt
dim Bild(f ) = n − m = dim V − dim Kern(f ).
Korollar 11.13: Seien V, W zwei endlich erzeugte Vektorräume über K mit dim V =
dim W und sei f : V → W eine lineare Abbildung. Dann sind die folgenden Aussagen
äquivalent:
(a) Die Abbildung f ist ein Isomorphismus.
(b) Die Abbildung f ist surjektiv.
(c) Die Abbildung f ist injektiv.
21-4
Mathematik für Physiker I, WS 2010/2011
Montag 24.1
Beweis: Es reicht die Äquivalenz von (b) und (c) zu zeigen. Nach Lemma 9.(f) und
Lemma 11 bestehen die Äquivalenzen:
f ist injektiv ⇐⇒
⇐⇒
⇐⇒
⇐⇒
⇐⇒
⇐⇒
§12
Kern(f ) = {0}
dim Kern(f ) = 0
dim V = dim Bild(f )
dim W = dim Bild(f )
W = Bild(f )
f ist surjektiv.
Der Vektorraum K n
In Aufgabe (46) wird gezeigt, dass zwei endlich erzeugte Vektorräume über K ∈
{R, C} genau dann isomorph sind, wenn sie dieselbe Dimension haben. Insbesondere ist
damit ein beliebiger n-dimensionaler Vektorraum V über K isomorph zum Vektorraum
K n der Spaltenvektoren mit n Einträgen. In gewissen Sinne ist der K n damit der allge”
meine“ n-dimensionale Vektorraum über K. Eine besondere Bedeutung hat natürlich
der R3 zur Beschreibung des gewöhnlichen“ Raums. Aber auch der Rn für andere
”
Werte von n spielt oftmals eine Rolle bei der Beschreibung räumlicher Vorgänge. Will
man beispielsweise den vollständigen Zustand eines sich bewegenden Massepunktes beschreiben, so brauchen wir sowohl drei Koordinaten zur Beschreibung seiner Position
als auch drei Koordinaten für seinen Geschwindigkeitsvektor, insgesamt hat man dann
einen Vektor im R6 .
12.1
Affine Teilräume des K n
Wir beginnen mit der Definition der üblichen geometrischen Objekte, wie Geraden
und Ebenen. Wie wir sehen werden könnte man diese auf exakt dieselbe Weise auch in
einem allgemeinen Vektorraum definieren, wir wollen uns hier aber auf den Spezialfall
des Vektorraums K n beschränken. Als Startpunkt behandeln wir Ursprungsgeraden
im K n , also Geraden die durch den Nullpunkt gehen. Eine solche Gerade l ist durch
einen von Null verschiedenen Richtungsvektor v ∈ K n \{0} bestimmt, und die Gerade
l besteht dann gerade aus den Vielfachen von v, also
l = {tv|t ∈ K} = hvi.
21-5
Mathematik für Physiker I, WS 2010/2011
Montag 24.1
In anderen Worten sind die Ursprungsgeraden genau die eindimensionalen Untervektorräume des K n . Für Ebenen e durch den Ursprung erhalten wir ein ähnliches Ergebis, solche Mengen werden von zwei linear unabhängigen Richtungsvektoren u, v
aufgespannt
e = {tu + sv|t, s ∈ K} = hu, vi,
es handelt sich also genau um die zweidimensionalen Untervektorräume des K n . Allgemeine Geraden beziehungsweise Ebenen erhalten wir durch Verschieben der Ursprungsgeraden. Die entstehenden Teilmengen des K n sind die sogenannten affinen Teilräume
eines Vektorraums.
Definition 12.1 (Affine Teilräume eines Vektorraums)
Sei V ein Vektorraum über K. Eine Teilmenge A ⊆ V heißt ein affiner Teilraum von
V , wenn A = ∅ ist oder es einen Vektor v ∈ V und einen Teilraum U ≤ V von V mit
A = v + U = {v + u|u ∈ U }
gibt.
Ob man die leere Menge als einen affinen Teilraum betrachten will, ist weitgehend
eine Geschmacksfrage und wird nicht einheitlich gehandhabt. Der Teilraum U in der
Definition eines nichtleeren affinen Teilraums A eines Vektorraums V ist dabei eindeutig bestimmt. Nehme nämlich an, wir hätten zwei Teilräume U1 , U2 ≤ V und zwei
Aufpunkte v1 , v2 ∈ V mit A = v1 + U1 = v2 + U2 . Wegen
v2 = v2 + 0 ∈ v2 + U2 = v1 + U1
ist dann v2 − v1 ∈ U1 und für jedes u ∈ U2 gibt es wegen v2 + u ∈ v2 + U2 = v1 + U1
ein u0 ∈ U1 mit v2 + u = v1 + u0 , also auch u = u0 − (v2 − v1 ) ∈ U1 . Dies zeigt U2 ⊆ U1 .
Analog folgt auch U1 ⊆ U2 , es ist also U1 = U2 . Man nennt den eindeutig bestimmten
Teilraum U ≤ V die Richtung des affinen Teilraums A von V . Insbesondere können
wir damit die Dimension eines affinen Teilraums A eines Vektorraums V als
(
dim U, wenn A = v + U mit v ∈ V , U ≤ V ,
dim A :=
−1,
wenn A = ∅
definieren. Hiermit definieren wir jetzt:
(a) Eine Gerade im K n ist ein eindimensionaler affiner Teilraum des K n ,
(b) Eine Ebene im K n ist ein zweidimensionaler affiner Teilraum des K n ,
(c) und eine Hyperebene im K n ist ein (n − 1)-dimensionaler affiner Teilraum des K n .
Im K 2 sind also Hyperebenen und Geraden dasselbe und im K 3 sind Ebenen und
Hyperebenen dasselbe. Wir gewohnt kann man eine Gerade durch einen Aufpunkt
und einen Richtungsvektor angeben, und eine Ebene durch einen Aufpunkt und zwei
21-6
Mathematik für Physiker I, WS 2010/2011
Montag 24.1
Richtungsvektoren. Die Richtungsvektoren sind dabei nicht eindeutig festgelegt, aber
der von ihnen aufgespannte Untervektorraum ist eindeutig bestimmt, er ist ja gerade
die Richtung des affinen Teilraums. Als Aufpunkt kann man dagegen einen beliebigen
Punkt des affinen Teilraums nehmen, d.h. ist A 6= ∅ ein affiner Teilraum von V mit
Richtung U ≤ V und v ∈ A ein beliebiger Punkt von A, so ist A = v + U . Nach
Definition eines affinen Teilraums gibt es nämlich überhaupt einen Vektor w ∈ V mit
A = w + U . Wegen v ∈ A gibt es weiter einen Vektor u ∈ U mit v = w + u. Da U
ein Untervektorraum von V ist, gilt u + U ⊆ U und wegen −u ∈ U auch −u ∈ U also
−u + U ⊆ U und somit U ⊆ u + U . Dies zeigt u + U = U , und somit folgt auch
A = w + U = w + u + U = v + U.
Im R3 ist der Schnitt einer Ebene und einer Geraden normalerweise ein Punkt und
der Schnitt zweier Ebenen normalerweise eine Gerade. Es gibt natürlich auch Ausnahmefälle wie parallele Ebenen, was die allgemeine Situation etwas verkompliziert. Wir
wollen einen Satz über das Schnittverhalten affiner Teilräume herleiten. Der Hauptteil
hiervon ist in Aufgabe (47) enthalten, dort ist zu zeigen das für zwei Teilräume U, W
eines endlich erzeugten Vektorraums V die Dimensionsformel
dim(U ∩ V ) + dim(U + W ) = dim U + dim W
gilt. Die affine Schnittdimensionsformel ist etwas komplizierter, da die Summe“ affiner
”
Teilräume von ihrer Lage zueinander abhängt. Beispielsweise können sich nicht schneidende Geraden im R3 entweder parallel oder windschief sein, im ersten Fall erzeugen
sie eine Ebene und im zweiten Fall den ganzen R3 . Im oben erwähnte Normalfall“
”
haben die Richtungen der beiden Teilräume eine Summe größtmöglicher Dimension,
beziehungsweise gleichwertig einen Schnitt kleinstmöglicher Dimension.
Satz 12.1 (Schnitte affiner Teilräume)
Sei V ein endlich erzeugter Vektorraum über K und seien A, B ⊆ V zwei affine
Teilräume von V .
(a) Die Menge A ∩ B ist wieder ein affiner Teilraum von V .
(b) Ist v ∈ A ∩ B und bezeichnet U die Richtung von A und W die Richtung von B,
so ist AB := v + (U + W ) der kleinste A und B enthaltende affine Teilraum von
V . Insbesondere ist AB unabhängig vom speziell gewählten v ∈ A ∩ B.
(c) Ist A ∩ B 6= ∅, so gilt die Dimensionsformel
dim(A ∩ B) + dim(AB) = dim A + dim B.
Beweis: Ist A ∩ B = ∅, so ist A ∩ B trivialerweise ein affiner Teilraum von V , wir
können also A ∩ B 6= ∅ annehmen. Wähle v ∈ A ∩ B. Zunächst behaupten wir, dass
A ∩ B = v + (U ∩ W )
21-7
Mathematik für Physiker I, WS 2010/2011
Montag 24.1
gilt. Es ist v + (U ∩ W ) ⊆ v + U = A und ebenso v + (U ∩ W ) ⊆ B, also v + (U ∩ W ) ⊆
A ∩ B. Nun sei umgekehrt x ∈ A ∩ B = (v + U ) ∩ (v + W ). Dann existieren u ∈ U ,
w ∈ W mit x = v + u und x = v + w. Insbesondere ist u = x − v = w ∈ U ∩ W ,
also x = v + u ∈ v + (U ∩ W ). Damit ist diese Aussage bewiesen, und insbesondere ist
A ∩ B ein affiner Teilraum von V mit Richtung U ∩ W .
Wir kommen jetzt zu Aussage (b). Zunächst ist v+(U +W ) ⊆ V ein affiner Teilraum
von A = v +U ⊆ v +(U +W ) und B = v +W ⊆ v +(U +W ). Ist andererseits C ⊆ V ein
beliebiger affiner Teilraum von V mit A, B ⊆ C, so ist insbesondere v ∈ A∩B ⊆ A ⊆ C,
also C = v + T mit einem Teilraum T ≤ V , und wegen v + U = A ⊆ C = v + T und
v + W = B ⊆ C = v + T , sind auch U, W ⊆ T , also U + W ⊆ T und v + (U + W ) ⊆
v + T = C. Damit ist (b) bewiesen, und die Dimensionsformel ergibt sich jetzt mit der
Dimensionsformel für Untervektorräume
dim(A∩B)+dim(AB) = dim(U ∩W )+dim(U +W ) = dim U +dim W = dim A+dim B.
Angenommen wir wollen wissen was normalerweise der Durchschnitt zweier dreidimensionaler affiner Teilräume A, B des R5 ist. Im Regelfall ist AB = R5 und A ∩ B 6= ∅,
und die Dimensionsformel besagt damit dim(A ∩ B) = 2 · 3 − 5 = 1, d.h. zwei solche
Räume schneiden sich in der Regel in einer Geraden.
Wir können unsere bisher erzielten Ergebnisse über lineare Gleichungssysteme jetzt
in der Sprache affiner Teilräume formulieren, und erhalten den folgenden Satz.
Satz 12.2 (Lösungsräume linearer Gleichungssysteme)
Seien K ∈ {R, C}, n, m ∈ N mit n, m ≥ 1 und betrachte ein lineares Gleichungssystem
Ax = b mit aus m Gleichungen in n Unbekannten mit Koeffizientenmatrix A ∈ K m×n
und rechter Seite b ∈ K m . Weiter sei r die Anzahl von Null verschiedener Zeilen nach
Anwendung des Gaußsschen Eliminationsverfahrens auf A. Dann hat Ax = b entweder
keine Lösung oder die Menge L := {x ∈ K n |Ax = b} ist ein (n − r)-dimensionaler affiner Teilraum des K n , dessen Richtung die Lösungsmenge des zugehörigen homogenen
linearen Gleichungssystems Ax = 0 ist.
Beweis: Dies ist klar nach §9.Satz 3 und unseren Überlegungen zur Dimension des
Lösungsraums eines homogenen linearen Gleichungssystems in §11.3.
Umgekehrt ist jeder affine Teilraum des K n als Lösungsraum eines linearen Gleichungssystems mit n Unbekannten darstellbar. Für den leeren affinen Teilraum ist dies klar,
wir betrachten also einen affinen Teilraum T ⊆ K n der Dimension m mit 0 ≤ m ≤ n.
Sei U ≤ K n die Richtung von T und wähle einen Aufpunkt a ∈ T . Nach §11.Lemma
11 existiert eine Basis v1 , . . . , vn des K n mit U = hv1 , . . . , vm i. Sei C die Transformationsmatrix von der kanonischen Basis e1 , . . . , en des K n zur Basis v1 , . . . , vn . Ein Vektor
v ∈ K n liegt genau dann in U wenn die hinteren n − m Koordinaten von v bezüglich
der Basis v1 , . . . , vn gleich Null sind. Ist also A die aus den unteren m − n Zeilen von C
21-8
Mathematik für Physiker I, WS 2010/2011
Montag 24.1
bestehende (n−m)×n Matrix über K, so ist U genau der Lösungsraum des homogenen
linearen Gleichungssystems Ax = 0. Verwenden wir dann b := Aa ∈ K n−m also rechte
Seite, so ist T genau der Lösungsraum von Ax = b.
Das beschriebene Verfahren ist effektiv leicht durchführbar. Wir nehmen an die
Richtung U des affinen Teilraums ist gegeben. Dann bestimmt man eine Basis v1 , . . . , vm
von U . Ist U beispielsweise durch ein Erzeugendensystem gegeben, so wissen wir das wir
nur linear abhängige Vektoren entfernen müssen bis eine Basis übrig bleibt. Im nächsten
Schritt muss v1 , . . . , vm dann zu einer Basis v1 , . . . , vn des K n ergänzt werden, und nach
dem Steinitzschen Austauschsatz §11.Lemma 5 wissen wir das wir hierbei mit Ergänzen
geeigneter der e1 , . . . , en auskommen. Die Übergangsmatrix von der Basis v1 , . . . , vn zur
kanonischen Basis e1 , . . . , en ist dann einfach die Matrix C deren Spalten die Vektoren
v1 , . . . , vn sind, und die gesuchte Übergangsmatrix von der Basis e1 , . . . , en zur Basis
v1 , . . . , vn ist die inverse Matrix C −1 .
Als ein konkretes Beispiel betrachten wir den zweidimensionalen affinen Teilraum



 

1
1
0 +
*
 −1 

 

 +  2 , 1 
T =
 0 
 −1   2 
1
1
−2
des R4 . Richtung und Aufpunkt sind hier direkt angegeben. Wegen
1
0
1
0
2
1
0
2
2
1
0
0
1
= −1
= 5 6= 0
2 1 = − −1
2 0 1 1 −2 1 −2 0
1 −2 0 0 ist v1 , v2 , e1 , e3 eine Basis des R4 wobei v1 , v2 die beiden Erzeuger der Richtung von T
sind. Die gesuchte Übergangsmatrix erhalten wir durch Invertieren

−1


1
0 1 0
0
2 0
1
 2

1 0 0 
1 0 −2 

 = 1 0
.

 −1

2 0 1
5 −2 0 −1 
5
1 −2 0 0
0
0 5
5
Die Koeffizientenmatrix unseres linearen Gleichungssystems besteht aus den unteren
beiden Zeilen dieser Matrix, also
1 5 −2 0 −1
A=
0 5
5
5 0
und die rechte Seite ist

b=
1
5
5 −2 0 −1
0
0 5
5

1
 −1  1 6

·
 0 = 5 5 .
1
21-9
Mathematik für Physiker I, WS 2010/2011
Montag 24.1
Multiplizieren wir noch die erste Gleichung mit 5, so ergibt sich das lineare Gleichungssystem
5x − 2y
− v=6
u + v=1
dessen Lösungsmenge genau der affine Teilraum T ist.
12.2
Lineare Abbildungen und Matrizen
Wir wollen jetzt alle linearen Abbildungen f : K n → K m explizit bestimmen. Sei
A ∈ K m×n eine m × n Matrix über K. Für jeden Spaltenvektor x ∈ K n können wir
dann das Produkt Ax ∈ K m bilden, und erhalten auf diese Weise eine Abbildung
fA : K n → K m ; x 7→ Ax.
Diese Abbildung ist linear, denn sind x, y ∈ K n und λ ∈ K so haben wir nach den
Rechenregeln der Matrixmultiplikation
fA (x+y) = A·(x+y) = Ax+Ay = fA (x)+fA (y) und fA (λx) = A·λx = λ·Ax = λfA (x).
Damit gehört zu jeder m × n Matrix A über K eine lineare Abbildung fA ∈ K m×n .
Umgekehrt hat überhaupt jede lineare Abbildung f : K n → K m diese Form. Sei
nämlich f : K n → K m eine lineare Abbildung. Für jedes 1 ≤ i ≤ n schreiben wir dann


a1i


f (ei ) =  ...  ∈ K m
ami
und bilden die m × n Matrix


a11 · · · a1n

..  ,
...
A :=  ...
. 
am1 · · · amn
deren Spalten die Vektoren f (e1 ), . . . , f (en ) sind. Für jedes x ∈ K n rechnen wir dann
f (x) = f (x1 e1 + · · · + xn en ) = x1 f (e1 ) + · · · + xn f (xn )



 

a11 x1 + · · · + a1n xn
a11
a1n


 


..
= x1 ·  ...  + · · · + xn ·  ...  = 

.
am1 x1 + · · · + amn xn
am1
amn
= Ax = fA (x),
d.h. wir haben f = fA . Damit kann überhaupt jede lineare Abbildung f : K n →
K m durch eine m × n Matrix beschrieben werden, und zwar so, dass die Spalten der
Matrix genau die Bilder der kanonischen Basisvektoren e1 , . . . , en sind. Umgekehrt ist
fA (ei ) = Aei für jedes 1 ≤ i ≤ n gerade die i-te Spalte von A, wir haben also eine
bijektive Entsprechung
Lineare Abbildungen f : K n → K m = m × n-Matrizen über K.
21-10
Mathematik für Physiker I, WS 2010/2011
Wir wollen die nebenstehend gezeigten Beispiele linearer Abbildungen R2 → R2 behandeln. Die
Identität ist dabei nur zum Vergleich angegeben.
Wir beginnen mit den Skalierungen, bei diesen werden x- und y-Achse mit Faktoren a, b ∈ R gestreckt.
Ist dabei a oder b negativ, so treten auch noch Spiegelungen an den Koordinatenachsen auf. Um die
Matrix dieser linearen Abbildung zu sehen, müssen
wir die Bilder der kanonischen Basisvektoren e1 , e2
als Spalten verwenden. Dabei liegt e1 auf der xAchse, wird also um den Faktor a gestreckt und
hat das Bild ae1 . Für e2 ergibt sich analog das Bild
be2 , und wir erhalten die Matrix
a
Sa,b =
.
b
Montag 24.1
Phy I
Skaliert
Phy I
Identisch
Phy I
Scherung
y
Ph
I
Rotiert
Wir kommen zu den Scherungen längs der x-Achse. Diese lassen jede zur x-Achse
parallele Gerade fest, und bewirken auf diesen eine Verschiebung um einen zur Höhe y
proportionalen Wert. Die Proportionalitätskonstante sei dabei t ∈ R. Auf der x-Achse
selbst ist die Höhe 0 und es liegt überhaupt keine Verschiebung vor, d.h. e1 wird auf e1
abgebildet. Dagegen liegt e2 in der Höhe 1, wird also um t in x-Richtung verschoben
und somit auf te1 + e2 abgebildet. Die Scherungsmatrix ist damit
1 t
St =
.
1
Der letzte zu untersuche Abbildungstyp ist die
e2
Drehung um den Nullpunkt mit dem Winkel φ ∈ R.
v2
Dies ist eine lineare Abbildung, was klar ist wenn
sie etwa an die Interpretation der Addition von Vekv1
toren in einem Parallelogram denken. Zur Bestimmung der Drehmatrix Dφ müssen wir uns wieder
die Bilder der beiden Einheitsvektoren anschauen.
e1
Für das Bild von e1 erhalten wir das rechts gezeigte rechtwinklige Dreieck mit Hypothenuse 1 dessen
Ankathete und Gegenkathete zum Winkel φ gerade
die x- und y-Koordinaten des Bildes von e1 sind,
d.h. e1 wird auf cos(φ)e1 + sin(φ)e2 abgebildet. Für
das Bild von e2 liegt eine ähnliche Situation vor,
nur das Ankathete und Gegenkathete diesmal die y- beziehungsweise die negative xKoordinate des Bildes sind, das Bild von e2 ist also − sin(φ)e1 + cos(φ)e2 . Insgesamt
ergibt sich die Drehmatrix
cos φ − sin φ
Dφ =
.
sin φ
cos φ
21-11
Mathematik für Physiker I, WS 2010/2011
Montag 24.1
Kommen wir zur allgemeinen Situation der Gleichheit von Matrizen und linearen Abbildungen K n → K m zurück. Im Lichte dieser Korrespondenz ist es dann natürlich zu
fragen wie sich Eigenschaften der linearen Abbildung in Eigenschaften der zugehörigen
Matrix übersetzen. Wir wollen einige dieser Entsprechungen kurz durchgehen.
1. Sind A, B ∈ K m×n zwei m × n-Matrizen über K, so können wir ihre Summe
A + B bilden. Die zugehörige lineare Abbildung ist gegeben als
fA+B (x) = (A + B) · x = Ax + Bx = fA (x) + fB (x),
also ist fA+B = fA + fB die Summe der zugehörigen linearen Abbildungen. Entsprechend ergibt sich für jeden Skalar λ ∈ K auch fλA = λfA .
2. Nun sei zusätzlich r ≥ 1 und betrachte Matrizen A ∈ K m×n und B ∈ K n×r .
Dann können wir das Produkt AB dieser beiden Matrizen bilden, und erhalten
eine m × r-Matrix. Für die zugehörige lineare Abbildung rechnen wir
fAB (x) = (AB)x = A(Bx) = fA (fB (x))
für jedes x ∈ K n , es ist also fAB = fA ◦ fB die Hintereinanderausführung der
zugehörigen linearen Abbildungen. Dies zeigt
Hintereinanderausführung linearer Abbildungen = Multiplikation von Matrizen.
Tatsächlich ist diese Beobachtung der Grund dafür das die Multiplikation von
Matrizen überhaupt so definiert wird, wie wir sie definiert haben.
3. Zur Einheitsmatrix gehört offenbar die identische Abbildung idK n . Kombinieren
wir dies mit der Kennzeichnung der Bijektivität gemäß §3.Lemma 3 so folgt für
eine quadratische Matrix A ∈ K n×n
fA ist Isomorphismus ⇐⇒ A ist invertierbar
und in diesem Fall gilt dann fA−1 = fA−1 .
4. Sei A ∈ K m×n . Was sind dann Kern und Bild der linearen Abbildung fA ? Für
das Bild erhalten wir mit §11.Lemma 9.(c)
Bild(fA ) = hfA (e1 ), . . . , fA (en )i = hAe1 , . . . , Aen i,
d.h. das Bild von fA ist der von den Spalten von A aufgespannte Untervektorraum
des K m . Kombinieren wir dies mit der Tatsache §11.Satz 6.(b) das wir jedes
Erzeugendensystem zu einer Basis ausdünnen können, so folgt
dim Bild(fA ) = Dimension des Aufspanns der Spalten von A
= Maximale Anzahl linear unabhängiger Spalten von A.
21-12
Mathematik für Physiker I, WS 2010/2011
Montag 24.1
Auch den Kern können wir mit bekannten Objekten in Zusammenhang bringen.
Der Kern von fA ist die Menge aller x ∈ K n mit fA (x) = 0, also aller x ∈ K n
mit Ax = 0. Dies bedeutet
Kern(fA ) = Lösungsmenge des homogenen linearen Gleichungssystems Ax = 0.
Auch die Dimension des Kerns können wir damit berechnen. Führen wir das
Gaußsche Eliminationsverfahren mit der Matrix A durch und bezeichnen die
Anzahl der am Ende übrig bleibenden, von Null verschiedenen, Zeilen wieder
mit r, so wissen wir schon dass der Lösungsraum von Ax = 0 die Dimension
n − r hat. Damit ist auch
dim Kern(fA ) = n − r.
21-13
Herunterladen