Lineare Algebra II

Werbung
Ralf Gerkmann
Mathematisches Institut der
Ludwig-Maximilians-Universität München
Lineare Algebra II
(Version vom 13. August 2014)
Inhaltsverzeichnis
§ 1.
§ 2.
§ 3.
§ 4.
§ 5.
§ 6.
§ 7.
§ 8.
§ 9.
§ 10.
§ 11.
Eigenwerte und Eigenvektoren . . . . . . . . .
Diagonalisierbarkeit . . . . . . . . . . . . . . . .
Der Satz von Cayley-Hamilton . . . . . . . . .
Die Jordansche Normalform . . . . . . . . . . .
Das euklidische Standard-Skalarprodukt . .
Allgemeine Skalarprodukte . . . . . . . . . . .
Orthogonalität . . . . . . . . . . . . . . . . . . . .
Orthogonale und unitäre Abbildungen
...
Dualräume und selbstadjungierte Operatoren
Die Hauptachsentransformation . . . . . . . .
Faktorräume und Tensorprodukte . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..
..
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3
8
13
22
29
34
41
49
62
75
87
§ 1.
Eigenwerte und Eigenvektoren
Wichtige Begriffe und Sätze in diesem Abschnitt
–
–
–
–
–
Eigenwerte, Eigenvektoren und Eigenräume von Endomorphismen und Matrizen
Darstellungsmatrizen von Endomorphismen, Ähnlichkeit
Grundlagen über Polynome (wichtig: die Vielfachheit einer Nullstelle)
die charakteristischen Polynome χA und χφ
Die Eigenwerte eines Endomorphismus sind genau die Nullstellen seines charakteristischen Polynoms.
Im gesamten Text bezeichnet K stets einen beliebigen Körper, solange nichts genaueres festgelegt wird.
Definition 1.1
Sei V ein K-Vektorraum und φ : V → V ein Endomorphismus von V .
(i) Ein Element λ ∈ K heißt Eigenwert von φ, wenn es ein v ∈ V mit v 6= 0V und φ(v) = λv gibt.
(ii) Ein Vektor v ∈ V heißt Eigenvektor von φ, wenn v 6= 0V ist und ein λ ∈ K mit φ(v) = λv existiert.
Seien nun v ∈ V und λ ∈ K vorgegeben. Man nennt v einen Eigenvektor zum Eigenwert λ, wenn v 6= 0V
und die Gleichung φ(v) = λv erfüllt ist.
Definition 1.2
Sei V ein K-Vektorraum und φ ∈ EndK (V ). Für jedes λ ∈ K bezeichnet man die
Menge Eig(φ, λ) = {v ∈ V | φ(v) = λv} als den Eigenraum von φ zum Wert λ ∈ K. Er besteht aus dem
Nullvektor 0V und den Eigenvektoren zum Eigenwert λ.
Aus der Linearen Algebra I ist bekannt, dass Kerne von linearen Abbildungen Untervektorräume sind. Die folgende
Proposition zeigt also, dass Eig(φ, λ) für jedes λ ∈ K und jedes φ ∈ EndK (V ) ein Untervektorraum von V ist. Natürlich kann diese Eigenschaft auch direkt nachgerechnet werden.
Proposition 1.3
Sei V ein K-Vektorraum und φ ∈ EndK (V ). Für jedes λ ∈ K ist der Eigenraum
gegeben durch Eig(φ, λ) = ker(φ − λidV ). Das Element λ ist ein Eigenwert von φ genau dann, wenn
Eig(φ, λ) 6= {0V } gilt.
Beweis:
Für jeden Vektor v ∈ V gilt die Äquivalenz
v ∈ Eig(φ, λ)
⇔
⇔
φ(v) = λv
⇔
φ(v) − λv = 0V
(φ − λidV )(v) = 0V
⇔
⇔
φ(v) − λidV (v) = 0V
v ∈ ker(φ − λidV ).
Daraus folgt Eig(φ, λ) = ker(φ − λidV ). Ein Element λ ∈ K ist nach Definition Eigenwert genau dann,
wenn ein v ∈ V mit v 6= 0V und φ(v) = λv existiert, also genau dann, wenn es ein Element ungleich 0V in
Eig(φ, λ) gibt. Weil 0V auf jeden Fall in Eig(φ, λ) liegt, ist dies wiederum äquivalent zu Eig(φ, λ) 6= {0V }.
—– 3 —–
Als nächstes sehen wir uns an, wie das Matrixkalkül zur Untersuchung von Eigenwerten und Eigenvektoren eingesetzt werden kann. Sei nun A ∈ Mn,K eine quadratische Matrix. Wir bezeichnen v ∈ K n als Eigenvektor von A, wenn
v ein Eigenvektor der Abbildung φA : K n → K n , v 7→ Av ist. Ebenso sind die Eigenwerte von A nach Definition die
Eigenwerte des Endomorphismus φA . Für jedes λ ∈ K definieren wir
Eig(A, λ)
=
Eig(φA , λ)
{v ∈ K n | Av = λv}.
=
Wiederum besteht Eig(A, λ) aus den Eigenvektoren von A zum Eigenwert λ und dem Nullvektor 0K n , und darüber
hinaus gilt Eig(A, λ) = ker(A − λIn ).
In der Linearen Algebra I wurde gezeigt, dass jede lineare Abbildung φ : V → W zwischen endlich-dimensionalen
K-Vektorräumen V, W auf eindeutige Weise durch eine Matrix beschrieben werden kann, sobald man für V und W
Basen festgelegt hat. Ist A eine Basis von V und B eine Basis von W , dann verwenden wir die Bezeichung
MBA (φ)
für die Darstellungsmatrix von φ bezüglich der Basen A und B. Mit κA : V → K n bezeichnen wir die Koordinatenabbildung, die jedem Vektor v ∈ V seine A-Koordinaten zuordnet, wobei n = dim V ist. Wir erinnern an den
wichtigen Zusammenhang
MBA (φ)κA (v) = κB (φ(v)).
Die Darstellungsmatrix MBA (φ) ist also dadurch gekennzeichnet, dass sie den Vektor v in A-Koordinaten entgegennimmt und den Vektor φ(v) in B-Koordinaten als Ergebnis liefert.
Ist nun V = W , die Abbildung φ also ein Endomorphismus des Vektorraums von V , dann braucht man nur noch
eine Basis von V , um φ zu beschreiben. Wir setzen MA (φ) = MAA (φ) und nennen diese quadratische Matrix die
Darstellungsmatrix von φ bezüglich der Basis A.
Definition 1.4 Zwei Matrizen A, B ∈ Mn,K werden ähnlich genannt, wenn eine invertierbare Matrix
T ∈ GLn (K) mit B = T AT −1 existiert.
Proposition 1.5 Sei V ein n-dimensionaler K-Vektorraum, und sei φ ∈ EndK (V ). Sind A, B ∈ Mn,K
Darstellungsmatrizen von φ bezüglich unterschiedlicher Basen von V , dann sind A und B ähnlich.
Beweis: Seien A und B Basen von V , so dass A = MA (φ) und B = MB (φ) erfüllt ist. Sei außerdem
T = TBA die Matrix des Basiswechsels von A nach B, also die eindeutig bestimmte Matrix T ∈ GLn (K)
mit T κA (v) = κB (v) für alle v ∈ V . Auf Grund der Transformationsformel aus der Linearen Algebra I gilt
B
=
MB (φ)
=
MB
B (φ)
=
B
TBA MA
A (φ)TA
=
TBA MA (φ) TBA
−1
=
T AT −1 .
Proposition 1.6
Sei V ein endlich-dimensionaler K-Vektorraum, φ ∈ EndK (V ) und A ∈ Mn,K
die Darstellungsmatrix von φ bezüglich einer beliebigen Basis A von V . Genau dann ist v ∈ V ein
Eigenvektor von φ zu einem Eigenwert λ ∈ K, wenn der Koordinatenvektor κA (v) ein Eigenvektor von
A zum Eigenwert λ ist.
—– 4 —–
Beweis: Nach Definition der Darstellungsmatrix gilt AκA (v) = κA (φ(v)) für jedes v ∈ V . Sei nun λ ∈ K
vorgegeben. Ein Vektor v ist genau dann Eigenvektor von φ zum Eigenwert λ, wenn v 6= 0V und φ(v) = λv
erfüllt ist. Auf Grund der Bijektivitiät und der Linearität der Koordinatenabbildung κA gelten die Äquivalenzen v 6= 0V ⇔ κA (v) 6= 0K n und
φ(v) = λv
⇔
κA (φ(v)) = κA (λv)
⇔
κA (φ(v)) = λκA (v)
⇔
AκA (v) = λκA (v).
Die letzte Gleichung zusammen mit κA (v) 6= 0K n ist äquivalent zur Aussage, dass κA (v) ein Eigenvektor
von A zum Eigenwert λ ist.
Die Proposition zeigt insbesondere, dass die Eigenwerte von φ genau die Eigenwerte der Darstellungsmatrix A sind.
Im folgenden beschäftigen wir uns mit der Frage, wie man die Eigenwerte eines Endomorphismus findet. Dafür
benötigen wir einige Grundbegriffe und elementare Aussagen über Polynome. Wir nennen ein Polynom f ∈ K[x]
genau dann konstant, wenn f = 0K oder grad(f ) = 0 gilt, wenn f also in K liegt.
Satz 1.7
(Division mit Rest)
Seien f, g ∈ K[x], wobei g nicht-konstant ist. Dann gibt es q, r ∈ K[x] mit f = qg + r, wobei r = 0K ist
oder zumindest grad(r) < grad(g) gilt.
Wir verzichten an dieser Stelle auf einen Beweis, weil dieser eher in die Algebra-Vorlesung gehört. Aus dem Schulunterricht ist zumindest für K = R bekannt, dass die Polynome q und r durch Polynomdivision bestimmt werden
können.
Jedem Polynom f ∈ K[x] kann durch a 7→ f (a) eine Abbildung K → K zugeordnet werden, die dadurch zu Stande
kommt, dass die Elemente a ∈ K in die Unbestimmte x eingesetzt werden. Man bezeichnet diese Abbildung auch
als die dem Polynom f zugeordnete Polynomfunktion.
Für unendliche Körper gilt allgemein, dass verschiedene Polynome auch verschiedene Polynomfunktionen definieren. Für endliche Körper ist das aber nicht mehr richtig: Beispielsweise definieren die Polynome f, g ∈ F2 [x] gegeben
durch f = x und g = x2 dieselbe Polynomfunktion, denn es gilt
f (0̄) = g(0̄) = 0̄
und
f (1̄) = g(1̄) = 1̄.
Ein Element a ∈ K wird Nullstelle von f ∈ K[x] genannt, wenn f (a) = 0K gilt. Man nennt ein Polynom g ∈ K[x]
einen Teiler von f , wenn ein h ∈ K[x] mit f = gh existiert. Ist grad(g) = 1, dann nennt man g auch einen Linearfaktor
des Polynoms f . Auch die folgende Aussage ist im Grunde schon aus der Schulmathematik bekannt.
Satz 1.8
Sei f ∈ K[x] und a ∈ K. Genau dann gilt f (a) = 0K , wenn x − a ein Linearfaktor von f ist.
Beweis: Nach Satz 1.7 gibt es Polynome g, r ∈ K[x] mit f = (x − a)g + r, wobei das Polynom r wegen
r = 0K oder grad(r) < grad(x − a) = 1 konstant ist. Ist nun a eine Nullstelle von f , dann gilt r = r(a) =
f (a) − (a − a)g(a) = 0K − 0K = 0K und somit f = (x − a)g. Ist umgekehrt x − a ein Linearfaktor von f ,
dann gibt es ein g ∈ K[x] mit f = (x − a)g, und es folgt f (a) = (a − a)g(a) = 0K .
—– 5 —–
Definition 1.9 Sei f ∈ K[x] mit f 6= 0K und a ∈ K eine Nullstelle von f . Das maximale r ∈ N mit der
Eigenschaft, dass (x − a)r ein Teiler von f ist, wird die Vielfachheit µ(f, a) der Nullstelle a genannt.
Nach Satz 1.7 gilt also µ(f, a) ≥ 1 für jede Nullstelle a von f . Ist f (a) 6= 0K , dann setzen wir µ(f, a) = 0. Das folgende
Kriterium ist für die Bestimmung der Vielfachheit einer Nullstelle hilfreich.
Proposition 1.10
Sei f ∈ K[x] ein Polynom mit einer Zerlegung f = (x − a)r g, wobei r ∈ N0 und
g(a) 6= 0K ist. Dann gilt r = µ(f, a).
Beweis: Die Gleichung f = (x−a)r g zeigt jedenfalls, dass µ(f, a) ≥ r gilt. Nehmen wir nun an, dass sogar µ(f, a) > r
gilt. Dann gibt es ein h ∈ K[x] mit f = (x − a)r+1 h. Teilt man die Gleichung (x − a)r g = (x − a)r+1 h durch (x − a)r ,
dann folgt g = (x − a)h und g(a) = (a − a)h(a) = 0K , im Widerspruch zur Voraussetzung g(a) 6= 0K .
Sei f ∈ K[x] ein Polynom vom Grad ≥ 1. Man sagt, f zerfällt in Linearfaktoren, wenn es als Produkt von Linearfaktoren geschrieben werden kann. In ausgeschriebener Form bedeutet dies, dass Elemente c, λ1 , ..., λr ∈ K existieren,
so dass
r
Y
(x − λk )
gilt.
f = c
k=1
Ein Körper K wird algebraisch abgeschlossen genannt, wenn jedes Polynom vom Grad ≥ 1 in K[x] in Linearfaktoren
zerfällt. In der Funktionentheorie zeigt man, dass zum Beispiel der Körper C der komplexen Zahlen diese Eigenschaft
besitzt. Dagegen ist R nicht algebraisch abgeschlossen, denn das Polynom x2 + 1 hat keine Nullstellen in R und kann
deshalb nach Satz 1.8 nicht in Linearfaktoren zerlegt werden. In der Algebra-Vorlesung wird aber gezeigt, dass zu
einem Körper K ein algebraisch abgeschlossener Erweiterungskörper existiert. Im Fall K = R ist dies gerade der
Körper C.
Nun werden wir sehen, inwiefern Polynome bei der Bestimmung der Eigenwerte einer Matrix weiterhelfen.
Definition 1.11
Für jede Matrix A ∈ Mn,K nennt man
χA
=
(−1)n det(A − xIn )
=
det(xIn − A)
∈ K[x]
das charakteristische Polynom von A.
Satz 1.12 Die Eigenwerte einer Matrix A ∈ Mn,K sind genau die Nullstellen des charakteristischen
Polynoms χA .
Beweis: Für jedes λ ∈ K gilt Eig(A, λ) = ker(A − λIn ). Genau dann ist λ ein Eigenwert von A, wenn
ker(A − λIn ) 6= {0V } gilt (vgl. Prop. 1.3). Nach dem Dimensionssatz für lineare Abbildungen gilt weiter
dim ker(A − λIn ) > 0
⇔
rg(A − λIn ) < n
⇔
det(A − λIn ) = 0K
—– 6 —–
⇔
χA (λ) = 0K
Definition 1.13
Ist V ein endlich-dimensionaler K-Vektorraum, φ ∈ EndK (V ) und A ∈ Mn,K die
Darstellungsmatrix von V bezüglich einer beliebig gewählen Basis, dann bezeichnen wir χφ = χA als
charakteristisches Polynom von φ.
Proposition 1.14
Vektorraums V .
Das charakteristische Polynom χφ ist unabhängig von der gewählten Basis des
Beweis: Sind A, B ∈ Mn,K die Darstellungsmatrizen von φ bezüglich verschiedener Basen, dann sind A
und B nach Prop. 1.5 ähnlich. Es gibt also ein T ∈ GLn (K) mit B = T AT −1 . Auf Grund der Multiplikativität der Determinantenfunktion folgt
χB
=
=
det(xIn − B)
=
det(T (xIn )T −1 − T AT −1 )
det(T ) det(xIn − A) det(T )−1
=
=
det(xIn − A)
det(T (xIn − A)T −1 )
=
χA .
Korollar 1.15
Auch für jeden Endomorphismus φ ∈ EndK (V ) eines endlich-dimensionalen KVektorraums V gilt: Die Eigenwerte von φ sind genau die Nullstellen des Polynoms χφ .
Beweis: Sei A die Darstellungsmatrix von φ bezüglich einer beliebigen Basis von V . Dann gilt χφ = χA
nach Definition. Auf Grund von Prop. 1.6 sind darüber hinaus die Eigenwerte von φ genau die Eigenwerte
von A. Also sind die Eigenwerte von φ nach Satz 1.12 genau die Nullstellen von χA und damit auch genau
die Nullstellen von χφ .
—– 7 —–
§ 2.
Diagonalisierbarkeit
Wichtige Begriffe und Sätze in diesem Abschnitt
–
–
–
–
Diagonalmatrizen
Diagonalisierbarkeit von Matrizen und Endomorphismen
algebraische und geometrische Vielfachheit eines Eigenwerts
Kriterien für die Diagonalisierbarkeit eines Endomorphismus
Definition 2.1
den Einträgen
Sind λ1 , ..., λn ∈ K, dann bezeichnen wir mit diag(λ1 , ..., λn ) die Matrix D = (dij ) mit
(
dij
=
λk
falls i = j = k
0
falls i 6= j.
Eine Matrix dieser Form wird Diagonalmatrix genannt. Man bezeichnet eine Matrix A ∈ Mn,K als
diagonalisierbar, wenn sie ähnlich zu einer Diagonalmatrix ist.
Definition 2.2
Einen Endomorphismus φ eines endlich-dimensionalen K-Vektorraums V bezeichnet man als diagonalisierbar, wenn eine Basis von V existiert, so dass die Darstellungsmatrix von φ
bezüglich dieser Basis eine Diagonalmatrix ist.
Proposition 2.3
Sei V ein endlich-dimensionaler K-Vektorraum, φ ∈ EndK (V ) und A ∈ Mn,K die
Darstellungsmatrix von φ bezüglich einer beliebigen Basis von V . Genau dann ist A diagonalisierbar,
wenn φ diagonalisierbar ist.
Beweis:
Sei A eine Basis von V , so dass A = MA (φ) erfüllt ist.
„⇐“ Weil φ nach Voraussetzung diagonalisierbar ist, gibt es eine Basis B von V , so dass D = MB (φ) eine
Diagonalmatrix ist. Die Matrizen A und D sind also die Darstellungsmatrizen von φ bezüglich der Basen
A, B. Nach Prop. 1.5 sind A und D ähnlich, und damit ist A nach Definition diagonalisierbar.
„⇒“ Ist A diagonalisierbar, dann gibt es ein T ∈ GLn (K) mit der Eigenschaft, dass D = T AT −1 eine
Diagonalmatrix ist. Für jedes v ∈ V gilt nach Definition der Darstellungsmatrix jeweils
AκA (vk ) = κA (φ(v))
⇔
T −1 DT κA (vk ) = κA (φ(v))
⇔
DT κA (vk ) = T κA (φ(v)).
Aus der Linearen Algebra I ist bekannt, dass T = TBA für eine geignete Basis B von V gilt. Wir erhalten
DTBA κA (v) = TBA κA (φ(v))
⇔
DκB (v) = κB (φ(v))
Weil MB (φ) die eindeutig bestimmte Matrix mit MB (φ)κB (v) = κB (φ(v)) für alle v ∈ V ist, folgt MB (φ) =
D. Dies zeigt, dass φ diagonalsierbar ist.
—– 8 —–
Proposition 2.4 Sei V 6= {0V } ein endlich-dimensionaler K-Vektorraum und φ ∈ EndK (V ).
Dann sind die folgenden Aussagen äquivalent:
(i) Der Endomorphismus φ ist diagonalisierbar.
(ii) Der Vektorraum V besitzt eine Basis bestehend aus Eigenvektoren von φ.
Beweis: „(i) ⇒ (ii)“ Nach Voraussetzung gibt es eine Basis A = (v1 , ..., vn ) von V mit der Eigenschaft,
dass D = MA (φ) eine Diagonalmatrix ist, D = diag(λ1 , ..., λn ) mit λk ∈ K für 1 ≤ k ≤ n. Der k-te
Spaltenvektor von D ist jeweils das λk -fache des k-ten Einheitsvektors ek . Es folgt
Dek = λk ek
⇔
MA (φ)κA (vk ) = λk κA (vk )
κA (φ(vk )) = κA (λk vk )
⇔
⇔
φ(vk ) = λk vk
für 1 ≤ k ≤ n, wobei im letzten Schritt die Bijektivität von κA verwendet wurde. Als Element einer Basis ist
vk 6= 0V ; zusammen mit der Gleichung φ(vk ) = λk vk zeigt dies, dass A aus Eigenvektoren von φ besteht.
„(ii) ⇒ (i)“ Sei A = (v1 , ..., vn ) eine Basis von V , wobei vk jeweils ein Eigenvektor von φ zum Eigenwert
λk ist, für 1 ≤ k ≤ n. Außerdem sei D = MA (φ). Dann gilt jeweils φ(vk ) = λk vk , und die Rechnung aus
dem vorherigen Absatz hat gezeigt, dass dies äquivalent zu Dek = λk ek ist. Die k-te Spalte von D ist also
gleich λk ek , für 1 ≤ k ≤ n. Daraus folgt D = diag(λ1 , ..., λn ), also ist D eine Diagonalmatrix und φ damit
diagonalisierbar.
Als nächstes zeigen wir, dass der Vektorraum V bezüglich eines diagonalisierbaren Endomorphismus in Eigenräume
zerlegt werden kann. Die beiden folgenden Aussagen dienen zur Vorbereitung.
Proposition 2.5
Sei V ein K-Vektorraum, φ ∈ EndK (V ), und seien λ1 , ..., λr verschiedene Elemente
von K. Für jedes k ∈ {1, ..., r} sei vk ∈ V jeweils ein Eigenvektor zum Eigenwert λk . Dann ist das Tupel
(v1 , ..., vr ) linear unabhängig.
Beweis: Wir führen den Beweis durch vollständige Induktion über r. Für r = 1 ist die Aussage wegen
v1 6= 0V klar. Sei nun r ∈ N, und setzen wir nun die Behauptung für dieses r voraus. Es seien λ1 , ..., λr+1 ∈
K verschieden, und sei vk ∈ V für 1 ≤ k ≤ r +1 jeweils ein Eigenvektor zum Eigenwert λk . Zum Nachweis
der linearen Unabhängigkeit seien α1 , ..., αr+1 ∈ K mit der Eigenschaft
r+1
X
α k vk
=
(2.1)
0V .
k=1
Dann liefert die Multiplikation von (2.1) mit dem Wert λr+1 einerseits
r+1
X
αk λr+1 vk
=
0V
(2.2)
,
k=1
andererseits erhält man durch Anwendung von φ auf (2.1) aber auch
!
r+1
r+1
r+1
X
X
X
α k λ k vk =
αk φ(vk ) = φ
αk vk
=
k=1
k=1
k=1
—– 9 —–
φ(0V )
=
0V .
(2.3)
Subtrahieren wir die Gleichungen (2.2) und (2.3) voneinander, so erhalten wir
r+1
X
k=1
αk λr+1 vk −
r+1
X
αk λk vk
=
k=1
r+1
X
αk (λr+1 − λk )vk
=
0V .
k=1
Da das Tupel (v1 , ..., vr ) nach Induktionsvoraussetzung linear unabhängig sind, folgt αk (λr+1 − λk ) = 0K
für 1 ≤ k ≤ r. Wegen λr+1 − λk 6= 0K folgt αk = 0K für 1 ≤ k ≤ r. Setzen wir dies wiederum in (2.1) ein, so
erhalten wir αr+1 vr+1 = 0V , und wegen vr+1 6= 0V folgt αr+1 = 0K . Damit ist die linearen Unabhängigkeit
von (v1 , ..., vr+1 ) nachgewiesen.
Proposition 2.6 Sei φ ein Endomorphismus eines K-Vektorraums V , und seien λ1 , ..., λr verschiedene
Elemente des Körpers K. Dann gilt


X
Eig(φ, λk ) ∩ 
Eig(φ, λ` ) = {0V }
für 1 ≤ k ≤ r.
`6=k
Beweis: Nehmen wir an, dass ein k ∈ {1, ..., r} und ein Vektor v 6= 0V in der angegebenen Schnittmenge.
Dann gibt es Vektoren v` ∈ Eig(φ, λ` ) für 1 ≤ ` ≤ r mit
X
X
vk = v =
v` ⇔
v` + (−1K )vk = 0V .
`6=k
`6=k
Aber wegen vk 6= 0V steht dies steht im Widerspruch zur Prop. 2.5, das Tupel bestehend aus den Vektoren
v` mit v` 6= 0V linear unabhängig ist.
Mit diesen Ergebnissen erhalten wir ein neues Kriterium für die Diagonalisierbarkeit eines Endomorphismus.
Proposition 2.7
Sei V 6= {0V } endlich-dimensionaler K-Vektorraum und φ ∈ EndK (V ). Dann sind
die folgenden Aussagen äquivalent:
(i) Der Endomorphismus φ ist diagonalisierbar.
(ii) Es gibt verschiedene Elemente λ1 , ..., λr ∈ K, so dass
V
=
r
M
Eig(φ, λ` )
erfüllt ist.
`=1
Beweis: „(i) ⇒ (ii)“ Nach Voraussetzung existiert eine Basis A = {v1 , ..., vn } von V bestehend aus Eigenvektoren. Seien λ1 , ..., λr die verschiedenen Eigenwerte von φ. Weil alle Elemente der Basis Eigenvektoren
sind, gibt es für jedes k ∈ {1, ..., n} ein ` ∈ {1, ..., r} mit φ(vk ) = λ` vk . Es gilt dann also vk ∈ Eig(φ, λ` ).
Pr
Setzen wir U = `=1 Eig(φ, λ` ), dann gilt insgesamt A ⊆ U . Weil A eine Basis und U ein Untervektorraum
von V ist, stimmt V mit der Summe U ein, und nach Prop. 2.6 ist diese Summe direkt.
„(ii) ⇒ (i)“ Für jedes ` ∈ {1, ..., r} sei A` eine Basis von Eig(φ, λ` ). Auf Grund der direkten SummenzerSr
legung ist dann A = `=1 A` eine Basis von V . Jedes A` besteht aus Eigenvektoren von φ, somit auch die
Basis A. Daraus folgt die Diagonalisierbarkeit von φ.
—– 10 —–
Definition 2.8
Sei V ein endlich-dimensionaler K-Vektorraum, φ ein Endomorphismus von V und
λ ∈ K ein Eigenwert von φ.
(i) Die Vielfachheit µ(χφ , λ) von λ als Nullstelle des Polynoms χφ bezeichnet man als algebraische
Vielfachheit µa (φ, λ) des Eigenwerts λ.
(ii) Den Wert µg (φ, λ) = dim Eig(φ, λ) nennt man die geometrische Vielfachheit von λ.
In Beweisen ist es oft günstig, wenn die algebraische und geometrische Vielfachheit auch für Nicht-Eigenwerte definiert ist. Wenn λ ∈ K kein Eigenwert von φ ist, dann setzt man µa (φ, λ) = µg (φ, λ) = 0. Für eine quadratische
Matrix A ∈ Mn,K definiert man algebraische und geometrische Vielfachheit in jedem Fall auf analoge Weise: Man
setzt µa (A, λ) = µ(χA , λ) und µg (A, λ) = dim Eig(A, λ).
Nach Satz 1.12 ist ein Element λ ∈ K genau dann Eigenwert eines Endomorphismus φ, wenn λ eine Nullstelle von
χφ ist. Also ist µa (φ, λ) > 0 äquivalent dazu, dass es sich bei λ um einen Eigenwert handelt. Wegen Prop. 1.3 ist die
Eigenschaft von λ, ein Eigenwert zu sein, auch äquivalent zu µg (φ, λ) > 0. Darüber hinaus gilt
Proposition 2.9 Sei V ein endlich-dimensionaler K-Vektorraum, φ ∈ EndK (V ) und λ ∈ K.
Dann gilt µg (φ, λ) ≤ µa (φ, λ).
Beweis: Sei r = µg (φ, λ) und {v1 , ..., vr } eine Basis von Eig(φ, λ). Wir ergänzen diese durch vr+1 , ..., vn
zu einer Basis A von V . Sei nun A = MA (φ) die Darstellungsmatrix von φ bezüglich dieser Basis. Für
jedes k ∈ {1, ..., r} gilt φ(vk ) = λvk . Dies zeigt, dass die k-te Spalte von A jeweils das λ-fache des kten Einheitsvektors ist, insbesondere sind die unteren n − r Einträge des Spaltenvektors leer. Es gibt also
Matrizen B ∈ Mr×(n−r),K und C ∈ Mn−r,K , so dass A die Blockgestalt
λIr
0
B
C
annimmt.
Auf Grund der Determinantenformel für Blockmatrizen erhalten wir
χφ
=
χA
=
(−1)n det(A − xIn )
=
=
(−1)n det((λ − x)Ir ) det(C − xIn−r )
(−1)n (λ − x)r det(C − xIn−r ).
Die Gleichung zeigt, dass λ eine mindestens r-fache Nullstelle von χφ ist. Weil die algebraische Vielfachheit
die genaue Vielfachheit der Nullstelle ist, folgt daraus µg (φ, λ) = r ≤ µa (φ, λ).
Proposition 2.10 Sei V 6= {0V } endlich-dimensionaler K-Vektorraum und φ ∈ EndK (V ). Dann sind
die folgenden Aussagen äquivalent:
(i) Der Endomorphismus φ ist diagonalisierbar.
(ii) Das charakteristische Polynom χφ ∈ K[x] zerfällt in Linearfaktoren, und es gilt µa (φ, λ) =
µg (φ, λ) für jeden Eigenwert λ von φ.
—– 11 —–
Beweis: „(i) ⇒ (ii)“ Nach Voraussetzung gibt es eine Basis A von V , so dass die Darstellungsmatrix
D = MA (φ) eine Diagonalmatrix ist. Gilt D = diag(λ1 , ..., λn ) mit n = dim V , dann erhalten wir
χφ
=
χD
=
(−1)n det(D − xIn )
(−1)n
=
n
Y
(λk − x)
(−1)n det diag(λ1 − x, ..., λn − x)
=
n
Y
=
k=1
(x − λk ).
k=1
Also zerfällt χφ in Linearfaktoren. Nehmen wir nun an, die Elemente der Basis A sind so sortiert, dass
Qr
λ1 , ..., λr die r verschiedenen Eigenwerte von φ sind. Dann gilt χφ = k=1 (x − λk )ek , wobei jeweils ek =
Pr
µa (φ, λk ) ist. Auf Grund der Produktzerlegung gilt k=1 µa (φ, λk ) = grad(χφ ) = n. Nach Prop. 2.7 gilt
andererseits
r
M
V =
Eig(φ, λk )
k=1
und aus dieser direkten Summenzerlegung folgt
r
X
µg (φ, λk )
=
k=1
r
X
dim Eig(φ, λk )
=
dim V
=
n.
k=1
Pr
Pr
Aus k=1 µg (φ, λk ) = n =
k=1 µa (φ, λk ) und µg (φ, λk ) ≤ µa (φ, λk ) für 1 ≤ k ≤ n (Prop. 2.9) folgt
schließlich µg (φ, λk ) = µa (φ, λk ) für alle k.
„(ii) ⇒ (i)“ Seien λ1 , ..., λr die verschiedenen Eigenwerte von φ. Nach Kor. 1.15 sind dies genau die Nullstellen von χφ , und weil dieses Polynom nach Voraussetzung in Linearfaktoren zerfällt, gilt
χφ
=
r
Y
(x − λk )ek
mit
k=1
r
X
ek = grad(χφ ) = dim V.
k=1
Nach Definition der algebraischen Vielfachheit gilt ek = µa (φ, λk ) für 1 ≤ k ≤ n. Wir betrachten nun
Pr
den Untervektorraum U = k=1 Eig(φ, λk ). Nach Prop. 2.6 ist dies eine direkte Summe, und auf Grund
unserer Voraussetzung erhalten wir
dim V
=
r
X
k=1
µa (φ, λk )
=
r
X
k=1
µg (φ, λk )
=
r
X
dim Eig(φ, λk )
=
dim U
≤
dim V.
k=1
Aus U ⊆ V und dim U = dim V folgt U = V . Also gilt insgesamt V =
φ somit diagonalisierbar.
Lr
k=1
Eig(φ, λk ). Nach Prop. 2.7 ist
Wir fassen das Ergebnis dieses Kapitels in einem Satz zusammen.
Satz 2.11
Sei V 6= {0V } endlich-dimensionaler K-Vektorraum und φ ∈ EndK (V ). Dann sind die
folgenden Aussagen äquivalent:
(i)
(ii)
(iii)
(iv)
Der Endomorphismus φ ist diagonalisierbar.
Der Vektorraum V besitzt eine Basis bestehend aus Eigenvektoren von φ.
Lr
Es gibt verschiedene λ1 , ..., λr ∈ K mit V = k=1 Eig(φ, λk ).
Das charakteristische Polynom χφ zerfällt in Linearfaktoren, und es gilt µa (φ, λ) = µg (φ, λ) für
jeden Eigenwert λ von φ.
—– 12 —–
§ 3.
Der Satz von Cayley-Hamilton
Wichtige Begriffe und Sätze in diesem Abschnitt
–
–
–
–
Minimalpolynom eines Vektorraum-Endomorphismus
Satz von Cayley-Hamilton
Das Minimalpolynom ist ein Teiler des charakteristischen Polynoms.
Satz über die Hauptraumzerlegung
Für den Inhalt dieses Abschnitts spielt folgende Beobachtung eine wichtige Rolle: In ein Polynom f ∈ K[x] lassen
sich nicht nur Elemente des Körpers K, sondern auch Endomorphismen eines beliebigen K-Vektorraums einsetzen.
Pn
Ist V ein solcher Vektorraum, φ ∈ EndK (V ) und f = k=0 ak xk , dann definieren wir
f (φ)
n
X
=
ak φk
,
k=0
wobei φ0 = idV , φ1 = φ und φk für k ≥ 2 jeweils für die k-fache Komposition φ ◦ ... ◦ φ des Endomorphismus steht.
Proposition 3.1 Sei V ein K-Vektorraum, φ ∈ EndK (V ), und seien f, g ∈ K[x]. Dann gilt (f + g)(φ) =
f (φ) + g(φ) und (f g)(φ) = f (φ) ◦ g(φ).
Beweis: Beide Gleichungen können direkt nachgerechnet werden. Wir schreiben die beiden Polynome
Pn
Pn
f, g in der Form f = k=0 ak xk und g = k=0 bk xk mit n ∈ N und ak , bk ∈ K für 0 ≤ k ≤ n, wobei auch
ak = 0K oder bk = 0K zugelassen ist. Für die Summe gilt dann
(f + g)(φ)
=
n
X
(ak + bk )φk
n
X
=
ak φk +
bk φ k
=
f (φ) + g(φ).
k=0
k=0
k=0
n
X
Zur Vereinfachung der nachfolgenden Rechnung setzen wir ak = bk = 0K für alle k > n. Das Produkt f g
ist dann gegeben durch
! n
!
!
!
n
n X
n
2n
2n
m
X
X
X
X
X
X
X
ak xk
b` x `
=
ak b` xk+` =
ak b` xm =
ak bm−k xm .
k=0
`=0
m=0
k=0 `=0
2n
X
m
X
m=0
k=0
Einsetzen von φ liefert (f g)(φ) =
f (φ) ◦ g(φ)
=
n
X
ak bm−k
!
ak φ
k
◦
k=0
=
2n
X
m=0
φm , anderseits gilt auch
n
X
!
b` φ
`
=
`=0
!
X
m=0
k+`=m
!
ak b`
φm
=
k+`=m
—– 13 —–
n X
n
X
ak b` φk+`
k=0 `=0
2n
X
m
X
m=0
k=0
!
ak bm−k
φm .
k=0
Insgesamt erhalten wir die gewünschte Gleichung (f g)(φ) = f (φ) ◦ g(φ).
Auch quadratische Matrizen können in Polynome eingesetzt werden. Man definiert A0 = In , A1 = A und bezeichnet
Pn
für k ≥ 2 mit Ak jeweils das k-fache Matrixprodukt A · ... · A. Für jedes Polynom f = k=0 ak xk definiert man dann
f (A)
=
n
X
ak Ak .
k=0
Man beachte, dass nach Definition jeweils φf (A) = f (φA ) gilt, denn für jeden Vektor v ∈ K n ist
f (φA )(v)
=
n
X
!
ak φkA
(v)
=
k=0
n
X
n
X
ak φkA (v)
=
k=0
n
X
a k Ak v
=
k=0
!
ak A
k
v
=
f (A)v
=
φf (A) (v).
k=0
Aus φ(f +g)(A) = (f + g)(φA ) = f (φA ) + g(φA ) = φf (A) + φg(A) = φf (A)+g(A) folgt (f + g)(A) = f (A) + g(A), und die
Rechnung
φ(f g)(A)
=
(f g)(φA )
=
f (φA ) ◦ g(φA )
=
φf (A) ◦ φg(A)
=
φf (A)g(A)
liefert entsprechend (f g)(A) = f (A)g(A) für beliebige Polynome f, g ∈ K[x]. Wir werden uns bei den folgenden
Ausführungen auf Polynome beschränken, aber mit Hilfe der Gleichung φf (A) = f (φA ) kann jedesmal leicht nachgewiesen werden, dass auch die jeweils analoge Aussage für Matrizen gilt.
Proposition 3.2
Sei V ein endlich-dimensionaler K-Vektorraum. Für jedes φ ∈ EndK (V ) gibt es ein
Polynom 0K 6= f ∈ K[x] mit f (φ) = 0EndK (V ) .
Beweis: Aus der Linearen Algebra I ist bekannt, dass mit V auch EndK (V ) ein endlich-dimensionaler
K-Vektorraum ist. Dies bedeutet, dass das Tupel (φ0 , ..., φn ) für hinreichend großes n linear abhängig ist.
Es gibt also ein n ∈ N0 und Koeffizienten a0 , a1 , ..., an ∈ K, nicht alle gleich Null, mit
a0 φ0 + a1 φ1 + ... + an φn
Setzen wir f =
Pn
k=0
=
0EndK (V ) .
ak xk , dann gilt f (φ) = 0EndK (V ) und f 6= 0K .
Definition 3.3
Sei V ein endlich-dimensionaler K-Vektorraum und φ ∈ EndK (V ). Ist f ∈ K[x]
ein normiertes Polynom minimalen Grades mit der Eigenschaft f (φ) = 0EndK (V ) , so nennt man es ein
Minimalpolynom von φ.
Satz 3.4
Sei V ein endlich-dimensionaler K-Vektorraum. Für jedes φ ∈ EndK (V ) gibt es genau ein
Minimalpolynom, das wir mit mφ bezeichnen. Ist f ∈ K[x] ein beliebiges Polynom mit f (φ) = 0EndK (V ) ,
dann ist mφ ein Teiler von f .
—– 14 —–
Beweis: Zunächst beweisen wir die Existenz. Nach Prop. 3.2 gibt es jedenfalls ein Polynom f 6= 0K mit
f (φ) = 0EndK (V ) . Gehen wir davon aus, dass f unter allen Polynomen mit dieser Eigenschaft minimalen
Grad besitzt, und ist c ∈ K der Leitkoeffizient von f , dann ist c−1 f ein Minimalpolynom von φ.
Nun beweisen wir die Eindeutigkeit. Seien f, g ∈ K[x] zwei verschiedene Minimalpolynome von φ. Dann
gilt grad(f ) = grad(g), und weil f, g beide normiert sind, hat das Polynom h = f − g 6= 0K einen kleineren
Grad als f und g. Sei c ∈ K der Leitkoeffizient von h und h̃ = c−1 h. Dann ist h̃ normiert, und es gilt
= 0EndK (V ) .
h̃(φ) = c−1 (f (φ) − g(φ)) = c−1 0EndK (V ) − 0EndK (V )
Aber dies widerspricht der Minimalitätseigenschaft von f und g. Also kann es keine zwei verschiedenen
Minimalpolynome geben.
Zum Beweis der letzten Aussage sei f ∈ K[x] ein Polynom mit f (φ) = 0EndK (V ) . Division mit Rest liefert
Polynome q, r ∈ K[x] mit f = qmφ + r, wobei entweder r = 0K oder r 6= 0K und grad(r) < grad(mφ )
gilt. Nehmen wir an, dass der zweite Fall vorliegt, und dass c ∈ K der Leitkoeffizient von r ist. Setzen wir
r̃ = c−1 r = c−1 (f − qmφ ), dann folgt
r̃(φ)
=
c−1 (f − qmφ )(φ)
c−1
c−1 (f (φ) − q(φ) ◦ mφ (φ))
= 0EndK (V ) .
0EndK (V ) − q(φ) ◦ 0EndK (V )
=
=
Dies steht im Widerspruch zur Minimalitätseigenschaft von mφ , wodurch nur die Möglichkeit r = 0K
übrig bleibt. Es gilt also f = qmφ , damit ist mφ ein Teiler von f .
Lemma 3.5
n−1
X
ak xk die Matrix
Ordnet man jedem normierten, nicht-konstanten Polynom f = xn +


k=0
0
−a0
1 0
−a1 




..
..


.
zu, dann gilt jeweils χAf = f.
Af = 
1
.



..


. 0 −an−2 

1 −an−1
Beweis: Nach Definition des charakteristischen Polynoms gilt

x
−1 x


.

χAf = det 
−1 . .

..

. x

−1
a0
a1
..
.
an−2
x + an−1









Wir berechnen diese Determinante durch Entwicklung zur n-ten Spalte. Sei k ∈ {1, ..., n}. Streichen wir in
der Matrix die k-te Zeile und die n-te Spalte, hat der sich oberhalb bzw. unterhalb der weggelassenen Zeile
befindende Teil der Restmatrix die Form
Bk 0
0 Ck
—– 15 —–
mit den Blockmatrizen

x
−1

Bk = 


x
..
.




..
.
−1
und
x

−1


Ck = 



x
−1
..
.
..
.
x
−1





wobei Bk ∈ Mk−1,K und Ck ∈ Mn−k,K ist. Es gilt det Bk = xk−1 , det Ck = (−1)n−k , und die Formel für
die Determinaten von Blockmatrizen liefert den Wert (det Bk )(det Ck ) = (−1)n−k xk−1 für die Restmatrix.
Der entsprechende Summand im Laplaceschen Entwicklungssatz ist dann
(−1)n+k (−1)n−k xk−1 ak−1
=
ak−1 xk−1
im Fall k < n und (−1)2n (−1)0 xn−1 (x + an−1 ) = xn + an−1 xn−1 im Fall k = n. Insgesamt erhalten wir also
die Determinante
xn + an−1 xn−1 +
n−1
X
ak−1 xk−1
=
xn + an−1 xn−1 +
k=1
n−2
X
a k xk
=
f
k=0
Für den weiter unten folgenden Satz von Cayley-Hamilton benötigen wir eine weitere Klasse von Minimalpolynomen.
Proposition 3.6
Sei V ein endlich-dimensionaler K-Vektorraum. Für jedes φ ∈ EndK (V ) und jeden
Vektor 0V 6= v ∈ V gibt es ein Polynom 0K 6= f ∈ K[x] mit f (φ)(v) = 0V .
Beweis: Weil V endlich-dimensional ist, muss das Tupel (φ0 (v), ..., φn (v)) für hinreichend großes n linear
abhängig sein. Es gibt also ein n ∈ N0 und Koeffizienten a0 , a1 , ..., an ∈ K, nicht alle gleich Null, mit
a0 φ0 (v) + a1 φ1 (v) + ... + an φn (v)
Setzen wir f =
Pn
k=0
=
0EndK (V ) .
ak xk , dann gilt f (φ)(v) = 0V und f 6= 0K wie gewünscht.
Sei V ein endlich-dimensionaler K-Vektorraum und 0 6= v ∈ 0V . Ähnlich wie in Def. 3.3 bezeichnen wir ein normiertes Polynom f ∈ K[x] minimalen Grades mit f (φ)(v) = 0V als Minimalpolynom des Paares (φ, v).
Proposition 3.7 Sei V ein endlich-dimensionaler K-Vektorraum. Für jedes Paar (φ, v) bestehend aus
einem Endomorphismus φ von V und einem Vektor v ∈ V ungleich Null gibt es genau ein Minimalpolynom, das wir mit mφ,v bezeichnen. Ist f ∈ K[x] ein beliebiges Polynom mit f (φ)(v) = 0V , dann ist
mφ,v ein Teiler von f . Insbesondere ist mφ,v ein Teiler von mφ .
Beweis: Die Argumentation verläuft wie im Beweis von Satz 3.4. Zunächst beweisen wir die Existenz.
Nach Prop. 3.6 gibt es jedenfalls ein Polynom f 6= 0K mit f (φ)(v) = 0V . Gehen wir davon aus, dass f unter
allen Polynomen mit dieser Eigenschaft minimalen Grad besitzt, und ist c ∈ K der Leitkoeffizient von f ,
dann ist c−1 f ein Minimalpolynom des Paares (φ, v).
—– 16 —–
Nun beweisen wir die Eindeutigkeit. Seien f, g ∈ K[x] zwei verschiedene Minimalpolynome von (φ, v).
Dann gilt grad(f ) = grad(g), und weil f, g beide normiert sind, hat das Polynom h = f − g 6= 0K einen
kleineren Grad als f und g. Sei c ∈ K der Leitkoeffizient von h und h̃ = c−1 h. Dann ist h̃ normiert, und es
gilt
h̃(φ)(v) = c−1 (f (φ)(v) − g(φ)(v)) = c−1 (0V − 0V ) = 0V .
Aber dies widerspricht der Minimalitätseigenschaft von f und g. Also kann es keine zwei verschiedenen
Minimalpolynome von (φ, v) geben.
Zum Beweis der Aussage über die Teilbarkeit sei f ∈ K[x] ein Polynom mit f (φ)(v) = 0V . Division
mit Rest liefert Polynome q, r ∈ K[x] mit f = qmφ,v + r, wobei entweder r = 0K oder r 6= 0K und
grad(r) < grad(mφ,v ) gilt. Nehmen wir an, dass der zweite Fall vorliegt, und dass c ∈ K der Leitkoeffizient
von r ist. Setzen wir r̃ = c−1 r = c−1 (f − qmφ,v ), dann folgt
r̃(φ)(v)
=
c−1 (f − qmφ,v )(φ)(v)
=
c−1 (f (φ)(v) − (q(φ) ◦ mφ,v (φ))(v))
c−1 (0V − q(φ)(0V ))
=
c−1 (0V − 0V )
=
=
0V .
Dies steht im Widerspruch zur Minimalitätseigenschaft von mφ,v , wodurch nur die Möglichkeit r = 0K
übrig bleibt. Es gilt also f = qmφ,v , damit ist mφ,v ein Teiler von f . Die letzte Behauptung schließlich folgt
aus der soeben bewiesenen Aussage und mφ (φ)(v) = 0EndK (V ) (v) = 0V .
Satz 3.8
(Satz von Cayley-Hamilton)
Sei V ein endlich-dimensionaler K-Vektorraum, φ ∈ EndK (V ) und χφ sein charakteristisches Polynom.
Dann gilt χφ (φ) = 0EndK (V ) .
Beweis: Sei v ∈ V ein beliebiger Vektor ungleich 0V . Wir setzen f = mφ,v und vk = φk−1 (v) für 1 ≤ k ≤ n,
wobei n = grad(f ) ist. Zunächst überprüfen wir, dass das Tupel A = (v1 , ..., vn ) linear unabhängig ist.
Wäre es linear abhängig, dann gäbe es Koeffizienten b0 , ..., bn−1 ∈ K, nicht alle gleich Null, mit
n−1
X
bk φk (v)
k=0
=
n−1
X
bk vk+1
=
0V .
k=0
Pn−1
Für das Polynom g = k=0 bk xk würde dann g(φ)(v) = 0V gelten, im Widerspruch zur Minimalitätseigenschaft von g. Damit ist die lineare Unabhängigkeit bewiesen.
Wir ergänzen nun A durch Vektoren w1 , ..., wr zu einer Basis B von V und bestimmen die DarstellungsPn−1
matrix MB (φ). Dazu schreiben wir das Polynom f in der Form f = xn + k=0 ak xk , außerdem sei
U = hv1 , ..., vn i. Für 1 ≤ k < n gilt φ(vk ) = φ(φk−1 (v)) = φk (v) = vk+1 ∈ U , und aus
!
n−1
n−1
n−1
X
X
X
n
k
n
k
φ(vn ) +
ak vk+1 = φ (v) +
ak φ (v) =
φ +
ak φ (v) = f (φ)(v) = 0V
k=0
k=0
k=0
Pn−1
folgt φ(vn ) = − k=0 ak vk+1 ∈ U . Die Rechnung zeigt, dass φ(U ) ⊆ U gilt, und dass die Darstellungsmatrix von φ|U bezüglich der Basis A genau mit der Matrix Af ∈ Mn,K aus Lemma 3.5 übereinstimmt. Dies
bedeutet, dass die ersten n Spalten der Darstellungsmatrix von φ bezüglich B zusammen die Form
Af
0
—– 17 —–
haben, wobei die Nullmatrix im unteren Teil in Mr×n,K liegt. Durch Hinzunahme geeigneter Matrizen
B ∈ Mn×r,K und C ∈ Mr,K erhalten wir eine Darstellungsmatrix von φ bezüglich B in der Form
MB (φ)
=
Af
0
B
.
C
Mit der Formel für die Determinante von Blockmatrizen und Lemma 3.5 erhalten wir χφ = χAf χC =
f χC = χC f . Nach Prop. 3.1 folgt
χφ (φ)(v)
=
(χC (φ) ◦ f (φ))(v)
=
χC (φ)(f (φ)(v))
=
χC (φ)(0V )
=
0V .
Da v ∈ V \ {0V } beliebig vorgegeben war, erhalten wir χφ (φ) = 0EndK (V ) wie gewünscht.
Aus dem Satz von Cayley-Hamilton folgt mit Satz 3.4 unmittelbar, dass das Minimalpolynom mφ ein Teiler des
charakteristischen Polynoms ist. Außerdem gilt
Proposition 3.9 Für jeden endlich-dimensionalen K-Vektorraum V und jedes φ ∈ EndK (V ) sind die
Nullstellen von mφ genau die Eigenwerte von φ.
Beweis: Sei λ ein Eigenwert von φ und v ∈ V ein Eigenvektor zum Eigenwert λ. Dann gilt (φ−λidV )(v) =
0V . Also ist mφ,v ein Teiler von x − λ, und weil der Grad von x − λ bereits minimal ist, muss mφ,v = x − λ
gelten. Wegen mφ,v |mφ ist λ damit eine Nullstelle von mφ .
Sei umgekehrt λ eine Nullstelle von mφ . Dann gibt es ein f ∈ K[x] mit mφ = (x−λ)f . Es muss einen Vektor
v mit f (φ)(v) 6= 0V geben, weil ansonsten f (φ) = 0EndK (V ) im Widerspruch zur Minimalität von mφ stehen
würde. Aber wegen
((φ − λidV ) ◦ f (φ))(v)
=
mφ (φ)(v)
=
0EndK (V ) (v)
=
0V
liegt w = f (φ)(v) im Kern von φ − λidV . Also ist w ein Eigenvektor von φ zum Eigenwert λ.
Zwei Polynome f, g ∈ K[x] werden teilerfremd genannt, wenn es kein Polynom h ∈ K[x] vom Grad ≥ 1 gibt, dass
sowohl f als auch g teilt.
Satz 3.10
(Zerlegungssatz)
Sei V ein endlich-dimensionaler K-Vektorraum und φ ∈ EndK (V ). Seien f, g ∈ K[x] teilerfremde Polynome mit mφ = f g. Dann gilt ker f (φ) = im g(φ), im f (φ) = ker g(φ) und
V
=
im f (φ) ⊕ im g(φ)
=
ker f (φ) ⊕ ker g(φ).
Beweis: Wir unterteilen den Beweis der Übersichtlichkeit halber in eine Reihe von Einzelschritten und
zeigen nacheinander die Aussagen
—– 18 —–
(i)
(ii)
(iii)
(iv)
(v)
ker f (φ) ∩ ker g(φ) = {0V }
im f (φ) ⊆ ker g(φ) und im g(φ) ⊆ ker f (φ)
V = ker f (φ) ⊕ im f (φ) = ker g(φ) ⊕ im g(φ)
ker f (φ) = im g(φ) und ker g(φ) = im f (φ)
V = im f (φ) ⊕ im g(φ)
zu (i) Angenommen, es gibt einen Vektor v 6= 0V in ker f (φ) ∩ ker g(φ). Dann gilt f (φ)(v) = g(φ)(v) =
0V , und damit ist mφ,v nach Prop. 3.6 ein gemeinsamer Teiler von f und g. Aber dies widerspricht der
Teilerfremdheit von f und g.
zu (ii) Sei w ∈ im f (φ). Dann gibt es ein v ∈ V mit f (φ)(v) = w. Es folgt
g(φ)(w)
=
g(φ)(f (φ)(v))
mφ (φ)(v)
(g(φ) ◦ f (φ))(v)
=
=
0EndK (V ) (v)
=
=
0V
(gf )(φ)(v)
=
,
und damit liegt w im Kern von g(φ). Die Inklusion im g(φ) ⊆ ker f (φ) beweist man nach genau demselben
Schema, lediglich die Rollen von f und g sind hier vertauscht.
zu (iii) Aus ker f (φ) ∩ ker g(φ) = {0V } und im f (φ) ⊆ ker g(φ) folgt ker f (φ) ∩ im f (φ) = {0V }. Die direkte
Summe ker f (φ) ⊕ im f (φ) ist jedenfalls ein Untervektorraum von V . Nach dem Schnittdimensionssatz
und dem Dimensionssatz für lineare Abbildungen aus der Linearen Algebra I gilt außerdem
dim ker f (φ) ⊕ im f (φ)
=
dim ker f (φ) + dim im f (φ)
=
dim V.
Aus ker f (φ) ⊕ im f (φ) ⊆ V und der Gleichheit der Dimension folgt ker f (φ) ⊕ im f (φ) = V . Der Beweis
der Gleichung ker g(φ) ⊕ im g(φ) = V läuft wiederum genauso ab.
zu (iv) Nach (ii) gilt jedenfalls im f (φ) ⊆ ker g(φ), und daraus folgt dim im f (φ) ≤ dim ker g(φ). Wegen (i)
bilden die Untervektorräume ker f (φ) und ker g(φ) eine direkte Summe, damit ist dim ker f (φ)+ker g(φ) ≤
dim V . Insgesamt erhalten wir die Ungleichungskette
dim V
=
dim im f (φ) + dim ker f (φ)
≤
dim ker g(φ) + dim ker f (φ)
≤
dim V.
Weil Anfang und Ende der Kette übereinstimmen, muss dim im f (φ) = dim ker g(φ) gelten, und zusammen
mit im f (φ) ⊆ ker g(φ) folgt daraus die Gleichheit im f (φ) = ker g(φ). Der Beweis der anderen Gleichung
läuft genauso.
zu (v) Dies folgt unmittelbar aus (iii) und (iv).
Definition 3.11
Sei V ein endlich-dimensionaler K-Vektorraum, φ ∈ EndK (V ) und λ ∈ K. Dann wird
Hau(φ, λ)
=
∞
[
ker((φ − λidV )r )
r=0
der Hauptraum zum Wert λ genannt.
—– 19 —–
Durch die folgende Proposition werden wir sehen, dass es sich bei den Haupträumen - wie bei den Eigenräumen um Untervektorräume von V handelt. Bevor wir diese formulieren, schicken wir eine elementare Feststellung über
Polynome voraus.
Lemma 3.12 Sei λ ∈ K und r ∈ N0 . Dann ist jeder normierte Teiler von (x−λ)r von der Form (x−λ)m ,
wobei m ∈ N0 mit m ≤ r ist.
Beweis: Sei K̃ ⊇ K ein algebraisch abgeschlossener Erweiterungskörper von K und g ∈ K[x] ein normierter Teiler von f = (x − λ)r . Dann gibt es ein h ∈ K[x] mit f = gh. Weil K̃ algebraisch abgeschlossen
Qm
ist, zerfällt g in K̃[x] in Linearfaktoren. Es gibt also Elemente λ1 , ..., λm ∈ K̃ mit g = k=1 (x − λk ). Angenommen, es gilt λk 6= λ für ein k. Dann ist λk eine von λ verschiedene Nullstelle des Polynoms g, und
wegen f (λ) = g(λ)h(λ) = 0K h(λ) = 0K auch eine Nullstelle von f . Aber offensichtlich ist λ die einzige
Nullstelle von f . Also gilt λk = λ für 1 ≤ k ≤ m und somit g = (x − λ)m . Aus grad(g) ≤ grad(f ) folgt
m ≤ r.
Proposition 3.13 Unter den Voraussetzungen von Def. 3.11 sei r = µ(mφ , λ).
Dann gilt Hau(φ, λ) = ker((φ − λidV )r ).
Beweis: Die Inklusion „⊇“ ist nach Definition des Hauptraums offensichtlich. Zum Beweis von „⊆“ sei
v ∈ Hau(φ, λ) vorgegeben. Dann gibt es ein s ∈ N0 mit ker((φ − λidV )s ), es gilt also f (φ)(v) = 0V für das
Polynom f = (x − λ)s . Nach Prop. 3.7 ist das Polynom mφ,v ein Teiler von f und nach dem Lemma damit
gleich (x − λ)r1 für ein r1 ≤ s.
Andererseits ist das Polynom mφ,v nach Prop. 3.7 auch ein Teiler von mφ . Auf Grund dieser Teilerbeziehung gilt r1 = µ(mφ,v , λ) ≤ µ(mφ , λ) = r. Nach Definition des Polynoms mφ,v gilt darüber hinaus
(φ − λidV )r1 (v) = mφ,v (v) = 0V , damit erst recht (φ − λidV )r (v) = 0V und folglich v ∈ ker((φ − λidV )r ).
Lemma 3.14
Sei V ein K-Vektorraum, φ ∈ EndK (V ) und f ∈ K[x].
(i) Ist g ∈ K[x] ein Teiler von f , dann gilt ker g(φ) ⊆ ker f (φ).
(ii) Der Untervektorraum U = ker f (φ) ist φ-invariant, d.h. es gilt φ(U ) ⊆ U .
Beweis: zu (i) Wegen g|f existiert ein h ∈ K[x] mit f = gh, und folglich gilt f (φ) = g(φ) ◦ h(φ) =
h(φ) ◦ g(φ). Sei nun v ∈ ker φ(g) vorgegeben. Dann gilt g(φ)(v) = 0V . Es folgt
f (φ)(v)
=
(h(φ) ◦ g(φ))(v)
=
h(φ)(g(φ)(v))
=
h(φ)(0V )
=
0V
und somit v ∈ ker f (φ).
zu (ii) Sei v ∈ U vorgegeben; zu zeigen ist, dass auch φ(v) in U liegt. Definieren wir g = xf , dann gilt
g(φ) = φ ◦ f (φ) = f (φ) ◦ φ, und es folgt
f (φ)(φ(v))
=
(f (φ) ◦ φ)(v)
=
(φ ◦ f (φ))(v)
Also ist auch φ(v) in U = ker f (φ) enthalten.
—– 20 —–
=
φ(f (φ)(v))
=
φ(0V )
=
0V .
Satz 3.15
(Satz über die Hauptraumzerlegung)
Sei V ein endlich-dimensionaler K-Vektorraum und φ ∈ EndK (V ) ein Endomorphismus mit der Eigenschaft, dass das charakteristische Polynom χφ ∈ K[x] oder das Minimalpolynom mφ in Linearfaktoren
zerfällt. Dann gilt
V = Hau(φ, λ1 ) ⊕ ... ⊕ Hau(φ, λr ) ,
wobei λ1 , ..., λr die verschiedenen Eigenwerte von φ bezeichnen.
Beweis: Wir führen den Beweis durch vollständige Induktion über die Dimension von V . Im Fall V =
{0V } ist nichts zu zeigen. Sei nun dim V > 0, und setzen wir die Aussage für alle Vektorräume kleinerer
Dimension voraus. Mit χφ zerfällt als Teiler auch das Polynom mφ in Linearfaktoren, es gilt also
mφ
r
Y
=
(x − λk )ek
,
k=1
wobei λ1 , ..., λr ∈ K die verschiedenen Eigenwerte von φ sind. Wir betrachten nun die Zerlegung mφ = f g
Qr
mit f = (x − λ1 )e1 und g = k=2 (x − λk )ek . Die Faktoren f und g sind teilerfremd, denn jeder gemeinsame
Teiler hat nach Lemma 3.12 die Form (x − λ1 )e für ein e ≤ e1 , und weil λ1 keine Nullstelle von g ist, muss
e = 0 gelten. Wir können also Satz 3.10 anwenden und erhalten eine direkte Summenzerlegung V = U ⊕W
mit U = ker f (φ) = Hau(φ, λ1 ) und W = ker g(φ). Nach Lemma 3.14 sind U und W invariant unter φ.
Unser Ziel besteht darin, die Induktionsvoraussetzung auf den Endomorphismus ψ = φ|W ∈ EndK (W )
anzuwenden. Wegen
mφ (ψ)
=
mφ (φ)|W
0EndK (V ) |W
=
=
0EndK (W )
ist mψ nach Satz 3.4 ein Teiler von mφ . Also zerfällt auch das Polynom mψ in Linearfaktoren. Wegen
Eig(φ, λ1 ) 6= {0V } und Hau(φ, λ1 ) ⊇ Eig(φ, λ1 ) ist auch U 6= {0V } und somit dim W < dim V . Wenden
wir die Induktionsvoraussetzung auf ψ = φ|W ∈ EndK (W ) an, so erhalten wir eine Zerlegung
W
r
M
=
Hau(ψ, λk ).
k=2
Wir zeigen, dass die Haupträume von ψ mit entsprechenden Haupträumen von φ übereinstimmen. Sei
dazu k ∈ {2, ..., r} vorgegeben. Aus (ψ − λk idW )ek = (φ − λk idV )ek |W folgt
Hau(ψ, λk )
=
ker((ψ − λk idW )ek )
=
ker((φ − λk idV )ek ) ∩ W
=
Hau(φ, λk ) ∩ W.
Weil fk = (x − λk )ek ein Teiler von g ist, ist Hau(φ, λk ) = ker fk (φ) darüber hinaus in W = ker g(φ)
enthalten. Wir erhalten Hau(ψ, λk ) = Hau(φ, λk ) für 2 ≤ k ≤ r und damit insgesamt die gewünschte
Zerlegung.
—– 21 —–
§ 4.
Die Jordansche Normalform
Wichtige Begriffe und Sätze in diesem Abschnitt
–
–
–
–
–
nilpotente Endomorphismen
Jordanketten und Jordanbasen
Beweis der Existenz von Jordanbasen bezüglich nilpotenter Endomorphismen
konkrete Berechnung von Jordanbasen
Berechnung der Jordanschen Normalform eines beliebigen Endomorphismus
Definition 4.1
Sei V ein K-Vektorraum. Einen Endomorphismus φ : V → V bezeichnet man als
nilpotent, wenn ein p ∈ N mit φp = 0EndK (V ) existiert. Ebenso bezeichnet man eine Matrix A ∈ Mn,K
als nilpotent, wenn es ein p ∈ N mit Ap = 0Mn,K gibt.
Definition 4.2
Sei V ein K-Vektorraum der endlichen Dimension n und φ ∈ EndK (V ) nilpotent.
(i) Eine geordnete Basis (v1 , ..., vn ) von V heißt Jordanbasis bezüglich φ, wenn für 1 ≤ k ≤ n jeweils
φ(vk ) = vk−1 oder φ(vk ) = 0V gilt, wobei wir v0 = 0V setzen.
(ii) Für jedes m ∈ N wird ein Tupel (v1 , ..., vm ) von Vektoren eine Jordankette der Länge m bezüglich
φ genannt, wenn φ(vk ) = vk−1 für 1 ≤ k ≤ m erfüllt ist, wobei wieder v0 = 0V gesetzt wird.
Eine geordnete Basis ist also genau dann eine Jordanbasis, wenn sie aus mehreren Jordanketten zusammengesetzt ist.
Sei nun V ein endlich-dimensionaler K-Vektorraum, φ ∈ EndK (V ) nilpotent und p ∈ N minimal mit φp = 0EndK (V ) .
Lemma 4.3
Für 0 ≤ k ≤ p sei jeweils Vk = ker(φk ).
(i) Es gilt {0V } = V0 ( V1 ( ... ( Vp−1 ( Vp = V .
(ii) Für 1 ≤ k ≤ p gilt φ−1 (Vk−1 ) = Vk .
(iii) Ist k ∈ {1, ..., p} und U ein Untervektorraum von V mit Vk ∩ U = {0V }, dann ist φ|U injektiv.
Beweis: zu (i) Wegen φ0 = idV gilt V0 = {0V }, und aus φp = 0EndK (V ) folgt φp (v) = 0V für alle v ∈ V ,
also Vp = V . Sei nun k ∈ {1, ..., p}; zum Nachweis von Vk−1 ⊆ Vk sei v ∈ Vk−1 vorgegeben. Dann gilt
φk−1 (v) = 0V , und es folgt
φk (v)
=
φ(φk−1 (v))
=
φ(0V )
—– 22 —–
=
0V
,
also v ∈ Vk . Nehmen wir nun an, dass Vk−1 = Vk gilt. Wir zeigen, dass daraus Vp−1 = Vp folgen würde. Die
Inklusion Vp−1 ⊆ Vp haben wir bereits gezeigt. Ist umgekehrt v ∈ Vp , dann gilt φk (φp−k (v)) = φp (v) = 0V ,
also φp−k (v) ∈ Vk = Vk−1 . Daraus wiederum folgt φp−1 (v) = φk−1 (φp−k (v)) = 0V , also v ∈ Vp−1 . Aber aus
Vp−1 = Vp = V folgt φp−1 = 0EndK (V ) , was der Minimalität von p widerspricht. Also muss Vk−1 ( Vk für
1 ≤ k ≤ p gelten.
zu (ii) Für jeden Vektor v ∈ V gilt die Äquivalenz
v ∈ φ−1 (Vk−1 )
⇔
φ(v) ∈ Vk−1
⇔
φk (v) = φk−1 (φ(v)) = 0V
⇔
v ∈ Vk .
zu (iii) Nach Definition gilt V1 = ker(φ) ⊆ Vk . Aus der Gleichung U ∩ Vk = {0V } für ein k ≥ 1 folgt wegen
V1 ⊆ Vk also insbesondere U ∩ ker(φ) = U ∩ V1 = {0V }.
Lemma 4.4
Es gibt Untervektorräume U1 , ..., Up von V mit folgenden Eigenschaften.
(i) Für 1 ≤ k ≤ p gilt Vk = Vk−1 ⊕ Uk .
(ii) Für 2 ≤ k ≤ p gilt φ(Uk ) ⊆ Uk−1 , und φ|Uk ist jeweils injektiv.
Lp
(iii) Es gilt V = k=1 Uk .
Beweis: zu (i),(ii) Zunächst wählen wir Up beliebig mit der Eigenschaft, dass V = Vp = Vp−1 ⊕ Up erfüllt
ist. Sei nun k ∈ {2, ..., p}, und nehmen wir an, dass bereits Untervektorräume Uj für k ≤ j ≤ p konstruiert
wurden, wobei jeweils Vj = Vj−1 ⊕ Uj für k ≤ j ≤ p und φ(Uj ) ⊆ Uj−1 für k + 1 ≤ j ≤ p erfüllt ist. Wir
beweisen nun zunächst die Gleichung
Vk−2 ∩ φ(Uk )
=
{0V }.
Sei w ∈ Vk−2 ∩ φ(Uk ) vorgegeben. Dann gibt es ein u ∈ Uk mit φ(u) = w. Nach Lemma 4.3 (ii) gilt
φ(Vk−1 ) = Vk−2 , also gibt es ein v ∈ Vk−1 mit φ(v) = w. Aus φ(u − v) = φ(u) − φ(v) = w − w = 0V folgt
u − v ∈ ker(φ) = V1 ⊆ Vk−1 und somit auch u = (u − v) + v ∈ Vk−1 . Wegen Vk−1 ∩ Uk = {0V } ist nun
u = 0V und w = φ(u) = φ(0V ) = 0V . Damit ist die Gleichung bewiesen.
Auf Grund der Gleichung und wegen φ(Uk ) ⊆ φ(Vk ) ⊆ Vk−1 und Vk−2 ⊆ Vk−1 existiert ein Untervektorraum W von V mit Vk−1 = Vk−2 ⊕ φ(Uk ) ⊕ W . Definieren wir nun Uk−1 = φ(Uk ) ⊕ W , dann
sind Vk−1 = Uk−1 ⊕ Vk−2 und φ(Uk ) ⊆ Uk−1 offenbar erfüllt. Für jedes k ∈ {2, ..., p} ist φ|Uk wegen
Vk−1 ∩ Uk = {0V } nach Lemma 4.3 (iii) auch injektiv.
L`
zu (iii) Wir beweisen die Gleichung V` = k=1 Uk für 0 ≤ ` ≤ p durch vollständige Induktion über `. Für
` = 0 steht rechts die „leere“ Summe, hier ist die Gleichung also erfüllt. Sei nun ` ∈ {1, ..., p}, und setzen
wir die Gleichung für ` − 1 voraus. Aus (i) folgt dann
V`
=
V`−1 ⊕ U`
=
`−1
M
!
Uk
k=1
—– 23 —–
⊕ U`
=
`
M
k=1
Uk .
Wegen φ(Uk+1 ) ⊆ Uk können wir für 1 ≤ k ≤ p−1 jeweils einen Untervektorraum Wk von Uk mit Uk = φ(Uk+1 )⊕Wk
wählen. Setzen wir außerdem Wp = Up , dann gilt
Up
= Wp
Up−1
= φ(Wp )
Up−2
⊕ Wp−1
2
⊕ φ(Wp−1 )
= φ (Wp )
⊕ Wp−2
..
.
= φp−2 (Wp ) ⊕ φp−3 (Wp−1 ) ⊕ φp−4 (Wp−2 ) · · ·
U2
⊕
φ(W3 )
W2
= φp−1 (Wp ) ⊕ φp−2 (Wp−1 ) ⊕ φp−3 (Wp−2 ) · · · φ2 (W3 ) ⊕ φ(W2 ) ⊕ W1
Lk
für 0 ≤ k ≤ p − 1 also jeweils Up−k = `=0 φk−` (Wp−` ), wie man durch vollständige Induktion über k leicht beweist.
Lk−1
Wir definieren nun für 1 ≤ k ≤ p die Untervektorräume Zk = `=0 φ` (Wk ). Dies sind im Diagramm von oben die p
„vertikalen“ direkten Summen, von rechts nach links durchnummeriert. Durch Betrachtung der Indexmenge
U1
A
p−1
[
=
{(k, `) | 0 ≤ ` ≤ k}
=
{(k, `) | 0 ≤ ` ≤ k ≤ p − 1}
p−1
[
=
{(k, `) | ` ≤ k ≤ p − 1}
`=0
k=0
erhalten wir
V
=
p
M
Uk
=
k=1
=
p−1 M
p−1
M
p−1
M
Up−k
p−1 M
k
M
=
k=0
φ
k−`
(Wp−` )
`=0 k=`
=
k=0 `=0
=
p−1 p−1−`
M
M
`=0
=
φk−` (Wp−` )
p M
k−1
M
M
φk−` (Wp−` )
(k,`)∈A
k
φ (Wp−` )
=
k=0
φ` (Wk )
k=1 `=0
p−1 p−1−k
M
M
k=0
=
p−1
M
φ` (Wp−k )
`=0
Zk .
k=0
Bei dieser Rechnung wurden im vierten und fünften Schritt die Gleichungen für die Menge A angewendet, im sechsten in der inneren Summe k durch k + ` ersetzt, dann k und ` vertauscht und schließlich noch k durch p − k ersetzt.
Lemma 4.5 Für 1 ≤ k ≤ p sei jeweils rk = dim Wk . Dann besitzt Zk eine Jordanbasis bestehend aus rk
Jordanketten der Länge k.
Beweis: Sei (v1 , ..., vrk ) eine Basis von Wk . Nach Definition gilt Wk ⊆ Uk , außerdem ist φ|Uk injektiv.
Somit ist (φ(v1 ), ..., φ(vrk )) eine Basis von φ(Wk ). Durch einen einfachen Induktionsbeweis zeigt man, dass
allgemein
B` = (φ` (v1 ), ..., φ` (vrk ))
für 0 ≤ ` ≤ k − 1
Lk−1
`
jeweils eine Basis von φ (Wk ) ist. Auf Grund der direkten Summenzerlegung Zk = `=0 φ` (Wk ) ist B =
Sk−1
`=0 B` eine Basis von Zk . Für 1 ≤ j ≤ rk ist nun
(φk−1 (vj ), φk−2 (vj ), ..., φ(vj ), vj )
offenbar eine Jordankette der Länge k, wobei noch zu beachten ist, dass wegen Uk ⊆ Vk = ker(φk ) jeweils
φk (vj ) = 0V gilt.
Wenden wir Lemma 4.5 auf jeden der p Untervektorräume Wk von V an, so erhalten wir
—– 24 —–
Korollar 4.6
Zu jedem nilpotenten Endomorphismus existiert eine Jordanbasis.
Die bisherigen Resultate können auch für die Berechnung einer konkreten Jordanbasis verwendet werden. Dazu geht
man nach folgendem Schema vor.
(i) Zunächst berechnet man Basen für die Untervektorräume V1 , ..., Vp .
(ii) Nun bestimmt man eine Basis Bp des Vektorraums Wp = Up , indem man die Basis von Vp−1 zu einer Basis von
Vp ergänzt.
(iii) Ebenso bestimmt man nacheinander für k = p − 1, p − 2, ..., 1 jeweils eine Basis Bk von Wk , indem man jeweils
eine Basis von Vk−1 ⊕ φ(Uk+1 ) zu einer Basis von Vk ergänzt.
(iv) Jeder Vektor in Bk liefert eine Jordankette der Länge k (für 1 ≤ k ≤ p), und die Vereinigung all dieser Jordanketten ergibt insgesamt eine Basis von V .
Als nächstes bemerken wir, dass die Anzahl und Längen der Jordanketten in einer Jordanbasis durch den Endomorphismus φ eindeutig festgelegt ist.
Satz 4.7 Sei V ein endlich-dimensionaler K-Vektorraum, φ ∈ EndK (V ) und A eine Jordanbasis von V
bezüglich φ. Für jedes k ∈ N0 sei Vk = ker(φk ) und dk = dim Vk , und für jedes s ∈ N sei as die Anzahl
der Jordanketten in A der Länge s. Dann gilt
as
=
2ds − ds−1 − ds+1
für alle s ∈ N.
Beweis: Die Abbildung φ bildet sämtliche Vektoren in A, die am Anfang einer Jordankette stehen, auf
P∞
Null ab. Daraus folgt d1 ≥
s=1 as . Die übrigen Vektoren werden jeweils auf ihren Vorgänger in der
jeweiligen Jordankette abgebildet; somit hat der Raum, der von den übrigen Vektoren aufgespannt wird,
dieselbe Dimension wie der Bildraum. Dies zeigt, dass der Kern von φ die genaue Dimension
d1
∞
X
=
besitzt.
as
s=1
Dabei ist zu beachten, dass in der Summe rechts alle Summanden bis auf endlich viele gleich Null sind,
da insgesamt nur endlich viele Jordanketten existieren. Die Abbildung φ2 bildet sämtliche Vektoren, die in
den ersten beiden Positionen einer Jordankette stehen, auf Null ab, während sie auf dem Raum, der von
den übrigen Basisvektoren aufgespannt wird, injektiv ist. Daraus folgt
d2
=
a1 +
∞
X
2as .
s=2
Sei nun k ∈ N. Dasselbe Argument wie zuvor zeigt, dass der Kern von denjenigen Vektoren der Basis A
aufgespannt wird, die in den ersten k Komponenten einer Jordankette stehen, und wir erhalten
dk
=
k−1
X
`a` + k
`=1
—– 25 —–
∞
X
`=k
a` .
Weiter gilt
ds − ds−1
s−1
X
=
`a` +
`=1
s−1
X
`=1
`a` −
s−2
X
!
`a`
+
`=1
=
∞
X
P∞
a` −
!
sa`
−
`=s
s−2
X
`a` −
`=1
∞
X
!
(s − 1)a`
=
!
(s − 1)a`
=
`=s−1
(s − 1)as−1 +
`=s−1
`=s+1
`=s
∞
X
sa` −
`=s
und ebenso ds+1 − ds =
as
∞
X
∞
X
∞
X
a` − (s − 1)as−1
=
`=s
∞
X
a` .
`=s
a` . Insgesamt erhalten wir den Ausdruck
∞
X
a`
=
(ds − ds−1 ) − (ds+1 − ds )
=
2ds − ds−1 − ds+1
`=s+1
für die Anzahl as der Jordanketten der Länge s.
Korollar 4.8 Sei V ein endlich-dimensionaler K-Vektorraum und φ ∈ EndK (V ) ein nilpotenter Endomorphismus. Dann gibt es für jedes s ∈ N in jeder Jordanbasis von V bezüglich φ dieselbe Anzahl von
Jordanketten der Länge s.
Beweis: Dies folgt unmittelbar aus Satz 4.7, denn die Anzahl as der Jordanketten der Länge s ist durch
die Dimensionen der Räume Vk = dim ker(φk ) festgelegt, die ihrererseits nur vom Endomorphismus φ,
nicht aber von der Wahl einer Basis abhängen.
Wir werden nun die soeben entwickelte Theorie für nilpotente Endomorphismen anwenden, um eine Darstellung
für beliebige Endomorphismen zu definieren.
Definition 4.9
Sei V ein endlich-dimensionaler K-Vektorraum, φ ∈ EndK (V ) und λ ∈ K. Wir bezeichnen ein Tupel (v1 , ..., vr ) von Vektoren in V als Jordankette zum Eigenwert λ, wenn φ(v1 ) = 0V
und
φ(vk ) = λvk + vk−1
für 2 ≤ k ≤ r erfüllt ist.
Eine geordnete Basis von V , die durch Aneinanderhängen von einer oder mehreren Jordanketten zu
(möglicherweise verschiedenen) Eigenwerten zu Stande kommt, wird Jordanbasis von V bezüglich φ
genannt.
Sei λ ∈ K. Eine Matrix der Form

λ







1
λ

1
λ
1
..
.







..
.
λ
1
bezeichnet man als Jordankästchen. Ist (v1 , ..., vr ) eine Jordankette wie in der obigen Definition und U = hv1 , ..., vr i,
dann besitzt der Endomorphismus φ|U bezüglich der Jordankette als Basis eine Darstellungsmatrix in genau dieser
—– 26 —–
Form. Eine Matrix, die aus Jordankästchen entlang der Hauptdiagonalen zu Stande kommt, wird Jordanmatrix oder
Matrix in Jordanscher Normalform genannt. Beispiele für solche Matrizen sind


1 0 0 0 0 0 0


0 2 1 0 0 0 0
2 1 0 0 0


0 0 2 0 0 0 0
0 2 0 0 0






0 0 3 1 0
oder
0 0 0 2 0 0 0




0 0 0 3 1
0 0 0 0 3 1 0


0 0 0 0 0 3 1
0 0 0 0 3
0 0 0 0 0 0 3
Hier besteht die erste Matrix aus zwei, die zweite aus vier Jordankästchen. Bei den Jordanmatrizen handelt es sich
genau um den Typ von Matrix, der als Darstellungsmatrix von Endomorphismen bezüglich einer Jordanbasis zu
Stande kommt. Wir formulieren nun das Hauptergebnis dieses Abschnitts.
Satz 4.10
Sei V ein endlich-dimensionaler K-Vektorraum und φ ∈ EndK (V ) ein Endomorphismus
mit der Eigenschaft, dass sein Minimalpolynom mφ oder sein charakteristisches Polynom χφ in K[x] in
Linearfaktoren zerfällt. Dann besitzt V eine Jordanbasis bezüglich φ. Für jedes s ∈ N und jedes λ ∈ K
enthält jede Jordanbasis dieselbe Anzahl von Jordanketten der Länge s zum Eigenwert λ.
Beweis: Zunächst beweisen wir die Existenzaussage. Seien λ1 , ..., λr ∈ K die verschiedenen Eigenwerte
von φ. Nach Satz 3.15 gibt es dann eine direkte Summenzerlegung
V
=
r
M
Hau(φ, λk )
k=1
des Vektorraums V in die verschiedenen Haupträume, und für jedes k ist φk = φ|Hau(φ,λk ) ein Endomorphismus von Vk = Hau(φ, λk ). Setzen wir ek = µ(mφ , λk ), dann gilt jeweils Vk = ker((φ − λk idV )ek ) nach
Prop. 3.13. Für den Endomorphismus ψk = φk − λk idVk folgt daraus ψkek = 0EndK (Vk ) , es handelt sich also
um einen nilpotenten Endomorphismus des Vektorraums Vk .
Nach Kor. 4.6 besitzt Vk eine geordnete Basis Bk , die aus Jordanketten bezüglich ψk zusammengesetzt ist.
Sei (v1 , ..., vt ) eine solche Jordankette. Dann gilt ψk (v1 ) = 0V und ψk (v` ) = v`−1 für 2 ≤ ` ≤ t. Wegen
φk = ψk + λk idVk folgt φk (v1 ) = λk v1 und φk (v` ) = λk v` + v`−1 für 2 ≤ ` ≤ t. Also ist (v1 , ..., vt ) eine
Jordankette von φ zum Eigenwert λk . Jeder Untervektorraum Vk in unserer direkten Summenzerlegung
besitzt also eine Basis bestehend aus Jordanketten. Durch Vereinigung erhalten wir eine Basis von V , die
ebenfalls aus Jordanketten zusammengesetzt ist.
Kommen wir nun zum Beweis der Eindeutigkeitsaussage. Sei k ∈ {1, ..., r}, (v1 , ..., vs ) eine Jordankette
zum Eigenwert λk und U = hv1 , ..., vr i. Dann gilt offenbar (φ − λk idV )r (v` ) = 0V für 1 ≤ ` ≤ s. Also ist U
im Hauptraum Hau(φ, λk ) enthalten. Dies zeigt, dass die Anzahl der Jordanketten zum Eigenwert λk mit
einer bestimmten Länge s mit der Anzahl der Jordanketten der Länge s des nilpotenten Endomorphismus
ψk aus dem letzten Absatz übereinstimmt. Nach Kor. 4.8 ist diese Anzahl nur vom Endomorphismus ψk ,
nicht aber von der Wahl einer Basis, abhängig.
—– 27 —–
Durch den Satz wird folgendes Verfahren zur Bestimmung einer Jordanbasis für einen Endomorphismus φ eines
endlich-dimensionalen K-Vektorraums V mit zerfallendem charakteristischen Polynom nahegelegt.
(i) Bestimme die Eigenwerte λ1 , ..., λr ∈ K von φ und für jedes k ∈ {1, ..., r} eine Basis Bk des Hauptraums
Hk = Hau(φ, λk ).
(ii) Wende das Verfahren von Seite 25 an, um für jedes k eine Jordanbasis Jk von Hk bezüglich des nilpotenten
Endomorphismus ψk = φ|Hk − λk idHk zu bestimmen.
(iii) Die Vereinigung J = J1 ∪ ... ∪ Jr ist dann eine Jordanbasis von V bezüglich φ.
Korollar 4.11
Sei V ein endlich-dimensionaler K-Vektorraum und φ ein Endomorphismus von V ,
dessen charakteristisches Polynom in Linearfaktoren zerfällt. Dann gilt µa (φ, λ) = dim Hau(φ, λ) für
jeden Eigenwert λ von φ.
Beweis: Seien λ1 , ..., λr ∈ K die Eigenwerte von φ, und für jedes k ∈ {1, ..., r} sei Jk jeweils eine Jordanbasis von φk = φ|Hau(φ,λk ) . Setzen wir J = J1 ∪ ... ∪ Jr , dann besteht die Darstellungsmatrix A = MJ (φ)
aus den Blockmatrizen
Ak = MJk (φk )
entlang der Hauptdiagonalen. Die Matrizen Ak sind jeweils obere Dreiecksmatrizen mit dem Eigenwert λk
auf der Hauptdiagonalen. Jedes λk kommt also genau dk -mal auf der Hauptdiagonalen von A vor, wobei
dk = dim Hau(φ, λk ) ist. Dies zeigt, dass die algebraische Vielfachheit µa (φ, λk ) von λk jeweils mit der
Dimension dk übereinstimmt.
—– 28 —–
§ 5.
Das euklidische Standard-Skalarprodukt
Wichtige Begriffe und Sätze in diesem Abschnitt
–
–
–
–
euklidische Länge eines Vektors v ∈ Rn
Orthogonalitätsrelation
Winkel zwischen zwei Vektoren
Herleitung der Definitionen aus geometrisch motivierten Eigenschaften
Unser Ziel in diesem Abschnitt besteht darin, durch elementar-geometrische Überlegungen eine möglicht natürliche,
also durch die Anschauung begründete Definition für die Länge eines Vektors v ∈ Rn und den Winkel zwischen zwei
Vektoren v, w ∈ Rn mit v, w 6= 0Rn anzugeben. Zunächst überlegen wir uns, welche Bedingungen eine Längenfunktion Rn → R+ , v 7→ kvk erfüllen sollte.
(L1 ) Für die Einheitsvektoren e1 , ..., en ∈ Rn gilt jeweils kei k = 1 (1 ≤ i ≤ n).
(L2 ) Für alle v ∈ Rn gilt kvk = 0 genau dann, wenn v = 0 ist.
(L3 ) Skalieren wir einen Vektor v mit einer reellen Zahl λ, dann ändert sich die Länge um den Faktor |λ|. Es gilt also
kλvk = |λ|kvk für alle λ ∈ R und v ∈ Rn .
(L4 ) Es gilt die sog. Dreiecksungleichung kv + wk ≤ kvk + kwk für alle v, w ∈ Rn .
Zugleich überlegen wir, welche Eigenschaften eine Relation ⊥ auf Rn besitzen sollte, die angibt, ob zwei vorgegebene
Vektoren v, w ∈ Rn orthogonal (also senkrecht) aufeinander stehen. Hier scheinen die folgenden Eigenschaften durch
die Anschauung begründet zu sein.
(O1 ) Es gilt ei ⊥ ej für 1 ≤ i < j < n. Die Einheitsvektoren stehen also senkrecht aufeinander.
(O2 ) Die Relation ⊥ ist symmetrisch, d.h. für alle v, w ∈ Rn gilt die Äquivalenz v ⊥ w ⇔ w ⊥ v.
(O3 ) Sind u, v, w ∈ Rn mit u ⊥ v und u ⊥ w, dann folgt u ⊥ (v + w).
(O4 ) Sind v, w ∈ Rn mit v ⊥ w, dann gilt v ⊥ (λw) für alle λ ∈ R.
Aus (O4 ) folgt insbesondere, dass der Nullvektor 0Rn auf allen Vektoren des Rn senkrecht steht. Zum Schluss formulieren wir noch eine Bedingung, die sowohl die Längenfunktion k·k als auch die Relation ⊥ betrifft: Für alle v, w ∈ Rn
gelte die Äquivalenz
(Satz des Pythagoras)
v⊥w
⇔
kv + wk2 = kvk2 + kwk2
Wir werden nun sehen, dass alle diese Bedingungen nur für eine mögliche Längenfunktion und eine Relation ⊥ gültig
sind.
—– 29 —–
Lemma 5.1 Sei ⊥ eine Relation auf Rn , die (O1 ) bis (O4 ) erfüllt. Für 0 ≤ k < n sei jeweils der Unterraum
Uk von Rn jeweils gegeben durch
Uk
=
he1 , ..., ek iR
Rk × {0}n−k .
=
Dann gilt für k < r ≤ n jeweils er ⊥ w für alle w ∈ Uk .
Beweis: Wir beweisen die Aussage durch vollständige Induktion über k. Im Fall k = 0 ist Uk = {0Rn }
und er ⊥ 0Rn erfüllt. Sei nun die Aussage für k bewiesen, r > k + 1 und w ∈ Uk+1 . Dann besitzt w eine
Pk
Darstellung als Linearkombination der Form w = u + λk+1 ek+1 mit u = i=1 λk ek . Es gilt u ∈ Uk und
damit nach Induktionsvoraussetzung er ⊥ u. Außerdem ist nach Bedingung (O2 ) er ⊥ ek+1 erfüllt, damit
auch er ⊥ λk+1 ek+1 nach (O4 ) und schließlich er ⊥ (u + λk+1 ek+1 ) ⇔ er ⊥ w nach (O3 ).
Satz 5.2
Für alle v ∈ Rn , v = (v1 , ..., vn ) gilt kvk2 =
n
X
vk2 .
k=1
Beweis:
Wir beweisen für 0 ≤ k ≤ n durch vollständige Induktion jeweils die Gleichung
2
kvk =
k
X
λ2i
für
v=
i=1
k
X
λi ei .
i=1
Pk+1
Im Fall k = 0 ist v = 0Rn somit kvk = 0 nach (L2 ). Sei nun die Aussage für k bewiesen und v = i=1 λi ei .
Pk
Dann zerlegen wir v = u + w in die Vektoren u = i=1 λi ei und w = λk+1 ek+1 . Nach InduktionsvorausPk
setzung gilt kuk2 = i=1 λ2i . Definieren wir Uk = he1 , ..., ek iR , dann steht ek+1 nach Lemma 5.1 senkrecht
auf U , und nach (O4 ) folgt u ⊥ w. Außerdem gilt kwk2 = kλk+1 ek+1 k2 = λ2k+1 nach (L1 ) und (L3 ). Mit dem
Satz des Pythagoras erhalten wir
kvk2
=
kuk2 + kwk2
k
X
=
λ2i + λ2k+1
=
i=1
Ist nun v ∈ Rn , v = (v1 , ..., vn ), dann gilt v =
Pn
i=1
vi ei und damit kvk2 =
k+1
X
λ2i .
i=1
Pn
i=1
vi2 .
Gehen wir also davon aus, dass eine Längenfunktion k · k die Bedingungen (L1 ) bis (L4 ) und eine Orthogonalitätsrelation ⊥ die Bedingungen (O1 ) bis (O4 ) erfüllen und außerdem der Satz des Pythagoras gelten muss, dann bleibt uns
nichts anderes übrig, als die Länge kvk eines Vektors v = (v1 , ..., vn ) ∈ Rn durch
kvk
=
v
u n
uX
t
v2
k
zu definieren.
k=1
Der nächste Satz zeigt, dass es auch für die Definition der Orthogonalitäts-Relation ⊥ nur eine Möglichkeit gibt.
—– 30 —–
Satz 5.3
Seien v, w ∈ Rn mit v = (v1 , ..., vn ) und w = (w1 , ..., wn ). Unter den oben aufgezählten
Voraussetzungen an die Funktion k · k und die Relation ⊥ gilt dann
v⊥w
n
X
⇔
vk wk = 0.
k=1
Beweis: Nach dem Satz des Pythagoras gilt v ⊥ w genau dann, wenn kv + wk2 = kvk2 + kwk2 erfüllt ist.
Auf Grund der bereits gefundenen Formel für die Längenfunktion ist das wiederum äquivalent zu
n
X
k=1
(vk + wk )2 =
n
X
vk2 +
k=1
n
X
wk2
k=1
⇔
n
X
(vk2 + 2vk wk + wk2 ) =
k=1
n
X
vk2 +
k=1
n
X
wk2
⇔
k=1
n
X
vk wk = 0.
k=1
Definition 5.4
Das euklidische Standard-Skalarprodukt zweier Vektoren v, w ∈ Rn , v = (v1 , ..., vn )
und w = (w1 , ..., wn ) ist gegeben durch
hv, wi
=
n
X
vk wk .
k=1
Wir sagen, die Vektoren v und w stehen senkrecht aufeinander und schreiben
v ⊥ w, wenn hv, wi = 0
p
gilt. Die euklidische Länge des Vektors v ∈ Rn ist gegeben durch kvk = hv, vi.
Trotz ähnlicher Schreibweise hat das euklische Skalarprodukt hv, wi nichts mit dem von {v, w} aufgespannten Untervektorraum zu tun. Um Verwechselungen auszuschließen, werden wir für den erzeugten Untervektorraum von nun
an nur noch die Schreibweise
hv, wiR = {λv + µw | λ, µ ∈ R}
mit dem Symbol R im Index verwenden.
Proposition 5.5
Das euklidische Standard-Skalarprodukt erfüllt für alle v, v 0 , w, w0 und λ ∈ R die
folgenden Rechenregeln.
(i) hv + v 0 , wi = hv, wi + hv 0 , wi
(ii) hv, w + w0 i = hv, wi + hv, w0 i
(iii) hλv, wi = hv, λwi = λhv, wi
(iv) hv, wi = hw, vi
(v) hv, vi > 0 falls v 6= 0Rn
Beweis: Sämtliche Gleichungen beweist man durch Einsetzen der Definition und einfaches Nachrechnen.
Wir führen dies hier exemplarisch für die Gleichung (i) durch und überlassen die anderen Teile dem Leser
als Übung. Seien also v, v 0 , w ∈ Rn vorgegeben, mit v = (v1 , ..., vn ), v 0 = (v10 , ..., vn0 ) und w = (w1 , ..., wn ).
Dann gilt v + v 0 = (v1 + v10 , ..., vn + vn0 ) und somit
hv + v 0 , wi
=
n
X
(vk + vk0 )wk
k=1
=
n
X
vk wk +
k=1
—– 31 —–
n
X
k=1
vk0 wk
=
hv, wi + hv 0 , wi.
Man überprüft unmittelbar, dass die zu Anfang aufgezählten Bedingungen (L1 ) bis (L3 ) für die euklidische Länge
und die Bedingungen (O1 ) bis (O4 ) von der in Def. 5.4 angegebenen Relation ⊥ erfüllt werden. Auch der Beweis des
Satzes von Pythagoras ist auf Grund der bereits bewiesenen Rechenrgeln für das euklidische Skalarprodukt reine
Routine: Sind v, w ∈ Rn vorgegeben, dann gilt
kv + wk2
=
hv + w, v + wi
=
hv, vi + hw, vi + hv, wi + hw, wi
hv + w, vi + hv + w, wi
=
2
=
2
kvk + 2hv, wi + kwk .
Also ist kv + wk2 = kvk2 + kwk2 genau dann erfüllt, wenn hv, wi = 0 ist, und dies ist nach Definition äquivalent zu
v ⊥ w. Die einzige Aussage, die sich rechnerisch nicht so leicht überprüfen lässt, ist die Dreiecksungleichung (L4 ).
Wir werden später in einem allgemeineren Kontext darauf zurückkommen.
Zunächst beschäftigen wir uns hier mit dem Problem, auf möglichst natürliche Weise den Winkel zwischen zwei
Vektoren v, w ∈ Rn , v, w 6= 0Rn zu definieren. Jedem solchen Paar von Vektoren soll eine Zahl ^(v, w) im Intervall
[0, π] zugeordnet werden. Durch die aus der Elementargeometrie bekannten Gesetze scheint es naheliegend, folgende
Eigenschaften von einer solchen Winkelfunktion ^ zu fordern.
(W1 ) ^(v, v) = 0, ^(v, w) = ^(w, v)
(W2 ) v ⊥ w ⇔ ^(v, w) = 21 π
(W3 ) ^(v, −w) = π − ^(v, w)
(W4 ) ^(v, λw) = ^(v, w) für alle λ ∈ R+
(W5 ) Gilt v 6= w und v ⊥ (w − v), dann gilt
cos ^(v, w)
=
kvk
kwk
(Satz am rechtwinkligen Dreieck).
Wieder kommen wir zu dem Ergebnis, dass es für die Definition der Winkelfunktion unter diesen Bedingungen nur
eine Möglichkeit gibt.
Satz 5.6 Sind die vier angegebenen Bedingungen an die Abbildung ^ erfüllt, dann gilt für alle v, w ∈
Rn mit v, w 6= 0 die Gleichung
hv, wi
cos ^(v, w) =
.
kvkkwk
Beweis:
Wir unterscheiden beim Beweis der Gleichung insgesamt drei Fälle.
(i) Es gilt w = λv für ein λ > 0.
(ii) Es gilt w = λv für ein λ < 0.
(iii) Die Vektoren v, w sind linear unabhängig.
—– 32 —–
zu (i) Auf Grund der Bedingungen (W1 ) und (W4 ) gilt ^(v, w) = ^(v, λv) = ^(v, v) = 0. Außerdem gilt
hv, wi = hv, λvi = λkvk2 und kvkkwk = |λ|kvk2 = λkvk2 , der Bruch auf der rechten Seite der Gleichung hat
also den Wert 1. Wegen cos(0) = 1 ist die Gleichung somit erfüllt.
zu (ii) Sei µ = −λ > 0. Mit den Bedingungen (W1 ), (W3 ) und (W4 ) erhalten wir
^(v, w)
=
^(v, λv)
=
^(v, µ(−v))
^(v, −v)
=
=
π − ^(v, v)
=
π.
Weiter gilt hv, wi = hv, λvi = λhv, vi und kvkkwk = |λ|kvk2 = −λkvk2 . Der Bruch auf der rechten Seite hat
also diesmal den Wert −1, und wegen cos(π) = −1 ist die Gleichung auch hier erfüllt.
zu (iii) Setzen wir λ = hv, wi/kvk2 , dann steht der Vektor v senkrecht auf w0 = w − λv, denn es gilt
hv, w0 i
hv, w − λvi
=
=
hv, wi − λhv, vi
hv, vihv, wi hv, vihv, wi
−
kvk2
kvk2
hv, wi −
=
=
hv, vihv, wi
kvk2
0.
Damit steht auch λv senkrecht auf w0 . Ist nun λ > 0, dann können wir den Satz vom rechtwinkligen Dreieck
auf die Vekoren λv und w anwenden und erhalten
cos ^(v, w)
=
cos ^(λv, w)
kλvk
kwk
=
hv, wi kvk
·
kvk2 kwk
=
hv, wi
.
kvkkwk
=
Im Fall λ = 0 ist die rechte Seite der Gleichung gleich Null, und dasselbe gilt wegen cos( 21 π) = 0 auch für
die linke Seite. Setzen wir nun λ < 0 voraus. Dann ist µ = −λ > 0, und es gilt
^(v, w)
=
π − ^(−v, w)
=
π − ^(−µv, w)
=
π − ^(λv, w).
Mit Hilfe der Rechenregeln cos x = cos(−x) und cos(x + π) = − cos x erhalten wir nun
cos ^(v, w)
− cos ^(λv, w)
=
=
−
cos(π − ^(λv, w))
kλvk
kwk
=
−(−λ)
=
kvk
kwk
− cos(−^(λv, w))
=
hv, wi kvk
·
kvk2 kwk
=
=
hv, wi
.
kvkkwk
Definition 5.7 Der Winkel zwischen zwei Vektoren v, w ∈ Rn , v, w 6= 0Rn ist die eindeutig bestimmte
Zahl ^(v, w) ∈ [0, π] mit
hv, wi
cos ^(v, w) =
,
kvkkwk
wobei auf der rechten Seite hv, wi das euklidische Standard-Skalarprodukt und kvk, kwk jeweils die
euklidische Länge der Vektoren v, w bezeichnet.
Damit der Winkel ^(v, w) definiert ist, muss die Zahl auf der rechten Seite zwischen −1 und 1 liegen. Dies ist äquivalent dazu, dass die Cauchy-Schwarzsche Ungleichung |hv, wi| ≤ kvkkwk für v, w erfüllt ist. Dies werden wir im nächsten
Abschnitt in allgemeinerer Form beweisen. Setzt man diese Ungleichung als bekannt voraus, dann ist die Überprüfung der Eigenschaften (W1 ) bis (W5 ) für die so definierte Winkelfunktion kein Problem.
—– 33 —–
§ 6.
Allgemeine Skalarprodukte
Wichtige Begriffe und Sätze in diesem Abschnitt
–
–
–
–
–
Bilinearform auf einem Vektorraum
Eigenschaften „symmetrisch“ und „positiv definit“
Skalarprodukt und euklidischer Vektorraum
Längen und Winkel bezüglich beliebiger Skalarprodukte
Darstellungsmatrizen
In diesem Abschnitt werden wir die Längen- und Winkelfunktion vom Rn auf beliebige R-Vektorräume übertragen.
Der Ausgangspunkt dafür sind die Eigenschaften des Standard-Skalarprodukts, die wir in Proposition Prop. 5.5
zusammengestellt haben.
Definition 6.1 Sei K ein Körper und V ein K-Vektorraum. Eine Bilinearform auf V ist eine Abbildung
b : V × V → K, so dass für v, v 0 , w, w0 ∈ V und λ ∈ K die folgende Bedingungen erfüllt sind.
(i) b(v + v 0 , w) = b(v, w) + b(v 0 , w)
(iii)
b(λv, w) = λb(v, w)
(ii) b(v, w + w0 ) = b(v, w) + b(v, w0 )
(iv)
b(v, λw) = λb(v, w)
Gilt zusätzlich b(v, w) = b(w, v) für alle v, w ∈ V , dann spricht man von einer symmetrischen Bilinearform.
Die Bedingungen (i) und (iii) lassen sich zusammenfassen in der Aussage, dass V → K, v 7→ b(v, w) für jedes w ∈ V
eine lineare Abbildung ist. Entsprechend bedeuten (ii) und (iv), dass w 7→ b(v, w) für jedes v ∈ V linear ist. Eine
Bilinearform ist also in gewisser Weise „zweifach“ linear, wodurch der Name Bilinearform gerechtfertigt ist. Aus der
Linearität in beiden Komponenten folgt auch, dass b(0V , w) = 0K und b(v, 0V ) = 0K für alle v, w ∈ V gilt.
Im weiteren Verlauf beschränken wir uns nun auf den Grundkörper K = R.
Definition 6.2
Eine symmetrische Bilinearform auf einem R-Vektorraum V heißt
(i) positiv definit, wenn b(v, v) > 0,
(iii) positiv semidefinit, wenn b(v, v) ≥ 0,
(iii) negativ semidefinit, wenn b(v, v) ≤ 0,
(iii) negativ definit, wenn b(v, v) < 0
für alle v ∈ V mit v 6= 0V erfüllt ist. Gibt es in V einen Vektor v mit b(v, v) > 0 und einen weiteren Vektor
w mit b(w, w) < 0, dann spricht man von einer indefiniten Bilinearform.
—– 34 —–
Eine positiv definite Bilinearform b auf einem R-Vektorraum V wird auch Skalarprodukt auf V genannt. Das Paar
(V, b) bezeichnet man dann als euklidischen Vektorraum. Man überprüft unmittelbar, dass es sich beim euklidischen
Standard-Skalarprodukt aus §5 um ein Skalarprodukt auf dem Rn handelt.
Ein Paar (v, w) von Vektoren aus V bezeichnet man als orthogonal bezüglich einer symmetrischen Bilinearform b
und schreibt v ⊥b w, wenn b(v, w) = 0 gilt.
Proposition 6.3
Die soeben definierte Relation ⊥b besitzt die folgenden Eigeschaften.
(O2 ) Sie ist symmetrisch, d.h. für alle v, w ∈ V gilt die Äquivalenz v ⊥b w ⇔ w ⊥b v.
(O3 ) Sind u, v, w ∈ V mit u ⊥b v und u ⊥b w, dann folgt u ⊥b (v + w).
(O4 ) Sind v, w ∈ V mit v ⊥b w, dann gilt v ⊥b (λw) für alle λ ∈ R.
Beweis:
Seien u, v, w ∈ V vorgegeben. Die Aussage (O2 ) folgt direkt aus der Äquivalenz b(v, w) =
0 ⇔ b(w, v) = 0. Zum Beweis von (O3 ) setzen wir u ⊥b v und u ⊥b w voraus. Dann gilt b(u, v) = 0
und b(u, w) = 0, und es folgt b(u, v + w) = b(u, v) + b(u, w) = 0 + 0 = 0. Aus b(v, w) = 0 folgt auch
b(v, λw) = λb(v, w) = λ0 = 0 für alle λ ∈ R. Damit ist (O4 ) nachgewiesen.
Wir werden nun zeigen, dass sich mit Hilfe eines Skalarprodukts auf einem R-Vektorraum V eine Längen- und
Winkelfunktion auf V definieren lässt, mit den in §5 beschriebenen Eigenschaften. Wesentliches Hilfsmittel dabei ist
der
Satz 6.4
(Cauchy-Schwarzsche Ungleichung)
p
Sei (V, b) ein euklidischer Vektorraum und k · kb durch kvkb = b(v, v) für alle v ∈ V definiert. Dann gilt
für alle v, w ∈ V die Ungleichung |b(v, w)| ≤ kvkb kwkb mit Gleichheit genau dann, wenn v und w linear
abhängig sind.
Beweis: Wir unterscheiden die Fälle w = 0V und w 6= 0V . Im Fall w = 0V gilt sowohl |b(v, w)| = 0 als
auch kvkb kwkb = 0. Die Vektoren v und w sind in dieser Situation linear abhängig, also ist auch die „genau
dann“-Aussage erfüllt.
Betrachten wir nun den Fall w 6= 0V . Hier besteht die wesentliche Idee darin, den Vektor v in einen zu
w parallelen und einen zu w orthogonalen Anteil zu zerlegen. Um die gewünschte Zerlegung von v zu
erhalten, betrachten wir für beliebiges λ ∈ R die Umformung
b(v − λw, w) = 0
⇔
b(v, w) − λb(w, w) = 0
⇔
λ=
b(v, w)
b(v, w)
=
.
b(w, w)
kwk2b
Setzen wir also λ = b(v, w)/kwk2b , dann ist λw parallel und v − λw orthogonal zu W . Mit diesem Wert λ
gilt nun auch
0
≤
b(v − λw, v − λw)
=
=
kvk2b − 2
b(v, v − λw) − λb(w, v − λw)
b(v, w)
b(v, w)2
b(v, w) +
kwk2b
2
kwkb
kwk4b
—– 35 —–
=
=
b(v, v) − 2λb(v, w) + λ2 b(w, w)
kvk2b −
b(v, w)2
.
kwk2b
Diese Ungleichung kann zu |b(v, w)|2 ≤ kvk2b kwk2b umgeformt werden, und durch Wurzelziehen auf beiden
Seiten erhält man |b(v, w)| ≤ kvkb kwkb wie gewünscht.
Die Vektoren v, w sind genau dann linear abhängig, wenn ein µ ∈ R mit v = µw existiert. In diesem Fall
ist λ = b(v, w)/kwk2b = b(µw, w)/kwk2b = µ, und wegen v = λw wird die obige Ungleichungskette zu einer
Gleichung. Es folgt
kvk2b −
b(v, w)2
=0
kwk2b
|b(v, w)|2 = kvk2b kwk2b
⇔
⇔
|b(v, w)| = kvkb kwkb .
Ist umkehrt die Cauchy-Schwarzsche Ungleichung mit Gleichheit verfüllt, dann ist auch die Ungleichungskette von oben eine Gleichungskette. Es muss also b(v−λw, v−λw) = 0 gelten, und damit auch v−λw = 0V ,
weil b positiv definit ist. Also sind v und w in diesem Fall linear abhängig.
Proposition 6.5
Die in Satz 6.4 definierte Funktion k · kb besitzt die folgenden Eigenschaften.
(L2 ) Für alle v ∈ Rn gilt kvkb = 0 genau dann, wenn v = 0V ist.
(L3 ) Skalieren wir einen Vektor v mit einer reellen Zahl λ, dann ändert sich die Länge um den Faktor
|λ|. Es gilt also kλvkb = |λ|kvkb für alle λ ∈ R und v ∈ V .
(L4 ) Es gilt die sog. Dreiecksungleichung kv + wkb ≤ kvkb + kwkb für alle v, w ∈ V .
Außerdem gilt der Satz des Pythagoras, also v ⊥b w ⇔ kv + wk2b = kvk2b + kwk2b für alle v, w ∈ V .
p
√
Beweis: Offenbar gilt k0V kb = b(0V , 0V ) = 0 = 0. Ist umgekehrt v ein Vektor mit kvkb = 0, dann folgt
b(v, v) = 0 und damit v = 0V , weil b positiv definit ist. Für λ ∈ R und v ∈ V ist außerdem offenbar
p
p
p
kλvkb =
b(λv, λv) =
λ2 b(v, v) = |λ| b(v, v) = |λ|kvkb .
Für den Beweis der Dreiecks-Ungleichung verwenden wir nun die Cauchy-Schwarzsche Ungleichung. Für
alle v, w ∈ V gilt
kv + wk2b
=
b(v + w, v + w)
kvk2b + 2|b(v, w)| + kwk2b
≤
=
b(v, v) + 2b(v, w) + b(w, w)
kvk2b + 2kvkb kwkb + kwk2b
=
≤
(kvkb + kwkb )2 .
Durch Wurzelziehen auf beiden Seiten erhält man das gewünschte Resultat. Den Satz des Pythagoras erhält
man schließlich für alle v, w ∈ V durch die Äquivalenzumformung
kv + wk2b = kvk2b + kwk2b
⇔
b(v + w, v + w) = b(v, v) + b(w, w)
b(v, v + w) + b(w, v + w) = b(v, v) + b(w, w)
⇔
b(v, v) + b(v, w) + b(w, v) + b(w, w) = b(v, v) + b(w, w)
b(v, w) = 0
⇔
⇔
⇔
2b(v, w) = 0
⇔
v ⊥b w.
Aus der Cauchy-Schwarzschen Ungleichung folgt auch, dass für alle 0V 6= v, w ∈ V jeweils die Abschätzung
−1
≤
b(v, w)
kvkb kwkb
—– 36 —–
≤
1
erfüllt ist. Bekanntlich ist die Kosinusfunktion auf dem Intervall [0, π] streng monoton fallend. Die eindeutig bestimmte Zahl α in diesem Intervall mit
b(v, w)
cos α =
kvkb kwkb
bezeichnen wir als den Winkel ^b (v, w) zwischen v und w bezüglich b.
Proposition 6.6
Die soeben definierte Winkelfunktion ^b hat für alle 0V 6= v, w ∈ V die Eigenschaften
(W1 ) ^b (v, v) = 0, ^b (v, w) = ^b (w, v)
(W2 ) v ⊥b w ⇔ ^b (v, w) = 21 π
(W3 ) ^b (v, −w) = π − ^b (v, w)
(W4 ) ^b (v, λw) = ^b (v, w) für alle λ ∈ R+
(W5 ) Gilt v 6= w und v ⊥ (w − v), dann gilt
cos ^b (v, w)
kvkb
kwkb
=
(Satz am rechtwinkligen Dreieck).
Beweis: Die Gleichung ^b (v, w) = ^b (w, v) in (W1 ) folgt direkt aus der Symmetrie b(v, w) = b(w, v) des
Skalarprodukts. Außerdem gilt
b(v, v)
kvk2b
b(v, v)
b(v, v)
=
=
1
=
cos 0
und somit ^b (v, v) = 0. Die Aussage (W2 ) folgt aus
v ⊥b w
⇔
b(v, w) = 0
b(v, w)
=0
kvkb kwkb
⇔
und cos 12 π = 0. Für den Nachweis von (W3 ) verwendet man die Gleichung
b(v, −w)
kvkb k(−w)kb
=
b(v, w)
kvkb kwkb
und die Eigenschaft cos(π − x) = − cos x der Kosinusfunktion. Für alle λ ∈ R+ gilt
cos ^b (v, λw)
=
b(v, λw)
kvkb kλwkb
=
λb(v, w)
λkvkb kwkb
b(v, w)
kvkb kwkb
=
=
cos ^b (v, w) ,
damit ist (W4 ) bewiesen. Setzen wir nun w 6= v und v ⊥b (w − v) voraus. Dann gilt b(v, w − v) = 0 ⇔
b(v, w) − b(v, v) = 0 ⇔ b(v, w) = b(v, v) und folglich
cos ^b (v, w)
=
b(v, w)
kvkb kwkb
=
b(v, v)
kvkb kwkb
Somit ist auch (W5 ) erfüllt.
—– 37 —–
=
kvk2b
kvkb kwkb
=
kvkb
.
kwkb
Genau wie lineare Abbildungen lassen sich auch Bilinearformen auf endlich-dimensionalen Vektorräumen durch
Matrizen beschreiben. Sei V ein endlich-dimensionaler K-Vektorraum und b : V × V → K eine Bilinearform auf V .
Zunächst bemerken wir, dass auf Grund der Bilinearität von b die Rechenregeln
!
!
n
n
n
n
X
X
X
X
b
vk , w =
b(vk , w)
und
b v,
wk =
b(v, wk )
k=1
k=1
k=1
`=1
gelten, mit beliebigen Vektoren v1 , ..., vn , w1 , ..., wn , v, w ∈ V . Dies zeigt man durch einen einfachen Induktionsbeweis.
Sei nun n = dim V und A = (v1 , ..., vn ) eine geordnete Basis von V . Sind v, w ∈ V beliebige Vektoren mit AKoordinaten κA (v) = t (λ1 , ..., λn ) und κA (w) = t (µ1 , ..., µn ), dann gilt
!
!
!
n
n
n
n
n
n
X
X
X
X
X
X
b(v, w) = b
λk vk ,
µ` w`
=
b λ k vk ,
µ` w`
=
λ k b vk ,
µ` w`
k=1
`=1
=
k=1
n X
n
X
λk b (vk , µ` w` )
`=1
=
k=1 `=1
n X
n
X
k=1
`=1
λk µ` b(vk , w` )
k=1 `=1
Die Rechnung zeigt, dass die Bilinearform b durch die Werte b(vk , w` ) bereits eindeutig festgelegt ist.
Definition 6.7 Sei V ein endlich-dimensionaler K-Vektorraum, A = (v1 , ..., vn ) eine Basis und b eine
Bilinearform auf V . Dann nennt man die Matrix A ∈ Mn,K mit den Einträgen
aij
=
b(vi , vj )
für
1 ≤ i, j ≤ n
die Darstellungsmatrix MA (b) von b bezüglich B.
Das Ergebnis der oben durchgeführten Rechnung kann mit Hilfe der Darstellungsmatrix A auch folgermaßen notiert
werden: Es gilt
 
 
! µ1
µ1
n X
n
n
n
X
X
X
 .. 
 .. 
b(v, w) =
λk µ` ak` =
λk ak1 · · ·
λk akn  .  = (λ1 · · · λn ) A  . 
k=1 `=1
`=1
=
`=1
µn
µn
t A
κ (v) MA (b) κA (w).
Umgekehrt kann bei festgewählter Basis A jeder Matrix A ∈ Mn,K eine Bilinearform zugeordnet werden.
Proposition 6.8
Sei V ein endlich-dimensionaler K-Vektorraum, A eine geordnete Basis von V und
A ∈ Mn,K . Dann gibt es eine eindeutig bestimmte Bilinearform b auf V mit MA (b) = A.
Beweis: Die Eindeutigkeit ist klar, denn wir haben ja bereits nachgerechnet, dass jede Bilinearform durch
ihre Darstellungsmatrix eindeutig festgelegt ist. Zum Nachweis der Existenz definieren wir eine Abbildung b : V × V → K durch
b(v, w)
=
t A
κ (v) A κA (w)
—– 38 —–
für v, w ∈ V.
Dass b eine Bilinearform ist, ergibt sich aus der Linearität der Koordinatenabbildung κA sowie den Regelnregeln für Matrixprodukte: Für alle v, v 0 , w, w0 ∈ V und λ ∈ K gilt
t A
b(v + v 0 , w) = t κA (v + v 0 ) A κA (w) =
κ (v) + t κA (v 0 ) A κA (w)
=
t A
κ (v) A κA (w) + t κA (v 0 ) A κA (w)
=
b(v, w) + b(v 0 , w) ,
ebenso beweist man b(v, w + w0 ) = b(v, w) + b(v, w0 ). Weiter gilt
b(λv, w)
=
t A
κ (λv) A κA (w)
λt κA (v) A κA (w)
=
=
λb(v, w)
und nach dem gleichen Schema zeigt man b(v, λw) = λb(v, w). Setzen wir die Vektoren der Basis A =
(v1 , ..., vn ) in die Koordinatenabbildung κA ein, so erhalten wir die Einheitsvektoren e1 , ..., en ∈ K. Die
Bilinearform b nimmt also auf den Basisvektoren die Werte
b(vk , v` )
=
t A
κ (vk ) A κA (v` )
=
t
ek A e `
=
ak`
an.
Dies zeigt, dass b tatsächlich eine Bilinearform auf V mit Darstellungsmatrix A ist.
Proposition 6.9
Sei V ein endlich-dimensionaler K-Vektorraum und A eine geordnete Basis von V .
Weiter sei b eine Bilinearform auf V mit Darstellungsmatrix A.
(i) Die Bilinearform b ist genau dann symmetrisch, wenn A eine symmetrische Matrix ist, wenn also
t
A = A erfüllt ist.
(ii) Sei nun K = R und b symmetrisch. Unter diesen Voraussetzungen ist b genau dann positiv definit,
wenn t uAu > 0 für alle u ∈ Rn mit u 6= 0Rn gilt.
Beweis: zu (i) Sei A = (v1 , ..., vn ). Ist b symmetrisch, dann gilt für die Einträge von A jeweils aij =
b(vi , vj ) = b(vj , vi ) = aji und somit t A = A. Setzen wir nun umgekehrt voraus, dass A symmetrisch ist.
Wie man unmittelbar überprüft, ist durch b̃(v, w) = b(w, v) für v, w ∈ V ebenfalls eine Bilinearform auf V
definiert. Wegen b̃(vk , v` ) = b(v` , vk ) = a`k = ak` besitzt b̃ dieselbe Darstellungsmatrix wie b. Es folgt b = b̃
und somit b(v, w) = b̃(w, v) = b(w, v) für alle v, w ∈ V .
zu (ii) Setzen wir voraus, dass b positiv definit ist, und sei u ∈ Rn mit u 6= 0Rn vorgegeben. Dann
gibt es ein v ∈ V \ {0V } mit κA (v) = u, und es folgt t uAu = t κA (v)MA (b)κA (v) = b(v, v) > 0. Setzen wir
umgekehrt voraus, dass die Matrix A die angegebene Eigenschaft besitzt, und sei v ∈ V \{0V } vorgegeben.
Dann gilt κA (v) 6= 0Rn und b(v, v) = t κA (v) A κA (v) > 0.
Ohne Beweis bemerken wir noch, dass auf dieselbe Weise ein Kriterium für positiv semidefinite, negativ definite und
semidefinite bzw. indefinite Bilinearformen formulieren lässt.
Satz 6.10
(Transformationsformel für Bilinearformen)
Sei V ein n-dimensionaler R-Vektorraum und b eine Bilinearform auf V . Seien A und B zwei Basen von
V und T = TBA die Matrix des Basiswechsels von A nach B. Dann gilt
MA (b)
=
t
T MB (b)T.
—– 39 —–
Beweis:
Für beliebige v, w ∈ V gilt T κA (w) = κB (w), t κA (v)t T = t T κA (v) = t κB (v). Es folgt
t A
κ (v)t T MB (b)T κA (w)
=
t B
κ (v)MB (b)κB (v)
=
b(v, w)
Dies zeigt, dass t T MB (b)T die Darstellungsmatrix von b bezüglich der Basis A ist und deshalb auf Grund
der Eindeutigkeit mit MA (b) übereinstimmt.
—– 40 —–
§ 7.
Orthogonalität
Wichtige Begriffe und Sätze in diesem Abschnitt
–
–
–
–
–
Orthogonalräume und zueinander orthogonale Untervektorräume
Orthogonalprojektionen
ON-Systeme und ON-Basen
Gram-Schmidt-Orthonormalisierung
Hurwitz-Kriterium für positiv definite Bilinearformen
Definition 7.1
Für jede Teilmenge S ⊆ V bezeichnet man
S⊥
=
{v ∈ V | u ⊥b v ∀ u ∈ S}
als Orthogonalraum zur Menge S.
Satz 7.2 Sei (V, b) ein euklidischer Vektorraum und S ⊆ V eine Teilmenge. Dann ist S ⊥ ein Untervektorraum von V .
Beweis: Wegen b(0V , u) = 0 gilt 0V ⊥b u für alle u ∈ S und somit 0V ∈ S ⊥ . Seien nun v, w ∈ S ⊥ und λ ∈ R
vorgegeben. Dann gilt b(v, u) = b(w, u) = 0 für alle u ∈ S. Es folgt b(v + w, u) = b(v, u) + b(w, u) = 0 + 0 = 0
und b(λv, u) = λb(v, u) = λ · 0 = 0, also (v + w) ⊥b u und (λv) ⊥b u für alle u ∈ S. Dies zeigt, dass auch
v + w und λv in S ⊥ enthalten sind.
Definition 7.3 Sei (V, b) ein euklidischer Vektorraum. Man bezeichnet zwei Untervektorräume U und
W von V als orthogonal zueinander und schreibt U ⊥b W , wenn
u ⊥b w
für alle u ∈ U und w ∈ W
erfüllt ist. (Diese Aussage ist offenbar äquivalent zu U ⊆ W ⊥ , und ebenso zu W ⊆ U ⊥ .)
Proposition 7.4 Sei (V, b) ein euklidischer Vektorraum, und seien U, W zueinander orthogonale Untervektorräume von V . Dann gilt U ∩ W = {0V }.
Beweis: Sei w ∈ U ∩ W vorgegeben. Dann liegt w insbesondere in U . Da w aber andererseits auch in W
liegt und U, W orthogonal zueinander sind, gilt w ⊥b w, also b(w, w) = 0. Weil b positiv definit ist, folgt
daraus w = 0V .
—– 41 —–
Definition 7.5
Man bezeichnet einen euklidischen Vektorraum (V, b) als orthogonale Summe einer
Familie U1 , ..., Ur von Untervektorräumen von V , wenn
V = U1 + ... + Ur
und
Ui ⊥b Uj
für
1 ≤ i, j ≤ r , i 6= j
erfüllt ist.
Proposition 7.6 Jede orthogonale Summe von Untervektorräumen ist auch eine direkte Summe, mit
den Bezeichnungen aus Def. 7.5 gilt also V = U1 ⊕ ... ⊕ Ur .
Beweis: Die Gleichung V = U1 + ... + Ur ist jedenfalls nach Voraussetzung erfüllt. Sei nun i ∈ {1, ..., r}
P
P
vorgegeben, u ∈ Ui und w ∈ j6=i Uj , also w = j6=i wj mit wj ∈ Uj für alle j 6= i. Wegen Ui ⊥b Uj für
alle j 6= i liegt wj in Ui⊥ , auf Grund der Untervektorraum-Eigenschaft von Ui⊥ also auch der Vektor w.
P
P
Damit ist j6=i Uj ⊆ Ui⊥ nachgewiesen, mit anderen Worten, die Untervektorräume Ui und j6=i Uj sind
orthogonal zueinander. Nach Prop. 7.4 folgt daraus

Ui ∩ 

X
Uj 
=
{0V }.
j6=i
Dies zeigt, dass es sich bei
r
X
Ui um eine direkte Summe handelt.
i=1
Definition 7.7 Sei (V, b) ein euklidischer Vektorraum und U ⊆ V ein Untervektorraum. Eine Abbildung πU : V → U wird Orthogonalprojektion auf U genannt, wenn
πU (u) = u
und
(v − πU (v)) ⊥b U
für alle u ∈ U und v ∈ V erfüllt ist.
Proposition 7.8 Für jeden Untervektorraum U eines euklidischen Vektorraums (V, b) gibt es höchstens
eine Orthogonalprojektion auf U .
Beweis: Nehmen wir an, dass π und π 0 beides Orthogonalprojektionen auf U sind, und sei v ∈ V beliebig
vorgegeben. Dann gilt v = π(v) + (v − π(v)) mit π(v) ∈ U und v − π(v) ∈ U ⊥ , mit anderen Worten, v liegt
in der direkten Summe U ⊕ U ⊥ . Ebenso gilt v = π 0 (v) + (v − π 0 (v)) mit π 0 (v) ∈ U und v − π 0 (v) ∈ U ⊥ .
Weil die Zerlegung des Vektors v in der direkten Summe U ⊕ U ⊥ eindeutig ist, folgt π(v) = π 0 (v) und
v − π(v) = v − π 0 (v).
—– 42 —–
Definition 7.9
Sei (V, b) ein euklidischer Vektorraum. Ein Tupel (v1 , ..., vr ) von Vektoren aus V heißt
(i) Orthogonalsystem, wenn vi ⊥b vj für alle i, j mit 1 ≤ i, j ≤ r und i 6= j und außerdem vi 6= 0V
für 1 ≤ i ≤ r,
(ii) Orthonormalsystem (kurz ON-System), wenn es ein Orthogonalsystem ist und zusätzlich
kvi kb = 1 für 1 ≤ i ≤ r gilt.
Ist (v1 , ..., vr ) ein Orthogonalsystem und zugleich eine Basis von V , dann spricht man von einer
Orthogonalbasis. Ein ON-System, dass zugleich eine Basis von V ist, wird ON-Basis genannt.
Lemma 7.10 Jedes Orthogonalsystem in einem euklidischen Vektorraum, erst recht jedes ON-System,
ist linear unabhängig.
Beweis: Sei (V, b) ein euklidischer Vektorraum und (v1 , ..., vr ) ein Orthogonalsystem. Seien λ1 , ..., λr ∈ R
Pr
mit i=1 λi vi = 0V vorgeben. Dann gilt für 1 ≤ k ≤ r jeweils b(vi , vk ) = 0 für i 6= k und damit
λk b(vk , vk )
r
X
=
λi b(vi , vk )
=
b
r
X
i=1
!
λi vi , vk
=
b(0V , vk )
=
0.
i=1
Wegen vk 6= 0V ist b(vk , vk ) 6= 0. Division durch b(vk , vk ) liefert damit λk = 0.
Proposition 7.11 Sei (V, b) ein euklidischer Vektorraum und U ein endlich-dimensionaler Untervektorraum. Sei (v1 , ..., vr ) eine ON-Basis von U . Dann existiert eine Orthogonalprojektion πU auf U , gegeben
durch
r
X
b(v, vi )vi
für alle v ∈ V.
πU (v) =
i=1
Beweis: Zu überprüfen ist, dass die angegebene Abbildung πU die Bedingungen πU (u) = u für alle u ∈ U
und (v − πU (v)) ⊥b U für alle v ∈ V erfüllt. Zum Nachweis der ersten Eigenschaft sei u ∈ U vorgegeben.
Wegen u ∈ U können wir u auf eindeutige Weise als Linearkombination von (v1 , ..., vr ) darstellen. Seien
Pr
also λ1 , ..., λr ∈ R mit u = i=1 λi vi . Weil (v1 , ..., vr ) ein ON-System ist, gilt b(vi , vj ) = δij für 1 ≤ i, j ≤ r,
wobei δij das Kronecker-Delta bezeichnet. Für 1 ≤ k ≤ r erhalten wir
b(u, vk )
=
b
r
X
!
λi vi , vk
=
i=1
r
X
λi b(vi , vk )
=
i=1
r
X
λi δik
i=1
Daraus folgt
u
=
r
X
k=1
λ k vk
=
r
X
b(u, vk )vk
k=1
—– 43 —–
=
πU (u).
=
λk .
Beweisen wir nun die zweite Eigenschaft. Für jedes v ∈ V und 1 ≤ k ≤ r gilt
b(v − πU (v), vk )
=
b(v, vk ) − b(πU (v), vk )
=
b(v, vk ) − b
r
X
!
b(v, vi )vi , vk
=
i=1
b(v, vk ) −
r
X
b(v, vi )b(vi , vk )
=
b(v, vk ) −
i=1
r
X
b(v, vi )δik
=
b(v, vk ) − b(v, vk )
=
0V .
i=1
Es folgt (v − πU (v)) ⊥b vk , also vk ∈ {v − πU (v)}⊥ für 1 ≤ k ≤ r. Weil {v − πU (v)}⊥ ein Untervektorraum
von V ist und U von (v1 , ..., vr ) aufgespannt wird, erhalten wir U ⊆ {v − πU (v)}⊥ , was gleichbedeutend
ist mit (v − πU (v)) ⊥b U .
Satz 7.12 (Gram-Schmidt-Orthonormalisierung)
In einem endlich-dimensionalen euklidischen Vektorraum (V, b) kann jedes ON-System (v1 , ..., vr ) zu
einer ON-Basis erweitert werden. Ist n = dim V , dann gibt es also Vektoren vr+1 , ..., vn in V , so dass
(v1 , ..., vn ) eine ON-Basis von V ist.
Beweis: Wir führen den Beweis durch vollständige Induktion über n − r. Im Fall n − r = 0 braucht nichts
gezeigt werden. Sei nun n > r, und setzen wir die Aussage für kleinere Differenzen als n − r voraus. Nach
dem Basisergänzungssatz existieren Vektoren wr+1 , ..., wn , so dass (v1 , ..., vr , wr+1 , ..., wn ) eine Basis von V
ist. Setzen wir
Ũ = hv1 , ..., vr , wr+1 , ..., wn−1 iR ,
dann kann (v1 , ..., vr ) wegen dim Ũ − r = n − 1 − r < n − r nach Induktionsvoraussetzung durch geeignete
Vektoren vr+1 , ..., vn−1 zu einer ON-Basis von Ũ ergänzt werden. Weil Ũ eine ON-Basis besitzt, existiert
nach Prop. 7.11 eine Orthogonalprojektion πŨ : V → Ũ . Wir definieren nun
w̃ = wn − πŨ (wn )
und
vn =
1
w̃.
kw̃kb
Dabei ist zu beachten, dass w̃ wegen wn ∈
/ Ũ ungleich Null ist. Wir behaupten nun, dass (v1 , ..., vn ) eine
ON-Basis von V ist. Für 1 ≤ i, j ≤ n−1 mit i 6= j ist vi ⊥b vj jedenfalls erfüllt. Auf Grund der definierenden
Eigenschaften der Orthogonalprojektion πŨ gilt außerdem w̃ ⊥b Ũ , also w̃ ⊥b wk und somit auch wn ⊥b wk
für 1 ≤ k ≤ n − 1. Außerdem gilt
b(vn , vn ) =
kw̃k2b
1
b(w̃, w̃) =
=1 ,
2
kw̃kb
kw̃k2b
also
kvn kb = 1.
Damit ist nachgewiesen, dass es sich bei (v1 , ..., vn ) um ein ON-System handelt. Wegen n = dim V , und
weil ON-Systeme nach Lemma 7.10 linear unabhängig sind, ist (v1 , ..., vn ) außerdem eine Basis von V .
Korollar 7.13 Sei (V, b) ein euklidischer Vektorraum und U ⊆ V ein endlich-dimensionaler Unterraum.
Dann existiert eine Orthogonalprojektion von V auf U .
Beweis:
Dies folgt aus Prop. 7.11, weil U nach Satz 7.12 eine ON-Basis besitzt.
—– 44 —–
Korollar 7.14
Für jede Teilmenge S eines euklidischen Vektorraums (V, b) gilt S ⊆ (S ⊥ )⊥ . Ist U ein
endlich-dimensionaler Untervektorraum von V , dann gilt (U ⊥ )⊥ = U .
Beweis: Sei S ⊆ V eine beliebige Teilmenge und v ∈ S. Zu zeigen ist v ∈ (S ⊥ )⊥ , also v ⊥b w für alle
w ∈ S ⊥ . Ist w ∈ S ⊥ , dann gilt nach Definition u ⊥b w für alle u ∈ S, also insbesondere für den Vektor v.
Setzen wir nun voraus, dass U ein endlich-dimensionaler Untervektorraum von V ist. Nach Prop. 7.11
existiert eine Orthogonalprojektion πU von V auf U . Für jeden Vektor v ∈ V gilt v = u + u0 , wobei u =
πU (v) ∈ U und u0 = v − u ∈ U ⊥ gilt. Durch Prop. 7.4 erhalten wir V = U ⊕ U ⊥ .
Damit können wir nun die Inklusion (U ⊥ )⊥ ⊆ U beweisen. Sei v ∈ (U ⊥ )⊥ vorgegeben und v = u + u0
die Zerlegung von v in die Komponenten u ∈ U und u0 ∈ U ⊥ . Für jedes w ∈ U ⊥ gilt b(u0 , w) = b(v, w) −
b(u, w) = 0 − 0 = 0. Also gilt u0 ∈ U ⊥ ∩ (U ⊥ )⊥ = {0V } und damit v = u ∈ U .
Der Beweis von Satz 7.12 kann genutzt werden, um die dort angegebenen Vektoren vr+1 , ..., vn konkret auszurechnen.
Sei (V, b) ein euklidischer Vektorraum und (v1 , ..., vr ) ein ON-System in V . Zunächst ergänzt man das System durch
Vektoren wr+1 , ..., wn zu einer (nicht notwendigerweise orthonormalen) Basis von V . Anschließend definiert man für
s = r + 1, ..., n nacheinander jeweils
w̃s = ws −
s−1
X
und
b(ws , vk )vk
vs =
k=1
1
w̃s .
kw̃s kb
Ps−1
Die Summe k=1 hws , vk ivk ist das Bild des Vektors ws unter der Orthogonalprojektion auf den Untervektorraum
hv1 , ..., vs−1 iR (siehe Proposition Prop. 7.11). Wie im Beweis zur Gram-Schmid-Orthonormalisierung gezeigt, erhält
man auf diese Weise eine ON-Basis von V .
Mit Hilfe der Orthonormalisierung lässt sich nun auch ein Kriterium herleiten, mit dem sich eine Matrix auf die
Eigenschaft „positiv definit“ testen lässt.
Satz 7.15
(Hurwitz-Kriterium)
Sei A ∈ Mn,R eine symmetrische Matrix und Ak jeweils die linke obere k × k-Teilmatrix, für 1 ≤ k ≤ n.
Genau dann ist A positiv definit, wenn det(Ak ) > 0 für 1 ≤ k ≤ n erfüllt ist.
Beweis: Sei b die Bilinearform mit der Darstellungsmatrix A bezüglich der Einheitsbasis E = (e1 , ..., en )
von Rn . Dann gilt b(v, w) = t vAw, d.h. die Matrix A ist genau dann positiv definit, wenn b positiv definit
ist. Für 1 ≤ k ≤ n definieren wir außerdem Ek = (e1 , ..., ek ) und
Uk
hEk iR
=
=
Rk × {0}n−k .
Setzen wir bk = b|Uk ×Uk für 1 ≤ k ≤ n, dann gilt jeweils Ak = MEk (bk ).
„⇒“ Ist A und somit b positiv definit, dann gibt es nach Satz 7.12 eine ON-Basis B1 = (v1 ) von U1 bezüglich
b, und für jedes k ∈ {1, ..., n − 1} kann die ON-Basis Bk = (v1 , ..., vk ) durch einen weiteren Vektor vk+1
zu einer ON-Basis von Uk+1 ergänzt werden. Insbesondere ist B = (v1 , ..., vn ) dann eine ON-Basis von
Rn bezüglich b. Es gilt dann jeweils I(k) = MBk (bk ), wobei I(k) die Einheitsmatrix in Mk,R bezeichnet. Sei
nun Tk = TBEkk für 1 ≤ k ≤ n die Matrix des Basiswechsels von Ek nach Bk . Weil Tk invertierbar ist, gilt
det(Tk ) 6= 0. Auf Grund der Transformationsformel (Satz 6.10) gilt
Ak
=
MEk (bk )
=
t
Tk MBk (bk )Tk
2
und somit det(Ak ) = det(Tk ) > 0 für 1 ≤ k ≤ n.
—– 45 —–
=
t
Tk I(k) Tk
=
t
Tk Tk
„⇐“ Wir beweisen durch vollständige Induktion über k ∈ {1, ..., n}, dass unter der angegebenen Voraussetzung jede der Bilinearformen bk positiv definit ist. Für k = n erhalten wir dann das gewünschte
Resultat, dass b und somit A positiv definit sind. Zunächst betrachten wir den Fall k = 1. Es ist A1 = (a11 )
für ein a11 ∈ R, und auf Grund der Voraussetzung gilt a11 = det(A1 ) > 0. Ist nun v ∈ U1 = he1 i ein
beliebiger Vektor mit v 6= 0Rn , dann gilt v = λe1 für ein λ ∈ R× , und es folgt
b1 (v, v)
=
b(λe1 , λe1 )
λ2 b(e1 , e1 )
=
λ2 a11
=
>
0.
Also ist die Bilinearform b1 auf U1 positiv definit.
Sei nun k ∈ {1, ..., n − 1}, und setzen wir nun die Aussage für k als gültig voraus. Dann ist die Bilinearform
bk auf Uk nach Induktionsvoraussetzung positiv definit. Sei (v1 , ..., vk ) eine ON-Basis von Uk bezüglich bk .
Wie in Prop. 7.11 definieren wir eine Abbildung π : Uk+1 → Uk durch
π(v)
k
X
=
b(v, vj )vj .
j=1
Obwohl b nach unseren Voraussetzungen nicht unbedingt positiv definit ist, zeigt eine Rechnung identisch
mit der in Prop. 7.11, dass der Vektor w̃ = ek+1 − π(ek+1 ) bezüglich b auf Uk senkrecht steht. Für 1 ≤ i ≤ k
gilt nämlich
b(w̃, vi )
=
b(ek+1 , vi ) − b(π(ek+1 ), vi )
b(ek+1 , vi ) −
=
k
X
b(ek+1 , vj )b(vj , vi )
j=1
=
b(ek+1 , vi ) −
k
X
b(ek+1 , vj )δij
=
b(ek+1 , vi ) − b(ek+1 , vi )
=
0.
j=1
Wegen π(ek+1 ) ∈ Uk und ek+1 , w̃ ∈ Uk+1 \ Uk spannt B = (v1 , ..., vk , w̃) einen Untervektorraum U mit
Uk ( U ⊆ Uk+1 auf. Aus Dimensionsgründen folgt U = Uk+1 , und B ist eine Basis von Uk+1 . Sei nun
B = MB (bk+1 ). Setzen wir a = b(w̃, w̃), dann ist
(k)
I
0
B =
,
0 a
E
mit det(B) = det(I(k) )a = a. Sei nun T = TB k+1 die Matrix des Basiswechsels von Ek+1 nach B. Dann gilt
det(T ) 6= 0, und die Transformationsformel liefert
Ak+1
=
MEk+1 (bk+1 )
=
t
E
E
TB k+1 MB (bk+1 )TB k+1
t
=
T BT.
Es folgt det(Ak+1 ) = det(T )2 det B = det(T )2 a. Auf Grund der Voraussetzung det(Ak+1 ) > 0 muss auch
a > 0 gelten. Damit können wir nun überprüfen, dass bk+1 positiv definit ist. Sei w ∈ Uk+1 ein Vektor mit
Pk
w 6= 0Rn und w = i=1 λi vi + λk+1 w̃ eine Darstellung von w bezüglich der Basis B. Dann gilt λi 6= 0 für
mindestens ein i. Weil B die Darstellungsmatrix von bk+1 bezüglich dieser Basis ist, erhalten wir
b(w, w)
=
(λ1 ... λk+1 ) B t (λ1 ... λk+1 )
=
k
X
i=1
—– 46 —–
λ2i + λ2k+1 a
>
0
wie gewünscht.
Eine Matrix A ∈ Mn,R wird als negativ definit bezeichnet, wenn für alle u ∈ Rn mit u 6= 0Rn jeweils t uAu < 0 gilt.
Korollar 7.16
(Kriterium für negativ definite Matrizen)
Sei A ∈ Mn,R und Ak für 1 ≤ k ≤ n wie in Satz 7.15 definiert. Genau dann ist A negativ definit, wenn
(−1)k det(Ak ) > 0
für 1 ≤ k ≤ n erfüllt ist.
Beweis: Offenbar ist A genau dann negativ definit, wenn −A positiv definit ist. Nach dem HurwitzKriterium ist −A genau dann positiv definit, wenn det(−Ak ) = (−1)k det(Ak ) > 0 für 1 ≤ k ≤ n gilt.
Als geometrische Anwendung der bisher behandelten Theorie beschäftigen wir uns nun mit der Berechnung von
Abständen zwischen affinen Unterräumen. Sei (V, b) ein euklidischer Vektorraum und A ⊆ V ein affiner Unterraum,
also eine Teilmenge der Form
A = v + U = {v + u | u ∈ U } ,
wobei U einen Untervektorraum von V bezeichnet. Der Untervektorraum U ist durch A eindeutig festgelegt und
wird von uns mit L (A) bezeichnet. Außerdem nennen wir dim A = dim L (A) die Dimension des affinen Unterraums. Ist dim A = dim V − 1, dann nennt man A auch eine affine Hyperebene in V .
Definition 7.17 Sei (V, b) ein euklidischer Vektorraum, und seien A, A0 ⊆ V zwei affine Unterräume
mit A ∩ A0 = ∅. Ist L (A) ⊆ L (A0 ) oder L (A0 ) ⊆ L (A), dann bezeichnen wir A und A0 als parallel,
ansonsten als windschief. Die Zahl
d(A, A0 )
=
inf{ kv − v 0 kb | v ∈ A, v 0 ∈ A0 }
wird der (euklidische) Abstand von A und A0 genannt.
Ist die Schnittmenge zwischen zwei affinen Unterräumen A, A0 nichtleer, dann setzen wir d(A, A0 ) = 0.
Proposition 7.18 Sei (V, b) ein euklidischer Vektorraum, und seien A, A0 ⊆ V zwei affine Unterräume.
Seien v, v 0 ∈ V zwei Vektoren mit der Eigenschaft, dass A = v + L (A), A0 = v 0 + L (A0 ) und außerdem
(v 0 − v) ⊥b (L (A) + L (A0 )) gilt. Dann ist d(A, A0 ) = kv 0 − vkb .
Beweis: Wir zeigen, dass kv 0 −vkb = min S gilt, wobei die Menge S durch S = {kw0 −wkb | w ∈ A, w0 ∈ A0 }
gegeben ist. Nach Definition ist kv 0 − vkb jedenfalls in S enthalten. Um zu zeigen, dass diese Zahl auch eine
untere Schranke von S ist, seien w ∈ A und w0 ∈ A0 beliebig vorgegeben. Wegen (v 0 −v) ⊥b (L (A)+L (A0 ))
und w − v ∈ L (A), w0 − v 0 ∈ L (A0 ) gilt
(v 0 − v) ⊥b ((w0 − v 0 ) − (w − v)).
Mit dem Satz des Pythagoras folgt
kw0 − wk2b
=
k(w0 − v 0 ) + (v 0 − v) + (v − w)k2b
=
=
k(v 0 − v) + ((w0 − v 0 ) − (w − v))k2b
k(v 0 − v)k2b + k(w0 − v 0 ) − (w − v)k2b
also insbesondere kw0 − wkb ≥ kv 0 − vkb .
—– 47 —–
,
Satz 7.19
(Abstand zweier affiner Unterräume)
Sei (V, b) ein endlich-dimensionaler euklidischer Vektorraum, A, A0 ⊆ V zwei affine Unterräume und
v ∈ A, v 0 ∈ A0 beliebige Elemente. Sei U = L (A) + L (A0 ) und w = πU (v 0 − v). Dann gilt
d(A, A0 )
=
kv 0 − v − wkb .
Beweis: Wegen w ∈ U = L (A)+L (A0 ) existiert eine Zerlegung w = u+u0 mit u ∈ L (A) und u0 ∈ L (A0 ).
Nach Definition der Orthogonalprojektion πU ist v 0 − v − πU (v 0 − v) = v 0 − v − w außerdem orthognal zu
U . Sei nun v0 = v + u und v00 = v 0 + (−u0 ). Dann gilt A = v0 + U , A0 = v00 + U 0 , außerdem
v00 − v0
=
v 0 − u0 − v − u
=
v 0 − v − (u + u0 )
=
v 0 − v − w.
Wegen (v 0 − v − w) ⊥b U folgt (v00 − v0 ) ⊥b U und somit d(A, A0 ) = kv00 − v0 kb nach Prop. 7.18.
Wir bemerken noch, dass die affinen Unterräume A und A0 im Fall v 0 − v ∈ U einen Schnittpunkt besitzen. In diesem
Fall gibt es nämlich Vektoren u ∈ L (A) und u0 ∈ L (A0 ) mit v 0 − v = u + u0 , und damit liegt der Vektor v 0 − u0 = v + u
in A ∩ A0 . Der Abstand d(A, A0 ) ist in diesem Fall natürlich gleich Null.
—– 48 —–
§ 8.
Orthogonale und unitäre Abbildungen
Wichtige Begriffe und Sätze in diesem Abschnitt
–
–
–
–
–
–
Begriff der orthogonalen Abbildung und der Bewegung
orthogonale Matrizen
unitäre Vektorräume und unitäre Endomorphismen
Drehungen und Spiegelungen
Komplexifizierung euklidischer Vektorräume
Zerlegung einer orthogonalen Abbildung
Definition 8.1 Sei (V, b) ein euklidischer Vektorraum. Ein Endomorphismus φ von V wird orthogonal
bezüglich b genannt, wenn b(φ(v), φ(w)) = b(v, w) für alle v, w ∈ V gilt.
Definition 8.2 Sei (V, b) ein euklidischer Vektorraum. Eine Abbildung ψ : V → V bezeichnet man als
Bewegung, wenn kψ(v) − ψ(w)kb = kv − wkb für alle v, w ∈ V erfüllt ist. Eine Bewegung ist also eine
„abstandserhaltende“ Abbildung.
Als erstes werden wir untersuchen, wie orthogonale Endomorphismen und Bewegungen in einem euklidischen Vektorraum miteinander zusammenhängen.
Lemma 8.3 Sei (V, b) ein euklidischer Vektorraum und φ : V → V eine Abbildung mit der Eigenschaft,
dass b(φ(v), φ(w)) = b(v, w) für alle v, w ∈ V erfüllt ist. Dann ist φ ein orthogonaler Endomorphismus
von V .
Beweis: Wir müssen zeigen, das φ eine lineare Abbildung ist. Seien dazu v, w ∈ V und λ ∈ R vorgegeben.
Weil b symmetrisch ist, erhalten wir
b(φ(v + w) − φ(v) − φ(w), φ(v + w) − φ(v) − φ(w))
=
b(φ(v + w), φ(v + w) − φ(v) − φ(w)) − b(φ(v), φ(v + w) − φ(v) − φ(w)) − b(φ(w), φ(v + w) − φ(v) − φ(w))
b(φ(v + w), φ(v + w)) + b(φ(v), φ(v)) + b(φ(w), φ(w)) − b(φ(v + w), φ(v)) − b(φ(v), φ(v + w))
−b(φ(v + w), φ(w)) − b(φ(w), φ(v + w)) + b(φ(v), φ(w)) + b(φ(w), φ(v))
b(φ(v + w), φ(v + w)) + b(φ(v), φ(v)) + b(φ(w), φ(w))
−2b(φ(v + w), φ(v)) − 2b(φ(v + w), φ(w)) + 2b(φ(v), φ(w))
—– 49 —–
(∗)
=
=
=
b(v + w, v + w) + b(v, v) + b(w, w) − 2b(v + w, v) − 2b(v + w, w) + 2b(v, w)
=
b(v + w, v + w) + b(v, v) + b(w, w) − b(v + w, v) − b(v, v + w) − b(v + w, w) − b(v + w, w) + b(v, w) + b(v, w)
b(v + w, (v + w) − v − w) − b(v, (v + w) − v − w) − b(w, (v + w) − v − w)
b((v + w) − v − w, (v + w) − v − w)
=
b(0V , 0V )
=
0
=
=
,
wobei an der Stelle (*) die Voraussetzung an die Abbildung φ verwendet wurde. Weil b positiv definit ist,
folgt daraus φ(v + w) − φ(v) − φ(w) = 0V und somit φ(v + w) = φ(v) + φ(w). Genauso erhält man
b(φ(λv) − λφ(v), φ(λv) − λφ(v))
=
b(φ(λv), φ(λv)) − 2b(φ(λv), λφ(v)) + b(λφ(v), λφ(v))
b(φ(λv), φ(λv)) − 2λb(φ(λv), φ(v)) + λ2 b(φ(v), φ(v))
b(λv, λv) − 2λb(λv, v) + λ2 b(v, v)
=
=
=
λ2 b(v, v) − 2λ2 b(v, v) + λ2 b(v, v)
=
0
und somit φ(λv) − λφ(v) = 0V ⇔ φ(λv) = λφ(v). Damit ist φ ein Endomorphismus von V , und die
Orthogonalität ist offensichtlich.
Lemma 8.4
Beweis:
Sei (V, b) ein euklidischer Vektorraum, und seien v, w ∈ V beliebige Elemente. Dann gilt
b(v, w) = 14 kv + wk2b − kv − wk2b
= 12 kvk2b + kwk2b − kv − wk2b .
Beide Gleichungen können direkt nachgerechnet werden. Für beliebige v, w ∈ V gilt
kv + wk2b − kv − wk2b
=
b(v + w, v + w) + b(v − w, v − w)
(b(v, v) + 2b(v, w) + b(w, w)) − (b(v, v) − 2b(v, w) + b(w, w))
=
=
4b(v, w).
Ebenso erhält man
kvk2b + kwk2b − kv − wk2b
=
b(v, v) + b(w, w) − b(v − w, v − w)
b(v, v) + b(w, w) − (b(v, v) − 2b(v, w) + b(w, w))
=
=
2b(v, w)
Proposition 8.5
Sei (V, b) ein euklidischer Vektorraum, und sei φ : V → V eine Abbildung mit den
Eigenschaften φ(0V ) = 0V und kφ(v) − φ(w)kb = kv − wkb für alle v, w ∈ V . Dann ist φ ein orthogonaler
Endomorphismus.
Beweis: Aus φ(0V ) = 0V und kφ(v) − φ(w)kb = kv − wkb folgt kφ(v)kb = kvkb für alle v ∈ V .
Mit Lemma 8.4 erhalten wir
b(φ(v), φ(w)) = 21 kφ(v)k2b + kφ(w)k2b − kφ(v) − φ(w)k2b
= 12 kvk2b + kwk2b − kv − wk2b
für alle v, w ∈ V . Nach Lemma 8.3 ist φ also ein orthogonaler Endomorphismus.
—– 50 —–
=
b(v, w)
Satz 8.6
Sei (V, b) ein euklidischer Vektorraum. Eine Abbildung ψ : V → V ist genau dann eine
Bewegung, wenn ein Vektor v0 ∈ V und ein orthogonaler Endomorphismus φ ∈ EndR (V ) existieren, so
dass ψ(v) = v0 + φ(v) für alle v ∈ V erfüllt ist.
Beweis: „⇒“ Setzen wir voraus, dass ψ eine Bewegung ist. Definieren wir v0 = ψ(0V ) und φ(v) =
ψ(v) − v0 für alle v ∈ V , dann ist offenbar ψ(v) = v0 + φ(v) für alle v ∈ V erfüllt. Außerdem gilt φ(0V ) = 0V
und
kφ(v) − φ(w)kb
k(ψ(v) − v0 ) − (ψ(w) − v0 )kb
=
=
kψ(v) − ψ(w)kb
=
kv − wkb
für alle v, w ∈ V . Nach Prop. 8.5 ist φ also ein orthogonaler Endomorphismus.
„⇐“ Nach Voraussetzung existiert ein Vektor v0 ∈ V und ein orthogonaler Endomorphismus φ von V , so
dass ψ(v) = v0 + φ(v) für alle v ∈ V erfüllt ist. Für alle v, w ∈ V folgt daraus
kψ(v) − ψ(w)k2b
kφ(v) − φ(w)k2b
=
b(φ(v − w), φ(v − w))
=
b(φ(v) − φ(w), φ(v) − φ(w))
=
b(v − w, v − w)
=
=
kv − wk2b
und somit kψ(v) − ψ(w)kb = kv − wkb . Dies zeigt, dass ψ eine Bewegung ist.
Definition 8.7
Eine Matrix A ∈ Mn,R bezeichnet man als orthogonal, wenn t AA = I(n) gilt, wobei
(n)
I die Einheitsmatrix in Mn,R bezeichnet.
Satz 8.8
Sei (V, b) ein endlich-dimensionaler euklidischer Vektorraum, φ ∈ EndR (V ), und sei A =
(v1 , ..., vn ) eine ON-Basis von V . Dann sind folgende Aussagen äquivalent:
(i) Der Endomorphismus φ ist orthogonal.
(ii) Die Darstellungsmatrix A = MA (φ) ist orthogonal.
Beweis: Weil A eine ON-Basis von V ist, gilt MA (b) = I(n) . Für alle v, w ∈ V gilt nach Definition der
Darstellungsmatrizen von φ und b jeweils
b(v, w)
t A
κ (v)MA (b)κA (w)
=
=
t A
κ (v)κA (w)
und
b(φ(v), φ(w))
=
t A
κ (φ(v))MA (b)κA (φ(w))
t
=
(AκA (v))MA (b)AκA (w)
t A
κ (v)t AAκA (w).
=
Ist nun φ orthogonal, dann gilt b(φ(v), φ(w)) = b(v, w) für alle v, w ∈ V . Setzen wir B = t AA, dann erhalten
wir für die Einträge dieser Matrix
bk`
=
t
ek B e `
b(φ(vk ), φ(v` ))
=
=
t
e k t A A e`
b(vk , v` )
=
=
t A
t A
κ (vk ) t A A κA (v` )
A
κ (vk ) κ (v` )
=
t
t
ek e`
=
=
δk`
also t AA = B = I(n) . Ist umgekehrt A orthogonal, also t AA = I(n) , dann erhalten wir
b(φ(v), φ(w))
=
t A
κ (v) t A A κA (w)
=
—– 51 —–
t A
κ (v) κA (w)
=
b(v, w).
Korollar 8.9
Sei (V, b) ein endlich-dimensionaler euklidischer Vektorraum und φ ∈ EndR (V ). Dann
sind äquivalent:
(i) Der Endomorphismus φ ist orthogonal.
(ii) Der Endomorphismus φ ist ein Automorphismus von V , und es gilt b(φ−1 (v), w)) = b(v, φ(w))
für alle v, w ∈ V .
Beweis: „(i) ⇒ (ii)“ Sei n = dim V und A ∈ Mn,R die Darstellungsmatrix von φ bezüglich einer ONBasis. Wegen t AA = In ist A invertierbar, und folglich ist φ bijektiv, also ein Automorphismus von V . Seien
nun v, w ∈ V vorgegeben. Dann gilt b(φ−1 (v), w) = b(φ(φ−1 (v)), φ(w)) = b(v, φ(w)).
„(ii) ⇒ (i)“ Seien v, w ∈ V vorgegeben. Weil φ bijektiv ist, existiert die Umkehrabbildung φ−1 von φ, und
wir erhalten b(φ(v), φ(w)) = b(φ−1 (φ(v)), w) = b(v, w).
Korollar 8.10
Die orthogonalen Endomorphismen eines euklidischen Vektorraums (V, b) bilden eine Gruppe, die sogenannte orthogonale Gruppe von (V, b). Ist speziell V = Rn und b das euklidische
Standard-Skalarprodukt auf Rn , dann bezeichnet man die orthogonale Gruppe mit O(n).
Definition 8.11 Sei V ein C-Vektorraum. Eine Sesquilinearform auf V ist eine Abbildung b : V ×V → C
mit den Eigenschaften
(i) b(v + v 0 , w) = b(v, w) + b(v 0 , w)
(iii) b(v, w + w0 ) = b(v, w) + b(v, w0 )
(ii) b(λv, w) = λ̄b(v, w)
(iv) b(v, λw) = λb(v, w)
für alle v, v 0 , w, w0 ∈ V und λ ∈ C. Gilt außerdem b(w, v) = b(v, w) für alle v, w ∈ V , dann bezeichnet
man die Sesquilinearform als hermitesch.
Ist b eine hermitesche Sequilinearform auf einem C-Vektorraum V , dann gilt insbesondere b(v, v) = b(v, v) und somit
b(v, v) ∈ R für alle v ∈ V . Gilt darüber hinaus b(v, v) > 0 für alle v ∈ V mit v 6= 0V , dann spricht man von einer
positiv definiten Sesquilinearform oder einem hermiteschen Skalarprodukt. Das Paar (V, b) wird in diesem Fall ein
unitärer Vektorraum genannt.
Wie bei den Bilinearformen kann auch einer Sesquilinearform b auf einem endlich-dimensionalen C-Vektorraum V
eine Darstellungsmatrix zugeordnet werden. Ist A = (v1 , ..., vn ) eine geordnete Basis von V , dann ist MA (b) die
Matrix A = (ak` ) mit den Einträgen ak` = b(vk , v` ) für 1 ≤ k, ` ≤ n. Sind v, w ∈ V mit den Koordinatenvektoren
κA (v) = (λ1 , ..., λn ) und κA (w) = (µ1 , ..., µn ), dann gilt
 
!
! µ1
n
n
n X
n
n
n
X
X
X
X
X
 
b(v, w) = b
λ k vk ,
µ` v`
=
λ̄k µ` ak` =
λ̄k ak1 · · ·
λ̄k akn  ... 
k=1
`=1
k=1 `=1

=
k=1

µ1
 .. 
(λ̄1 · · · λ̄n )A  . 
µn
=
—– 52 —–
t A
κ (v)AκA (w).
k=1
µn
Das Konzept der Orthogonalität und des Orthogonalraums einer Menge lassen sich unverändert auf euklidische Vektorräume übertragen, ebenso die Begriffe des ON-Systems und der ON-Basis. Die Gram-Schmidt-Orthonormalisierung
lässt sich genau wie in den euklidischen Vektorräumen durchführen. Folglich existiert auch zu jedem endlich-dimensionalen Untervektorraum U eines unitären Vektorraums (V, b) eine Orthogonalprojektion πU : V → U , und es gilt
V = U ⊕ U ⊥ . Der Beweis all dieser Aussagen erfolgt genau wie im Fall der euklidischen Vektorräume.
Sei (V, b) ein unitärer Vektorraum. Ein Endomorphismus φ ∈ EndC (V ) wird unitär
Definition 8.12
genannt, wenn
b(φ(v), φ(w))
=
für alle v, w ∈ V
b(v, w)
gilt.
Wir bezeichnen eine Matrix A ∈ Mn,C als unitär, wenn t ĀA = I(n) gilt. Als Analogon von Satz 8.8 erhalten wir
Satz 8.13
Sei (V, b) ein endlich-dimensionaler unitärer Vektorraum, φ ∈ EndC (V ), und sei A =
(v1 , ..., vn ) eine ON-Basis von V . Dann sind folgende Aussagen äquivalent:
(i) Der Endomorphismus φ ist unitär.
(ii) Die Darstellungsmatrix A = MA (φ) ist unitär.
Beweis: Der Beweis läuft fast wortwörtlich wie in Satz 8.8. Weil A eine ON-Basis von V ist, gilt MA (b) =
I(n) . Für alle v, w ∈ V gilt nach Definition der Darstellungsmatrizen von φ und b jeweils
b(v, w)
=
t A
κ (v)MA (b)κA (w)
t A
κ (v)κA (w)
=
und
b(φ(v), φ(w))
=
t A
κ (φ(v))MA (b)κA (φ(w))
t
=
(AκA (v))MA (b)AκA (w)
t A
κ (v) t AA
=
κA (w).
Ist nun φ unitär, dann gilt b(φ(v), φ(w)) = b(v, w) für alle v, w ∈ V . Setzen wir B = t ĀA, dann erhalten wir
für die Einträge dieser Matrix
bk`
=
t
ek B e `
b(φ(vk ), φ(v` ))
=
=
t
ek t Ā A e`
b(vk , v` )
=
=
t A
κ (v
k)
t A
κ (v
k)
κA (v` )
t
Ā A κA (v` )
=
t
ek e`
=
=
δk`
also t ĀA = B = I(n) . Ist umgekehrt A unitär, also t ĀA = I(n) , dann erhalten wir
b(φ(v), φ(w))
=
t A
κ (v) t A
A κA (w)
=
t A
κ (v)
κA (w)
=
b(v, w).
Wie im orthognalen Fall zeigt man, dass auch die unitären Endomorphismen eines endlich-dimensionalen unitären
Vektorraums (V, b) bijektiv sind und eine Gruppe bilden, die sogenannte unitäre Gruppe von (V, b). Ist speziell V =
Cn und b : Cn × Cn → C das unitäre Standard-Skalarprodukt auf Cn definiert durch
   
λ1
µ1
n
X
 ..   .. 
λ̄k µk
b  .  ,  .  =
k=1
λn
µn
—– 53 —–
dann bezeichnet man die unitäre Gruppe mit U(n). Unser Hauptinteresse gilt nun den Eigenwerten der unitären
Endomorphismen.
Proposition 8.14
Dann gilt
Sei (V, b) ein unitärer Vektorraum und φ ∈ EndC (V ) ein unitärer Endomorphismus.
(i) Für jeden Eigenwert α ∈ C von φ gilt |α| = 1.
(ii) Sind α, β ∈ C zwei verschiedene Eigenwerte von φ, dann Eig(φ, α) ⊥b Eig(φ, β).
Beweis:
zu (i) Sei v ∈ V ein Eigenvektor zum Eigenwert α. Dann gilt
b(v, v)
=
b(φ(v), φ(v))
=
b(αv, αv)
=
ᾱαb(v, v)
=
|α|2 b(v, v).
Division durch b(v, v) liefert |α|2 = 1 und damit |α| = 1.
zu (ii) Wegen |α| = 1 gilt ᾱα = |α|2 = 1 und somit ᾱ = α−1 . Seien nun v ∈ Eig(φ, α) und w ∈ Eig(φ, β)
vorgegeben. Es gilt
b(v, w)
=
b(φ(v), φ(w))
=
b(αv, βw)
=
ᾱβb(v, w)
=
α−1 βb(v, w).
Wäre b(v, w) 6= 0, dann würden wir α−1 β = 1 ⇔ α = β erhalten, im Widerspruch zur Voraussetzung.
Also ist b(v, w) = 0.
Wir kommen nun zum zentralen Satz über unitäre Endomorphismen.
Satz 8.15
Sei (V, b) ein endlich-dimensionaler unitärer Vektorraum und φ ∈ EndC (V ) ein unitärer
Endomorphismus. Dann besitzt V eine ON-Basis bestehend aus Eigenvektoren von φ.
Beweis: Wir beweisen die Aussage durch vollständige Induktion über dim V . Im Fall dim V = 0 ist nichts
zu zeigen. Sei nun n = dim V , und setzen wir die Aussage für Vektorräume kleinerer Dimension voraus.
Weil der Körper C algebraisch abgeschlossen ist, zerfällt das charakteristische Polynom χφ ∈ C[x] in Linearfaktoren. Insbesondere hat χφ eine Nullstelle und φ p
damit zumindest einen Eigenwert α ∈ C. Sei
v1 ∈ V ein zugehöriger Eigenvektor. Nach Division durch b(v1 , v1 ) können wir davon ausgehen, dass v1
normiert ist, also b(v1 , v1 ) = 1 gilt. Setzen wir U = hv1 i⊥
C , dann gilt V = hv1 iC ⊕ U und somit dim U = n − 1.
Wir zeigen, dass U unter φ invariant ist. Ist w ∈ U vorgegeben, dann gilt b(w, v1 ) = 0 und somit
b(φ(w), v1 )
=
α−1 b(φ(w), αv1 )
=
α−1 b(φ(w), φ(v1 ))
=
α−1 b(w, v1 )
=
0.
Daraus folgt φ(w) ∈ U , insgesamt also φ(U ) ⊆ U . Nach Induktionsvoraussetzung besitzt U eine ON-Basis
(v2 , ..., vn ) aus Eigenvektoren bezüglich φ|U . Also ist (v1 , v2 , ..., vn ) eine Basis von V mit den gewünschten
Eigenschaften.
—– 54 —–
Korollar 8.16 Jeder unitäre Endomorphismus eines endlich-dimensionalen unitären Vektorraums V
ist diagonalisierbar. Es gilt
V = Eig(φ, α1 ) ⊕ ... ⊕ Eig(φ, αr ) ,
wobei α1 , ..., αr ∈ C die verschiedenen Eigenwerte von φ bezeichnen, und die Eigenräume in dieser
direkten Summenzerlegung sind orthogonal zueinander.
Leider lassen sich diese Ergebnisse nicht ohne weiteres auf orthogonale Endomorphismen übertragen. Hier zerfällt
das charakteristische Polynom im allgemeinen nicht in Linearfaktoren, so dass der Endomorphismus auch nicht
diagonalisierbar sein kann (siehe Satz 2.11). Der Grund dafür besteht darin, dass orthogonale Endomorphismen im
allgemeinen Drehungen beinhalten. Diesen Abbildungstyp sehen wir uns nun genauer an. Für jedes θ ∈ R bezeichnen
wir
cos θ − sin θ
Dθ =
als die Drehmatrix zum Winkel θ.
sin θ
cos θ
Definition 8.17
Sei (V, b) ein euklidischer Vektorraum und φ ∈ EndR (V ). Seien außerdem U, W
zueinander orthogonale, φ-invariante Untervektorräume von V mit V = U ⊕ W und φ|W = idW .
(i) Ist dim U = 2 und gilt MA (φ|U ) = Dθ für ein θ ∈ R bezüglich einer geeigneten ON-Basis A, dann
bezeichnet man φ als Drehung um den Winkel θ. Den Untervektorraum W bezeichnet man als
Drehachse von φ.
(ii) Ist dim U = 1 und gilt φ|U = (−1)idU , dann nennt man φ eine Spiegelung an der Hyperebene W .
Offenbar ist eine Drehung φ zu einem Winkel θ ∈ R \ πZ ein nicht-diagonalisierbarer Endomorphismus, denn das
charakteristische Polynom χφ enthält den Faktor
fθ
=
χDθ
=
x2 − 2(cos θ)x + 1.
Die Diskriminante von fθ ist d(fθ ) = 4(cos θ)2 − 4 < 0, also hat fθ zwei nicht-reelle, zueinander konjugiert-komplexe
Nullstellen und ist damit in R[x] irreduzibel.
Satz 8.18
(ohne Beweis)
Zu jedem R-Vektorraum (V, +, ·) existiert ein C-Vektorraum (VC , +C , ·C ) mit folgenden Eigenschaften.
(i) Es gilt VC ⊇ V .
(ii) Die Einschränkung der Vektoraddition +C auf die Teilmenge V × V ⊆ VC × VC stimmt mit der
Vektoraddition + von V überein.
(iii) Ebenso erhält man durch Einschränkung der skalaren Multiplikation von C × VC auf R × V die
skalare Multiplikation · von V .
(iv) Jeder Vektor v ∈ VC besitzt eine eindeutige Darstellung als Summe v = w + iu mit u, w ∈ V , mit
anderen Worten, es gilt VC = V ⊕ iV .
Man bezeichnet (VC , +C , ·C ) als eine Komplexifizierung von (V, +, ·).
—– 55 —–
Ist beispielsweise V = Rn , dann ist Cn eine Komplexifizierung von V , mit der üblichen Vektoraddition und skalaren Multiplikation. Zur Vereinfachung der Notation verwendet man an Stelle der Verknüpfungssymbole +C und ·C
weiterhin + und ·. Die in V ⊆ VC liegenden Vektoren werden reelle Vektoren genannt.
Die eindeutig bestimmte Abbildung VC → VC , die jedem Vektor v = w + iu mit w, u ∈ V den Vektor v̄ = w − iu
zuordnet, bezeichnet man als komplexe Konjugation auf VC . Diese Abbildung ist offenbar bijektiv und linear, wenn
man VC als R-Vektorraum betrachtet. Sie ist aber kein Automorphismus des C-Vektorraums VC . Ein Vektor v ∈ VC ist
genau dann reell, wenn er unter der komplexen Konjugation unverändert bleibt.
Für alle v ∈ VC und α ∈ C gilt ᾱ · v̄ = αv.
Lemma 8.19
Beweis: Wir schreiben v = w +iu mit w, u ∈ V und α = β +iγ mit β, γ ∈ R. Es gilt αv = (β +iγ)(w +iu) =
βw + iγw + iβu − γu = (βw − γu) + i(γw + βu) und somit
αv
=
(βw − γu) − i(γw + βu).
Andererseits gilt auch ᾱ · v̄ = (β − iγ) · (w − iu) = βw − iγw − iβu − γu = (βw − γu) − i(γw + βu).
Proposition 8.20
Für jedes φ ∈ EndR (V ) gibt es ein eindeutig bestimmtes φC ∈ EndC (VC ) mit der
Eigenschaft φC |V = φ. Man nennt φC die C-lineare Fortsetzung von φ.
Beweis: Ist ψ ∈ EndC (VC ) beliebig mit ψ|V = φ, dann gilt ψ(w + iu) = ψ(w) + iψ(u) = φ(w) + iφ(u)
für alle w, u ∈ V . Dies beweist die Eindeutigkeit der C-linearen Fortsetzung. Zum Nachweis der Existenz
definieren wir φC : VC → VC durch
φC (w + iu)
=
für
φ(w) + iφ(u)
w, u ∈ V.
Offenbar ist die Gleichung φC |V = φ erfüllt. Um zu zeigen, dass φC eine C-lineare Abbildung ist, seien
v, v 0 ∈ VC und α ∈ C vorgegeben. Wir schreiben v = w + iu und v 0 = w0 + iu0 mit w, w0 , u, u0 ∈ V und
α = β + iγ mit β, γ ∈ R. Dann gilt
φC (v + v 0 )
=
φC ((w + w0 ) + i(u + u0 ))
=
φ(w) + iφ(u) + φ(w0 ) + iφ(u0 )
=
φ(w + w0 ) + iφ(u + u0 )
=
φC (v) + φC (v 0 )
und
φC (αv)
=
φC ((β + iγ)(w + iu))
βφ(w) − γφ(u) + iγφ(w) + iβφ(u)
=
=
φC ((βw − γu) + i(γw + βu))
(β + iγ)(φ(w) + iφ(u))
=
=
αφC (v).
Wir bemerken noch, dass die C-lineare Fortsetzung φC die Gleichung φ(v̄) = φ(v) für alle v ∈ VC erfüllt.
Ist nämlich v = w + iu mit w, u ∈ V , dann gilt
φ(v̄)
=
φ(w − iu)
=
φ(w) − iφ(u)
=
φ(w) + iφ(u)
—– 56 —–
=
φC (v + iu)
=
φ(v).
Lemma 8.21
Sei V ein endlich-dimensionaler R-Vektorraum und φ ∈ EndR (V ). Dann stimmen die
charakteristischen Polynome von φ und φC überein.
Beweis: Sei A = (v1 , ..., vn ) eine geordnete Basis von V . In den Übungen zeigen wir, dass A auch eine geordnete Basis von VC als C-Vektorraum ist und damit insbesondere n = dim V = dim VC gilt. Auf
Grund der Eigenschaft φC |V = φ der C-linearen Fortsetzung stimmen die Darstellungsmatrizen MA (φ)
und MA (φC ) überein. Damit sind auch die charakteristischen Polynome von φ und φC gleich.
Sei V ein R-Vektorraum und b eine Bilinearform auf V .
Proposition 8.22
(i) Es gibt eine eindeutig bestimmte Sesquilinearform bC auf VC mit der Eigenschaft
bC (u, u0 ) = b(u, u0 ) für alle u, u0 ∈ V .
(ii) Ist b symmetrisch, dann ist bC hermitesch. In jedem Fall gilt bC (v̄, v̄ 0 ) = bC (v, v 0 ) für alle v ∈ VC .
(iii) Ist b darüber hinaus positiv definit, dann ist auch bC positiv definit, also ein hermitesches Skalarprodukt auf VC .
Beweis:
zu (i) Hat bC die angegebenen Eigenschaften, dann gilt
bC (w + iu, w0 + iu0 )
=
bC (w, w0 + iu0 ) + bC (iu, w0 + iu0 )
bC (w, w0 ) + bC (w, iu0 ) + bC (iu, w0 ) + bC (iu, iu0 )
=
=
b(w, w0 ) + ib(w, u0 ) + (−i)b(u, w0 ) + b(u, u0 ).
Ähnlich wie im Beweis von Prop. 8.20 verwendet man diese Gleichung, um die Existenz und Eindeutigkeit
von bC zu beweisen.
zu (ii) Seien v, v 0 ∈ VC vorgegeben, wobei v = w + iu und v 0 = w0 + iu0 mit w, w0 , u, u0 ∈ V gilt. Ist b
symmetrisch, dann erhalten wir
bC (v, v 0 )
=
bC (w + iu, w0 + iu0 )
=
b(w, w0 ) + ib(w, u0 ) + (−i)b(u, w0 ) + b(u, u0 ).
=
bC (w0 + iu0 , w + iu)
=
b(w0 , w) + ib(w0 , u) + (−i)b(u0 , w) + b(u0 , u)
Dagegen gilt
bC (v 0 , v)
=
b(w, w0 ) + ib(u, w0 ) + (−i)b(w, u0 ) + b(u, u0 ) ,
und diese Zahl ist zu bC (v, v 0 ) komplex konjugiert. Die zweite Gleichung erhält man durch die Rechnung
bC (v̄, v̄ 0 )
=
bC (w − iu, w0 − iu0 )
=
=
b(w, w0 ) − ib(w, u0 ) + ib(u, w0 ) + b(u, u0 )
bC (w + iu, w0 + iu0 )
=
bC (v, v 0 ).
zu (iii) Sei v ∈ VC , v = w + iu mit w, u ∈ V . Ist v 6= 0VC , dann gilt w 6= 0V oder u 6= 0V , außerdem
bC (v, v)
=
=
b(w, w) + ib(w, u) + (−i)b(u, w) + b(u, u)
b(w, w) + ib(u, w) + (−i)b(u, w) + b(u, u)
Ist nun b positiv definit, dann folgt bC (v, v) = b(w, w) + b(u, u) > 0.
—– 57 —–
=
b(w, w) + b(u, u).
Jedem euklidischen Vektorraum (V, b) kann also auf natürliche Weise ein unitärer Vektorraum (VC , bC )
zugeordnet werden.
Lemma 8.23 Sei (V, b) ein euklidischer Vektorraum und φ ∈ EndR (V ) ein orthogonaler Endomorphismus. Dann ist φC ein unitärer Endomorphismus in (VC , bC ).
Beweis:
Seien v, v 0 ∈ VC vorgegeben, v = w + iu und v 0 = w0 + iu0 . Dann gilt
bC (φC (v), φC (v 0 ))
=
bC (φ(w) + iφ(u), φ(w0 ) + iφ(u0 ))
=
bC (φ(w), φ(w0 )) + bC (iφ(u), φ(w0 )) + bC (φ(w), iφ(u0 )) + bC (iφ(u), iφ(u0 ))
b(φ(w), φ(w0 )) + (−i)b(φ(u), φ(w0 )) + ib(φ(w), φ(u0 )) + b(φ(u), φ(u0 ))
b(w, w0 ) + (−i)b(u, w0 ) + ib(w, u0 ) + b(u, u0 )
=
=
=
=
bC (w, w0 ) + bC (iu, w0 ) + bC (w, iu0 ) + bC (iu, iu0 )
bC (w + iu, w0 + iu0 )
bC (v, v 0 ).
=
Proposition 8.24 Sei (V, b) ein euklidischer Vektorraum und φ ∈ EndR (V ) orthogonal. Sei α ∈ C \ R
ein Eigenwert von φC , und sei v ∈ VC ein normierter Eigenvektor zum Eigenwert α. Dann gilt
(i) Der Vektor v̄ liegt in Eig(φC , ᾱ). (Dies gilt auch für reelle Eigenwerte.)
(ii) Das Paar B = (u, w) bestehend aus den Vektoren w = √12 (v + v̄) und u = √12i (v − v̄) bildet ein
ON-System in (V, b).
(iii) Der Untervektorraum U = hu, wiR ist unter φ invariant. Ist α = eiθ die PolarkoordinatenDarstellung von α, dann gilt
MB (φ|U )
Beweis:
=
cos θ
sin θ
− sin θ
.
cos θ
zu (i) Aus φC (v) = αv folgt φC (v̄) = φC (v) = αv = ᾱ · v̄. Der Vektor v̄ liegt also in Eig(φ, ᾱ).
zu (ii) Die Vektoren u und w bleiben unter der komplexen Konjugation unverändert und sind damit
jedenfalls in V enthalten. Zunächst sehen wir uns an, wie die Vektoren v und v̄ durch das Paar (w, u)
dargestellt werden können. Es gilt
√
1
i
w + iu = √ (v + v̄) + √ (v − v̄) = √12 (v + v̄ + v − v̄) =
2v
2
2i
und
w − iu
also v =
√1 (w
2
=
1
i
√ (v + v̄) − √ (v − v̄)
2
2i
+ iu) und v̄ =
bC (v, v)
=
=
1
2 bC (w
1
2 b(w, w)
√1 (w
2
=
√1 (v
2
+ v̄ − v + v̄)
=
√
2v̄
,
− iu). Mit Hilfe dieser Formeln erhalten wir
+ iu, w + iu)
=
1
2 bC (w, w)
+ 12 bC (iu, w) + 21 bC (w, iu) + 12 bC (iu, iu)
− 12 ib(u, w) + 12 ib(u, w) + 12 b(u, u)
—– 58 —–
=
1
2 b(w, w)
+ 21 b(u, u) ,
wegen bC (v, v) ∈ R auch bC (v̄, v̄) = bC (v, v) = bC (v, v) = 21 b(w, w) + 12 b(u, u), und
bC (v, v̄)
1
2 bC (w
=
1
2 b(w, w)
=
+ iu, w − iu)
1
2 bC (w, w)
=
+ 12 bC (iu, w) − 21 bC (w, iu) − 12 bC (iu, iu)
− 12 ib(u, w) − 12 ib(u, w) − 21 b(u, u)
1
2 b(w, w)
=
− 21 b(u, u) − ib(u, w).
Wegen α 6= ᾱ gilt Eig(φC , α) ⊥b Eig(φC , ᾱ), insbesondere stehen die Vektoren v und v̄ senkrecht aufeinander. Es gilt also bC (v, v̄) = 0 und damit auch b(u, w) = 0 und b(w, w) = b(u, u). Weil v normiert ist, gilt
bC (v, v) = 1 und damit 12 b(w, w) + 21 b(u, u) = 1. Es folgt b(u, u) = 1 und b(w, w) = 1.
zu (iii) Wir berechnen die Bilder von w und u unter φ. Es gilt
φ(u)
=
φC
1
√ (v − v̄)
2i
1 iθ
e v − e−iθ v̄
2i
=
=
1
√ (φC (v) − φC (v̄))
2i
=
1
√ (αv − ᾱv̄)
2i
1
((cos θ + i sin θ)(w + iu) − (cos θ − i sin θ)(w − iu))
2i
=
=
1
((cos θ)w + i(sin θ)w + i(cos θ)u − (sin θ)u − (cos θ)w + i(sin θ)w + i(cos θ)u + (sin θ)u)
2i
1
(2i(sin θ)w + 2i(cos θ)u)
2i
=
=
(cos θ)u + (sin θ)w.
Dies zeigt, dass die erste Spalte der Darstellungsmatrix die angegebene Form hat. Weiter gilt
φ(w)
=
φC
1
√ (v + v̄)
2
1
2
=
1
2
=
1
√ (φC (v) + φC (v̄))
2
=
1
√ (αv + ᾱv̄)
2
((cos θ + i sin θ)(w + iu) + (cos θ − i sin θ)(w − iu))
=
1
2
eiθ v + e−iθ v̄
=
((cos θ)w + i(sin θ)w + i(cos θ)u − (sin θ)u + (cos θ)w − i(sin θ)w − i(cos θ)u − (sin θ)w)
=
1
2
(2(cos θ)w − 2(sin θ)u)
=
(− sin θ)u + (cos θ)w.
Somit hat auch die zweite Spalte die angegebene Gestalt.
Proposition 8.25 Sei 0 6= f ∈ R[x]. Ist α ∈ C eine Nullstelle von f , dann auch die konjugiert-komplexe
Zahl ᾱ. Daraus folgt, dass die Anzahl nicht-reeller Nullstellen von f stets gerade ist.
Beweis: Sei f =
f , dann gilt
f (ᾱ)
Pn
k=0
=
ak xn . Wegen ak ∈ R gilt āk = ak , für 0 ≤ k ≤ n. Ist nun α ∈ C eine Nullstelle von
n
X
k=0
ak ᾱk
=
n
X
k=0
āk ᾱk
=
n
X
ak αk
=
f (α)
=
0̄
=
0.
k=0
Ist α ∈
/ R, dann gilt α 6= ᾱ. Dies zeigt, dass die nicht-reellen Nullstellen von f immer paarweise auftreten.
—– 59 —–
Satz 8.26
Sei (V, b) ein euklidischer Vektorraum und φ ein orthogonaler Endomorphismus von V .
Dann gibt es eine ON-Basis A von V und θ1 , ..., θt ∈ ]0, 2π[ \ {π}, so dass die Darstellungsmatrix von φ
bezüglich A die Form
MA (φ)
=

1


















..

















.
1
−1
..
.
−1
Dθ1
..
.
annimmt ,
Dθt
eine Matrix ausschließlich mit den Zahlen ±1 und Drehmatrizen entlang der Hauptdiagonalen.
Beweis: Sei φC : VC → VC die C-lineare Fortsetzung von φ. Nach Lemma 8.23 ist φC ein unitärer Endomorphismus von VC . Für jeden Eigenwert α ∈ C von φC gilt |α| = 1 nach Prop. 8.14 Durch Anwendung
von Kor. 8.16 erhalten wir eine orthogonale, direkte Summenzerlegung
VC
=
Eig(φC , 1) ⊕ Eig(φC , −1) ⊕ Eig(φC , α1 ) ⊕ ... ⊕ Eig(φC , αn )
von VC in Eigenräume bezüglich φC , wobei die Zahlen α1 , ..., αn ∈ C die verschiedenen nicht-reellen Eigenwerte von φC durchlaufen. Dabei ist Eig(φC , 1) = {0V }, Eig(φC , −1) = {0V } oder auch n = 0 möglich.
Nach Prop. 8.25 gilt n = 2s für ein s ∈ N0 , und nach eventueller Umnummerierung können wir davon
ausgehen, dass die Werte α2k−1 , α2k für 1 ≤ k ≤ s jeweils konjugiert-komplexe Paare bilden.
Sei nun U = Eig(φC , 1). Sei v ∈ U und v = w + iu eine Zerlegung mit w, u ∈ V . Nach Prop. 8.24 (i) liegt
1
auch v̄ = w − iu in U , und es folgt w = 21 (v + v̄) ∈ U und u = 2i
(v − v̄) ∈ U . Die Vektoren w und u sind
invariant unter der komplexen Konjugation und somit reell. Setzen wir UR = U ∩ V = Eig(φ, 1), dann
ist also v = w + iu mit w, u ∈ UR . Damit haben wir nachgewiesen, dass eine direkte Summenzerlegung
U = UR ⊕ iUR existiert. Bezeichnet B1 eine ON-Basis von UR bezüglich φ|UR , so ist dies zugleich eine ONBasis von U bezüglich φC |U . Die Darstellungsmatrix von φ|UR bezüglich B1 ist dann die Einheitsmatrix.
Genauso können wir auch eine ON-Basis B−1 von WR = Eig(φC , −1) ∩ V wählen, und erhalten damit
zugleich eine ON-Basis von W = Eig(φC , −1). Die Darstellungsmatrix von φ|WR bezüglich B−1 ist das
Negative der Einheitsmatrix.
Sei nun k ∈ {1, ..., s} und Uk = Eig(φC , α2k ). Für jedes v ∈ Uk gilt v̄ ∈ Eig(φC , ᾱ2k ) nach Prop. 8.24 (i).
Durch die komplexe Konjugation sind also zueinander inverse Isomorphismen zwischen Uk und
Uk
=
Eig(φC , ᾱ2k )
=
Eig(φC , α2k−1 )
gegeben. Ist (v1 , ..., vm ) eine ON-Basis von Uk , dann gilt wegen Prop. 8.22 (ii) jeweils b(v̄j , v̄j ) = b(vj , vj ) =
1̄ = 1 und ebenso b(v̄j , v̄` ) = b(vj , v` ) = 0̄ = 0, für 1 ≤ j, ` ≤ m und j 6= m. Also ist durch (v̄1 , ..., v̄m ) eine
ON-Basis von U k gegeben. Für 1 ≤ j ≤ m setzen wir nun
1
wj = √ (vj + v̄j )
2
und
1
uj = √ (vj − v̄j ).
2i
—– 60 —–
Nach Prop. 8.24 (ii) ist (wj , uj ) jeweils ein ON-System. Außerdem steht hwj , uj iC = hvj , v̄j iC für j 6= m
jeweils senkrecht auf hwm , um iC = hvm , v̄m iC . Insgesamt folgt daraus, dass
Ak
=
(w1 , u1 , ..., wm , um )
ein ON-System in (V, b) ist, dessen Elementezahl 2m mit dim(Uk ⊕ U k ) übereinstimmt. Sei αk = eiθk
die Polarkoordinaten-Darstellung von αk . Wegen αk ∈
/ R gilt θk ∈
/ {0, π}. Nach Prop. 8.24 (iii) ist der
Untervektorraum huj , wj iR jeweils invariant unter φ, und es gilt
M(uj ,wj ) (φ|huj ,wj iR )
=
Dθk
für
1 ≤ j ≤ m.
Fügen wir nun die ON-Basen B1 , B−1 und die ON-Systeme A1 , ..., As zu einem ON-System A zusammen.
Die Gesamtzahl der Elemente in diesem ON-System beträgt dann
dim Eig(φC , 1) + dim Eig(φC , −1) +
s
X
(dim Eig(φC , α2k−1 ) + dim Eig(φC , α2k ))
=
dim VC
=
dim V
k=1
wobei VC als C-Vektorraum und V als R-Vektorraum aufgefasst wird. Weil ON-Systeme linear unabhängig
sind (siehe Lemma 7.10), ist A eine ON-Basis von V . Auf Grund unserer Vorüberlegungen zu den Darstellungsmatrizen der eingeschränkten Endomorphismen φ|UR , φ|WR und φ|huj ,wj iR hat die Darstellungsmatrix
MA (φ) hat die angegebene Form.
—– 61 —–
§ 9.
Dualräume und selbstadjungierte Operatoren
Wichtige Begriffe und Sätze in diesem Abschnitt
–
–
–
–
Dualraum und Bidualraum, adjungierte Abbildung
adjungierte Abbildungen in euklidischen und unitären Vektorräumen
selbstadjungierte Operatoren
Diagonalisierbarkeit selbstadjungierter Operatoren
Definition 9.1
Sei V ein K-Vektorraum. Eine lineare Abbildung V → K wird Linearform auf V
genannt. Die Menge V ∗ = HomK (V, K) aller Linearformen auf V wird der Dualraum des Vektorraums
V genannt.
Aus der Linearen Algebra I ist bekannt, dass für je zwei lineare Abbildungen φ, ψ : V → W zwischen K-Vektorräumen V, W die Summe φ + ψ gegeben durch (φ + ψ)(v) = φ(v) + ψ(v) für alle v ∈ V wiederum eine lineare Abbildung
zwischen V und W ist, ebenso für jedes λ ∈ R die Abbildung λφ gegeben durch (λφ)(v) = λφ(v) für alle v ∈ V .
Dort wurde auch gezeigt, dass die Menge HomK (V, W ) aller linearen Abbildungen V → W mit der Zuordnung
(φ, ψ) 7→ φ + ψ als Vektoraddition und der Zuordnung (λ, φ) 7→ λφ als skalarer Multiplikation ein K-Vektorraum ist.
Also existiert insbesondere auf dem Dualraum V ∗ die natürliche Struktur eines K-Vektorraums.
Proposition 9.2
Sei V = K n , und seien e1 , ..., en die Einheitsvektoren in V . Dann gibt es für jedes
Pn
ϕ ∈ V ∗ jeweils eindeutig bestimmte λ1 , ..., λn ∈ K, so dass ϕ(x1 , ..., xn ) =
k=1 λk xk für alle x =
(x1 , ..., xn ) ∈ V erfüllt ist.
Beweis: Sei ϕ ∈ V ∗ vorgegeben. Sind λ1 , ..., λn ∈ K Elemente mit der angegebenen Eigenschaft, dann
gilt für 1 ≤ ` ≤ n jeweils
n
X
ϕ(e` ) =
λk δ`k = λ` .
k=1
Die Elemente λ` sind also durch ϕ festgelegt, damit ist die Eindeutigkeit nachgewiesen. Zum Nachweis
der Existenz definieren wir λk = ϕ(ek ) für 1 ≤ k ≤ n. Sei x = (x1 , ..., xn ) ∈ V . Weil ϕ eine lineare Abbildung
ist, erhalten wir
!
n
n
n
X
X
X
ϕ(x) = ϕ
xk ek
=
xk ϕ(ek ) =
λ k xk .
k=1
k=1
k=1
Nach Definition aus der Linearen Algebra I ist ein homogenes lineares Gleichungssystem über dem Körper K bestehend
aus m Gleichungen in n Unbekannten ein Gleichungsystem der Form
ai1 x1 + ai2 x2 + ... + ain xn
=
0
—– 62 —–
,
1≤i≤m
,
wobei A = (aij ) ∈ Mn,K die Koeffizientenmatrix dieses Systems genannt wurde. Jeder Gleichung kann durch
ϕi (x1 , ..., xn )
=
n
X
aij xj
j=1
eine Linearform auf K n zugeordnet werden. Die Lösungsmenge eines solchen LGS ist dann nichts anderes als die
simultane Nullstellenmenge eines Tupels (ϕ1 , ..., ϕm ) bestehend aus m Linearformen.
Proposition 9.3
Basis von V .
Sei V ein endlich-dimensionaler K-Vektorraum, n = dim V und B = {v1 , ..., vn } eine
(i) Für jedes k ∈ {1, ..., n} gibt es ein eindeutig bestimmtes Element vk∗ ∈ V ∗ im Dualraum mit
der Eigenschaft vk∗ (v` ) = δk` für 1 ≤ ` ≤ n.
(ii) Die Menge B ∗ = {v1∗ , ..., vn∗ } bildet eine Basis von V ∗ als K-Vektorraum.
Man nennt sie die zu B duale Basis.
Beweis: zu (i) Aus der Linearen Algebra I ist folgendes bekannt: Ist V ein n-dimensionaler K-Vektorraum,
{v1 , ..., vn } eine Basis, W ein weiterer K-Vektorraum und (w1 , ..., wn ) ein beliebiges Tupel bestehend aus
Elementen von W , dann gibt es eine eindeutig bestimmte lineare Abbildung φ : V → W mit φ(vk ) = wk
für 1 ≤ k ≤ n. Wir bezeichnen diese Aussage als Existenz- und Eindeutigkeitssatz für lineare Abbildungen.
Sei nun k ∈ {1, ..., n} vorgegeben. Wenden wir den soeben zitierten Satz auf V , die Basis B, den Vektorraum
W = K und das Tupel ek mit den Einträgen δk` an, so erhalten wir eine lineare Abbildung vk∗ mit vk∗ (v` ) =
δk` für 1 ≤ ` ≤ n. Außerdem ist die lineare Abbildung vk∗ durch diese Eigenschaft eindeutig bestimmt.
zu (ii) Zunächst zeigen wir, dass B ∗ ein Erzeugendensystem von V ∗ bildet. Sei dazu ϕ ∈ V ∗ vorgegeben
Pn
und λk = ϕ(vk ) für 1 ≤ k ≤ n. Setzen wir ψ = k=1 λk vk∗ , dann erhalten wir für 1 ≤ ` ≤ n jeweils
ψ(v` )
=
n
X
λk vk∗ (v` )
=
k=1
n
X
λk δk`
=
λ`
=
ϕ(v` ).
k=1
Pn
Nach dem Existenz- und Eindeutigkeitssatz folgt daraus ϕ = ψ = k=1 λk vk∗ . Nun beweisen wir noch die
Pn
lineare Unabhängigkeit. Seien λ1 , ..., λn ∈ K Elemente mit k=1 λk vk∗ = 0V ∗ . Der Nullvektor in V ∗ ist die
lineare Abbildung, die jedes Element in V auf 0K abbildet. Für 1 ≤ ` ≤ n gilt somit
!
n
n
n
X
X
X
∗
∗
λ` =
λk δk` =
λk vk (v` ) =
λk vk (v` ) = 0V ∗ (v` ) = 0K .
k=1
k=1
k=1
Damit ist die lineare Unabhängigkeit nachgewiesen.
Aus der Linearen Algebra I ist bekannt, dass zwei endlich-dimensionale Vektorräume gleicher Dimension zueinander isomorph sind. Genauer gilt: Sind V, W zwei K-Vektorräume mit n = dim V = dim W , ist {v1 , ..., vn } eine Basis
von V und {w1 , ..., wn } eine Basis von W , dann existiert ein Isomorphismus φ : V → W von K-Vektorräumen mit
φ(vk ) = wk für 1 ≤ k ≤ n.
Insbesondere existiert also ein Isomorphismus V → V ∗ , der für 1 ≤ k ≤ n den Vektor vk jeweils auf vk∗ abbildet.
Zu beachten ist dabei aber, dass der Isomorphismus von der (willkürlichen) Wahl der Basis {v1 , ..., vn } abhängt.
—– 63 —–
Im Gegensatz zum K n gibt es also im allgemeinen keinen „natürlichen“ Isomorphismus V ∼
= V ∗ , sondern viele
gleichberechtigte Möglichkeiten.
Korollar 9.4 Sei V ein endlich-dimensionaler K-Vektorraum. Dann gibt es für jedes v ∈ V mit v 6= 0V
ein ϕ ∈ V ∗ mit ϕ(v) 6= 0K .
Beweis: Nach dem Basisergänzungssatz können wir v1 = v zu einer Basis B = {v1 , ..., vn } von V ergänzen. Sei B ∗ = {v1∗ , ..., vn∗ } die zu B duale Basis. Setzen wir ϕ = v1∗ , dann gilt ϕ(v1 ) = v1∗ (v1 ) = δ11 = 1K .
Ist V unendlich-dimensional, dann wird die Aussage V ∼
= V ∗ falsch. Als Beispiel betrachten wir den Q-Vektorraum
V der Folgen (an )n∈N in Q mit an = 0 für alle bis auf endlich viele n. Der Vektorraum V ist abzählbar unendlich,
denn die Menge aller Folgen mit genau einem, genau zwei, genau drei... Folgengliedern ungleich Null ist abzählbar unendlich, und die Vereinigung von abzählbar unendlich vielen abzählbaren Mengen ist wiederum abzählbar.
Andererseits kann jeder Folge (cn )n∈N in Q ein Element ϕ ∈ V ∗ zugeordnet werden durch
ϕ((an )n∈N )
=
∞
X
für alle (an )n∈N ∈ V
an cn
,
n=1
wobei zu beachten ist, dass in der Summe rechts fast alle Summanden gleich Null sind. Diese Zuordnung ist injektiv. Da aber schon die Menge aller 0-1-Folgen überabzählbar ist, muss V ∗ überabzählbar sein. Es kann also keinen
Isomorphismus V ∼
= V ∗ geben. Mit einem ähnlichen Kardinalitätsargument kann man zeigen, dass V ∼
= V ∗ niemals
erfüllt ist, sobald die Dimension von V unendlich ist.
Für jeden K-Vektorraum V bezeichnet man V ∗∗ = (V ∗ )∗ als den Bidualraum von V .
Definition 9.5
Satz 9.6
Sei V ein endlich-dimensionaler K-Vektorraum. Dann ist jedem v ∈ V durch ιv (ϕ) = ϕ(v)
ein Element in V ∗∗ zugeordnet. Die Abbildung V → V ∗∗ , v 7→ ιv ist ein Isomorphismus von KVektorräumen.
Beweis: Zunächst weisen wir nach, dass ιv für jedes v ∈ V ein Element aus V ∗∗ , also eine Linearform auf
V ∗ ist. Seien dazu v ∈ V , ϕ, ψ ∈ V ∗ und λ ∈ K vorgegeben. Dann gilt
ιv (ϕ + ψ)
=
(ϕ + ψ)(v)
=
ϕ(v) + ψ(v)
=
ιv (ϕ) + ιv (ψ)
und ebenso ιv (λϕ) = (λϕ)(v) = λϕ(v) = λιv (ϕ). Also ist ιv : V ∗ → K tatsächlich eine lineare Abbildung.
Als nächstes zeigen wir, dass Φ : V → V ∗∗ , v 7→ ιv eine lineare Abbildung ist. Seien v, w ∈ V und λ ∈ K
vorgegeben. Für jedes ϕ ∈ V ∗ gilt
Φ(v + w)(ϕ)
=
ιv+w (ϕ)
=
=
ϕ(v + w)
Φ(v)(ϕ) + Φ(w)(ϕ)
=
ϕ(v) + ϕ(w)
=
=
(Φ(v) + Φ(w))(ϕ)
=
λιv (ϕ)
ιv (ϕ) + ιw (ϕ)
und somit Φ(v + w) = Φ(v) + Φ(w). Ebenso gilt
Φ(λv)(ϕ)
=
ιλv (ϕ)
=
ϕ(λv)
=
λϕ(v)
—– 64 —–
=
λΦ(v)(ϕ)
=
(λΦ(v))(ϕ)
also Φ(λv) = λΦ(v). Nun zeigen wir, dass Φ injektiv ist. Sei dazu v ∈ V mit Φ(v) = 0V ∗∗ . Wäre v 6= 0V ,
dann können wir nach Kor. 9.4 ein ϕ ∈ V ∗ mit ϕ(v) 6= 0K wählen. Dies würde wegen ϕ(v) = ιv (ϕ) =
Φ(v)(ϕ) = 0V ∗∗ (ϕ) = 0K zum Widerspruch führen. Also muss v = 0V und somit ker(Φ) = {0V } gelten.
Weil V und V ∗ endlich-dimensional sind, gilt V ∼
= V ∗∗ . Daraus folgt dim V = dim V ∗ =
= V ∗ und V ∗ ∼
∗∗
dim V . Als injektive lineare Abbildung zwischen Vektorräumen gleicher Dimension ist Φ auch bijektiv.
Mit dem Zornschen Lemma kann gezeigt werden, dass der Basisergänzungssatz auch für unendlich-dimensionale
Vektorräume gültig ist, und damit lässt sich Kor. 9.4 auch für unendlich-dimensionales V beweisen. Daraus folgt,
dass die in Satz 9.6 definierte lineare Abbildung in jedem Fall ein Monomorphismus von K-Vektorräumen ist. Sie ist
aber im allgemeinen nicht surjektiv.
Definition 9.7 Seien V, W zwei K-Vektorräume und φ : V → W eine lineare Abbildung. Ordnet man
jedem ϕ ∈ W ∗ das Element φ∗ (ϕ) = ϕ ◦ φ zu, so erhält man eine lineare Abbildung φ∗ : W ∗ −→ V ∗ .
Man bezeichnet sie als die zu φ adjungierte Abbildung.
Beweis: Für jedes ϕ ∈ W ∗ ist φ∗ (ϕ) = ϕ ◦ φ eine lineare Abbildung V → K, denn die Komposition zweier
linearer Abbildungen ist linear. Es gilt also φ∗ (ϕ) ∈ V ∗ für alle ϕ ∈ W ∗ . Zu zeigen bleibt, dass es sich bei
φ∗ um eine lineare Abbildung zwischen W ∗ und V ∗ handelt. Seien ϕ, ψ ∈ W ∗ und λ ∈ K vorgegeben. Für
jedes v ∈ V gilt
φ∗ (ϕ + ψ)(v)
=
((ϕ + ψ) ◦ φ)(v)
=
(ϕ + ψ)(φ(v))
(ϕ ◦ φ)(v) + (ψ ◦ φ)(v)
=
=
ϕ(φ(v)) + ψ(φ(v))
=
(φ∗ (ϕ) + φ∗ (ψ))(v)
also φ∗ (ϕ + ψ) = φ∗ (ϕ) + φ∗ (ψ). Für alle λ ∈ K erhalten wir ebenso
φ∗ (λϕ)(v)
=
((λϕ) ◦ φ)(v)
=
(λϕ)(φ(v))
=
λϕ(φ(v))
=
(λ(ϕ ◦ φ))(v)
=
(λφ∗ (ϕ))(v)
also φ∗ (λϕ) = λφ∗ (ϕ).
Wie bei den Vektorräumen definieren wir die Abbildung φ∗∗ : V ∗∗ → W ∗∗ durch φ∗∗ = (φ∗ )∗ und nennen sie die zu
φ biadjungierte Abbildung.
Satz 9.8 Seien V, W zwei endlich-dimensionale K-Vektorräume und φ : V → W eine lineare Abbildung. Dann ist
φ
V
ΦV ↓
−→
V ∗∗
−→
φ∗∗
W
↓ΦW
W ∗∗
ein kommutatives Diagramm, wobei ΦV und ΦW die Isomorphismen aus Satz 9.6 bezeichnen.
—– 65 —–
Beweis: Nachzurechnen ist die Gleichung φ∗∗ ◦ ΦV = ΦW ◦ φ. Nach Definition gilt φ∗∗ (α) = α ◦ φ∗ für
alle α ∈ V ∗∗ . Wie in Satz 9.6 bezeichnen wir mit ιv das Element in V ∗∗ gegeben durch ιv (ϕ) = ϕ(v) für alle
ϕ ∈ V ∗ . Zum Nachweis der Gleichung seien nun v ∈ V und ϕ ∈ W ∗ vorgegeben. Es gilt dann einerseits
(φ∗∗ ◦ ΦV )(v)(ϕ)
φ∗∗ (ΦV (v))(ϕ)
=
ιv (φ∗ (ϕ))
φ∗∗ (ιv )(ϕ)
=
ιv (ϕ ◦ φ)
=
=
(ιv ◦ φ∗ )(ϕ)
=
=
(ϕ ◦ φ)(v)
andererseits aber auch
(ΦW ◦ φ)(v)(ϕ)
=
(ΦW (φ(v)))(ϕ)
=
ιφ(v) (ϕ)
=
ϕ(φ(v))
(ϕ ◦ φ)(v).
=
Weil ϕ ∈ W ∗ beliebig vorgegeben war, folgt daraus (φ∗∗ ◦ ΦV )(v) = (ΦW ◦ φ)(v). Weil auch v ∈ V beliebig
war, erhalten wir φ∗∗ ◦ ΦV = ΦW ◦ φ.
Satz 9.9 Seien V, W endlich-dimensionale K-Vektorräume mit Basen A, B und φ : V → B eine lineare
Abbildung. Sei A ∈ Mm×n,K die Darstellungsmatrix MA
B (φ), wobei n = dim V und m = dim W ist.
Dann ist
∗
∗
MB
= tA
A∗ (φ )
die Darstellungsmatrix von φ∗ bezüglich der dualen Basen.
Beweis: Sei A = (aij ), außerdem A = (v1 , ..., vn ) und B = (w1 , ..., wm ). Nach Definition der DarstellungsPm
matrix gilt φ(vj ) = i=1 aij wi für 1 ≤ j ≤ n. Wir bestimmen nun die Darstellungsmatrix von φ∗ bezüglich
der Dualbasen. Für alle k, ` mit 1 ≤ k ≤ m und 1 ≤ ` ≤ n gilt
φ
∗
(w`∗ )(vk )
=
(w`∗
◦ φ)(vk )
=
w`∗ (φ(vk ))
=
w`∗
m
X
!
aik wi
=
i=1
m
X
aik w`∗ (wi )
=
i=1
Setzen wir ϕ =
Pn
i=1
m
X
aik δ`i
=
a`k
i=1
a`i vi∗ , dann gilt ebenfalls
ϕ(vk )
=
n
X
a`i vi∗ (vk )
=
i=1
n
X
a`i δik
=
a`k .
i=1
Weil jede Linearform auf V durch ihre Werte auf A eindeutig festgelegt ist, folgt daraus φ∗ (w`∗ ) = ϕ =
Pn
∗
t
∗
∗
∗
k=1 a`k vk . Dies zeigt, dass A die Darstellungsmatrix von φ bezüglich B und A ist.
Wir bezeichnen eine Abbildung φ : V → W zwischen C-Vektorräumen als semilinear, wenn φ(v + w) = φ(v) + φ(w)
und φ(λv) = λ̄φ(v) für alle v, w ∈ V und λ ∈ C gilt. Ebenso wie bei den linearen Abbildungen ist eine semilineare
Abbildung φ : V → W genau dann injektiv, wenn ker(φ) = {0V } gilt. Ist sie bijektiv, dann ist auch die Umkehrabbildung ψ : W → V semilinear. Auch der Dimensionssatz für lineare Abbildungen bleibt für semilineare Abbildungen
gültig. Bei jeder einzelnen Ausage stimmt der Beweis mit dem aus der Linearen Algebra I überein. Für Abbildungen
zwischen R-Vektorräumen verwenden wir die Begriffe „linear“ und „semilinear“ synonym.
—– 66 —–
Satz 9.10 (Rieszscher Darstellungssatz)
Sei (V, b) ein euklidischer oder unitärer Vektorraum.
(i) Jedem Vektor v ∈ V kann durch ϕv (w) = b(v, w) ein Element des Dualraums V ∗ zugeordnet
werden.
(ii) Die Abbildung Φ : V → V ∗ , v 7→ ϕv ist semilinear und injektiv.
(iii) Ist V endlich-dimensional, dann ist Φ sogar bijektiv.
Beweis: Wir beschränken uns beim Beweis auf den unitären Fall.
zu (i) Dass ϕ für jedes v ∈ V eine Linearform ist, folgt direkt aus den Eigenschaften der Sesquilinearform
b. Seien w, w0 ∈ V und λ ∈ C vorgegeben. Dann gilt ϕv (w + w0 ) = b(v, w + w0 ) = b(v, w) + b(v, w0 ) =
ϕv (w) + ϕv (w0 ) und ϕv (λw) = b(v, λw) = λb(v, w) = λϕv (w).
zu (ii) Zunächst überprüfen wir die Semilinearität. Seien v, v 0 ∈ V und λ ∈ C vorgegeben. Für jedes w ∈ V
gilt
ϕv+v0 (w)
=
b(v + v 0 , w)
=
b(v, w) + b(v 0 , w)
=
ϕv (w) + ϕv0 (w)
=
(ϕv + ϕv0 )(w) ,
also Φ(v + v 0 ) = ϕv+v0 = ϕv + ϕv0 = Φ(v) + Φ(v 0 ). Ebenso gilt für jedes w ∈ W jeweils
ϕλv (w)
=
b(λv, w)
=
λ̄b(v, w)
=
λ̄ϕv (w)
=
(λ̄ϕv )(w)
und somit Φ(λv) = ϕλv = λ̄ϕv = λ̄Φ(v). Für den Nachweis der Injektivität zeigen wir ker(Φ) = {0V }. Sei
dazu v ∈ ker(Φ) vorgegeben. Dann ist ϕv die Nullabbildung, also gilt insbesondere b(v, v) = ϕv (v) = 0.
Weil b positiv definit ist, folgt daraus v = 0V .
zu (iii) Nach dem Dimensionssatz ist eine injektive semilineare Abbildung zwischen zwei C-Vektorräumen gleicher Dimension auch bijektiv.
Definition 9.11 Seien (V, bV ) und (W, bW ) euklidische oder unitäre Vektorräume. Man bezeichnet eine
Abbildung ψ : W → V als adjungiert zu einer linearen Abbildung φ : V → W , wenn
bV (ψ(w), v)
=
für alle v ∈ V und w ∈ W
bW (w, φ(v))
gilt.
Offenbar ist ψ genau dann adjungiert zu φ, wenn bV (v, ψ(w)) = bW (φ(v), w) für alle v ∈ V und w ∈ W erfüllt ist.
Setzen wir nämlich die Gleichung bV (ψ(w), v) = bW (w, φ(v)) für alle v ∈ V und w ∈ W voraus, dann folgt
bV (v, ψ(w))
=
bV (ψ(w), v)
=
bW (w, φ(v))
=
bW (φ(v), w) ,
und ebenso rechnet man die umgekehrte Schlussrichtung nach.
Proposition 9.12 Seien (V, bV ) und (W, bW ) endlich-dimensionale euklidische oder unitäre Vektorräume. Dann gibt es zu jeder linearen Abbildung φ : V → W genau eine adjungierte Abbildung ψ : W → V ,
und diese ist ebenfalls linear.
—– 67 —–
Beweis: Zunächst beweisen wir die Eindeutigkeit und nehmen dazu an, dass die Abbildungen ψ, ψ 0 :
W → V beide zu φ adjungiert sind. Dann gilt
bV (ψ(w), v)
=
bW (w, φ(v))
bV (ψ 0 (w), v)
=
für alle v ∈ V und w ∈ W . Es folgt bV (ψ 0 (w) − ψ(w), v) = 0 für v ∈ V und w ∈ W , somit gilt ψ 0 (w) − ψ(w) ∈
V ⊥ für alle w ∈ W . Weil bV positiv definit ist, gilt V ⊥ = {0V }, und wir erhalten ψ 0 (w) − ψ(w) = 0V für alle
w ∈ W . Damit ist ψ = ψ 0 nachgewiesen.
Kommen wir nun zum Beweis der Existenz. Nach Satz 9.10 gib es bijektive, semilineare Abbildungen
Φ : V → V ∗ und Ψ : W → W ∗ mit Φ(v)(v 0 ) = bV (v, v 0 ) für alle v, v 0 ∈ V und Ψ(w)(w0 ) = bW (w, w0 ) für alle
w, w0 ∈ W . Wir zeigen nun, dass
ψ = Φ−1 ◦ φ∗ ◦ Ψ
eine zu φ adjungierte Abbildung ist. Für alle v ∈ V und w ∈ W gilt die Äquivalenz
v = ψ(w)
⇔
⇔
v = (Φ−1 ◦ φ∗ ◦ Ψ)(w)
⇔
Φ(v)(v 0 ) = Ψ(w)(φ(v 0 )) ∀ v 0 ∈ V
Φ(v) = φ∗ (Ψ(w))
⇔
Φ(v) = Ψ(w) ◦ φ
bV (v, v 0 ) = bW (w, φ(v 0 )) ∀ v 0 ∈ V.
⇔
Für alle v 0 ∈ V und w ∈ W gilt also bV (ψ(w), v 0 ) = bW (w, φ(v 0 )). Damit ist ψ zu φ adjungiert. Wir überprüfen noch, dass ψ eine lineare Abbildung ist. Weil φ∗ linear und Φ, Ψ zumindest semilinear sind, gilt für alle
w, w0 ∈ W zunächst
ψ(w + w0 )
=
(Φ−1 ◦ φ∗ ◦ Ψ)(w + w0 )
Φ−1 (φ∗ (Ψ(w + w0 )))
=
Φ−1 (φ∗ (Ψ(w)) + φ∗ (Ψ(w0 )))
=
=
Φ−1 (φ∗ (Ψ(w) + Ψ(w0 )))
Φ−1 (φ∗ (Ψ(w))) + Φ−1 (φ∗ (Ψ(w0 )))
(Φ−1 ◦ φ∗ ◦ Ψ)(w) + (Φ−1 ◦ φ∗ ◦ Ψ)(w0 )
=
=
ψ(w) + ψ(w0 ).
=
Ebenso gilt für alle w ∈ W und alle λ ∈ C jeweils
ψ(λw)
=
=
(Φ−1 ◦ φ∗ ◦ Ψ)(λw)
Φ−1 (λ̄(φ∗ (Ψ(w))))
Φ−1 (φ∗ (Ψ(λw)))
=
λΦ−1 (φ∗ (Ψ(w)))
=
=
=
Φ−1 (φ∗ (λ̄(Ψ(w))))
λ(Φ−1 ◦ φ∗ ◦ Ψ)(w)
=
λψ(w).
Auf Grund der Existenz und Eindeutigkeit können wir für die adjungierte einer linearen Abbildung φ : V → W
zwischen endlich-dimensionalen, euklidischen (oder unitären) Vektorräumen V, W die Bezeichnung
φad : W → V
einführen.
Korollar 9.13
Seien U, V, W endlich-dimensionale euklidische oder unitäre Vektorräume, und seien
φ : U → V , ψ : V → W lineare Abbildungen. Dann gilt
(ψ ◦ φ)ad
=
φad ◦ ψ ad
(φad )ad = φ.
und
Beweis: Wir bezeichnen mit bU , bV und bW die (hermiteschen) Skalarprodukte auf U , V und W . Seien
u ∈ U und w ∈ W vorgegeben. Dann gilt
bU ((φad ◦ ψ ad )(w), u)
=
bU (φad (ψ ad (w)), u)
bW (w, ψ(φ(u)))
=
=
bV (ψ ad (w), φ(u))
bW (w, (ψ ◦ φ)(u)).
—– 68 —–
=
Dies zeigt, dass die lineare Abbildung φad ◦ ψ ad zu ψ ◦ φ adjungiert ist. Auf Grund der Eindeutigkeit der
Adjungierten folgt daraus φad ◦ ψ ad = (ψ ◦ φ)ad .
Zum Beweis der zweiten Gleichung sei ψ = φad . Nach Definition der Adjungierten gilt bU (ψ(v), u) =
bV (v, φ(u)) für alle u ∈ U und v ∈ V und somit auch
bV (φ(u), v)
=
bU (u, ψ(u))
für alle u ∈ U und v ∈ V . Dies zeigt, dass φ auch zu ψ adjungiert ist. Es gilt also φ = ψ ad = (φad )ad .
Lemma 9.14 Seien (V, bV ) und (W, bW ) endlich-dimensionale euklidische oder unitäre Vektorräume,
A = (v1 , ..., vn ) eine Basis von V und B = (w1 , ..., wm ) eine Basis von W . Seien φ : V → W und
ψ : W → V lineare Abbildungen. Gilt für 1 ≤ j ≤ n und 1 ≤ i ≤ m jeweils
bV (ψ(wi ), vj )
=
bW (wi , φ(vj ))
,
dann ist ψ zu φ adjungiert.
Beweis: Seien v ∈ V und w ∈ W vorgegeben. Zu zeigen ist bV (ψ(w), v) = bW (w, φ(v)). Stellen wir die
Pn
Pm
Vektoren v und w durch die Basen A und B dar, also v = j=1 λj vj und w = i=1 µi wi , dann erhalten
wir auf Grund der Bilinearität von bV und bW


n
m X
n
m
X
X
X
λ j vj  =
µ̄i λj bV (ψ(wi ), vj ) =
bV (ψ(w), v) = bV 
µi ψ(wi ) ,
j=1
i=1
m X
n
X

µ̄i λj bW (wi , φ(vj ))
=
bW 
i=1 j=1
i=1 j=1
m
X
µi wi ,
n
X

λj φ(vj )
=
bW (w, φ(v)).
j=1
i=1
Satz 9.15
Seien (V, bV ) und (W, bW ) endlich-dimensionale euklidische oder unitäre Vektorräume, A
eine ON-Basis von V und B eine ON-Basis von W . Sei φ : V → W eine lineare Abbildung und A
die Darstellungsmatrix von φ bezüglich A und B. Dann ist die Darstellungsmatrix der adjungierten
ad
Abbildung durch t Ā = MB
A (φ ) gegeben.
Beweis: Sei A = (v1 , ..., vn ) und B = (w1 , ..., wm ). Sei A = (aij ), und seien bij für alle i, j die Einträge der
Pm
Matrix t Ā. Nach Definition der Darstellungsmatrix gilt φ(vj ) = i=1 aij wi für 1 ≤ j ≤ n. Wir definieren
die lineare Abbildung ψ : W → V durch
ψ(wi )
=
n
X
j=1
bji vj
=
n
X
āij vj
für 1 ≤ i ≤ m.
j=1
Zu zeigen ist, dass ψ zu φ adjungiert ist. Nach Lemma Lemma 9.14 genügt es, die Gleichung bV (ψ(wi ), vj ) =
bW (wi , φ(vj )) für 1 ≤ i ≤ m und 1 ≤ j ≤ n zu überprüfen. Tatsächlich gilt einerseits
!
n
n
n
X
X
X
=
aik bV (vk , vj ) =
aik δkj = aij ,
bV (ψ(wi ), vj ) = bV
āik vk , vj
k=1
k=1
—– 69 —–
k=1
andererseits aber auch
bW (wi , φ(vj ))
=
bW
wi ,
m
X
!
akj wk
m
X
=
k=1
akj b(wi , wk )
m
X
=
k=1
akj δik
=
aij .
k=1
ad
t
Also ist ψ tatsächlich zu φ adjungiert, und damit ist MB
A (φ ) = B = Ā bewiesen.
Definition 9.16
Sei (V, b) ein endlich-dimensionaler euklidischer oder unitärer Vektorraum. Ein Endomorphismus φ von V wird selbstadjungiert (oder auch selbstadjungierter Operator) genannt, wenn
φad = φ erfüllt ist.
Sei A eine ON-Basis von V , φ ein Endomorphismus und A = MA (φ). Nach Satz Satz 9.15 ist φ genau dann selbstadjungiert, wenn t Ā = A erfüllt ist, im reellen Fall also genau dann, wenn A symmetrisch ist.
Einen speziellen Typ von selbst-adjungierten Operatoren haben wir schon in §6 kennengelernt. Sei V ein beliebiger
R-Vektorraum. Man bezeichnet einen Endomorphismus φ ∈ EndR (V ) als idempotent, wenn φ2 = φ gilt.
Satz 9.17 Sei (V, b) ein endlich-dimensionaler euklidischer Vektorraum und φ ∈ EndR (V ). Dann sind
die beiden folgenden Aussagen äquivalent.
(i) Es gilt φ = πU für einen Untervektorraum U von V , d.h. φ ist eine Orthogonalprojektion.
(ii) Der Endomorphismus φ ist selbstadjungiert und idempotent.
Beweis: „(i) ⇒ (ii)“ Sei U ein Untervektorraum von V . Zunächst zeigen wir, dass πU idempotent ist.
Nach Definition der Orthogonalprojektion gilt πU (v) ∈ U für alle v ∈ V und πU (u) = u für alle u ∈ U .
2
2
Daraus folgt πU
(v) = πU (πU (v)) = πU (v) für alle v ∈ V , also πU
= πU .
Um zu zeigen, dass πU auch selbstadjungiert ist, seien v, w ∈ V vorgegeben. Zu zeigen ist b(φ(v), w) =
b(v, φ(w)). Wegen V = U ⊕ U ⊥ können wir v und w auf eindeutige Weise als Summen v = u + u0 und
w = y+y 0 schreiben, mit u, y ∈ U und u0 , y 0 ∈ U ⊥ . Nach Definition der Orthogonalprojektion gilt πU (v) = u
und πU (w) = y. Daraus folgt
b(φ(v), w)
=
b(u, y + y 0 )
b(u, y) + b(u0 , y)
=
=
b(u, y) + b(u, y 0 )
b(u + u0 , y)
=
=
b(u, y)
=
b(v, φ(w)).
„(ii) ⇒ (i)“ Sei U = im(φ) = φ(V ). Um zu zeigen, dass φ = πU ist, müssen wir zeigen, dass φ(u) = u für
alle u ∈ U und v − φ(v) ∈ U ⊥ für alle v ∈ V gilt. Sei zunächst u ∈ U vorgegeben. Dann gibt es ein v ∈ V
mit φ(v) = u. Weil φ idempotent ist, erhalten wir φ(u) = φ(φ(v)) = φ2 (v) = φ(v) = u.
Zum Nachweis der zweiten Eigenschaft seien v ∈ V und u ∈ U vorgegeben. Zu zeigen ist b(u, v−φ(v)) = 0.
Sei w ∈ V ein Element mit φ(w) = u. Weil φ selbstadjungiert und idempotent ist, erhalten wir
b(u, v − φ(v))
=
b(w, φ(v) − φ2 (v))
b(φ(w), v − φ(v))
=
=
b(w, φ(v) − φ(v))
—– 70 —–
b(w, φ(v) − φ(φ(v)))
=
b(w, 0V )
=
=
0.
Wie die unitären lassen sich auch die selbstadjungierten Endomorphismen durch eine ON-Basis auf Diagonalgestalt
bringen, hier allerdings auch über dem Grundkörper R. Der Beweis dieser Aussage ist das Hauptergebnis dieses
Abschnitts. Zur Vorbereitung zeigen wir
Proposition 9.18
Jeder selbstadjungierte Operator auf einem endlich-dimensionalen unitären oder
euklidischen Vektorraum (V, b) mit V 6= {0V } besitzt einen reellen Eigenwert.
Beweis: Zunächst beweisen wir die Aussage im unitären Fall. Sei λ ∈ C ein Eigenwert von φ und v ∈ V
ein zugehöriger Eigenvektor. Dann gilt
λ̄b(v, v)
=
b(λv, v)
=
b(φ(v), v)
=
b(v, φ(v))
=
b(v, λv)
=
λb(v, v).
Wegen v 6= 0V ist auch b(v, v) 6= 0, weil b positiv definit ist. Division der obigen Gleichung durch b(v, v) 6= 0
liefert λ̄ = λ und somit λ ∈ R.
Betrachten wir nun den Fall, dass (V, b) euklidisch ist. Aus §8 ist bekannt, dass die Komplexifizierung
(VC , bC ) von (V, b) ein unitärer Vektorraum ist. Wir weisen nach, dass mit φ auch die C-lineare Fortsetzung
φC von φ selbstadjungiert ist. Wählen wir eine Basis B = (v1 , ..., vn ) von V , so ist dies zugleich eine Basis
des C-Vektorraums VC , wie in den Übungen gezeigt wurde. Für alle j, k mit 1 ≤ j, k ≤ n gilt nun
bC (φC (vj ), vk )
=
b(φ(vj ), vk )
=
b(vj , φ(vk ))
=
bC (vj , φC (vk )).
Nach Lemma 9.14 folgt daraus, dass φC selbstadjungiert ist. Wie bereits gezeigt, besitzt φC einen Eigenvektor v ∈ VC zu einem reellen Eigenwert λ. Wegen
φC (v + v̄)
=
φC (v) + φC (v̄)
λv + λ̄v̄
=
=
φC (v) + φC (v)
λv + λv̄
=
=
λv + λv
=
λ(v + v̄)
liegt auch v + v̄ in Eig(φC , λ), und dieser Vektor ist reell, also in V ⊆ VC enthalten. Ebenso gilt
φC ( 1i (v − v̄))
=
1
i φC (v)
1
i λv
− 1i φC (v̄)
− 1i λ̄v̄
=
=
1
i λv
1
i φC (v)
− 1i λv̄
− 1i φC (v)
=
1
i λ(v
− v̄)
=
1
i λv
− 1i λv
=
Also gilt 1i (v − v̄) ∈ Eig(φC , λ), und der Vektor ist invariant unter der komplexen Konjugation, also reell.
Wegen v 6= 0V muss auch einer der Vektoren v + v̄ oder 1i (v − v̄) ungleich Null sein. Dies zeigt, dass φ einen
(reellen) Eigenvektor zum Eigenwert λ besitzt.
Satz 9.19
(Spektralsatz)
Sei (V, b) ein endlich-dimensionaler euklidischer oder unitärer Vektorraum und φ : V → V ein selbstadjungierter Operator. Dann besitzt V eine ON-Basis aus Eigenvektoren von φ.
Beweis: Wir beweisen die Aussage durch vollständige Induktion über n = dim V . Im Fall n = 0 ist nichts
zu zeigen. Sei nun n ∈ N, und setzen wir die Aussage für Vektorräume kleinerer Dimension voraus. Nach
Prop. 9.18 existiert ein Eigenvektor w ∈ V zu einem reellen Eigenwert λ, wobei wir voraussetzen können,
—– 71 —–
dass w normiert ist, also kwkb = 1 gilt. Wie in §8 bei den unitären Endomorphismen überprüfen wir, dass
der Untervektorraum U = hwi⊥ invariant unter φ ist. Für alle v ∈ U gilt b(v, w) = 0. Es folgt
b(φ(v), w)
=
b(v, φ(w))
=
b(v, λw)
=
λb(v, w)
=
λ·0
=
0
und somit φ(v) ∈ U wie behauptet. Nun ist mit φ auch der eingeschränkte Endomorphismus φ|U ein
selbstadjungierter Operator. Nach Induktionsvoraussetzung besitzt U eine ON-Basis (w2 , ..., wn ) aus Eigenvektoren von φ|U . Damit ist (w, w2 , ..., wn ) eine Basis von V , die aus Eigenvektoren von φ besteht.
Aus Satz 9.19 folgt also, dass für jeden selbstadjungierten Operator φ auf einem endlich-dimensionalen euklidischen
oder unitären Vektorraum (V, b) eine Orthogonalzerlegung
V
=
Eig(φ, λ1 ) ⊕ ... ⊕ Eig(φ, λn )
existiert, wobei λ1 , ..., λn ∈ R die Eigenwert von φ bezeichnen. Anhand der Orthogonalzerlegung erkennt man auch,
dass Eigenvektoren zu verschiedenen Eigenwerten stets senkrecht aufeinander stehen.
Die Eigenschaft, mit einer ON-Basis aus Eigenvektoren diagonalisierbar zu sein, wird also von den unitären und den
selbstadjungierten Endomorphismen geteilt. Wir definieren nun neue eine Klasse von Endomorphismen, die diese
beiden in sich vereint.
Definition 9.20
Sei (V, b) ein endlich-dimensionaler unitärer Vektorraum. Wir bezeichnen einen Endomorphismus φ ∈ EndC (V ) als normal, wenn
φad ◦ φ
=
φ ◦ φad
erfüllt ist.
Jeder selbstadjungierte Operator φ ist normal, da in diesem Fall φ = φad gilt, woraus φad ◦ φ = φ2 = φ ◦ φad
unmittelbar folgt. Auch jeder unitäre Endomorphismen φ ist normal, denn nach Kor. 8.9 gilt φad = φ−1 , und daraus
folgt φad ◦ φ = idV = φ ◦ φad .
Sei A ∈ Mn,C die Darstellungsmatrix eines Endomorphismus bezüglich einer ON-Basis. Nach Satz 9.15 ist t Ā die
Darstellungsmatrix von φad bezüglich derselben Basis. Daraus folgt, dass φ genau dann normal ist, wenn t ĀA = At Ā
gilt.
Lemma 9.21
Jeder normale Endomorphismus φ auf einem endlich-dimensionalen unitären Vektorraum (V, b) hat die Eigenschaften
(i) ker(φ) = ker(φad )
Beweis:
(ii) Eig(φ, λ) = Eig(φad , λ̄) für alle λ ∈ C
zu (i) Für jedes v ∈ V gilt
b(φ(v), φ(v))
=
b(v, (φad ◦ φ)(v))
=
b(v, (φ ◦ φad )(v))
=
b(φad (v), φad (v)).
Weil b positiv definit ist, gilt also die Äquivalenz φ(v) = 0V ⇔ b(φ(v), φ(v)) = b(φad (v), φad (v)) = 0 ⇔
φad (v) = 0V und somit ker(φ) = ker(φad ).
—– 72 —–
zu (ii) Wir überprüfen zunächst, dass mit φ auch der Endomorphismus ψ = λidV − φ normal ist. Die zu
ψ adjungierte Abbildung ist gegeben durch ψ ad = λ̄idV − φad , denn für alle v, w ∈ V gilt
b(ψ(v), w)
=
λ̄b(v, w) − b(v, φad (w))
b((λidV − φ)(v), w)
=
b(λv, w) − b(φ(v), w)
=
b(v, λ̄w) − b(v, φad (w))
=
=
b(v, (λ̄idV − φad )(w)).
Daraus folgt
ψ ad ◦ ψ
(λ̄ idV − φad ) ◦ (λ idV − φ)
=
λλ̄ idV − λ̄φ − λφad + φ ◦ φad
=
λ̄λ idV − λφad − λ̄φ + φad ◦ φ
=
(λidV − φ) ◦ (λ̄idV − φad )
=
=
ψ ◦ ψ ad
also ist der Endomorphismus ψ tatsächlich normal. Nun gilt Eig(φ, λ) = ker(ψ) und Eig(φad , λ̄) = ker(ψ ad ).
Aus Teil (i) folgt damit die gewünschte Gleichung.
Satz 9.22
Ein Endomorphismus φ auf einem endlich-dimensionalen unitären Vektorraum (V, b) ist
genau dann normal, wenn V eine ON-Basis aus Eigenvektoren von φ besitzt.
Beweis: „⇒“ Wir beweisen die Aussage durch vollständige Induktion über n = dim V . Im Fall n = 0
braucht nichts gezeigt werden. Sei nun n ∈ N, und setzen wir die Aussage für Vektorräume kleinerer
Dimension voraus. Weil das charakteristische Polynom χφ ∈ C[x] in Linearfaktoren zerfällt, besitzt φ einen
Eigenwert λ ∈ C mit zugehörigem Eigenvektor w, wobei wir kwkb = 1 annehmen können. Wir zeigen nun,
dass der Untervektorraum U = hwi⊥
C unter φ invariant ist. Für jedes v ∈ U gilt b(v, w) = 0. Mit Hilfe von
Lemma 9.21 erhalten wir
b(φ(v), w)
b(v, φad (w))
=
=
b(v, λ̄w)
=
λ̄b(v, w)
λ̄ · 0
=
=
0 ,
so dass auch φ(v) in U enthalten ist. Auch unter φad ist U invariant, für jedes v ∈ U erhalten wir genauso
b(φad (v), w)
=
b(v, φ(w))
=
b(v, λw)
=
λb(v, w)
=
λ·0
=
0.
Dies zeigt, dass mit φ auch der eingeschränkte Endomorphismus φ|U normal ist. Laut Induktionsvoraussetzung gibt es eine ON-Basis (w2 , ..., wn ) von U bestehend aus Eigenvektoren von φ|U . Daraus folgt, dass
(w, w2 , ..., wn ) eine ON-Basis von V aus Eigenvektoren von φ ist.
„⇐“ Sei B = (w1 , w2 , ..., wn ) eine ON-Basis von V bestehend aus Eigenvektoren von φ, und seien
λ1 , ..., λn ∈ C die zugehörigen Eigenwerte. Dann ist die Darstellungsmatrix von φ bezüglich B die Diagonalmatrix mit den Einträgen λ1 , ..., λn . Nach Satz 9.15 ist die Darstellungsmatrix von φad bezüglich derselben Basis die Diagonalmatrix mit den Einträgen λ̄1 , ..., λ̄n auf der Hauptdiagonalen. Für 1 ≤ k ≤ n gilt
damit
(φad ◦ φ)(vk )
=
φad (λk vk )
λ̄k φ(vk )
=
=
λk φad (vk )
φ(λ̄k vk )
=
=
λk λ̄k vk
=
λ̄k λk vk
=
(φ ◦ φad )(vk ).
Weil jeder Endomorphismus von V durch die Bilder der Vektoren in B eindeutig bestimmt ist, folgt daraus
φad ◦ φ = φ ◦ φad . Also ist φ normal.
Innerhalb der normalen Endomorphismen sind die unitären und die selbstadjungierten Endomorphismen allein
durch ihre Eigenwerte charakterisiert.
—– 73 —–
Satz 9.23
Sei (V, b) ein endlich-dimensionaler unitärer Vektorraum. Dann gilt jeweils
(i) Ein Endomorphismus φ ∈ EndC (V ) ist genau dann unitär, wenn er normal und jeder seiner
Eigenwerte vom komplexen Absolutbetrag 1 ist.
(ii) Ein Endomorphismus φ ∈ EndC (V ) ist genau dann selbstadjungiert, wenn er normal und all seine
Eigenwerte reell sind.
Beweis: Sei n = dim V . Wir haben bereits festgestellt, dass unitäre und selbstadjungierte Endomorphismen auch normal sind. Also können wir beim Beweis der Äquivalenzen (i) und (ii) direkt von einem normalen φ ∈ EndC (V ) ausgehen. Nach Satz 9.22 existiert eine ON-Basis von V derart, dass die Darstellungsmatrix A ∈ Mn,C von φ bezüglich dieser Basis eine Diagonalmatrix ist, wobei die Einträge λ1 , ..., λn ∈ C
auf der Hauptdiagonalen genau die Eigenwerte von φ sind.
2
zu (i) „⇒“ Ist φ unitär, dann gilt t Ā = A−1 nach Satz 8.13. Daraus folgt λ̄k = λ−1
k ⇔ |λk | = 1 ⇔ |λk | = 1
für 1 ≤ k ≤ n. Alle Eigenwerte von φ sind also vom komplexen Absolutbetrag 1. „⇐“ Setzen wir
umgekehrt voraus, dass die Eigenwerte von φ alle vom Betrag 1 sind. Aus |λk | = 1 folgt jeweils λ̄k = λ−1
k
für 1 ≤ k ≤ n. Damit gilt t Ā = A−1 , also ist φ unitär.
zu (ii) Hier läuft das Argument weitgehend analog. Der Endomorphismus φ ist genau dann selbstadjungiert, wenn t Ā = A gilt. Dies wiederum ist äquivalent zu λ̄k = λk , also zu λk ∈ R für 1 ≤ k ≤ n.
—– 74 —–
§ 10.
Die Hauptachsentransformation
Wichtige Begriffe und Sätze in diesem Abschnitt
–
–
–
–
–
Diagonalisierbarkeit der Bilinearformen
der Sylverstersche Trägheitssatz
der Satz über die Hauptachsentransformation
quadratische Hyperflächen im R2 und R3
die Minkowski-Metrik
In §8 haben wir die Gruppen der orthogonalen und unitären n × n-Matrizen definiert durch
O(n)
= {A ∈ Mn,R | t AA = I(n) }
U(n)
= {A ∈ Mn,C | t ĀA = I(n) }
Offenbar ist eine Matrix A = (aij ) ∈ Mn,R genau dann orthogonal, wenn die Spaltenvektoren a•j der Matrix bezüglich des euklidischen Standard-Skalarprodukts eine ON-Basis des Rn bilden. Setzen wir nämlich B = t AA, dann ist
der Eintrag bij von B an der Stelle (i, j) gegeben durch
bij
=
n
X
aki akj
=
ha•i , a•j i
für 1 ≤ i, j ≤ n.
k=1
Die Bedingung t AA = I(n) ist äquivalent zu bij = δij für 1 ≤ i, j ≤ n und somit zu ha•i , a•j i = δij für 1 ≤ i, j ≤ n.
Die letzten Aussage wiederum ist gleichbedeutend damit, dass die Spalten von A eine ON-Basis bilden.
Genauso zeigt man auch, dass eine Matrix A ∈ Mn,C genau dann unitär ist, wenn ihre Spaltenvektoren eine ON-Basis
Pn
im Cn bezüglich des unitären Standard-Skalarprodukts hx, yi = k=1 x̄k yk bilden.
In Analogie zu den Sesquilinearformen bezeichnen wir eine Matrix A ∈ Mn,C als hermitesch, wenn t Ā = A gilt. Der
Spektralsatz (Satz 9.19) kann zu folgender Aussage über Matrizen umformuliert werden.
Korollar 10.1
(i) Für jede symmetrische Matrix A ∈ Mn,R gibt es eine orthogonale Matrix T ∈ O(n) mit der
Eigenschaft, dass D = t T AT eine Diagonalmatrix ist.
(ii) Für jede hermitesche Matrix A ∈ Mn,C gibt es eine unitäre Matrix T ∈ U(n) mit der Eigenschaft,
dass D = t T AT eine Diagonalmatrix mit reellen Einträgen ist.
Beweis: Wir beschränken uns auf den Beweis von Teil (ii). Sei φ ∈ EndC (Cn ) definiert durch φ : Cn → Cn ,
v 7→ Av. Bezeichnen wir die Einheitsbasis von Cn mit E, dann gilt A = ME (φ), und auf Grund unserer
Voraussetzung an die Matrix A ist φ selbstadjungiert. Nach dem Spektralsatz gibt es eine ON-Basis A von
Cn bestehend aus Eigenvektoren von φ mit reellen Eigenwerten. Also ist D = MA (φ) eine Diagonalmatrix
—– 75 —–
mit reellen Einträgen. Tragen wir die Vektoren aus A als Spalten in eine Matrix T ∈ Mn,C ein, so gilt
T = TEA , und auf Grund unserer Vorbemerkung liegt T in U(n). Wir erhalten
D
=
MA (φ)
=
TAE ME (φ)TEA
=
T −1 AT
=
t
T̄ AT.
Wir wenden dieses Ergebnis nun auf Darstellungsmatrizen von Bilinearformen an mit dem Ziel, die symmetrischen
Bilinearformen auf endlich-dimensionalen R-Vektorräumen zu klassifizieren.
Satz 10.2
Sei V ein endlich-dimensionaler R- (bzw. C-)Vektorraum und b eine symmetrische Bilinearform (bzw. hermitesche Sesquilinearform) auf V . Dann gibt es in V eine Orthogonalbasis bezüglich b,
genauer eine geordnete Basis B von V mit der Eigenschaft, dass die Darstellungsmatrix von b bezüglich
B durch eine Diagonalmatrix der Form
MB (b)
=
diag(1, ..., 1, −1, ..., −1, 0, ..., 0)
(10.1)
gegeben ist.
Beweis: Wieder beschränken wir uns beim Beweis auf den komplexen Fall. Sei n = dim V und A ∈ Mn,C
die Darstellungsmatrix von b bezüglich einer beliebigen geordneten Basis A = (v1 , ..., vn ) von V . Dann gilt
aij = b(vi , vj ) für alle 1 ≤ i, j ≤ n. Wegen b(vj , vi ) = b(vi , vj ) für alle i, j ist A hermitesch.
Nach Kor. 10.1 gibt es nun eine Matrix T ∈ U(n), so dass D = t T̄ AT eine Diagonalmatrix ist. Sei B̃ =
(w̃1 , ..., w̃n ) die eindeutig bestimmte geordnete Basis von V mit TAB̃ = T . Dann ist D = MB̃ (b). Nach
Umsortieren der Vektoren in B̃ können wir davon ausgehen, dass r, s ∈ N0 existieren, so dass die Werte
b(w̃k , w̃k ) für 1 ≤ k ≤ r positiv, für r + 1 ≤ k ≤ r + s negativ und für r + s + 1 ≤ k ≤ n gleich Null ist.
Die Diagonalgestalt von D wird dadurch nicht geändert. Definieren wir nun wk = |b(w̃k , w̃k )|−1/2 w̃k für
1 ≤ k ≤ r + s und wk = w̃k für r + s + 1 ≤ k ≤ n und setzen wir B = (w1 , ..., wn ), dann hat MB (b) die
gewünschte Eigenschaft.
Definition 10.3 Sei V ein endlich-dimensionsionaler R- (bzw. C-)Vektorraum und b eine symmetrische
Bilinearform (bzw. hermitesche Sesquilinearform) auf V . Dann bezeichnet man
V⊥
=
{v ∈ V | b(v, w) = 0 ∀ w ∈ V }
als den Ausartungsraum von (V, b). Die Zahl rg(V, b) = dim V − dim V ⊥ wird der Rang von (V, b) genannt. Gilt rg(V, b) = dim V (was mit V ⊥ = {0V } gleichbedeutend ist), dann bezeichnet man die Bilinearform b als nicht ausgeartet.
Proposition 10.4 Seien die Bezeichnungen wie in der Definition gewählt, und sei A die Darstellungsmatrix von b bezüglich einer beliebigen Basis von V . Dann gilt rg(V, b) = rg A.
Beweis: Nach Satz 10.2 existiert eine Basis B von V mit der Eigenschaft, dass B = MB (b) eine Diagonalmatrix der Form (10.1) ist. Dann ist die Anzahl d der Nulleinträge auf der Diagonalen offenbar gleich
—– 76 —–
der Dimension des Ausartungsraums V ⊥ . Sei n = dim V und T = TBA die Matrix des Basiswechsels von A
nach B. Dann gilt rg B = n − d und
A
=
MA (b)
=
t
(TBA )MB (b)TBA
t
=
T BT.
Weil T invertierbar ist, haben A und B denselben Rang, und es folgt rg(V, b) = dim V − dim V ⊥ = n − d =
rg(B) = rg(A).
Satz 10.5
(Trägheitssatz von Sylvester)
Sei V ein endlich-dimensionsionaler R- (bzw. C-)Vektorraum und b eine symmetrische Bilinearform
(bzw. hermitesche Sesquilinearform) auf V . Seien ferner B und B 0 zwei geordnete Basen mit der Eigenschaft, dass die Darstellungsmatrizen MB (b) und MB0 (b) jeweils die Form (10.1) annehmen. Bezeichnen
wir mit r, s und d die Anzahl der Einträge 1, −1 und 0 auf der Hauptdiagonalen von MB (b) und mit r0 ,
s0 und d0 die entsprechenden Zahlen für die Matrix MB0 (b), dann gilt
r = r0
,
s = s0
und
d = d0 .
Beweis: Sei n = dim V , B = (v1 , ..., vn ) und B 0 = (v10 , ..., vn0 ). Nach Prop. 10.4 gilt
n−d
rg MA (b)
=
=
rg(V, b)
=
rg MB (b)
n − d0
=
und somit d = d0 . Wegen r + s + d = n = r0 + s0 + d genügt es, r = r0 nachzuweisen. Sei U+ der
Untervektorraum, der von den ersten r Vektoren in B aufgespannt wird und U− der Untervektorraum,
0
0
der von den nächsten s Vektoren erzeugt wird. Seien U+
und U−
die entsprechenden Untervektorräume
0
von V zur Basis B . Dann besitzt V die orthogonalen Summenzerlegungen
V
=
U+ ⊕ U− ⊕ V ⊥
=
0
0
U+
⊕ U−
⊕ V ⊥.
Für jeden Vektor v in U− ⊕ V ⊥ gilt b(v, v) ≤ 0, denn jeder Vektor in diesem Untervektorraum hat eine
Pn
Darstellung der Form v = k=r+1 λk vk , und auf Grund der Orthogonalität der Basisvektoren folgt
b(v, v)
=
n
X
b(λk vk , λk vk )
n
X
=
λ2k b(vk , vk )
=
(−λ2k )
≤
0.
k=r+1
k=r+1
k=r+1
s
X
0
\ {0V } gilt dagegen b(v, v) > 0, denn ein solcher Vektor hat eine Darstellung der
Für jeden Vektor w ∈ U+
Pr
0
Form w = k=1 µk vk , wobei µk 6= 0 für mindestens ein k gilt. Wir erhalten
b(w, w)
=
r
X
k=1
b(µk vk0 , µk vk0 )
=
r
X
µ2k b(vk0 , vk0 )
k=1
=
r
X
µ2k
>
0.
k=1
0
Daraus folgt U+
∩ (U− ⊕ V ⊥ ) = {0V } und somit r0 + s + d ≤ n = r + s + d, also r0 ≤ r. Ebenso beweist man
0
r ≤ r, so dass insgesamt r = r0 gilt.
Die Zahl r in Satz 10.5 nennt man den Index, die Differenz r − s die Signatur von (V, b).
Definition 10.6
Eine Quadrik (oder quadratische Hyperfläche) im Rn ist die Nullstellenmenge eines
Polynoms der Form
n
X
X
f (x1 , ..., xn ) =
fk` xk x` +
fk xk + f0
1≤k≤`≤n
k=1
mit fk , fk` ∈ R für 1 ≤ k ≤ ` ≤ n, wobei fk` 6= 0 für mindestens ein Paar (k, `) gilt.
—– 77 —–
Durch Verwendung der Matrixschreibweise kann eine Quadrik in kompakter Form dargestellt werden. Definieren
wir A = (aij ) ∈ Mn,R durch
akk = fkk
für
1≤k≤n
ak` = a`k = 21 fk`
,
für
1 ≤ k ≤ ` ≤ n, k 6= `
,
und setzen wir bk = 21 fk und c = f0 , dann ist die Nullstellenmenge des Polynoms f von oben gegeben durch
Q
Satz 10.7
=
{x ∈ Rn | t xAx + 2hb, xi + c = 0}
(10.2)
(Hauptachsentransformation)
Sei Q ⊆ Rn eine Quadrik der Form (10.2), dann gibt es eine Bewegung φ : Rn → Rn , so dass φ(Q) die
Nullstellenmenge eines Polynoms der folgenden Form ist.
(i) a1 x21 + ... + ar x2r = 0 (1 ≤ r ≤ n, ak 6= 0 für 1 ≤ k ≤ r)
(ii) a1 x21 + ... + ar x2r = 1 (1 ≤ r ≤ n, ak 6= 0 für 1 ≤ k ≤ r)
(iii) a1 x21 + ... + ar x2r = 2xr+1 (1 ≤ r < n, ak 6= 0 für 1 ≤ k ≤ r)
Beweis:
Nach Kor. 10.1 gibt es eine Matrix T ∈ O(n), so dass D = t T AT eine Diagonalmatrix ist.
Definieren wir die Bewegung φ1 durch φ1 (x) = T −1 x für alle x ∈ Rn , dann erhalten wir für die Punkte
von Q1 = φ1 (Q) die Gleichung
t
xDx + 2hb, T xi + c = 0.
Bezeichnen wir die Einträge von D auf der Hauptdiagonalen mit a1 , ..., an , dann hat Q1 also die Form
(
)
X
n
X
n
n 2
Q1 =
x∈R ak xk +
2uk xk + c = 0
k=1
k=1
für geeignete u1 , ..., un ∈ R. Durch Umsortieren der Koordinaten können wir erreichen, dass ein r mit 1 ≤
r ≤ n existiert, so dass ak 6= 0 für 1 ≤ k ≤ r und ak = 0 für k > r erfüllt ist. Das Umsortieren wird durch
eine Permutationsmatrix Pσ mit σ ∈ Sn realisiert, und diese ist orthogonal (es gilt Pσ−1 = Pσ−1 = t Pσ ). Es
gibt also eine Bewegung φ2 , so dass Q2 = φ2 (Q1 ) gegeben ist durch
(
)
X
n
X
r
n 2
Q2 =
x∈R ak xk +
2uk xk + c = 0
k=1
k=1
mit entsprechend permutierten ak , uk ∈ R. Für 1 ≤ k ≤ r gilt
ak x2k + 2uk xk
=
ak (x2k + 2 uakk xk )
=
ak (x2k + 2 uakk xk + ( uakk )2 ) −
Mit einer geeignet veränderten Konstanten c gilt also
(
X
r
n Q2 =
x∈R ak (xk +
uk 2
ak )
k=1
+
n
X
u2k
ak
=
)
2uk xk + c = 0
k=r+1
Durch Anwendung einer Translation φ3 auf Q2 erhalten wir eine neue Quadrik
(
)
X
r
n
X
ak x2k +
2uk xk + c = 0
Q3 =
x ∈ Rn k=1
k=r+1
—– 78 —–
ak (xk +
uk 2
ak )
−
u2k
ak .
mit erneut modifizierten Koeffizienten uk , c ∈ R. Wir unterscheiden nun zwei Fälle. Kommt in der Gleichung für Q3 kein linearer Term mehr vor (gilt also r = n oder uk = 0 für alle k ≥ r + 1, dann haben wir
im Fall c = 0 die Form (i) erreicht. Im Fall c 6= 0 dividieren wir die Gleichung durch c und erhalten damit
die Form (ii).
Existiert dagegen noch ein linearer Term, so können wir (nach ggf. einer weiteren Vertauschung der Koordinaten) davon ausgehen, dass ur+1 6= 0 gilt. Setzen wir v = (0, ..., br+1 , ..., bn ), dann gilt
(
Q3
=
)
X
r
ak x2k + 2hv, xi + c = 0 .
x ∈ Rn k=1
Sei φ4 eine Drehung, die v auf λer+1 für ein geeignetes λ ∈ R mit λ 6= 0 abbildet und die ersten r Koordinaten unverändert lässt. Dann ist Q4 = φ4 (Q3 ) gegeben durch
(
Q4
)
X
r
−1
2
x ∈ R ak xk + 2hv, φ4 (x)i + c = 0
n
=
=
k=1
(
)
X
r
2
x ∈ R ak xk + 2hφ4 (v), xi + c = 0
n
=
k=1
(
)
X
r
2
x ∈ R ak xk + 2λher+1 , xi + c = 0
n
(
=
k=1
)
X
r
2
x ∈ R ak xk + 2λxr+1 + c = 0
n
k=1
c
). Wenden wir auf Q die Translation φ5 : Rn → Rn , x 7→ x −
Weiter gilt 2λxr+1 + c = 2λ(xr+1 + 2λ
an, dann hat Q5 = φ5 (Q4 ) die Form
c
2λ er+1
(
Q5
=
)
X
r
2
x∈R ak xk + 2λxr+1 = 0 .
n
k=1
Bringen wir nun noch den Term 2λxr+1 auf die andere Seite der Gleichung und dividieren durch −λ, dann
hat die Quadrik Q5 die Form (iii).
Klassifikation der ebenen Quadriken
Eine Quadrik im R2 bezeichnet man auch als Kegelschnitt. Nach Satz Satz 10.7 kann eine solche Quadrik nach
Anwendung einer Bewegung als Nullstellenmenge eines Polynoms der folgenden Typen dargestellt werden.
a1 x2 + a2 y 2 = 0 und a1 x2 + a2 y 2 = 1
a 1 x2 = 0 ,
a1 x2 = 1 und
a1 x2 = 2y
im Fall r = 2 ,
im Fall r = 1.
Berücksichtigt man noch die verschiedenen Möglichkeiten für das Vorzeichen der Koeffizienten a1 , a2 , so kommt
man insgesamt zu dem Ergebnis, dass die Quadrik durch eine der folgenden Gleichungen beschrieben wird. In der
Tabelle stehen a, b jeweils für zwei positive reelle Zahlen.
—– 79 —–
Nr.
Gleichung
Typ
(1)
x 2
a
+
y 2
b
=0
einzelner Punkt
(2)
x 2
a
−
y 2
b
=0
zwei sich schneidende Geraden
(3)
x 2
a
+
y 2
b
=1
Ellipse
(4)
x 2
a
−
y 2
b
=1
Hyperbel
(5)
x 2
a
y 2
b
+
= −1
leere Menge ∅
(6)
x2 = 0
einzelne Gerade
(7)
x 2
a
zwei parallele Geraden
=1
(8)
x 2
a
= −1
leere Menge ∅
(9)
x 2
a
= 2y
Parabel
Ergänzungen / Präzisierungen:
– Im Fall (1) gilt Q = {(0, 0)}.
– Im Fall (2) ist Q die Vereinigung der beiden Geraden bx + ay = 0 und bx + (−a)y = 0.
– Im Fall (6) ist Q die senkrechte Gerade x = 0.
– Im Fall (7) ist Q die Vereinigungsmenge der beiden Geraden x = a und x = −a.
Klassifikation der räumlichen Quadriken
Nach Satz Satz 10.7 kann eine Quadrik Q ⊆ R3 nach Anwendung einer Bewegung als Nullstellenmenge eines Polynoms der folgenden Typen dargestellt werden.
a1 x2 + a2 y 2 + a3 z 2 = 0
a1 x2 + a2 y 2 + a3 z 2 = 1
2
(r = 3)
2
a1 x + a2 y = 0
a1 x2 + a2 y 2 = 1
a1 x2 + a2 y 2 = 2z
(r = 2)
a1 x2 = 0
a1 x2 = 1
a1 x2 = 2y
(r = 1)
Berücksichtigt man auch hier noch die verschiedenen Möglichkeiten für das Vorzeichen der Koeffizienten, so erhält
man die folgende Klassifikation (mit a, b, c ∈ R+ ).
—– 80 —–
Nr.
Gleichung
Typ
(1)
x 2
a
+
y 2
b
+
z 2
c
=0
einzelner Punkt
(2)
x 2
a
+
y 2
b
−
z 2
c
=0
elliptischer Doppelkegel
(3)
x 2
a
+
y 2
b
+
z 2
c
=1
Ellipsoid
(4)
x 2
a
+
y 2
b
−
z 2
c
=1
einschaliges Hyperboloid
(5)
x 2
a
−
y 2
b
−
z 2
c
=1
zweischaliges Hyperboloid
(6)
x 2
a
y 2
b
+
+
z 2
c
= −1
leere Menge ∅
(7)
x 2
a
+
y 2
b
=0
z-Achse
(8)
x 2
a
−
y 2
b
=0
Vereinigung zweier sich schneidender Ebenen
(9)
x 2
a
+
y 2
b
=1
elliptischer Zylinder
(10)
x 2
a
−
y 2
b
=1
hyperbolischer Zylinder
(11)
x 2
a
−
y 2
b
= −1
leere Menge ∅
(12)
x 2
a
+
y 2
b
= 2z
elliptisches Paraboloid
(13)
x 2
a
−
y 2
b
= 2z
Sattelfläche
(14)
x2 = 0
Ebene x = 0
(15)
x 2
a
Vereinigung zweier paralleler Ebenen
=1
(16)
x 2
a
= −1
leere Menge ∅
(17)
x 2
a
= ±2y
parabolischer Zylinder
Ergänzungen / Präzisierungen:
– Im Fall (1) gilt Q = {(0, 0, 0)}.
– Im Fall (8) ist Q die Vereinigung der Ebenen bx + ay = 0 und bx − ay = 0.
– Im Fall (15) ist Q die Vereinigung der Ebenen x = a und x = −a.
—– 81 —–
Als weiteres Beispiel für eine Anwendung symmetrischer, indefiniter Bilinearformen werfen wir einen Blick auf das
mathematische Modell der Speziellen Relativitätstheorie (SRT).
Definition 10.8
Eine (flache) Raumzeit ist ein Tripel (V, b, v0 ) bestehend aus einem vierdimensionalen R-Vektorraum V , einer nicht-ausgearteten, symmetrischen Bilinearform b auf V von Index 1 und
Signatur −2 und einem Vektor v0 ∈ V mit b(v0 , v0 ) = 1. Die Vektoren in V werden Ereignisse genannt.
Definition 10.9
Sei (V, b, v0 ) eine Raumzeit. Ein Vektor v ∈ V heißt
(i) zeitartig, wenn b(v, v) > 0
(ii) raumartig, wenn v = 0V oder b(v, v) < 0
(iii) lichtartig, wenn v =
6 0V und b(v, v) = 0 gilt.
Ist v ∈ V ein zeitartiger Vektor mit b(v, v0 ) > 0, dann bezeichnen wir v als zukunftsgerichtet,
p sonst als
vergangenheitsgerichtet. Wir definieren auf V eine Abbildung k kb : V → R+ durch kvkb = |b(v, v)|.
Seien v1 , v2 ∈ V . Ist v2 − v1 zeitartig, dann interpretiert man kv2 − v1 kb als die „verstrichene Zeit“ zwischen den
Ereignissen v1 und v2 . Ist v2 − v1 raumartig, dann ist kv2 − v1 kb der räumliche Abstand zwischen v1 und v2 .
Definition 10.10 Ein Beobachter in einer Raumzeit (V, b, v0 ) ist eine stetige Abbildung γ : I → V auf
einem endlichen oder unendlichen offenen Intervall I ⊆ R mit folgenden Eigenschaften.
(i) Die Funktion γ ist stückweise stetig differenzierbar.
(ii) Sei t ∈ I ein Punkt, in dem γ stetig differenzierbar ist. Dann mit γ 0 (t) zeitartig und zukunftsgerichtet. Außerdem gilt kγ 0 (t)kb = 1.
Sind t1 , t2 ∈ I mit t1 < t2 , dann nennt man t2 − t1 die für den Beobachter γ zwischen den Ereignissen
γ(t1 ) und γ(t2 ) verstrichene Eigenzeit. Den affinen Unterraum γ(t1 ) + γ 0 (t1 )⊥ von V nennt man den
Gleichzeitigkeitsraum des Beobachters γ zum Zeitpunkt t1 .
Sind v1 , v2 zwei Elemente dieses Unterraums, dann nennen wir kv2 − v1 kb den von γ wahrgenommenen
räumlichen Abstand der Ereignisse v1 und v2 .
Eine wesentliche Aussage der SRT besteht darin, dass sowohl zeitliche und räumliche Abstände von Ereignissen als
auch die Gleichzeitigkeit von Ereignissen vom Beobachter abhängig ist. Die Gleichzeitigkeitsräume eines Beobachters
γ bestehen jeweils aus den Ereignissen, die aus der Perspektive von γ gleichzeitig eintreten. Die Eigenzeit ist die vom
Beobachter γ gemessene Zeit zwischen zwei Ereignissen. Treten v1 und v2 aus Sicht von γ gleichzeitig ein (liegen
sie also im selben Gleichzeitigkeitsraum von γ), dann ist kv2 − v1 kb der räumliche Abstand, den γ zwischen diesen
beiden Ereignissen wahrnimmt.
Wir sagen, ein Beobachter γ : I → V befindet sich in einer gleichförmigen Bewegung, wenn γ auf ganz I stetig
differenzierbar und γ 0 (t) auf I konstant ist.
—– 82 —–
Proposition 10.11 Sei (V, b, v0 ) eine Raumzeit und γ : I → V ein gleichförmig bewegter Beobachter.
Seien t1 , t2 ∈ I mit t1 < t2 . Dann gilt t2 − t1 = kγ(t2 ) − γ(t1 )kb .
Beweis: Sei v ∈ V der zeitartige Vektor gegeben durch v = γ 0 (t) für alle t ∈ I. Nach Definition eines
Beobachters ist kvkb = 1. Weil die Ableitung γ 0 konstant ist, gilt γ(t) = γ(t1 ) + tv für alle t ∈ I. Es folgt
γ(t2 ) − γ(t1 ) = (t2 − t1 )v und somit
b(γ(t2 ) − γ(t1 ), γ(t2 ) − γ(t1 ))
=
=
b((t2 − t1 )v, (t2 − t1 )v)
(t2 − t1 )2 kvk2b
=
(t2 − t1 )2 b(v, v)
(t2 − t1 )2 .
=
Wegen t2 − t1 > 0 erhalten wir t2 − t1 = kγ(t2 ) − γ(t1 )kb .
Wir verwenden nun unser Modell, um einige aus der SRT bekannte physikalische Phänomene darzustellen. Sei
V = R4 und b : V × V → V die Bilinearform mit der Darstellungsmatrix A = diag(1, −1, −1, −1) bezüglich der
Einheitsbasis. Sind x, y ∈ R4 , dann gilt also

 
1 0
0
0
y1
0 −1 0
 y2 
0
 
b(x, y) = (x1 , x2 , x3 , x4 ) 
0 0 −1 0  y3  = x1 y1 − x2 y2 − x3 y3 − x4 y4 .
0 0
0 −1
y4
(i) Zeitdilatation
Seien die Beobachter γ1 , γ2 : R → V gegeben durch
γ1 (t) = t (t, 0, 0, 0) und
γ2 (t) = √
1
t
(t, vt, 0, 0)
1 − v2
für allet ∈ R.
Dies lässt sich so interpretieren, dass der Beobachter γ1 bewegungslos und γ2 mit einer Geschwindigkeit v
gleichförmig bewegt ist, wobei 0 ≤ v < 1 ist. (Dabei sind die Einheiten immer so gewählt, dass v = 1 der Lichtgeschwindigkeit entspricht.) Wir betrachten nun die beiden Ereignisse v1 = t (1, 0, 0, 0) und v2 = t (2, 0, 0, 0),
die man sich zum Beispiel als Lichtblitze am Standort der Beobachters γ1 vorstellen kann. Unsere Rechnung
wird ergeben, dass γ2 zwischen den Ereignissen v1 und v2 einen längeren zeitlichen Abstand registriert als γ1 .
Bestimmen wir zunächst den zeitlichen Abstand, der vom Beobachter γ1 wahrgenommen wird. Das Ereignis
v1 wird von γ1 zum Zeitpunkt t registiert, wenn v1 im Gleichzeitigkeitsraum γ1 (t) + γ10 (t)⊥ enthalten ist. Nun
gilt jedes t ∈ R gilt die Äquivalenz
v1 ∈ γ1 (t) + γ10 (t)⊥
⇔
(v1 − γ1 (t)) ⊥ γ10 (t)
b(t (1 − t, 0, 0, 0), t (1, 0, 0, 0)) = 0
⇔
⇔
b(v1 − γ1 (t), γ10 (t)) = 0
1−t=0
⇔
⇔
t=1
und ebenso
v2 ∈ γ1 (t) + γ10 (t)⊥
⇔
(v2 − γ1 (t)) ⊥ γ10 (t)
b(t (2 − t, 0, 0, 0), t (1, 0, 0, 0)) = 0
⇔
⇔
b(v2 − γ1 (t), γ10 (t)) = 0
2−t=0
⇔
⇔
t = 2.
Die beiden Ereignisse v1 , v2 werden von γ1 also zu den Zeitpunkten t1 = 1 und t2 = 2 registriert. Die für γ1
verstrichene Eigenzeit zwischen v1 und v2 beträgt also t2 − t1 = 1.
—– 83 —–
Nun bestimmen wir den zeitlichen Abstand zwischen v1 und v2 , der vom Beobachter γ2 gemessen wird. Hier
müssen wir nachrechnen, für welche t ∈ R die Punkte v1 bzw. v2 im Gleichzeitigkeitsraum γ2 (t) + γ20 (t)⊥ von
γ2 liegen. Für jedes t ∈ R gilt die Äquivalenz
v1 ∈ γ2 (t) + γ20 (t)⊥ ⇔ (v1 − γ2 (t)) ⊥ γ20 (t) ⇔ b(v1 − γ2 (t), γ20 (t)) = 0
1
1
t
t
t
(t, vt, 0, 0), √
(1, v, 0, 0) = 0 ⇔
b (1, 0, 0, 0) − √
1 − v2
1 − v2
p
b t ( 1 − v 2 − t, −vt, 0, 0), t (1, v, 0, 0) = 0 ⇔
p
1 − v2 − t + v2 t = 0
⇔
p
1 − v 2 = (1 − v 2 )t
t= √
⇔
⇔
1
1 − v2
und ebenso
v2 ∈ γ2 (t) + γ20 (t)⊥ ⇔ (v2 − γ2 (t)) ⊥ γ20 (t) ⇔ b(v2 − γ2 (t), γ20 (t)) = 0
1
1
t
t
t
b (2, 0, 0, 0) − √
(t, vt, 0, 0), √
(1, v, 0, 0) = 0 ⇔
1 − v2
1 − v2
p
b t (2 1 − v 2 − t, −vt, 0, 0), t (1, v, 0, 0) = 0 ⇔
p
2 1 − v2 − t + v2 t = 0
⇔
2
p
1 − v 2 = (1 − v 2 )t
⇔
t= √
⇔
2
1 − v2
Setzen wir βv = (1 − v 2 )−1/2 , dann werden die beiden Ereignisse v1 , v2 werden von γ2 also zu den Zeitpunkten
t̃1 = βv und t̃2 = 2βv wahrgenommen. Die für γ2 zwischen v1 und v2 verstrichene Eigenzeit t̃2 − t̃1 ist also um
den Faktor βv länger als bei γ1 . Dieser „Dilatationsfaktor“ ist umso größer, je höher die Geschwindigkeit v von
γ2 ist (im Extremfall v = c wäre sie sogar „unendlich groß“).
(ii) Relativität der Gleichzeitigkeit
Seien die Beobachter γ1 , γ2 definiert wie im letzten Beispiel. Diesmal betrachten wir die Ereignisse v1 =
t
(0, −1, 0, 0) und v2 = t (0, 1, 0, 0) und untersuchen, in welcher zeitlichen Reihenfolge diese von den beiden
Beobachtern wahrgenommen werden. Für alle t ∈ R gilt die Äquivalenz
v1 ∈ γ1 (t) + γ10 (t)⊥
⇔
(v1 − γ1 (t)) ⊥ γ10 (t)
⇔
b(v1 − γ1 (t), γ10 (t)) = 0
b(t (0, −1, 0, 0) − t (t, 0, 0, 0), t (1, 0, 0, 0)) = 0
b(t (−t, −1, 0, 0), t (1, 0, 0, 0)) = 0
⇔
−t = 0
⇔
⇔
⇔
t = 0.
Also wird das Ereignis v1 von γ1 zum Zeitpunkt t1 = 0 wahrgenommen. Ebenso gilt
v2 ∈ γ1 (t) + γ10 (t)⊥
⇔
(v2 − γ1 (t)) ⊥ γ10 (t)
⇔
b(v2 − γ1 (t), γ10 (t)) = 0
b(t (0, 1, 0, 0) − t (t, 0, 0, 0), t (1, 0, 0, 0)) = 0
b(t (−t, 1, 0, 0), t (1, 0, 0, 0)) = 0
⇔
−t = 0
⇔
⇔
⇔
t = 0.
Das Ereignis v2 wird von γ1 zum Zeitpunkt t2 = 0 registriert. Es gilt t1 = t2 , die beiden Ereignisse werden von
γ1 also gleichzeitig wahrgenommen.
—– 84 —–
Nun betrachten wir das Geschehen aus der Perspektive von γ2 . Für alle t ∈ R gilt
v1 ∈ γ2 (t) + γ20 (t)⊥ ⇔ (v1 − γ2 (t)) ⊥ γ20 (t) ⇔ b(v1 − γ2 (t), γ20 (t)) = 0
1
1
t
t
(t, vt, 0, 0), √
(1, v, 0, 0) = 0 ⇔
b t (0, −1, 0, 0) − √
1 − v2
1 − v2
p
b
1 − v 2 t (0, −1, 0, 0) − t (t, vt, 0, 0), t (1, v, 0, 0) = 0 ⇔
⇔
p
p
b(t (−t, − 1 − v 2 − vt, 0, 0), t (1, v, 0, 0)) = 0 ⇔ −t + v 1 − v 2 + v 2 t = 0
p
v
.
t(1 − v 2 ) = v 1 − v 2 ⇔ t = √
1 − v2
⇔
Der Beobachter γ2 registriert v1 also zum Zeitpunkt t1 =
√ v
.
1−v 2
Ebenso gilt
v2 ∈ γ2 (t) + γ20 (t)⊥ ⇔ (v2 − γ2 (t)) ⊥ γ20 (t) ⇔ b(v2 − γ2 (t), γ20 (t)) = 0
1
1
t
t
t
b (0, 1, 0, 0) − √
(t, vt, 0, 0), √
(1, v, 0, 0) = 0 ⇔
1 − v2
1 − v2
p
1 − v 2 t (0, 1, 0, 0) − t (t, vt, 0, 0), t (1, v, 0, 0) = 0 ⇔
b
b(t (−t,
p
p
1 − v2 + v2 t = 0
1 − v 2 − vt, 0, 0), t (1, v, 0, 0)) = 0
⇔
−t − v
p
1 − v2
⇔
(−v)
t= √
.
1 − v2
t(1 − v 2 ) = −v
⇔
⇔
Das Ereignis v2 wird also zum Zeitpunkt t2 = √(−v)
registriert. Wegen t2 < t1 nimmt γ2 die beiden Ereignisse
1−v 2
nicht gleichzeitig wahr, sondern v2 tritt aus seiner Sicht früher als v1 ein.
(iii) Zwillingsparadoxon
Hier stellen wir die folgenden beiden Perspektiven gegenüber: Der erste Beobachter γ1 bleibt in unserem Koordinatensystem ortsfest (auf der Erde), er wird also wie zuvor dargestellt durch die Abbildung γ1 : R → R4 ,
t 7→ (t, 0, 0, 0). Der zweite Beobachter tritt zum Zeitpunkt t = 0 eine Reise an (zum Beispiel zu einem unserer
Nachbarsterne), kehrt nach einer gewissen Zeit α um und trifft zum Zeitpunkt 2α wieder auf der Erde ein.
Dies wird dargestellt durch die Funktion

1

t
√
(t, vt, 0, 0)
für 0 ≤ t ≤ α


2

1
−
v

1
t
γ2 (t) =
√
(t, v(2α − t), 0, 0) für α ≤ t ≤ 2α


1 − v2



t (t, 0, 0, 0)
sonst
Für uns sind in diesem Szenario drei Ereignisse interessant: Die „Abreise“ von γ2 gegeben durch
v1
=
γ1 (0)
=
γ2 (0)
=
t
(0, 0, 0, 0) ,
die „Ankunft“ von γ2 auf Alpha Centauri gegeben durch
v2
=
γ2 (α)
=
√
—– 85 —–
1
t
(α, vα, 0, 0)
1 − v2
und die „Rückkehr“ von γ2 zur Erde gegeben durch
2α
=
v3 = γ 1 √
1 − v2
An den unterschiedlichen Zeitkoordinaten
√ 2α
1−v 2
2 −1/2
den Zwilling“) die Zeit um den Faktor (1−v )
Zwilling“).
γ2 (2α)
=
t
√ 2α , 0, 0, 0
1−v 2
und 2α sieht man, dass für den Beobachter γ2 (den „reisenlangsamer vergangen ist als für γ1 (den „daheimgebliebenen
Nach Prop. 10.11 wird die aus Sicht von γ1 verstrichene Zeit durch die Länge des zeitartigen Vektors v3 − v1
angegeben, denn γ1 ist während des gesamten Vorgangs gleichförmig bewegt. Dagegen erhält man die aus
Sicht von γ2 verstrichene Zeit durch kv2 − v1 kb + kv3 − v2 kb , denn γ2 ist nur zwischen den Punkte v1 und v2
bzw. v2 und v3 jeweils gleichförmig bewegt. Es gilt
kv3 − v1 kb
=
k(v2 − v1 ) + (v3 − v2 )kb
=
√
2α
1 − v2
>
2α
=
kv2 − v1 kb + kv3 − v2 kb .
Allgemein gilt für zeitartige Vektoren in einer Raumzeit die „umgekehrte Dreiecksungleichung“:
Der direkte Weg von v1 nach v3 ist länger als der Umweg über den Punkt v2 !
—– 86 —–
§ 11.
Faktorräume und Tensorprodukte
Wichtige Begriffe und Sätze in diesem Abschnitt
–
–
–
–
–
Äquivalenzrelationen
Definition der Faktorräume
Homomorphiesatz und Dimension der Faktorräume
Existenz und Eindeutigkeit des Tensorprodukts
Eigenschaften der Tensorprodukte
Definition 11.1
Eine Relation ∼ auf einer Menge X wird Äquivalenzrelation genannt, wenn sie
folgende Eigenschaften besitzt.
(i) ∀x ∈ X : x ∼ x (Reflexivität)
(ii) ∀x, y ∈ X : x ∼ y ⇒ y ∼ x (Symmetrie)
(iii) ∀x, y, z ∈ X : x ∼ y und y ∼ z ⇒ x ∼ z (Transitivität)
Die Bedeutung der Äquivalenzrelationen lässt sich intuitiv leichter erfassen, wenn man sich klarmacht, dass jede
solche Relation ∼ auf einer Menge X einfach einer Zerlegung von X in Teilmengen entspricht.
Definition 11.2 Sei X eine Menge und P(X) ihre Potenzmenge, also die Menge der Teilmengen von
X. Eine Teilmenge Z ⊆ P wird Zerlegung von X genannt, wenn folgende Bedingungen erfüllt sind.
(i) Alle Mengen in Z sind nichtleer, es gilt also ∅ ∈
/ Z.
(ii) Für jedes x ∈ X gibt es ein A ∈ Z mit x ∈ A.
(iii) Für alle A, B ∈ Z mit A 6= B gilt A ∩ B = ∅.
Die Bedingungen (ii) und (iii) lassen sich durch die Aussage zusammenfassen, dass für jedes x ∈ X
jeweils genau ein A ∈ Z mit x ∈ A existiert. Zwei Mengen in einer Zerlegung sind also entweder disjunkt
oder gleich.
Satz 11.3
Sei X eine Menge.
(i) Sei Z eine Zerlegung von X. Dann ist durch x ∼Z y ⇔ ∃A ∈ Z : x, y ∈ A eine Äquivalenzrelation
auf X definiert.
(ii) Sei umgekehrt ∼ eine Äquivalenzrelation auf X. Dann bilden die Teilmengen der Form [x]∼ =
{z ∈ X | x ∼ z} eine Zerlegung Z∼ von X.
(iii) Die Zuordnungen Z 7→∼Z und ∼7→ Z∼ zwischen den Zerlegungen von X einerseits und den
Äquivalenzrelationen auf X andererseits sind zueinander invers.
Die Teilmengen der Form [x]∼ von X werden Äquivalenzklassen der Äquivalenzklassen ∼ genannt. Für
alle x, y ∈ X gilt [x]∼ = [y]∼ ⇔ x ∼ y.
Beweis: zu (i) Wir müssen die drei definierenden Eigenschaften einer Äquivalenzrelation für ∼Z überprüfen. Ist x ∈ X vorgegeben, dann gibt es auf Grund der Eigenschaft (ii) einer Zerlegung ein A ∈ Z mit
x ∈ A. Daraus folgt x ∼Z x. Also ist ∼Z reflexiv. Seien nun x, y ∈ X mit x ∼Z y vorgegeben. Dann gibt
es ein A ∈ Z mit x, y ∈ A. Es folgt y, x ∈ A und damit y ∼Z x. Damit ist die Symmetrie von ∼Z nachgewiesen. Seien schließlich x, y, z mit x ∼Z y und y ∼Z z vorgegeben. Dann gibt es Mengen A, B ∈ Z mit
x, y ∈ A und y, z ∈ B. Aus y ∈ A ∩ B folgt A = B auf Grund der Eigenschaft (iii) einer Zerlegung. Daraus
folgt x, z ∈ A und x ∼Z z. Dies zeigt, dass die Relation ∼Z auch transitiv ist.
zu (ii) Wir überprüfen für Z∼ = {[x]∼ | x ∈ X} die drei Eigenschaften einer Zerlegung. Jede Menge
A ∈ Z∼ hat die Form A = [x]∼ für ein x ∈ X, und wegen x ∼ x ist x in A enthalten. Dies zeigt, dass
alle Mengen in Z∼ nichtleer sind. Für jedes x ∈ X gibt es ein A ∈ Z∼ mit x ∈ A, nämlich die Menge
A = [x]∼ . Also ist auch die Bedingung (ii) für eine Zerlegung erfüllt. Zum Nachweis der Eigenschaft (iii)
seien A, B ∈ Z∼ mit A ∩ B 6= ∅ vorgegeben. Nach Definition von Z∼ gibt es x, z ∈ X mit A = [x]∼ und
B = [z]∼ . Sei y ein beliebiges Element im Durchschnitt [x]∼ = [z]∼ . Wir zeigen, dass
[x]∼
=
[y]∼
gilt.
„⊆“ Ist u ∈ [x]∼ , dann gilt x ∼ u nach Definition von [x]∼ , somit auch u ∼ x. Wegen y ∈ [x]∼ gilt x ∼ y.
Aus u ∼ x und x ∼ y folgt u ∼ y und y ∼ u. Damit ist u in [y]∼ enthalten. „⊇“ Sei u ∈ [y]∼ vorgegeben.
Dann gilt y ∼ u. Aus x ∼ y und y ∼ u folgt x ∼ u und damit u ∈ [x]∼ .
Ebenso folgt aus y ∈ [z]∼ die Identität [y]∼ = [z]∼ . Insgesamt ist damit A = [x]∼ = [z]∼ = B nachgewiesen.
zu (iii) Sei Z eine Zerlegung, ∼ = ∼Z die zu Z gehörende Äquivalenzrelation und W die zu ∼ gehörende
Zerlegung. Zu zeigen ist Z = W. „⊆“ Sei A ∈ Z vorgegeben und x ∈ A. Wir zeigen, dass A = [x]∼ gilt
und A somit in W liegt. Ist y ∈ A, dann gilt x ∼ y nach Definition von ∼. Daraus wiederum folgt y ∈ [x]∼
nach Definition von [x]∼ . Ist umgekehrt y ∈ [x]∼ , dann folgt x ∼ y. Es gibt also ein B ∈ Z mit x, y ∈ B.
Wegen x ∈ A ∩ B muss A = B gelten. Daraus folgt y ∈ A.
„⊇“ Sei A ∈ W. Zu zeigen ist, dass A in Z liegt. Nach Definition von W gibt es ein x ∈ X mit A = [x]∼ .
Weil Z eine Zerlegung von X ist, existiert ein B ∈ Z mit x ∈ B. Wir zeigen, dass A = B gilt. Liegt y ∈ A,
dann gilt x ∼ y, und folglich existiert eine Menge C ∈ Z mit x, y ∈ C. Aus x ∈ B ∩ C folgt B = C. Also ist
auch y in B enthalten. Sei nun umgekehrt y ∈ B vorgegeben. Dann folgt x ∼ y und somit x ∈ A. Damit ist
A = B nachgewiesen, und wir erhalten A ∈ Z wie gewünscht.
Sei nun ∼ eine Äquivalenzrelation, Z = Z∼ die zugehörige Zerlegung und ∼
= die zu Z gehörende Äquivalenzrelation. Zu zeigen ist
x∼y ⇔ x∼
für alle x, y ∈ X.
=y
„⇒“ Seien x, y ∈ X mit x ∼ y vorgegeben. Dann gilt y ∈ [x]∼ . aus y ∈ [x]∼ ∩ [y]∼ folgt [x]∼ = [y]∼ ,
außerdem ist die Menge A = [x]∼ in Z enthalten, nach Definition von Z. Es gibt also ein A ∈ Z mit
x, y ∈ A. Daraus folgt x ∼
= y nach Definition der Relation ∼
=. „⇐“ Seien x, y ∈ X mit x ∼
= y vorgegeben.
Dann gibt es ein A ∈ Z mit x, y ∈ A. Nach Definition von Z gibt es ein z ∈ X mit A = [z]∼ . Aus x ∈ [z]∼
folgt z ∼ x und x ∼ z, und aus y ∈ [z]∼ folgt z ∼ y. Aus x ∼ z und z ∼ y folgt wiederum x ∼ y.
In der Zusatzbemerkung des Satzes folgt „⇐“ aus y ∈ [y]∼ = [x]∼ und die Richtung „⇒“ aus x ∈ [x]∼ ∩[y]∼
und der Tatsache, dass die Äquivalenzklassen eine Zerlegung von X bilden.
—– 88 —–
Wir werden das Konzept der Äquivalenzrelation nun verwenden, um einen neuen Typ von Vektorräumen
zu definieren.
Proposition 11.4
Sei K ein Körper, V ein K-Vektorraum und U ein Untervektorraum. Dann ist durch
v ∼U w
⇔
v−w ∈U
eine Äquivalenzrelation auf V definiert. Die Äquivalenzklassen von ∼U sind genau die Teilmengen von
V der Form v + U = {v + u | u ∈ U }, wobei v die Elemente von V durchläuft.
Beweis: Wir überprüfen für ∼U die drei Eigenschaften einer Äquivalenzrelation. Für jedes v ∈ V gilt
v − v = 0V ∈ U und somit v ∼U v. Also ist die Relation ∼U reflexiv. Seien v, w ∈ V mit v ∼U w vorgegeben.
Dann gilt v − w ∈ U . Weil U ein Untervektorraum von V ist, folgt w − v = −(v − w) ∈ U und somit w ∼U v.
Dies zeigt, dass ∼U auch symmetrisch ist. Seien nun u, v, w ∈ V mit u ∼U v und v ∼U w vorgegeben. Dann
gilt u−v ∈ U und v−w ∈ U . Aus der Untervektorraum-Eigenschaft von U folgt u−w = (u−v)+(v−w) ∈ U
und somit u ∼U w. Damit ist die Transitivität von ∼U nachgewiesen.
Um die Aussage über die Äquivalenzklassen zu zeigen, sei v ∈ V vorgegeben. Für jeden Vektor w ∈ W
gilt die Äquivalenz
w ∈ [v]∼U
⇔
v ∼U w
⇔
v−w ∈U
⇔
∃u ∈ U : w = v + u
⇔
w ∈ v + U.
Damit ist die Gleichung [v]∼U = v + U nachgewiesen.
Wir fassen die Äquivalenzklassen bezüglich der Relation ∼U zu einer Menge V /U zusammen. Es gilt also
V /U
=
{v + U | v ∈ V }.
Man beachte, dass aus v + U = w + U im allgemeinen nicht v = w folgt. Vielmehr gilt die Äquivalenz
v+U =w+U
⇔
⇔
[v]∼U = [w]∼U
v ∼U w
⇔
v − w ∈ U.
Unser nächstes Ziel besteht darin, auf der Menge V /U eine K-Vektorraum-Struktur zu definieren.
Proposition 11.5 Sei V ein K-Vektorraum und U ⊆ V ein Untervektorraum. Dann gibt es eindeutig
bestimmte Abbildungen
+U : V /U × V /U → V /U
und
·U : K × V /U → V /U
so dass
(v + U ) +U (w + U )
=
(v + w) + U
und
für alle v, w ∈ V und alle λ ∈ K erfüllt ist.
—– 89 —–
λ ·U (v + U )
=
(λv) + U
Beweis: Die Eindeutigkeit der Abbildungen +U und ·U ist klar, da sie durch die angegebenen Bedingungen auf dem gesamten Definitionsbereich V /U × V /U bzw. K × V /U eindeutig festgelegt sind. Zum
Nachweis der Existenz wählen wir für jedes A ∈ V /U ein ausgezeichnetes Element vA und definieren die
Abbildungen +U und ·U durch
A +U B
=
(vA + vB ) + U
und
λ ·U A
=
(λvA ) + U
für alle A, B ∈ V /U und alle λ ∈ K. Zu zeigen ist nun, dass diese beiden Abbildungen die im Satz
angegebenen Bedingungen erfüllen.
Seien v, w ∈ V vorgegeben. Setzen wir A = v + U und B = w + U , dann folgen aus vA ∈ A und vB ∈ B die
Gleichungen v + U = vA + U und w + U = vB + U . Nach Definition der Abbildung +U gilt
(v + U ) + (w + U )
=
(vA + U ) + (vB + U )
=
(vA + vB ) + U.
Aus v + U = vA + U und w + U = vB + U folgt v − vA ∈ U und w − vB ∈ U . Damit ist auch der Vektor
(v + w) − (vA + vB )
=
(v − vA ) + (w − vB )
in U enthalten. Daraus folgt (v + U ) + (w + U ) = (vA + vB ) + U = (v + w) + U wie gewünscht.
Sei nun v ∈ V und λ ∈ K. Zu zeigen ist λ ·U (v + U ) = (λv) + U . Setzen wir wieder A = v + U , dann gilt
v + U = vA + U und somit v − vA ∈ U . Nach Definition der Abbildung ·U gilt
λ ·U (v + U )
=
(λvA ) + U.
Nun ist mit v − vA auch der Vektor λv − λvA = λ(v − vA ) in U enthalten. Daraus folgt λ ·U (v + U ) =
(λvA ) + U = (λv) + U .
Satz 11.6
Das Tripel (V /U, +U , ·U ) mit den Abbildungen +U und ·U aus Prop. 11.5 ist ein KVektorraum. Man nennt ihn den Faktorraum V /U (gesprochen „V modulo U “).
Beweis: Wir überprüfen die folgenden Einzelaussagen, wobei wir fortwährend von den in Prop. 11.5
nachgewiesenen Eigenschaften der Abbildungen +U und ·U Gebrauch machen.
(i) Das Paar (V /U, +U ) ist eine abelsche Gruppe, wobei 0V + U das Neutralelement und für jedes v ∈ V das
Element (−v) + U jeweils das Inverse von v + U ist.
(ii) Es gilt (λ + µ) ·U (v + U ) = λ ·U (v + U ) +U µ ·U (v + U ) für alle λ, µ ∈ K und v ∈ V .
(iii) Es gilt λ ·U ((v + U ) +U (w + U )) = λ ·U (v + U ) +U λ ·U (w + U ) für alle λ ∈ K und v, w ∈ V .
(iv) Es gilt λ ·U (µ ·U (v + U )) = (λµ) ·U (v + U ) für alle λ, µ ∈ K und v ∈ V .
(v) Für alle v ∈ V gilt 1K ·U (v + U ) = v + U .
—– 90 —–
zu (i) Seien da u, v, w ∈ V vorgegeben. Zunächst beweisen wir das Assoziativgesetz. Es gilt
((u + U ) +U (v + U )) +U (w + U )
((u + v) + w) + U
=
=
(u + (v + w)) + U
((u + v) + U ) +U (w + U )
=
=
(u + U ) +U ((v + w) + U )
=
(u + U ) +U ((v + U ) +U (w + U )).
Ebenso führt man das Kommutativitätsgesetz durch die Rechnung (v + U ) +U (w + U ) = (v + w) + U =
(w + v) + U = (w + U ) +U (v + U ) auf die Kommutativität von (V, +) zurück. Wegen (v + U ) +U (0V + U ) =
(v + 0V ) + U = v + U ist 0V + U das Neutralelement in (V /U, +U ). Die Rechnug (v + U ) +U ((−v) + U ) =
(v + (−v)) + U = 0V + U zeigt, dass (−v) + U das zu v + U inverse Element ist.
Zum Nachweis der übrigen vier Eigenschaften seien v, w ∈ V und λ, µ ∈ K vorgegeben.
zu (ii) Diese Gleichung erhält man durch die Rechnung
(λ + µ) ·U (v + U )
=
(λ + µ)v + U
(λv + U ) +U (µv + U )
=
(λv + µv) + U
=
λ ·U (v + U ) +U µ ·U (v + U ).
=
zu (iii) Es gilt
λ ·U ((v + U ) +U (w + U ))
(λv + λw) + U
=
=
λ ·U ((v + w) + U )
(λv + U ) +U (λw + U )
=
=
λ(v + w) + U
=
λ ·U (v + U ) +U λ ·U (w + U ).
zu (iv) Auch diese Gleichung beweist man durch Zurückführung auf die entsprechende Eigenschaft des
Vektorraums V . Es gilt
λ ·U (µ ·U (v + U ))
=
λ ·U (µv + U )
=
λ(µv) + U
=
(λµ)v + U
=
(λµ) ·U (v + U ).
zu (v) Es gilt 1K ·U (v + U ) = (1K v) + U = v + U .
Proposition 11.7
Sei (V, +, ·) ein K-Vektorraum und U ein Untervektorraum von V . Dann ist die
Abbildung πU : V → V /U gegeben durch πU (v) = v + U für alle v ∈ V linear und surjektiv. Man nennt
sie die den kanonischen Epimorphismus zum Untervektorraum U . Es gilt ker(πU ) = U .
Beweis:
Zum Nachweis der Linearität seien v, w ∈ V und λ ∈ K vorgegeben. Es gilt
πU (v + w)
=
(v + w) + U
=
(v + U ) +U (w + U )
=
πU (v) + πU (w)
und πU (λv) = λv + U = λ ·U (v + U ). Die Surjektivität von πU ist offensichtlich, denn jedes Element in
V /U kann in der Form v + U für ein v ∈ V dargestellt werden, und für dieses v gilt dann πU (v) = v + U .
Schließlich gilt für jedes v ∈ V die Äquivalenz
v ∈ ker(πU )
⇔
πU (v) = 0V /U
⇔
v + U = 0V + U
⇔
v ∈ U.
Damit ist die Gleichung ker(πU ) = U bewiesen.
Zur Vereinfachung der Notation verwenden wir für die Abbildungen +U und ·U des Vektorraums V /U von nun an
die Bezeichnungen + und ·. Aus der Existenz des kanonischen Epimorphismus folgt unmittelbar
—– 91 —–
Korollar 11.8
Ist V ein endlich-dimensionaler K-Vektorraum und U ein Untervektorraum von V ,
dann gilt dim(V /U ) = dim V − dim U .
Beweis:
Auf Grund des Dimensionssatzes für lineare Abbildungen gilt
dim V
Satz 11.9
=
dim ker(πU ) + dim im(πU )
=
dim U + dim(V /U ).
(Homomorphiesatz)
Seien V, W zwei K-Vektorräume und φ : V → W eine lineare Abbildung. Sei außerdem U ein Untervektorraum von V .
(i) Gilt U ⊆ ker(φ), dann gibt es eine eindeutig bestimmte lineare Abbildung φ̄ : V /U → W mit
φ̄(v + U ) = φ(v) für alle v ∈ V . Man bezeichnet sie als die von φ induzierte Abbildung.
/W
=
φ
V
πU
!
V /U
φ̄
(ii) Gilt sogar U = ker(φ), dann ist durch φ̄ ein Isomorphismus zwischen V /U und im(φ) definiert.
Beweis: zu (i) Die Eindeutigkeit von φ̄ ist klar, weil durch die geforderte Gleichung das Bild von φ für alle
Elemente v + U ∈ V /U eindeutig festgelegt ist. Zum Nachweis der Existenz wählen wir für jedes Element
A ∈ V /U einen Vektor vA ∈ A und definieren φ̄(A) = φ(vA ). Zu zeigen ist, dass dann φ̄(v + U ) = φ(v)
für alle v ∈ V erfüllt ist. Sei also v ∈ V vorgegeben und vA gewählte Element in A = v + U . Wegen
vA + U = v + U liegt vA − v in U ⊆ ker(φ), und somit gilt φ(vA − v) = 0W . Daraus folgt
φ̄(v + U )
=
φ̄(A)
=
φ(vA − v) + φ(v)
φ(vA )
=
=
φ((vA − v) + v)
0W + φ(v)
=
=
φ(v).
Wir müssen noch zeigen, dass φ̄ eine lineare Abbildung ist. Seien dazu v, w ∈ V und λ ∈ K vorgegeben.
Dann gilt
φ̄((v + U ) + (w + U ))
=
φ(v) + φ(w)
φ̄((v + w) + U )
=
=
φ(v + w)
=
φ̄(v + U ) + φ̄(w + U )
und φ̄(λ(v + U )) = φ̄(λv + U ) = φ(λv) = λφ(v) = λφ̄(v + U ).
zu (ii) Zunächst beweisen wir die Surjektivität von φ̄. Sei w ∈ im(φ) vorgegeben. Dann gibt es ein v ∈ V
mit φ(v) = w, und daraus folgt φ̄(v + U ) = φ(v) = w. Zum Nachweis der Injektivität sei v + U ∈ ker(φ̄)
vorgegeben, mit v ∈ V . Dann gilt φ(v) = φ̄(v+U ) = 0W und somit v ∈ ker(φ). Aus v ∈ U folgt v+U = 0V /U .
Damit ist ker(φ̄) = {0V /U } und die Injektivität von φ̄ nachgewiesen.
—– 92 —–
Definition 11.10
Seien U, V, W drei K-Vektorräume. Eine bilineare Abbildung ist eine Abbildung
β : V × W → U mit den Eigenschaften
(i)
β(v + v 0 , w) = β(v, w) + β(v 0 , w)
(ii)
(iii) β(v, w + w0 ) = β(v, w) + β(v, w0 )
β(λv, w) = λβ(v, w)
(iv) β(v, λw) = λβ(v, w)
für alle v, v 0 ∈ V , w, w0 ∈ W und λ ∈ K.
Die in §6 definierten Bilinearformen auf einem K-Vektorraum V sind also bilineare Abbildungen V × V → K.
Definition 11.11
Seien V, W zwei K-Vektorräume. Ein Tensorprodukt von V und W ist ein Paar
(V ⊗K W, β) bestehend aus einem K-Vektorraum V ⊗K W und einer bilinearen Abbildung
β : V × W −→ V ⊗K W
,
so dass die folgende universelle Eigenschaft erfüllt ist:
/: U
γ
V ×W
β
&
V ⊗K W
ψ
Ist (U, γ) ein weiteres Paar bestehend aus einem K-Vektorraum U und einer bilinearen Abbildung
γ : V × W → U , dann gibt es eine eindeutig bestimmte lineare Abbildung ψ : V ⊗K W → U mit der
Eigenschaft ψ ◦ β = γ.
Satz 11.12
(Eindeutigkeit des Tensorprodukts)
˜ K W, β̃) Tensorprodukte von V und W . Dann
Seien V, W zwei K-Vektorräume und (V ⊗K W, β), (V ⊗
gibt es einen eindeutig bestimmten Isomorphismus
˜ KW
φ : V ⊗K W −→ V ⊗
mit der Eigenschaft φ ◦ β = β̃.
Beweis: Aus der universellen Eigenschaft des Tensorprodukts folgt zunächst die Existenz einer eindeutig
˜ K W mit der Eigenschaft φ◦β = β̃. Zu zeigen ist, dass es
bestimmten linearen Abbildung φ : V ⊗K W → V ⊗
˜ K W, β̃) gibt
sich dabei um einen Isomorphismus handelt. Auf Grund der universellen Eigenschaft von (V ⊗
˜ K W → V ⊗K W mit ψ ◦ β̃ = β. Insgesamt gilt dann β = (ψ ◦ φ) ◦ β. Wegen
es eine lineare Abbildung ψ : V ⊗
der universellen Eigenschaft von (V ⊗K W, φ) gibt es nur eine lineare Abbildung ρ : V ⊗K W → V ⊗K W
mit ρ ◦ β = β, nämlich die identische Abbildung idV ⊗K W . Daraus folgt ψ ◦ φ = idV ⊗K W .
—– 93 —–
˜ K W, β̃)
Aus φ ◦ β = β̃ und ψ ◦ β̃ = β folgt auch (φ ◦ ψ) ◦ β̃ = β̃. Wegen der universellen Eigenschaft von (V ⊗
˜ KW → V ⊗
˜ K W mit τ ◦ β̃ = β̃, nämlich τ = idV ⊗
gibt es nur eine lineare Abbildung τ : V ⊗
.
Somit
gilt
˜ KW
φ ◦ ψ = idV ⊗
.
Zusammen
mit
ψ
◦
φ
=
id
folgt
daraus,
dass
durch
φ
ein
Isomorphismus
zwischen
˜ KW
V ⊗KW
˜ K W gegeben ist.
V ⊗K W und V ⊗
Um die Existenz des Tensorprodukts zweier Vektorräume zu beweisen, benötigen wir noch ein weiteres technisches
Hilfsmittel.
Proposition 11.13 Sei K ein Körper, X eine Menge und FX die Menge aller Abbildung α : X → K
mit der Eigenschaft, dass α(x) 6= 0K für höchstens endlich viele x ∈ X erfüllt ist. Dann bildet die Menge
FX zusammen mit den Abbildungen +FX : FX × FX → FX und ·FX : K × FX → FX gegeben durch
(λ ·FX α)(x) = λα(x)
und
(α +FX β)(x) = α(x) + β(x)
einen K-Vektorraum. Man nennt ihn den freien K-Vektorraum über der Menge X.
Beweis: Man überprüft unmittelbar, dass mit α, β ∈ FX und λ ∈ K auch die Elemente α +FX β und
λ ·FX α in FX enthalten sind. Auch die Überprüfung der Vektorraum-Axiome ist reine Routine.
Zur Vereinfachung der Notation verwenden wir die Symbole + und · an Stelle +FX und ·FX für die Vektoraddition
bzw. die skalare Multiplikation des K-Vektorraums FX . Für jedes x ∈ X existiert ein ausgezeichnetes Element εx ∈
FX gegeben durch
(
1K falls y = x
εx (y) =
0K sonst
Wir bezeichnen die Vektoren dieser Form als Einheitsvektoren in FX . Das folgende Lemma zeigt, dass die Einheitsvektoren ein Erzeugendensystem von FX bilden.
Lemma 11.14 Sei α ∈ FX und Y ⊆ X eine endliche Teilmenge mit der Eigenschaft, dass α(x) = 0K
P
für alle x ∈ X \ Y erfüllt ist. Sei λy = α(y) für alle y ∈ Y . Dann gilt α = y∈Y λy εy .
Beweis: Diese Gleichung kann direkt nachgerechnet werden. Sei β die Funktion auf der rechten Seite.
P
Ist x ∈ X \ Y , dann gilt α(x) = 0K =
y∈Y λy εy (x) = β(x). Ist dagegen x ∈ Y , dann erhalten wir
P
α(x) = λx · 1K = λx εx (x) = y∈Y λy εy (x) = β(x).
Satz 11.15
Sei X eine Menge und FX der freie K-Vektorraum über X.
/V
>
φ
X
x7→εx
!
φ̂
FX
Dann gibt es für jeden K-Vektorraum V und jede Abbildung φ : X → V eine eindeutig bestimmte
lineare Abbildung φ̂ : FX → V mit φ(x) = φ̂(εx ) für alle x ∈ X.
—– 94 —–
Beweis: Zunächst beweisen wir die Eindeutigkeit. Nehmen wir dazu an, dass φ̂ und φ̂1 zwei lineare
Abbildungen FX → V mit der angegebenen Eigenschaft sind. Sei α ∈ FX ein beliebiges Element und
Y ⊆ X eine endliche Teilmenge, so dass α(x) = 0K für alle x ∈ X \ Y gilt. Sei λy = α(y) für alle y ∈ Y . Auf
Grund des Lemmas gilt


X
X
X
φ̂(α) = φ̂ 
λy εy  =
λy φ̂(εy ) =
λy φ(y) =
y∈Y
y∈Y
y∈Y

X
λy φ̂1 (εy )
y∈Y
=
φ̂1 

X
λy εy 
=
φ̂1 (α).
y∈Y
Kommen wir nun zum Beweis der Existenz. Für jedes α ∈ FX wählen wir eine endliche Teilmenge Yα ⊆ X
mit α(x) = 0K für alle x ∈ X \ Yα und definieren
X
φ̂(α) =
α(y)φ(y).
y∈Yα
P
Offenbar gilt dann φ̂(α) = y∈Y α(y)φ(y) für jede endliche Teilmenge Y ⊆ X, bei der α(x) = 0K für alle
x ∈ X \ Y erfüllt ist. Insbesondere gilt
X
φ̂(εx ) =
εx (y)φ(y) = 1K · φ(x) = φ(x)
für alle x ∈ X.
y∈{x}
Es bleibt zu zeigen, dass es sich bei φ̂ : FX → V um eine lineare Abbildung handelt. Seien dazu λ ∈ K und
α, β ∈ FX vorgegeben. Dann gibt es eine endliche Teilmenge Y ⊆ X, so dass α(x) = 0K für alle x ∈ X \ Y
erfüllt ist. Wir erhalten
X
X
X
φ̂(α + β) =
(α + β)(y)φ(y) =
α(y)φ(y) +
β(y)φ(y) = φ̂(α) + φ̂(β)
y∈Y
und φ̂(λα) =
P
y∈Y
(λα)(y)φ(y) = λ
y∈Y
P
y∈Y
y∈Y
α(y)φ(y) = λφ̂(α). Damit ist die Linearität von φ̂ nachgewiesen.
Damit sind alle Vorbereitungen zur Konstruktion des Tensorprodukts abgeschlossen. Seien nun V, W zwei K-Vektorräume und FV ×W der freie K-Vektorraum über der Menge V × W . Sei S = S1 ∪ S2 ∪ S3 ∪ S4 die Teilmenge von
FV ×W gegeben durch
S1 =
ε(v+v0 ,w) − ε(v,w) − ε(v 0 , w) | v, v 0 ∈ V, w ∈ W
S2 =
ε(λv,w) − λε(v,w) | λ ∈ K, v ∈ V, w ∈ W
S3 =
ε(v,w+w0 ) − ε(v,w) − ε(v,w0 ) | v ∈ V, w, w0 ∈ W
S4 =
ε(v,λw) − λε(v,w) | λ ∈ K, v ∈ V, w ∈ W
Wir definieren V ⊗K W = FV ×W /hSiK und verwenden für jedes α ∈ FV ×W die Notation [α] jeweils als abkürzende
Schreibweise für das Element α + hSiK des Faktorraums V ⊗K W . Schließlich sei β : V × W → V ⊗K W die nach
Satz 11.15 eindeutig bestimmte lineare Abbildung mit β(v, w) = [ε(v,w) ] für alle v ∈ V und w ∈ W .
—– 95 —–
Satz 11.16
(Existenz des Tensorprodukts)
Das Paar (V ⊗K W, β) ist ein Tensorprodukt der K-Vektorräume V und W .
Beweis: Zunächst zeigen wir, dass β eine bilineare Abbildung ist. Seien v, v 0 ∈ V , w ∈ W und λ ∈ K
vorgegeben. Wegen ε(v+v0 ,w) − ε(v,w) − ε(v 0 , w) ∈ hSiK gilt
β(v + v 0 , w)
=
[ε(v+v0 ,w) ]
=
[ε(v,w) ] + [ε(v0 ,w) ]
β(v, w) + β(v 0 , w).
=
Aus ε(λv,w) − λε(v,w) ∈ hSiK folgt ebenso
β(λv, w)
=
[ε(λv,w) ]
=
λ[ε(v,w) ]
=
λβ(v, w).
Nach dem gleichen Schema zeigt man auch β(v, w + w0 ) = β(v, w) + β(v, w0 ) und β(v, λw) = λβ(v, w) für
alle λ ∈ K, v ∈ V und w, w0 ∈ W .
Sei nun (U, γ) ein Paar bestehend aus einem K-Vektorraum U und einer linearen Abbildung γ : V × W →
U . Zu zeigen ist, dass eine lineare Abbildung ψ : V ⊗K W → U mit ψ ◦ β = γ existiert. Dazu sei γ̂ die nach
Lemma Satz 11.15 eindeutig bestimmte lineare Abbildung FV ×W → U mit der Eigenschaft
γ̂(ε(v,w) )
=
für alle v ∈ V, w ∈ W.
γ(v, w)
Die oben definierte Menge S1 ist in ker(γ̂) enthalten, denn für alle v, v 0 ∈ V und w ∈ W gilt
γ̂(ε(v+v0 ,w) − ε(v,w) − ε(v 0 , w))
=
γ(v + v 0 , w) − γ(v, w) − γ(v 0 , w)
γ̂(ε(v+v0 ,w) ) − γ̂(ε(v,w) ) − γ̂(ε(v0 ,w) )
=
γ(v + v 0 , w) − γ(v + v 0 , w)
=
=
0U .
Durch eine ähnliche Rechnung zeigt man, dass auch Sk ⊆ ker(γ̂) für k = 2, 3, 4 erfüllt ist. Insgesamt gilt
S ⊆ ker(γ̂) und damit auch hSiK ⊆ ker(γ̂). Wir können nun Satz 11.9 auf den Faktorraum V ⊗K W =
FV ×W /hSiK anwenden und erhalten eine lineare Abbildung ψ : V ⊗K W → U mit ψ([α]) = γ̂(α) für alle
α ∈ FV ×W . Insbesondere gilt dann
γ(v, w)
=
γ̂(ε(v,w) )
=
ψ([ε(v,w) ])
=
ψ(β(v, w))
(ψ ◦ β)(v, w)
=
für alle v ∈ V und w ∈ W . Zum Schluss beweisen wir noch die Eindeutigkeit von ψ. Nehmen wir an, dass
ψ1 : V ⊗K W → U eine weitere lineare Abbildung mit der Eigenschaft ψ1 ◦β = γ ist. Dann gilt insbesondere
ψ1 ([ε(v,w) ])
=
ψ1 (β(v, w))
=
(ψ1 ◦ β)(v, w)
=
γ(v, w)
=
(ψ ◦ β)(v, w)
=
ψ([ε(v,w) ])
für alle v ∈ V und w ∈ W . Definieren wir die Abbildungen ψ̂, ψ̂1 : FV ×W → U durch ψ̂(α) = ψ([α]) und
ψ̂1 (α) = ψ1 ([α]), dann gilt
ψ̂(ε(v,w) )
=
ψ([ε(v,w) ])
=
γ(v, w)
=
ψ1 ([ε(v,w) ])
=
ψ̂1 (ε(v,w) )
für alle v ∈ V und w ∈ W . Auf Grund der Eindeutigkeitsaussage in Satz 11.15 folgt ψ̂ = ψ̂1 und damit
auch ψ = ψ1 .
Von nun an bezeichnen wir für vorgegebene K-Vektorräume V, W mit V ⊗K W stets ein beliebig gewähltes Tensorprodukt von V und W . Die Elemente in V ⊗K W nennt man Tensoren. Für die universelle bilineare Abbildung
V × W → V ⊗K W aus Def. 11.11 verwenden wir die Bezeichung βV W . Für v ∈ V und w ∈ W setzen wir außerdem
v⊗w
=
βV W (v, w).
—– 96 —–
Die Elemente in V ⊗K W , die in dieser Form darstellbar sind, werden reine Tensoren genannt. Weil die Abbildung
βV W bilinear ist, gelten die Rechenregeln
(v + v 0 ) ⊗ w = (v ⊗ w) + (v 0 ⊗ w) ,
v ⊗ (w + w0 ) = (v ⊗ w) + (v ⊗ w0 )
(λv) ⊗ w = λ(v ⊗ w) ,
v ⊗ (λw) = λ(v ⊗ w)
und
für v, v 0 ∈ V , w, w0 ∈ W und λ ∈ K. Wir zeigen nun, dass jeder Tensor als Linearkombination reiner Tensoren
darstellbar ist.
Proposition 11.17
Seien V und W zwei K-Vektorräume, und sei R ⊆ V ⊗K W die Teilmenge der
reinen Tensoren, also R = {v ⊗ w | v ∈ V, w ∈ W }. Dann gilt V ⊗K W = hRiK .
Beweis: Sei U der Faktorraum (V ⊗K W )/hRiK . Für jedes Element α ∈ V ⊗K W bezeichnen wir mit
[α] das entsprechende Element α + hRiK in U . Außerdem definieren wir die Abbildung γ : V × W → U
gegeben durch γ(v, w) = [v ⊗ w] für alle v ∈ V und w ∈ W . Diese Abbildung ist bilinear, denn für beliebige
v, v 0 ∈ V und λ ∈ K gilt
γ(v + v 0 , w)
=
[(v + v 0 ) ⊗ w]
[(v ⊗ w) + (v 0 ⊗ w)]
=
=
[v ⊗ w] + [v 0 ⊗ w]
=
λ[v ⊗ w]
γ(v, w) + γ(v 0 , w)
=
und
γ(λv, w)
=
[(λv) ⊗ w]
[λ(v ⊗ w)]
=
=
λγ(v, w).
Ebenso beweist man γ(v, w+w0 ) = γ(v, w)+γ(v, w0 ) und γ(v, λw) = λγ(v, w) für alle v ∈ V und w ∈ W . Sei
πhRi : V ⊗K W → U der kanonische Epimorphismus und 0V ⊗W,U : V ⊗K W → U die lineare Abbildung,
die alle Elemente von V ⊗K W auf den Nullvektor 0U ∈ U abbildet. Wir zeigen nun, dass
0V ⊗W,U ◦ bV W = γ
πhRi ◦ bV W = γ
und
erfüllt ist. Für alle v ∈ V und w ∈ W gilt einerseits
(0V ⊗W,U ◦ bV W )(v, w)
=
0V ⊗W,U (v ⊗ w)
=
0U
=
[v ⊗ w]
=
γ(v, w).
Dabei gilt das vorletzte „=“, weil hRiK alle reinen Tensoren enthält und [v ⊗ w] deshalb im Faktorraum U
gleich Null ist. Andererseits gilt auch
(πhRi ◦ bV,W )(v, w)
=
πhRi (v ⊗ w)
=
[v ⊗ w]
=
γ(v, w).
Damit sind die beiden Gleichungen bewiesen. Auf Grund der universellen Eigenschaft des Tensorprodukts
gibt es aber nur eine lineare Abbildung φ : V ⊗K W → U mit φ ◦ bV,W = γ. Aus den beiden Gleichungen
folgt somit πhRi = 0V ⊗W,U . Also ist πhRi zugleich eine surjektive Abbildung auf U = (V ⊗K W )/hRiK und
die Nullabbildung. Dies kann nur bedeuten, dass U = {0U } ist. Damit erhalten wir V ⊗K W = hRiK wie
gewünscht.
Der letzte Satz zeigt, dass die Elemente eines Tensorprodukts V ⊗K W konkret durch
( n
)
X
λk (vk ⊗ wk ) n ∈ N, λk ∈ K, vk ∈ V und wk ∈ W für 1 ≤ k ≤ n
k=1
gegeben sind. Im endlich-dimensionalen Fall kann sogar eine Basis von V ⊗K W angegeben werden.
—– 97 —–
Satz 11.18
Seien V, W zwei endlich-dimensionale K-Vektorräume, m = dim V und n = dim W mit
m, n ∈ N. Ist {v1 , ..., vm } eine Basis von V und {w1 , ..., wn } eine Basis von W , dann ist durch die Menge
B = {vk ⊗ w` | 1 ≤ k ≤ m, 1 ≤ ` ≤ n} eine Basis von V ⊗K W gegeben. Inbesondere gilt also
(m n
)
XX
V ⊗K W =
λk` (vk ⊗ w` ) λk` ∈ K für 1 ≤ k ≤ m, 1 ≤ ` ≤ n
k=1 `=1
und dim(V ⊗K W ) = (dim V )(dim W ).
Beweis: Zunächst zeigen wir, dass B ein Erzeugendensystem von V ⊗K W ist. Nach Prop. 11.17 genügt
es zu überprüfen, dass hBiK alle reinen Tensoren enthält. Sei also v ⊗ w mit v ∈ V und w ∈ W vorgegeben.
Pm
Pn
Dann gibt es λ1 , ..., λm ∈ K und µ1 , ..., µn ∈ K mit v = k=1 λk vk und w = `=1 µ` w` . Wir erhalten
!
!
!
m
n
m
n
m X
n
X
X
X
X
X
v⊗w =
λk v k ⊗
µ` w`
=
(λk vk ) ⊗
µ` w`
=
(λk vk ) ⊗ (µ` w` )
k=1
`=1
k=1
=
n
m X
X
`=1
k=1 `=1
λk µ` (vk ⊗ w` ) ∈ hBiK .
k=1 `=1
Zum Nachweis der linearen Unabhängigkeit seien λij ∈ K mit
m X
n
X
λij (vi ⊗ wj )
=
0V ⊗W
(11.1)
i=1 j=1
vorgegeben. Wir definieren für jedes Paar (k, `) mit 1 ≤ k ≤ m und 1 ≤ ` ≤ n eine Abbildung γk` :
V × W → K durch


n
m
X
X
µj wj  = λk µ`
γk` 
λ i vi ,
für λ1 , ..., λm , µ1 , ..., µn ∈ K.
i=1
j=1
Insbesondere gilt γk` (vi , wj ) = δki δ`j für i, k ∈ {1, ..., m} und j, ` ∈ {1, ..., n}. Auf Grund der universellen
Eigenschaft des Tensorprodukts mit es jeweils eine lineare Abbildung ψk` : V ⊗K W → K mit γk` =
ψk` ◦ βV W . Für i, k ∈ {1, ..., m} und j, ` ∈ {1, ..., n} gilt dann ψk` (vi ⊗ wj ) = γk` (vi , wj ) = δki δ`j . Wenden
wir nun ψk` auf beide Seiten von (11.1) an, so erhalten wir


m X
n
m X
n
X
X
ψk` 
λij (vi ⊗ wj ) = ψk` (0V ⊗W ) ⇔
λij ψk` (vi ⊗ wj ) = 0K ⇔
i=1 j=1
i=1 j=1
m X
n
X
λij δki δ`j = 0K
⇔
λk` = 0K .
i=1 j=1
Damit ist die lineare Unabhängigkeit nachgewiesen.
Satz 11.19
Seien V und W endlich-dimensionale K-Vektorräume. Dann gibt es einen natürlichen
Isomorphismus φ : V ∗ ⊗K W → HomK (V, W ), der jedem reinen Tensor ϕ ⊗ w mit ϕ ∈ V ∗ und w ∈ W
die lineare Abbildung gegeben durch
φ(ϕ ⊗ w)(v) = ϕ(v)w
für alle v ∈ V zuordnet.
—– 98 —–
Beweis: Sei γ : V ∗ × W → HomK (V, W ) die Abbildung gegeben durch γ(ϕ, w)(v) = ϕ(v)w für alle
ϕ ∈ V ∗ , v ∈ V und w ∈ W . Diese Abbildung ist bilinear, denn für beliebige ϕ, ϕ0 ∈ V ∗ , w ∈ W und λ ∈ K
gilt
γ(ϕ + ϕ0 , w)(v)
=
(ϕ + ϕ0 )(v)w
γ(ϕ, w)(v) + γ(ϕ0 , w)(v)
=
ϕ(v)w + ϕ0 (v)w
=
(γ(ϕ, w) + γ(ϕ0 , w))(v)
=
und ebenso
γ(λϕ, w)(v)
=
(λϕ)(v)w
=
λϕ(v)w
=
λ(γ(ϕ, w)(v))
=
(λγ(ϕ, w))(v)
also γ(ϕ + ϕ0 , w) = γ(ϕ, w) + γ(ϕ0 , w) und γ(λϕ, w) = λγ(ϕ, w). Durch eine analoge Rechnung beweist man
auch γ(ϕ, w + w0 ) = γ(ϕ, w) + γ(ϕ, w0 ) und γ(ϕ, λw) = λγ(ϕ, w) für alle ϕ ∈ V ∗ , w, w0 ∈ W und λ ∈ K.
Auf Grund der universellen Eigenschaft des Tensorprodukts gibt es eine (eindeutig bestimmte) lineare
Abbildung φ : V ∗ ⊗K W → HomK (V, W ) mit φ ◦ βV W = γ. Es gilt dann
φ(ϕ ⊗ w)(v)
=
(φ ◦ βV W )(ϕ, w)(v)
=
γ(ϕ, w)(v)
=
ϕ(v)w
für alle ϕ ∈ V ∗ , v ∈ V und w ∈ W . Zum Nachweis der Surjektivität von φ sei (w1 , ..., wn ) eine Basis von W
und α ∈ HomK (V, W ) vorgegeben. Für 1 ≤ k ≤ n sei ψk ∈ W ∗ die Linearform gegeben durch
!
n
X
ψk
λi wi
= λk .
i=1
Pn
Wir zeigen, dass das Element k=1 α∗ (ψk ) ⊗ wk ∈ V ∗ ⊗K W von φ auf α abgebildet wird. Sei v ∈ V und
Pn
α(v) = k=1 λk wk die Basisdarstellung von α(v). Dann gilt ψk (α(v)) = λk für 1 ≤ k ≤ n und somit
!
n
n
n
X
X
X
∗
φ
α (ψk ) ⊗ wk (v) =
φ(α∗ (ψk ) ⊗ wk )(v) =
α∗ (ψk )(v)wk =
k=1
k=1
n
X
k=1
ψk (α(v))wk
k=1
=
n
X
λk wk
=
α(v) ,
k=1
Pn
also tatsächlich φ( k=1 α∗ (ψk ) ⊗ wk ) = α wie gewünscht. Die Vektorräume V ∗ ⊗K W und HomK (V, W )
haben beide die Dimension (dim V )(dim W ). Aus der Surjektivität von φ folgt somit die Bijektivitiät.
Die Isomorphismus-Eigenschaft von φ bleibt erhalten, wenn nur der Vektorraum W endlich-dimensional ist. Statt
mit der Dimension muss in diesem Fall ein weiteres Mal mit der universellen Eigenschaft des Tensorprodukts argumentiert werden.
—– 99 —–
Herunterladen