5 Symmetrische Bilinearformen

Werbung
5
5.1
Symmetrische Bilinearformen
Die Signatur
In diesem Abschnitt betrachten wir einen endlich-dimensionalen reellen Vektorraum V mit einer symmetrischen, aber nicht notwendigerweise positiv definiten
Bilinearform h·, ·i. Wir interessieren uns u.A. für die dem Skalarprodukt zugeordnete quadratische Form, d.h. die Abbildung
q : V → R,
v 7→ q(v) := hv, vi.
Beispiel 5.1.1 Sei V = R2 und h·, ·i die durch die Matrix
0 1
A=
1 0
bestimmte symmetrische Bilinearform. Für einen Vektor v = (x1 , x2 ) ∈ V gilt
q(v) = hv, vi = 2x1 x2 .
Dieser Wert kann sowohl positiv, negativ oder Null sein. Man nennt die symmetrische Bilinearform h·, ·i und ihre zugeordnete quadratische Form q indefinit.
Die Punkte der Ebene, auf denen die quadratische Form q einen konstanten
Wert a 6= 0 annimmt, q(v) = a, bilden eine Hyperbel mit Gleichung
2x1 x2 = a.
(Im Grenzfall a = 0 erhält man die Vereinigung der beiden Koordinatenachsen.)
Man nennt (V, h·, ·i) deshalb auch die hyperbolische Ebene.
Sei B = (v1 , v2 ) die Basis von V mit den Vektoren
1 −1
1 1
,
v2 = √
.
v1 = √
2 1
2 1
Die darstellende Matrix der Bilinearform bezüglich B ist
hv1 , v1 i hv1 , v2 i
1 0
MB (h·, ·i) =
=
.
hv2 , v1 i hv2 , v2 i
0 −1
Insbesondere ist B eine orthogonale Basis.
Satz 5.1.2 Sei V ein endlich-dimensionaler reeller Vektorraum und h·, ·i eine
symmetrische Bilinearform auf V . Dann gibt es eine orthogonale Basis B =
(v1 , . . . , vn ) mit
hvi , vi i ∈ {0, 1, −1},
für i = 1, . . . , n. Bei geeigneter Wahl der Reihenfolge der Basisvektoren gilt also


i = 1, . . . , p,
 1,
hvi , vi i = −1,
(39)
i = p + 1, . . . , p + q,


0,
i = p + q + 1, . . . , n,
für gewisse ganze Zahlen p, q ≥ 0.
70
Der Beweis dieses Satzes wird ganz ähnlich geführt wie der des Orthogonalisierungssatzes im euklidischen Fall (Satz 4.2.2), nähmlich durch Induktion über
die Dimension. Als Ersatz für die positive Definitheit benötigen wir hier den
folgenden Begriff und das anschließende Lemma.
Definition 5.1.3 Ein Vektor v ∈ V heißt isotrop, falls
hv, vi = 0.
Andernfalls heißt v anisotrop.
Lemma 5.1.4 Sei V ein reller Vektorraum und h·, ·i eine symmetrische Bilinearform auf V .
(i) Wenn h·, ·i =
6 0 nicht identisch Null ist, so gibt es einen anisotropen Vektor
v ∈V.
(ii) Ist v ∈ V anisotrop und U := hvi der von v aufgespannte Untervektorraum, so gilt
V = U ⊕ U ⊥.
Beweis: Ist h·, ·i =
6 0, so gibt es Vektoren v, w ∈ V mit hv, wi =
6 0. Gilt
zusätzlich hv, vi 6= 0 oder hw, wi 6= 0, so ist nichts zu zeigen. Wir können also
annehmen, dass v und w isotrop sind. Aber dann ist u := v + w wegen
hu, ui = hv, vi + 2hv, wi + hw, wi = 2hv, wi =
6 0
anisotrop. Damit ist (i) bewiesen.
Zum Beweis von (ii) nehmen wir an, dass v anisotrop ist und U = hvi. Wir
müssen die folgenden zwei Aussagen beweisen:
(a) U ∩ U ⊥ = {0},
(b) V = U + U ⊥ .
Ein beliebiger Vektor u ∈ U ist von der Form u = λ · v, mit λ ∈ R. Es gilt
u ∈ U ⊥ genau dann, wenn hu, vi = 0. Aber wegen
hu, vi = λ · hv, vi
und hv, vi =
6 0 gilt dies nur für λ = 0, also u = 0. Daraus folgt (a).
Zum Beweis von (b) müssen wir einen beliebigen Vektor w ∈ V in der Form
w = λ · v + w0 mit hw0 , vi = 0 schreiben. Die Bedingung an λ lautet:
hw0 , vi = hw − λ · v, vi = hw, vi − λ · hv, vi.
Wegen hv, vi =
6 0 können wir diese Gleichung nach λ auflösen. Damit haben wir
(b) bewiesen. Nun ist alles gezeigt.
2
Beweis: (von Satz 5.1.2) Wir führen den Beweis durch Induktion über n :=
dimR V . Für n = 0 ist nichts zu zeigen, deshalb nehmen wir n ≥ 1 an.
71
Ist h·, ·i = 0, so ist ebenfalls nichts zu zeigen – die Aussage des Satzes ist für
jede Basis B erfüllt, mit p = q = 0. Wir dürfen also h·, ·i =
6 0 annehmen. Nach
Lemma 5.1.4 (i) gibt es dann einen anisotropen Vektor v ∈ V . Wir setzen
v1 := p
1
|hv, vi|
· v.
Nun gilt hv1 , v1 i = ±1. Wir werden im Folgenden versuchen, (v1 ) zu einer Basis
B = (v1 , . . . , vn ), die die Bedingung aus Satz 5.1.2 erfüllt, zu ergänzen.
Sei U := hv1 i. Nach Lemma 5.1.4 haben wir eine Zerlegung
mit W := U ⊥ .
V = U ⊕ W,
Insbesondere gilt dimR W = n−1. Wir wenden nun unsere Induktionshypothese
auf den Vektorraum W , versehen mit der Einschränkung von h·, ·i, an. Demnach
gibt es eine orthogonale Basis B 0 = (v2 , . . . , vn ) von W mit hvi , vi i ∈ {0, 1, −1},
für i = 2, . . . , n. Aus der Zerlegung V = U ⊕ W folgt mit Proposition 4.3.3,
dass B := (v1 , v2 , . . . , vn ) eine Basis von V ist. Da W = U ⊥ , ist der Vektor
v1 orthogonal zu allen Vektoren vi mit i ≥ 2. Nach Konstruktion ist B also
eine orthogonale Basis von V mit den geforderten Eigenschaften. Damit ist der
Beweis von Satz 5.1.2 vollständig.
2
Korollar 5.1.5 Sei A ∈ Mn,n (R) eine relle symmetrische Matrix. Dann gibt
es eine invertierbare Matrix Q ∈ GLn (R), so dass


Ep
.
−Eq
Qt · A · Q = 
0s
Die Matrix auf der rechten Seite heißt die Normalform von A.
Beweis: Wir wenden Satz 5.1.2 auf den Vektorraum V = Rn und die durch
A bestimmte Bilinearform h·, ·iA an. Ist B = (v1 , . . . , vn ) eine orthogonale Basis
von V , die (39) erfüllt, und ist Q := TEB = (v1 | · · · | vn ), so ist Qt · A · Q in
Normalform.
2
Definition 5.1.6 Sei V ein endlich-dimensionaler reeller Vektorraum und h·, ·i
eine symmetrische Bilinearform auf V . Sei B = (v1 , . . . , vn ) eine orthogonale
Basis von V (existiert nach Satz 5.1.2). Wir definieren die Signatur von h·, ·i
als das Paar ganzer Zahlen (p, q), wobei p die Anzahl der Basisvektoren vi
bezeichnet mit hvi , vi i > 0 und q die Anzahl der vi mit hvi , vi i < 0.
Die Wohldefiniertheit der Signatur ist eine Konsequenz des folgenden Satzes.
Satz 5.1.7 (Trägheitssatz von Sylvester) Die oben definierte Signatur (p, q)
ist unabhängig von der Wahl der orthogonalen Basis B.
72
Beweis: Seien B = (v1 , . . . , vn ) und B 0 = (v10 , . . . , vn0 ) zwei orthogonale
Basen von V . Ohne Einschränkung der Allgemeinheit dürfen wir annehmen,
dass


i = 1, . . . , p,
 1,
hvi , vi i = −1,
i = p + 1, . . . , p + q,


0,
i = p + q + 1, . . . , n,
für gewisse p, q ≥ 0, und dass


 1,
0 0
hvi , vi i = −1,


0,
i = 1, . . . , p0 ,
i = p0 + 1, . . . , p0 + q 0 ,
i = p0 + q 0 + 1, . . . , n,
für gewisse p0 , q 0 ≥ 0. Wir müssen zeigen, dass dann p = p0 und q = q 0 gilt.
Wir zeigen zunächst p + q = p0 + q 0 . Diese Aussage folgt aus dem folgenden
Lemma, welches die Zahl s := n − p − q mit der Dimension eines Untervektorraumes identifiziert, der nicht von der Wahl der Basis B abhängt.
Lemma 5.1.8 Die Vektoren vp+q+1 , . . . , vn bilden eine Basis des Untervektorraumes
V ⊥ = { v ∈ V | hv, wi = 0 ∀ w ∈ V }.
Insbesondere gilt
dimR V ⊥ = n − p − q.
(Den Untervektorraum V ⊥ nennt man das Radikal der Bilinearform h·, ·i.)
Beweis: Aus den getroffenen Annahmen folgt sofort, dass die Vektoren
vp+q+1 , . . . , vn in V ⊥ liegen und dass sie linear unabhängig sind. Es bleibt
zu zeigen, dass sie den Untervektorraum V ⊥ P
erzeugen.
n
Sei v ∈ V ⊥ beliebig. Wir schreiben v = i=1 λi · vi und wählen uns einen
⊥
Index j ∈ {1, . . . , n}. Aus der Annahme v ∈ V folgt, da B eine Orthogonalbasis
ist,
n
X
0 = hv, vj i =
λi · hvi , vj i = λj · hvj , vj i.
i=1
Für j ≤ p + q gilt aber hvj , vj i =
6 0 und daher λj = 0. Es folgt
v = λp+q+1 · vp+q+1 + . . . + λn · vn .
2
Damit ist das Lemma bewiesen.
Zurück zum Beweis von Satz 5.1.7. Aus Lemma 5.1.8 folgt die Gleichheit
p + q = p0 + q 0 . Wir betrachten nun das System der n + p − p0 Vektoren
(v1 , . . . , vp , vp0 0 +1 , . . . , vn0 )
(40)
und behaupten, dass es linear unabhängig ist. In der Tat, jede lineare Relation
dieses Systems kann man auf die Form
λ1 · v1 + . . . + λp · vp = µ1 · vp0 +1 + . . . µn−p0 · vn0
73
(41)
bringen. Sei v der durch beide Seiten von (41) definierte Vektor. Benutzt man
die linke Seite von (41) und die Voraussetzung an die Basis B, so erhält man
hv, vi = λ21 · hv1 , v1 i + . . . + λ2p · hvp , vp i = λ21 + . . . + λ2p ≥ 0.
(42)
Benutzt man dagegen die rechte Seite von (41) und die Voraussetzungen an B 0 ,
so erhält man
hv, vi = µ21 · hvp0 0 +1 , vp0 +1 i + . . . + µ2n−p0 · hvn0 , vn0 i
= −(µ21 + . . . + µ2n−p0 −q0 ) ≤ 0.
(43)
Durch Gleichsetzen von (42) und (43) erhält man λi = 0 für i = 1, . . . , p und
µi = 0 für i = 1, . . . , n − p0 − q 0 , d.h.
v = µn−p0 −q0 +1 · vp0 0 +q0 +1 + . . . + µn−p0 · vn0 = 0.
Da das System (vp0 0 +q0 +1 , . . . , vn0 ) Teil der Basis B 0 ist, ist es linear unabhängig.
Es gilt als λi = µi = 0 für alle möglichen Indizes i.
Wir haben gezeigt, dass das System der n + p − p0 Vektoren in (40) linear
unabhängig ist. Aus Dimensionsgründen folgt daraus n + p − p0 ≤ n, also p ≤ p0 .
Da man das Argument auch mit vertauschten Rollen durchführen kann, folgt
sogar p = p0 . Da wir bereits die Gleichheit p + q = p0 + q 0 gezeigt hatten, ist der
Beweis vollständig.
2
Definition 5.1.9 Eine symmetrische Bilinearform h·, ·i auf einem reellen Vektorraum V heißt nichtausgeartet, wenn das Radikal verschwindet, d.h. wenn
V ⊥ = {0}.
Eine symmetrische Matrix A ∈ Mn,n (R) heißt nichtausgeartet, wenn die zugehörige Bilinearform auf Rn nichtausgeartet ist.
Bemerkung 5.1.10 (i) Eine symmetrische Bilinearform auf V mit Signatur
(p, q) ist nichtausgeartet genau dann, wenn p + q = dimR V gilt.
(ii) Ist A ∈ Mn,n (R) eine symmetrische Matrix mit Signatur (p, q), so gilt
p + q = Rang(A).
Die Matrix A ist also nichtausgeartet genau dann, wenn sie invertierbar
ist.
Quadratische Formen
Wir wollen ein paar allgemeine Dinge über den Zusammenhang zwischen
Bilinearformen und quadratischen Formen festhalten.
74
Sei V ein Vektorraum über einem Körper K, in dem 2 6= 0 gilt. Jeder
Bilinearform s : V × V → K können wir eine sogenannte quadratische Form
zuordnen; dies ist die Funktion
q : V → K,
q(v) := s(v, v).
Wir wollen im Folgenden immer vorausstzen, dass die Bilinearform s symmetrisch ist.
Proposition 5.1.11 Sei s : V × V → K eine symmetrische Bilinearform und
q : V → K die zugehörige quadratische Form. Dann gilt für alle v, w ∈ V und
λ ∈ K:
q(λ · v) = λ2 · q(v),
und
q(v + w) = q(v) + q(w) + 2s(v, w).
2
Beweis: Direktes Nachrechnen
Eine einfache, aber wichtige Konsequenz aus der obigen Proposition ist die
Tatsache, dass die Bilinearform s eindeutig durch die quadratische Form q bestimmt ist. Das sieht man, wenn man die zweite Formel umformt zu
s(v, w) =
5.2
1
q(v + w) − q(v) − q(w) .
2
(44)
Der Spektralsatz (reelle Form)
Im Folgenden sei (V, h·, ·i) ein euklidischer Vektorraum der Dimension n.
Definition 5.2.1 Ein Endomorphismus φ : V → V heißt selbstadjungiert oder
symmetrisch (bzgl. h·, ·i), wenn für alle v, w ∈ V gilt:
hφ(v), wi = hv, φ(w)i.
Proposition 5.2.2 Sei φ : V → V ein Endomorphismus, B eine Orthonormalbasis von V und A ∈ Mn,n (R) die darstellende Matrix von φ bezüglich B. Dann
ist φ selbstadjungiert genau dann, wenn A symmetrisch ist, d.h. wenn
At = A.
Beweis: Wir dürfen V vermöge des durch B definierten Koordinatensystems
mit dem euklidischen Standardvektorraum identifizieren. Dann gilt hx, yi = xt ·y
und φ(x) = A · x.
Angenommen, φ ist selbstadjungiert. Dann gilt
xt · A · y = hx, A · yi = hA · x, yi = xt · At · y,
für alle x, y ∈ Rn . Daraus folgt At = A, und wir haben eine Richtung der
behaupteten Äquivalenz bewiesen. Der Beweis der Umkehrung ist sehr ähnlich.
2
75
Bemerkung 5.2.3 Die Matrix A im obigen Beweis spielt eine ‘Doppelrolle’:
zum einen als darstellende Matrix eines Endomorphismus, zum anderen als Matrix einer Bilinearform. Das läßt sich so erklären: ist φ : V → V ein selbstadjungierter Endomorphismus, so ist die Abbildung
s : V × V → R,
(v, w) 7→ hφ(v), wi = hv, φ(w)i
eine symmetrische Bilinearform auf V . Identifizieren wir V vermöge einer Orthonormalbasis B mit dem euklidischen Standardraum Rn , so gilt φ(x) = A · x
und
s(x, y) = xt · A · y
ist die symmetrische Bilinearform zu A.
Ersetzen wir die Orthonormalbasis B durch eine andere Orthonormalbasis
B 0 , so wird aus A die Matrix
A0 = S −1 · A · S = S t · A · S,
0
wobei S := TBB die Basiswechselmatrix ist. Der entscheidende Punkt ist, dass
S orthogonal ist und daher S −1 = S t gilt; für den Basiswechsel ist es also egal,
ob wir A als Endomorphismus oder als Bilinearform auffassen.
Satz 5.2.4 Sei φ : V → V ein selbstadjungierter Endomorphismus eines euklidischen Vektorraumes der Dimension ≥ 1. Dann besitzt φ mindestens einen
Eigenvektor.
Korollar 5.2.5 Eine reelle symmetrische Matrix A ∈ Mn,n (R) besitzt mindestens einen reellen Eigenwert.
Beweis: (von Satz 5.2.4) Wir fassen V als einen normierten und insbesondere topologischen Vektorraum auf. Die 1-Sphäre S ist die Teilmenge von V
aller Vektoren der Länge 1:
S := { v ∈ V | ||v|| = 1 }.
Dies ist eine beschränkte und abgeschlossene Teilmenge von V , mithin eine
kompakte Menge.
Wir betrachten nun die quadratische Form
q : V → R,
v 7→ q(v) := hφ(v), vi = hv, φ(v)i.
Dies ist eine stetige Funktion auf V ; sie nimmt daher auf der kompakten Teilmenge S ⊂ V ein Maximum an. Es gibt also einen Vektor u ∈ V mit
||u|| = 1,
q(u) ≥ q(v),
Das Lemma folgt nun aus der folgenden
Behauptung: u ist ein Eigenvektor von φ.
76
∀ v ∈ S.
(45)
Zum Beweis dieser Behauptung betrachten wir den von u aufgespannten,
eindimensionalen Unterraum U := hui. Offenbar ist u ein Eigenvektor von φ
genau dann, wenn φ(u) ∈ U .
Nach Proposition 4.3.8 und Bemerkung 4.3.12 haben wir eine orthogonale
direkte Zerlegung
V = U ⊥ W,
mit W := U ⊥ .
Insbesondere gilt
U = W ⊥.
Für den Beweis der Behauptung genügt es nun zu zeigen, dass für alle w ∈ W
gilt:
hφ(u), wi = 0.
(46)
Dann folgt nämlich φ(u) ∈ W ⊥ = U = hui, und u ist ein Eigenvektor von φ. Es
ist klar, dass wir (46) nur für alle w ∈ W der Länge 1 zeigen brauchen.
Sei also w ein Vektor mit
||w|| = 1,
hu, wi = 0.
Für t ∈ R setzen wir
v = v(t) := cos(t) · u + sin(t) · w.
Wegen u, w ∈ S, hu, wi = 0 und Lemma 4.3.13 gilt
||v|| = cos2 (t) · ||u||2 + sin2 (t) · ||w||2 = 1,
d.h. v liegt auf S, für alle t ∈ R. Wir betrachten nun die Funktion
f : R → R,
f (t) := q(v).
Unter Verwendung von Proposition 5.1.11 erhalten wir
f (t) = q cos(t) · u + sin(t) · w
= cos2 (t) · q(u) + sin2 (t) · q(w) + 2 cos(t) sin(t) · hφ(u), wi.
Insbesondere ist f differenzierbar. Ein kurze Rechnung zeigt
f 0 (0) = 2 · hφ(u), wi.
(47)
Andererseits gilt nach Wahl des Vektors u (siehe (45)) die Ungleichung
f (t) = q(v) ≤ q(u) = f (0),
für alle t ∈ R. Die Funktion f nimmt bei t = 0 also ein Maximum an. Wir
schließen daraus:
f 0 (0) = 0.
Aus (47) folgt nun (46), wie gewünscht. Der Beweis des Satzes ist damit vollendet.
2
Wir werden später noch einen anderen Beweis dieses Satzes kennenlernen,
der algebraischer ist und einen Umweg über die komplexen Zahlen und den
Fundamentalsatz der Algebra nimmt.8
8 Beim
Beweis des Fundamentalsatzes kommt man auch nicht ganz ohne Analysis aus.
77
Proposition 5.2.6 Es sei φ : V → V ein selbstadjungierter Endomorphismus
und
V =U ⊥W
eine Zerlegung von V in eine direkte orthogonale Summe von zwei Untervektorräumen (siehe Bemerkung 4.3.12). Dann gilt
φ(U ) ⊂ U
genau dann, wenn
φ(W ) ⊂ W.
(wir sagen in diesem Fall, dass φ die orthogonale Zerlegung V = U ⊥ W respektiert.)
Beweis: Es reicht, eine der zwei Implikationen zu beweisen. Angenommen,
es gilt φ(U ) ⊂ U . Wir wollen zeigen, dass daraus φ(W ) ⊂ W folgt. Sei also
w ∈ W beliebig. Dann gilt für alle u ∈ U :
hu, φ(w)i = hφ(u), wi = 0.
(Im ersten Schritt haben wir die Selbstadjungiertheit von φ und im zweiten
Schritt die Annahme φ(U ) ⊂ U = W ⊥ verwendet.) Wir schließen aus obiger
Gleichung:
φ(w) ∈ U ⊥ = W.
2
Damit ist die Proposition bewiesen.
Satz 5.2.7 (Spektralsatz) Sei φ : V → V ein selbstadjungierter Endomorphismus auf einem euklidischen Vektorraum V . Dann besitzt V eine Orthonormalbasis B = (v1 , . . . , vn ), die aus Eigenvektoren von φ besteht:
hvi , vj i = δi,j
und φ(vi ) = λi · vi ,
mit λ1 , . . . , λr ∈ R.
Insbesondere ist jeder selbstadjungierte Endomorphismus von V diagonalisierbar.
Korollar 5.2.8 (Hauptachsentransformation) Sei A ∈ Mn,n (R) eine relle
symmetrische Matrix. Dann gibt es eine orthogonale Matrix S ∈ On (R) so, dass


λ1


..
S −1 · A · S = 

.
λn
eine Diagonalmatrix ist.
Insbesondere ist jede reelle symmetrische Matrix über R diagonalisierbar.
78
Eine geometrische Begründung des Begriffes ‘Hauptachsentransformation’
wird im folgenden Abschnitt nachgeliefert.
Beweis: (von Satz 5.2.7) Wir beweisen den Satz durch Induktion nach n :=
dimR (V ). Dabei dürfen wir n ≥ 1 annehmen. Nach Satz 5.2.4 gibt es einen
Eigenvektor v1 ∈ V von φ, sagen wir zum Eigenwert λ1 . Durch Normieren von
v1 können wir erreichen, dass v1 die Länge 1 hat, ||v1 || = 1.
Sei U := hv1 i und W := U ⊥ . Nach Proposition 4.3.8 und Bemerkung 4.3.12
erhalten wir eine orthogonale direkte Zerlegung
V = U ⊥ W.
Da U von einem Eigenvektor von φ aufgespannt wird, gilt φ(U ) ⊂ U . Aus
Proposition 5.2.6 folgt nun wegen der Selbstadjungiertheit von φ:
φ(W ) ⊂ W.
Da dimR W = n − 1, können wir die Induktionsannahme auf den Endomorphismus φ|W : W → W anwenden. Als Ergebnis erhalten wir eine Orthonormalbasis
B 0 = (v2 , . . . , vn ) von W , die aus Eigenvektoren von φ|W besteht. Nach Konstruktion ist dann B := (v1 , . . . , vn ) eine Orthonormalbasis von V , bestehend
aus Eigenvektoren von φ.
2
Beispiel 5.2.9 Für symmetrische (2, 2)-Matrizen kann man den Spektralsatz
leicht direkt beweisen. Sei
a b
A=
,
b d
mit a, b, d ∈ R. Das charakteristische Polynom von A ist
PA = x2 − (a + d) x + (ad − b2 ).
Anhand der p-q-Formel sieht man nach einer kurzen Rechnung, dass PA für
b 6= 0 oder a 6= d zwei verschiedene reelle Nullstellen besitzt:
αi =
p
1
a + d ± (a − d)2 + 4b2 ,
2
i = 1, 2. Es folgt, dass A über R stets diagonalisierbar ist.
Für das konkrete Beispiel a = d = 1, b = 2, also
1 2
A=
,
2 1
erhält man die Eigenwerte −1, 3 und die entsprechenden Eigenvektoren
1
1
v1 =
,
v2 =
.
−1
1
Es ist kein Zufall, dass v1 und v2 orthogonal sind, sondern eine Konsequenz aus
dem Spektralsatz (siehe auch die folgende Bemerkung)! Durch Normieren der vi
79
erhalten wir eine Orthonormalbasis von R2 und entsprechend eine orthogonale
Matrix
1
1 1
S=√
2 −1 1
mit der Eigenschaft
S
−1
t
·A·S =S ·A·S =
−1
0
0
.
3
Bemerkung 5.2.10 Sei φ : V → V ein selbstadjungierter Endomorphismus
auf einem euklidischen Vektorraum V . Sind v1 , v2 zwei Eigenvektoren mit verschiedenen Eigenwerten λ1 6= λ2 , so sind v1 und v2 automatisch orthogonal.
Das folgt aus Satz 5.2.7, läßt sich aber auch leicht aus der folgenden Rechnung
ableiten:
λ1 · hv1 , v2 i = hφ(v1 ), v2 i = hv1 , φ(v2 )i = λ2 · hv1 , v2 i.
Aus λ1 6= λ2 folgt sofort hv1 , v2 i = 0.
Beispiel 5.2.11 (Orthogonale Projektionen) Es gilt folgende ‘Umkehrung’
des Spektralsatzes: ein Endomorphismus φ : V → V , der eine Orthonormalbasis
aus Eigenvektoren besitzt, ist selbstadjungiert. Das ist eine direkte Folge der
Proposition 5.2.2.
Sei U ⊂ V ein Untervektorraum und p : V → V die orthogonale Projektion
auf U (siehe Proposition 4.3.8). Wir wählen eine Orthonormalbasis BU von U
und eine Orthonormalbasis BW des orthogonalen Komplement W := U ⊥ . Dann
ist B := BU ∪ BW eine Orthonormalbasis von V , die aus Eigenvektoren von p
besteht. Genauer: die darstellende Matrix von p bezüglich B ist
Er
MB (φ) =
,
0s
mit r := dim U , s := dim W . Insbesondere ist p selbstadjungiert.
Nun sei V = Rn der euklidische Standardraum der Dimension n und p :
V → V ein Endomorphismus mit darstellender Matrix A ∈ Mn,n (R) (also
p(x) = A · x). Aus dem Spektralsatz folgt, zusammen mit obiger Diskussion:
p ist die orthogonale Projektion auf den Untervektorraum U = Bild(A) genau
dann, wenn A symmetrisch ist und
A2 = A
gilt. Die zweite Bedingung kann man (wenn A symmetrisch ist) ersetzen durch
die Bedingung, dass das charakteristische Polynom PA von A nur 0 und 1 als
Nullstellen hat, also
PA = ±(x − 1)r xs .
Für n = 2 gilt zum Beispiel: ist U ⊂ R2 die Gerade, die man durch Drehung
der x1 -Achse um den Winkel α erhält, so ist die orthogonale Projektion p :
80
R2 → U durch die Matrix

cos2 α
A=
sin α cos α
sin α cos α


sin2 α
gegeben.
5.3
Quadriken und Kegelschnitte
Eine Quadrik ist die (nichtleere) Lösungsmenge Q ⊂ Rn einer quadratischen
Gleichung, d.h. einer Gleichung der Form
q(x) + l(x) + c = 0,
wobei q : Rn → R eine quadratische Form und l : Rn → R eine lineare Funktion
ist. Die quadratische Form q ist durch eine symmetrische Matrix A = (ai,j ) 6= 0,
die lineare Funktion l durch einen Zeilenvektor B = (bi ) gegeben. Die Gleichung
lautet dann explizit:
X
X
xt · A · x + B · x + c =
ai,j xi xj +
bi xi + c = 0.
(48)
i,j
i
Quadriken in der Ebene E = R2 nennt man auch Kegelschnitte.
Unser Ziel ist nun, die Kongruenzklassen solcher Quadriken zu studieren.
Dabei heißen zwei Quadriken Q, Q0 kongruent oder deckungsgleich, wenn Q
durch eine euklidische Bewegung des Rn in Q0 überführt werden kann.
Wir werden dies nur für den Fall n = 2, also in der euklidischen Ebene
E = R2 durchführen. Unsere Vorgehensweise läßt sich aber problemlos auf
höhere Dimensionen übertragen.
Definition 5.3.1 Eine ebene Quadrik Q ⊂ E = R2 heißt entartet, wenn sie
die leere Menge ist oder nur aus einem Punkt, oder aus einer Geraden oder aus
zwei Geraden besteht. Andernfalls heißt Q nichtentartet.
Satz 5.3.2 Eine nichtentartete ebene Quadrik Q ⊂ E = R2 ist kongruent zu
einer der folgenden Typen:
(i) Ellipse:
a1,1 x21 + a2,2 x22 − 1 = 0,
(ii) Hyperbel:
a1,1 x21 − a2,2 x22 − 1 = 0,
(iii) Parabel:
a1,1 x21 − x2 = 0,
wobei jeweils a1,1 , a2,2 > 0 sind.
81
Beweis: Sei Q ⊂ R2 eine (nichtleere) Quadrik, gegeben durch die quadratische Gleichung (48). Wir betrachten zunächst nur den quadratischen Anteil
der Gleichung
q(x) = xt · A · x = a1,1 x21 + 2a1,2 x1 x2 + a2,2 x22 .
Nach Korollar 5.2.8 gibt es eine orthogonale Matrix S ∈ O2 (R), so dass
λ1 0
0
t
A := S · A · S =
0 λ2
eine Diagonalmatrix ist. Nach Anwenden des euklidischen Koordinatenwechsels
x=S·y
schreibt sich die quadratische Form q in y-Koordinaten so:
q(x) = q(S · y) = λ1 y12 + λ2 y22 .
Die Koordinatenachsen des neuen Koordinatensystems heißen die Hauptachsen
von q. Sie werden natürlich aufgespannt von den Spalten der orthogonalen
Matrix S. Die Gleichung der Quadrik Q in den neuen Koordinaten lautet
λ1 y12 + λ2 y22 + b01 y1 + b02 y2 + c = 0,
für gewisse Konstanten b01 , b02 ∈ R, die sich leicht berechnen lassen.
Anstatt durch einen Koordinatenwechsel können wir unser Zwischenergebnis
auch so formulieren: durch Anwenden der ebenen Symmetrie
∼
f : E → E,
f (x) := S −1 · x
(eine Drehung oder eine Spiegelung) auf Q erhält man eine kongruente Quadrik
Q0 := f (Q) mit Gleichung
λ1 x21 + λ2 x22 + b01 x1 + b02 x2 + c = 0.
Für den Verlauf des Beweises ist es ungünstig, dass bei Vereinfachung der
Gleichung ständig neue Konstanten auftauchen. Es ist geschickter, die ursprüngliche Notation beizubehalten, auch wenn sich die konkreten Werte der
Konstanten ai,j , bi , c beim Umformen verändern. Was wir bisher bewiesen
haben, zeigt doch, dass wir für den Beweis des Satzes annehmen dürfen, dass
die Quadrik Q durch die Gleichung
a1,1 x21 + a2,2 x22 + b1 x1 + b2 x2 + c = 0
(49)
gegeben ist.
Annahme 1: a1,1 , a2,2 6= 0.
Diese Bedingung ist äquivalent zu der Aussage, dass die quadratische Form q
nichtausgeartet ist. In unserer Situtation können wir diese Bedingung benutzen,
82
um den linearen Term durch einen weiteren Koordinatenwechsel zu beseitigen:
nach der Substitution
bi
xi = yi −
, i = 1, 2,
2ai,i
in (49) erhält man die folgende Gleichung für Q:
a1,1 y12 + a2,2 y22 + c0 = 0.
für eine gewisse Konstante c0 ∈ R. Diese Substitution entspricht einer Translation der Quadrik um den Vektor v = (b1 /2a1,1 , b2 /2a2,2 ).
Ist c0 = 0 so sieht man leicht, dass die Quadrik Q entartet ist. Da wir diesen
Fall ausgeschlossen ahben, gilt c0 6= 0. Da sich eine Quadrik nicht verändert,
wenn wir ihre Gleichung mit einer Konstanten 6= 0 durchmultiplizieren, können
wir c0 zu 1 normalisieren.
Alles in allem dürfen wir also annehmen, dass die Quadrik Q durch die
Gleichung
a1,1 x21 + a2,2 x22 = 1
(50)
gegeben ist.
Wie unsere Quadrik geometrisch aussieht, hängt von den Vorzeichen der ai,i
ab; es gibt im Wesentlichen zwei Fälle. Der dritte Fall (a1,1 , a2,2 < 0) tritt nicht
ein, da in diesem Fall die Quadrik die leere Menge, also ausgeartet wäre.
1. Fall: a1,1 , a2,2 > 0
In diesem Fall ist die Quadrik Q eine Ellipse. Es tritt also der Fall (i) von
Satz 5.3.2 ein.
BILD von Q
Es sei nebenbei bemerkt, dass man auch hier noch zwei Fälle unterscheiden
kann. Sind die Koeffizienten ai,i verschieden, so handelt es sich um eine echte Ellipse mit zwei wohlbestimmten, orthogonalen Hauptachsen. In der Normalform
(50) sind dies die Achsen des Koordinatensystems.
Für a1,1 = a2,2 ist Q offenbar ein Kreis. Es gibt keine ausgezeichnete Hauptachsen, und der erste Vereinfachungsschritt (der Koordinatenwechsel x = S · y)
war überflüssig, weil die Matrix A bereits eine Diagonalmatrix war.
2. Fall: a1,1 · a2,2 < 0
In diesem Fall ist die Quadrik Q eine Hyperbel, d.h. Fall (ii) von Satz 5.3.2
tritt ein. Es gibt zwei eindeutig bestimmte, zueinander orthogonale Hauptachsen.
BILD EINER HYPERBEL
83
Was passiert, wenn die Annahme 1 nicht zutrifft? Da wir von Anfang an
angenommen haben, dass die Matrix A der quadratischen Form q nicht verschwindet, ist entweder a1,1 6= 0 oder a2,2 6= 0. Es reicht, nur einen der beiden Fälle zu betrachten. Wir gehen also zurück zu der Gleichung (49) für die
Quadrik Q und treffen die
Annahme 2: a1,1 6= 0, a2,2 = 0.
Wir haben also die Gleichung
a1,1 x21 + b1 x1 + b2 x2 + c = 0.
Wäre b2 = 0, so hinge diese Gleichung nicht mehr von x2 ab und würde eine
entartete Quadrik definieren (z.B. zwei Geraden, parallel zur x2 -Achse). Da wir
dies ausgeschlossen haben, gilt b2 6= 0. Durch die Substitution
x1 = y1 −
b1
2a1,1
beseitigen wir den Koeffizienten b1 und anschließend durch die Substitution
x2 = y2 −
c0
b2
den konstanten Term c0 . Schließlich normieren wir durch Multiplizieren der
Gleichung mit −1/b2 den Koeffizienten b2 zu −1. Nach diesen Umformungen
erhalten wir die Gleichung
a1,1 x21 − x2 = 0.
Dies ist die Gleichung einer Parabel.
BILD EINER PARABEL
Sollte a1,1 < 0 sein, so kann man durch die Substitution
x1 = y1 ,
x2 = −y2
das Vorzeichen umdrehen. Wir dürfen also a1,1 > 0 annehmen, was dem Fall
(iii) aus Satz 5.3.2 entspricht. Damit ist alles gezeigt.
2
Beispiel 5.3.3 Sei Q ⊂ E die durch die Gleichchung
3x21 − 2x1 x2 + 3x22 + 8x22 − 8x2 + 6 = 0
definierte Quadrik. Der quadratische Anteil dieser Gleichung wird durch die
symmetrische Matrix
3 −1
A=
−1 3
84
bestimmt. Die Hauptachsentransformation von A sieht so aus:
1
1 0
1 −1
t
S ·A·S =
,
mit S := √ ·
.
0 2
1 1
2
Die Substitution
x1
x2
y
=S· 1
y2
in die Gleichung für Q und anschließende Division durch 2 führt uns auf die
Gleichung
√
y12 + 2y22 − 4 2y2 + 3 = 0.
Durch die Substitution
y1 = z1 ,
y2 = z2 +
√
2
erhalten wir schließlich eine Gleichung in Normalform:
z12 + 2z22 − 1 = 0.
Die Quadrik Q ist also eine Ellipse, deren Hauptachsen die Achsen des zKoordinatensystems sind. Die Beziehung zwischen x- und z-Koordinaten ist
0
−1
√
x=S·z+S·
=S·z+
1
2
d.h.
1
x1 = √ z1 − z2 − 1,
2
1
x2 = √ z1 + z2 + 1.
2
Mit diesen Angaben ist es leicht, die Lage der Quadrik Q in der Ebene zu
skizzieren:
Bild von Q bzgl x- und z-Koordinaten
∼
Nun sei f : E → E die Bewegung der Ebene, die die Beziehung zwischen z−
und x-Koordinaten ausdrückt:
0
z = f (x) = S t · x + √ .
2
Da die Determinante der orthogonalen Matrix S gleich 1 ist, ist f eine Drehung
(um welchen Punkt und mit welchem Drehwinkel?). Die Quadrik Q0 := f (Q) ⊂
E ist eine zu Q kongruente Ellipse in Normalform, gegeben durch die Gleichung
x21 + 2x22 − 1 = 0.
85
References
[1] M. Artin, Algebra, Birkhäuser.
[2] G. Fischer, Lineare Algebra.
[3] S. Wewers, Skript zur Vorlesung Lineare Algebra I im WS 07/08.
www.iazd.uni-hannover.de/~wewers/la1/vorlesung/gesamt.pdf
86
Herunterladen