Kapitel 6 Nicht-entartete Bilinearformen

Werbung
Kapitel 6
Nicht-entartete Bilinearformen
6.1
Topologie im IRn


x1


Auf dem euklidischen n-dimensionalen Raum IRn ist die Länge eines Vektors ~x =  ...  durch
xn
q
k~xk := x21 + x22 + ... + x2n
definiert. Für 2 Vektoren ~x, ~y ∈ IR n definieren wir das Skalarprodukt als
~x · ~y :=
n
X
xj y j
j=1
Wir haben dann folgende Regeln
6.1.1 Hilfssatz. Es gilt a) k~xk2 = ~x · ~x und k~xk = 0 genau dann, wenn ~x = ~0. Weiter haben
wir ~x · ~y = ~y · ~x und damit k~x + ~yk2 = k~xk2 + k~yk2 + 2~x · ~y.
b) kλ~xk = |λ|k~xk, wenn λ ∈ IR, ~x ∈ IR n
c) Cauchy-Schwarz-Ungleichung: Für ~x, ~y ∈ IRn ist stets
|~x · ~y| ≤ k~xkk~yk
und Gleichheit gilt genau dann, wenn ~x und ~y linear abhängig sind,
d) Es gilt die Dreiecksungleichung
k~x + ~yk ≤ k~xk + k~yk
für ~x, ~y ∈ IRn .
1
(6.1.1)
2
KAPITEL 6. NICHT-ENTARTETE BILINEARFORMEN
Beweis. a) und b) können durch Nachrechnen bestätigt werden.
Zu c) Wir berechnen für t ∈ IR den Ausdruck f (t) := k~x + t~yk2 und erhalten
f (t) = k~xk2 + t2 k~yk2 + 2t~x · ~y
Wenn ~y = ~0, ist nichts zu zeigen, wenn nun ~y 6= ~0, wählen wir t := −~x · ~y /k~yk2 und erhalten
k~xk2 −
(~x · ~y)2
~x · ~y
=
f
(−
)≥0
k~y k2
k~y k2
Gilt Gleichheit, so wird f (− k~~xy·~ky2 ) = 0, also
k~x −
Das bedeutet, dass ~x =
~
x·~
y
~y
k~
y k2
~x · ~y
~y k = 0
k~y k2
ein Vielfaches von ~y ist.
Ist umgekehrt ~x ein Vielfaches von ~y, so besteht in (6.1.1) Gleichheit, wie aus a) und b) folgt.
Zu d) Wir rechnen aus
k~x + ~yk2 = k~xk2 + k~yk2 + 2~x · ~y
Nun ist aber nach c) |~x · ~y| ≤ k~xkk~yk, also
k~xk2 + k~yk2 + 2~x · ~y ≤ k~xk2 + k~yk2 + 2k~xkk~yk = (k~xk + k~yk2 )2
Daraus folgt die Dreiecksungleichung.
n
Folgerung. Für ~x, ~y ∈ IR gilt |k~xk − k~yk| ≤ k~x − ~yk.
Durch die Längenmessung wird ein Abstandsbegriff erklärt:
Definition. a) Für ~x, ~y ∈ IRn bezeichnet k~x − ~yk den Abstand zwischen ~x und ~y (angesehen
als Punkte im IRn ).
b) Für ~a ∈ IRn und r > 0 sei
B(~a, r) := {~x ∈ IRn | k~x − ~ak < r}
die ”Kugel” um ~a mit Radius r.
(Für n = 2 ist B(~a, r) gerade der Kreis um ~a mit Radius r und im Fall n = 3 genau das, was
auch sonst als Kugel bezeichnet wird).
c) Wir nennen eine Menge U ⊂ IR n offen, wenn zu jedem Punkt ~a ∈ U ein Radius r > 0
derart gefunden werden kann, dass B(~a, r) ⊂ U . Die leere Menge ist per definitionem offen. Eine
Menge heißt abgeschlossen, wenn ihr Komplement offen ist.
Dann gilt folgendes über die Familie der offenen Mengen
6.1. TOPOLOGIE IM IRN
3
6.1.2 Hilfssatz. a) Eine Vereinigung beliebig vieler offener Teilmengen des IR n ist offen, ebenso
der Durchschnitt endlich vieler offener Mengen.
b) Eine Durchschnitt beliebig vieler abgeschlossener Teilmengen des IR n ist abgeschlossen,
ebenso die Vereinigung endlich vieler abgeschlossener Mengen.
Beweis. Ü.A.
Auch das Konzept der konvergenten Folgen überträgt sich leicht auf den IRn :
Definition. Eine Folge (~xj )j≥1 ⊂ IRn von Punkten wird als konvergent bezeichnet, wenn ein
~x0 ∈ IRn existiert (Limes dieser Folge genannt, so dass für jedes ε > 0 höchstens endlich viele
Glieder der Folge nicht in B(~x0 , ε) gelegen sind. Wir schreiben wieder
lim ~xj = ~x0
j→∞
Auch die folgende Kennzeichnung einer konvergenten Folge ist einfach einzusehen
6.1.3 Hilfssatz. Sei (~xj )j≥1 ⊂ IRn eine Folge und ~x0 ∈ IRn . Dann sind die nachstehenden
Aussagen äquivalent
a) Es gilt limj→∞ ~xj = ~x0
b) Zu jedem ε > 0 gibt es ein j0 ≥ 1, so dass für alle j ≥ j0 die Abschätzung k~xj − ~x0 k < ε
besteht,
c) sind xj,k die Komponenten von ~xj , k = 1, ..., n und x0,k diejenigen von ~x0 , so gilt
lim xj,k = x0,k , k = 1, ..., n
j→∞
Beweis. Ü.A.
Definition. Sei M ⊂ IRn eine nichtleere Menge. Wir nennen ~x0 einen Häufungspunkt von M ,
wenn eine Folge (~xk )k ⊂ M von Punkten aus M existiert, so dass ~xk 6= ~x0 und limk→∞ ~xk = ~x0 .
6.1.4 Folgerung. a) Konvergiert eine Folge (~xj )j gegen ~x0 , so konvergiert die Folge (k~xj k)j
gegen k~x0 k.
b) Folgende Aussagen über eine Menge K sind äquivalent:
i) K ist abgeschlossen
ii) Ist (~xj )j ⊂ K eine Folge mit einem Grenzwert ~x0 , so gilt auch ~x0 ∈ K.
c) Genau dann ist eine Menge M ⊂ IRn abgeschlossen, wenn alle Häufungspunkte von M
wieder zu M gehören.
Beweis. Sei zuerst K abgeschlossen und (~xj )j ⊂ K eine Folge mit Grenzwert ~x0 . Wäre ~x0 ∈
/ K,
n
n
so folgte aus der Offenheit von IR \ K, dass B(~x0 , r) ⊂ IR \ K für ein genügend kleines r > 0.
Dann konnte aber B(~x0 , r) keines der ~xj enthalten, also auch ~x0 nicht Grenzwert dieser Folge
sein.
Umgekehrt angenommen, K sei nicht abgeschlossen, also IR n \ K nicht offen. Dann finden wir
einen Punkt ~x0 ∈
/ K, so dass mit keinem r > 0 die Bedingung B(~x0 , r) ⊂ IRn \ K erfüllt werden
4
KAPITEL 6. NICHT-ENTARTETE BILINEARFORMEN
kann. Wählen wir jetzt r = 1/k, k ganz, so können wir Punkte ~xk so finden, dass ~xk ∈ B(~x0 , k1 ),
aber ~xk ∈
/ IRn \ K, also ~xk ∈ K. Nun gilt aber limk→∞ ~xk = ~x0 , ohne dass ~x0 ∈ K. Die Menge K
erfüllt also unser Kriterium ii) nicht.
Auch das Cauchy-Kriterium kann sinngemäß formuliert werden:
Definition. Wir bezeichnen eine Folge (~xj )j≥1 ⊂ IRn als Cauchyfolge, wenn zu jedem ε > 0
eine Zahl j0 so gewählt werden kann, dass für alle j, k ≥ j0 gilt: k~xj − ~xk k < ε gilt.
6.1.5 Satz. Die konvergenten Folgen im IR n sind genau die Cauchyfolgen.
Beweis. Das erhalten wir etwa durch ein Induktionsargument. Die Behauptung ist für n = 1
schon als richtig erkannt (Analysis I). Angenommen, sie gilt im IR n−1 . Ist dann (~xj )j≥1 ⊂ IRn
eine Folge, so schreiben wir ~xj als ~xj = (~x0j , xj,n ) ∈ IRn−1 × IR. Dann haben wir
k~x0j − ~x0k k ≤ k~xj − ~xk k, |xj,n − xk,n | ≤ k~xj − ~xk k
√
√
√
und ebenso (wegen A + B ≤ A + B, für A, B ≥ 0)
k~xj − ~xk k ≤ k~x0j − ~x0k k + |xj,n − xk,n |
Das zeigt, dass (~xj )j genau dann eine Cauchyfolge ist, wenn dies auf die Folgen (~x0j )j und (xj,n )j
zutrifft. Zusammen mit der Induktionsannahme ergibt sich nun, dass, sollte (~xj )j eine Cauchyfolge
sein, die Folgen (~x0j )j und (xj,n )j konvergieren. Der obige Hilfssatz lehrt, dass dann auch (~xj )j
einen Limes haben muss.
Wenn umgekehrt (~xj )j konvergent ist, so gilt dies auch für Folgen (~x0j )j und (xj,n )j , welche
dann aber Cauchyfolgen sein müssen. Wieder mit dem obigen Hilfssatz finden wir, dass auch
Folge (~xj )j das Cauchykriterium erfüllt.
Wir benötigen des öfteren den Begriff der Kompaktheit.
Definition. Wir nennen eine Menge K ⊂ IR n beschränkt, wenn eine Schranke R > 0 existiert,
so dass k~xk ≤ R für alle ~x ∈ K. Ferner heißt K kompakt, wenn jede Folge (~xj )j von Punkten aus
K eine in K konvergente Teilfolge hat, also eine Teilfolge (~xjk )k mit einem Grenzwert ~x0 ∈ K.
Diese Art von Kompaktheit nennt man auch Folgenkompaktheit.
6.1.6 Satz. Genau dann ist eine Menge K ⊂ IR n kompakt, wenn sie abgeschlossen und beschränkt ist.
Beweis. Angenommen, K sei kompakt. Wäre dann K unbeschränkt, so könnte man eine Folge
(~xj )j in K auswählen, für die k~xj k ≥ j für alle j.Für diese Folge kann es aber keine konvergente
Teilfolge geben, da die Folge (k~xj k)j keine derartige Teilfolge besitzt. Somit ist K beschränkt.
Wäre K nicht abgeschlossen, so fände sich eine Folge (~xj )j ⊂ K mit Grenzwert ~x0 ∈
/ K. Aus
einer solchen Folge ließe sich aber keine in K konvergente Teilfolge auswählen, Widerspruch.
6.1. TOPOLOGIE IM IRN
5
Umgekehrt nehmen wir nun an, K sei abgeschlossen und beschränkt. Sei jetzt (~xj )j ⊂ K eine
Folge. Dann ist, wenn wieder xj,k die k.-te Komponente von ~xj bezeichnet, jede Folge (xj,k )j beschränkt, hat also nach dem Satz von Bolzano-Weierstraß eine konvergente Teilfolge. Wir nehmen
zuerst eine konvergente Teilfolge (xjk1 ,1 )k1 von (xj,1 )j her. Die Folge (xjk1 ,2 )k1 hat eine konvergente Teilfolge (xjk2 ,2 )k2 , ebenso können wir aus (xjk2 ,3 )k2 eine konvergente Teilfolge auswählen.
So fortfahrend, sehen wir, dass (~xj )j eine konvergente Teilfolge hat. Ihr Grenzwert liegt, da K
abgeschlossen ist, wieder in K.
Die nächste Kennzeichnung einer kompakten Menge ist ebenfalls grundlegend wichtig.
6.1.7 Satz (Heine-Borel). Genau dann ist eine Menge K ⊂ IR n kompakt, wenn zu jeder Überdeckung (Ui )i∈I von K durch offene Mengen Ui ⊂ IRn eine endliche Teilüberdeckung existiert,
d.h.: Ist I eine beliebige Indexmenge und gilt K ⊂ ∪i∈I Ui , so gibt es eine endliche Teilmenge
J ⊂ I, so dass schon K ⊂ ∪i∈J Ui .
Beweis. Angenommen, zu jeder Überdeckung (Ui )i∈I von K durch offene Mengen Ui ⊂ IRn
existiere eine endliche Teilüberdeckung. Gäbe es dann eine Folge (~xm )m ⊂ K, welche keine in K
konvergente Teilfolge hat, so fände sich zu jedem ~x ∈ K ein Radius r(~x) > 0, so dass
E~x := {m | ~xm ∈ B(~x, r(~x))}
eine endliche Menge wäre. Dann wäre aber ( B(~x, r(~x) )~x∈K eine Überdeckung von K durch offene
Mengen, müsste also eine endliche Teilüberdeckung haben, d.h.: Es gäbe endlich viele Punkte
~x1 , ...., ~x` ∈ K, so dass schon
`
[
K⊂
B(~x` , r(~x` ) ).
k=1
Dann hätte man jedoch
IN =
`
[
E~xk
k=1
ein Widerspruch, da rechts eine endliche Menge steht.
Umgekehrt nehmen wir jetzt an, K sei kompakt. Gegeben sei eine Überdeckung (Ui )i∈I von
K durch offene Mengen Ui ⊂ IRn . Wir zeigen zuerst:
(i) Es gibt ein δ > 0, so dass zu jedem ~x ∈ K ein Index i(~x) ∈ I so gewählt werden kann,
dass B(~x, δ) ⊂ Ui(~x) .
Anderenfalls fände man zu jedem m ∈ IN ein ~xm ∈ K, so dass B(~xm , m1 ) ⊂ Ui für kein i ∈ I
erfüllt wäre. Die Folge (~xm )m hat aber eine konvergente Teilfolge mit Grenzwert ~x0 ∈ K. Wir
wählen einen Index i0 ∈ I, so dass ~x0 ∈ Ui0 . Da Ui0 offen ist, liegt eine kleine Kugel B(~x, ε0 ) ganz
in Ui0 . Wir finden nun aber auch Folgenglieder ~xm ∈ B(~x0 , ε0 /2), wobei 1/m < ε/2 ist. Dann
wird aber
1
1
1
B(~xm , ) ⊂ B(~x0 , + ε0 ) ⊂ B(~x0 , ε0 ) ⊂ Ui0
m
m 2
6
KAPITEL 6. NICHT-ENTARTETE BILINEARFORMEN
Das widerspräche aber der Wahl der Folge (~x` )` .
Das δ > 0 mit der in i) beschriebenen Eigenschaft steht also zur Verfügung.
Der nächste Schritt ist
S
ii) Es gibt eine endliche Menge E ⊂ K mit K ⊂ ~a∈E B(~a, δ).
Angenommen, eine solche Menge E ließe sich nicht finden. Sei ~x1 ∈ K beliebig. Da nun
K 6⊂ B(~x1 , δ), gibt es einen Punkt ~x2 ∈ K, so dass ~x2 ∈
/ B(~x1 , δ). Da auch K ⊂ B(~x1 , δ)∪B(~x2 , δ)
nicht sein kann, gibt es ein ~x3 ∈ K, dass nicht zu B(~x1 , δ) ∪ B(~x2 , δ) gehört. So fortfahrend finden
wir induktiv eine Folge (~xk )k ⊂ K, so dass ~xk ∈
/ B(~x1 , δ) ∪ .... ∪ B(~xk−1 , δ) . Dann hat aber in
dieser Folge jedes Glied vom anderen einen Abstand von mindestens δ. Es könnte also keine
konvergente Teilfolge für diese Folge geben, was der Kompaktheit von K zuwiderliefe.
Mit i) und ii) folgt sofort der Satz: Mit den Bezeichnungen aus i) haben wir nämlich
[
[
K⊂
B(~a, δ) ⊂
Ui(~a)
~a∈E
~a∈E
Stetigkeit
Definition. Sei M ⊂ IRn eine Menge.
a) Dann nennen wir eine Funktion f : M −→ IR in einem Punkt ~x0 ∈ M stetig, wenn gilt:
• Zu jedem ε > 0 gibt es ein δ > 0, so dass für jedes ~x ∈ M ∩B(~x0 , δ) schon |f (~x)−f (~x0 )| < ε
wird.
ist.
b) Eine Abbildung f : M −→ IRd wird in ~x0 ∈ M stetig genannt, jede Komponente von f es
wir
Beispiel. 1) Ist ~a ∈ IRn fest, so ist f (~x) := ~a ·~x in jedem Punkt ~x0 ∈ IRn stetig. Dazu beachten
|f (~x) − f (~x0 )| = |~a · (~x − ~x0 )| ≤ k~akk~x − ~x0 k
ε
Ist also ε > 0, so wird |f (~x) − f (~x0 )| < ε, sofern k~x − ~x0 k < δ := 1+k~
wird.
ak
n
n
2) Auch die Funktion F (~x, ~y) := ~x ·~y ist auf ganz IR × IR stetig. Um dies zu sehen, schätzen
wir ab:
|F (~x , ~y ) − F (~a, ~b)| = |(~x − ~a) · ~y − ~a · (~b − ~y)|
≤ k~x − ~akk~yk + k~y − ~bkk~ak
≤ k~x − ~ak(k~y − ~bk + k~bk) + k~y − ~bkk~ak
Wenn nun ~a, ~b ∈ IRn fest gewählt sind, so müssen wir zu gegebenem ε > 0 nur
k(~x, ~y) − (~a, ~b)k < δ :=
ε
1 + ε + k~ak + k~bk
6.1. TOPOLOGIE IM IRN
7
wählen und erreichen, dass
|F (~x, ~y) − F (~a, ~b)| < δ(δ + k~bk) + δk~ak ≤ δ(1 + k~ak + k~bk) < ε
3) Jede lineare Abbildung f : IRn −→ IRd ist stetig. Ist nämlich A = (aij )ni,j=1 die f bezüglich
der kanonischen Basen darstellende Matrix, so sehen wir, dass
|
n
X
j=1
~ i · ~x|2 ≤ kA
~ i k2 k~xk2
aij xj |2 = |A
~ i die i.-te Zeile von A bezeichnen soll. Summieren wir über alle i = 1, ..., d, so kommt
wobei A
heraus
kf (~x)k2 ≤ kA k2 k~xk2
P
~ i k2 . Das impliziert die Stetigkeit von f in ~0. Der Rest folgt jetzt leicht
wobei kA k2 := di=1 kA
aus
kf (~x) − f (~x0 )k = kf (~x − ~x0 )k ≤ kA kk~x − ~x0 k
Stetigkeit kann mit einem Folgenkriterium überprüft werden.
6.1.8 Hilfssatz. Eine Abbildung f : M −→ IRd ist genau dann in einem Punkt ~x0 ∈ M stetig,
wenn für jede Folge (~xj )j ⊂ M mit Grenzwert ~x0 die Folge der Bilder (f (~xj ))j gegen f (~x0 )
konvergiert.
Beweis. Sei zuerst f in ~x0 stetig. Ist nun (~xj )j ⊂ M eine Folge mit Limes ~x0 und ε > 0 vorgegeben,
so gibt es ein δ > 0, so dass für alle ~x ∈ M ∩ B(~x0 , δ) das Bild f (~x) in B(f (~x0 ), ε) gelegen ist.
Wir wählen jetzt eine Zahl j0 ≥ 1, so dass für alle j ≥ j0 schon k~xj − ~x0 k < δ ist. Für diese j
muss dann kf (~xj ) − f (~x0 )k < ε sein. Das Folgenkriterium ist also notwendig für die Stetigkeit
von f .
Angenommen nun, f sei in ~x0 unstetig. Dann gibt es ein ε > 0, so dass f (B(~x0 , δ) ∩ M ) ⊂
B(f (~x0 , ε) für kein (noch so kleines) δ > 0 gilt. So finden wir eine Folge von Punkten ~xk ∈
B(~x0 , k1 ) ∩ M mit kf (~xk ) − f (~x0 )k ≥ ε. Diese verletzt dann aber das Folgenkriterium.
Stetige Abbildungen setzen sich wieder zu stetigen Abbildungen zusammen.
6.1.9 Hilfssatz. Sei M eine Menge.
a) Sind f, g : M −→ IRd stetig in ~x0 ∈ M , so auch f + g.
b) Sind f, g : M −→ IR stetig in ~x0 ∈ M , so auch f g.
c) Ist g(~x0 ) 6= 0, so ist auf einer kleinen Umgebung B(~x0 , r) ebenfalls g(~x) 6= 0 und f /g in ~x0
stetig.
d) Angenommen, es seien f : M −→ S ⊂ IRd und h : S −→ IRk Abbildungen und f in ~x0
und h in f (~x0 ) stetig, so ist h ◦ f in ~x0 stetig.
8
KAPITEL 6. NICHT-ENTARTETE BILINEARFORMEN
Beweis. Dies sehen wir leicht mit Hilfe des Folgenkriteriums ein.
Stetige Funktion nehmen auf kompakten Mengen ein Maximum und Minimum an.
6.1.10 Satz. Ist K ⊂ IRn kompakt und f : K −→ IR stetig, so gibt es Punkte ~xmax , ~xmin ∈ K
mit
f (~xmin ) ≤ f (~x) ≤ f (~xmax ), f ür ~x ∈ K
Beweis. Zuerst stellen wir fest, dass die Bildmenge f (K) wieder beschränkt ist. Anderenfalls
könnten wir eine Folge (~xj )j ⊂ K so finden, dass f (~xj )j unbeschränkt würde. Da K kompakt
ist, dürfen wir (wenn nötig, nach Auswahl einer Teilfolge) annehmen, dass ~x0 := limj→∞ ~xj in
K existiere. Dann kann aber f in ~x0 nicht stetig gewesen sein. Das zeigt, dass f (K) beschränkt
sein muss. Damit sind die Zahlen S := sup f (K) und S := inf f (K) wohldefiniert und wir finden
Folgen (~xj )j , (~yj )j ⊂ K mit Grenzwerten ~xmax und ~xmin , so dass
lim f (~xj ) = S,
j→∞
lim f (~yj ) = S
j→∞
Da f stetig ist, haben wir aber dann f (~xmax ) = S, f (~xmin ) = S.
6.2
Hauptachsentransformation symmetrischer Matrizen
Für das folgende rechnen wir mit Skalarprodukten und symmetrischen Matrizen.
6.2.1 Hilfssatz. Ist A eine reelle n × n-Matrix, so gilt für ~x, ~y ∈ IRn :
~x · A ~y = A T ~x · ~y = ~y · A T ~x
und
(A ~x) · ~y = ~x · (A T ~y ) = (A T ~y) · ~x
Weiter folgt
(A ~x) · A ~y = ~x · A T A ~y
Ist A symmetrisch, so folgt
~x · A ~y = ~y · A ~x = (A ~x) · ~y
6.2. HAUPTACHSENTRANSFORMATION SYMMETRISCHER MATRIZEN
9
Beweis. Schreiben wir A = (aij )ni,j=1 , dann folgt
~x · A ~y =
n
X
xi aij yj =
i,j=1
n
X
i,j=1
yj (aTji )xi = ~y · A T ~x
Die zweite Gleichung folgt, wenn man in der ersten A durch A T ersetzt. Der Rest ist nun klar.
T
Wir zeigen jetzt, dass jede symmetrische Matrix A ∈ M (n × n, IR) (d.h.: A = A ) diagonalisierbar ist.
6.2.2 Satz. Jede reelle symmetrische Matrix A hat einen Eigenwert in λ ∈ IR.
Beweis. Die Sphäre S := {~x | k~xk = 1} ist kompakt (da abgeschlossen und beschränkt).
Daher nimmt die Funktion
f (~x) := ~x · (A ~x)
auf S ein Maximum λ an, etwa im Punkte ~x0 ∈ S. Wir zeigen jetzt, dass λ ein Eigenwert von A
ist. Dazu beachten wir, dass für jedes ~x ∈ IRn gilt
f (~x) ≥ λk~xk2
Nun wählen wir für ein beliebiges t ∈ IR und einen beliebigen Vektor ~v 6= ~0:
g(t) := f (~x0 + t~v ) − λk~x0 + t~v k2
Dann wird also g(t) ≥ 0 für alle t. Nun ist aber
g(t) =
=
=
=
=
(~x0 + t~v ) · A (~x0 + t~v ) − λk~x0 + t~v k2
~x0 · A ~x0 + 2t(~x0 · A ~v + ~v · A ~x0 ) + t2~v · A ~v − λ − 2t~x0 · ~v − t2 k~v k2
f (~x0 ) + 2t~x0 · A ~v + t2~v · A ~v − λ − 2λt~x0 · ~v − λt2 k~v k2
2t(~v · A ~x0 − λ~v · ~x0 ) + t2 (~v · A ~v − k~v k2 )
2t~v · (A ~x0 − λ~x0 ) + t2 (~v · A ~v − k~v k2 )
denn f (~x0 ) = λ, und, da A symmetrisch ist, wird
~x0 · A ~v = (A T ~v ) · ~x0 = ~v · A ~x0
Jetzt bedenken wir aber: Soll ein Polynom 2. Grades der Form at + bt2 nur Werte größer oder
gleich 0 annehmen, muss a = 0 sein. Für g heißt das aber:
~v · (A ~x0 − λ · ~x0 ) = 0
All dies gilt für beliebige Wahl von ~v . Nun wenden wir das an auf ~v = A ~x0 − λ · ~x0 und finden
so:
A ~x0 − λ · ~x0 = 0, also A ~x0 = λ · ~x0
10
KAPITEL 6. NICHT-ENTARTETE BILINEARFORMEN
Wir verallgemeinern den Begriff der Orthogonalität.
Definition. Wir nennen 2 Vektoren ~x, ~y ∈ IR n orthogonal, wenn ~x · ~y = 0.
6.2.3 Hilfssatz. a) Paarweise orthogonale von ~0 verschiedene Vektoren ~v1 , ..., ~vr sind stets linear
unabhängig.
b) Ist U ⊂ IRn ein Untervektorraum, so ist auch U ⊥ := {~x | ~x · ~y = 0, wenn ~y ∈ U } ein
Untervektorraum, und es ist
Beweis. a) Wenn
Pr
i=1
dim U + dim U ⊥ = n, U ∩ U ⊥ = {~0}
αi~vi = ~0 für Koeffizienten α1 , ..., αr gilt, so folgt
!
r
X
2
αi~vi = 0
αj k~vj k = ~vj ·
i=1
also muss αj = 0 gelten.
b) Die Untervektorraumaxiome sind für U ⊥ leicht nachgeprüft. Nun wählen wir eine Basis
~b1 , ..., ~bk für U . Dann gehört ein Vektor ~x genau dann zu U ⊥ , wenn er die Bedingungen
~b1 · ~x = 0, ~b2 · ~x = 0, ... ~bk · ~x = 0
erfüllt. Ist A die Matrix mit Zeilen ~b1 , ..., ~bk , so sehen wir, dass U ⊥ = NA , also ist dim U ⊥ =
n − rg A = n − k.
Wenn weiter ~x ∈ U ∩ U ⊥ , so ist k~xk2 = ~x · ~x = 0, also ~x = ~0.
6.2.4 Hilfssatz. Zu jedem Untervektorraum U ⊂ IRn können wir eine Orthonormalbasis finden,
also eine Basis, deren Vektoren die Länge 1 haben und paarweise aufeinander senkrecht stehen.
Beweis. Wir induzieren über die Dimension k von U . Im Fall k = 1 ist nichts zu tun: Man wähle
einen von null verschiedenen Vektor ~b1 0 und teile ihn durch k~b1 0 k. Angenommen, jeder Untervektorraum der Dimension k − 1 besitze eine Orthonormalbasis. Sei nun U ein Untervektorraum
der Dimension k. Ist jetzt ~bk ∈ U nicht der Nullvektor, so können wir annehmen, seine Länge
sei 1. Dann ist U 0 := U ∩ (Span (~bk ) )⊥ ein Untervektorraum der Dimension k − 1 in U . Denn ist
~x ∈ U , so schreiben wir
~x = (~x · ~bk ) ~bk + (~x − (~x · ~bk ) ~bk )
|
{z
}
~
x0
Dann ist ~x 0 ∈ U . Da aber ~x 0 · ~bk = 0, ist sogar ~x0 ∈ U 0 . Es folgt U = Span (~bk ) + U 0 . Da offenbar
Span (~bk ) ∩ U 0 = {~0}, ist k = dim U = 1 + dim U 0 . Wir können also eine Orthonormalbasis
~b1 , ..., ~bk−1 für U 0 auswählen. Dann ist aber ~b1 , ..., ~bk eine gewünschte Orthonormalbasis für U .
Definition. Wir nennen eine reelle n × n-Matrix S orthogonal, wenn ihre Spalten eine Orthonormalbasis des IRn bilden.
6.2. HAUPTACHSENTRANSFORMATION SYMMETRISCHER MATRIZEN
11
6.2.5 Hilfssatz. a) Genau dann ist die Matrix S ∈ M (n×n, IR) orthogonal, wenn S T S = En .
b) Die orthogonalen Matrizen bilden eine Gruppe, die orthogonale Gruppe O (n).
c) Ist S ∈ O (n), so ist det S = ±1. Die orthogonalen Matrizen mit Determinante 1 bilden
eine Gruppe SO(n).
d) Ist S ∈ O (n) und λ ein Eigenwert von S , so muss λ = ±1 sein. Ist insbesondere n
ungerade, so gibt es eine Gerade IR~q durch den Ursprung, die von S wegen S ~q = ±~q auf sich
abgebildet wird
Beweis. a) Der an der (i, j)-ten Stelle stehende Eintrag von S T S ist gerade das Skalarprodukt zwischen der i.-ten und der j.-ten Spalte von S . Daraus folgt a).
b) Mit S und T ist auch S T orthogonal, denn (S T )T S T = T T S T S T T = En . Da für
S ∈ O (n) stets gilt: S −1 = S T , folgt
(S −1 )T S −1 = (S T )T S T = S S T = En
Somit ist auch S −1 ∈ O (n). Trivialerweise gilt En ∈ O (n).
c) Leicht nachzuprüfen.
d) Ist ~x ein Eigenvektor ungleich Null zum Eigenwert λ, so ist
λ2 k~xk2 = S ~x · S ~x = ~x · ~x = k~xk2
also λ2 = 1. Ist n ungerade, so hat χS ungeraden Grad, also nach dem Zwischenwertsatz eine
Nullstelle λ. Diese ist Eigenwert zu S , also λ = ±1. Als q~ wählen wir daher einen Eigenvektor
zu λ.
Nun können wir leicht den Spektralsatz beweisen:
6.2.6 Satz. (Hauptachsentransformation).Ist A eine reelle symmetrische Matrix, so existiert
eine Orthonormalbasis ~b1 , ..., ~bn von IRn , welche nur aus Eigenvektoren von A besteht. Oder
anders gesagt: Es gibt eine Matrix S ∈ O (n) mit S T S = En , so dass S T A S Diagonalgestalt
hat.
Beweis. Wir induzieren nach n, wobei der Fall n = 1 trivial ist. Angenommen, der Satz gilt
für symmetrische reelle (n − 1) × (n − 1)-Matrizen. Wir wissen schon, dass A einen Eigenwert
λ1 ∈ IR hat. Sei ~b1 ein zugehöriger Eigenvektor der Länge 1. Nun sei U = Span (~b1 )⊥ . Ist dann
~y ∈ U , so wird
~b1 · A ~y = (A ~b1 ) · ~y = λ1~b1 · ~y = 0
Also ist auch ~y ∈ U . Wir wählen eine Orthonormalbasis ~b2 , ..., ~bn ) von U und bilden die Matrix
S1 = ~b1 , ~b2 , ..., ~bn
12
KAPITEL 6. NICHT-ENTARTETE BILINEARFORMEN
Dann wird
S1T A S1 = S1T (λ1~b1 , A S1~e 2 , ..., A S1~e n )
=


λ1 0 . . . 0


λ1~e 1 , S1T A S1~e 2 , ..., S1T A S1~e n =  ...

A0
0
Denn die linke Seite ist eine symmetrische Matrix, also muss es die rechte auch sein, und wir
wissen schon, dass ihre erste Spalte gerade λ1~e 1 ist. Die Induktionsannahme sagt jetzt, dass eine
orthogonale Matrix S 0 mit n−1 Zeilen und Spalten derart gewählt werden kann, dass S 0 T A 0 S 0
Diagonalgestalt annimmt. Dann ist aber


1 0 ... 0


S = S1  ...

S0
0
eine gewünschte Matrix. Auch sie ist orthogonal.
Folgerung. Ist A reell und symmetrisch, dann ist det(A ) das Produkt der Eigenwerte von
A.


1 0 3
Beispiel. Sei A =  0 1 2 . Dann ist A symmetrisch und
3 2 2

χA (t) = t3 − 4t2 − 8t + 11

−2
Nun wird χA (1) = 0 und  3  ist Eigenvektor zum Eigenwert 1. Die Matrix
0


− √213 √313 0
S1 :=  √313 √213 0 
0
0 1
ist orthogonal, und es ist
Sei nun


1 0 √0
13 
S1T A S1 =  0 √1
0
13 2

S2 = 
√
53)
√
2 √ 53+ 53
√ 26√
53+ 53
√
− √ (1+
−
√
√
1−
√ 53
√
2 53√ −1+ 53
26
√ √
√
53 −1+ 53


6.3. NICHT-ENTARTETE BILINEARFORMEN
Dann wird
S := S1
wieder orthogonal, und

1

S TA S =  0
0
6.3
√
13
1 0
0 S2
0
53−25
√
1+ 53
0
0
0
√
√ 25+
√ 53
2 53( 53−1)2



Nicht-entartete Bilinearformen
Positiv definite Bilinearformen
Definition. Eine Bilinearform (2-fach-Multilinearform) b : IRn × IRn mit Werten in IR heißt
• symmetrisch, wenn b(~x, ~y) = b(~y, ~x), für alle ~x, ~y ∈ IRn
• positiv semi-definit, wenn sie symmetrisch ist und ferner gilt b(~x, ~x) ≥ 0, für alle ~x ∈ IRn
• positiv definit, wenn b positiv semi-definit ist und darüber hinaus noch b(~x, ~x) > 0, wenn
~x 6= ~0.
• negativ (semi)-definit, wenn −b positiv (semi)-definit ist.
• indefinit, wenn sie weder positiv semi-definit noch negativ semi-definit ist, wenn also Vektoren ~x, ~y existieren, so dass b(~x, ~x) < 0 < b(~y, ~y).
Eine wichtige Klasse von symmetrischen Bilinearformen wird durch symmetrische Matrizen
induziert: Ist A ∈ M (n × n, IR) eine symmetrische Matrix, so definiert
bA (~x, ~y) := ~x · (A ~y)
eine symmetrische Bilinearform. Für A = En erhalten wir das übliche Skalarprodukt.
Wir nennen eine Matrix A positiv (semi)-definit, wenn dies auf bA zutrifft.
Wie stellen wir fest, ob eine Matrix A positiv semidefinit ist?
6.3.1 Satz. a) Eine symmetrische Matrix A = (aij )ni,j=1 ∈ M (n × n, IR) ist genau dann positiv
semi-definit, wenn man eine Matrix B so finden kann, dass A = B T B gilt.
b) Eine symmetrische Matrix A = (aij )ni,j=1 ∈ M (n × n, IR) ist genau dann positiv definit,
wenn eine invertierbare Matrix B wie in a) existiert.
14
KAPITEL 6. NICHT-ENTARTETE BILINEARFORMEN
Beweis. a) Ist A = B T B mit einer reellen n×n-Matrix B, so haben wir ~x ·A ~x = kB~xk2 ≥ 0
für jedes ~x ∈ IRn .
Wissen wir umgekehrt, dass A positiv semi-definit ist, so sind alle Eigenwerte von A nichtnegativ. (Denn: Ist λ ein Eigenwert von A und ~v 6= ~0 ein Eigenvektor zu diesem Eigenwert, so
wird λk~v k2 = ~v · (λ~v ) = ~v · A ~v ≥ 0, also λ ≥ 0.) Es gibt eine orthogonale Matrix S , so dass
S T A S = D eine Diagonalmatrix wird. Die Einträge von D sind ≥ 0, also können wir schreiben
D = D12 mit einer geeigneten Diagonalmatrix D1 . Dann aber erhalten wir A = S D1 (D1 S T ).
Also leistet B = D1 S T das Gewünschte.
b) Wir können A = B T B schreiben. Wäre B nicht invertierbar, so fände sich ein Vektor
~v 6= ~0 mit B~v = ~0. Das ergäbe aber ~v · A ~v = 0, obwohl ~v 6= ~0, ein Widerspruch.
Folgerung. Sei W invertierbar. Genau dann ist A positiv (semi)-definit, wenn W T A W es
ist.
Für die Positiv-Definitheit gibt es ebenfalls ein Kriterium. Dazu benutzen wir
6.3.2 Satz(Jacobische Normalform). Angenommen, es sei A eine symmetrische reelle Matrix,
so dass δk := det( (aij )ki,j=1 ) 6= 0 für jedes k = 1, ..., n. Dann gibt es eine Matrix W mit

δ1
0
..
.



T
W AW =


 0
0
0
δ2
δ1
...
0
..
.
0
0
...
...
...
...
..
0
0
..
.
.
0
0
δn
δn−1








Beweis. Induktion nach n. Für n = 1 ist nichts zu tun. Angenommen, der Satz sei für n − 1
richtig. Wir wollen A in der Form
A =
En−1 Z
0
1
T A0 0
0 D
En−1 Z
0
1
darstellen, wobei Z eine n − 1-komponentige Spalte und D eine geeignete Zahl sein soll. Weiter
soll auf die symmetrische (n−1)×(n−1) Matrix A 0 die Induktionsannahme anwendbar
 sein. Die

a1n


0 −1
obige Matrixgleichung gilt, wenn wir A 0 = (aij )n−1
A 00 , wobei A 00 :=  ...
.
i,j=1 und Z = A
an−1 n
−1
Weiter müssen wir D := ann − A 00 · A 0 A 00 . Das alles ist sinnvoll, da wegen δn−1 6= 0 die Matrix
A 0 invertierbar ist. Wir erhalten jetzt wegen
En−1 Z
0
1
−1
=
En−1 −Z
0
1
6.3. NICHT-ENTARTETE BILINEARFORMEN
En−1 −Z
0
1
T
A
15
En−1 −Z
0
1
=
A0 0
0 D
det(A )
δn−1
Da nun aber auch D = det(A
gilt, ist auf A 0 die Induktionsvoraussetzung anwendbar.
0) =
δn
Es gibt daher eine (n − 1) × (n − 1)-Matrix W 0 mit


δ1 0 . . . . . .
0
 0 δ2 0 . . .
0 


δ1
 ..
.. 
..
0T
0
0

.
. 
W A W = .



..
.
0 
 0 0 ...
n−2
0 0 . . . 0 δδn−1
Dann ist
W :=
En−1 −Z
0
1
W0 0
0 1
die gewünschte Matrix.
Unser Kriterium für Positiv-Definitheit lautet dann so
6.3.3 Satz. Genau dann ist eine Matrix A = (aij )ni,j=1 positiv definit, wenn für alle k = 1, ..., n
die Zahl δk := det( (aij )ki,j=1 ) positiv ist.
Beweis. Sind alle Zahlen δk positiv, so ist A positiv definit. Das folgt nun leicht mit der
Jacobischen Normalform, welche nun positiv definit ist.
Ist umgekehrt bekannt, dass A positiv definit ist, so ist jede Untermatrix (aij )ki,j=1 wieder
positiv-definit, also ihre Eigenwerte und damit ihre Determinante positiv.
Das Orthonormalisierungsverfahren nach Gram-Schmidt
Definition. Sei b : IRn × IRn −→ IR sei eine symmetrische Bilinearform. Unter einer Orthogonalbasis von IRn verstehen wir dann eine solche Basis C := {~c1 , ..., ~cn }, für die gilt b(~ci , ~cj ) = 0,
wenn i 6= j. Ist b positiv definit, so wird eine Orthogonalbasis als eine Orthonormalbasis bezeichnet, wenn ihre Vektoren die Bedingung b(~cj , ~cj ) = 1 erfüllen.
6.3.4 Satz. Angenommen, b : IRn × IRn −→ IR sei eine symmetrische positiv-definite Bilinearform und C := {~c1 , ..., ~cn } irgendeine Basis von IRn . Dann können wir eine Orthonormalbasis
~v1 , ...., ~vn für IRn finden, so dass ~vj ∈ Span ({~c1 , ..., ~cj }) für alle j = 1, ..., n und der Koeffizient
bei ~cj in der Darstellung von ~vj als Linearkombination der ~c1 , ..., ~cj positiv ist.
Äquivalent dazu ist: Die Basiswechselmatrix hat obere Dreiecksgestalt und ihre Diagonalterme
sind positiv sind.
16
KAPITEL 6. NICHT-ENTARTETE BILINEARFORMEN
Beweis. Wir wählen
~c1
~v1 := p
b(~c1 , ~c1 )
Angenommen, wir haben schon ~v1 , ..., ~vj definiert. Dann setzen wir
w
~ j+1 := ~cj+1 −
j
X
b(~cj+1 , ~vi )~vi
i=1
Dann ist sicher w
~ j+1 ∈ Span ({~c1 , ..., ~cj+1 }). Wäre w
~ j+1 = ~0, so wäre schon ~cj+1 ∈ Span ({~c1 , ..., ~cj }),
ein Widerspruch zur linearen Unabhängigkeit der Vektoren ~ck . Daher ist auch
w
~ j+1
~vj+1 := p
b(w
~ j+1 , w
~ j+1 )
wohldefiniert. Nun ist sicher ~vj+1 ∈ Span ({~c1 , ..., ~cj+1 }) , bei ~cj+1 steht der positive Koeffizient
1
√
. Schließlich finden wir noch, dass
b(w
~ j+1 ,w
~ j+1 )

1
b(~cj+1 , ~v` ) −
b(~vj+1 , ~v` ) = p
b(w
~ j+1 , w
~ j+1 )
für alle ` ≤ j.
i=1

b(~cj+1 , ~vi ) b(~vi , ~v` ) = 0
| {z }
=δi `
Beispiel. Sei b(~x, ~y) = ~x · A ~y, wobei
j
X


5
6 −3
A =  6 18 −6 
−3 −6 3
5 6
Dann ist det
= 54 und det(A ) = 36. Also wird A positiv definit. Sei C die kanonische
6 18
Basis des IR3 . Dann wird also
 
1
1  
0
~v1 = √
5
0
Nun bilden wir


       
 


0
1
−6
0
1
1
0
1
6
1
w
~ 2 :=  1  − b(  1  ,  0  )  0  =  1  −  0  =  5 
5
5
5
0
0
0
0
0
0
0
6.3. NICHT-ENTARTETE BILINEARFORMEN
und anschließend
Nun sei
w
~3
17




−6
−6
1
1
w
~2  5  = √  5 
~v2 = p
3 30
b(w
~ 2, w
~ 2)
0
0


  
0
0
1
1   


0
0 , 0
:=
− b(
5
1
1
0
 
 

0
1
2 
3 


=
0
+
0
+
5
45
1
0


 
1/3
3
1 


2/9
2
=
=
9
1
9
 

  
 

1
0
−6
−6
 )  0  − 1 b(  0  ,  5  )  5 
270
0
1
0
0

−6
5 
0


3
Da b(w
~ 3, w
~ 3 ) = 54, muss ~v3 = 3√1 6  2  gewählt werden.
9
Allgemeine nicht-entartete Bilinearformen
Definition. Eine symmetrische Bilinearform b : IRn × IRn −→ IR wird nicht-entartet genannt,
wenn zu jedem Vektor ~x ∈ IRn \ {~0} ein Vektor ~y ∈ IRn mit b(~x, ~y) 6= 0 existiert.
Beispiel. a) Die Bilinearform b(~x, ~y) = x1 y1 ist entartet.
b) Die Bilinearform b(~x, ~y) = ~x 0 · ~y 0 − xn yn dagegen nicht. (Hierbei soll ~x 0 ∈ IRn−1 den Vektor
bezeichnen, der aus ~x durch Weglassen der letzten Komponente entsteht).
Wieder gibt es einen Orthogonalitätsbegriff:
Definition. Ist b : IRn × IRn −→ IR symmetrisch und bilinear, so sagen wir, die Vektoren
~x, ~y ∈ IRn seien orthogonal, wenn b(~x, ~y) = 0. Zu einem Untervektorraum U ⊂ IR n definieren wir
den Orthogonalraum zu U den Unterraum
U b,⊥ := {~x ∈ IRn | b(~x, ~y) = 0, f ür alle ~y ∈ U }
Mit dieser Bezeichnungsweise gilt dann
6.3.5 Hilfssatz. Eine symmetrische Bilinearform b auf IRn ist genau dann nicht-entartet, wenn
IRb,⊥ = {~0}.
b) Ist U ⊂ IRn ein Unterraum, so ist U ⊂ (U b,⊥ )b,⊥ .
18
KAPITEL 6. NICHT-ENTARTETE BILINEARFORMEN
Beweis. Leicht.
Beispiel. Sei auf IR3 :
b(~x, ~y) := x2 y3 + x3 y2
Ist dann U = {~x | x1 = 0}, so wird
 
 
 
0
0
1
b,⊥





0 
U = {~x | b(~x, 1 ) = b(~x, 0 ) = 0} = {~x | x2 = x3 = 0} = Span
0
1
0
und weiter (U b,⊥ )b,⊥ = IR3 .
Dagegen gilt:
6.3.6 Satz. Ist b eine nicht-entartete symmetrische Bilinearform auf IR n , so gilt für jeden
Unterraum U :
dim U + dim U b,⊥ = n
Ist weiter b auf U nicht-entartet, so wird sogar U ∩ U b,⊥ = {~0}.
Bemerkung. Die Bedingung b) ist nicht etwa eine Konsequenz der Nicht-Entartungsvoraussetzung an b.
So ist etwa die Form b(~x, ~y) = x2 y1 + x1 y2 nicht-entartet auf IR2 , wohl aber auf U = {x2 = 0}.
Beweis des Satzes. Wir sehen uns eine lineare Abbildung φ : IR n −→ (IRn )∗ an:
φ(~x) := b(~x, ·)
(Also: φ(~x) ist die Linearform, die in dem gegebenen ~y den Wert b(~x, ~y) annimmt.) Aus der
Annahme, b sei nicht-entartet, folgt, dass φ ein Isomorphismus ist. Wir setzen jetzt ι : U −→ IR n
fest durch ι(~y ) := ~y. Das ist eine lineare Abbildung von U −→ IR n und induziert eine lineare
Abbildung ι∗ : (IRn )∗ −→ U ∗ zwischen den Dualräumen. Jede Linearform λ : U −→ IR kann
aber zu einer Linearform Λ : IRn −→ IR fortgesetzt werden: Wir nehmen einfach eine Basis
B 0 = {~v1 , ..., ~vd } von U her und verlängern sie zu einer Basis B = {~v1 , ..., ~vn } von IRn . Dann
setzen wir Λ(~v ) := λ(~v ), wenn ~v ∈ B 0 und Λ(~v ) = 0, wenn ~v ∈ B \ B 0 . Dann ist Λ auf der Basis
B definiert. Ist dann ~x ∈ IRn , so schreiben wir
~x =
n
X
xB
vj
j ~
j=1
Dann ist
Λ(~x) =
d
X
j=1
xB
vj )
j λ(~
6.4. ISOMETRIEEN UND ORTHOGONALE GRUPPE
19
Weiter haben wir ι∗ (Λ) = λ. Insbesondere sehen wir, dass ι∗ surjektiv ist. Sei U 0 der Kern von
ι∗ , also
U 0 = {λ ∈ (IRn )∗ | λ ◦ ι = 0} = {λ ∈ (IRn )∗ | λ|U = 0}
Dann wird
def.
φ−1 (U 0 ) = {~x | φ(~x) ∈ U 0 } = U b,⊥
Denn genau dann ist φ(~x) ∈ U 0 , wenn b(~x, ~y) = 0 für alle ~y ∈ U . Mit der Dimensionsformel für
lineare Abbildungen erhalten wir jetzt
dim (U b,⊥ ) = dim φ−1 (U 0 ) = dim U 0 = n − rg (ι∗ ) = n − dim U ∗ = n − dim U
Dabei müssen wir nur noch bedenken, dass ι∗ : (IRn )∗ −→ U ∗ surjektiv ist, wie wir oben dargelegt
haben.
b) Wenn b|U × U nicht-entartet ist, so kann es außer ~0 keinen Vektor ~v ∈ U ∩ U b,⊥ geben.
Denn: Ist ~x ein solcher Vektor, so ist b(~x, ~y) = 0 für jedes ~y ∈ U ( wegen ~x ∈ U b,⊥ ). Dann aber
muss ~x = ~0 sein.
Als Anwendung überlegen wir uns, dass zu nicht-entarteten Bilinearformen eine Orthogonalbasis des IRn existiert.
6.3.7 Satz. Ist b symmetrisch und nicht-entartet, so gibt es bezüglich b eine Orthogonalbasis
des IRn .
Beweis. Induktion nach n. Der Fall n = 1 ist trivial. Angenommen, es sei n ≥ 2 und die
Aussage für n − 1 richtig. Zunächst überlegen wir uns, dass es Vektoren ~v1 mit b(~v1 , ~v1 ) 6= 0
geben muss. Anderenfalls hätten wir doch
2b(~x, ~y) = b(~x + ~y, ~x + ~y) − b(~x, ~x) − b(~y , ~y) = 0
für beliebige ~x, ~y, Widerspruch.
Sei also ~v1 ∈ IRn ein Vektor mit b(~v1 , ~v1 ) 6= 0 und U = Span (~v1 ). Da b|U × U nicht-entartet
ist, haben wir dim U b,⊥ = n − 1. Es gibt also zu U b,⊥ eine Orthogonalbasis ~v2 , ..., ~vn . Dann ist
~v1 , ..., ~vn eine Orthogonalbasis für IRn , da U ∩ U b,⊥ = {~0}.
6.4
Isometrieen und orthogonale Gruppe
Im Folgenden sei immer b eine symmetrische nicht-entartete Bilinearform auf IR n .
Definition. Eine Abbildung f : IRn −→ IRn wird eine Isometrie (für b) genannt, wenn für alle
~x ∈ IRn gilt: b(f (~x), f (~y)) = b(~x, ~y).
Wie sehen die Isometrieen aus?
20
KAPITEL 6. NICHT-ENTARTETE BILINEARFORMEN
6.4.1 Satz. a) Erfüllt g : IRn −→ IRn die Bedingung b(g(~x)−g(~y), g(~x)−g(~y)) = b(~x −~y, ~x −~y ),
so gilt für f (~x) := g(~x)−g(~0) die Beziehung b(f (~x), f (~y)) = b(~x, ~y) für alle ~x, ~y ∈ IRn . Insbsondere
also f eine Isometrie.
b) Jede Isometrie f : IRn −→ IRn (bezgl. b) ist linear und insbesondere ein Isomorphismus
von IRn in sich.
Beweis. a) Dazu beachten wir
b(~x − ~y, ~x − ~y) =
=
=
=
=
b(f (~x) − f (~y), f (~x) − f (~y))
b(f (~x), f (~x)) + b(f (~y), f (~y)) − 2b(f (~x), f (~y))
b(g(~x) − g(~0), g(~x) − g(~0)) + b(g(~y) − g(~0), g(~y) − g(~0)) − 2b(f (~x), f (~y))
b(~x, ~x) + b(~y, ~y)) − 2b(f (~x), f (~y))
b(~x − ~y, ~x − ~y ) + 2b(~x, ~y) − 2b(f (~x), f (~y))
Also wird b(~x, ~y) = b(f (~x), f (~y)), für alle ~x, ~y ∈ IRn .
b) Angenommen, f sei eine Isometrie für b.
1.Schritt: Sei ~b1 , ..., ~bn irgendeine Basis des IRn . Wir zeigen, dass dann schon f (~b1 ), ..., f (~bn )
n
linear unabhängig, also erst recht eine Basis
sein müssen.
Pn des IR
Sind α1 , ..., αn ∈ IR Zahlen, so dass i=1 αi f (~bi ) = ~0, so gilt für jedes ~y ∈ IRn sicher
b(
n
X
i=1
αi~bi , ~y) = b(
n
X
αi f (~bi ), f (~y) ) = b(~0, f (~y)) = 0
i=1
Pn
~
~
~
~
Da b aber nicht-entartet ist, folgt daraus
i=1 αi bi = 0. Da b1 , ..., bn linear unabhängig sein
sollten, müssen alle αi einzeln verschwinden.
2. Schritt (Linearität von f ): Sind ~x, ~y ∈ IRb und λ ∈ IR, so haben wir, wenn ~b1 , ..., ~bn die
Bedeutung aus dem 1. Schritt haben:
b(f (~x + λ~y) − f (~x) − λf (~y), f (~bj ) ) = b(f (~x + λ~y), f (~bj ) ) − b(f (~x), f (~bj ) ) − λb(f (~y), f (~bj ) )
= b(~x + λ~y, ~bj ) − b(~x, ~bj ) − λb(~y, ~bj )
= b(~x, ~bj ) + λb(~y, ~bj ) − b(~x, ~bj ) − λb(~y, ~bj )
= 0
Da nun f (~b1 ), ..., f (~bn ) eine Basis des IRn bilden, folgt
b(f (~x + λ~y) − f (~x) − λf (~y), ~z ) = 0
für alle ~z ∈ IRn , also f (~x + λ~y) = f (~x) + λf (~y).
Das war zu zeigen.
Welche Bedingung muss nun die Matrix einer Isometrie erfüllen?
6.4. ISOMETRIEEN UND ORTHOGONALE GRUPPE
21
6.4.2 Satz. Gegeben sei eine Basis C := {~c1 , ..., ~cn } des IRn . Mit Ab,C bezeichnen wir die Matrix
( b(~ci , ~cj ) )i,j=1,...,n.
a) Genau dann ist b nicht entartet, wenn Ab,C invertierbar ist.
b) Sei f ∈ End (IRn ) eine lineare Abbildung. Ist A C,f,C die darstellende Matrix von f
bezüglich b, so ist f genau dann eine Isometrie, wenn
A C,f,C
gilt.
T
Ab,C A C,f,C = Ab,C
Beweis. a) Wir arbeiten mit den Koordinatenvektoren bezüglich C. Ist ~x =
P
~y = nj=1 yjC~cj , so gilt:
b(~x, ~y) = b(~y , ~x) =
n
X
i,j=1
Pn
j=1
xC
cj und
j~
yiC xC
ci , ~cj ) = ~y C · Ab,C ~x C
j b(~
i) Ist nun b entartet, so gibt es einen Vektor ~x 6= ~0, so dass b(~x, ~y) = 0 für alle ~y. Lassen wir
jetzt ~y die Basis C durchlaufen, so durchläuft der Koordinatenvektor ~y C von ~y bezüglich C die
kanonische Basis. Obige Zeile sagt dann, dass Ab,C ~xC = ~0. Da sicher ~xC nicht der Nullvektor sein
kann, kann Ab,C nicht invertierbar sein.
ii) Angenommen, es sei Ab,C nicht invertierbar. Dann gibt es einen Vektor ξ~ 6= ~0 mit Ab,C ξ~ = ~0.
Dann ist aber für alle ~y ∈ IRn schon
b(
n
X
i=1
ξi~ci , ~y) = ~y C · Ab,C ξ~ = 0
b) Wir schreiben A C,f,C = (αij )i,j=1,...,n. Dann wird
f (~ck ) =
n
X
α` k~c`
`=1
Die Bedingung b(f (~ck ), f (~cm )) = b(~ck , ~cm ) lautet dann
b(~ck , ~cm ) =
n
X
αν k αµ m b(~cν , ~cµ )
ν,µ=1
=
( A C,f,C )T
Daraus folgt die Behauptung.
kν
(Ab,C )νµ ( A C,f,C )µ m
Als Folgerung erhalten wir hieraus
22
KAPITEL 6. NICHT-ENTARTETE BILINEARFORMEN
6.4.3 Satz.Ist b nicht-entartet, so bilden die Isometrieen von (IR n , b) eine Gruppe.
Beweis. Fixieren wir eine Basis C des IRn , so gilt für jede Isometrie f von (IRn , b) ja
T
2
A C,f,C Ab,C A C,f,C = Ab,C woraus folgt det A C,f,C = 1, da det(Ab,C ) 6= 0. Jede Isometrie
ist daher invertierbar. Mit f und g ist auch f ◦ g eine Isometrie, ebenso ist f −1 eine Isometrie.
Dasselbe gilt trivialerweise für Id .
Im Falle, dass b das Skalarprodukt ist, erhalten wir die orthogonale Gruppe zurück.
Darstellungen orthogonaler Matrizen
Wie können wir orthogonale Matrizen finden? Darüber gibt der folgende Satz Auskunft
6.4.4 Satz. a) Ist A ∈ M (n × n, IR) schiefsymmetrisch, also A T = −A , so hat A nicht den
Eigenwert 1, und A T nicht den Eigenwert −1.
b) Wir erhalten alle orthogonalen Matrizen mit Determinante 1, die nicht −1 als Eigenwert haben, dadurch, dass wir zu irgendeiner schiefsymmetrischen Matrix A die ”Cayley-Transformierte”
S = (En + A )(En − A )−1
bilden.
Beweis. a) Wäre ~v 6= ~0 ein Eigenvektor zu A zum Eigenwert 1, so folgte
0 > −k~v k2 = −A ~v · ~v = −~v · A T ~v = ~v · A ~v = k~v k2 > 0
Widerspruch.
b) Wir prüfen nach, dass S orthogonal ist: Zunächst haben wir
S = En + 2A (En − A )−1
und damit
S T = En + 2A T (En − A T )−1 = En − 2A (En + A )−1
Das liefert
S TS
= En − 2A (En + A )−1 (En + A )(En − A )−1
= (En + A )(En − A )−1 − 2A (En − A )−1
= (En + A − 2A )(En − A )−1 = (En − A )(En − A )−1 = En
Da
folgt
S · (En − A ) = En + A = En − A T = (En − A )T ,
det(S ) det(En − A ) = det((En − A )T ) = det(En − A )
6.4. ISOMETRIEEN UND ORTHOGONALE GRUPPE
23
und damit wegen det(En − A ) 6= 0, dass det S = 1. Weiter hat S nicht den Eigenwert −1, denn
sonst gäbe es einen Vektor ~v 6= ~0 mit S ~v = −~v . Dann wäre aber ~x := (En − A )−1~v ebenfalls
nicht Null und es wäre (En + A )~x = S ~v = −~v = −(En − A )~x, also ~x = −~x, Widerspruch zu
~x 6= ~0.
Angenommen nun, es sei T eine orthogonale Matrix, die nicht den Eigenwert −1 hat. Dann
ist A := (T − En )(T + En )−1 schiefsymmetrisch, denn
AT =
=
=
=
=
(T T − En )(T T + En )−1
(T T − En )T T −1 (T T + En )−1
(T T − En )T · ( (T T + En )T )−1
(T T T − T )(T T T + T )−1
(En − T )(T + En )−1 = −A
Weiter gilt
(A − En )(A + En ) = A 2 − En = (A + En )(A − En )
Multiplizieren wir von rechts und von links mit (En − A )−1 , so finden wir
(A − En )−1 (A + En ) = (A + En )(A − En )−1
Wir zeigen, dass (En + A )(En − A )−1 = T ist. Dazu rechnen wir
A T + A = A (T + En ) = T − En
also
(A − En )T = −(A + En ),
T = (En − A )−1 (A + En ) = (En + A )(En − A )−1

0
2
1
 −2 0
4
Beispiel. Ist etwa n = 4 und A = 
 −1 −4 0
−3 −1 −5
S := (En + A )(En − A )−1
Spiegelungen


3
1 
, so wird
5 
0

−206 100 −27
94
1 
−6 
 −114 −213 60

=
−74 −234 40 
249  13
−80
34
−54 −227
24
KAPITEL 6. NICHT-ENTARTETE BILINEARFORMEN
Definition. Sei b eine nicht-entartete symmetrische Bilinearform auf IR n . Ist dann ~a ∈ IRn
nicht-isotrop, also b(~a, ~a) 6= 0, so bezeichnen wir die lineare Abbildung
S~a (~x) := ~x − 2
b(~a, ~x)
~a
b(~a, ~a)
als Spiegelung.
Dann gilt:
6.4.5 Hilfssatz. Es gilt
i) S~a (~a) = −~a und S~a (~x) = ~x für ~x ∈ (Span ~a)b,⊥ .
ii) S~a ◦ S~a = Id
iii) S~a ist eine Isometrie, und det S~a = −1.
Beweis. i), ii) sind klar. Zu iii): Wenn ~x, ~y ∈ IR n , so errechnen wir
b(~a, ~x)
b(~a, ~y)
b(~a, ~a)
b(~a, ~x)
b(~a, ~x)b(~a, ~y)
−2
b(~a, ~y) + 2
b(~a, ~a)
b(~a, ~a)
b(~a, ~a)2
= b(~x, ~y)
b(S~a (~x), S~a (~y)) = b(~x, ~y) − 2
Wir können ~a zu einer Basis C = {~a} ∪ C 0 von IRn verlängern, wobei C 0 ⊂ (Span ~a)b,⊥ .
Bezüglich dieser Basis wird dann S~a durch die Matrix
−1
0
C,S~a ,C
A
=
0 En−1
dargestellt, welche die Determinante −1 hat.
Man kann jede Isometrie aus Spiegelungen aufbauen:
6.4.6 Satz. Ist b nicht-entartet, so ist jede Isomentrie f 6= Id als Kompositionen von endlich
vielen Spiegelungen darstellbar. Die Anzahl der benötigten Spiegelungen ist kleiner oder gleich
2n.
Beweis. (Skizze) Wir zeigen dies durch Induktion nach n. Für n = 1 gilt b(x, y) = βxy
mit β > 0, und weiter ist eine Isometrie von der Form f (x) = ax mit a 6= 0 (wie jede lineare
Abbildung von IR in sich). Es gilt weiter a = det f = ±1. Somit ist f = −Id , also f = S1 .
Angenommen, es sei der Satz für n − 1 als richtig erkannt. Nun nehmen wir einen Vektor ~y
her mit b(~y , ~y) 6= 0 und bilden die Vektoren ~y1 := f (~y) − ~y und ~y2 = f (~y) + ~y. Wir können ~y
so wählen, dass ~y1 6= ~0 wird, da f 6= Id vorausgesetzt ist. (Denn {~y | b(~y, ~y) 6= 0} ist offen und
{~y | f (~y), ~y) = ~y} ein echter Unterraum von IR n ).
6.4. ISOMETRIEEN UND ORTHOGONALE GRUPPE
25
Wir unterscheiden 2 Fälle:
(i) b(~y1 , ~y1 ) 6= 0. In diesem Fall haben wir
Sy~1 ◦ f (~y) = ~y
Denn
b(~y1 , ~y1 ) = b(f (~y) − ~y, f (~y) − ~y ) = b(f (~y), f (~y)) − 2b(f (~y), ~y) + b(~y, ~y) = 2b(~y , ~y) − 2b(~y , f (~y))
Also b(~y1 , ~y1 ) = −2b(~y , ~y1 ) und weiter
b(~y1 , f (~y)) = b(~y , f (~y)) − b(f (~y), f (~y)) = b(~y, f (~y)) − b(~y , ~y) = −b(~y , ~y 1 )
Das ergibt
b(~y1 , f (~y))
~y1 = f (~y) − ~y1 = ~y
b(~y1 , ~y1 )
(ii) Es gilt b(~y1 , ~y1 ) = 0. In diesem Falle ist aber b(~y2 , ~y2 ) 6= 0, denn aus b(~y1 , ~y1 ) = 0 folgt
b(~y , f (~y)) = b(~y , ~y), also
Sy~1 ◦ f (~y) = f (~y) − 2
b(~y2 , ~y2 ) = 2(b(~y, vy) + b(f (~y), ~y)) = 4b(~y, ~y) 6= 0
Ebenso ist b(~y2 , ~y2 ) = 2b(~y, ~y2 ) und b(~y2 , f (~y)) = b(~y2 , ~y2 ) − b(~y2 , ~y) = b(~y2 , ~y). Das führt auf
Sy~2 (f (~y)) = f (~y) − 2
b(~y2 , f (~y))
~y2 = f (~y) − ~y2 = −~y
b(~y2 , ~y2 )
und damit
Sy~ ◦ Sy~2 ◦ f (~y) = ~y
Ist nun U = Span (~y), so haben wir U ⊕U b,⊥ = IRn . Weiter ist f1 := Sy~1 ◦f bezw. f2 := Sy~ ◦Sy~2 ◦f
eine Isometrie auf dem Unterraum U b,⊥ , also aus endlich vielen Spiegelungen zu gewinnen, wobei
man nicht mehr als 2n − 2 Spiegelungen benötigt. Daraus folgt mit f = Sy~1 ◦ f1 bezw. f =
Sy~2 ◦ Sy~ ◦ f die Behauptung.
Der obige Beweis lehrt weiter, dass, sollte b sogar positiv-definit sein, der Fall (ii) nicht auftritt
und man jede Isometrie sogar durch Komposition von k ≤ n Spiegelungen erhalten kann.
Beispiel. Drehungen im IR2 . Die Drehungen mit Matrix
cos θ − sin θ
A (θ) :=
, 0 < θ < 2π
sin θ cos θ
sind
genau die Elemente aus SO(2). Dann setzen wir ~y = ~e 1 und ~y1 = A (θ)~e 1 − ~e 1 =
cos θ − 1
. Es folgt k~y1 k = 2(1 − cos θ) und weiter
sin θ
x1
Sy~1 ◦ fA (θ) (~x) =
−x2
26
KAPITEL 6. NICHT-ENTARTETE BILINEARFORMEN
a b
Denn ist M :=
die Matrix von Sy~1 ◦ fA (θ) , so wird auch M orthogonal sein. Weiter
c d
gilt Sy~1 ◦ fA (θ) (~e 1 ) = ~e 1 . Das erfordert aber a = 1, c = 0, b = 0. Da det M = −1 sein muss, bleibt
nur noch d = −1.
Orthogonale Matrizen in Dimension 3
Wir wollen nun einige Darstellungsmöglichkeiten für Matrizen aus SO(3) kennen lernen. Dazu
sei


1
0
0
T1 (θ) :=  0 cos θ − sin θ  ,
0 sin θ cos θ




cos θ 0 − sin θ
cos θ − sin θ 0
 , T3 (θ) :=  sin θ cos θ 0 
1
0
T2 (θ) :=  0
sin θ 0 cos θ
0
0
1
Die induzierten linearen Abbildungen nennen wir f1,θ , f2,θ , f3,θ .
6.4.7 Satz. Jede Matrix S ∈ SO(3) lässt sich als
S = T3 (α)T1 (β)T3 (γ)
schreiben, wenn α, β und γ geeignet gewählt werden. Diese Winkel heißen auch die Eulerschen
Winkel zu S .
Beweis.
Wir schreiben S = (sij )i,j=1,2,3 . Sind nun α, γ ∈ [0, 2π), so haben wir
T3 (α)S T3 (γ)
 
cos α − sin α
s11 s12
cos γ − sin γ
cos α − sin α
s13


sin α cos α
sin
γ cos γ
sin α cos α
s23

s21 s22
=


cos γ − sin γ
(s31 , s32 )
s33
sin γ cos γ
s13
Wenn (s31 , s32 ) = (0, 0), muss, da S orthogonal ist, auch
verschwinden. Dann aber
s23
ist S = T3 (θ) mit einem passend zu wählenden θ. Ist (s31 , s32 ) 6= (0, 0), so können wir γ so
wählen, dass
cos γ − sin γ
(s31 , s32 )
= (0 , η )
sin γ cos γ
mit irgendeiner Zahl η 6= 0. Sollte jetzt
s11 s12
cos γ − sin γ
0 s012
=
s21 s22
sin γ cos γ
0 s022
6.4. ISOMETRIEEN UND ORTHOGONALE GRUPPE
27
sein, so wird
cos α − sin α
sin α cos α
s11 s12
s21 s22
cos γ − sin γ
sin γ cos γ
=
0 s0012
0 s0022
also wäre die erste Spalte von T3 (α)S T3 (γ) doch Null, ein Widerspruch zur Invertierbarkeit
orthogonaler Matrizen. Wir können dann durch richtige Wahl von α einrichten, dass
cos α − sin α
s11 s12
cos γ − sin γ
τ s000
12
=
sin α cos α
s21 s22
sin γ cos γ
0 s000
22
mit einer Zahl τ 6= 0 gilt. Nun muss aber T3 (α)S T3 (γ) vom Typ T1 (β) mit einem geeigneten
Winkel β sein.
Jede orthogonale Matrix aus SO(3) kann aus einer Spiegelung und einer Drehung um die
x3 -Achse aufgebaut werden. Um dies zu sehen, zeigen wir zuerst
6.4.8 Lemma. Ist S ∈ O(n) und sind ~u, ~v verschiedene Vektoren gleicher Länge, so gilt für
die Spiegelung S = Su~ −~v :
S(~u) = ~v , S(~v ) = ~u
Beweis. Wir rechnen aus
S(~u) − ~v = ~u − ~v − 2
(~u − ~v ) · ~u
(~u − ~v ) · ~u
(~u − ~v ) = (1 − 2
)(~u − ~v ) = ~0,
2
k~u − ~v k
k~u − ~v k2
da
k~u − ~v k2 = 2k~uk2 − 2~u · ~v = 2(~u − ~v ) · ~u
Ferner gilt S(~v ) = S(S(~u)) = ~u.
Nun zu dem angekündigten Darstellungssatz:
6.4.9 Satz. Ist S ∈ SO(3), und ist S ~e 3 6= ~e 3 , so gibt es eine Spiegelung S und einen Winkel
ω mit
fS = S −1 ◦ f3,ω ◦ S = S ◦ f3,ω ◦ S
Zwischen der Spur von S und dem Winkel ω besteht die Gleichung cos ω = 12 (Spur(S ) − 1).
Beweis. Der Fall S ~e 3 = ~e 3 ist klar.
Sei also S ~e 3 6= ~e 3 . Dann können wir aber einen Vektor ~q 6= ~e 3 mit S q~ = ~q wählen. Ist dann
S die Spiegelung an ~e 3 − ~q, so wird S(~e 3 ) = q~ und S(~q) = ~e 3 , also
S ◦ fS ◦ S(~e 3 ) = S ◦ fS (~q) = S(~q) = ~e 3
28
KAPITEL 6. NICHT-ENTARTETE BILINEARFORMEN
Somit ist S ◦ fS ◦ S = f3,ω für ein passendes ω. Nun gilt weiter
2 cos ω + 1 = Spur(T3 (ω)) = Spur(AS T3 (ω)AS−1 ) = Spur(S )
Daraus folgt die 2. Behauptung.
Mit diesem Hilfsmittel können wir zu einer gegebenen orthogonalen Matrix Drehachse und
Drehwinkel berechnen:
6.4.10 Satz. Sei S ∈ SO(3) nicht die Einheitsmatrix. Dann hat die Matrix
S 0 := S + S T − (Spur(S ) − 1)E3
den Rang 1, und das Bild der zugehörigen linearen Abbildung stimmt mit der Drehachse von S
überein. Für den Drehwinkel ω besteht die Gleichung cos ω = 12 (Spur(S ) − 1).
Beweis. Wir schreiben fS = σ −1 ◦ f3,ω ◦ σ mit einer geeigneten Spiegelung σ, wie im vorherigen
Satz. Dann wird (mit A = Aσ )
S 0 = A −1 T3 (ω) + T3 (ω)T − (Spur(S ) − 1)E3 A



2 cos ω
0
0
0
2 cos ω 0  − (Spur(S ) − 1)E3  A
= A −1 
0
0
2


0 0 0
= 2(1 − cos ω)A −1  0 0 0  A
0 0 1
denn wir wissen schon, dass 2 cos ω = Spur(S ) − 1 ist. So sehen wir, dass rg S 0 = 1. Ist nun
~q := A −1~e 3 , so folgt S 0 ~q = 2(1 − cos ω)~q, also Bild(fS 0 ) = Span (~q), und
S ~q = A −1 T3 (ω)A ~q = A −1 T3 (ω)~e 3 = A −1~e 3 = ~q
Umgekehrt können wir leicht zu gegebener Drechachse ~q und Drehwinkel ω die entsprechende
Drehmatrix angeben: Sie ist gegeben durch
S = A T3 (ω)A ,
wobei A die Matrix der Spiegelung an ~e 3 − ~q sein soll, sofern dies nicht der Nullvektor ist, und
A = E3 sonst.
 
2
1 
2  mit
Beispiel. a) Wie lautet die Matrix zur Drehung um die Achse mit Richtung ~q = 3
1
π
Winkel ω = 3 ? Nun haben wir


−1
1
~e 3 − q~ =  −1 
3
1
6.4. ISOMETRIEEN UND ORTHOGONALE GRUPPE
und
29




x1 − 2x2 + 2x3
−1
2
1
S~e 3 −~q (~x) = ~x − (−x1 − 2x2 + x3 )  −1  =  −2x1 + x2 + 2x3 
3
3
1
2x1 + 2x2 + x3
also gehört zu S~e 3 −~q die Matrix
Ferner ist


1 −2 2
1
A =  −2 1 2 
3
2
2 1
√

1/2
−
3/2
0
√
T3 (π/3) =  3/2
1/2
0 
0
0
1

Die gesuchte Matrix ist dann

−1

√
1
S = 
−4 + 3

6
√
2+2 3
−4 −
√
3
−1
√
2−2 3
b) Wir suchen die Drehachse und den Drehwinkel

6
1 
−7
S :=
11
−6
√ 
2−2 3

√ 
2+2 3 


2
zur Matrix

−9 −2
−6 6 
−2 −9
9
Es gilt Spur(S ) = − 11
, also gilt für den Drehwinkel ω,
Für die Drehachse errechnen wir

16
20
2 
T
−8
S + S + E3 =
11
11
−4

20
dass 2 cos ω = − 11
, also ω = 155◦ 220 .

−8 −4
4
2 
2
1

−4
Der Spaltenraum dieser Matrix wird erzeugt von  2 . Dieser Vektor definiert die Drehachse
1
von S .
Lorentztransformationen
30
KAPITEL 6. NICHT-ENTARTETE BILINEARFORMEN
Definition. Sei c > 0. Auf dem IR4 definiert
b(~x, ~y) := x1 y1 + x2 y2 + x3 y3 − c2 x4 y4
eine indefinite, aber nichtentartete Bilinearform. Der IR 4 zusammen mit dieser Bilinearform
wird auch der Minkowski-Raum M genannt. Der Minkowskiraum bildet mit seiner Struktur den
mathematischen Rahmen für die spezielle Relativitätstheorie. Die Isometrieen dieses Raumes
bezeichnet man (nach dem niederländischen Physiker H.A. Lorentz) als Lorentztransformationen.
Sie bilden eine Gruppe, die wir mit L bezeichnen wollen. Diejenigen Transformationen aus L,
deren Determinante 1 ist, bilden eine Untergruppe L+ .
6.4.11 Hilfssatz. Ist f : M −→ M eine Lorentztransformation, so erfüllt ihre Matrix
!
e
Λ0 Λ
Λ :=
b Λ44
Λ
die folgenden Bedingungen:
Ferner ist det(Λ) = ±1.
Beweis. Das ergibt sich, wenn

1

0
ΛT 
 0
0
ausschreibt.
bT Λ
b = E3
Λ0 T Λ0 − c 2 Λ
0T e
bT
Λ Λ = c2 Λ44 Λ
e 2 − c2 Λ2 = −c2
kΛk
44
man die Bedingung


0 0 0

1 0 0 
Λ = 


0 1 0
0 0 −c2
1
0
0
0
0
1
0
0

0 0
0 0 

1 0 
0 −c2
S 0
Mit der Identifizierung S −→ S :=
können wir die orthogonalen Matrizen als
0 1
Elemente von L und die Elemente aus SO(3) als solche in L+ auffassen.
Wie sehen nun die Matrizen aus L+ aus?
Zur Klärung dieser Frage vereinfachen wir eine vorgegebene Lorentztransformation mit Hilfe
orthogonaler Matrizen.
6.4.12 Satz. Zu jeder Lorentztransformation mit Matrix Λ ∈ L+ finden wir orthogonale Matrizen R1 , R2 , so dass


c11 0 0 c14
 0 1 0 0 

R1 ΛR2 = 
 0 0 1 0 
c41 0 0 c44
6.4. ISOMETRIEEN UND ORTHOGONALE GRUPPE
31
e = ~0, muss schon Λ
b = ~0 und Λ44 = 1 werden. Dann ist aber Λ selbst schon
Beweis. Wenn Λ
T
orthogonal mit Determinante 1, und wir können etwa R2 = E4 und R1 = Λ0 wählen. Wir dürfen
e 6= ~0. Dann gibt es eine Matrix R 0 ∈ SO(3) mit R 0 Λ
e = kΛk~
e e 1 in IR3 .
daher annehmen, es sei Λ
1
1
Das führt auf
!
00
e e1
Λ
k
Λk~
R1 0 Λ =
b
Λ
Λ44
b nicht Null sein
Die Matrixbedingungen an jede Transformation aus L sagen jetzt, dass Λ
T
b T = kΛk~
b e 1 . Dann folgt
kann. Es gibt dann eine Matrix R20 ∈ SO(3) mit R20 Λ
R1 0 ΛR20 =
e e1
Λ
kΛk~
b 0, 0) Λ44
(kΛk,
000
!
Die Bedingungen an die einzelnen Kästchen dieser Matrix ergeben


1 0 0
T
b 2 0 0 0 
Λ000 Λ000 = E3 + kΛk
0 0 0
Das zeigt, dass die Spalten 2 und 3 der Matrix Λ000 orthonormiert sind. Die Matrix R300 entstehe
aus Λ000 dadurch, dass man ihre erste Spalte durch das Kreuzprodukt aus den Spalten 2 und 3
ersetzt. Dann bilden wir R30 = R300 T und stellen fest, dass
R3 0

c11
 0
R1 0 ΛR20 = 
 0
c41
0
1
0
0

0 c14
0 0 

1 0 
0 c44
e
b c44 = Λ44 .
mit c14 = kΛk,
c41 = kΛk,
6.4.13 Folgerung. Hat eine Lorentztransformation eine Matrix der Gestalt

c11
 0
L =
 0
c41
0
1
0
0

0 c14
0 0 

1 0 
0 c44
mit Determinante 1, so gibt es ein θ ∈ IR mit c11 = cosh θ, c14 = c sinh θ, c41 =
c44 = cosh θ.
1
c
sinh θ und
32
KAPITEL 6. NICHT-ENTARTETE BILINEARFORMEN
Beweis. Die Bedingungen, zur Lorentzgruppe L zu gehören, implizieren
c211 − c2 c241 = 1
c11 c14 = c2 c44 c41
c214 − c2 c244 = −c2
Lösen wir die 1. Gleichung nach c11 und die 3. Gleichung nach c44 auf und setzen das Ergebnis
in die 2. Gleichung ein, entsteht
r
c2
c14 (1 + c2 c241 ) = c2 c41 1 + 14
c2
Daraus folgt
c14 = ±c2 c41
Das in die 2. Gleichung eingesetzt, liefert c11 = ±c44 . Die Determinantenbedingung erfordert
aber c11 = c44 und weiter
c244 = 1 + c2 c241 ≥ 1
p
Wir wählen daher ein θ > 0 mit cosh θ = c44 . Dann wird wegen sinh θ = cosh2 θ − 1
q
1
1
c244 − 1 = ± sinh θ
c41 =
c
c
c14 = ±c2 c41 = ±c sinh θ
Die physikalische Deutung der Zahl θ ist diese: Bewegen sich zwei Bezugsysteme Σ und σ mit
der Relativgeschwindigkeit ~v zueinander, und zwar längs der x1 -Achse (von Σ), dann rechnen
sich Orts-und Zeitkoordinate gemäß der obigen Lorentztransformation um, wobei θ = Artanh( vc ),
und v = k~v k sein soll. Dann hat die zugehörige Matrix die Gestalt


√ 1 2 0 0 −√ v 2
1−(v/c)
1−(v/c)




0
1
0
0

Lv = 


0
0 1
0


v/c2
1
√
−√
0
0
2
2
1−(v/c)
1−(v/c)
Bewegt sich ein weiteres Bezugssystem Σ00 mit der Relativgeschwindigkeit u längs der x1 Achse (von Σ und Σ0 ), so muss mit der Lorentztransformation
Lu ◦ L v = L
gearbeitet werden.
u+v
1+(uv/c2 )
6.4. ISOMETRIEEN UND ORTHOGONALE GRUPPE
33
Bewegen sich die Bezugssysteme Σ und Σ0 nicht entlang der x1 -Achse von Σ, so hat die
zugehörige Lorentztransformation die Gestalt


√ 1 2 0 0 −√ v 2
1−(v/c)
1−(v/c)



 0
0
1
0
0
0
 R2
Λ = R1 


0
0
1
0


v/c2
1
−√
0 0 √
2
2
1−(v/c)
0
0
mit zwei orthogonalen Matrizen R1 , R2 .
1−(v/c)
34
KAPITEL 6. NICHT-ENTARTETE BILINEARFORMEN
Das Bild ist wie folgt:
x
3
w
w3
2
Σ
P
v
x1
x’
3
w
x
w’
2
w 3’
1
2
f(P)
x’
1
Σ
x’
2
0
w’
1
Dabei überführt R2 die alten Koordinaten von Σ in die Koordinaten w1 , w2 , w3 , wobei w1
0
in Richtung ~v weist und R1 überführt die Koordinaten x01 , x02 und x03 von Σ0 in die neuen
Koordinaten w10 ( parallel zur x01 -Achse) und w20 , w30 .
Zugehörige Unterlagen
Herunterladen