Lineare Algebra und Analytische Geometrie 2 f ¨ur

Werbung
Lineare Algebra und
Analytische Geometrie 2
für Lehramtsstudierende
Ein Skriptum zur Vorlesung
im Sommersemester 2013
Arne Dür und Franz Pauer
2. Auflage
c 2013 I NSTITUT F ÜR M ATHEMATIK , U NIVERSIT ÄT I NNSBRUCK
⃝
ii
Vorwort
Das vorliegende Skriptum soll den Hörerinnen und Hörern der Vorlesung Lineare Algebra und Analytische Geometrie 2 für Lehramtsstudie”
rende“ im Sommersemester 2013 das Mitschreiben und Mitdenken in der
Vorlesung erleichtern. Das Skriptum enthält alle Definitionen und Sätze der
Vorlesung, aber nur wenige Beispiele dazu. In der Vorlesung werden die
Definitionen und Sätze motiviert, der Zusammenhang mit früheren Ergebnissen erläutert und Beispiele dazu besprochen. Die gemeinsamen Inhalte
der Skripten Lineare Algebra 1“ von Kurt Girstmair (WS 12/13) und von
”
Franz Pauer (WS 11/12) werden als bekannt vorausgesetzt. Einige davon
werden zur Wiederholung noch einmal angeführt.
Im Kapitel 1 werden Systeme linearer Ungleichungen und - als Anwendung davon - lineare Optimierung mit zwei Unbekannten besprochen.
Im Kapitel 2 werden die Bewegungen starrer Körper in der Ebene und im
Raum beschrieben, dieses Thema ist für die Mechanik (und Robotik) von
großer Bedeutung. Im Kapitel 3 geht es vor allem um quadratische Funktionen und ihre Nullstellenmengen, die Quadriken.
Dieses Skriptum umfasst (in leicht veränderter Form) Teile der folgenden Skripten:
Arne Dür und Franz Pauer: Lineare Algebra (5. Auflage), 2006.
Arne Dür und Franz Pauer: Analytische Geometrie (3. Auflage), 2005.
Franz Pauer: Lineare Optimierung (2. Auflage), 2003.
Die zweite Auflage unterscheidet sich von der ersten (2012) durch Aufnahme einiger wiederholender Abschnitte und dafür Streichung einiger Abschnitte über lineare und multilineare Funktionen.
Innsbruck, Februar 2013
iii
Inhaltsverzeichnis
Vorwort
iii
Kapitel 1. Systeme linearer Ungleichungen
§1. Wiederholung: Zwei Zugänge zur Geometrie der Ebene
§2. Lineare Ungleichungen und Halbräume
§3. Lineare Optimierung mit zwei Unbekannten
§4. Affine Funktionen
1
1
6
10
15
Kapitel 2. Bewegungen in euklidischen Räumen
§1. Skalarprodukte (Wiederholung)
§2. Orthonormalbasen (Wiederholung)
§3. Der Fußpunkt des Lotes (Wiederholung)
§4. Winkel (Wiederholung)
§5. Orientierung, Volumen und Vektorprodukt (Wiederholung)
§6. Isometrien
§7. Basiswechsel
§8. Orthogonale Funktionen
§9. Spiegelungen
§10. Isometrien der Ebene
§11. Zeigerrechnung
§12. Isometrien des Raumes
§13. Symmetriegruppen
20
20
23
26
28
29
32
35
38
40
43
49
51
55
Kapitel 3. Bilinearformen, quadratische Funktionen und Quadriken
§1. Symmetrische Bilinearformen
§2. Positiv definite Matrizen
§3. Linearformen
§4. Quadratische Formen
§5. Quadratische Funktionen
§6. Quadriken
§7. Quadriken in der Ebene
57
57
60
63
64
67
70
71
iv
KAPITEL 1
Systeme linearer Ungleichungen
§1. Wiederholung: Zwei Zugänge zur Geometrie der Ebene
§1.1. Die Ebene (nach Wahl eines Nullpunktes) als Vektorraum. In
diesem Abschnitt wird gezeigt, wie wir die Zeichenebene und den Anschauungsraum nach Wahl eines Nullpunktes“ in natürlicher Weise“ als Vek”
”
torraum betrachten können.
Wir nehmen an, wir haben ein beliebig großes“ Zeichenblatt E und die
”
folgenden Zeichengeräte:
• einen beliebig fein gespitzten“ Bleistift,
”
• ein beliebig langes“ Lineal und
”
• ein Dreieck.
Wir betrachten das Zeichenblatt als Menge von Punkten“ und wählen
”
einen davon aus. Diesen ausgewählten Punkt nennen wir Nullpunkt und bezeichnen ihn mit 0 ∈ E.
Wir nehmen an, dass mit Lineal und Bleistift durch je zwei Punkte eine
Gerade“ gezeichnet werden kann und dass mit Lineal, Dreieck und Blei”
stift jede Gerade in jeden Punkt parallelverschoben“ werden kann.
”
P
1
2
A BBILDUNG 1. Parallelverschieben
Je zwei Punkten A, B ∈ E können wir wie folgt einen dritten Punkt, den
wir mit A + B bezeichnen, zuordnen:
• Falls 0, A und B nicht auf einer Geraden liegen:
Zeichne eine Gerade durch 0 und B und verschiebe sie in den Punkt
A. Zeichne eine Gerade durch 0 und A und verschiebe sie in den
1
2
1. SYSTEME LINEARER UNGLEICHUNGEN
Punkt B.
Dann sei A + B der Schnittpunkt“ dieser zwei Geraden.
”
A+B
A
B
0
A BBILDUNG 2. Addieren von Punkten in allgemeiner Lage
• Falls 0, A und B auf einer Geraden liegen:
Wähle einen Punkt H ∈ E, der nicht auf dieser Geraden liegt.
Konstruiere wie oben die Punkte A + H und (A + H) + B.
Verschiebe die Gerade durch 0 und H in den Punkt (A + H) + B.
Dann sei A + B der Schnittpunkt dieser Geraden mit der Geraden
durch 0 und A.
A+B
(A+H)+B
B
A
A+H
H (Hilfspunkt)
0
A BBILDUNG 3. Addieren von Punkten in spezieller Lage
Wir nehmen nun zusätzlich an, dass das Lineal mit einer Skala versehen ist, aus der jede reelle Zahl abgelesen werden kann. Dann kann jeder
reellen Zahl c und jedem Punkt A ∈ E ein weiterer Punkt, den wir mit c · A
bezeichnen, wie folgt zugeordnet werden:
3
1. SYSTEME LINEARER UNGLEICHUNGEN
• Zeichne mit dem Lineal eine Gerade durch 0, die den Punkt A nicht
enthält.
• Lege das Lineal so, dass die Zahl 0 über dem Punkt 0 liegt und zeichne dann die Punkte P bzw. Q, über denen die Zahlen 1 bzw. c liegen,
auf dieser Geraden ein.
• Verschiebe die Gerade durch A und P in den Punkt Q.
• Dann sei c ·A der Schnittpunkt dieser Geraden mit der Geraden durch
0 und A.
Q
c. A
c
P
A
1
0
0
A BBILDUNG 4. Multiplikation von Punkten mit Zahlen
Wir nehmen an, dass die so definierten Rechenoperationen + ( Additi”
on von Punkten“) und · ( Skalarmultiplikation von reellen Zahlen mit Punk”
ten“) die Rechenregeln eines Vektorraums erfüllen. Dann ist die Zeichenebene E ein Vektorraum und ihre Punkte sind Vektoren.
Zum zeichnerischen Subtrahieren zweier Punkte A und B beachte man,
dass (A − B) + B = A ist. Wir beschränken uns auf den Fall, dass 0, A und
B nicht auf einer Geraden liegen.
Zeichne die Gerade durch 0 und B und verschiebe sie in den Punkt A. Zeichne die Gerade durch A und B und verschiebe sie in den Punkt 0. Dann ist
der Schnittpunkt“ dieser zwei Geraden jener Punkt, den man zu B addieren
”
muss, um A zu bekommen, also A − B.
Alternativ könnte A − B (= A − (−B)) auch durch Addition von A und
−B erhalten werden.
4
1. SYSTEME LINEARER UNGLEICHUNGEN
B
O
A
-B
A-B
Differenz zweier Punkte A und B
A BBILDUNG 5. Differenz zweier Punkte
Es sei A ein von 0 verschiedener Punkt. Die Gerade durch 0 und A ist
(nach Definition der Skalarmultiplikation) die Menge aller skalaren Vielfachen von A. Wenn die Punkte 0, A und B nicht auf einer Geraden liegen,
dann ist das Punktepaar (A, B) eine R-Basis des Vektorraums E. Wenn a
bzw. b die Koordinaten eines Punktes P bezüglich dieser Basis sind, dann
erhält man a · A (bzw. b · B) als Schnittpunkt der Geraden R · A mit der Geraden, die man erhält, indem man die Gerade durch 0 und B in den Punkt
P verschiebt (bzw. als Schnittpunkt der Geraden R · B mit der Geraden, die
man erhält, indem man die Gerade durch 0 und A in den Punkt P verschiebt).
Der Punkt P wird eindeutig durch das Zahlenpaar (a, b) beschrieben.
Die Wahl eines Nullpunktes 0 in der Ebene und von zwei Punkten A, B
so, dass 0, A und B nicht auf einer Geraden liegen, nennt man auch Wahl
eines Koordinatensystems. Man kann diese Wahl auch dadurch treffen, dass
man ein Paar von Geraden, die genau einen Punkt gemeinsam haben, und
auf jeder Geraden einen Punkt, der nicht der Schnittpunkt ist, wählt. Der
Schnittpunkt ist dann der Nullpunkt und das Paar der auf den Geraden
gewählten Punkte ist die Basis.
Analog kann der Anschauungsraum nach Wahl eines Nullpunktes 0 in
natürlicher Weise als Vektorraum betrachtet werden. Wir nehmen dazu an,
dass drei Punkte 0, A, B jeweils in einer Ebene“ liegen und definieren dann
”
A+B und c·A wie oben. Wenn die Punkte 0, A, B und C nicht in einer Ebene
liegen, dann ist das Punktetripel (A, B,C) eine R-Basis dieses Vektorraums.
5
1. SYSTEME LINEARER UNGLEICHUNGEN
§1.2. Die Ebene als affiner Raum.
Definition 1 : Sei V ein Vektorraum über einem Körper K, A eine Menge
und
V × A → A , (v, a) 7→ v · a ,
eine Operation der Gruppe (V, +) auf A. (Also: Für alle a ∈ A, v, w ∈ V ist
0 · a = a und (v + w) · a = v · (w · a).
A zusammen mit dieser Operation ist ein affiner Raum über V , wenn es für
alle Elemente a, b ∈ A genau einen Vektor v ∈ V gibt mit v · a = b.
Die Elemente von A heißen dann Punkte, die Elemente von V Vektoren des
affinen Raums.
Satz 2 : Sei A ein affiner Raum über V und a ∈ A. Die Funktion
V −→ A , v 7−→ v · a ,
ist bijektiv. (Nach Wahl eines Nullpunktes“ kann ein affiner Raum als Vek”
torraum betrachtet werden).
Beweis: Folgt aus der Definition.
Sie E die Zeichenebene T (E) der Vektorraum der Translationen von E.
Dann ist E mit
T (E) × E −→ E , (t, x) 7−→ t(x) ,
ein affiner Raum über T (E).
Möchte man in der Zeichenebene keinen Nullpunkt“ wählen, kann man
”
sie als affinen Raum betrachten. Dann muss man zwischen Punkten (∈ E)
und Vektoren (∈ T (E)) unterscheiden. Punkte können dann nicht addiert
werden, aber Vektoren können addiert werden und auf Punkten wirken“.
”
Sind P und Q Punkte von E und P ̸= Q, dann gibt es genau eine Trans⃗ bezeichnet. Die
lation in T (E), die P auf Q abbildet. Sie wird häufig mit PQ
Menge
⃗ |t ∈ R } ⊆ T (E)
{t PQ
⃗ in T (E). Die Gerade durch P und
ist die Gerade durch 0T (E) = idE und PQ
Q in E ist dann als
⃗
{(t PQ)(P)
|t ∈ R } ⊆ E
⃗
⃗
definiert. Wegen (PQ)(P)
= Q und (0 · PQ)(P)
= idE (P) = P sind P und
⃗
Q Punkte dieser Geraden. Die Translation PQ wird als Richtungsvektor“
”
dieser Geraden bezeichnet.
6
1. SYSTEME LINEARER UNGLEICHUNGEN
§2. Lineare Ungleichungen und Halbräume
In diesem Abschnitt seien n eine positive ganze Zahl, V ein n-dimensionaler reeller Vektorraum und V ∗ := Lin R (V, R ) der Vektorraum aller
linearen Funktionen von V nach R . Mit R ≥0 bezeichnen wir die Menge
aller reellen Zahlen, die nicht negativ sind.
Definition 3 : Eine lineare Ungleichung in V ist durch eine lineare Funktion 0 ̸= f ∈ V ∗ und eine Zahl b ∈ R gegeben. Gesucht sind alle Vektoren
v ∈ V mit
f (v) ≤ b.
Die Menge L( f , ≤ b) := {v ∈ V | f (v) ≤ b} heißt Lösungsmenge der durch
f und b gegebenen linearen Ungleichung, die Elemente von L( f , ≤ b) sind
Lösungen dieser Ungleichung.
Die durch 0 ̸= f ∈ V ∗ und b ∈ R gegebene lineare Ungleichung ist
homogen, wenn b = 0 ist.
Sei L( f , ≥ b) := {v ∈ V | f (v) ≥ b}. Dann ist
L( f , ≥ b) = L(− f , ≤ −b)
die Lösungsmenge der durch − f und −b gegebenen linearen Ungleichung.
Beispiel 4 : Sei V := R n×1 , a1 , . . . , an , b ∈ R und
n
f : R n −→ R , (x1 , . . . , xn ) 7−→ ∑ ai xi .
i=0
Dann ist L((a0 , a1 , . . . , an ), ≤ b) := L( f , ≤ b) = {x ∈ R n | ∑ni=0 ai xi ≤ b}.
Satz 5 : Sei 0 ̸= f ∈ V ∗ und b ∈ R . Dann kann L( f , ≤ b) wie folgt durch
endlich viele Daten beschrieben werden:
Berechne eine Basis (v1 , . . . , vn−1 ) von Kern( f ) und vn so,
dass f (vn ) = 1 ist.
Dann ist
{ n
}
L( f , ≤ b) = ∑ ci vi | c1 , . . . , cn ∈ R , cn ≤ b .
i=1
Beweis: Das n−Tupel (v1 , . . . , vn ) ist eine Basis von V .
⊆: Sei v := ∑ni=1 ci vi ∈ V und f (v) ≤ b. Dann ist
n
b ≥ f (v) = ∑ ci f (vi ) = cn .
i=1
7
1. SYSTEME LINEARER UNGLEICHUNGEN
⊇: Seien c1 , . . . , cn ∈ R mit cn ≤ b. Wegen
f
(
n
∑ ci vi
)
= cn f (vn ) ≤ b
i=1
ist ∑ni=1 ci vi ∈ L( f , ≤ b).
Beispiel 6 : Sei V der 3-dimensionale Vektorraum aller Polynomfunktionen von R nach R vom Grad 0, 1 oder 2, b := 1 und f die lineare Funktion
f : V → R,
h 7→
∫ 1
h(t)dt.
0
Dann bilden
v1 : R → R ,
v2 : R → R ,
1
t 7→ t − ,
2
1
t 7→ t 2 −
3
und
eine R -Basis von Kern( f ). Für
v3 : R → R ,
t 7→ 1
ist f (v3 ) = 1. Also ist
L( f , ≤ 1) = {c1 v1 + c2 v2 + c3 v3 | c1 , c2 , c3 ∈ R , c3 ≤ 1} =
{
}
1
1
= g ∈ V | g(t) = c2t 2 + c1t + (c3 − c2 − c1 ), c1 , c2 , c3 ∈ R , c3 ≤ 1 .
3
2
Beispiel 7 : Sei V := R 4 , b := 2 und
f : V → R,
(a1 , a2 , a3 , a4 ) 7→ a1 + a2 + a3 + a4 .
(
)
Dann (ist (1, 0, 0,
) −1), (1, 0, −1, 0), (1, −1, 0, 0) eine Basis von Kern( f )
und f (0, 0, 0, 1) = 1. Also ist
L( f , ≤ 2) = {(c1 + c2 + c3 , −c3 , −c2 , −c1 + c4 ) | c1 , c2 , c3 , c4 ∈ R , c4 ≤ 2}.
Definition 8 : Für v, w ∈ V sei
[v, w] := {sv + tw | s,t ∈ R , s,t ≥ 0, s + t = 1}
die Strecke zwischen v und w.
Definition 9 : Es seien H eine Hyperebene in V (d. h.: ein affiner Unterraum von V der Dimension n − 1) und w ∈ V \ H. Dann ist
{
}
v ∈ V | [v, w] ∩ H ⊆ {v}
8
1. SYSTEME LINEARER UNGLEICHUNGEN
der durch H und w gegebene Halbraum. Die Hyperebene H ist der Rand
dieses Halbraums. Wenn n = 2 ist, nennt man einen Halbraum Halbebene.
Deren Rand ist eine Gerade.
Satz 10 : Jeder Halbraum in V ist die Lösungsmenge einer linearen Ungleichung.
Die Lösungsmenge einer linearen Ungleichung ist ein Halbraum.
Eine lineare Ungleichung ist genau dann homogen, wenn 0 ein Element
des Randes ihrer Lösungsmenge ist.
Beweis: Es seien H eine Hyperebene in V und w ∈ V \ H. Wähle eine lineare Funktion f : V → R so, dass der Untervektorraum Kern( f ) zu H parallel
ist. Dann gibt es eine Zahl b ∈ R so, dass f (H) = {b} ist. Wenn f (w) > b
ist, ersetze f durch − f und b durch −b. Dann ist f (w) < b und L( f , ≤ b)
ist der durch H und w gegebene Halbraum.
Sei nun durch 0 ̸= g ∈ V ∗ und c ∈ R eine lineare Ungleichung gegeben. Dann ist L(g, ≤ c) der durch g−1 (c) und ein Element von g−1 (c − 1)
gegebene Halbraum.
Die Aussage über homogene lineare Ungleichungen prüft man nun leicht
nach.
Definition 11 : Sei k eine positive ganze Zahl. Ein System von k linearen
Ungleichungen ist durch lineare Funktionen f1 , . . . , fk ∈ V ∗ und reelle Zahlen b1 , . . . , bk ∈ R gegeben. Gesucht sind alle Vektoren v ∈ V mit
f1 (v) ≤ b1 , . . . , fk (v) ≤ bk .
Die Lösungsmenge des Systems ist
L( f1 , . . . , fk , ≤ b1 , . . . , ≤ bk ) := {v ∈ V | f1 (v) ≤ b1 , . . . , fk (v) ≤ bk }.
Es ist
L( f1 , . . . , fk , ≤ b1 , . . . , ≤ bk ) =
k
∩
L( fi , ≤ bi ),
i=1
also ist L( f1 , . . . , fk , ≤ b1 , . . . , bk ) der Durchschnitt von k Halbräumen.
Definition 12 : Ein Polyeder in V ist der Durchschnitt von endlich vielen
Halbräumen in V .
Nach Satz 10 ist jedes Polyeder in V die Lösungsmenge eines Systems
von endlich vielen linearen Ungleichungen.
Wenn v = (v1 , . . . , vn ) eine Basis von V ist, dann werden die linearen
Funktionen
f1 , . . .), fk ∈ V ∗ eindeutig durch die n-Tupel
(
fi (v1 ), . . . , fi (vn ) ∈ R n beschrieben, 1 ≤ i ≤ k.
9
1. SYSTEME LINEARER UNGLEICHUNGEN
Sei A ∈ R k×n definiert durch Ai j := fi (v j ). Für b ∈ R k×1 sei
L(A, ≤ b) := {x ∈ R n×1 | Ax ≤ b}.
Dann ist L( f1 , . . . , fk , ≤ b1 , . . . , bk ) = {vx | x ∈ L(A, ≤ b)}.
Beispiel 13 : Die Aufgabe “Finde alle x ∈ R 4 mit
2x1 + x2 − x3 + x4 ≤ 2,
x1 − 2x2 + 3x4 ≥ 1,
und x1 − x2 + x3 − x4 = 1 ”
ist System linearer Ungleichungen, weil die Menge dieser x ∈ R 4 gleich
L(A, ≤ (2, −1, 1, −1)T ) ist, wobei


2
1 −1 1
−1 2
0 −3
4×4

A=
 1 −1 1 −1 ∈ R .
−1 1 −1 1
(“Jedes System von linearen Gleichungen und Ungleichungen kann in ein
System der Form Ax ≤ b umgeschrieben werden”).
Definition 14 : Eine nichtleere Teilmenge L von V heißt Kegel (in V ), wenn
jede nichtnegative Linearkombination von Elementen in L wieder in L liegt,
d. h.: Für alle ℓ ∈ N , v0 , . . . , vℓ ∈ L, c0 , . . . , cℓ ∈ R ≥0 ist
c0 v0 + · · · + cℓ vℓ ∈ L.
Für ℓ ∈ N und v0 , . . . , vℓ ∈ V heißt die Menge
K(v0 , . . . , vℓ ) :=
{
ℓ
∑ civi | c0, . . . , cℓ ∈ R ≥0
}
i=0
der von v0 , . . . , vℓ erzeugte Kegel. Ein Kegel L ist endlich erzeugt, wenn es
ℓ ∈ N und v0 , . . . , vℓ ∈ V gibt, so dass L = K(v0 , . . . , vℓ ).
Beispiel 15 : Sei dim R (V ) = 1 und 0 ̸= v ∈ V . Dann gibt es in V genau vier
Kegel und zwar {0}, K(v), K(−v) und V .
Beispiel 16 : Lösungsmengen von Systemen homogener linearer Ungleichungen sind Kegel.
Beispiel 17 : Sei dim R (V ) = 2 und L ein Kegel in V mit
{0} ̸= L ̸= V . Dann gibt es eine Basis (v1 , v2 ) von V so, dass L = K(v1 )
oder L = K(v1 , −v1 ) oder L = K(v1 , v2 ) oder L = K(v1 , v2 , −v1 ) ist.
10
1. SYSTEME LINEARER UNGLEICHUNGEN
Beispiel 18 : Die Menge
{z ∈ R 3 | z21 + z22 ≤ z23 , z3 ≥ 0}
ist ein Kegel in R 3 , aber nicht endlich erzeugt.
Definition 19 : Eine Teilmenge M von V ist konvex, wenn für je zwei Elemente v, w ∈ M auch die Strecke [v, w] in M enthalten ist.
Beispiel 20 : Polyeder, also Lösungsmengen von Systemen linearer Ungleichungen, sind konvex.
§3. Lineare Optimierung mit zwei Unbekannten
Beispiel 21 : Eine Firma stellt aus 3 Rohstoffen A, B und C zwei Produkte
P und Q her.
Von A bzw. B bzw. C sind 28 bzw. 32 bzw. 40 Tonnen verfügbar.
Für je ein Stück von P bzw. Q werden gebraucht:
A
B
C
P 1kg 2kg 5kg
Q 4kg 4kg 2kg
Der Gewinn für ein Stück von P bzw. Q beträgt 4 bzw. 5 Euro.
Wie viele Stück von P und von Q soll die Firma produzieren, um einen
möglichst großen Gewinn zu erzielen?
Um diese Aufgabe mathematisch zu modellieren, legen wir zuerst fest,
was wir suchen. Gesucht sind zwei Zahlen: die Stückzahlen von Produkt
P und von Produkt Q. Dann lesen wir aus dem Text ab, welche Bedingungen diese Zahlen erfüllen sollen. Weiters müssen wir Annahmen über die
Gewinnfunktion“ treffen. Also:
”
• Gesucht ist ein Zahlenpaar (p, q) ∈ R2 , dabei gibt p bzw. q an, wieviele Stück von P bzw. Q hergestellt werden sollen.
• Dieses Zahlenpaar (p, q) muss die folgenden Bedingungen erfüllen :
– p + 4q ≤ 28000, 2p + 4q ≤ 32000, 5p + 2q ≤ 40000,
weiters p ≥ 0 und q ≥ 0, weil p und q als Stückzahlen nicht
negativ sein können.
Die Menge der Zahlenpaare (p, q), die diese Bedingungen erfüllen, nennen wir den zulässigen Bereich dieser Optimierungsaufgabe.
– Der Gewinn soll möglichst groß sein, d.h.: wenn wir mit G
die Funktion von R2 nach R bezeichnen, die jedem Zahlenpaar
(x, y) den Gewinn (in Euro) bei Produktion von x Stück von P
und y Stück von Q zuordnet, dann soll für alle (x, y) aus dem
zulässigen Bereich
G(x, y) ≤ G(p, q) sein.
11
1. SYSTEME LINEARER UNGLEICHUNGEN
• Wenn wir annehmen, dass die Funktion G linear ist, dann ist
G(x, y) = 4x + 5y für alle Zahlenpaare (x, y), also soll das Zahlenpaar
(p, q) im zulässigen Bereich so gewählt werden, dass 4p + 5q größtmöglich ist.
Ist die Annahme, dass die Gewinnfunktion linear ist, sinnvoll? Diese
Annahme bedeutet, dass sich der Gewinn verdoppelt, verdreifacht, ... , wenn
man die Produktion verdoppelt, verdreifacht, ... . Jede Firma weiß, dass das
in der Regel nicht der Fall ist. Wenn der Markt mit einem Produkt über”
schwemmt“ wird, verfällt der Preis. Wenn die Gewinnfunktion linear ist,
dann muss der Gewinn bei gleichzeitiger Produktion von p Stück von P
und q Stück von Q die Summe der Gewinne nach der Produktion von p
bzw. q Stück von P bzw. Q sein. Auch das ist nicht immer so. Wenn die
Kunden zum Beispiel das Produkt P besser als das Produkt Q empfinden,
dann kann die Produktion von P den Absatz von Q beeinträchtigen.
Die Annahme, dass die Gewinnfunktion linear ist, ist jedoch unter gewissen Umständen sinnvoll. Zum Beispiel, wenn die Abnahme der Produkte von vorneherein gesichert ist. Oder, wenn nur kleine Veränderungen der
Produktion geplant sind. Die Annahme, dass der Gewinn um 2 Prozent
steigt, wenn die Produktion um 2 Prozent erhöht wird, scheint realistisch
zu sein.
Definition 22 : Ein lineares Programm auf R2 ist die folgende Aufgabe:
• Gegeben sind endlich viele lineare Ungleichungen mit zwei Unbekannten und eine lineare Funktion f : R2 −→ R.
Die Funktion f nennt man Zielfunktion, den Durchschnitt der Lösungsmengen aller linearen Ungleichungen nennt man den zulässigen Bereich.
• Gesucht ist ein optimaler Punkt, das ist ein Zahlenpaar im zulässigen Bereich mit größtmöglichem (oder kleinstmöglichem) Funktionswert bezüglich f .
Nach §2 ist der zulässige Bereich Durchschnitt von Halbebenen. Er
kann leer, ein Punkt, eine Halbgerade, eine Gerade, eine Halbebene, ein
spitzer Kegel (in der Ebene), ein konvexes Vieleck oder die Summe eines
spitzen Kegels (in der Ebene) und eines konvexen Vielecks sein.
12
1. SYSTEME LINEARER UNGLEICHUNGEN
r
r
r
r
r r
r r
r
Ein optimaler Punkt kann graphisch wie folgt bestimmt werden:
• Für jede lineare Ungleichung ax + by ≤ c zeichne die Gerade
L((a, b), c) = { (x, y) | ax + by = c }
ein.
Wähle dann irgendeinen Punkt (u, v), der nicht auf dieser Geraden
liegt, und berechne au + bv. Wenn diese Zahl kleiner als c ist, dann
liegt dieser Punkt auf der Halbebene L((a, b), ≤ c). Sonst ist
L((a, b), ≤ c) die andere Halbebene.
• Bestimme durch Zeichnung den Durchschnitt dieser Halbebenen, den
zulässigen Bereich.
Falls er leer ist, gibt es keinen optimalen Punkt. Wir nehmen daher
im Folgenden an, dass der zulässige Bereich nicht leer ist.
Beispiel: Als Lösungsmenge des Systems
x + 4y ≤ 28000
2x + 4y ≤ 32000
5x + 2y ≤ 40000
−x ≤ 0
−y ≤ 0
linearer Ungleichungen erhalten wir den folgenden umrandeten Bereich:
13
1. SYSTEME LINEARER UNGLEICHUNGEN
XXsX
(0,7000)
XXX
XXX
(4000,6000)
H
XsH
X
X
H
HHLs(6000,5000)
H
L
L
L
L
L
L
L
L
L
s
Ls
(0,0)
LL(8000,0)
• Zeichne das Urbild von 0 bezüglich der Zielfunktion. Dieses ist eine
Gerade in R2 durch (0, 0), wir nennen sie Z.
• Wir verschieben Z zunächst so, dass die verschobene Gerade Z ′ einen
Punkt des zulässigen Bereichs enthält.
• Wähle einen Punkt R, dessen Funktionswert bezüglich der Zielfunktion positiv ist (o.E.d.A. nehmen wir an, dass die Zielfunktion nicht
die Nullfunktion ist).
sR
Z
s (0,0)
s
s
Z’
• Wenn wir ein Maximum suchen, dann verschieben wir Z ′ so lange
in die Richtung von (0, 0) nach R, wie noch ein zulässiger Punkt
auf der verschobenen Geraden liegt. Die Funktionswerte bezüglich
der Zielfunktion der Punkte auf den Geraden werden dabei immer
größer.
14
1. SYSTEME LINEARER UNGLEICHUNGEN
– Falls das beliebig weit möglich ist, gibt es keinen optimalen
Punkt.
– Sobald das nicht mehr möglich ist, ist jeder Punkt des zulässigen Bereichs, der dann noch auf dieser Geraden liegt, ein optimaler Punkt.
rR
(0,0)
r
Z
r
r
Z’
• Wenn wir ein Minimum suchen, dann verschieben wir Z ′ in die andere Richtung und gehen analog vor.
rR
Z
r (0,0)
r
r
Z’ -
Beispiel 23 : Wir lösen nun das lineare Programm aus Beispiel 21
x + 4y ≤ 28000 , 2x + 4y ≤ 32000 , 5x + 2y ≤ 40000 , −x ≤ 0 , −y ≤ 0 ,
4x + 5y maximal
Das Urbild von 0 bezüglich der Zielfunktion ist die Gerade Z := R(−5, 4).
Diese Gerade enthält bereits einen Punkt des zulässigen Bereichs, nämlich
(0, 0). Werten wir die Zielfunktion zum Beispiel in (1, 1) aus, erhalten wir
15
1. SYSTEME LINEARER UNGLEICHUNGEN
die positive Zahl 9. Also verschieben wir die Gerade Z solange in der
Richtung von (0, 0) nach (1, 1), wie die verschobene Gerade noch Punkte des zulässigen Bereichs enthält. Schließlich liegt nur noch der Punkt
(6000, 5000) auf der verschobenen Geraden. Also ist der Gewinn maximal,
wenn 6000 Stück von Produkt P und 5000 Stück von Produkt Q hergestellt
werden.
XXsX
(0,7000)
XXX
XXX
(4000,6000)
sX
H
Xc
X
Hc
Hc
H Ls(6000,5000)
HH
c
c
L
Lc
L cc
L
c
L
L
L
c
L
c
L
c
cs
Ls
c
(0,0)
LL(8000,0)
c
c
c
c
Aus den Überlegungen oben folgt unmittelbar: Wenn es einen optimalen Punkt gibt, dann ist mindestens einer der Randpunkte des zulässigen Bereichs ein optimaler Punkt. Das gilt auch für lineare Programme auf Rn mit
n ≥ 3 und ist die Grundlage für den Simplexalgorithmus zu ihrer Lösung.
§4. Affine Funktionen
V und W seien Vektorräume über einem Körper K.
Definition 24 : Eine Funktion a: V −→ W heißt affin, wenn es eine lineare
Funktion f : V −→ W und einen Vektor w ∈ W gibt mit
a = tw ◦ f ,
wobei tw die Translation um w in W ist, d.h. es ist
a(x) = f (x) + w
für alle x ∈ V . Insbesondere ist w = a(0) und f = t(−w) ◦ a, also sind tw und
f eindeutig durch a bestimmt und heißen der Translationsanteil bzw. der
lineare Anteil von a.
Beispiel 25 : Lineare Funktionen und Translationen sind affine Funktionen.
16
1. SYSTEME LINEARER UNGLEICHUNGEN
Beispiel 26 : Jede lineare Funktion von K n×1 nach K m×1 ist von der Form
x 7→ Ax mit A ∈ K m×n . Daher ist jede affine Funktion von K n×1 nach K m×1
von der Form x 7→ Ax + b mit A ∈ K m×n und b ∈ K m×1 , d.h. von der Form
  

x1
A11 x1 + A12 x2 + · · · + A1n xn + b1
x2   A21 x1 + A22 x2 + · · · + A2n xn + b2 
 .  7→ 
.
..
 ..  

.
xn
Am1 x1 + Am2 x2 + · · · + Amn xn + bm
Satz 27 : Die Hintereinanderausführung affiner Funktionen sowie die Umkehrfunktion einer bijektiven affinen Funktion sind wieder affin.
Seien a : V → W und b : Y → Z affine Funktionen mit Bild(a) ⊂ Y . Seien
f : V → W , g : Y → Z linear und w ∈ W , z ∈ Z mit a = tw ◦ f und b = tz ◦ g.
Dann ist für alle x ∈ V
b ◦ a = tg(w)+z ◦ (g ◦ f ) .
Ist f bijektiv, dann ist t− f −1 (w) ◦ f −1 die Umkehrfunktion von f .
Beweis: Für alle x ∈ V ist
b(a(x)) = g(a(x)) + z = g( f (x) + w) + z = g( f (x)) + g(w) + z
= (tg(w)+z (g( f (x))) .
Definition 28 : Es seien I eine endliche Menge und (vi )i∈I eine Familie in
V . Eine Linearkombination ∑i∈I ci vi von (vi )i∈I heißt affine Kombination
von (vi )i∈I , wenn ∑i∈I ci = 1 ist. Die Menge aller affinen Linearkombinationen von (vi )i∈I heißt affine Hülle von (vi )i∈I .
Beispiel 29 : Die affine Hülle von zwei Vektoren v1 und v2 ist ein Punkt,
wenn v1 = v2 ist, bzw. die Gerade
{c1 v1 + c2 v2 | c1 , c2 ∈ K, c1 + c2 = 1} = {v1 + c(v2 − v1 ) | c ∈ K},
wenn v1 ̸= v2 ist.
Satz 30 : Sei a : V → W eine Funktion. Die folgenden Aussagen sind äquivalent:
(1) Die Funktion a ist affin.
(2) Für jede affine Linearkombination ∑i∈I ci vi einer endlichen Familie
in V ist
)
(
a
∑ civi
i∈I
= ∑ ci a(vi ) .
i∈I
17
1. SYSTEME LINEARER UNGLEICHUNGEN
( Das Bild einer affinen Linearkombination ist die affine Linearkom”
bination der Bilder“.)
Beweis:
(1) ⇒ (2): Sei w ∈ W und f : V → W eine lineare Funktion so, dass
a(
= tw ◦ f )ist. Dann ist
(
)
a ∑ ci vi = w + ∑ ci f (vi ) = ∑ ci w + ∑ ci f (vi ) =
i∈I
i∈I
= ∑ ci (w + f (vi )) = ∑ ci a (vi ) .
i∈I
i∈I
i∈I
i∈I
(2) ⇒ (1): Sei w := a(0) und f := t(−w) ◦ a. Es ist zu zeigen, dass f
linear ist.
Seien c1 , c2 ∈ K und x1 , x2 ∈ V . Dann ist
f (c1 x1 + c2 x2 ) = a(c1 x1 + c2 x2 ) − w =
= a(c1 x1 + c2 x2 + (1 − c1 − c2 )0) − w =
= c1 a(x1 ) + c2 a(x2 ) + (1 − c1 − c2 ) · a(0) − w =
= c1 (a(x1 ) − w) + c2 (a(x2 ) − w) = c1 f (x1 ) + c2 f (x2 ) .
Definition 31 : Es seien I eine endliche Menge und (vi )i∈I eine Familie in
V.
Eine Linearkombination ∑ ci vi von (vi )i∈I heißt konvexe Linearkombinatii∈I
on von (vi )i∈I , wenn ∑ ci = 1 und ci ≥ 0 für alle i ∈ I ist.
i∈I
Die Menge der konvexen Linearkombinationen von (vi )i∈I heißt konvexe
Hülle von (vi )i∈I .
Die konvexe Hülle zweier Vektoren v1 , v2 heißt Strecke zwischen v1 und v2 .
Die konvexe Hülle dreier nicht kollinearer Punkte v1 , v2 , v3 heißt Dreieck
mit Eckpunkten v1 , v2 , v3 .
Eine Teilmenge von V heißt Polytop, wenn sie die konvexe Hülle einer endlichen Familie in V ist.
Es sei I := {1, . . . , n} und c1 , . . . , cn ∈ R ≥0 . Für cn ̸= 1 ist
)
(
n
n−1
ci
∑ civi = (1 − cn) ∑ 1 − cn vi + cnvn = (1 − cn)w + cnvn ,
i=1
i=1
ci
wobei w := ∑n−1
i=1 1−cn vi in der konvexen Hülle H von (v1 , . . . , vn−1 ) liegt.
Daraus folgt: Für n ≥ 3 ist die konvexe Hülle von (v1 , . . . , vn ) die Vereinigung aller Strecken zwischen vn und den Elementen von H.
Beispiel 32 : Eine Teilmenge von R ist genau dann ein Polytop, wenn sie
ein abgeschlossenes Intervall ist.
18
1. SYSTEME LINEARER UNGLEICHUNGEN
Beispiel 33 : Die konvexe Hülle einer Menge N ist konvex.
Denn: Seien ∑ℓi=0 ci vi und ∑mj=0 d j w j konvexe Linearkombinationen von
Elementen in N und s,t ∈ R ≥0 mit s + t = 1. Wegen
m
( ℓ ) ( m )
sc
+
td
=
s
∑ i ∑ j
∑ ci + t ∑ d j = s + t = 1
ℓ
i=0
j=0
i=0
j=0
ist s(∑ℓi=0 ci vi ) + t(∑mj=0 d j w j ) ein Element der konvexen Hülle von N.
Satz 34 : Sind v0 , . . . , vℓ Elemente einer konvexen Menge M in V , dann
enthält M auch alle konvexen Linearkombinationen von v0 , . . . , vℓ .
Insbesondere: Die konvexe Hülle conv(N) einer Teilmenge N von V ist
die (bezüglich Inklusion) kleinste konvexe Teilmenge von V , die N enthält.
Beweis: Für (alle)i ∈ I ist der Vektor vi eine konvexe Linearkombination
∑ c ji w j von w j j∈J .
j∈J
Sei ∑ di vi eine konvexe Linearkombination von (vi )i∈I . Dann ist
i∈I
(
)
∑ divi = ∑ ∑ dic jiw j = ∑ ∑ dic ji
i∈I
i∈I j∈J
j∈J
mit ∑ di c ji ≥ 0, für alle j ∈ J, und
i∈I
(
)
(
∑ ∑ dic ji
j∈J
i∈I
= ∑ di
i∈I
wj
i∈I
)
∑ c ji
j∈J
= ∑ di = 1 .
i∈I
Daher ist ∑ di vi ∈ P .
i∈I
Definition 35 : Es sei (vi )i∈I eine endliche Familie in V .
Der Schwerpunkt von (vi )i∈I ist
1
vi .
# (I) ∑
i∈I
Der Schwerpunkt von (v1 , v2 ) heißt Mittelpunkt der Strecke zwischen v1
und v2 .
Definition 36 : Punkte v1 , . . . , vk sind genau dann kollinear, wenn sie alle
in einer Geraden enthalten sind.
Satz 37 : Die Vektoren v1 , v2 , v3 ∈ V sind genau dann kollinear, wenn
v2 − v1 und v3 − v1 linear abhängig sind.
19
1. SYSTEME LINEARER UNGLEICHUNGEN
Beweis: Übung.
Satz 38 : Es seien u, v, w drei nicht kollineare Punkte in V . Die Gerade
durch u bzw. v bzw. w und den Mittelpunkt der Strecke zwischen den anderen
zwei Punkten heißt Schwerlinie des Dreiecks mit Eckpunkten u, v, w durch u
bzw. v bzw. w.
Die drei Schwerlinien sind paarweise verschieden und schneiden einander
im Schwerpunkt 31 (u + v + w) von (u, v, w) .
Beweis: Da u, v, w nicht kollinear sind, sind nach Satz 37 die Vektoren v − u
und w − u linear unabhängig. Also sind auch
1
1
1
v − u und
(v − u) + (w − u) = (v + w) − u
2
2
2
1
linear unabhängig und daher u, v, 2 (v + w) nicht kollinear. Somit liegt v
nicht auf der Schwerlinie durch u . Daher sind die Schwerlinien durch u
und durch v verschieden und die drei Schwerlinien haben höchstens einen
Schnittpunkt. Wegen
(
)
(
)
1
1
2 1
1
2 1
(u + v + w) = u +
(v + w) = v +
(u + w) =
3
3
3 2
3
3 2
(
)
1
2 1
= w+
(u + v)
3
3 2
liegt der Schwerpunkt auf allen Schwerlinien.
Satz 39 : Es seien W ein Vektorraum, a : V → W eine affine Funktion und
(vi )i∈I eine endliche Familie in V . Dann gilt:
(1) Das Bild der konvexen Hülle von (vi )i∈I bezüglich a ist die konvexe
Hülle der Familie (a (vi ))i∈I in W .
(2) Das Bild des Schwerpunkts von (vi )i∈I ist der Schwerpunkt von
(a (vi ))i∈I .
Beweis: Folgt aus Satz 30.
Beispiel 40 : Es seien P ein Polytop in V und a : V → R eine affine Funktion. Dann ist a(P) ein abgeschlossenes Intervall in R.
KAPITEL 2
Bewegungen in euklidischen Räumen
Es seien V mit ⟨−, −⟩ ein euklidischer Raum und n ∈ N seine Dimension. In diesem Kapitel werden Bewegungen starrer Körper“ (zum Bei”
spiel eines Roboterarms) mathematisch beschrieben. Dabei verstehen wir
unter Bewegung“ eines Körpers in V nicht einen in der Zeit ablaufenden
”
”
Vorgang“, sondern eine Funktion f : V −→ V , die dem Ort“ v ∈ V eines
”
Massenpunktes“ zur Zeit 0 “ seinen Ort“ f (v) zur Zeit 1“ zuordnet. Ein
”
”
”
”
Körper ist starr“, wenn nach jeder Bewegung die Abstände je zweier seiner
”
Massenpunkte“ gleichgeblieben sind.
”
Zuerst wiederholen wir einige wichtige Voraussetzungen für diese Überlegungen: Skalarprodukte, ON-Basen, Fußpunkt des Lotes, Winkel.
§1. Skalarprodukte (Wiederholung)
In diesem Abschnitt sei V ein reeller Vektorraum.
Wir werden die folgende Eigenschaft der reellen Zahlen verwenden: Zu
jeder reellen Zahl a ≥ 0 gibt es genau eine reelle Zahl b√
≥ 0 mit b2 = a.
√
√
Schreibweise: b = a. Ist 0 ≤ a < b, dann ist auch a < b.
Definition 41 : Ein Skalarprodukt auf V ist eine Funktion
⟨−, −⟩ : V ×V −→ R ,
(v, w) 7−→ ⟨v, w⟩ ,
mit den folgenden Eigenschaften:
Für alle c ∈ R , u, v, w ∈ V gilt
(1) ⟨v, w⟩ = ⟨w, v⟩
( ⟨−, −⟩ ist symmetrisch“)
”
(2) ⟨u, c(v + w)⟩ = c⟨u, v⟩ + c⟨u, w⟩
( ⟨−, −⟩ ist linear in der zweiten Komponente“)
”
(3) Für v ̸= 0 ist ⟨v, v⟩ eine positive reelle Zahl
( ⟨−, −⟩ ist positiv definit“).
”
Aus (1) und (2) folgt:
⟨c(u + v), w⟩ = c⟨u, w⟩ + c⟨v, w⟩ .
( ⟨−, −⟩ ist auch linear in der ersten Komponente“, also zusammengefasst:
”
⟨−, −⟩ ist bilinear “)
”
Ein endlichdimensionaler reeller Vektorraum mit einem Skalarprodukt
heißt euklidischer Raum.
20
21
2. BEWEGUNGEN IN EUKLIDISCHEN RÄUMEN
Satz 42 : Es seien ⟨−, −⟩ ein Skalarprodukt auf V , (v1 , . . . , vn ) eine Basis
von V und c1 , . . . , cn , d1 , . . . , dn reelle Zahlen. Dann ist
n
n
n
i=1
j=1
⟨ ∑ ci vi , ∑ d j v j ⟩ = ∑
n
∑ cid j ⟨vi, v j ⟩ ,
i=1 j=1
insbesondere ist das Skalarprodukt ⟨−, −⟩ durch seine Gram’sche Matrix
bezüglich der Basis (v1 , . . . , vn )
(⟨vi , v j ⟩)1≤i, j≤n
eindeutig bestimmt.
Beweis: Induktion über n.
Definition 43 : Ist ⟨−, −⟩ ein Skalarprodukt auf V , dann heißen die Funktionen
√
d : V ×V −→ R , (v, w) 7−→ ||v − w|| := ⟨v − w, v − w⟩ ,
bzw.
|| · || : V −→ R ,
v 7−→ ||v|| :=
√
⟨v, v⟩ ,
die von ⟨−, −⟩ induzierte Metrik bzw. Norm auf V . Die Zahl d(v, w)
heißt Abstand zwischen v und w. Die Zahl ||v|| = d(v, 0) heißt Abstand zwischen v und 0, Norm, Betrag oder Länge von v.
Zwei Vektoren v, w stehen zueinander senkrecht oder orthogonal, wenn
⟨v, w⟩ = 0 ist. Schreibweise: v ⊥ w.
Beispiel 44 : Die Funktion
⟨−, −⟩ : R n × R n −→ R ,
n
((a1 , . . . , an ), (b1 , . . . , bn )) 7−→ ∑ ai bi ,
i=1
ist ein Skalarprodukt auf R und heißt Standardskalarprodukt auf R n . Für
die Standardbasis (e1 , . . . , en ) von R n gilt
√
⟨ei , e j ⟩ = δi j , ∥ei ∥ = 1 und ∥ei − e j ∥ = 2(1 − δi j ), für 1 ≤ i, j ≤ n .
n
Satz 45 : Es seien V mit ⟨−, −⟩ ein reeller Vektorraum mit Skalarprodukt
und v, w Vektoren in V . Dann ist
|⟨v, w⟩| ≤ ∥v∥ · ∥w∥
( Cauchy-Schwarz’sche Ungleichung“).
”
Weiters sind die Zahlen |⟨v, w⟩| und ∥v∥ · ∥w∥ genau dann gleich, wenn v
und w linear abhängig sind.
22
2. BEWEGUNGEN IN EUKLIDISCHEN RÄUMEN
Beweis: Wenn v = 0 oder w = 0 ist, dann ist |⟨v, w⟩| = 0 = ∥v∥ · ∥w∥.
Sei nun v ̸= 0 und w ̸= 0. Wenn v und w linear abhängig sind, gibt es ein
0 ̸= c ∈ R mit w = c · v. Daher ist
|⟨v, w⟩| = |c|⟨v, v⟩ = |c| · ∥v∥2 = ∥v∥ · ∥w∥ .
Wenn v und w linear unabhängig sind, dann ist
0 ̸= w − (⟨v, w⟩/⟨v, v⟩)v
und
0 < ⟨w − (⟨v, w⟩/⟨v, v⟩)v, w − (⟨v, w⟩/⟨v, v⟩)v⟩ = ⟨w, w⟩ − ⟨v, w⟩2 /⟨v, v⟩ .
Daher ist
⟨v, w⟩2 < ∥v∥2 · ∥w∥2 .
Beispiel 46 : Für V = R n mit dem Standardskalarprodukt und a, b ∈ R n
ergibt sich
√
√
n
| ∑ ai bi | ≤
i=1
n
∑ a2i
i=1
n
∑ b2i
i=1
als Cauchy-Schwarz’sche Ungleichung.
Satz 47 : Es seien V mit ⟨−, −⟩ ein reeller Vektorraum mit Skalarprodukt,
c ∈ R und v, w Vektoren in V . Dann gilt:
(1) ∥v + w∥ ≤ ∥v∥ + ∥w∥ ( Dreiecksungleichung“).
”
(2) Wenn v und w zueinander orthogonal sind, dann ist
∥v − w∥2 = ∥v∥2 + ∥w∥2
( Satz von Pythagoras“).
”
(3) Wenn ∥v∥ = ∥w∥ ist, dann stehen v + w und v − w zueinander senkrecht ( Satz von Thales“).
”
(4) ∥v + w∥2 − ∥v − w∥2 = 4⟨v, w⟩ .
Insbesondere: Eine Parallelogramm ist genau dann ein Rechteck,
”
wenn seine Diagonalen gleich sind.“
Beweis:
(1) ∥v + w∥2 = ⟨v + w, v + w⟩ = ⟨v, v⟩ + ⟨v, w⟩ + ⟨w, v⟩ + ⟨w, w⟩ ≤
≤ (Satz 45) ∥v∥2 + ∥w∥2 + 2∥v∥ · ∥w∥ = (∥v∥ + ∥w∥)2 .
(2) ∥v − w∥2 = ⟨v, v⟩ − 0 + ⟨w, w⟩ = ∥v∥2 + ∥w∥2 .
(3) ⟨v + w, v − w⟩ = ⟨v, v⟩ − ⟨w, w⟩ = ∥v∥2 − ∥w∥2 = 0.
(4) ∥v + w∥2 − ∥v − w∥2 = ⟨v, v⟩ + 2⟨v, w⟩ + ⟨w, w⟩ −
− (⟨v, v⟩ − 2⟨v, w⟩ + ⟨w, w⟩) = 4⟨v, w⟩ .
23
2. BEWEGUNGEN IN EUKLIDISCHEN RÄUMEN
Definition 48 : Es sei u ∈ V und v ∈ V, v ̸= 0 . Mit R ≥0 bezeichnen wir die
Menge aller nicht-negativen reellen Zahlen. Die Menge
R ≥0 v := {c · v | c ∈ R , c ≥ 0}
heißt Richtung in V . Die Menge
u + R ≥0 v := {u + c · v | c ∈ R , c ≥ 0}
heißt Halbgerade oder Strahl in V mit Anfangspunkt u und Richtung v.
Sei V ein Vektorraum mit Skalarprodukt. Zu jeder nicht-negativen Zahl
a ∈ R und jeder Richtung H := {cv | c ∈ R , c ≥ 0} gibt es genau ein
Element w ∈ H mit ∥w∥ = a, und zwar a∥v∥−1 · v. Also ist jeder Vektor in
einem Vektorraum mit Skalarprodukt durch Richtung und Betrag eindeutig
bestimmt. Die Sprechweise ein Vektor hat Betrag und Richtung“ ist daher
”
dann sinnvoll, wenn von Elementen eines Vektorraums mit Skalarprodukt
gesprochen wird.
§2. Orthonormalbasen (Wiederholung)
Sei ⟨−, −⟩ ein Skalarprodukt auf einem reellen Vektorraum V .
Definition 49 : Ein n-Tupel (v1 , . . . , vn ) in V heißt orthonormal bezüglich
⟨−, −⟩, wenn für alle 1 ≤ i, j ≤ n
⟨vi , v j ⟩ = δi j
ist. Ein n-Tupel (v1 , . . . , vn ) in V heißt Orthonormalbasis (kurz: ON-Basis)
von V bezüglich ⟨−, −⟩, wenn sie eine Basis von V und orthonormal bezüglich ⟨−, −⟩ ist.
Beispiel 50 : Die Standardbasis von R n ist eine Orthonormalbasis bezüglich des Standardskalarproduktes.
Beispiel 51 : Eine Basis (v1 , . . . , vn ) von V ist genau dann eine Orthonormalbasis bezüglich ⟨−, −⟩, wenn die Gram’sche Matrix
(⟨vi , v j ⟩)1≤i, j≤n
gleich der Einheitsmatrix In ist.
Nach Satz 42 bedeutet also auf einem reellen Vektorraum ein Skalar”
produkt wählen“ dasselbe, wie von einer Basis dieses Vektorraums festle”
gen, dass sie eine ON-Basis sein soll“. Das nennt man auch “ein rechtwinkeliges Koordinatensystem wählen“.
24
2. BEWEGUNGEN IN EUKLIDISCHEN RÄUMEN
Satz 52 : Ein orthonormales n-Tupel ist linear unabhängig.
Insbesondere: Wenn V endlich-dimensional ist, dann ist jedes orthonormale
n-Tupel mit dim R (V ) Elementen eine ON-Basis von V .
Beweis: Sei (v1 , . . . , vn ) ein orthonormales n-Tupel und c1 , . . . cn ∈ R . Wenn
∑ni=1 ci vi = 0 ist, dann ist für 1 ≤ j ≤ n auch
n
n
i=1
i=1
0 = ⟨v j , ∑ ci vi ⟩ = ∑ ci ⟨v j , vi ⟩ = c j .
Satz 53 : Es sei w ∈ V und v := (v1 , . . . , vn ) eine ON-Basis von V . Dann ist
n
w = ∑ ⟨vi , w⟩vi .
i=1
Die Koordinate von w bei vi ist das Skalarprodukt von vi mit w“.
”
(Koordinaten von Vektoren bezüglich ON-Basen sind also leicht zu berechnen!)
Beweis: Sei w = ∑nj=1 c j v j . Für 1 ≤ i ≤ n ist dann
n
⟨vi , w⟩ = ⟨vi , ∑ c j v j ⟩ =
j=1
n
∑ c j ⟨vi, v j ⟩ =
j=1
n
∑ c j δ i j = ci .
j=1
Beispiel 54 : Es sei V := R 2 und ⟨−, −⟩ das Standardskalarprodukt. Dann
ist
3 4
4 3
(v1 := ( , ), v2 := ( , − ))
5 5
5 5
eine ON-Basis von V . Dann ist
1
7
(1, 1) = ⟨v1 , (1, 1)⟩v1 + ⟨v2 , (1, 1)⟩v2 = v1 + v2 .
5
5
Satz 55 : Es seien (v1 , . . . , vn ) eine ON-Basis von V , u1 , . . . , un ∈ V und
S−1 , . . . , S−n die Koordinatenspalten von u1 , . . . , un bezüglich der ON-Basis
(v1 , . . . , vn ). Dann ist
Si j = ⟨vi , u j ⟩ ,
1 ≤ i, j ≤ n und die folgenden Aussagen sind äquivalent:
(1) Das n-Tupel (u1 , . . . , un ) ist eine ON-Basis von V .
(2) Die Spalten (S−1 , . . . , S−n ) bilden eine ON-Basis von R n×1 mit dem
Standardskalarprodukt.
25
2. BEWEGUNGEN IN EUKLIDISCHEN RÄUMEN
Beweis: Mit Satz 53 folgt
n
n
k=1
ℓ=1
⟨ui , u j ⟩ = ⟨ ∑ Ski vk , ∑ Sℓ j vℓ ⟩ = ∑ Ski Sℓ j ⟨vk , vℓ ⟩ =
k,ℓ
= ∑ Ski Sℓ j δkℓ = ∑ Ski Sk j = ⟨S−i , S− j ⟩ ,
k,ℓ
k
damit ist die Behauptung leicht nachzuprüfen.
Sobald man also eine ON-Basis in einem euklidischen Raum V gewählt
hat, wird das Berechnen des Skalarprodukts von zwei Vektoren in V zum
Berechnen des Standardskalarprodukts ihrer Koordinatenspalten vereinfacht!
Aber: Gibt es immer eine ON-Basis?
Satz 56 : Es sei (w1 , . . . , wn ) eine Basis von V . Mit dem folgenden Verfahren ( Schmidt’sches Orthonormalisierungsverfahren“) kann eine ON-Basis
”
(v1 , . . . , vn ) von V berechnet werden:
• u1 := w1
• Für 2 ≤ j ≤ n sei
j−1
u j := w j − ∑ (⟨ui , w j ⟩/⟨ui , ui ⟩)ui
• Für 1 ≤ j ≤ n sei
i=1
v j := ∥u j ∥−1 u j .
Insbesondere: Jeder euklidische Raum hat eine ON-Basis. Für alle j ist
R ⟨v1 , . . . , v j ⟩ = R ⟨w1 , . . . , w j ⟩.
Beweis: Nach Definition ist ⟨vi , vi ⟩ = 1, 1 ≤ i ≤ n. Es genügt also zu zeigen,
dass für alle 1 ≤ k < ℓ ≤ n die Vektoren uk und uℓ zueinander senkrecht
stehen. Das kann einfach nachgerechnet werden:
ℓ−1
⟨uk , uℓ ⟩ = ⟨uk , wℓ − ∑ (⟨ui , wℓ ⟩/⟨ui , ui ⟩)ui ⟩ =
i=1
ℓ−1
= ⟨uk , wℓ ⟩ − ∑ (⟨ui , wℓ ⟩/⟨ui , ui ⟩)δki ⟨uk , uk ⟩ = ⟨uk , wℓ ⟩ − ⟨uk , wℓ ⟩ = 0 .
i=1
Nach Satz 52 ist dann (v1 , . . . , vn ) linear unabhängig, wegen dim R (V ) = n
ist (v1 , . . . , vn ) eine Basis.
Beispiel 57 : Es sei V der von w1 := (1, 0, 1) und w2 := (1, 2, 3) erzeugte Untervektorraum von R 3 . Wir betrachten V mit der Einschränkung des
Standardskalarproduktes (von R 3 ) als euklidischen Raum.
26
2. BEWEGUNGEN IN EUKLIDISCHEN RÄUMEN
√
√
Es ist ∥w1 ∥ = 2, ∥w2 ∥ = 14 und ⟨w1 , w2 ⟩ = 4, also ist (w1 , w2 ) keine
ON-Basis von V .
Mit den Bezeichnungen von Satz 56 erhalten wir
• u1 := w1 ,
• u2 := w2 − (⟨u1 , w2 ⟩/⟨u1 , u1 ⟩)u1 = (1, 2, 3) − 42 (1, 0, 1) = (−1, 2, 1)
√
√
• v1 := 12 2(1, 0, 1), v2 := 16 6(−1, 2, 1).
(v1 , v2 ) ist eine ON-Basis von V .
§3. Der Fußpunkt des Lotes (Wiederholung)
Sei ⟨−, −⟩ ein Skalarprodukt auf einem reellen Vektorraum V .
Definition 58 : Es sei U ein endlich-dimensionaler Untervektorraum von
V . Dann ist
U ⊥ := {v ∈ V | für alle u ∈ U ist ⟨v, u⟩ = 0}
ein Untervektorraum von V und heißt das orthogonale Komplement von U
in V .
Satz 59 : Es sei U ein endlich-dimensionaler Untervektorraum von V ,
v ∈ V und (u1 , . . . , un ) eine ON-Basis von U.
(1) Der Vektor
n
pU (v) := ∑ ⟨ui , v⟩ui ∈ U
i=1
hängt nicht von der Wahl der ON-Basis (u1 , . . . , un ) ab und heißt
Fußpunkt des Lotes von v auf U.
(2) Jeder Vektor v ∈ V lässt sich eindeutig als Summe eines Vektors in U
und eines Vektors in U ⊥ schreiben, und zwar
v = pU (v) + (v − pU (v)) ,
wobei pU (v) ∈ U und (v − pU (v)) ∈ U ⊥ ist. Insbesondere ist
U ∩U ⊥ = {0} und V = U +U ⊥ := {y + y′ | y ∈ U, y′ ∈ U ⊥ }.
(3) Für v ∈ V und y ∈ U mit pU (v) ̸= y ist
∥v − y∥ > ∥v − pU (v)∥ ,
das heißt: pU (v) ist der eindeutig bestimmte Vektor in U, der von v
den kleinsten Abstand hat.
27
2. BEWEGUNGEN IN EUKLIDISCHEN RÄUMEN
Beweis:
(1) Es sei (w1 , . . . , wn ) eine ON-Basis von U. Es ist zu zeigen, dass
pU (v) = ∑nk=1 ⟨wk , v⟩wk ist. (Dann hängt pU (v) nicht von der Wahl
der ON-Basis in U ab). Nach Satz 53 ist
n
ui =
∑ ⟨w j , ui⟩w j , 1 ≤ i ≤ n .
j=1
Daher ist
n
n
n
n
pU (v) = ∑ ⟨ui , v⟩ui = ∑ ⟨ ∑ ⟨w j , ui ⟩w j , v⟩ ∑ ⟨wk , ui ⟩wk =
i=1
i=1 j=1
n
=∑
n
k=1
n
∑ ∑ ⟨w j , ui⟩⟨w j , v⟩⟨wk , ui⟩wk =
i=1 j=1 k=1
n
=
n
n
∑ ( ∑ ⟨w j , v⟩ ∑ (⟨w j , ui⟩⟨wk , ui⟩))wk = ( cf. Satz 55 )
k=1 j=1
n
=
i=1
n
∑ ( ∑ ⟨w j , v⟩⟨w j , wk ⟩)wk =
k=1 j=1
n
∑ ⟨wk , v⟩wk .
k=1
(2) Für y ∈ U ist ⟨v, y⟩ = ⟨pU (v), y⟩, also
⟨v − pU (v), y⟩ = ⟨v, y⟩ − ⟨pU (v), y⟩ = 0 .
Daher ist v − pU (v) ∈ U ⊥ und v = pU (v) + (v − pU (v)) ∈ U + U ⊥ .
Wenn y ̸= 0 ist, dann ist 0 < ⟨y, y⟩, also y ̸∈ U ⊥ . Daher ist U ∩U ⊥ =
{0}.
(3) Für y ∈ U mit pU (v) ̸= y ist 0 ̸= pU (v) − y ∈ U und v − pU (v) ∈ U ⊥ .
Deshalb ist
∥v − y∥2 = ∥(v − pU (v)) + (pU (v) − y)∥2 =
= ∥v − pU (v)∥2 + ∥pU (v) − y∥2 > ∥v − pU (v)∥2 .
Beispiel 60 : Es sei 0 ̸= u ∈ V und U die Gerade R u. Dann ist ∥u∥−1 u eine
ON-Basis von U. Der Fußpunkt des Lotes von v ∈ V auf die Gerade U ist
p R u (v) = ⟨∥u∥−1 u, v⟩∥u∥−1 u = (⟨u, v⟩/⟨u, u⟩)u .
Beispiel 61 : Satz 59 ermöglicht eine geometrische Interpretation des
Schmidt’schen Orthonormalisierungsverfahrens (Satz 56):
Seien u1 , . . . , u j−1 schon berechnet. Dann ist (v1 , . . . , v j−1 ) eine Orthonormalbasis des von v1 , . . . , v j−1 erzeugten Untervektorraums V j−1 . Der Vektor
j−1
∑ (⟨ui, w j ⟩/⟨ui, ui⟩)ui
i=1
28
2. BEWEGUNGEN IN EUKLIDISCHEN RÄUMEN
ist dann der Fußpunkt des Lotes von w j auf V j−1 und u j der Fußpunkt des
⊥ . Wegen w ̸∈ V
Lotes von w j auf V j−1
j
j−1 ist u j ̸= 0.
Definition 62 : Es sei Z ein endlichdimensionaler affiner Unterraum von V
mit Aufpunkt z und parallelem Untervektorraum U. Der Vektor
pZ (v) := z + pU (v − z)
heißt Fußpunkt des Lotes von v auf den affinen Unterraum Z.
Die Zahl ∥v − pZ (v)∥ heißt Abstand des Punktes v vom affinen Unterraum
Z.
§4. Winkel (Wiederholung)
Sei V mit ⟨−, −⟩ ein euklidischer Raum.
Definition 63 : Es sei w ∈ V und r ∈ R ≥0 := {t ∈ R |t ≥ 0}. Die Menge
{v ∈ V | ∥v − w∥ = r}
heißt Kreis mit Mittelpunkt w und Radius r. Der Kreis mit Mittelpunkt w
und Radius 1 heißt Einheitskreis um u.
Es seien u, v, w ∈ V mit u ̸= 0, v ̸= 0. Wir möchten die Lage der zwei
Halbgeraden w + R ≥0 u und w + R ≥0 v zueinander durch eine Zahl beschreiben, welche der Länge des (kürzeren) Bogens“ zwischen w+∥u∥−1 u
”
und w + ∥v∥−1 v auf dem Einheitskreis um w entsprechen soll.
Diese Zahl soll nur von u und v, aber nicht von w abhängen. Wir nehmen
also im weiteren an, dass w = 0 ist. Sei
u′ := ∥u∥−1 u und
v′ := ∥v∥−1 v .
Der Fußpunkt des Lotes p R u (v) von v′ auf die Gerade R u ist dann
⟨u′ , v′ ⟩u′
(siehe Beispiel 60). Die Zahl |⟨u′ , v′ ⟩| ist der Abstand zwischen 0 und
p R u (v′ ), kann also leichter gemessen werden als die Länge des (kürzeren)
”
Bogens“ zwischen u′ und v′ . Nach Satz 45 ist −1 ≤ ⟨u′ , v′ ⟩ ≤ 1.
Wenn α ∈ [0, π ] die Länge des (kürzeren) Bogens“ zwischen u′ und v′
”
ist, setzen wir
cos(α ) := ⟨u′ , v′ ⟩ = ⟨u, v⟩/(∥u∥ · ∥v∥)
(Sprechweise: Cosinus von α ). In der Analysis zeigt man, dass es zu jeder
Zahl z ∈ [−1, 1] genau ein α ∈ [0, π ] mit cos(α ) = z gibt. Anders formuliert:
die Funktion
cos : [0, π ] −→ [−1, 1] , α 7−→ cos(α ) ,
29
2. BEWEGUNGEN IN EUKLIDISCHEN RÄUMEN
ist bijektiv. Für α ∈ [0, π ] bezeichnen wir mit sin(α ) (Sprechweise: Sinus
von α ) den Abstand von v′ zur Geraden R u. Aus dem Satz von Pythagoras
folgt sin(α )2 + cos(α )2 = 1.
Definition 64 : Es seien u, v, w ∈ V, u ̸= 0 und v ̸= 0. Die eindeutig bestimmte Zahl α ∈ [0, π ] mit
cos(α ) = ⟨u, v⟩/(∥u∥ · ∥v∥)
heißt Winkel zwischen den Halbgeraden w+ R ≥0 u und w+ R ≥0 v oder kurz
Winkel zwischen u und v.
Satz 65 : ( Cosinussatz“) Es seien v, w ∈ V mit v ̸= 0, w ̸= 0 und α der
”
Winkel zwischen v und w. Dann ist
∥v − w∥2 = ∥v∥2 + ∥w∥2 − 2∥v∥ · ∥w∥ · cos(α ) .
Beweis: ∥v − w∥2 = ⟨v − w, v − w⟩ = ∥v∥2 + ∥w∥2 − 2⟨v, w⟩ =
= ∥v∥2 + ∥w∥2 − 2∥v∥ · ∥w∥ · cos(α ) .
§5. Orientierung, Volumen und Vektorprodukt (Wiederholung)
In diesem Abschnitt sei V ein reeller Vektorraum.
Definition 66 : Es seien (v1 , . . . , vn ) und (w1 , . . . , wn ) Basen von V . Die
Matrix T ∈ K n×n , deren Spalten T−1 , . . . , T−n die Koordinatenspalten von
w1 , . . . , wn bezüglich der Basis (v1 , . . . , vn ) sind, heißt Transformationsmatrix von (v1 , . . . , vn ) nach (w1 , . . . , wn ).
Die Basen (v1 , . . . , vn ) und (w1 , . . . , wn ) heißen gleich orientiert, wenn
det(T ) > 0 ist, und verschieden orientiert, wenn det(T ) < 0 ist.
Wählt man eine Basis (v1 , . . . , vn ) von V aus, dann wird die Menge aller
Basen in zwei disjunkte Teilmengen zerlegt: die Teilmenge aller gleich wie
(v1 , . . . , vn ) orientierten Basen und die Teilmenge aller anderen Basen. Diese zwei Mengen heißen Orientierungen von V .
Durch die Wahl einer Basis von V wird eine Orientierung festgelegt. V zusammen mit einer Orientierung heißt orientierter Vektorraum. Die Basen
in der gegebenen Orientierung heißen dann positiv orientiert, die anderen
negativ orientiert.
Wird die Zeichenebene bzw. der physikalische Raum als reeller Vektorraum betrachtet, dann nennt man seine zwei Orientierungen Orientie”
rung im Uhrzeigersinn“ und Orientierung gegen den Uhrzeigersinn“ bzw.
”
Orientierung nach der Linken-Hand-Regel“ und Orientierung nach der
”
”
Rechten-Hand-Regel“.
30
2. BEWEGUNGEN IN EUKLIDISCHEN RÄUMEN
Beispiel 67 : Die Standardbasis (e1 , . . . , en−1 , en ) von R n und die Basis
(e1 , . . . , en−1 , −en ) sind verschieden orientiert. Jede Basis von R n ist also
gleich orientiert wie genau eine dieser zwei Basen.
Sei V mit ⟨−, −⟩ ein n-dimensionaler euklidischer Raum.
Definition 68 : Seien w1 , . . . , wn ∈ V . Die Menge
P(w1 , . . . , wn ) := {c1 w1 + . . . + cn wn | 0 ≤ ci ≤ 1, ci ∈ R }
heißt das von w1 , . . . , wn erzeugte Parallelotop. Wenn n = 2 ist, dann heißt
ein Parallelotop Parallelogramm.
Es sei (v1 , . . . , vn ) eine ON-Basis von V und S ∈ R n×n die Matrix, deren i-te
Spalte die Koordinatenspalte von wi ∈ V bezüglich (v1 , . . . , vn ) ist, 1 ≤ i ≤ n.
Die Zahl
vol(P(w1 , . . . , wn )) := | det(S)|
heißt das Volumen von P(w1 , . . . , wn ).
w2 + w3
w1 + w2 + w3
w2
w3
w1 + w2
w1 + w3
O
w1
A BBILDUNG 1. Parallelotop P(w1 , w2 , w3 )
Satz 69 : Es seien (v1 , . . . , vn ) eine ON-Basis von V und w1 , . . . , wn Vektoren
in V . Dann ist
√
vol(P(w1 , . . . , wn )) = det((⟨wi , w j ⟩)1≤i, j≤n ) .
Insbesondere: Das Volumen eines Parallelotops hängt nicht von der Wahl
der ON-Basis (v1 , . . . , vn ) ab. Wenn (w1 , . . . , wn ) eine ON-Basis von V ist,
dann ist vol(P(w1 , . . . , wn )) = 1.
31
2. BEWEGUNGEN IN EUKLIDISCHEN RÄUMEN
Beweis: Sei S die Matrix, deren Spalten die Koordinatenspalten von
w1 , . . . , wn bezüglich (v1 , . . . , vn ) sind. Für 1 ≤ i, j ≤ n gilt nach Satz 55
⟨wi , w j ⟩ = ⟨S−i , S− j ⟩ = (ST · S)i j .
Daher ist
det((⟨wi , w j ⟩)1≤i, j≤n ) = det(ST · S) = det(S)2 = vol(P(w1 , . . . , wn ))2 .
Satz 70 : Es seien u, w ∈ V, u ̸= 0, w ̸= 0 und α der Winkel zwischen u und
w. Dann ist
vol(P(u, w)) = ∥u∥ · ∥w∥ · sin(α ) .
Beweis: Nach Satz 69 ist
(
)
⟨u, u⟩ ⟨u, w⟩
2
vol(P(u, w)) = det
= ∥u∥2 · ∥w∥2 − ⟨u, w⟩2 =
⟨u, w⟩ ⟨w, w⟩
= ∥u∥2 · ∥w∥2 · (1 − cos2 (α )) = (∥u∥ · ∥w∥ · sin(α ))2 .
Definition 71 : V sei ein dreidimensionaler orientierter euklidischer
Raum. Für u, w ∈ V sei u × w der eindeutig bestimmte Vektor in V mit den
drei Eigenschaften
• ∥u × w∥ = vol(P(u, w)),
• u × w und u stehen zueinander senkrecht, u × w und w stehen zueinander senkrecht,
• wenn u×w ̸= 0 ist, dann ist (u, w, u×w) eine positiv orientierte Basis
von V .
Dieser Vektor heißt das Vektorprodukt (oder Kreuzprodukt) von u und w.
Sprechweise: u Kreuz w“.
”
Satz 72 : V sei ein dreidimensionaler euklidischer Raum, der durch eine
ON-Basis (v1 , v2 , v3 ) orientiert ist.
(1) v1 × v2 = v3 , v1 × v3 = −v2 , v2 × v3 = v1 .
(2) Ist (u, w) eine ON-Basis des von u und w erzeugten Untervektorraums, dann ist (u, w, u×w) eine wie (v1 , v2 , v3 ) orientierte ON-Basis
von V .
(3) Für ai , bi ∈ R , 1 ≤ i ≤ 3, ist
3
3
( ∑ ai vi ) × ( ∑ bi vi ) =
(
)
i=1
(
i=1
)
(
)
a2 a3
a1 a3
a1 a2
= det
v − det
v + det
v .
b2 b3 1
b1 b3 2
b1 b2 3
32
2. BEWEGUNGEN IN EUKLIDISCHEN RÄUMEN
(4) Für u, u′ , w, w′ ∈ V, c, d ∈ R ist
c(u + u′ ) × w = c(u × w) + c(u′ × w) ,
u × (d(w + w′ )) = d(u × w) + d(u × w′ )
und u × w = −w × u .
(5) Für x, y, z ∈ V ist x × (y × z) = ⟨x, z⟩y − ⟨x, y⟩z .
(6) Für x, y, z ∈ V ist
(x × y) × z + (z × x) × y + (y × z) × x = 0 .
(Beachte: im Allgemeinen ist (x × y) × z ̸= x × (y × z)).
Beweis:
(1) und (2) folgen aus der Definition.
(3) Man rechnet nach, dass
(
)
(
)
(
)
a2 a3
a1 a3
a1 a2
det
v − det
v + det
v
b2 b3 1
b1 b3 2
b1 b2 3
die in der Definition von (∑3i=1 ai vi ) × (∑3i=1 bi vi ) geforderten Eigenschaften hat.
(4) Kann mit (3) nachgerechnet werden.
(5) Wenn {i, j, k} = {1, 2, 3} ist , dann ist vi × (v j × vk ) = 0. Wenn i ̸= k
bzw. i ̸= j, dann ist vi × (vi × vk ) = −vk und vi × (v j × vi ) = v j .
Sei x = ∑3i=1 ai vi , y = ∑3j=1 b j v j und z = ∑3k=1 ck vk . Dann ist
x × (y × z) = ∑i, j,k ai b j ck (vi × (v j × vk )) =
= − ∑i,k ai bi ck vk + ∑i, j ai b j ci v j = ⟨x, z⟩y − ⟨x, y⟩z .
(6) Nach (5) ist x × (y × z) + z × (x × y) + y × (z × x) =
= ⟨x, z⟩y − ⟨x, y⟩z + ⟨z, y⟩x − ⟨z, x⟩y + ⟨y, x⟩z − ⟨y, z⟩x = 0 .
§6. Isometrien
Definition 73 : Eine Funktion f : V → V heißt Isometrie, wenn für alle v,
w∈V
∥ f (v) − f (w)∥ = ∥v − w∥
ist. ( Isometrien erhalten Abstände.“)
”
Eine Funktion f : V → V heißt orthogonal, wenn für alle v, w ∈ V
⟨ f (v), f (w)⟩ = ⟨v, w⟩
ist. ( Orthogonale Funktionen erhalten das Skalarprodukt.“)
”
Satz 74 : Jede Translation in V ist eine Isometrie. Die Identität IdV ist die
einzige orthogonale Translation.
33
2. BEWEGUNGEN IN EUKLIDISCHEN RÄUMEN
Beweis: Sei t eine Translation und u := t(0). Dann ist
∥t(v) − t(w)∥ = ∥(v + u) − (w + u)∥ = ∥v − w∥ .
Wenn t orthogonal ist, dann ist
⟨u, u⟩ = ⟨t(0),t(0)⟩ = ⟨0, 0⟩ = 0,
also u = 0 und t = IdV .
Satz 75 : Für eine Funktion f : V → V sind die folgenden Aussagen äquivalent:
(1) f ist orthogonal.
(2) f ist eine Isometrie und linear.
(3) f ist eine Isometrie und f (0) = 0.
Beweis:
(1) ⇒ (2) : Für alle v, w ∈ V ist
∥ f (v) − f (w)∥2 = ⟨ f (v) − f (w), f (v) − f (w)⟩ =
= ⟨ f (v), f (v)⟩ − 2 ⟨ f (v), f (w)⟩ + ⟨ f (w), f (w)⟩ =
(1)
= ⟨v, v⟩ − 2 ⟨v, w⟩ + ⟨w, w⟩ = ⟨v − w, v − w⟩ = ∥v − w∥2 ,
also ist f eine Isometrie.
Wir zeigen noch, dass f linear ist, das heißt: für alle v, w ∈ V und für
alle c, d ∈ R ist f (cv + dw) − c f (v) − d f (w) = 0.
Dazu genügt es zu zeigen, dass
∥ f (cv + dw) − c f (v) − d f (w)∥2 = 0 ist:
∥ f (cv + dw) − c f (v) − d f (w)∥2 =
⟨ f (cv + dw) − c f (v) − d f (w), f (cv + dw) − c f (v) − d f (w)⟩ =
= ⟨ f (cv + dw), f (cv + dw)⟩ + c2 ⟨ f (v), f (v)⟩ +
+d 2 ⟨ f (w), f (w)⟩ − 2c ⟨ f (cv + dw), f (v)⟩ −
−2d ⟨ f (cv + dw), f (w)⟩ + 2cd ⟨ f (v), f (w)⟩ =
(1)
= ⟨cv + dw, cv + dw⟩ + c2 ⟨v, v⟩ + d 2 ⟨w, w⟩ −
(1)
−2c ⟨cv + dw, v⟩ − 2d ⟨cv + dw, w⟩ + 2cd ⟨v, w⟩ =
= ⟨(cv + dw) − cv − dw, (cv + dw) − cv − dw⟩ = ⟨0, 0⟩ = 0
(2) ⇒ (3) : trivial
34
2. BEWEGUNGEN IN EUKLIDISCHEN RÄUMEN
(3) ⇒ (1) : Für alle u ∈ V ist
⟨ f (u), f (u)⟩ = ∥ f (u)∥2 = ∥ f (u) − 0∥2 =
∥ f (u) − f (0)∥2 = ∥u − 0∥2 = ∥u∥2 = ⟨u, u⟩ .
Daher gilt für alle v, w ∈ V :
⟨ f (v), f (w)⟩ =
1
(⟨ f (v), f (v)⟩ +
2
+ ⟨ f (w), f (w)⟩ − ⟨ f (v) − f (w), f (v) − f (w)⟩) =
)
1(
⟨v, v⟩ + ⟨w, w⟩ − ∥ f (v) − f (w)∥2 =
=
2
(3)
(
)
1
∥v∥2 + ∥w∥2 − ∥v − w∥2 = ⟨v, w⟩ .
=
(3) 2
Satz 76 :
(1) Die Zusammensetzung von Isometrien ist eine Isometrie.
(2) Jede affine Funktion mit orthogonalem linearen Anteil ist eine Isometrie.
(3) Jede Isometrie f : V → V ist eine affine Funktion, ihr Translationsanteil ist die Translation um f (0) und ihr linearer Anteil ist orthogonal.
Kurz: f = t f (0) ◦ g mit g : V → V orthogonal (und damit linear).
(4) Die Menge aller Isometrien von V ist mit der Zusammensetzung von
Funktionen eine Gruppe und heißt Isometriegruppe von V . Inbesondere ist jede Isometrie f = tu ◦ g bijektiv und es ist
f −1 = t−g−1 (u) ◦ g−1 .
Beweis:
(1) Es seien f , h Isometrien von V und v, w ∈ V . Dann ist
∥( f ◦ h)(v) − ( f ◦ h)(w)∥ = ∥ f (h(v)) − f (h(w))∥ =
= ∥h(v) − h(w)∥ = ∥v − w∥ ,
also f ◦ h eine Isometrie.
(2) Nach Satz 74 und Satz 75 sind Translationen und orthogonale Funktionen Isometrien, also auch ihre Zusammensetzung.
(3) Sei g := t− f (0) ◦ f . Dann ist f = t f (0) ◦g. Nach (1) ist g eine Isometrie,
weiters ist g(0) = − f (0) + f (0) = 0. Nun folgt aus Satz 75, dass g
orthogonal und linear ist.
(4) Es sei g : V → V der lineare Anteil einer Isometrie. Nach (3) ist g
orthogonal.
Ist v ∈ V so, dass g(v) = 0 ist, dann ist ⟨v, v⟩ = ⟨g(v), g(v)⟩ = ⟨0, 0⟩ =
0, daher v = 0. Also ist g injektiv. Weil Definitions- und Bildbereich
35
2. BEWEGUNGEN IN EUKLIDISCHEN RÄUMEN
von g dieselbe Dimension haben, ist g auch bijektiv.
Für alle v, w ∈ V ist
⟨ −1
⟩ ⟨
⟩
g (v), g−1 (w) = g(g−1 (v)), g(g−1 (w)) = ⟨v, w⟩ ,
daher ist g−1 orthogonal. Nun prüft man leicht nach, dass die Isometrie t−g−1 (u) ◦ g−1 die Umkehrfunktion von tu ◦ g ist.
Satz 77 :
(1) Die Menge T (V ) aller Translationen von V ist eine Untergruppe der
Isometriegruppe und heißt Translationsgruppe von V .
(2) Die Menge O(V ) aller orthogonalen Funktionen von V ist eine Untergruppe sowohl der Isometriegruppe als auch der Gruppe GLR (V )
und heißt orthogonale Gruppe von V .
(3) Die Translationsgruppe T (V ) ist kommutativ, die orthogonale Gruppe O(V ) ist für n ≥ 2 nicht kommutativ.
Beweis: Übung.
§7. Basiswechsel
In diesem Abschnitt sei V ein Vektorraum über K mit Dimension n ∈ N ,
v := (v1 , . . . , vn ) eine Basis von V , W ein Vektorraum über K mit Dimension
m ∈ N und w := (w1 , . . . , wm ) eine Basis von W . Wenn f : V −→ W eine
Funktion ist, schreiben wir kurz f (v) anstatt ( f (v1 ), . . . , f (vn )).
Satz 78 : Sei f : V −→ W eine K-lineare Funktion mit Matrix
A := M( f , v, w) ∈ K m×n , u ∈ V und c ∈ K n×1 die Koordinatenspalte von u
bezüglich v, also u = vc. Dann ist
f (v) = wA
und
f (u) = wAc .
Beweis: Es ist
f (v) = ( f (v1 ), . . . , f (vn )) = (wA−1 , . . . , wA−n ) = wA
und
f (u) = f (vc) = f (v)c = wAc .
Satz 79 : Sei f : V → W eine K-lineare Funktion mit Matrix
A := M( f , v, w) ∈ K m×n .
36
2. BEWEGUNGEN IN EUKLIDISCHEN RÄUMEN
Sei v′ eine weitere Basis von V , w′ eine weitere Basis von W , T ∈ GLn (K)
die Transformationsmatrix von v zu v′ und S ∈ GLm (K) die Transformationsmatrix von w zu w′ . Dann ist
M( f , v′ , w′ ) = S−1 AT .
Im Spezialfall V = W , v = w und v′ = w′ ist S = T und
M( f , v′ ) = T −1 AT .
Beweis: Nach Satz 78 ist
w′ M( f , v′ , w′ ) = f (v′ ) = f (vT ) = f (v)T = wAT = (w′ S−1 )AT = w′ S−1 AT .
Da w′ eine Basis ist, folgt daraus M( f , v′ , w′ ) = S−1 AT .
Definition 80 : Zwei Matrizen A, B ∈ K n×n heißen ähnlich, wenn es eine
Matrix T ∈ GLn (K) gibt mit
B = T −1 AT .
Satz 81 :
Sei f : V → V eine K-lineare Funktion mit Matrix
A := M( f , v) ∈ K n×n .
Eine Matrix B ∈ K n×n ist genau dann zu A ähnlich, wenn es eine Basis v′
von V gibt mit M( f , v′ ) = B .
Beweis: Nach Satz 79 sind die Matrizen M( f , v, w) und M( f , v′ , w′ ) ähnlich. Wenn B zu A ähnlich ist, gibt es T ∈ GLn (K) mit B = T −1 AT . Dann
ist v′ := vT eine Basis von V . Nach Satz 79 ist M( f , v′ ) = T −1 AT = B.
Ähnliche Matrizen beschreiben (bezüglich verschiedener Basen) dieselbe lineare Funktion. Wird ein physikalisches Phänomen durch eine lineare
Funktion von einem endlichdimensionalen Vektorraum V nach V beschrieben und diese (nach Wahl einer Basis von V ) durch eine Matrix, dann haben
nur jene Eigenschaften dieser Matrix physikalische Bedeutung“, die sich
”
beim Übergang zu einer ähnlichen Matrix nicht ändern. Beispiele für solche
Eigenschaften von Matrizen sind die Determinante und die Spur“.
”
Definition 82 : Sei A ∈ K n×n . Dann heißt
n
spur(A) := ∑ Aii
i=1
die Spur von A.
37
2. BEWEGUNGEN IN EUKLIDISCHEN RÄUMEN
Satz 83 :
(1)
(2)
(3)
(4)
Die Funktion spur : K n×n −→ K ist linear.
Für A, B ∈ K n×n gilt: spur(AB) = spur(BA) .
Für A ∈ K n×n und T ∈ GLn (K) gilt: spur(T −1 AT ) = spur(A).
Sei f : V → V eine lineare Funktion und A die Matrix von f bezüglich
v. Dann ist
spur( f ) := spur(A)
unabhängig von der Wahl der Basis v und heißt Spur von f .
Beweis: (1) und (2) nachrechnen, (3) folgt aus (2), (4) aus (3).
Satz 84 :
(1) Für A, B ∈ K n×n gilt: det(AB) = det(BA) .
(2) Für A ∈ K n×n und T ∈ GLn (K) gilt: det(T −1 AT ) = det(A).
(3) Sei f : V → V eine lineare Funktion und A die Matrix von f bezüglich
v. Dann ist
det( f ) := det(A)
unabhängig von der Wahl der Basis v und heißt Determinante von f .
Beweis:
(1) det(AB) = det(A) det(B) = det(B) det(A) = det(BA),
(2) folgt aus (1),
(3) folgt aus (2).
§8. Orthogonale Funktionen
Es sei f : V → V eine lineare Funktion.
Definition 85 : Eine Matrix A ∈ Rn×n heißt orthogonal genau dann, wenn
A · AT = In ist (wenn also die zu A transponierte Matrix zu A invers ist).
Satz 86 : Es seien v eine ON-Basis von V und A ∈ Rn×n die Matrix von f
bezüglich v. Dann sind die folgenden Aussagen äquivalent:
(1) Die Funktion f ist orthogonal.
(2) Die Familie f (v) := ( f (v1 ) , ..., f (vn )) ist eine ON-Basis von V .
(3) Die Matrix A ist orthogonal.
Insbesondere gilt: Wenn f orthogonal ist, dann ist AT die Matrix von f −1
bezüglich v.
38
2. BEWEGUNGEN IN EUKLIDISCHEN RÄUMEN
Beweis:
(1) ⇒ (2) : Wenn f orthogonal ist, dann ist
⟨
( )⟩ ⟨
⟩
f (vi ) , f v j = vi , v j = δi j , 1 ≤ i, j ≤ n.
Daher ist die Familie f (v) orthonormal, also auch linear unabhängig.
Weil V n-dimensional ist, folgt daraus die Behauptung.
(2) ⇒ (3) : Wenn f (v) = vA eine ON-Basis ist, dann ist A orthogonal.
(3) ⇒ (1) : Wenn A orthogonal ist, dann ist vA eine ON-Basis. Für y, z ∈
Rn×1 ist daher
⟨ f (vy) , f (vz)⟩ = ⟨(vA) y, (vA) z⟩ = ⟨y, z⟩ = ⟨vy, vz⟩ .
Somit ist f orthogonal.
Satz 87 : Wenn f orthogonal ist, dann ist
det( f ) ∈ {1, −1} und SpR ( f ) ⊆ {1, −1} .
Beweis: Sei A ∈ Rn×n die Matrix von f bezüglich einer ON-Basis. Nach
Satz 86 ist det ( f ) = det (A) ∈ {1, −1} .
Sei v ein Eigenvektor von f zum Eigenwert c ∈ R, dann ist
0 ̸= ⟨v, v⟩ = ⟨ f (v) , f (v)⟩ = ⟨cv, cv⟩ = c2 ⟨v, v⟩ , also c2 = 1.
Definition 88 : Ein Untervektorraum W von V ist genau dann unter f stabil, wenn f (W ) ⊆ W ist.
Satz 89 : Es seien f orthogonal und W ein unter f stabiler Untervektorraum von V . Dann ist auch W ⊥ stabil unter f .
Beweis: Sei v ∈ W ⊥ . Wir zeigen, dass auch f (v) ∈ W ⊥ ist.
Für alle w ∈ W ist f (w) ∈ W und, weil f linear und bijektiv ist, auch
f −1 (w) ∈ W. Daher ist
⟨
⟩ ⟨
⟩
⟨ f (v), w⟩ = f −1 ( f (v)) , f −1 (w) = v, f −1 (w) = 0.
Beispiel 90 : Sei A ∈ Rn×n eine Matrix in oberer Blockdreiecksform
(
)
B11 B12
.
0 B22
Die Blockgröße von B11 sei k.
Betrachten wir A als lineare Funktion
A : Rn×1 → Rn×1
,
x 7−→ Ax ,
39
2. BEWEGUNGEN IN EUKLIDISCHEN RÄUMEN
dann ist der von e1 , ..., ek erzeugte Untervektorraum stabil unter A.
Wenn A orthogonal ist, ist auch
⊥
R ⟨e1 , ..., ek ⟩
=R ⟨ek+1 , ..., en ⟩
stabil unter A, also B12 = 0. Daher hat jede orthogonale Matrix in Blockdreiecksform sogar Blockdiagonalgestalt.
§9. Spiegelungen
Definition 91 : Es sei h : V → V eine Funktion. Die Menge
Fix(h) := {v ∈ V | h (v) = v}
heißt Menge der Fixpunkte (oder kurz: Fixmenge) von h.
Beispiel 92 : Fix (−IdV ) = {0} , Fix (IdV ) = V.
Die Fixmenge einer linearen Funktion ist ihr Eigenraum zum Eigenwert 1.
Die Fixmenge einer Translation tu mit u ̸= 0 ist leer.
Hilfssatz 93 : Es seien g : V → V eine lineare Funktion und u ∈ V . Die
Fixmenge der affinen Funktion tu ◦ g ist entweder leer oder ein affiner Unterraum von V , dessen paralleler Untervektorraum ist Fix (g) .
Beweis: Die Fixmenge von tu ◦ g ist das Urbild von 0 bezüglich der affinen Funktion tu ◦ g − IdV = tu ◦ (g − IdV ) , also leer oder ein affiner Unterraum. Der zu diesem parallele Untervektorraum ist dann Kern (g − IdV ),
also Fix (g) .
Definition 94 : Eine Isometrie von V heißt Spiegelung in V, wenn ihre Fixmenge eine Hyperebene in V ist, das heißt: die Dimension ihrer Fixmenge
ist n − 1.
Ist M die Fixmenge einer Spiegelung, dann heißt diese Spiegelung um M.
Beispiel 95 : Die Funktion
R
n×1
→R
n×1

,


x 7−→ 


1
1
..
ist eine Spiegelung in
.
1
0
Rn .
0
−1



x ,


40
2. BEWEGUNGEN IN EUKLIDISCHEN RÄUMEN
Satz 96 : Es sei s eine Spiegelung.
(1) Der lineare Anteil von s ist auch eine Spiegelung, seine Fixmenge ist
der parallele Untervektorraum von Fix (s) .
(2) Wenn s linear ist, dann ist s orthogonal und es gibt eine ON-Basis
von V , bezüglich der s die Matrix


1
0


1


..


.




1
0
−1
hat. Insbesondere ist det (s) = −1 und SpR (s) = {1, −1} .
(3) Zwei Spiegelungen sind genau dann gleich, wenn ihre Fixmengen
gleich sind.
(4) Es ist s2 = IdV .
Beweis:
(1) Nach Satz 76 ist der lineare Anteil von s eine Isometrie, nach Hilfssatz 93 ist seine Fixmenge der parallele Untervektorraum von
Fix (s), insbesondere eine Hyperebene in V.
(2) Wähle eine ON-Basis (v1 , ..., vn−1 ) von Fix (s) und ergänze sie zu
einer ON-Basis (v1 , ..., vn−1 , vn ) von V. Nach Satz 75 ist s orthogonal,
daraus folgt mit Satz 86 , dass auch
(s (v1 ) , ..., s (vn )) = (v1 , ..., vn−1 , s (vn ))
eine ON-Basis von V ist. Daher muss s (vn ) = vn oder s (vn ) = −vn
sein. Wegen Fix (s) ̸= V muss s (vn ) = −vn sein.
(3) Es seien tv ◦ f , tw ◦ g zwei Isometrien (mit linearen Anteilen f , g),
deren Fixmengen gleich sind. Aus (1) folgt, dass Fix ( f ) = Fix (g)
ist. Nun folgt aus (2), dass f = g.
Sei u ein Element von Fix (tv ◦ f ) = Fix (tw ◦ g) . Dann ist
u = (tv ◦ f ) (u) = v + f (u) und u = (tw ◦ g) (u) = w + f (u),
also v = u − f (u) = w.
(4) Es seien f linear und s = tu ◦ f . Nach (2) ist f ◦ f = IdV .
Daher ist s ◦ s = tu ◦ f ◦tu ◦ f = tu+ f (u) , somit ist s ◦ s eine Translation.
Wegen 0/ ̸= Fix (s) ⊆ Fix (s ◦ s) muss s ◦ s = IdV sein.
Satz 97 : Zu jeder Hyperebene T von V gibt es genau eine Spiegelung s mit
Fix(s) = T , und zwar
s:V →V
,
v 7−→ 2 · pT (v) − v .
Dabei ist pT die orthogonale Projektion von V auf T .
41
2. BEWEGUNGEN IN EUKLIDISCHEN RÄUMEN
Beweis: Es ist zu zeigen, dass s eine Isometrie ist. Die Eindeutigkeit folgt
aus Aussage (3) in Satz 96.
Es seien x ∈ T , U der parallele Untervektorraum von T und y := x − pU (x) .
Dann ist pT = ty ◦ pU und s = 2ty ◦ pU − IdV = t2y ◦ (2pU − IdV ) . Daher
genügt es zu zeigen, dass 2pU − IdV orthogonal ist.
Für alle v ∈ V ist
(2pU − IdV ) (v) = pU (v) − (v − pU (v)) ,
v = pU (v) + (v − pU (v))
und pU (v) ∈ U, (v − pU (v)) ∈ U ⊥ .
Für alle v, w ∈ V ist daher
⟨(2pU − IdV ) (v) , (2pU − IdV ) (w)⟩ =
⟨pU (v) − (v − pU (v)) , pU (w) − (w − pU (w))⟩ =
⟨pU (v) , pU (w)⟩ + ⟨v − pU (v) , w − pU (w)⟩ =
⟨pU (v) + (v − pU (v)) , pU (w) + (w − pU (w))⟩ = ⟨v, w⟩ .
Satz 98 : Jede orthogonale Funktion von V nach V ist Produkt von
höchstens n Spiegelungen.
Beweis: Induktion nach n.
Wenn n = 1 ist, dann gibt es nur zwei orthogonale Funktionen, nämlich
IdV und die Spiegelung − IdV . Die erste ist das Produkt von 0 Spiegelungen,
die zweite von einer Spiegelung.
Sei nun n > 1 und f ̸= IdV eine orthogonale Funktion. Dann gibt es
einen Vektor v in V mit f (v) ̸= v.
Es seien W := R ( f (v) − v)⊥ und U := ( R v)⊥ , sowie sW die Spiegelung mit Fix (sW ) = W .
Wegen f (v) = 12 ( f (v) − v) + 12 ( f (v) + v) ∈ W ⊥ ⊕W ist
pW ( f (v)) = 21 ( f (v) + v) und sW ( f (v)) = 2pW ( f (v)) − f (v) = v.
Daher sind Rv und U stabil unter der orthogonalen Funktion
sW ◦ f .
Nach Induktionsannahme gibt es höchstens n − 1 Spiegelungen s1 , ..., sk
in U so, dass (sW ◦ f ) |U = s1 ◦ ... ◦ sk .
Wir setzen für 1 ≤ i ≤ k die Spiegelungen si durch si (v) := v zu Spiegelungen in V fort und bezeichnen diese wieder mit si . Dann ist sW ◦ f =
s1 ◦ ... ◦ sk und f = sW ◦ s1 ◦ ... ◦ sk .
Definition 99 : Es seien s eine Spiegelung in V und 0 ̸= u ein Element des
parallelen Untervektorraums W von Fix(s) .
Dann heißt tu ◦ s Gleitspiegelung (um die Hyperebene Fix(s)).
42
2. BEWEGUNGEN IN EUKLIDISCHEN RÄUMEN
Satz 100 : Es sei f eine Isometrie, deren linearer Anteil g eine Spiegelung
ist. Dann gibt es eindeutig bestimmte Vektoren u ∈ Fix(g) und
v ∈ Fix(g)⊥ so, dass u + v = f (0) ist. Es gilt:
(1) Wenn u = 0 ist, dann ist f eine Spiegelung um 12 v + Fix(g).
(2) Wenn u ̸= 0 ist, dann ist f = tu ◦ (tv ◦ g) eine Gleitspiegelung um die
Hyperebene 12 v + Fix(g) und Fix( f ) ist leer.
Beweis:
(1) Es sei x ∈ Fix(g). Wegen g(v) = −v ist
(
)
1
1
1
(tv ◦ g)
v + x = v + g(v) + x = v + x.
2
2
2
Daher ist die Hyperebene 12 v + Fix(g) in Fix (tv ◦ g) enthalten.
Wenn v = 0 ist, dann ist tv ◦ g = g ̸= IdV .
Wenn v ̸= 0 ist, dann ist (tv ◦ g) (v) = v − v = 0 und daher tv ◦ g ̸= IdV .
Daher ist Fix(tv ◦ g) ̸= V und Fix(tv ◦ g) = 12 v + Fix(g).
(2) Sei u ̸= 0. Nach (1) ist nur noch zu zeigen, dass Fix( f ) leer ist. Sei
s := tv ◦ g. Wäre x ∈ Fix( f ), dann wäre f ( f (x)) = f (x) = x. Daher
ist x = (tu ◦ s)((tu ◦ s)(x)) = u + s(u + s(x)) =
= u + v + g(u + v + g(x)) = u + v + u − v + x = 2u + x, also u = 0,
Widerspruch zu u ̸= 0.
§10. Isometrien der Ebene
In diesem Abschnitt sei V ein zweidimensionaler orientierter euklidischer Raum.
Wir werden die folgenden Eigenschaften der Funktionen Sinus und Cosinus verwenden:
Hilfssatz 101 :
(1) Für alle α ∈ R ist
sin(α + 2π ) = sin(α ),
sin(−α ) = − sin(α ),
cos(α + 2π ) = cos(α ),
cos(−α ) = cos(α ) .
Sinus und Cosinus sind 2π -periodische Funktionen, Sinus ist eine
”
ungerade und Cosinus eine gerade Funktion“.
(2) Für alle α , β ∈ R ist
sin(α + β ) = sin(α ) cos(β ) + cos(α ) sin(β ),
cos(α + β ) = cos(α ) cos(β ) − sin(α ) sin(β ) .
43
2. BEWEGUNGEN IN EUKLIDISCHEN RÄUMEN
(3)
sin(0) = 0 ,
cos(0) = 1 ,
π
cos( ) = 0 ,
2
π
sin( ) = 1 ,
2
sin(π ) = 0 ,
cos(π ) = −1 .
Beweis: Siehe Analysis 1.
Satz 102 : Es seien u = (u1 , u2 ) eine positiv orientierte ON-Basis von V
und
(−)⊥ : V −→ V , v 7−→ v⊥ ,
⊥
die durch u⊥
1 := u2 und u2 := −u1 definierte lineare Funktion.
(1) Die Funktion (−)⊥ ist orthogonal.
(2) Für alle Vektoren v ∈ V mit ∥v∥ = 1 ist v⊥ der einzige Vektor mit der
Eigenschaft, dass (v, v⊥ ) eine positiv orientierte ON-Basis von V ist.
(3) Für alle Vektoren v, w ∈ V mit ∥v∥ = 1 = ∥w∥ gibt es genau eine Zahl
α ∈ [0, 2π [ so, dass
w = cos(α )v + sin(α )v⊥
ist. Wenn α ∈ [0, π ] bzw. α ∈ [π , 2π [, dann ist α bzw. 2π − α der
Winkel zwischen v und w.
Beweis:
⊥
(1) (
Die Matrix
) von (−) bezüglich u ist die orthogonale Matrix
0 −1
.
1 0
(2) Sei v = au1 + bu2 . Dann ist v⊥ = −bu1 + au2 , also
(
)
a −b
⊥
(v, v ) = u
.
b a
(
)
a −b
2
2
Wegen ∥v∥ = 1 ist a + b = 1 . Somit ist
eine orthogonale
b a
Matrix mit Determinante 1 und (v, v⊥ ) ist eine positiv orientierte ONBasis.
Sei w = cu1 + du2 so, dass (v, w) eine positiv orientierte ON-Basis
von V ist. Aus ⟨v, w⟩ = 0 folgt (c, d) ∈ R (−b, a), wegen ∥w∥ = 1
ist dann (c, d) = (−b, a) oder (c, d) = (b, −a). Weil (v, w) positiv
orientiert ist, muss (c, d) = (−b, a) sein.
(3) Sei β der Winkel zwischen v und w. Dann ist
w = ⟨v, w⟩v + ⟨v⊥ , w⟩v⊥ = cos(β )v + ⟨v⊥ , w⟩v⊥
und
cos2 (β ) + ⟨v⊥ , w⟩2 = ∥w∥2 = 1 .
44
2. BEWEGUNGEN IN EUKLIDISCHEN RÄUMEN
Wenn ⟨v⊥ , w⟩ ≥ 0 ist, dann ist ⟨v⊥ , w⟩ = sin(β ) und α := β .
Wenn ⟨v⊥ , w⟩ ≤ 0 ist, dann ist ⟨v⊥ , w⟩ = − sin(β ) und
α := 2π − β .
Definition 103 : Es seien u, v, w ∈ V , v ̸= 0 und w ̸= 0. Die eindeutig bestimmte Zahl α ∈ [0, 2π [ mit
∥w∥−1 w = cos(α )∥v∥−1 v + sin(α )∥v∥−1 v⊥
heißt orientierter Winkel von der Halbgeraden u + R ≥0 v nach
u + R ≥0 w oder kurz orientierter Winkel von v nach w.
Satz 104 : Es seien v, w ∈ V , v ̸= 0, w ̸= 0 und α der orientierte Winkel von
v nach w. Dann ist 2π − α der orientierte Winkel von w nach v.
Beweis: Wir können annehmen, dass ∥v∥ = 1 = ∥w∥ ist. Dann ist
w = cos(α )v + sin(α )v⊥
und
⊥
w⊥ = cos(α )v⊥ + sin(α )v⊥ = cos(α )v⊥ − sin(α )v .
Daher ist
v = cos(α )w − sin(α )w⊥ = cos(2π − α )w + sin(2π − α )w⊥ .
Definition 105 : Es seien α ∈ [0, 2π [, z ∈ V und (−)⊥ die in Satz 102 definierte Funktion. Dann heißt die Funktion
dα : V −→ V
,
v 7−→ cos(α )v + sin(α )v⊥ ,
Drehung in V um 0 mit Drehwinkel α .
Für alle v ∈ V \ {0} ist dann α der orientierte Winkel von v nach dα (v).
Die Funktion
dz,α : V −→ V
, x 7−→ z + dα (x − z) ,
heißt Drehung (in V ) um den Drehpunkt z mit Drehwinkel α .
Es ist d0,α = dα .
Satz 106 :
(1) Für alle α ∈ [0, 2π [ ist die Funktion dα linear. Ihre Matrix bezüglich
jeder positiv orientierten ON-Basis von V ist
(
)
cos(α ) − sin(α )
.
sin(α ) cos(α )
45
2. BEWEGUNGEN IN EUKLIDISCHEN RÄUMEN
Diese Matrix heißt Drehmatrix zum Winkel α .
Insbesondere ist dα orthogonal und det(dα ) = 1.
(2) Jede orthogonale Funktion von V nach V mit Determinante 1 ist eine
Drehung um 0.
(3) Für alle α ∈ [0, 2π [ und z ∈ V ist
dz,α = tz−dα (z) ◦ dα .
Jede Drehung ist eine Isometrie.
Beweis: Es sei u = (u1 , u2 ) eine positiv orientierte ON- Basis von V .
(1) Wegen dα = cos(α )IdV + sin(α )(−)⊥ ist dα linear.
⊥
Nach Satz 102, (2), ist u⊥
1 = u2 und u2 = −u1 , also ist
dα (u1 ) = cos(α )u1 + sin(α )u2
und
dα (u2 ) = cos(α )u2 − sin(α )u1 .
)
cos(α ) − sin(α )
sin(α ) cos(α )
die Matrix von dα bezüglich u.
Diese Matrix ist orthogonal und ihre Determinante ist 1.
(2) Es seien f : V −→ V eine orthogonale Funktion mit det( f ) = 1 und α
der orientierte Winkel von u1 nach f (u1 ). Dann ist f (u1 ) = dα (u1 ).
Weil ( f (u1 ), f (u2 )) eine positiv orientierte ON-Basis von V ist, muss
f (u2 ) = f (u1 )⊥ sein (Satz 102, (2)). Also ist auch f (u2 ) = dα (u2 ),
somit f = dα .
(3) Nach (1) ist dα linear und orthogonal, daher ist für alle x ∈ V
Daher ist
(
dz,α (x) = z + dα (x) − dα (z) = tz−dα (z) (dα (x))
und dz,α = tz−dα (z) ◦ dα eine Isometrie.
Definition 107 : Es seien W ein endlich-dimensionaler reeller Vektorraum
und f : W −→ W eine affine Funktion. Dann heißt f orientierungserhaltend
bzw. orientierungsumkehrend, wenn die Determinante des linearen Anteils
von f eine positive bzw. negative Zahl ist.
Beispiel 108 : Drehungen in V sind orientierungserhaltend, Spiegelungen
in V sind orientierungsumkehrend.
Satz 109 : Es sei f eine Isometrie von V .
Wenn Fix( f ) eine Gerade ist, dann ist f eine Spiegelung.
Wenn Fix( f ) ein Punkt ist, dann ist f eine Drehung um diesen.
46
2. BEWEGUNGEN IN EUKLIDISCHEN RÄUMEN
Wenn Fix( f ) leer und f orientierungserhaltend ist, dann ist f eine Translation.
Wenn Fix( f ) leer und f orientierungsumkehrend ist, dann ist f eine Gleitspiegelung.
Beweis: Sei u := f (0) und g der lineare Anteil von f . Nach Hilfssatz 93 ist
Fix( f ) entweder leer oder ein affiner Unterraum mit parallelem Vektorraum
Fix(g).
Nach Satz 106, (2), und nach Satz 98 ist g eine Drehung, wenn g orientierungserhaltend ist, und eine Spiegelung, wenn g orientierungsumkehrend
ist.
Wenn Fix( f ) eine Gerade ist, dann ist f wegen dim R (V ) = 2 eine Spiegelung.
Wenn Fix( f ) = {z} ein Punkt ist, ist auch Fix(g) ein Punkt. Dann ist g
eine Drehung um 0 und nicht IdV . Weiters ist z = f (z) = u + g(z). Daher ist
für alle x ∈ V
f (x) = u + g(x) = z − g(z) + g (x) = z + g(x − z),
somit ist f eine Drehung um z mit demselben Drehwinkel wie g.
Wenn Fix( f ) leer ist, liegt u nicht im Bild von IdV −g. Daher ist
k := dimR (Kern(IdV − g)) = 2 − dimR (Bild(IdV − g)) ≥ 1.
Wenn k = 2 ist, dann ist g = IdV und f eine Translation.
Wenn k = 1 ist, dann ist g eine Spiegelung und f eine Gleitspiegelung.
Satz 110 : Für α , β ∈ [0, 2π [ mit α + β ≥ 2π sei dα +β := dα +β −2π .
Dann gilt für alle α , β ∈ [0, 2π [ :
dα ◦ dβ = dα +β .
Insbesondere ist dα−1 = d2π −α und dα ◦ dβ = dβ ◦ dα .
Beweis: Die Matrizen von dα , dβ bezüglich einer positiv orientierten ONBasis von V sind
(
)
(
)
cos(α ) − sin(α )
cos(β ) − sin(β )
und
.
sin(α ) cos(α )
sin(β ) cos(β )
Daher ist
(
) (
)
cos(β ) − sin(β )
cos(α ) − sin(α )
·
=
sin(α ) cos(α )
sin(β ) cos(β )
(
)
cos(α + β ) − sin(α + β )
=
sin(α + β ) cos(α + β )
die Matrix von dα ◦ dβ .
47
2. BEWEGUNGEN IN EUKLIDISCHEN RÄUMEN
Beispiel 111 : Es seien v, w ∈ V \{0}, α der orientierte Winkel von v nach
w und sv , sw die Spiegelungen mit Fix(sv ) = Rv, Fix(sw ) = Rw. O.E.d.A.
nehmen wir ∥v∥ = ∥w∥ = 1 an. Wir berechnen sv ◦ sw . Da sv ◦ sw linear ist
und det(sv ◦ sw ) = det(sv ) det(sw ) = (−1)2 = 1, ist sv ◦ sw eine Drehung dβ
um 0.
Sei v⊥ ∈ V so, dass (v, v⊥ ) eine positiv orientierte ON-Basis ist. Dann ist
dβ (dα (v)) = dβ (w) = (sv ◦ sw )(w) = sv (w) =
(
)
= 2 ⟨v, w⟩ v − w = 2 cos(α )v − cos(α )v + sin(α )v⊥ =
= cos(2π − α )v + sin(2π − α )v⊥ = d2π −α (v) = dα−1 (v).
−1 = d .
Daher ist dβ ◦ dα = dα−1 , sv ◦ sw = dβ = d2−1
2α
α und sw ◦ sv = (sv ◦ sw )
Beispiel 112 : Wir betrachten C als 2-dimensionalen, durch die Basis (1, i)
orientierten euklidischen Raum.
Für y, z ∈ C\{0} seien α , β die orientierten Winkel von 1 nach y, z. Wir
schreiben eiα für dα (1) = cos(α ) + i sin(α ).
Dann ist y = |y| eiα , z = |z| eiβ ( Polardarstellung von komplexen Zahlen“)
”
und y · z = |y| · |z| · ei(α +β ) .
( Bei der Multiplikation komplexer Zahlen werden die Beträge multipliziert
”
und die Winkel addiert.“)
Beispiel 113 : Die Punkte u, v, w ∈ V seien die Eckpunkte eines Dreiecks.
Die orientierten Winkel von v−u bzw. w−v bzw. u−w nach w−u bzw. u−
v bzw. v − w seien α bzw. β bzw. γ . Wir können annehmen, dass α , β , γ ∈
[0, π [ ist .
Dann ist
dα +β +γ (∥u − w∥−1 (u − w)) = (dα ◦ dβ ◦ dγ )(∥u − w∥−1 (u − w)) =
= dα (dβ (∥v − w∥−1 (v − w)) = −dα (dβ (∥w − v∥−1 (w − v)) =
= −dα (∥u − v∥−1 (u − v)) = dα (∥v − u∥−1 (v − u)) =
= −∥u − w∥−1 (u − w) = dπ (∥u − w∥−1 (u − w))
und α + β + γ = π .
( Die Winkelsumme im Dreieck ist π .“)
”
Beispiel 114 : Wir betrachten in der Ebene, die wir nach Wahl eines Nullpunktes und einer Basis mit R 2 identifizieren, zwei drehbare Scheiben. Die
erste ist um den Punkt (0, 0) drehbar, die zweite ist auf der ersten im Punkt
(a, b) montiert. Die zweite Scheibe wird um den Winkel β , die erste um den
Winkel α gedreht.
Dann wird der Punkt (x, y) auf der zweiten Scheibe in den Punkt
dα (d(a,b),β (x, y)) = dα (a, b) + dα +β (x − a, y − b) =
48
2. BEWEGUNGEN IN EUKLIDISCHEN RÄUMEN
= (a cos(α ) − b sin(α ), a sin(α ) + b cos(α )) + ((x − a) cos(α + β )−
−(y − b) sin(α + β ), (x − a) sin(α + β ) + (y − b) cos(α + β ))
bewegt.
§11. Zeigerrechnung
Ein Zeiger (zum Beispiel der Sekundenzeiger einer Uhr) der Länge a
dreht sich in einer Ebene mit der Kreisfrequenz ω um einen Punkt O. Wir
identifizieren diese Ebene mit C = R2 und O mit 0C = (0, 0). Zur Zeit 0
sei die Spitze des Zeigers im Punkt aeiφ = (a cos(φ ), a sin(φ )). Zur Zeit t
befindet sie sich dann im Punkt
aei(ω t+φ ) = (a cos(ω t + φ ), a sin(ω t + φ )) .
Die Funktion, die der Zeit t den Abstand der Zeigerspitze von der reellen
Geraden R(1, 0) zuordnet, ist daher
R −→
R
.
t 7−→ a sin(ω t + φ )
Diese Funktion beschreibt eine harmonische Schwingung mit Kreisfrequenz
ω , Amplitude a und Anfangsphase φ .
(t, a sin(wt + ϕ))
aeiϕ
ϕ
t
ϕ
Drehen sich zwei Zeiger mit derselben Kreisfrequenz ω um denselben
Punkt, aber mit eventuell verschiedenen Längen a1 , a2 und Anfangsphasen
φ1 , φ2 , dann heißt φ1 − φ2 die Phasendifferenz der entsprechenden harmonischen Schwingung. Der Abstand der Summe
aei(ω t+φ ) := a1 ei(ω t+φ1 ) + a2 ei(ω t+φ2 )
der Zeigerspitzen von der reellen Geraden R(1, 0) ist die Summe der Abstände der zwei Zeigerspitzen von dieser Geraden, also
a sin(ω t + φ ) = a1 sin(ω t + φ1 ) + a2 sin(ω t + φ2 ) .
Die Summe von zwei harmonischen Schwingungen mit derselben Kreisfrequenz ist daher wieder eine harmonische Schwingung, ihre Amplitude
49
2. BEWEGUNGEN IN EUKLIDISCHEN RÄUMEN
bzw. Anfangsphase ist a bzw. φ . Um diese zu berechnen, muss die Polardarstellung aei(ω t+φ ) der Summe der zwei komplexen Zahlen, die den zwei
Zeigerspitzen entsprechen, berechnet werden.
Diese Überlegungen führen zur Zeigerrechnung, mit der die folgende
Aufgabe gelöst wird:
Es seien n eine positive ganze Zahl und ω , φ1 , . . . , φn , a1 , . . . , an reelle Zahlen. Gesucht sind reelle Zahlen a und φ so, dass für alle Zahlen t ∈ R
n
∑ aℓ sin(ω t + φℓ) = a sin(ω t + φ )
ℓ=1
ist.
Sei t ∈ R. Wir betrachten die komplexen Zahlen
zℓ (t) := aℓ ei(ω t+φℓ ) := aℓ (cos(ω t + φℓ ) + i sin(ω t + φℓ )), 1 ≤ ℓ ≤ n.
Dann ist aℓ sin(ω t + φℓ ) der Imaginärteil von zℓ (t) und ∑nℓ=1 aℓ sin(ω t + φℓ )
der Imaginärteil von
n
z(t) :=
∑ zℓ(t).
ℓ=1
Es ist
n
z(t) =
∑ zℓ(t) =
ℓ=1
n
∑ aℓei(ω t+φℓ) = eiω t
ℓ=1
n
∑ aℓeiφℓ = eiω t z(0) .
ℓ=1
Wir erhalten daher die gesuchten Zahlen a und φ aus der Polardarstellung z(0) = a(cos(φ ) + i sin(φ )) = aeiφ von z(0), dabei ist a der Abstand zwischen z(0) und 0 und φ der orientierte Winkel von R≥0 · 1 nach
R≥0 · z(0).
Beispiel 115 : Berechne reelle Zahlen a und φ so, dass für alle Zahlen t ∈ R
3 · sin(ω t) + 4 · cos(ω t) = a · sin(ω t + φ )
ist.
Wegen cos(ω t) = sin(ω t + π2 ) ist a1 = 3, a2 = 4, φ1 = 0, φ2 = π2 . Weiters
sind
z1 (t) = 3(cos(ω t) + i sin(ω t)), z2 (t) = 4(cos(ω t + π2 ) + i sin(ω t + π2 )) und
z(t) = z1 (t) + z2 (t), also z(0) = 3 + 4i.
√
Der Abstand zwischen z(0) und 0 ist a = 32 + 42 = 5, der Tangens des
orientierten Winkels von R≥0 · 1 nach R≥0 · (3 + 4i) ist 34 . Daher ist für alle
t ∈R
4
3 · sin(ω t) + 4 · cos(ω t) = 5 · sin(ω t + arctan( )) .
3
50
2. BEWEGUNGEN IN EUKLIDISCHEN RÄUMEN
2.5
4i
2
3 + 4i
1.5
1
0.5
ϕ
0
3
−0.5
−1
−1.5
−2
−2.5
−2.5
−2
−1.5
−1
−0.5
0
0.5
1
1.5
2
2.5
Beispiel 116 : Berechne reelle Zahlen a und φ so, dass für alle Zahlen t ∈ R
π
2π
3 · sin(ω t − ) + 4 · sin(ω t + ) = a · sin(ω t + φ )
4
3
ist.
Es ist z1 (0) = 3(cos(− π4 ) + i sin(− π4 )), z2 (0) = 4(cos( 23π ) + i sin( 23π )) und
z(0) = z1 (0) + z2 (0), also
2π
2π
π
π
z(0) = 3 cos(− ) + 4 cos( ) + i(3 sin(− ) + 4 sin( )) .
4
3
4
3
√
√
√
Somit ist z(0) = 3 2 2 − 2 − i( 3 2 2 + 2 3) und a ≈ 1.34825, φ ≈ 1.48069.
2.5
3ei
2
2π
3
1.5
aeiϕ
1
0.5
ϕ
0
−0.5
π
3e−i 4
−1
−1.5
−2
−2.5
−2.5
−2
−1.5
−1
−0.5
0
0.5
1
1.5
2
2.5
§12. Isometrien des Raumes
In diesem Abschnitt sei V ein dreidimensionaler orientierter euklidischer Raum.
51
2. BEWEGUNGEN IN EUKLIDISCHEN RÄUMEN
Definition 117 : Eine orientierungserhaltende Isometrie von V heißt (eigentliche) Bewegung in V.
Definition 118 : Es seien E ein zweidimensionaler orientierter Untervektorraum von V , z ∈ E und d eine Drehung um z in E. Für alle v ∈ V schreiben wir v1 bzw. v2 für die orthogonale Projektion von v auf E bzw. E ⊥ . Die
Funktion
f :V →V
,
v = v1 + v2 7−→ d (v1 ) + v2 ,
heißt Drehung (in V ) um die Drehachse z + E ⊥ und mit Drehebene E.
Sei 0 ̸= u ∈ E ⊥ und f ̸= IdV . Dann heißt die Funktion tu ◦ f Schraubung
um die Drehachse z + E ⊥ .
Sei s eine Spiegelung in V , deren Fixmenge zu E parallel ist. Dann heißt
die Funktion s ◦ f Drehspiegelung um die Drehachse z + E ⊥ und mit Spiegelungsebene Fix (s) .
Der Drehwinkel von d wird auch Drehwinkel von f bzw. tu ◦ f bzw. s ◦ f
genannt.
Satz 119 :
(1) Drehungen, Schraubungen und Drehspiegelungen sind Isometrien.
(2) Die Fixmenge einer Drehung ̸= IdV ist ihre Drehachse. Die Fixmenge einer Schraubung ist leer.
(3) Sei g eine Drehung mit g (0) = 0. Ist v = (v1 , v2 , v3 ) eine ON-Basis
von V so, dass (v1 , v2 ) eine ON-Basis der Drehebene E von g ist,
dann ist


cos (α ) − sin (α ) 0
 sin (α ) cos (α ) 0 
0
0
1
die Matrix von g bezüglich v. Dabei ist α der Drehwinkel von g |E
bezüglich der durch (v1 , v2 ) gegebenen Orientierung von E. Insbesondere ist cos (α ) = 12 (spur (g) − 1) .
(4) Drehungen und Schraubungen sind orientierungserhaltend, Drehspiegelungen sind orientierungsumkehrend.
Beweis:
52
2. BEWEGUNGEN IN EUKLIDISCHEN RÄUMEN
(1) Es seien f eine Drehung mit Drehebene E und d := f |E . Für v, w ∈ V
ist d (v1 ) − d (w1 ) ∈ E und v2 − w2 ∈ E ⊥ . Daher ist
∥ f (v) − f (w)∥2 = ∥d (v1 ) − d (w1 ) + v2 − w2 ∥2
= ∥d (v1 ) − d (w1 )∥2 + ∥v2 − w2 ∥2
= ∥v1 − w1 ∥2 + ∥v2 − w2 ∥2
= ∥v − w∥2 .
Somit ist f eine Isometrie.
(2) nachprüfen.
(3) Wegen (1) und g (0) = 0 folgt aus Satz 75 , dass g linear ist. Die
Behauptung folgt daher aus Satz 106 .
(4) Folgt aus (3).
Satz 120 :
(1) Jede Bewegung in V ist eine Drehung, eine Schraubung oder eine
Translation.
(2) Jede orientierungsumkehrende Isometrie in V ist eine Spiegelung,
Gleitspiegelung oder Drehspiegelung.
Beweis: Es sei g : V → V eine orthogonale Funktion. Nach Satz ?? gibt
es einen 1-dimensionalen, unter g stabilen Untervektorraum W von V. Aus
Satz 87 folgt, dass g |W = IdW oder g |W = − IdW .
Nach Satz 89 ist auch W ⊥ stabil unter g. Nach Satz 109 ist die Einschränkung von g auf W ⊥ eine Drehung oder eine Spiegelung. Es ist
det (g) = det (g |W ) · det (g |W ⊥ ) .
(1) Sei det (g) = 1. Dann ist entweder
g |W = IdV und g |W ⊥ eine Drehung oder
g |W = − IdV und g |W ⊥ eine Spiegelung.
Im ersten Fall ist g eine Drehung um die Drehachse W , im zweiten
die Drehung um die Drehachse Fix (g |W ⊥ ) mit
Drehwinkel π .
Sei u ∈ Fix (g) und v ∈ Fix (g)⊥ . Die Bewegung tu+v ◦ g ist
eine Translation, wenn g = IdV,
eine Drehung, wenn u = 0,
und eine Schraubung, wenn u ̸= 0 und g ̸= IdV .
(2) Sei det (g) = −1. Dann ist entweder
g |W = IdV und g |W ⊥ eine Spiegelung oder
g |W = − IdV und g |W ⊥ eine Drehung.
Im ersten Fall ist g die Spiegelung um W ⊕ Fix (g |W ⊥ ), im zweiten
Fall ist g eine Drehspiegelung mit Drehachse W . Das Zusammensetzen von g mit einer Translation ergibt nach Satz 100 eine Spiegelung,
Gleitspiegelung oder Drehspiegelung.
53
2. BEWEGUNGEN IN EUKLIDISCHEN RÄUMEN
Beispiel 121 : Die Funktion
f : R3 → R3
,
(a, b, c) 7−→ (c, a, b) ,
ist eine Isometrie, wegen f (0) = 0 sogar orthogonal.
Es ist det ( f ) = 1, spur ( f ) = 0 und der Eigenraum von f zum Eigenwert 1
ist R (1, 1, 1) .
Daher ist f eine Drehung um die Drehachse R (1, 1, 1) mit Drehwinkel α ,
wobei cos (α ) = − 21 .
Beispiel 122 : Die Funktion
f : R3 → R3
,
(a, b, c) 7−→ (−b, a, −c) ,
ist eine Isometrie, wegen f (0) = 0 sogar orthogonal.
Es ist det ( f ) = −1, spur ( f ) = −1 und der Eigenraum von f zum Eigenwert
−1 ist R (0, 0, 1) .
Daher ist f eine Drehspiegelung um die Drehachse R (0, 0, 1)
mit Drehwinkel α , wobei cos (α ) = 0.
Satz 123 : Es seien v = (v1 , v2 , v3 ) eine ON-Basis von V und f eine Bewegung in V mit f (0) = 0. Dann gibt es Drehungen gα , gγ mit Drehachse Rv1
und Drehwinkeln α , γ ∈ [0, 2π [ und eine Drehung hβ mit Drehachse Rv3
und Drehwinkel β ∈ [0, π ] so, dass
f = gα ◦ hβ ◦ gγ
ist. Die Zahlen α , β , γ heißen Euler-Winkel von f .
Für Matrizen bedeutet dieser Satz: Jede orthogonale Matrix A ∈ R3×3 mit
det (A) = 1 kann als Produkt


 
1
0
0
cos (β ) − sin (β ) 0
A =  0 cos (α ) − sin (α )  ·  sin (β ) cos (β ) 0  ·
0 sin (α ) cos (α )
0
0
1


1
0
0

· 0 cos (γ ) − sin (γ ) 
0 sin (γ ) cos (γ )
geschrieben werden, wobei α , γ ∈ [0, 2π [ und β ∈ [0, π ] sind.
Beweis: Sei w := f −1 (v1 ) ∈ V. Sei gγ eine Drehung um die Drehachse Rv1
so, dass gγ (w) ∈ (Rv3 )⊥ . Dann gibt es eine Drehung hβ mit Drehachse Rv3
)
(
und Drehwinkel β ∈ [0, π ] so, dass hβ gγ (w) = v1 . Die Funktion hβ ◦ gγ ◦
(
)
f −1 ist eine Drehung, wegen hβ ◦ gγ ◦ f −1 (v1 ) = v1 ist ihre Drehachse
(
)−1
.
Rv1 . Setze gα := hβ ◦ gγ ◦ f −1
54
2. BEWEGUNGEN IN EUKLIDISCHEN RÄUMEN
§13. Symmetriegruppen
Definition 124 : Es seien M1 , ..., Mk Teilmengen von V. Dann heißt die
Menge SymV (M1 , ..., Mk ) :=
= { f : V → V | f Isometrie, f (Mi ) = Mi , i = 1, ..., k}
Symmetriegruppe von M1 , ..., Mk . Ihre Elemente heißen Symmetrieoperationen von M1 , ..., Mk .
Satz 125 :
(1) Die Symmetriegruppe von M1 , ..., Mk ist mit der Zusammensetzung
von Funktionen eine Gruppe.
(2) Ist eine der Mengen M1 , ..., Mk endlich, dann ist ihr Schwerpunkt ein
Fixpunkt für alle Symmetrieoperationen von M1 , ..., Mk .
Beweis:
(1) kann leicht nachgeprüft werden.
(2) Sei M1 endlich. Nach Satz 39 ist für jede Symmetrieoperation f
das Bild des Schwerpunktes von M1 der Schwerpunkt des Bildes
f (M1 ) = M1 .
Satz 126 : Es seien M1 , ..., Mk Teilmengen von V . M1 sei eine endliche,
nicht-leere Menge, deren affine Hülle eine Hyperebene in V oder gleich
V ist. Dann ist SymV (M1 , ..., Mk ) eine endliche Menge.
Diese kann wie folgt berechnet werden:
Sei z der Schwerpunkt von M1 und W die affine Hülle von M1 .
Fall 1: z = 0. Dann ist W ein Untervektorraum von V .
Wähle eine Basis (v1 , ..., vn ) von W aus Elementen von M1 . Wenn
V ̸= W , ergänze diese durch ein Element vn+1 ∈ W ⊥ zu einer Basis
von V.
SymV (M1 , ..., Mk ) ist dann in der endlichen Menge
{g ∈ GLR (V ) | g (vi ) ∈ M1 , 1 ≤ i ≤ n, g(vn+1 ) ∈ {vn+1 , −vn+1 }}
enthalten.
Wähle aus dieser die Elemente von SymV (M1 , ..., Mk ) aus.
Fall 2: z ̸= 0.
Dann ist 0 der Schwerpunkt von t−z (M1 ) .
Berechne SymV (t−z (M1 ) , ...,t−z (Mk )) wie in Fall 1. Dann ist
SymV (M1 , ..., Mk ) = tz ◦ SymV (t−z (M1 ) , ...,t−z (Mk )) ◦ t−z .
Beweis: Übung.
55
2. BEWEGUNGEN IN EUKLIDISCHEN RÄUMEN
Beispiel 127 : Wir stellen das Wassermolekül H2 O durch zwei Teilmengen
M1 = {O} , M2 = {H, H ′ } eines 3-dimensionalen euklidischen Raumes V
dar. Der Winkel zwischen H und H ′ liegt in ]0, π [ .
Die Symmetriegruppe dieses Moleküls ist SymV (M1 , M2 ) .
Es seien T die affine Hülle von O, H, H ′ und G die Gerade durch O und
1
′
2 (H + H ) . Dann ist SymV (M1 , M2 ) =
}
{
IdV , Drehung um die Drehachse G mit Drehwinkel π ,
.
Spiegelung um T, Spiegelung um die Ebene O + (H − H ′ )⊥
KAPITEL 3
Bilinearformen, quadratische Funktionen und Quadriken
Es sei K der Körper der reellen oder komplexen Zahlen.
§1. Symmetrische Bilinearformen
Definition 128 : Eine bilineare Funktion b : V ×V → K heißt Bilinearform
auf V .
Eine Bilinearform b ist symmetrisch, wenn für alle v, w ∈ V
b (v, w) = b (w, v)
ist.
Für eine Basis v von V heißt
( (
))
M (b, v) := b vi , v j 1≤i, j≤n
die Matrix von b bezüglich v. Eine Matrix A ∈ K n×n ist symmetrisch, wenn
A⊤ = A
ist.
Beispiel 129 : Wenn V ein reeller Vektorraum ist, dann ist jedes Skalarprodukt auf V eine symmetrische Bilinerarform. Die Matrix jedes Skalarproduktes bezüglich jeder ON-Basis ist In .
Beispiel 130 : Sei A ∈ K n×n . Dann ist die Funktion
K n×1 × K n×1 → K
,
(x, y) 7−→ x⊤ · A · y ,
eine Bilinearform und ihre Matrix bezüglich der Standardbasis ist A.
Satz 131 : Es seien b eine Bilinearform auf V , v eine Basis von V und A die
Matrix von b bezüglich v . Dann gilt:
(1) Für alle x, y ∈ K n×1 ist
b (vx, vy) = x⊤ · A · y .
(2) Die Matrix A ist genau dann symmetrisch, wenn b symmetrisch ist.
(3) Für alle S ∈ GLn (K) ist
M (b, vS) = S⊤ · A · S .
56
57
3. BILINEARFORMEN, QUADRATISCHE FUNKTIONEN UND QUADRIKEN
Beweis:
(1)
(
n
)
∑ xivi, ∑ y j v j
b (vx, vy) = b
i=1
n
=
n
∑
n
=
j=1
∑
(
)
xi y j · b vi , v j
i, j=1
xi Ai j y j = x⊤ · A · y.
i, j=1
(2) Aus b symmetrisch
(
)
(folgt )
Ai j = b vi , v j = b v j , vi = A ji , 1 ≤ i, j ≤ n.
Umgekehrt folgt aus A symmetrisch, dass
(
)⊤
x⊤ · A · y = x⊤ · A · y = y⊤ · A⊤ · x = y⊤ · A · x
ist, nach (1) ist b daher symmetrisch.
(3) Für 1 ≤ i, j ≤ n ist
(
)
n
(
)
b vS−i , vS− j = ∑ Ski Akℓ Sℓ j = S⊤ · A · S
.
ij
k,ℓ=1
Definition 132 : Zwei Matrizen A, B ∈ K n×n heißen kongruent, wenn es
eine Matrix P ∈ GLn (K) mit
B = P⊤ · A · P
gibt. (Zwei kongruente Matrizen beschreiben dieselbe Bilinearform bezüglich zweier Basen von V ).
Definition 133 : Für d1 , ..., dn ∈ K sei


Diag (d1 , ..., dn ) := 

d1
0
d2
..


 ∈ K n×n

.
0
dn
die Matrix in Diagonalform mit Diagonalelementen d1 , ..., dn .
Satz 134 : Es seien A ∈ K n×n eine symmetrische Matrix und r der Rang
von A. Dann gibt es d1 , ..., dr ∈ K\ {0} so, dass A und
Diag (d1 , d2 , ..., dr , 0, ..., 0) ∈ K n×n
kongruent sind. Mit dem folgenden Verfahren können P ∈ GLn (K) und
d1 , ..., dr ∈ K so berechnet werden, dass
P⊤ · A · P = Diag (d1 , d2 , ..., dr , 0, ..., 0)
ist:
(1) Setze C := (A | In ) und i := 1.
58
3. BILINEARFORMEN, QUADRATISCHE FUNKTIONEN UND QUADRIKEN
(2) Wenn i > n oder Ckℓ = 0 für alle k, ℓ ∈ {i, ..., n} ist, dann ist
(
)
C = Diag (d1 , ..., di−1 , 0, ..., 0) | P⊤
und das Verfahren zu Ende.
(3) Falls C j j = 0 ist für alle j ∈ {i, ..., n} und Ckℓ ̸= 0 ist für Indizes k, ℓ ∈
{i, ..., n}, addiere die k-te Zeile von C zur ℓ-ten und anschließend die
k-te Spalte zur ℓ-ten. Nenne die neue Matrix wieder C.
(4) Falls Cii = 0 ist, aber C j j ̸= 0 ist für ein j ∈ {i + 1, ..., n} , vertausche
die j-te mit der i-ten Zeile von C und dann die j-te mit der i-ten
Spalte. Nenne die neue Matrix wieder C.
(5) Falls Cii ̸= 0 ist, subtrahiere für j = i + 1, ..., n die (Cii−1 ·C ji )-fache ite Zeile von C von der j-ten und dann die (Cii−1 ·C ji )-fache i-te Spalte
von der j-ten. Nenne die neue Matrix wieder C, setze i := i + 1 und
fahre mit (2) fort.
Beweis: Die im Verfahren angegebenen Umformungen von C bedeuten jeweils, dass A und In von rechts mit geeigneten Elementarmatrizen Q und
von links mit Q⊤ multipliziert werden. Insbesondere sind alle Matrizen, die
von den ersten n Spalten der mit C bezeichneten Matrizen gebildet werden,
symmetrisch.
(
)
Mit r = rg (A) = rg P⊤ · A · P folgt daraus die Behauptung.
Satz 135 : Trägheitssatz von Sylvester“
”
(1) Jede komplexe symmetrische Matrix A ist kongruent zu
Diag (1, 1, ..., 1, 0, ..., 0) ,
wobei die Anzahl der Einsen in der Diagonalmatrix gleich dem Rang
von A ist. Insbesondere sind zwei komplexe symmetrische Matrizen
genau dann kongruent, wenn sie den gleichen Rang haben.
(2) Jede reelle symmetrische Matrix A ist kongruent zu genau einer der
Matrizen
Ins,t := Diag(1, ..., 1, −1, ..., −1, 0, ..., 0),
wobei s bzw. t die Anzahl der Einträge 1 bzw. −1 in Ins,t ist. Es gilt
s + t = rg (A) . Das Paar (s,t) heißt Signatur von A.
Insbesondere sind zwei reelle symmetrische Matrizen genau dann
kongruent, wenn sie die gleiche Signatur haben.
Beweis: Nach Satz 134 gibt es P ∈ GLn (K) und d1 , . . . , dr ∈ K\{0} so, dass
PT · A · P = Diag(d1 , . . . , dr , 0, . . . 0) ist.
(1) Wähle Zahlen c1 , . . . , cr ∈ C so, dass c2i = di−1 , 1 ≤ i ≤ r, und setze
Q := P · Diag(c1 , . . . , cr , 0, . . . , 0).
Dann ist QT · A · Q = Diag(1, . . . , 1, 0, . . . , 0).
59
3. BILINEARFORMEN, QUADRATISCHE FUNKTIONEN UND QUADRIKEN
(2) Wir können annehmen, dass d1 ≥ d2 ≥ . . . ≥ dr ist.
Wähle Zahlen c1 , . . . , cr ∈ R so, dass c2i = |di |−1 für 1 ≤ i ≤ r ist,
und setze Q := P · Diag(c1 , . . . , cr , 0, . . . ., 0). Dann ist QT · A · Q = Ins,t ,
wobei s bzw. t die Anzahl der Indizes i mit di > 0 bzw. di < 0 ist.
′ ′
Es ist noch zu zeigen, dass für S ∈ GLn (R) aus ST ·Ins ,t · S = Ins,t folgt,
dass s′ = s und t ′ = t ist. Wegen s + t = rg(Ins,t ) genügt es, s′ = s zu
zeigen. Wir können annehmen, dass s′ ≥ s gilt.
Sei U := {y ∈ Rn×1 | y1 = . . . = ys = 0} und
W := {y ∈ Rn×1 | (Sy)s′ +1 = (Sy)s′ +2 = . . . = (Sy)n = 0}.
Dann ist dimR (U) = n − s und wegen S ∈ GLn (R) auch
dimR (W ) = s′ .
Wäre s′ > s, dann wäre
dimR (U) + dimR (W ) = n − s + s′ > n
und daher U ∩W ̸= {0}.
Für 0 ̸= x ∈ U ∩W würde dann
0≥−
s+t
∑
xi2 = xT · Ins,t · x =
i=s+1
T
= (Sx)
′ ′
· Ins ,t · (Sx) =
s′
∑ (Sx)2i > 0
i=1
sein. Widerspruch.
§2. Positiv definite Matrizen
Definition 136 : Eine Bilinearform b auf einem reellen Vektorraum V heißt
positiv definit bzw. positiv semidefinit, wenn für alle v ∈ V \{0}
b(v, v) > 0
bzw. b(v, v) ≥ 0
ist. Eine Matrix A ∈ Rn×n heißt positiv definit bzw. positiv semidefinit, wenn
für alle x ∈ Rn×1 \{0}
x⊤ · A · x > 0
bzw. x⊤ · A · x ≥ 0
ist.
(
)
1 0
Beispiel 137 : Die Matrix
ist positiv definit und damit auch posi0 1
tiv semidefinit.
(
)
1 0
Die Matrix
ist positiv semidefinit, aber nicht positiv definit.
0 0
60
3. BILINEARFORMEN, QUADRATISCHE FUNKTIONEN UND QUADRIKEN
Satz 138 :
(1) Eine Bilinearform ist genau dann positiv definit bzw. positiv semidefinit, wenn ihre Matrix bezüglich einer Basis von V positiv definit
bzw. positiv semidefinit ist.
(2) Wenn eine Matrix positiv definit bzw. positiv semidefinit ist, dann sind
dies auch alle zu ihr kongruenten Matrizen.
Beweis: Übung.
Satz 139 : Für eine symmetrische Matrix A ∈ Rn×n sind die folgenden Aussagen äquivalent:
(1) A ist positiv definit.
(2) Es gibt eine Matrix B ∈ GLn (R) so, dass A = B⊤ · B ist.
(3) Die Signatur von A ist (n, 0) .
Beweis: Eine reelle Diagonalmatrix ist genau dann positiv definit, wenn
alle ihre Einträge in der Diagonale positiv sind. Nach Satz 135 gibt es eine
invertierbare Matrix P so, dass P⊤ ·A·P =: D eine Diagonalmatrix ist, deren
Einträge 0, 1 oder −1 sind.
(1) ⇒ (2) : Wenn A positiv definit ist, muss D nach Satz 138 auch positiv
definit sein, also D = In sein. Mit B := P−1 folgt (2).
(2) ⇒ (3) : Nach (2) ist A kongruent zu In .
(3) ⇒ (1) : Nach (3) und Satz 135 ist A kongruent zu In . Nach Satz 138
ist A positiv definit.
Mit Aussage (3) kann überprüft werden, ob eine symmetrische Matrix
positiv definit ist.
Mit Aussage (2) können Beispiele für positiv definite symmetrische Matrizen (und damit für Skalarprodukte) konstruiert werden.
Eine Anwendung in der Analysis: Es seien f : Rn → R eine 2-mal stetig
differenzierbare Funktion, deren Ableitung im Punkt p Null ist, und A ihre
Hesse’sche Matrix in p. Wenn A bzw. −A positiv definit ist, dann hat f in p
ein isoliertes Minimum bzw. Maximum.
Satz 140 : Für eine symmetrische Matrix A ∈ Rn×n sind die folgenden Aussagen äquivalent:
(1) A ist positiv semidefinit.
(2) Es gibt eine Matrix B ∈ R n×n so, dass A = B⊤ · B ist.
(3) Die Signatur von A ist (r, 0), wobei r der Rang von A ist.
61
3. BILINEARFORMEN, QUADRATISCHE FUNKTIONEN UND QUADRIKEN
Beweis: Analog dem Beweis von Satz 139.
Satz 141 : Eine symmetrische reelle Matrix A ist genau dann positiv definit,
wenn alle ihre Hauptminoren


A11 · · · A1k
.
..
det  ...
. ..  , 1 ≤ k ≤ n,
Ak1 · · · Akk
positive Zahlen sind.
Beweis: Für 1 ≤ k ≤ n sei


A11 · · · A1k
. . . ..  ∈ Rk×k
A(k) :=  ...
.
Ak1 · · · Akk
Wenn A positiv definit ist, dann ist für alle x ∈ Rk×1 \ {0}
( )⊤
( )
x
x
⊤
x · A(k) · x =
·A·
>0,
0
0
daher ist A(k) positiv definit. Aus Satz 139, (2) folgt dann, dass
det(A(k)) > 0 ist.
Seien nun alle Hauptminoren positiv. Wie zeigen durch Induktion nach
n, dass A positiv definit ist. Nach Induktionsannahme ist A(n − 1) positiv
definit, nach Satz 139, (1) ⇒ (2), daher invertierbar.
Somit bilden die Zeilen von A(n − 1) eine Basis von R1×(n−1) , deshalb gibt
es Zahlen c1 , . . . , cn−1 ∈ R so, dass
n−1
(An1 , . . . , An(n−1) ) =
∑ ciA(n − 1)i−
i=1
ist. Wird das ci -fache der i-ten Zeile von A von der n-ten Zeile subtrahiert
und das ci -fache der i-ten Spalte von der n-ten Spalte, 1 ≤ i ≤ n, dann erhalten wir eine zu A kongruente Matrix
(
)
A(n − 1) 0
C :=
∈ Rn×n
0
d
mit d ∈ R. Da wir C aus A erhalten, indem wir A von links und von rechts
mit Elementarmatrizen, deren Determinante 1 ist, multiplizieren, ist
det(A) = det(C) = det(A(n − 1)) · d .
Aus det(A) > 0 und det(A(n − 1)) > 0 folgt d > 0 .
Da A(n − 1) positiv definit ist, gibt es nach Satz 139 eine Matrix
B ∈ GLn−1 (R) so, dass A(n − 1) = B⊤ · B ist. Die Matrix
)
(
B √0
M :=
d
0
62
3. BILINEARFORMEN, QUADRATISCHE FUNKTIONEN UND QUADRIKEN
ist invertierbar und C = M ⊤ · M. Nach Satz 139 ist C positiv definit, daher
auch die zu C kongruente Matrix A.
§3. Linearformen
Definition 142 : Eine lineare Funktion von V nach K heißt Linearform auf
V . Die Menge LinK (V, K) aller linearen Funktionen von V nach K bezeichnen wir kurz mit V ∗ .
V ∗ mit der punktweisen Addition und Skalarmultiplikation heißt Vektorraum der Linearformen auf V oder zu V dualer Vektorraum.
Satz 143 : Es seien v = (v1 , . . . , vn ) eine Basis von V und 1 ≤ i ≤ n. Die
Funktion
Xi : V −→ K
, w 7−→
Koordinate von w bei vi ,
ist eine Linearform und heißt i-te Koordinatenfunktion bezüglich v. Für
1 ≤ i, j ≤ n ist Xi (v j ) = δi j .
Das n-Tupel X := (X1 , . . . , Xn ) ist eine Basis von V ∗ und heißt die zu v duale
Basis von V ∗ . Für f ∈ V ∗ ist
n
f = ∑ f (vi )Xi .
i=1
Insbesondere haben V und
morph.
V∗
dieselbe Dimension und sind daher iso-
Beweis: Es ist leicht nachzuprüfen, dass die Koordinatenfunktionen linear
sind.
Aus ∑ni=1 ci Xi = 0 folgt für alle j ∈ {1, . . . , n}
n
n
i=1
i=1
0 = ( ∑ ci Xi )(v j ) = ∑ ci Xi (v j ) = c j .
Daher ist (X1 , . . . , Xn ) linear unabhängig.
Sei f ∈ V ∗ , dann ist für alle j ∈ {1, . . . , n}
(
)
n
∑
i=1
also f
= ∑ni=1
n
f (vi )Xi (v j ) = ∑ f (vi )Xi (v j ) = f (v j ) ,
i=1
f (vi )Xi .
Satz 144 : Es seien V ein reeller Vektorraum mit Skalarprodukt ⟨−, −⟩,
v = (v1 , . . . , vn ) eine Basis von V und
X := (X1 , . . . , Xn ) die dazu duale Basis von V ∗ . Für jeden Vektor v ∈ V ist
die Funktion
⟨v, −⟩ : V −→ K , w 7−→ ⟨v, w⟩ ,
63
3. BILINEARFORMEN, QUADRATISCHE FUNKTIONEN UND QUADRIKEN
linear. Die Funktion
V −→ V ∗
,
v 7−→ ⟨v, −⟩ ,
ist ein Isomorphismus von Vektorräumen. Wenn v eine ON-Basis ist, dann
ist ⟨vi , −⟩ = Xi , für 1 ≤ i ≤ n.
Beweis: Übung.
Definition 145 : Es sei f eine beliebige Funktion von V nach K. Die Menge
N( f ) := {v ∈ V | f (v) = 0}
heißt Nullstellenmenge von f .
Satz 146 : Es seien f eine Funktion von V nach K, W ein Vektorraum und
h eine surjektive Funktion von W nach V . Dann ist
h−1 (N( f )) = N( f ◦ h) .
Beweis: Für w ∈ W ist ( f ◦ h)(w) = 0 genau dann, wenn h(w) ∈ N( f ).
Dieser Satz liefert eine Idee zur Beschreibung von Nullstellenmengen
gewisser Funktionen f : Finde eine einfache“ surjektive Funktion h so, dass
”
die Nullstellenmenge von f ◦ h gut bekannt“ ist. Dann kann N( f ) als Bild
”
von N( f ◦ h) unter h beschrieben werden.
§4. Quadratische Formen
Es seien v eine Basis von V und X die dazu duale Basis von V ∗ .
Definition 147 : Für Funktionen f und g von V nach K heißt die Funktion
f · g : V −→ K
,
w 7−→ f (w) · g(w) ,
das punktweise Produkt von f und g.
Oft wird statt f · g nur f g geschrieben und f 2 statt f · f .
Satz 148 : Die Menge F(V, K) ist mit der punktweisen Addition und Multiplikation ein kommutativer Ring mit Einselement
1 : V −→ K
,
w 7−→ 1 .
Mit der punktweisen Addition und Skalarmultiplikation ist F(V, K) ein Vektorraum. Für c ∈ K und f , g ∈ F(V, K) ist
c( f · g) = (c f ) · g = f · (cg) .
64
3. BILINEARFORMEN, QUADRATISCHE FUNKTIONEN UND QUADRIKEN
Beweis: Übung.
Definition 149 : Eine Funktion q : V −→ K heißt quadratische Form auf
V , wenn sie Summe von Produkten von Linearformen auf V ist, dh. es gibt
Linearformen f1 , . . . , fm , g1 , . . . , gm auf V so, dass
m
q = ∑ f i · gi
i=1
ist. Die Menge aller quadratischen Formen ist ein Untervektorraum von
F(V, K) und wird mit Q(V ) bezeichnet.
Satz 150 :
(1) Die Familie (Xi · X j )1≤i≤ j≤n ist eine K-Basis von Q(V ).
Insbesondere ist
n(n + 1)
dimK (Q(V )) =
.
2
(2) Für c ∈ K, w ∈ V und q ∈ Q(V ) ist
q(cw) = c2 q(w) .
Beweis:
(1) Es seien f = ∑ni=1 ci Xi und g = ∑ni=1 d j X j . Nach Satz 148 ist dann
f ·g =
n
∑
1≤i, j≤n
ci d j Xi X j = ∑ ci di Xi2 +
i=1
∑
(ci d j + c j di )Xi X j ,
1≤i< j≤n
also ist (Xi · X j )1≤i≤ j≤n ein Erzeugendensystem von Q(V ).
Wenn eine Linearkombination
∑
ci j Xi X j = 0
1≤i≤ j≤n
ist, dann ist für alle k
(
)
∑
0=
ci j Xi X j (vk ) = ckk
1≤i≤ j≤n
und für alle k, l mit k < l
(
0=
∑
)
ci j Xi X j (vk + vl ) = ckl ,
1≤i≤ j≤n
daher ist (Xi · X j )1≤i≤ j≤n auch linear unabhängig.
(2) Für c ∈ K, w ∈ V und f , g ∈ V ∗ ist
( f · g)(cw) = f (cw)g(cw) = c2 f (w)g(w) = c2 ( f · g)(w) .
65
3. BILINEARFORMEN, QUADRATISCHE FUNKTIONEN UND QUADRIKEN
Satz 151 :
(1) Ist q : V −→ K eine quadratische Form, dann ist
1
bq : V ×V −→ K , (u, w) 7−→ [q(u + w) − q(u) − q(w)] ,
2
eine symmetrische Bilinearform und heißt die durch q definierte Bilinearform. Für w ∈ V ist dann
q(w) = bq (w, w) .
Die Matrix von q bezüglich v (Schreibweise: M(q, v)) ist die Matrix
von bq bezüglich v.
Der Rang von q bzw. die Signatur von q ist dann der Rang bzw. die
Signatur dieser Matrix.
(2) Ist b : V ×V −→ K eine symmetrische Bilinearform auf V , dann ist
qb : V −→ K
w 7−→ b(w, w) ,
,
eine quadratische Form und heißt die durch b definierte quadratische
Form.
Für u, w ∈ V ist dann
1
b(u, w) = (qb (u + w) − qb (u) − qb (w)) .
2
n×n
Wenn A ∈ K
die Matrix von b bezüglich v ist, dann ist
n
qb = ∑ Aii Xi2 +
i=1
Für jede n-Spalte
y ∈ K n×1
∑
2Ai j Xi X j .
1≤i< j≤n
ist
qb (v · y) = y⊤ · A · y .
( Jeder quadratischen Form entspricht genau eine symmetrische Bilinear”
form und, nach Wahl einer Basis von V , genau eine symmetrische Matrix,
und umgekehrt.“)
Beweis:
(1) Die Funktion bq ist offensichtlich symmetrisch, also genügt es zu
zeigen, dass für alle c ∈ K, u, u′ , w ∈ V
bq (c(u + u′ ), w) = cbq (u, w) + cbq (u′ , w)
ist. Mit q = ∑1≤i≤ j≤n ai j Xi X j kann das leicht nachgerechnet werden.
(2) Sei A die Matrix von b bezüglich v. Für alle n-Spalten y ist dann
qb (v · y) = b(v · y, v · y) = y⊤ · A · y =
∑
Ai j yi y j =
1≤i≤ j≤n
=
∑
1≤i≤ j≤n
Ai j Xi (v · y)X j (v · y) = (
∑
1≤i≤ j≤n
Daher ist qb = ∑1≤i≤ j≤n Ai j Xi X j ∈ Q(V ).
Ai j Xi X j )(v · y) .
66
3. BILINEARFORMEN, QUADRATISCHE FUNKTIONEN UND QUADRIKEN
Beispiel 152 : Sei K = R und ⟨−, −⟩ : V × V −→ R ein Skalarprodukt.
Die durch ⟨−, −⟩ definierte quadratische Form ist
∥.∥2 : V −→ R
,
w 7−→ ⟨w, w⟩ = ∥w∥2 ,
und ihre Matrix bezüglich v ist
(
)
⟨vi , v j ⟩ 1≤i, j≤n .
Satz 153 : Es seien q eine quadratische Form auf V , A ihre Matrix bezüglich
v und r der Rang von A. Seien P ∈ GLn (K) und
d1 , . . . , dr ∈ K so, dass
P⊤ · A · P = Diag(d1 , . . . , dr , 0, . . . , 0)
(siehe Satz 134).
Sei g die bijektive lineare Funktion von V nach V , deren Matrix bezüglich v
die Matrix P ist. Dann ist
q ◦ g = d1 X12 + . . . + dr Xr2 .
Beweis: Für alle n-Spalten y ∈ K n×1 ist (q ◦ g)(v · y) =
= q(g(v · y)) = q (v · (Py)) = (Py)⊤ · A · (Py) = y⊤ · P⊤ · A · P · y =
)
(
r
= y⊤ · Diag(d1 , . . . , dr , 0, . . . , 0) · y = ∑ di y2i =
i=1
r
∑ diXi2
(v · y) .
i=1
§5. Quadratische Funktionen
Es seien v eine Basis von V und X die dazu duale Basis von V ∗ .
Definition 154 : Es seien c ∈ K, ℓ ∈ V ∗ , q ∈ Q(V ) und q ̸= 0.
Dann ist die Funktion f := q + ℓ + c · 1 von V nach K eine quadratische
Funktion auf V . Oft wird statt c · 1 nur c geschrieben.
Die Funktionen q bzw. ℓ bzw. c heißen quadratischer bzw. linearer bzw.
konstanter Anteil von f .
Die Nullstellenmenge einer quadratischen Funktion auf V heißt Quadrik in
V.
Beispiel 155 : Es seien V ein zweidimensionaler euklidischer Raum, v eine
ON-Basis, u ∈ V und r eine positive reelle Zahl. Der Kreis um u mit Radius
r ist eine Quadrik, denn
{w ∈ V | ∥w − u∥ = r} = {w ∈ V | ⟨w − u, w − u⟩ = r2 } =
= {w ∈ V | X12 (w − u) + X22 (w − u) = r2 } =
67
3. BILINEARFORMEN, QUADRATISCHE FUNKTIONEN UND QUADRIKEN
= N(X12 + X22 − 2X1 (u)X1 − 2X2 (u)X2 + X1 (u)2 + X2 (u)2 − r2 ) .
Satz 156 : Der quadratische bzw. lineare bzw. konstante Anteil einer quadratischen Funktion ist durch diese eindeutig bestimmt.
Beweis: Seien q, q′ ∈ Q(V ), ℓ, ℓ′ ∈ V ∗ und c, c′ ∈ K so, dass q + ℓ + c =
q′ + ℓ′ + c′ . Dann ist
c = (q + ℓ + c)(0) = (q′ + ℓ′ + c′ )(0) = c′ ,
also c = c′ und
q + ℓ = q′ + ℓ′ .
Für alle w ∈ V ist
22 q(w) + 2ℓ(w) = (q + ℓ)(2w) = (q′ + ℓ′ )(2w) = 22 q′ (w) + 2ℓ′ (w) .
Wegen 2 = 1 + 1 ̸= 0 ist daher
2q + ℓ = 2q′ + ℓ′ .
Somit ist ℓ = ℓ′ und q = q′ .
Satz 157 : (Affine Normalformen quadratischer Funktionen)
Es seien f eine quadratische Funktion auf V , q ihr quadratischer Anteil und
r der Rang von q. Dann gibt es eine bijektive affine Abbildung h : V −→ V
und d0 ∈ K, d1 , . . . , dr ∈ K \ {0} so, dass f ◦ h eine der folgenden quadratischen Funktionen ist:
d1 X12 + . . . + dr Xr2 + d0 ,
d1 X12 + . . . + dr Xr2 − 2Xn (nur wenn r < n).
Wenn K = C ist, kann d1 = . . . = dr = 1 gewählt werden.
Wenn K = R und (s, r − s) die Signatur von q ist, kann
d1 = . . . = ds = 1 und ds+1 = . . . = dr = −1 gewählt werden.
Diese quadratischen Funktionen heißen quadratische Funktionen in affiner
Normalform bezüglich v.
Beweis: Die Funktion h kann wie folgt berechnet werden:
Wähle g ∈ GLK (V ) so, dass
q ◦ g = d1 X12 + . . . + dr Xr2
(siehe Satz 153).
Es seien ℓ = ∑ni=1 ai Xi der lineare und c der konstante Anteil von f ◦ g. Mit
u := ∑ri=1 (− 12 ai di−1 )vi ist
r
r
n
1 −1 2
1 −1
f ◦ g ◦ tu = ∑ di (Xi − ai di ) + ∑ ai (Xi − ai di ) + ∑ ai Xi + c =
2
2
i=1
i=1
i=r+1
68
3. BILINEARFORMEN, QUADRATISCHE FUNKTIONEN UND QUADRIKEN
r
= ∑ di Xi2 +
n
r
1
a
X
+
(c
−
∑ i i
∑ 4 a2i di−1) .
i=r+1
i=1
i=1
n
∑i=r+1 ai Xi = 0 ist, dann ist h := g ◦ tu die gesuchte Funktion.
∑ni=r+1 ai Xi ̸= 0 ist, dann ist r < n und wir können g′ ∈ GLK (V )
Falls
Falls
wählen, dass
(
X1 ◦ g′ = X1 , . . . , Xr ◦ g′ = Xr
n
∑
und
so
)
ai Xi ◦ g′ = −2Xn .
i=r+1
Dann ist
r
f ◦ g ◦ tu ◦ g′ = ∑ di Xi2 − 2Xn + c′ ,
i=1
wobei c′ := c − ∑ri=1 14 a2i di−1 .
Sei u′ := − 12 c′ vn , dann ist
r
f ◦ g ◦ tu ◦ g′ ◦ tu′ = ∑ di Xi2 − 2Xn
i=1
und h := g ◦ tu ◦ g′ ◦ tu′ .
Beispiel 158 : Es seien n = 2, K = Q und
f := X12 + X22 + 2X1 X2 + 2X1 + 3X2 + 4 .
Es sei g : V −→ V die durch g(v1 ) = v1 und g(v2 ) = −v1 + v2 definierte
lineare Funktion. Dann ist
f ◦ g = X12 + 2X1 + X2 + 4
und
f ◦ g ◦ t−v1 = X12 + X2 + 3 .
Es sei g′ : V −→ V die durch g′ (v1 ) = v1 und g′ (v2 ) = −2v2 definierte lineare
Funktion. Dann ist
f ◦ g ◦ t−v1 ◦ g′ = X12 − 2X2 + 3
und
f ◦ g ◦ t−v1 ◦ g′ ◦ t 3 v2 = X12 − 2X2 .
2
Sei h := g ◦ t−v1
◦ g′ ◦ t
3
2 v2
. Dann ist
h(y1 v1 + y2 v2 ) = (y1 + 2y2 + 2)v1 − (2y2 + 3)v2
und h(N(X12 − 2X2 )) = N( f ). Daher ist
N( f ) = {(y1 + y21 + 2)v1 − (y21 + 3)v2 | y1 ∈ Q } .
Für y1 = 0 bzw. 1 bzw. −1 erhalten wir 2v1 − 3v2 bzw. 4v1 − 4v2 bzw.
2v1 − 4v2 ∈ N( f ).
69
3. BILINEARFORMEN, QUADRATISCHE FUNKTIONEN UND QUADRIKEN
Beispiel 159 : Es seien n = 1, a, b ∈ K und
f := X12 + aX1 + b .
Dann ist
f ◦ t− a2 = X12 −
(
und
N( f ) = t− a2
a2
+b
4
a
N(X12 − (
2
)
− b)) .
4
Daher ist N( f ) genau dann nicht leer, wenn es in K ein Element y gibt mit
y2 =
a2
−b .
4
2
Für K = R ist das genau dann der Fall, wenn a4 − b ≥ 0.
Wenn ein solches y ∈ K existiert, ist N( f ◦ t− a2 ) = {y, −y} und
a
a
N( f ) = {− + y, − − y} .
2
2
§6. Quadriken
Es seien v eine Basis von V und X die dazu duale Basis von V ∗ .
Hilfssatz 160 : Es sei W ein endlich-dimensionaler K-Vektorraum.
(1) Die Zusammensetzung f ◦ h einer quadratischen Funktion f auf V
mit einer surjektiven affinen Funktion h : W −→ V ist eine quadratische Funktion auf W .
(2) Das Urbild h−1 (Q) einer Quadrik Q in V unter einer surjektiven
affinen Funktion h : W −→ V ist eine Quadrik.
(3) Das Bild h(Q) einer Quadrik Q unter einer bijektiven affinen Funktion h : W −→ V ist eine Quadrik.
(4) Für eine quadratische Funktion f auf V und c ∈ K \ {0} ist N( f ) =
N(c f ).
Beweis:
(1) Es sei q der quadratische Anteil von f . Weil q ̸= 0 und weil h surjektiv ist, ist auch q ◦ h ̸= 0 und f ◦ h ̸= 0. Es genügt also zu zeigen, dass
q ◦ h eine quadratische Funktion ist. Wenn g1 , g2 Linearformen auf V
sind, dann ist (g1 g2 ) ◦ h = (g1 ◦ h)(g2 ◦ h). Die Funktionen g1 ◦ h und
g2 ◦ h sind affin, also ist (g1 ◦ h)(g2 ◦ h) eine quadratische Funktion.
Weil q eine Linearkombination von Produkten von Linearformen ist,
folgt daraus die Behauptung.
(2) Es sei f eine quadratische Funktion mit N( f ) = Q. Dann ist h−1 (Q) =
N( f ◦ h), also folgt die Behauptung aus (1).
(3) Folgt aus (2).
70
3. BILINEARFORMEN, QUADRATISCHE FUNKTIONEN UND QUADRIKEN
(4) Wegen c ̸= 0 ist f (v) = 0 genau dann, wenn c f (v) = 0.
Definition 161 : Zwei Teilmengen M und N von V heißen affin kongruent,
wenn es eine bijektive affine Funktion h : V −→ V gibt, sodass h(M) = N
ist.
Zwei Teilmengen M und N eines euklidischen Raumes V heißen euklidisch
kongruent, wenn es eine Isometrie h : V −→ V gibt, sodass h(M) = N ist.
Beispiel 162 : Je zwei Dreiecke in V sind affin kongruent.
Zwei Dreiecke in einem euklidischen Raum sind genau dann euklidisch
kongruent, wenn die zwei Tripel der Seitenlängen der Dreiecke bis auf die
Reihenfolge gleich sind.
Satz 163 : (Affine Normalformen von Quadriken)
Es seien K = R , f eine quadratische Funktion auf V , r der Rang und (s, r −
s) die Signatur des quadratischen Anteils von f . Die Quadrik N( f ) ist zu
einer der folgenden Quadriken affin kongruent:
2
N(X12 + . . . + Xs2 − Xs+1
− . . . − Xr2 ) ,
2
N(X12 + . . . + Xs2 − Xs+1
− . . . − Xr2 + 1) ,
2
N(X12 + . . . + Xs2 − Xs+1
− . . . − Xr2 − 1) ,
2
N(X12 + . . . + Xs2 − Xs+1
− . . . − Xr2 − 2Xn ) (nur wenn r < n).
Beweis: Folgt aus Satz 157 und Lemma 160,(4).
√
|d|
Beispiel 164 : Es seien d eine negative reelle Zahl und h := |d| ·IdV . Dann
ist
(
)
2
h N(X12 + . . . + Xs2 − Xs+1
− . . . − Xr2 + d) =
2
= N(X12 + . . . + Xs2 − Xs+1
− . . . − Xr2 − 1) .
§7. Quadriken in der Ebene
Es seien V ein zweidimensionaler euklidischer Raum, v eine ON-Basis
von V und X die dazu duale Basis von V ∗ .
Definition 165 : Es seien u, w ∈ V und r ∈ R so, dass ∥u − w∥ < 2r ist.
Dann heißt die Menge
E(u, w, r) := {z ∈ V | ∥z − u∥ + ∥z − w∥ = 2r}
71
3. BILINEARFORMEN, QUADRATISCHE FUNKTIONEN UND QUADRIKEN
Ellipse mit den Brennpunkten u und w.
Fixiert man die Enden eines Fadens der Länge 2r in den Punkten u
und w und durchläuft man dann mit einem Bleistift alle Punkte so, dass der
Faden gespannt ist, dann erhält man die Ellipse E(u, w, r) ( Gärtner-Ellipse“
”
oder Fadenkonstruktion“ der Ellipse).
”
Beispiel 166 : E(u, u, r) ist der Kreis mit Mittelpunkt u und Radius r.
Satz 167 : Es seien u, w ∈ V , c := ∥ u−w
2 ∥ und r ∈ R mit r > c.
(1) Die Ellipse E(u, w, r) ist euklidisch kongruent zu E(cv1 , −cv1 , r).
Eine Ellipse E(u′ , w′ , r′ ) ist genau dann euklidisch kongruent zu
E(u, w, r), wenn r = r′ und ∥u − w∥ = ∥u′ − w′ ∥ ist.
(2)
1
1
E(cv1 , −cv1 , r) = N( 2 X12 + 2
X 2 − 1) .
r
(r − c2 ) 2
(3) Die Ellipse E(u, w, r) ist affin kongruent zu N(X12 + X22 − 1). Insbesondere ist jede Ellipse eine Quadrik und je zwei Ellipsen sind zueinander affin kongruent.
Beweis:
(1) Ist f eine Isometrie, dann ist f (E(u, w, r)) = E( f (u), f (w), r). Daher
ist
u−w u−w
t− u+w (E(u, w, r)) = E(
,−
, r) .
2
2
2
Es sei h die Drehung um 0, die den Punkt u−w
2 auf den Punkt cv1
abbildet. Dann ist
(h ◦ t− u+w ) (E(u, w, r)) = E(cv1 , −cv1 , r) ,
2
insbesondere ist E(u, w, r) euklidisch kongruent zu
E(cv1 , −cv1 , r).
(2) Für z ∈ V ist z ∈ E(cv1 , −cv1 , r) genau dann, wenn
∥z − cv1 ∥ + ∥z + cv1 ∥ = 2r .
Man rechnet leicht nach, dass dies genau dann der Fall ist, wenn
(r2 − c2 )X12 (z) + r2 X22 (z) − r2 (r2 − c2 ) = 0
ist. Wegen 0 ≤ c < r und r2 > 0 ist r2 − c2 > 0 und r2 (r2 − c2 ) > 0.
Daher ist
E(cv1 , −cv1 , r) = N((r2 − c2 )X12 + r2 X22 − r2 (r2 − c2 )) =
1
1
= N( 2 X12 + 2
X 2 − 1) .
r
r − c2 2
72
3. BILINEARFORMEN, QUADRATISCHE FUNKTIONEN UND QUADRIKEN
(3) Es sei g : V −→ V die lineare Funktion mit g(v1 ) = 1r v1 und g(v2 ) =
√ 1
v .
r2 −c2 2
Dann ist
(g ◦ h ◦ t− u+w ) (E(u, w, r)) = g(E(cv1 , −cv1 , r)) =
2
= N(X12 + X22 − 1) ,
somit ist E(u, w, r) affin kongruent zu N(X12 + X22 − 1).
Definition 168 : Es seien u, w ∈ V und r ∈ R so, dass
0 < 2r < ∥u − w∥ ist. Dann heißt die Menge
H(u, w, r) := {z ∈ V | 2r = | ∥z − u∥ − ∥z − w∥ |}
Hyperbel mit den Brennpunkten u und w.
Satz 169 : Es seien u, w ∈ V , c := ∥ u−w
2 ∥ und r ∈ R mit 0 < r < c.
(1) Die Hyperbel H(u, w, r) ist euklidisch kongruent zu
H(cv1 , −cv1 , r). Eine Hyperbel H(u′ , w′ , r′ ) ist genau dann euklidisch kongruent zu H(u, w, r), wenn r = r′ und ∥u − w∥ = ∥u′ − w′ ∥
sind.
(2)
1
1
H(cv1 , −cv1 , r) = N( 2 X12 − 2
X22 − 1) .
2
r
(c − r )
(3) Die Hyperbel H(u, w, r) ist affin kongruent zu N(X12 −X22 −1). Insbesondere ist jede Hyperbel eine Quadrik und je zwei Hyperbeln sind
zueinander affin kongruent.
Beweis: Übung (analog dem Beweis von Satz 167).
Definition 170 : Es seien u ∈ V und G eine Gerade in V, die nicht u enthält.
Dann heißt die Menge P(u, G) aller Punkte z ∈ V , die zu u und zu G den
gleichen Abstand haben, Parabel mit Brennpunkt u und Leitlinie G.
Satz 171 : Es seien u ∈ V , G eine Gerade in V, die nicht u enthält, und c
der Abstand des Punktes u von der Geraden G.
(1) Die Parabel P(u, G) ist zu P( 2c v2 , − 2c v2 + R v1 ) euklidisch kongruent. Eine Parabel P(u′ , G′ ) ist genau dann euklidisch kongruent zu
P(u, G), wenn die Abstände von u′ zu G′ und von u zu G gleich sind.
(2)
c
c
1
P( v2 , − v2 + R v1 ) = N( X12 − 2X2 ) .
2
2
c
73
3. BILINEARFORMEN, QUADRATISCHE FUNKTIONEN UND QUADRIKEN
(3) Die Parabel P(u, G) ist affin kongruent zu N(X12 − 2X2 ). Insbesondere ist jede Parabel eine Quadrik und je zwei Parabeln sind zueinander affin kongruent.
Beweis: Übung (analog dem Beweis von Satz 167).
Satz 172 :
(1) Jede Quadrik in V ist euklidisch kongruent zu einer der folgenden
Quadriken:
Quadrik
N(X12 )
N(X12 − b12 X22 ), b > 0
N(X12 + X22 )
N( a12 X12 − 1), a > 0
N(X12 + X22 + 1)
geometrische Beschreibung
eine Gerade
zwei einander
schneidende Geraden
ein Punkt
zwei parallele Geraden
mit Abstand 2a
die leere Menge
N( a12 X12 + b12 X22 − 1),
0<b≤a
eine Ellipse
mit Achsenabschnitten a und b
N( a12 X12 − b12 X22 − 1),
a > 0, b > 0
eine Hyperbel
mit Achsenabschnitten a und b
N( a12 X12 − 2X2 ), a > 0
eine Parabel
mit Parameter a2
(2) Jede Quadrik ist affin kongruent zu einer der Quadriken in (1) mit
a = b = 1.
74
3. BILINEARFORMEN, QUADRATISCHE FUNKTIONEN UND QUADRIKEN
Beweis:
(1) Beweis wird weggelassen.
(2) Folgt aus Satz 163.
Satz 173 :
(1) Es seien Q eine Ellipse in V mit Brennpunkten u und w. Dann gibt es
für jeden Punkt z ∈ Q genau eine Gerade Tz in V , deren Durchschnitt
mit Q gleich {z} ist. Diese Gerade heißt Tangente an Q im Punkt z.
Die Winkel zwischen der Tangente Tz und der Geraden durch z und u
sowie der Geraden durch z und w sind gleich.
(2) Es sei Q eine Parabel in V mit Brennpunkt u und Leitlinie L. Dann
gibt es für jeden Punkt z ∈ Q genau eine Gerade Tz in V , die nicht
senkrecht zur Leitlinie von Q steht und deren Durchschnitt mit Q
gleich {z} ist. Diese Gerade heißt Tangente an Q im Punkt z. Die
Winkel zwischen der Tangente Tz und der Geraden durch z und u
sowie der zu L senkrecht stehenden Geraden durch z sind gleich.
Beweis:
(1) Sei f : V −→ V eine bijektive affine Funktion. Wenn G eine Gerade
in V ist, deren Durchschnitt mit f (Q) gleich { f (z)} ist, dann ist der
Durchschnitt von f −1 (Q) mit Q gleich {z}. Nach Satz 167 genügt es
daher, die Aussage für
Q = N(X12 + X22 − 1)
zu beweisen. In diesem Fall kann leicht nachgeprüft werden, dass die
Gerade
Tz := N(X1 (z)X1 + X2 (z)X2 − 1)
die angegebenen Eigenschaften hat.
Nach Satz 167 können wir annehmen, dass
Q = E(cv1 , −cv1 , r)
ist, wobei r > c > 0 ist. Sei
y :=
1
1
z2 v1 − 2 z1 v2
(r2 − c2 )
r
.
Dann ist z + R y die Tangente an Q im Punkt z. Seien α bzw. β die
Winkel zwischen Tz und der Geraden durch z und cv1 bzw. −cv1 .
Dann ist
cos(α ) =
⟨z − cv1 , y⟩
⟨z + cv1 , y⟩
und cos(β ) =
.
∥z − cv1 ∥ · ∥y∥
∥z + cv1 ∥ · ∥ − y∥
75
3. BILINEARFORMEN, QUADRATISCHE FUNKTIONEN UND QUADRIKEN
Da α und β im Intervall [0, π ] liegen, genügt es nachzurechnen,
1
2
2
dass cos(α ) = cos(β ) ist. Mit z22 = (r2 −c
2 ) (r − z1 ) erhält man
√
r2 ± cz1
∥z ± cv1 ∥ = (z1 ± c)2 + z22 =
.
r
Weiters ist
cz2
⟨z − cv1 , y⟩ = 2 2
(cz1 − r2 )
2
r (r − c )
und
−cz2
⟨z + cv1 , −y⟩ = 2 2
(cz1 + r2 ) ,
r (r − c2 )
daraus folgt cos(α ) = cos(β ).
(2) Übung.
Aus diesem Satz folgt: Ein Lichtstrahl, der von einem Brennpunkt einer
Ellipse ausgeht und an der Ellipse reflektiert wird, geht durch den anderen
Brennpunkt. Lichtstrahlen, die vom Brennpunkt einer Parabel ausgehen und
an der Parabel reflektiert werden, sind dann zueinander parallel.
Herunterladen