FAQ 6

Werbung
HM II Schneider
FAQ Woche 6
FAQs der Vorlesungswoche 6
Was sind die isometrischen Abbildungen von R3
(Bewegungsgruppe von R3)?
Sie wissen aus der Vorlesung (Denition 51.1), dass orthogonale Matrizen
A ∈ O3 (R)
isometrisch
(abstandserhaltend) sind:
|Ax − Ay| = |x − y| (x, y ∈ R3 ).
Wir wollen hier umgekehrt zeigen, dass dies (die orthogonalen linearen Abbildungen) bis auf Verschie-
R3 sind, genauer: dass für jede beliebige isometrische
3
3
3
Abbildung f von R (das heiÿt, jede Abbildung f : R → R mit |f (x) − f (y)| = |x − y| für x, y ∈ R )
3
eine orthogonale Matrix A ∈ O3 (R) und ein Vektor b ∈ R existieren, sodass
bungen schon alle isometrischen Abbildungen von
3
f (x) = Ax + b (x ∈ R3 ).
Die isometrischen Abbildungen von
R3
heiÿen (euklidische) Bewegungen und sie bilden eine Gruppe
bzgl. Verkettung von Abbildungen (weil
O3 (R)
eine Gruppe ist).
Sei zunächst f : R3 → R3 eine isometrische Abbildung mit f (0) = 0. Wir müssen zeigen, dass f dann linear ist.
Zunächst gilt
|f (z)| = |f (z) − f (0)| = |z − 0| = |z|
für alle z ∈
R3 .
Sei nun x ∈
R3
(1)
\ {0} und λ ∈ R \ {0}. Dann gilt nach (1)
|f (λx)| = |λ||x| = |λ||f (x)|.
(2)
Die Idee ist nun mithilfe des cauchy-schwarzschen Satzes (Gleichheit in der cauchy-schwarzschen Ungleichung kann nur
gelten, wenn die beiden auftretenden Vektoren linear abhängig sind) zu zeigen, dass f (λx) und λf (x) linear abhängig
sind. Wegen (1) gilt
|f (λx) − f (x)|2 = |λx − x|2 = (λ − 1)2 |x|2 = (λ − 1)2 |f (x)|2 = |λf (x) − f (x)|2
und damit (schreibe linke und rechte Seite aus)
λ2 |f (x)|2 − 2hf (λx), f (x)i + |f (x)|2 = λ2 |f (x)|2 − 2hλf (x), f (x)i + |f (x)|2 ,
das heiÿt,
hf (λx), f (x)i = hλf (x), f (x)i,
(3)
woraus wegen (2) mithilfe des cauchy-schwarzschen Satzes folgt, dass f (λx) und λf (x) linear abhängig sind. Also f (λx) =
±λf (x) und wegen (3) muss f (λx) = λf (x) gelten, wie gewünscht. Jetzt müssen wir noch die Additivität von f zeigen.
Seien also x, y ∈ R3 \ {0}. Dann gilt wegen (1)
|f (x + y)|2 − 2hf (x + y), f (y)i + |f (y)|2 = |f (x + y) − f (y)|2 = |(x + y) − y|2
= |f (x)|2 = |(f (x) + f (y)) − f (y)|2 = |f (x) + f (y)|2 − 2hf (x) + f (y), f (y)i + |f (y)|2 .
(4)
Wegen f (y) = −f (−y) (bereits gezeigt!) gilt nun
|f (x) + f (y)|2 = |f (x) − f (−y)|2 = |x + y|2 = |f (x + y)|2
und damit folgt aus (4), dass
hf (x + y) − f (x), f (y)i = hf (y), f (y)i,
(5)
woraus nun wegen |f (x + y) − f (x)| = |y| = |f (y)| mithilfe des cauchy-schwarzschen Satzes folgt, dass f (x + y) − f (x) und
f (y) linear abhängig sind. Also f (x + y) − f (x) = ±f (y) und wegen (5) muss f (x + y) − f (x) = f (y) gelten, wie gewünscht.
Also haben wir gezeigt, dass jede isometrische Abbildung f mit f (0) = 0 schon automatisch linear ist und damit natürlich
1
HM II Schneider
FAQ Woche 6
eine orthogonale Matrix A ∈ O3 (R) existiert mit f (x) = Ax für alle x ∈ R3 . Sei schlieÿlich f eine beliebige isometrische
Abbildung in R3 . Setzen wir dann b := f (0) und g(x) := f (x) − b, dann ist g isometrisch mit g(0) = 0 und aus obigem
folgt, dass A ∈ O3 (R) existiert mit f (x) − b = g(x) = Ax für x ∈ R3 , wie gewünscht.
Wir werden für den im dritten Abschnitt bewiesenen Satz vom Fuÿball die folgende Variante der
eben bewiesenen Aussage brauchen: zu jeder auf einer Vollkugel
f : U r (a) → R
b ∈ R3 , sodass
Abbildung
und ein
3
(mit
a∈R
3
und
r ∈ (0, ∞))
U r (a) ⊂ R3
denierten isometrischen
existiert genau wie oben ein
A ∈ O3 (R)
f (x) = Ax + b (x ∈ U r (a)).
Insbesondere ist
f
eindeutig fortsetzbar zu einer isometrischen Abbildung auf ganz
R3 .
Wie wirken die (speziell) orthogonalen Abbildungen von R3
geometrisch?
Sie haben in der Vorlesung erwähnt (Beispiel 51.5), dass jede orthogonale Abbildung
entweder eine Drehung oder eine Spiegelung ist: Wenn
wie üblich die Darstellungsmatrix von
[0, 2π),
f
f ist also eine
ϑ ∈ [0, 2π), sodass
Drehung um den Winkel
ϑ.
cos ϑ
sin ϑ
Wenn
Mf,K,K =
dann existiert ein
ϑ ∈
cos ϑ
sin ϑ
− sin ϑ
cos ϑ
det f = det Mf,K,K = −1
sin ϑ
− cos ϑ
ist, dann existiert ein
x-Achse den Winkel ϑ/2 einf : Rn → Rn heiÿt orthogonal genau dann, wenn sie
n
längen- und winkeltreu ist: hf (x), f (y)i = hx, yi für alle x, y ∈ R . Und sie heiÿt speziell orthogonal
genau dann, wenn sie orthogonal ist und det f = 1 gilt. Wie man sich leicht überlegt, ist eine lineare
n
n
Abbildung f : R → R (speziell) orthogonal genau dann, wenn die Darstellungsmatrix Mf,B,B von f
n
bzgl. einer (dann jeder) Orthonormalbasis B von R eine (speziell) orthogonale Matrix ist.)
und
f
ist (Mf,K,K bezeichnet
sodass
Mf,K,K =
und
det f = det Mf,K,K = 1
K von R2 ),
bzgl. der Standardbasis
f : R2 → R2
ist also eine Spiegelung an der Geraden, die mit der positiven
schlieÿt. (Zur Sprechweise: eine lineare Abbildung
Wir wollen nun die orthogonalen Abbildungen von
R3
geometrisch verstehen (womit wir dann nach
der Aussage des vorigen Abschnitts auch die geometrische Wirkung der Bewegungen von
3
3
R3
genau
3
f : R → R (kurz: f ∈ O(R )) gilt: Wenn
Drehung. Wenn det f = −1 ist (bzw. f ∈
/ SO(R3 )),
kennen). Wir zeigen, dass für eine orthogonale Abbildung
det f = 1 ist (bzw. f ∈ SO(R3 )), dann ist f eine
dann ist f eine Spiegelung (an einer Ebene) oder die
Verkettung einer Spiegelung (an einer Ebene) und
einer Drehung (mit Drehachse senkrecht zur Spiegelungsebene).
Sei also f : R3 → R3 eine orthogonale lineare Abbildung. Dann hat das charakteristische Polynom pf als Polynom
dritten Grades (nach Zwischenwertsatz) eine reelle Nullstelle λ0 ∈ R. Sei v1 ein normierter Eigenvektor zu dem Eigenwert
λ0 von f . Dann gilt wegen der Orthogonalität von f , dass
|λ0 | = |λ0 v1 | = |f (v1 )| = |v1 | = 1,
und darüberhinaus ist wegen der Orthogonalität von f neben dem Unterraum V := span{v1 } auch dessen orthogonales
Komplement W := V ⊥ invariant unter f . (Sei nämlich w ∈ W , dann gilt wegen der Invarianz von V unter f und wegen
dim f (V ) = dim V (f ist bijektiv!), dass f (V ) = V ist und damit hf (w), vi = hf (w), f (f −1 (v))i = hw, f −1 (v)i = 0 für alle
v ∈ V , das heiÿt, f (w) ∈ V ⊥ = W , wie gewünscht.) Also ist f |W eine orthogonale Abbildung W → W und damit ist f |W
nach Beispiel 51.5 (W ist ein 2-dimensionaler euklidischer Vektorraum!) entweder eine Drehung in W (falls det f |W = 1
ist) oder eine Spiegelung in W (falls det f |W = −1 ist).
2
HM II Schneider
FAQ Woche 6
• Sei det f = 1.
Wegen det f = λ0 det f |W ist dann entweder λ0 = 1 = det f |W = 1 oder λ0 = −1 = det f |W . Im ersten Fall ist f (v1 ) = v1
und f |W eine Drehung in W um den Winkel ϑ, das heiÿt f ist eine Drehung in R3 mit Achse span{v1 } um den Winkel
ϑ. Im zweiten Fall ist f (v1 ) = −v1 und f |W ist eine Spiegelung in W , das heiÿt, es gibt eine Orthonormalbasis {v2 , v3 }
von W mit f (v2 ) = −v2 und f (v3 ) = v3 und damit ist f eine Drehung mit Achse span{v3 } um den Winkel π .
• Sei det f = −1.
Wegen det f = λ0 det f |W ist dann entweder λ0 = 1 = − det f |W = 1 oder λ0 = −1 = − det f |W . Im ersten Fall ist
f (v1 ) = v1 und f |W ist eine Spiegelung in W , das heiÿt, es gibt eine Orthonormalbasis {v2 , v3 } von W mit f (v2 ) = v2
und f (v3 ) = −v3 und damit ist f eine Spiegelung an der Ebene span{v1 , v2 }. Im zweiten Fall ist f (v1 ) = −v1 und f |W
ist eine Drehung in W um den Winkel ϑ, das heiÿt, f ist die Verkettung einer Spiegelung an der Ebene span{v2 , v3 } und
einer Drehung mit Achse span{v1 } um den Winkel ϑ.
Der Satz vom Fuÿball
Aus gegebenem Anlass wollen wir hier einmal den folgenden sogenannten Satz vom Fuÿball beweisen.
Sei ein Fuÿball gegeben, der wie sich das bei einem anständigen Fuÿballspiel eben gehört zur Zeit
t1
(Beginn der ersten Halbzeit) und zur Zeit
t2
(Beginn der zweiten Halbzeit) genau auf dem Anstoÿ-
punkt liegt. Dann kann man auf der Oberäche des Fuÿballs (mit verschiedenen Farben) zwei Punkte
markieren, sodass sich jeder dieser beiden Punkte zur Zeit
bendet wie zur Zeit
t2
an derselben Stelle des Umgebungsraums
t1 .
Wir nehmen an, dass sich der Mittelpunkt des Balls zur Zeit t1 im Ursprung des Standardkoordinatensystems von R3
bendet, das heiÿt, der Ball zur Zeit t1 wird durch die Menge B0 := U r (0) beschrieben. Wir denieren nun f als diejenige
Abbildung B0 → R3 , die für jeden Punkt x ∈ B0 des Balls angibt, wo im Umgebungsraum er sich zur Zeit t2 bendet.
Die Idee ist zu zeigen, dass f eine speziell orthogonale Abbildung ist und damit eine Drehung (sodass also die Punkte der
Balloberäche, die auf der Drehachse liegen, von f festgelassen werden). Zunächst haben wir
f = fn ◦ · · · ◦ f1 ,
wobei n die Anzahl der Spielzüge im Zeitraum zwischen Anp t1 und Wiederanp t2 ist und die Abbildung fi : Bi−1 →
R3 den i-ten Spielzug beschreibt und die Mengen
B1 := f1 (B0 ), B2 := f2 (B1 ) = f2 ◦ f1 (B0 ), . . . , Bn = fn (Bn−1 ) = fn ◦ · · · ◦ f1 (B0 ) = f (B0 ) = B0
den Ball nach dem 1-ten, 2-ten, . . . , n-ten Spielzug beschreiben. Weil nun der Ball in keinem Spielzug verformt wird,
ist jede der Abbildungen fi : Bi−1 → R3 isometrisch, das heiÿt nach der im ersten Abschnitt dieses Zettels bewiesenen
Aussage (Bi−1 ist eine Vollkugel in R3 !), dass eine orthogonale Matrix Ai ∈ O3 (R) und ein Vektor bi ∈ R3 existieren mit
fi (x) = Ai x + bi
(x ∈ Bi−1 ).
Weil nun auÿerdem der Ball in keinem Spielzug umgestülpt wird, ist Ai ∈ SO3 (R) für alle i ∈ {1, . . . , n}. (Aufgrund der
im vorigen Abschnitt dieses Zettels bewiesenen Aussagen wäre fi andernfalls die Verkettung einer Spiegelung an einer
Ebene durch den Mittelpunkt zi−1 von Bi−1 mit einer Verschiebung oder mit einer Drehung und einer Verschiebung.
Und eine Spiegelung von Bi−1 an einer Ebene durch den Mittelpunkt zi−1 bedeutet eben gerade eine Umstülpung von
Bi−1 .) Wegen f (0) = 0 gilt schlieÿlich
f (x) = fn ◦ · · · ◦ f1 (x) = An · · · A1 x
für alle x ∈ B0 , das heiÿt, f ist speziell orthogonal (weil die Ai alle speziell orthogonal sind) und damit ist f eine Drehung
(nach den im vorigen Abschnitt bewiesenen Aussagen). Insbesondere lässt f die Drehachse fest, die Schnittpunkte x1 , x2
der Drehachse mit der Balloberäche ∂B0 sind also Punkte der gesuchten Art: f (x1 ) = x1 und f (x2 ) = x2 .
Wann genau kann man A, B ∈ Cn×n simultan diagonalisieren?
Wir wollen hier Aufgabe 31 ein klein wenig verschärfen: wir zeigen, dass für zwei diagonalisierbare
Matrizen
A, B ∈ Cn×n
folgende beiden Aussagen äquivalent sind:
3
HM II Schneider
FAQ Woche 6
(i)
A
und
B
sind sogar simultan diagonalisierbar
(ii)
A
und
B
vertauschen, das heiÿt:
AB = BA.
A und B heiÿen simultan diagonalisierbar genau dann, wenn ein invertierbares
S ∈ Cn×n existiert, sodass S −1 AS und S −1 BS beide diagonal sind. Simultane Diagonalisierbarkeit
n
von A und B bedeutet also, dass es eine Basis von C aus gemeinsamen Eigenvektoren von A und B
gibt (nämlich die Basis {Se1 , . . . , Sen }).)
(Sie erinnern sich:
Sie haben in Aufgabe 31 schon gezeigt, dass aus (i) Aussage (ii) folgt. Wir müssen also nur noch die umgekehrte
Implikation zeigen. Sei also Aussage (ii) erfüllt. Weil A nach Voraussetzung diagonalisierbar ist, existiert eine Basis von
Cn aus Eigenvektoren von A (Satz 53.2) und weil Eigenvektoren zu paarweise verschiedenen Eigenwerten linear unabhängig
sind (Satz 53.5 b)), gilt
Cn =
M
ker(A − λ) =
λ∈σ(A)
M
Eλ .
λ∈σ(A)
Die Idee ist nun, dass die Unterräume Eλ = ker(A − λ) für λ ∈ σ(A) nicht nur invariant unter A sind, sondern wegen
der Vertauschbarkeit von B mit A auch invariant unter B sind:
`
´
B ker(A − λ) ⊂ ker(A − λ).
Also ist B|Eλ für jedes λ ∈ σ(A) eine lineare Abbildung von Eλ in sich und weil B nach Voraussetzung diagonalisierbar
ist, ist auch B|Eλ diagonalisierbar (was man beispielsweise mit dem jordanschen Satz (Bemerkung 53.8) einsehen kann).
Das heiÿt, es gibt eine Basis {cλ 1 , . . . , cλ mλ } von Eλ aus Eigenvektoren von B|Eλ (und damit natürlich auch von B ).
Weil nun jedes cλ i als Element von Eλ \ {0} natürlich auch ein Eigenvektor von A ist, ist
[
C :=
{cλ 1 , . . . , cλ mλ }
λ∈σ(A)
n
eine Basis von
λ∈σ(A) Eλ = C aus gemeinsamen Eigenvektoren von A und B und damit sind A und B simultan
diagonalisierbar, wie gewünscht.
L
Analog zeigt man für zwei hermitesche Matrizen
A, B ∈ Cn×n
(nach dem Spektralsatz (Satz 54.4)
sind die auf jeden Fall schon mal jede für sich diagonalisierbar, und zwar sogar mit unitärem
S ),
dass
folgende beiden Aussagen äquivalent sind:
(i)
A und B sind sogar simultan unitär diagonalisierbar (anders gesagt: es gibt eine Orthonormalbasis
Cn aus gemeinsamen Eigenvektoren von A und B )
von
(ii)
A
und
B
vertauschen.
Wenn Sie das Wasserstoatom (oder allgemein: Quantenmechanik) verstehen wollen, dann ist diese
Aussage sehr wichtig für Sie: um das Wasserstoatom zu verstehen, bestimmt man nämlich eine Orthonormalbasis (eines unendlichdimensionalen Vektorraums) aus gemeinsamen Eigenvektoren dreier
paarweise vertauschender hermitescher linearer Abbildungen. Die obige Äquivalenzaussage im endlichdimensionalen Sonderfall macht plausibel, warum auch beim Wasserstoatom so eine Orthonormalbasis
aus gemeinsamen Eigenvektoren existiert. Aber das nur als Ausblick . . .
Was sind die Eigenwerte von p(A), wenn p ein Polynom ist und
die Eigenwerte von A ∈ Cn×n bekannt sind?
In der Vorlesung wurde der wichtige jordansche Satz erwähnt (Bemerkung 53.8): zu jeder Matrix
A ∈ Cn×n
das heiÿt:
gibt es eine invertierbare Matrix
J
S ∈ Cn×n ,
sodass
S −1 AS = J
Jordannormalform hat,
hat auÿerhalb der Diagonalen und der oberen Nebendiagonalen nur Null-Einträge und
auf der oberen Nebendiagonalen können die Einträge zudem nur
1
oder
0
4
J eine
A ∈ Cn×n
sein. Insbesondere ist
obere Dreiecksmatrix und damit besagt der jordansche Satz insbesondere, dass jede Matrix
HM II Schneider
FAQ Woche 6
trigonalisierbar ist (das heiÿt, ähnlich zu einer oberen Dreiecksmatrix ist).
Als kleine Anwendung des jordanschen Satzes wollen wir nun den folgenden sogenannten Spektralabbildungssatz beweisen: Sei
mit
ck ∈ C.
A ∈ Cn×n
und sei
p : C → C eine polynomiale Abbildung: p(z) =
Pm
k=0 ck z
k
Dann gilt
σ(p(A)) = p(σ(A)) = {p(λ) : λ ∈ σ(A)},
Pm
k
n×n
mit σ(B) die Menge der Eigenwerte
k=0 ck A und für eine Matrix B ∈ C
89
17
89
17
bezeichnet wird (auch Spektrum von B genannt). Also gilt beispeilsweise σ(3A + A ) = {3λ + λ
:
wobei natürlich
p(A) :=
λ ∈ σ(A)}.
Aufgrund des jordanschen Satzes existiert eine obere Dreiecksmatrix J und eine invertierbare Matrix S ∈ Cn×n ,
sodass A = SJS −1 . Der Witz ist nun erstens, dass mit J auch
von J k eine obere Dreiecksmatrix ist (vgl.
Pjede Potenz
k , und zweitens, dass das Spektrum von oberen
Aufgabe 18 d) der Vortragsübungen) und mithin auch p(J) = m
c
J
k=0 k
Dreiecksmatrizen ganz allgemein einfach die Menge der Diagonalelemente ist (Aufgabe 14 der Vortragsübungen). Also gilt
`
´
σ(p(J)) = { p(J) ll : l ∈ {1, . . . , n}} = {p(Jll ) : l ∈ {1, . . . , n}} = p(σ(J)),
`
´
wobei benutzt wurde, dass p(J) ll = p(Jll ) ist der l-te Diagonaleintrag (J k )ll der Potenz J k ist nämlich (vgl. Aufgabe 18
d)) gleich der Potenz (Jll )k des l-ten Diagonaleintrags. Wegen
Ak = (SJS −1 )k = SJS −1 SJS −1 · · · SJS −1 = SJ k S −1
gilt ferner p(A) = p(SJS −1 ) = S p(J) S −1 und damit folgt
σ(p(A)) = σ(S p(J) S −1 ) = σ(p(J)) = p(σ(J)) = p(σ(SJS −1 )) = p(σ(A)),
wie gewünscht. (Die Inklusion p(σ(A)) ⊂ σ(p(A)) kann man natürlich auch ganz elementar ohne den jordanschen Satz
zeigen, indem man erkennt, dass ein Eigenvektor v von A zum Eigenwert λ auch Eigenvektor von p(A) zum Eigenwert
p(λ) ist.)
Was hat das charakteristische Polynom einer skalaren linearen
Dierenzialgleichung mit dem charakteristischen Polynom von
Matrizen zu tun?
Wir betrachten eine homogene skalare lineare Dierenzialgleichung
y (n) + an−1 y (n−1) + · · · + a1 y 0 + a0 y = 0
mit konstanten Koezienten
a0 , . . . , an−1 ∈ C.
p mit
(6)
Sie haben bereits im ersten Semester gelernt, dass das
zugehörige charakteristische Polynom
p(z) = z n + an−1 z n−1 + · · · + a1 z + a0
die entscheidende Rolle bei der Lösung von (6) spielt. Wir wollen hier zeigen, dass
Polynom
pA
der Matrix
A ∈ Cn×n
p das charakteristische
ist, die zu dem System erster Ordnung gehört, das der Ausgangs-
gleichung (6) (n-ter Ordnung!) entspricht. (Die beiden Sprachgebräuche des Begris charakteristisches
Polynom sind also miteinander vereinbar.)
Was ist
A?
Wie überführt man die Gleichung (6)
n-ter
Ordnung in ein System von
erster Ordnung? Das geht so: man setzt
y0 := y, y1 := y 0 , . . . , yn−1 := y (n−1) ,
5
n
Gleichungen
HM II Schneider
FAQ Woche 6
womit dann aufgrund der Ausgangsgleichung (6) folgt, dass
0
0
y00 = y1 , y10 = y2 , . . . , yn−2
= yn−1 , yn−1
= −an−1 yn−1 − · · · − a1 y1 − a0 y0
w := (y0 , y1 , . . . , yn−1 )t
 0  
0
1
y0
 y10  
0
1
 

 ..  
0
..
..
w = . =
.
.
 

0
 
yn−2
0
0
−a0 −a1 . . . −an−2
yn−1
oder in Vektorschreibweise mit


y0
  y1 


  .. 
  .  = Aw.


1  yn−2 
yn−1
−an−1
(7)
Das ist das zur Ausgangsgleichung (6) gehörige System erster Ordnung, das wie man sofort sieht äquivalent ist zu (6). Wir zeigen nun, wie angekündigt, dass das charakteristische Polynom
gleich dem charakteristischen Polynom
pA
der Matrix
0
−1
z
z
B
B
B
pA (z) = det(z − A) = det B
B
@
A
von (6)
1
−1
..
.
..
.
z
a0
p
in (7) ist.
a1
...
an−2
−1
z + an−1
C
C
C
C
C
A
(z ∈ C).
Wenn wir nun im ersten Schritt nach der letzten Spalte entwickeln und in allen weiteren Schritten einerseits (für den
ersten Summanden) beachten, dass die Determinante einer oberen Dreiecksmatrix das Produkt der Diagonalelemente ist,
und andererseits (für den zweiten Summanden) wieder nach der letzten Spalte entwickeln, so erhalten wir für alle z ∈ C
0
B
B
pA (z) = (−1)n+n (z + an−1 ) det B
@
z
−1
z
−1
..
.
1
0
C
C
B
B
z
+ (−1)n−1+n (−1) det B
.. C
@
.A
z
= (z + an−1 )z n−1 + an−2 z n−2 + · · · + a1 z + a0 = p(z),
wie behauptet.
6
a0
−1
z
1
−1
..
a1
.
...
C
C
.. C
. A
an−2
Herunterladen