HM II Schneider FAQ Woche 6 FAQs der Vorlesungswoche 6 Was sind die isometrischen Abbildungen von R3 (Bewegungsgruppe von R3)? Sie wissen aus der Vorlesung (Denition 51.1), dass orthogonale Matrizen A ∈ O3 (R) isometrisch (abstandserhaltend) sind: |Ax − Ay| = |x − y| (x, y ∈ R3 ). Wir wollen hier umgekehrt zeigen, dass dies (die orthogonalen linearen Abbildungen) bis auf Verschie- R3 sind, genauer: dass für jede beliebige isometrische 3 3 3 Abbildung f von R (das heiÿt, jede Abbildung f : R → R mit |f (x) − f (y)| = |x − y| für x, y ∈ R ) 3 eine orthogonale Matrix A ∈ O3 (R) und ein Vektor b ∈ R existieren, sodass bungen schon alle isometrischen Abbildungen von 3 f (x) = Ax + b (x ∈ R3 ). Die isometrischen Abbildungen von R3 heiÿen (euklidische) Bewegungen und sie bilden eine Gruppe bzgl. Verkettung von Abbildungen (weil O3 (R) eine Gruppe ist). Sei zunächst f : R3 → R3 eine isometrische Abbildung mit f (0) = 0. Wir müssen zeigen, dass f dann linear ist. Zunächst gilt |f (z)| = |f (z) − f (0)| = |z − 0| = |z| für alle z ∈ R3 . Sei nun x ∈ R3 (1) \ {0} und λ ∈ R \ {0}. Dann gilt nach (1) |f (λx)| = |λ||x| = |λ||f (x)|. (2) Die Idee ist nun mithilfe des cauchy-schwarzschen Satzes (Gleichheit in der cauchy-schwarzschen Ungleichung kann nur gelten, wenn die beiden auftretenden Vektoren linear abhängig sind) zu zeigen, dass f (λx) und λf (x) linear abhängig sind. Wegen (1) gilt |f (λx) − f (x)|2 = |λx − x|2 = (λ − 1)2 |x|2 = (λ − 1)2 |f (x)|2 = |λf (x) − f (x)|2 und damit (schreibe linke und rechte Seite aus) λ2 |f (x)|2 − 2hf (λx), f (x)i + |f (x)|2 = λ2 |f (x)|2 − 2hλf (x), f (x)i + |f (x)|2 , das heiÿt, hf (λx), f (x)i = hλf (x), f (x)i, (3) woraus wegen (2) mithilfe des cauchy-schwarzschen Satzes folgt, dass f (λx) und λf (x) linear abhängig sind. Also f (λx) = ±λf (x) und wegen (3) muss f (λx) = λf (x) gelten, wie gewünscht. Jetzt müssen wir noch die Additivität von f zeigen. Seien also x, y ∈ R3 \ {0}. Dann gilt wegen (1) |f (x + y)|2 − 2hf (x + y), f (y)i + |f (y)|2 = |f (x + y) − f (y)|2 = |(x + y) − y|2 = |f (x)|2 = |(f (x) + f (y)) − f (y)|2 = |f (x) + f (y)|2 − 2hf (x) + f (y), f (y)i + |f (y)|2 . (4) Wegen f (y) = −f (−y) (bereits gezeigt!) gilt nun |f (x) + f (y)|2 = |f (x) − f (−y)|2 = |x + y|2 = |f (x + y)|2 und damit folgt aus (4), dass hf (x + y) − f (x), f (y)i = hf (y), f (y)i, (5) woraus nun wegen |f (x + y) − f (x)| = |y| = |f (y)| mithilfe des cauchy-schwarzschen Satzes folgt, dass f (x + y) − f (x) und f (y) linear abhängig sind. Also f (x + y) − f (x) = ±f (y) und wegen (5) muss f (x + y) − f (x) = f (y) gelten, wie gewünscht. Also haben wir gezeigt, dass jede isometrische Abbildung f mit f (0) = 0 schon automatisch linear ist und damit natürlich 1 HM II Schneider FAQ Woche 6 eine orthogonale Matrix A ∈ O3 (R) existiert mit f (x) = Ax für alle x ∈ R3 . Sei schlieÿlich f eine beliebige isometrische Abbildung in R3 . Setzen wir dann b := f (0) und g(x) := f (x) − b, dann ist g isometrisch mit g(0) = 0 und aus obigem folgt, dass A ∈ O3 (R) existiert mit f (x) − b = g(x) = Ax für x ∈ R3 , wie gewünscht. Wir werden für den im dritten Abschnitt bewiesenen Satz vom Fuÿball die folgende Variante der eben bewiesenen Aussage brauchen: zu jeder auf einer Vollkugel f : U r (a) → R b ∈ R3 , sodass Abbildung und ein 3 (mit a∈R 3 und r ∈ (0, ∞)) U r (a) ⊂ R3 denierten isometrischen existiert genau wie oben ein A ∈ O3 (R) f (x) = Ax + b (x ∈ U r (a)). Insbesondere ist f eindeutig fortsetzbar zu einer isometrischen Abbildung auf ganz R3 . Wie wirken die (speziell) orthogonalen Abbildungen von R3 geometrisch? Sie haben in der Vorlesung erwähnt (Beispiel 51.5), dass jede orthogonale Abbildung entweder eine Drehung oder eine Spiegelung ist: Wenn wie üblich die Darstellungsmatrix von [0, 2π), f f ist also eine ϑ ∈ [0, 2π), sodass Drehung um den Winkel ϑ. cos ϑ sin ϑ Wenn Mf,K,K = dann existiert ein ϑ ∈ cos ϑ sin ϑ − sin ϑ cos ϑ det f = det Mf,K,K = −1 sin ϑ − cos ϑ ist, dann existiert ein x-Achse den Winkel ϑ/2 einf : Rn → Rn heiÿt orthogonal genau dann, wenn sie n längen- und winkeltreu ist: hf (x), f (y)i = hx, yi für alle x, y ∈ R . Und sie heiÿt speziell orthogonal genau dann, wenn sie orthogonal ist und det f = 1 gilt. Wie man sich leicht überlegt, ist eine lineare n n Abbildung f : R → R (speziell) orthogonal genau dann, wenn die Darstellungsmatrix Mf,B,B von f n bzgl. einer (dann jeder) Orthonormalbasis B von R eine (speziell) orthogonale Matrix ist.) und f ist (Mf,K,K bezeichnet sodass Mf,K,K = und det f = det Mf,K,K = 1 K von R2 ), bzgl. der Standardbasis f : R2 → R2 ist also eine Spiegelung an der Geraden, die mit der positiven schlieÿt. (Zur Sprechweise: eine lineare Abbildung Wir wollen nun die orthogonalen Abbildungen von R3 geometrisch verstehen (womit wir dann nach der Aussage des vorigen Abschnitts auch die geometrische Wirkung der Bewegungen von 3 3 R3 genau 3 f : R → R (kurz: f ∈ O(R )) gilt: Wenn Drehung. Wenn det f = −1 ist (bzw. f ∈ / SO(R3 )), kennen). Wir zeigen, dass für eine orthogonale Abbildung det f = 1 ist (bzw. f ∈ SO(R3 )), dann ist f eine dann ist f eine Spiegelung (an einer Ebene) oder die Verkettung einer Spiegelung (an einer Ebene) und einer Drehung (mit Drehachse senkrecht zur Spiegelungsebene). Sei also f : R3 → R3 eine orthogonale lineare Abbildung. Dann hat das charakteristische Polynom pf als Polynom dritten Grades (nach Zwischenwertsatz) eine reelle Nullstelle λ0 ∈ R. Sei v1 ein normierter Eigenvektor zu dem Eigenwert λ0 von f . Dann gilt wegen der Orthogonalität von f , dass |λ0 | = |λ0 v1 | = |f (v1 )| = |v1 | = 1, und darüberhinaus ist wegen der Orthogonalität von f neben dem Unterraum V := span{v1 } auch dessen orthogonales Komplement W := V ⊥ invariant unter f . (Sei nämlich w ∈ W , dann gilt wegen der Invarianz von V unter f und wegen dim f (V ) = dim V (f ist bijektiv!), dass f (V ) = V ist und damit hf (w), vi = hf (w), f (f −1 (v))i = hw, f −1 (v)i = 0 für alle v ∈ V , das heiÿt, f (w) ∈ V ⊥ = W , wie gewünscht.) Also ist f |W eine orthogonale Abbildung W → W und damit ist f |W nach Beispiel 51.5 (W ist ein 2-dimensionaler euklidischer Vektorraum!) entweder eine Drehung in W (falls det f |W = 1 ist) oder eine Spiegelung in W (falls det f |W = −1 ist). 2 HM II Schneider FAQ Woche 6 • Sei det f = 1. Wegen det f = λ0 det f |W ist dann entweder λ0 = 1 = det f |W = 1 oder λ0 = −1 = det f |W . Im ersten Fall ist f (v1 ) = v1 und f |W eine Drehung in W um den Winkel ϑ, das heiÿt f ist eine Drehung in R3 mit Achse span{v1 } um den Winkel ϑ. Im zweiten Fall ist f (v1 ) = −v1 und f |W ist eine Spiegelung in W , das heiÿt, es gibt eine Orthonormalbasis {v2 , v3 } von W mit f (v2 ) = −v2 und f (v3 ) = v3 und damit ist f eine Drehung mit Achse span{v3 } um den Winkel π . • Sei det f = −1. Wegen det f = λ0 det f |W ist dann entweder λ0 = 1 = − det f |W = 1 oder λ0 = −1 = − det f |W . Im ersten Fall ist f (v1 ) = v1 und f |W ist eine Spiegelung in W , das heiÿt, es gibt eine Orthonormalbasis {v2 , v3 } von W mit f (v2 ) = v2 und f (v3 ) = −v3 und damit ist f eine Spiegelung an der Ebene span{v1 , v2 }. Im zweiten Fall ist f (v1 ) = −v1 und f |W ist eine Drehung in W um den Winkel ϑ, das heiÿt, f ist die Verkettung einer Spiegelung an der Ebene span{v2 , v3 } und einer Drehung mit Achse span{v1 } um den Winkel ϑ. Der Satz vom Fuÿball Aus gegebenem Anlass wollen wir hier einmal den folgenden sogenannten Satz vom Fuÿball beweisen. Sei ein Fuÿball gegeben, der wie sich das bei einem anständigen Fuÿballspiel eben gehört zur Zeit t1 (Beginn der ersten Halbzeit) und zur Zeit t2 (Beginn der zweiten Halbzeit) genau auf dem Anstoÿ- punkt liegt. Dann kann man auf der Oberäche des Fuÿballs (mit verschiedenen Farben) zwei Punkte markieren, sodass sich jeder dieser beiden Punkte zur Zeit bendet wie zur Zeit t2 an derselben Stelle des Umgebungsraums t1 . Wir nehmen an, dass sich der Mittelpunkt des Balls zur Zeit t1 im Ursprung des Standardkoordinatensystems von R3 bendet, das heiÿt, der Ball zur Zeit t1 wird durch die Menge B0 := U r (0) beschrieben. Wir denieren nun f als diejenige Abbildung B0 → R3 , die für jeden Punkt x ∈ B0 des Balls angibt, wo im Umgebungsraum er sich zur Zeit t2 bendet. Die Idee ist zu zeigen, dass f eine speziell orthogonale Abbildung ist und damit eine Drehung (sodass also die Punkte der Balloberäche, die auf der Drehachse liegen, von f festgelassen werden). Zunächst haben wir f = fn ◦ · · · ◦ f1 , wobei n die Anzahl der Spielzüge im Zeitraum zwischen Anp t1 und Wiederanp t2 ist und die Abbildung fi : Bi−1 → R3 den i-ten Spielzug beschreibt und die Mengen B1 := f1 (B0 ), B2 := f2 (B1 ) = f2 ◦ f1 (B0 ), . . . , Bn = fn (Bn−1 ) = fn ◦ · · · ◦ f1 (B0 ) = f (B0 ) = B0 den Ball nach dem 1-ten, 2-ten, . . . , n-ten Spielzug beschreiben. Weil nun der Ball in keinem Spielzug verformt wird, ist jede der Abbildungen fi : Bi−1 → R3 isometrisch, das heiÿt nach der im ersten Abschnitt dieses Zettels bewiesenen Aussage (Bi−1 ist eine Vollkugel in R3 !), dass eine orthogonale Matrix Ai ∈ O3 (R) und ein Vektor bi ∈ R3 existieren mit fi (x) = Ai x + bi (x ∈ Bi−1 ). Weil nun auÿerdem der Ball in keinem Spielzug umgestülpt wird, ist Ai ∈ SO3 (R) für alle i ∈ {1, . . . , n}. (Aufgrund der im vorigen Abschnitt dieses Zettels bewiesenen Aussagen wäre fi andernfalls die Verkettung einer Spiegelung an einer Ebene durch den Mittelpunkt zi−1 von Bi−1 mit einer Verschiebung oder mit einer Drehung und einer Verschiebung. Und eine Spiegelung von Bi−1 an einer Ebene durch den Mittelpunkt zi−1 bedeutet eben gerade eine Umstülpung von Bi−1 .) Wegen f (0) = 0 gilt schlieÿlich f (x) = fn ◦ · · · ◦ f1 (x) = An · · · A1 x für alle x ∈ B0 , das heiÿt, f ist speziell orthogonal (weil die Ai alle speziell orthogonal sind) und damit ist f eine Drehung (nach den im vorigen Abschnitt bewiesenen Aussagen). Insbesondere lässt f die Drehachse fest, die Schnittpunkte x1 , x2 der Drehachse mit der Balloberäche ∂B0 sind also Punkte der gesuchten Art: f (x1 ) = x1 und f (x2 ) = x2 . Wann genau kann man A, B ∈ Cn×n simultan diagonalisieren? Wir wollen hier Aufgabe 31 ein klein wenig verschärfen: wir zeigen, dass für zwei diagonalisierbare Matrizen A, B ∈ Cn×n folgende beiden Aussagen äquivalent sind: 3 HM II Schneider FAQ Woche 6 (i) A und B sind sogar simultan diagonalisierbar (ii) A und B vertauschen, das heiÿt: AB = BA. A und B heiÿen simultan diagonalisierbar genau dann, wenn ein invertierbares S ∈ Cn×n existiert, sodass S −1 AS und S −1 BS beide diagonal sind. Simultane Diagonalisierbarkeit n von A und B bedeutet also, dass es eine Basis von C aus gemeinsamen Eigenvektoren von A und B gibt (nämlich die Basis {Se1 , . . . , Sen }).) (Sie erinnern sich: Sie haben in Aufgabe 31 schon gezeigt, dass aus (i) Aussage (ii) folgt. Wir müssen also nur noch die umgekehrte Implikation zeigen. Sei also Aussage (ii) erfüllt. Weil A nach Voraussetzung diagonalisierbar ist, existiert eine Basis von Cn aus Eigenvektoren von A (Satz 53.2) und weil Eigenvektoren zu paarweise verschiedenen Eigenwerten linear unabhängig sind (Satz 53.5 b)), gilt Cn = M ker(A − λ) = λ∈σ(A) M Eλ . λ∈σ(A) Die Idee ist nun, dass die Unterräume Eλ = ker(A − λ) für λ ∈ σ(A) nicht nur invariant unter A sind, sondern wegen der Vertauschbarkeit von B mit A auch invariant unter B sind: ` ´ B ker(A − λ) ⊂ ker(A − λ). Also ist B|Eλ für jedes λ ∈ σ(A) eine lineare Abbildung von Eλ in sich und weil B nach Voraussetzung diagonalisierbar ist, ist auch B|Eλ diagonalisierbar (was man beispielsweise mit dem jordanschen Satz (Bemerkung 53.8) einsehen kann). Das heiÿt, es gibt eine Basis {cλ 1 , . . . , cλ mλ } von Eλ aus Eigenvektoren von B|Eλ (und damit natürlich auch von B ). Weil nun jedes cλ i als Element von Eλ \ {0} natürlich auch ein Eigenvektor von A ist, ist [ C := {cλ 1 , . . . , cλ mλ } λ∈σ(A) n eine Basis von λ∈σ(A) Eλ = C aus gemeinsamen Eigenvektoren von A und B und damit sind A und B simultan diagonalisierbar, wie gewünscht. L Analog zeigt man für zwei hermitesche Matrizen A, B ∈ Cn×n (nach dem Spektralsatz (Satz 54.4) sind die auf jeden Fall schon mal jede für sich diagonalisierbar, und zwar sogar mit unitärem S ), dass folgende beiden Aussagen äquivalent sind: (i) A und B sind sogar simultan unitär diagonalisierbar (anders gesagt: es gibt eine Orthonormalbasis Cn aus gemeinsamen Eigenvektoren von A und B ) von (ii) A und B vertauschen. Wenn Sie das Wasserstoatom (oder allgemein: Quantenmechanik) verstehen wollen, dann ist diese Aussage sehr wichtig für Sie: um das Wasserstoatom zu verstehen, bestimmt man nämlich eine Orthonormalbasis (eines unendlichdimensionalen Vektorraums) aus gemeinsamen Eigenvektoren dreier paarweise vertauschender hermitescher linearer Abbildungen. Die obige Äquivalenzaussage im endlichdimensionalen Sonderfall macht plausibel, warum auch beim Wasserstoatom so eine Orthonormalbasis aus gemeinsamen Eigenvektoren existiert. Aber das nur als Ausblick . . . Was sind die Eigenwerte von p(A), wenn p ein Polynom ist und die Eigenwerte von A ∈ Cn×n bekannt sind? In der Vorlesung wurde der wichtige jordansche Satz erwähnt (Bemerkung 53.8): zu jeder Matrix A ∈ Cn×n das heiÿt: gibt es eine invertierbare Matrix J S ∈ Cn×n , sodass S −1 AS = J Jordannormalform hat, hat auÿerhalb der Diagonalen und der oberen Nebendiagonalen nur Null-Einträge und auf der oberen Nebendiagonalen können die Einträge zudem nur 1 oder 0 4 J eine A ∈ Cn×n sein. Insbesondere ist obere Dreiecksmatrix und damit besagt der jordansche Satz insbesondere, dass jede Matrix HM II Schneider FAQ Woche 6 trigonalisierbar ist (das heiÿt, ähnlich zu einer oberen Dreiecksmatrix ist). Als kleine Anwendung des jordanschen Satzes wollen wir nun den folgenden sogenannten Spektralabbildungssatz beweisen: Sei mit ck ∈ C. A ∈ Cn×n und sei p : C → C eine polynomiale Abbildung: p(z) = Pm k=0 ck z k Dann gilt σ(p(A)) = p(σ(A)) = {p(λ) : λ ∈ σ(A)}, Pm k n×n mit σ(B) die Menge der Eigenwerte k=0 ck A und für eine Matrix B ∈ C 89 17 89 17 bezeichnet wird (auch Spektrum von B genannt). Also gilt beispeilsweise σ(3A + A ) = {3λ + λ : wobei natürlich p(A) := λ ∈ σ(A)}. Aufgrund des jordanschen Satzes existiert eine obere Dreiecksmatrix J und eine invertierbare Matrix S ∈ Cn×n , sodass A = SJS −1 . Der Witz ist nun erstens, dass mit J auch von J k eine obere Dreiecksmatrix ist (vgl. Pjede Potenz k , und zweitens, dass das Spektrum von oberen Aufgabe 18 d) der Vortragsübungen) und mithin auch p(J) = m c J k=0 k Dreiecksmatrizen ganz allgemein einfach die Menge der Diagonalelemente ist (Aufgabe 14 der Vortragsübungen). Also gilt ` ´ σ(p(J)) = { p(J) ll : l ∈ {1, . . . , n}} = {p(Jll ) : l ∈ {1, . . . , n}} = p(σ(J)), ` ´ wobei benutzt wurde, dass p(J) ll = p(Jll ) ist der l-te Diagonaleintrag (J k )ll der Potenz J k ist nämlich (vgl. Aufgabe 18 d)) gleich der Potenz (Jll )k des l-ten Diagonaleintrags. Wegen Ak = (SJS −1 )k = SJS −1 SJS −1 · · · SJS −1 = SJ k S −1 gilt ferner p(A) = p(SJS −1 ) = S p(J) S −1 und damit folgt σ(p(A)) = σ(S p(J) S −1 ) = σ(p(J)) = p(σ(J)) = p(σ(SJS −1 )) = p(σ(A)), wie gewünscht. (Die Inklusion p(σ(A)) ⊂ σ(p(A)) kann man natürlich auch ganz elementar ohne den jordanschen Satz zeigen, indem man erkennt, dass ein Eigenvektor v von A zum Eigenwert λ auch Eigenvektor von p(A) zum Eigenwert p(λ) ist.) Was hat das charakteristische Polynom einer skalaren linearen Dierenzialgleichung mit dem charakteristischen Polynom von Matrizen zu tun? Wir betrachten eine homogene skalare lineare Dierenzialgleichung y (n) + an−1 y (n−1) + · · · + a1 y 0 + a0 y = 0 mit konstanten Koezienten a0 , . . . , an−1 ∈ C. p mit (6) Sie haben bereits im ersten Semester gelernt, dass das zugehörige charakteristische Polynom p(z) = z n + an−1 z n−1 + · · · + a1 z + a0 die entscheidende Rolle bei der Lösung von (6) spielt. Wir wollen hier zeigen, dass Polynom pA der Matrix A ∈ Cn×n p das charakteristische ist, die zu dem System erster Ordnung gehört, das der Ausgangs- gleichung (6) (n-ter Ordnung!) entspricht. (Die beiden Sprachgebräuche des Begris charakteristisches Polynom sind also miteinander vereinbar.) Was ist A? Wie überführt man die Gleichung (6) n-ter Ordnung in ein System von erster Ordnung? Das geht so: man setzt y0 := y, y1 := y 0 , . . . , yn−1 := y (n−1) , 5 n Gleichungen HM II Schneider FAQ Woche 6 womit dann aufgrund der Ausgangsgleichung (6) folgt, dass 0 0 y00 = y1 , y10 = y2 , . . . , yn−2 = yn−1 , yn−1 = −an−1 yn−1 − · · · − a1 y1 − a0 y0 w := (y0 , y1 , . . . , yn−1 )t 0 0 1 y0 y10 0 1 .. 0 .. .. w = . = . . 0 yn−2 0 0 −a0 −a1 . . . −an−2 yn−1 oder in Vektorschreibweise mit y0 y1 .. . = Aw. 1 yn−2 yn−1 −an−1 (7) Das ist das zur Ausgangsgleichung (6) gehörige System erster Ordnung, das wie man sofort sieht äquivalent ist zu (6). Wir zeigen nun, wie angekündigt, dass das charakteristische Polynom gleich dem charakteristischen Polynom pA der Matrix 0 −1 z z B B B pA (z) = det(z − A) = det B B @ A von (6) 1 −1 .. . .. . z a0 p in (7) ist. a1 ... an−2 −1 z + an−1 C C C C C A (z ∈ C). Wenn wir nun im ersten Schritt nach der letzten Spalte entwickeln und in allen weiteren Schritten einerseits (für den ersten Summanden) beachten, dass die Determinante einer oberen Dreiecksmatrix das Produkt der Diagonalelemente ist, und andererseits (für den zweiten Summanden) wieder nach der letzten Spalte entwickeln, so erhalten wir für alle z ∈ C 0 B B pA (z) = (−1)n+n (z + an−1 ) det B @ z −1 z −1 .. . 1 0 C C B B z + (−1)n−1+n (−1) det B .. C @ .A z = (z + an−1 )z n−1 + an−2 z n−2 + · · · + a1 z + a0 = p(z), wie behauptet. 6 a0 −1 z 1 −1 .. a1 . ... C C .. C . A an−2