Kapitel 6 Nicht-entartete Bilinearformen 6.1 Topologie im IRn x1 Auf dem euklidischen n-dimensionalen Raum IRn ist die Länge eines Vektors ~x = ... durch xn q k~xk := x21 + x22 + ... + x2n definiert. Für 2 Vektoren ~x, ~y ∈ IR n definieren wir das Skalarprodukt als ~x · ~y := n X xj y j j=1 Wir haben dann folgende Regeln 6.1.1 Hilfssatz. Es gilt a) k~xk2 = ~x · ~x und k~xk = 0 genau dann, wenn ~x = ~0. Weiter haben wir ~x · ~y = ~y · ~x und damit k~x + ~yk2 = k~xk2 + k~yk2 + 2~x · ~y. b) kλ~xk = |λ|k~xk, wenn λ ∈ IR, ~x ∈ IR n c) Cauchy-Schwarz-Ungleichung: Für ~x, ~y ∈ IRn ist stets |~x · ~y| ≤ k~xkk~yk und Gleichheit gilt genau dann, wenn ~x und ~y linear abhängig sind, d) Es gilt die Dreiecksungleichung k~x + ~yk ≤ k~xk + k~yk für ~x, ~y ∈ IRn . 1 (6.1.1) 2 KAPITEL 6. NICHT-ENTARTETE BILINEARFORMEN Beweis. a) und b) können durch Nachrechnen bestätigt werden. Zu c) Wir berechnen für t ∈ IR den Ausdruck f (t) := k~x + t~yk2 und erhalten f (t) = k~xk2 + t2 k~yk2 + 2t~x · ~y Wenn ~y = ~0, ist nichts zu zeigen, wenn nun ~y 6= ~0, wählen wir t := −~x · ~y /k~yk2 und erhalten k~xk2 − (~x · ~y)2 ~x · ~y = f (− )≥0 k~y k2 k~y k2 Gilt Gleichheit, so wird f (− k~~xy·~ky2 ) = 0, also k~x − Das bedeutet, dass ~x = ~ x·~ y ~y k~ y k2 ~x · ~y ~y k = 0 k~y k2 ein Vielfaches von ~y ist. Ist umgekehrt ~x ein Vielfaches von ~y, so besteht in (6.1.1) Gleichheit, wie aus a) und b) folgt. Zu d) Wir rechnen aus k~x + ~yk2 = k~xk2 + k~yk2 + 2~x · ~y Nun ist aber nach c) |~x · ~y| ≤ k~xkk~yk, also k~xk2 + k~yk2 + 2~x · ~y ≤ k~xk2 + k~yk2 + 2k~xkk~yk = (k~xk + k~yk2 )2 Daraus folgt die Dreiecksungleichung. n Folgerung. Für ~x, ~y ∈ IR gilt |k~xk − k~yk| ≤ k~x − ~yk. Durch die Längenmessung wird ein Abstandsbegriff erklärt: Definition. a) Für ~x, ~y ∈ IRn bezeichnet k~x − ~yk den Abstand zwischen ~x und ~y (angesehen als Punkte im IRn ). b) Für ~a ∈ IRn und r > 0 sei B(~a, r) := {~x ∈ IRn | k~x − ~ak < r} die ”Kugel” um ~a mit Radius r. (Für n = 2 ist B(~a, r) gerade der Kreis um ~a mit Radius r und im Fall n = 3 genau das, was auch sonst als Kugel bezeichnet wird). c) Wir nennen eine Menge U ⊂ IR n offen, wenn zu jedem Punkt ~a ∈ U ein Radius r > 0 derart gefunden werden kann, dass B(~a, r) ⊂ U . Die leere Menge ist per definitionem offen. Eine Menge heißt abgeschlossen, wenn ihr Komplement offen ist. Dann gilt folgendes über die Familie der offenen Mengen 6.1. TOPOLOGIE IM IRN 3 6.1.2 Hilfssatz. a) Eine Vereinigung beliebig vieler offener Teilmengen des IR n ist offen, ebenso der Durchschnitt endlich vieler offener Mengen. b) Eine Durchschnitt beliebig vieler abgeschlossener Teilmengen des IR n ist abgeschlossen, ebenso die Vereinigung endlich vieler abgeschlossener Mengen. Beweis. Ü.A. Auch das Konzept der konvergenten Folgen überträgt sich leicht auf den IRn : Definition. Eine Folge (~xj )j≥1 ⊂ IRn von Punkten wird als konvergent bezeichnet, wenn ein ~x0 ∈ IRn existiert (Limes dieser Folge genannt, so dass für jedes ε > 0 höchstens endlich viele Glieder der Folge nicht in B(~x0 , ε) gelegen sind. Wir schreiben wieder lim ~xj = ~x0 j→∞ Auch die folgende Kennzeichnung einer konvergenten Folge ist einfach einzusehen 6.1.3 Hilfssatz. Sei (~xj )j≥1 ⊂ IRn eine Folge und ~x0 ∈ IRn . Dann sind die nachstehenden Aussagen äquivalent a) Es gilt limj→∞ ~xj = ~x0 b) Zu jedem ε > 0 gibt es ein j0 ≥ 1, so dass für alle j ≥ j0 die Abschätzung k~xj − ~x0 k < ε besteht, c) sind xj,k die Komponenten von ~xj , k = 1, ..., n und x0,k diejenigen von ~x0 , so gilt lim xj,k = x0,k , k = 1, ..., n j→∞ Beweis. Ü.A. Definition. Sei M ⊂ IRn eine nichtleere Menge. Wir nennen ~x0 einen Häufungspunkt von M , wenn eine Folge (~xk )k ⊂ M von Punkten aus M existiert, so dass ~xk 6= ~x0 und limk→∞ ~xk = ~x0 . 6.1.4 Folgerung. a) Konvergiert eine Folge (~xj )j gegen ~x0 , so konvergiert die Folge (k~xj k)j gegen k~x0 k. b) Folgende Aussagen über eine Menge K sind äquivalent: i) K ist abgeschlossen ii) Ist (~xj )j ⊂ K eine Folge mit einem Grenzwert ~x0 , so gilt auch ~x0 ∈ K. c) Genau dann ist eine Menge M ⊂ IRn abgeschlossen, wenn alle Häufungspunkte von M wieder zu M gehören. Beweis. Sei zuerst K abgeschlossen und (~xj )j ⊂ K eine Folge mit Grenzwert ~x0 . Wäre ~x0 ∈ / K, n n so folgte aus der Offenheit von IR \ K, dass B(~x0 , r) ⊂ IR \ K für ein genügend kleines r > 0. Dann konnte aber B(~x0 , r) keines der ~xj enthalten, also auch ~x0 nicht Grenzwert dieser Folge sein. Umgekehrt angenommen, K sei nicht abgeschlossen, also IR n \ K nicht offen. Dann finden wir einen Punkt ~x0 ∈ / K, so dass mit keinem r > 0 die Bedingung B(~x0 , r) ⊂ IRn \ K erfüllt werden 4 KAPITEL 6. NICHT-ENTARTETE BILINEARFORMEN kann. Wählen wir jetzt r = 1/k, k ganz, so können wir Punkte ~xk so finden, dass ~xk ∈ B(~x0 , k1 ), aber ~xk ∈ / IRn \ K, also ~xk ∈ K. Nun gilt aber limk→∞ ~xk = ~x0 , ohne dass ~x0 ∈ K. Die Menge K erfüllt also unser Kriterium ii) nicht. Auch das Cauchy-Kriterium kann sinngemäß formuliert werden: Definition. Wir bezeichnen eine Folge (~xj )j≥1 ⊂ IRn als Cauchyfolge, wenn zu jedem ε > 0 eine Zahl j0 so gewählt werden kann, dass für alle j, k ≥ j0 gilt: k~xj − ~xk k < ε gilt. 6.1.5 Satz. Die konvergenten Folgen im IR n sind genau die Cauchyfolgen. Beweis. Das erhalten wir etwa durch ein Induktionsargument. Die Behauptung ist für n = 1 schon als richtig erkannt (Analysis I). Angenommen, sie gilt im IR n−1 . Ist dann (~xj )j≥1 ⊂ IRn eine Folge, so schreiben wir ~xj als ~xj = (~x0j , xj,n ) ∈ IRn−1 × IR. Dann haben wir k~x0j − ~x0k k ≤ k~xj − ~xk k, |xj,n − xk,n | ≤ k~xj − ~xk k √ √ √ und ebenso (wegen A + B ≤ A + B, für A, B ≥ 0) k~xj − ~xk k ≤ k~x0j − ~x0k k + |xj,n − xk,n | Das zeigt, dass (~xj )j genau dann eine Cauchyfolge ist, wenn dies auf die Folgen (~x0j )j und (xj,n )j zutrifft. Zusammen mit der Induktionsannahme ergibt sich nun, dass, sollte (~xj )j eine Cauchyfolge sein, die Folgen (~x0j )j und (xj,n )j konvergieren. Der obige Hilfssatz lehrt, dass dann auch (~xj )j einen Limes haben muss. Wenn umgekehrt (~xj )j konvergent ist, so gilt dies auch für Folgen (~x0j )j und (xj,n )j , welche dann aber Cauchyfolgen sein müssen. Wieder mit dem obigen Hilfssatz finden wir, dass auch Folge (~xj )j das Cauchykriterium erfüllt. Wir benötigen des öfteren den Begriff der Kompaktheit. Definition. Wir nennen eine Menge K ⊂ IR n beschränkt, wenn eine Schranke R > 0 existiert, so dass k~xk ≤ R für alle ~x ∈ K. Ferner heißt K kompakt, wenn jede Folge (~xj )j von Punkten aus K eine in K konvergente Teilfolge hat, also eine Teilfolge (~xjk )k mit einem Grenzwert ~x0 ∈ K. Diese Art von Kompaktheit nennt man auch Folgenkompaktheit. 6.1.6 Satz. Genau dann ist eine Menge K ⊂ IR n kompakt, wenn sie abgeschlossen und beschränkt ist. Beweis. Angenommen, K sei kompakt. Wäre dann K unbeschränkt, so könnte man eine Folge (~xj )j in K auswählen, für die k~xj k ≥ j für alle j.Für diese Folge kann es aber keine konvergente Teilfolge geben, da die Folge (k~xj k)j keine derartige Teilfolge besitzt. Somit ist K beschränkt. Wäre K nicht abgeschlossen, so fände sich eine Folge (~xj )j ⊂ K mit Grenzwert ~x0 ∈ / K. Aus einer solchen Folge ließe sich aber keine in K konvergente Teilfolge auswählen, Widerspruch. 6.1. TOPOLOGIE IM IRN 5 Umgekehrt nehmen wir nun an, K sei abgeschlossen und beschränkt. Sei jetzt (~xj )j ⊂ K eine Folge. Dann ist, wenn wieder xj,k die k.-te Komponente von ~xj bezeichnet, jede Folge (xj,k )j beschränkt, hat also nach dem Satz von Bolzano-Weierstraß eine konvergente Teilfolge. Wir nehmen zuerst eine konvergente Teilfolge (xjk1 ,1 )k1 von (xj,1 )j her. Die Folge (xjk1 ,2 )k1 hat eine konvergente Teilfolge (xjk2 ,2 )k2 , ebenso können wir aus (xjk2 ,3 )k2 eine konvergente Teilfolge auswählen. So fortfahrend, sehen wir, dass (~xj )j eine konvergente Teilfolge hat. Ihr Grenzwert liegt, da K abgeschlossen ist, wieder in K. Die nächste Kennzeichnung einer kompakten Menge ist ebenfalls grundlegend wichtig. 6.1.7 Satz (Heine-Borel). Genau dann ist eine Menge K ⊂ IR n kompakt, wenn zu jeder Überdeckung (Ui )i∈I von K durch offene Mengen Ui ⊂ IRn eine endliche Teilüberdeckung existiert, d.h.: Ist I eine beliebige Indexmenge und gilt K ⊂ ∪i∈I Ui , so gibt es eine endliche Teilmenge J ⊂ I, so dass schon K ⊂ ∪i∈J Ui . Beweis. Angenommen, zu jeder Überdeckung (Ui )i∈I von K durch offene Mengen Ui ⊂ IRn existiere eine endliche Teilüberdeckung. Gäbe es dann eine Folge (~xm )m ⊂ K, welche keine in K konvergente Teilfolge hat, so fände sich zu jedem ~x ∈ K ein Radius r(~x) > 0, so dass E~x := {m | ~xm ∈ B(~x, r(~x))} eine endliche Menge wäre. Dann wäre aber ( B(~x, r(~x) )~x∈K eine Überdeckung von K durch offene Mengen, müsste also eine endliche Teilüberdeckung haben, d.h.: Es gäbe endlich viele Punkte ~x1 , ...., ~x` ∈ K, so dass schon ` [ K⊂ B(~x` , r(~x` ) ). k=1 Dann hätte man jedoch IN = ` [ E~xk k=1 ein Widerspruch, da rechts eine endliche Menge steht. Umgekehrt nehmen wir jetzt an, K sei kompakt. Gegeben sei eine Überdeckung (Ui )i∈I von K durch offene Mengen Ui ⊂ IRn . Wir zeigen zuerst: (i) Es gibt ein δ > 0, so dass zu jedem ~x ∈ K ein Index i(~x) ∈ I so gewählt werden kann, dass B(~x, δ) ⊂ Ui(~x) . Anderenfalls fände man zu jedem m ∈ IN ein ~xm ∈ K, so dass B(~xm , m1 ) ⊂ Ui für kein i ∈ I erfüllt wäre. Die Folge (~xm )m hat aber eine konvergente Teilfolge mit Grenzwert ~x0 ∈ K. Wir wählen einen Index i0 ∈ I, so dass ~x0 ∈ Ui0 . Da Ui0 offen ist, liegt eine kleine Kugel B(~x, ε0 ) ganz in Ui0 . Wir finden nun aber auch Folgenglieder ~xm ∈ B(~x0 , ε0 /2), wobei 1/m < ε/2 ist. Dann wird aber 1 1 1 B(~xm , ) ⊂ B(~x0 , + ε0 ) ⊂ B(~x0 , ε0 ) ⊂ Ui0 m m 2 6 KAPITEL 6. NICHT-ENTARTETE BILINEARFORMEN Das widerspräche aber der Wahl der Folge (~x` )` . Das δ > 0 mit der in i) beschriebenen Eigenschaft steht also zur Verfügung. Der nächste Schritt ist S ii) Es gibt eine endliche Menge E ⊂ K mit K ⊂ ~a∈E B(~a, δ). Angenommen, eine solche Menge E ließe sich nicht finden. Sei ~x1 ∈ K beliebig. Da nun K 6⊂ B(~x1 , δ), gibt es einen Punkt ~x2 ∈ K, so dass ~x2 ∈ / B(~x1 , δ). Da auch K ⊂ B(~x1 , δ)∪B(~x2 , δ) nicht sein kann, gibt es ein ~x3 ∈ K, dass nicht zu B(~x1 , δ) ∪ B(~x2 , δ) gehört. So fortfahrend finden wir induktiv eine Folge (~xk )k ⊂ K, so dass ~xk ∈ / B(~x1 , δ) ∪ .... ∪ B(~xk−1 , δ) . Dann hat aber in dieser Folge jedes Glied vom anderen einen Abstand von mindestens δ. Es könnte also keine konvergente Teilfolge für diese Folge geben, was der Kompaktheit von K zuwiderliefe. Mit i) und ii) folgt sofort der Satz: Mit den Bezeichnungen aus i) haben wir nämlich [ [ K⊂ B(~a, δ) ⊂ Ui(~a) ~a∈E ~a∈E Stetigkeit Definition. Sei M ⊂ IRn eine Menge. a) Dann nennen wir eine Funktion f : M −→ IR in einem Punkt ~x0 ∈ M stetig, wenn gilt: • Zu jedem ε > 0 gibt es ein δ > 0, so dass für jedes ~x ∈ M ∩B(~x0 , δ) schon |f (~x)−f (~x0 )| < ε wird. ist. b) Eine Abbildung f : M −→ IRd wird in ~x0 ∈ M stetig genannt, jede Komponente von f es wir Beispiel. 1) Ist ~a ∈ IRn fest, so ist f (~x) := ~a ·~x in jedem Punkt ~x0 ∈ IRn stetig. Dazu beachten |f (~x) − f (~x0 )| = |~a · (~x − ~x0 )| ≤ k~akk~x − ~x0 k ε Ist also ε > 0, so wird |f (~x) − f (~x0 )| < ε, sofern k~x − ~x0 k < δ := 1+k~ wird. ak n n 2) Auch die Funktion F (~x, ~y) := ~x ·~y ist auf ganz IR × IR stetig. Um dies zu sehen, schätzen wir ab: |F (~x , ~y ) − F (~a, ~b)| = |(~x − ~a) · ~y − ~a · (~b − ~y)| ≤ k~x − ~akk~yk + k~y − ~bkk~ak ≤ k~x − ~ak(k~y − ~bk + k~bk) + k~y − ~bkk~ak Wenn nun ~a, ~b ∈ IRn fest gewählt sind, so müssen wir zu gegebenem ε > 0 nur k(~x, ~y) − (~a, ~b)k < δ := ε 1 + ε + k~ak + k~bk 6.1. TOPOLOGIE IM IRN 7 wählen und erreichen, dass |F (~x, ~y) − F (~a, ~b)| < δ(δ + k~bk) + δk~ak ≤ δ(1 + k~ak + k~bk) < ε 3) Jede lineare Abbildung f : IRn −→ IRd ist stetig. Ist nämlich A = (aij )ni,j=1 die f bezüglich der kanonischen Basen darstellende Matrix, so sehen wir, dass | n X j=1 ~ i · ~x|2 ≤ kA ~ i k2 k~xk2 aij xj |2 = |A ~ i die i.-te Zeile von A bezeichnen soll. Summieren wir über alle i = 1, ..., d, so kommt wobei A heraus kf (~x)k2 ≤ kA k2 k~xk2 P ~ i k2 . Das impliziert die Stetigkeit von f in ~0. Der Rest folgt jetzt leicht wobei kA k2 := di=1 kA aus kf (~x) − f (~x0 )k = kf (~x − ~x0 )k ≤ kA kk~x − ~x0 k Stetigkeit kann mit einem Folgenkriterium überprüft werden. 6.1.8 Hilfssatz. Eine Abbildung f : M −→ IRd ist genau dann in einem Punkt ~x0 ∈ M stetig, wenn für jede Folge (~xj )j ⊂ M mit Grenzwert ~x0 die Folge der Bilder (f (~xj ))j gegen f (~x0 ) konvergiert. Beweis. Sei zuerst f in ~x0 stetig. Ist nun (~xj )j ⊂ M eine Folge mit Limes ~x0 und ε > 0 vorgegeben, so gibt es ein δ > 0, so dass für alle ~x ∈ M ∩ B(~x0 , δ) das Bild f (~x) in B(f (~x0 ), ε) gelegen ist. Wir wählen jetzt eine Zahl j0 ≥ 1, so dass für alle j ≥ j0 schon k~xj − ~x0 k < δ ist. Für diese j muss dann kf (~xj ) − f (~x0 )k < ε sein. Das Folgenkriterium ist also notwendig für die Stetigkeit von f . Angenommen nun, f sei in ~x0 unstetig. Dann gibt es ein ε > 0, so dass f (B(~x0 , δ) ∩ M ) ⊂ B(f (~x0 , ε) für kein (noch so kleines) δ > 0 gilt. So finden wir eine Folge von Punkten ~xk ∈ B(~x0 , k1 ) ∩ M mit kf (~xk ) − f (~x0 )k ≥ ε. Diese verletzt dann aber das Folgenkriterium. Stetige Abbildungen setzen sich wieder zu stetigen Abbildungen zusammen. 6.1.9 Hilfssatz. Sei M eine Menge. a) Sind f, g : M −→ IRd stetig in ~x0 ∈ M , so auch f + g. b) Sind f, g : M −→ IR stetig in ~x0 ∈ M , so auch f g. c) Ist g(~x0 ) 6= 0, so ist auf einer kleinen Umgebung B(~x0 , r) ebenfalls g(~x) 6= 0 und f /g in ~x0 stetig. d) Angenommen, es seien f : M −→ S ⊂ IRd und h : S −→ IRk Abbildungen und f in ~x0 und h in f (~x0 ) stetig, so ist h ◦ f in ~x0 stetig. 8 KAPITEL 6. NICHT-ENTARTETE BILINEARFORMEN Beweis. Dies sehen wir leicht mit Hilfe des Folgenkriteriums ein. Stetige Funktion nehmen auf kompakten Mengen ein Maximum und Minimum an. 6.1.10 Satz. Ist K ⊂ IRn kompakt und f : K −→ IR stetig, so gibt es Punkte ~xmax , ~xmin ∈ K mit f (~xmin ) ≤ f (~x) ≤ f (~xmax ), f ür ~x ∈ K Beweis. Zuerst stellen wir fest, dass die Bildmenge f (K) wieder beschränkt ist. Anderenfalls könnten wir eine Folge (~xj )j ⊂ K so finden, dass f (~xj )j unbeschränkt würde. Da K kompakt ist, dürfen wir (wenn nötig, nach Auswahl einer Teilfolge) annehmen, dass ~x0 := limj→∞ ~xj in K existiere. Dann kann aber f in ~x0 nicht stetig gewesen sein. Das zeigt, dass f (K) beschränkt sein muss. Damit sind die Zahlen S := sup f (K) und S := inf f (K) wohldefiniert und wir finden Folgen (~xj )j , (~yj )j ⊂ K mit Grenzwerten ~xmax und ~xmin , so dass lim f (~xj ) = S, j→∞ lim f (~yj ) = S j→∞ Da f stetig ist, haben wir aber dann f (~xmax ) = S, f (~xmin ) = S. 6.2 Hauptachsentransformation symmetrischer Matrizen Für das folgende rechnen wir mit Skalarprodukten und symmetrischen Matrizen. 6.2.1 Hilfssatz. Ist A eine reelle n × n-Matrix, so gilt für ~x, ~y ∈ IRn : ~x · A ~y = A T ~x · ~y = ~y · A T ~x und (A ~x) · ~y = ~x · (A T ~y ) = (A T ~y) · ~x Weiter folgt (A ~x) · A ~y = ~x · A T A ~y Ist A symmetrisch, so folgt ~x · A ~y = ~y · A ~x = (A ~x) · ~y 6.2. HAUPTACHSENTRANSFORMATION SYMMETRISCHER MATRIZEN 9 Beweis. Schreiben wir A = (aij )ni,j=1 , dann folgt ~x · A ~y = n X xi aij yj = i,j=1 n X i,j=1 yj (aTji )xi = ~y · A T ~x Die zweite Gleichung folgt, wenn man in der ersten A durch A T ersetzt. Der Rest ist nun klar. T Wir zeigen jetzt, dass jede symmetrische Matrix A ∈ M (n × n, IR) (d.h.: A = A ) diagonalisierbar ist. 6.2.2 Satz. Jede reelle symmetrische Matrix A hat einen Eigenwert in λ ∈ IR. Beweis. Die Sphäre S := {~x | k~xk = 1} ist kompakt (da abgeschlossen und beschränkt). Daher nimmt die Funktion f (~x) := ~x · (A ~x) auf S ein Maximum λ an, etwa im Punkte ~x0 ∈ S. Wir zeigen jetzt, dass λ ein Eigenwert von A ist. Dazu beachten wir, dass für jedes ~x ∈ IRn gilt f (~x) ≥ λk~xk2 Nun wählen wir für ein beliebiges t ∈ IR und einen beliebigen Vektor ~v 6= ~0: g(t) := f (~x0 + t~v ) − λk~x0 + t~v k2 Dann wird also g(t) ≥ 0 für alle t. Nun ist aber g(t) = = = = = (~x0 + t~v ) · A (~x0 + t~v ) − λk~x0 + t~v k2 ~x0 · A ~x0 + 2t(~x0 · A ~v + ~v · A ~x0 ) + t2~v · A ~v − λ − 2t~x0 · ~v − t2 k~v k2 f (~x0 ) + 2t~x0 · A ~v + t2~v · A ~v − λ − 2λt~x0 · ~v − λt2 k~v k2 2t(~v · A ~x0 − λ~v · ~x0 ) + t2 (~v · A ~v − k~v k2 ) 2t~v · (A ~x0 − λ~x0 ) + t2 (~v · A ~v − k~v k2 ) denn f (~x0 ) = λ, und, da A symmetrisch ist, wird ~x0 · A ~v = (A T ~v ) · ~x0 = ~v · A ~x0 Jetzt bedenken wir aber: Soll ein Polynom 2. Grades der Form at + bt2 nur Werte größer oder gleich 0 annehmen, muss a = 0 sein. Für g heißt das aber: ~v · (A ~x0 − λ · ~x0 ) = 0 All dies gilt für beliebige Wahl von ~v . Nun wenden wir das an auf ~v = A ~x0 − λ · ~x0 und finden so: A ~x0 − λ · ~x0 = 0, also A ~x0 = λ · ~x0 10 KAPITEL 6. NICHT-ENTARTETE BILINEARFORMEN Wir verallgemeinern den Begriff der Orthogonalität. Definition. Wir nennen 2 Vektoren ~x, ~y ∈ IR n orthogonal, wenn ~x · ~y = 0. 6.2.3 Hilfssatz. a) Paarweise orthogonale von ~0 verschiedene Vektoren ~v1 , ..., ~vr sind stets linear unabhängig. b) Ist U ⊂ IRn ein Untervektorraum, so ist auch U ⊥ := {~x | ~x · ~y = 0, wenn ~y ∈ U } ein Untervektorraum, und es ist Beweis. a) Wenn Pr i=1 dim U + dim U ⊥ = n, U ∩ U ⊥ = {~0} αi~vi = ~0 für Koeffizienten α1 , ..., αr gilt, so folgt ! r X 2 αi~vi = 0 αj k~vj k = ~vj · i=1 also muss αj = 0 gelten. b) Die Untervektorraumaxiome sind für U ⊥ leicht nachgeprüft. Nun wählen wir eine Basis ~b1 , ..., ~bk für U . Dann gehört ein Vektor ~x genau dann zu U ⊥ , wenn er die Bedingungen ~b1 · ~x = 0, ~b2 · ~x = 0, ... ~bk · ~x = 0 erfüllt. Ist A die Matrix mit Zeilen ~b1 , ..., ~bk , so sehen wir, dass U ⊥ = NA , also ist dim U ⊥ = n − rg A = n − k. Wenn weiter ~x ∈ U ∩ U ⊥ , so ist k~xk2 = ~x · ~x = 0, also ~x = ~0. 6.2.4 Hilfssatz. Zu jedem Untervektorraum U ⊂ IRn können wir eine Orthonormalbasis finden, also eine Basis, deren Vektoren die Länge 1 haben und paarweise aufeinander senkrecht stehen. Beweis. Wir induzieren über die Dimension k von U . Im Fall k = 1 ist nichts zu tun: Man wähle einen von null verschiedenen Vektor ~b1 0 und teile ihn durch k~b1 0 k. Angenommen, jeder Untervektorraum der Dimension k − 1 besitze eine Orthonormalbasis. Sei nun U ein Untervektorraum der Dimension k. Ist jetzt ~bk ∈ U nicht der Nullvektor, so können wir annehmen, seine Länge sei 1. Dann ist U 0 := U ∩ (Span (~bk ) )⊥ ein Untervektorraum der Dimension k − 1 in U . Denn ist ~x ∈ U , so schreiben wir ~x = (~x · ~bk ) ~bk + (~x − (~x · ~bk ) ~bk ) | {z } ~ x0 Dann ist ~x 0 ∈ U . Da aber ~x 0 · ~bk = 0, ist sogar ~x0 ∈ U 0 . Es folgt U = Span (~bk ) + U 0 . Da offenbar Span (~bk ) ∩ U 0 = {~0}, ist k = dim U = 1 + dim U 0 . Wir können also eine Orthonormalbasis ~b1 , ..., ~bk−1 für U 0 auswählen. Dann ist aber ~b1 , ..., ~bk eine gewünschte Orthonormalbasis für U . Definition. Wir nennen eine reelle n × n-Matrix S orthogonal, wenn ihre Spalten eine Orthonormalbasis des IRn bilden. 6.2. HAUPTACHSENTRANSFORMATION SYMMETRISCHER MATRIZEN 11 6.2.5 Hilfssatz. a) Genau dann ist die Matrix S ∈ M (n×n, IR) orthogonal, wenn S T S = En . b) Die orthogonalen Matrizen bilden eine Gruppe, die orthogonale Gruppe O (n). c) Ist S ∈ O (n), so ist det S = ±1. Die orthogonalen Matrizen mit Determinante 1 bilden eine Gruppe SO(n). d) Ist S ∈ O (n) und λ ein Eigenwert von S , so muss λ = ±1 sein. Ist insbesondere n ungerade, so gibt es eine Gerade IR~q durch den Ursprung, die von S wegen S ~q = ±~q auf sich abgebildet wird Beweis. a) Der an der (i, j)-ten Stelle stehende Eintrag von S T S ist gerade das Skalarprodukt zwischen der i.-ten und der j.-ten Spalte von S . Daraus folgt a). b) Mit S und T ist auch S T orthogonal, denn (S T )T S T = T T S T S T T = En . Da für S ∈ O (n) stets gilt: S −1 = S T , folgt (S −1 )T S −1 = (S T )T S T = S S T = En Somit ist auch S −1 ∈ O (n). Trivialerweise gilt En ∈ O (n). c) Leicht nachzuprüfen. d) Ist ~x ein Eigenvektor ungleich Null zum Eigenwert λ, so ist λ2 k~xk2 = S ~x · S ~x = ~x · ~x = k~xk2 also λ2 = 1. Ist n ungerade, so hat χS ungeraden Grad, also nach dem Zwischenwertsatz eine Nullstelle λ. Diese ist Eigenwert zu S , also λ = ±1. Als q~ wählen wir daher einen Eigenvektor zu λ. Nun können wir leicht den Spektralsatz beweisen: 6.2.6 Satz. (Hauptachsentransformation).Ist A eine reelle symmetrische Matrix, so existiert eine Orthonormalbasis ~b1 , ..., ~bn von IRn , welche nur aus Eigenvektoren von A besteht. Oder anders gesagt: Es gibt eine Matrix S ∈ O (n) mit S T S = En , so dass S T A S Diagonalgestalt hat. Beweis. Wir induzieren nach n, wobei der Fall n = 1 trivial ist. Angenommen, der Satz gilt für symmetrische reelle (n − 1) × (n − 1)-Matrizen. Wir wissen schon, dass A einen Eigenwert λ1 ∈ IR hat. Sei ~b1 ein zugehöriger Eigenvektor der Länge 1. Nun sei U = Span (~b1 )⊥ . Ist dann ~y ∈ U , so wird ~b1 · A ~y = (A ~b1 ) · ~y = λ1~b1 · ~y = 0 Also ist auch ~y ∈ U . Wir wählen eine Orthonormalbasis ~b2 , ..., ~bn ) von U und bilden die Matrix S1 = ~b1 , ~b2 , ..., ~bn 12 KAPITEL 6. NICHT-ENTARTETE BILINEARFORMEN Dann wird S1T A S1 = S1T (λ1~b1 , A S1~e 2 , ..., A S1~e n ) = λ1 0 . . . 0 λ1~e 1 , S1T A S1~e 2 , ..., S1T A S1~e n = ... A0 0 Denn die linke Seite ist eine symmetrische Matrix, also muss es die rechte auch sein, und wir wissen schon, dass ihre erste Spalte gerade λ1~e 1 ist. Die Induktionsannahme sagt jetzt, dass eine orthogonale Matrix S 0 mit n−1 Zeilen und Spalten derart gewählt werden kann, dass S 0 T A 0 S 0 Diagonalgestalt annimmt. Dann ist aber 1 0 ... 0 S = S1 ... S0 0 eine gewünschte Matrix. Auch sie ist orthogonal. Folgerung. Ist A reell und symmetrisch, dann ist det(A ) das Produkt der Eigenwerte von A. 1 0 3 Beispiel. Sei A = 0 1 2 . Dann ist A symmetrisch und 3 2 2 χA (t) = t3 − 4t2 − 8t + 11 −2 Nun wird χA (1) = 0 und 3 ist Eigenvektor zum Eigenwert 1. Die Matrix 0 − √213 √313 0 S1 := √313 √213 0 0 0 1 ist orthogonal, und es ist Sei nun 1 0 √0 13 S1T A S1 = 0 √1 0 13 2 S2 = √ 53) √ 2 √ 53+ 53 √ 26√ 53+ 53 √ − √ (1+ − √ √ 1− √ 53 √ 2 53√ −1+ 53 26 √ √ √ 53 −1+ 53 6.3. NICHT-ENTARTETE BILINEARFORMEN Dann wird S := S1 wieder orthogonal, und 1 S TA S = 0 0 6.3 √ 13 1 0 0 S2 0 53−25 √ 1+ 53 0 0 0 √ √ 25+ √ 53 2 53( 53−1)2 Nicht-entartete Bilinearformen Positiv definite Bilinearformen Definition. Eine Bilinearform (2-fach-Multilinearform) b : IRn × IRn mit Werten in IR heißt • symmetrisch, wenn b(~x, ~y) = b(~y, ~x), für alle ~x, ~y ∈ IRn • positiv semi-definit, wenn sie symmetrisch ist und ferner gilt b(~x, ~x) ≥ 0, für alle ~x ∈ IRn • positiv definit, wenn b positiv semi-definit ist und darüber hinaus noch b(~x, ~x) > 0, wenn ~x 6= ~0. • negativ (semi)-definit, wenn −b positiv (semi)-definit ist. • indefinit, wenn sie weder positiv semi-definit noch negativ semi-definit ist, wenn also Vektoren ~x, ~y existieren, so dass b(~x, ~x) < 0 < b(~y, ~y). Eine wichtige Klasse von symmetrischen Bilinearformen wird durch symmetrische Matrizen induziert: Ist A ∈ M (n × n, IR) eine symmetrische Matrix, so definiert bA (~x, ~y) := ~x · (A ~y) eine symmetrische Bilinearform. Für A = En erhalten wir das übliche Skalarprodukt. Wir nennen eine Matrix A positiv (semi)-definit, wenn dies auf bA zutrifft. Wie stellen wir fest, ob eine Matrix A positiv semidefinit ist? 6.3.1 Satz. a) Eine symmetrische Matrix A = (aij )ni,j=1 ∈ M (n × n, IR) ist genau dann positiv semi-definit, wenn man eine Matrix B so finden kann, dass A = B T B gilt. b) Eine symmetrische Matrix A = (aij )ni,j=1 ∈ M (n × n, IR) ist genau dann positiv definit, wenn eine invertierbare Matrix B wie in a) existiert. 14 KAPITEL 6. NICHT-ENTARTETE BILINEARFORMEN Beweis. a) Ist A = B T B mit einer reellen n×n-Matrix B, so haben wir ~x ·A ~x = kB~xk2 ≥ 0 für jedes ~x ∈ IRn . Wissen wir umgekehrt, dass A positiv semi-definit ist, so sind alle Eigenwerte von A nichtnegativ. (Denn: Ist λ ein Eigenwert von A und ~v 6= ~0 ein Eigenvektor zu diesem Eigenwert, so wird λk~v k2 = ~v · (λ~v ) = ~v · A ~v ≥ 0, also λ ≥ 0.) Es gibt eine orthogonale Matrix S , so dass S T A S = D eine Diagonalmatrix wird. Die Einträge von D sind ≥ 0, also können wir schreiben D = D12 mit einer geeigneten Diagonalmatrix D1 . Dann aber erhalten wir A = S D1 (D1 S T ). Also leistet B = D1 S T das Gewünschte. b) Wir können A = B T B schreiben. Wäre B nicht invertierbar, so fände sich ein Vektor ~v 6= ~0 mit B~v = ~0. Das ergäbe aber ~v · A ~v = 0, obwohl ~v 6= ~0, ein Widerspruch. Folgerung. Sei W invertierbar. Genau dann ist A positiv (semi)-definit, wenn W T A W es ist. Für die Positiv-Definitheit gibt es ebenfalls ein Kriterium. Dazu benutzen wir 6.3.2 Satz(Jacobische Normalform). Angenommen, es sei A eine symmetrische reelle Matrix, so dass δk := det( (aij )ki,j=1 ) 6= 0 für jedes k = 1, ..., n. Dann gibt es eine Matrix W mit δ1 0 .. . T W AW = 0 0 0 δ2 δ1 ... 0 .. . 0 0 ... ... ... ... .. 0 0 .. . . 0 0 δn δn−1 Beweis. Induktion nach n. Für n = 1 ist nichts zu tun. Angenommen, der Satz sei für n − 1 richtig. Wir wollen A in der Form A = En−1 Z 0 1 T A0 0 0 D En−1 Z 0 1 darstellen, wobei Z eine n − 1-komponentige Spalte und D eine geeignete Zahl sein soll. Weiter soll auf die symmetrische (n−1)×(n−1) Matrix A 0 die Induktionsannahme anwendbar sein. Die a1n 0 −1 obige Matrixgleichung gilt, wenn wir A 0 = (aij )n−1 A 00 , wobei A 00 := ... . i,j=1 und Z = A an−1 n −1 Weiter müssen wir D := ann − A 00 · A 0 A 00 . Das alles ist sinnvoll, da wegen δn−1 6= 0 die Matrix A 0 invertierbar ist. Wir erhalten jetzt wegen En−1 Z 0 1 −1 = En−1 −Z 0 1 6.3. NICHT-ENTARTETE BILINEARFORMEN En−1 −Z 0 1 T A 15 En−1 −Z 0 1 = A0 0 0 D det(A ) δn−1 Da nun aber auch D = det(A gilt, ist auf A 0 die Induktionsvoraussetzung anwendbar. 0) = δn Es gibt daher eine (n − 1) × (n − 1)-Matrix W 0 mit δ1 0 . . . . . . 0 0 δ2 0 . . . 0 δ1 .. .. .. 0T 0 0 . . W A W = . .. . 0 0 0 ... n−2 0 0 . . . 0 δδn−1 Dann ist W := En−1 −Z 0 1 W0 0 0 1 die gewünschte Matrix. Unser Kriterium für Positiv-Definitheit lautet dann so 6.3.3 Satz. Genau dann ist eine Matrix A = (aij )ni,j=1 positiv definit, wenn für alle k = 1, ..., n die Zahl δk := det( (aij )ki,j=1 ) positiv ist. Beweis. Sind alle Zahlen δk positiv, so ist A positiv definit. Das folgt nun leicht mit der Jacobischen Normalform, welche nun positiv definit ist. Ist umgekehrt bekannt, dass A positiv definit ist, so ist jede Untermatrix (aij )ki,j=1 wieder positiv-definit, also ihre Eigenwerte und damit ihre Determinante positiv. Das Orthonormalisierungsverfahren nach Gram-Schmidt Definition. Sei b : IRn × IRn −→ IR sei eine symmetrische Bilinearform. Unter einer Orthogonalbasis von IRn verstehen wir dann eine solche Basis C := {~c1 , ..., ~cn }, für die gilt b(~ci , ~cj ) = 0, wenn i 6= j. Ist b positiv definit, so wird eine Orthogonalbasis als eine Orthonormalbasis bezeichnet, wenn ihre Vektoren die Bedingung b(~cj , ~cj ) = 1 erfüllen. 6.3.4 Satz. Angenommen, b : IRn × IRn −→ IR sei eine symmetrische positiv-definite Bilinearform und C := {~c1 , ..., ~cn } irgendeine Basis von IRn . Dann können wir eine Orthonormalbasis ~v1 , ...., ~vn für IRn finden, so dass ~vj ∈ Span ({~c1 , ..., ~cj }) für alle j = 1, ..., n und der Koeffizient bei ~cj in der Darstellung von ~vj als Linearkombination der ~c1 , ..., ~cj positiv ist. Äquivalent dazu ist: Die Basiswechselmatrix hat obere Dreiecksgestalt und ihre Diagonalterme sind positiv sind. 16 KAPITEL 6. NICHT-ENTARTETE BILINEARFORMEN Beweis. Wir wählen ~c1 ~v1 := p b(~c1 , ~c1 ) Angenommen, wir haben schon ~v1 , ..., ~vj definiert. Dann setzen wir w ~ j+1 := ~cj+1 − j X b(~cj+1 , ~vi )~vi i=1 Dann ist sicher w ~ j+1 ∈ Span ({~c1 , ..., ~cj+1 }). Wäre w ~ j+1 = ~0, so wäre schon ~cj+1 ∈ Span ({~c1 , ..., ~cj }), ein Widerspruch zur linearen Unabhängigkeit der Vektoren ~ck . Daher ist auch w ~ j+1 ~vj+1 := p b(w ~ j+1 , w ~ j+1 ) wohldefiniert. Nun ist sicher ~vj+1 ∈ Span ({~c1 , ..., ~cj+1 }) , bei ~cj+1 steht der positive Koeffizient 1 √ . Schließlich finden wir noch, dass b(w ~ j+1 ,w ~ j+1 ) 1 b(~cj+1 , ~v` ) − b(~vj+1 , ~v` ) = p b(w ~ j+1 , w ~ j+1 ) für alle ` ≤ j. i=1 b(~cj+1 , ~vi ) b(~vi , ~v` ) = 0 | {z } =δi ` Beispiel. Sei b(~x, ~y) = ~x · A ~y, wobei j X 5 6 −3 A = 6 18 −6 −3 −6 3 5 6 Dann ist det = 54 und det(A ) = 36. Also wird A positiv definit. Sei C die kanonische 6 18 Basis des IR3 . Dann wird also 1 1 0 ~v1 = √ 5 0 Nun bilden wir 0 1 −6 0 1 1 0 1 6 1 w ~ 2 := 1 − b( 1 , 0 ) 0 = 1 − 0 = 5 5 5 5 0 0 0 0 0 0 0 6.3. NICHT-ENTARTETE BILINEARFORMEN und anschließend Nun sei w ~3 17 −6 −6 1 1 w ~2 5 = √ 5 ~v2 = p 3 30 b(w ~ 2, w ~ 2) 0 0 0 0 1 1 0 0 , 0 := − b( 5 1 1 0 0 1 2 3 = 0 + 0 + 5 45 1 0 1/3 3 1 2/9 2 = = 9 1 9 1 0 −6 −6 ) 0 − 1 b( 0 , 5 ) 5 270 0 1 0 0 −6 5 0 3 Da b(w ~ 3, w ~ 3 ) = 54, muss ~v3 = 3√1 6 2 gewählt werden. 9 Allgemeine nicht-entartete Bilinearformen Definition. Eine symmetrische Bilinearform b : IRn × IRn −→ IR wird nicht-entartet genannt, wenn zu jedem Vektor ~x ∈ IRn \ {~0} ein Vektor ~y ∈ IRn mit b(~x, ~y) 6= 0 existiert. Beispiel. a) Die Bilinearform b(~x, ~y) = x1 y1 ist entartet. b) Die Bilinearform b(~x, ~y) = ~x 0 · ~y 0 − xn yn dagegen nicht. (Hierbei soll ~x 0 ∈ IRn−1 den Vektor bezeichnen, der aus ~x durch Weglassen der letzten Komponente entsteht). Wieder gibt es einen Orthogonalitätsbegriff: Definition. Ist b : IRn × IRn −→ IR symmetrisch und bilinear, so sagen wir, die Vektoren ~x, ~y ∈ IRn seien orthogonal, wenn b(~x, ~y) = 0. Zu einem Untervektorraum U ⊂ IR n definieren wir den Orthogonalraum zu U den Unterraum U b,⊥ := {~x ∈ IRn | b(~x, ~y) = 0, f ür alle ~y ∈ U } Mit dieser Bezeichnungsweise gilt dann 6.3.5 Hilfssatz. Eine symmetrische Bilinearform b auf IRn ist genau dann nicht-entartet, wenn IRb,⊥ = {~0}. b) Ist U ⊂ IRn ein Unterraum, so ist U ⊂ (U b,⊥ )b,⊥ . 18 KAPITEL 6. NICHT-ENTARTETE BILINEARFORMEN Beweis. Leicht. Beispiel. Sei auf IR3 : b(~x, ~y) := x2 y3 + x3 y2 Ist dann U = {~x | x1 = 0}, so wird 0 0 1 b,⊥ 0 U = {~x | b(~x, 1 ) = b(~x, 0 ) = 0} = {~x | x2 = x3 = 0} = Span 0 1 0 und weiter (U b,⊥ )b,⊥ = IR3 . Dagegen gilt: 6.3.6 Satz. Ist b eine nicht-entartete symmetrische Bilinearform auf IR n , so gilt für jeden Unterraum U : dim U + dim U b,⊥ = n Ist weiter b auf U nicht-entartet, so wird sogar U ∩ U b,⊥ = {~0}. Bemerkung. Die Bedingung b) ist nicht etwa eine Konsequenz der Nicht-Entartungsvoraussetzung an b. So ist etwa die Form b(~x, ~y) = x2 y1 + x1 y2 nicht-entartet auf IR2 , wohl aber auf U = {x2 = 0}. Beweis des Satzes. Wir sehen uns eine lineare Abbildung φ : IR n −→ (IRn )∗ an: φ(~x) := b(~x, ·) (Also: φ(~x) ist die Linearform, die in dem gegebenen ~y den Wert b(~x, ~y) annimmt.) Aus der Annahme, b sei nicht-entartet, folgt, dass φ ein Isomorphismus ist. Wir setzen jetzt ι : U −→ IR n fest durch ι(~y ) := ~y. Das ist eine lineare Abbildung von U −→ IR n und induziert eine lineare Abbildung ι∗ : (IRn )∗ −→ U ∗ zwischen den Dualräumen. Jede Linearform λ : U −→ IR kann aber zu einer Linearform Λ : IRn −→ IR fortgesetzt werden: Wir nehmen einfach eine Basis B 0 = {~v1 , ..., ~vd } von U her und verlängern sie zu einer Basis B = {~v1 , ..., ~vn } von IRn . Dann setzen wir Λ(~v ) := λ(~v ), wenn ~v ∈ B 0 und Λ(~v ) = 0, wenn ~v ∈ B \ B 0 . Dann ist Λ auf der Basis B definiert. Ist dann ~x ∈ IRn , so schreiben wir ~x = n X xB vj j ~ j=1 Dann ist Λ(~x) = d X j=1 xB vj ) j λ(~ 6.4. ISOMETRIEEN UND ORTHOGONALE GRUPPE 19 Weiter haben wir ι∗ (Λ) = λ. Insbesondere sehen wir, dass ι∗ surjektiv ist. Sei U 0 der Kern von ι∗ , also U 0 = {λ ∈ (IRn )∗ | λ ◦ ι = 0} = {λ ∈ (IRn )∗ | λ|U = 0} Dann wird def. φ−1 (U 0 ) = {~x | φ(~x) ∈ U 0 } = U b,⊥ Denn genau dann ist φ(~x) ∈ U 0 , wenn b(~x, ~y) = 0 für alle ~y ∈ U . Mit der Dimensionsformel für lineare Abbildungen erhalten wir jetzt dim (U b,⊥ ) = dim φ−1 (U 0 ) = dim U 0 = n − rg (ι∗ ) = n − dim U ∗ = n − dim U Dabei müssen wir nur noch bedenken, dass ι∗ : (IRn )∗ −→ U ∗ surjektiv ist, wie wir oben dargelegt haben. b) Wenn b|U × U nicht-entartet ist, so kann es außer ~0 keinen Vektor ~v ∈ U ∩ U b,⊥ geben. Denn: Ist ~x ein solcher Vektor, so ist b(~x, ~y) = 0 für jedes ~y ∈ U ( wegen ~x ∈ U b,⊥ ). Dann aber muss ~x = ~0 sein. Als Anwendung überlegen wir uns, dass zu nicht-entarteten Bilinearformen eine Orthogonalbasis des IRn existiert. 6.3.7 Satz. Ist b symmetrisch und nicht-entartet, so gibt es bezüglich b eine Orthogonalbasis des IRn . Beweis. Induktion nach n. Der Fall n = 1 ist trivial. Angenommen, es sei n ≥ 2 und die Aussage für n − 1 richtig. Zunächst überlegen wir uns, dass es Vektoren ~v1 mit b(~v1 , ~v1 ) 6= 0 geben muss. Anderenfalls hätten wir doch 2b(~x, ~y) = b(~x + ~y, ~x + ~y) − b(~x, ~x) − b(~y , ~y) = 0 für beliebige ~x, ~y, Widerspruch. Sei also ~v1 ∈ IRn ein Vektor mit b(~v1 , ~v1 ) 6= 0 und U = Span (~v1 ). Da b|U × U nicht-entartet ist, haben wir dim U b,⊥ = n − 1. Es gibt also zu U b,⊥ eine Orthogonalbasis ~v2 , ..., ~vn . Dann ist ~v1 , ..., ~vn eine Orthogonalbasis für IRn , da U ∩ U b,⊥ = {~0}. 6.4 Isometrieen und orthogonale Gruppe Im Folgenden sei immer b eine symmetrische nicht-entartete Bilinearform auf IR n . Definition. Eine Abbildung f : IRn −→ IRn wird eine Isometrie (für b) genannt, wenn für alle ~x ∈ IRn gilt: b(f (~x), f (~y)) = b(~x, ~y). Wie sehen die Isometrieen aus? 20 KAPITEL 6. NICHT-ENTARTETE BILINEARFORMEN 6.4.1 Satz. a) Erfüllt g : IRn −→ IRn die Bedingung b(g(~x)−g(~y), g(~x)−g(~y)) = b(~x −~y, ~x −~y ), so gilt für f (~x) := g(~x)−g(~0) die Beziehung b(f (~x), f (~y)) = b(~x, ~y) für alle ~x, ~y ∈ IRn . Insbsondere also f eine Isometrie. b) Jede Isometrie f : IRn −→ IRn (bezgl. b) ist linear und insbesondere ein Isomorphismus von IRn in sich. Beweis. a) Dazu beachten wir b(~x − ~y, ~x − ~y) = = = = = b(f (~x) − f (~y), f (~x) − f (~y)) b(f (~x), f (~x)) + b(f (~y), f (~y)) − 2b(f (~x), f (~y)) b(g(~x) − g(~0), g(~x) − g(~0)) + b(g(~y) − g(~0), g(~y) − g(~0)) − 2b(f (~x), f (~y)) b(~x, ~x) + b(~y, ~y)) − 2b(f (~x), f (~y)) b(~x − ~y, ~x − ~y ) + 2b(~x, ~y) − 2b(f (~x), f (~y)) Also wird b(~x, ~y) = b(f (~x), f (~y)), für alle ~x, ~y ∈ IRn . b) Angenommen, f sei eine Isometrie für b. 1.Schritt: Sei ~b1 , ..., ~bn irgendeine Basis des IRn . Wir zeigen, dass dann schon f (~b1 ), ..., f (~bn ) n linear unabhängig, also erst recht eine Basis sein müssen. Pn des IR Sind α1 , ..., αn ∈ IR Zahlen, so dass i=1 αi f (~bi ) = ~0, so gilt für jedes ~y ∈ IRn sicher b( n X i=1 αi~bi , ~y) = b( n X αi f (~bi ), f (~y) ) = b(~0, f (~y)) = 0 i=1 Pn ~ ~ ~ ~ Da b aber nicht-entartet ist, folgt daraus i=1 αi bi = 0. Da b1 , ..., bn linear unabhängig sein sollten, müssen alle αi einzeln verschwinden. 2. Schritt (Linearität von f ): Sind ~x, ~y ∈ IRb und λ ∈ IR, so haben wir, wenn ~b1 , ..., ~bn die Bedeutung aus dem 1. Schritt haben: b(f (~x + λ~y) − f (~x) − λf (~y), f (~bj ) ) = b(f (~x + λ~y), f (~bj ) ) − b(f (~x), f (~bj ) ) − λb(f (~y), f (~bj ) ) = b(~x + λ~y, ~bj ) − b(~x, ~bj ) − λb(~y, ~bj ) = b(~x, ~bj ) + λb(~y, ~bj ) − b(~x, ~bj ) − λb(~y, ~bj ) = 0 Da nun f (~b1 ), ..., f (~bn ) eine Basis des IRn bilden, folgt b(f (~x + λ~y) − f (~x) − λf (~y), ~z ) = 0 für alle ~z ∈ IRn , also f (~x + λ~y) = f (~x) + λf (~y). Das war zu zeigen. Welche Bedingung muss nun die Matrix einer Isometrie erfüllen? 6.4. ISOMETRIEEN UND ORTHOGONALE GRUPPE 21 6.4.2 Satz. Gegeben sei eine Basis C := {~c1 , ..., ~cn } des IRn . Mit Ab,C bezeichnen wir die Matrix ( b(~ci , ~cj ) )i,j=1,...,n. a) Genau dann ist b nicht entartet, wenn Ab,C invertierbar ist. b) Sei f ∈ End (IRn ) eine lineare Abbildung. Ist A C,f,C die darstellende Matrix von f bezüglich b, so ist f genau dann eine Isometrie, wenn A C,f,C gilt. T Ab,C A C,f,C = Ab,C Beweis. a) Wir arbeiten mit den Koordinatenvektoren bezüglich C. Ist ~x = P ~y = nj=1 yjC~cj , so gilt: b(~x, ~y) = b(~y , ~x) = n X i,j=1 Pn j=1 xC cj und j~ yiC xC ci , ~cj ) = ~y C · Ab,C ~x C j b(~ i) Ist nun b entartet, so gibt es einen Vektor ~x 6= ~0, so dass b(~x, ~y) = 0 für alle ~y. Lassen wir jetzt ~y die Basis C durchlaufen, so durchläuft der Koordinatenvektor ~y C von ~y bezüglich C die kanonische Basis. Obige Zeile sagt dann, dass Ab,C ~xC = ~0. Da sicher ~xC nicht der Nullvektor sein kann, kann Ab,C nicht invertierbar sein. ii) Angenommen, es sei Ab,C nicht invertierbar. Dann gibt es einen Vektor ξ~ 6= ~0 mit Ab,C ξ~ = ~0. Dann ist aber für alle ~y ∈ IRn schon b( n X i=1 ξi~ci , ~y) = ~y C · Ab,C ξ~ = 0 b) Wir schreiben A C,f,C = (αij )i,j=1,...,n. Dann wird f (~ck ) = n X α` k~c` `=1 Die Bedingung b(f (~ck ), f (~cm )) = b(~ck , ~cm ) lautet dann b(~ck , ~cm ) = n X αν k αµ m b(~cν , ~cµ ) ν,µ=1 = ( A C,f,C )T Daraus folgt die Behauptung. kν (Ab,C )νµ ( A C,f,C )µ m Als Folgerung erhalten wir hieraus 22 KAPITEL 6. NICHT-ENTARTETE BILINEARFORMEN 6.4.3 Satz.Ist b nicht-entartet, so bilden die Isometrieen von (IR n , b) eine Gruppe. Beweis. Fixieren wir eine Basis C des IRn , so gilt für jede Isometrie f von (IRn , b) ja T 2 A C,f,C Ab,C A C,f,C = Ab,C woraus folgt det A C,f,C = 1, da det(Ab,C ) 6= 0. Jede Isometrie ist daher invertierbar. Mit f und g ist auch f ◦ g eine Isometrie, ebenso ist f −1 eine Isometrie. Dasselbe gilt trivialerweise für Id . Im Falle, dass b das Skalarprodukt ist, erhalten wir die orthogonale Gruppe zurück. Darstellungen orthogonaler Matrizen Wie können wir orthogonale Matrizen finden? Darüber gibt der folgende Satz Auskunft 6.4.4 Satz. a) Ist A ∈ M (n × n, IR) schiefsymmetrisch, also A T = −A , so hat A nicht den Eigenwert 1, und A T nicht den Eigenwert −1. b) Wir erhalten alle orthogonalen Matrizen mit Determinante 1, die nicht −1 als Eigenwert haben, dadurch, dass wir zu irgendeiner schiefsymmetrischen Matrix A die ”Cayley-Transformierte” S = (En + A )(En − A )−1 bilden. Beweis. a) Wäre ~v 6= ~0 ein Eigenvektor zu A zum Eigenwert 1, so folgte 0 > −k~v k2 = −A ~v · ~v = −~v · A T ~v = ~v · A ~v = k~v k2 > 0 Widerspruch. b) Wir prüfen nach, dass S orthogonal ist: Zunächst haben wir S = En + 2A (En − A )−1 und damit S T = En + 2A T (En − A T )−1 = En − 2A (En + A )−1 Das liefert S TS = En − 2A (En + A )−1 (En + A )(En − A )−1 = (En + A )(En − A )−1 − 2A (En − A )−1 = (En + A − 2A )(En − A )−1 = (En − A )(En − A )−1 = En Da folgt S · (En − A ) = En + A = En − A T = (En − A )T , det(S ) det(En − A ) = det((En − A )T ) = det(En − A ) 6.4. ISOMETRIEEN UND ORTHOGONALE GRUPPE 23 und damit wegen det(En − A ) 6= 0, dass det S = 1. Weiter hat S nicht den Eigenwert −1, denn sonst gäbe es einen Vektor ~v 6= ~0 mit S ~v = −~v . Dann wäre aber ~x := (En − A )−1~v ebenfalls nicht Null und es wäre (En + A )~x = S ~v = −~v = −(En − A )~x, also ~x = −~x, Widerspruch zu ~x 6= ~0. Angenommen nun, es sei T eine orthogonale Matrix, die nicht den Eigenwert −1 hat. Dann ist A := (T − En )(T + En )−1 schiefsymmetrisch, denn AT = = = = = (T T − En )(T T + En )−1 (T T − En )T T −1 (T T + En )−1 (T T − En )T · ( (T T + En )T )−1 (T T T − T )(T T T + T )−1 (En − T )(T + En )−1 = −A Weiter gilt (A − En )(A + En ) = A 2 − En = (A + En )(A − En ) Multiplizieren wir von rechts und von links mit (En − A )−1 , so finden wir (A − En )−1 (A + En ) = (A + En )(A − En )−1 Wir zeigen, dass (En + A )(En − A )−1 = T ist. Dazu rechnen wir A T + A = A (T + En ) = T − En also (A − En )T = −(A + En ), T = (En − A )−1 (A + En ) = (En + A )(En − A )−1 0 2 1 −2 0 4 Beispiel. Ist etwa n = 4 und A = −1 −4 0 −3 −1 −5 S := (En + A )(En − A )−1 Spiegelungen 3 1 , so wird 5 0 −206 100 −27 94 1 −6 −114 −213 60 = −74 −234 40 249 13 −80 34 −54 −227 24 KAPITEL 6. NICHT-ENTARTETE BILINEARFORMEN Definition. Sei b eine nicht-entartete symmetrische Bilinearform auf IR n . Ist dann ~a ∈ IRn nicht-isotrop, also b(~a, ~a) 6= 0, so bezeichnen wir die lineare Abbildung S~a (~x) := ~x − 2 b(~a, ~x) ~a b(~a, ~a) als Spiegelung. Dann gilt: 6.4.5 Hilfssatz. Es gilt i) S~a (~a) = −~a und S~a (~x) = ~x für ~x ∈ (Span ~a)b,⊥ . ii) S~a ◦ S~a = Id iii) S~a ist eine Isometrie, und det S~a = −1. Beweis. i), ii) sind klar. Zu iii): Wenn ~x, ~y ∈ IR n , so errechnen wir b(~a, ~x) b(~a, ~y) b(~a, ~a) b(~a, ~x) b(~a, ~x)b(~a, ~y) −2 b(~a, ~y) + 2 b(~a, ~a) b(~a, ~a) b(~a, ~a)2 = b(~x, ~y) b(S~a (~x), S~a (~y)) = b(~x, ~y) − 2 Wir können ~a zu einer Basis C = {~a} ∪ C 0 von IRn verlängern, wobei C 0 ⊂ (Span ~a)b,⊥ . Bezüglich dieser Basis wird dann S~a durch die Matrix −1 0 C,S~a ,C A = 0 En−1 dargestellt, welche die Determinante −1 hat. Man kann jede Isometrie aus Spiegelungen aufbauen: 6.4.6 Satz. Ist b nicht-entartet, so ist jede Isomentrie f 6= Id als Kompositionen von endlich vielen Spiegelungen darstellbar. Die Anzahl der benötigten Spiegelungen ist kleiner oder gleich 2n. Beweis. (Skizze) Wir zeigen dies durch Induktion nach n. Für n = 1 gilt b(x, y) = βxy mit β > 0, und weiter ist eine Isometrie von der Form f (x) = ax mit a 6= 0 (wie jede lineare Abbildung von IR in sich). Es gilt weiter a = det f = ±1. Somit ist f = −Id , also f = S1 . Angenommen, es sei der Satz für n − 1 als richtig erkannt. Nun nehmen wir einen Vektor ~y her mit b(~y , ~y) 6= 0 und bilden die Vektoren ~y1 := f (~y) − ~y und ~y2 = f (~y) + ~y. Wir können ~y so wählen, dass ~y1 6= ~0 wird, da f 6= Id vorausgesetzt ist. (Denn {~y | b(~y, ~y) 6= 0} ist offen und {~y | f (~y), ~y) = ~y} ein echter Unterraum von IR n ). 6.4. ISOMETRIEEN UND ORTHOGONALE GRUPPE 25 Wir unterscheiden 2 Fälle: (i) b(~y1 , ~y1 ) 6= 0. In diesem Fall haben wir Sy~1 ◦ f (~y) = ~y Denn b(~y1 , ~y1 ) = b(f (~y) − ~y, f (~y) − ~y ) = b(f (~y), f (~y)) − 2b(f (~y), ~y) + b(~y, ~y) = 2b(~y , ~y) − 2b(~y , f (~y)) Also b(~y1 , ~y1 ) = −2b(~y , ~y1 ) und weiter b(~y1 , f (~y)) = b(~y , f (~y)) − b(f (~y), f (~y)) = b(~y, f (~y)) − b(~y , ~y) = −b(~y , ~y 1 ) Das ergibt b(~y1 , f (~y)) ~y1 = f (~y) − ~y1 = ~y b(~y1 , ~y1 ) (ii) Es gilt b(~y1 , ~y1 ) = 0. In diesem Falle ist aber b(~y2 , ~y2 ) 6= 0, denn aus b(~y1 , ~y1 ) = 0 folgt b(~y , f (~y)) = b(~y , ~y), also Sy~1 ◦ f (~y) = f (~y) − 2 b(~y2 , ~y2 ) = 2(b(~y, vy) + b(f (~y), ~y)) = 4b(~y, ~y) 6= 0 Ebenso ist b(~y2 , ~y2 ) = 2b(~y, ~y2 ) und b(~y2 , f (~y)) = b(~y2 , ~y2 ) − b(~y2 , ~y) = b(~y2 , ~y). Das führt auf Sy~2 (f (~y)) = f (~y) − 2 b(~y2 , f (~y)) ~y2 = f (~y) − ~y2 = −~y b(~y2 , ~y2 ) und damit Sy~ ◦ Sy~2 ◦ f (~y) = ~y Ist nun U = Span (~y), so haben wir U ⊕U b,⊥ = IRn . Weiter ist f1 := Sy~1 ◦f bezw. f2 := Sy~ ◦Sy~2 ◦f eine Isometrie auf dem Unterraum U b,⊥ , also aus endlich vielen Spiegelungen zu gewinnen, wobei man nicht mehr als 2n − 2 Spiegelungen benötigt. Daraus folgt mit f = Sy~1 ◦ f1 bezw. f = Sy~2 ◦ Sy~ ◦ f die Behauptung. Der obige Beweis lehrt weiter, dass, sollte b sogar positiv-definit sein, der Fall (ii) nicht auftritt und man jede Isometrie sogar durch Komposition von k ≤ n Spiegelungen erhalten kann. Beispiel. Drehungen im IR2 . Die Drehungen mit Matrix cos θ − sin θ A (θ) := , 0 < θ < 2π sin θ cos θ sind genau die Elemente aus SO(2). Dann setzen wir ~y = ~e 1 und ~y1 = A (θ)~e 1 − ~e 1 = cos θ − 1 . Es folgt k~y1 k = 2(1 − cos θ) und weiter sin θ x1 Sy~1 ◦ fA (θ) (~x) = −x2 26 KAPITEL 6. NICHT-ENTARTETE BILINEARFORMEN a b Denn ist M := die Matrix von Sy~1 ◦ fA (θ) , so wird auch M orthogonal sein. Weiter c d gilt Sy~1 ◦ fA (θ) (~e 1 ) = ~e 1 . Das erfordert aber a = 1, c = 0, b = 0. Da det M = −1 sein muss, bleibt nur noch d = −1. Orthogonale Matrizen in Dimension 3 Wir wollen nun einige Darstellungsmöglichkeiten für Matrizen aus SO(3) kennen lernen. Dazu sei 1 0 0 T1 (θ) := 0 cos θ − sin θ , 0 sin θ cos θ cos θ 0 − sin θ cos θ − sin θ 0 , T3 (θ) := sin θ cos θ 0 1 0 T2 (θ) := 0 sin θ 0 cos θ 0 0 1 Die induzierten linearen Abbildungen nennen wir f1,θ , f2,θ , f3,θ . 6.4.7 Satz. Jede Matrix S ∈ SO(3) lässt sich als S = T3 (α)T1 (β)T3 (γ) schreiben, wenn α, β und γ geeignet gewählt werden. Diese Winkel heißen auch die Eulerschen Winkel zu S . Beweis. Wir schreiben S = (sij )i,j=1,2,3 . Sind nun α, γ ∈ [0, 2π), so haben wir T3 (α)S T3 (γ) cos α − sin α s11 s12 cos γ − sin γ cos α − sin α s13 sin α cos α sin γ cos γ sin α cos α s23 s21 s22 = cos γ − sin γ (s31 , s32 ) s33 sin γ cos γ s13 Wenn (s31 , s32 ) = (0, 0), muss, da S orthogonal ist, auch verschwinden. Dann aber s23 ist S = T3 (θ) mit einem passend zu wählenden θ. Ist (s31 , s32 ) 6= (0, 0), so können wir γ so wählen, dass cos γ − sin γ (s31 , s32 ) = (0 , η ) sin γ cos γ mit irgendeiner Zahl η 6= 0. Sollte jetzt s11 s12 cos γ − sin γ 0 s012 = s21 s22 sin γ cos γ 0 s022 6.4. ISOMETRIEEN UND ORTHOGONALE GRUPPE 27 sein, so wird cos α − sin α sin α cos α s11 s12 s21 s22 cos γ − sin γ sin γ cos γ = 0 s0012 0 s0022 also wäre die erste Spalte von T3 (α)S T3 (γ) doch Null, ein Widerspruch zur Invertierbarkeit orthogonaler Matrizen. Wir können dann durch richtige Wahl von α einrichten, dass cos α − sin α s11 s12 cos γ − sin γ τ s000 12 = sin α cos α s21 s22 sin γ cos γ 0 s000 22 mit einer Zahl τ 6= 0 gilt. Nun muss aber T3 (α)S T3 (γ) vom Typ T1 (β) mit einem geeigneten Winkel β sein. Jede orthogonale Matrix aus SO(3) kann aus einer Spiegelung und einer Drehung um die x3 -Achse aufgebaut werden. Um dies zu sehen, zeigen wir zuerst 6.4.8 Lemma. Ist S ∈ O(n) und sind ~u, ~v verschiedene Vektoren gleicher Länge, so gilt für die Spiegelung S = Su~ −~v : S(~u) = ~v , S(~v ) = ~u Beweis. Wir rechnen aus S(~u) − ~v = ~u − ~v − 2 (~u − ~v ) · ~u (~u − ~v ) · ~u (~u − ~v ) = (1 − 2 )(~u − ~v ) = ~0, 2 k~u − ~v k k~u − ~v k2 da k~u − ~v k2 = 2k~uk2 − 2~u · ~v = 2(~u − ~v ) · ~u Ferner gilt S(~v ) = S(S(~u)) = ~u. Nun zu dem angekündigten Darstellungssatz: 6.4.9 Satz. Ist S ∈ SO(3), und ist S ~e 3 6= ~e 3 , so gibt es eine Spiegelung S und einen Winkel ω mit fS = S −1 ◦ f3,ω ◦ S = S ◦ f3,ω ◦ S Zwischen der Spur von S und dem Winkel ω besteht die Gleichung cos ω = 12 (Spur(S ) − 1). Beweis. Der Fall S ~e 3 = ~e 3 ist klar. Sei also S ~e 3 6= ~e 3 . Dann können wir aber einen Vektor ~q 6= ~e 3 mit S q~ = ~q wählen. Ist dann S die Spiegelung an ~e 3 − ~q, so wird S(~e 3 ) = q~ und S(~q) = ~e 3 , also S ◦ fS ◦ S(~e 3 ) = S ◦ fS (~q) = S(~q) = ~e 3 28 KAPITEL 6. NICHT-ENTARTETE BILINEARFORMEN Somit ist S ◦ fS ◦ S = f3,ω für ein passendes ω. Nun gilt weiter 2 cos ω + 1 = Spur(T3 (ω)) = Spur(AS T3 (ω)AS−1 ) = Spur(S ) Daraus folgt die 2. Behauptung. Mit diesem Hilfsmittel können wir zu einer gegebenen orthogonalen Matrix Drehachse und Drehwinkel berechnen: 6.4.10 Satz. Sei S ∈ SO(3) nicht die Einheitsmatrix. Dann hat die Matrix S 0 := S + S T − (Spur(S ) − 1)E3 den Rang 1, und das Bild der zugehörigen linearen Abbildung stimmt mit der Drehachse von S überein. Für den Drehwinkel ω besteht die Gleichung cos ω = 12 (Spur(S ) − 1). Beweis. Wir schreiben fS = σ −1 ◦ f3,ω ◦ σ mit einer geeigneten Spiegelung σ, wie im vorherigen Satz. Dann wird (mit A = Aσ ) S 0 = A −1 T3 (ω) + T3 (ω)T − (Spur(S ) − 1)E3 A 2 cos ω 0 0 0 2 cos ω 0 − (Spur(S ) − 1)E3 A = A −1 0 0 2 0 0 0 = 2(1 − cos ω)A −1 0 0 0 A 0 0 1 denn wir wissen schon, dass 2 cos ω = Spur(S ) − 1 ist. So sehen wir, dass rg S 0 = 1. Ist nun ~q := A −1~e 3 , so folgt S 0 ~q = 2(1 − cos ω)~q, also Bild(fS 0 ) = Span (~q), und S ~q = A −1 T3 (ω)A ~q = A −1 T3 (ω)~e 3 = A −1~e 3 = ~q Umgekehrt können wir leicht zu gegebener Drechachse ~q und Drehwinkel ω die entsprechende Drehmatrix angeben: Sie ist gegeben durch S = A T3 (ω)A , wobei A die Matrix der Spiegelung an ~e 3 − ~q sein soll, sofern dies nicht der Nullvektor ist, und A = E3 sonst. 2 1 2 mit Beispiel. a) Wie lautet die Matrix zur Drehung um die Achse mit Richtung ~q = 3 1 π Winkel ω = 3 ? Nun haben wir −1 1 ~e 3 − q~ = −1 3 1 6.4. ISOMETRIEEN UND ORTHOGONALE GRUPPE und 29 x1 − 2x2 + 2x3 −1 2 1 S~e 3 −~q (~x) = ~x − (−x1 − 2x2 + x3 ) −1 = −2x1 + x2 + 2x3 3 3 1 2x1 + 2x2 + x3 also gehört zu S~e 3 −~q die Matrix Ferner ist 1 −2 2 1 A = −2 1 2 3 2 2 1 √ 1/2 − 3/2 0 √ T3 (π/3) = 3/2 1/2 0 0 0 1 Die gesuchte Matrix ist dann −1 √ 1 S = −4 + 3 6 √ 2+2 3 −4 − √ 3 −1 √ 2−2 3 b) Wir suchen die Drehachse und den Drehwinkel 6 1 −7 S := 11 −6 √ 2−2 3 √ 2+2 3 2 zur Matrix −9 −2 −6 6 −2 −9 9 Es gilt Spur(S ) = − 11 , also gilt für den Drehwinkel ω, Für die Drehachse errechnen wir 16 20 2 T −8 S + S + E3 = 11 11 −4 20 dass 2 cos ω = − 11 , also ω = 155◦ 220 . −8 −4 4 2 2 1 −4 Der Spaltenraum dieser Matrix wird erzeugt von 2 . Dieser Vektor definiert die Drehachse 1 von S . Lorentztransformationen 30 KAPITEL 6. NICHT-ENTARTETE BILINEARFORMEN Definition. Sei c > 0. Auf dem IR4 definiert b(~x, ~y) := x1 y1 + x2 y2 + x3 y3 − c2 x4 y4 eine indefinite, aber nichtentartete Bilinearform. Der IR 4 zusammen mit dieser Bilinearform wird auch der Minkowski-Raum M genannt. Der Minkowskiraum bildet mit seiner Struktur den mathematischen Rahmen für die spezielle Relativitätstheorie. Die Isometrieen dieses Raumes bezeichnet man (nach dem niederländischen Physiker H.A. Lorentz) als Lorentztransformationen. Sie bilden eine Gruppe, die wir mit L bezeichnen wollen. Diejenigen Transformationen aus L, deren Determinante 1 ist, bilden eine Untergruppe L+ . 6.4.11 Hilfssatz. Ist f : M −→ M eine Lorentztransformation, so erfüllt ihre Matrix ! e Λ0 Λ Λ := b Λ44 Λ die folgenden Bedingungen: Ferner ist det(Λ) = ±1. Beweis. Das ergibt sich, wenn 1 0 ΛT 0 0 ausschreibt. bT Λ b = E3 Λ0 T Λ0 − c 2 Λ 0T e bT Λ Λ = c2 Λ44 Λ e 2 − c2 Λ2 = −c2 kΛk 44 man die Bedingung 0 0 0 1 0 0 Λ = 0 1 0 0 0 −c2 1 0 0 0 0 1 0 0 0 0 0 0 1 0 0 −c2 S 0 Mit der Identifizierung S −→ S := können wir die orthogonalen Matrizen als 0 1 Elemente von L und die Elemente aus SO(3) als solche in L+ auffassen. Wie sehen nun die Matrizen aus L+ aus? Zur Klärung dieser Frage vereinfachen wir eine vorgegebene Lorentztransformation mit Hilfe orthogonaler Matrizen. 6.4.12 Satz. Zu jeder Lorentztransformation mit Matrix Λ ∈ L+ finden wir orthogonale Matrizen R1 , R2 , so dass c11 0 0 c14 0 1 0 0 R1 ΛR2 = 0 0 1 0 c41 0 0 c44 6.4. ISOMETRIEEN UND ORTHOGONALE GRUPPE 31 e = ~0, muss schon Λ b = ~0 und Λ44 = 1 werden. Dann ist aber Λ selbst schon Beweis. Wenn Λ T orthogonal mit Determinante 1, und wir können etwa R2 = E4 und R1 = Λ0 wählen. Wir dürfen e 6= ~0. Dann gibt es eine Matrix R 0 ∈ SO(3) mit R 0 Λ e = kΛk~ e e 1 in IR3 . daher annehmen, es sei Λ 1 1 Das führt auf ! 00 e e1 Λ k Λk~ R1 0 Λ = b Λ Λ44 b nicht Null sein Die Matrixbedingungen an jede Transformation aus L sagen jetzt, dass Λ T b T = kΛk~ b e 1 . Dann folgt kann. Es gibt dann eine Matrix R20 ∈ SO(3) mit R20 Λ R1 0 ΛR20 = e e1 Λ kΛk~ b 0, 0) Λ44 (kΛk, 000 ! Die Bedingungen an die einzelnen Kästchen dieser Matrix ergeben 1 0 0 T b 2 0 0 0 Λ000 Λ000 = E3 + kΛk 0 0 0 Das zeigt, dass die Spalten 2 und 3 der Matrix Λ000 orthonormiert sind. Die Matrix R300 entstehe aus Λ000 dadurch, dass man ihre erste Spalte durch das Kreuzprodukt aus den Spalten 2 und 3 ersetzt. Dann bilden wir R30 = R300 T und stellen fest, dass R3 0 c11 0 R1 0 ΛR20 = 0 c41 0 1 0 0 0 c14 0 0 1 0 0 c44 e b c44 = Λ44 . mit c14 = kΛk, c41 = kΛk, 6.4.13 Folgerung. Hat eine Lorentztransformation eine Matrix der Gestalt c11 0 L = 0 c41 0 1 0 0 0 c14 0 0 1 0 0 c44 mit Determinante 1, so gibt es ein θ ∈ IR mit c11 = cosh θ, c14 = c sinh θ, c41 = c44 = cosh θ. 1 c sinh θ und 32 KAPITEL 6. NICHT-ENTARTETE BILINEARFORMEN Beweis. Die Bedingungen, zur Lorentzgruppe L zu gehören, implizieren c211 − c2 c241 = 1 c11 c14 = c2 c44 c41 c214 − c2 c244 = −c2 Lösen wir die 1. Gleichung nach c11 und die 3. Gleichung nach c44 auf und setzen das Ergebnis in die 2. Gleichung ein, entsteht r c2 c14 (1 + c2 c241 ) = c2 c41 1 + 14 c2 Daraus folgt c14 = ±c2 c41 Das in die 2. Gleichung eingesetzt, liefert c11 = ±c44 . Die Determinantenbedingung erfordert aber c11 = c44 und weiter c244 = 1 + c2 c241 ≥ 1 p Wir wählen daher ein θ > 0 mit cosh θ = c44 . Dann wird wegen sinh θ = cosh2 θ − 1 q 1 1 c244 − 1 = ± sinh θ c41 = c c c14 = ±c2 c41 = ±c sinh θ Die physikalische Deutung der Zahl θ ist diese: Bewegen sich zwei Bezugsysteme Σ und σ mit der Relativgeschwindigkeit ~v zueinander, und zwar längs der x1 -Achse (von Σ), dann rechnen sich Orts-und Zeitkoordinate gemäß der obigen Lorentztransformation um, wobei θ = Artanh( vc ), und v = k~v k sein soll. Dann hat die zugehörige Matrix die Gestalt √ 1 2 0 0 −√ v 2 1−(v/c) 1−(v/c) 0 1 0 0 Lv = 0 0 1 0 v/c2 1 √ −√ 0 0 2 2 1−(v/c) 1−(v/c) Bewegt sich ein weiteres Bezugssystem Σ00 mit der Relativgeschwindigkeit u längs der x1 Achse (von Σ und Σ0 ), so muss mit der Lorentztransformation Lu ◦ L v = L gearbeitet werden. u+v 1+(uv/c2 ) 6.4. ISOMETRIEEN UND ORTHOGONALE GRUPPE 33 Bewegen sich die Bezugssysteme Σ und Σ0 nicht entlang der x1 -Achse von Σ, so hat die zugehörige Lorentztransformation die Gestalt √ 1 2 0 0 −√ v 2 1−(v/c) 1−(v/c) 0 0 1 0 0 0 R2 Λ = R1 0 0 1 0 v/c2 1 −√ 0 0 √ 2 2 1−(v/c) 0 0 mit zwei orthogonalen Matrizen R1 , R2 . 1−(v/c) 34 KAPITEL 6. NICHT-ENTARTETE BILINEARFORMEN Das Bild ist wie folgt: x 3 w w3 2 Σ P v x1 x’ 3 w x w’ 2 w 3’ 1 2 f(P) x’ 1 Σ x’ 2 0 w’ 1 Dabei überführt R2 die alten Koordinaten von Σ in die Koordinaten w1 , w2 , w3 , wobei w1 0 in Richtung ~v weist und R1 überführt die Koordinaten x01 , x02 und x03 von Σ0 in die neuen Koordinaten w10 ( parallel zur x01 -Achse) und w20 , w30 .