VII. EUKLIDISCHE RA UME Im Kapitel II haben wir gesehen, wie R2 und R3 mit einem naturlichen Skalarprodukt ausgestattet werden konnen. Damit haben wir Begrie wie Orthogonalitat und Winkel betrachtet. Jetzt arbeiten wir mit diesen Begrien in hoheren Dimensionen, wobei wir wieder die axiomatische Methode verwenden. Denition: Ein Skalarprodukt (oder inneres Produkt) auf einem reelen Vektorraum V ist eine Abbildung soda 1) die Abbildung bilinear ist, d.h. ( j ): V V ! R (1 x1 + 2 x2 j1y1 + 2 y2 ) = 1 1 (x1jy1) + 1 2(x1 jy2) + 2 1 (x2jy1) + 2 2 (x2jy2) (1; 2 ; 1; 2 2 R; x1; x2; y1; y2 2 V ); 2) ( j ) ist symmetrisch d.h. (xjy) = (yjx) (x; y 2 V ); 3) ( j ) ist positiv denit d.h. (xjx) > 0 fur x 6= 0. (Bemerkung: Aus Eigenschaft 3) folgt: Sei x 2 V mit der Eigenschaft, da (xjy) = 0 fur jedes y 2 V . Dann gilt: x = 0.) Ein euklidischer Vektorraum ist ein Vektorraum V uber R, zusammen mit einem Skalarprodukt ( j ) darauf. Beispiel: I. Rn mit dem Skalarprodukt (xjy) = + + n n 1 1 ist ein euklidischer Raum; II. Die folgenden Abbildungen auf Pol (n) sind Skalarprodukte: (pjq): = Z 1 p(t)q(t)dt: 0 (wobei (pjq): = a0b0 + a1 b1 + + an bn p(t) = a0 + a1t + + an tn q(t) = b0 + b1t + + bn tn ): In euklidischen Raumen kann man die Grundbegrie (Lange, Winkel, Orthogonalitat) der euklidischen Geometrie einfuhren. 109 Lange: Die Lange kxk eines Vektors x 2 V ist folgendermaen deniert: p kxk: = (xjx) (Z.B. in Rn gilt: kxk = ( + + n ) ): 1 2 2 2 1 Einige Eigenschaften: I. j(xjy)j kxkkyk (x; y 2 V ) (genannt die CAUCHY-SCHWARZ-Ungleichung { nach dem klassischen Fall 11 + + n n (12 + + n2 ) (12 + + n2 ) 1 2 1 2 in Rn ): Beweis: Die quadratische Funktion 7! (x + yjx + y) = kyk + 2(xjy) + kxk 2 2 2 ist nirgends negativ. Daher ist die Diskrimante nicht positiv, d.h. 4(xjy)2 4 kyk2kxk2 0. q.e.d. II. kx + yk kxk + kyk (Dreiecksungleichung). Beweis: kx + yk2 = (x + yjx + y) = kxk2 + 2(xjy) + kyk2 kxk2 + 2kxkkyk + kyk2 (nach I.) = kxk + kyk 2 q.e.d. Winkel: Seien x; y Vektoren aus einem euklidischen Raum V , wobei x 6= 0, y 6= 0. Dann gilt (nach I. oben) 1 k(xxkkjyy)k 1: Daher gibt es ein eindeutig bestimmtes 2 [0; ] mit cos = (xjy)=kxkkyk. heit der O nungswinkel zwischen x und y (geschrieben 6 (x; y)). Falls x = 0 oder y = 0, dann setzen wir 6 (x; y) = 0. Orthogonalitat: Zwei Vektoren x; y 2 V sind orthogonal (geschrieben x ? y) falls (xjy) = 0. (D.h. falls 6 (x; y) = =2 oder x = 0 oder y = 0). Ein Orthonormalsystem in V (kurz ON-System) ist eine Menge von Einheitsvektoren, die paarweise orthogonal sind. 110 Beispiel: Die kanonische Basis von Rn ist ein ON-System. Bemerkung: Die Vektoren eines ON-Systems sind linear unabhangig. Beweis: Sei fx ; : : :; xn g ein ON-System. Dann gilt: 1 n X k=1 k xk = 0 ) n X k=1 X k xk jxi = 0 (i = 1; : : :; n) ) k (xk jxi ) = 0 ) i (xi jxi) = 0 ) i = 0 q.e.d. Insbesondere ist in einem euklidischen Raum V mit dim V = n jedes ON-System fx1; : : : ; xng mit n-Elementen automatisch eine Basis. Solche Basen (die sogenannten orthonormalen Basen) haben die angenehme Eigenschaft, da die Koordinaten eines Vektors x mit Hilfe des Skalarproduktes sofort ausgerechnet werden konnen. Es gilt namlich: Sei x 2 V . Dann hat x die Darstellung x= n X (xjxk )xk k=1 bezuglich der orthonormalen Basis (x1 ; : : :; xn) von V . Denn aus x = k = n X i=1 ! Pn x folgt: i i i =1 i xi jxk = (xjxk ): Die Existenz von orthonormalen Basen folgt aus dem folgenden Satz, dessen Beweis eine naturliche geometrische Konstruktion, die wir furher kennengelernt haben, verwendet. Satz: Sei (x1; : : :; xk ) ein ON-System in einem euklidischen Raum V . Dann existiert xk+1 ; : : :; xn in V , soda (x1; : : : ; xn) eine ON-Basis fur V ist. Beweis: Wahle z 62 [x1 ; : : :; xk ]. Deniere x~k+1 = z n X i=1 (zjxi )xi Dann gilt: x~k+1 6= 0 (warum?) und x~k+1 ? xi fur i = 1; : : :; k. Wir denieren dann xk+1 = x~k+1=kx~k+1 k. (x1; : : :; xk+1 ) ist ein ON-System. Wir fahren weiter fort, bis wir ein ON-System mit n-Elementen (und daher eine ON-Basis) bekommen. 111 Korollar: Jeder endlich dimensionale euklidische Raum hat eine ON-Basis (x ; : : :; xn ). 1 Beispiel: Wir wenden diese Methode an, um eine ON-Basis fur Pol (2) bezuglich des Skalarproduktes (pjq) = Z 1 p(t)q(t)dt 0 zu erhalten. Wir wahlen: x0 = 1 x~1 (t) = t (tj1)1 = t 21 ; p 1 x1 (t) = 12 t 2 ; x~2 (t) = t2 (t2jx0)x0 (t) (t2jx1 )x1(t); = t2 t + 16 ; p 2 1 x2 (t) = 6 5 t t + 6 : Wiederum sind lineare Abbildungen zwischen euklidischen Raumen, die ihre Struktur respektieren, besonders interessant: Daher die Denition: Eine lineare Abbildung f : V ! V1 (wobei V und V1 euklidisch sind) heit eine Isometrie, falls (fxjfy) = (xjy) (x; y 2 V ): Wir notieren einige einfache Eigeschaften solcher Abbildungen. Einige von diesen Ergebnissen haben wir schon im Kapitel II kennengelernt. Normalerweise kann man die Beweise fur V = R2 auf den allgemeinen Fall sofort ubertragen. I. Eine Isometrie f respektiert die Langen von Vektoren. Denn kfxk2 = (fxjfy) = (xjy) = kxk2. Anderseits ist eine lineare Abbildung f mit der Eigenschaft, da kf (x)k = kxk (x 2 V ) automatisch eine Isometrie, (denn kx + yk2 kx yk2 ): (xjy) = 4 II. Eine Isometrie f : V ! V1 ist immer injektiv, (denn aus fx = 0 folgt kxk = kfxk = 0 d.h. x = 0). f ist genau dann surjektiv, (und daher bijektiv, d.h. ein linearer Isomorphismus), wenn dim V1 = dim V . 112 III. Eine Abbildung f : V ! V1 mit der Eigenschaft, da kf (x) f (y)k = kx yk (x; y 2 V ) hat immer die Gestalt x 7! fx + u (wobei f eine lineare Isometrie ist und u 2 V1 ). IV. Eine lineare Isometrie bildet orthonormale Systeme in orthonormale Systeme ab. Insbesondere bildet sie ON-Basen in ON-Basen ab, falls dim V = dim V1 . Andererseits gilt: wenn f eine lineare Abbildung ist, soda f eine Basis von V in eine ON-Basis von V1 abbildet, dann ist f eine Isometrie. Daraus folgt: Jeder n-dimensionale euklidische Raum V ist isometrisch isomorph zu Rn . (Wahle eine lineare Abildung f von Rn in V , soda f die kanonische Basis fur Rn in eine ON-Basis (x1 ; : : :; xn) von V abbildet.) Sei jetzt A eine n n Matrix. Da die Bilder der kanonischen Basis von Rn bezuglich fA gerade die Spalten von A sind, sehen wir, da fA genau dann eine Isometrie ist, wenn die Spalten von A eine orthonormale Basis fur Rn bilden. Anders ausgedruckt: A erfullt die Bedingung: AtA = I: Daraus folgt, da At = A 1 bzw. AAt = I . (Solche Matrizen nennt man orthonormal.) Typische Beispiele von Isometrien sind: Spiegelung: Das sind Abbildungen mit Matrizen der Gestalt 21 3 66 . . . 77 66 77 1 66 77 1 66 77 : 66 77 1 64 . . . 75 1 Drehungen: Sie haben Matrizen der Gestalt 21 66 . . . 66 1 66 cos sin 66 sin cos 66 1 64 ... 3 77 77 77 77 77 75 1 bzgl. einer geeigneten orthonormalen Basis. Wir werden spater sehen, da alle linearen Isometrien aus Abbildungen dieser Gestalten zusammengesetzt sind. 113 Orthogonale Projektionen: Im Kapitel II haben wir gesehen, da jeder Teilraum eines Vektorraumes einen Komplementarraum besitzt und dementsprechend eine Projektion, die den ganzen Raum auf den Teilraum projiziert. Allerdings gibt es viele solche Projektionen. Wir werden jetzt sehen, da die Geometrie eines euklidischen Raumes eine wichtige Projektion { die sogenannte orthogonale Projektion { aus diesen Projektionen auszeichnet. Denition: Sei M ein Teilraum eines euklidischen Raumes. Die Menge M ?: = x 2 V : (xjy) = 0 fur y 2 M heit orthogonales Komplement von M . Satz: 1) M ? ist eine Teilraum von V . 2) M und M ? sind Komplementarraume d.h. V = M M1 . Genauer, sei (x1 ; : : :; xn) eine ON-Basis fur V , soda M = [x1; : : :; xr ]. Dann gilt: M ? = [xr+1 ; : : :; xn]: Beweis: Da xi 2 M ? fur i = r + 1; : : :; n, ist es klar, da [xr ; : : :; xn ] M ? . Sei jetzt x 2 M ?. x hat die Darstellung +1 x= n X (xjxk )xk = k=1 n X k=r+1 (xjxk )xk 2 [xr+1 ; : : :; xn] da (xjxk ) = 0 (k = 1; : : :; r). q.e.d. Sei jetzt M ein Teilraum des euklidischen Raumes V . Nach diesem Satz hat jedes x 2 V eine eindeutige Darstellung y + z(y 2 M; z 2 M ?). y heit die orthogonale Projektion von x auf M (geschrieben PM x). (D.h. PM ist die Projektion auf M entlang M ?.) Bemerkungen: I. Bezuglich der orthonormalen Basis, die wir in dem obigen Beweis konstruierten, hat PM die Matrix I 0 0 0 Andererseits gilt: Eine lineare Abbildung, die eine solche Darstllung bezgl. einer it orthonormalen Basis besitzt, ist eine Projektion dieser Art. II. Der Punkt PM (x) ist die beste Approximation zu x aus M d.h. kx PM (x)k < kx yk y 2 M; y 6= PM (x) : r III. x 2PM (x) ist das Spiegelbild von x an M ?. Daher heit die lineare Abbildung Id 2PM eine Spiegelung. 114 Orthogonale Zerlegungen: Sei V ein euklidischer Raum. Eine Folge V ; : : : ; Vr von Teilraumen von V ist eine orthogonale Zerlegung, falls 1) Vi ? Vj (i = 6 j ) (d.h. xi ? xj falls xi 2 Vi ; xj 2 Vj ); 2) jedes x 2 V hat eine Darstellung x + + xr (wobei xi 2 Vi fur jedes i). Nach 1) ist diese Zerlegung eindeutig bestimmt. Wir schreiben dann V = V ; : : :; Vr . 1 1 1 Eine wichtige Bemerkung ist dann: Sei fur jedes i (xi1; : : :; xini ) eine orthonormale Basis fur Vi . Dann ist (x11; x12; : : :; x1n ; x21 ; : : :; xr1; : : :; xrnr ) eine orthonomale Basis fur V . Jetzt betrachten wir den Begri der adjungierten Abbildung. Falls f eine lineare Abbildung von V in V1 ist, dann heit eine lineare Abbildung g: V1 ! V zu f adjungiert, falls f (x)jy = xjg(y) (x 2 V; y 2 V1): 1 Satz: Es gibt genau eine lineare Abbildung g: V ! V , soda f und g adjungiert sind. Beweis: Zunachst wahlen wir orthonormale Basen (x ; : : :; xn ) bzw. (y ; : : :; ym) fur V 1 1 1 bzw. V1 und bezeichnen mit A = [aij ] die Matrix von f bezuglich dieser Basen d.h. aij = f (xi )jyj . Falls ein solches g existiert, dann gilt aij = f (xj )jyi = xj jg(yi) und das ist das (j; i)-te Element der Matrix, die g darstellt. Daraus folgt, da die Matrix von g gleich At sein mu. Wir mussen jetzt nur zeigen, da die Abbildung g, mit Matrix At die Bedingung f (x)jy = xjg(y) erfullt. Dazu rechnen wir einfach nach: 0 n 1 m X X f (x)jy = @f (xjx )x j (yjy )y A 0 m j=1n XX j j k=1 k k =@ 1 aij (xjxj ) yi j (yjyk )yk A = aij (xjxj )(yjyk )(yi jyk ) i=1 j =1 m X n X m X m X k=1 i=1 j =1 k=1 m X n X = aij (xjxj )(yjyi): i=1 j =1 115 Analog gilt: 1 0n m X X xjg(y) = @ (xjx )x jg (yjy )y A = j =1 m X n X i=1 j =1 j j i=1 aij (xjxj )(yjyi) i i q.e.d. Die Abbildung g, die wir in diesem Beweis konstruiert haben, bezeichnet man mit f t . Eine Abbildung f : V ! V heit selbst-adjungiert, falls f = f t . Das bedeutet, da die Matrix von f bezuglich einer (und daher jeder) orthonormalen Basis symmetrisch ist. Mit dieser Schreibweise sehen wir, da eine Abbildung f 2 L(V ) genau dann eine Isometrie ist, wenn f t f = Id (d.h. f 1 = f t ). Denn f ist eine Isometrie, wenn (xjy) = f (x)jf (y) = f t f (x)jy gilt fur jedes y. Daher gilt f t f (x) = x fur jedes x d.h. f t f = Id. Besondere Beispiele von selbst-adjungierten Abbildungen sind Abbildungen, die eine diagonale Matrix bezuglich einer orthonormalen Basis besitzen. Der wichtigste Satz dieses Kapitels besagt, da alle selbst-adjungierten Abbildungen diese Eigenschaft haben. Wir bringen einen Beweis, der einfache Hilfsmittel aus der Analysis verwendet. Satz: Sei f eine selbst-adjungierte lineare Abbildung von V in V . Dann besitzt V eine orthonormale Basis (x1; : : :; xn), wobei jedes xi ein Eigenvektor von f ist. Bezuglich dieser Basis hat f die Matrix diag(1 ; : : :; n), wobei i die Eigenwerte von f sind. Beweis: Wir betrachten die Funktion: f (x)jx ': x ! (xjx) auf V n f0g, Es gilt: '(x) = '(x) ( 6= 0). Nach einem Satz aus der Analysis, existiert x1 2 V , soda kx1k = 1 und '(x1) '(x) kxk = 1 . Die Funktion : t ! '(x1 + ty) (y 6= 0) hat daher ein Minimum fur t = 0. Daraus folgt: 0 (0) = 0: Aber 0 (0) = 2 yjf (x1) 21(yjx1) wobei 1 : = x1jf (x1) (siehe unten). Daraus folgt: yjf (x1) = 1(yjx1): 116 Da diese Gleichung fur jedes y 2 V gilt, kann man schlieen, da f (x1) = 1x1 d.h. x1 ist ein Eigenvektor von f (mit Eigenwert 1 = f (x1)jx1) . Seien jetzt V1 : = [x1 ]?. Dann gilt f (V1) V1 . Denn aus x 2 V1 folgt (xjx1) = 0 und daher f (x)jx1 = xjf (x1) = (xj1x1 ) = 0 d.h. f (x) 2 V1 . Da f jV jetzt eine selbst-adjungierte Abbildung von V1 in sich selbst ist, kann man wieder die gleiche Methode anwenden, um einen Eigenwert 2 und Eigenvektor x2 in V1 zu nden. Ein naturlicher Induktionsbeweis liefert jetzt das Ergebnis. Berechnung der Ableitung von : 0 (0) = lim 1 (t) (0) t! 0 t 1 ['(x ty) '(x )] = tlim 1 1 !0 t 1 x jx f x jx t f y jx t f x jy t f y jy x jx t y jx t x jy t y jy f x jx = tlim x tyjx ty x jx !0 t = 2 yjf (x1) 2(yjx1)1: 1 ( 1 1 )( ( 1 ) 1 )+ ( ( ) 1 )+ ( ( 1 ) )+ 2 ( ( ) ) (( 1 1 )+ ( ( 1+ 1 + )( 1 1 ) 1 )+ ( 1 )+ 2 ( ))( ( 1 ) 1) Die Funktion ' heit RAYLEIGH Funktion von f . Aus der Beweis bekommt man folgende Charakterisierung der Eigenwerte: Satz: Seien 1 < < n die Eigenwerte der selbst-adjungierten Abbildung f . Dann gilt 1 = min f'(x): x 2 V n f0gg n = max f'(x): x 2 V n f0gg : Als eine Anwendung dieser Theorie bringen wir eine kurze Behandlung der Kegelschnitte in hoheren Dimensionen. Das sind Teilmengen von Rn der Gestalt: 8 9 n < = X ( ; : : :; ): a + 2 b + + 2 b + c = 0 n ij i j n n : ; i;j 1 1 1 =1 wobei die aij ; bi und c aus R sind. Zunachst schreiben wir diese Gleichung in der Gestalt fA(x)jx + 2(bjx) + c = 0 wobei x = (1; : : :; n), und b = (b1; : : :; bn). Ohne Verlust der Allgemeinheit konnen wir annehmen, da A symmetrisch ist (und daher fA selbst-adjungiert). Denn ersetzen wir aij durch (aij +2 aji ) , so bleibt die Gleichung 117 unverandert. Der Einfachheit wegen werden wir annehemen, da der Kegelschnitt zentral ist d.h. b = 0 (geometrisch bedeutet das, da der Kegelschnitt einen Punkt der Zentralsymmetrie, den wir als Urspung wahlen konnen, besitzt). Wir konnen jetzt unser Ergebnis uber die Diagonalisierbarkeit von selbst-adjungierten Abbildungen verwenden, um eine Klassizierung fur solche Kegelschnitte in Rn zu gewinnen: Satz: Sei Q ein zentraler Kegelschnitt in Rn wie oben. Dann existiert eine orthonomrale Basis (x1; : : :; xn ) und reele Zahlen 1 ; : : :; n in R, soda Q = fx = 1 x1 + + n xn : 112 + : : : n n2 + c = 0g (Anders ausgedruckt: die Isometrie, die (x1 ; : : :; xn) in die kanonische Basis (e1 ; : : :; en ) abbildet, bildet Q in den Kegelschnitt ( ; : : :; ) 2 Rn: + + + c = 0 n n n 2 1 1 1 2 ab.) Beweis: Wahle fur (x ; : : :; xn) eine orthonormale Basis, bestehend aus Eigenvektoren 1 von fA . 1 ; : : ::n sind dann die Eigenwerte von fA . Beispiel: In R hat jeder zentrale Kegelschnitt (bis auf eine Isometrie) eine der folgenden 3 Gestalten: 12 + 22 + 32 + d = 0 (d < 0, Ellipsoid; d = 0 Punkt; d > 0; ;) a2 b2 c2 12 + 22 32 + d = 0 (d < 0, einschaliges Hyporboloid; d = 0, Kegel; d > 0, zweischaliges a2 b2 c2 Hyperboloid) 12 + 22 + d = 0 (d < 0, elliptischer Zylinder; d = 0 Gerade; d > 0; ;)) a2 b2 12 22 + d = 0 (d 6= 0, hyperbolischer Zylinder; d = 0 zwei Ebenen) a2 b2 12 + d = 0 (d < 0, zwei parallele Ebenen; d = 0 eine Ebene; d > 0; ;) a2 Pseudoinverse: Sei jetzt f eine lineare Abbildung zwischen den euklidischen Raumen V , V1 . Wir zerlegen V und V1 wie folgt: V = (Ker f ) (Ker f )? V1 = (fV ) (fV )?: Behauptung: Die Einschrankung f~ von f auf (Ker f )? ist ein Isomorphismus von (Ker f )? auf fV . 118 ~ = fy ~ . Dann gilt: Beweis: f~ ist injektiv: Seien x; y 2 (Ker f )? mit fx f (x y) = f~(x) f~(y) = 0 d.h. x y 2 Ker f: Aus (Ker f ) \ (Ker f )? = f0g folgt x = y. f~ ist surjektiv: Sei x 2 f (V ). Es existiert x 2 V mit fx = z. x hat eine Darstellung x + x mit x 2 Ker f , x 2 (Ker f )?. Dann gilt 1 2 1 2 z = fx = f (x1 + x2 ) = f (x1) + f (x2) = f~(x2) q.e.d. Wir denieren eine lineare Abbildung g: V1 ! V wie folgt: g = f~ 1Pf (V ) g hat die folgenden Eigenschaften: 1) f g f = f ; 2) g f g = g; 3) fur y 2 V1 ist x = g(y) die \beste" Losung der Gleichung f (x) = y d.h. kf (x) yk kf (z) yk (z 2 V ) und x ist das Element mit kleinster Norm, das diese Eigenschaft hat. g heit die Pseudo-Inverse von f { geschrieben f y. Um eine bequeme Darstellung der Pseudoinversen zu gewinnen, brauchen wir folgendes Ergebnis. Satz: Sei f : V ! V1 eine lineare Abbildung zwischen euklidischen Raumen. Dann gibt es orthonormale Basen (x1 ; : : :; xn) bzw. (y1; : : :; yn ), soda f eine Matrix der Gestalt A 0 0 @ wobei A = diag (1; : : :; r ): besitzt. (Die i sind von f eindeutig (bis auf Permutationen) bestimmt und heien die Singularwerte von f ). Die entsprechende Aussage fur Matrizen ist: Sei A eine m n Matrix. Dann gibt es orthonomale Matrizen Q1 und Q2 und 1 ; : : :; r mit A 0 Q1 AQ2 = 0 0 wobei A = diag(1 ; : : :; r ): Beweis: Die Abbildung f t f von V in V ist selbsadjungiert (denn f t f (x)jy = f (x)jf (y) = xjf tf (y) . 119 Wir wahlen daher eine orthonormale Basis (x1; : : :; xn ) wobei jedes xi ein Eigenvektor ist, etwa mit Eigenwert i . Wir numerieren die xi so, da eventuelle Nulleigenwerte am Schlu sind, d.h. i 6= 0 (i = 1; : : :; r); r+1 = = n = 0: Dann gilt: f (xi ) ? f (xj ) (i 6= j; 1 i r; 1 j r): Denn f (xi)jf (xj ) = f t f (xi)jxi = i (xijxj ) = 0: p Auerdem gilt: kf (xi)k = i . Sei yi = fp(xi) (i = 1; : : :; r). Daraus folgt, da (y1; : : :; yr ) i ein orthonormales System ist. Wir erweitern zu einer orthonormalen Basis (y1 ; : : :; ym). (x1; : : :; xn ) bzw. (y1 ; : : :; ym) sind die gesuchten Basen. Aus diesem Beweis sieht man, da f genau dann injektiv ist, wenn r = n. Die Matrix von f ist dann A 1 wobei A = diag (1 ; : : :; r ): 0 wobei die i alle ungleich null sind. Die Matrix vonf y ist dann [A 1 0] Aber dies ist die Matrix der Abbildung (f tf ) 1f t . Damit haben wir folgenden Satz bewiesen: Satz: Falls f injektiv ist, dann auch f t f und die Pseudo-Inverse von f ist die Abbildung (f t f ) 1 f t . Beispiel (least square tting of data): Gegeben sind die Punkte (t1 ; y1), (t1; y2); : : :; (tn; yn ) in R2 . Wir bestimmen c; d, soda die Punkte \so gut wie moglich" auf der Geraden y = ct + d liegen, d.h. c; d sind \Losungen" des Systems 2 t1 1 3 2 y1 3 4 ... ... 5 dc = 64 ... 75 tn 1 yn Genauer: Wir suchen c; d, soda der Fehler (y1 ct1 d1)2 + + (yn ctn dn )2 minimal ist. Dazu berechnen wir die Pseudoinverse der Matrix 2 t1 1 3 A = 4 ... ... 5 tn 1 120 Es gilt: At A = n t 2 t t1 + : : : +t2n wobei t = t1 + + tn . Diese Matrix ist invertierbar, falls n(t21 + + t2n ) 6= t2 . Es gilt dann Ay = (At A) 1At und die Losung unseres Problems ist 2y 3 y6 . 7 d = A 4 .. 5 c 1 yn Statt das allgemeine Ergebnis durchzurechnen, betrachten wir ein konkretes Beispiel: Wir suchen eine Approximaxion fur die Daten t 0 1 2 3 5 y 0 2 3 4 6: Die Gleichung ist dann Daher gilt: 203 13 1 77 c 66 2 77 1 75 d = 64 3 75 4 1 6 5 1 20 13 0 1 2 3 5 66 1 1 77 39 t A A = 1 1 1 1 1 64 2 1 75 = 11 3 1 5 1 1 5 11 t 1 (A A) = 74 11 39 20 66 1 64 2 3 c 1 5 = d 74 11 11 5 203 2 2 6 7 11 0 1 2 3 5 66 3 77 = 4 39 1 1 1 1 1 4 4 5 6 85 74 210 37 3 5 Hermitesche Vektorraume: Fur gewissen Zwecke ist es sinnvoll, diese Konzepte im Rahmen von komplexen Vektorraumen zu studieren. Insbesondere kann man dann einen 121 rein algebraischen Beweis der Diagonalisierbarkeit von symmetrischen Matizen bringen. Wir denieren daher einen hermiteschen Vektorraum als einen komplexen Vektorraum V , zusammen mit einer Abbildung ( j ) von V V in C, soda 1) (xjx) 0 (x 2 V ). 2) (xjy) = (yjx) (x; y 2 V ). 3) (x + yjz) = (xjz) + (yjz) (; 2 C; x; y; z 2 V ). 4) (xjx) = 0 impliziert x = 0. Beispiele von solchen komplexen \Skalarprodukten" sind: in Cn bzw. (1 ; : : :; n ); (1; : : :; n ) 7! 1 1 + + n n (p; q) 7! Z p(t)q(t)dt in PolC (n). Wie in einem euklidischen Raum, so denieren wir folgende Begrie fur einen hermiteschen Raum: a) die Lange kxk eines Vektors x durch p (xjx) (xjy) kxkkyk Es gilt dann: kx + yk kxk + kyk: (Beweise wie im Fall von euklidischen Raumen.) b) orthogonale Systeme bzw. orthonormale Basen: Wiederum konnen wir die Gram-Schmidtsche Methode anwenden, um die Existenz von orthonormalen Basen nachzuweisen. Daher ist jeder hermitesche Raum zu einem Raum der Gestalt Cn isomorph. c) adjungierte Abbildungen: Falls f 2 L(V; V1), dann ist eine lineare Abbildung g: V1 ! V zu f adjungiert, falls f (x)jy = xjg(y) (x 2 V; y 2 V1 ): Falls f die Matrix a = [aij ] bezuglich orthonormalen Basen (x1 ; : : :; xn) fur V bzw. (y1; : : :; ym) fur V1 hat, dann hat g die Matrix A = [aji ] bzgl. (y1; : : :; ym) und (x1 ; : : :; yn). d) eine lineare Abbildung f : V ! V heit hermitesch, falls f = f d.h. f (x)jy = xjf (y) (x; y 2 V ). T : V ! V heit unitar, falls (TxjTy) = (xjy) (x; y 2 V ). 122 Jetzt untersuchen wir die Eigenwerte von hermiteschen und unitaren Abbildungen (bzw. Matrizen). Satz: Sei f 2 L(V ), ein Eigenwert von f . Dann gilt: 1) ist reell, falls f hermitesch; 2) jj = 1 falls f unitar. Beweis: Sei x (6= 0) ein entsprechender Eigenvektor. Dann gilt: 1) f (x)jx = (xjx) = (xjx). Aber f (x)jx = xjf (x) = f (x)jx und ist daher reell. 2) f (x)jf (x) = (xjx) = jj2(xjx). Aber f (x)jf (x) = (xjx) { daher gilt jj2 = 1. Satz: Seien ; verschiedene Eigenwerte einer hermiteschen Abbildung f , x bzw. x entsprechende Eigenvektoren. Dann gilt: x ? x . Beweis: Aus f (x )jx ) = x jf (x ) folgt: (x j x ) = (x j x ) d.h. ( )(x jx ) = 0 oder (x jx ) = 0. 1 2 1 1 1 2 1 2 1 2 2 2 1 1 2 1 1 2 2 1 2 2 Unser Hauptziel ist es jetzt, einen algebraischen Beweis der Diagonalisierbarkeit einer hermiteschen Matrix zu bringen. Dazu brauchen wir einige Lemata: Hilfsatz: Sei f 2 L(V ). Dann gilt . Ker f = Kerf f Beweis: f f (x) = 0 ) f f (x)jx = 0 Daher ist kf (x)k = f (x)jf (x) = f f (x)jx = 0. Korollar: Sei A eine m n Matrix. Dann gilt 2 Rg(A) = Rg(AA) = Rg(A) Korang(A) = Korang(AA) = Korang(A): Korollar: Sei f 2 L(V ) hermitesch. Dann gilt: Ker f = Ker(f r ) fur jede natur;liche Zahl r. Satz: Sei f 2 L(V ) eine hermitesche Abbildung. Dann existiert eine orthonormale Basis (xi ) fur V , soda jedes xi ein Eigenvektor von f ist. Bezuglich dieser Basis hat f die Matrizendarstellung diagf1 ; : : :; n g 123 wobei die i die Eigenwerte von f sind (und daher alle aus R sind). Beweis: Sei f die charakteristische Funktion von f . Wir zerlegen sie in die Gestalt: f () = ( 1 )n : : : ( r )nr wobei die i die Eigenwerte von f sind. Nach dem Satz von Cayley-Hamilton gilt: (f 1Id)n : : : (f r Id)nr = 0: Wir behaupten da (f 1 Id) : : : (f r Id) = 0 Denn aus der ersten Gleichung folgt, da [(f 2 Id)n : : : (f r Id)nr ] (x) 2 Ker(f 1 Id)n = Ker(f 1 Id): (x 2 V ) Daher gilt: (f 1 Id)(f 2 Id)n : : : (f r Id)nr = 0 1 1 2 1 2 Wegen Kommutativitat der Faktoren konnen wir systematisch die Indizes der Faktoren (f i Id)ni auf eins reduzieren. Das bedeutet, da die Minimalfunktion von f ein Produkt von verschiedenen linearen Faktoren ist, d.h. die Jordansche Normalform von f hat die Gestalt: diag (1 ; : : :; 1; 2; : : :; r ; : : :; r ) Sei Jetzt Vi = Ker (f i Id). Dann gilt: Vi ? Vj (i 6= j ) da Eigenvektoren von f , die verschiedenen Eigenwerten entsprechen, orthogonal sind. Daher konnen wir eine orthonormale Basis fur V konstruieren, indem wir orthonormale Basen fur jedes Vi zusammenstellen. Bezuglich dieser Basis hat f die Matrix diag(1; : : :; 1; 2; : : : ; r ). In der Sprache der Matrizen kann man dieses Ergebnis forlgendermaen ausdrucken: Sei A eine hermitesche n n Matrix. Dann sind die Eigenwerte von A reell und es existieren n orthonormale Vektoren X1 ; : : :; Xn, die alle Eigenvektoren von A sind. Falls U die Matrix [X1; : : :; Xn] bezeichnet, dann ist U unitar und es gilt: U 1AU = diag(1 ; : : :; n ) wobei die i die (reellen) Eigenwerte von A sind. Wir konnen folgende Verscharfung dieses Satzes, die spater nutzlich sein wird, angeben. Satz: Seien f; g kommutierende hermitesche Abbildungen auf V . Dann besitzt V eine orthonormale Basis (x1; : : :; xn), wobei jedes xi ein Eigenvektor sowohl von f als auch von g ist. 124 Beweis: Seien 1 ; : : :; r die Eigenwerte von f und setze Vi = Ker(f i Id). Wir wissen, da V die direkte Summe V1 Vr ist. Wir behaupten, da g(Vi ) Vi gilt fur jedes i. Denn x 2 Vi ) f (x) = i x ) (g f )(x) = i g(x) ) (f g)(x) = i g(x) wegen d. Kommutativitat d.h. g(x) 2 Vi : gjVi ist jetzt eine hermitesche Abbildung auf Vi { daher hat Vi eine orthonormale Basis, die aus Eigenvektoren von g besteht. Durch Zusammensetzung der Basen fur die Vi bekommen wir die gesuchte orthonormale Basis fur V . Wir betrachten jetzt eine Verallgemeinerung von hermiteschen Abbildungen { die normalen Abbildungen. f 2 L(V ) ist normal, falls f und f kommutieren. Ein typisches Beispiel ist eine Abbildung fA wobei A die Diagonalmatrix diag (1 : : :; n ) ist (1; : : :; n 2 C). Denn A = diag(1 ; : : :; n ) und AA = AA . Wir werden jetzt sehen, da die normalen Abbildungen genau diejenigen Abbildungen sind, die solche Darstellungen bzgl. einer geeigneten Wahl einer orthonormalen Basis besitzen. Zunachst einige Hilfsuberlegungen: Hilfsatz: Sei f eine lineare Abbildung auf V . f ist genau dann normal, wenn f = g + ih, wobei g; h hermitesch sind und g; h kommutieren. Beweis: Zunachst die Bemerkung, da jedes f 2 L(V ) eine eindeutig bestimmte Darstellung g + ih besitzt, wobei g und h hermitesch sind (wahle g = 21 (f + f ), h = 21i (f f )). Da f = g ih, sieht man leicht, da f genau dann mit f kommutiert, wenn g mit h kommutiert. Satz: Sei f eine normale Abbildung. Dann besitzt V eine orthonormale Basis (xi ) derart, da jedes xi ein Eigenvektor von f ist. Bezuglich dieser Basis hat f die Darstellung diag(1 ; : : :; n ) wobei die i die Eigenwerte von f sind. Beweis: Sei f = g + ih, wobei g; h hermitesch sind. Wir wahlen eine orthonormale Basis x1 ; : : :; xn, soda die xi Eigenvektoren sowohl von g als auch von h sind, etwa g(xi) = i xi ; h(xi ) = i xi : Dann gilt: f (xi) = (g + ih)(xi ) = (i + ii )xi . 125 q.e.d. Korollar: Sei f 2 L(V ) eine unitare Abbildung. Dann existiert eine orthonormale Basis (xi ) fur V , soda die Matrix von f die Gestalt diagfcos 1 + i sin 1; : : :; cos n + i sin n g hat. Der Beweis besteht aus den zwei einfachen Bemerkungen: a) Eine unitare Abbildung ist normal. b) Die Eigenwerte einer unitaren Abbildung haben Absolutbetrag 1 und daher die Gestalt (cos + i sin ) ( 2 [0; 2[): Mit Hilfe dieses Satzes konnen wir eine Verallgemeinerung der Klassizierung von Isometrien auf R2 und R3 gewinnen. Satz: Sei f : Rn ! Rn eine lineare Isometrie. Dann existiert eine orthonormale Basis (xi ) von Rn , soda die Matrix von f die Blockgestalt diag(Ir Is D : : : Dt ) 1 besitzt. (D.h. f ist die Zusammensetzung von s Spiegelungen und t Drehungen. N.B. Wenn wir dieses Ergebnis auf R2, bzw. R3 anwenden, so bekommen wir wieder die Klassizierung der zwei- bzw. dreidimensionalen linearen Isometrien (vgl. Kap. II). 126