Euklidische Räume

Werbung
VII. EUKLIDISCHE RA UME
Im Kapitel II haben wir gesehen, wie R2 und R3 mit einem naturlichen Skalarprodukt
ausgestattet werden konnen. Damit haben wir Begrie wie Orthogonalitat und Winkel
betrachtet. Jetzt arbeiten wir mit diesen Begrien in hoheren Dimensionen, wobei wir
wieder die axiomatische Methode verwenden.
Denition: Ein Skalarprodukt (oder inneres Produkt) auf einem reelen Vektorraum
V ist eine Abbildung
soda
1) die Abbildung bilinear ist, d.h.
( j ): V V ! R
(1 x1 + 2 x2 j1y1 + 2 y2 ) = 1 1 (x1jy1) + 1 2(x1 jy2) + 2 1 (x2jy1) + 2 2 (x2jy2)
(1; 2 ; 1; 2 2 R; x1; x2; y1; y2 2 V );
2) ( j ) ist symmetrisch d.h. (xjy) = (yjx) (x; y 2 V );
3) ( j ) ist positiv denit d.h. (xjx) > 0 fur x 6= 0.
(Bemerkung: Aus Eigenschaft 3) folgt: Sei x 2 V mit der Eigenschaft, da (xjy) = 0 fur
jedes y 2 V . Dann gilt: x = 0.)
Ein euklidischer Vektorraum ist ein Vektorraum V uber R, zusammen mit einem Skalarprodukt ( j ) darauf.
Beispiel: I. Rn mit dem Skalarprodukt
(xjy) = + + n n
1 1
ist ein euklidischer Raum;
II. Die folgenden Abbildungen auf Pol (n) sind Skalarprodukte:
(pjq): =
Z
1
p(t)q(t)dt:
0
(wobei
(pjq): = a0b0 + a1 b1 + + an bn
p(t) = a0 + a1t + + an tn
q(t) = b0 + b1t + + bn tn ):
In euklidischen Raumen kann man die Grundbegrie (Lange, Winkel, Orthogonalitat) der
euklidischen Geometrie einfuhren.
109
Lange: Die Lange kxk eines Vektors x 2 V ist folgendermaen deniert:
p
kxk: = (xjx)
(Z.B. in Rn gilt:
kxk = ( + + n ) ):
1
2 2
2
1
Einige Eigenschaften:
I.
j(xjy)j kxkkyk
(x; y 2 V )
(genannt die CAUCHY-SCHWARZ-Ungleichung { nach dem klassischen Fall
11 + + n n (12 + + n2 ) (12 + + n2 )
1
2
1
2
in Rn ):
Beweis: Die quadratische Funktion
7! (x + yjx + y)
= kyk + 2(xjy) + kxk
2
2
2
ist nirgends negativ. Daher ist die Diskrimante nicht positiv, d.h. 4(xjy)2 4 kyk2kxk2
0.
q.e.d.
II. kx + yk kxk + kyk (Dreiecksungleichung).
Beweis:
kx + yk2 = (x + yjx + y)
= kxk2 + 2(xjy) + kyk2
kxk2 + 2kxkkyk + kyk2 (nach I.)
= kxk + kyk 2 q.e.d.
Winkel: Seien x; y Vektoren aus einem euklidischen Raum V , wobei x 6= 0, y 6= 0. Dann
gilt (nach I. oben)
1 k(xxkkjyy)k 1:
Daher gibt es ein eindeutig bestimmtes 2 [0; ] mit cos = (xjy)=kxkkyk.
heit der O nungswinkel zwischen x und y (geschrieben 6 (x; y)). Falls x = 0 oder
y = 0, dann setzen wir 6 (x; y) = 0.
Orthogonalitat: Zwei Vektoren x; y 2 V sind orthogonal (geschrieben x ? y) falls
(xjy) = 0. (D.h. falls 6 (x; y) = =2 oder x = 0 oder y = 0). Ein Orthonormalsystem
in V (kurz ON-System) ist eine Menge von Einheitsvektoren, die paarweise orthogonal
sind.
110
Beispiel: Die kanonische Basis von Rn ist ein ON-System.
Bemerkung: Die Vektoren eines ON-Systems sind linear unabhangig.
Beweis: Sei fx ; : : :; xn g ein ON-System. Dann gilt:
1
n
X
k=1
k xk = 0 )
n
X
k=1
X
k xk jxi = 0 (i = 1; : : :; n)
) k (xk jxi ) = 0
) i (xi jxi) = 0
) i = 0
q.e.d.
Insbesondere ist in einem euklidischen Raum V mit dim V = n jedes ON-System
fx1; : : : ; xng mit n-Elementen automatisch eine Basis. Solche Basen (die sogenannten orthonormalen Basen) haben die angenehme Eigenschaft, da die Koordinaten eines Vektors x mit Hilfe des Skalarproduktes sofort ausgerechnet werden konnen. Es gilt namlich:
Sei x 2 V . Dann hat x die Darstellung
x=
n
X
(xjxk )xk
k=1
bezuglich der orthonormalen Basis (x1 ; : : :; xn) von V . Denn aus x =
k =
n
X
i=1
!
Pn x folgt:
i i
i
=1
i xi jxk = (xjxk ):
Die Existenz von orthonormalen Basen folgt aus dem folgenden Satz, dessen Beweis eine
naturliche geometrische Konstruktion, die wir furher kennengelernt haben, verwendet.
Satz: Sei (x1; : : :; xk ) ein ON-System in einem euklidischen Raum V . Dann existiert
xk+1 ; : : :; xn in V , soda (x1; : : : ; xn) eine ON-Basis fur V ist.
Beweis: Wahle z 62 [x1 ; : : :; xk ]. Deniere
x~k+1 = z
n
X
i=1
(zjxi )xi
Dann gilt: x~k+1 6= 0 (warum?) und x~k+1 ? xi fur i = 1; : : :; k. Wir denieren dann
xk+1 = x~k+1=kx~k+1 k.
(x1; : : :; xk+1 ) ist ein ON-System. Wir fahren weiter fort, bis wir ein ON-System mit
n-Elementen (und daher eine ON-Basis) bekommen.
111
Korollar: Jeder endlich dimensionale euklidische Raum hat eine ON-Basis (x ; : : :; xn ).
1
Beispiel: Wir wenden diese Methode an, um eine ON-Basis fur Pol (2) bezuglich des
Skalarproduktes
(pjq) =
Z
1
p(t)q(t)dt
0
zu erhalten.
Wir wahlen:
x0 = 1
x~1 (t) = t (tj1)1 = t 21 ;
p 1
x1 (t) = 12 t 2 ;
x~2 (t) = t2 (t2jx0)x0 (t) (t2jx1 )x1(t);
= t2 t + 16 ;
p 2
1
x2 (t) = 6 5 t t + 6 :
Wiederum sind lineare Abbildungen zwischen euklidischen Raumen, die ihre Struktur respektieren, besonders interessant: Daher die
Denition: Eine lineare Abbildung f : V ! V1 (wobei V und V1 euklidisch sind) heit
eine Isometrie, falls
(fxjfy) = (xjy) (x; y 2 V ):
Wir notieren einige einfache Eigeschaften solcher Abbildungen. Einige von diesen Ergebnissen haben wir schon im Kapitel II kennengelernt. Normalerweise kann man die Beweise
fur V = R2 auf den allgemeinen Fall sofort ubertragen.
I. Eine Isometrie f respektiert die Langen von Vektoren.
Denn kfxk2 = (fxjfy) = (xjy) = kxk2.
Anderseits ist eine lineare Abbildung f mit der Eigenschaft, da kf (x)k = kxk (x 2 V )
automatisch eine Isometrie, (denn
kx + yk2 kx yk2 ):
(xjy) =
4
II. Eine Isometrie f : V ! V1 ist immer injektiv, (denn aus fx = 0 folgt kxk = kfxk = 0
d.h. x = 0). f ist genau dann surjektiv, (und daher bijektiv, d.h. ein linearer Isomorphismus), wenn dim V1 = dim V .
112
III. Eine Abbildung f : V ! V1 mit der Eigenschaft, da kf (x) f (y)k = kx yk (x; y 2
V ) hat immer die Gestalt x 7! fx + u (wobei f eine lineare Isometrie ist und u 2 V1 ).
IV. Eine lineare Isometrie bildet orthonormale Systeme in orthonormale Systeme ab.
Insbesondere bildet sie ON-Basen in ON-Basen ab, falls dim V = dim V1 .
Andererseits gilt: wenn f eine lineare Abbildung ist, soda f eine Basis von V in eine
ON-Basis von V1 abbildet, dann ist f eine Isometrie.
Daraus folgt: Jeder n-dimensionale euklidische Raum V ist isometrisch isomorph zu Rn .
(Wahle eine lineare Abildung f von Rn in V , soda f die kanonische Basis fur Rn in eine
ON-Basis (x1 ; : : :; xn) von V abbildet.)
Sei jetzt A eine n n Matrix. Da die Bilder der kanonischen Basis von Rn bezuglich fA
gerade die Spalten von A sind, sehen wir, da fA genau dann eine Isometrie ist, wenn die
Spalten von A eine orthonormale Basis fur Rn bilden. Anders ausgedruckt: A erfullt die
Bedingung:
AtA = I:
Daraus folgt, da At = A 1 bzw. AAt = I . (Solche Matrizen nennt man orthonormal.)
Typische Beispiele von Isometrien sind:
Spiegelung: Das sind Abbildungen mit Matrizen der Gestalt
21
3
66 . . .
77
66
77
1
66
77
1
66
77
:
66
77
1
64
. . . 75
1
Drehungen: Sie haben Matrizen der Gestalt
21
66 . . .
66
1
66
cos sin 66
sin cos 66
1
64
...
3
77
77
77
77
77
75
1
bzgl. einer geeigneten orthonormalen Basis. Wir werden spater sehen, da alle linearen
Isometrien aus Abbildungen dieser Gestalten zusammengesetzt sind.
113
Orthogonale Projektionen:
Im Kapitel II haben wir gesehen, da jeder Teilraum eines Vektorraumes einen Komplementarraum besitzt und dementsprechend eine Projektion, die den ganzen Raum auf den
Teilraum projiziert. Allerdings gibt es viele solche Projektionen. Wir werden jetzt sehen,
da die Geometrie eines euklidischen Raumes eine wichtige Projektion { die sogenannte
orthogonale Projektion { aus diesen Projektionen auszeichnet.
Denition: Sei M ein Teilraum eines euklidischen Raumes. Die Menge
M ?: = x 2 V : (xjy) = 0 fur y 2 M
heit orthogonales Komplement von M .
Satz:
1) M ? ist eine Teilraum von V .
2) M und M ? sind Komplementarraume d.h. V = M M1 . Genauer, sei (x1 ; : : :; xn)
eine ON-Basis fur V , soda M = [x1; : : :; xr ]. Dann gilt:
M ? = [xr+1 ; : : :; xn]:
Beweis: Da xi 2 M ? fur i = r + 1; : : :; n, ist es klar, da [xr ; : : :; xn ] M ? . Sei jetzt
x 2 M ?. x hat die Darstellung
+1
x=
n
X
(xjxk )xk =
k=1
n
X
k=r+1
(xjxk )xk 2 [xr+1 ; : : :; xn]
da (xjxk ) = 0 (k = 1; : : :; r).
q.e.d.
Sei jetzt M ein Teilraum des euklidischen Raumes V . Nach diesem Satz hat jedes x 2 V
eine eindeutige Darstellung y + z(y 2 M; z 2 M ?). y heit die orthogonale Projektion
von x auf M (geschrieben PM x). (D.h. PM ist die Projektion auf M entlang M ?.)
Bemerkungen: I. Bezuglich der orthonormalen Basis, die wir in dem obigen Beweis
konstruierten, hat PM die Matrix
I
0
0
0
Andererseits gilt: Eine lineare Abbildung, die eine solche Darstllung bezgl. einer it orthonormalen Basis besitzt, ist eine Projektion dieser Art.
II. Der Punkt PM (x) ist die beste Approximation zu x aus M d.h.
kx PM (x)k < kx yk y 2 M; y 6= PM (x) :
r
III. x 2PM (x) ist das Spiegelbild von x an M ?. Daher heit die lineare Abbildung Id
2PM eine Spiegelung.
114
Orthogonale Zerlegungen: Sei V ein euklidischer Raum. Eine Folge V ; : : : ; Vr von
Teilraumen von V ist eine orthogonale Zerlegung, falls
1) Vi ? Vj (i =
6 j ) (d.h. xi ? xj falls xi 2 Vi ; xj 2 Vj );
2) jedes x 2 V hat eine Darstellung
x + + xr
(wobei xi 2 Vi fur jedes i).
Nach 1) ist diese Zerlegung eindeutig bestimmt. Wir schreiben dann V = V ; : : :; Vr .
1
1
1
Eine wichtige Bemerkung ist dann: Sei fur jedes i (xi1; : : :; xini ) eine orthonormale Basis
fur Vi . Dann ist
(x11; x12; : : :; x1n ; x21 ; : : :; xr1; : : :; xrnr )
eine orthonomale Basis fur V .
Jetzt betrachten wir den Begri der adjungierten Abbildung. Falls f eine lineare Abbildung
von V in V1 ist, dann heit eine lineare Abbildung g: V1 ! V zu f adjungiert, falls
f (x)jy = xjg(y) (x 2 V; y 2 V1):
1
Satz: Es gibt genau eine lineare Abbildung g: V ! V , soda f und g adjungiert sind.
Beweis: Zunachst wahlen wir orthonormale Basen (x ; : : :; xn ) bzw. (y ; : : :; ym) fur V
1
1
1
bzw. V1 und bezeichnen mit A = [aij ] die Matrix von f bezuglich dieser Basen d.h.
aij = f (xi )jyj . Falls ein solches g existiert, dann gilt
aij = f (xj )jyi = xj jg(yi)
und das ist das (j; i)-te Element der Matrix, die g darstellt. Daraus folgt, da die Matrix
von g gleich At sein mu. Wir mussen jetzt nur zeigen, da die Abbildung g, mit Matrix
At die Bedingung
f (x)jy = xjg(y)
erfullt.
Dazu rechnen wir einfach nach:
0 n
1
m
X
X
f (x)jy = @f (xjx )x j (yjy )y A
0 m j=1n
XX
j j
k=1
k k
=@
1
aij (xjxj ) yi j (yjyk )yk A
=
aij (xjxj )(yjyk )(yi jyk )
i=1 j =1
m X
n X
m
X
m
X
k=1
i=1 j =1 k=1
m X
n
X
=
aij (xjxj )(yjyi):
i=1 j =1
115
Analog gilt:
1
0n
m
X
X
xjg(y) = @ (xjx )x jg (yjy )y A
=
j =1
m X
n
X
i=1 j =1
j j
i=1
aij (xjxj )(yjyi)
i i
q.e.d.
Die Abbildung g, die wir in diesem Beweis konstruiert haben, bezeichnet man mit f t . Eine
Abbildung f : V ! V heit selbst-adjungiert, falls f = f t . Das bedeutet, da die Matrix
von f bezuglich einer (und daher jeder) orthonormalen Basis symmetrisch ist.
Mit dieser Schreibweise sehen wir, da eine Abbildung f 2 L(V ) genau dann eine Isometrie
ist, wenn f t f = Id (d.h. f 1 = f t ). Denn f ist eine Isometrie, wenn
(xjy) = f (x)jf (y) = f t f (x)jy
gilt fur jedes y. Daher gilt f t f (x) = x fur jedes x d.h. f t f = Id.
Besondere Beispiele von selbst-adjungierten Abbildungen sind Abbildungen, die eine diagonale Matrix bezuglich einer orthonormalen Basis besitzen. Der wichtigste Satz dieses
Kapitels besagt, da alle selbst-adjungierten Abbildungen diese Eigenschaft haben. Wir
bringen einen Beweis, der einfache Hilfsmittel aus der Analysis verwendet.
Satz: Sei f eine selbst-adjungierte lineare Abbildung von V in V . Dann besitzt V eine
orthonormale Basis (x1; : : :; xn), wobei jedes xi ein Eigenvektor von f ist. Bezuglich dieser
Basis hat f die Matrix diag(1 ; : : :; n), wobei i die Eigenwerte von f sind.
Beweis: Wir betrachten die Funktion:
f (x)jx
': x ! (xjx)
auf V n f0g, Es gilt: '(x) = '(x) ( 6= 0).
Nach einem Satz
aus der Analysis, existiert x1 2 V , soda kx1k = 1 und '(x1) '(x) kxk = 1 . Die Funktion
: t ! '(x1 + ty) (y 6= 0)
hat daher ein Minimum fur t = 0. Daraus folgt:
0 (0) = 0:
Aber 0 (0) = 2 yjf (x1) 21(yjx1) wobei 1 : = x1jf (x1) (siehe unten). Daraus folgt:
yjf (x1) = 1(yjx1):
116
Da diese Gleichung fur jedes y 2 V gilt, kann man schlieen,
da f (x1) = 1x1 d.h. x1 ist
ein Eigenvektor von f (mit Eigenwert 1 = f (x1)jx1) .
Seien jetzt V1 : = [x1 ]?. Dann gilt f (V1) V1 . Denn aus x 2 V1 folgt (xjx1) = 0 und daher
f (x)jx1 = xjf (x1) = (xj1x1 ) = 0
d.h. f (x) 2 V1 .
Da f jV jetzt eine selbst-adjungierte Abbildung von V1 in sich selbst ist, kann man wieder
die gleiche Methode anwenden, um einen Eigenwert 2 und Eigenvektor x2 in V1 zu nden.
Ein naturlicher Induktionsbeweis liefert jetzt das Ergebnis.
Berechnung der Ableitung von :
0 (0) = lim 1 (t)
(0)
t! 0 t
1 ['(x ty) '(x )]
= tlim
1
1
!0 t
1 x jx f x jx t f y jx t f x jy t f y jy x jx t y jx t x jy t y jy f x jx = tlim
x tyjx ty x jx
!0 t
= 2 yjf (x1) 2(yjx1)1:
1
( 1
1 )( ( 1 )
1 )+ ( ( )
1 )+ ( ( 1 )
)+ 2 ( ( ) ) (( 1 1 )+ (
( 1+
1 + )( 1 1 )
1 )+ ( 1
)+ 2 (
))( ( 1 )
1)
Die Funktion ' heit RAYLEIGH Funktion von f . Aus der Beweis bekommt man folgende
Charakterisierung der Eigenwerte:
Satz: Seien 1 < < n die Eigenwerte der selbst-adjungierten Abbildung f . Dann gilt
1 = min f'(x): x 2 V n f0gg
n = max f'(x): x 2 V n f0gg :
Als eine Anwendung dieser Theorie bringen wir eine kurze Behandlung der Kegelschnitte
in hoheren Dimensionen. Das sind Teilmengen von Rn der Gestalt:
8
9
n
<
=
X
(
;
:
:
:;
):
a
+
2
b
+
+
2
b
+
c
=
0
n
ij i j
n n
:
;
i;j
1
1 1
=1
wobei die aij ; bi und c aus R sind.
Zunachst schreiben wir diese Gleichung in der Gestalt
fA(x)jx + 2(bjx) + c = 0
wobei x = (1; : : :; n), und b = (b1; : : :; bn).
Ohne Verlust der Allgemeinheit konnen wir annehmen, da A symmetrisch ist (und daher
fA selbst-adjungiert). Denn ersetzen wir aij durch (aij +2 aji ) , so bleibt die Gleichung
117
unverandert. Der Einfachheit wegen werden wir annehemen, da der Kegelschnitt zentral ist d.h. b = 0 (geometrisch bedeutet das, da der Kegelschnitt einen Punkt der
Zentralsymmetrie, den wir als Urspung wahlen konnen, besitzt). Wir konnen jetzt unser
Ergebnis uber die Diagonalisierbarkeit von selbst-adjungierten Abbildungen verwenden,
um eine Klassizierung fur solche Kegelschnitte in Rn zu gewinnen:
Satz: Sei Q ein zentraler Kegelschnitt in Rn wie oben. Dann existiert eine orthonomrale
Basis (x1; : : :; xn ) und reele Zahlen 1 ; : : :; n in R, soda
Q = fx = 1 x1 + + n xn : 112 + : : : n n2 + c = 0g
(Anders ausgedruckt: die Isometrie, die (x1 ; : : :; xn) in die kanonische Basis (e1 ; : : :; en )
abbildet, bildet Q in den Kegelschnitt
( ; : : :; ) 2 Rn: + + + c = 0
n
n n
2
1 1
1
2
ab.)
Beweis: Wahle fur (x ; : : :; xn) eine orthonormale Basis, bestehend aus Eigenvektoren
1
von fA . 1 ; : : ::n sind dann die Eigenwerte von fA .
Beispiel: In R hat jeder zentrale Kegelschnitt (bis auf eine Isometrie) eine der folgenden
3
Gestalten:
12 + 22 + 32 + d = 0 (d < 0, Ellipsoid; d = 0 Punkt; d > 0; ;)
a2 b2 c2
12 + 22 32 + d = 0 (d < 0, einschaliges Hyporboloid; d = 0, Kegel; d > 0, zweischaliges
a2 b2 c2
Hyperboloid)
12 + 22 + d = 0 (d < 0, elliptischer Zylinder; d = 0 Gerade; d > 0; ;))
a2 b2
12 22 + d = 0 (d 6= 0, hyperbolischer Zylinder; d = 0 zwei Ebenen)
a2 b2
12 + d = 0 (d < 0, zwei parallele Ebenen; d = 0 eine Ebene; d > 0; ;)
a2
Pseudoinverse: Sei jetzt f eine lineare Abbildung zwischen den euklidischen Raumen V ,
V1 . Wir zerlegen V und V1 wie folgt:
V = (Ker f ) (Ker f )?
V1 = (fV ) (fV )?:
Behauptung: Die Einschrankung f~ von f auf (Ker f )? ist ein Isomorphismus von
(Ker f )? auf fV .
118
~ = fy
~ . Dann gilt:
Beweis: f~ ist injektiv: Seien x; y 2 (Ker f )? mit fx
f (x y) = f~(x) f~(y) = 0 d.h. x y 2 Ker f:
Aus (Ker f ) \ (Ker f )? = f0g folgt x = y.
f~ ist surjektiv: Sei x 2 f (V ). Es existiert x 2 V mit fx = z. x hat eine Darstellung
x + x mit x 2 Ker f , x 2 (Ker f )?. Dann gilt
1
2
1
2
z = fx = f (x1 + x2 ) = f (x1) + f (x2) = f~(x2)
q.e.d.
Wir denieren eine lineare Abbildung g: V1 ! V wie folgt:
g = f~ 1Pf (V )
g hat die folgenden Eigenschaften:
1) f g f = f ;
2) g f g = g;
3) fur y 2 V1 ist x = g(y) die \beste" Losung der Gleichung f (x) = y d.h.
kf (x) yk kf (z) yk (z 2 V )
und x ist das Element mit kleinster Norm, das diese Eigenschaft hat.
g heit die Pseudo-Inverse von f { geschrieben f y.
Um eine bequeme Darstellung der Pseudoinversen zu gewinnen, brauchen wir folgendes
Ergebnis.
Satz: Sei f : V ! V1 eine lineare Abbildung zwischen euklidischen Raumen. Dann gibt es
orthonormale Basen (x1 ; : : :; xn) bzw. (y1; : : :; yn ), soda f eine Matrix der Gestalt
A 0
0 @
wobei A = diag (1; : : :; r ):
besitzt. (Die i sind von f eindeutig (bis auf Permutationen) bestimmt und heien die
Singularwerte von f ).
Die entsprechende Aussage fur Matrizen ist: Sei A eine m n Matrix. Dann gibt es
orthonomale Matrizen Q1 und Q2 und 1 ; : : :; r mit
A 0
Q1 AQ2 = 0 0
wobei A = diag(1 ; : : :; r ):
Beweis: Die Abbildung
f t f von V in V ist selbsadjungiert (denn f t f (x)jy =
f (x)jf (y) = xjf tf (y) .
119
Wir wahlen daher eine orthonormale Basis (x1; : : :; xn ) wobei jedes xi ein Eigenvektor ist,
etwa mit Eigenwert i . Wir numerieren die xi so, da eventuelle Nulleigenwerte am Schlu
sind, d.h.
i 6= 0 (i = 1; : : :; r); r+1 = = n = 0:
Dann gilt:
f (xi ) ? f (xj ) (i 6= j; 1 i r; 1 j r):
Denn
f (xi)jf (xj ) = f t f (xi)jxi = i (xijxj ) = 0:
p
Auerdem gilt: kf (xi)k = i . Sei yi = fp(xi) (i = 1; : : :; r). Daraus folgt, da (y1; : : :; yr )
i
ein orthonormales System ist. Wir erweitern zu einer orthonormalen Basis (y1 ; : : :; ym).
(x1; : : :; xn ) bzw. (y1 ; : : :; ym) sind die gesuchten Basen.
Aus diesem Beweis sieht man, da f genau dann injektiv ist, wenn r = n. Die Matrix von
f ist dann
A 1
wobei A = diag (1 ; : : :; r ):
0
wobei die i alle ungleich null sind. Die Matrix vonf y ist dann
[A 1 0]
Aber dies ist die Matrix der Abbildung (f tf ) 1f t . Damit haben wir folgenden Satz bewiesen:
Satz: Falls f injektiv ist, dann auch f t f und die Pseudo-Inverse von f ist die Abbildung
(f t f ) 1 f t .
Beispiel (least square tting of data):
Gegeben sind die Punkte (t1 ; y1), (t1; y2); : : :; (tn; yn ) in R2 . Wir bestimmen c; d, soda die
Punkte \so gut wie moglich" auf der Geraden y = ct + d liegen, d.h. c; d sind \Losungen"
des Systems
2 t1 1 3 2 y1 3
4 ... ... 5 dc = 64 ... 75
tn 1
yn
Genauer: Wir suchen c; d, soda der Fehler
(y1 ct1 d1)2 + + (yn ctn dn )2
minimal ist.
Dazu berechnen wir die Pseudoinverse der Matrix
2 t1 1 3
A = 4 ... ... 5
tn 1
120
Es gilt:
At A =
n
t
2
t t1 + : : : +t2n
wobei t = t1 + + tn .
Diese Matrix ist invertierbar, falls n(t21 + + t2n ) 6= t2 . Es gilt dann
Ay = (At A) 1At
und die Losung unseres Problems ist
2y 3
y6 . 7
d = A 4 .. 5
c
1
yn
Statt das allgemeine Ergebnis durchzurechnen, betrachten wir ein konkretes Beispiel:
Wir suchen eine Approximaxion fur die Daten
t 0 1 2 3 5
y 0 2 3 4 6:
Die Gleichung ist dann
Daher gilt:
203
13
1 77 c 66 2 77
1 75 d = 64 3 75
4
1
6
5 1
20 13
0 1 2 3 5 66 1 1 77 39
t
A A = 1 1 1 1 1 64 2 1 75 = 11
3 1
5 1
1
5
11
t
1
(A A) = 74 11 39
20
66 1
64 2
3
c 1 5
=
d
74
11
11
5
203
2
2
6
7
11 0 1 2 3 5 66 3 77 = 4
39 1 1 1 1 1 4 4 5
6
85
74
210
37
3
5
Hermitesche Vektorraume: Fur gewissen Zwecke ist es sinnvoll, diese Konzepte im
Rahmen von komplexen Vektorraumen zu studieren. Insbesondere kann man dann einen
121
rein algebraischen Beweis der Diagonalisierbarkeit von symmetrischen Matizen bringen.
Wir denieren daher einen hermiteschen Vektorraum als einen komplexen Vektorraum
V , zusammen mit einer Abbildung ( j ) von V V in C, soda
1) (xjx) 0 (x 2 V ).
2) (xjy) = (yjx) (x; y 2 V ).
3) (x + yjz) = (xjz) + (yjz) (; 2 C; x; y; z 2 V ).
4) (xjx) = 0 impliziert x = 0.
Beispiele von solchen komplexen \Skalarprodukten" sind:
in Cn bzw.
(1 ; : : :; n ); (1; : : :; n ) 7! 1 1 + + n n
(p; q) 7!
Z
p(t)q(t)dt
in PolC (n).
Wie in einem euklidischen Raum, so denieren wir folgende Begrie fur einen hermiteschen
Raum:
a) die Lange kxk eines Vektors x durch
p
(xjx)
(xjy) kxkkyk
Es gilt dann:
kx + yk kxk + kyk:
(Beweise wie im Fall von euklidischen Raumen.)
b) orthogonale Systeme bzw. orthonormale Basen:
Wiederum konnen wir die Gram-Schmidtsche Methode anwenden, um die Existenz von
orthonormalen Basen nachzuweisen. Daher ist jeder hermitesche Raum zu einem Raum
der Gestalt Cn isomorph.
c) adjungierte Abbildungen:
Falls f 2 L(V; V1), dann ist eine lineare Abbildung g: V1 ! V zu f adjungiert, falls
f (x)jy = xjg(y) (x 2 V; y 2 V1 ):
Falls f die Matrix a = [aij ] bezuglich orthonormalen Basen (x1 ; : : :; xn) fur V bzw.
(y1; : : :; ym) fur V1 hat, dann hat g die Matrix
A = [aji ]
bzgl. (y1; : : :; ym) und (x1 ; : : :; yn).
d) eine lineare Abbildung f : V ! V heit hermitesch, falls f = f d.h. f (x)jy =
xjf (y) (x; y 2 V ).
T : V ! V heit unitar, falls (TxjTy) = (xjy) (x; y 2 V ).
122
Jetzt untersuchen wir die Eigenwerte von hermiteschen und unitaren Abbildungen (bzw.
Matrizen).
Satz: Sei f 2 L(V ), ein Eigenwert von f . Dann gilt:
1) ist reell, falls f hermitesch;
2) jj = 1 falls f unitar.
Beweis: Sei x (6= 0) ein entsprechender Eigenvektor. Dann gilt:
1) f (x)jx = (xjx) = (xjx). Aber f (x)jx = xjf (x) = f (x)jx und ist daher reell.
2) f (x)jf (x) = (xjx) = jj2(xjx).
Aber f (x)jf (x) = (xjx) { daher gilt jj2 = 1.
Satz: Seien ; verschiedene Eigenwerte einer hermiteschen Abbildung f , x bzw. x
entsprechende Eigenvektoren. Dann gilt: x ? x .
Beweis: Aus f (x )jx ) = x jf (x ) folgt:
(x j x ) = (x j x )
d.h. ( )(x jx ) = 0 oder (x jx ) = 0.
1
2
1
1
1
2
1
2
1
2
2
2
1
1
2
1
1
2
2
1
2
2
Unser Hauptziel ist es jetzt, einen algebraischen Beweis der Diagonalisierbarkeit einer
hermiteschen Matrix zu bringen. Dazu brauchen wir einige Lemata:
Hilfsatz: Sei f 2 L(V ). Dann gilt
.
Ker f = Kerf f
Beweis: f f (x) = 0 ) f f (x)jx = 0
Daher ist kf (x)k = f (x)jf (x) = f f (x)jx = 0.
Korollar: Sei A eine m n Matrix. Dann gilt
2
Rg(A) = Rg(AA) = Rg(A)
Korang(A) = Korang(AA) = Korang(A):
Korollar: Sei f 2 L(V ) hermitesch. Dann gilt:
Ker f = Ker(f r )
fur jede natur;liche Zahl r.
Satz: Sei f 2 L(V ) eine hermitesche Abbildung. Dann existiert eine orthonormale Basis
(xi ) fur V , soda jedes xi ein Eigenvektor von f ist. Bezuglich dieser Basis hat f die
Matrizendarstellung
diagf1 ; : : :; n g
123
wobei die i die Eigenwerte von f sind (und daher alle aus R sind).
Beweis: Sei f die charakteristische Funktion von f . Wir zerlegen sie in die Gestalt:
f () = ( 1 )n : : : ( r )nr
wobei die i die Eigenwerte von f sind. Nach dem Satz von Cayley-Hamilton gilt:
(f 1Id)n : : : (f r Id)nr = 0:
Wir behaupten da
(f 1 Id) : : : (f r Id) = 0
Denn aus der ersten Gleichung folgt, da
[(f 2 Id)n : : : (f r Id)nr ] (x) 2 Ker(f 1 Id)n
= Ker(f 1 Id): (x 2 V )
Daher gilt:
(f 1 Id)(f 2 Id)n : : : (f r Id)nr = 0
1
1
2
1
2
Wegen Kommutativitat der Faktoren konnen wir systematisch die Indizes der Faktoren
(f i Id)ni auf eins reduzieren.
Das bedeutet, da die Minimalfunktion von f ein Produkt von verschiedenen linearen
Faktoren ist, d.h. die Jordansche Normalform von f hat die Gestalt:
diag (1 ; : : :; 1; 2; : : :; r ; : : :; r )
Sei Jetzt Vi = Ker (f i Id). Dann gilt: Vi ? Vj (i 6= j ) da Eigenvektoren von f , die
verschiedenen Eigenwerten entsprechen, orthogonal sind.
Daher konnen wir eine orthonormale Basis fur V konstruieren, indem wir orthonormale Basen fur jedes Vi zusammenstellen. Bezuglich dieser Basis hat f die Matrix
diag(1; : : :; 1; 2; : : : ; r ).
In der Sprache der Matrizen kann man dieses Ergebnis forlgendermaen ausdrucken: Sei
A eine hermitesche n n Matrix. Dann sind die Eigenwerte von A reell und es existieren n
orthonormale Vektoren X1 ; : : :; Xn, die alle Eigenvektoren von A sind. Falls U die Matrix
[X1; : : :; Xn] bezeichnet, dann ist U unitar und es gilt:
U 1AU = diag(1 ; : : :; n )
wobei die i die (reellen) Eigenwerte von A sind.
Wir konnen folgende Verscharfung dieses Satzes, die spater nutzlich sein wird, angeben.
Satz: Seien f; g kommutierende hermitesche Abbildungen auf V . Dann besitzt V eine
orthonormale Basis (x1; : : :; xn), wobei jedes xi ein Eigenvektor sowohl von f als auch von
g ist.
124
Beweis: Seien 1 ; : : :; r die Eigenwerte von f und setze Vi = Ker(f i Id). Wir wissen,
da V die direkte Summe V1 Vr ist. Wir behaupten, da g(Vi ) Vi gilt fur jedes
i. Denn
x 2 Vi ) f (x) = i x
) (g f )(x) = i g(x)
) (f g)(x) = i g(x) wegen d. Kommutativitat
d.h. g(x) 2 Vi :
gjVi ist jetzt eine hermitesche Abbildung auf Vi { daher hat Vi eine orthonormale Basis, die
aus Eigenvektoren von g besteht. Durch Zusammensetzung der Basen fur die Vi bekommen
wir die gesuchte orthonormale Basis fur V .
Wir betrachten jetzt eine Verallgemeinerung von hermiteschen Abbildungen { die normalen
Abbildungen. f 2 L(V ) ist normal, falls f und f kommutieren. Ein typisches Beispiel
ist eine Abbildung fA wobei A die Diagonalmatrix
diag (1 : : :; n )
ist (1; : : :; n 2 C). Denn A = diag(1 ; : : :; n ) und AA = AA . Wir werden jetzt
sehen, da die normalen Abbildungen genau diejenigen Abbildungen sind, die solche Darstellungen bzgl. einer geeigneten Wahl einer orthonormalen Basis besitzen.
Zunachst einige Hilfsuberlegungen:
Hilfsatz: Sei f eine lineare Abbildung auf V . f ist genau dann normal, wenn f = g + ih,
wobei g; h hermitesch sind und g; h kommutieren.
Beweis: Zunachst die Bemerkung, da jedes f 2 L(V ) eine eindeutig bestimmte Darstellung g + ih besitzt, wobei g und h hermitesch sind (wahle g = 21 (f + f ), h = 21i (f f )).
Da f = g ih, sieht man leicht, da f genau dann mit f kommutiert, wenn g mit h
kommutiert.
Satz: Sei f eine normale Abbildung. Dann besitzt V eine orthonormale Basis (xi ) derart,
da jedes xi ein Eigenvektor von f ist. Bezuglich dieser Basis hat f die Darstellung
diag(1 ; : : :; n )
wobei die i die Eigenwerte von f sind.
Beweis: Sei f = g + ih, wobei g; h hermitesch sind. Wir wahlen eine orthonormale Basis
x1 ; : : :; xn, soda die xi Eigenvektoren sowohl von g als auch von h sind, etwa
g(xi) = i xi ; h(xi ) = i xi :
Dann gilt: f (xi) = (g + ih)(xi ) = (i + ii )xi .
125
q.e.d.
Korollar: Sei f 2 L(V ) eine unitare Abbildung. Dann existiert eine orthonormale Basis
(xi ) fur V , soda die Matrix von f die Gestalt
diagfcos 1 + i sin 1; : : :; cos n + i sin n g
hat.
Der Beweis besteht aus den zwei einfachen Bemerkungen:
a) Eine unitare Abbildung ist normal.
b) Die Eigenwerte einer unitaren Abbildung haben Absolutbetrag 1 und daher die Gestalt
(cos + i sin ) ( 2 [0; 2[):
Mit Hilfe dieses Satzes konnen wir eine Verallgemeinerung der Klassizierung von Isometrien auf R2 und R3 gewinnen.
Satz: Sei f : Rn ! Rn eine lineare Isometrie. Dann existiert eine orthonormale Basis (xi )
von Rn , soda die Matrix von f die Blockgestalt
diag(Ir Is D : : : Dt )
1
besitzt. (D.h. f ist die Zusammensetzung von s Spiegelungen und t Drehungen.
N.B. Wenn wir dieses Ergebnis auf R2, bzw. R3 anwenden, so bekommen wir wieder die
Klassizierung der zwei- bzw. dreidimensionalen linearen Isometrien (vgl. Kap. II).
126
Herunterladen