1 Taylor-Entwicklung

Werbung
1
1.1
1.1.1
Taylor-Entwicklung
Vorbemerkung: Konvergenz von Folgen und Reihen
Folgen
Def.: Die unendliche Folge (a0 , a1 , a2 , ...) ⊂ R heißt konvergent gegen den Grenzwert a,
lim an = a,
(1)
n→∞
wenn es zu beliebig kleinem > 0 stets ein hinreichend großes N ∈ N gibt, sodaß gilt
|an − a| < ,
Bsp. 1: Mit an =
2n
1+n
|an − 2| ≡
für alle n ∈ N mit n > N .
(2)
gilt limn→∞ an = 2, denn für beliebig kleines > 0 gilt jeweils
2
< ,
1+n
für alle n ∈ N mit n > N ≥
2
− 1.
(3)
Satz: (a0 , a1 , a2 , ...) ⊂ R ist genau dann konvergent (gegen irgendeinen Grenzwert a),
wenn es zu beliebig kleinem > 0 stets ein hinreichend großes N ∈ N gibt, sodaß gilt
|an − am | < ,
1.1.2
für alle n, m ∈ N mit n, m > N .
(4)
Reihen
Def.: Die unendliche Reihe
der Partialsummen
P∞
n=0
an heißt konvergent, wenn die Folge (s0 , s1 , s2 , ...)
sk =
k
X
an
(5)
n=0
konvergiert. In diesem Fall schreibt man
∞
X
an = s := lim sk .
k→∞
n=0
(6)
Bsp. 2: Die Reihe
∞
X
n=1
an ≡
∞
X
(−1)n−1
n=1
n
= 1−
P∞
1 1
+ − +... = ln 2,
2 3
(7)
1
1
ist konvergent,
P∞nicht aber n=1 |an | = 1 + 2 + 3 + ... (“harmonische Reihe”).
P
Ist dagegen n=0 |bn | konvergent, so gilt dies immer auch für die Reihe ∞
n=0 bn , welche
in diesem Fall absolut konvergent heißt.
1
P∞
Satz (Majorantenkriterium): Gibt
es
zu
n=1 an , mit reellen oder komplexen SumP∞
manden an , eine konvergente Reihe n=1 bn mit bn ∈ R+
0 und der Eigenschaft
|an | ≤ bn
(für fast alle n ∈ {0, 1, 2, 3, ...},
(8)
P
P∞
P∞
so ist ∞
n=1 an absolut konvergent.
n=1 bn heißt dann eine Majorante von
n=1 an .
Bsp: Summiere
P∞
in
n=0 n! ,
mit Majorante
P∞
1
n=0 n!
= e, graphisch in der Zahlenebene auf!
Satz (Quotientenkriterium): Sind die an positiv, an > 0, und existiert der Grenzwert
an+1
= q,
(9)
lim
n→∞ an
P
so ist die Reihe ∞
n=0 an konvergent, falls q < 1, und divergent, falls q > 1.
Bsp. 3: Für an =
1
,
3n
also
P∞
n=0
an = 1 + 13 + 19 +
1
27
+ ... gilt
an+1
3n
1
= lim n+1 =
< 1.
n→∞ an
n→∞ 3
3
q = lim
(10)
Folglich konvergiert die Reihe (und zwar, wie wir sehen werden, gegen den Wert a = 32 ).
P
P∞ 1
1
1 2
Bsp. 4: Für die Reihen ∞
n=1 n = ∞ und
n=1 n2 = 6 π ergibt Gl. (9) den Wert q = 1.
In solchen Fällen ist das Quotientenkriterium nicht anwendbar.
1.2
1.2.1
Potenzreihen
Definition
Def.: Ein Ausdruck der Form
2
a0 + a1 x + a2 x + ... ≡
∞
X
n
an x := lim
k→∞
n=0
k
X
an x n ,
(11)
n=0
mit einer (unendlichen) Folge reeller Konstanten a0 , a1 , a2 , ... (“Koeffizienten”) und einer
Variable x, heißt Potenzreihe.
Bem.: Formal ist eine Potenzreihe ein Polynom “unendlichen Grades”. Dagegen ist ein
Polynom endlichen (k-ten) Grades immer auch eine Potenzreihe, mit an = 0 für n > k.
Bsp. 1a: Wir betrachten speziell die Koeffizientenfolge a0 = a1 = a2 = ... = 1. Stellt die
entsprechende Potenzreihe, interpretiert als Grenzwert,
2
1 + x + x + ... ≡
∞
X
n
x := lim
n=0
k→∞
k
X
xn ,
(12)
n=0
zumindest für einen gewissen Wertebereich der Variable x, eine endliche Funktion f (x)
dar ? Für x > 1 ist dies sicher nicht der Fall. Speziell für x = 21 dagegen erhalten wir
∞ n
X
1 1 1
1
= 1 + + + + ... = 2 = f ( 12 ).
(13)
2
2
4
8
n=0
2
Für beliebige x 6= 1 ist die k-te Partialsumme der Reihe (12) gegeben durch
k
X
xn =
n=0
1 − xk+1
,
1−x
x ∈ R\{1}.
(14)
Diese Formel kann man z. B. durch direkte Induktion beweisen (Übungen). Für |x| < 1
verschwindet die Potenz xk+1 bekanntlich im Limes k → ∞. Daraus schließen wir
∞
X
n=0
1 − xk+1
1
=
=: f (x),
k→∞ 1 − x
1−x
xn = lim
|x| < 1.
(15)
Wir identifizieren also die (unendliche) Potenzreihe auf dem Intervall −1 < x < 1 mit
einer gewöhnlichen (endlichen) Funktion f (x). Dies ist in folgender Abbildung illustriert.
y = 1 + x + x2
y
y =1+x
y=1
x
y = f (x) =
1
1−x
Für x = 1 hat die k-te Partialsumme den Wert k + 1, was im Limes k → ∞ divergiert;
für x = −1 oszilliert sie zwischen den Werten ±1, konvergiert also ebenfalls nicht. Für
alle x mit |x| > 1 divergiert sie im Limes k → ∞ zweifellos.
1.2.2
Konvergenzradius
P∞
n
Satz 1: Jede Potenzreihe
n=0 an x besitzt einen Konvergenzradius (KR) r ≥ 0.
Für alle x mit |x| < r ist sie absolut konvergent, während sie für alle x mit |x| > r
divergiert. (Für x = ±r ist keine allgemeine Aussage möglich.)
Bsp. 1b: In Bsp. 1a gilt r = 1. Daraus schließen wir: Für beliebig vorgegebenes c > 0
hat die Potenzreihe mit den Koeffizienten an = cn ,
2 2
1 + cx + c x + ... =
∞
X
n=0
3
cn x n ,
(16)
den KR r = 1c , denn wegen cn xn = (cx)n gilt
lim
k
X
k→∞
cn xn = lim
n=0
k→∞
k
X
(cx)n =
n=0
1
,
1 − cx
1
sofern |cx| < 1 also |x| < .
c
(17)
Für viele Potenzreihen findet man den KR mit folgendem Satz.
Satz 2: Der KR der Potenzreihe
P∞
n=0
an xn ist
|an |
,
n→∞ |an+1 |
(18)
r = lim
sofern an 6= 0 für fast alle (d.h.: für alle, mit Ausnahme von höchstens endlich vielen)
n ∈ N, und sofern dieser Limes (im eigentlichen oder uneigentlichen Sinn)
P∞ existiert.
Beweis: Nach dem Quotientenkriterium für Zahlenreihen konvergiert n=0 an xn absolut,
wenn gilt
|an+1 |
|an+1 xn+1 |
≡ |x| lim
< 1
n
n→∞ |an |
n→∞
|an x |
lim
⇔
|an |
.
n→∞ |an+1 |
|x| < lim
(19)
Bsp. 1c: Für die Potenzreihe aus Bsp. 1b erhalten wir jetzt direkt
r = lim
n→∞
cn
cn+1
1
= .
c
(20)
Bsp. 2: (a) Für die Koeffizientenfolge an = n!, also die Potenzreihe
∞
X
n!xn = 1 + x + 2x2 + 6x3 + 24x4 + ...
(21)
n!
1
= lim
= 0.
n→∞ n + 1
n→∞ (n + 1)!
(22)
n=0
ergibt sich
r = lim
Folglich divergiert diese Potenzreihe für alle x 6= 0.
(b) Für an = n!1 liefert die gleiche Überlegung den KR r = ∞. Die entsprechende Reihe,
f (x) =
∞
X
xn
n=0
n!
=1+x+
x2 x3 x4
+
+
+ ...,
2
3!
4!
(23)
stellt also für alle x ∈ R eine endliche Funktion dar!
[Wir werden sehen, daß f (x) = ex ist (Abschnitt 1.2.3).]
Es gibt aber Potenzreihen, bei denen die Voraussetzungen von Satz 2 nicht erfüllt sind,
obwohl sie einen endlichen KR haben.
Bsp. 3a: Als Beispiel betrachten wir die Potenzreihe
f (x) =
∞
X
2
2m xm = 1 + 2x + 4x4 + 8x9 + 16x16 + 32x25 + 64x36 + 128x49 + ...
m=0
4
(24)
In diesem Fall sind a0 = 1, a1 = 2, a2 = a3 = 0, a4 = 4, a5 = a6 = a7 = 0, etc,
√n
falls n = m2 mit m ∈ {0, 1, 2, ...},
2
an =
0 sonst.
(25)
Da also unendlich viele Koeffizienten an gleich null sind, ist Satz 2 hier nicht anwendbar.
Um einen allgemeingültigen Satz zu formulieren, benötigen wir einen neuen Begriff.
Def.: Die Zahl b heißt oberer Limes der Zahlenfolge (bn )n∈N ,
b = lim bn ,
(26)
n→∞
wenn bei beliebig kleinem > 0 stets für unendlich viele n ∈ N gilt bn > b − aber für
höchstens endlich viele n ∈ N gilt bn > b + .
Bsp.: Es gilt lim sin(n) = 1.
n→∞
Satz 3 (Cauchy-Hadamard): Der KR der Potenzreihe
r=
P∞
n=0
an xn ist
1
p
.
lim n |an |
(27)
n→∞
Die Fälle r = 0 =:
1
∞
und r = ∞ =:
1
0
sind eingeschlossen.
Bsp. 3b: Nach diesem Satz ist klar, daß die Potenzreihe aus Bsp. 3a den KR r = 1 hat,
√ 1/n
p
√
lim n |an | = lim 2 n
= lim 2 n/n = 1.
(28)
n→∞
1.2.3
n→∞
n→∞
Analytische Eigenschaften von Potenzreihen
P
n
Satz 4: Hat die Reihe f (x) = ∞
n=0 an x den KR r > 0, so ist die entsprechende Funktion
f (x) für |x| < r beliebig oft differenzierbar, und es gilt
f 0 (x) =
∞
X
an nxn−1 =
n=1
∞
X
(n + 1)an+1 xn
(|x| < r).
(29)
n=0
0
Die Potenzreihe der Ableitung f (x) hat also den gleichen KR r.
Bsp. 4: (a) Für die Potenzreihe f (x) =
∞
X
P∞
n=0
nxn gilt
∞
d X n
d 1
x
x =x
=
(|x| < 1).
2
dx
dx
1
−
x
(1
−
x)
n=0
n=0
P∞ xn
(b) Die Potenzreihe f (x) = n=0 n! hat KR r = ∞ und die Eigenschaft
f (x) = x
0
nxn−1 = x
f (x) =
∞
X
nxn−1
n=1
n!
∞
∞
X
X
xn−1
xn
=
=
= f (x).
(n − 1)! n=0 n!
n=1
Außerdem ist offenbar f (0) = 1. Damit folgt f (x) = ex .
5
(30)
(31)
1.3
Taylor-Reihen
Def.: Die Funktion f heißt an der Stelle x0 ∈ Df analytisch, wenn es ein Intervall
I = (x0 −r, x0 +r) ⊆ Df gibt, mit r > 0, sodaß f (x) für alle x ∈ I durch eine (konvergente)
Potenzreihe dargestellt wird,
f (x) =
∞
X
an (x − x0 )n
(|x − x0 | < r).
(32)
n=0
Notation: Wir schreiben f 0 (x) =: f (1) (x), f 00 (x) =: f (2) (x), etc. für die Ableitungen von
f (x). Insbesondere schreiben wir für die Funktion selbst auch f (x) =: f (0) (x).
Satz 5: Ist f (x) bei x = x0 analytisch, so sind die Koeffizienten der entsprechenden
(n)
Potenzreihe gegeben durch an = f n!(x0 ) . Dann gilt also
f (x) =
∞
X
f (n) (x0 )
n!
n=0
(x − x0 )n
(|x − x0 | < r).
(33)
Man nennt dies die Taylor-Entwicklung von f (x) um x = x0 .
Bew.: Wir differenzieren beide Seiten von Gl. (32) k-mal nach x,
f
(k)
(x) =
∞
X
an n(n − 1)...(n − k + 1) (x − x0 )n−k .
(34)
n=k
Lassen wir hier auf beiden Seiten x → x0 gehen, so überlebt auf der rechten Seite nur der
erste Summand mit n = k,
f (k) (x0 ) = ak k!
⇒
ak =
f (k) (x0 )
,
k!
q. e. d.
(35)
Bsp. 5a: Gesucht ist die Taylor-Entwicklung der Funktion
f (x) =
1
≡ (1 + x)−1
1+x
(36)
um den Entwicklungspunkt x0 = 0,
f (x) =
∞
X
f (n) (0)
n!
n=0
xn .
(37)
Wir brauchen also die Ableitungen f (n) (x0 = 0) bei x0 = 0,
f (0) (x0 )
f (1) (x0 )
f (2) (x0 )
f (3) (x0 )
≡
≡
≡
≡
f (x0 ) = (1 + x0 )−1 = 1,
f 0 (x0 ) = −(1 + x0 )−2 = −1,
f 00 (x0 ) = 2 · (1 + x0 )−3 = 2,
f 000 (x0 ) = −2 · 3 · (1 + x0 )−4 = −3!,
etc.
(38)
Spätestens jetzt erkennt man die allgemeine Regel,
f (n) (x0 ) ≡ f (n) (0) = (−1)n n!
6
(n = 0, 1, 2, ...).
(39)
Damit lautet also die Taylor-Reihe (33) (mit x0 = 0)
f (x) =
∞
X
f (n) (0)
n=0
n!
xn =
∞
X
(−1)n xn = 1 − x + x2 − +...
(|x| < 1).
(40)
n=0
Dies folgt direkt aus Gl. (15), 1 + u + u2 + ... =
1
,
1−u
mit u = −x.
Bsp. 5b: Wir entwickeln nochmals, aber um den anderen Entwicklungspunkt x0 = 1,
1
f (0) (x0 ) = (1 + x0 )−1 = ,
2
1
f (1) (x0 ) = −(1 + x0 )−2 = − ,
4
2
(2)
−3
f (x0 ) = 2 · (1 + x0 ) = ,
8
f (3) (x0 ) = −2 · 3 · (1 + x0 )−4 = −
3!
,
16
etc.
(41)
Allgemein gilt jetzt also
f (n) (1) = (−1)n
n!
=
2n+1
1 1 n
−
n!
2
2
(n = 0, 1, 2, ...),
(42)
und mit x − x0 = x − 1 ergibt sich die Taylor-Reihe
f (x) =
∞
X
f (n) (1)
n=0
n!
n
(x − 1)
∞
1 X 1 n
=
−
(x − 1)n
2 n=0
2
Mit x − 1 =: u ist sie von der Form
1
2
P∞
r=
n=0
(|x − 1| < r).
(43)
cn un , mit c = − 12 , hat also den KR
1
= 2.
|c|
(44)
Während also die Reihe (40) nur auf dem Intervall −1 < x < 1 konvergiert, gilt dies für
die Reihe (43) auf dem doppelt so großen Intervall −1 < x < 3.
(SKIZZE)
Bsp. 6: Besonders wichtige Taylor-Reihen (um x0 = 0 und mit r = ∞) sind (Übungen!)
x2 x3 x4
+
+
+ ...,
2
3!
4!
x2 x 4
cos(x) = 1 −
+
− +...,
2
4!
x3 x5
sin(x) = x −
+
− +....
3!
5!
ex = 1 + x +
Ihre offensichtliche gegenseitige Verwandschaft wird sogleich verständlich werden.
7
(45)
(46)
(47)
1.4
Die komplexe Exponentialfunktion
Analytische Funktionen f (x) lassen sich über ihre Taylor-Reihe leicht auf komplexe Werte
z ∈ C ihrer Variable x fortsetzen. Das wichtigste Beispiel ist die Exponentialfunktion:
Satz: Die Potenzreihe
f (z) =
∞
X
zn
n=0
n!
=: ez ,
(48)
die für alle z = x ∈ R gegen die reelle Zahl ex konvergiert, konvergiert auch für beliebige
z = x + i y ∈ C gegen eine endliche
Zahl ez = u + i v, mit gewissen
v ∈ R.
Pkomplexe
Pu,
∞ |z|n
∞ zn
|z|
Beweis: Für beliebiges z ∈ C ist n=0 n! = e jeweils eine Majorante zu n=0 n! .
Bsp.: Zur Illustration des Majorantenkriteriums haben wir in Abschnitt 1.1.2 die Reihe
i2
e i = 1 + i + 2!
+ ... graphisch in der Zahlenebene aufsummiert. Jetzt sehen wir:
e i ≡ e i ·1 = cos 1 + i sin 1 ≈ cos(57◦ ) + i sin(57◦ ).
(49)
Um zu gegebenem z = x + i y ∈ C Real- und Imaginärteil von ez = u + i v zu
bestimmen, stellen wir zunächst fest, daß für beliebige z1 , z2 ∈ C allgemein gilt
z1
e ·e
z2
≡
=
=
=
∞
∞
X
z1n X z2m n!
m!
m=0
n=0
z2
z2
1 + z1 + 1 + ... 1 + z2 + 2 + ...
2!
2!
z2
z2 1 + z1 + z2 + 1 + z1 z2 + 2 + ...
2!
2!
∞
2
X
(z1 + z2 )n
(z1 + z2 )
+ ... =
= ez1 +z2 .
1 + (z1 + z2 ) +
2!
n!
n=0
(50)
Mit z1 = x und z2 = i y (mit x, y ∈ R) gilt umgekehrt also
e
x+ i y
x
= e ·e
iy
x
= e ·
∞
X
( i y)n n=0
n!
.
(51)
In der verbliebenen Reihe sortieren wir nach geraden und ungeraden Potenzen n,
∞
X
( i y)n
n=0
n!
=
y2 y4
y3 y5
1−
+
− +... + i y −
+
− +... = cos y + i sin y.
| 2! {z4!
}
| 3! {z5!
}
cos y
sin y
(52)
Es gilt also
ez ≡ ex+ i y = ex cos y + i ex sin y ≡ ex cos y + i sin y .
| {z }
| {z }
u
v
(53)
Real- und Imaginärteil von ez verhalten sich also in reeller Richtung exponentiell,
während sie in imaginärer Richtung oszillieren wie Sinus und Cosinus!
8
Additionstheoreme für Sinus und Cosinus:
cos(α + β) + i sin(α + β) = e i (α+β) = e i α e i β = ...
(54)
Stammfunktionen von f (x) = sin3 x, g(x) = cos8 x, etc.:
sin3 x =
8
cos x =
e i x − e− i x 3
2i
e i x + e − i x 8
2
i 3ix
e − 3e i x + 3e− i x − e−3 i x
8
1
= + 2 sin 3x − 6 sin x .
8
= −
1 8ix
6ix
−6 i x
−8 i x
e + 8e + ... + 8e
+e
=
256
1
=
2 cos 8x + ... .
256
9
(55)
(56)
1.5
1.5.1
Taylor-Entwicklung als Näherungsmethode
Abgebrochene Taylor-Reihen
Die Taylor-Reihe der Funktion f (x) um x = x0 habe den KR r > 0, und es sei 0 < r0 < r.
Dann wird f (x) im Intervall |x − x0 | < r0 < r um so genauer durch die nach der k-ten
Ordnung abgebrochene Taylor-Reihe (also ein Polynom) approximiert,
f (x) ≈
k
X
f (n) (x0 )
n!
n=0
xn ,
(57)
(a) je höher bei gegebenem r0 < r die Abbruchsordnung k, bzw.
(b) je kleiner bei gegebenem k die Zahl r0 im Vergleich zum KR r ist.
Bsp. 7: Wir betrachten die Taylor-Reihe (Übungen!)
f (x) =
1
= 1 − x2 + x4 − x6 + −...
1 + x2
(|x| < 1).
(58)
Die Reihe konvergiert für alle x mit |x| < r = 1. Bricht man sie jedoch bei k = 2 ab,
f (x) ≈ 1 − x2 ,
(59)
so wird die exakte Funktion f (x) nur in dem kleinen Intervall |x| < r0 = 0.56 gut (mit
einem Fehler von maximal 10%) approximiert. Die vierte Ordnung hingegen,
f (x) ≈ 1 − x2 + x4 ,
(60)
hat die gleiche Genauigkeit im deutlich größeren Intervall |x| < r0 = 0.68.
1.0
0.8
0.6
0.4
0.2
0.0
-2
-1
0
1
10
2
1.5.2
Das Symbol O(xn )
Sei n ∈ {1, 2, 3, ...}. Dann gilt offenbar
xn+1
= 0,
x→0 xn
xn
= 1,
x→0 xn
lim
xn−1
= ∞.
x→0 xn
lim
lim
(61)
Man sagt daher: Für x → 0 geht xn+1 schneller und xn−1 langsamer gegen 0 als xn .
Sei nun f (x) eine für |x| < r (mit r > 0) stetige Funktion mit f (0) = 0. Dann sagt
man, f (x) strebe für x → 0 schneller bzw. langsamer gegen 0 als die Potenz xn , wenn gilt
lim
x→0
f (x)
= 0,
xn
bzw.
lim
x→0
f (x)
= ∞.
xn
(62)
Ist dieser Grenzwert hingegen endlich (und verschieden von 0), so sagt man f (x) strebe
für x → 0 ebenso schnell gegen 0 wie die Potenz xn . Dies wird ausgedrückt durch
f (x) = O(xn )
(x → 0),
(63)
gelesen: f (x) verschwindet für x → 0 mit der Ordnung von xn .
Die Bestimmung dieser Ordnung gelingt oft durch Taylor-Entwicklung.
Bsp. 8a:
sin x = O(x)
cos x − 1 = O(x2 )
2
ex − 1 = O(x2 )
(x → 0),
(x → 0),
(64)
(65)
(x → 0).
(66)
Bei zwei für |x| < r stetigen Funktionen f (x) und g(x) mit f (0) = g(0) bedeutet
f (x) = g(x) + O(xn ),
(67)
daß die Differenzfunktion f (x) − g(x) für x → 0 mit der Ordnung von xn gegen 0 strebt.
Bsp. 8b:
x2
+ O(x4 ),
cos x = 1 −
2
sin x = x + O(x3 ),
1
= 1 − x2 + O(x4 ).
1 + x2
Hier wurde der Zusatz “(x → 0)” fortgelassen, denn ...
11
(68)
(69)
(70)
Man kann auch untersuchen, wie stark eine Funktion mit x → 0 divergiert:
Sei f (x) für 0 < x < r stetig (r > 0) und gelte
lim f (x) = ∞.
(71)
x→0
Dann sagt man, f (x) strebe für x → 0 schneller gegen ∞ als die Potenz x−n (mit n > 0),
wenn gilt
lim f (x)xn = ∞
(n > 0),
(72)
lim f (x)xn = 0
(n > 0).
(73)
x→0
bzw. langsamer, wenn gilt
x→0
Ist dieser Grenzwert hingegen endlich (und verschieden von 0), so sagt man f (x) strebe
für x → 0 ebenso schnell gegen ∞ wie die Potenz x−n . Dies wird ausgedrückt durch
f (x) = O(x−n )
(x → 0),
(74)
gelesen: f (x) divergiert für x → 0 mit der Ordnung von x−n .
Bsp. 8c: Wir betrachten die Funktion f (x) = cot(x) :=
lim x cot(x) = lim
x→0
x→0
cos x
,
sin x
x cos x
= ... = 1.
sin x
(75)
Es gilt also cot x = O(x−1 ) für x → 0.
Auf ähnliche Weise kann man das Verhalten einer Funktion f (x) für x → ∞ untersuchen: Gegeben seien zwei für x > r (mit r > 0) stetige Funktionen f (x) und g(x) mit
limx→∞ [f (x) − g(x)] = 0. Dann bedeutet die Schreibweise
f (x) = g(x) + O(x−n )
(x → ∞),
(76)
mit n > 0, daß die Differenzfunktion f (x) − g(x) für x → ∞ mit der gleichen Ordnung
gegen 0 strebt wie die negative Potenz x−n .
12
2
Vektoranalysis
2.1
Räumliche Vektoren
Wir wählen im 3D physikalischen Raum drei paarweise orthogonale Einheitsvektoren
(“Richtungen”) e1 , e2 , e3 . Ein beliebiger Vektor a hat dann die eindeutige Darstellung
a = a1 e1 + a2 e2 + a3 e3 .
(77)
Die drei Größen (a1 , a2 , a3 ) heißen die Koordinaten von a (bezüglich B = {e1 , e2 , e3 }
als Basis). Sie haben die physikalische Dimension der entsprechenden Größe, während die
Einheitsvektoren e1 , e2 , e3 dimensionslos sind. Ein Kraftvektor ist etwa gegeben durch
F = F1 e1 + F2 e2 + F3 e3 = (2.13 N) e1 + (−1.95 N) e2 + (4.76 N) e3 .
p
F12 + F22 + F32 = 5.57 N.
Sein Betrag ist |F| =
(78)
Das Skalarprodukt zweier Vektoren a und b wird definiert durch
a · b := |a||b| cos γ,
(79)
mit deren Beträgen |a|, |b| und dem von ihnen eingeschlossenen Winkel γ. Aus dieser
Definition folgt x · y = y · x und x · (λy + µz) = λ(x · y) + µ(x · z), sodaß gilt
a·b ≡
3
X
i=1
3
3 X
3
X
X
ai e i ·
bj ej =
ai bj (ei · ej ) = a1 b1 + a2 b2 + a3 b3 .
| {z }
j=1
i=1 j=1
δij
(80)
Mit einem zu a und b orthogonalen Einheitsvektor e⊥ , wobei {a, b, e⊥ } in dieser Reihenfolge ein Rechtssystem bilden, wird das Vektorprodukt von a mit b definiert als
a × b := |a||b| sin γ e⊥ .
(81)
Wegen x × y = −y × x und x × (λy + µz) = λ(x × y) + µ(x × z) folgt jetzt
a × b = a2 b3 − a3 b2 e1 + a3 b1 − a1 b3 e2 + a1 b2 − a2 b1 e3 .
Unter formaler Benutzung der Determinante

e1
a × b = det  a1
b1
(Kap. 3) schreibt man dafür auch

e2 e3
a2 a3  .
b2 b3
(82)
(83)
In Koordinatenform gilt

 



a1
b1
a2 b 3 − a3 b 2
 a2  ×  b 2  =  a3 b 1 − a1 b 3  .
a3
b3
a1 b 2 − a2 b 1
13
(84)
2.2
Vektorfunktionen
Nach Wahl eines Ursprungs O ist jeder andere Punkt P im Raum festgelegt durch die
~ ,
Koordinaten (x, y, z) ≡ (x1 , x2 , x3 ) seines Ortsvektors r = OP
r = xe1 + ye2 + ze3 ≡ x1 e1 + x2 e2 + x3 e3 .
Die Bewegung eines Massenpunkts wird beschrieben durch einen Ortsvektor


x(t)
r(t) =  y(t)  ,
z(t)
(85)
(86)
dessen Komponenten Funktionen der Zeit t sind. Mit t durchläuft die Pfeilspitze von r(t)
die Bahnkurve des Massenpunkts. r(t) ist eine Vektorfunktion.
Deren Ableitung ist wieder eine Vektorfunktion, definiert durch




x(t + ∆t) − x(t)
ẋ(t)
1 
r(t + ∆t) − r(t)
y(t + ∆t) − y(t)  ≡  ẏ(t)  . (87)
≡ lim
ṙ(t) := lim
∆t→0 ∆t
∆t→0
∆t
z(t + ∆t) − z(t)
ż(t)
Der Vektor ṙ(t) zeigt in Bewegungsrichtung tangential zur Bahnkurve im Punkt r(t).
(SKIZZE)
p
ẋ(t)2 + ẏ(t)2 + ż(t)2 ist gleich der Geschwindigkeit v(t) des
Sein Betrag |ṙ(t)| ≡
Massenpunkts in Bewegungsrichtung zur Zeit t, denn
|r(t + ∆t) − r(t)|
= v(t).
∆t→0
∆t
|ṙ(t)| ≡ lim
(88)
Man nennt daher ṙ(t) ≡ v(t) den Geschwindigkeitsvektor des Massenpunkts.
Mit τ (t), dem Einheitsvektor tangential zur Bahnkurve im Punkt r(t), gilt
v(t) = v(t) τ (t).
14
(89)
Sei [t0 , t1 ] ein Zeitintervall, in dem sich die Bewegungsrichtung entlang der Kurve nicht
umkehrt. Dann ist die zur Zeit t ∈ [t0 , t1 ] entlang der Kurve zurückgelegte Strecke,
Z t
s(t) =
dt0 v(t0 ),
(90)
t0
die sog. Bogenlänge, eine monotone Funktion von t. Statt t können wir also ebensogut
s als Kurvenparameter benutzen. Da τ (t) bzw. τ (s) ein Einheitsvektor ist, so gilt
dττ (s)
d
d
τ (s) · τ (s) =
τx (s)2 + τy (s)2 + τz (s)2 = ... = 2ττ (s) ·
.
(91)
0 =
ds
ds
ds
Die Vektoren τ (s) und dττ (s)/ds sind also zueinander orthogonal,
dττ (s)
1
= κ(s) n(s) ≡
n(s).
ds
ρ(s)
(92)
n(s), der Hauptnormalenvektor an die Bahnkurve bei s, ist jener Einheitsvektor ⊥ τ (s)
in der Schmiegeebene der Kurve, der hinsichtlich ihrer Krümmung nach innen zeigt.
1
ρ(s) = κ(s)
heißt Krümmungsradius der Bahnkurve bei s.
Bsp.: Im Fall einer Kreiskurve in der xy-Ebene mit Radius R um r = 0,


R cos(s/R)
r(s) =  R sin(s/R)  ,
0
gilt ρ(s) ≡ R, denn


− sin(s/R)
τ (s) =  + cos(s/R) 
0
(93)


− cos(s/R)
dττ (s)
1
1
− sin(s/R)  . (94)
n(s) ≡
=
ρ(s)
ds
R
0
⇒
Besonders wichtig für die Mechanik ist der Vektor der Beschleunigung r̈(t) ≡ a(t),


v(t) τx (t)
d 
d
v(t) τy (t)  .
v(t) τ (t) ≡
r̈(t) = v̇(t) =
(95)
dt
dt
v(t) τz (t)
Nach der Produktregel gilt also
d
τ (t)
dt
d
d
und weiter, nach Kettenregel dt
f (s(t)) = ds
f (s)|s=s(t) ṡ(t),
d
d
1
τ (t) =
τ (s)
ṡ(t) =
n(t)ṡ(t).
dt
ds
ρ(t)
s=s(t)
r̈(t) = v̇(t) τ (t) + v(t)
(96)
(97)
Wegen ṡ(t) = v(t) bzw. v̇(t) = s̈(t) folgt also
a(t) ≡ r̈(t) = s̈(t) τ (t) +
s̈(t) heißt Tangential- und
v(t)2
ρ(t)
(98)
Zentripetal-Beschleunigung.
Bem.: Während |v(t)| = |ṡ(t)|, so gilt
s
|a(t)| =
v(t)2
n(t).
ρ(t)
s̈(t)2
+
v(t)2 2
ρ(t)
15
≥ |s̈(t)|.
(99)
2.3
Skalarfelder
Ein Skalarfeld ist eine Funktion f , die jedem Punkt r im Raum eine Zahl
f (r) ≡ f (x, y, z)
(100)
zuordnet. Beispiele sind die Lufttemperatur T (x, y, z) im Hörsaal oder die Dichte ρ(x, y, z)
(in mg/cm3 ) von CO2 in der Luft über einer Stadt, jeweils zu einem festen Zeitpunkt.
2.3.1
Partielle Ableitungen
Wir setzen voraus, daß die Grenzwerte
f (x + h, y, z) − f (x, y, z)
∂
f (x, y, z) := lim
,
h→0
∂x
h
∂
fy (x, y, z) ≡
f (x, y, z),
∂y
∂
fz (x, y, z) ≡
f (x, y, z)
∂z
fx (x, y, z) ≡
(101)
existieren. Sie heißen die partiellen Ableitungen von f (x, y, z). Sie werden genauso
berechnet wie die gewöhnliche Ableitung einer Funktion f (x) mit einer Variable, indem
man alle Variable, nach denen nicht abgeleitet wird als Parameter behandelt.
Bsp.: Die partiellen Ableitungen von f (x, y, z) = x2 y cos(z 2 ) sind
∂f
= 2xy cos(z 2 ),
∂x
∂f
= x2 cos(z 2 ),
∂y
∂f
= −2x2 yz sin(z 2 ).
∂x
(102)
Ein 2D Skalarfeld f (x, y) ist etwa die Temperatur T (x, y) an der Oberfläche einer
Metallplatte. Eine solche Funktion mit zwei Variablen läßt sich als 3D-Plot darstellen,
und ihre partiellen Ableitungen lassen sich als Tangentensteigungen deuten (Abb. 1).
2.3.2
Gradient
Eine alternative Interpretation ergibt sich, wenn man die partiellen Ableitungen zu einem
Spaltenvektor zusammenfaßt,
∂ fx (x, y)
∂x
.
(103)
Gf (x, y) := ∇f (x, y) ≡
,
∇ :=
∂
fy (x, y)
∂y
Der Vektor Gf (x0 , y0 ), genannt Gradient von f im Punkt (x0 , y0 ), zeigt in der xy-Ebene
vom Punkt (x0 , y0 ) aus in Richtung des schnellsten Wachstums des Funktionswerts f (x, y).
So gibt etwa auf der Metalloberfläche der 2D Temperaturgradient
GT (x0 , y0 ) = ∇T (x, y)
(104)
x=x0 ,y=y0
16
die Richtung des stärksten Temperaturanstiegs an (Abb. 2).
Ein 3D Skalarfeld f (x, y, z) wie etwa die Lufttemperatur T (x, y, z) läßt sich nicht mehr
graphisch (in Verallgemeinerung eines 3D-Plots) darstellen. Der Gradient ist in diesem
Fall gegeben durch den 3er-Spaltenvektor


 ∂ 
fx (x, y, z)
∂x
∂ 
.
(105)
Gf (x, y, z) := ∇f (x, y, z) ≡  fy (x, y, z)  ,
∇ :=  ∂y
∂
fz (x, y, z)
∂z
Auch jetzt zeigt dieser Vektor, allerdings im 3D Raum, in Richtung des stärksten Anstiegs
der Funktion f (x, y, z), etwa der Lufttemperatur T (x, y, z).
2.3.3
Taylor-Entwicklung
Vorbem.: Existieren für ein 2D Skalarfeld f (x, y) die zweiten partiellen Ableitungen,
∂
fx (x, y),
∂x
∂
fxy (x, y) :=
fy (x, y),
∂x
fxx (x, y) :=
∂
fx (x, y),
∂y
∂
fyy (x, y) :=
fy (x, y),
∂y
fyx (x, y) :=
17
(106)
in einer offenen Menge U ⊆ R2 und sind sie dort stetig, so gilt dort
fyx (x, y) = fxy (x, y) =:
∂ 2 f (x, y)
.
∂x∂y
(107)
Bsp.: Man verifiziere dies am Beispiel der Funktion f (x, y) = x2 sin(xy 2 ) (Aufgabe 3.5).
Wir wollen die Funktion f (x, y) zweier Variablen in eine Taylor-Reihe entwickeln.
Dazu betrachten wir zunächst bei festgehaltenem y die Taylor-Entwicklung der Funktion f˜(x) = f (x, y) einer Variable x um x = x0 (mit x − x0 =: δx),
1
f˜(x) = f˜(x0 ) + f˜0 (x0 ) δx + f˜00 (x0 ) δx2 + O(δx3 ).
2
(108)
Außer f˜(x0 ) = f (x0 , y) sind die Koeffizienten partielle Ableitungen von f (x, y),
∂
∂2
0
00
˜
˜
f (x0 ) =
f (x, y)
≡ fx (x0 , y),
f (x0 ) =
f (x, y)
≡ fxx (x0 , y). (109)
2
∂x
∂x
x=x0
x=x0
Bei zunächst festgehaltenem y gilt also
f (x, y) = f (x0 , y) + fx (x0 , y) δx +
1
fxx (x0 , y) δx2 + O(δx3 ).
2
(110)
Entwicklung der Koeffizienten um y = y0 , mit y − y0 =: δy und (x0 , y0 ) = r0 ,
1
fyy (r0 ) δy 2 + O(δy 3 ),
2
fx (x0 , y) = fx (r0 ) + fxy (r0 ) δy + O(δy 2 ),
fxx (x0 , y) = fxx (r0 ) + O(δy 1 ),
f (x0 , y) = f (r0 ) + fy (r0 ) δy +
(111)
ergibt schließlich die Taylor-Entwicklung von f (x, y) = f (r) um (x0 , y0 ) = r0 ,
h
i
f (r) = f (r0 ) + fx (r0 ) δx + fy (r0 ) δy
i
1h
+
fxx (r0 ) δx2 + fxy (r0 ) + fyx (r0 ) δxδy + fyy (r0 ) δy 2 + O(3 ), (112)
2
sofern |δx|, |δy| < . Numerisches Bispiel: Aufgabe 3.6!
Die Verallgemeinerung auf Funktionen f (x1 , ..., xn ) mit n Variablen, ist offensichtlich.
2.3.4
Kettenregel für partielle Ableitungen
Der Term erster Ordnung läßt sich schreiben als Skalarprodukt
fx (r0 )
δx
fx (r0 ) δx + fy (r0 ) δy ≡
·
= Gf (r0 ) · δr
fy (r0 )
δy
(113)
des Gradienten Gf (r0 ) von f (r) bei r = r0 mit dem Vektor δr = (δx
δy ).
Sei T (r) die Lufttemperatur am Ort r und r(t) der Ortsvektor eines Flugzeugs zur
Zeit t. Dann herrscht beim Flugzeug zur Zeit t die Temperatur
Te(t) = T r(t) .
(114)
18
Mit Gl. (113) ergibt sich für die Ableitung dieser (Verkettungs-) Funktion
T r(t + h) − T r(t)
d
0
e
T r(t) = lim
T (t) =
h→0
dt
h
GT r(t) · r(t + h) − r(t)
= lim
= GT (r(t)) · ṙ(t). (115)
h→0
h
Satz: Für ein beliebiges Skalarfeld f (r) und eine beliebige Vektorfunktion r(u), beide
differenzierbar, gilt also die Kettenregel für partielle Ableitungen,
d
f r(u) = Gf r(u) · ṙ(u)
du
3
X
∂f dx ∂f dy ∂f dz
∂f dxi
+
+
=
.
≡
∂x du ∂y du ∂z du
∂x
du
i
i=1
2.3.5
(116)
Bereichsintegrale
Ein 2D Ölfilm auf einer Wasseroberfläche (xy-Ebene) habe eine inhomogene Massenverteilung gegebener Dichte ρ(x, y) (etwa in mg/cm2 ), welche ein 2D Skalarfeld darstellt.
Wir wollen die Masse MΩ des Öls berechnen, das sich in einem gegebenen (im allg. krummlinig begrenzten) Ausschnitt Ω der xy-Ebene (“Bereich”) befindet.
Zu hinreichend kleinen Schrittweiten ∆x, ∆y > 0 bilden die Punkte
rij = (xi , yj ) = (i · ∆x, j · ∆y),
i, j ∈ Z
(117)
ein dichtes Rechtecksnetz in der xy-Ebene. Mit der Rechtecksfläche ∆x∆y gilt offenbar
X
MΩ ≈
∆x∆y ρ(rij ),
(118)
rij ∈Ω
und zwar umso genauer, je kleiner ∆x und ∆y gewählt werden.
Zu gegebenen Werten von ∆x und ∆y seien:
• imin
das absolut kleinste i ∈ Z mit rij ∈ Ω ;
• jmin (i) das zu gegebenem i ∈ Z jeweils kleinste j ∈ Z mit rij ∈ Ω .
Entsprechend werden imax und jmax (i) definiert. Dann lautet Gl. (118)


jmax (i)
imax
X
X
MΩ ≈
∆x 
∆y ρ(xi , yj ) .
i=imin
(119)
j=jmin (i)
Im Limes ∆y → 0 wird aus der j-Summe [...] ein y-Integral,
Z ymax (xi )
imax
X
MΩ ≈
∆x
dy ρ(xi , y),
i=imin
(120)
ymin (xi )
wobei ymin (xi ) die kleinste und ymax (xi ) die größte y-Koordinate aller Punkte von Ω mit
x-Koordinate xi ist. Im Limes ∆x → 0 schließlich erhalten wir exakt das Doppelintegral
Z xmax
Z ymax (x)
Z
MΩ =
dx
dy ρ(x, y) ≡
d2 r ρ(r),
(121)
xmin
ymin (x)
Ω
19
wobei xmin die kleinste und xmax die größte x-Koordinate aller Punkte von Ω ist.
Bsp.: Ist Ω der Kreis mit Radius R um r = 0, so gilt für ρ(x, y) = C − ax2 − by 2
Z
Z R
Z √R2 −x2
dy (C − ax2 − by 2 )
d2 r ρ(r) =
dx √
− R2 −x2
−R
R
Ω
√
h
y 3 iy= R2 −x2
2
dx (C − ax )y − b
=
√
3 y=− R2 −x2
−R
Z R h
i√
2b 2b
=
dx 2C − R2 −
− 2ax2
R 2 − x2 .
3
3
−R
Z
(122)
Das Bereichsintegral ist jetzt auf ein gewöhnliches Integral einer Variable x zurückgeführt.
Wir wollen es nicht weiter behandeln, da Bereichsintegrale in der Regel viel leichter in
krummlinigen Koordinaten zu berechnen sind (Abschnitt 2.4.1).
Bereichsintegrale von 3D Skalarfeldern f (r) = f (x, y, z) heißen Volumenintegrale,
Z y2 (x) Z z2 (x,y)
Z
Z x2
3
dx
dy
dz f (x, y, z).
(123)
d r f (r) =
y1 (x)
x1
Ω
z1 (x,y)
R
Def.: Allgemein ist ein D-dimensionales Bereichsintegral Ω dD r f (r) erklärt wie folgt:
Zerlege den Bereich Ω mit dem D-dim. Volumen VΩ (D = 2: Flächeninhalt) in N → ∞
disjunkter Teilbereiche ∆Ωn mit Volumina ∆Vn → 0. Mit N Punkten rn ∈ ∆Ωn gilt dann
Z
N
X
D
d r f (r) = lim
∆Vn · f (rn ).
(124)
N →∞
Ω
n=1
Bem. 1: Für den Mittelwert hf (r)ir∈Ω der Funktion f (r) in Ω gilt also
D
f (r)
E
≡ lim
r∈Ω
N →∞
N
X
∆Vn
n=1
VΩ
1
· f (rn ) =
VΩ
Z
dD r f (r).
(125)
Ω
Insbesondere ergibt Integration der Funktion f (r) ≡ 1 das Bereichsvolumen,
Z
dD r 1 = VΩ .
(126)
Ω
Bsp. 1: Wir berechnen das Volumen des Tetraeders Ω , der zwischen den vier Ebenen
x = 0, y = 0, z = 0 und xa + yb + zc = 1 eingeschlossen wird (mit a, b, c > 0; SKIZZE!),
Z
Z a Z b(1−x/a) Z c(1−x/a−y/b)
3
VΩ =
d r1 =
dx
dy
dz 1
Ω
0
0
0
Z a Z b(1−x/a) Z a h
x
y 2 iy=b(1−x/a)
x y
= c
dx
dy 1 − −
= c
dx 1 −
y−
a b
a
2b y=0
0
0
Z0 a h
i
2
2
x
1
x
= bc
dx 1 −
−
1−
a
2
a
Z0 a Z
bc
x 2
bc 0
abc
=
dx 1 −
= −
adu u2 =
.
(127)
2 0
a
2 1
6
20
Bem. 2: Sei nun Σ ein 2D Bereich auf der xy-Ebene und f (x, y) ein 2D Skalarfeld
mit f (r) ≥ 0 für alle r ∈ Σ . Dann ist der Wert des 2D Bereichsintegrals
Z
Z
2
x2
Z
y2 (x)
dy f (x, y)
dx
d r f (r) =
(128)
y1 (x)
x1
Σ
gleich dem Volumen des zwischen Σ und dem 3D-Plot von f liegenden 3D Bereichs Ωf ,
Z
Z
2
x2
x1
Z
f (x,y)
Z
dz 1 ≡
dy
dx
d r f (r) =
Σ
y2 (x)
Z
0
y1 (x)
d3 r 1.
(129)
Ωf
Bsp. 2: Das Volumen des Tetraeders Ω aus Bsp. 1a läßt sich auch als 2D Bereichsintegral
des Skalarfelds f (x, y) = c(1 − xa − yb ) ≡ z über Σ = {(x, y) ∈ R2 | ...} berechnen,
Z
2
Z
Σ
Z
dx
d r f (r) = c
VΩ =
a
0
0
mit dem gleichen Ergebnis.
21
b(1−x/a)
x y
dy 1 − −
,
a b
(130)
2.4
2.4.1
Krummlinige Koordinaten
Ebene Polarkoordinaten
Der Ortsvektor r eines Punktes P der xy-Ebene mit kartesischen Koordinaten (x, y),
x
r = xe1 + ye2 =
,
(131)
y
ist ebenso durch seine ebenen Polarkoordinaten (r, φ) festgelegt:
r = |r| Betrag von r
φ
Azimutwinkel von r
Abstand von P vom Ursprung O.
Winkel zwischen der x-Achse e1 und dem Vektor r
(SKIZZE)
Wir drücken die “alten” Koordinaten (x, y) durch die “neuen” (r, φ) aus,
x(r, φ)
r cos φ
r(r, φ) ≡
=
.
y(r, φ)
r sin φ
Formal ist dies eine Abbildung U → R2 , (r, φ) 7→ r(r, φ) des R2 -Bereichs
n
o
U = (r, φ) 0 ≤ r < ∞, 0 ≤ φ < 2π ⊂ R2
(132)
(133)
auf den ganzen R2 = {(x, y) | x, y ∈ R}. Zur anschaulichen Interpretation halten wir je
eine der beiden Variablen r, φ fest und lassen die andere ihren Wertebereich durchlaufen,
r1 (r) = r(r, φ0 ),
r2 (φ) = r(r0 , φ).
(134)
Diese Vektorfunktionen parametrisieren, für jede Wahl der Konstanten r0 , φ0 , je zwei
Kurven, sog. Koordinatenlinien, die sich im Punkt r(r0 , φ0 ) schneiden:
• r1 (r): Vom Ursprung O ausgehender Strahl.
• r2 (φ): Kreis um O.
Außerhalb des Ursprungs sind die Funktionen x(r, φ) und y(r, φ) invertierbar:
Für beliebige x, y gilt generell
p
r(x, y) =
x2 + y 2 ,
(135)
während φ nur im Fall x2 + y 2 =
6 0 festgelegt ist,

arctan xy
(x > 0, y




π/2
(x = 0, y

π + arctan xy (x < 0),
φ(x, y) =


3π/2
(x = 0, y



y
2π + arctan x (x > 0, y
22
≥ 0),
> 0),
(136)
< 0),
< 0).
Wir wollen nochmals das Bereichsintegral MΩ =
R
Ω
d2 r ρ(r) der Massendichte
ρ(r) ≡ ρ(x, y) = C − ax2 − by 2
≡ C − r2 a cos2 φ + b sin2 φ
=: ρ̃(r, φ)
(137)
über die Kreisscheibe Ω mit Radius R um r = 0 berechnen, und zwar mit den Konstanten
mg
mg
mg
C = 100
,
a
=
0.12
,
b
=
0.08
.
(138)
cm2
cm4
cm4
Zu hinreichend kleinen Schrittweiten ∆r, ∆φ > 0 (wobei ∆φ =
bilden die Punkte rij = r(ri , φj ) mit den Polarkoordinaten
ri = i · ∆r,
φj = j · ∆φ,
2π
,
N
mit großem N ∈ N),
i ∈ {0, 1, 2, 3, ...},
j ∈ {0, 1, 2, ..., N − 1}
(139)
ein dichtes “Spinnennetz” in der xy-Ebene. rij ist Mittelpunkt des Kreisring-Sektors
n
o
∆Ωij = (r, φ) |r − ri | ≤ 21 ∆r, |φ − φj | ≤ 12 ∆φ ,
(140)
dessen Flächeninhalt bei hinreichend kleinen ∆r, ∆φ > 0 mit bel. Gen. gegeben ist durch
∆Aij ≈ ∆r · ri ∆φ.
(141)
Da die Sektoren ∆Ωij die xy-Ebene lückenlos und ohne Überlapp abdecken, so gilt
Z
X
X
∆r∆φ · ri ρ̃(ri , φj ),
(142)
∆Aij ρ(rij ) =
d2 r ρ(r) ≈
Ω
rij ∈Ω
rij ∈Ω
und zwar umso genauer, je kleiner ∆r und ∆φ gewählt werden.
Im Limes ∆r, ∆φ → 0 ergibt sich
Z
Z R Z 2π
2
d r ρ(r) =
dr
dφ r ρ̃(r, φ)
Ω
0
0
Z R Z 2π
h
i
=
dr
dφ rC − r3 a cos2 φ + b sin2 φ .
0
(143)
0
Mit cos2 φ = 21 (1 + cos 2φ) und sin2 φ = 12 (1 − cos 2φ) wird daraus
Z
Z R h
a
b
iφ=2π
2
d r ρ(r) =
dr rCφ − r3
φ + 21 sin 2φ + φ − 12 sin 2φ
2
2
φ=0
Ω
0
Z R h
i
=
dr 2πCr − π(a + b)r3
0
r4 ir=R
a + b 4
= π CR2 −
R .
4 r=0
4
Im Fall R = 20 cm erhalten wir als konkreten Zahlenwert
0.12 + 0.08
MΩ = π 100 · 202 −
· 204 mg = π(40000 − 8000) mg ≈ 100 g.
4
=
h
πCr2 − π(a + b)
Bem.: Ist Ω allgemeiner ein Kreisring-Sektor, so gilt
Z
Z r2 Z φ2
2
d r f (r) =
dr
dφ r f (r, φ).
Ω
r1
φ1
23
(144)
(145)
(146)
2.4.2
Kugelkoordinaten
Der Ortsvektor r eines Punktes P mit kartesischen Koordinaten (x, y, z),
 
x
r = xe1 + ye2 + ze3 =  y  ,
z
(147)
ist ebenso durch seine Kugelkoordinaten (r, θ, φ), auch sphärische Polarkoordinaten
genannt, festgelegt:
r = |r| Betrag von r
θ
Polarwinkel von r
φ
Azimutwinkel von r
Abstand von P vom Ursprung O.
Neigungswinkel von r gegen die z-Achse e3 .
Winkel zwischen der x-Achse e1
und der Projektion rxy von r in die xy-Ebene.
(SKIZZE)
Wir drücken die “alten” Koordinaten (x, y, z) durch die “neuen” (r, θ, φ) aus,

 

x(r, θ, φ)
r sin θ cos φ
r(r, θ, φ) ≡  y(r, θ, φ)  =  r sin θ sin φ  .
z(r, θ, φ)
r cos θ
Formal ist dies eine Abbildung U → R3 , (r, θ, φ) 7→ r(r, θ, φ) des R3 -Bereichs
n
o
U = (r, θ, φ) 0 ≤ r < ∞, 0 ≤ θ ≤ π, 0 ≤ φ < 2π ⊂ R3
(148)
(149)
auf den ganzen R3 = {(x, y, z) | x, y, z ∈ R}. Zur anschaulichen Interpretation halten wir
je zwei der drei Variablen r, θ, φ fest und lassen die dritte ihren Wertebereich durchlaufen,
r1 (r) = r(r, θ0 , φ0 ),
r2 (θ) = r(r0 , θ, φ0 ),
r3 (φ) = r(r0 , θ0 , φ).
(150)
Diese Vektorfunktionen parametrisieren, für jede Wahl der Konstanten r0 , θ0 , φ0 , je drei
Kurven, sog. Koordinatenlinien, die sich im Punkt r(r0 , θ0 , φ0 ) schneiden:
• r1 (r): Vom Ursprung ausgehender Strahl.
• r2 (θ): Vertikaler Halbkreis (“Längenkreis”).
• r3 (φ): Horizontaler Vollkreis (“Breitenkreis”).
Außerhalb der z-Achse sind die Funktionen x(r, θ, φ), y(...), z(...) invertierbar:
Für beliebige x, y, z gilt generell
p
x2 + y 2 + z 2 .
(151)
r(x, y, z) =
24
Für r 6= 0, also r 6= 0, gilt dann
z
(152)
θ(x, y, z) = arccos ,
r
während θ im Fall r = 0 nicht festgelegt ist. Für x2 + y 2 6= 0 schließlich ist φ = φ(x, y)
(unabhängig von z) wieder durch Gl. (136) festgelegt.
Zur anschaulichen Interpretation betrachten wir die durch die Gleichungen
r(x, y, z) = r0 ,
θ(x, y, z) = θ0 ,
φ(x, y) = φ0
(153)
festgelegten, sog. Koordinatenflächen durch den Punkt r(r0 , θ0 , φ0 ):
• r = r0 : Kugel mit Radius r0 um den Ursprung r = 0.
• θ = θ0 : Kegelmantel um die z-Achse mit Öffnungswinkel θ0 .
• φ = φ0 : Vertikale Halbebene in Richtung φ0 weg von der z-Achse.
Diese Flächen werden parametrisiert durch Vektorfunktionen zweier Variablen,
r1 (θ, φ) = r(r0 , θ, φ),
r2 (r, φ) = r(r, θ0 , φ),
r3 (r, θ) = r(r, θ, φ0 ).
(154)
R
Das Bereichsintegral Ω d3 r ρ(r) der 3D Massendichte ρ(r) ≡ ρ(x, y, z) (in mg/m3 )
einer CO2 -Wolke ergibt die im Volumenbereich Ω enthaltene CO2 -Masse MΩ . Ist Ω eine
Kugel mit Radius R um r = 0, so rechnet man mit Vorteil in Kugelkoordinaten, mit
ρ̃(r, θ, φ) = ρ r sin θ cos φ , r sin θ sin φ , r cos θ .
(155)
, ∆θ =
Zu kleinen Schrittweiten ∆r, ∆θ, ∆φ > 0 (mit ∆φ = 2π
N
bilden die Punkte rijk = r(ri , θj , φk ) mit den Polarkoordinaten
ri = i · ∆r,
θj = j · ∆θ,
φk = k · ∆φ,
π
,
N
mit großem N ∈ N),
i ∈ {0, 1, 2, 3, ...},
j ∈ {0, 1, 2, ..., N − 1},
k ∈ {0, 1, 2, ..., N − 1}
ein dichtes 3D “Spinnennetz”. rijk ist Mittelpunkt des Kugelschalen-Sektors
n
o
∆Ωijk = r(r, θ, φ) |r − ri | ≤ 12 ∆r, |θ − θj | ≤ 21 ∆θ, |φ − φk | ≤ 12 ∆φ
(156)
(157)
zwischen den konzentrischen Kugelflächen mit Radien ri ± 12 ∆r, also mit Volumen
∆Vijk ≈ ∆r · ∆Aij .
(158)
Dabei ist ∆Aij die Fläche auf der Kugel mit Radius ri zwischen den beiden Breitenkreisen
θ = θj ± ∆θ und den beiden Längenkreisen φ = φk ± ∆φ (SKIZZE),
∆Aij ≈ (ri ∆θ) · (ri sin θj ∆φ) = ∆θ∆φ · (ri2 sin θj ).
(159)
Da die Sektoren ∆Ωijk das Kugelvolumen Ω ohne Überlapp ausfüllen, so gilt
Z
X
X
d3 r ρ(r) ≈
∆Vijk ρ(rijk ) =
∆r∆θ∆φ · (ri2 sin θj ) · ρ̃(ri , θj , φk ),
(160)
Ω
rijk ∈Ω
rijk ∈Ω
und zwar umso genauer, je kleiner ∆r, ∆θ und ∆φ gewählt werden.
Im Limes ∆r, ∆θ, ∆φ → 0 ergibt sich
Z
Z R Z π Z 2π
3
d r ρ(r) =
dr
dθ
dφ r2 sin θ ρ̃(r, θ, φ).
Ω
0
0
0
25
(161)
2.4.3
Allgemeine (orthogonal-) krummlinige Koordinaten
(a) Notation
Statt (r, θ, φ) betrachten wir einen beliebigen Satz α = (u, v, w) ∈ U ⊆ R3 von drei
Koordinaten, durch die sich die drei kartesischen Koordinaten r = (x, y, z) jedes Punktes
eindeutig ausdrücken lassen,




x(α)
x(u, v, w)
r = r(α) ≡ r(u, v, w) =  y(α)  ≡  y(u, v, w)  .
(162)
z(α)
z(u, v, w)
Diese Abbildung U → R3 sei (fast überall) invertierbar, mit den Umkehrfunktionen




u(r)
u(x, y, z)
α = α(r) =  v(r)  ≡  v(x, y, z)  .
(163)
w(r)
w(x, y, z)
Wir beschränken uns auf den Fall 3D, da die Vereinfachung für 2D offensichtlich ist.
(b) Lokale Basis und Skalenfaktoren
Bei festen Werten v = v0 und w = w0 parametrisiert die Vektorfunktion
r1 (u) = r(u, v0 , w0 )
(164)
die Koo.-linie zur Koo. u durch den Punkt r(u0 , v0 , w0 ) ≡ r(α0 ).
Wir bilden die Tangentenvektoren an die drei Koo.-linien durch r(α),
h1 (α) =
∂r(α)
d
r1 (u) ≡
.
du
∂u
h2 (α) = ...,
h3 (α) = ...
Bsp.: Im Fall der Kugelkoordinaten α = (r, θ, φ) sind dies die Vektoren,




r sin θ cos φ
sin θ cos φ
∂ 
r sin θ sin φ  =  sin θ sin φ  ,
h1 (α) ≡ hr (α) =
∂r
r cos θ
cos θ




r sin θ cos φ
cos θ cos φ
∂ 
r sin θ sin φ  = r  cos θ sin φ  ,
hθ (α) =
∂θ
r cos θ
− sin θ




r sin θ cos φ
− sin φ
∂ 
r sin θ sin φ  = r sin θ  cos φ  .
hφ (α) =
∂φ
r cos θ
0
(165)
(166)
Sie sind paarweise orthogonal: Für i 6= j gilt stets hi (α) · hj (α) = 0. (SKIZZE)
Def.: Wir beschränken uns auf derartige, sog. orthogonal-krummlinige Koordinaten.
Der linear unabhängige Satz {h1 (α), h2 (α), h3 (α)} heißt lokale Basis im Punkt r(α).
Die Beträge hi (α) := |hi (α)| der Basisvektoren heißen Skalenfaktoren.
26
Bsp.: Für Kugelkoordinaten (u1 , u2 , u3 ) = (r, θ, φ) gilt
h1 ≡ hr = 1,
h2 ≡ hθ = r,
h3 ≡ hφ = r sin θ.
(167)
(c) Jacobi-Determinante und Bereichsintegrale
Für hinreichend kleine ∆u > 0 ist offenbar
1 ∆u h1 (α0 ) ≡ ∆u lim
r(u0 + δu, v0 , w0 ) − r(u0 , v0 , w0 )
δu→0 δu
(168)
mit beliebiger Genauigkeit gleich der Bogenlänge längs der Koo.-linie zu u
zwischen den Punkten r(u0 ± 21 ∆u, v0 , w0 ).
Entsprechend ist bei orthogonalen Koo. für kleine ∆u, ∆v, ∆w > 0 das Produkt
∆u∆v∆w h1 (α0 )h2 (α0 )h3 (α0 ) ≈ ∆V
mit beliebiger Genauigkeit gleich dem Volumen des Bereichs
n
o
∆Ω = r(u, v, w) |u − u0 | ≤ 21 ∆u, |v − v0 | ≤ 12 ∆v, |w − w0 | ≤ 12 ∆w ,
(169)
(170)
da dieser mit beliebiger Genauigkeit in einen Quader übergeht. Daraus schließen wir:
Satz: Lassen sich orthogonal-krummlinige Koordinaten α = (u, v, w) derart finden, daß,
mit gewissen Konstanten aν , bν , cν (ν = 1, 2), für den Integrationsbereich Ω gilt
n
o
Ω = r(α) ≡ r(u, v, w) a1 ≤ u ≤ a2 , b1 ≤ v ≤ b2 , c1 ≤ w ≤ c2 ,
(171)
dann ist das Bereichsintegral eines Skalarfelds f (r) gegeben durch
Z
Z a2
Z b2 Z c2
3
d r f (r) =
du
dv
dw h1 (α) h2 (α) h3 (α) f (r(α)).
Ω
a1
b1
(172)
c1
Def.: Bei beliebigen krummlinigen Koo. heißt die Zahl


∂x/∂u1 ∂x/∂u2 ∂x/∂u3
J(α) = det  ∂y/∂u1 ∂y/∂u2 ∂y/∂u3  = h1 × h2 · h3 .
∂z/∂u1 ∂z/∂u2 ∂z/∂u3
(173)
die Jacobi-Determinante am Punkt r(α). Ihr Betrag |J(α)| ist das Volumen des von
den drei Tangentenvektoren an die Koo.-linien in r(α) aufgespannten Parallelepipeds.
Bei orthogonalen Koo. ist das Parallelepiped ein Quader, J(α) = h1 (α) h2 (α) h3 (α).
Speziell für Kugelkoordinaten gilt: J(α) = h1 (α) h2 (α) h3 (α) = r2 sin θ.
Für später: In Analogie zu Gl. (169) ist für kleine ∆u, ∆v > 0 das Produkt
∆u∆v h1 (α0 ) × h2 (α0 ) ≈ ∆A
(174)
mit beliebiger Genauigkeit jener Vektor, der im Punkt r(α0 ) senkrecht zur Koo.-fläche
w = w0 steht, und dessen Betrag gleich dem Inhalt des Flächenbereichs ∆Σ ist,
o
n
1
1
(175)
∆Σ = r(u, v, w0 ) |u − u0 | ≤ 2 ∆u, |v − v0 | ≤ 2 ∆v .
27
2.5
Vektorfelder
Bei einem Vektorfeld wird jedem Punkt r ein Vektor


v1 (x, y, z)
v(r) ≡ v(x, y, z) =  v2 (x, y, z) 
v3 (x, y, z)
(176)
zugeordnet. v(r) kann etwa der Vektor der Strömungsgeschwindigkeit der Luft am
Ort r (lokale Windgeschwindigkeit) oder der elektrischen Feldstärke E = E(r) sein.
Wir betrachten auch 2D Vektorfelder (in der xy-Ebene),
v1 (x, y)
v(r) ≡ v(x, y) =
.
v2 (x, y)
2.5.1
(177)
Gradientenfelder als Spezialfall
Ein wichtiges Beispiel eines Vektorfelds ist der Gradient eines Skalarfelds f (x, y, z),


fx (x, y, z)
∂
f (x, y, z), etc.
(178)
Gf (r) =  fy (x, y, z)  ,
fx (x, y, z) =
∂x
fz (x, y, z)
Allerdings ist etwa das 2D Vektorfeld (Skizze)
q1 (x, y)
−y
q(r) ≡
=
q2 (x, y)
x
(179)
sicher nicht der Gradient eines 2D Skalarfelds f (r) = f (x, y).
Auf einer Kreiskurve mit Mittelpunkt im Ursprung r = 0 läuft man nämlich in jedem
Kurvenpunkt r genau in Richtung des Vektors q(r). Der Funktionswert f (r) müsste also
ständig zunehmen, was spätestens nach einem vollen Umlauf zum Widerspruch mit der
Stetigkeit von f führt.
28
Ein sehr ähnlich anmutendes Vektorfeld ist dagegen sehr wohl ein Gradient,
p1 (x, y)
y
p(r) ≡
=
= ∇f (r),
f (x, y) = xy.
(180)
p2 (x, y)
x
• Welche Bedingung müssen die beiden Funktionen vi (x, y) erfüllen,
v (x,y)
damit das Vektorfeld v(r) = (v12 (x,y) ) Gradient eines Skalarfelds f (x, y) ist,
v1 (x, y) =
∂
f (x, y),
∂x
v2 (x, y) =
∂
f (x, y) ?
∂y
(181)
Eine notwendige Bedingung liefert Gl. (107)
∂v1
∂ ∂f
∂ ∂f
∂v2
=
≡
=
∂y
∂y ∂x
∂x ∂y
∂x
(182)
Bsp.: Tatsächlich gilt für die Vektorfelder der vorausgehenden Beispiele
∂q1
∂q2
= −1 6= 1 =
,
∂y
∂x
∂p1
∂p2
= 1 =
.
∂y
∂x
(183)
Der Bedingung (182) entsprechen im Fall des 3D Vektorfelds (176) die Bedingungen
∂v1
∂v2
=
,
∂x
∂y
∂v3
∂v2
=
,
∂y
∂z
∂v1
∂v3
=
.
∂z
∂x
(184)
Wir werden in Abschnitt 2.5.4c sehen, daß diese Bedingungen sogar hinreichend sind.
Mit dem Nabla-Operator ∇ und der Notation (x, y, z) = (x1 , x2 , x3 ) lassen sie sich zu
einer Vektor-Bedingung zusammenfassen,
 




∂/∂x1
v1
(∂/∂x2 )v3 − (∂/∂x3 )v2
∇ × v(r) ≡  ∂/∂x2  ×  v2  ≡  (∂/∂x3 )v1 − (∂/∂x1 )v3  = 0. (185)
∂/∂x3
v3
(∂/∂x1 )v2 − (∂/∂x2 )v1
Das Vektorfeld ∇ × v(r) heißt die Rotation des Vektorfelds v(r).
Satz: Ist das 3D Vektorfeld v(r) der Gradient eines Skalarfelds, so verschwindet seine
Rotation identisch, ∇ × v(r) ≡ 0. In Abschnitt 2.5.4c werden wir sehen, daß auch die
Umkehrung gilt.
Bem.: Dieser Satz läßt sich auch auf 2D Vektorfelder anwenden, indem man eine dritte
Komponente 0 ergänzt,




v1 (x, y)
0
v1 (x, y)
 . (186)
0
→  v2 (x, y)  , ∇ × v(r) = 
v2 (x, y)
0
∂v2 (x, y)/∂x − ∂v1 (x, y)/∂y
29
2.5.2
Kurvenintegrale
Im homogenen elektrischen Feld E (eines Plattenkondensators) wirkt auf eine Punktladung q (mit Masse m) die Kraft F = qE. Bewegt sich q reibungsfrei längs einer geraden
Schiene vom Ort rA nach rB , so gilt für seine Geschwindigkeiten vA und vB bei rA bzw. rB
m 2
m 2
vB =
v + WAB ,
2
2 A
(187)
mit der von F an q auf dem Weg von rA nach rB verrichteten Arbeit (Energiesatz),
WAB = |F| cos γ |rB − rA | ≡ F · rB − rA .
(188)
Beachte: |F| cos γ ist die Komponente von F in Richtung des Vektors ∆r = rB − rA .
Nun sei E(r) ein im allg. inhomogenes Vektorfeld. Dann variieren Betrag und
Richtung des Kraftvektors F = qE(r) = F(r) von Ort zu Ort. Außerdem habe die Schiene
die Form einer beliebig gekrümmten Kurve Γ , gegeben durch die Vektorfunktion


x(u)
n
o


y(u) ,
Γ = r(u) uA ≤ u ≤ uB .
(189)
r(u) ≡
z(u)
Bewegt sich die Ladung q entlang Γ von rA = r(uA ) nach rB = r(uB ), so verrichtet das
Kraftfeld F(r) an ihr die Arbeit
WAB = lim
N →∞
N
X
F r(un ) · r(un ) − r(un−1 ) ,
(190)
n=1
wobei wir das Intervall [uA , uB ] in N Abschnitte gleicher Länge ∆u =
un = uA + n∆u
uB −uA
N
zerlegt haben,
(n = 0, 1, 2, ..., N ).
(191)
Für hinreichned kleines ∆u (also im Limes N → ∞) gilt mit beliebiger Genauigkeit




x(un ) − x(un−1 )
ẋ(un )
r(un ) − r(un−1 ) ≡  y(un ) − y(un−1 )  ≈  ẏ(un )  ∆u = ṙ(un ) ∆u, (192)
z(un ) − z(un−1 )
ż(un )
wobei wir die Ableitungen von x(u), etc. mit ẋ(u), etc. bezeichnet haben. Es gilt also
WAB = lim
N →∞
N h
X
i
F r(un ) · ṙ(un ) ∆u =
Z
uB
uA
n=1
h
i
du ṙ(u) · F r(u) .
|
{z
}
(193)
f (u)
Dies ist ein gewöhnliches Integral über die reelle Variable u. Da sein Wert nicht von
der gewählten Parametrisierung r(u) der Kurve Γ abhängt (Übungen!), schreibt man
Z
Z uB
dr · F(r) :=
du ṙ(u) · F r(u) ,
(194)
Γ
uA
und nennt dies das Kurvenintegral des Vektorfelds F(r) entlang der Kurve Γ .
30
Bsp.: Γ sei in der xy-Ebene die Kreiskurve um r0 = (x0 , y0 ) mit Radius R,
x(φ)
x0 + R cos φ
r(φ) =
=
.
y(φ)
y0 + R sin φ
Mit φA = 0 und φB = 2π gilt für das Feld p(r) aus Abschnitt 2.5.1
Z φB
Z 2π
I
ẋ(φ)
y(φ)
dφ
·
.
dr · p(r) =
dφ ṙ · p r(φ) =
I1 =
ẏ(φ)
x(φ)
0
Γ
φA
Entsprechend finden wir für das Feld q(r)
Z 2π
I
ẋ(φ)
−y(φ)
dr · q(r) =
dφ
·
.
I2 =
ẏ(φ)
x(φ)
Γ
0
(195)
(196)
(197)
Zusammengefaßt gilt also
Z 2π h
i
∆An I1,2 =
dφ ± ẋ(φ) y(φ) + ẏ(φ) x(φ)
Z0 2π h
i
dφ ∓ R sin φ (y0 + R sin φ) + R cos φ (x0 + R cos φ)
=
0
Z 2π h
Z 2π h
i
i
2
dφ ∓ sin2 φ + cos2 φ ,(198)
dφ ∓ y0 sin φ + x0 cos φ + R
= R
0
0
und wir finden I1 = 0 während I2 = 2πR2 .
Sei nun das Vektorfeld F(r) = Gf (r) = ∇f (r) der Gradient eines Skalarfelds f (r).
Dann erhalten wir mit der Kettenregel für partielle Ableitungen, Gl. (116),
Z
Z uB
dr · Gf (r) ≡
du ṙ(u) · Gf r(u)
Γ
ZuAuB
d
=
du f r(u)
du
uA
= f r(uB ) − f r(uA ) .
(199)
Satz.: Das Kurvenintegral des Gradienten eines Skalarfelds f (r) ergibt dessen Differenz
zwischen End- und Anfangspunkt rB bzw. rA der Integrationskurve Γ ,
Z
dr · ∇f (r) = f (rB ) − f (rA ),
(200)
Γ
ist also unabhängig vom Verlauf von Γ zwischen diesen Punkten.
31
2.5.3
Flußintegrale
Strömende Luft habe räumlich (und zeitlich) konstante Dichte ρ(r) = ρ0 , etwa
ρ0 ≈
29.2 kg
0.7 · 28 kg + 0.3 · 32 kg
kg
=
=
1.30
,
22 400 `
22.4 m3
m3
(201)
und ebenso konstante Geschwindigkeit v(r) = v0 , etwa mit |v0 | = 2.00 ms . Der Vektor
J = ρ0 v0 = 2.60 eJ
kg
m2 s
eJ :=
v0 |v0 |
(202)
heißt Stromdichte. Sein Betrag J = |J| gibt an, welche Menge Luft (in kg) pro Zeiteinheit (1 s) durch eine Einheitsfläche (1 m2 ) senkrecht zur Strömungsrichtung tritt.
Durch ein ebenes Flächenstück Σ (mit Inhalt A) senkrecht zur Richtung von J tritt
dann im Zeitintervall ∆t die Luftmasse M = Ṁ ∆t, mit
kg .
(203)
Ṁ = |J| A
[Ṁ ] = 1
s
Steht Σ im Winkel γ zu J, so betrachten wir den Einheitsvektor n senkrecht zu Σ
in jene Richtung, in welche die durchtretende Luftmasse positiv gezählt werden soll. Mit
der Komponente J · n von J in diese Richtung (J · n kann negativ sein) gilt dann
Ṁ = J · n A = |J|A cos γ.
(204)
Im allgemeinsten Fall ist die Luftströmung inhomogen, wobei J von Ort zu Ort
variiert, also durch ein Vektorfeld J(r) beschrieben wird. Außerdem kann Σ ein beliebig
gekrümmtes Flächenstück mit Inhalt A sein. Für r ∈ Σ sei n(r) der Einheitsvektor
senkrecht zur Tangentialebene an Σ im Punkt r, genannt Normalen-Einheitsvektor.
Zur Berechnung von Ṁ wählen wir jetzt krumml. Koo. α = (u, v, w) so, daß Σ ein
Ausschnitt der Koo.-fläche w = w0 ist,
n
o
Σ = r(u, v, w0 ) a1 ≤ u ≤ a2 , b1 ≤ v ≤ b2 .
(205)
Dann zerlegen wir die Intervalle [a1 , a2 ] und [b1 , b2 ] in je N 1 Teilintervalle der Längen
−a1
−b1
∆u = a2N
bzw. ∆v = b2N
, also mit den Intervall-Mittelpunkten
ui = a1 + (i − 21 )∆u,
vj = b1 + (j − 21 )∆v
(i, j = 1, ..., N ).
(206)
Die speziellen Punkte auf Σ mit den Koordinaten u = ui und v = vj sind
rij = r(ui , vj , w0 ).
(207)
Jene Punkte r(u, v, w0 ) auf Σ , bei denen u um weniger als 21 ∆u von ui und v um weniger
als 12 ∆v von vj abweicht, bilden eine Teilfläche ∆Σij (mit Flächeninhalt ∆Aij ) von Σ ,
n
o
rij ∈ ∆Σij = r(u, v, w0 ) |u − ui | ≤ 12 ∆u, |v − vj | ≤ 12 ∆v .
(208)
32
Da diese Teilflächen nicht überlappen,
PN
i,j=1
∆Aij = A, so gilt offenbar nach Gl. (204)
N X
N
X
J(rij ) · n(rij ) ∆Aij .
Ṁ = lim
N →∞
(209)
i=1 j=1
Nach Abschnitt 2.4.3 gilt für hinreichend kleine ∆u, ∆v > 0 mit beliebiger Genauigkeit
n(rij )∆Aij ≡ ∆Aij ≈ ∆u∆v hu (αij ) × hv (αij ) .
(210)
Hier ist αij = (ui , vj , w0 ), also r(αij ) = rij . Es folgt also
Ṁ =
lim
N X
N
X
N →∞
Z
i=1 j=1
a2
Z
b2
du
=
b1
a1
∆u∆v hu (αij ) × hv (αij ) · J(rij )
dv hu (α) × hv (α) · J r(α) Z
≡
w=w0
dA · J(r).
(211)
Σ
• Man nennt dies das Flußintegral des Vektorfelds J(r) durch das Flächenstück Σ .
• Das (vektorielle!) Symbol dA heißt Normalenvektor (-element) von Σ .
• Zeigt hu (α) × hv (α) in die “falsche” Richtung, so ist mit (−1) zu multiplizieren.
Bsp.: Wir wählen Kugelkoordinaten


r sin θ cos φ
r(r, θ, φ) =  r sin θ sin φ 
r cos θ
(212)
und berechnen den Fluß des Vektorfelds F(r) = r aus der Fläche
n
o
π
Σ = r(R, θ, φ) 0 ≤ θ ≤ , 0 ≤ φ ≤ 2π ,
2
(213)
also der “oberen” Halbkugel Σ vom Radius R,
Z π/2 Z 2π
Z
dφ hθ (α) × hφ (α) · F r(R, θ, φ) dA · F(r) =
dθ
r=R
0
0
Σ

 
 

Z π/2 Z 2π
R cos θ cos φ
−R sin θ sin φ
R sin θ cos φ
=
dθ
dφ  R cos θ sin φ  ×  +R sin θ cos φ  ·  R sin θ sin φ 
0
0
−R sin θ
0
R cos θ
 2 2
 

Z π/2 Z 2π
R sin θ cos φ
R sin θ cos φ
=
dθ
dφ  R2 sin2 θ sin φ  ·  R sin θ sin φ 
0
0
R2 cos θ sin θ
R cos θ
Z π/2 Z 2π
Z π/2
3
3
2
3
= R
dθ
dφ sin θ + cos θ sin θ = 2πR
dθ sin θ = 2πR3 .
(214)
0
0
0
Dieses Ergebnis hätten wir auch ohne Rechnung finden können: Da der Vektor F(r) = r
an jedem Punkt r ∈ Σ senkrecht zu Σ steht und dort konstanten Betrag |r| = R hat,
ist das Flußintegral gleich dem Produkt aus Flächeninhalt von Σ und Betrag R,
Z
dA · F(r) = 2πR2 R.
(215)
Σ
33
2.5.4
Die Integralsätze von Gauß und Stokes
Die drei Komponenten F1,2,3 (x, y, z) des Vektorfelds


F1 (x, y, z)
F(r) =  F2 (x, y, z) 
F3 (x, y, z)
(216)
und ihre partiellen Ableitungen seien im zusammenhängenden Bereich D ⊆ R3 definiert.
(a) Fluß aus Oberflächen und Divergenz
Die Oberfläche ∂Ω eines Volumenbereichs Ω ist ein geschlossenes Flächenstück Σ .
Von besonderem Interesse ist (im Fall Ω , ∂Ω ⊆ D) das Flußintegral
I
dA · F(r),
(217)
I =
∂Ω
bei dem Hder Normalenvektor dA in jedem Punkt von ∂Ω aus Ω heraus zeigen soll. (Das
Symbol soll daran erinnern, daß über ein geschlossenes Flächenstück integriert wird.)
Man nennt I den Fluß des Vektorfelds F(r) aus Ω heraus.
Ist F(r) = J(r) die Stromdichte einer CO2 -Strömung, so ist I die pro Zeiteinheit aus
Ω ⊆ D herausströmende CO2 -Menge (in kg/s). Im Fall I > 0 strömt also ständig CO2
aus. Sind sowohl J(r) als auch die CO2 -Dichte ρ(r) an jedem Ort r zeitlich konstant
(stationäre Strömung), ist dies nur möglich, wenn im Innern von Ω CO2 -Quellen sitzen.1
kg
Die räumliche Quelldichte q(r0 ) (in s cm
3 ) bei r = r0 wird definiert durch
I
1
q(r0 ) := lim
dA · J(r),
(218)
VΩ →0 VΩ
∂Ω
mit einer Schar von Volumenbereichen Ω ⊆ D, die alle den Punkt r0 enthalten, und deren
Volumina VΩ innerhalb der Schar gegen null streben.
Um einen allgemeinen Ausdruck für die Quelldichte qF (r0 ) eines Vektorfelds F(r) zu
gewinnen, berechnen wir das Integral (218) für einen achsenparallelen Quader Ω ⊆ D mit
Kantenlängen 2a, 2b, 2c und Mittelpunkt r0 = (x0 , y0 , z0 ),
VΩ = 2a · 2b · 2c.
(219)
Zwei der sechs Rechtecke, die seine Oberfläche ∂Ω ⊆ D bilden, sind gegeben durch
n
o
Σx± = r(x0 ± a, y, z) = (x0 ± a, y, z) |y − y0 | ≤ b, |z − z0 | ≤ c .
(220)
Wir rechnen also in kartesischen Koordinaten, mit hx = ex , hy = ey und hz = ez ,
Z
Z y0 +b Z z0 +c
dA · F(r) = ±
dy
dz hy × hz · F r(x0 ± a, y, z)
Σx±
y0 −b
y0 +b
z0 −c
z0 +c
Z
= ±
Z
= ±
z0 −c
Z z0 +c
dz F1 (x0 ± a, y, z).
dy
y0 −b
1
dz ex · F(x0 ± a, y, z)
dy
y0 −b
Z y0 +b
z0 −c
Etwa Kühe, Kohleöfen, etc.
34
(221)
Der gesamte Fluß aus Ω ist also
I
Z y0 +b Z z0 +c h
i
dy
dz F1 (x0 + a, y, z) − F1 (x0 − a, y, z) + ... + ... .(222)
dA · F(r) =
y0 −b
∂Ω
z0 −c
Die Beiträge der zwei übrigen Rechteckspaare Σy± und Σz± sind durch Punkte angedeutet.
Für die Quelldichte von F(r) am Quadermittelpunkt r0 = r(x0 , y0 , z0 ) folgt
I
Z y0 +b (
Z z0 +c "
1
1
1
qF (r0 ) = lim
dy lim
dz
dA · F(r) = lim
c→0
VΩ →0 VΩ
b→0
2b y0 −b
2c z0 −c
∂Ω
#)
F1 (x0 + a, y, z) − F1 (x0 − a, y, z)
lim
+ ... + ...
a→0
2a
)
Z y0 +b (
Z z0 +c
1
1
∂F1 (x, y, z) = lim
+ ... + ... .
(223)
dy lim
dz
c→0 2c z −c
b→0 2b y −b
∂x
x=x0
0
0
Der Mittelwertsatz limc→0
1
lim
VΩ →0 VΩ
1
2c
R z0 +c
z0 −c
dz f (z) = f (z0 ), etc. liefert somit insgesamt
I
∂F (x, y, z) ∂F (x, y, z) ∂F (x, y, z) 2
3
1
+
+
dA · F(r) =
.
∂x
∂y
∂z
r=r0
∂Ω
(224)
Satz: Die Quelldichte des Vektorfelds F(r) ist gleich seiner Divergenz div F(r),

 

∂x
F1 (x, y, z)
(225)
qF (r) = div F(r) := ∇ · F(r) ≡  ∂y  ·  F2 (x, y, z)  .
∂z
F3 (x, y, z)
Zerlegen wir Ω in N Bereiche Ωi (mit i = 1, ..., N ), so gilt
I
dA · F(r) =
∂Ω
N I
X
i=1
dA · F(r),
(226)
∂Ωi
da aneinandergrenzende (“innere”) Flächen benachbarter Bereiche Ωi zur Summe nicht
beitragen. Ist ri ein Punkt in Ωi , so gilt nach Gl. (218) mit beliebiger Genauigkeit
I
dA · F(r) ≈ ∆Vi qF (ri ),
(227)
∂Ωi
wenn nur das Volumen ∆Vi von Ωi hinreichend klein ist. Mit Gl. (225) folgt also
I
dA · F(r) ≡ lim
N →∞
∂Ω
N
X
Z
∆Vi qF (ri ) =
d3 r ∇ · F(r) .
(228)
Ω
i=1
Satz von Gauß: Für ein beliebiges partiell differenzierbares Vektorfeld F(r) und einen
beliebigen Volumenbereich Ω ⊆ D mit Oberfläche ∂Ω ⊆ D gilt
I
Z
dA · F(r) =
d3 r ∇ · F(r) .
(229)
∂Ω
Ω
35
Bsp.: Wir betrachten eine stationäre Strömung von CO2 -Gas mit Stromdichte
 
x
mg
⇒
∇ · J(r) = c.
J(r) ≡ ρ(r) v(r) = c 0 , c = 0.025
cm3 s
0
(230)
Die aus dem Würfel Ω = {r = (x, y, z) | 0 ≤ x, y, z ≤ a} (mit Kantenlänge a = 1 m) pro
Zeiteinheit strömende CO2 -Menge berechnen wir nach Gl. (229) auf zweierlei Art,
   

  
I
1
a
−1
0
g
I =
dA · J(r) = a2  0  · c  0  + a2  0  · c  0  = a3 c = 25 . (231)
s
∂Ω
0
0
0
0
Das gleiche Ergebnis liefert die wesentlich einfachere Rechnung
Z
Z
3
I =
d r ∇ · J(r) =
d3 r c = VΩ c = a3 c.
Ω
(232)
Ω
(b) Die Kontinuitätsgleichung
Bei nicht-stationärer Strömung sind J und ρ an jeder Stelle r im allg. zeitabhängig,
J = J(r, t),
ρ = ρ(r, t).
Die zeitliche Änderungsrate der in Ω enthaltenen CO2 -Menge M (t) =
Z
Z
∂
d
3
d r ρ(r, t) =
d3 r ρ(r, t),
Ṁ (t) ≡
dt Ω
∂t
Ω
(233)
R
Ω
d3 r ρ(r, t),
(234)
ist gleich der infolge der Quelldichte q(r, t) pro Zeiteinheit in Ω erzeugten Menge,
abzüglich der pro Zeiteinheit durch die Oberfläche ∂Ω aus Ω abfließenden Menge,
Z
I
Z
3 ∂
3
d r ρ(r, t) =
dA · J(r, t).
(235)
d r q(r, t) −
∂t
Ω
∂Ω
Ω
Mit dem Gaußschen Satz können wir dies schreiben als
Z
Z
h∂
i
3
dr
ρ(r, t) + ∇ · J(r, t) =
d3 r q(r, t).
∂t
Ω
Ω
(236)
Da dies für jeden beliebigen Volumenbereich Ω gilt, so muß an jedem Punkt r gelten
∂
ρ(r, t) + ∇ · J(r, t) = q(r, t).
∂t
(237)
Ist die strömende Substanz eine Erhaltungsgröße (wie etwa elektrische Ladung),
q(r, t) ≡ 0, so gilt also die Kontinuitätsgleichung
∂
ρ(r, t) + ∇ · J(r, t) = 0.
∂t
(238)
Bei stationärer Strömung einer beliebigen Substanz (wie etwa CO2 -Gas) gilt dagegen
∇ · J(r) = q(r).
36
(239)
(c) Zirkulation und Rotation
Der Rand ∂Σ eines Flächenstücks Σ ist eine geschlossene Kurve Γ . Von besonderem
Interesse ist (im Fall Σ , ∂Σ ⊆ D) das Kurvenintegral
I
I =
dr · F(r).
(240)
∂Σ
H
(Das Symbol soll daran erinnern, daß über eine geschlossene Kurve integriert wird.)
Man nennt I die Zirkulation des Vektorfelds F(r) um das Flächenstück Σ .
Beachte: Das Vorzeichen von I hängt vom Umlaufssinn der Kurve ∂Σ ab.
Sei ω =
2π
T
eine Winkelgeschwindigkeit (WG). Das Vektorfeld
v(r) = ω × r
    
 

0
x
−ωy
v1 (x, y, z)
≡  0  ×  y  ≡  +ωx  ≡  v2 (x, y, z) 
ω
z
0
v3 (x, y, z)
(241)
beschreibt die Strömungsgeschwindigkeit am Ort r einer starr um die z-Achse rotierenden
Wassermasse. Ein kleiner, mit dem Wasser treibender Schwamm mit Schwerpunkt S
bei r = r0 hat in S die momentane Translationsgeschwindigkeit v(r0 ) und rotiert
zugleich mit WG ω um die Achse durch S in z-Richtung, also mit WG-Vektor ω . Diese
Rotationsbewegung ist unabhängig vom Ort r0 des Schwamms!
Wir berechnen die Zirkulation von v(r) um die ebene Kreiskurve



 x0 + R cos φ


∂Σ = r(φ) =  y0 + R sin φ  0 ≤ φ < 2π ,


z0
(242)
senkrecht zur z-Achse, mit Radius R und Mittelpunkt r0 = (x0 , y0 , z0 ),
I
Z 2π
dr(φ)
· v r(φ)
dr · v(r) =
dφ
dφ
∂Σ
0

 

Z 2π
−R sin φ
−ω(y0 + R sin φ)
dφ  +R cos φ  ·  +ω(x0 + R cos φ) 
=
0
0
0
Z 2π
h
i
= Rω
dφ y0 sin φ + x0 cos φ + R sin2 φ + cos2 φ
0
= Rω 2πR
= 2ω πR2 .
(243)
Die Zirkulation ist also das Produkt aus 2ω und dem Flächeninhalt AΣ = πR2 der von
∂Σ umrandeten Kreisscheibe Σ ,
I
dr · v(r) = 2ω AΣ .
(244)
∂Σ
Dieses Ergebnis läßt sich verallgemeinern.
37
Sei Σ eine beliebige Kreisscheibe, mit Radius RΣ und Normalen-Einheitsvektor nΣ .
Dann gilt zunächst, mit der Vektoridentität b · (c × a) = c · (a × b),
Z 2π
I
Z 2π
h
dr(φ) i
dr(φ) dφ ω · r(φ) ×
· ω × r(φ) =
.
(245)
dφ
dr · v(r) ≡
dφ
dφ
0
0
∂Σ
Ist r0 wieder der Mittelpunkt von Σ , so gilt
r(φ) ×
dr(φ)
dr(φ)
dr(φ)
2
= r0 + r(φ) − r0 ×
= r0 ×
+ RΣ
nΣ .
dφ
dφ
dφ
Wir haben also
I
Z
2π
dr(φ) i
2
dφ ω · r0 ×
+ 2π ω · (RΣ
nΣ )
dr · v(r) =
dφ
0
∂Σ
Z 2π
d 2
dφ
=
ω · r0 × r(φ) + 2 ω · (πRΣ
nΣ ),
dφ
0
|
{z
}
(246)
h
(247)
0
Die Zirkulation ist also das Skalarprodukt des Vektors 2 ω mit dem Flächenvektor
2
AΣ = AΣ nΣ der Kreisscheibe Σ vom Flächeninhalt AΣ = πRΣ
,
I
dr · v(r) = 2 ω · AΣ .
(248)
∂Σ
Satz: Sei F(r) ein beliebiges, partiell differenzierbares Vektorfeld und Σ die Kreisscheibe
mit Mittelpunkt r0 , Flächeninhalt AΣ und Normalen-Einheitsvektor nΣ .
Dann existiert ein Vektorfeld ω (r) mit der Eigenschaft
I
1
dr · F(r) = 2 ω (r0 ) · nΣ .
(249)
lim
AΣ →0 AΣ
∂Σ
(Der Umlaufssinn von ∂Σ ist über die rechte-Hand-Regel durch den Vektor nΣ festgelegt.)
Das Vektorfeld 2 ω (r) heißt die Rotation des Vektorfelds F(r), und ist gegeben durch
2 ω (r) ≡ rot F(r) = ∇ × F(r).
(250)
Beweis: Mit den partiellen Ableitungen der Komponenten Fi (r) von F(r) bei r = r0 ,
∂Fi (r) Fi1 :=
,
∂x r=r0
∂Fi (r) Fi2 :=
,
∂y r=r0
∂Fi (r) Fi3 :=
∂z r=r0
(i = 1, 2, 3), (251)
und den Differenzen u = x − x0 , v = y − y0 und w = z − z0 gilt


F11 u + F12 v + F13 w
F(r) = F(r0 ) +  F21 u + F22 v + F23 w  + X(u, v, w).
F31 u + F32 v + F33 w
(252)
Dies folgt durch Taylor-Entwicklung der Funktionen Fi (r) um r = r0 . Für beliebige Werte
von u, v, w mit |u|, |v|, |w| ≤ gilt dabei für den Restterm |X(u, v, w)| = O(2 ), also
|u|, |v|, |w| ≤ :
lim
→0
38
|X(u, v, w)|
= 0.
(253)
Wir trennen den Term erster Ordnung in symmetrische und antisymmetrische Teile,


2F11 u
+ (F12 + F21 )v + (F13 + F31 )w
1
2F22 v
+ (F23 + F32 )w 
F(r) = F(r0 ) +  (F21 + F12 )u +
2
(F31 + F13 )u + (F32 + F23 )v +
2F33 w


0
+ (F12 − F21 )v + (F13 − F31 )w
1
0
+ (F23 − F32 )w  + X(u, v, w).
+  (F21 − F12 )u +
2
(F31 − F13 )u + (F32 − F23 )v +
0
(254)
Mit den Größen Sij und ωi (i, j = 1, 2, 3),




ω1
F32 − F23
Fij + Fji
 ω2  = 1  F13 − F31  ≡ 1 ∇ × F(r)
Sij =
,
r=r0
2
2
2
ω3
F21 − F12
(255)
lautet dies


S11 u + S12 v + S13 w
F(r) = F(r0 ) +  S21 u + S22 v + S23 w  +
S31 u + S32 v + S33 w
H
Damit berechnen wir nun ∂Σ dr · F(r). Für den
I
Z 2π
dr · F(r0 ) =
dφ ṙ(φ) · F(r0 )
∂Σ

 

ω1
u
 ω2  ×  v  + X(u, v, w). (256)
ω3
w
konstanten Vektor F(r0 ) gilt
=
h
i2π
r(φ) · F(r0 )
= 0.
0
(257)
0
Für den zweiten Term F2 (r) auf der RS von Gl. (256) erhalten wir
I
Z 2π
dr · F2 (r) =
dφ ṙ(φ) · F2 r(φ)
∂Σ
0

 

Z 2π
u̇(φ)
S11 u(φ) + S12 v(φ) + S13 w(φ)
=
dφ  v̇(φ)  ·  S21 u(φ) + S22 v(φ) + S23 w(φ)  . (258)
0
ẇ(φ)
S31 u(φ) + S32 v(φ) + S33 w(φ)
Wegen der Symmetrie Sij = Sji der Koeffizienten können wir zusammenfassen
I
Z 2π
h
i
dr · F2 (r) =
dφ S11 u̇(φ)u(φ) + S12 u̇(φ)v(φ) + u(φ)v̇(φ) + ...
∂Σ
0
=
h
S11
i2π
u(φ)2
+ S12 u(φ)v(φ) + ...
= 0.
2
0
Der dritte Term F3 (r) = ω × (r − r0 ) ergibt nach Gl. (248)
I
dr · F2 (r) = 2 ω · AΣ ≡ AΣ ∇ × F(r) r=r0 · nΣ .
(259)
(260)
∂Σ
Die Beiträge höherer Ordnung verschwinden im Limes AΣ = πR2 → 0,
I
1 2πR · O(R2 )
2 O(R2 )
lim
dr · X(u, v, w) ≤ lim
=
lim
= 0.
AΣ →0 AΣ
R→0
R→0
πR2
R
∂Σ
Mit Gln. (257), (259) und (260) ist damit der Satz bewiesen.
39
(261)
Eine ähnliche Überlegung wie in Gl. (226) führt von Gl. (249) auf den
Satz von Stokes: Für ein beliebiges partiell differenzierbares Vektorfeld F(r) und ein
beliebig gekrümmtes Flächenstück Σ ⊆ D mit hinreichend “glattem” Rand ∂Σ ⊆ D gilt
I
Z
dr · F(r) =
dA · ∇ × F(r) .
(262)
∂Σ
Σ
(d) Rotation und Wegunabhängigkeit
Def.: Ein Bereich D ⊆ R3 heißt einfach-zusammenhängend (ezh), wenn sich jede
geschlossene Kurve Γ ⊂ D “in D zu einem Punkt zusammenziehen” läßt, es also ein ganz
in D liegendes Flächenstück Σ ⊆ D gibt mit Γ = ∂Σ .
Bsp.: Der Bereich D = {(x, y, z) | x2 + y 2 ≥ R2 }, mit R > 0, ist nicht ezh.
Satz.: Sei D ⊆ R3 ezh. Dann gilt für ein auf D partiell differenzierbaren Vektorfeld F(r)
genau dann ∇ × F(r) = 0 für alle r ∈ D, wenn es ein Skalarfeld f (r) gibt mit
F(r) = ∇f (r)
(für alle r ∈ D).
Für jede Kurve Γ ⊂ D mit Anfangspunkt rA und Endpunkt rB gilt dann also
Z
dr · F(r) = f (rB ) − f (rA ).
(263)
(264)
Γ
Beweis: Aus Abschnitt 2.5.1 wissen wir bereits, daß die eine Richtung stimmt,
F(r) = ∇f (r)
⇒
∇ × F(r) = 0.
(265)
Gelte nun ∇ × F(r) = 0 für alle r ∈ D. Dann definieren wir für beliebiges r1 ∈ D
Z
f (r1 ) :=
dr · F(r),
(266)
Γ1
wobei Γ1 irgendeine Kurve in D ist, die von einem beliebig aber fest gewählten Punkt
r0 ∈ D nach r1 führt. Diese Definition ist eindeutig: Für eine zweite solche Kurve Γ10 gilt
Z
Z
I
dr · F(r) =
dr · F(r) +
dr · F(r),
(267)
Γ10
Γ1
Γ
Γ10
wobei Γ jene geschlossene Kurve ist, die längs
von r0 nach r1 und rückwärts längs
Γ1 von r1 nach r0 führt; da D ezh ist, gibt es ein Flächenstück Σ ⊆ D mit ∂Σ = Γ ; nach
dem Satz von Stokes gilt also
I
Z
dr · F(r) ≡
dA · ∇ × F(r) = 0,
(268)
Γ
Σ
da ∇ × F(r) = 0 für alle r ∈ D. Weiterhin gilt nach Gl. (266)
f (x + h, y, z) − f (x, y, z)
∂
f (x, y, z) = lim
h→0
∂x
h
Z
1
= lim
dr · F(r)
h→0 h Γ
1
Z
1 x+h 0
= lim
dx F1 (x0 , y, z) = F1 (x, y, z),
h→0 h x
wobei Γ1 in x-Richtung von (x, y, z) nach (x + h, y, z) führt, q.e.d.
40
(269)
2.5.5
Rechnen mit dem Nabla-Operator ∇
(a) Produktregeln
Es seien f = f (r) und g = g(r) Skalarfelder und F = F(r) und G = G(r) Vektorfelder.
Es gibt sechs Möglichkeiten, ∇ auf ein Produkt aus je zwei dieser Felder anzuwenden:
Zwei mögliche Gradienten von Skalarfeldern,
∇(f g) = f ∇g + g ∇f,
∇(F · G) = (F · ∇)G + (G · ∇)F + F × (∇ × G) + G × (∇ × F),
(270)
(271)
zwei mögliche Divergenzen von Vektorfeldern,
∇ · (f G) = G · ∇f + f ∇ · G,
∇ · (F × G) = G · (∇ × F) − F · (∇ × G),
(272)
(273)
und zwei mögliche Rotationen von Vektorfeldern,
∇ × (f G) = (∇f ) × G + f (∇ × G),
∇ × (F × G) = F(∇ · G) − G(∇ · F) + (G · ∇)F − (F · ∇)G.
(274)
(275)
(b) Zweite Ableitungen
Der Laplace-Operator wird definiert durch
∆ ≡ ∇2 ≡ ∇ · ∇ =
∂2
∂2
∂2
+
+
.
∂x2 ∂y 2 ∂z 2
(276)
Bsp.: Für das Skalarfeld f (x, y, z) = x3 y 6 z 2 gilt ∇2 f (x, y, z) = 6xyz 2 +30x3 y 4 z 2 +2x3 y.
∇2 läßt sich aber auch (komponentenweise) auf Vektorfelder anwenden,


 2 3 2 
2y 3 z 2 + 6x2 yz 2 + 2x2 y 3
xy z
(277)
∇2 F(x, y, z) ≡ ∇2  x3 y 2 z 4  =  6xy 2 z 4 + 2x3 z 4 + 12x3 y 2 z 2  .
20xyz 3
xyz 5
Weitere wichtige “zweite Ableitungen” sind
∇ · (∇ × F) = 0,
∇ × ∇f = 0,
∇ × (∇ × F) = ∇(∇ · F) − ∇2 F.
(278)
(279)
(280)
(c) Folgerungen
Aus Gl. (273), mit F = ∇f und G = ∇g, folgt mit Gl. (279)
∇ · (∇f × ∇g) = (∇g) · (∇ × ∇f ) − (∇f ) · (∇ × ∇g) = 0.
(281)
Im Vakuum (∇ · E = 0, ∇ × B = 0 µ0 ∂E
) liefert Gl. (280), mit ∇ × E = − ∂B
,
∂t
∂t
∂B
∂
∂ 2E
∇ E ≡ −∇ × (∇ × E) = ∇ ×
=
(∇ × B) = 0 µ0 2 .
∂t
∂t
∂t
2
41
(282)
2.6
Ableitungsformeln in krummlinigen Koordinaten
• Wir beschränken uns auf orthogonal-krummlinige Koordinaten
Ein Skalarfeld f (r) ≡ f (x, y, z) ist in krummlinigen Koordinaten α = (u1 , u2 , u3 ), die
festgelegt sind durch die Funktionen r = r(α), gegeben durch die (Verkettungs-) Funktion
f˜(α) ≡ f˜(u1 , u2 , u3 ) = f r(α) .
(283)
Ein Vektorfeld dagegen, das in kartesischen Koordinaten gegeben ist durch
F(r) = F1 (r) ex + F2 (r) ey + F3 (r) ez ,
(284)
wird in krummlinigen Koordinaten dargestellt durch
F(r) = Fe1 (α) ε 1 (α) + Fe2 (α) ε 2 (α) + Fe3 (α) ε 3 (α).
(285)
Dabei gilt im allg. Fei (α) ≡ Fe(u1 , u2 , u3 ) 6= Fi (r(α)), wie folgendes Beispiel zeigt.
Bsp.: Das elektrische Feld einer bei r = 0 sitzenden Punktladung q,
h
i
q
1
q r
E(r) =
≡
x ex + y ey + z ez ,
4π0 |r|3
4π0 (x2 + y 2 + z 2 )3/2
hat in Kugelkoordinaten die Darstellung
i
q h1
ε
(r,
θ,
φ)
+
0
ε
(r,
θ,
φ)
+
0
ε
(r,
θ,
φ)
.
E(r) =
r
θ
φ
4π0 r2
2.6.1
(286)
(287)
Gradient
Satz: Für den Gradienten des Skalarfelds f (r) = f (x, y, z),
∇f (r) = ex
∂
∂
∂
f (r) + ey f (r) + ez f (r),
∂x
∂y
∂z
(288)
gilt, mit f˜(α) ≡ f˜(u1 , u2 , u3 ) := f (r(α)),
1
∂ ˜
1
∂ ˜
1
∂ ˜
∇f (r)
= ε 1 (α)
f (α) + ε 2 (α)
f (α) + ε 3 (α)
f (α). (289)
h1 (α) ∂u1
h2 (α) ∂u2
h3 (α) ∂u3
r=r(α)
In Kurznotation schreiben wir
∇f = ε 1
1 ∂ f˜
1 ∂ f˜
1 ∂ f˜
+ ε2
+ ε3
.
h1 ∂u1
h2 ∂u2
h3 ∂u3
(290)
(Ein Beweis dieses Satzes erfolgt am Ende dieses Abschnitts.)
Bsp.: Wir betrachten das elektrische Feld E(r) einer bei r = 0 sitzenden Punktladung q,
E(r) = −∇U (r),
U (r) =
42
q 1
.
4π0 |r|
(291)
In kartesischen Koordinaten, mit |r| =
−
p
x2 + y 2 + z 2 , müssen wir berechnen
∂
∂ q
U (x, y, z) ≡ −
(x2 + y 2 + z 2 )−1/2
∂x
∂x 4π0
q 1 2
q
x
=
(x + y 2 + z 2 )−3/2 · 2x =
.
4π0 2
4π0 |r|3
(292)
und − ∂U
erhalten wir
Mit den entsprechenden Ausdrücken für − ∂U
∂y
∂z


x
q
1  
r
q
y
E(r) =
≡
.
4π0 |r|3
4π0 |r|3
z
(293)
In Kugelkoordinaten, mit |r| = r, also
e (r, θ, φ) =
U
q 1
,
4π0 r
(294)
erhalten wir auf viel einfachere Weise
∂U
e
e
e 1 ∂U
1 ∂U
E(r) ≡ −∇U = −
εr +
εθ +
εφ
∂r
r ∂θ
r sin θ ∂φ
q 1
q
r
= − −
ε
+
0
ε
+
0
ε
≡
.
r
θ
φ
2
4π0 r
4π0 |r|3
(295)
Beweis des Satzes: Nach Taylor-Entwicklung (Abschn. 2.3.3) gilt für kleine |δx|, |δy|, |δz| < 1
δf
:= f (x + δx, y + δy, z + δz) − f (x, y, z)
∂f (x, y, z)
∂f (x, y, z)
∂f (x, y, z)
=
δx +
δy +
δz + O(21 )
∂x
∂y
∂z
≡ ∇f (r) · δr + O(21 ).
(296)
Einsetzen der entsprechenden Entwicklung von δr,
δr =
=
∂r(α)
∂r(α)
∂r(α)
δu1 +
δu2 +
δu3 + O(22 )
∂u1
∂u2
∂u3
h1 δu1 + h2 δu2 + h3 δu3 + O(22 )
= h1 ε1 δu1 + h2 ε2 δu2 + h3 ε3 δu3 + O(22 ),
mit |δu1 |, |δu2 |, |δu3 | < 2 , liefert
δf = ε1 · ∇f (r) h1 δu1 + ε2 · ∇f (r) h2 δu2 + ε3 · ∇f (r) h3 δu3 + O(2 ).
(297)
(298)
mit = max(1 , 2 ). Nach Taylor-Entwicklung der Funktion f˜(α) ≡ f˜(u1 , u2 , u3 ) := f (r(α)) gilt
δf
:= f˜(u1 + δu1 , u2 + δu2 , u3 + δu3 ) − f (u1 , u2 , u3 )
∂ f˜(α)
∂ f˜(α)
∂ f˜(α)
δu1 +
δu2 +
δu3 + O(22 ).
=
∂u1
∂u2
∂u3
Vergleich der Darstellungen (298) und (299) ergibt wegen εi · εj = δij Gl. (290).
43
(299)
2.6.2
Laplace-Operator
∇2 f =
2.6.3
∂ h1 h3 ∂ f˜ ∂ h1 h2 ∂ f˜ i
1 h ∂ h2 h3 ∂ f˜ +
+
.
h1 h2 h3 ∂u1 h1 ∂u1
∂u2 h2 ∂u2
∂u3 h3 ∂u3
Divergenz
∇·F =
2.6.4
(300)
i
1 h ∂
∂
∂
(h2 h3 Fe1 ) +
(h3 h1 Fe2 ) +
(h1 h2 Fe3 ) .
h1 h2 h3 ∂u1
∂u2
∂u3
(301)
Rotation

h1 e1 h2 e2 h3 e3


 ∂
∂
∂
1
∇×F =
det 

h1 h2 h3
 ∂u1 ∂u2 ∂u3

h1 Fe1 h2 Fe2 h3 Fe3
44




.



(302)
3
Vektorräume und lineare Operatoren
3.1
Die Vektorraum-Axiome
Hier bezeichnet K einen beliebigen Körper.2 Fast immer handelt es sich um den Körper
R der reellen oder C der komplexen Zahlen.
Def.: Ein Vektorraum V über dem Körper K = {λ, µ, ...} ist eine nicht-leere Menge
V = {a, b, c, ...} sogenannter “Vektoren” a, b, c, ... zusammen mit
(A) einer Vektoraddition +, die je zwei Elementen a, b ∈ V genau ein Element a+b ∈
V zuordnet so, daß (V, +) eine abelsche Gruppe bildet, sowie
(B) einer skalaren Multiplikation ·, die jedem Paar (λ, a) mit λ ∈ K und a ∈ V
genau ein Elemenet λ · a ∈ V zuordnet so, daß für a, b ∈ V und λ, µ ∈ K gilt:
(V1)
(V2)
(V3)
(V4)
λ · (a + b) = λ · a + λ · b,
(λ + µ) · a = λ · a + µ · a,
(λ · µ) · a = λ · (µ · a),
1 · a = a.
In (V4) ist “1” das neutrale Element bezüglich der Multiplikation in K.
Bem. 1: Das Symbol + steht hier sowohl für die Vektoraddition in V als auch für die
Addition in K, obwohl diese Operationen streng voneinander zu unterscheiden sind.
Analoges gilt für das (häufig fortgelassene) Symbol · und die skalare Multiplikation eines
Vektors a ∈ V mit einem Element λ ∈ K bzw. die Multiplikation in K.
Bem. 2: In der Gruppe (V, +) wird das neutrale Element mit 0 und das zu a Inverse mit
−a bezeichnet, a + (−a) = 0. Man schreibt
b + (−a) = b − a.
(303)
Die neutralen Elemente von K bezüglich + und · heißen 0 bzw. 1.
Die Inversen von λ ∈ K bezgl. + und · heißen −λ bzw. λ−1 .
Wie man leicht aus den Axiomen herleitet (Übung), gelten
0 · a = 0,
λ · 0 = 0,
(−λ) · a = λ · (−a) = −(λ · a).
(304)
Neben dem “eigentlichen” Vektorraum V der räumlichen Vektoren in (3D oder 2D)
sind für die Physik viele andere Vektorräume der Mathematik relevant. Diese lassen sich
meistens nicht anschaulich “räumlich” interpretieren, erfüllen aber dennoch die Axiome.
Bsp. 1: Wir betrachten die Menge Rn (n ∈ N+ ) aller Tupel (Spalten) x aus je n reellen
Zahlen x1 , ..., xn , kurz “(reelle) n-Tupel” genannt,


x1


x ≡  ...  .
(305)
xn
2
Zu den Begriffen Körper und Gruppe: s. Anhang ??.
45
Addition in Rn und skalare Multiplikation von λ ∈ R mit x ∈ Rn werden erklärt durch

 







x1
y1
x1 + y 1
x1
λx1

 







..
x + y ≡  ...  +  ...  := 
λ x ≡ λ  ...  :=  ...  .(306)
,
.
xn
yn
xn + y n
xn
λxn
Im R5 gelten etwa

 
2
 −3  

 
 1 +

 
 −4  
7
1
4
−6
5
0


 
 
=
 
 
3
1
−5
1
7




,




−3 


2
−3
1
−6
4


 
 
=
 
 
−6
9
−3
18
−12



.


(307)
Zusammen mit diesen Rechenoperationen bildet Rn einen VR über dem Körper R.
Bsp. 2: Auf völlig analoge Weise bildet die Menge Cn der komplexen n-Tupel einen VR
über dem Körper C. Im C2 gelten etwa
1− i
2i
1+ i
+
=
,
1+ i
3 − 3i
4 − 2i
1− i
2
(1 + i )
=
.
(308)
2 + 3i
−1 + 5 i
Bsp. 3: Die Gesamtheit P3 (R) aller reellen Polynome vom Grade n ≤ 3,
3
o
n
X
k 3
2
ak x a3 , a2 , a1 , a0 ∈ R ,
P3 (R) := a(x) = a3 x + a2 x + a1 x + a0 ≡
(309)
k=0
bilden einen (wie wir sehen werden 4-dimensionalen) Vektorraum über dem Körper R,
wenn wir in P3 (R) als Vektoraddition die übliche Polynom-Addition
a(x) + b(x) ≡
3
X
ak x
k
k=0
+
3
X
bk x
k
:=
k=0
3
X
(ak + bk )xk
(310)
k=0
und zwischen P3 (R) und R die skalare Multiplikation
3
3
X
X
k
λa(x) ≡ λ
ak x
:=
(λak )xk
k=0
(311)
k=0
festlegen. Solche Funktionenräume spielen eine wichtige Rolle in der Quantenmechanik.
Wir werden sehen, daß man, wie im Fall räumlicher Vektoren, den Betrag (oder die
“Länge”) einer Funktion und den Winkel zwischen zwei Funktionen definieren kann.
3 0
y (x) + x12 y(x) = 0 (für x > 0),
Bsp. 4: Die Lösungsmenge der hom. lin. DGl y 00 (x) − 2x
n
o
√
V = L = y(x) = c1 x + c2 x2 c1 , c2 ∈ R ,
(312)
bildet einen VR über R. Dazu beachte man, daß mit y1 (x) und y2 (x) für beliebige λ, µ ∈ R
stets auch λy1 (x) + µy2 (x) zu V gehört. Die übrigen VR-Axiome sind leicht zu zeigen.
46
3.2
3.2.1
Dimension
Lineare Abhängigkeit
Def.: Gegeben sei ein Vektorraum (VR) V über dem Körper K und eine (nichtleere)
Menge M = {a1 , ..., an } von Vektoren aus V . Ein Ausdruck der Form
λ1 a1 + ... + λn an ≡
n
X
λk ak ∈ V
(λ1 , ..., λn ∈ K),
(313)
k=1
mit gewissen Zahlen λ1 , ..., λn ∈ K, heißt eine Linearkombination (LK) dieser Vektoren.
2
3
) und a2 = (−2
Für die Vektoren a1 = (−9
6 ) des R gilt
2a1 + 3a2 = 0.
(314)
Man nennt eine solche LK eine nicht-triviale Darstellung der Null (NDN).
(Die immer mögliche triviale Nulldarstellung ist 0a1 + 0a2 = 0.)
Def.: Die Menge M = {a1 , ..., an } ⊂ V heißt linear abhängig, wenn ihre Elemente eine
NDN ermöglichen,
λ1 a1 + ... + λn an ≡
n
X
λk ak = 0 mit
k=1
n
X
|λk | > 0.
(315)
k=1
Andernfalls heißt M linear unabhängig.
Bem.: Ist M = {a1 , ..., an } linear unabhängig, so auch jede Teilmenge von M .
Die leere Menge {} gilt als linear unabhängig, mit der linearen Hülle [{}] = {0}.
Bsp.: Der Satz
n 2 3 o
{b1 , b2 } =
,
⊂ R2
0
1
(316)
ermöglicht offenbar keine NDN. Er ist daher linear unabhängig.
Bem.: (a) Im Fall 0 ∈ M ist M stets linear abhängig, denn 0a + 1 · 0 = 0 ist eine NDN.
(b) Die Menge {a, b} ⊂ V zweier räumlicher Vektoren mit a, b 6= 0 ist genau dann l.a.,
wenn a und b kollinear sind.
(c) Die Menge {a, b, c} ⊂ V dreier räumlicher Vektoren mit a, b, c 6= 0 ist genau dann
l.a., wenn a, b und c komplanar sind.
3.2.2
Erzeugendensystem
Def.: Gegeben sei ein Vektorraum V und eine beliebige Teilmenge M ⊆ V .
Die Menge aller LKen der Vektoren aus M heißt die lineare Hülle [M ] von M .
47
Bem.: [M ] ist ein Unter-VR von V (also eine Teilmenge von V , die selbst ein VR ist),
denn mit v ∈ [M ] und w ∈ [M ] gilt für beliebige α, β ∈ K stets auch u = αv + βw ∈ [M ].
Def.: M heißt Erzeugendensystem (ES) von V , wenn [M ] = V , wenn also jeder Vektor
u ∈ V als LK von Vektoren aus M darstellbar ist.
Bsp.: Natürlich ist V selbst ein ES von V . M und [M ] sind ESe von [M ].
Man beachte, daß generell gilt M ⊆ [M ] ⊆ V .
Ein ES des R2 ist gegeben durch die endliche Menge
1
1
M = {a1 , a2 } :=
,
⊂ R2 ,
2
3
denn für beliebig vorgegebenes x ∈ R2 gilt offenbar
x1
λ+µ
x ≡
= λa1 + µa2 ≡
,
x2
2λ + 3µ
(317)
(318)
mit λ = 3x1 − x2 und µ = x2 − 2x1 (Probe durch Einsetzen!).
Def.: V heißt endlich erzeugbar, wenn es ein ES aus endlich vielen Vektoren gibt.
P f
k
Bsp.: Es sei P der VR aller reellen Polynome f = G
k=1 ak x (mit ak ∈ R und Gf ∈ N).
Ein ES von P ist etwa gegeben durch die unendliche Menge
M = {1, x, x2 , x3 , ...}.
(319)
P ist nicht endlich erzeugbar. Wäre nämlich S = {f1 , ..., fn } ein endliches ES, so wäre
f = xm+1 nicht als LK darstellbar, wobei m der Grad des höchsten Polynoms aus S ist.
3.2.3
Basis
Def.: Ein ES {a1 , ..., an } ⊂ V eines endlich-erzeugbaren VR’s V heißt eine Basis von V ,
wenn es linear unabhängig ist.
Sei B = {b1 , ..., bn } eine Basis von V und v ∈ V ein Vektor. Dann gibt es ein durch
B und v eindeutig bestimmtes n-Tupel v = (v1 , ..., vn ) ∈ Kn mit
v =
n
X
vk bk .
(320)
k=1
Gäbe es nämlich ein zweites, von v verschiedenes n-Tupel v 0 = (v10 , ..., vn0 ) ∈ Kn mit
v =
n
X
vk0 bk ,
k=1
so wäre 0 = v − v =
P
k (vk
− vk0 ) bk eine NDN, also B keine Basis.
Def.: Die Zahlen v1 , ..., vn heißen die Koordinaten von v bezüglich der Basis B.
48
(321)
Bsp.: Mit b1 = x + 1, b2 = x − 1 und b3 = x2 ist B = {b1 , b2 , b3 } eine Basis des
Vektorraums P2 (R) (Übungen!). Wegen
5
7
v ≡ 3x2 + 7x + 5 = 3b3 + (b1 + b2 ) + (b1 − b2 )
2
2
= 6b1 + b2 + 3b3
(322)
hat v bezgl. B die Koordinaten v1 = 6, v2 = 1 und v3 = 3.
Satz: Jede Basis eines endlich-erzeugbaren VR’s V enthält gleichviele Vektoren.
Beweis: Sei B = {b1 , ..., bn } ⊂ V eine Basis von V und U = {u1 , ..., un } ⊂ V ein linear
unabhängiger Satz. Wir zeigen zuerst, daß dann U ebenfalls eine Basis von V ist:
• Da B eine Basis ist, so gibt es Zahlen α1 , ..., αn ∈ K mit
u1 =
n
X
αi bi .
(323)
i=1
Da U linear unabhängig ist, gilt u1 =
6 0, sodaß αk 6= 0 für wenigstens ein k ∈ {1, ..., n}.
Wir ordnen die bi ggf. so um, daß k = 1 wird. Dann läßt sich Gl. (323) nach b1 auflösen,
n
u1 X αi
−
bi
b1 =
α1
α1
i=2
⇒
b1 ∈ [B1 ],
B1 = {u1 , b2 , ..., bn }.
(324)
Mit B ist also auch B1 ein ES von V , und es gibt Zahlen β1 , ..., βn ∈ K mit
u2 = β1 u1 +
n
X
βi bi .
(325)
i=2
Hier ist βk 6= 0 für wenigstens ein k ∈ {2, ..., n}, da sonst u2 − β1 u1 eine NDN durch U
wäre. Wir ordnen {b2 , ..., bn } ggf. so um, daß k = 2 wird. Dann gilt b2 ∈ [B2 ], mit
B2 = {u1 , u2 , b3 , ..., bn },
(326)
und auch B2 ist ein ES von V . Auf diese Weise fortfahrend findet man schließlich, daß auch
Bn = U ein ES und also, da linear unabhängig, eine Basis von V ist. •
Wären nun B und B 0 zwei Basen von V mit n bzw. n0 > n Vektoren. Dann wäre jede
n-elementige Teilmenge B 00 von B 0 linear unabhängig und nach dem soeben Bewiesenen
eine Basis von V . Folglich ließen sich die restlichen Elemente von B 0 durch B 00 darstellen,
was auf eine NDN durch B 0 hinausliefe, und der Satz ist bewiesen.
Def.: Die eindeutige Anzahl n der Basisvektoren eines endlich-erzeugbaren VR’s V heißt
seine Dimension,
dim V = n.
(327)
Bsp.: Der VR Pn (R) aller reellen Polynome vom Grad ≤ n hat die Dimension
dim Pn (R) = n + 1,
(328)
denn offenbar ist {xn , xn−1 , ..., x, 1} ein linear unabhängiges ES, also eine Basis von Pn (R).
49
3.3
Lineare Gleichungssysteme
3.3.1
Beispiel
Wir betrachten einen Satz S = {a1 , a2 , a3 } von Polynomen des P2 (R),
a1 = 4x2 + 5x + 2,
a2 = 2x2 + 4x + 2,
a3 = px2 − 3x − 1
(329)
(mit einem Parameter p ∈ R). Die Frage ob ein spezieller Vektor b = qx2 + x + 2 als LK
von S darstelbar ist, ob also Zahlen λ1 , λ2 , λ3 ∈ R existieren mit λ1 a1 + λ2 a2 + λ3 a3 = b,
(4λ1 +2λ2 +pλ3 ) x2 + (5λ1 +4λ2 −3λ3 ) x + (2λ1 +2λ2 −λ3 ) = qx2 + x + 2,
führt auf drei inhomogen lineare Gleichungen für die

 4λ1 + 2λ2 + pλ3 = q
5λ1 + 4λ2 − 3λ3 = 1

2λ1 + 2λ2 − λ3 = 2
3.3.2
(330)
drei Unbekannten λ1 , λ2 , λ3 ∈ R,


.
(331)

Definition
Def.: Unter einem linearen Gleichungssystem (LGS) versteht man ein System von m
linearen Gleichungen für die n Unbekannten λ1 , ..., λn ,



a11 λ1 + a12 λ2 + ... + a1n λn = b1 



 a21 λ1 + a22 λ2 + ... + a2n λn = b2 

.
(332)
..
..
..
..


.
.
.
.




 a λ + a λ + ... + a λ = b 
m1 1
m2 2
mn n
m
Das LGS heißt homogen, wenn b1 = ... = bm = 0. Andernfalls heißt es inhomogen.
Seine Lösungsmenge L besteht aus all jenen n-Tupeln 3


λ1


(333)
λ =  ...  ∈ Rn ,
λn
bei deren Einsetzen jeweils jede der m Gleichungen eine wahre Aussage ergibt.
3.3.3
Der Gaußsche Algorithmus
Zur Bestimmung von L bemerken wir:
Satz: Die Lösungsmenge L eines LGS ändert sich nicht durch:
(a) Vertauschen zweier Gleichungen;
3
Wird der Rn als VR betrachtet, so bezeichnen wir seine Elemente (Vektoren) mit a, b, x, etc.
Werden dagegen n reelle Zahlen (Koeffizienten, Koordinaten) λ1 , ..., λn formal zu einem n-Tupel ∈ Rn
zusammengefaßt, so bezeichnen wir dieses mit λ oder, der Deutlichkeit halber, mit λ.
50
(b) Multiplikation einer Gleichung mit einer Zahl c 6= 0;
(c) Addition zu einer Gleichung des c-fachen einer anderen.
Durch diese Operationen kann man jedes LGS auf Zeilenstufenform (ZSF) bringen.
Dann gibt es in jeder Einzelgleichung (“Zeile”) mindestens eine Variable λk , die in allen
nachfolgenden Zeilen nicht mehr vorkommt, sodaß sich L direkt ablesen läßt.
Als Beispiel diene Gl. (331), wobei wir nur die Matrix des LGS anschreiben,






2
2 2 −1 2
2
2
−1
4 2
p q
 5 4 −3 1  →  10 8 −6 2  →  0 −2
−8 
−1
2 2 −1 2
4 2
p q
0 −2 p + 2 q − 4


2
2 2
−1
1
8 .
→  0 2
0 0 p+3 q+4
Das LGS (331) hat also die ZSF

 2λ1 + 2λ2 −
2λ2 +


λ3 =
2 
λ3 =
8 ,

(p + 3)λ3 = q + 4
(334)
(335)
deren Lösungsmenge sich direkt ablesen läßt. Wir betrachten drei Fälle:
• Fall 1 (p = 1, q = 4): Jetzt lautet die dritte Gleichung
4λ3 = 8.
(336)
Es folgt λ3 = 2; die zweite Gl. wird 2λ2 = 6, sodaß λ2 = 3; die erste Gl. wird 2λ1 = −2,
sodaß λ1 = −1. Somit enthält L genau ein Element,




−1
λ
1
(337)
λ0 ≡  λ2  =  3  .
L = λ0 ,
2
λ3
• Fall 2 (p = −3, q = −4): Jetzt lautet die dritte Gleichung “0 = 0”, ist also “leer”.
Nun ist eine Unbekannte frei wählbar, etwa λ3 =: µ. Damit ergibt die zweite Gl.: λ2 =
4 − 21 µ, und damit wiederum die erste Gl.: λ1 = 1 − λ2 + 12 λ3 ≡ −3 + µ. Es folgt also




λ1
µ−3
(338)
λ ≡  λ2  =  4 − 12 µ 
µ
λ3
und damit

L = λ0 + µλ1 µ ∈ R ,

−3
λ0 =  4  ,
0


1
λ1 =  −1/2  .
1
(339)
• Fall 3 (p = −3, q = 1): Jetzt lautet die dritte Gleichung “0 = 5”, was eine falsche
Aussage darstellt. In solchen Fällen hat das LGS keine Lösung,
L = {}.
51
(340)
3.3.4
Allgemeine Eigenschaften der Lösungsmenge
Satz: Ein homogenes LGS für n Unbekannte λ1 , ..., λn , dessen ZSF r ≤ n (echte, also
nicht-leere) Gleichungen enthält (alle leeren Gleichungen eines homogenen LGS lauten
“0 = 0”), hat im Fall r = n (offensichtlich!) nur die triviale Lösung λ = 0,
L = {0}
(r = n),
(341)
und im Fall p := n − r ≥ 1 eine p-parametrige Lösungsmenge,
n
o
L = λ = µ1 λ1 + ... + µp λp µ1 , ..., µp ∈ K ⊆ Kn
(p := n − r ≥ 1),
(342)
wobei die n-Tupel λ1 , ..., λp ∈ Kn einen linear unabhängigen Satz bilden.
M.a.W.: L ist ein p-dimensionaler Unter-VR des Kn .
Beweis: Es genügt, ein typisches Beispiel zu betrachten: eine ZSF mit r = 2 homogenen
Gleichungen für n = 5 Unbekannte λ1 , ..., λ5 . Spätestens nach deren Umnummerierung
lauten diese Gleichungen
λ1 + a012 λ2 + a013 λ3 + a014 λ4 + a015 λ5 = 0,
λ2 + a023 λ3 + a024 λ4 + a025 λ5 = 0.
(343)
Es sind also n − r = 3 Unbekannte frei wählbar, etwa λ3 =: µ1 , λ4 =: µ2 und λ5 =: µ3 .
Die verbleibenden r = 2 Unbekannten λ1 und λ2 sind dann durch µ1 , µ2 und µ3 festgelegt,
λk = λk (µ1 , µ2 , µ3 ) = ck1 µ1 + ck2 µ2 + ck3 µ3
(k = 1, 2),
(344)
mit gewissen Koeffizienten ck` (` = 1, 2, 3), die auch verschwinden können. Folglich ist
die allgemeine Lösung des homogenen LGS gegeben durch










c11
λ1
λ1 (µ1 , µ2 , µ3 )
c12
c13
 c21 
 λ2 
 λ2 (µ1 , µ2 , µ3 ) 
 c22 
 c23 




















µ1
λ ≡  λ3  = 
 = µ1  1  + µ2  0  + µ3  0 

 0 
 λ4 

 1 
 0 
µ2
λ5
µ3
0
0
1
≡ µ1 λ1 + µ2 λ2 + µ3 λ3 (µ1 , µ2 , µ3 ∈ K), (345)
mit dem offensichtlich linear unabhängigen Satz {λ1 , λ2 , λ3 }.
Korollar: Für die Lösungsmenge L eines inhomogenen LGS, dessen ZSF r ≤ n echte
und m − r leere Gleichungen für n Unbekannte λ1 , ..., λn enthält, gilt:
(a) L = {}, falls wenigstens eine der leeren Gleichungen eine falsche Aussage darstellt.
(b) Andernfalls ergibt sich die allgemeine Lösung, indem zu einer speziellen Lösung λ0
die allgemeine Lösung des entsprechenden homogenen LGS addiert wird,
n
o
L = λ0 + µ1 λ1 + ... + µp λp µ1 , ..., µp ∈ R .
(346)
Im speziellen Fall p ≡ n − r = 0 gibt es genau eine Lösung,
PpL = {λ0 }.
Bem.: {λ0 , λ1 , ..., λp } ist linear unabhängig: Aus µ0 λ0 + k=1 µk λk = 0 folgt µ0 = 0,
da 0 ∈
/ L; da {λ1 , ..., λp } linear unabhängig ist, folgt dann auch µ1 , ..., µp = 0.
52
3.4
3.4.1
Basis-Transformationen
Matrizen-Multiplikation
Ein rechteckiges Schema A aus n · m Zahlen, die zu n Zeilen und m Spalten angeordnet
sind, heißt (n × m)-Matrix. Die Zahl in der i-ten Zeile und j-ten Spalte von A heißt aij ,


a11 a12 . . . a1m
 a21 a22 . . . a2m 


A =  ..
(347)
..
..  .
 .
.
. 
an1 an2 . . .
anm
Das Produkt AB einer Matrix A mit einer Matrix B ist erklärt, wenn A ebensoviele
Spalten wie B Zeilen hat: Ist A eine (n × `)- und B eine (` × m)-Matrix, so ist
AB = C
(348)
jene (n × m)-Matrix, in deren i-ter Zeile und j-ter Spalte das “Skalarprodukt” der i-ten
Zeile von A mit der j-ten Spalte von B steht,


b
1j
`
X


aik bkj . (349)
cij = ai1 , ... , ai` ·  ...  := ai1 b1j + ai2 b2j + ... + ai` b`j ≡
k=1
b`j
Bsp. 1: Hier ist die Zeile i = 2 von A und

2 1
5 −2
3 
3 4
2
1 −1
1 1
die Spalte j = 1 von B hervorgehoben,

2
7 0 14

1
=
.
(350)
6 5 3
2
Bsp. 2: Das inhomogene LGS (332) lautet in Matrix-Notation
Aλ = b,
(351)
mit der (m × n)-Matrix A = (aij ) und den (n × 1)- bzw. (m × 1)-Matrizen (Spalten)




λ1
b1




λ =  ...  ,
b =  ...  .
(352)
λn
bm
Bem.: Für eine (n × m)-Matrix A und eine (m × n)-Matrix B sind AB und BA erklärt.
Die Matrizen-Multiplikation ist aber nicht kommutativ: Im allg. gilt AB 6= BA, z.B.:
1
1
1 2
1 2 =
AB ≡ 1 2
= 5,
BA =
.
(353)
2
2
2 4
Satz: Ist A eine (n × p)-, B eine (p × q)- und C eine (q × m)-Matrix, so gilt
A(BC) = (AB)C
(Assoziativgesetz der Matrizen-Multiplikation).
53
(354)
3.4.2
Basiswechsel und Transformationsmatrizen
Neben B = {v1 , ..., vn } betrachten wir eine zweite Basis B 0 = {v10 , ..., vn0 } desselben
Vektorraums V . Dann hat jeder Vektor a ∈ V jeweils zwei verschiedene Darstellungen,
a =
n
X
ak vk =
n
X
a0i vi0 ,
(355)
i=1
k=1
mit seinen Koordinaten a1 , ..., an bezüglich B und denjenigen a01 , ..., a0n bezüglich B 0 .
Wie jeder Vektor a ∈ V lassen sich natürlich auch speziell die Vektoren vk der “alten”
Basis als LKen der “neuen” Basisvektoren v10 , ..., vn0 darstellen,
vk =
n
X
Tik vi0 .
(356)
i=1
Die n2 Koeffizienten Tik bilden eine quadratische (n × n)-Matrix T ,


T11 . . . T1n

..  .
T =  ...
. 
Tn1 . . . Tnn
(357)
Um deren Bedeutung zu erschließen, setzen wir ein,
a ≡
n
X
k=1
ak
n
X
i=1
Tik vi0
=
n X
n
X
i=1
Tik ak vi0 .
⇔
a0i
=
n
X
Tik ak .
(358)
k=1
k=1
Für die (n × 1)-Matrizen (Spaltenvektoren) der neuen und alten Koordinaten von a,




a1
a01




a0 :=  ...  ,
a :=  ...  ,
(359)
0
an
an
gilt also in Matrix-Notation das Transformationsgesetz
a0 = T a.
(360)
Merke: Die k-te Spalte der Transformations-Matrix T enthält die Koordinaten des
k-ten alten Basisvektors vk bezüglich der neuen Basis B 0 .
Bsp.: Wir betrachten im Vektorraum V = R2 eine “alte” und eine “neue” Basis,
1
2
1
1
0
0
0
B = {v1 , v2 } =
,
,
B = {v1 , v2 } =
,
.
(361)
2
3
0
1
(Wir schreiben hier die Vektoren a ∈ Rn als Spalten mit eckigen Klammern, um sie von
ihren Koordinatenspalten a bzw. a0 zu unterscheiden.) In diesem Fall haben wir
v1 = −v10 + 2v20 ,
v2 = −v10 + 3v20 .
54
(362)
Hieraus liest man die Transformations-Matrix T ab,
T11 T12
−1 −1
T ≡
=
.
T21 T22
2
3
(363)
Für den Vektor a = [ 78 ] = −5 · [ 12 ] + 6 · [ 23 ] gilt
−5
−1 −1
−5
−1
0
a=
⇒
a = Ta ≡
=
.
6
2
3
6
8
(364)
Tatsächlich finden wir
a01 v10
+
a02 v20
=
−v10
+
8v20
= −1 ·
1
0
+8·
1
1
=
7
8
= a.
Zusammenfassend stellen wir fest: Ein- und derselbe Vektor
7
a=
∈ R2
8
(365)
(366)
wird hier auf drei verschiedene Weisen durch Koordinaten dargestellt. Durch
−5
−1
0
a=
bzw.
a =
6
8
bezüglich der Basen B bzw. B 0 , sowie durch
7
aS =
,
8
(367)
(368)
also seine Koordinaten bezüglich der Standardbasis BS = {[ 10 ], [ 01 ]} des R2 .
3.4.3
Umkehrtransformation: Matrizen-Inversion
Wir betrachten nun neben B und B 0 noch eine dritte Basis B 00 = {v100 , ..., vn00 },
a =
n
X
a k vk =
n
X
a0j vj0
j=1
k=1
=
n
X
a00i vi00 .
(369)
i=1
Die Transformation von B 0 nach B 00 werde durch die Matrix S beschrieben,
a00 = Sa0 ≡ S(T a) = (ST )a.
(370)
Die Matrix U der Trafo B → B 00 ist also das Matrizen-Produkt von S mit T ,
a00 = U a
⇔
U = ST.
(371)
P
P
Man sieht dies auch explizit, wenn man in a00i = nj=1 Sij a0j setzt a0j = nk=1 Tjk ak ,
a00i
=
n
X
j=1
Sij
n
X
k=1
Tjk ak
=
n X
n
X
k=1
55
j=1
Sij Tjk ak ≡
n
X
k=1
Uik ak .
(372)
Im Sonderfall B 00 = B muß U die Einheitsmatrix sein,


1 0 ... 0
 0 1 ... 0 


ST = I :=  .. .. . . ..  ,
 . .
. . 
0 0 ... 1
(373)
Dann sind S und T sind zueinander inverse Matrizen.
Def.: Eine (n × n)-Matrix X heißt invers zur (n × n)-Matrix A, wenn gilt
AX = XA = I.
(374)
Satz: Für eine (n × n)-Matrix A sind folgende Aussagen äquivalent:
(a) A ist Tranformationsmatrix eines Basiswechsels in einem n-dimensionalen VR.
(b) Zu A gibt es eine eindeutig bestimmte inverse Matrix, genannt A−1 .
(c) A ist regulär: Sowohl die Spalten als auch die Zeilen von A sind linear unabhängig.
Bem.: Die Inversion einer regulären (n × n)-Matrix A, also die Berechnung der inversen
Matrix A−1 =: X, läuft auf das Lösen eines inhomogenen LGS hinaus,
AX = I,
(375)
das aus n2 Gleichungen für die n2 unbekannten Matrixelemente xij von X besteht.
Dieses System zerfällt aber in n unabhängige Systeme für jeweils n Unbekannte.
Bsp.: Eine (2 × 2)-Matrix A = (ac bd ) ist offenbar genau dann regulär, wenn ad − bc 6= 0.
Dann findet man durch Lösen dieses LGS (Übungen):
1
d −b
−1
A
=
.
(376)
a
ad − bc −c
• Matrizen-Inversion mit Hilfe der Determinante: Siehe Abschnitt 3.6.6.
• Standardverfahren zur Matrizen-Inversion: Aufgabe 12.6 und Stoppel/Griese S.23/133:
(A|I) → (I|A−1 ).
56
(377)
3.5
Lineare Operatoren
3.5.1
Allgemeine Definition
Def.: V und W seien Vektorräume über K. Ein linearer Operator  : V → W ist eine
Abbildung, die jedem Vektor x ∈ V einen Vektor y = Âx ∈ W so zuordnet, daß gilt
 λx1 + µx2 = λÂx1 + µÂx2
für alle x1 , x2 ∈ V und λ, µ ∈ K .
(378)
Bem.: Statt “linearer Operator  : V → W, x 7→ y = Âx” sagt man auch, vor allem
in der Mathematik, “lineare Abbildung f : V → W, x 7→ y = f (x)”.
Bsp. 1a: Für V = P3 (R) und W = P2 (R) bildet die Differenziation
D̂ : V → W,
x = x(t) 7→ y = D̂x = y(t) =
d
x(t) ≡ ẋ(t)
dt
(379)
einen linearen Operator, der jedem Polynom aus P3 (R) ein solches aus P2 (R) zuordnet.
Linearität bedeutet dabei, daß für x = λx1 + µx2 ∈ V stets gilt
i
d
d
dh
D̂ λx1 + µx2 =
λx1 (t) + µx2 (t) = λ x1 (t) + µ x2 (t) = λD̂x1 + µD̂x2 . (380)
dt
dt
dt
Bsp. 2: Durch die Vorschrift
 : R2 → R3 ,
x=
x1
x2

 

y1
5x1 − 3x2
7 Âx = y =  y2  =  2x1 + 8x2 
→
y3
6x1 + 2x2
(381)
wird ein linearer Operator  von V = R2 nach W = R3 erklärt.
Bsp. 3: R = R1 selbst ist ein eindimensionaler VR über R. Durch
Z 1
ˆ
J : P5 (R) → R, x = x(t) 7→ y =
dt x(t)
(382)
0
wird ein linearer Operator Jˆ von V = P5 (R) nach W = R erklärt.
3.5.2
Die Matrix A eines linearen Operators Â
Nun sei BV = {v1 , ..., vn } ⊂ V eine Basis von V und BW = {w1 , ..., wm } ⊂ W eine Basis
von W . Die Bilder Âvk lassen sich als LKen der wi darstellen,
Âvk =
m
X
Aik wi ,
(383)
i=1
mit gewissen Koeffizienten Aik , die eine (m × n)-Matrix A bilden. Durch A ist der lineare
Opeartor  bereits vollständig festgelegt. Sei nämlich
x=
n
X
x k vk ∈ V
k=1
57
(384)
ein beliebiger Vektor aus V . Dann folgt wegen der Linearität von  für den Bildvektor
y = Âx =
n
X
xk Âvk =
k=1
n
X
xk
m
X
Aik wi =
i=1
k=1
m X
n
X
i=1
Aik xk wi =:
k=1
m
X
y i wi .
(385)
i=1
Die Koordinaten yi des Bildvektors y = Âx ergeben sich also gemäß
yi =
n
X
⇔
Aik xk
y = Ax
(386)
k=1
aus den Koordinaten xk des Urvektors x. Man nennt A daher die Matrix des linearen
Operators  bezüglich der Basen BV und BW .
Merke: Die k-te Spalte von A enthält die Koordinaten des Bildvektors Âvk ∈ W von
vk ∈ BV bezüglich der Basisvektoren wi ∈ BW ,
Âvk =
m
X
Aik wi .
(387)
i=1
Bsp. 1b: Wir wählen in V = P3 (R) und W = P2 (R) die Basen
BV = {t3 , t2 , t, 1} bzw. BW = {t2 , t, 1}.
(388)
d n
t = ntn−1 ist die Matrix des in Bsp. 1a beschriebenen linearen Operators
Wegen dt
D̂ : V → W, x(t) 7→ ẋ(t) bezüglich BV und BW gegeben durch


3 0 0 0
D =  0 2 0 0 .
(389)
0 0 1 0
d
(2t3
dt
− 4t2 + 5t − 1) = 6t2 − 8t + 5 zur Matrix-Multiplikation,






2
3 0 0 0 
6

−4  
−8  .
Dx ≡  0 2 0 0  
(390)
 5 =
0 0 1 0
5
−1
Jetzt wird Differentiation
3.5.3
Basiswechsel
Die Koordinaten x bzw. x0 eines Vektors x ∈ V bezüglich zweier verschiedener Basen
BV und BV0 von V seien verknüpft durch
x0 = T x
x = T −1 x0 .
⇔
(391)
0
Entsprechend gelte für die Koordinaten von y ∈ W bezüglich der Basen BW und BW
y 0 = Sy.
58
(392)
Wird  : V → W bezgl. BV und BW beschrieben durch die Matrix A, y = Ax, so folgt
y 0 = Sy = S(Ax) = S A(T −1 x0 ) ≡ SAT −1 x0 .
(393)
0
 : V → W wird also bezüglich BV0 und BW
beschrieben durch die Matrix
A0 = SAT −1 .
Â
x −−−−−−−−−−−−→
x −−−−−−−−−−−−→
|
A
T |
↓
x0 −−−−−−−−−−−−→
A0
3.5.4
(394)
y
y
|
| S
↓
y0
(395)
Kern, Bild und Rang eines linearen Operators
Def.: Es seien V und W zwei beliebige VRe und  : V → W ein linearer Operator.
Dann heißt die Teilmenge
o
n
(396)
Kern  := x ∈ V Âx = 0 ⊆ V
der Kern von Â, und die Teilmenge
n
o
Bild  := y ∈ W ∃ x ∈ V : y = Âx ⊆ W
(397)
heißt das Bild von Â.
Bsp. 1: Mit V = W = R2 sei  : V → W, x 7→ y = Âx erklärt durch
y1
x1
x1 + 2x2
.
≡
y = Âx
⇔
= Â
x2
2x1 + 4x2
y2
(398)
Mit x1 + 2x2 =: λ gilt offenbar
Bild  =
n
λ·
1
2
o
λ
∈
R
.
(399)
Dagegen ist Kern  offenbar die Lösungsmenge eines homogenen Gleichungssystems,
n
o
x1 + 2x2 = 0,
2
⇔
Kern  = L = µ ·
(400)
µ∈R .
2x1 + 4x2 = 0.
−1
Bsp. 2: Mit V = P5 (R) und W = P9 (R) sei  : V → W,
y = Âx
⇔
y(t) =
59
x 7→ y = Âx erklärt durch
d2
x(t) ≡ ẍ(t).
dt2
(401)
Wegen
d2
[λx1 (t)
dt2
+ µx2 (t)] = λẍ1 (t) + µẍ2 (t) ist  linear und offenbar gilt
Kern  = P1 (R) ( V,
Bild  = P3 (R) ( W.
(402)
Satz: Sei  : V → W ein linearer Operator von einem endlich-dimensionalen VR V
(dim V = n) in einen beliebigen VR W . Dann ist Kern  ein Untervektorraum (UVR)
von V und Bild  ein UVR von W . Dabei gilt
dim Kern  + dim Bild  = n ≡ dim V.
(403)
Beweis: Mit x1 , x2 ∈ Kern  folgt für alle λ, µ ∈ R
Â(λx1 + µx2 ) ≡ λÂx1 + µÂx2 = 0
⇔
λx1 + µx2 ∈ Kern Â.
(404)
Entsprechend folgt mit y1 = Âx1 , y2 = Âx2 ∈ Bild  für alle λ, µ ∈ R
⇔
λy1 + µy2 = Â(λx1 + µx2 )
λy1 + µy2 ∈ Bild Â.
(405)
Damit ist bewiesen, daß Kern  und Bild  UVRe von V bzw. W sind.
Sei nun dim(Kern Â) = s und {v1 , ..., vs } ⊂ V eine Basis von Kern  (mit 0 ≤ s ≤ n).
Nach einem elementaren Satz läßt diese sich zu einer Basis {v1 , ..., vn } von V ergänzen.
Dann gilt
Bild  =
n
n X
o
λk Âvk λs+1 , ..., λn ∈ R .
(406)
k=s+1
Es bleibt zu zeigen, daß die Vektoren Âvk ∈ W (s + 1 ≤ k ≤ n) linear unabhängig sind.
Sei also
n
X
µk Âvk ≡ Â
k=s+1
Dann ist also
Pn
n
X
k=s+1
k=s+1
n
X
µk vk = 0.
(407)
k=s+1
µk vk ∈ Kern Â, sodaß mit µk =: −λk folgt
µk vk ≡
n
X
(−λk )vk =
k=s+1
s
X
λk vk
⇔
k=1
n
X
λk vk = 0
(408)
k=1
was nur möglich ist wenn λk = 0 für 1 ≤ k ≤ n und damit µk = 0 für s + 1 ≤ k ≤ n, qed.
Def.: Eine lineare Abbildung  : V → W heißt injektiv, wenn für x1 , x2 ∈ V stets gilt
Âx2 = Âx1
⇒
x2 = x1 ,
(409)
und surjektiv, wenn es zu jedem y ∈ W ein x ∈ V gibt mit
y = Âx.
(410)
Ist  sowohl injektiv als auch surjektiv, so heißt  ein Isomorphismus.
Bem.: Die lineare Abbildung  : V → W ist genau dann injektiv, wenn Kern  = {0},
und genau dann surjektiv, wenn Bild  = W .
60
Bsp. 1: Die durch folgende Matrizen beschriebenen linearen Abbildungen sind:
injektiv aber nicht surjektiv (A); surj. aber nicht inj. (B), ein Isomorphismus (C),




1 0
1 0 0
1 0 0
A =  0 1 ,
B=
,
C =  0 1 0 .
(411)
0 1 0
0 0
0 0 1
Bsp. 2a: Wir betrachten die drei linearen Abbildungen
 : P5 (R) → P4 (R),
B̂ : P5 (R) → P5 (R),
Ĉ : P5 (R) → P5 (R),
x(t) 7→ ẋ(t),
x(t) 7→ tẋ(t),
x(t) 7→ tẋ(t) + x(t).
(412)
 ist surjektiv aber nicht injektiv, da  c = 0 für alle c ∈ P0 (R).
B̂ ist weder injektiv noch surjektiv, da B̂ c = 0 und c ∈
/ Bild B̂ für alle c ∈ P0 (R).
Ĉ ist ein Isomorphismus.
Bem.: Ist dim V = dim W = n, so sind für eine lineare Abbildung  : V → W folgende
drei Aussagen äquivalent:
(a) Â ist surjektiv;
(b) Â ist injektiv;
(c) Â ist ein Isomorphismus.
Def.: Die Dimension von Bild  heißt der Rang der linearen Abbildung Â, geschrieben
rg  := dim Bild  .
(413)
Für  : V → W gilt also
rg  = dim V − dim Kern  .
(414)
Bsp. 2b: In Bsp. 2a gilt rg  = rg B̂ = 5 und rg Ĉ = 6.
Satz: Die Spalten einer (n × m)-Matrix A spannen einen VR auf, dessen Dimension
≤ min(n, m) als Spaltenrang von A bezeichnet wird. Entsprechend wird der Zeilenrang
≤ min(n, m) von A definiert. Dabei gilt
Spaltenrang von A = Zeilenrang von A =: rg A.
(415)
(Der Beweis dieses Satzes ist nicht völlig trivial!)
Korollar: Für jede Matrix A, welche eine gegebene lineare Abbildung  : V → W
(bezüglich irgendwelcher Basen von V bzw. W ) beschreibt, gilt
rg A = rg Â.
61
(416)
3.6
Eigenwertprobleme
Wir beschränken uns von jetzt an auf den wichtigen Fall linearer Operatoren  : V → V
von einem Vektorraum V auf sich selbst.
Sofern nicht anders betont, wählen wir in Urraum V und (identischem) Bildraum W = V
die gleiche Basis. Die Matrix A eines solchen Operators bezüglich einer jeden solchen
Basis ist quadratisch, also (n × n), wobei n = dim V .
3.6.1
Eigenwerte und Eigenvektoren
Drei Punktmassen (je mit Masse m) auf einer Geraden seien durch zwei Schraubenfedern
(je mit Federkonstante k) verbunden. Während einer longitudinalen Schwingung dieses
3-atomigen “Moleküls” seien u1 (t), u2 (t) und u3 (t) die momentanen Auslenkungen der 3
“Atome” aus ihren jeweiligen Gleichgewichtslagen zur Zeit t.
Bei einer sog. Eigenschwingung des Moleküls führen alle Atome Sinusschwingungen
mit einheitlicher Frequenz ω aber im allg. unterschiedlichen Amplituden x1 , x2 und x3
(und Phasen φ1 , φ2 , φ3 ) aus,




u1 (t)
x1 cos(ωt − φ1 )
u(t) ≡  u2 (t)  =  x2 cos(ωt − φ2 )  .
(417)
u3 (t)
x3 cos(ωt − φ3 )
Im vorliegenden Fall erwarten wir intuitiv eine weiche Eigenschwingung mit Frequenz
ωW und eine harte mit Frequenz ωH > ωW , jeweils mit φ1 = φ2 = φ3 = 0 und






a
a
x1
bzw.
x =  −b  =: xH .
(418)
x ≡  x2  =  0  =: xW ,
−a
a
x3
In beiden Fällen ist a > 0 vermutlich beliebig, während b > 0 von a abhängen dürfte.
Wie kann man diese intuitiven Ergebnisse systematisch berechnen ?
Die Mechanik führt auf eine Matrix-Gleichung für die
pAmplitudenvektoren x und
die zugehörigen Eigenfrequenzen ω (in Einheiten von k/m),


−1
1
0
1 .
Ax = −ω 2 x,
A =  1 −2
(419)
0
1 −1
Tatsächlich sind xW und xH (mit b = 2a) Lösungen dieses Eigenwert-Problems.√
Die zugehörigen Eigenfrequenzen findet man durch Einsetzen: ωW = 1 und ωH = 3.
Def.: Eine Zahl λ ∈ K heißt Eigenwert des linearen Operators  : V → V , wenn es
einen von 0 verschiedenen Vektor x ∈ V gibt mit
(x 6= 0).
Âx = λx
(420)
Der Vektor x 6= 0 heißt dann ein zum Eigenwert λ gehörender Eigenvektor von Â.
62
Bem.: Der Nullvektor x = 0 ist nie Eigenvektor. λ = 0 kann aber Eigenwert sein.
Ist x Eigenvektor zum Eigenwert λ, so auch alle Vielfachen x0 = µx mit µ ∈ R\{0}.
Die Menge aller Eigenvektoren von  zum gleichen Eigenwert λ, ergänzt durch den
Nullvekltor 0, bildet einen Unter-VR von V , den sog. Eigenraum von λ.
Satz: Sind λ1 , ..., λk paarweise verschiedene Eigenwerte von  : V → V und v1 , ..., vk
entsprechende Eigenvektoren, so ist die Menge {v1 , ..., vk } linear unabhängig.
Beweis: Im Fall k = 2 ist der Beweis trivial: Wäre {v1 , v2 } linear abhängig, so gäbe es
wegen v1 , v2 6= 0 ein α 6= 0 sodaß v2 = αv1 und wir hätten
λ2 v2 = Âv2 = Â(αv1 ) = α(Âv1 ) = αλ1 v1 = λ1 v2 ,
(421)
im Widerspruch zur Voraussetzung λ2 6= λ1 .
Sei nun die Behauptung für ein k ≥ 2 richtig, {v1 , ..., vk } also linear unabhängig, und vk+1
ein zusätzlicher Eigenvektor zu einem Eigenwert λk+1 ∈
/P
{λ1 , ..., λk }. Wäre {v1 , ..., vk+1 }
linear abhängig, so gäbe es Zahlen α1 , ..., αk mit vk+1 = ki=1 αi vi . Dann hätten wir
λk+1 vk+1 = Âvk+1 =
k
X
αi Âvi =
k
X
i=1
αi λi vi .
(422)
i=1
Im Fall λk+1 = 0, also λi 6= 0 für alle i ∈ {1, ..., k}, wäre dies ein Widerspruch zur linearen
Unabhängigkeit von {v1 , ..., vk }. Andernfalls dividieren wir durch λk+1 ,
vk+1 =
k
X
i=1
k
X
λi
vi ≡
α i vi .
αi
λk+1
i=1
(423)
Da λ1 , ..., λk paarweise verschieden sind, wären dies zwei verschiedene Darstellungen von
vk+1 durch {v1 , ..., vk }, wiederum im Widerspruch zu deren linearer Unabhängigkeit.
Kor.: Ein linearer Op. Â : V → V hat maximal n = dim V verschiedene Eigenwerte.
Zu deren Bestimmung bildet man die Matrix A von  bezüglich irgendeiner Basis von V .
Jeder Eigenwert λ von A ist zugleich Eigenwert von  und umgekehrt (unabhängig von
der gewählten Basis). Zu den Eigenwerten einer Matrix notieren wir:
Satz: λ ∈ K ist genau dann Eigenwert der (n × n)-Matrix A = (aij ), wenn die Matrix


a11 − λ
a12
...
a1n
 a21
a22 − λ ...
a2n 


Z := A − λI ≡ 
(424)

..
..
..
.
.


.
.
.
.
an1
an2
... ann − λ
[mit der (n × n)-Einheitsmatrix I] singulär ist, ihre Spalten also linear abhängig sind.
Beweis: Lineare Abhängigkeit der Spalten von Z = A − λI ist äquivalent zur Existenz
eines n-Tupels x 6= 0 mit der Eigenschaft
n
X
xi Zji ≡ (Zx)j = 0
⇔
Zx = 0
⇔
Ax = λx (x 6= 0).
(425)
i=1
Zur Bestimmung von Eigenwerten brauchen wir also ein möglichst einfaches Kriterium
dafür, wann eine gegebene (n × n)-Matrix Z singulär ist.
63
3.6.2
Die Determinante
Wir suchen eine Funktion, die jeder (n × n)-Matrix A eine Zahl det A ∈ K zuordnet,
genannt die Determinante von A, mit det A = 0 genau dann, wenn A singulär ist,
wenn also die n Spalten oder, gleichbedeutend, die n Zeilen von A linear abhängig sind.
Wir schreiben det A als Funktion der n Zeilen a1 , ..., an von A,
det A = f (a1 , ..., an ).
(426)
Die gewünschte Eigenschaft ist garantiert, wenn f (a1 , ..., an ), evtl. bis auf ein Vorzeichen,
gleich dem Volumen jenes n-dimensionalen Parallelepipeds Ω ist, das von den n Zeilen
a1 , ..., an , interpretiert als Vektoren im Rn , aufgespannt wird.4
Speziell für die Einheitsmatrix I muß dann gelten
(I)
det I = 1.
(427)
Außerdem muß f = 0 sein, wenn zwei der Zeilen übereinstimmen,
(II)
ai = aj (für zwei i, j ∈ {1, ..., n} mit i 6= j)
⇒
f (a1 , ..., an ) = 0.
(428)
Schließlich muß f in jedem ihrer Argumente a1 , ..., an linear sein,
(III) ai = λbi + µci
⇒
f (..., ai , ...) = λf (..., bi , ...) + µf (..., ci , ...).
(429)
f wechselt also das Vorzeichen, wenn eine Zeile ai durch −ai ersetzt wird.
Insbesondere gilt f = 0, wenn ai = 0 für ein i ∈ {1, ..., n}.
Man kann zeigen, daß det A durch die Eigenschaften (I–III) eindeutig festgelegt ist.
Bem. 1: Unmittelbar aus (II, III) folgt die wichtige Eigenschaft
(IV)
f (..., ai , ...) = f (..., ai + µaj , ...)
(j 6= i).
(430)
f ändert sich nicht, wenn zu einer Zeile ai das µ-fache µaj einer anderen addiert wird.
Dies impliziert, daß f = 0 wird, wenn {a1 , ..., an } linear abhängig, A also singulär ist.
(Spätestens in Abschnitt 3.6.5 werden wir sehen, daß auch die Umkehrung richtig ist.)
Bem. 2: f (a1 , ..., an ) wechselt bei Vertauschung zweier Zeilen das Vorzeichen,
(V)
f (..., ai , ..., aj , ...) = −f (..., aj , ..., ai , ...).
(431)
Beweis: Mit (III) und (IV) ergibt sich f (..., ai , ..., aj , ...) = f (..., ai + aj , ..., aj , ...) =
= f (..., ai + aj , ..., aj − ai − aj , ...) = f (..., aj , ..., −ai , ...) = −f (..., aj , ..., ai , ...), q.e.d.
4
Darunter verstehen wir die Punktmenge
n
Ω := x = x1 a1 + ... + xn an
o
0 ≤ x1 , ..., xn ≤ 1 ⊂ Rn .
Pn
x = i=1 xi ai ∈ Ω ist genau dann Eckpunkt von Ω , wenn xi ∈ {0, 1} für alle i = 1, ..., n. Falls diese
paarweise verschieden sind, hat Ω also 2n solche Eckpunkte.
64
3.6.3
Berechnung von Determinanten
Nach Eigenschaft (III) mit µ = 0 ver-λ-facht sich eine Determinante, wenn eine ihrer
Zeilen mit λ multipliziert wird. Für eine sog. Diagonalmatrix, bei der alle Elemente aij
mit i 6= j (die also nicht auf der Diagonale stehen) verschwinden, folgt daher aus (I)
aij = 0 falls i 6= j
⇒
det(aij ) =
n
Y
aii .
(432)
i=1
Bei einer Diagonalmatrix A ist also det A gleich dem Produkt der Diagonalelemente.
Dies gilt allgemein für Dreiecksmatrizen, unterhalb deren Diagonalen nur Nullen stehen,
aij = 0 falls i > j
⇒
det(aij ) =
n
Y
aii ,
(433)
i=1
da in solchen Matrizen durch Operationen der Art (IV) Diagonalgestalt mit unveränderten
Diagonalelementen oder, falls ein aii = 0 ist, eine Nullzeile erzeugt werden kann.
Die Determinante einer beliebigen (n × n)-Matrix ergibt sich, indem man durch
Operationen der Arten (III) (mit µ = 0), (IV) oder (V) Dreiecksgestalt herstellt:
Bsp.: Wir wenden der Reihe nach (III) (mit µ = 0), (IV) und (V) an,








2 4 6
2 4 6
2 4 6
1 2 3
1
1
1
det  2 4 8  = det  2 4 8  = det  0 0 2  = − det  0 1 1 
2
2
2
2 5 7
0 1 1
0 0 2
2 5 7
= −2.
(434)
Speziell für (2×2)- bzw. (3×3)-Matrizen ergeben sich die bekannten Ausdrücke
a11 a12
= a11 a22 − a21 a12 ,
det
a21 a22


a11 a12 a13
det  a21 a22 a23  = +a11 a22 a33 + a12 a23 a31 + a13 a21 a32 +
a31 a32 a33
−a13 a22 a31 − a12 a21 a33 − a11 a23 a32 .
(435)
(436)
Bem.: In den Übungen wird gezeigt, daß die Ausdrücke (435) und (436), evtl. bis auf ein
Vorzeichen, tatsächlich die “Volumina” der entsprechenden Parallelepipede ergeben.
Bsp.: Mit der Matrix A von Gl. (419) aus dem Molekül-Beispiel ergibt Gl. (436)


−1 − λ
1
0
 ≡ −λ3 − 4λ2 − 3λ.
1
−2 − λ
1
det(A − λI) ≡ det 
(437)
0
1
−1 − λ
Nun ist λ = −ω 2 genau dann Eigenwert von A, wenn A − λI singulär ist,
−λ3 − 4λ2 − 3λ = 0
⇒
λ1 = 0,
65
λ2 = −1,
λ3 = −3.
(438)
√
Neben ωW = 1 und ωH = 3 gibt es also noch eine dritte Eigenfrequenz, ωT = 0.
Sie gehört zur “trivialen Eigenschwingung”, bei der alle Atome die gleiche, zeitlich
konstante Auslenkung u1 = u2 = u3 = a haben. Tatsächlich ist
 
a

a 
xT =
(439)
a
Eigenvektor von A zum Eigenwert λ = 0 !
In Verallgemeinerung der Gln. (435) und (436) gilt für beliebige n ∈ N+ (ohne Beweis)


a11 . . . a1n
n
Y
X
X
 ..

.
π
π
.
det  .
(−1) a1,π(1) . . . an,π(n) ≡
(−1)
ai,π(i) . (440)
.  =
i=1
π∈S
π∈S
n
n
an1 . . . ann
Hier ist Sn die Menge der n! Permutationen der Zahlen 1, 2, ..., n. Ein π ∈ S5 ist etwa
1
2
3
4
5
1 2 3 4 5
=
π ≡
.
(441)
π(1) π(2) π(3) π(4) π(5)
2 5 1 4 3
Jedes π ∈ Sn läßt sich entweder nur durch eine gerade oder nur durch eine ungerade
Anzahl aufeinanderfolgender Vertauschungen von je zwei Zahlen erreichen. Im geraden
Fall bedeutet (−1)π := +1, im ungeraden Fall (−1)π := −1.
Eine unabhängige Berechnungsmethode liefert der Laplacesche Entwicklungssatz:
Für die (n × n)-Matrix A = (aij ) gilt (Entwicklung nach der k-ten Zeile)
det A =
n
X
aki (−1)k+i det A(ki) .
(442)
i=1
Hier bezeichnet A(ij) jene (n − 1) × (n − 1)-Matrix, die durch Streichen der i-ten Zeile
und der j-ten Spalte aus A hervorgeht. Ebenso gilt (Entw. nach der k-ten Spalte)
det A =
n
X
aik (−1)i+k det A(ik) .
(443)
i=1
Bsp.: Da hier

3 5
 2 0
det 
 1 3
0 1
die zweite Zeile viele Nullen enthält, entwickeln wir nach dieser:



1 2
5 1 2

0 7 
= 2 · (−1)2+1 det  3 1 5  + 0 + 0 +
1 5 
1 3 3
3 3


3 5 1
+7 · (−1)2+4 det  1 3 1 
0 1 3
h
i
h
i
= −2 (15 + 18 + 5) − (2 + 9 + 75) + 7 (27 + 1) − (15 + 3)
= 166.
(444)
66
3.6.4
Das charakteristische Polynom einer (n × n)-Matrix
Nach Gl. (440) ist für eine (n × n)-Matrix A der Ausdruck
PA (λ) := det(A − λI)
(445)
ein Polynom n-ten Grades in der Variable λ,
PA (λ) = cn λn + cn−1 λn−1 + ... + c1 λ + c0 ,
(446)
genannt das charakteristische Polynom von A. Dabei gilt
cn = (−1)n ,
cn−1 = (−1)n−1 trc A,
c0 = det A,
(447)
mit der sog. Spur trc A := a11 + a22 + ... + ann der Matrix A.
Bem.: Als Nullstellen von PA (λ) erhält man die Eigenwerte (EWe) λ von A durch
Lösen einer algebraischen Gleichung n-ten Grades,
PA (λ) = 0.
(448)
Um anschließend die zugehörigen Eigenvektoren (EVen) x zu bestimmen, muß man zu
jedem Eigenwert λ je ein homogenes LGS lösen,
Ax = λx
⇔
(A − λI)x = 0.
Bsp.: Wir berechnen die EWe von A = (20 12 ),
2−λ
1
det(A − λI) = det
= (λ − 2)2 = 0.
0
2−λ
(449)
(450)
Diese Gleichung hat nur eine (doppelte) Lösung λ1 = 2. Dies ist der einzige EW von A.
Die zugehörigen EVen x ergeben sich aus dem homogenen LGS
x2
0
0 1
x1
(A − 2I)x ≡
≡
=
.
(451)
0
0
0 0
x2
Es folgt x2 = 0, während x1 beliebig ist,
n x o
1
L=
x1 ∈ R .
0
(452)
Obwohl also λ1 = 2 doppelte Nullstelle von PA (λ) ist, hat der zugehörige Eigenraum
nur die Dimension 1.
Def.: Unter der algebraischen Vielfachheit µalg des Eigenwerts λ versteht man die
Vielfachheit der entsprechenden Nullstelle von PA (λ). Die geometrische Vielfachheit
µgeo von λ ist dagegen die Dimension des Eigenraums von λ.
Im letzten Beispiel war µgeo = 1 und µalg = 2.
67
Satz: Für jeden Eigenwert gilt
1 ≤ µgeo ≤ µalg .
(453)
Def.: Ein linearer Operator  : V → V heißt diagonalisierbar, wenn es eine Basis von
V gibt, bezüglich der  durch eine Diagonalmatrix beschrieben wird.
Der lineare Operator  : V → V werde bezüglich der Basis B von V durch die Matrix
A beschrieben. Unter der Diagonalisierung von  bzw. A versteht man das Bestimmen
einer Basis B 0 , sodaß
A0 = T AT −1
(454)
(mit der Transformationsmatrix T von B nach B 0 ) eine Diagonalmatrix ist.
Bem.: Sind A und A0 zwei (n × n)-Matrizen, welche den gleichen linearen Operator
 : V → V (bezüglich verschiedener Basen B bzw. B 0 ) beschreiben, so gilt
PA (λ) = PA0 (λ).
(455)
Man nennt daher PÂ (λ) := PA (λ) das charakteristische Polynom des Operators Â.
Satz: f ist genau dann diagonalisierbar, wenn PÂ (λ) über K in Linearfaktoren zerfällt
und für jeden Eigenwert gilt: µgeo = µalg .
3.6.5
Rechnen mit Determinanten
Die Determinante ist sicherlich nicht additiv. So haben etwa die Matrizen
1 0
−1 0
A=
,
B=
0 1
0 −1
(456)
die Determinanten det A = det B = 1 während offenbar gilt det(A + B) = 0.
Für das Produkt zweier (n × n)-Matrizen A und B gilt dagegen die einfache Formel
det(AB) = det(BA) = (det A)(det B)
(457)
(obwohl im allg. BA 6= AB). Für das Inverse einer regulären (n × n)-Matrix A folgt
det A−1 =
1
.
det A
(458)
Satz: Eine Matrix A ist genau dann regulär, wenn gilt
det A 6= 0.
(459)
Beweis: Wir wissen bereits, daß aus det A 6= 0 die lineare Unabhängigkeit der Spalten
von A, also deren Regularität folgt. Ist A umgekehrt regulär, so existiert A−1 , wobei gilt
1 = det I = det(AA−1 ) = (det A)(det A−1 ),
was nur möglich ist, wenn det A 6= 0 (sowie det A−1 6= 0) ist.
68
(460)
3.6.6
Matrizeninversion mit Hilfe der Determinante
Satz: Das Element in der i-ten Zeile und der j-ten Spalte der zu einer gegebenen regulären
(n × n)-Matrix A inversen Matrix A−1 ist
(A−1 )ij = (−1)i+j
det A(ji)
.
det A
(461)
Wie beim Laplaceschen Entwicklungssatz bezeichnet A(ji) jene (n − 1) × (n − 1)-Matrix,
die durch Streichen der j-ten Zeile und der i-ten Spalte aus A hervorgeht.
Bsp.: Die reguläre (3 × 3)-Matrix


1
1
1
2 
A =  2 −3
−1 −3 −2
hat die Determinante det A = 5. Nach obigem Satz gilt also etwa
1
1
det
(21)
−3 −2
1
−1
1+2 det A
=−
=− .
(A )12 = (−1)
5
5
5
Insgesamt findet man auf diese Weise


12 −1
5
1
0 .
A−1 =  2 −1
5
−9
2 −5
(462)
(463)
(464)
Probe:

AA−1


1
1
1
12 −1
5
1
2   2 −1
0  = I,
=  2 −3
5
−1 −3 −2
−9
2 −5

det A−1 =
1 3
5

12 −1
5
1
0 = .
det  2 −1
5
−9
2 −5
(465)
69
(466)
4
Vektorräume mit Skalarprodukt
Der Begriff der linearen Abhängigkeit aus Kapitel 3 gestattet zu definieren, wann
zwei bzw. drei Vektoren kollinear bzw. komplanar sind, jedoch nicht, die Länge eines
Vektors oder die Orthogonalität zweier Vektoren festzulegen.
4.1
4.1.1
Skalarprodukte
Vektoren im physikalischen Raum V
In V wird das Skalarprodukt a · b zweier Vektoren a, b ∈ V geometrisch definiert als
a · b := |a||b| cos γ,
(467)
mit ihren Längen |a|, |b| ≥ 0 und dem Winkel γ (mit 0 ≤ γ ≤ π) zwischen ihnen.
Zur Verallgemeinerung auf abstrakte Vektorräume betrachten wir drei grundlegende
Eigenschaften dieses Skalarprodukts, die sich rein algebraisch formulieren lassen:
(S1) Es ist kommutativ, a · b = b · a (für alle a, b ∈ V).
(S2) Es ist im rechten (und somit auch im linken) Argument linear (Beweis folgt),
a · (λb) = λ(a · b)
(λ ∈ R),
a · (b + c) = a · b + a · c.
(468)
(469)
(S3) Es ist positiv definit, a · a ≡ |a|2 ≥ 0 (mit a · a = 0 genau dann, wenn a = 0).
Zu Gl. (469): Mit dem Vektor bk der Projektion von b auf die Richtung von a,
bk :=
a
|b| cos γ,
|a|
(470)
gilt wegen a · a = |a|2 offenbar
a · b = a · bk .
(471)
Mit b = bk + b⊥ und einem weiteren Vektor c = ck + c⊥ folgt zunächst
a · (bk + ck ) = a · bk + a · ck
(472)
(wegen a k bk k ck ist dies das Distributivgesetz reeller Zahlen!) und somit
a · (b + c) = a · (b + c)k = a · (bk + ck ) = a · b + a · c.
(473)
In V gelten also die Begriffe Länge und Winkel als grundlegend, der des Skalarprodukts als abgeleitet. In abstrakten Vektorräumen werden diese Rollen vertauscht: Die
genannten drei Eigenschaften dienen der Definition des Skalarprodukts.
(Dabei gibt es im allg. für jeden Vektorraum viele verschiedene Skalarprodukte !)
Für den Fall K = C muß Eigenschaft (S1) verallgemeinert werden.
70
4.1.2
Allgemeine Definition
Def.: Es sei V ein beliebiger Vektorraum über dem Körper K ∈ {R, C}.
Ein Skalarprodukt ist eine Abbildung V × V → K, die jedem geordneten Paar von
Vektoren a, b ∈ V eine Zahl (a, b) ≡ a · b ∈ K zuordnet und dabei folgende Eigenschaften
hat (mit a, b, c ∈ V und λ, µ ∈ K):
(S1) Hermitezität (Charles Hermite, 1822–1901),
(b, a) = (a, b)∗ ;
(474)
(S2) Linearität im zweiten Argument,
(a, λb + µc) = λ(a, b) + µ(a, c) ;
(475)
(S3) Positive Definitheit,
(a, a) ≥ 0,
(a, a) = 0 ⇔ a = 0.
(476)
Im Fall K = R heißt das Skalarprodukt reell, im Fall K = C heißt es unitär.
Entsprechend heißt V ein euklidischer bzw. ein unitärer Vektorraum.
Die Menge V = Cn ist ein Vektorraum über K = C,



 



b1
a1 + b 1
a1



  .. 


..
λ  ...  := 
 +  .  := 
,
.
an
bn
an + b n
an
Bsp. 1a:

a1
 ..
 .
wenn man definiert

λa1
..  (λ ∈ C). (477)
. 
λan
Wie in den Übungen gezeigt wird, ist ein Skalarprodukt in Cn gegeben durch

 

a1
b1
 ..   .. 
∗
∗
 .  ·  .  := a1 b1 + ... + an bn ∈ C.
an
(478)
bn
Als Beispiel mit n = 2 berechnen wir
1 + 2i
3 + 4i
·
= (1 − 2 i )(3 + 4 i ) + (2 + i )(5 + 2 i ) = 19 + 7 i .
2− i
5 + 2i
(479)
Das Skalarprodukt eines Vektors mit sich selbst ist tatsächlich ≥ 0 (Eigenschaft S3),
3 + 4i
3 + 4i
·
= (3 − 4 i )(3 + 4 i ) + (5 + 2 i )(5 − 2 i ) = 25 + 29 = 54. (480)
5 − 2i
5 − 2i
Bem.: Mit (S1) und (S2) ist ein Skalarprodukt im ersten Argument antilinear,
(λa + µb, c) = λ∗ (a, c) + µ∗ (b, c) .
(481)
(Soweit in der Physik; in der Mathematik wird Linearität im ersten Argument gefordert!)
Im Fall K = R gilt (a, b)∗ ≡ (a, b), und das Skalarprodukt ist nach (S1) kommutativ,
(a, b) = (b, a), und in beiden Argumenten linear.
71
Bsp. 1b: Im Vektorraum P2 (R) betrachten wir das Skalarprodukt (Übungen!)
Z 1
(f , g) :=
dt f (t)g(t).
(482)
0
Für die Polynome a(t) = t2 − 4t + 3 und b(t) = 2t2 + t − 5 ergibt sich also
Z 1
Z 1
117
2
2
. (483)
dt (t −4t+3)(2t +t−5) =
dt (2t4 −7t3 −3t2 +23t−15) = −
(a, b) =
20
0
0
4.1.3
Die Ungleichung von Cauchy-Schwarz
Satz: Der Vektorraum V sei euklidisch oder unitär. Dann gilt für alle a, b ∈ V
|(a, b)|2 ≤ (a, a)(b, b).
(484)
(Gleichheit gilt genau dann, wenn {a, b} linear abhängig ist.)
Beweis: OBdA sei b 6= 0. Für beliebiges λ ∈ C gilt
0 ≤ (a − λb, a − λb) = (a, a) − λ∗ (b, a) − λ(a, b) + λ∗ λ(b, b).
(485)
(b,a)
,
(b,b)
Setzt man λ =
0 ≤ (a, a) −
(a, b)(b, a) (b, a)(a, b) (a, b)(b, a)
−
+
,
(b, b)
(b, b)
(b, b)
(486)
so ergibt Multiplikation mit (b, b) > 0 die Behauptung, da (a, b)(b, a) = |(a, b)|2 .
Bsp. 2a: Im Fall V = Rn mit Standard-Skalarprodukt erhalten wir
2
(a · b) ≤ (a · a)(b · b)
n
X
⇔
ak b k
2
≤
n
X
i=1
k=1
a2i
n
X
2
bj .
(487)
j=1
64 = [(12 ) · (23 )]2 ≤ [(12 ) · (12 )] [(23 ) · (23 )] = 5 · 13 = 65.
Zahlenbeispiel im R2 :
Bsp. 2b: (Quantenmechanik!) Die stetigen Funktionen f : [0, 1] → C, t 7→ f (t) einer
reellen Variable t bilden einen (∞-dimensionalen) Vektorraum V über K = C. Durch
Z 1
(f , g) :=
dt f ∗ (t)g(t)
(488)
0
wird in V ein unitäres Skalarprodukt erklärt (Übungen!). Folglich gilt
Z 1
Z 1
2 Z 1
∗
2
dt f (t)g(t) ≤
dt |f (t)|
dt |g(t)|2
0
0
(489)
0
Als Beispiel betrachten wir die Funktionen f (t) = t5 und g(t) = t8 ,
Z 1
Z 1
2 Z 1
1
1
1 1
1
10
5 8
= 2 ≡
dt t t ≤
dt t
dt t16 ≡
=
.
196
14
11 17
187
0
0
0
72
(490)
Def.: Die Norm (oder der Betrag) eines Vektors a ∈ V wird definiert als
p
|a| := (a, a).
(491)
In euklidischen Vektorräumen gilt nach Cauchy-Schwarz: (a, b) ≤ |a||b|.
In diesem Fall wird ein Winkel γ zwischen zwei Vektoren a und b definiert durch
cos γ :=
(a, b)
.
|a||b|
(492)
Bsp. 2c: Im Rn mit dem Standard-Skalarprodukt ist der Winkel γ zwischen der Raumdiagonale und einer der Achsen gegeben durch
   
1
1



1  1   0 
1

cos γ = √  ..  ·  ..  = √ .
(493)
n .   . 
n
1
0
Es gilt also γ = 45◦ (n = 2), γ ≈ 54.7◦ (n = 3), γ = 60◦ (n = 4), sowie limn→∞ γ = 90◦ .
Satz: Für beliebige a, b ∈ V gilt die Dreiecksungleichung,
|a + b| ≤ |a| + |b|.
(494)
Beweis: Allgemein gilt
|a + b|2 ≡ (a + b, a + b) = |a|2 + (a, b) + (b, a) + |b|2 = |a|2 + 2Re(a, b) + |b|2 . (495)
Da Re(z) ≤ |z| für beliebige z ∈ C, so folgt
p
p
|a + b| ≤ |a|2 + 2|(a, b)| + |b|2 ≤ |a|2 + 2|a||b| + |b|2 ≡ |a| + |b|.
(496)
Im zweiten Schritt wurde die Ungleichung von Cauchy-Schwarz benutzt: |(a, b)| ≤ |a||b|.
4.1.4
Orthonormierte Basen (ON-Basen)
Def.: Zwei Vektoren a, b ∈ V heißen zueinander orthogonal, wenn gilt
(a, b) = 0.
(497)
(Der Nullvektor 0 ∈ V ist demnach zu jedem Vektor a ∈ V orthogonal.)
Satz: Sind die Vektoren v1 , ..., vk paarweise orthogonal,
(vi , vj ) = 0 für alle i, j ∈ {1, ..., k} mit i 6= j,
(498)
und ist vi 6= 0 für alle i ∈ {1, ..., k}, so ist {v1 , ..., vk } linear unabhängig.
Beweis: Sei
Pk
i=1
λi vi = 0. Dann folgt für jedes j ∈ {1, ..., k},
0 = (vj , 0) = vj ,
k
X
i=1
λi vi =
k
X
i=1
und also, wegen vj 6= 0, λj = 0.
73
λi (vj , vi ) = λj (vj , vj ),
(499)
Def.: Eine Basis {v1 , ..., vn } eines Vektorraums V mit Skalarprodukt heißt orthonormiert
oder ON-Basis, wenn die Basisvektoren auf 1 normiert und paarweise orthogonal sind,
|vi | = 1,
(vi , vj ) = 0 für alle i, j ∈ {1, ..., n} mit i 6= j.
(500)
Dies läßt sich mit Hilfe des Kronecker-Symbols δij kompakter formulieren,
für alle i, j ∈ {1, ..., n}.
(vi , vj ) = δij
(501)
Bsp.: Eine ON-Basis des R3 ist
  




1
2
2
1

1
1




2 ,
1
−2
{w1 , w2 , w3 } =
,
.
3

3
3
2
−2
1
Lemma 1: Sei B = {v1 , ..., vn } eine ON-Basis von V und a =
Pn
i=1
(502)
ai vi ∈ V . Dann gilt
ak = (vk , a).
(503)
M.a.W.: Der k-te Koeffizient ak von a ergibt sich direkt als Skalarprodukt von vk mit a,
ohne daß ein LGS gelöst werden muß !
Beweis:
n
n
X
X
(vk , a) = vk ,
a i vi =
ai (vk , vi ) = ak .
| {z }
i=1
i=1
(504)
δki
Bsp.: Mit obiger ON-Basis {w1 , w2 , w3 } des R3 findet man auf diese Weise sehr schnell
 
 
2
1
2
1
16
1
2
11



3  = w1 − w2 + w3 . (505)
2
a=
= w1 − w2 + w3 ,
b=
3
3
3
3
3
3
3
4
Lemma 2: Mit b =
(a, b) ≡
Pn
j=1 bj vj
n
X
i=1
ai vi ,
folgt weiter
n
X
j=1
bj vj =
n
X
i,j=1
a∗i bj
(v , v ) =
| i{z j}
δij
n
X
a∗i bi .
Bsp.: Am letzten Beispiel verifizieren wir
   
1
2
11 16 2 1 1 2
180



2
3  =
20 ≡
·
+ −
−
+
=
= 20.
3 3
3
3
33
9
3
4
74
(506)
i=1
(507)
4.1.5
Fourier-Analyse
Die
π] quadratintegrablen reellen Funktionen f (x) [für die also das Integral
R π auf [−π,
2
dx f (x) existiert], bilden einen reellen Vektorraum V . Durch
−π
Z π
dx f (x)g(x)
(508)
(f, g) :=
−π
wird in V ein Skalarprodukt erklärt. Die 2N + 1 speziellen Funktionen
1
φ0 (x) = √ ,
2π
φn (x) =
cos(nx)
√
,
π
φ−n (x) =
bilden ein ON-System in V (Übungsaufgabe!),
Z π
dx φn (x)φm (x) = δn,m
(φn , φm ) ≡
sin(nx)
√
π
(n = 1, ..., N )
n, m ∈ {−N, ..., +N } .
(509)
(510)
−π
Sie bilden damit eine ON-Basis des (2N + 1)-dimensionalen Unter-Vektorraums
VN =
n
f (x) =
N
X
o
an φn (x) a−N , ..., aN ∈ R ⊂ V.
(511)
n=−N
Für die Koeffizienten einer beliebigen Funktion f ∈ VN gilt also
Z π
ak = (φk , f ) ≡
dx φk (x)f (x).
(512)
−π
Satz: Jede Funktion f ∈ V , welche den Dirichlet-Bedingungen5 genügt, läßt sich für
x ∈ [−π, π] mit beliebiger Genauigkeit durch ein f (N ) ∈ VN annähern, wenn nur N ∈ N
hinreichend groß gewählt wird,
x ∈ [−π, π] :
f (x) = lim
N →∞
|
N
X
an φn (x),
an = (φn , f ).
(513)
n=−N
{z
fF (x)
}
Für x ∈ R stellt die Fourier-Reihe fF (x) eine periodische Funktion (mit Periode 2π)
dar, fF (x + 2π) = fF (x), die für x ∈ [−π, π] mit f (x) übereinstimmt.
Bsp.: Wir betrachten die für x ∈ [−π, π] definierte Funktion
f (x) = x
x ∈ [−π, π] .
(514)
Da f ungerade ist, sind alle von 0 verschiedenen Fourier-Koeffizienten gegeben durch
Z π
iπ
sin(nx)
1 1h
= √
sin(nx) − nx cos(nx)
a−n = (φ−n , f ) ≡
dx x √
π
π n2
−π
−π
√
2 π
= −
cos(nπ)
(n = 1, 2, 3, ...). (515)
n
5
f muß auf [−π, π] mit Ausnahme von höchstens endlich vielen
R π Punkten stetig sein und darf dort
höchstens endlich viele Maxima und Minima haben; das Integral −π dx |f (x)| muß konvergieren.
75
Für x ∈ [−π, π] gilt also
f (x) =
lim
N →∞
√
N
X
2 π
n=1
= 2 sin x −
sin(nx)
(−1)n+1 √
n
π
sin 2x sin 3x
+
− +... .
2
3
(516)
Die Fourier-Reihe auf der rechten Seite läßt sich für beliebige x ∈ R auswerten und ergibt
eine periodische Funktion, die für x ∈ [−π, π] mit f (x) = x übereinstimmt, also eine
Sägezahn-Funktion. Die Abbildung zeigt (in blauer Farbe) die Funktionen
f
(N )
N
X
sin(nx)
(x) = 2
(−1)n+1
n
n=1
(517)
für (von oben nach unten) N = 1, N = 2, N = 5 und N = 10. Die Konvergenz gegen die
(jeweils in roter Farbe dargestellte) Sägezahn-Funktion ist sehr deutlich.
3
2
1
-5
5
-1
-2
-3
3
2
1
-5
5
-1
-2
-3
3
2
1
-5
5
-1
-2
-3
3
2
1
-5
5
-1
-2
-3
Bem.: Mit x = π2 liefert Gl. (516) die interessante Darstellung π4 = 1 − 31 + 15 − +..., die
R 1 dx
R1
2
4
unabhängig auch aus der Reihe π4 = arctan(1) = 0 1+x
2 = 0 dx(1 − x + x − +...) folgt.
76
4.1.6
Das Schmidtsche Orthogonalisierungsverfahren
In Abschnitt 4.1.5 haben wir gesehen, wie vorteilhaft ON-Basen sein können.
Wir wollen nun aus einer beliebigen Basis {v1 , ..., vn } von V eine ON-Basis {e1 , ..., en }
konstruieren (und so zeigen, daß dies immer möglich ist). Im ersten Schritt wählen wir
e1 :=
v1
.
|v1 |
(518)
Nun fahren wir induktiv fort. Sei also {e1 , ..., ek } orthonormiert, wobei ei , mit 1 ≤ i ≤ k,
jeweils eine Linearkombination von {v1 , ..., vi } ist. Dann ist der Vektor
0
vk+1
k
X
= vk+1 −
(ej , vk+1 )ej 6= 0
(519)
j=1
verschieden von 0, da hier von vk+1 eine Linearkombination der Vektoren {v1 , ..., vk }
0
orthogonal zu ei für alle i ∈ {1, ..., k}, denn
subtrahiert wird. Insbesondere ist vk+1
0
(ei , vk+1
)
= (ei , vk+1 ) −
k
X
(ei , (ej , vk+1 )ej )
j=1
= (ei , vk+1 ) −
k
X
j=1
(ej , vk+1 ) (ei , ej ) = 0.
| {z }
(520)
δij
Eine orthonormierte Menge (ON-System) {e1 , ..., ek+1 } ergibt sich also mit der Wahl
ek+1
0
vk+1
.
:= 0
|vk+1 |
(521)
Damit ist die Konstruktion der ON-Basis {e1 , ..., en } klar.
Bsp. 3: Für {v1 , v2 , v3 } = {1, t, t2 } ⊂ P2 (R) findet man bezüglich (f , g) =
e1 ≡ e1 (t) = 1,
e2 ≡ e2 (t) =
√
3(2t − 1),
e3 ≡ e3 (t) =
R1
0
dtf (t)g(t)
√
5(6t2 − 6t + 1). (522)
Für die Polynome a ≡ a(t) = t2 − 4t + 3 und b ≡ b(t) = 2t2 + t − 5 aus Bsp. 1b findet
man mit ai = (ei , a) bzw. bi = (ei , b) folgende Darstellungen (Übungen!):
√
√
√
√
4
3
5
23
3
5
a(t) = e1 (t) −
e2 (t) +
e3 (t),
b(t) = − e1 (t) +
e2 (t) +
e3 (t). (523)
3
2
30
6
2
15
Ihr Skalarprodukt ergibt sich jetzt tatsächlich nach Lemma 2 aus Abschnitt 4.1.4 zu
(a, b) ≡
3
X
i=1
√ √
√ √
4 23
3 3
5 5
−920 − 135 + 2
117
ai bi = −
−
+
=
=−
.
3 6
2 2
30 15
180
20
77
(524)
Zugehörige Unterlagen
Herunterladen