Mathematische Ergänzungen zur klassischen Mechanik I

Werbung
MATHEMATISCHE ERGÄNZUNGEN ZUR
KLASSISCHEN MECHANIK I
Eberhard Engel
Center for Scientific Computing, J.W.Goethe-Universität Frankfurt,
Max-von-Laue-Straße 1, D-60438 Frankfurt/Main, Germany
Letzte Überarbeitung: 3. März 2011
Inhaltsverzeichnis
1 Vektorrechnung
1.1
1.2
1.3
1.4
1
Grundzüge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
1.1.1
Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
1.1.2
Definition des Begriffs Vektor . . . . . . . . . . . . . . . . . . . . . .
3
1.1.3
Kartesische Koordinaten . . . . . . . . . . . . . . . . . . . . . . . . .
3
1.1.4
Addition von Vektoren . . . . . . . . . . . . . . . . . . . . . . . . . .
7
1.1.5
Multiplikation von Vektoren mit Zahlen . . . . . . . . . . . . . . . .
9
1.1.6
Einheitsvektoren, Basis . . . . . . . . . . . . . . . . . . . . . . . . . .
9
1.1.7
Lineare Abhängigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . .
11
1.1.8
Kugelkoordinaten . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11
Lineare Koordinatentransformationen: Rotationen . . . . . . . . . . . . . . .
13
1.2.1
Elementare Rotation des Koordinatensystems . . . . . . . . . . . . .
13
1.2.2
Rotationsmatrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14
1.2.3
Elementare Rotation des Vektors . . . . . . . . . . . . . . . . . . . .
15
1.2.4
Allgemeine Rotation: Euler Winkel . . . . . . . . . . . . . . . . . . .
17
Skalarprodukt (Inneres Produkt) . . . . . . . . . . . . . . . . . . . . . . . .
18
1.3.1
Auswertung des Skalarprodukts über Komponenten . . . . . . . . . .
19
1.3.2
Formalisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
20
Vektorprodukt (Äußeres Produkt) . . . . . . . . . . . . . . . . . . . . . . . .
22
1.4.1
Auswertung des Vektorprodukts über Komponenten . . . . . . . . . .
23
1.4.2
Formalisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
25
1.4.3
Identitäten
26
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
i
2 Grundbegriffe der Infinitesimalrechnung
2.1
28
Mengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
28
2.1.1
Elementare Definitionen, Notation . . . . . . . . . . . . . . . . . . . .
28
2.1.2
Mengen von reellen Zahlen: Topologische Eigenschaften . . . . . . . .
30
2.2
Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
33
2.3
Endliche Summen, Bernoulli’sche Ungleichung . . . . . . . . . . . . . . . . .
36
2.4
Folgen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
39
2.5
Reihen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
45
3 Differentialrechnung bei Funktionen einer Variablen
3.1
58
Grundbegriffe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
58
3.1.1
Definition des Funktionsbegriffs . . . . . . . . . . . . . . . . . . . . .
58
3.1.2
Elementare Eigenschaften: Monotonie, Symmetrie, Periodizität . . . .
61
3.1.3
Funktionen- und Potenzreihen . . . . . . . . . . . . . . . . . . . . . .
62
3.2
Stetigkeit, Grenzwerte, Umkehrfunktion
. . . . . . . . . . . . . . . . . . . .
65
3.3
Differentiation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
71
3.3.1
Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
71
3.3.2
Differentiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
76
3.3.3
Rechenregeln für Differentiation . . . . . . . . . . . . . . . . . . . . .
77
3.3.4
Höhere Ableitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
81
3.3.5
Grenzwerte von Produkten und Quotienten von Funktionen . . . . .
83
3.4
Taylorentwicklung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
85
3.5
Extrema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
89
4 Integralrechnung bei Funktionen einer Variablen
4.1
91
Grundlegende Begriffe: Riemann-Integral . . . . . . . . . . . . . . . . . . . .
91
4.1.1
Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
91
4.1.2
Alternative Formulierung des Riemann-Integrals . . . . . . . . . . . .
93
4.1.3
Eigenschaften des Riemann-Integrals . . . . . . . . . . . . . . . . . .
93
4.2
Unbestimmtes Integral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
95
4.3
Integrationsmethoden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
96
4.3.1
97
Partielle Integration . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.4
4.3.2
Substitution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3.3
Partialbruchzerlegung
4.3.4
Gliedweise Integration von Reihen . . . . . . . . . . . . . . . . . . . . 106
. . . . . . . . . . . . . . . . . . . . . . . . . . 104
Uneigentliche Integrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
4.4.1
Integration über ein unbeschränktes Intervall . . . . . . . . . . . . . . 107
4.4.2
Integration über eine am Rand unbeschränkte Funktion . . . . . . . . 107
4.4.3
Integration über eine im Inneren unbeschränkte Funktion . . . . . . . 108
5 Komplexe Zahlen
5.1
98
110
Elementare Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
5.1.1
Grundbegriffe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
5.1.2
Operationen mit komplexen Zahlen . . . . . . . . . . . . . . . . . . . 111
5.1.3
Komplexe Zahlen als Erweiterung der reellen Zahlen: Komplexe Zahl i 113
5.1.4
Multiplikation/Division in Polarkoordinatendarstellung . . . . . . . . 114
5.2
Folgen, Reihen
5.3
Elementare komplexe Funktionen . . . . . . . . . . . . . . . . . . . . . . . . 115
5.4
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
5.3.1
Exponentialfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
5.3.2
Sinus, Kosinus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
5.3.3
Wurzelfunktion: Mehrdeutigkeit . . . . . . . . . . . . . . . . . . . . . 117
Analytische Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
6 Differentialgleichungen: Erste Schritte
118
6.1
Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
6.2
Klassifikation, Notation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
6.3
Spezielle Typen von Differentialgleichungen . . . . . . . . . . . . . . . . . . . 121
6.3.1
Differentialgleichungen erster Ordnung mit separablen Variablen . . . 121
6.3.2
Lineare Differentialgleichungen erster Ordnung . . . . . . . . . . . . . 123
6.3.3
Ähnlichkeitsdifferentialgleichungen erster Ordnung . . . . . . . . . . . 125
6.3.4
Lineare Differentialgleichungen höherer Ordnung: Reihenentwicklung
7 Grundzüge der Vektoranalysis
7.1
125
128
Motivation, Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
7.2
7.3
Vektorwertige Funktionen: Kurven
. . . . . . . . . . . . . . . . . . . . . . . 130
7.2.1
Stetigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
7.2.2
Differenzierbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
7.2.3
Länge von Kurven . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
Skalare Felder, Vektorfelder . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
7.3.1
Stetigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
7.3.2
Differentiation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
7.4
Divergenz, Rotation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
7.5
Taylorentwicklung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
7.6
Extrema (von skalaren Feldern) . . . . . . . . . . . . . . . . . . . . . . . . . 151
7.7
7.6.1
Extrema ohne Nebenbedingungen . . . . . . . . . . . . . . . . . . . . 151
7.6.2
Extrema mit Nebenbedingungen . . . . . . . . . . . . . . . . . . . . . 153
Kurvenintegrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
8 Lineare Algebra
8.1
8.2
165
Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
8.1.1
Grundkonzept . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
8.1.2
Grundbegriffe und elementare Operationen mit Matrizen . . . . . . . 166
8.1.3
Orthogonalität und Unitarität von Matrizen . . . . . . . . . . . . . . 175
8.1.4
Reihen von Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
8.2.1
Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
8.2.2
Definition und Grundbegriffe
8.2.3
Definierende Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . 183
8.2.4
Multiplikationstheorem . . . . . . . . . . . . . . . . . . . . . . . . . . 187
8.2.5
Determinanten spezieller Matrizen . . . . . . . . . . . . . . . . . . . . 188
8.2.6
Determinantenentwicklungssatz . . . . . . . . . . . . . . . . . . . . . 189
. . . . . . . . . . . . . . . . . . . . . . 179
8.3
Lineare Gleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192
8.4
Eigenwertproblem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194
Kapitel 1
Vektorrechnung
1.1
Grundzüge
1.1.1
Motivation
Grundproblem in Physik: Angabe der Position eines punktförmigen Objekts im Raum
−→ verschiedene Konzepte denkbar:
(i) Abstände von mehreren Bezugspunkten: Da drei Bezugspunkte immer eine Ebene definieren, ist die Angabe von drei solchen Abständen nur dann eindeutig, wenn für die
Position nur der Raum über (bzw unter) der Ebene zur Verfügung steht (ansonsten
gibt es einen spiegelbildlichen Punkt unter (bzw über) der Ebene mit den gleichen
Abständen — die Hinzunahme eines vierten Bezugspunkts außerhalb der Ebene erlaubt in jedem Fall eine eindeutige Positionsbestimmung).
Illustration für Punkt in Ebene, d.h. in 2 Dimensionen: Der Abstand von den Bezugspunkten A,B bestimmt den zu charakterisierenden Punkt C nur dann eindeutig, wenn
C oberhalb der Verbindungslinie von A nach B liegt.
1
.............................................
............
..................
.......
...........
......
.......
......
......
......
.....
.
.
.
.....
...
.
.
.
....
.............................................
...
.
....
.
..............
.......
...
...
......
.......
.
.
...
.....
.....
.
.
.
....
... ........
...
....
.
.
.
.
.....
....
..
.
.
.
.
...
. ...
..
.
.
.
.
...
... ....
....
.
...
...
..
...
...
.
...
...
....
...
..
..
...
...
..
..
..
...
..
...
...
...
...
....
.
..
.
.
.
.
..
..
..
.
.
..
.
..
..
.
.
.
.
..
.
..
.
.
..
.
.
.
...
.
..
..
..
...
...
..
...
... ...
..
...
...
... ...
..
...
... ..
.
.
...
...
........
...
....
....
... .........
...
.....
......
...
...
.....
.......
.
....
.
...
.
.
.
.
.
.
.............
....
...............................................
....
....
....
....
....
......
.....
......
.....
.
.......
.
.
.
.
.........
...
...............
.........
.........................................................
s
C
s
A
s
B
Daher besser: Charakterisierung eines Punkts im Raum durch Abstände von zwei Bezugspunkten plus Abstand von der Ebene, die aus den beiden zusammen mit einem
dritten Bezugspunkt gebildet wird — der Abstand von der Ebene kann dann mit Vorzeichen definiert werden (positive Abstände oberhalb, negative unterhalb der Ebene).
(ii) Abstand von einem Bezugspunkt plus Richtung zum Bezugspunkt
a
u
Bezugspunkt
−→ erfordert die Fixierung eines “Bezugsrahmens” im Raum, gegenüber dem die
Richtung angegeben wird
Allgemein: Jeder Raumpunkt im 3-dimensionalen Raum ist durch die Angabe von 3 unabhängigen reellen Werten (Koordinaten) und einer Regel zu deren Interpretation (Koordinatensystem) eindeutig charakterisiert (aus Geometrie: Schnittpunkt von 3 Flächen definiert
Punkt im Raum, zumindest bis auf offensichtliche Zweideutigkeiten — siehe oben).
Ähnliche Problemstellung: Verschiebung eines punktförmigen Objekts von Punkt A
zu Punkt B
−→ Position von A stellt Bezugspunkt für Charakterisierung von B dar
u
B
a
u
A
2
−→ a stellt Verschiebung dar, die Punkt A in Punkt B überführt
Außer Positionen und Verschiebungen gibt es in der Physik viele weitere Größen, deren
Charakterisierung mehr als die Angabe einer Zahl erfordern — man unterscheidet daher:
• Skalare: Größen, die durch eine einzelne Zahl charakterisiert werden
(Abstand von zwei Punkten, Temperatur im Raum, Druck in Behälter, Ladung auf
Kondensator, . . . )
• Vektoren: Größen, die durch eine Zahl plus eine Richtung charakterisiert werden
(Position im Raum, Geschwindigkeit eines Teilchens, Kraft auf Körper, elektrisches
Feld, . . . )
• Tensoren: Größen, die zur vollständigen Charakterisierung im 3-dimensionalen Raum
mehr als 3 Zahlenangaben benötigen
(Trägheitstensor, . . . )
1.1.2
Definition des Begriffs Vektor
Intuitiv: Ein Vektor ist eine gerichtete Strecke im Raum.
Etwas allgemeiner (mathematischer): Vektoren sind geordnete n-Tupel, d.h. geordnete
Sätze von (hier rellen) Zahlen (a1 , a2 , . . . , an ), deren Komponenten sich auf ein vorgegebenes Koordinatensystem beziehen und die sich bei Koordinatentransformationen wie die
Komponenten einer gerichteten Strecke transformieren.
in Physik: n = 2, 3, 4 — formuliere im weiteren alle Begriffe für n = 3
(Beachte: Vektorkonzept lässt sich noch wesentlich allgemeiner fassen — hier keine Details)
−→ erste Aufgabe: Festlegung des Koordinatensystems
−→ übliche Wahl folgt aus maximaler Zweckmäßigkeit
1.1.3
Kartesische Koordinaten
Wähle 3 zueinander paarweise senkrechte Bezugsachsen, die sich in einem Punkt, dem (Koordinaten)Ursprung schneiden, und charakterisiere Vektor durch seine Projektionen auf die
3
3 Achsen: Dabei wird den Projektionen ein positives Vorzeichen zugeordnet, falls die Projektion der Spitze des Vektors (d.h. seines Endpunkts) auf die jeweilige Achse einen größeren
Wert auf der Achse ergibt als die Projektion des Anfangspunktes, ein negatives Vorzeichen
im umgekehrten Fall.
z
6
6@
@.
q ....... @
..
...
@
...
........
....
a3
.........
....
...
...
...
...
..
..
..
.
...
..
...
...
q
?
@
Projektion parallel
@
r
P
zur z-Achse
PP A
PP
q
s
q
...
....
.....
........
...................................
.............
a1
x
ai =
q
...........
.......
.....
....
...
...
.
Projektion parallel
zur x-y-Ebene
(wird erreicht durch rechten
Winkel zur z-Achse)
@
@
@
@ rB
a
q
a2
..
...
....
......
....................................................
@
@
..................................
........
...
...
@.................
...
...
.
.
...
.. @
q
.
.
..
q
.
....
@
...
..
...
@
q
..
...
....
.....
........
...........
.
-
-
y
Auftreffpunkt der Projektion der Spitze von a (bei B) auf die Achse i
−Auftreffpunkt der Projektion des Anfangs von a (bei A) auf die Achse i
Die Projektion eines Punktes auf eine kartesische Achse kann entweder direkt oder in 2
Schritten erfolgen:
• Im Fall der z-Achse wird im obigen Bild eine direkte Projektion der Punkte A bzw
B auf die Achse gezeigt, angedeutet durch die rechten Winkel zwischen den von A,
B ausgehenden Projektionslinien und der Achse: Jeder Punkt definiert zusammen mit
der z-Achse eine Ebene, in der die Projektionslinien verlaufen, die dann senkrecht auf
die z-Achse treffen.
• Im Fall der x-Achse und y-Achse könnte natürlich genauso vorgegangen werden. Im
Bild erfolgt die Projektion aber über einen Umweg, der auf dieselben Auftreffpunkte
4
führt: Die Projektion eines Punktes auf eine kartesische Achse ist durch denjenigen
Wert auf der Achse gegeben, bei dem die ihn enthaltene Ebene, die senkrecht zur
Achse liegt, gerade den zu projezierenden Punkt enthält. Im folgenden Bild wird B auf
diese Weise auf die y-Achse projeziert, E⊥ ist die Ebene senkrecht zur y-Achse.
z
6
Ebene E⊥
senkrecht
auf y-Achse
rB
@
@
@
@
Pxy
s
@
@Pd
@
@ .....................................................................
.......
.....
q
....
...
@
@
...
.
...
...
q
....
....
......
.........
.....
D
y
q
..
...........
....
...
...
...
...
..
C
x
r
Die direkte Projektionslinie ist dann die Gerade vom zu projezierenden Punkt (B) zur
Achse, hier mit Pd benannt. Aber auch jede andere Kurve vom Punkt zur Achse, die
ganz in der zur Achse senkrechten Ebene E⊥ liegt, kann zur Projektion verwendet
werden. So kann man den zu projezierenden Punkt etwa erst in die durch x-Achse
und y-Achse definierte Ebene (x-y-Ebene) projezieren. Die zugehörige Projektionslinie
(im Bild Pxy genannt) verläuft parallel zur z-Achse und damit innerhalb von E⊥ . Im
zweiten Schritt wird dann ihr Endpunkt C innerhalb der x-y-Ebene auf die y-Achse
projeziert. Wieder kommt man bei demselben Auftreffpunkt (D) an.
5
Bemerkungen:
• Ordnung der drei Achsen wird rechtshändig gewählt (IMMER!)
• Standardbezeichnung: x-, y-, z-Achse
• Komponenten des Vektors werden entsprechend als x-, y-, z-Komponenten bezeichnet
−→ dabei werden äquivalent zwei Schreibweisen verwendet
a1 ≡ ax
a2 ≡ ay
a3 ≡ az
• verschiedene Notationen für Vektoren gebräuchlich


a1




 a2  = (a1 , a2 , a3 ) = (ax , ay , az ) = a = a = ~a = (ai )


a3
(1.1.1)
beachte: Spalten- und Zeilenvektoren sind streng mathematisch gesehen nicht identisch
(Details siehe später) — das wird beim praktischen Umgang mit Vektoren aber meist
nicht beachtet, solange der Unterschied nicht gerade von Bedeutung ist
• Länge des Vektors: Länge der Verschiebung = Abstand von A zu B
!1/2
3
q
X
a21 + a22 + a23 =
(Pythagoras)
a2i
|a| =
(1.1.2)
i=1
(|a| wird auch Norm oder Betrag genannt)
• Für festes (kartesisches) Koordinatensystem sind die Komponenten a1 , a2 , a3 unabhängig und eindeutig, da eine Verschiebung des Endpunktes B in Richtung von einer
der drei Achsen die Positionen und damit Projektionen bezüglich der anderen beiden
Achsen nicht ändert
• Vektoren, die durch Parallelverschiebung auseinander hervorgehen, sind identisch, weil
ihre Projektionen auf die Koordinatenachsen gleich sind
−→ Komponenten ändern sich bei Verschiebung des Koordinatenursprungs nicht,
solange die Orientierung der Achsen gleich bleibt
−→ Positionsvektoren nicht fundamental von Verschiebungsvektoren verschieden
−→ Vektoren werden daher meist vom Koordinatenursprung ab aufgetragen
6
• Vektor ist eindeutig (gerichtete Strecke von A nach B), seine Komponenten sind es
dagegen nur, solange man das Koordinatensystem festhält: Komponenten ändern sich
mit der Orientierung der Achsen im Raum (trotz gleichbleibender Anordnung der
Achsen zueinander)
• Transformationsverhalten der Komponenten bei Änderung der Orientierung des Koordinatensystems bestimmt, ob n-Tupel von Komponenten ein Vektor im physikalischen
Sinn ist: Bei physikalischen Größen (messbar!) müssen die gleichen Transformationseigenschaften vorliegen wie beim Positionsvektor (siehe Definition).
• Menge aller möglichen Vektoren = gesamter 3-dimensionaler Raum von Positionen
−→ alle drei Komponenten gehen für sich alle reellen Werte durch
−→ mathematische Formalisierung durch direktes Produkt 1-dimensionaler Räume
R3 = R × R × R
• Übertragung auf andere Raumdimension klar: Zahl der Komponenten des Vektors =
Dimension des Raums
1.1.4
Addition von Vektoren
Definition: Für zwei Vektoren a, b, die die Verschiebungen A→B, C→D charakterisieren,
versteht man die Vektorsumme a+b als die Verschiebung, die durch Hintereinanderausführen
von A→B und C→D entsteht:
rB
A
AU r
C
b -r
*D
r
a + b
A
AU a
7
Eigenschaften:
a+b = b+a
(Kommutativgesetz)
(1.1.3)
a + (b + c) = (a + b) + c
(Assoziativgesetz)
(1.1.4)
a+0 = a
(neutrales Element)
(1.1.5)
0 = Verschiebung um nichts — hat keine Richtung
a + (−a) = 0
(inverses Element)
(1.1.6)
−a = Verschiebung um gleiche Strecke, aber in umgekehrter Richtung wie a
Betrachte zugeörige Projektionen auf kartesische Achsen, der Einfachheit in der Ebene (beachte: zwei Vektoren definieren gerade eine Ebene, das Koordinatensystem kann dann entsprechend gewählt werden)
y
6
:
3
6
b b2
a+b
a2 a ?s
a -
b
?
6
1
1
a1 + b1
−→ Projektionen auf Achsen sind additiv
8
-
-
x
−→ Vektorsumme in kartesischen Komponenten:


 

a + b1
b
a
 1
 1   1 


 

a + b =  a2  +  b2  =  a2 + b2


 

a3 + b3
b3
a3
 
0
 
 
0 =  0 
 
0


−a1




−a =  −a2 


−a3
1.1.5





(1.1.7)
(1.1.8)
(1.1.9)
Multiplikation von Vektoren mit Zahlen
Definition: Für einen Vektor a, der die Verschiebung A→B charakterisiert, versteht man
unter αa (mit α ∈ R) eine Verschiebung in gleicher Richtung wie bei a, falls α > 0, bzw
in umgekehrter Richtung, falls α < 0, aber um den Faktor |α| gestreckt oder gestaucht.
Eigenschaften:
α(a + b) = (αa) + (αb)
(Distributivgesetze)
(α + β)a = (αa) + (βa)
α(βa) = (αβ)a
1·a = a
(Assoziativgesetz)
(neutrales Element)
(1.1.10)
(1.1.11)
(1.1.12)
(1.1.13)
In kartesischen Komponenten (weil Projektionen auf Achsen linear unter Streckung sind):


αa1




(1.1.14)
αa =  αa2 


αa3
1.1.6
Einheitsvektoren, Basis
Definition: Ein Vektor der Länge 1 wird als Einheitsvektor bezeichnet.
9
Kartesische Einheitsvektoren: geben Richtungen der 3 kartesischen Achsen wieder
a3
@
@
@
@
@
@
6
@
@
e3
a
p
e2
@
@
@
@
@
@
@
@
e1
a1
In kartesischen Komponenten:
 
1
 
 
e1 = ex =  0 
 
0

a2



0
 
 
e3 = ez =  0 
 
1
0
 
 
e2 = ey =  1 
 
0
−→ e1 , e2 , e3 bilden rechtshändiges System
(1.1.15)
Gemäß der Definition der kartesischen Komponenten ai als Projektionen auf die Koordinatenachsen läßt sich jeder Vektor eindeutig über die kartesischen Einheitsvektoren darstellen:
 
 
 


0
0
1
a1
 
 
 


 
 
 


 a2  = a1  0  + a2  1  + a3  0 
 
 
 


1
0
0
a3
a = a1 e1 + a2 e2 + a3 e3 =
3
X
i=1
−→ wird als Basisdarstellung bezeichnet
−→ e1 , e2 , e3 bilden Basis des 3-dimensionalen Raumes
10
ai ei
(1.1.16)
Allgemeiner: Jeder Satz von 3 Vektoren, die in 3 verschiedene Richtungen zeigen, bildet
Basis des 3-dimensionalen Raumes
−→ drücke Forderung nach verschiedenen Richtungen noch etwas allgemeingültiger aus:
1.1.7
Lineare Abhängigkeit
Vektoren a1 , a2 , . . . an werden als linear abhängig bezeichnet, falls man mindestens einen
von ihnen durch die anderen n − 1 ausdrücken kann.
Formale Definition: a1 , a2 , . . . an heißen linear abhängig, falls es einen Satz von Zahlen λ1 , λ2 , . . . λn (die nicht alle verschwinden) gibt, so dass
n
X
λ i ai = 0
=⇒
i=1
n
1 X
aj =
λ i ai
λj i=1,i6=j
(1.1.17)
Falls nicht, heißen a1 , a2 , . . . an linear unabhängig.
−→ im 3-dimensionalen Raum können höchstens 3 Vektoren linear unabhängig sein
1.1.8
Kugelkoordinaten
Frage: Wie drückt man Richtung des Vektors im Raum aus?
−→ führt auf wichtigen alternativen Satz von Koordinaten: Kugelkoordinaten
Definition über graphische Veranschaulichung: vergleiche die Diskussion über schrittweise
Projektion auf die kartesischen Achsen in Abschnitt 1.1.3
11
a3
@
@ ..
q ....... @
.
...
@
....
........
....
@
@
6
e3 ....................
....
...
...
...
...
...
...
...
.
|a|
@
@
a
θ
e1
q ..................
...........
.
a1
...
..
p
e2
@
ϕ @@......
.......................
.................................................................
@
.........................
............
....
...
|a| sin(θ)@......................
...
...
.
...
q
... @
..
.
q
..
.
....
@
...
.
@
..
q
a2
..
...
....
.....
.......
.........
.....
Bereiche und Vorzeichen der Winkel:
0 ≤ θ ≤ π ⇐⇒ θ positiv gegenüber z-Achse abgetragen
(1.1.18)
0 ≤ ϕ ≤ 2π ⇐⇒ ϕ positiv entgegen Uhrzeigersinn in x-y-Ebene
gegenüber x-Achse abgetragen
(1.1.19)
Zusammenhang von Kugelkoordinaten mit kartesischen Koordinaten (aus Projektion)
a1 = |a| sin(θ) cos(ϕ)
(1.1.20)
a2 = |a| sin(θ) sin(ϕ)
(1.1.21)
a3 = |a| cos(θ)
(1.1.22)
Darstellung des Vektors über Kugelkoordinaten und kartesische Einheitsvektoren (d.h. kartesische Vektorkomponenten)
a = |a| [sin(θ) cos(ϕ) ex + sin(θ) sin(ϕ) ey + cos(θ) ez ]
12
(1.1.23)
1.2
Lineare Koordinatentransformationen: Rotationen
Essentielle Eigenschaft von Vektoren: Länge und Richtung bleiben bei Änderung des Bezugssystems erhalten, nur Komponenten ändern sich mit Richtung und relativer Anordnung
der Koordinatenachsen (zumindest solange die Einheiten für die Länge unverändert bleiben)
Man sagt: Vektoren sind invariant gegenüber einer Transformation des Koordinatensystems
Einfachste und zugleich wichtigste Transformation des Koordinatensystems: Rotation
1.2.1
Elementare Rotation des Koordinatensystems
−→ betrachte der Einfachheit halber eine Rotation um die z-Achse
(kompliziertere Fälle können durch Hintereinanderausführen von Rotationen um
einzelne kartesische Achsen erzeugt werden — siehe später)
−→ die z-Komponente jedes Vektors bleibt bei Rotation um z-Achse unverändert
−→ betrachte x- und y-Komponente bei Rotation, i.e. die Projektion des Vektors auf
die x-y-Ebene
ey 6
K
A
ey′A
A
ay
A
A
A
A
A a′yA
A
A
A
A
A
a
A
*
ex′
A
A A
a′x
A
A
ϕ
A
A
α
A Ap
A
ax
ex
beachte: α positiv entgegen Uhrzeigersinn gegenüber ungestrichener x-Achse abgetragen
13
Projektion auf ungestrichene Koordinatenachsen (schon bekannt):
q
a2x + a2y cos(ϕ)
q
=
a2x + a2y sin(ϕ)
ax =
ay
Projektion auf gestrichene Koordinatenachsen (benutze Additionstheoreme für sin(ϕ − α)
und cos(ϕ − α) zur Auswertung):
a′x =
=
q
q
a2x + a2y cos(ϕ − α)
a2x + a2y [cos(ϕ) cos(α) + sin(ϕ) sin(α)]
= ax cos(α) + ay sin(α)
q
=
a2x + a2y sin(ϕ − α)
q
a2x + a2y [sin(ϕ) cos(α) − cos(ϕ) sin(α)]
=
a′y
= −ax sin(α) + ay cos(α)
a′z = az
1.2.2
(1.2.1)
(1.2.2)
(1.2.3)
Rotationsmatrix
Kompakte Schreibweise der Gleichungen (1.2.1)–(1.2.3) über Matrixnotation:
a′i =
3
X
Rij aj
(1.2.4)
j=1
⇐⇒
i=1:
a′1 = R11 a1 + R12 a2 + R13 a3
i=2:
a′2 = R21 a1 + R22 a2 + R23 a3
i=3:
a′3 = R31 a1 + R32 a2 + R33 a3





′
a
R
R12 R13
a
 1 
 11
 1 



 ′ 
 a2  =  R23 R23 R23   a2 





′
a3
R33 R33 R33
a3
{z
}
|
Matrix
⇐⇒
Gl.(1.2.5) ist zu lesen als:
• gehe Zeilen des Schemas (d.h. der Matrix) Eintrag für Eintrag durch,
14
(1.2.5)
• multipliziere den j-ten Eintrag mit der j-ten Komponente des Vektors zur Rechten
des Schemas und
• addiere die zur selben Zeile des Schemas gehörenden Beiträge auf
−→ der erste Index (i) von Rij heißt Zeilenindex, der zweite (j) Spaltenindex
−→ diese Ordnung ist eine Konvention, die IMMER eingehalten wird
−→ Verallgemeinerung auf andere Dimensionen offensichtlich
Notation:
a′ = R a
R = (Rij )
Im Fall der Rotation hat die Matrix die Gestalt:


cos(α) sin(α) 0




Rz (α) =  − sin(α) cos(α) 0 


0
0
1

 Rotation des Koordinatensystems um z-Achse:
≡
 entgegen Uhrzeigersinn für ϕ > 0
1.2.3
(1.2.6)
(1.2.7)
Elementare Rotation des Vektors
Beachte Unterschied zwischen Rotation des Koordinatensystems (Koordinatentransformation) und aktiver Rotation des Vektors bei festem Koordinatensystem
−→ betrachte wieder Rotation um z-Achse entgegen Uhrzeigersinn
15
y 6
a′y
ay
a′
*
α
a
ϕ
p a′x
ax
-
x
Projektion auf Koordinatenachsen (Auswertung wie zuvor)
a′x =
a′y =
⇐⇒
q
q
a2x + a2y cos(ϕ + α) = ax cos(α) − ay sin(α)
(1.2.8)
a2x + a2y sin(ϕ + α) = ax sin(α) + ay cos(α)
(1.2.9)
a′z = az
(1.2.10)
a′ = Rz (−α) a
(1.2.11)
Zur Erinnerung:
sin(−α) = − sin(α)
(1.2.12)
cos(−α) = cos(α)
(1.2.13)
−→ Rotation des Vektors entgegen Uhrzeigersinn äquivalent zu Rotation des
Koordinatensystems im Uhrzeigersinn
16
1.2.4
Allgemeine Rotation: Euler Winkel
Elementare Rotationen um x- bzw y-Achse: durch zyklische Vertauschung der Komponenten
von Rz (α)

1
0
0

(1.2.14)

(1.2.15)




Rx (α) =  0 cos(α) sin(α) 


0 − sin(α) cos(α)

 Rotation des Koordinatensystems um x-Achse:
≡
 entgegen Uhrzeigersinn für α > 0



Ry (α) = 

cos(α) 0 − sin(α)
0
1
0




sin(α) 0 cos(α)

 Rotation des Koordinatensystems um y-Achse:
≡
 entgegen Uhrzeigersinn für α > 0
Euler Winkel: Konvention für die relative Orientierung zweier Koordinatensysteme
REuler (γ, β, α) = Rz (γ) Rx (β) Rz (α)
(1.2.16)
von rechts nach links zu lesen: erst Rotation mittels Rz (α), dann Rotation mittels Rx (β)
um die bei der ersten Rotation erzeugte neue x-Achse, schließlich Rotation mittels Rz (γ)
um die bei der zweiten Rotation erzeugte neue z-Achse
17
1.3
Skalarprodukt (Inneres Produkt)
Definition: Das Skalarprodukt a · b von zwei Vektoren a und b ist die Zahl
a · b = |a| |b| cos(∢a, b)
(1.3.1)
(cos(φ) = cos(2π − φ) =⇒ es spielt keine Rolle, von wo ab der Winkel abgetragen wird)
−→ Skalarprodukt ist völlig symmetrisch bezüglich beider Vektoren
a
3
φ = ∢a, b
-
b
=⇒ da |a|, |b| und ∢a, b unabhängig von dem zur Darstellung von a und b gewählten
Koordinatensystem sind, ist a · b invariant gegenüber Koordinatentransformationen
Geometrische Interpretation:
a · b = Projektion von a auf b (bzw von b auf a)
(1.3.2)
Konsequenzen aus Definition:
a·b = b·a
(Kommutativität)
(αa) · b = a · (αb) = α(a · b)
(Assoziativität)
(1.3.3)
(1.3.4)
|a · b| ≤ |b| |a|
a·b = 0
a·a ≥ 0
(Schwarz’sche Ungleichung)
(1.3.5)

 entweder |a| = 0 oder |b| = 0 oder |a| = |b| = 0
⇐⇒
(1.3.6)
 oder
a senkrecht zu b
wobei: a · a = 0 ⇐⇒ a = 0
(1.3.7)
Falls a · b = 0 gilt, sagt man auch: a ist orthogonal zu b (0 ist orthogonal zu allen a).
18
1.3.1
Auswertung des Skalarprodukts über Komponenten
Skalarprodukt der kartesischen Einheitsvektoren:

 1 falls i = j
ei · ej =
 0 falls i 6= j
(1.3.8)
⇐⇒ kartesische Einheitsvektoren sind per Konstruktion senkrecht aufeinander
Betrachte nun Skalarprodukt von beliebigem Vektor a mit Einheitsvektoren
−→ führt per Konstruktion auf die kartesischen Komponenten des Vektors a
Vergewisserung über explizite Auswertung von cos(∢a, ei ): letztmalige Wiederholung der
Projektion auf kartesische Achsen
−→ wähle Winkel wie bei Kugelkoordinaten
θ = Winkel zwischen a und e3 , d.h. z-Achse
ϕ = Winkel zwischen Projektion von a auf x-y-Ebene und e1 , d.h. x-Achse
a3
@
@ ..
q .......
..
...
....
...........
@
@
@
@
6
@
@
e3 ....................
....
...
...
...
...
...
...
...
.
|a|
a
θ
e1
q ..................
............
a1
...
..
p
e2
@
ϕ @@.
.......................
......................................................................
@
.........................
............
....
...
|a| sin(θ)@.....................
...
...
.
...
.
q
... @
..
.
q
....
...
@
...
..
@
..
q
a2
..
...
....
.....
........
...........
.
−→ Skalarprodukt zwischen a und e3 trivial
a · e3 = |a| |e3 | cos(θ) =
q
a21 + a22 + a23 cos(θ) = a3
19
(1.3.9)
Skalarprodukt zwischen a und e1,2 , d.h. cos(∢a, e1,2 ), kann wieder über Zwischenprojektion
auf die x-y-Ebene ausgewertet werden (vergleiche Abschnitt 1.1.3)
−→ per Definition des cos gilt
a1
a1
|a| sin(θ)
=
= cos(ϕ) sin(θ)
|a|
|a| sin(θ)
|a|
q
a21 + a22 + a23 sin(θ) cos(ϕ) = a1 (1.3.10)
= |a| |e1 | sin(θ) cos(ϕ) =
|
{z
}
= cos(∢a, e1 )
q
= |a| |e2 | sin(θ) sin(ϕ) =
a21 + a22 + a23 sin(θ) sin(ϕ) = a2 (1.3.11)
|
{z
}
= cos(∢a, e2 )
cos(∢a, e1 ) =
=⇒
a · e1
a · e2
−→ Skalarprodukt von a mit ei führt per Konstruktion gerade auf kartesische Komponente
ai
Betrachte Skalarprodukt von Summenvektor a + b mit Einheitsvektor
(a + b) · ei = ai + bi = (a · ei ) + (b · ei )
ei -Richtung ist beliebig
=⇒
Distributivität des Skalarprodukts:
(a + b) · c = a · c + b · c
(Distributivität)
(1.3.12)
Distributivität erlaubt Verwendung der Basisentwicklung beim Auswerten des Skalarprodukts
a·b = a·
3
X
bi ei
i=1
!
=
3
X
i=1
bi (a · ei ) =
3
X
ai bi
(1.3.13)
i=1
Projektion des Vektors auf sich selbst führt auf Länge des Vektors
2
a·a = a =
1.3.2
3
X
i=1
a2i = |a|2
(1.3.14)
Formalisierung
Formalisierung von (1.3.8) mittels Kronecker Symbol δij
ei · ej
δij
= δij

 1 falls i = j
:=
 0 falls i =
6 j
20
(1.3.15)
(1.3.16)
Man schreibt dann
a·b =
=
3
X
i=1
3
X
i,j=1
=
ai ei
3
X
!
·
3
X
j=1
bj ej
!
ai bj (ei · ej )
ai bj δij
i,j=1
=
3
X
ai bi
(1.3.17)
i=1
δij lässt Summe über j auf den Beitrag mit j = i zusammenbrechen, da δij = 0 für i 6= j.
21
1.4
Vektorprodukt (Äußeres Produkt)
Definition: Das Vektorprodukt a × b von zwei Vektoren a und b ist der Vektor mit dem
Betrag
|a × b| = |a| |b| sin(∢a, b) ,
(1.4.1)
der sowohl auf a als auch auf b senkrecht steht,
0 = (a × b) · a = (a × b) · b ,
(1.4.2)
und dessen Richtung so gewählt ist, dass a, b und a × b ein rechtshändiges System bilden:
6
a×b
:
b
q
φ = ∢a, b
P
PP
PP
PP
PP
PP
q
q
a
Konsequenzen aus Definition:
a×b = −b×a
a×b = 0
⇐⇒
(1.4.3)

 entweder |a| = 0 oder |b| = 0 oder |a| = |b| = 0
(1.4.4)
 oder
a parallel oder antiparallel zu b
(αa) × b = a × (αb) = α(a × b)
(1.4.5)
Geometrische Interpretation:
|a × b| = Fläche des von a, b definierten Parallelogramms
a×b
= Normalenvektor senkrecht zu der von a, b aufgespannten Fläche
|a × b|
22
(1.4.6)
(1.4.7)
*
φ |b| sin(φ)
φ
b a
-
c · (a × b) = Volumen des von a, b, c aufgespannten Parallelepipeds
(1.4.8)
(wird auch Spatprodukt genannt)
6
a×b
P P
P P
P P
P P
P P
P P
P P
c
P P
:
P
P
P P
b P P
P P P
PP φ
PP
PP
PP
PP q
a P
1.4.1
Auswertung des Vektorprodukts über Komponenten
Vektorprodukt der kartesischen Einheitsvektoren:



ek falls (i, j, k) = (1, 2, 3) oder (2, 3, 1) oder (3, 1, 2)


ei × ej =
− ek falls (i, j, k) = (1, 3, 2) oder (3, 2, 1) oder (2, 1, 3)




0 falls i = j
(1.4.9)
Betrachte nun Vektorprodukt von beliebigem Vektor a und Einheitsvektor (hier e3 gewählt)
q
|a × e3 | = |a| sin(θ) =
a21 + a22 + a23 sin(θ)
(1.4.10)
wobei: θ = Winkel zwischen a und e3 , d.h. z-Achse
23
a3
@
@
@
@
@
@
6
|a|
e3
@
@
a
θ
e1
a1
p
e2
@
@
@
|a| sin(θ)@@
@
@
@
a2
Betrachte alternativ getrenntes Vektorprodukt der Komponenten von a mit Einheitsvektor
(a1 e1 ) × e3 = −a1 e2
(a2 e2 ) × e3 = +a2 e1
=⇒
(a3 e3 ) × e3 = 0
3
X
ai (ei × e3 ) = a2 e1 − a1 e2
(1.4.11)
i=1
3
q
q
X
2
2
ai (ei × e3 ) =
a1 + a2 =
a21 + a22 + a23 sin(θ)
(Projektion) (1.4.12)
i=1
=⇒
|a × e3 | = |a1 (e1 × e3 ) + a2 (e2 × e3 ) + a3 (e3 × e3 )|
(1.4.13)
Neben Betrag ist auch Richtung identisch: Beweise dazu Orthogonalität zu a und e3
[a1 (e1 × e3 ) + a2 (e2 × e3 ) + a3 (e3 × e3 )] · e3 = (a2 e1 − a1 e2 ) · e3
= 0
[a1 (e1 × e3 ) + a2 (e2 × e3 ) + a3 (e3 × e3 )] · a = (a2 e1 − a1 e2 ) · (a1 e1 )
+(a2 e1 − a1 e2 ) · (a2 e2 )
+(a2 e1 − a1 e2 ) · (a3 e3 )
= 0
24
Schließlich ist auch Vorzeichen der Richtung identisch, wie aus obigem Bild mit a1 , a2 , a3 > 0
klar wird.
=⇒ Vektorprodukt kann komponentenweise ausgeführt werden


a
2
3


X


ai (ei × e3 ) =  −a1 
a × e3 =


i=1
0
e3 -Richtung ist aber in keiner Weise ausgezeichnet: allgemeines Resultat


a b − a3 b2
3

 2 3
X


a×b =
ai bj (ei × ej ) =  a3 b1 − a1 b3 


i,j=1
a1 b2 − a2 b1
(1.4.14)
(1.4.15)
Direkte Konsequenz: Distributivität des Vektorprodukts — Beweis über (1.4.15)
a × (b + c) = a × b + a × c
1.4.2
(1.4.16)
Formalisierung
Formalisierung von (1.4.9) mittels Levi-Civita Symbol ǫijk (auch total antisymmetrischer
Tensor 3. Stufe genannt)
ei × ej =
ǫijk =
3
X
ǫijk ek
(1.4.17)
k=1



+1 if i, j, k = zyklische Permutation von 1,2,3






−1 if i, j, k = antizyklische Permutation von 1,2,3
(1.4.18)
0 sonst
ǫijk = ǫkij = −ǫikj
(1.4.19)
In anderen Worten: ǫijk ist k-te kartesische Komponente des Vektors ei × ej
!
3
3
3
X
X
X
ǫijl (el · ek ) =
ǫijl δlk = ǫijk (1.4.20)
(ei × ej ) · ek =
ǫijl el · ek =
l=1
l=1
25
l=1
−→ erlaubt formale Schreibweise für allgemeines Vektorprodukt
a×b =
=
3
X
i,j
ai bj ei × ej
3
X
ǫijk ai bj ek
ai , bj = kartesische Komponenten von a,b
(1.4.21)
i,j,k=1
(a × b)k = (a × b) · ek
3
X
=
ǫijk ai bj
(kartesische Komponente k von a × b)
i,j=1
Regel für die Auswertung von Produkten von Levi-Civita Symbolen:
3
X
k=1
ǫijk ǫklm = δil δjm − δim δjl
(1.4.22)
(Beweis: Übung)
1.4.3
Identitäten
Durch direktes Auswerten in kartesischen Komponenten lassen sich folgende Relationen
beweisen:
−→ einfacher bei Verwendung von (1.4.22)
a · (b × c) = b · (c × a) = c · (a × b)
(Zyklizität)
a × (b × c) = (a · c) b − (a · b) c
(1.4.23)
(1.4.24)
(a × b) · (c × d) = (a · c)(b · d) − (a · d)(b · c)
(1.4.25)
0 = a × (b × c) + b × (c × a) + c × (a × b) (Jacobi Identität) (1.4.26)
Zur Übung: Weise (1.4.24) nach
−→ Startpunkt ist (1.4.21) für b × c
a × (b × c) = a ×
=
3
X
i,j,k=1
26
3
X
i,j,k=1
ǫijk bi cj ek
!
ǫijk bi cj (a × ek )
−→ verwende (1.4.21) für a × ek
a × (b × c) =
3
X
3
X
ǫijk bi cj
ǫlmn al δkm en
l,m,n=1
i,j,k=1
!
δkm = kartesische Komponente m des Einheitsvektors ek
−→ werte nun erst δkm aus
−→ Summe über m bricht auf Term mit m = k zusammen
a × (b × c) =
3
X
ǫijk bi cj
i,j,k=1
ǫlkn al en
l,n=1
3
X
=
3
X
bi cj al en
i,j,l,n=1
3
X
ǫijk ǫlkn
k=1
!
!
−→ Antisymmetrie (1.4.19) und Identität (1.4.22) können verwendet werden
!
3
3
X
X
a × (b × c) = −
bi cj al en
ǫijk ǫkln
i,j,l,n=1
= −
3
X
i,j,l,n=1
k=1
bi cj al en (δil δjn − δin δjl )
−→ werte nun Summe über n aus
a × (b × c) = −
= −
3
X
i,j,l=1
3
X
i,j=1
(bi cj al ej δil − bi cj al ei δjl )
(bi cj ai ej − bi cj aj ei )
−→ schließlich lassen sich Skalarprodukte und Basisdarstellungen identifizieren
a × (b × c) = − (b · a) c + (c · a) b
−→ Identität (1.4.21) nachgewiesen
27
Kapitel 2
Grundbegriffe der
Infinitesimalrechnung
Zur Vorbereitung der Diskussion von Differential- und Integralrechnung: Stelle einige grundlegende Begriffe der Mathematik in knapper Form zusammen
−→ zumeist Wiederholung von Schulstoff
−→ dient auch der Einführung der im weiteren verwendeten Notation und Sprache
2.1
2.1.1
Mengen
Elementare Definitionen, Notation
Definition: Eine Menge M ist eine Zusammenfassung von wohlbestimmten und wohlunterschiedenen Objekten unserer Anschauung oder unseres Denkens, Elemente von M
genannt, zu einem Ganzen (naiver Grundbegriff nach Cantor).
Bemerkung: Kein Element kann in M mehrfach vorkommen: Per Definition sind die
Elemente wohlunterschieden.
Notation:
(i) x ∈ M ≡ x ist Element von M
(ii) x ∈
/ M ≡ x ist nicht Element von M
28
(iii) M = {x, y, z, . . .}
≡
aufzählende Charakterisierung, d.h. die Elemente werden
explizit aufgeführt (vollständige Aufzählung nur möglich bei endlich vielen Elementen)
(iv) M = {x | x hat die Eigenschaft . . . }
≡
beschreibende Charakterisierung, d.h. die
Elemente werden über ihre Eigenschaften bzw über ihre Zugehörigkeit zu anderen
Mengen definiert
Beispiele: relevant für Physik sind insbesondere
(i) N = {1, 2, 3, . . .} ≡
natürliche Zahlen
−→ manchmal wird auch die Null eingeschlossen (keine einheitliche Handhabung)
(ii) Z = {0, ±1, ±2, . . .} ≡
ganze Zahlen
−→ Notation: i, j, k, l, m, n sind üblicherweise für ganze Zahlen reserviert,
öfters werden aber auch α, β, γ, . . . verwendet
(iii) Q = {
m
| m, n ∈ Z, n 6= 0}
n
≡ rationale Zahlen
(iv) R ≡ reelle Zahlen
−→ keine systematische Einführung über Körperaxiome, Anordnungseigenschaft etc
an dieser Stelle — siehe Mathematik für Physiker
−→ Notation: x, y, z, . . ., aber auch α, β, γ, . . .
(v) R+ := {x | x ∈ R und x > 0}
R+
0 := {x | x ∈ R und x ≥ 0}
≡ positive reelle Zahlen
≡ positive reelle Zahlen einschließlich der Null
−→ Notation nicht einheitlich
(vi) C ≡ komplexe Zahlen (siehe später)
−→ Notation: z, u, w, . . . (z = x + iy)
(vii) R2
≡ Menge der Punkte in der Ebene
allgemeiner: Rn
≡ Menge der n-Tupel von reellen Zahlen
−→ Notation: r, v, . . .
29
Veranschaulichung: durch (Venn-) Diagramme
(i) Reelle Zahlen zwischen a und b (Intervall auf der reellen Achse von a bis b)
-
a
b
(ii) Inneres des Kreis mit Radius R in der Ebene
'$
M
&%
(Der Charakter der Ränder bleibt in beiden Beispielen noch zu spezifizieren)
Definition: Eine Menge M1 heißt Teilmenge der Menge M2 , geschrieben M1 ⊂ M2 ,
falls jedes Element x aus M1 auch Element von M2 ist.
−→ Definition formalisiert: ∀ x ∈ M1 gilt x ∈ M2 (∀ = für alle)
Bemerkung: M1 ⊂ M2 erlaubt M1 = M2
Beispiele:
(i) Inklusionen zwischen elementaren Zahlenmengen
N ⊂ Z ⊂ Q ⊂ R
(ii) Intervalle auf reeller Achse = Menge aller reeller Zahlen zwischen zwei Grenzen
2.1.2
[a, b] = {x ∈ R | a ≤ x ≤ b}
=⇒
[a, b] ⊂ R
(a, b] = {x ∈ R | a < x ≤ b}
=⇒
(a, b] ⊂ R
Mengen von reellen Zahlen: Topologische Eigenschaften
Aufgrund der besonderen Eigenschaften der reellen Zahlen, wie etwa der Möglichkeit, sie
nach ihrer Größe anzuordnen, lassen sich Mengen von reellen Zahlen über eine Reihe von
Begriffen im Detail klassifizieren. Diese Begriffe dienen insbesondere der Charakterisierung
30
von “Rändern” von Mengen, auf die man bei der Differential- und Integralrechnung angewiesen ist.
In den nachfolgenden Definitionen sind alle auftretenden Mengen stets als Teilmengen von
R, M ⊂ R, und alle Elemente etc als Elemente von R zu verstehen.
Definition: Eine Menge M heißt beschränkt, falls ein S existiert, so dass
|x| ≤ S
∀x∈M.
Beispiel: Intervalle [a, b], (a, b] beschränkt, solange a, b < ∞
Definition: Eine Menge M heißt von unten beschränkt, falls ein S existiert, so dass
S≤x
∀x∈M.
Falls eine Menge von unten beschränkt ist, nennt man das größte S mit S ≤ x ∀ x ∈ M
das Infimum von M (Infimum = größte untere Schranke).
Eine Menge M heißt von oben beschränkt, falls ein S existiert, so dass
x≤S
∀x∈M.
Falls eine Menge von oben beschränkt ist, nennt man das kleinste S mit x ≤ S ∀ x ∈ M das
Supremum von M (Supremum = kleinste obere Schranke ≡ Maximum, das selbst nicht
angenommen zu werden braucht).
Beispiel: Die Intervalle [a, b] und (a, b] (a, b < ∞) haben beide das Infimum a und das
Supremum b. Das Beispiel zeigt, dass Infimum und Supremum nicht zur Menge gehören
müssen.
Definition: Eine Menge M ⊂ R heißt offen, falls für jedes x0 ∈ M ein ǫ > 0 existiert, so
dass alle x ∈ R mit
|x − x0 | < ǫ
ebenfalls Elemente von M sind.
Beachte: ǫ darf beliebig klein sein, aber nicht verschwinden.
31
Beispiele:
(i) Intervall (a, b) offen, weil auch bei einem Element x, das nur infinitesimal von a bzw
b entfernt ist, immer noch ein ebenfalls infinitesimales ǫ gefunden werden kann, das
noch kleiner ist als der Abstand von x zum Intervallrand.
(ii) Intervall (a, b] nicht offen, weil für x0 = b alle x aus der Umgebung |x − x0 | < ǫ mit
x > x0 nicht in (a, b] enthalten sind, unabhängig davon, wie klein ǫ gewählt wird.
Definition: Eine offene Menge N ⊂ M heißt offene Umgebung des Punkts x0 ∈ M,
falls x0 ∈ N gilt. Eine beliebige Menge N ⊂ M heißt Umgebung des Punkts x0 ∈ M,
falls eine offene Umgebung D von x0 existiert mit D ⊂ N .
Definition: Die Menge
Uǫ (x0 ) :=
x x ∈ R; |x − x0 | < ǫ; ǫ > 0
(2.1.1)
wird als ǫ-Umgebung von x0 bezeichnet (bzw schlicht als Umgebung).
Definition: Ein Punkt x0 wird Häufungspunkt der Menge M genannt, falls es zu beliebig vorgegebenem ǫ > 0 mindestens ein x ∈ M mit x 6= x0 gibt, so dass |x − x0 | < ǫ gilt,
d.h. falls es in jeder Umgebung von x0 mindestens ein x mit x 6= x0 gibt.
Alternativ: Ein Punkt x0 wird Häufungspunkt der Menge M genannt, falls in jeder Umgebung von x0 unendlich viele x ∈ M liegen.
Beispiel: Alle Zahlen aus [a, b] sind Häufungspunkte von (a, b).
Definition: Eine Menge M heißt abgeschlossen, falls alle ihre Häufungspunkte ebenfalls
Elemente von M sind.
Beispiele:
(i) Intervall (a, b] nicht abgeschlossen, weil die Zahlenfolge a + 1/n, n = 1, 2, 3, . . . (die
selbst ganz in (a, b] liegt), mit wachsendem n gegen den Rand a läuft, d.h. a ist HP
der Folge. a selbst ist aber nicht in (a, b] eingeschlossen.
32
(ii) Intervall [a, b] abgeschlossen, weil keine Zahlenfolge konstruiert werden kann, deren
Glieder zwar alle innerhalb von [a, b] liegen, deren Grenzwert aber außerhalb von [a, b]
liegt.
Definition: Ein Punkt x ∈ M heißt Randpunkt der Teilmenge N ⊂ M, falls in jeder
beliebigen Umgebung von x sowohl Punkte aus N als auch mindestens ein y ∈ M mit y ∈
/N
zu finden ist.
Beispiel: x = b ist Randpunkt sowohl von (a, b] als auch von (a, b).
Definition: Die Menge aller Randpunkte von N ⊂ M heißt Rand von N , ∂N .
Definition: Unter dem Abschluss M der Menge M versteht man die Menge M ∪ ∂M,
M := M ∪ ∂M = M ∪ Menge aller Häufungspunkte von M
Beispiel: Der Abschluss I des offenen Intervalls I = (a, b) von reellen Zahlen ist gerade
das abgeschlossene Intervall I = [a, b].
Bemerkungen:
(i) Die in diesem Abschnitt eingeführten Begriffe sind alle auch auf Mengen von komplexen Zahlen sowie mehrdimensionalen reellen Mengen aus dem Rn anwendbar, bis
auf das Infimum und das Supremum, die explizit auf der Anordnungseigenschaft der
gewöhnlichen reellen Zahlen beruhen.
(ii) Manche dieser (und einige ähnliche) Begriffe sind zwar trivial im Fall von Untermengen
von R, aber nicht mehr ganz so trivial im Fall von C und mehrdimensionalen Räumen.
2.2
Abbildungen
Definition: Eine Vorschrift A, die jedem Element x ∈ D(A) ⊂ M1 eindeutig ein Element
y ∈ B(A) ⊂ M2 zuordnet, heißt Abbildung aus M1 in M2 , geschrieben
A : M1 −→ M2 .
33
Dabei nennt man D(A) den Definitionsbereich von A und
B(A) =
y y = A(x); x ∈ D(A)
die Bildmenge oder den Wertebereich von A.
Veranschaulichung:
...........................................................
.........
...............
.......
..........
......
.......
...................................................................
......
.....
..............
...........
.
.
.
.
.
.
.
.
.
....
........
...
.....
.
.
.
.
.....
.
.
.
.
.
.
......
..
...
.
....
.
.
.
.
.
.
.
.
.
.....
....
..
....
.
.
.
.
.
.
2
.
.
.....
...
.
.
...
.
.
.
.
...
.
.
....
1
..
.
.
.
.
...
.
.
.
.
....
...
...
..
....
.
.
.
...
.
....
..
.
.
.
...
...
.
.
...
.
...
...
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...
.
.
.
.
.
.
.........
...
...
.
.......
.
.
.
.
.
.
.
.
...
.
.
.
.
.
.
.
.
.
.
...
.
...
.....
............
.................... .............................
.
.
....
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..
...
.
.
.
.
.
.
.
.
.
.
.
.
......................................
.....
...
............
.
.
.
.
.
.
.
.
.
..
.
.
.
.
.
...
.
.
..
.
...
.
.
.
.
.
.
.
.
.
...
.
.
...
.
..
.
.
.
.
.
.
.
..
.
.. ...................
.
.
...
.
.
.
.
.
.
.
.
...
.
.
.
.
.
.
.
.
............
..
..
.
.
...
...................
.
.
..
.
..
.
.
.
.
..
.
.
..
.
..
.
.
..
.
.
..
.
.
.
.
.
.
.
.
.
.
.
.
.
..
.
...
..
.
..
.
..
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...
..
...
...
..
...
..
..
..
...
..
..
...
...
..
...
..
...
...
...
..
..
...
..
...
....
...
..
.
..
...
..
....
...
.....
..
..
....
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
....
...
.......
...
..................................
........... ............................
...
...
...
...
...........
....
...
...
...
.....
...
..
...
......
..
...
..
.
......
.
.
....
......
.
...
....
......
...
...
.........
....
...
....
............
....
...
....
............
....
....
....
.
.
.
.............
.
.
.
.
.
.
.
.
.
.
......
...
.........................
......
........
..........................................................
.......
.........
..............
.........
...........................................................
M
M
A
zsy
s
D(A)
B(A)
x
Definitionen:
1. Eine Abbildung A heißt surjektiv, falls B(A) = M2 gilt.
−→ durch Einschränkung von M2 kann stets Surjektivität erzeugt werden
Beispiele: Elementare Funktionen
(i) A(x) = x − 5: A : R −→ R ist wegen D(A) = B(A) = R surjektiv.
(ii) A(x) = x2 : A : R −→ R ist wegen B(A) = R+
0 nicht surjektiv.
+
(iii) A(x) = x2 : A : R −→ R+
0 ist dagegen wegen B(A) = R0 surjektiv.
2. Eine Abbildung A heißt injektiv (eineindeutig), falls für alle x1 , x2 ∈ D(A) aus
A(x1 ) = A(x2 ) gerade x1 = x2 folgt,
A(x1 ) = A(x2 )
=⇒
x1 = x2 .
−→ zwei verschiedene x werden auf zwei verschiedene A(x) abgebildet
x1 6= x2
=⇒
A(x1 ) 6= A(x2 ) .
Aussagenlogik: Falls aus A gerade B folgt, folgt aus Nicht-B gerade Nicht-A.
34
Veranschaulichung:
x s
x s
zsA(x
x s
x s
..........................
.........
.....
...................................................
.....
......
............
......
....
.... ................................................................................................
....
...
........
.
............
...
.
.
.
.
.
...
.
.
.
.
.
.
.
.
.
.
..
.
.
....
.
...
..
.....
2
2
..
..
..
...
...
..
..
...
.
..
.
.
..
.
.
.
.
.
.
...
................. ....
...
.
.
.
.
............................
...
1
..
...
.......................................................................................
1 ..........
...
....
....
....
.....
.
....
....
........
....
.
.
.....
.
.................................
.
........... ...............
...........
..........................
.........
.....
.............................................
.....
......
................
......
....
.......
....
....
....
...
...
.................................................................
.
.
...
.
.
.
.
.
.
.
.
.
.
..
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
....
.
.
.
...
....................
.
.......
2
..
..
...
............
..
..
..
.
...
... ..........
.
..
.
..
1
.
.
.
.
.
.
.
.
.
.
.
...
.
.............................
.
.
.
.
.
...
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...
...
. ...............................................
1
...
..
...
...
...
...
....
2 ..........
....
....
.....
....
....
........
....
.
.
.
.................................
......
.
...................................
z
:sA(x
)
= A(x )
:sA(x
)
)
A injektiv
A nicht injektiv
Beispiele: Elementare Funktionen
(i) A(x) = x − 5: A : R −→ R ist injektiv.
(ii) A(x) = x2 : A : R −→ R ist wegen A(x) = A(−x) nicht injektiv.
+
(iii) A(x) = x2 : A : R+
0 −→ R0 ist dagegen injektiv.
3. Eine Abbildung, die sowohl injektiv als auch surjektiv ist, nennt man bijektiv.
4. Falls A : M1 −→ M2 bijektiv ist, definiert für beliebiges y ∈ M2
A−1 (y) := x
mit
y = A(x)
die Umkehrabbildung A−1 : M2 −→ M1 . Dabei ist D(A−1 ) = B(A) = M2
B(A−1 ) = D(A).
Beachte: A−1 ist hier nicht im Sinne eines Bruches 1/A gemeint, sondern im Sinn von
A rückgängig machen.
Beispiele: Elementare Funktionen
(i) A(x) = x − 5, D(A) = B(A) = R
=⇒ A−1 (y) = y + 5, D(A−1 ) = B(A−1 ) = R
(ii) A(x) = x2 mit D(A) = B(A) = R+
0
√
=⇒ A−1 (y) = y, D(A−1 ) = B(A−1 ) = R+
0
5. Für zwei gegebene Abbildungen
A : M1 −→ M2
und
B : M2 −→ M3
mit
definiert
(A ◦ B)(x) := B(A(x))
35
∀ x ∈ D(A)
B(A) ⊂ D(B)
die Hintereinanderschaltung (auch Produkt genannt) von A und B,
A ◦ B : M1 −→ M3
Beachte: Produkt ist hier nicht(!) im Sinne der gewöhnlichen Multiplikation von Zahlen
gemeint, sondern im Sinne von nacheinander ausführen.
Beispiel: A(x) = x2 , B(y) = ey ,
D(A) = R,
B(A) = R+
0 (positive reelle Zahlen
einschließlich der Null), d.h. B(A) ⊂ D(B) = R
=⇒ (A ◦ B)(x) = ex
2
6. Die Hintereinanderschaltung von A und A−1 ergibt gerade die Identität,
A−1 (A(x)) = x
Beispiel: A(x) = x2 , A−1 (y) =
=⇒ A−1 (A(x)) = x
2.3
√
y
∀ x ∈ D(A)
mit D(A) = B(A) = D(A−1 ) = B(A−1 ) = R+
0
∀ x ∈ D(A)
Endliche Summen, Bernoulli’sche Ungleichung
Für die praktische Arbeit sind zwei Resultate für elementare Summenformeln von einiger
Bedeutung. Für die einfachste Summe über natürliche Zahlen erhält man
n
X
k = 1 + 2 + 3 + ...+ n =
k=1
n(n + 1)
2
n = 1, 2, 3, . . . .
(2.3.1)
Beweis über vollständige Induktion: Bei der Beweistechnik der vollständigen Induktion,
die auch in der Physik gelegentlich zum Einsatz kommt, überzeugt man sich zunächst, dass
eine behauptete Formel, die von einem Index n ∈ N abhängt, für den niedrigsten relevanten
Wert des Index korrekt ist, hier
n=1:
n=2:
1
X
k=1
2
X
k=1=
1(1 + 1)
2
k=3=
2(2 + 1)
.
2
k=1
Dies bezeichnet man als die Induktionsbasis. Wenn es nun gelingt, unter Verwendung der
behaupteten Formel für den Indexwert n die Richtigkeit derselben Formel für den Indexwert
36
n + 1 zu beweisen, kann man, ausgehend von der Induktionsbasis, die Richtigkeit der Formel
Schritt für Schritt für jeden beliebigen Indexwert n ∈ N zeigen. Im Fall von Gl.(2.3.1) ist
dieser Induktionsschluss sehr einfach durchzuführen. Man betrachtet dazu die Summe (2.3.1)
für den Indexwert n + 1 und zerlegt diese in zwei Teile,
n+1
X
n
X
k =
k + (n + 1) .
k=1
k=1
Nun kann (2.3.1) für den ersten Term auf der rechten Seite verwendet, werden, denn wir
hatten ja vorausgesetzt, dass (2.3.1) bis zum Indexwert n bereits bewiesen wurde,
n+1
X
k =
k=1
n(n + 1)
(n + 1)(n + 2)
+ (n + 1) =
.
2
2
Damit ist gezeigt, dass (2.3.1) auch für den Indexwert n + 1 gilt, und damit für alle n.
Die zweite wichtige Summenformel ist die Binomialformel,
n
X
(a + b)n =
n
k
k=0
Dabei bezeichnet
n
k
!
!
ak bn−k
n = 0, 1, 2, . . . .
(2.3.2)
den Binomialkoeffizienten,
!
n
k
n!
,
k! (n − k)!
:=
(2.3.3)
der seinerseits über die Fakultät definiert ist,
n! := 1 · 2 · 3 · · · n ≡
n
Y
i
;
0! := 1 (Konvention) .
i=1
Beweis: wieder über vollständige Induktion
Induktionsbasis:
n=0:
0
0
(a + b) = 1 =
0
n=1:
(a + b)1 =
1
0
!
!
a0 b0 =
a0 b1 +
1
1
37
0!
0! (0 − 0)!
!
a1 b0 =
1!
1!
b+
a.
0! (1 − 0)!
1! (1 − 1)!
(2.3.4)
Induktionsschluss:
(a + b)n+1 = (a + b)(a + b)n
n
X
n!
= (a + b)
ak bn−k
k!
(n
−
k)!
k=0
=
=
n
X
k=0
n−1
X
k=0
n
X
n!
n!
k+1 n−k
a
b
+
ak bn−k+1
k! (n − k)!
k!
(n
−
k)!
k=0
n
X
n!
n!
ak+1 bn−k + an+1 + bn+1 +
ak bn−k+1 .
k! (n − k)!
k!
(n
−
k)!
k=1
Nun kann im ersten Summanden der Summationsindex umbenannt werden: Der Summationsindex läuft ja schlicht eine Reihe von natürlichen Zahlen durch, d.h. er steht als Platzhalter für diese Zahlen. Diesen Platzhalter kann man also jederzeit anders ausdrücken, solange
exakt die gleichen natürlichen Zahlen durchgegangen werden. Hier erweist sich die Form
l = k + 1 als besonders geeignet. Der Index l läuft dann von 1 (entsprechend dem niedrigsten Wert für k, nämlich 0) bis n (entsprechend k = n − 1),
(a + b)
n+1
=
n
X
l=1
n!
al bn−(l−1) + an+1
(l − 1)! (n − (l − 1))!
n+1
+b
+
n
X
k=1
n!
ak bn−k+1 .
k! (n − k)!
Der Name des Summationsindex ist aber völlig unerheblich, man kann statt l jetzt einfach
wieder k schreiben und die beiden Summen zusammenfassen (die Operation l = k+1 plus die
Umbenennung k = l entsprechen zusammen gerade dem Verschieben des Summationsindex
k um 1, d.h. der Operation k → k − 1 ⇔ kalt = kneu − 1),
(a + b)
n+1
n+1
= a
+
n X
k=1
= an+1 +
= an+1 +
n
X
k=1
n
X
k=1
=
n+1
X
k=0
n!
n!
ak bn+1−k + bn+1
+
(k − 1)! (n + 1 − k)! k! (n − k)!
n!
[k + (n + 1 − k)] ak bn−k+1 + bn+1
k! (n + 1 − k)!
(n + 1)!
ak bn−k+1 + bn+1
k! (n + 1 − k)!
(n + 1)!
ak bn−k+1 .
k! (n + 1 − k)!
Damit ist die Binomialformel (2.3.2) für alle n bewiesen.
38
Eine weitere wichtige Anwendung der vollständigen Induktion ist der Beweis der Bernoulli’schen Ungleichung,
(1 + x)n ≥ 1 + nx
∀ x ≥ −1, n = 0, 1, 2, . . . .
(2.3.5)
Die Bernoulli’sche Ungleichung stellt eine wichtige Abschätzung für die Führung von Beweisen und die Bildung von Grenzwerten bereit — Beispiele folgen später.
Beweis: Offensichtlich gilt diese Ungleichung für n = 0, 1, 2 für beliebiges x ∈ R,
(1 + x)0 ≥ 1
(1 + x)1 ≥ 1 + x
(1 + x)2 = 1 + 2x + x2 ≥ 1 + 2x ,
so dass die Induktionsbasis gegeben ist. Unter der Annahme (1 + x)n ≥ (1 + nx) für x ≥ −1
betrachtet man dann (1 + x)n+1 . Sofern x ≥ −1 gilt, erhält man durch Verwendung der
Induktionsannahme1 ,
(1 + x)n+1 = (1 + x) (1 + x)n ≥ (1 + x) (1 + nx) = 1 + (n + 1)x + nx2 ≥ 1 + (n + 1)x ,
so dass der Induktionschluss ebenfalls möglich ist.
Man beachte, dass die Bernoulli’sche Abschätzung für beliebige x ≥ −1 gilt, also etwa auch
für x = y/n,
y n
1+
≥ 1+y
n
∀ y ≥ −n .
(2.3.6)
Für beliebig großes, negatives y findet man aber stets ein n, so dass (2.3.6) erfüllt ist.
2.4
Folgen
Definition: Unter einer (reellen) Folge versteht man eine Zuordnung (präziser: Abbildung)
a: N → R
1
(sprich: Abbildung von N in R) ,
Aus a > b folgt α a > α b nur für α > 0.
39
d.h. eine Vorschrift, die jedem n ∈ N ein a(n) ≡ an ∈ R zuordnet:


n
0 1 2 3 ··· 


definiert Folge
↓ ↓ ↓ ↓



an
a0 a1 a2 a3 · · · 
Bemerkungen:
(i) Der Index 0, d.h. a0 , wird häufig weggelassen: Der Startindex ist irrelevant, solange
abzählbar unendlich viele Glieder durchgegangen werden.
(ii) Die gesamte Folge, d.h. die Menge aller an , wird häufig über (an ) charakterisiert.
Beispiele:
1 1 1
1
(i) 1, , , , . . . =⇒ allgemeine Form: , n = 1, 2, 3, . . .
2 3 4
n
1 1 1
(−1)n+1
(ii) 1, − , , − , . . . =⇒ allgemeine Form:
, n = 1, 2, 3, . . .
2 3 4
n
(iii) 2, 4, 8, 16, . . . =⇒ allgemeine Form: 2n , n = 1, 2, 3, . . .
1 2 3 4
1
n
(iv) 0, , − , , − , . . . =⇒ allgemeine Form: (−1) 1 −
, n = 1, 2, 3, . . .
2 3 4 5
n
(v) 1, x, x2 , x3 , . . . mit |x| < 1 =⇒ allgemeine Form: xn , n = 0, 1, 2, 3, . . .
(vi) 1, x,
x2 x3 x4
xn
, , , . . . =⇒ allgemeine Form:
, n = 0, 1, 2, 3, . . .
2 6 24
n!
Graphische Veranschaulichung der Beispielfolgen:
an
1 6 +er
×
+r
×
r
e
+
×
1 2 ···
e
r
r
e
r
r
e
r
+ + + + +
e
e
e
r
e
r
e
r
e
×
×
×
×
40
1
n
(−1)n+1
e =
n ×
×
×
×
r
×
r
e
=
× = (−1)
n
+=
1
n!
n
1
1−
n
Bemerkung: häufig wird rekursive Definition von Folgen verwendet, etwa bei Fakultät
an = n an−1 mit a0 = 1
=⇒
a1 = 1 · a0 = 1
a2 = 2 · a1 = 2 · 1
a3 = 3 · a2 = 3 · 2 = 6
..
.
Frage: Was ist an Folgen interessant?
−→ Verhalten der Glieder an für große n
−→ stelle Instrumentarium zur Diskussion zusammen
−→ Folgen bilden Grundbausteine zur Diskussion von Reihen, die für Physik von
fundamentaler Bedeutung sind
Definition: Eine Folge (an ) heißt beschränkt, falls ein S ∈ R existiert, so dass
|an | < S
∀ n = 0, 1, 2, . . . .
Sie heißt nach unten beschränkt, falls ein S ∈ R existiert, so dass
an > S
∀ n = 0, 1, 2, . . . ,
nach oben beschränkt, falls
an < S
∀ n = 0, 1, 2, . . . .
Beispiele: Folgen von oben
(i) offensichtlich beschränkt
(ii) offensichtlich beschränkt
(iii) nach unten beschränkt, aber nicht beschränkt
(iv) offensichtlich beschränkt
(v) beschränkt wegen |x| < 1: |an+1 | < |an |
(vi) beschränkt (siehe unten bei Diskussion des Häufungspunkts)
41
(2.4.1)
Definition: Ein Punkt x0 ∈ R heißt Häufungspunkt einer Folge (an ), falls zu beliebig
vorgegebenem ǫ > 0 und beliebigem n0 ∈ N stets ein n > n0 existiert, so dass
|an − x0 | < ǫ ,
d.h. falls in jeder beliebigen Umgebung von x0 unendlich viele an liegen.
Beachte: Diese Anforderung bedeutet nicht unbedingt, dass von einem gewissen Index an
alle an in der Umgebung liegen müssen!
Beispiele: von oben
(i) ein HP: x0 = 0
an
1 6 r
r
+ 92
0
− 29
1
2
r
6
ǫ
?
6
ǫ
?
r
r
r
r
r
r
r
r
r
-
n
−→ ab n = 5 liegen alle Folgenglieder von 1/n innerhalb eines Streifens von ±ǫ,
ǫ = 2/9 um die Null
−→ falls ǫ kleiner gewählt wird, liegt der Schwellindex, jenseits dessen alle
Folgenglieder in den Streifen ±ǫ fallen, entsprechend höher
(ii) ein HP: x0 = 0
(iii) kein HP
(iv) zwei HP: x0 = ±1
1
n
1
1
=⇒ |an + 1| =
ungerade n: an = −1 +
n
n
−→ sowohl für x0 = +1 als auch für x0 = −1 gibt es unendlich viele Folgenglieder,
gerade n:
an = 1 −
1
n
=⇒ |an − 1| =
die näher an x0 liegen als ǫ, nämlich alle geraden n mit n > 1/ǫ im Fall von
x0 = +1 und alle ungeraden n mit n > 1/ǫ für x0 = −1
42
(v) ein HP: x0 = 0
Beweis: zu zeigen ist |xn | = |x|n < ǫ für ausreichend großes n
−→ ist dann erfüllt, wenn
ln (|x|n ) = n ln |x| < ln(ǫ)
(beachte: ln(x) ist streng monoton: x1 < x2 ⇐⇒ ln(x1 ) < ln(x2 ))
−→ Bedingung für HP erfüllt, sobald
n >
ln(ǫ)
ln |x|
(Vorzeichen der Ungleichung kehrt sich um, weil |x| < 1 und damit ln |x| < 0 gilt)
(vi) ein HP: x0 = 0
Beweis: n0 sei die kleinste ganze Zahl, für die n0 > |x| gilt (n0 hängt allein von x ab,
nicht aber von ǫ)
−→ dann folgt für alle n > n0 und beliebiges, aber festes x
n
x x x x
x x
x =
n n − 1 · · · n0 + 1 n0 · · · 2
n! 1 |{z}
|
|
{z
}
{z
}
x
x
=: K
< < < 1
n0
n0
−n0 n
x
x
< K n n0
| {z } 0
=: K ′
N
n
x
x < ǫ
< ǫ
für alle n > N mit
=⇒
n0 n! K′
da |x/n0 | < 1, wird N für beliebiges x irgendwann erreicht
Definition: Ein Punkt x0 ∈ R heißt Grenzwert einer Folge (an ), falls zu beliebig vorgegebenem ǫ > 0 stets ein n0 (ǫ, x0 ) existiert, so dass
|an − x0 | < ǫ
∀ n > n0 (ǫ, x0 ) .
Man schreibt dann
x0 = lim an
n→∞
oder auch
43
n→∞
an −→ x0 .
Definition: Eine Folge, die einen Grenzwert besitzt, heißt konvergent. Eine nicht konvergente Folge heißt divergent.
Beispiele: von oben
(i) Grenzwert x0 = 0
(ii) Grenzwert x0 = 0
(iii) divergent: Eine konvergent Folge besitzt nur einen Häufungspunkt.
(iv) divergent
(v) Grenzwert x0 = 0
(vi) Grenzwert x0 = 0
Satz: Jede Folge, deren Glieder beschränkt und monoton fallend sind,
|an | ≤ S
an+1 ≤ an
und
∀ n = 1, 2, . . . ,
ist konvergent. Das Gleiche gilt für monoton wachsende an .
an
+S 6 r
1
−S
r
2
r
r
r
r
r
r
r
r
an ≥ an+1
r
n
r
Bemerkung: Offensichtlich reicht es, wenn die Folge ab einem gewissen Index n0 monoton
fallend bzw wachsend ist.
44
Eigenschaften konvergenter Folgen: Falls die Folgen (an ) und (bn ) beide konvergent
sind, lim an = x0 und lim bn = y0 , gilt
n→∞
n→∞
lim (an + bn ) = x0 + y0
(2.4.2)
lim (an · bn ) = x0 · y0
an
x0
lim
=
n→∞
bn
y0
lim |an | = |x0 |
(2.4.3)
n→∞
n→∞
falls y0 6= 0
n→∞
(2.4.4)
(2.4.5)
−→ mit konvergenten Folgen kann man wie mit gewöhnlichen Zahlen rechnen
Definition: Eine Folge (an ) heißt Cauchy-Folge, falls zu beliebig vorgegebenem ǫ > 0
ein n0 (ǫ) existiert, so dass
|an − am | < ǫ
−→
∀ n, m > n0 (ǫ) .
(2.4.6)
die Folgenglieder müssen sich paarweise beliebig nahe kommen, wenn nur ihr Index
groß genug ist
Satz: Cauchy’sches Konvergenzkriterium Eine Folge (an ) ist genau dann konvergent,
wenn sie Cauchy-Folge ist.
2.5
Reihen
Definition: Für eine gegebene Folge (an ) nennt man
∞
X
an = a0 + a1 + a2 + a3 + . . .
(2.5.1)
n=0
eine unendliche Reihe. Dabei bezeichnet man
Sn :=
n
X
k=0
als die n-te Partialsumme der Reihe.
45
ak
(2.5.2)
Bemerkungen:
(i) Der Name des Summationsindex ist völlig unerheblich, wie man an der Definition
(2.5.1) sieht:
∞
X
an =
n=0
∞
X
ai
i=0
(ii) Der Beginn der Reihe mit n = 0 ist reine Konvention, man kann genauso gut mit dem
Index n = 1 starten (und tut das auch öfters).
−→ wird im weiteren je nach Situation so oder so gewählt
Definition: Die Reihe
konvergiert. Man nennt
∞
X
an heißt konvergent, wenn die Folge ihrer Partialsummen (Sn )
n=0
S = lim Sn = lim
n→∞
n→∞
n
X
ak
(2.5.3)
k=0
den Wert der Reihe. Eine Reihe, die nicht konvergiert, heißt divergent.
Beispiele: Reihen gebildet aus den Folgen von oben
∞
X
1
(harmonische Reihe)
(i)
n
n=1
−→
divergent
Beweis: betrachte Partialsumme für den Index 2n und fasse geeignete Gruppen von
Termen zusammen
n
S2n =
2
X
1
k=1
k
n=3
}|
{
z
n=2
z
}|
{
n=1
z }| {
1
1 1 1 1
1
1
1 1
1
= 1+ +
+ + + + +...+ i
+
+ . . . + i+1 + . . . + n
2
2 }
2
|3 {z 4}
|5 6 {z 7 8}
|2 + 1 {z
1
1
1
1
1
1
>2· =
>4· =
> 2i · i+1 =
4
2
8
2
2
2
n
> 1+
2
=⇒
lim S2n = ∞
n→∞
46
(ii)
∞
X
(−1)n+1
n
n=1
(alternierende harmonische Reihe)
−→
konvergent
Beweis: betrachte Teilfolge der Partialsummen für ungerades n
S2n+1 =
=
=
=⇒
S2n+1 >
S2n+3 =
2n+1
X
(−1)k+1
k
k=1
1
1
1 1
1
1
1−
+
+...+
+
−
−
2
3 4
2n − 1 2n
2n + 1
{z
}
| {z } | {z }
|
2−1
4−3
2n − (2n − 1)
=
=
=
1·2
3·4
(2n − 1) · 2n
1
1
1
1
+
+ ...+
+
1·2 3·4
(2n − 1)2n 2n + 1
0
1
1
S2n+1 −
+
< S2n+1
2n + 2 2n + 3
−→ die Teilfolge der S2n+1 ist monoton fallend und beschränkt und damit konvergent
−→ analoge Argumentation ist für Teilfolge S2n möglich
−→ außerdem haben beide Teilfolgen denselben Grenzwert
1
= lim S2n
lim S2n+1 = lim S2n +
n→∞
n→∞
n→∞
2n + 1
(iii)
∞
X
2n
n=0
(iv)
∞
X
n=1
(v)
∞
X
n=0
(−1)
−→
n
divergent
1
1−
n
−→
divergent (die Sn bilden keine Cauchy-Folge)
xn mit |x| < 1 (geometrische Reihe)
−→
konvergent
Beweis: betrachte Partialsumme
Sn =
n
X
xk
k=1
= 1 + x + x2 + . . . + xn
(1 + x + x2 + . . . + xn )(1 − x)
=
1−x
1 − x + x(1 − x) + x2 (1 − x) + . . . + xn (1 − x)
=
1−x
1 − xn+1
=
1−x
47
−→ Grenzwert der Sn klar
∞
X
1
1 − xn+1
=
xn = lim
n→∞ 1 − x
1−x
n=0
wegen |x| < 1
(2.5.4)
Frage: Was ist mit x = ±1?
x = +1 : Sn =
n
X
1=n+1
k=0
lim Sn = ∞

n
 1 falls n gerade
X
k
=
(−1) =
 0 falls n ungerade
k=0
=⇒
x = −1 : Sn
=⇒
(vi)
∞
X
xn
n=0
n!
(Exponentialreihe)
−→
n→∞
Folge der Sn beschränkt, hat aber zwei HP’s
konvergent (Beweis später)
Satz: Cauchy’sches Konvergenzkriterium für Reihen Die Reihe
∞
X
an ist genau
n=0
dann konvergent, wenn zu beliebig vorgegebenem ǫ > 0 ein n0 (ǫ) existiert, so dass
n
X
∀ n, m > n0 (ǫ)
(m < n oBdA) .
a
k < ǫ
k=m+1
| {z }
= Sn − Sm
(2.5.5)
Beweis: folgt unmittelbar aus dem Cauchy’schen Konvergenzkriterium für Folgen
Satz: Leibniz’sches Konvergenzkriterium für Reihen Die Reihe
∞
X
(−1)n an
n=0
ist konvergent, falls für die Glieder an gilt
an ≥ 0 ;
an+1 ≤ an
∀ n > n0
sowie
lim an = 0 .
n→∞
(2.5.6)
Beweis: analog zum Vorgehen bei Beispiel (ii) oben.
Definition: Die Reihe
konvergiert.
−→
∞
X
an heißt absolut konvergent, wenn auch die Reihe
n=0
∞
X
n=0
|an |
jede absolut konvergente Reihe ist auch gewöhnlich konvergent, das Umgekehrte gilt
natürlich nicht (siehe Bsp (ii) von oben)
48
Zentrale Frage: Wie kann man Konvergenz feststellen?
Antwort: durch Überprüfung von drei Standard-Konvergenzkriterien (für Beweise siehe Mathematik für Physiker)
Satz: Majoranten-Kriterium Falls die Reihe
|an | ≤ bn ∀ n > n0 gilt, ist
∞
X
∞
X
n=0
bn mit bn ≥ 0 ∀ n konvergent ist und
an absolut konvergent.
n=0
Satz: Wurzel-Kriterium Falls |an |
1/n
≤ x < 1 ∀ n > n0 gilt, ist
gent.
∞
X
an absolut konver-
n=0
∞
X
an+1 ≤ x < 1 ∀ n > n0 gilt, ist
Satz: Quotienten-Kriterium Falls an absolut
an n=0
konvergent.
In anderen Worten:

lim sup |an |1/n = x < 1 

n→∞ absolute Konvergenz der Reihe
(2.5.7)
an+1 =x<1 

lim sup an n→∞
↑
lim sup = limes superior = größter Häufungspunkt einer nach oben beschränkten Folge
(falls Folge der an konvergent: lim sup = lim)

lim sup |an |1/n = 1 

n→∞ im allgemeinen keine Aussage
an+1 ≥1 

lim sup an n→∞

lim sup |an |1/n > 1 

n→∞ Divergenz der Reihe
an+1 >1 

lim inf n→∞
an ↑
lim inf = limes inferior = kleinster Häufungspunkt einer nach unten beschränkten Folge
(falls Folge der an konvergent: lim inf = lim)
49
6
an
r
r
r
r
r
r
r
lim sup
r
r
1
r
r
r
r
r
lim inf
-
n
2 ···
Nebenbemerkung: Die Reihe
an

1

 2 falls n gerade
n
=

 1 falls n ungerade
n3
ist Beispiel für Problematik von lim supn→∞ | an+1
| > 1: Reihe konvergiert, lim sup ist ∞.
an
∞
X
|
existiert:
Die
Reihe
an ist dann absolut
Die Situation ist einfacher, falls limn→∞ | an+1
an
n=0
konvergent, falls
an+1 =x<1
lim
n→∞ an gilt, und divergent falls
an+1 >1
lim
n→∞ an ist. Für
an+1 =1
lim
n→∞ an lässt sich wieder keine Aussage treffen.
Beispiele: Reihen gebildet aus den Folgen von oben
(ii) Quotientenkriterium:
∞
X
(−1)n+1
n=0
n
:
an+1 = lim n
lim = 1
n→∞ n + 1
n→∞
an −→ nicht absolut konvergent (wie bereits klar)
50
(v) Quotientenkriterium:
∞
X
n=0
n+1 an+1 = lim x = |x| < 1
lim n→∞
n→∞
an
xn n
x mit |x| < 1 :
−→ absolut konvergent (wie bereits klar)
(vi) Quotientenkriterium:
∞
X
xn
n=0
n!
an+1 n! xn+1 |x|
= lim
= lim
lim = 0
n
n→∞ (n + 1)!
n→∞ n + 1
n→∞
an
x
:
−→ Exponentialreihe absolut konvergent
Frage: Welche Vorteile hat die “bessere” Konvergenz bei absolut konvergent Reihen?
Antwort: Bei absolut konvergenten Reihen ist eine beliebige Umordnung legitim
Satz: Falls
∞
X
an absolut konvergent ist, ist auch jede aus der Vertauschung der an
n=0
resultierende Reihe absolut konvergent und hat denselben Reihenwert.
−→ erlaubt starke Aussage zum Produkt von zwei absolut konvergenten Reihen
−→ offensichtliche Frage beim Produkt:
"
# "
#
∞
∞
M
N
X
X
X
X
bn =
lim
am
am
lim
bn
M →∞
n=0
m=0
?
=
=
lim
m=0
"M N
XX
M,N →∞
∞ X
∞
X
N →∞
am bn
m=0 n=0
n=0
#
am bn
m=0 n=0
Satz: Umordnung von Reihen Falls für das doppelt unendliche Schema (Amn ) eine
Schranke S ≥ 0 existiert, so dass für beliebiges N ∈ N
N
N X
X
m=0 n=0
ist, dann gilt:
|Amn | < S
(a) Jede Anordnung des Schemas in eine einfache Reihe ist absolut konvergent mit stets
dem gleichen Reihenwert. Insbesondere gilt
"∞
#
" ∞
#
" n
#
∞
∞
∞
X
X
X
X
X
X
Amn =
Amn =
Ak,n−k
m=0
n=0
n=0
m=0
51
n=0
k=0
(2.5.8)
(b) Die aus nur einem der beiden Indices gebildeten Reihen
∞
X
Amn und
∞
X
Amn sind
n=0
m=0
beide für jeden beliebigen Wert des jeweils anderen Index absolut konvergent.
Konsequenz aus Umordnungssatz: Das Produkt zweier absolut konvergenter Reihen
∞
∞
X
X
an und
bn ist absolut konvergent, die Aufsummation der einzelnen Glieder des
n=0
n=0
Produktreihe liefert in jeder beliebigen Abfolge stets denselben Reihenwert. Insbesondere
gilt:
"
∞
X
m=0
am
#" ∞
X
bn
n=0
#
=
∞
X
am bn =
"∞
∞
X
X
n=0
m,n=0
an bk
k=0
#
=
" n
∞
X
X
n=0
ak bn−k
k=0
#
(2.5.9)
Zur Entkopplung der beiden Summationen in (2.5.9) betrachte die Menge aller Paare an bk
— in der Doppelreihe müssen letztlich alle Paare durchgegangen und aufsummiert werden
−→ die Menge aller Paare an bk kann aber auf verschiedene Weise durchgegangen werden:
b
b
6k
6k
6
w
6
w
6
w
6
w
6
w
6
w
6
w
6
w
6
w
a0 b2
a0 b1
a0 b0
6
w
6
w
6
w
C
C
6
w
C
C
C 6
C 6
C w
C w
CWC a1 b1 CWC
C
C
C6
C6
Cw
Cw
a1 b0
w
6
w
C
C
C
w
C
6
C w
CWC
C
C6
Cw
C
C
w
C w
CWC
C
C
Cw
an
-
w
w
w
w
w
@
S
S@
R
@
S@
a2 b3
w S@w
w
w
w
J
@
S@
J@
R S @
@
R
@
J@
S @
w J @w SS
w
w
o @w
A@
J @ S @
A@
@
R JJ
@
] @
RS
@
R
@
A @ J @ S
@
w AAK @wJ
w
@w
S
@w
@ A @J
@S
@
@
@
@
S
@
RA
RJ
@
R
@
R
@
6@
@A
@J
@S
@
w
@Aw
@
Jw
@
Sw
@w
a0 b0
an
-
a1 b0
(jeder Punkt entspricht einem Term an bk , der Pfad zeigt die Abfolge der Aufsummation an)
Beispiel: Exponentialfunktion
Betrachte die absolut konvergente Reihe
exp(x) :=
∞
X
xn
n=0
52
n!
,
(2.5.10)
die als Exponentialfunktion bezeichnet wird. Für das Produkt dieser Reihe mit sich selbst
gilt gemäß (2.5.9)
∞
∞
∞ X
n
X
X
xk y n−k
xm X y n
=
m! n=0 n!
k! (n − k)!
m=0
n=0 k=0
Die rechte Seite kann nun über den Binomialkoeffizienten (2.3.3) ausgedrückt werden
∞
∞
∞
n
X
X
1 X
xm X y n
=
m! n=0 n!
n! k=0
n=0
m=0
|
n
k
!
xk y n−k
{z
= (x + y)n
Unter Verwendung der Binomialformel (2.3.2) erhält man also
=⇒
}
∞
∞
∞
X
X
(x + y)n
xm X y n
=
m! n=0 n!
n!
n=0
m=0
exp(x) exp(y) = exp(x + y) .
(2.5.11)
Das entspricht gerade der bekannten Funktionalgleichung für Potenzen wie ex .
Frage also: Was hat exp(x) mit ex zu tun?
Antwort: Die Reihe ist mit der e-Funktion identisch,
ex ≡ exp(x) =
∞
X
xn
n=0
n!
.
(2.5.12)
Beweis: Aufgrund der Funktionalgleichung (2.5.11) genügt es, die Identität (2.5.12) für
x > 0 zu beweisen,
exp(−|x|) =
1
exp(|x|)
(für x = 0 ist (2.5.12) trivialerweise erfüllt). Darüber hinaus ist die Potenz einer reellen Zahl
bislang nur für rationale Exponenten, d.h. für x = l/m, m, l ∈ N (m, l > 0), definiert,
l
am =
√
m
al
;
b =
√
m
a
⇐⇒
bm = a ,
(2.5.13)
so dass sich der Beweis of solche x beschränken kann.
Zum Beweis von (2.5.12) für rationale x > 0 untersucht man zunächst die Folge
an
x n
:= 1 +
n
n = 0, 1, 2, . . . .
53
(2.5.14)
Mit Hilfe der Binomialformel erhält man
n
x k
X
n!
an =
1n−k
k! (n − k)! n
k=0
n
X
(n − k + 1)
xk n (n − 1) (n − 2)
.
···
= 1+x+
k!
n
n
n
n
k=2
(2.5.15)
Für den Ausdruck in der eckigen Klammer kann nun die Ungleichung
(n − 1)(n − 2) · · · (n − k) =
k
k
X
Y
l
(n − l) ≥ nk − nk−1
(0 < k < n) (2.5.16)
l=1
l=1
bewiesen werden. Dazu wird vollständige Induktion bezüglich k verwendet. Für die niedrigsten k überzeugt man sich direkt von der Richtigkeit der Behauptung (2.5.16),
(n − 1) = n −
k=1:
1
X
l
l=1
2
2
(n − 1)(n − 2) = n − 3n + 2 > n − n
k=2:
2
X
l.
l=1
Auf diese Induktionsbasis folgt jetzt der Induktionsschluss. Wir nehmen an, dass (2.5.16)
für k erfüllt ist, und beweisen seine Gültigkeit für k + 1 (unter der Voraussetzung, dass auch
k + 1 < n ist)
k+1
Y
l=1
(n − l) = (n − (k + 1))
k
Y
l=1
"
(n − l)
≥ (n − (k + 1)) nk − nk−1
k+1
= n
k+1
≥ n
k
−n
k
−n
k+1
X
l
l=1
k−1
l + (k + 1)n
#
k
X
l
l=1
l=1
k+1
X
k
X
l.
l=1
Damit ist (2.5.16) bewiesen. Weil offensichtlich gleichzeitig die Ungleichung
(n − 1)(n − 2) · · · (n − k) < nk
(0 < k < n)
gilt, erhält man für die an , Gl.(2.5.15),
n
n
X
X
xk
xk (n − 1) (n − 2)
(n − k + 1)
an −
=
···
−1
k!
k!
n
n
n
|
{z
}
k=0
k=2
<1
=⇒
0 > an −
n
X
xk
k=0
n
k−1
1 X xk X
l.
≥ −
k!
n k=2 k! l=1
54
Mit
Pk−1
l=1
l = k(k − 1)/2 wird daraus
n
n
n
X
k
k
2 X
k
X
x
x
1
x
x
0 < an −
≤
=
.
k!
2n
(k
−
2)!
2n
k!
k=2
k=0
k=0
Die Folge bn =
Pn
k=0
xk /k! ist aber bekanntlich absolut konvergent. Daher können entspre-
chend eines früher diskutierten Satzes die einzelnen Grenzwerte getrennt ausgeführt werden,
n
n
X xk x2 X xk x2
lim
lim = lim
= 0,
n→∞ 2n n→∞ 2n n→∞ k! k! k=0
k=0
und man erhält schließlich
lim an = lim
n→∞
n→∞
∞
X
xk
x n
.
=
1+
n
k!
(2.5.17)
k=0
Nun bleibt noch der Zusammenhang der Folge (an ) mit der Zahl e herzustellen. Per
Definition ist e gegeben durch
n
1
e := lim 1 +
.
n→∞
n
(2.5.18)
Die Existenz dieses Grenzwerts haben wir gerade bewiesen. Der Grenzwert in (2.5.18) kann
aber auch noch in allgemeinerer Form aufgeschrieben werden. Offensichtlich spielt es keine
Rolle, wenn n noch mit einer zweiten natürlichen Zahl m > 0 multipliziert wird, dadurch
spingt der Index der Folgenglieder nur in Schritten von m gegen unendlichen,
n
n·m
1
1
= lim 1 +
.
lim 1 +
n→∞
n→∞
n
n·m
Aber auch die Division von n durch eine natürliche Zahl l > 0 ändert an der Grenzwertbildung nichts: Der Grenzwert (2.5.18) wird ebenso erreicht, wenn n nicht alle natürlichen
Zahlen durchläuft, sondern nur die Vielfachen von l. Nach Division durch l ist man dann
gerade wieder bei der alten Abfolge von Einerschritten,
n·m
n
l
1
1
lim 1 +
.
= lim 1 + n·m
n→∞
n→∞
n
l
(2.5.19)
Die rechte Form der Folgenglieder lässt sich verwenden, um (1 + x/n)n in Form einer Potenz
mit Exponent x auszudrücken,
1+
l
m
n
!n
"
#( ml )
n·m
l
1
=
1 + n·m
.
l
55
Für jede rationale Zahl x = l/m gilt daher
#x
"
n·m
l
x n
1
lim 1 +
1 + n·m
= lim
= ex .
n→∞
n→∞
n
l
(2.5.20)
Für irrationale x schließlich bleibt die Potenz noch zu definieren (siehe später).
Wichtige Eigenschaften der Exponentialfunktion folgen unmittelbar aus der Definition (2.5.10) und der Funktionalgleichung (2.5.11):
• Trivialerweise gilt
exp(0) = 1 .
(2.5.21)
• Bereits im obigen Beweis verwendet wurde die Funktionalgleichung (2.5.11) für y =
−x,
1 = exp(0) = exp(x − x) = exp(x) exp(−x)
1
=⇒
exp(−x) =
∀x∈R.
exp(x)
(2.5.22)
(2.5.23)
• Eine direkte Konsequenz aus der Definition (2.5.10) (für positive x) sowie (2.5.22) (für
negative x) ist
exp(x) > 0
∀x∈R.
(2.5.24)
• Per Definition (2.5.10) gilt für positive x
exp(x) ≥ 1 + x
∀ x ∈ [0, ∞) ,
da alle höheren Terme der Reihe (2.5.10) positiv beitragen.
Diese Abschätzung lässt sich mit Hilfe der Bernoulli’schen Ungleichung auf beliebige
x ausdehnen. Zunächst gilt (2.3.6),
x n
1+
≥ 1+x
n
∀ x ≥ −n ,
d.h. die Ungleichung gilt für beliebiges n ∈ N, sofern x ≥ −1 ist2 , bzw für alle n > |x|
für beliebig negatives, aber gegebenes x. Damit gilt sie aber insbesondere auch für
2
exp(x) ist gemäß (2.5.24) immer positiv und damit natürlich größer als 1 + x für alle x < −1, so dass
die Beweisführung mittels der Bernoulli’schen Ungleichung sich im Prinzip auf x ≥ −1 beschränken kann.
56
n → ∞,
x n
1+
≥ 1+x,
n→∞
n
lim
so dass man mit (2.5.17) gerade
exp(x) ≥ 1 + x
∀x∈R
(2.5.25)
erhält.
• Aus (2.5.25) ergibt sich für das Verhalten von exp(x) für x → +∞,
lim exp(x) = ∞ .
x→+∞
(2.5.26)
Aus (2.5.23) folgt dann für das Verhalten von exp(x) für x → −∞,
lim exp(x) =
x→−∞
1
=
x→−∞ exp(−x)
lim
1
= 0
x→+∞ exp(x)
lim
(die präzise Definition des Begriffs des lim folgt später).
57
(2.5.27)
Kapitel 3
Differentialrechnung bei Funktionen
einer Variablen
3.1
Grundbegriffe
3.1.1
Definition des Funktionsbegriffs
Definition: Unter einer reellen Funktion f versteht man eine Abbildung aus R in R,
d.h. jedem Element x aus dem Definitionsbereich D ⊆ R wird eindeutig ein Element
y = f (x) aus dem Bildbereich B ⊆ R zugeordnet:
f :D→R
,
x∈D⊆R
,
y = f (x) ∈ B ⊆ R
(3.1.1)
−→ Funktionen lassen sich auch in der Form f (g(x)) hintereinanderschalten, sofern der
Definitionsbereich von f den Bildbereich von g enthält
Beispiele: Elementare Funktionen
(i) Potenzfunktionen (n ∈ N)
(a) ganze Potenzen
f (x) = xn
,
D=R
,
58
B=


R
falls n ungerade
 [0, ∞) falls n gerade
(3.1.2)
...
.
..
...
...
..
...
..
...
...
.
..
...
2 ......
...
.
..
...
...
..
...
..
..
..
.
...
.
..
..
..
...
...
..
..
...
....
..
...
...
...
...
..
...
...
...
...
.
...
...
...
..
...
...
..
.
.
...
..
...
..
...
...
...
..
.....
..
...
................
.
.
................
...
................
...
...
...............
..
..............
...
.
.
.
.
.
..
.
.
.
.
.
.
.
.
.
....
...
..............
...
...
.............
..
.............
...
..
.............
..
...
............
.
.
.
.
.
..
.
.
.
...
.
.
.
.
...
...
...........
...
..........
...
...
..........
...
.........
..
...................
...
.
.
.
...
........
...
.........
...
...... ..
...
...... ....
.....
...
.
.
.
.
.
.
..
...
..
.....
...
..
....
...
...
....
....
...
....
...
....
...
.
.
.
.
.
....
...
...
....
...
....
...
....
....
....
...
......
.....
.
.
.
...
.
.......
.
.
.....................................
6
f (x)
f (x) = x
f (x) = x
f (x) =
√
x
1
-
x
1
(b) Wurzelfunktionen: definiert in Gl.(2.5.13)
f (x) = x1/n =
√
n
x
D = [0, ∞)
,
,
B = [0, ∞)
(3.1.3)
(Wurzelfunktion definiert über f (x) = x1/n ⇐⇒ f (x)n = x)
(c) inverse ganze Potenzen
f (x) = x−n =
1
,
xn
(3.1.4)
x ∈ R x 6= 0
  x ∈ R x 6= 0 falls n ungerade
B =

(0, ∞)
falls n gerade
D =
f (x) 6
f (x) =
1
...........................
.....................
..............
.........
.......
......
.....
....
....
...
...
...
...
...
...
...
...
..
...
...
..
..
..
..
..
..
..
.
59
1
x
..
..
..
..
..
..
..
...
..
...
..
...
...
...
...
...
...
...
....
.....
......
.......
.......
............
...................
........................
..........
1
-
x
(ii) Polynome: n = Grad des Polynoms
2
n
f (x) = a0 + a1 x + a2 x + . . . + an x =
n
X
ai xi
,
D=R
(3.1.5)
i=0
−→ B hängt von den ai und n ab
(iii) gebrochen rationale Funktionen
Pn
i
a0 + a1 x + a2 x2 + . . . + an xn
i=0 ai x
P
f (x) =
=
m
j
b0 + b1 x + b2 x2 + . . . + bm xm
j=0 bj x
m
X
j
D =
x ∈ R bj x 6= 0
(3.1.6)
j=0
−→ B hängt von ai , bj , n, m ab
(iv) trigonometrische Funktionen (Herleitung der Reihendarstellung später)
∞
X
(−1)n
sin(x) =
x2n+1
(2n + 1)!
n=0
cos(x) =
∞
X
(−1)n
n=0
(2n)!
,
x2n
,
D=R
,
D=R
,
B = [−1, 1]
B = [−1, 1]
(3.1.7)
(3.1.8)
(v) Exponentialfunktion
x
e
= exp(x) =
∞
X
xn
n=0
,
n!
D=R
B = (0, ∞)
,
(3.1.9)
(vi) Betragsfunktion

 +1 falls x ≥ 0
|x| =
 −1 falls x < 0
,
D=R
(vii) Stufenfunktion (auch Heavyside-Funktion genannt)

 1 falls x ≥ 0
Θ(x) =
,
D=R
 0 falls x < 0
60
B = [0, ∞)
,
,
B = {0, 1}
(3.1.10)
(3.1.11)
3.1.2
Elementare Eigenschaften: Monotonie, Symmetrie, Periodizität
Definition: Eine Funktion heißt
(i) monoton wachsend:
x1 < x2
=⇒
f (x1 ) ≤ f (x2 )
(ii)
streng monoton wachsend:
x1 < x2
=⇒
f (x1 ) < f (x2 )
(iii)
monoton fallend:
x1 < x2
=⇒
f (x1 ) ≥ f (x2 )
(iv)
streng monoton fallend:
x1 < x2
=⇒
f (x1 ) > f (x2 )
(v)
gerade:
(vi)
ungerade:
(vii)
periodisch mit Periode ω:
f (x) = f (−x)
f (x) = −f (−x)
f (x) = f (x + nω) für alle n ∈ Z
Beispiele: von oben
(i) (a) f (x) = x streng monoton wachsend, ungerade, nicht periodisch
(b) f (x) =
√
x streng monoton wachsend, Symmetrie nicht definiert, nicht periodisch
(c) f (x) = 1/x nicht streng monoton, ungerade, nicht periodisch
(ii) hängt von Koeffizienten ab
(iii) hängt von Koeffizienten ab
(iv) sin(x) nicht (streng) monoton, ungerade, periodisch mit Periode ω = 2π
cos(x) nicht (streng) monoton, gerade, periodisch mit Periode ω = 2π
(v) exp(x) streng monoton wachsend auf ganz R, keine Symmetrie, keine Periodizität
Beweis der strengen Monotonie: mittels Funktionalgleichung (2.5.11)
exp(y) > 1 + y
=⇒
∀y>0
(per Definition (2.5.10))
exp(x + y) > exp(x) (1 + y) > exp(x)
∀y>0.
(vi) |x| nicht (streng) monoton auf ganz R, gerade, nicht periodisch
(vii) Θ(x) monoton wachsend (aber nicht streng), keine Symmetrie, nicht periodisch
61
3.1.3
Funktionen- und Potenzreihen
Bereits in Kapitel 2 kennen gelernt: Reihen, die von einem Parameter abhängen
Beispiele:
(i) Exponentialfunktion
exp(x) =
∞
X
xn
n=0
(ii) Geometrische Reihe
n!
∞
X
1
=
xn
1−x
n=0
Diese Reihen sind Spezialfälle von Potenzreihen:
Definition: Eine Reihe der Form
∞
X
P (x) =
n=0
an (x − x0 )n
(3.1.12)
mit gegebenen Koeffizienten an und gegebenem Entwicklungspunkt x0 bezeichnet man als
Potenzreihe um x0 .
Offensichtliche Frage: Für welche x konvergieren solche Reihen?
−→ führe geeigneten Begriff zur Diskussion ein:
Definition: Als Konvergenzradius R der Reihe
Wert
(
P∞
n=0
an (x − x0 )n bezeichnet man den
∞
X
an (x − x0 )n konvergent
R := sup |x − x0 |
n=0
)
.
(3.1.13)
Unmittelbare Konsequenz aus Definition des Konvergenzradius R: Die Reihe
P∞
n
n=0 an (x − x0 ) konvergiert absolut für alle |x − x0 | < R, d.h. es gibt keine Lücken im
Konvergenzbereich (Beweis über Majorantenkriterium).
Konvergenzbereich
x0 − R
-
x0
x0 + R
62
-
P∞
Satz: Für den Konvergenzradius der Reihe
R =
n=0
an (x − x0 )n gilt (Hadamard’sche Formel)
1
lim supn→∞
p
n
|an |
.
(3.1.14)
Das schließt die Fälle R = 0 (Reihe konvergiert nur bei x = x0 , wo sie auf das erste Glied
zusammenbricht) und R = ∞ (Reihe konvergiert für alle x ∈ R) ein.
Beweis: über Wurzelkriterium (2.5.7) für gewöhnliche Reihen,
lim sup
n→∞
p
p
!
n
|an | |x − x0 |n = |x − x0 | lim sup n |an | < 1
n→∞
=⇒
1
|x − x0 | <
lim supn→∞
p
n
|an |
Analog folgt aus dem Quotientenkriterium für gewöhnliche Reihen, dass
an ,
R = lim n→∞ an+1 (3.1.15)
falls dieser Limes existiert (beachte die Tatsache, dass lim supn→∞ | AAn+1
| = ∞ nicht die
n
P∞
| = ∞).
Divergenz der Reihe n=0 An impliziert, sondern nur lim inf n→∞ | AAn+1
n
Beispiele: (bereits zuvor gezeigt)
(i) Exponentialfunktion: Quotientenkriterium
(n + 1)! = ∞
R = lim n→∞
n! (ii) Geometrische Reihe: Quotientenkriterium
R = lim 1 = 1
n→∞
Potenzreihen wiederum sind Spezialfälle von völlig allgemeinen Funktionenreihen,
∞
X
f (x) =
fn (x) .
(3.1.16)
n=0
Die Konvergenz von Funktionenreihen ist für gegebenes x wie bei gewöhnlichen Reihen über
die Konvergenz der nun x-abhängigen Partialsummen
Sn (x) =
n
X
k=0
definiert.
63
fk (x)
(3.1.17)
Zusätzlicher Aspekt gegenüber gewöhnlichen Reihen: Potenz- und Funktionenreihen können für unterschiedliche x unterschiedlich schnell konvergieren.
−→ kein Problem, falls für alle x ein “einheitlicher Konvergenzgrad” vorliegt
−→ problematisch, falls bei Annäherung an einen speziellen x-Wert die Konvergenz
systematisch zusammenbricht
−→ benötige Begriff zur Unterscheidung
Definition: Eine Funktionenreihe
P∞
n=0
fn (x) heißt gleichmäßig konvergent gegen eine
Funktion f (x) auf einer Menge M, wenn für alle x ∈ M und beliebig vorgegebenes ǫ > 0
stets ein n0 (ǫ) (unabhängig von x!) existiert, so dass
n
X
∀ n > n0 (ǫ) .
fk (x) − f (x) < ǫ
(3.1.18)
k=0
Bemerkung: Das Kriterium für gleichmäßige Konvergenz lässt sich wie bei gewöhnlicher
Konvergenz auch in Cauchy-Form ausdrücken,
n
X
∀ m, n > n0 (ǫ) .
f
(x)
< ǫ
k
k=m
Entscheidender Punkt: Im Gegensatz zur gewöhnlichen Konvergenz bezieht sich die
gleichmäßige Konvergenz auf einen ganzen Bereich von x-Werten!
P∞
P
−→ falls ∞
n=0 fn (x) auch
n=0 fn (x) gleichmäßig konvergent auf M ist, dann ist
gewöhnlich konvergent für jedes x0 ∈ M (die Umkehrung gilt dagegen nicht
ohne weiteres!)
Frage: Wie kann man gleichmäßige Konvergenz überprüfen?
−→ Antwort einfach im Fall von Potenzreihen
Satz: Eine Potenzreihe P (x) =
P∞
R =
n=0
an (x − x0 )n mit Konvergenzradius
1
lim supn→∞
p
n
|an |
> 0
konvergiert für alle |x − x0 | ≤ r mit r < R absolut und gleichmäßig, d.h. auf jedem Intervall
[x0 − r, x0 + r].
Beweis: über Majorantenkriterium (keine Details)
64
Beispiele:
(i) Exponentialreihe: gleichmäßig konvergent auf ganz R
(ii) Geometrische Reihe: gleichmäßig konvergent auf [−r, r] mit r < 1, aber nicht auf
(−1, 1)
−→ Probleme mit einheitlichem Konvergenzgrad in unmittelbarer Nähe von x = ±1
1
2
1
sowie m = n − 1 und betrachte x = 1 − 2k
: dann folgt
n
n
1
1
n
> 1−
= ǫ
falls k ≥ n
|Sn (x) − Sm (x)| = |x | = 1 −
≥
2k
2k
2
|
{z
}
−→ wähle ǫ =
Bernoulli’sche Ungl. (2.3.5)
−→ gleichgültig, wie groß n0 gewählt wird, stets wird ǫ von |Sn (x) − Sm (x)|
überschritten, wenn k → ∞ (d.h. x → 1) geht: n0 hängt daher auf (−1, 1)
von k, d.h. von x, ab
3.2
Stetigkeit, Grenzwerte, Umkehrfunktion
Notation (hier): I meint stets ein offenes, halboffenes oder abgeschlossenes Intervall
I ≡ (a, b) oder (a, b] oder [a, b) oder [a, b] mit a < b
(3.2.1)
Definition: Die Funktion f : I → R heißt stetig am Punkt x0 ∈ I, falls für beliebig
vorgegebenes ǫ > 0 immer ein δ(ǫ, x0 ) > 0 existiert, so dass
|f (x) − f (x0 )| ≤ ǫ
∀ |x − x0 | ≤ δ(ǫ, x0 ) mit x ∈ I
Veranschaulichung:
65
(3.2.2)
.
...
...
...
..
.
...
...
...
..
.
...
...
...
..
.
...
..
..
...
..
.
...
...
...
..
.
...
...
...
...
.
.
.
...
....
....
....
.
.
....
....
....
....
.
.
.
...
...
....
....
...
.
.
.
....
....
....
....
....
.
.
.
...
.....
.....
.....
.....
.
.
.
.
.
.
......
......
......
......
.........
.
.
.
.
.
.
.
.
............
...............
..................................
6
f (x)
r
r
x0
62ǫ
?
62ǫ
?
-
x0
-
-
2δ(ǫ, x0 )
x
2δ(ǫ, x0 )
−→ je nach Steilheit des Funktionsverlaufs liegt f (x) für ein recht breites Intervall
[x0 − δ, x0 + δ] im Streifen [f (x0 ) − ǫ, f (x0 ) + ǫ] um f (x0 ) oder für ein sehr schmales
−→ für Stetigkeit entscheidend: wenn man mit x nur nahe genug an x0 herangeht, kommt
auch f (x) dem Wert f (x0 ) beliebig nahe
Im wesentlichen: f (x) stetig, falls Funktionsverlauf keine Sprünge aufweist
Beispiele: von oben
(i) (a-c) xn , x1/n , x−n offensichtlich stetig für alle x ∈ D (0 ∈
/ D für x−n )
(ii-vi) Polynome, gebrochen rationale Funktionen, sin(x), cos(x), exp(x), |x| stetig für alle
x∈D
Beweis für exp(x): zu zeigen ist
|exp(x) − exp(x0 )| < ǫ
sobald
|x − x0 | < δ(ǫ, x0 )
mit gewähltem δ(ǫ, x0 ). Unter Benutzung der Funktionalgleichung für exp(x) erhält
66
man zunächst
|exp(x) − exp(x0 )| = exp(x0 ) |exp(x − x0 ) − 1|
∞
X
n
(x
−
x
)
0
= exp(x0 ) n=1
n!
≤ exp(x0 )
∞
X
|x − x0 |n
n!
n=1
= exp(x0 ) |x − x0 |
∞
X
|x − x0 |k
k=0
(k + 1)!
(k = n − 1) .
−→ offensichtlich wird die rechte Seite dieser Gleichung beliebig klein, wenn nur
|x − x0 | ausreichend klein wird
−→ Stetigkeit im Grunde klar
−→ diskutiere exemplarisch die mathematische Formalisierung der intuitiven
Erkenntnis
Die verbliebene Reihe lässt sich nach oben abschätzen (1/(k + 1)! < 1/k!)
∞
X
|x − x0 |k
k=0
(k + 1)!
≤
∞
X
|x − x0 |k
k=0
k!
= exp (|x − x0 |)
(das geht wegen der absoluten Konvergenz der beteiligten Reihen). Dann gilt wegen
der strengen Monotonie der Exponentialreihe für |x − x0 | < 1
|exp(x) − exp(x0 )| ≤ exp(x0 ) |x − x0 | exp (|x − x0 |) < exp(x0 ) |x − x0 | exp(1) .
|exp(x) − exp(x0 )| < ǫ wird also in jedem Fall dann erreicht, wenn
ǫ
|x − x0 | < min
, 1 = δ(ǫ, x0 ) .
exp(x0 ) exp(1)
(vii) Θ(x) stetig für alle x ∈ D, x 6= 0
Beweis: wähle x0 = 0 und ǫ =
1
2
−→ dann wäre zu zeigen, dass ein δ > 0 existiert, für das gilt
|Θ(x) − Θ(0)| = |Θ(x) − 1| ≤
1
2
∀ |x| ≤ δ
−→ δ > 0 existiert aber nicht, weil Θ(x) = 0 für infinitesimal kleine negative x gilt
Stetigkeit kann noch über Begriff des Grenzwerts ausgedrückt werden:
67
Definition: Die Zahl y0 heißt rechtsseitiger (bzw linksseitiger) Grenzwert der Funktion f : D → R am Punkt x0 ∈ D, falls es für beliebig vorgegebenes ǫ > 0 immer ein
δ(ǫ, x0 ) > 0 gibt, so dass
|f (x) − y0 | ≤ ǫ
∀ |x − x0 | ≤ δ(ǫ, x0 ) mit x > x0 (bzw x < x0 );
x ∈ D (3.2.3)
Bemerkung:
D ist der Abschluss des Definitionsbereichs, d.h. die Menge D ergänzt um alle ihre
Häufungspunkte, die nicht schon in D enthalten sind.
Warum das?
−→ betrachte f (x) = 0 mit D = x ∈ Rx < 0
−→ linksseitiger Grenzwert bei x0 = 0 soll wohldefiniert sein
−→ dementsprechend ist x = x0 selbst in Definition nicht eingeschlossen
(da die Funktion da gar nicht definiert sein muss)!
Man schreibt den Grenzwert in der Form:
rechtsseitiger Grenzwert
lim
f (x) = lim+ f (x + ǫ) = y0
(3.2.4)
lim
f (x) = lim+ f (x − ǫ) = y0
(3.2.5)
x→x0 ,x>x0
linksseitiger Grenzwert
x→x0 ,x<x0
ǫ→0
ǫ→0
(Notation 0+ soll andeuten, dass ǫ sich von oben der 0 nähert)
−→ falls
lim
x→x0 ,x>x0
f (x) =
lim
x→x0 ,x<x0
f (x) gilt, sagt man, der Grenzwert lim f (x) existiert
x→x0
Beispiel: Stufenfunktion bei x0 = 0
lim Θ(x) = 1
x→0,x>0
lim Θ(x) = 0
x→0,x<0
−→ Grenzwerte verschieden, sobald Sprünge im Funktionsverlauf auftreten
Satz: Eine Funktion f : D → R ist genau dann stetig bei x0 ∈ D, falls der Grenzwert
existiert von f (x) in x0 existiert und gleich dem Funktionswert ist:
lim f (x) = f (x0 )
x→x0
68
(3.2.6)
Notation: Man spricht von einem uneigentlichen Grenzwert, falls
lim f (x) = ±∞
(3.2.7)
x→x0
Beispiel:
f (x) =
1
x
lim f (x) = ∞
=⇒
x→0,x>0
Satz: Falls die Funktion f : D → R auf einem Intervall I ⊆ D streng monoton wachsend
oder streng monoton fallend ist, besitzt f (x) eine Umkehrfunktion f −1 : B(I) → I,
y = f (x)
f −1 (y) = x
⇐⇒
x ∈ I, y ∈ B(I)
(3.2.8)
Beispiel: Logarithmus = Umkehrfunktion zur Exponentialfunktion
ln(exp(x)) := x
,
D = (0, ∞)
,
B=R
(3.2.9)
Eigenschaften:
(a) Exponentialfunktion ist ihrerseits Umkehrfunktion zum Logarithmus
exp(ln(x)) = x
x ∈ (0, ∞)
(3.2.10)
(b) Funktionsverlauf
6
ln(x)
..
..........
..........
.........
.........
.
.
.
.
.
.
.
..
.......
.......
.......
.......
.......
.
.
.
.
.
......
.....
.....
.....
....
.
.
.
.
...
....
....
....
....
.
.
.
....
...
...
...
...
.
...
...
...
..
.
.
...
..
...
....
..
...
..
..
...
..
..
1
69
-
x
(c) Funktionalgleichung
ln(exp(x + y)) = x + y
ln(exp(x)) = x
ln(exp(y)) = y
exp(x + y) = exp(x) · exp(y)
ln(exp(x) · exp(y)) = x + y = ln(exp(x)) + ln(exp(y))
=⇒
ln(a · b) = ln(a) + ln(b)
=⇒
∀ x, y ∈ R
∀ a, b > 0
(3.2.11)
(exp(x) = a und exp(y) = b sind zwei beliebige positive reelle Zahlen)
unmittelbare Konsequenz (a = x, b = 1/x, ln(1) = 0):
1
ln
= − ln(x)
x ∈ (0, ∞)
x
(3.2.12)
alternativ: direkter Nachweis
1
1
= ln
= ln [exp(− ln(x))] = − ln(x)
ln
x
exp(ln(x))
(d) wegen der strengen Monotonie der Exponentialfunktion ist auch der Logarithmus
streng monoton wachsend,
exp(x1 ) < exp(x2 )
=⇒
ln(a) < ln(b)
⇐⇒
⇐⇒
x1 < x2
a < b
⇐⇒
ln(exp(x1 )) < ln(exp(x2 ))
a, b > 0
(3.2.13)
(e) zentrale Ungleichung (wegen strenger Monotonie)
1 + x ≤ exp(x)
=⇒
∀x∈R
ln(1 + x) ≤ x
(gemäß (2.5.25))
∀ x ∈ (−1, ∞)
(3.2.14)
Definition der allgemeinen Potenz ax mit a, x ∈ R: über Logarithmus
−→ ax bereits definiert für beliebige rationale x = l/m, Gl.(2.5.13), nur irrationale x noch
zu diskutieren
−→ 2 Schritte
(1) definiere zunächst ex für irrationale x über Folge (an ) von rationalen Zahlen, die gegen
x konvergiert,
an ∈ Q mit
=⇒
ex
:=
lim an = x
n→∞
lim ean = lim exp(an ) = exp(x)
n→∞
n→∞
70
(3.2.15)
(das ist möglich, weil zu jedem x ∈ R eine solche Folge existiert und exp(x) für jedes
x ∈ R definiert und stetig ist)
(2) definiere dann ax über Logarithmus
ax := ex ln(a)
(3.2.16)
(das ist sinnvoll, weil für jedes x ∈ R und l, m ∈ Z, m 6= 0, l ≥ 0
q
√
l
m
m
l
l/m
ln(a) l/m
a
= e
=
(eln(a) ) =
el ln(a) = e m ln(a)
gilt, wovon (3.2.16) die stetige Erweiterung ist)
Konsequenzen:
• Die Potenz (3.2.16) erfüllt alle Standardrechenregeln für gewöhnliche Potenzen.
• Die allgemeinste Form der Funktionalgleichung des Logarithmus lautet:
ln (ax ) = x ln(a)
(3.2.17)
(durch Logarithmieren von (3.2.16))
3.3
3.3.1
Differentiation
Definition
Eine Funktion f : I → R heißt differenzierbar am Punkt x0 ∈ I, falls der Grenzwert
lim
x→x0
f (x0 + ǫ) − f (x0 )
f (x) − f (x0 )
= lim
ǫ→0
x − x0
ǫ
(3.3.1)
existiert. Man bezeichnet ihn dann als Ableitung (oder auch Differentialquotienten) von
f (x) an der Stelle x0 und schreibt ihn in verschiedenen alternativen Formen:
f (x) − f (x0 )
d
df
df ′
lim
=
= f˙(x0 )
= f (x0 ) =
(x0 ) =
f
(x)
x→x0
x − x0
dx
dx x=x0
dx
x=x0
71
(3.3.2)
Geometrische Interpretation: f ′ (x0 ) = lokale Steigung von f (x) bei x0
f (x0 ) + f ′ (x0 )(x − x0 )
f (x)
6
x
x0
x0 + ǫ2 x0 + ǫ1
Beispiele:
(i) f (x) = xn , n = 0, 1, 2, . . .
(x + ǫ)n − xn
ǫ→0
ǫ
1 n
= lim x + nxn−1 ǫ + . . . + nxǫn−1 − xn
ǫ→0 ǫ
= lim nxn−1 + . . . + nxǫn−2
f ′ (x) = lim
ǫ→0
= nxn−1
(3.3.3)
−→ Grenzwert existiert für beliebige x und n ∈ N
−→ xn für beliebige x ∈ R differenzierbar
(ii) f (x) = x1/n , n = 0, 1, 2, . . .
(x + ǫ)1/n − x1/n
=⇒
f ′ (x) = lim gǫ (x)
gǫ (x) =
ǫ→0
ǫ
1/n n
x + ǫ = ǫgǫ (x) + x
 
n
X
n
  (ǫgǫ (x))k x(n−k)/n
=
k
k=0
= x + nǫgǫ (x)x(n−1)/n + O(ǫ2 )
=⇒
=⇒
1 = ngǫ (x)x(n−1)/n + O(ǫ)
x1/n−1
f ′ (x) =
n
−→ x1/n differenzierbar für beliebige x ∈ R mit x 6= 0
72
(3.3.4)
(iii) f (x) = x−n , n = 0, 1, 2, . . .
f ′ (x) = −nx−n−1
(3.3.5)
−→ x−n differenzierbar für beliebige x ∈ R mit x 6= 0
(iv) f (x) = sin(x): zunächst kann man Additionstheorem benutzen
ǫ
sin(x + ǫ) − sin(x)
2
ǫ
sin
=
cos x +
ǫ
ǫ
2
2
−→ bleibt zu klären, wie sich sin(ǫ/2) für ǫ → 0 verhält
Betrachte dazu die Definition von sin(φ) am Einheitskreis
y6
...
....
...
....
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
..
...
..
...
..
..
..
..
..
..
..
..
..
..
..
..
..
..
..
..
...
6
6
h
sin(φ)
........
...
.
...
...
..
..
..
..
φ
..
..
..
..
? ?...
x
cos(φ)
1
−→ die Bogenlänge des Kreissegments mit Winkel φ ist offensichtlich größer als die
Höhe des im Kreissegment eingeschlossenen Dreiecks,
sin(φ) <
φ
2π · 1 = φ
2π | {z }
(für 0 < φ < π/2) .
(3.3.6)
Gesamtumfang des Einheitskreises
−→ gleichzeitig ist die Fläche Aφ des Kreissegments kleiner ist als die Fläche AD des
größeren Dreiecks, das seinerseits das Kreissegment einschließt,
Aφ =
φ
h
π12 < AD =
·1
|{z}
2π
2
Gesamtfläche des Einheitskreises
=⇒
φ < h
(für 0 < φ < π/2) .
−→ die Höhe h des äußeren Dreiecks ist aber gegeben durch
h =
sin(φ)
cos(φ)
(für 0 < φ < π/2) ,
73
(3.3.7)
da h =
sin(φ)
cos(φ)
· 1 der Funktionswert der Geraden y =
sin(φ)
x
cos(φ)
bei x = 1 ist
−→ fasst man die beiden Ungleichungen (3.3.6) und (3.3.7) mit der letzten Relation
zusammen, ergibt sich
cos(φ) <
sin(φ)
< 1
φ
(für 0 < φ < π/2) .
(3.3.8)
−→ wegen cos(φ) = cos(−φ) und sin(φ) = − sin(−φ) gilt diese Relation aber auch
für 0 > φ > −π/2
−→ damit gilt im Limes φ → 0
sin(φ)
= 1.
φ→0
φ
lim
Damit kann die Ableitung von f (x) = sin(x) nun ausgewertet werden,
#
"
sin ǫ ǫ
sin(x
+
ǫ)
−
sin(x)
2
= cos(x)
= lim cos x +
f ′ (x) = lim
ǫ
ǫ→0
ǫ→0
ǫ
2
2
(3.3.9)
(3.3.10)
Analog kann für f (x) = cos(x) vorgegangen werden,
f ′ (x) = − sin(x) .
(3.3.11)
(v) f (x) = exp(x): zunächst erhält man über die Funktionalgleichung
exp(x + ǫ) − exp(x)
exp(ǫ) − 1
= exp(x)
ǫ
ǫ
−→ der verbleibende Ausdruck lässt sich über die Reihendarstellung auswerten
"∞
#
∞
∞
X
X
1 X ǫn
ǫn−1
ǫn−1
exp(ǫ) − 1
=
−1 =
= 1+
ǫ
ǫ n=0 n!
n!
n!
n=1
n=2
=⇒
exp(ǫ) − 1
= 1
ǫ→0
ǫ
=⇒ f ′ (x) = exp(x)
lim
(vi) f (x) = |x|
=⇒

 +x
f (x) =
 −x

 +1
f ′ (x) =
 −1
74
(3.3.12)
x≥0
x<0
x>0
x<0
(3.3.13)
rechtsseitiger Grenzwert bei x = 0
f (0 + ǫ) − f (0)
=
ǫ→0,ǫ>0
ǫ
lim
|ǫ|
= 1
ǫ→0,ǫ>0 ǫ
lim
linksseitiger Grenzwert bei x = 0
f (0 + ǫ) − f (0)
=
ǫ→0,ǫ<0
ǫ
lim
|ǫ|
= −1
ǫ→0,ǫ<0 ǫ
lim
−→ stimmen nicht überein
−→ |x| nicht differenzierbar für x = 0
(vii) Stufenfunktion
=⇒

 1 x≥0
Θ(x) =
 0 x<0



0 x>0


Θ′ (x) =
? x=0



 0 x<0
(3.3.14)
−→ wegen Sprung bei x = 0 ist “Steigung” an dieser Stelle unendlich
−→ Θ(x) bei x = 0 nicht differenzierbar (Korrektur später)
Im wesentlichen: f (x) differenzierbar, solange keine Spitzen, Ecken oder gar Sprünge im
Funktionsverlauf auftreten
−→ ohne Stetigkeit keine Differenzierbarkeit
Satz: Ist f (x) in x0 differenzierbar, so ist f dort auch stetig.
Definition: Ist f (x) auf einem ganzen Intervall I erklärt und differenzierbar, nennt man
f (x) differenzierbar auf ganz I.
Definition: Ist f (x) auf I differenzierbar und die Ableitung auf I stetig, nennt man f (x)
dort stetig differenzierbar.
75
3.3.2
Differentiale
Betrachte Grenzwert für Ableitung noch einmal aus anderem Blickwinkel
f (x + ǫ) − f (x)
ǫ→0
ǫ
lim
kann nur existieren, falls f (x + ǫ) − f (x) mindestens so schnell gegen Null geht wie ǫ selbst
−→ Proportionalitätsfaktor vor ǫ ist gerade die Ableitung
f (x + ǫ) − f (x) = f ′ (x)ǫ + ∆f (x, ǫ)
(diese Gl. definiert ∆f !)
(3.3.15)
Restterm ∆f (x, ǫ) geht im Limes ǫ → 0 schneller gegen Null als ǫ:
lim
ǫ→0
f (x)
∆f (x, ǫ)
= 0
ǫ
.....
...
..
....
.
..... =
...
...
.......
...
....
...... =
.
...
.....
x
∆f (x, ǫ)
f ′ (x)ǫ
.....
..
..
...
....
...
..
...
...... =
...
...
...
...
...
.
.
....
f (x + ǫ) − f (x)
-
x+ǫ
−→ für infinitesimale ǫ reduziert sich Gl.(3.3.15) auf den führenden Term
Zur Illustration: betrachte e-Funktion
x+ǫ
e
x
= e
∞
X
ǫn
n=0
=⇒
ex+ǫ − ex = ex ǫ +
n!
x
= e
ǫ2 ǫ3
1 + ǫ+ + + ...
2
6
ex 2 ex 3
ǫ + ǫ + ...
2
6
−→ im Limes ǫ → 0 ist ∆f (x, ǫ) proportional zu ǫ2
∆f (x, ǫ) =
ex 2 ex 3
ǫ + ǫ + . . . = O(ǫ2 )
2
6
Notation: O(ǫn ) zu lesen als: Beitrag von der Ordnung ǫn , d.h. O(ǫn ) ist mathematischer
Ausdruck, der für ǫ → 0 proportional zu ǫn ist
Bringe Limes ǫ → 0 durch suggestivere Schreibweise von Gl.(3.3.15) über infinitesimale
76
Verschiebung dx zum Ausdruck: Man nennt die Änderung von f (x) beim Übergang von
x nach x + dx dann differentielle Änderung oder einfach Differential von f und schreibt
df := f (x + dx) − f (x) = f ′ (x) dx
(3.3.16)
−→ Schreibweise impliziert, dass der Limes dx → 0 betrachtet wird
−→ wegen des infinitesimalen Charakters von Gl.(3.3.16) wird ∆f (x, dx) meist gleich
weggelassen (wie in (3.3.16) schon geschehen)
−→ Gl.(3.3.16) ist als der für dx → 0 dominierende Teil von (3.3.15) zu verstehen
−→ Formalisierung dieses Konzepts über Taylorentwicklung (siehe später)
3.3.3
Rechenregeln für Differentiation
(a) Differentiation von Summen und Produkten: Falls f (x) und g(x) beide differenzierbar in x sind, gilt:
(f + g)′ (x) = f ′ (x) + g ′ (x)
(f · g)′ (x) = f ′ (x)g(x) + f (x)g ′(x)
′
f ′ (x)g(x) − f (x)g ′ (x)
f
(x) =
g
g(x)2
(3.3.17)
(Produktregel)
(3.3.18)
(Quotientenregel)
(3.3.19)
Beweis: exemplarisch für Produktregel
f (x + ǫ)g(x + ǫ) − f (x)g(x)
ǫ→0
ǫ
[f (x + ǫ) − f (x)]g(x + ǫ) + f (x)[g(x + ǫ) − g(x)]
= lim
ǫ→0
ǫ
[f (x + ǫ) − f (x)][g(x) + O(ǫ)] + f (x)[g(x + ǫ) − g(x)]
= lim
ǫ→0
ǫ
′
′
= f (x)g(x) + f (x)g (x)
(f · g)′ (x) = lim
denn für ǫ → 0 gilt f (x + ǫ) − f (x) = f ′ (x)ǫ, g(x + ǫ) − g(x) = g ′(x)ǫ
Beispiele:
77
(i)
(x − 1)
(x + 1)
1 · (x + 1) − (x − 1) · 1
(x − 1)
+ (x2 + 1)
f ′ (x) = 2x
(x + 1)
(x + 1)2
x(x2 − 1) + x2 + 1
= 2
(x + 1)2
f (x) = (x2 + 1)
(ii)
sin(x)
cos(x)
cos(x) sin2 (x)
f ′ (x) =
+
cos(x) cos2 (x)
1
=
cos2 (x)
f (x) = tan(x) =
(b) Differentiation von Reihen: Falls
(i) alle Funktionen fn (x), n = 1, 2, . . ., für alle x ∈ I differenzierbar sind,
(ii) die Funktionenreihe
(iii) die Reihe
P∞
P∞
′
n=0 fn (x)
n=0 fn (x)
für mindestens ein x0 ∈ I konvergiert, und
für alle x ∈ I gleichmäßig konvergent ist,
dann konvergiert fn (x) auf ganz I gleichmäßig gegen eine auf I differenzierbare Funktion
f (x) und es gilt für alle x ∈ I
d
dx
∞
X
n=0
fn (x)
!
=
∞
X
fn′ (x)
(3.3.20)
n=0
Beachte: Aussage über gliedweise Differentiation kann nicht Punkt für Punkt gemacht werden, weil die Definition der Ableitung stets auf einer ganzen Umgebung des Punktes beruht.
Beispiele:
(i) Exponentialfunktion
exp(x) =
d
exp(x) =
dx
∞
X
xn
n=0
∞
X
n=1
n!
∞
∞
X
X
xk
d xn
xn−1
=
=
= exp(x)
dx n!
(n − 1)!
k!
n=1
k=0
(im letzten Schritt: Umbenennung des Summationsindex, k = n − 1)
78
(ii) Geometrische Reihe im Intervall [−r, r] mit r < 1
∞
X
1
=
xn
1−x
n=0
∞
X
d 1
=
nxn−1
dx 1 − x
n=1
=
∞
X
(n + 1)xn
n=0
=
=
∞ X
n
X
xn−k xk
n=0 k=0
!
∞
X
n
∞
X
x
n=0
m=0
1
=
(1 − x)2
xm
!
(vorletzter Schritt unter Verwendung von (2.5.9))
(c) Differentiation von Funktionenketten: Falls g(x) differenzierbar in x ist und f (y)
differenzierbar in y = g(x), gilt:
d
f (g(x)) =
dx
df
dg
(y)
(x)
dy
y=g(x) dx
(Kettenregel)
(3.3.21)
Begründung: wegen Differenzierbarkeit von g(x) gilt für infinitesimale ǫ
g(x + ǫ) = g(x) + g ′ (x)ǫ = g(x) + dg
−→ dg ist ebenfalls infinitesimal, sobald ǫ infinitesimal ist
=⇒
f (g(x + ǫ)) − f (g(x))
g(x + ǫ) − g(x)
f (g(x + ǫ)) − f (g(x))
= lim
lim
ǫ→0
ǫ→0
ǫ→0
ǫ
g(x + ǫ) − g(x)
ǫ
f (g(x) + dg) − f (g(x))
g(x + ǫ) − g(x)
= lim
lim
ǫ→0
dg→0
dg
ǫ
lim
Beispiele:
(i) Gauß-Funktion
f (x) = e−αx
79
2
Identifiziere g(x)
g(x) = −αx2
g ′ (x) = −2αx
f (g) = eg
df
= eg
dg
Benutze Kettenregel
df
2
= −2αx e−αx
dx
(ii) Verschachtelung
f (x) =
√
3
x2 + 9 + ln
2
!
√
x2 + 9 − 3
√
x2 + 9 + 3
Identifiziere g(x)
√
x2 + 9
x
g ′(x) = √
x2 + 9
g−3
3
f (g) = g + ln
2
g+3
g(x) =
Benutze Kettenregel (Ableitung von ln(x),
d ln(x)
dx
= x1 , wird unten nachgewiesen)
df
3 1
3 1
2(g 2 − 9) + 3(g + 3) − 3(g − 3)
g2
= 1+
−
=
=
dg
2g−3 2g+3
2(g 2 − 9)
g2 − 9
√
x2 + 9
x2 + 9
x
df
√
=
=
dx
x2
x
x2 + 9
(iii) beliebige Potenz (x > 0)
f (x) = xα = eα ln(x)
g(x) = α ln(x)
α
g ′ (x) =
x
f (g) = eg
df
α α ln(x)
=
e
= α xα−1
dx
x
80
(b) Differentiation der Umkehrfunktion:
Falls f auf I stetig und streng monoton,
differenzierbar in x0 ∈ I und f ′ (x0 ) 6= 0 ist, dann ist die Umkehrfunktion f −1 : f (I) → I
mit f −1 (f (x)) = x in y0 = f (x0 ) differenzierbar und es gilt
f −1 (y) − f −1 (y0 )
y→y0
y − y0
x − x0
= lim
x→x0 f (x) − f (x0 )
1
1
=
= ′ −1
′
f (x0 )
f (f (y0 ))
d −1 f (y) y=y0 =
dy
lim
(3.3.22)
Zusammenhang mit Kettenregel:
Beispiele:
df
d −1
df −1 (f ) d
x=
f (f (x)) =
(x)
1=
dx
dx
df f =f (x) dx
(i) Logarithmus / Exponentialfunktion
f −1 (y) = ln(y)
1
1
d
1
ln(y) =
=
=
d exp(x) dy
exp(ln(y))
y
dx
x=ln(y)
(ii) Arkustangens / Tangens
f −1 (y) = arctan(y)
1
d
arctan(y) =
d tan(x) dy
dx x=arctan(y)
= cos2 (arctan(y))
cos2 (arctan(y))
=
sin2 (arctan(y)) + cos2 (arctan(y))
1
=
2
tan (arctan(y)) + 1
1
= 2
y +1
3.3.4
Höhere Ableitung
Rekursive Definition (Existenz vorausgesetzt)
f
(n)
d
dn
f
(x)
=
(x) =
dxn
dx
81
dn−1
f (x)
dxn−1
(3.3.23)
Beispiel:
(i) f (x) = xn
f (1) (x) = nxn−1
(ii) f (x) = exp(x)
f (2) (x) = n(n − 1)xn−2

n!


xn−k k = 1, 2, . . . n
(k)
(n
−
k)!
f (x) =

 0
k>n
f (1) (x) = exp(x)
=⇒
f (k) (x) = exp(x)
k = 1, 2, . . .
(iii) f (x) = sin(x) (Cosinus analog)
f (1) (x) = cos(x)
f (2) (x) = − sin(x)
f (3) (x) = − cos(x)
=⇒
f (4) (x) = sin(x)

 (−1)(k−1)/2 cos(x) falls k ungerade
f (k) (x) =
 (−1)k/2 sin(x)
falls k gerade
alternative Schreibweise (mit k = 0, 1, 2, . . .)
f (2k+1) (x) = (−1)k cos(x)
f (2k) (x) = (−1)k sin(x)
(iv) f (x) =
1
1−x
−1
1
(−1) =
2
(1 − x)
(1 − x)2
2
−2
(−1) =
f (2) (x) =
3
(1 − x)
(1 − x)3
2 · (−3)
3!
f (3) (x) =
(−1) =
3
(1 − x)
(1 − x)4
k!
f (k) (x) =
(1 − x)k+1
f (1) (x) =
=⇒
82
k = 1, 2, . . .
(v) f (x) = ln(1 − x)
−1
(1 − x)
(k − 1)!
1
dk−1
= −
f (k) (x) = − k−1
dx
(1 − x)
(1 − x)k
f (1) (x) =
3.3.5
Grenzwerte von Produkten und Quotienten von Funktionen
Betrachte Funktion f (x) =
sin(x)
x
für x → 0: Während sin(x) verschwindet, divergiert 1/x
−→ analoges Problem bei f (x) = x ln(x) für x → 0
−→ was ist der Grenzwert? (bei
sin(x)
x
schon geometrisch geklärt)
−→ ist Spezialfall von
Regel von Bernoulli - de l’Hopital: Falls
(i) f (x) und g(x) auf [a, b) mit a < b ≤ ∞ differenzierbar sind,
(ii) g(x) und g ′ (x) auf [a, b) von Null verschieden sind,
(iii) f (x) und g(x) für x → b entweder beide divergieren oder beide verschwinden,



0


(3.3.24)
lim f (x) = lim g(x) =
oder
x→b,x<b
x→b,x<b



 ∞
(iv) der Grenzwert
f ′ (x)
,
x→b,x<b g ′ (x)
lim
existiert,
dann gilt
f (x)
lim
=
x→b,x<b g(x)
f ′ (x)
lim
x→b,x<b g ′ (x)
−→ gilt natürlich analog für linksseitigen Grenzwert
83
(3.3.25)
Beispiele:
(i) f (x) = sin(x), g(x) = x
sin(x)
=
x→0,x<0
x
cos(x)
= 1
x→0,x<0
1
lim
lim
(3.3.26)
−→ klar aus geometrischer Überlegung, Gl.(3.3.9), sowie Reihendarstellung von sin(x)
(ii) f (x) = ln(x), g(x) = 1/x
lim x ln(x) =
x→0,x>0
ln(x)
lim
x→0,x>0
1
x
=
1
=
x→0,x>0 x − 12
x
lim
lim (−x) = 0
x→0,x>0
(3.3.27)
−→ lässt sich durch vollständige Induktion auf beliebige Potenzen von ln(x)
erweitern: f (x) = [ln(x)]n , g(x) = 1/x
Induktionsbasis: Gl.(3.3.27)
Induktionsschluss: nehme an, dass limx→0,x>0 x [ln(x)]n−1 = 0 und betrachte
lim x [ln(x)]n =
x→0,x>0
n[ln(x)]n−1
= −n lim x [ln(x)]n−1 = 0 .
x→0,x>0 x − 12
x→0,x>0
x
lim
(3.3.28)
−→ für x → 0 verschwindet x schneller als jede Potenz von ln(x) divergiert
(iii) f (x) = ln(x), g(x) = x
1
ln(x)
= lim
= 0
x→∞ x · 1
x→∞
x
(3.3.29)
[ln(x)]n
n[ln(x)]n−1
n!
= lim
= lim
= 0
x→∞
x→∞
x→∞ x
x
x·1
(3.3.30)
lim
analog durch wiederholte Verwendung der Regel (für jeweils anderes f (x))
lim
Regel von Bernoulli - de l’Hopital kann auch mehrfach verwendet werden, sofern die Voraussetzungen für die Ableitungen wieder gegeben sind:
f (x)
=
x→b,x<b g(x)
lim
f (n) (x)
x→b,x<b g (n) (x)
lim
(3.3.31)
Beispiel:
f (x) = xn , g(x) = exp(x): für beide Funktionen divergieren die ersten n − 1 Ableitungen für x → ∞
xn
n!
= lim
= 0
x→∞ exp(x)
x→∞ exp(x)
lim
−→ exp(x) geht schneller gegen ∞ als jede Potenz von x
84
(3.3.32)
3.4
Taylorentwicklung
Zur Motivation: betrachte noch einmal Reihe der e-Funktion
∞
X
x2 x3
xn
= 1+x+
+
+ ...
exp(x) =
n!
2
6
n=0
Intuitiv klar: je kleiner x ist, desto schneller konvergiert die Reihe
x
x2
2
1+x 1+x+
1+x+
x2 x3
+
2
6
exp(x)
0.001
1.001
1.00100
1.0010005002
1.0010005002
0.01
1.010
1.01005
1.0100501667
1.0100501671
0.1
1.100
1.10500
1.1051666667
1.1051709181
0.5
1.500
1.62500
1.6458333333
1.6487212707
1.0
2.000
2.50000
2.6666666667
2.7182818285
−→ für kleines x kann Reihe mit den niedrigsten Ordnungen gut approximiert werden
−→ für sehr kleines x, d.h. im Limes x → 0, genügt bereits die allererste Ordnung
Verallgemeinerung des Konzepts auf Punkte in der Umgebung von x0 6= 0:
∞
X
(x − x0 )2 (x − x0 )3
(x − x0 )n
x
x0 x−x0
x0
x0
= e
e = e e
= e 1 + (x − x0 ) +
+
+ ...
n!
2
6
n=0
−→ falls der Wert ex0 bekannt ist und x − x0 sehr klein:
ex = ex0 + ex0 (x − x0 ) +
ex0
ex0
(x − x0 )2 +
(x − x0 )3 + . . .
2
6
Die Auswertung von ex über ex0 und ∆x = x − x0 ist offensichtlich nicht nötig, weil ex
wohlbekannt ist. Bei komplizierteren Funktionen ist die Situation aber oft ganz anders: Die
Funktion ist häufig an speziellen Stellen (x0 ) bekannt, am eigentlich interessierenden Punkt
x = x0 + ∆x aber nicht.
Beispiel: Auswertung des Integrals
f (a, b, µ) =
Z
∞
1
x2
dx 2
e−µx ln
x + a2
für b << 1
x+b
x−b
−→ 2 Möglichkeiten zur Auswertung:
(a) Näherungsweise Auswertung durch Entwicklung von f (a, b, µ) nach kleinem b
(b) Numerische Integration
85
Frage: Lässt sich f (x) ganz allgemein aus f (x0 ) und ∆x = x − x0 auswerten?
Antwort:
Satz von Taylor: Falls die Funktion f (x) auf dem abgeschlossenen Intervall [a, b] n-mal
und auf dem offenen Intervall (a, b) (n+1)-mal stetig differenzierbar ist, gilt für zwei beliebige
Punkte x0 und x aus [a, b]
f (x) =
n
X
f (k) (x0 )
k=0
k!
(x − x0 )k + Rn+1
(3.4.1)
Dabei ist das sogenannte Restglied Rn+1 gegeben durch
Rn+1
f (n+1) (x0 + θ(x − x0 ))
(x − x0 )n+1
=
(n + 1)!
Restglied nach Lagrange
(3.4.2)
oder durch
Rn+1 = (1 − θ)n
f (n+1) (x0 + θ(x − x0 ))
(x − x0 )n+1
n!
Restglied nach Cauchy (3.4.3)
jeweils mit 0 < θ < 1 (θ hängt von x, x0 ab).
Beweis über verallgemeinerten Mittelwertsatz — hier keine Details).
Falls f (x) beliebig oft differenzierbar ist, kann man f (x) über seine Taylorreihe ausdrücken:
f (x) =
∞
X
f (k) (x0 )
k!
k=0
(x − x0 )k
(3.4.4)
Beispiele:
(i) e-Funktion mit beliebigem x0 (überprüfe Konsistenz)
=⇒
dk
exp(x) = exp(x)
dxk
∞
∞
X
X
f (k) (x0 )
ex0
k
(x − x0 ) =
(x − x0 )k
k!
k!
k=0
k=0
x0
= e
∞
X
(x − x0 )k
k=0
x0 x−x0
= e e
= ex
86
k!
(ii) Sinus mit x0 = 0
d2k+1
= (−1)k cos(0) = (−1)k
sin(x)
dx2k+1
x=0
2k
d
= (−1)k sin(0) = 0
sin(x)
dx2k
x=0
−→ zerlege allgemeine Taylorreihe in Terme mit geraden und solche mit ungeraden
Potenzen
sin(x) =
∞
X
f (2k) (x0 )
k=0
(2k)!
(x − x0 )
2k
∞
X
(−1)k
=
x2k+1
(2k
+
1)!
k=0
+
∞
X
f (2k+1) (x0 )
k=0
(2k + 1)!
(x − x0 )2k+1
(3.4.5)
analoges Vorgehen bei Cosinus
cos(x) =
∞
X
(−1)k
k=0
(2k)!
x2k
(3.4.6)
(iii) Geometrische Reihe mit x0 = 0
dk 1 = k!
dxk 1 − x x=0
∞
∞
X
X
1
f (k) (x0 )
=⇒
=
(x − x0 )k =
xk
1−x
k!
k=0
k=0
(3.4.7)
Beachte: Differenzierbarkeit von 1/(1 − x) nur für x 6= ±1 gegeben
−→ Reihe kann nur für −1 < x < 1 verwendet werden
(iv) Logarithmus ln(1 − x) mit x0 = 0
dk
= − (k − 1)!
ln(1 − x)
k
dx
x=0
∞
∞
X
X
f (k) (x0 )
xk
k
ln(1 − x) =
(x − x0 ) = −
k!
k
k=0
(3.4.8)
k=1
Beispiele (i-iii) sind kein Zufall: Verschärfung des Satzes zur gliedweisen Differentiation von
Reihen (Rechenregel (b), Gl.(3.3.20)) im Fall von Potenzreihen möglich
87
Differentiation von Potenzreihen: Eine Potenzreihe
P∞
n=0
an (x − x0 )n mit dem Kon-
vergenzradius R ist für alle x ∈ (x0 − R, x0 + R) beliebig oft differenzierbar mit
∞
∞
X
n!
dk X
n
a
(x
−
x
)
=
an (x − x0 )n−k
n
0
k
dx n=0
(n
−
k)!
n=k
(3.4.9)
Beweis: zweiteilig
(a) Entscheidender Punkt: Konvergenzradius ändert sich bei Differentiation nicht
−→ betrachte Konvergenzradius Rk der k-ten Ableitung (beide Folgen absolut konv.)
Rk
1/n
n!
= lim sup
|an |
(n − k)!
n→∞
p
p
= lim sup n n(n − 1) · · · (n − (k − 1)) · lim sup n |an |
| n→∞
{z
} | n→∞ {z
}
ln[n(n−1)···(n−(k−1))]
=R
n
=1
= lim sup e
n→∞
= R
−→ gleichmäßige Konvergenz der Potenzreihe überträgt sich auf jede Ableitung
(b) Potenzreihen und alle Ableitungen sind für x ∈ (x0 − r, x0 + r) mit r < R gleichmäßig
konvergent und erfüllen damit die Voraussetzungen des allgemeinen Satzes zu Funktionenreihen.
Gl.(3.4.9) für beliebige Potenzreihen ergibt gerade
∞
dk X
n
a
(x
−
x
)
n
0 dxk
n=0
= n! an
(3.4.10)
x=x0
−→ Potenzreihe ist mit ihrer Taylorreihe identisch
Taylorentwicklung für infinitesimale x − x0 : Falls x − x0 klein ist, impliziert der Satz
von Taylor für Funktionen, die mindestens 2-fach differenzierbar sind
f (x) = f (x0 ) +
df
(x0 ) (x − x0 ) + O((x − x0 )2 )
dx
(3.4.11)
bzw für nur 1-fach differenzierbare Funktionen
f (x) = f (x0 ) +
df
(x0 + θ(x − x0 )) (x − x0 )
dx
88
(Restglied nach Lagrange) (3.4.12)
Man erhält also für die infinitesimale Änderung df von f beim Übergang von x0 zum
infinitesimal entfernten x = x0 + dx in beiden Fällen in führender Ordnung von dx
df := f (x0 + dx) − f (x0 ) =
df
(x0 ) dx
dx
(3.4.13)
−→ ist formale Legitimation für Rechnen mit Differentialen df und dx
3.5
Extrema
Definition: Ein Wert f (x0 ) mit x0 ∈ D heißt lokales Minimum bzw Maximum der
Funktion f : D → R, wenn es ein δ > 0 gibt, so dass für alle x ∈ D mit |x − x0 | < δ gilt
f (x0 ) ≤ f (x)
bei Minimum
f (x0 ) ≥ f (x)
bei Maximum
(3.5.1)
Notwendige Bedingung für Extremum: Falls f : I → R im inneren Punkt x0 ∈ I ein
Extremum besitzt und außerdem in x0 differenzierbar ist, so gilt
f ′ (x0 ) = 0
(3.5.2)
Beweis: betrachte exemplarisch Maximum
−→ dann existiert eine Umgebung von x0 , in der gilt

f (x) − f (x0 )  ≥ 0 für x < x0
 ≤ 0 für x > x
x − x0
0
−→ dementsprechend erhält man im Grenzwert x → x0
f (x) − f (x0 )
= 0,
x→x0
x − x0
f ′ (x0 ) = lim
wie behauptet.
Hinreichende Bedingung für Extremum: Falls f : I → R auf I 2n-fach (n ≥ 1) stetig
differenzierbar und f (k) (x0 ) = 0 für alle k = 1, . . . , 2n − 1 ist, so besitzt f in x0
ein strenges lokales Minimum, falls
f (2n) (x0 ) > 0
ein strenges lokales Maximum, falls f (2n) (x0 ) < 0
89
(3.5.3)
Beweis: die Funktion f (x) − f (x0 ) sowie ihre ersten 2n − 1 Ableitungen verschwinden an der
Stelle x0
−→ erlaubt Verwendung der Regel von Bernoulli - de l’Hopital in der Form (3.3.31)
f (x) − f (x0 )
f (2n) (x0 )
f (2n) (x)
=
lim
=
x→x0 (x − x0 )2n
x→x0 (2n)!
(2n)!
lim
−→ das Vorzeichen von f (2n) (x0 ) bestimmt, ob f (x) in der unmittelbaren Umgebung von
x0 größer oder kleiner als f (x0 ) ist
Beispiel: f (x) = x3 ln(1 − x) bei x0 = 0
−→ werte Ableitungen über Reihenentwicklung (3.4.8) des ln aus
∞
X
1 n+3
x ln(1 − x) = −
x
n
n=1
3
∞
Xn+3
d 3
x=0
x ln(1 − x) = −
xn+2 = 0
dx
n
n=1
∞
X (n + 3)(n + 2)
d2 3
x=0
x
ln(1
−
x)
=
−
xn+1 = 0
2
dx
n
n=1
∞
X (n + 3)(n + 2)(n + 1)
d3 3
x=0
x
ln(1
−
x)
=
−
xn = 0
3
dx
n
n=1
∞
X
d4 3
x=0
x
ln(1
−
x)
=
−
(n + 3)(n + 2)(n + 1)xn−1 = −24 < 0
dx4
n=1
−→ Maximum
90
Kapitel 4
Integralrechnung bei Funktionen
einer Variablen
4.1
4.1.1
Grundlegende Begriffe: Riemann-Integral
Definition
Ziel: Berechne Fläche unter Kurve (d.h. insbesondere die Fläche von geometrischen Objekten, deren Ränder als Funktionen f (x) gegeben sind)
Idee: Approximiere Fläche unter krummer Kurve durch die (bekannte) Fläche von Rechtecken, die an die Kurve anliegen
−→ intuitiv klar, aber beliebig viele Realisierungen vorstellbar
6f (x)
Untersumme
6
f (x)
.
..
...
.
.
@ ...
R ....
@
...
.
.
.
.
.
.
.
.....
.
.
.
...........
....
.....
..................... ..........................
.
.
.
.
...
.
.
.
.
.
.
.
.
.
.
.
.
.
....................
...
.....
....
....
.
.
.
..
..
.
..
..
....
fkmin .................
.
..... .....
...............
.............................. ........................ ?............
.
.
.
.
.
...................
..
....
....
...
.
.
.
.
...
....
..
....
....
...
x0
=a
....
...
....
...
x1 x2
···
....
...
Obersumme
fkmax
x
-
....
...
x0
=a
xn(D)
=b
91
....
...
....
...
x1 x2
...
....
···
....
...
xn(D)
=b
x
-
Mathematische Formalisierung:
Definition: Als Zerlegung Z des Intervalls [a, b] versteht man einen Satz geordneter
Zwischenpunkte
Z :=
x0 , x1 , . . . xn(Z) a = x0 < x1 < x2 . . . < xn(Z) = b
(4.1.1)
−→ Z zerlegt [a, b] in n(Z) unterschiedlich lange Abschnitte
Definition: Falls die Funktion f (x) auf dem Intervall [a, b] beschränkt ist, Z eine Zerlegung
von [a, b] ist und
fkmin := inf f (x)x ∈ [xk−1 , xk ] > −∞
fkmax := sup f (x)x ∈ [xk−1 , xk ] < +∞
(kleinster “Funktionswert”)
(4.1.2)
(größter “Funktionswert”)
(4.1.3)
den kleinsten und größten Funktionswert (präziser: die größte untere und kleinste obere
Schranke der Funktion) auf dem Teilintervall [xk−1 , xk ], k = 1, . . . , n(Z), bezeichnen (d.h.
man hat fkmin ≤ f (x) ≤ fkmax ∀x ∈ [xk−1 , xk ]), nennt man
n(Z)
S(Z) :=
X
fkmin (xk − xk−1 )
die Untersumme
(4.1.4)
X
fkmax (xk − xk−1 )
die Obersumme
(4.1.5)
k=1
n(Z)
S(Z) :=
k=1
zur Zerlegung Z.
−→ die Fläche unter der Kurve wird um so besser approximiert, je kleiner die Breite aller
Teilintervalle [xk−1 , xk ] ist
Offensichtlich gilt für beliebige Zerlegung (f (x) war beschränkt vorausgesetzt worden)
−∞ < S(Z) ≤ S(Z) < +∞
(4.1.6)
Definition: Eine auf dem Intervall [a, b] beschränkte Funktion f (x) heißt Riemannintegrierbar auf [a, b], falls sup S(Z) = inf S(Z). Man schreibt dann
Z
Z
sup S(Z) = inf S(Z) ≡
Z
Z
Z
a
b
dx f (x) ≡
Z
b
f (x) dx
(4.1.7)
a
Offensichtliche Bedingung für supZ S(Z) = inf Z S(Z): fkmin und fkmax müssen sich für verschwindende Abschnittsbreite, xk − xk−1 → 0, beliebig annähern
92
Satz: f (x) ist integrierbar über [a, b], falls f (x) auf [a, b] (zumindest stückweise) stetig ist.
In anderen Worten: der genaue Funktionswert, der für das Intervall [xk−1 , xk ] als Repräsentant verwendet wird, darf im Limes xk − xk−1 → 0 keine Rolle spielen
−→ erlaubt
4.1.2
Alternative Formulierung des Riemann-Integrals
Definition: Wähle dazu aus jedem Teilintervall [xk−1 , xk ] einen beliebigen Punkt ξk aus:
die Menge aller ξk bezeichnet man als Besetzung B zur Zerlegung Z
ξk xk−1 ≤ ξk ≤ xk ; 1 ≤ k ≤ n(Z)
B(Z) :=
(4.1.8)
−→ Riemann-Summe definiert als
n(Z)
S(Z, B) =
X
(xk − xk−1 )
|
{z
}
f (ξk )
| {z }
(4.1.9)
k=1
|{z}
gehe alle charakter.
Breite
Abschnitte durch f (x)-Wert
des Abschnitts
im Abschnitt
Zur Charakterisierung der Zerlegung noch benötigt: Maschenweite der Zerlegung
δ(Z) := max |xk − xk−1 |
(4.1.10)
k
−→ δ(Z) → 0 impliziert, dass die Breite jedes Teilintervalls gegen Null geht
Satz: Eine auf dem beschränkten Intervall [a, b] beschränkte Funktion f (x) ist genau dann
über [a, b] Riemann-integrierbar, wenn limδ(Z)→0 S(Z, B) existiert:
Z
n(Z)
b
dx f (x) =
a
4.1.3
lim
δ(Z)→0
X
k=1
f (ξk ) (xk − xk−1 )
(4.1.11)
Eigenschaften des Riemann-Integrals
(folgen direkt aus Definition)
• f , g integrierbar =⇒ f + g integrierbar
Z b h
Z b
Z b
i
dx f (x) + g(x) =
dx f (x) +
dx g(x)
a
a
93
a
(4.1.12)
• f integrierbar =⇒ αf , |f | integrierbar
Z b h
Z b
i
dx αf (x) = α
dx f (x)
a
a
Z b
Z b
dx |f (x)| ≥ dx f (x)
a
(4.1.13)
(4.1.14)
a
• f , g integrierbar =⇒ f · g integrierbar
• f integrierbar, inf x∈[a,b] |f (x)| > 0 =⇒ 1/f integrierbar
• f , g integrierbar, f (x) = g(x) ∀x ∈ [a, b] bis auf endlich viele Punkte
Z b
Z b
=⇒
dx f (x) =
dx g(x)
a
(4.1.15)
a
• f integrierbar über [a, b] und [b, c] =⇒ f integrierbar über [a, c]
Z b
Z c
Z c
dx f (x) +
dx f (x) =
dx f (x)
a
b
(4.1.16)
a
• für a < b definiert man
Z
a
dx f (x) := 0
(4.1.17)
a
Z
b
a
dx f (x) := −
Z
b
dx f (x)
(4.1.18)
a
−→ Gl.(4.1.16) und (4.1.18) zusammen erlauben Einschieben eines beliebigen Punkts c
Z b
Z c
Z b
dx f (x) =
dx f (x) +
dx f (x)
(4.1.19)
a
a
c
d.h. c muss nicht zwischen a und b liegen (sofern Integrierbarkeit gegeben ist)
Satz: Vertauschbarkeit von Grenzwertbildung und Integration Falls die Funktionen fn (x) für alle n beschränkt und über [a, b] integrierbar sind und die fn (x) auf [a, b]
gleichmäßig gegen die Funktion f (x) konvergieren, ist f (x) ebenfalls integrierbar und es gilt
Z b
Z b
Z b
lim
dx fn (x) =
dx lim fn (x) =
dx f (x)
(4.1.20)
n→∞
a
n→∞
a
94
a
4.2
Unbestimmtes Integral
Satz: Falls f (x) auf dem Intervall [a, b] stetig ist, ist die Funktion
Z x
F (x) :=
dt f (t)
x ∈ [a, b]
(4.2.1)
a
differenzierbar auf [a, b] mit
F ′ (x) = f (x)
∀ x ∈ [a, b]
(4.2.2)
−→ klar aus Definition der Ableitung und des Integrals
Z x+ǫ
Z x
1
′
F (x) = lim
dt f (t) −
dt f (t)
ǫ→0 ǫ
a
a
Z
1 x+ǫ
dt f (t)
= lim
ǫ→0 ǫ x
−→ da f (t) stetig vorausgesetzt ist, wird jeder reelle Wert zwischen f (x) und f (x + ǫ) von
f (t) angenommen
−→ es gibt ein ξ ∈ [x, x + ǫ], für das f (ξ)ǫ gerade mit dem Integralwert übereinstimmt
1
F ′ (x) = lim f (ξ)ǫ
ǫ→0 ǫ
= f (x)
x≤ξ ≤x+ǫ
Definition: Falls F ′ (x) = f (x) auf dem Intervall [a, b] gilt, heißt F Stammfunktion von
f . Man schreibt dann
Z
F (x) =
dx f (x)
↑
↑ ↑
beachte Schreibweise
(4.2.3)
−→ Stammfunktion ist nur bis auf Konstante eindeutig bestimmt
Hauptsatz der Differential- und Integralrechung: Falls f (x) stetig auf [a, b] und F
dort Stammfunktion von f ist, gilt
Z b
dx f (x) = F (b) − F (a)
a
95
(4.2.4)
Beispiele: (Nachweis durch Ableitung)
(i) Potenzen
f (x) = xα (α 6= −1)
f (x) =
1
x
xα+1
+ const
α+1
=⇒
F (x) =
=⇒
F (x) = ln(x) + const
(4.2.5)
(4.2.6)
(ii) Exponentialfunktion
f (x) = exp(µx)
=⇒
exp(µx)
+ const
µ
(4.2.7)
F (x) = x ln(x) − x + const
(4.2.8)
(4.2.9)
F (x) =
(iii) Logarithmus
f (x) = ln(x)
=⇒
(iv) Trigonometrische Funktionen
f (x) = sin(x)
=⇒
F (x) = − cos(x) + const
f (x) = cos(x)
=⇒
F (x) = sin(x) + const
(4.2.10)
Konvention: const wird bei Angabe der Stammfunktion immer weggelassen
4.3
Integrationsmethoden
Vorbemerkung: Integration komplizierter Integranden ist häufig auftretendes Problem in
theoretischer Physik
• technische Fertigkeiten zur Integration gehören zum Basiswissen
• allerdings ist Integration keine rein “mechanische” Aufgabe wie die Differentiation,
sondern erfordert Erfahrung mit Integraltypen
• heute vorhandenes Wissen ist über Jahrhunderte akkumuliert worden
• nicht überraschend, wenn manche Integrationstricks nicht unmittelbar naheliegen
• in Praxis: häufiger Rückgriff auf Tabellenwerke
96
Zur Integration nicht-elementarer Funktionen stehen im wesentlichen vier Techniken zur
Verfügung:
• partielle Integration
• Substitution
• Partialbruchzerlegung
• gliedweise Integration von Reihen
4.3.1
Partielle Integration
−→ ist Umkehrung der Produktregel
h(x) = f (x) g(x)
=⇒
h′ (x) = f ′ (x) g(x) + f (x) g ′(x)
−→ f · g ist Stammfunktion von f ′ g + f g ′
Z
Z
′
f (x) g(x) =
dx f (x) g(x) + dx f (x) g ′(x)
−→ auflösen
Z
′
dx f (x)g (x) = f (x)g(x) −
Z
dx f ′(x)g(x)
(4.3.1)
−→ anwendbar, wenn Stammfunktion von Teil des Integranden bekannt ist
R
R
−→ sinnvoll, wenn f ′ g einfacher als f g ′ ist
Beispiele: Standardtypen für partielle Integration
(i) Potenz mal trigonometrischer Funktion, Exponentialfunktion, . . .
Z
Z
dx |{z}
x exp(x) = x exp(x) − dx exp(x) = (x − 1) exp(x)
| {z }
=f
=g ′
(ii) trigonometrische Funktion mal beliebiger Funktion f
Z
Z
dx f (x) sin(x) = −f (x) cos(x) + dx f ′(x) cos(x)
|{z} | {z }
=f
=g ′
Z
′
= −f (x) cos(x) + f (x) sin(x) − dx f ′′ (x) sin(x)
97
(4.3.2)
−→ rekursive Anwendung der partiellen Integration erlaubt es, jede beliebige Potenz
wegzudifferenzieren
−→ alternative kann man dieses Resultat auch in der folgenden Form anwenden
Z
dx [f (x) + f ′′ (x)] sin(x) = −f (x) cos(x) + f ′ (x) sin(x)
(4.3.3)
(iii) Logarithmus mal Potenz
Z
Z
x2 1
x2
x2
x2
dx |{z}
x ln(x) =
ln(x) − dx
=
ln(x) −
| {z }
2
2 x
2
4
′
=g
4.3.2
(4.3.4)
=f
Substitution
−→ ist Umkehrung der Kettenregel
H(x) = F (g(x))
=⇒
−→ F (g(x)) ist Stammfunktion von
F (g(x)) =
Z
dF
dg
dH
(x) =
(g(x)) (x)
dx
dg
dx
dF dg
(bezüglich der Variablen x)
dg dx
dx f (g(x))
dg
(x)
dx
mit f (g) :=
dF
(g)
dg
(4.3.5)
dg
(x) hat, wird das Integral bezüglich x
dx
durch die Stammfunktion F (g) von f (g) bezüglich g gelöst, wobei F (g) an der Stelle
−→ falls der Integrand also die Form f (g(x))
g(x) zu nehmen ist
−→ bei bestimmtem Integral (Hauptsatz der Differential und Integralrechnung)
Z b
dg
F (g(b)) − F (g(a)) =
dx f (g(x)) (x)
dx
a
dF
(g) bezüglich der Variablen g ist,
dg
Z
F (g) =
dg f (g)
(4.3.6)
Da F (g) Stammfunktion von f (g) =
(4.3.7)
lässt sich (4.3.6) noch umschreiben in die Form
Z
a
b
dg
dx f (g(x)) (x) =
dx
98
Z
g(b)
dg f (g)
g(a)
(4.3.8)
In der Praxis ist f (g(x)) meist nicht von vornherein in der Form einer verschachtelten Funktidg
on sichtbar, was aber kein Problem darstellt. Vielmehr muss zuerst g(x) über
identifiziert
dx
werden
−→ sobald ein invertierbares g(x) gefunden ist, lässt sich diese Funktion (zumindest im
Prinzip) nach x = x(g) auflösen
Hat man also ursprünglich ein Integral der Form
Z
dg
dx f˜(x) (x)
dx
lässt sich daraus die Form (4.3.5) gewinnen, indem man x(g) in f˜(x) einsetzt
f˜(x) = f˜(x(g(x))) ≡ f (g(x))
2
Bsp: f˜(x) = ex ; g(x) = x2 =⇒ f (g) = eg
−→ die genaue analytische Form von f (g(x)) als Funktion von x wird aber gar nicht
benötigt
dg
Die Kettenregel ist daher anwendbar, falls der Integrand die Form f (x) dx
(x) hat (also prak-
tisch immer).
−→ ist wichtigstes Instrument zur Integration komplizierter Funktionen
Alternative Herleitung der Substitutionsregel
Betrachte direkt Riemann-Summe (4.1.9) für speziellen Integranden in (4.3.5) (n = n(Z))
S(Z, B) =
n
X
k=1
dg
f (g(ξk )) (ξk )
(xk − xk−1 )
dx
ξk ∈[xk−1 ,xk ]
(4.3.9)
Falls g(x) streng monoton wachsend oder fallend ist (was abschnittsweise immer gilt), induziert die Zerlegung
x0 = a < x1 < . . . < xn = b
von [a, b] eine Zerlegung des Intervalls von g(a) bis g(b):
g(a) < g(b) :
g0 = g(x0 ) < g1 = g(x1 ) < . . . < gk = g(xk ) < . . . < gn = g(xn )
g(a) > g(b) :
g0 = g(xn ) < g1 = g(xn−1 ) < . . . < gk = g(xn−k ) < . . . < gn = g(x0 )
99
Falls die Maschenweite δ(Z) klein genug ist, erhält man in jedem Teilintervall [xk−1 , xk ]
durch Taylorentwicklung um den Punkt ξk ∈ [xk−1 , xk ]
dg
(ξk )(xk − ξk ) + O (xk − ξk )2
dx
dg
−g(ξk ) − (ξk )(xk−1 − ξk ) − O (xk−1 − ξk )2
dx
dg
(ξk )(xk − xk−1 ) + O (xk − xk−1 )2
=
dx
dg
=
(ξk )(xk − xk−1 ) + O δ(Z)2
dx
g(xk ) − g(xk−1) =
g(ξk ) +
−→ Einsetzen in die Riemann-Summe
S(Z, B) =
n
X
k=1
f (g(ξk ))|ξk ∈[xk−1 ,xk ] (g(xk ) − g(xk−1)) + O δ(Z)2
(4.3.10)
−→ da g(x) streng monoton vorausgesetzt ist, liegt g(ξk ) stets zwischen
gk−1 = g(xk−1 ) und
gk = g(xk ),
gn−(k−1) = g(xk−1 ) und
gn−k = g(xk ),
falls g(x) streng monoton steigend
falls g(x) streng monoton fallend
−→ ηk = g(ξk ) stellt also eine Besetzung des jeweiligen g-Intervalls dar
 n
X



f (ηk )|ηk ∈[gk−1 ,gk ] (gk − gk−1)
falls g(a) < g(b)


k=1
S(Z, B) =
n
X



f (ηk )|ηk ∈[gn−(k−1) ,gn−k ] (gn−k − gn−(k−1) ) falls g(a) > g(b)


k=1
−→ ordne Reihe im Fall g(a) > g(b) um (l = n − k + 1)
 n
X



f (ηk )|ηk ∈[gk−1 ,gk ] (gk − gk−1) falls g(a) < g(b)


k=1
S(Z, B) =
n
X


 −
f (ηl )|ηl ∈[gl−1 ,gl ] (gl − gl−1 ) falls g(a) > g(b)


l=1
−→ im Limes δ(Z) → 0 erhält man daher
 Z
g(b)



dg f (g)

g(a)
Z g(a)
Z
lim S(Z, B) =

δ(Z)→0


dg f (g) =
 −
g(b)
falls g(a) < g(b)
g(a)
−→ führt gerade wieder auf (4.3.8)
100
(4.3.11)
g(b)
dg f (g) falls g(a) > g(b)
Beispiele: Standardtypen von Substitutionen
(i) Vorzeicheninversion (beachte: Benennung der Integrationsvariablen ist beliebig)
Z
Z
Z
− dx f (−x) =
dg f (g) =
dx f (x)
(4.3.12)
g(x) = −x
=⇒
dg
(x) = −1
dx
1
x
−→ Integral klar, falls über positive Bereiche von x integriert wird
Z b
1
0 < a < b
dx = ln(b) − ln(a)
x
a
konkretes Beispiel: f (x) =
−→ falls über einen Bereich negativer x integriert wird, gehe vor Integration mittels
Substitution zu positivem g über
Z b
Z b
1
1
dx
(−1)
=
dx
| {z }
x
−x
a
a
|{z}
=f (−x)
Z
a < b < 0
dg
= dx
(x)
g(b)
1
g
g(a)
= ln(g(b)) − ln(g(a))
=
dg
= ln(−b) − ln(−a)
= ln |b| − ln |a|
−→ also allgemein
Z
a
b
b
1
dx
= ln x
a
(4.3.13)
(ii) Funktionen von trigonometrischen Funktionen
Z
Z
dx f (sin(x)) cos(x) =
dg f (g)
dg
(x) = cos(x)
dx
=⇒
g(x) = sin(x)
konkretes Beispiel: f (sin(x)) = sin(x)
Z
Z
g2
sin(x)2
dx sin(x) cos(x) =
dg g =
=
2
2
101
(4.3.14)
(4.3.15)
−→ funktioniert natürlich auch umgekehrt
Z
Z
dx f (cos(x)) sin(x) =
dg f (−g)
dg
(x) = sin(x)
dx
konkretes Beispiel: f (cos(x)) =
Z
dx tan(x) =
Z
=⇒
(4.3.16)
g(x) = − cos(x)
1
cos(x)
sin(x)
=
dx
cos(x)
Z
dg
−1
= − ln |g| = − ln |cos(x)| (4.3.17)
g
(iii) Elimination von Wurzeln
2
Z
Z
f (x)
1 a 2
dx √
=
dg f
g −b
a 4
ax + b
dg
2
(x) = (ax + b)−1/2
g(x) = (ax + b)1/2
a
dx
konkretes Beispiel: f (x) = x
Z
Z
x
1 a2 2
g −b
dx √
=
dg
a 4
ax + b
1 a2 g 3
=
− bg
a 4 3
1
2√
= 2 ax + b (ax + b) − b
a
3
√
1
2
2
= 2 ax + b ax − b
a
3
3
(4.3.18)
(4.3.19)
(iv) Potenzen im Nenner
Z
f (x)
dx 2 = −
x
1
g(x) =
x
Z
1
dg f
g
1
dg
(x) = − 2
dx
x
(4.3.20)
konkretes Beispiel: f (x) = ln(x)
Z
Z
ln(x)
1
dx 2
= − dg ln
x
g
Z
=
dg ln(g)
= g ln(g) − g
ln(x) 1
−
= −
x
x
102
(4.3.21)
(v) Integrale mit Gauß-Funktionen: Betrachte elementarste Version
Z
Z
−1
2
2
dx x exp −αx
=
dx (−2αx) exp −αx
| {z }
| {z }
2α
dg
= dx
=g
Z
−1
=
dg exp(g)
2α
exp(g)
= −
2α
exp (−αx2 )
= −
2α
(vi) Bestimmung von g(x): Betrachte
Z
dx √
ax2
1
+ bx + c
für a > 0 und kürze im weiteren Wurzel mit h ab,
h(x) :=
√
ax2 + bx + c
dg
ist direkt erkennbar
dx
Mögliche Lösungsstrategie: Suche Funktion u(x) mit der Eigenschaft
−→ weder g selbst noch g ′ =
u(x) = α
d
[h(x)u(x)]
dx
mit konstantem α
−→ falls das gelingt, ist Substitution möglich
Z
Z
1
u(x)
dx
=
dx
h(x)
h(x)u(x)
Z
1
d
=
dx
α [h(x)u(x)]
h(x)u(x) dx | {z }
| {z }
=g(x)
=f (g(x))
= α
Z
dg
1
g
= α ln |g|
= α ln |h(x)u(x)|
Frage also: Gibt es solch ein u(x)?
103
(4.3.22)
−→ betrachte dazu die Ableitung von h
2ax + b
2ax + b
=
2h(x)
2 ax2 + bx + c
′
2h(x)h (x) = 2ax + b
h′ (x) =
=⇒
=⇒
√
d
[h(x)h′ (x)] = a
dx
d
[h(x)h′ (x) + αh(x)] = a + αh′ (x)
dx
d
a
=⇒
[h(x) (h′ (x) + α)] = α h′ (x) +
dx
α
√
−→ für α = a erhält man
√
√ i
√ dh
=
a h′ (x) + a
h(x) h′ (x) + a
dx
{z
}
|
=⇒
=u(x)
−→ die Lösung des Ausgangsintegrals lautet also
Z
√
√ 1
=
a ln h(x) h′ (x) + a dx √
ax2 + bx + c
√ √
√
1
=
a ln a ax2 + bx + c + (2ax + b)
2
√ √
√
2
a ln 2 a ax + bx + c + 2ax + b + const
=
4.3.3
(4.3.23)
Partialbruchzerlegung
Falls der Integrand eine gebrochen rationale Funktion ist,
p(x)
f (x) =
q(x)
p(x) =
n
X
i
ai x
i=0
q(x) =
m
X
bj xj
j=0
ist Faktorisierung des Nenner-Polynoms und anschließende Partialbruchzerlegung hilfreich
−→ gehe Schritte einzeln durch
Faktorisierung des Nenner-Polynoms: mittels Fundamentalsatz der Algebra (in R)
q(x) = bm
µ
Y
gk (x)µk
gk (x) = xνk + qk,1 xνk −1 + . . . + qk,νk
(4.3.24)
k=1
µ
X
νk µk = m
(4.3.25)
k=1
−→ Faktorisierung von q(x) in elementare Polynome, die keine Nullstellen besitzen
−→ beruht im wesentlichen auf Identifikation der Nullstellen von q(x)
104
Beispiele:
x2 − 1 = (x + 1)(x − 1)
⇐⇒
b2 = 1, g1 = x + 1, g2 = x − 1, µ1 = µ2 = 1
x3 − x2 + x − 1 = (x2 + 1)(x − 1)
⇐⇒
b3 = 1, g1 = x2 + 1, g2 = x − 1, µ1 = µ2 = 1
Partialbruchzerlegung: zerlege Hauptnenner in Einzelteile
1
1
Qµ
=
q(x)
bm k=1 gk (x)µk
µ
1 X Ak (x)
=
bm k=1 gk (x)µk
−→ die Ak (x) müssen durch Koeffizientenvergleich bestimmt werden
Beispiele:
1
1
=
−1
(x + 1)(x − 1)
1
1
1
=
−
2 x−1 x+1
1
1
=
3
2
2
x −x +x−1
(x + 1)(x − 1)
1
1
x+1
=
−
2 x − 1 x2 + 1
x2
−→ nach Partialbruchzerlegung: termweise Integration
105
(4.3.26)
Beispiele:
Z
Z
1
1
1
1
dx 2
dx
=
− dx
x −1
2
x−1
x+1
1
[ln |x − 1| − ln |x + 1|]
=
2 1 x − 1 =
ln
2 x + 1
Z
Z
Z
Z
1
1
x
1
1
dx
=
− dx 2
dx 3
− dx 2
x − x2 + x − 1
2
x−1
+ 1}
+ 1}
|x {z
|x {z
g1 = x2 + 1
g2 = arctan(x)
dg2
1
dg1
= 2x
= 2
dx
x +1
dx
Z
Z
1
1
ln(x − 1) − dg1 − dg2 1
=
2
g1
1
1
=
ln |x − 1| − ln |g1 | − g2
2
2
1
1
2
ln |x − 1| − ln |x + 1| − arctan(x)
=
2
2
Z
4.3.4
Gliedweise Integration von Reihen
Satz: Falls alle Glieder fn (x) der Funktionenreihe
P∞
n=0
fn (x) über das Intervall [a, b]
integrierbar sind und die Reihe auf [a, b] gleichmäßig konvergiert, ist die Reihe ebenfalls
integrierbar und es gilt
Z
dx
∞
X
fn (x) =
n=0
∞ Z
X
dx fn (x)
(4.3.27)
n=0
Beispiel: Exponentialfunktion
exp(x) =
∞
X
xn
n=0
n!
=⇒
Z
dx exp(x) =
∞ Z
X
n=0
dx
xn
+ const
n!
∞
X
xn+1
=
+ const
(n + 1)!
n=0
=
=
∞
X
xk
k=1
∞
X
k=0
k!
+ const
xk
+ const
k!
= exp(x) + const
106
(4.3.28)
4.4
Uneigentliche Integrale
−→ 3 Grundtypen zu diskutieren
4.4.1
Integration über ein unbeschränktes Intervall
Definition: Falls f (x) auf [a, ∞) beschränkt und auf jedem Intervall [a, b] mit a < b < ∞
integrierbar ist, nennt man
Z
∞
dx f (x) :=
lim
b→∞
a
ein uneigentliches Integral. Falls limb→∞
tegral konvergent, sonst divergent.
Rb
a
Z
b
dx f (x)
(4.4.1)
a
dx f (x) existiert, heißt das uneigentliche In-
−→ existiert nur für Funktionen, die für x → ∞ ausreichend schnell abfallen
Beispiel:
Z
1
∞
dx
1
xα

b
1
−1


=
lim
α>1



b→∞ (α − 1)xα−1
α−1

1



=
α=1
lim [ln(x)]b1 = ∞

b→∞



b


−1


 lim
= ∞
α<1
b→∞ (α − 1)xα−1
1
(4.4.2)
−→ gleiches Vorgehen bei Grenze −∞
4.4.2
Integration über eine am Rand unbeschränkte Funktion
Definition: Falls f (x) auf dem Intervall (a, b] definiert und auf jedem Intervall [a + δ, b]
mit 0 < δ < b − a integrierbar ist, nennt man
Z b
Z
dx f (x) := lim
δ→0
a
ein uneigentliches Integral. Falls limδ→0
Integral konvergent, sonst divergent.
Rb
a+δ
b
dx f (x)
dx f (x) existiert, heißt das uneigentliche
−→ existiert nur für Funktionen, die für x → a nicht zu schnell anwachsen
107
(4.4.3)
a+δ
Beispiel:
Z
1
dx
0
1
xα

1−α 1
1
x


=
α>1
lim 1 − δ 1−α = ∞
lim



δ→0 1 − α
1 − α δ→0

δ



=
lim [ln(x)]1δ = lim [0 − ln(δ)] = ∞
α=1

δ→0
δ→0



1−α 1


x
1
1


 lim
=
lim 1 − δ 1−α =
α<1
δ→0 1 − α
1 − α δ→0
1−α
δ
(4.4.4)
−→ gleiches Vorgehen bei Grenze b
4.4.3
Integration über eine im Inneren unbeschränkte Funktion
−→ zwei mögliche Verfahrensweisen
Standardvorgehen bei uneigentlichem Integral:
Z b
Z x0 −δ
Z b
dx f (x) =
lim
dx f (x) + lim+
dx f (x)
δ→0+ a
ǫ→0
a
x0 +ǫ
{z
}
|
beide Beiträge müssen getrennt existieren
(4.4.5)
Cauchy Hauptwert-Integral: verknüpft beide Terme in (4.4.5)
Z x0 −δ
Z b
Z b
dx f (x) +
dx f (x)
P
dx f (x) :=
lim
(4.4.6)
δ→0+
a
x0 +δ
a
|
{z
}
nur Grenzwert der Summe der beiden Beiträge muss existieren
−→ erlaubt Kompensation von unendlich großen positiven und negativen Beiträgen
−→ entspricht häufig dem physikalisch erforderlichen Vorgehen
−→ limδ→0+ wird häufig nicht explizit aufgeführt, sondern implizit angenommen
Wichtigstes Cauchy Hauptwert-Integral: betrachte 1/x für a < 0 < b
Z −δ
Z b
Z b
1
1
1
dx
dx +
= lim+
dx
δ→0
x
x
x
a
a
+δ
b
−δ
+ ln
= lim+ ln
δ→0
a
+δ
b
= ln
−a
Illustration:
108
(4.4.7)
f (x) 6
−δ
-
a
+δ
b
x
−→ Integration über Singularität erfordert die Antisymmetrie des Integranden bezüglich
der Spiegelung an der Position der Singularität
−→ Integration von f (x)/x über 0 immer möglich, wenn f (0) beschränkt
Z b
Z b
Z b
f (x)
f (x) − f (0)
f (0)
dx
=
+
dx
dx
x
x
x
a
a
a
Z b
b
f (x) − f (0)
+ f (0) ln
=
dx
x
−a
a
109
(4.4.8)
Kapitel 5
Komplexe Zahlen
5.1
Elementare Definitionen
5.1.1
Grundbegriffe
Grundproblem bei reellen Zahlen: keine Lösung zu x2 + 1 = 0 etc
√
Beobachtung: Arbeiten mit “formalen” Lösungen x± = ± −1 führt häufig auf
sinnvolle Resultate
−→ löse Problem durch Rechnen mit Punkten der Ebene, d.h. mit Paaren (a, b) von reellen
Zahlen, komplexe Zahlen genannt
−→ Ebene der komplexe Zahlen: komplexe Ebene (Gauß’ sche Zahlenebene)
6
imaginäre Achse
obere Halbebene
Imaginärteil von z = ℑ(z) = b
z
u
R
...
.
.....ϕ
...
..
s
Nullpunkt
= Paar (a, b)
reelle Achse
-
a = ℜ(z) = Realteil von z
untere Halbebene
110
Notation:
Zahlen auf imaginärer Achse = rein imaginäre z
Zahlen auf reeller Achse = rein reelle z
Abstand vom Urspung = Betrag von z, geschrieben |z|
Winkel gegen positive reelle Achse = Arcus (Argument, Phase) von z
−→ elementare geometrische Relationen:
5.1.2
√
a2 + b2
b
ϕ = arctg
a
a = R cos(ϕ)
(5.1.1)
b = R sin(ϕ)
(5.1.4)
|z| = R =
(5.1.2)
(5.1.3)
Operationen mit komplexen Zahlen
Gleichheit zweier komplexer Zahlen z1 = (a1 , b1 ) und z2 = (a2 , b2 ):
z1 = z2
⇐⇒
a1 = a2 und gleichzeitig b1 = b2
(5.1.5)
z1 6= z2
⇐⇒
a1 6= a2 und/oder b1 6= b2
(5.1.6)
Addition/Subtraktion:
z1 + z2 = (a1 + a2 , b1 + b2 )
−→ funktioniert wie Addition von Vektoren im R2
u
I
@
@ z2 = (a2 , b2 )
z1 + z2 @
@u
3
z1 = (a1 , b1 )
s
6
+
u
−z1 = (−a1 , −b1 )
111
(5.1.7)
dementsprechend:
−z = (−a, −b)
⇐⇒
z − z = (0, 0) ≡ 0
(5.1.8)
Multiplikation:
z1 · z2 := z1 z2 = ( a1 a2 − b1 b2 , a1 b2 + b1 a2 )
(5.1.9)
−→ völlig verschieden von Skalarprodukt von Vektoren
−→ Konstruktion hat gegenüber Skalarprodukt den Vorteil, dass Grundgesetze der
Multiplikation erfüllt sind, insbesondere
z1 · z2 = 0
⇐⇒
z1 = 0 und/oder z2 = 0
(5.1.10)
Beweis: für z1 · z2 = 0 folgt aus Real- und Imaginärteil
a1 a2 = b1 b2
a1 b2 = −b1 a2
a1 b22 = −b1 a2 b2 = −a1 a22
=⇒
−→ entweder gilt a1 = 0 oder man hat a2 = b2 = 0
−→ letzteres entspricht der Behauptung, betrachte daher den ersteren Fall unter der
Annnahme, dass entweder a2 oder b2 von Null verschieden ist
−→ in diesem Fall (a1 = 0) folgt aus den Ausgangsgleichungen
−b1 a2 = b1 b2 = 0
−→ falls entweder a2 oder b2 von Null verschieden ist, muss b1 = 0 gelten, so dass wieder
die Behauptung gezeigt ist
Division folgt aus Multiplikation:
=⇒
z1
= z3
⇐⇒
z2 · z3 = z1
z2
(a1 a2 + b1 b2 , −a1 b2 + b1 a2 )
z1
=
z2
a22 + b22
−→ Division durch alle z bis auf 0 möglich
112
(5.1.11)
Gl.(5.1.11) legt Definition der komplex konjugierten Zahl z ∗ (häufig auch z geschrieben)
nahe:
z ∗ = (a, −b)
(5.1.12)
z · z ∗ = (a2 + b2 , 0) = (|z|2 , 0)
1
z∗
(a, −b)
=
= 2
∗
z
z·z
a + b2
=⇒
=⇒
(5.1.13)
(5.1.14)
Potenz einer komplexen Zahl (n = natürliche Zahl, n > 0):
zn =
|z · z ·{z. . . · z}
n-faches Produkt
(5.1.15)
für z 6= 0
(5.1.17)
z0 = 1
1
z −n = n
z
für z 6= 0
(5.1.16)
−→ Standardrechenregeln für Potenzen
z n · z k = z n+k
(z n )k = z nk
z1n · z2n = (z1 · z2 )n
(5.1.18)
Zusammengefasst: Mit komplexen Zahlen kann man rechnen wie mit reellen Zahlen
5.1.3
Komplexe Zahlen als Erweiterung der reellen Zahlen: Komplexe Zahl i
Für alle Paare des Typs (a, 0) gehen die oben definierten Regeln für die Addition, Multiplikation etc exakt in die Regeln für die Addition, Multiplikation etc von reellen Zahlen über.
−→ Paare (a, 0) können mit den reellen Zahlen identifiziert werden
(a, 0) ≡ a
⇐⇒
az2 = (a, 0) · (a2 , b2 ) = (aa2 , ab2 )
(5.1.19)
−→ erklärt Multiplikation von komplexen und reellen Zahlen
−→ erlaubt wiederum, auch Paare (0, b) zu faktorisieren
(0, b) = b (0, 1)
−→ einzig fundamental neue Zahl ist (0, 1)
113
(5.1.20)
Abkürzung:
i = (0, 1)
⇐⇒
z = a + ib
(a, b ∈ R)
(5.1.21)
i2 = (−1, 0) = −1
1
i∗
(0, −1)
=
=
= −i
i
i · i∗
1
(5.1.23)
z ∗ = a − ib
(5.1.24)
(5.1.22)
Elementare Operationen lesen sich wie
z1 + z2 = (a1 + a2 ) + i(b1 + b2 )
(5.1.25)
z1 z2 = (a1 a2 − b1 b2 ) + i(a1 b2 + b1 a2 )
(a1 a2 + b1 b2 ) + i(−a1 b2 + b1 a2 )
z1
=
z2
a22 + b22
5.1.4
(5.1.26)
(5.1.27)
Multiplikation/Division in Polarkoordinatendarstellung
Kombiniere Multiplikation (5.1.26) mit Polarkoordinatendarstellung (5.1.1)–(5.1.4)
=⇒
z = R [cos(ϕ) + i sin(ϕ)]
h
z1 z2 = R1 R2 cos(ϕ1 ) cos(ϕ2 ) − sin(ϕ1 ) sin(ϕ2 )
+ i cos(ϕ1 ) sin(ϕ2 ) + sin(ϕ1 ) cos(ϕ2 )
= R1 R2 [cos(ϕ1 + ϕ2 ) + i sin(ϕ1 + ϕ2 )]
=⇒
|z1 z2 | = |z1 | |z2 |
(5.1.28)
i
(5.1.29)
(5.1.30)
arc(z1 z2 ) = arc(z1 ) + arc(z2 )
(5.1.31)
wiederholte Verwendung führt auf Moivre’sche Formel
z n = Rn [cos(nϕ) + i sin(nϕ)]
(5.1.32)
Analoges Vorgehen für Division:
z1
R1
=
[cos(ϕ1 − ϕ2 ) + i sin(ϕ1 − ϕ2 )]
z2
R2
5.2
(5.1.33)
Folgen, Reihen
Alle Begriffe der reellen Analysis aus Abschnitt 2.5 lassen sich direkt auf Folgen und Reihen
komplexer Zahlen übertragen, wenn der Absolutwert von reellen Zahlen durch den Betrag
114
(5.1.1) ersetzt wird. Das gilt insbesondere für die Begriffe der gewöhnlichen, absoluten und
gleichmäßigen Konvergenz von Reihen sowie den Konvergenzradius.
−→ keine Details hier
5.3
5.3.1
Elementare komplexe Funktionen
Exponentialfunktion
Naheliegende Definition der komplexen Exponentialfunktion: über Reihendarstellung
exp(z) =
∞
X
zn
n=0
n!
(∀ z)
(5.3.1)
−→ ist auf reeller Achse mit gewöhnlicher e-Funktion identisch
−→ die Reihe (5.3.1) erfüllt per Konstruktion die Funktionalgleichung (siehe Abschnitt 2.5)
exp(z1 + z2 ) = exp(z1 ) exp(z2 )
(5.3.2)
−→ Funktionalgleichung erlaubt Auswertung der Exponentialfunktion
exp(z) = exp(a + ib)
= exp(a) exp(ib)
∞
X
(ib)n
= exp(a)
n!
#
"n=0
∞
∞
2n+1
2n
X
X
(ib)
(ib)
= exp(a)
+
(2n)!
(2n + 1)!
}
|n=0 {z }
|n=0 {z
alle geraden Potenzen alle ungeraden Potenzen
"∞
#
∞
X (−1)n
X
(−1)n 2n+1
2n
= exp(a)
b +i
b
(2n)!
(2n + 1)!
n=0
n=0
Reihen ergeben gerade reelle trigonometrische Funktionen:
exp(z) ≡ ez = ea [cos(b) + i sin(b)]
=⇒
(5.3.3)
|ez | = eℜ(z)
(5.3.4)
arc(ez ) = ℑ(z)
(5.3.5)
−→ ez ist für alle z von Null verschieden
115
Gl.(5.3.3) mit a = 0 führt auf kompakte Polarkoordinatendarstellung von z
eiϕ = cos(ϕ) + i sin(ϕ)
z = R eiϕ
=⇒
(ϕ ∈ R)
(5.3.6)
Spezielle Werte der komplexen e-Funktion
e2πin = cos(2πn) + i sin(2πn) = 1
5.3.2
(5.3.7)
Sinus, Kosinus
Definition analog zur komplexen e-Funktion über Reihendarstellung
∞
X
(−1)n 2n+1
sin(z) =
z
(2n
+
1)!
n=0
cos(z) =
∞
X
(−1)n
n=0
(2n)!
z 2n
(5.3.8)
(5.3.9)
−→ auf reeller Achse mit gewöhnlichen trigonometrischen Funktionen identisch
−→ Symmetrien bleiben per Konstruktion ebenfalls erhalten
sin(−z) = − sin(z)
cos(−z) = cos(z)
(5.3.10)
Reihen von sin(z) und cos(z) sind aber Teile der Reihe von ez (schon zuvor gesehen)
∞
X
(iz)n
n=0
n!
∞
∞
X
X
i2n 2n
i2n+1
=
z
z 2n+1
+
(2n)!
(2n
+
1)!
|n=0 {z
|n=0
}
{z
}
alle geraden Potenzen alle ungeraden Potenzen
=
∞
X
(−1)n
n=0
(2n)!
z 2n + i
∞
X
(−1)n 2n+1
z
(2n
+
1)!
n=0
(5.3.11)
−→ Euler’sche Formeln
=⇒
exp(iz) = cos(z) + i sin(z)
1
[exp(+iz) + exp(−iz)]
cos(z) =
2
1
sin(z) =
[exp(+iz) − exp(−iz)]
2i
116
(5.3.12)
(5.3.13)
(5.3.14)
5.3.3
Wurzelfunktion: Mehrdeutigkeit
Bislang nur ganze Potenzen von z erklärt
−→ erkläre Wurzelfunktion über diese Potenzen
f (z) = z 1/n
⇐⇒
f n = |f |n einψ = z = |z|eiϕ
(5.3.15)
−→ Betrag von z 1/n unmittelbar klar
|z 1/n | = |z|1/n
(5.3.16)
Gl.(5.3.15) erlaubt aber mehrere, voneinander unabhängige Lösungen für die Phase von z 1/n :
einψ = eiϕ ⇐⇒ ψ =
ϕ + 2πν
ν = 0, 1, . . . k − 1
n
(5.3.17)
Man sagt: die komplexe Wurzelfunktion ist mehrdeutig
−→ die Lösung mit ν = 0 wird als Hauptwert bezeichnet
−→ gleiches Problem besteht beim komplexen Logarithmus
−→ kann durch Erweiterung des Definitionsbereichs auf mehrere komplexe Ebenen behoben
werden (hier keine Details)
5.4
Analytische Funktionen
Viele weitere Konzepte für reelle Funktionen lassen sich ebenfalls direkt übertragen:
Stetigkeit: Die Funktion f (z) heißt stetig am Punkt z0 , falls es für beliebiges, gegebenes
ǫ > 0 immer ein δ(ǫ, z0 ) > 0 gibt, so dass
|f (z) − f (z0 )| < ǫ
∀ |z − z0 | < δ(ǫ, z0 )
−→ impliziert, dass Real- und Imaginärteil von f (z) getrennt stetig sind
Differenzierbarkeit: Die Funktion f (z) heißt differenzierbar (oder auch: analytisch,
regulär, holomorph) am Punkt z0 , falls es für beliebiges, gegebenes ǫ > 0 immer ein δ(ǫ, z0 ) >
0 und eine komplexe Zahl w gibt, so dass
f (z) − f (z0 )
< ǫ ∀ |z − z0 | < δ(ǫ, z0 )
−
w
z − z0
⇐⇒
f (z) − f (z0 )
≡ f ′ (z0 )
z→z0
z − z0
w = lim
−→ Regeln für Differentiation können direkt aus dem Reellen übernommen werden
117
Kapitel 6
Differentialgleichungen: Erste Schritte
6.1
Motivation
Die Exponentialfunktion (2.5.10) erfüllt die Gleichung
d
exp(x) = exp(x) ,
dx
(6.1.1)
was in Abschnitt 3 sowohl direkt als auch durch gliedweise Differentiation der Exponentialreihe nachgewiesen wurde. Analog kann gilt für sin(x) und cos(x)
d2
sin(x) = − sin(x)
dx2
d2
cos(x) = − cos(x)
dx2
(6.1.2)
(6.1.3)
Die Gleichungen (6.1.1)–(6.1.3) stellen Relationen zwischen der Funktion selbst und ihren
Ableitungen her,
exp(x) :
sin(x), cos(x) :
d
y(x) = y(x)
dx
d2
y(x) = − y(x) .
dx2
(6.1.4)
(6.1.5)
Derartige Relationen bezeichnet man als Differentialgleichungen.
Frage: Bestimmen Differentialgleichungen die Funktion eindeutig?
Die Antwort kann offensichtlich kein schlichtes Ja sein, wie man am Beispiel von sin(x), cos(x)
118
sieht: Jede beliebige Linearkombination der beiden Funktionen ist eine Lösung der Differentialgleichung (6.1.5)
y(x) = A sin(x) + B cos(x)
d
d2
d2
y(x) = A 2 sin(x) + B 2 cos(x)
dx2
dx
dx
= − [A sin(x) + B cos(x)]
(6.1.6)
2
=⇒
= − y(x) .
Erst wenn man zusätzlich den Wert von y(x) sowie y ′(x) an einer bestimmten Stelle kennt,
oder alternativ den Wert von y(x) an zwei verschiedenen Stellen, bleibt nur eine einzige der
Linearkombinationen (6.1.6) übrig, etwa

y(0) = 0 
=⇒
y ′ (0) = 1 

 A = 1
.
 B = 0
Eine solche Vorgabe von bestimmten Funktionswerten bezeichnet man als Randbedingung
für die Lösung der Differentialgleichung.
Fragen also:
• Was benötigt man je nach Differentialgleichung an zusätzlicher Information, um eindeutige Lösungen zu erhalten?
• Wie kann man Lösungen praktisch finden, wenn man sie nicht schon wie im Beispiel
kennt?
6.2
Klassifikation, Notation
Zentrale Unterscheidung:
(A) Gewöhnliche Differentialgleichungen: Lösungen hängen nur von einer reellen Variablen ab, d.h. es treten auch nur Ableitungen nach dieser einen Variablen auf
Beispiele:
(i) Differentialgleichungen (6.1.4) und (6.1.5) für Exponentialfunktion und trigonometrische Funktionen
119
(ii) Newton’sche Bewegungsgleichungen für Punktteilchen
m
d2
r(t) = F (r(t), t)
dt2
(B) Partielle Differentialgleichungen: Lösungen hängen von mehr als einer reellen Variablen ab, im Allgemeinen treten Ableitungen nach allen Variablen auf
Beispiele:
(i) Poisson Gleichung für elektromagnetische Potentiale
(ii) Maxwell Gleichungen für elektromagnetische Felder
(iii) Schrödinger Gleichung für die Wellenfunktion der Quantenmechanik
−→ Diskussion hier beschränkt auf gewöhnliche Differentialgleichungen
(partielle Differentialgleichungen lassen sich häufig in mehrere gewöhnliche
Differentialgleichungen zerlegen)
Notation: Gewöhnliche Differentialgleichungen können in zwei Grundformen aufgeschrieben werden
explizite Form:
y (n) (x) = F (y (n−1) (x), . . . , y(x), x)
implizite Form:
0 = F (y (n)(x), y (n−1) (x), . . . , y(x), x)
−→ implizieren beide, dass die Lösungen y(x) n-mal stetig differenzierbar sind, sofern F
stetig ist (da y (n−1) , . . . , y in jedem Fall stetig sein müssen, damit y (n) existiert)
Klassifikation von gewöhnlichen Differentialgleichungen: I) Randbedingungen
Anfangswertproblem
Randwertproblem
⇐⇒ y(x), . . . y (n−1) (x) sind an einem einzigen Punkt x0 gegeben
⇐⇒ y(x), . . . y (n−1) (x) sind an zwei Punkten x1 , x2 gegeben
Klassifikation von gewöhnlichen Differentialgleichungen: II) Gleichungstyp
Ordnung
Linearität
Homogenität
Autonomie
=
höchste in der Differentialgl. auftretende Ableitung von y(x)
P
⇐⇒ y (n) (x) + nk=1 ak (x)y (k−1) (x) = h(x)
P
(im Fall linearer Dgln)
⇐⇒ y (n) (x) + nk=1 ak (x)y (k−1) (x) = 0
⇐⇒ y (n) (x) = F (y (n−1)(x), . . . , y(x))
120
Das Gewinnen der allgemeinen Lösung einer Differentialgleichung (oder eines ganzen
Satzes von Differentialgleichungen), d.h. aller Funktionen, die eine gegebene Differentialgleichung erfüllen, ist häufig sehr kompliziert. Es gibt aber eine Reihe recht einfacher Differentialgleichungen, deren Lösung direkt angegeben werden kann.
−→ Diskussion hier beschränkt auf diese speziellen Typen
6.3
Spezielle Typen von Differentialgleichungen
6.3.1
Differentialgleichungen erster Ordnung mit separablen Variablen
Struktur der Differentialgleichung:
y ′ (x) = F (y(x)) g(x)
(6.3.1)
Randbedingungen: Anfangswert
y(x0 ) = y0
(6.3.2)
Satz: Falls g(x) stetig auf [a, b], x0 ∈ [a, b], F (y) stetig auf einem Intervall [A, B] mit
y0 ∈ (A, B) und F (y0) 6= 0 ist, existiert eine Umgebung von x0 , gegeben durch |x − x0 | <
R mit R > 0, in der für alle x ∈ [a, b] die Lösung der Differentialgleichung (6.3.1) zur
Randbedingung (6.3.2) eindeutig ist und es gilt
Z
y(x)
y0
ds
=
F (s)
Z
x
ds g(s)
x0
∀ |x − x0 | < R
(mit R > 0) .
(6.3.3)
Beweis: Zeige zunächst nur, dass (6.3.3) die Dgl (6.3.1) erfüllt.
−→ für alle x, die nahe genug an x0 liegen, damit y(x) ∈ [A, B] gilt, kann direkt differenziert
werden (einen solchen Bereich gibt es, weil y0 ∈ (A, B) ist)
Z y(x)
d
1 ds
′
= g(x)
= y (x)
dx y0 F (s)
F (s) s=y(x)
=⇒
y ′(x) = F (y(x)) g(x) .
Aber auch die Randbedingung (6.3.2) wird per Konstruktion erfüllt.
121
Frage: Wie kommt man auf eine solche Lösung?
−→ integriere Dgl über das Intervall [x0 , x]
Z x
Z x
y ′(s)
ds
=
ds g(s)
F (y(s))
x0
x0
−→ falls x nahe genug an x0 liegt, ist y(x) auf [x0 , x] streng monoton
−→ auf der linken Seite kann daher die Substitutionsregel (4.3.8) verwendet werden
Z
x
x0
y ′ (s)
=
ds
F (y(s))
Z
y(x)
dy
y0
1
F (y)
−→ zeigt gleichzeitig die Eindeutigkeit der Lösung (6.3.3)
Bemerkung: Die Substitution wird häufig abkürzend durch unmittelbare Separation der
Differentiale dy und dx durchgeführt,
dy
= F (y(x)) g(x)
dx
⇐⇒
dy
= g(x) dx .
F (y)
Beispiele:
(i) Differentialgleichung für Gaußfunktion
y ′(x) = y(x) x
mit y(x0 ) = y0
Z y
Z y
ds
ds
=
= ln |y| − ln |y0 |
y0 y
y0 F (s)
Z x
Z x
1 2
x − x20
ds g(s) =
ds s =
2
x0
x0
1 2
2
=⇒ y(x) = y0 exp
x − x0
2
(ii) Verallgemeinerung von (i)
Z
y
y0
y ′(x) = − g(x) y(x)
mit y(x0 ) = y0
ds
= − ln |y| + ln |y0|
F (s)
Z x
y(x) = y0 exp −
ds g(s)
x0
−→ gewöhnliche Exponentialfunktion ist Spezialfall mit g(x) = 1
122
(6.3.4)
(6.3.5)
6.3.2
Lineare Differentialgleichungen erster Ordnung
Struktur der Differentialgleichung:
y ′(x) + g(x) y(x) = h(x)
(6.3.6)
Randbedingungen: Anfangswert
y(x0 ) = y0
(6.3.7)
Satz: Falls g(x) und h(x) auf dem Intervall [a, b] stetig sind und x0 ∈ [a, b] ist, dann ist
die Lösung der Differentialgleichung (6.3.6) zur Randbedingung (6.3.7) eindeutig und es gilt
für alle x ∈ [a, b]
y(x) =
y0 +
Z
x
ds h(s) exp
x0
Z
s
dt g(t)
x0
Z
exp −
x
x0
du g(u)
.
(6.3.8)
Bemerkung: Die Lösung (6.3.8) der inhomogenen Dgl (6.3.6) enthält als zentralen Baustein die Lösung (6.3.5) der zugehörigen homogenen Dgl (6.3.4),
Z x
du g(u)
⇐⇒
yh′ (x) + g(x) yh (x) = 0 .
yh (x) = y0 exp −
x0
Offensichtlich kann man jede Lösung von (6.3.6) aus zwei Bausteinen zusammensetzen,
nämlich einer ganz speziellen Lösung der inhomogenen Dgl (6.3.6) und einer Lösung der
homogenen Dgl (6.3.4). In anderen Worten: Wenn eine Lösung der homogenen Dgl zu einer Lösung der inhomogenen Dgl addiert wird, erhält man stets wieder eine Lösung der
inhomogenen Dgl, nur der Wert y(x0 ) ändert sich.
yh′ (x) + g(x) yh(x) = 0
y1′ (x) + g(x) y1(x) = h(x)
y1 (x) + yh (x) = y2 (x)
=⇒
y2′ (x) + g(x) y2(x) = h(x)
Die Addition eines geeigneten yh (x) erlaubt es also, aus einer Lösung y1 (x) der inhomogenen
Dgl mit y1 (x0 ) 6= y0 eine Lösung y2 (x) zu den geforderten Randbedingungen zu machen.
−→ ist sehr allgemeines Resultat (keine weiteren Details an dieser Stelle)
123
Beweis des Satzes: Zeige zunächst, dass (6.3.8) die Dgl (6.3.6) erfüllt,
Z s
Z x
Z x
d
y0 +
ds h(s) exp
dt g(t)
exp −
du g(u)
dx
x0
x0
x0
Z x
Z x
dt g(t) exp −
= h(x) exp
du g(u)
x0
− y0 +
Z
x0
x
ds h(s) exp
x0
= h(x) − y(x) g(x)
Z
s
dt g(t)
x0
Z
exp −
x
du g(u) g(x)
x0
Wie steht es mit der Eindeutigkeit?
−→ nehme an, es gäbe zwei Lösungen zu denselben Randbedingungen
y1′ (x) + g(x) y1(x) = h(x)
mit y1 (x0 ) = y0
y2′ (x) + g(x) y2(x) = h(x)
mit y2 (x0 ) = y0
−→ Differenz y = y2 − y1 erfüllt homogene Dgl vom Typ (6.3.4)
y ′(x) + g(x) y(x) = 0
mit y(x0 ) = 0
−→ deren eindeutige Lösung ist aber durch (6.3.5) gegeben
−→ lässt nur y = y2 − y1 ≡ 0 zu
−→ Lösung (6.3.8) ist eindeutig
Beispiele:
(i) Zwischenprodukt in radioaktiver Zerfallskette: y ≡ Menge des Radionuklids, x ≡ Zeit
g(x) = α
(inverse Halbwertszeit)
h(x) = h0 exp[−β(x − x0 )] (Zuwachsrate aus Zerfall des Ausgangsnuklids)
y0 = 0
Z
y(x) =
(Radionuklid liegt zum Anfangszeitpunkt nicht vor)
Z s
Z x
ds h0 exp[−β(s − x0 )] exp
dt α exp −
du α
x0
x0
x0
Z x
ds exp[−β(s − x0 ) + α(s − x0 )] exp[−α(x − x0 )]
= h0
x0
exp[(α − β)(x − x0 )]
1
= h0
exp[−α(x − x0 )]
−
α−β
α−β
h0
=
[exp[−β(x − x0 )] − exp[−α(x − x0 )]]
α−β
x
124
6.3.3
Ähnlichkeitsdifferentialgleichungen erster Ordnung
Ähnlichkeitsdifferentialgleichungen werden manchmal auch homogene Differentialgleichungen genannt, wobei der Begriff homogen nichts mit der üblichen Verwendung bei linearen
Differentialgleichungen zu tun hat.
Struktur der Differentialgleichung:
′
y (x) = F
y(x)
x
(6.3.9)
Randbedingungen: Anfangswert
y(x0 ) = y0
(6.3.10)
Lösung: durch Rückführung auf Differentialgleichung mit separablen Variablen über geeignete Substitution
y(x)
x
1
′
[F (f ) − f ]
f (x) =
x
(6.3.11)
f (x) =
=⇒
6.3.4
(6.3.12)
Lineare Differentialgleichungen höherer Ordnung: Reihenentwicklung
Führe weitere Standardtechnik zur Lösung von linearen Dgln an einem Beispiel ein.
−→ betrachte die folgende homogene, lineare Dgl vierter Ordnung:
y (4) (x) = α y(x)
(6.3.13)
−→ wegen (6.1.5) ist sofort klar, dass cos und sin diese Dgl erfüllen
y(x) = cos(βx)
=⇒
y (2) (x) = −β 2 y(x)
=⇒
y (4) (x) = β 4 y(x)
Frage: Gibt es weitere Lösungen und, wenn ja, wie sehen sie aus?
Zur Beantwortung: mache Reihenansatz für y(x)
y(x) =
∞
X
n=0
125
an xn
(6.3.14)
−→ nicht garantiert, dass Lösung von (6.3.13) in Taylorreihe entwickelbar ist, aber auch
nicht ausgeschlossen
−→ setze Entwicklung in Dgl ein
∞
X
n=4
n−4
n(n − 1)(n − 2)(n − 3)an x
= α
∞
X
an xn
(6.3.15)
n=0
−→ schiebe Summationsindex auf der linken Seite um 4 und fasse beide Seiten zusammen
∞ h
i
X
(n + 4)(n + 3)(n + 2)(n + 1)an+4 − αan xn = 0
(6.3.16)
n=0
Dgl gilt für beliebige x: kann nur erfüllt sein, wenn jeder einzelne Koeffizient vor xn verschwindet, da sich alle Potenzen von x verschieden verhalten. Gleichgültig, mit welchen
Vorfaktoren man x2 , x3 , x4 , . . . zu einem Polynom oder einer Potenzreihe kombiniert, die
resultierende Funktion verhält sich anders als x oder gar eine Konstante (besonders klar für
x → 0) — man sagt: alle Potenzen von x sind linear unabhängige Funktionen.
−→ führt auf Rekursionsformel für die Koeffizienten
an+4 =
α
an
(n + 4)(n + 3)(n + 2)(n + 1)
(6.3.17)
−→ Lösung der Rekursion wird klar, wenn man die Rekursion einmal auf der rechten Seite
einsetzt
an+4 =
α2
an−4
(n + 4)(n + 3)(n + 2)(n + 1)n(n − 1)(n − 2)(n − 3)
−→ mit jedem Sprung um 4 Indexeinheiten gewinnt man eine Potenz von α im Zähler und
alle zu den 4 Indices gehörenden Faktoren der Fakultät im Nenner
−→ erlaubt 4 voneinander unabhängige, elementare Lösungen (Nachweis durch Einsetzen):
a4n
a4n+1
αn
=
a0
(4n)!
=⇒
αn
=
a1
(4n + 1)!
=⇒
αn
a2
(4n + 2)!
=⇒
a4n+2 =
∞
X
αn 4n
y0 (x) = a0
x
(4n)!
n=0
y1 (x) = a1
y2 (x) = a2
α
a3
(4n + 3)!
n=0
∞
X
n=0
n
a4n+3 =
∞
X
=⇒
y3 (x) = a3
∞
X
n=0
126
(6.3.18)
αn
x4n+1
(4n + 1)!
(6.3.19)
αn
x4n+2
(4n + 2)!
(6.3.20)
αn
x4n+3
(4n + 3)!
(6.3.21)
−→ allgemeine Lösung
y(x) = y0 (x) + y1 (x) + y2 (x) + y3 (x)
(6.3.22)
−→ a0 -a3 unbestimmt: müssen durch Randbedingungen festgelegt werden
Frage: Wo stecken hier sin und cos?
√
−→ kombiniere z.B. y2 mit y0 für a2 = − α a0
∞ X
αn 4n √
αn
4n+2
y0 (x) + y2 (x) = a0
x − α
x
(4n)!
(4n + 2)!
n=0
∞ (2n)/2
(2n+1)/2
X
(2n) α
2(2n)
(2n+1) α
2(2n+1)
(−1)
= a0
x
+ (−1)
x
(2(2n))!
(2(2n + 1))!
n=0
α1/2 2 α 4 α3/2 6
x + x −
x + ...
= a0 1 −
2!
4!
6!
−→ lässt sich als eine Reihe ausdrücken
y0 (x) + y2 (x) = a0
∞
X
(−1)n
n=0
(2n)!
127
2n
α1/4 x
= a0 cos α1/4 x
Kapitel 7
Grundzüge der Vektoranalysis
7.1
Motivation, Definition
Standardprobleme der klassischen Mechanik:
a) Beschreibung der Position r eines Teilchens als Funktion der Zeit t
−→ Bewegung vollständig charakterisiert durch Angabe seiner kartesischen Koordinaten
für alle Zeitpunkte:
r(t) = (x(t), y(t), z(t))
(7.1.1)
−→ jede kartesische Komponente ist für sich gewöhnliche Funktion der Zeit
z 6
r(t)
-
y
x
b) Beschreibung des Gravitationsfelds im gesamten (3-dimensionalen) Raum
(gegebenenfalls als Funktion der Zeit t — wird im weiteren nicht explizit aufgeführt)
128
−→ Kraftfeld vollständig charakterisiert durch Angabe seiner kartesischen Komponenten
für alle Punkte im Raum:
F (r) = (Fx (r), Fy (r), Fz (r))
(7.1.2)
−→ jede kartesische Komponente ist für sich eine gewöhnliche Funktion von x, y und z
z 6
7
>
6 *
r r 3 r
r r
r
r
r
1
r r
r r
F (r)
-
y
x
−→ jedem Punkt im Raum ist ein eigener Vektor angeheftet, dessen Länge und
Orientierung sich (im allgemeinen) von Punkt zu Punkt ändert
Definition (Mathematik): Ein Feld f ist eine Abbildung aus dem Rm in den Rn , die
jedem Element aus dem Definitionsbereich D ⊆ Rm eindeutig ein Element aus dem Bildbereich B ⊆ Rn zuordnet:








y1
y2
..
.
yn
y = f (x)
;
x ∈ Rm



f (x , x , . . . xm )
 1 1 2





 f2 (x1 , x2 , . . . xm ) 


 = 
..






.



fn (x1 , x2 , . . . xm )
;
y ∈ Rn
;
m, n = 1, 2, . . . (7.1.3)
Klassifikation:
• m = n = 1: gewöhnliche Funktionen — hier nicht von Interesse
129
• m = 1, n = 3: vektorwertige Funktionen (Kurven im 3-dimensionalen Raum)
−→ in vielerlei Beziehung den gewöhnlichen Funktionen ähnlich
• m = 3-4, n = 1: skalare Felder
(Temperatur- oder Dichteverteilung im Raum, Gravitationspotential, etc)
−→ erfordern bereits neue Konzepte
• m = 3-4, n = 3-4: Vektorfelder
• m = 3-4, n = 9-16: Tensorfelder — hier nicht relevant
Beachte: In Physik sind nur solche Vektorfelder relevant, die sich unter Koordinatentransformationen angemessen verhalten: Solange nur die Orientierung des Koordinatensystems
verändert wird, müssen Länge und Richtung des realen, an einen Raumpunkt angehefteten
Vektors unverändert bleiben (an dieser Stelle keine Details).
−→ mathematische Konzepte zur Diskussion von Vektorfeldern sind von dieser
Einschränkung unberührt
−→ betrachte zunächst die (einfacheren) vektorwertigen Funktionen
7.2
Vektorwertige Funktionen: Kurven
Beispiel: Darstellung einer gleichmäßigen Spiralkurve
z 6
..................................................................................................................
.........................
...............
.................
..........
...............
......
.............
.
.....
.
.
.
.
.
.
.
.
.
....
........
.
.
.
.
.
.
...
.
....
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.....................
.................
.
.
.....
.
.
.
.
.
..
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...........
...........
....
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...... ...
.........
.
....
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.... ...
........
....
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..
....
........
..................................................................................................................
.......
.....
......
.........................
...............
.....
... ..
......
..................
.
......
...............
.... ................... ..
.....
.............
...
.
......
.
.
.
....
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
..
........
.....
.... .........
....
....
........
.....
....
...............................................................................................................
........
....
.....
......
....
............................
.
.
.
.
.
.......
.
.
.
.
.
.
.
.
.
.
.....
.
.
....
.
.
.
.
.
..
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
......
..
....
.............
...
.... ................. ...
.....
....
......
.............
....
...
. .
.....
............
......
....
....
....
.... ...........
.....
...........
......
.
.
.
.
.
.
....
....
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..
..
...
.....
........
....
.....
......
...
...
....
......
.......
....
.....
.. ..
....
....
...
.......
....
......
....
... ..
......
.....
.......
....
....
....
...
... ...
......
......
...
.....
...
.
.
....
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
....
.
.
.
.
.
.
.
..
..
..
..
....
.....
....
....
....
....
..
......
........
..
.....
...
....
..........
..
... ....
....
......
.....
....
..........
....
..
.....
.
.
.....
.
.
.
....
.
.
... ...
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
........
....
...
...
......
.....
....
...
..............
...
......
.....
....... .....
....
................
....
....
........
.....
... ........................ ........
...................
....
...
........
......
.............................................................................................................................
.
..
....
...
.....
..........
.
.
.
.
.
.
.
.
.
... .....
.
.
.
.
.
.
.
.
.
.
.
.
.
..
.
..
...
... ...
.....
............
....
....
.....
......
............
....
...
.....
....
......
..............
....... .....
...
.......
................
.....
... ..........
....
....................
....
........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
... ..........................................................................................................................................
.
.
.
..
.....
....
.. ...
..........
.....
....
..........
... ...
.......
....
.............
....
.....
....
.............
.....
......
............
................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..........
...
.
.....
........
.......................
.......................
..
......
........................................................................................
..........
...
......
..........
...
......
............
...
......
.............
.
.
.
.
.
.
.
.
.
.
.
....
.
.
.
.
.
.
.
.
.......
............
........
...........
...................
.......
............................
.........................
........
.............................................................................
..........
..........
.
.
.
.
.
.
.
.
.
.
.
.
....
..............
................
...................
.........................
......................................
x
130
-
y
Parameterdarstellung der Kurve: Drücke jede kartesische Komponente als Funktion eines
Ablaufparameters s aus (s muss nichts mit der Zeit zu tun haben)
Startpunkt sei x = R, y = z = 0 bei s = 0 (R = Radius der Spirale)




R cos(ωs)
x(s)








 y(s)  =  R sin(ωs) 




vs
z(s)
(7.2.1)
−→ mit wachsendem s wird Spiralkurve abgefahren
2π
−→ erste Windung endet bei s =
ω
Komplikation: Spiralkurve mit sich verengendem Radius
z 6
............
........................... ........................................
.............
......
.
.
.
.
.
.
.
.
.
.
.
..................................................................................
.........
........ .............................
........
.
.
.
.
.
.........
......
................................................................ ........
..... .................
..........................
..............
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.... ......
...........
........
...
.....
..... ........... ...................
.................................................................................................... ......
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...........
.
.
.
. ..... .........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. ..
...
..
........
.
....
........
.. .......
... ...... ........
...........
.....
....
.........
.
.
.
.
.
.
.
.
.
.
.
.
.
.......... ........... ..................
.
.
.
.
... .....
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.. .
..
..
.....
.
....
....
.... ....................................................................
..
....
........
....
... ..... ....... ......
..
...
.....
.........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.............. ...........
.
...
....
........
..
. ...
....
.............
...
.......
..............
.................
.....
...
.......
.
.
.
.
.
.
.
.
.
.
.
.
......................................................................................
.
...
....
.......
.....
......
........
..........
....
......
......
...........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.. ..
...
............
.......
... ...........................
...................
.....
......
......................................................
.....
..
.........
.
.
.
.
.
.
.
.
.
.
.
.
...
....
.........
....
......
...........
.....
........
..............
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
............
..
........
....................................................................................
.........
..........
.
.
.
.
.
.
.
.
.
.
...........
...............
...................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.................
-
y
x
Parameterdarstellung:

x(s)


R(t) cos(ωt)






 y(s)  =  R(t) sin(ωt)



vs
z(s)





Beachte: Einunddieselbe Kurve kann auf verschiedene Weise parametrisiert werden
Definition: f1 (x1 ) mit dem Parameterbereich x1 ∈ [a1 , b1 ] heißt äquivalent zu f2 (x2 ) mit
dem Parameterbereich x2 ∈ [a2 , b2 ], falls es eine auf x ∈ [a1 , b1 ] erklärte, streng monotone
131
Funktion g(x) gibt mit
g(a1 ) = a2
,
g(b1 ) = b2
f2 (g(x)) = f1 (x) ∀ x ∈ [a1 , b1 ]
,
Beispiel: Halbkreis mit Radius R
f1 (x1 ) = R ( cos(x1 ), sin(x1 ), 0 )
f2 (x2 ) = R sin(x22 ), − cos(x22 ), 0
r
π
x1 +
g(x) =
2
7.2.1
0 ≤ x1 ≤ π
p
p
π/2 ≤ x2 ≤ 3π/2
Stetigkeit
Da jede einzelne Komponente einer Vektorfunktion eine gewöhnliche Funktion einer Variablen ist, können alle Konzepte, die für gewöhnliche Funktionen verwendbar sind, direkt
übertragen werden.
Definition: Die vektorwertige Funktion f : D → Rn (D ⊆ R) heißt stetig am Punkt x0 ,
falls es für beliebiges, gegebenes ǫ > 0 immer ein δ(ǫ, x0 ) > 0 gibt, so dass
|f (x) − f (x0 )| < ǫ
∀ |x − x0 | < δ(ǫ, x0 )
(7.2.2)
6
H |f (x) − f (x0 )|
HH
H
f (x0 ) f (x)
-
−→ f (x) nähert sich f (x0 ) beliebig an, wenn nur x nahe genug an x0 ist
#1/2
" n
X
x→x0
−→ 0
|f (x) − f (x0 )| =
(fi (x) − fi (x0 ))2
i=1
−→ bedingt Stetigkeit aller Komponenten von f (x)
132
(7.2.3)
7.2.2
Differenzierbarkeit
Definition: Die vektorwertige Funktion f : D → Rn (D ⊆ R) heißt differenzierbar
am Punkt x0 , falls alle ihre Komponenten für sich (im Sinne gewöhnlicher Funktionen)
differenzierbar sind.
−→ Ableitung von f (x) ist Vektor aus Ableitungen der einzelnen Komponenten
d
df
df1
dfn
′
˙
f (x) =
(x) = f (x) = f (x) =
(x), . . .
(x)
dx
dx
dx
dx
(7.2.4)
Beispiel: Parameterdarstellung der gleichmäßigen Spiralkurve
df
(s) = (−R sin(ωs), R cos(ωs), v)
ds
(7.2.5)
Entsprechend der Definition der Ableitung vektorwertiger Funktionen über die Ableitung
gewöhnlicher Funktionen gelten die Rechenregeln für die Differentiation gewöhnlicher
Funktionen komponentenweise
d
[f (x) + g(x)]
dx
d
[f (x) · g(x)]
dx
d
[f (x) × g(x)]
dx
d
[g(x)f (x)]
dx
d
f (g(x))
dx
=
=
=
=
=
df
dg
(x) +
(x)
dx
dx
df
dg
(x) · g(x) + f (x) ·
(x)
dx
dx
df
dg
(x) × g(x) + f (x) ×
(x)
dx
dx
dg
df
(x) f (x) + g(x)
(x)
dx
dx
df
dg
(g)
(x)
dg
dx
g=g(x)
Beweis für Gl.(7.2.8) als Beispiel:




′
′
′
′
f g + f2 g3 − f3 g2 − f3 g2
f2 g3 − f3 g2


 2 3
d 


 ′

 f3 g1 − f1 g3  =  f3 g1 + f3 g1′ − f1′ g3 − f1 g3′ 



dx 
′
′
′
′
f1 g2 + f1 g2 − f2 g1 − f2 g1
f1 g2 − f2 g1

 

f2 g3′ − f3 g2′
f2′ g3 − f3′ g2

 


 

=  f3′ g1 − f1′ g3  +  f3 g1′ − f1 g3′ 

 

′
′
′
′
f1 g2 − f2 g1
f1 g2 − f2 g1
df
dg
=
(x) × g(x) + f (x) ×
(x)
dx
dx
133
(7.2.6)
(7.2.7)
(7.2.8)
(7.2.9)
(7.2.10)
Eleganter:
3
d X
ǫijk fi (x) gj (x) ek =
dx i,j,k=1
3
X
ǫijk [fi′ (x) gj (x) + fi (x) gj′ (x)] ek
i,j,k=1
3
X
=
ǫijk fi′ (x) gj (x) ek
i,j,k=1
+
3
X
ǫijk fi (x) gj′ (x) ek
i,j,k=1
Parameterabhängige Einheitsvektoren e(x) mit e(x)2 = 1 für alle x (nicht kartesisch)
0 =
−→
de
de
de
d
[e(x) · e(x)] =
(x) · e(x) + e(x) · (x) = 2 (x) · e(x)
dx
dx
dx
dx
(7.2.11)
de
(x) steht senkrecht auf e(x)
dx
Tangentenvektor an beliebige Kurve
Kurve sei charakterisiert durch Parameterdarstellung f (x):
6
f (x + dx) − f (x) = ∆f (x, dx)
f (x)
HH
HH
j
f (x + dx)
-
−→ für kleine dx
∆f (x, dx) =
−→
f (x + dx) − f (x)
dx
dx
=⇒
lim ∆f (x, dx) =
dx→0
df
(x) dx
dx
df
(x) liegt tangential an Kurve f (x) (dx für Richtung irrelevant)
dx
7.2.3
Länge von Kurven
Kurve sei durch f (x) mit a ≤ x ≤ b beschrieben
134
(7.2.12)
Definiere Zerlegung des Parameterintervalls [a, b]
x0 , x1 , . . . xn(Z) a = x0 < x1 < x2 . . . < xn(Z) = b
Z :=
(7.2.13)
−→ einfachste Zerlegung: äquidistante Punkte
xi = xi−1 + ∆x
∀ i = 1, . . . n(Z)
mit ∆x =
b−a
n(Z)
und lege (entsprechend den gewählten Zwischenpunkten) Polygonzug an Kurve an
6
s
s f (x
xs k−1
H
HH x
Hs
@
@
@s
A
.........................................
...................
...........
..........
........
......
......
......
......
.
.
.
......
...
k
.
.....
.
..
.....
.
.
.
.....
k−1
...
.....
.
.
....
...
.
.
....
.
....
...
....
...
...
...
.
....
.
...
...
.
.
...
.
.
...
...
.
...
...
..
.
...
..
.
...
.
.
.
...
..
k
.
...
...
....
.
...
.
..
...
.
.
..
...
...
..
...
..
..
s
s
x0 = a
)
f (x )
f (x), x ∈ [a, b]
A
A
A
AAs
xn
-
=b
−→ Länge des Polygonzugs ist gegeben durch
n(Z)
L(P (Z)) =
X
k=1
|f (xk ) − f (xk−1 )|
Je feiner die Zerlegung ist, d.h. je kleiner der maximale Abstand
δ(Z) := max xk − xk−1 k = 1, . . . n(Z)
(Maschenweite)
(7.2.14)
zweier Zerlegungspunkte ist, desto näher kommt L(P (Z)) der wahren Länge der Kurve
−→ Länge der Kurve definiert über längstmöglichen Polygonzug (erreicht für δ(Z) → 0)
L := sup L(P (Z))Z beliebige Zerlegung von [a, b]
(7.2.15)
(sup = Maximum, das nicht angenommen zu werden braucht)
−→ L unabhängig von gewählter Parameterdarstellung für die Kurve (ohne Beweis)
135
Vereinfachung im Fall stetig differenzierbarer Parameterdarstellungen
(stetig differenzierbar = df /dx muss stetig sein)
n(Z)
X f (xk ) − f (xk−1 ) L = lim
δ(Z)→0
x
−
x
k
k=1 |
{z k−1 }
Funktionswert im
Intervall [xk−1 , xk ]
Z b df
=
dx (x)
dx
a
(xk − xk−1 )
{z
}
|
Breite des
Intervalls [xk−1 , xk ]
(7.2.16)
−→ in diesem Fall ist L < ∞ (die Kurve heißt dann rektifizierbar)
Beispiel: Länge einer Windung der gleichmäßigen Spiralkurve
2π
ω
−→ unter Verwendung von Gl.(7.2.5) erhält man daher
df (s) = R2 ω 2 + v 2 1/2
ds Z 2π
ω
1/2
1/2 2π
=⇒ L =
ds R2 ω 2 + v 2
= R2 ω 2 + v 2
ω
0
−→ eine Windung von Gl.(7.2.1) entspricht 0 ≤ s ≤
7.3
(7.2.17)
v→0
−→ 2πR
(7.2.18)
Skalare Felder, Vektorfelder
Erweitere als nächstes die Begriffe der Stetigkeit und der Differenzierbarkeit auf Felder
−→ formuliere alle Konzepte dieses Abschnitts für Vektorfelder f
−→ die Form der Aussagen für skalare Felder folgen dann einfach durch Reduktion von f
auf eine einzige Komponente
7.3.1
Stetigkeit
Definition: Die Funktion f heißt stetig am Punkt x0 , falls es für beliebiges, gegebenes
ǫ > 0 immer ein δ(ǫ, x0 ) > 0 gibt, so dass
|f (x) − f (x0)| < ǫ ∀ |x − x0 | < δ(ǫ, x0 )
136
(7.3.1)
−→ f (x) nähert sich f (x0) beliebig an, wenn nur der Abstand zwischen x und x0 klein
genug ist, und zwar unabhängig von der Richtung, aus der man sich x0 nähert
|f (x) − f (x0)| =
" n
X
i=1
(fi (x) − fi (x0 ))2
#1/2
|x−x0 |→0
−→
0
(7.3.2)
−→ bedingt Stetigkeit aller Komponenten von f (x) bezüglich aller Argumente x1 , . . . xm
−→ weder Länge noch Richtung des Vektorfeldes ändern sich sprunghaft zwischen
benachbarten Punkten
Beispiel: Betrachte die Funktion

xy

für x2 + y 2 =
6 0
2
2
x
+
y
φ(x, y) =

0
für x2 + y 2 = 0 ⇐⇒ x = y = 0
(7.3.3)
an der Stelle x = y = 0: kann aus verschiedenen Richtungen angelaufen werden
φ(x, y) −−−−−→ 0
x→0,y6=0
φ(x, y) −−−−−→ 0
y→0,x6=0
φ(x, y) −−−−−→
x→0,y=x
1
2
−→ φ(x, y) unstetig bei x = y = 0
7.3.2
Differentiation
Betrachte Feld f (x1 , . . . xm ) für festgehaltene Koordinaten x1 , . . . xk−1 und xk+1 , . . . xm als
Funktion der verbleibenden Koordinate xk
−→ jede Komponente von f ist gewöhnliche Funktion von xk
137
z 6
* f (x1 , x2 , x3 )
: f (x1 , x2
rr-
x3 (fest)
+ ∆x, x3 )
x2 (variabel)
-
y
x1 (fest)
x
Definition: Die Funktion f : D → Rn (D ⊆ Rm ) heißt partiell differenzierbar nach xk
am Punkt x, falls der Grenzwert
fj (x1 , . . . , xk−1 , xk + ǫ, xk+1 , . . . , xm ) − fj (x1 , . . . , xk−1 , xk , xk+1 , . . . , xm )
ǫ→0
ǫ
lim
für alle Komponenten j = 1, . . . n von f existiert.
−→ entspricht gewöhnlicher Ableitung der einzelnen Komponenten von f bezüglich xk bei
festgehaltenem x1 , . . . xk−1 und xk+1 , . . . xm
Der Grenzwert wird dann als partielle Ableitung bezeichnet und notiert in der Form
∂f1
∂fn
f (x + ǫek ) − f (x)
∂f
(x) =
(x), . . .
(x) = lim
(7.3.4)
ǫ→0
∂xk
∂xi
∂xi
ǫ
−→ partielle Ableitung ist sowohl bei skalaren Feldern als auch bei Vektorfeldern möglich
Beispiele:
(i) elementares Skalarprodukt
f (x) = a · x
∂ X
∂
aj xj
(a · x) =
∂xi
∂xi j
X
=
aj δij
j
= ai
138
−→ zentrale Formel
∂xi
∂xj
= δij
(7.3.5)
(ii) Vektorpotential für homogenes Magnetfeld

=⇒
B2 x3 − B3 x2
1
1

A(x) =
(B × x) =  B3 x1 − B1 x3
2
2
B1 x2 − B2 x1


0

∂A
1


(x) =
 B3 

∂x1
2
−B2


−B3

1
∂A


(x) =

0 

∂x2
2
B1


B2

∂A
1


(x) =
 −B1 

∂x3
2
0





(7.3.6)
(7.3.7)
(7.3.8)
(7.3.9)
Rechenregeln: wie bei gewöhnlicher Differentiation, z.B. Produktregel und Kettenregel
∂f (x)
∂g(x)
∂
[f (x)g(x)] =
g(x) + f (x)
∂xi
∂xi
∂xi
X
∂f
∂gj
∂f (g(x))
(x0 ) =
(g(x0 ))
(x0 )
∂xi
∂gj
∂xi
j
Beispiele:
(i) Betrag des Vektors
f (x) = |x|
139
(7.3.10)
(7.3.11)
Identifiziere g(x): hat nur eine Komponente
g(x) = x2
f (g) = g 1/2
∂
∂
|x| =
[x2 ]1/2
∂xi
∂xi
1 2 −1/2 ∂ X 2
=
x
[x ]
2
∂xi j j
X
= [x2 ]−1/2
xj δij
j
xi
=
|x|
(ii) Gravitationspotential
1
|x|
f (x) =
Identifiziere g(x): hat wieder nur eine Komponente
g(x) = |x|
1
f (g) =
g
1 xi
∂ 1
= − 2
∂xi |x|
|x| |x|
xi
= − 3
|x|
(iii) Gaußfunktion (in 2 Dimensionen)
(x1 − u1 )2 + (x2 − u2)2
= exp −
f (x) = e a
a2
∂f
2
(x1 − u1 )2 + (x2 − u2 )2
(x) = − 2 (x1 − u1 ) exp −
∂x1
a
a2
2
(x1 − u1 )2 + (x2 − u2 )2
∂f
(x) = − 2 (x2 − u2 ) exp −
∂x2
a
a2
− (x−u)
2
=⇒
2
(iv) vektorwertiges g(x)
Identifiziere g(x)
x
f (x) =
|x|
x
a·
|x|
2
x
|x|
δij
xi xj
∂gj
(x) =
−
∂xi
|x| |x|3
g(x) =
140
(7.3.12)
(7.3.13)
(7.3.14)
−→ jede Komponente von g hängt von allen xi ab
−→ verwende Kettenregel
f (g) = g (a · g)2
∂f
(g(x)) = ej (a · g)2 + 2g aj (a · g)
∂gj
X ∂f
X
δij
∂gj
xi xj
2
(g(x))
(x) =
−
ej (a · g) + 2g aj (a · g)
∂gj
∂xi
|x| |x|3
j
j
2
x
x
x ai
ei
a·
a·
+2
=
|x|
|x|
|x| |x|
|x|
2
xi
x
xi
x
x
−x 3 a ·
− 2 (a · x) 3 a ·
|x|
|x|
|x|
|x|
|x|
2 ei
x
x
x
x
− 3xi 3 + 2ai 2 a ·
=
a·
|x|
|x|
|x|
|x|
|x|
Höhere partielle Ableitung
∂k
∂
f (x) =
∂xik · · · ∂xi1
∂xik
∂
∂xik−1
∂f
···
(x) · · ·
∂xi1
(7.3.15)
Offensichtliche Frage: Spielt die Reihenfolge der Differentiation eine Rolle?
Antwort: Nein, solange die relevanten partiellen Ableitungen alle stetig sind
∂f
∂f
∂f
∂
∂
∂
(x)
=
(x)
falls
(x) alle stetig
∂xi ∂xj
∂xj ∂xi
∂xj ∂xi
Beispiel: Betrachte noch einmal die Funktion (7.3.3)
y
2x2 y
∂φ
(x, y) = 2
−
∂x
x + y 2 (x2 + y 2)2

y→0
 x=0,y6=0 1 −→
∞
(y 2 − x2 )y  =
y
=
(x2 + y 2 )2 
x→0
 x6=0,y=0
=
0 −→ 0
x
2y 2x
∂φ
(x, y) = 2
−
∂y
x + y 2 (x2 + y 2)2

y→0
 x=0,y6=0 0 −→
0
x(x2 − y 2 )  =
=
1 x→0
(x2 + y 2 )2 
 x6=0,y=0
−→ ∞
=
x
141
(7.3.16)
−→ erste partielle Ableitungen nicht stetig bei (0,0)
∂2φ
(3y 2 − x2 )
(y 2 − x2 )y 2
(x, y) =
−
4
∂y∂x
(x2 + y 2 )2
(x2 + y 2 )3

y→0
 x=0,y6=0 − 1 −→
∞
6x2 y 2 − x4 − y 4  =
y2
=

x→0
(x2 + y 2)3
 x6=0,y=0
=
− x12 −→ ∞
∂2φ
(3x2 − y 2)
(x2 − y 2 )x2
(x, y) =
−
4
∂x∂y
(x2 + y 2 )2
(x2 + y 2 )3
6x2 y 2 − x4 − y 4
=
(x2 + y 2)3
−→ gemischte zweite partielle Ableitungen unabhängig von Differentiationsreihenfolge
(Totale) Differenzierbarkeit: Betrachte nun Veränderung von Feld f (x) beim Übergang von x0 zu x, d.h. bei gleichzeitiger Änderung aller Koordinaten
f (x) − f (x0) = f (x1 , . . . xm ) − f (x0,1 , x2 , . . . xm )
+f (x0,1 , x2 , . . . xm ) − f (x0,1 , x0,2 , x3 , . . . xm )
...
+f (x0,1 , . . . x0,m−1 , xm ) − f (x0,1 , . . . x0,m )
−→ gehe in m Schritten entlang der kartesischen Richtungen von x0 zu x
−→ in 2 Dimensionen für eine Komponente von f :
142
6fj
fj (x, y)
..t
....
....
..... ≈
.....
∂fj
(x0 , y)(x − x0 )
∂x
fj (x, y0 )
fj (x0 , y) ..t
t
...
..
..
......
...... ≈
...
.
.....
fj (x0 , y0) t
∂fj
(x0 , y0 )(y − y0 )
∂y
y0
y
-
x
x0
Falls x nahe genug bei x0 liegt: Differenz von Funktionswerten lässt sich über partielle
Ableitungen bezüglich der einzelnen Richtungen auswerten
fj (x0 , y0)
f (x0 , y)
..r... j
.
.
....
......
..
.
r
.
.
.
...
.... = fj (x0 , y) − fj (x0 , y0 )
.. ≈ ∂fj (x , y )dy
.
.
.
.
.
.
0 0
∂y
r
.....
.....
y0
y0 + dy
y
-
f (x0,1 , x2 , . . . xm ) − f (x0,1 , x0,2 , x3 , . . . xm )
f (x0,1 , x2 , . . . xm ) − f (x0,1 , x0,2 , x3 , . . . xm )
(x2 − x0,2 )
=
x2 − x0,2
∂f
=
(x0,1 , x0,2 , x3 , . . . xm ) (x2 − x0,2 ) + O((x2 − x0,2 )2 )
∂x2
143
−→ falls partielle Ableitung stetig ist, kann sie für infinitesimale xj − x0,j (j = 1, . . . m)
bei x0,1 , . . . x0,m ausgewertet werden
f (x0,1 , x2 , . . . xm ) − f (x0,1 , x0,2 , x3 , . . . xm )
∂f
=
(x0,1 , x0,2 , x0,3 , . . . x0,m ) (x2 − x0,2 ) + O((xj − x0,j )2 )
∂x2
−→ fasse alle m Schritte zusammen
=⇒
m
X
∂f
f (x) − f (x0 ) ≈ +
(x0 )(xi − x0,i )
∂xi
i=1
Definition: Die Funktion f (x) heißt (total) differenzierbar am Punkt x0 , falls es einen
Satz von Vektoren Ai (i = 1, . . . m) gibt, so dass
m
X
1
f (x) − f (x0) −
Ai (xi − x0,i ) = 0
lim
x→x0 |x − x0 |
|i=1
{z
}
= df
(7.3.17)
gilt (unabhängig von der Richtung, in der auf x0 zugegangen wird).
Theoreme:
• Falls f (x) am Punkt x0 differenzierbar ist, existieren alle partiellen Ableitungen von
f (x) und es gilt
Ai =
∂f
(x0 )
∂xi
(7.3.18)
• f (x) ist am Punkt x0 differenzierbar, falls dort alle partiellen Ableitungen existieren
und stetig sind (klar aus Überlegung oben).
Bezeichnung:
∂fj
(x)
∂xi
= Jacobi Matrix oder Funktional-Matrix
1≤i≤m; 1≤j≤n
Totales Differential: Variation des Feldes beim Übergang von x zu x + dx bei infinitesimalem dx = (dx1 , . . . dxm ) in niedrigster (linearer) Ordnung von dx
m
X
∂f
df =
(x) dxi
∂xi
i=1
144
(7.3.19)
Notation: Gradient oder Nabla Operator = Vektor der partiellen Ableitungen
∂
∂
∂
∇ =
∂i =
,...,
(7.3.20)
∂x1
∂xm
∂xi
Gradient eines skalaren Feldes (üblicherweise m = 3)
∂φ(x)
∂φ(x)
,...,
∇φ(x) =
∂x1
∂xm
(7.3.21)
−→ ist Vektor im physikalischen Sinn für m = 3 (d.h. transformiert sich wie Ortsvektor)
Wichtige Eigenschaft: ∇φ ist senkrecht zu der durch φ(x) = const definierten Oberfläche
(Äquipotentialfläche)
Betrachte zum Beweis zwei Punkte x und x + dx in der Oberfläche:
−→ im Fall von infinitesimalem dx erhält man
0 = φ(x + dx) − φ(x) = ∇φ(x) · dx
z
6 CO
x
C ∇φ(x)
C
C
C
C
C
x
(7.3.22)
φ(x) = const
x + dx
y
-
−→ die Richtung von dx ist aber beliebig, daher steht ∇φ(x) senkrecht auf allen dx in
der Oberfläche
−→ Normalenvektor auf der Äquipotentialfläche
n̂ =
∇φ(x)
|∇φ(x)|
145
(7.3.23)
Beispiel für Äquipotentialfläche: Kugeloberfläche
=⇒
=⇒
√
p
R 2 − x2 =
R2 − x2 − y 2 − z 2 = 0
1
∇φ(x) = p
(−2x, −2y, −2z)
2
2 R − x2 − y 2 − z 2
φ(x) =
∇φ(x)
= −
|∇φ(x)|
y
x
z
p
, p
, p
,
x2 + y 2 + z 2
x2 + y 2 + z 2
x2 + y 2 + z 2
!
= −
x
|x|
−→ Normalenvektor zeigt radial nach außen
7.4
Divergenz, Rotation
Bislang wurde Gradientenoperator ∇ auf skalare Feldern angewandt: aber auch Kombination
mit Vektorfeldern ist wichtig
−→ zwei Möglichkeiten, ∇ auf Vektorfeld A anzuwenden
Divergenz: Kontraktion mittels Skalarprodukt
∇ · A(x) =
m
X
∂Ai (x)
i=1
(7.4.1)
∂xi
−→ ∇ · A ist Skalar im physikalischen Sinn
−→ ∇ · A ist Maß für Quellstärke von A (hier keine Details)
(zum Verständnis dieser Aussage ist Integraltheorem nötig: siehe später)
Beispiele:
(i) Divergenz des Ortsvektors
A(x) = x
=⇒
∇ · A(x) =
m
X
∂xi
i=1
∂xi
= m
(7.4.2)
(ii) Divergenz der Gravitations- bzw Coulombkraft (m = 3)
A(x) =
x
|x|3
=⇒
∇ · A(x) =
146
3
x·x
−
3
= 0
|x|3
|x|5
(x 6= 0)
(7.4.3)
Rotation: Kontraktion mittels Vektorprodukt (impliziert m = 3)
 ∂A
∂A2 
3
−
 ∂x2
∂x3 


3
X

∂
∂A1 ∂A3 


ǫijk ei
∇ × A(x) =
Ak (x) = 
−

∂x
∂x
∂x
j
3
1 

i,j,k=1
 ∂A
∂A1 
2
−
∂x1
∂x2
(7.4.4)
−→ ∇ × A ist Vektor im physikalischen Sinn
−→ ∇ × A ist Maß für Wirbelstärke von A (hier keine Details)
(zum Verständnis dieser Aussage ist Integraltheorem nötig: siehe später)
Beispiele:
(i) Rotation des Ortsvektors
A(x) = x
=⇒
3
X
∂xk
=
ǫijk ei δjk = 0
∇×x =
ǫijk ei
∂x
j
i,j,k=1
i,j,k=1
3
X
(7.4.5)
(ii) Betrachte Feld (7.3.6) und verwende (7.3.7)
1
A(x) = (B × x)
2
=⇒

B1 − (−B1 )
1

∇ × A(x) =  B2 − (−B2 )
2
B3 − (−B3 )



 = B

(7.4.6)
Identitäten für Divergenz und Rotation:
∇ [A1 · A2 ] = A2 × [∇ × A1 ] + A1 × [∇ × A2 ] + [A2 · ∇] A1 + [A1 · ∇] A2 (7.4.7)
∇ · [φA] = A · ∇φ + φ∇ · A
(7.4.8)
∇ · [A1 × A2 ] = A2 · [∇ × A1 ] − A1 · [∇ × A2 ]
∇ × [φA] = [∇φ] × A + φ [∇ × A]
∇ × [A1 × A2 ] = [A2 · ∇] A1 − [A1 · ∇] A2 − A2 [∇ · A1 ] + A1 [∇ · A2 ]
(7.4.9)
(7.4.10)
(7.4.11)
∇ × [∇φ] = 0
(7.4.12)
∇ · [∇ × A] = 0
(7.4.13)
∇ × [∇ × A] = ∇ [∇ · A] − [∇ · ∇] A
147
(7.4.14)
Beweise hier nur die beiden wichtigsten Identitäten:
3
X
∇ × [∇φ] =
ǫijk ei
i,j,k=1
∂ ∂φ
∂xj ∂xk
3
3
∂2φ
∂2φ
1 X
1 X
ǫijk ei
ǫikj ei
=
+
2 i,j,k=1
∂xj ∂xk 2 i,j,k=1
∂xk ∂xj
2
3
1 X
∂ φ
∂2φ
=
ǫijk ei
−
2 i,j,k=1
∂xj ∂xk ∂xk ∂xj
−→ eckige Klammer verschwindet, falls φ zweimal stetig differenzierbar ist
−→ analoges Vorgehen zum Beweis von (7.4.13)
3
3
3
X
X
∂
∂ 2 Ak
∂ X
ǫijk
Ak =
ǫijk
= 0
∇ · [∇ × A] =
∂xi j,k=1
∂xj
∂xi ∂xj
i
i,j,k=1
Kettenregeln: für Divergenz und Rotation
dA
· ∇ψ(x)
dψ
dA
× ∇ψ(x)
∇ × A(ψ(x)) =
dψ
∇ · A(ψ(x)) =
(7.4.15)
(7.4.16)
Laplace Operator = Skalarprodukt von zwei Gradienten = Divergenz(Gradient)
∆ = ∇ · ∇ = ∇2 =
m
X
∂2
∂x2i
i=1
(7.4.17)
Beispiele:
(i) Laplace von Betrag des Ortsvektors
∇2 |x| = ∇ ·
x
1
1
m−1
=
∇·x+x·∇
=
|x|
|x|
|x|
|x|
(7.4.18)
(ii) Laplace des Gravitations- bzw Coulombpotentials (vergleiche (7.4.3))
∇2
7.5
x
1
= −∇ ·
= 0
|x|
|x|3
(x 6= 0)
(7.4.19)
Taylorentwicklung
Erinnerung: Bei gewöhnlichen Funktionen war Taylorentwicklung zentraler Ausgangspunkt
für Arbeiten mit Differentialen
−→ übertrage Konzept auf Felder: betrachte zunächst skalare Felder
148
Satz: Falls f (x) auf dem Gebiet G ∈ Rm (j + 1)-mal stetig partiell differenzierbar ist und
die Strecke x0 + ht für 0 ≤ t ≤ 1 ganz in G liegt, ist die gewöhnliche Funktion
φ(t) := f (x0 + ht)
(7.5.1)
für t ∈ [0, 1] (j + 1)-mal gewöhnlich stetig differenzierbar. Den Wert der k-ten Ableitung
erhält man über die Kettenregel:
" m
#
dk φ
d
dk−1 X ∂f (t) =
(x0,i + hi t)
dtk
dtk−1 i=1 ∂xi x=x0 +ht dt
=
dk−1
[h · ∇f (x)]x=x0 +ht
dtk−1
(Kettenregel)
(Zusammenfassung der Terme)
−→ Kettenregel kann auch auf h · ∇f angewandt werden: f ist (j + 1)-mal differenzierbar
(wegen Stetigkeit von
∂k f
∂xi1 ···∂xik
ist auch Differentiationsreihenfolge irrelevant)
−→ Argument lässt sich iterativ fortsetzen
dk φ
k
(t)
=
(h
·
∇)
f
(x)
dtk
x=x0 +ht
∀ k = 0, 1, . . . j + 1
−→ wird häufig in kompakter Form geschrieben (Gradienten auszuwerten an Stelle x0 +ht)
dk φ
(t) = (h · ∇)k f (x0 + ht)
k
dt
∀ k = 0, 1, . . . j + 1
−→ dk φ/dtk stetig bis zur Ordnung k = j + 1 wegen Stetigkeit von
(7.5.2)
∂ j+1 f
∂xi1 ···∂xij+1
−→ erlaubt Verwendung des Satzes von Taylor für φ(t) (mit t = 1 und t0 = 0)
f (x0 + h) = φ(1) =
j
X
φ(k) (t = 0)
k=0
j
=
k!
+
φ(j+1) (θ)
(j + 1)!
mit 0 ≤ θ ≤ 1
X 1
1
(h · ∇)k f (x0 ) +
(h · ∇)j+1 f (x0 + hθ)
k!
(j
+
1)!
k=0
(7.5.3)
(Restglied Rj+1 nach Lagrange, Gl.(3.4.2) wurde verwendet)
Mit x = x0 + h und dem Verständnis, dass ∇ nur auf f (x) wirkt (nicht aber auf die x des
Operators vor f (x)), wird (7.5.3) häufig auch folgendermaßen geschrieben
j
X
1
1
f (x) =
[(x − x0 ) · ∇]k f (x0 ) +
(h · ∇)j+1 f (x0 + (x − x0 )θ)
k!
(j
+
1)!
k=0
−→ Gl.(7.5.3)–(7.5.4) lassen sich direkt auf Vektorfelder erweitern:
sie gelten dann für jede Komponente getrennt
149
(7.5.4)
Beispiel: Gravitationspotential bzw Coulomb-Wechselwirkung
−→ berechne zunächst Gradienten
1
|x − y|
xi − yi
∂
f (x) = −
∂xi
|x − y|3
δij
(xi − yi )(xj − yj )
∂2
f (x) = −
+3
3
∂xi ∂xj
|x − xy |
|x − xy |5
f (x) =
−→ Taylorentwicklung um x0 = 0 (bzw |x| ≪ |y|)
1
h·h
h·y 1
(h · y)2
f (h) =
−
+
+
+3
+ ...
|y|
|y|3
2
|y|3
|y|5
(7.5.5)
(7.5.6)
(7.5.7)
(7.5.8)
Falls f (x) beliebig oft differenzierbar ist, d.h. falls alle partiellen Ableitungen in allen Ordnungen existieren, kann man f (x) über seine Taylorreihe ausdrücken:
m
∞
X
∂ k f (x) 1 X
(xi1 − x0,i1 ) · · · (xik − x0,ik )
f (x) =
k!
∂xik · · · ∂xi1 x=x0
i ···i =1
k=0
1
(7.5.9)
k
−→ impliziert die gewöhnliche Taylorentwicklung jeder einzelnen Komponente von f (x)
in kompakter Schreibweise:
und noch kompakter:
∞
X
1
f (x) =
[(y − x0 ) · ∇]k f (x)
k!
x=y=x0
k=0
f (x) = exp[(x − x0 ) · ∇] f (x0)
(7.5.10)
(7.5.11)
zu lesen als: ∇ wirkt nicht auf die x innerhalb exp[(x − x0 ) · ∇], sondern nur auf f (x),
wobei die Ableitungen von f (x) an der Stelle x0 auszuwerten sind
−→ exp[(x − x0 ) · ∇] wird daher als Operator der Translation bezeichnet, definiert
über die Reihenentwicklung der e-Funktion
exp[(x − x0 ) · ∇] =
∞
X
1
[(x − x0 ) · ∇]k
k!
k=0
150
(7.5.12)
7.6
Extrema (von skalaren Feldern)
7.6.1
Extrema ohne Nebenbedingungen
Definition: Ein skalares Feld f (x) besitzt im Punkt x0 (x0 = innerer Punkte des Definitionsbereichs) ein
lokales Maximum, falls
streng lokales Maximum, falls
lokales Minimum, falls
streng lokales Minimum, falls


f (x) ≤ f (x0 ) 




f (x) < f (x ) 
0

f (x) ≥ f (x0 ) 




f (x) > f (x ) 
∀ |x − x0 | < ǫ (ǫ > 0)
(7.6.1)
0
−→ lokales Minimum (Maximum) erlaubt Täler (Bergrücken)
−→ Definition impliziert automatisch, dass entlang jeder durch x0 verlaufenden Kurve die
Extremaleigenschaft vorliegt: gilt insbesondere entlang der Richtungen, die durch
Variation einer einzelnen Komponente von x bei festgehaltenen übrigen Komponenten
definiert werden
−→ am Extremum müssen alle partiellen Ableitungen verschwinden
Satz: Sei f (x) in einer Umgebung von x0 (x0 ∈ Rm ) zweimal stetig partiell differenzierbar.
Dann hat f (x) an der Stelle x0 ein Extremum genau dann, wenn
∂f
(x0 ) = 0
∂xi
∀ i = 1, . . . m
(7.6.2)
und die Matrix der zweiten partiellen Ableitungen (Hesse’sche Matrix)
!
∂ 2 f (x) ∂xi ∂xj x=x0
(7.6.3)
definit ist. Das Extremum ist ein
lokales Maximum genau dann, wenn
streng lokales Maximum genau dann, wenn
lokales Minimum genau dann, wenn
strict lokales Minimum genau dann, wenn
∂ 2 f (x)
(x0 )
∂xi ∂xj
∂ 2 f (x)
(x0 )
∂xi ∂xj
∂ 2 f (x)
(x0 )
∂xi ∂xj
∂ 2 f (x)
(x0 )
∂xi ∂xj
negativ semidefinit
positiv semidefinit
negativ definit
positiv definit
−→ zum Verständnis dieser Aussage: ergänze Definition der Definitheit einer Matrix
151
Definition: Eine symmetrische Matrix A heißt
P
positiv definit,
falls hT A h = ij hi aij hj
P
positiv semidefinit, falls hT A h = ij hi aij hj
P
negativ definit,
falls hT A h = ij hi aij hj
P
negativ semidefinit, falls hT A h = ij hi aij hj


>0 




≥0 
∀ h 6= 0

<0 




≤0 
(7.6.4)
Zum Beweis: betrachte Taylorentwicklung von f (x) um x0 bis zur zweiten Ordnung
m
m
X
∂f
∂2f
1X
f (x0 + h) = f (x0 ) +
hi
hi hj
(x0 ) +
(x0 + hθ)
(0 ≤ θ ≤ 1)
∂x
2 i,j=1
∂xi ∂xj
i=1
| i{z }
=0
2
f
(x0 + hθ) entscheidet über Existenz eines (strengen) lokalen Extremums
−→ Matrix ∂x∂i ∂x
j
2
∂ f
−→ ∂xi ∂xj (x0 + hθ) symmetrisch wegen zweifacher stetiger Differenzierbarkeit von f (x)
−→ für Nachweis der Extremaleigenschaft genügt es, infinitesimale h zu betrachten
2
2f
∂ f
−→ wegen Stetigkeit von ∂x∂i ∂x
(x)
in
Umgebung
von
x
ist
auch
(x
+
hθ)
definit
0
0
∂xi ∂xj
j
Beispiel: Bestimme Extrema von (x4 ≡ (x2 )2 )
φ(x) = ax4 − bx2
x = (x1 , x2 )
a, b > 0
(7.6.5)
2
1.5
1
0.5
0
-0.5
-1
1.5
1
0.5
-1.5
-1
0
-0.5
0
-0.5
0.5
1
152
-1
-1.5
1.5
−→ berechne zunächst erste und zweite partielle Ableitungen
∂φ
(x) = 2xi (2ax2 − b)
∂xi
∂2φ
(x) = 2δij (2ax2 − b) + 8axi xj
∂xi ∂xj
−→ es gibt zwei mögliche Lösungen für ∂φ/∂xi = 0
(a)
xi = 0
(b)
2ax2 = b
für i = 1, 2
⇐⇒
(Ursprung)
r
b
x2 = ±
− x21
2a
x2
(Ring um Ursprung)
6
........................................
......
....(b)
.
.
.
....
...
.....
...
..
...
...
..
s(a)
..
..
...
.
.
...
..
...
.
....
..
.....
....
.
.
.........
.
.
.................................
-x1
−→ untersuche nun Matrix der zweiten Ableitungen an diesen Stellen
(a)
∂2φ
(0) = −2bδij
∂xi ∂xj
2
X
∂2φ
(0) hj = −bh2 < 0
=⇒
hi
∂x
∂x
i
j
i,j=1
(∀ h 6= 0)
=⇒ φ hat bei x = 0 strenges lokales Maximum
∂2φ
b
2
(b)
x =
= 8axi xj b
x2 = 2a
∂xi ∂xj
2a
2
X
b
∂2φ
2
x =
hj = 8a(h · x)2 ≥0
=⇒
hi
b
x2 = 2a
∂x
∂x
2a
i
j
i,j=1
=⇒ φ hat bei allen Punkten, für die x2 =
7.6.2
b
2a
gilt, lokales Minimum
Extrema mit Nebenbedingungen
Häufige Problemstellung: Minimierung von Feldern unterliegt Nebenbedingungen
−→ Nebenbedingungen sind oft in der Form g(x) = 0 gegeben (als holonom bezeichnet)
153
(z.B. in Mechanik: Bewegung auf Oberfläche oder Bahnkurve)
−→ Bedingung muss bei Minimierungsverfahren berücksichtigt werden
Lagrange Theorem: Seien f (x) und gj (x), j = 1, . . . l in einer Umgebung von x0 ∈ Rm
(l < m) stetig partiell differenzierbar. Falls dann
(i) die Nebenbedingungen
gj (x0 ) = 0 ∀ j = 1, . . . l
(7.6.6)
gelten,
(ii) diese alle voneinander unabhängig sind, d.h. die m × l-Matrix
∂gj
(x0 )
∂xi
l linear unabhängige Spalten besitzt, und
(iii) f (x) an der Stelle x0 ein Extremum bei Beschränkung auf diejenigen x aus der Umgebung von x0 besitzt, für die gj (x) = 0 ∀ j = 1, . . . l ist,
existieren Zahlen λj , j = 1, . . . l mit
"
#
l
X
∂
f (x) +
λj gj (x)
∂xi
j=1
= 0
∀ i = 1, . . . m
(7.6.7)
x=x0
Beweis: in mehreren Schritten
(a) die Matrix
∂gj
(x0 )
∂xi
mit Zeilenindex i = 1, . . . m und Spaltenindex j = 1, . . . l, (l <
m) besitzt l linear unabhängige Spalten
−→ wähle die Zeilen 1, . . . l, d.h. die Komponenten x1 , . . . xl von x, als diejenigen,
bezüglich denen die Spaltenvektoren linear unabhängig sind
(kein Problem, da Nummerierung der xi beliebig ist)
−→ teile zur einfacheren Sortierung den Vektor x in zwei Teilvektoren auf
x = (x1 , . . . xl , xl+1 , . . . xm ) = (y1 , . . . yl , zl+1 , . . . zm ) = (y, z)
154
(7.6.8)
(b) da die l Nebenbedingungen gj (x) = 0 als unabhängig vorausgesetzt werden, können
über sie l Komponenten von x durch die verbleibenden m − l ausgedrückt werden
∂gj
−→ wegen der linearen Unabhängigkeit der ersten l Zeilen der Matrix ∂xi (x0 ) ,
det
∂gj
(x0 )
∂yi
6= 0
(i, j = 1, . . . l)
können die Komponenten (x1 , . . . xl ) = y in einer Umgebung von x0 als (nicht
explizit bekannte) Funktionen h1 , . . . hl der Komponenten (xl+1 , . . . xm ) = z
geschrieben werden
y = h(z)
(7.6.9)
−→ die h1 , . . . hl erfüllen per Definition gerade die Nebenbedingungen
gj (h(z), z) = 0
j = 1, . . . l
−→ partielle Differentiation dieser Relationen führt auf
∂
gj (h(z), z)
∂zk
l
X
∂hi
∂gj
∂gj
(h(z), z)
(z) +
(x)
=
∂hi
∂zk
∂xk
x=(h(z),z)
i=1
0 =
(c) wegen der linearen Unabhängigkeit der l Spaltenvektoren der Matrix
züglich der ersten l Zeilen bilden die Vektoren
∂gj
∂gj
(x0 ), . . .
(x0 ),
∂x1
∂xl
(7.6.10)
∂gj
(x0 )
∂xi
be-
j = 1, . . . l
eine Basis im Rl
−→ jeder Vektor im Rl kann durch diese Basis dargestellt werden, insbesondere der
∂f
∂f
Vektor ∂x
,
.
.
.
∂xl
1
l
X ∂gj
∂f
(x0 ) = −
λj
(x0 )
∂xi
∂xi
j=1
i = 1, . . . l
−→ für die ersten l Komponenten ist Gl.(7.6.7) bereits bewiesen
155
(7.6.11)
(c) sobald die x1 , . . . xl über die Funktionen h1 , . . . hl durch die xl+1 , . . . xm ausgedrückt
sind, entspricht die Minimierung bzw Maximierung von f einem gewöhnlichen Extremalwertproblem
−→ am Extremum müssen alle partiellen Ableitungen bezüglich der unabhängigen
Komponenten verschwinden
∂f
(h(z0 ), z0 )
∂zk
l
X
∂f
∂hi
∂f
=
(h(z0 ), z0 )
(z0 ) +
(x)
∂hi
∂zk
∂xk
x=(h(z0 ),z0 )
i=1
l
l
X X ∂gj
∂hi
∂f
(h(z0 ), z0 )
(z0 ) +
(x)
= −
λj
∂xi
∂zk
∂xk
x=(h(z0 ),z0 )
i=1 j=1
0 =
−→ eliminiere nun noch ∂hi /∂zk über (7.6.10)
0 =
l
X
λj
j=1
=
l
X
j=1
λj
∂f
∂gj
+
(x)
(x)
∂xk
∂xk
x=(h(z0 ),z0 )
x=(h(z0 ),z0 )
∂gj
∂f
(x0 ) +
(x0 )
∂xk
∂xk
k = l + 1, . . . m
(7.6.12)
−→ auch für die Komponenten l + 1, . . . m ist Gl.(7.6.7) bewiesen
Bemerkungen:
• Extremwertproblem mit Nebenbedingungen entspricht gewöhnlichem ExtremwertproP
blem mit erweiterter Funktion f (x) + lj=1 λj gj (x) bezüglich des erweiterten Satzes
von Variablen x, λ1 , . . . λl
−→ die λj müssen gleichzeitig mit x0 bestimmt werden
• Gln.(7.6.7),(7.6.6) stellen gerade l + m Gleichungen zur Bestimmung von λ1 , . . . λl und
der m Komponenten von x0 zur Verfügung
• Lagrange Theorem stellt nur notwendige Bedingung für Extremum dar!
−→ Vorgehen bei Lösung:
(a) bestimme λ1 , . . . λl und x0 durch Lösung von (7.6.7) plus (7.6.6)
(b) verifiziere Existenz eines Extremums für gefundene Lösung explizit
156
Beispiel: Betrachte Funktion (7.6.5) mit der Nebenbedingung
g(x) = x1 − x2 + c = 0
1. Schritt: Bestimme mögliche Positionen von Extrema
−→ entsprechend Lagrange Theorem sind 3 Gleichungen zu lösen:
∂
[φ(x) + λg(x)] = 0
∂xi
g(x) = 0
i = 1, 2
Explizit:
2x1 (2ax2 − b) + λ = 0
2x2 (2ax2 − b) − λ = 0
x1 − x2 + c = 0
Addiere die ersten beiden
(x1 + x2 )(2ax2 − b) = 0
und setze dann in Resultat dritte ein:
(2x1 + c) 2a 2x21 + 2x1 c + c2 − b = 0
−→ besitzt zwei Lösungen
(a)
x1 = −
c
2
2ac2 − b
=0
(b)
+ cx1 +
4a
r
c
b − ac2
=⇒ x1,± = − ±
2
4a
−→ ist nur dann Lösung, wenn b > ac2
x21
−→ durch Einsetzen in Nebenbedingung kann jetzt auch x2 berechnet werden
(a)
(b)
x2 =
x2,±
c
2
c
= ±
2
157
r
b − ac2
4a
(7.6.13)
−→ zugehöriges λ ist in diesem Fall nicht mehr von Interesse, da x0 bereits festliegt
−→ λ kann aber aus Minimierungsbedingung ausgewertet werden
λ = 2x2 (2a(x21 + x22 ) − b) =
b + ac2
4a
2. Schritt: Kontrolliere Existenz der Extrema
−→ einfachstes Vorgehen: Setze x2 = x1 + c in φ ein
−→ definiert gewöhnliche Funktion ψ
ψ(x1 ) := φ(x1 , x1 + c) = a(2x21 + 2x1 c + c2 )2 − b(2x21 + 2x1 c + c2 )
−→ betrachte erste beiden Ableitungen von ψ
dψ
(x1 ) = 2(2x1 + c) 2a(2x21 + 2x1 c + c2 ) − b
dx1
d2 ψ
(x1 ) = 4 2a(2x21 + 2x1 c + c2 ) − b + 8a(2x1 + c)2
2
dx1
−→ setze zu überprüfende Extremalpositionen ein
(a)
(b)
dψ c
x1 = −
=0
dx1
2
c
d2 ψ x1 = −
= 4(ac2 − b)
dx21
2
=⇒ x1 ist Maximum für ac2 < b, Minimum für ac2 > b
!
r
dψ
c
b − ac2
x1 = − ±
=0
dx1
2
4a
!
r
d2 ψ
b − ac2
c
x1 = − ±
= 8(b − ac2 )
dx21
2
4a
=⇒
x1 ist Minimum, weil erste Ableitung an diesem Punkt b > ac2 erfordert
−→ diskutiere noch Extremalposition (a) für den Fall b = ac2
−→ höhere Ableitungen müssen untersucht werden
d3 ψ
(x1 ) = 48a(2x1 + c)
dx31
d4 ψ
(x1 ) = 96a
=⇒
dx41
d3 ψ c
x
=
−
= 0
1
dx31
2
d3 ψ c
x
=
−
> 0
1
dx31
2
=⇒
−→ für den Fall b = ac2 ist x1 = − 2c Minimum
158
x2
6
x2 = x1 +
q
b
a
x2 = x1 + c
.
.
.
.
.
.
.
.
.
.
.... ..........d....Min
......
..........
.....
Min.....d....
...
.
...
.. . Max
d
...
..
...
...
-x1
s
...
....
...d
..
...Min
.
.
....
..
.....
.... 2
.
b
.
2
.........
.
.
.
................................ x1 + x2 = 2a
7.7
Kurvenintegrale
Grundproblem in klassischer Mechanik: Berechnung der gegen Kraft aufgewendeten Arbeit,
wenn Massenpunkt auf einer Kurve im Kraftfeld bewegt wird
−→ lokal, d.h. für jedes infinitesimale Stückchen des Weges, ist Arbeit als Skalarprodukt
der lokalen Kraft F und des (winzigen) Wegstückchens dr definiert
dW = F · dr
Aufgabe dann: Gehe gesamte Kurve durch und addiere infinitesimale Beiträge auf
−→ Formalisierung durch Kurvenintegral
Definition: Sei
(a) A(r) ein Feld mit n = m (Zahl der Komponenten = Zahl der Variablen),
(b) k(x) mit a ≤ x ≤ b eine Parameterdarstellung einer rektifizierbaren Kurve K,
(c) Z eine Zerlegung des Parameterintervalls [a, b] gemäß Gl.(7.2.13), δ(Z) seine Maschenweite (7.2.14) und
(d) A(r) stetig entlang K,
159
dann existiert der Grenzwert (Kurvenintegral genannt)
Z
n(Z)
K
A(r) · dr :=
lim
δ(Z)→0
X
·
A(k(s ))
| {z k }
k=1
Feldwert im
Intervall [xk−1 , xk ]:
xk−1 ≤ sk ≤ xk
sk ansonsten beliebig
[k(x ) − k(x )]
| k {z k−1 }
(7.7.1)
Vektor von Anfang zu Ende
des Intervalls [xk−1 , xk ]
Man kann zeigen: bei gegebenem K ist der Wert des Kurvenintegrals unabhängig von der
Wahl der Parameterdarstellung k(x)
Vereinfachung: falls Parameterdarstellung stetig differenzierbar
(kein Problem bei realen Bahnkurven wegen Existenz von r̈(t))
x ∈ [a, b]
,
k(x)
,
dk
(x) stetig
dx
(7.7.2)
Erinnerung:
• stetige Differenzierbarkeit impliziert endliche Länge von K
• Ableitung
dk
dk
ist Tangente an Kurve,
dx ist infinitesimales Stück der Kurve
dx
dx
vereinfachte Definition des Kurvenintegrals:
Z
K
n(Z)
A(r) · dr =
=
lim
δ(Z)→0
Z
a
b
X
k=1
A(k(sk )) ·
A(k(x)) ·
k(xk ) − k(xk−1 )
(xk − xk−1 )
xk − xk−1
dk(x)
dx
dx
Elementare Eigenschaften:
Z
Z
Z
A(r) · dr
A(r) · dr +
A(r) · dr =
K2
K1
K1 +K2
Z
Z
A(r) · dr = − A(r) · dr
−K
(7.7.3)
(7.7.4)
(7.7.5)
K
(−K = durchlaufe Kurve in umgekehrter Richtung)
Offensichtliche Frage: Liefert das Kurvenintegral über ein gegebenes Feld entlang zweier verschiedener Wege das gleiche Ergebnis, wenn die beiden Wege denselben Start- und Endpunkt
haben?
160
u
K1
k
u
K2
Theoreme: Wegunabhängigkeit des Kurvenintegrals
(1) Falls A(r) stetig im Gebiet G:
Z
A(r) · dr wegunabhängig in G
K
⇐⇒
A(r) = ∇φ(r) in G
(7.7.6)
(zu lesen als: Kurvenintegral wegunabhängig für alle K, die ganz in G verlaufen)
−→ Kurvenintegral durch Werte von φ(r) an Anfangs- und Endpunkt der Kurve
gegeben
Beweis im Fall stetig differenzierbarer k(x)
(a) falls A(r) = ∇φ(r) in G: über Kettenregel (7.3.11)
Z
Z b
dk(x)
dx
A(r) · dr =
[∇φ(k(x))] ·
dx
K
a
Z b
dφ(k(x))
=
dx
dx
a
= φ(k(b)) − φ(k(a))
(b) Falls
R
K
(7.7.7)
A(r) · dr wegunabhängig in G: definiere
φ(k(b)) :=
Z
a
b
A(k(x)) ·
dk
(x) dx
dx
mit festem k(a) und variablem k(b)
−→ Definition eindeutig, weil Integral in G wegunabhängig
Vergleiche Ableitung über Kettenregel mit expliziter Differentiation des Integrals
[∇φ(k(b))] ·
dk
dφ(k(b))
dk
(b) =
= A(k(b)) ·
(b)
dx
db
dx
−→ gilt für beliebige Kurven in G
=⇒
A(r) = ∇φ(r)
161
in G
(kann auch für nicht stetig differenzierbare k(x) gezeigt werden — keine Details)
(2) Falls alle
Z
K
∂Ai
(r) (i, j = 1, . . . m) stetig im einfach zusammenhängenden Gebiet G:
∂rj
A(r) · dr wegunabhängig in G
⇐⇒
∂Ai
∂Aj
=
in G (∀ i, j)
∂rj
∂ri
(7.7.8)
−→ im Fall der Wegunabhängigkeit verschwinden Integrale über geschlossene Kurven K,
falls K vollständig in einfach zusammenhängendem Gebiet liegt
Z
I
A(r) · dr wegunabh. in G ⇐⇒
A(r) · dr = 0 ∀ geschlossenen K in G (7.7.9)
K
K
Definition 1: Ein Gebiet G ist eine offene, zusammenhängende Punktmenge im Rm , d.h.
eine Menge von Punkten, in der sich je zwei Punkte durch einen vollständig in G verlaufenden
Polygonzug verbinden lassen.
Definition 2: Ein Gebiet G heißt einfach zusammenhängend, falls jede geschlossene
Kurve, die ganz in G liegt, auf einen Punkt zusammengezogen werden kann, ohne im Laufe
des Zusammenziehens G zu verlassen.
G
'$
G
K
6
&%
K
'$
&%
einfach zusammenhängend im R2
nicht einfach zusammenhängend im R2
Beispiel: Integration auf Kugeloberfläche
Wähle Umrandung von Kugeloberflächensegment als Kurve: 2 Abschnitte
−→ 1. Sektor = Halbkreis in x-y-Ebene, 2. Sektor = Halbkreis in x-z-Ebene
162
z
6
......................................
.........
....
.......
...
......
.
...
.
.
.
...
...
.....
..
....
.
.
.
..
...
.
..
.
.
..
.......
.
.
.
....................
..
2
.
.......
.
.
....
...
.
.
...
..
.
.
...
.
................
.
.
.
...
.
.
.
.
.
...
.
.
.
.
.
...
...
..
.
.
.
...
..
..
.
.
.
..
..
...
.
.
.
.
.
.
..
.
.
.
.
.
..
.
.
.
.
...
...
..
...
...
..
...
..
.
..
.
.
.
..
...
....
...
....
....
...
....
..
.
.
.
....
...
....
...
....
....
...
....
.
..
.
.
.
.....
...
....
....
...
.....
.....
.....
.......
...
.....
.......
.
.
..
.
.
.
.
.
.
.
.
.
.
.
.......
.....
...
..........
......
.............
...
.....
..........................
.....
...
......
1
.
.
.
.
....
.
.
....
..
.......
..
........
..
........
.
.
.
.
.
.
.
...
.
......
..
............
.............
...
................
...................................
k
ϕ
@
ϕ @
@
R
-y
k (ϕ)
3
R
(ϕ)
x
Parameterdarstellung der beiden Kurven über Azimuthwinkel ϕ:

 1. Sektor k (ϕ) = R(cos(ϕ), sin(ϕ), 0)
0≤ϕ≤π
1
K=
 2. Sektor k (ϕ) = R(− cos(ϕ), 0, sin(ϕ)) 0 ≤ ϕ ≤ π
2
Berechne Kurvenintegral entlang dieser Kurve für drei verschiedene Vektorfelder:
(a) A = Q
r
,
|r|3
(b) A = a ×
r
,
|r|3
a
a·r
−2 4 r
2
|r|
|r|
(c) A =
Erste Aufgabe: Berechne Ableitungen der Parameterdarstellung bezüglich ϕ entlang beider
Sektoren:
dk1
(ϕ) = R(− sin(ϕ), cos(ϕ), 0)
dϕ
dk2
(ϕ) = R(sin(ϕ), 0, cos(ϕ))
dϕ
Werte jetzt Kurvenintegral für die drei Felder getrennt aus:
(a)
Z
K
A(r) · dr =
2 Z
X
i=1
π
0
dϕ A(ki (ϕ)) ·
dki
(ϕ)
dϕ
2 Z
Q X π
dki
=
dϕ
(ϕ) · ki (ϕ) = 0
3
R i=1 0
dϕ
{z
}
|
=0
163
−→ bestätigt Wegunabhängigkeit des Kurvenintegrals im Fall von Gradientenfeldern:
Q
hier ist A(r) = −∇
|r|
(b) Benutze die Identität (1.4.23)
2 Z
X
ki (ϕ)
dki
(ϕ) · a ×
A(r) · dr =
dϕ
dϕ
R3
K
i=1 0
2 Z
1 X π
dki
=
(ϕ)
dϕ a · ki (ϕ) ×
R3 i=1 0
dϕ
Z
π
Das verbliebene Vektorprodukt kann man direkt auswerten
dki
(ϕ)
ki (ϕ) ×
dϕ

 R2 (cos(ϕ), sin(ϕ), 0) × (− sin(ϕ), cos(ϕ), 0) = R2 (0, 0, 1)
=
 R2 (− cos(ϕ), 0, sin(ϕ)) × (sin(ϕ), 0, cos(ϕ)) = R2 (0, 1, 0)
Z
π
=⇒
A(r) · dr =
[a · e3 + a · e2 ]
R
K
(c) Benutze wieder
Z
K
dki
dϕ
i=1
i=2
(7.7.10)
· ki = 0
A(r) · dr =
2 Z
X
i=1
0
π
dki
a
a · ki (ϕ)
dϕ
(ϕ) ·
−2
ki (ϕ)
dϕ
R2
R4
2 Z
1 X π
dki
=
(ϕ)
dϕ a ·
2
R i=1 0
dϕ
1
[a · [k1 (π) − k1 (0)] + a · [k2 (π) − k2 (0)]]
R2
1
[a · (−2Re1 ) + a · (2Re1 )]
=
R2
= 0
=
−→ bestätigt Wegunabhängigkeit des Kurvenintegrals im Fall von Gradientenfeldern:
a·r
hier ist A(r) = ∇ 2
|r|
164
Kapitel 8
Lineare Algebra
8.1
Matrizen
8.1.1
Grundkonzept
Begriff der Matrix schon in Abschnitt 1.2.2 kennengelernt: hier folgt jetzt Verallgemeinerung
und Vertiefung des Konzepts
Definition: Unter einer Matrix versteht man ein Schema von m·n reellen oder komplexen
Zahlen aij (die auch Funktionen einer oder mehrerer Variablen sein können) der Form


a11 a12 · · · a1n




 a21 a22 · · · a2n 


(8.1.1)
=  .
A ≡ A ≡ (aij )
.. 
.
{z
}
|
 .
. 


verschiedene Schreibweisen
am1 am2 · · · amn
d.h. ein Schema bestehend aus m Zeilen und n Spalten. Die Matrix wird dann als m × nMatrix (bzw als vom Typ m × n) bezeichnet, aij als ihre Elemente.
• Konvention: erster Index der Elemente aij = i = Zeilenindex
zweiter Index der Elemente aij = j = Spaltenindex
• (ai1 , ai2 , . . . , ain ) = i-ter Zeilenvektor
(a1j , a2j , . . . , amj ) = j-ter Spaltenvektor
165
• für m = 1 oder n = 1 geht Matrix in Vektor über: der übliche Vektor a ist m×1-Matrix
zu verstehen, d.h. als Matrix mit einer m-komponentigen Spalte
• in Praxis: meist quadratische Matrizen mit m = n relevant
Beispiel: Rotationsmatrix (Rotation um z-Achse)


cos(α) sin(α) 0




Rz (α) =  − sin(α) cos(α) 0 


0
0
1
(8.1.2)
−→ Matrizen dienen insbesondere der Formalisierung von Koordinatentransformationen
Allgemeiner formuliert: m × n-Matrizen definieren lineare Abbildungen vom Rn in den Rm
Beispiel: Projektion

1 0


P xy =  0 1

0 0
8.1.2
auf x-y-Ebene:

  

a
0
1 · ax + 0 · ay + 0 · az

  x


  

=⇒
P xy a = 0 · ax + 1 · ay + 0 · az  = ay 
0 

  

0
0
0 · ax + 0 · ay + 0 · az
(8.1.3)
Grundbegriffe und elementare Operationen mit Matrizen
1. Identität von Matrizen
A=B
⇐⇒
aij = bij
∀ i = 1, . . . m; j = 1, . . . n
(8.1.4)
−→ impliziert gleichen Typ von A und B
2. Addition von Matrizen
A+B =C
⇐⇒
aij + bij = cij
∀ i, j
(8.1.5)
−→ impliziert gleichen Typ von A und B
−→ per Konstruktion ist Addition kommutativ und assoziativ
A+B = B+A
(8.1.6)
(A + B) + C = A + (B + C)
(8.1.7)
166
3. Nullmatrix 0 = neutrales Element der Addition




0=



0 0 ··· 0
0 0 ··· 0
..
..
.
.
0 0 ··· 0








(8.1.8)
−→ wird häufig einfach als gewöhnliche 0 geschrieben
4. Multiplikation von Matrizen mit reellen oder komplexen Zahlen (skalaren Funktionen)
αA = B
⇐⇒
bij = αaij
(8.1.9)
−→ Multiplikation erfüllt per Konstruktion Assoziativitäts-, Distributivitätsgesetz
α(βA) = (αβ)A
(8.1.10)
α(A + B) = αA + αB
(8.1.11)
(α + β)A = αA + βA
(8.1.12)
5. Multiplikation von Matrizen
AB=C
⇐⇒
cik =
n
X
aij bjk
(8.1.13)
j=1
−→ setzt voraus, dass Spaltenanzahl von A mit Zeilenanzahl von B übereinstimmt

A = m×n 
C = m×l
B = n×l 
anschaulich: cik = Skalarprodukt von i-ter Zeile von A mit k-ter Spalte von B




..
..
..


· · · b1k · · · 
↑
.
.
.




..




i-te Zeile →  ai1 · · · ain  
 n Zeilen =  · · · cik · · ·
.






..
..
..
↓
· · · bnk · · · 
.
.
.
{z
}
|
↑
← n Spalten →
k-te Spalte
167





Multiplikation erfüllt per Konstruktion Assoziativitäts- und Distributivitätsgesetz, ist
aber im allgemeinen nicht kommutativ (selbst bei n × n-Matrizen)
A B 6= B A
im allgemeinen
(8.1.14)
A(B C) = (A B)C
(8.1.15)
A(B + C) = A B + A C
(8.1.16)
Beispiele:
(i) Nichtvertauschbarkeit von

1

1

0

1
Matrizen:

0
0

0
1

1
1

0
1
elementares Beispiel



1
0 1
 = 

0
0 1



0
1 0
 = 

0
1 0
(ii) Hintereinanderausführen von Rotationen um dieselbe Achse



cos(β) sin(β) 0
cos(α) sin(α) 0






 − sin(α) cos(α) 0   − sin(β) cos(β) 0 



0
0
1
0
0
1


cos(α) cos(β) − sin(α) sin(β)
cos(α) sin(β) + sin(α) cos(β) 0




=  − sin(α) cos(β) − cos(α) sin(β) − sin(α) sin(β) + cos(α) cos(β) 0 


0
0
1


cos(α + β) sin(α + β) 0




(8.1.17)
=  − sin(α + β) cos(α + β) 0 


0
0
1
−→ Reihenfolge irrelevant
168
(iii) Hintereinanderausführen von Rotationen um verschiedene Achsen


1
0
0
cos(α) sin(α) 0




 − sin(α) cos(α) 0   0 cos(β) sin(β)


0 − sin(β) cos(β)
0
0
1


cos(α) sin(α) cos(β) sin(α) sin(β)




=  − sin(α) cos(α) cos(β) cos(α) sin(β) 


0
− sin(β)
cos(β)


cos(α) sin(α) 0
1
0
0




 0 cos(β) sin(β)   − sin(α) cos(α) 0


0
0
1
0 − sin(β) cos(β)


cos(α)
sin(α)
0




=  − sin(α) cos(β) cos(α) cos(β) sin(β) 


sin(α) sin(β) − cos(α) sin(β) cos(β)





(8.1.18)





−→ Reihenfolge muss beachtet werden!
Definition: A heißt mit B vertauschbar, falls
AB = BA
(8.1.19)
6. Spezialfall der Matrizenmultiplikation: Multiplikation von m×n-Matrix mit n-komponentigem Vektor
Ab = c
⇐⇒
ci =
n
X
aij bj
(8.1.20)
j=1
b = n × 1-Matrix (in Gl.(8.1.20) ist b als Spaltenvektor zu verstehen)
−→ bereits bei Rotation von Vektoren in Abschnitt 1.2.2 kennengelernt:
7. Einheitsmatrix 1 = neutrales Element der Multiplikation


1 0 ··· 0




 0 1 ··· 0 

1 = 
..  = (δij )
 ..
 .
. 


0 0 ··· 1
169
(8.1.21)
−→ Einheitsmatrix existiert nur für m = n
8. Inverse Matrix: muss nicht existieren! (Kriterien siehe später)
A−1 A = A A−1 = 1
n
X
⇐⇒
(a−1 )ij ajk = δik
(8.1.22)
j=1
−→ setzt m = n voraus
−→ Gl.(8.1.22) = n × n Gleichungen zur Bestimmung von n2 Koeffizienten
• per Definition: A ist inverse Matrix zu A−1 , falls A−1 überhaupt existiert
• A−1 ist eindeutig, falls es existiert
Beweis über Konstruktion eines Widerspruchs: Angenommen A1−1 und A2−1 mit
A−1
6= A2−1 sind beides Inverse zu A
1
A = A2−1 A = 1
A−1
1
=⇒
A1−1 = A2−1
(Multiplikation mit A−1
von rechts)
1
• inverse Matrix für Matrizenprodukt
(A B)−1 = B −1 A−1
Beweis:
(A B)−1 A B = B −1 A−1 A B = B −1 B = 1
Beispiele:
(A) elementare Inverse







a b
1 1
a+b a
1
0


 = 
 =! 

c d
1 0
c+d c
0 1
=⇒
a = 0; c = 1
=⇒
b = 1; d = −1
(B) Nichtexistenz der Inversen







a b
1 0
a+b 0
1 0


 = 
 =

6 
c d
1 0
c+d 0
0 1
170
(8.1.23)
(C) Rotation (wegen Gl.(8.1.17))




cos(α) − sin(α) 0
cos(−α) sin(−α) 0








R−1
=
(α)
=
 sin(α) cos(α) 0  (8.1.24)
 − sin(−α) cos(−α) 0 
z




0
0
1
0
0
1
−→ inverse Matrix = Drehung um denselben Winkel in umgekehrter Richtung
9. Transponierte Matrix (Bedeutung siehe unten)
AT = B
⇐⇒
bij = aji d.h.
aT
−→ falls A eine m × n-Matrix ist, ist AT vom Typ n × m
ij
= aji
(8.1.25)
• Transponierte Matrix von Produkt:
(A B)T = B T AT
(8.1.26)
Beweis: betrachte Element ik von (A B)T
(A B)
T
ik
=
(A B)
ki
=
n
X
akj bji =
j=1
n
X
(aT )jk (bT )ij =
j=1
B T AT
ik
• Transponierte Matrix von Inverser:
(A−1 )T = (AT )−1
Beweis:
1 =
A A−1
T
(8.1.27)
= (A−1 )T AT
• Transposition von Vektor: aT ist 1 × n-Matrix, d.h. Matrix mit einer Zeile
10. Hermitesch konjugierte Matrix: Erweiterung der Transposition auf komplexwertige Matrizen
A† = B
⇐⇒
bij = a∗ji d.h.
Eigenschaften analog zur transponierten Matrix:
a†
ij
= a∗ji
(8.1.28)
(A B)† = B † A†
(8.1.29)
(A−1 )† = (A† )−1
(8.1.30)
−→ Beweisführung wie oben
171
11. Spur von n × n-Matrizen
tr(A) :=
n
X
aii
(8.1.31)
i=1
Eigenschaften: per Definition der Spur erhält man
tr(A + B) = tr(A) + tr(B)
tr(A B) = tr(B A)
(8.1.32)
tr(A B) =
n
X
aij bji
i,j=1
tr(AT ) = tr(A)
!
(8.1.33)
(8.1.34)
12. Rang einer Matrix r(A) = Zahl der linear unabhängigen Zeilenvektoren
(stimmt mit Zahl der linear unabhängigen Spaltenvektoren überein)
Beispiele:
(i) Rotationsmatrix:


cos(α) sin(α) 0




Rz (α) =  − sin(α) cos(α) 0 


0
0
1
−→ alle Zeilenvektoren sind linear unabhängig: r(Rz (α)) = 3
(ii) Projektion auf x-y-Ebene:

1 0 0


P xy =  0 1 0

0 0 0





−→ nur zwei linear unabhängige Zeilenvektoren: r(P xy ) = 2
13. Regularität, Singularität von n × n-Matrizen:
A regulär
⇐⇒
r(A) = n
(8.1.35)
A singulär
⇐⇒
r(A) < n
(8.1.36)
172
Beispiele:
(i) Rotationsmatrix ist regulär
(ii) Projektion auf x-y-Ebene ist singulär
aus Beispiel (ii) klar: singuläre Matrizen blenden (als Abbildungen verstanden) einen
Teil des Raumes aus
14. Ähnlichkeit von n × n-Matrizen: (geschrieben in der Form A ≈ B)
A≈B
⇐⇒
es existiert S mit r(S) = n, so dass B = S A S −1
(8.1.37)
−→ S heißt dann Ähnlichkeitstransformation
Beispiel: betrachte beliebige reelle, symmetrische, nicht-diagonale 2 × 2-Matrix


a c

mit c 6= 0
(8.1.38)
A = 
c b
−→ setze S in Form einer Drehung an

S=
cos(α) sin(α)
− sin(α) cos(α)



S −1 = 
cos(α) − sin(α)
sin(α)
−→ lasse Argument α der Kürze wegen weg
cos(α)


(8.1.39)
S A S −1




cos sin
a c
cos − sin



= 
− sin cos
c b
sin
cos



cos sin
a cos +c sin −a sin +c cos


= 
− sin cos
c cos +b sin −c sin +b cos


2
2
2
2
a cos +b sin +2c sin cos
c[cos − sin ] + (b − a) sin cos
 (8.1.40)
= 
c[cos2 − sin2 ] + (b − a) sin cos
b cos2 +a sin2 −2c sin cos
−→ A ist allen Matrizen der Form (8.1.40) ähnlich
−→ dazu gehören auch reine Diagonalmatrizen
173
−→ für diese folgt α aus dem Verschwinden der Nebendiagonalelemente
!
0 = c[cos2 − sin2 ] + (b − a) sin cos
a − b√
=⇒ 2 cos2 −1 =
1 − cos2 cos
c
2
a−b
2
2
=⇒ [2 cos −1] =
[1 − cos2 ] cos2
c
"
"
2 #
2 #
a−b
a−b
4
cos − 4 +
cos2 +1
=⇒ 0 = 4 +
c
c
2
−1
4c + (a − b)2
=⇒ 0 = cos4 − cos2 +
c2
1/2
c2
1
1
2
±
−
(8.1.41)
=⇒ cos± =
2
4 4c2 + (a − b)2
1. konkretes Beispiel

A = 
=⇒

A = 
1
1
1 −1



1
1
cos = ± √
sin = ± √
2
2
 √
√ 
2
−
2
1

=  √
√
2
2
2
cos2± =
=⇒

1 1
 √ √ 
2
2
1

=⇒ S =
√
√
2
2
− 2


2 0

S A S −1 = 
0 0
2. konkretes Beispiel

=⇒
1 1
S −1
1
2
1
1
±√
2
8
=⇒
cos2± =
=⇒
1
cos2± − sin2± = ± √
2
sin2± =
1
1
∓√
2
8
1
cos± sin± = ± √
8

√
1 0

S A S −1 = ± 2 
0 −1
Eigenschaften ähnlicher Matrizen:
• Rang bleibt erhalten, da r(S) = n
A≈B
=⇒
−→ an obigen Beispielen direkt zu sehen
174
r(A) = r(B)
(8.1.42)
• Spur bleibt erhalten
A≈B
=⇒
tr(A) = tr S −1 B S = tr B S S −1 = tr(B)
(8.1.43)
• ähnliche Matrizen bilden Klasse
A ≈ B
A ≈ C
und
⇐⇒
B = S 1 A S −1
1
=⇒
B = S 1 S −1
C S 2 S −1
2
1
−1 −1
= S 2 S −1
C
S
S
1
2 1
=⇒
C = S 2 A S −1
2
und
B ≈ C
(8.1.44)
−→ Menge aller Matrizen zerfällt in Klassen (Äquivalenzklassen genannt)
8.1.3
Orthogonalität und Unitarität von Matrizen
Definition: Eine reelle n × n-Matrix A heißt orthogonal, falls
A−1 = AT
a−1
⇐⇒
ij
= aT
ij
= aji
(8.1.45)
−→ Zeilen- und Spaltenvektoren sind jeweils paarweise orthogonal
T
A A = 1
A AT = 1
⇐⇒
⇐⇒
n
X
j=1
n
X
T
(a )ij ajk =
aij (aT )jk =
j=1
n
X
j=1
n
X
aji ajk = δik
(8.1.46)
aij akj = δik
(8.1.47)
j=1
Zentrale Eigenschaft orthogonaler Matrizen: Multiplikation von Vektoren mit orthogonaler
Matrix erhält die Länge der Vektoren
T Ab · Ab = Ab
A b = bT AT A b = bT A−1 A b =
|
|
{z
}
{z
}
bT b
|{z}
=
b·b
|{z}
konventionelles
konventionelles
Matrix-
Skalar-
Skalarprodukt
Skalarprodukt
produkt
produkt
des Vektors
ausgedrückt als
c = A b mit
Matrixprodukt
sich selbst
175
(8.1.48)
−→ Übergang von Skalarprodukt zu Matrixprodukt unmittelbar klar bei Betrachtung der
Komponenten
" n
#" n
#
n
n
X
X
X
X
aij bj
aik bk =
Ab · Ab =
i=1
j=1
k=1
i,j,k=1
−1
a
ba b
ji j ik k
=
n
X
j,k=1
bj δjk bk = b · b
Beispiele:
mit (8.1.24)
(i) Rotationsmatrix: vergleiche RT
z


cos(α) − sin(α) 0




=  sin(α) cos(α) 0  = R−1
(α)
z


0
0
1
RT
(α)
z
(8.1.49)
−→ Orthogonalität der Zeilen- und Spaltenvektoren leicht zu sehen
(ii) Spiegelung an Ebene, die z-Achse und Gerade in x-y-Ebene mit Winkel α/2 zur xAchse enthält


cos(α) sin(α) 0




S z (α) =  sin(α) − cos(α) 0 


0
0
1
ey 6
(8.1.50)
a′ = S z (α)a
a′ ..............
............
..........
.......
.......
......
......
......
.....
.....
.....
....
....
....
.
α
−ϕ
2
....
....
....
....
....
....
....
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
..
...
..
..
..
..
..
..
..
..
..
..
..
..
..
..
..
...
.
..
α
2
:
... a
.
...
..
..
..
..
ϕ
..
...
...
p
.
176
-
ex
−→ überprüfe Orthogonalität der Spaltenvektoren

     
 
 

cos(α)
0
0
sin(α)
sin(α)
cos(α)

     
 
 


     
 
 

 sin(α)  · − cos(α) = − cos(α) ·  0  =  0  ·  sin(α)  = 0

     
 
 

0
1
1
0
0
0
−→ Spiegelung lässt Länge von Vektor invariant
Unitarität: Erweiterung der Orthogonalität auf komplexwertige Matrizen
A−1 = A†
a−1
⇐⇒
ij
= a†
ij
= a∗ji
(8.1.51)
−→ wieder sind Zeilen- und Spaltenvektoren jeweils paarweise orthogonal
†
A A = 1
A A† = 1
⇐⇒
⇐⇒
n
n
X
X
†
(a )ij ajk =
a∗ji ajk = δik
j=1
n
X
aij (a† )jk =
j=1
j=1
n
X
(8.1.52)
aij a∗kj = δik
(8.1.53)
j=1
−→ Multiplikation mit unitärer Matrix erhält Länge von komplexwertigen Vektoren
8.1.4
† A b · A b = b† A† A b = b† A−1 A b = b† b = b∗ · b = |b|2
(8.1.54)
Reihen von Matrizen
Aus quadratischen Matrizen kann man über die Matrizenmultiplikation Reihen aufbauen,
etwa die Exponentialreihe
∞
∞
X
X
1 n
1 n
A ≡
A
exp A := 1 +
n!
n!
n=0
n=1
−→ Konvergenz wird über Konvergenz der Folge der Partialsummen Sk =
sichergestellt
P∞
1
n=0 n!
An
Konvergenz von Folgen von Matrizen (gewöhnliche, absolute, gleichmäßige):
wird wie im Fall von Zahlenfolgen definiert, wobei der Absolutwert der Zahl durch die Norm
||A|| =
n
X
i,j=1
|aij |
(oder äquivalente Normen) zu ersetzen ist
−→ die Matrixnorm (8.1.55) impliziert komponentenweise Konvergenz
177
(8.1.55)
Beispiele:
∞
X
1 n
exp A = 1 +
A
n!
n=1
∞
X
1 n
ln 1 − A = −
A
n
n=1
(Konvergenz für ||A|| < ∞)
(8.1.56)
(Konvergenz für ||A|| < 1)
(8.1.57)
Rechenregeln für Reihen von Matrizen:
1. für kommutierende Matrizen (Beweis wie bei Zahlen)
exp A + B
= exp A exp B
falls A B = B A
(8.1.58)
2. für Ähnlichkeitstransformation
exp S A S
8.2
8.2.1
−1
∞
∞
X
X
1
1
−1 n
S AS
=
=
S An S −1 = S exp A S −1
n!
n!
n=0
n=0
Determinanten
Motivation
Betrachte lineares 2 × 2-Gleichungssystem zur Bestimmung zweier Unbekannter
a11 x + a12 y = b1
a21 x + a22 y = b2
−→ Lösung durch algebraische Umformungen
a22 b1 − a12 b2
a11 a22 − a12 a21
a11 b2 − a21 b1
y =
a11 a22 − a12 a21
x =
Form des Nenners ist kein Zufall, sondern eine für die Koeffizientenmatrix


a
a
 11 12 
a21 a22
charakteristische Größe, die Determinante
178
(8.1.59)
8.2.2
Definition und Grundbegriffe
Definition: Als Determinante einer (reellen oder komplexwertigen) n × n-Matrix A
versteht man die Zahl
det(A) :=
X
sign(P ) a1P (1) a2P (2) . . . anP (n)
(8.2.1)
P ∈Sn
−→ Definition beruht auf mehreren neuen Konzepten, die im weiteren Schritt für Schritt
eingeführt werden
1. P = Permutation (Vertauschung) von geordneten Elementen, hier der Zahlen 1, . . . n
Beispiele:
(i) Permutationen der Zahlen 1,2
−→ es gibt nur zwei mögliche Anordnungen der beiden Zahlen:
1
P
P (1)
2
1
? ?
1
2
I
@
P (2)
P
P (1)
2
J ^
JJ
2
1
I
@
P (2)
−→ die Permutation, die alle Elemente am Platz lässt, wird identische
Permutation oder Identität genannt
(ii) Permutationen der Zahlen 1,2,3: insgesamt 6 mögliche Anordnungen
179
1
P
2
3
1
P
? ? ?
1
P (1)
2
3
6
P (2)
I
@
P (3)
2
3
1
J J
JJ
^ JJ
^
=
3
P (1)
1
P
2
6
P (2)
I
@
P (3)
2
P (1)
2
3
3
1
Z
Z
~
Z
Z
6
P (2)
I
@
P (3)
-
zyklische Permutationen
1
P
P (1)
2
3
J JJ
^
2
1
1
3
6
P (2)
I
@
P (3)
3
1
J JJ
? ^
P
?
2
1
P (1)
3
P
2
6
P (2)
I
@
P (3)
P (1)
3
2
3
2
1
Z
Z
Z
~
= ?Z
6
P (2)
antizyklische Permutationen
I
@
P (3)
-
2. Sn = Menge aller Permutationen von n geordneten Elementen
(Sn bildet Gruppe bezüglich der Hintereinanderausführung von Permutationen, Symmetrische Gruppe genannt — im Moment nicht von Bedeutung, deswegen keine
Details)
−→ Elemente der S2 und S3 siehe oben
3. Zahl der möglichen Permutationen von n Elementen = n!
(das erste Element kann an jeden der n zur Verfügung stehenden Plätze gesetzt werden,
für das zweite stehen danach noch n − 1 Plätze zur Auswahl, für das dritte n − 2 etc)
4. Zerlegung in eine endliche Zahl von paarweisen Vertauschungen
−→ für alle Permutationen möglich: Beispiel
1
2
3
P1 J
J
^
J
2
P2
3
1
?
3
1
P1′
oder
Z Z
Z
?
~
Z
=
1
2
J JJ
^
?
1
3
P2′ J
J
^
J
3
2
3
1
2
?
2
−→ Zerlegung in paarweise Vertauschungen ist nicht eindeutig
180
−→ es kann obendrein stets noch eine paarweise Vertauschung zweimal hintereinander
ausgeführt werden, ohne dass sich Ergebnis ändert
5. Zerlegung von P in paarweise Vertauschungen erlaubt trotzdem Definition des Signum
der Permutation
sign(P ) := (−1)Zahl der paarweisen Vertauschungen
(8.2.2)
Signum eindeutig, weil Zahl der paarweisen Vertauschungen eindeutig gerade oder
ungerade ist
Beispiele: für Zahl der nötigen paarweisen Vertauschungen
(i) Permutationen der Zahlen 1,2
1
(0)
2
1
(1)
? ?
1
2
J ^
JJ
2
2
1
sign(P ) = −1
sign(P ) = +1
(ii) Permutationen der Zahlen 1,2,3: minimal nötige Zahl der paarweisen Vertauschungen in Klammern
1
(0)
2
3
1
(2)
2
3
J J
J
J
^ JJ
^
=
3
1
2
1
(2)
2
2
3
3
1
Z
Z
~
Z
Z
-
zyklische Permutationen: sign(P ) = +1
1
2
J JJ
^
2
3
? ? ?
1
(1)
2
1
3
?
3
1
2
3
J (1)
JJ
? ^
1
3
2
1
(1)
3
2
3
2
1
Z
Z
?
Z
=
~
Z
antizyklische Permutationen: sign(P ) = −1
Beispiele: für Determinanten
181
-
(i) 2 × 2-Matrix

det 
a11 a12
a21 a22

 = a11 a22 − a12 a21
(8.2.3)
−→ ergibt Nenner der Lösungen des 2 × 2-Gleichungssystems
(ii) 3 × 3-Matrix

a11 a12 a13


det  a21 a22 a23

a31 a32 a33



 = a11 a22 a33 + a13 a21 a32 + a12 a23 a31

−a12 a21 a33 − a11 a23 a32 − a13 a22 a31
(8.2.4)
−→ lässt sich über Sarrus’sche Regel recht leicht merken


a
a
a
@12 @ 13 a11 a12
@11
@
@ @


@
@ 
@
det 
a21 a@22 a@23 a@21 a22


@
@ @
a31 a32 @a33 @a31 @a32
@
@
@
(a) füge erste beiden Spalten noch
einmal hinten an
(b) multipliziere entlang Vorwärtsdiagonalen
aus und addiere die Beiträge auf
(c) multipliziere entlang Rückwärtsdiagonalen
aus und subtrahiere diese Beiträge
= a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a12 a21 a33 − a11 a23 a32 − a13 a22 a31
(8.2.5)
(iii) Determinante einer Diagonalmatrix: nur identische Permutation trägt bei


λ
0
0 ···
0

 1
 0 λ2 0 · · ·
n
0 
Y

 .
.


.
.
λi
(8.2.6)
det  .
.
 =

 0 ···
i=1
λn−1 0 

0
···
0
λn
Bemerkungen:
• Determinante wird häufig auch geschrieben in der Form


a11 · · · a1n
a11 · · · a1n .
.. 
.. ≡ det 
..
 ...
. 
. an1 · · · ann an1 · · · ann
182
(8.2.7)
• Determinante kann genauso gut über Permutation der Zeilenindizes der Matrixelemente definiert werden
det(A) =
X
sign(P ) aP (1)1 aP (2)2 . . . aP (n)n
(8.2.8)
P ∈Sn
−→ Summe durchläuft dieselben Term wie in (8.2.1), nur in anderer Reihenfolge
8.2.3
Definierende Eigenschaften
−→ erlauben axiomatische Definition der Determinante
−→ werden hier aus Definition (8.2.1) hergeleitet
1. Homogenität: Verhalten bei Multiplikation einer Zeile der Matrix mit Zahl


a
· · · a1n
 .11
.. 
 ..
. 
X



det 
sign(P ) a1P (1) . . . αakP (k) . . . anP (n)
=
 αak1 · · · αakn 
 ..
.. 
P ∈Sn
 .
. 
an1 · · · ann
(8.2.9)
= α det(A)
(analog bei Multiplikation einer Spalte mit α)
=⇒
det(αA) = αn det(A)
(8.2.10)
2. Additivität: Verhalten bei Addition eines Vektors zu einer Zeile der Matrix


a12
···
a1n
 a.11

..


..
.



det  ak1 + b1 ak2 + b2 · · · akn + bn 

..
..



.

.
an1
an2
···
ann
X
sign(P ) a1P (1) . . . akP (k) + bP (k) . . . anP (n)
=
P ∈Sn




= det(A) + det 



a11 a12 · · · a1n
..
..
.
.
b1 b2 · · · bn
..
..
.
.
an1 an2 · · · ann
(analog bei Addition von b zu einer Spalte)
183








(8.2.11)
3. Vertauschung von zwei Zeilen: (nehme k < l an)


a
a
· · · a1n
 ..11 12
.. 
 .
. 


 ak1 ak2 · · · akn 
X

.. 
det  ...
sign(P ) a1P (1) . . . akP (k) . . . alP (l) . . . anP (n)
 =
.


P ∈Sn
 al1 al2 · · · aln 
 .

.
.. 
 ..
an1 an2 · · · ann
betrachte eine einzelne Permutation P
···
1
?
k
···
···
l
?
n
?
?
P (1) · · · P (k) · · · P (l) · · · P (n)
−→ P kann geschrieben werden als Permutation P ′ plus eine einzelne anschließende
Vertauschung der Elemente auf den Plätzen k und l
P ′ (k) = P (l)
;
P ′ (l) = P (k)
=⇒
P = Pk↔l P ′
P ′(i) = P (i)
;
;
∀ i 6= k, l
sign(P ) = −sign(P ′)
−→ wenn P alle möglichen Permutationen durchgeht, tut das auch P ′ , weil zu jeder
Permutation auch eine mit vertauschten Elementen auf den Plätzen k und l
existiert
−→ Determinante kann geschrieben werden als
X
sign(P ) a1P (1) . . . akP (k) . . . alP (l) . . . anP (n)
P ∈Sn
= −
= −
X
sign(P ′) a1P ′ (1) . . . akP ′ (l) . . . alP ′ (k) . . . anP ′ (n)
P ′ ∈Sn
X
sign(P ′) a1P ′ (1) . . . alP ′ (k) . . . akP ′ (l) . . . anP ′ (n)
P ′ ∈Sn
−→ das ist Formel für Determinante von Matrix, in der gegenüber der
184
Ausgangsmatrix die

a
a
 ..11 12
 .

 ak1 ak2

det  ...

 al1 al2
 .
 ..
an1 an2
Zeilen k und l vertauscht sind


a
· · · a1n
 ..11
.. 


. 
 .
 al1
· · · akn 
 ..
.. 
=
−
det
 .

. 

 ak1
· · · aln 
 .
.. 
 ..
. 
an1
· · · ann
a12 · · ·
al2
ak2
an2
a1n
..
.
· · · aln
..
.
· · · akn
..
.
· · · ann
(analog für Vertauschung von zwei Spalten)











(8.2.12)
Unmittelbare Konsequenz von Gl.(8.2.12): Determinante verschwindet, falls zwei Zeilen oder
zwei Spalten gleich sind
det(A) = − det(A)
=⇒
det(A) = 0 falls zwei Zeilen/Spalten gleich
(8.2.13)
Aussage lässt sich noch verallgemeinern:
Satz: Determinante verschwindet genau dann, wenn (mindestens) zwei Zeilen oder zwei
Spalten linear abhängig sind (d.h. det(A) 6= 0, falls alle Zeilen linear unabhängig sind)
(a) zeige zunächst, dass Determinante verschwindet, falls mindestens zwei Zeilen oder zwei
Spalten linear abhängig sind
−→ benutze die Darstellung des linear abhängigen Zeilenvektors in Zeile k durch die
anderen Zeilenvektoren, d.h. Gl.(1.1.17)
akj =
n
X
λl alj
l=1,l6=k
−→ dann können zunächst (8.2.9) und (8.2.11) verwendet werden, um die
Determinante in

a
 .11
 ..

 a
 k1

det  ...

 al1

 ..
 .
an1
folgende Form zu bringen


a
· · · a1n
 .11
.. 


.
. 
 .


· · · akn 
n
 al1
X

.. 
=
λl det  ...
. 


l=1,l6=k
 al1
· · · aln 


.. 
 ..
. 
 .
an1
· · · ann
185
···

a1n
.. 
. 

· · · aln 

.. 
. 

· · · aln 

.. 
. 
· · · ann
−→ wegen (8.2.13) erhält man schließlich
det(A) = 0
falls zwei Zeilen oder zwei Spalten linear abhängig
(8.2.14)
(b) zeige nun, dass Determinante nicht verschwindet, falls alle Zeilen linear unabhängig
sind: verwende Widerspruchsbeweis
−→ nehme an, dass det(A) = 0, obwohl die Zeilenvektoren
al := (al1 , al2 , . . . aln )
(8.2.15)
linear unabhängig sind
−→ jeder beliebige n-komponentige Vektor lässt sich über die al darstellen, da diese
eine Basis des Rn bilden: wähle davon n Vektoren rk aus
rk =
n
X
λklk alk
k = 1, . . . n
(8.2.16)
lk =1
rk = (rk1 , rk2 , . . . rkn )
(8.2.17)
−→ für die aus den Zeilenvektoren rk gebildete Determinante erhält man mit (8.2.9)
und (8.2.11)


a
· · · al1 n
 l1 1

n
r11 · · · r1n
X



 .
r
·
·
·
r
.
21
2n


..  =
λ1l1 det  .
det  ..
.. 
.
 .
. 
l1 =1
rn1 · · · rnn
rn1 · · · rnn


n
n
a
·
·
·
a
l 1
l1 n
X
X
 1
.. 
=
λ1l1 · · ·
λnln det  ...
. 
l1 =1
ln =1
aln 1 · · · aln n


−→ nur diejenigen Beiträge zu den Summen über lk tragen bei, bei denen die l1 , . . . ln
paarweise verschieden sind (sonst sind zwei Zeilen der rechten Det. gleich)
−→ die l1 , . . . ln müssen eine Permutation P von 1, . . . n sein




a
·
·
·
a
r11 · · · r1n
11
1n
X


.. 
.. 
λ1P (1) · · · λnP (n) sign(P ) det  ...
det  ...
. 
.  =
P ∈Sn
an1 · · · ann
rn1 · · · rnn
X
λ1P (1) · · · λnP (n) sign(P ) det(A)
=
(8.2.18)
P ∈Sn
186
−→ falls det(A) = 0, gilt


r11 · · · r1n

.. 
det  ...
.  = 0
rn1 · · · rnn
für beliebige Vektoren r1 , . . . rn
−→ Widerspruch zu det(1) = 1 im Fall rk = ek für k = 1, . . . n
−→ Annahme det(A) = 0 kann nicht korrekt sein
8.2.4
Multiplikationstheorem
häufiges Problem: Auswertung der Determinante von Produkt von Matrizen
−→ leicht auszuwerten über Multiplikationstheorem
det(A B) = det(A) det(B)
(8.2.19)
Zum Beweis betrachte die n Zeilenvektoren ci der Produktmatrix A B
ci = (ci1 , ci2 , . . . cin )
n
X
cik =
aij bjk
k = 1, . . . n
j=1
−→ für die Determinante von A B erhält man über (8.2.9) und (8.2.11) wieder


c11 · · · c1n

.. 
det(A B) = det  ...
. 
cn1 · · · cnn


n
n
bj 1 · · · bj1 n
X
X
 1
.. 
=
a1j1 · · ·
anjn det  ...
. 
j1 =1
jn =1
bjn 1 · · · bjn n
−→ jetzt ist Fallunterscheidung nötig:
(a) falls die Zeilenvektoren bj = (bj1 , · · · bjn ) linear unabhängig sind, tragen zu den Summen über die jk auf Grund von Gl.(8.2.13) nur diejenigen Terme bei, bei denen die
j1 , . . . jn gerade irgendeine Permutation P von 1, . . . n sind (wie oben)


b
·
·
·
b
11
1n
X

.. 
det(A B) =
a1P (1) · · · anP (n) sign(P ) det  ...
. 
P ∈Sn
bn1 · · · bnn
= det(A) det(B)
187
(8.2.20)
−→ entspricht gerade Gl.(8.2.19)
(b) falls die Zeilenvektoren bj = (bj1 , · · · bjn ) linear abhängig sind, verschwindet det(B)
und damit die rechte Seite von Gl.(8.2.19)
−→ auch die Zeilenvektoren ci von A B sind linear abhängig, da sie aus der
Transformation der bj mittels der Matrix A hervorgehen:
bmk =
=⇒
cik =
n
X
λj bjk
j=1,j6=m
n
X
aij bjk
j=1
= aim bmk +
n
X
aij bjk
j=1,j6=m
= aim
n
X
λj bjk +
j=1,j6=m
=
=⇒
ci =
n
X
n
X
aij bjk
j=1,j6=m
(aim λj + aij ) bjk
j=1,j6=m
n
X
(aim λj + aij ) bj
j=1,j6=m
−→ alle n Vektoren ci lassen sich durch die n − 1 Vektoren bj mit j 6= m ausdrücken
−→ auch det(A B) verschwindet, so dass Gl.(8.2.19) wiederum erfüllt ist
8.2.5
Determinanten spezieller Matrizen
1. Determinante der transponierten Matrix: resultiert direkt aus der Äquivalenz
von Zeilen und Spalten
det(AT ) = det(A)
(8.2.21)
2. Determinante der inversen Matrix: resultiert direkt aus Multiplikationstheorem
1 = det(1) = det(A A−1 ) = det(A) det(A−1 )
=⇒
det(A−1 ) = [det(A)]−1
−→ inverse Matrix existiert nur, falls det(A) 6= 0
188
(8.2.22)
3. Determinante orthogonaler (reeller) Matrizen resultiert ebenfalls aus Multiplikationstheorem
1 = det(A A−1 ) = det(A AT ) = det(A) det(AT ) =
det(A)
det(A) = ±1
=⇒
2
(8.2.23)
4. Determinante unitärer (komplexwertiger) Matrizen (analoges Vorgehen)
2
1 = det(A A−1 ) = det(A A† ) = det(A) det(A)∗ = det(A)
|det(A)| = 1
=⇒
(8.2.24)
−→ det(A) liegt auf dem Kreis mit Radius 1 um Ursprung der komplexen Ebene
−→ die allgemeinste komplexe Zahl mit Betrag 1 lässt sich schreiben als (Moivre)
=⇒
det(A) = eiϕ = cos(ϕ) + i sin(ϕ)
mit ϕ ∈ R
(8.2.25)
5. Determinante unter Ähnlichkeitstransformation: bleibt erhalten
A≈B
=⇒
det(B) = det S A S −1 = det S −1 S A = det(A)
6. Identität für ln A (ohne Beweis)
det A
= exp tr ln A
with
ln det(A) = ℜ tr ln A
8.2.6
∞
X
n
1
1−A
ln A := −
n
n=1
(8.2.26)
(8.2.27)
(8.2.28)
Determinantenentwicklungssatz
Die tatsächliche Berechnung der Determinante über (8.2.1) ist durchaus aufwendig
−→ rekursive Berechnung häufig vorteilhaft
Eine Rekursionsformel stellt der Determinantenentwicklungssatz zur Verfügung
det(A) =
n
X
j=1
(−1)i−j aij det Aij
189
(8.2.29)
wobei Aij die (n − 1) × (n − 1)-Matrix ist, die aus A durch Streichen der i-ten Zeile und
j-ten Spalte hervorgeht

Aij





:= 




a11 · · ·
..
.
a1j · · ·
..
.
ai1 · · ·
..
.
aij
..
.
an1 · · · anj

a1n

.. 
. 


· · · ain 

.. 
. 

· · · ann
(8.2.30)
Beachte: in (8.2.29) kann i beliebig aus 1, . . . n ausgewählt werden
−→ man spricht dann von Entwicklung nach der i-ten Zeile
Beweis: Betrachte i = 1 (i 6= 1 folgt am Schluss durch Vertauschung der Zeilen von A)
Startpunkt: Definition (8.2.1)
det(A) =
X
sign(P ) a1P (1) a2P (2) . . . anP (n)
P ∈Sn
Zentraler Punkt: Reihenfolge, in der alle möglichen Permutationen P ∈ Sn durchgegangen
werden, ist irrelevant
−→ teile die Permutationen P ∈ Sn in Klassen auf, für die P (1) = j ( j = 1, . . . n) ist:
alle möglichen P ∈ Sn erhält man dann durch Durchgehen von j = 1, . . . n sowie, für
gegebenes j, durch Durchgehen aller Permutationen P ′ der n − 1 verbleibenden, von
j verschiedenen Indizes 1, . . . j − 1, j + 1, . . . n
−→ das Signum der Permutation P entspricht dann dem von P ′ bis auf den Faktor (−1)j−1,
der aus den j − 1 Zweiervertauschungen resultiert, mit denen vor der Vertauschung
von 1, . . . j − 1, j + 1, . . . n der Index j an die erste Stelle gebracht wird
sign(P ) = (−1)j−1 sign(P ′)
Illustration:
190
1
2
···
j−1
@
@
@
@ @
@
R
9@
R
@
@
R
j
1
?
j
6
2
?
?
′
′
6
6
···
j
j+1
?
j−1
j+1
?
?
′
′
··· n
?
··· n
?
′
P (1) P (2) · · · P (j − 1) P (j + 1) · · · P (n)
P (1) P (2) P (3)
6
···
6
6
j − 1 paarweise
Vertauschungen: (−1)j−1
Permutation von 1, . . .
j − 1, j + 2, . . . n: sign(P ′)
direkte Permutation
von 1, . . . n: sign(P )
P (j + 1) · · · P (n)
P (j)
Resultat:
det(A) =
n
X
(−1)j−1 a1j
j=1
=
n
X
j=1
X
sign(P ′ ) a2P ′ (1) . . . ajP ′ (j−1) aj+1,P ′(j+1) . . . anP ′ (n)
P ′ ∈Sn−1
(−1)j−1 a1j det A1j
(8.2.31)
−→ vor Verwendung von (8.2.31) kann noch i-te Zeile an erste Stelle gebracht werden


a
···
aij · · ·
ain

 i1


 a11 · · · a1j · · · a1n 


..
.. 
 ..
 .
.
. 




i−1
det(A) = (−1) det  ai−1,1 · · · ai−1,j · · · ai−1,n 




 ai+1,1 · · · ai+1,j · · · ai+1,n 


 ..
.. 
..
 .
. 
.


an1 · · · anj · · · ann
n
X
i−1
j−1
= (−1)
(−1) aij det Aij
j=1
−→ (8.2.29) bewiesen
Entwicklung kann genauso bezüglich Spalte formuliert werden (ausgehend von Gl.(8.2.8))
det(A) =
n
X
i=1
(−1)i−j aij det Aij
−→ Entwicklung nach der j-ten Spalte
191
(8.2.32)
Beispiel: 3 × 3-Matrix, Entwicklung nach erster Zeile


a
a
a
 11 12 13 


det  a21 a22 a23 


a31 a32 a33






a22 a23
a
a
a
a
 − a12 det  21 23  + a13 det  21 22  (8.2.33)
= a11 det 
a32 a33
a31 a33
a31 a32
8.3
Lineare Gleichungen
Frage: Wozu braucht man Determinanten?
Antwort: Insbesondere zur Lösung linearer Gleichungssysteme
Ax = b
⇐⇒
a11 x1 + a12 x2 + . . . a1n xn = b1
..
.. ..
.
. .
(8.3.1)
an1 x1 + an2 x2 + . . . ann xn = bn
−→ Lösung einfach, falls inverse Matrix A−1 existiert:
x = A−1 b
−→ inverse Matrix lässt sich gerade über Determinanten ausrechnen:
det Aji
(a−1 )ij = (−1)i−j
(Aji siehe Gl.(8.2.30))
det A
(8.3.2)
(8.3.3)
Beweis: durch Nachweis der A−1 definierenden Gl.(8.1.22):
n
X
−1
aij (a )jk
j=1
n
X
1
=
(−1)j−k aij det Akj
det A j=1
(8.3.4)
−→ für i = k kann Determinantenentwicklungssatz direkt verwendet werden
n
X
j=1
aij (a−1 )ji =
n
X
1
(−1)i−j aij det Aij = 1
det A j=1
−→ für i 6= k kann ebenfalls Determinantenentwicklungssatz verwendet werden,
allerdings erhält man dann die Determinante einer Matrix, die aus A durch
192
(8.3.5)
Ersetzen des Zeilenvektors ak = (ak1 , . . . akn ) durch ai entsteht

a
···
a1n
 11
..
 ..
 .
.


 ai1
···
ain

..
 ..
 .
.
n

X

= det  ak−1,1
(−1)j−k aij det Akj
···
ak−1,n

j=1

 ai1
···
ain


 ak+1,1
···
ak+1,n

 ..
..
 .
.

an1
···
ann
−→ Determinante verschwindet wegen (8.2.13)
n
X
aij (a−1 )jk = 0
j=1























∀ i 6= k
(8.3.6)
−→ Gl.(8.3.3) bewiesen
Gl.(8.3.2) kann noch in eine leichter zu merkende Form gebracht werden
xi =
n
X
(a−1 )ij bj
j=1
det Aji
=
(−1)i−j bj
det A
j=1
det Ãi
=
(Cramer’sche Regel)
det A
n
X
(8.3.7)
wobei Ãi gemäß Determinantenentwicklungssatz (8.2.32) aus A durch Ersetzen der i-ten
Spalte durch b hervorgeht

Ãi
a
· · · a1 i−1 b1 a1 i+1 · · · a1n
 11
..
..
..
..
 ..
=  .
.
.
.
.

an1 · · · an i−1 bn an i+1 · · · ann





−→ Existenz einer eindeutigen Lösung von A x = b erfordert daher det(A) 6= 0
193
(8.3.8)
8.4
Eigenwertproblem
Bei Rotation bereits gesehen: Richtung von Vektoren kann invariant unter linearer Transformation mit n × n-Matrix A sein
−→ solche invarianten Richtungen sind von besonderer Bedeutung
Definition: Ein Vektor v (mit v 6= 0) heißt Eigenvektor zur n × n-Matrix A, falls
Av = λv
(8.4.1)
gilt. λ wird der zum Eigenvektor v gehörende Eigenwert genannt (λ ∈ R, C, je nach A).
−→ mit v ist auch αv Eigenvektor: Eigenvektoren nur bis auf Skalenfaktor festgelegt
Unmittelbare Konsequenz von (8.4.1):
Satz: λ ist genau dann Eigenwert von A (mit mindestens einem zugehörigen Eigenvektor
v), wenn
det(A − λ 1) = 0
(8.4.2)
Beweis: (in beiden Richtungen)
(a) falls λ Eigenwert ist, existiert per Definition mindestens ein Eigenvektor v 6= 0
−→
det(A − λ 1) muss verschwinden, denn sonst existiert [A − λ 1]−1 , was nur die
triviale Lösung von (8.4.1) zulässt:
=⇒
A− λ1 v = 0
−1
v = A− λ1
0=0
(b) falls det(A − λ 1) = 0, sind mindestens 2 Spaltenvektoren der Matrix B = A − λ 1
linear abhängig (siehe Satz aus Abschnitt 8.2.3): drücke einen von ihnen (j) durch die
anderen Spaltenvektoren aus
bij =
n
X
αl bil
l=1,l6=j
−→ j-ter Spaltenvektor von B kann aus Matrix eliminiert werden


b
·
·
·
b
b
b
·
·
·
b
1 j−1
1l
1 j+1
1n
n

 11
X
.. 
..
..
..
 ..
αl  .
B =
. 
.
.
.


l=1,l6=j
bn1 · · · bn j−1 bnl bn j+1 · · · bnn
194
−→ betrachte jetzt Produkt aus B mit geeignet gewähltem Vektor


α1


n
 . 
X


αl b1 l b1 j+1 · · · b1n   .. 
 b11 · · · b1 j−1





0
l=1,l6=j


  αj−1 
 ..
..
..
..
 .

..  
 .
.
.
.
.   −1  =  ..





n


 α
X
j+1 
 b
0
αl bn l bn j+1 · · · bnn  
n1 · · · bn j−1
 .. 


.
l=1,l6=j
αn





−→ es existiert mindestens ein Vektor (6= 0), der von B auf 0 abgebildet wird
−→ dieser Vektor ist Eigenvektor von A (wegen B = A − λ 1)
−→ λ ist Eigenwert von A
Man gibt det(A − λ 1) daher einen eigenen Namen: charakteristisches Polynom von A
p(λ) := det(A − λ 1) =
n
X
qk λk
(8.4.3)
k=0
−→ Nullstellen von p(λ) entsprechen Eigenwerten von A
Praktische Lösung des Eigenwertproblems :
1. bestimme Nullstellen des charakteristischen Polynoms p(λ): Resultat = λ1 , . . . , λm
2. bestimme allgemeine Lösung von
(A − λk 1)v = 0
für jeden einzelnen Eigenwert λk : Resultat = v1 , . . . , vl
Beispiel:
(i) Elementare 2 × 2-Matrix: Bestimme zunächst Eigenwerte


1
1

A = 
1 −1


1−λ
1
 = λ2 − 2
=⇒ p(λ) = det 
1
−1 − λ
√
=⇒ λ± = ± 2
195
Bestimme nun zugehörige Eigenvektoren v± : nur eine Komponente zu bestimmen, weil
Normierung von v± nicht festliegt
−→ setze willkürlich erste Komponente auf 1
(falls das auf Widerspruch führt, muss diese Komponente Null sein — in diesem
Fall muss die nächste Komponente auf 1 gesetzt werden, bis eine gefunden ist,
die nicht verschwindet)
A − λ± 1 v± = 0






√
√
1
1∓ 2
1
0
1 ∓ 2 + v±

 =! 
 = 
√ 
√
1
−1 ∓ 2
v±
0
1 − (1 ± 2)v±
√
=⇒ v± = −1 ± 2


1
=⇒ v+ = 
v− =
√ 
−1 + 2
=⇒
v+ · v− = 0




−→ Eigenvektoren sind orthogonal aufeinander
−→ kein Zufall: siehe später
(ii) Rotationsmatrix: Bestimme zunächst Eigenwerte (φ 6= 0)


cos(φ) sin(φ) 0




A =  − sin(φ) cos(φ) 0 


0
0
1

cos(φ) − λ
sin(φ)
0


=⇒ p(λ) = det  − sin(φ) cos(φ) − λ
0

0
0
1−λ
= (1 − λ) (cos(φ) − λ)2 + sin2 (φ)
=⇒
λ± = cos(φ) ± i sin(φ) = e±iφ
λ3 = 1
−→ ein reeller plus zwei komplexwertige Eigenwerte
196





1

√ 
−1 − 2
Bestimme zugehörige Eigenvektoren: Eigenvektor v3 zu λ3 offensichtlich


0




v3 =  0 


v3,3
Bestimme nun Eigenvektoren v± zu λ± :

∓i sin(φ) sin(φ)
0


 − sin(φ) ∓i sin(φ)
0

0
0
1 − (cos(φ) ± i sin(φ))


∓i sin(φ)v1,± + sin(φ)v2,±




=  − sin(φ)v1,± ∓ i sin(φ)v2,± 


[1 − (cos(φ) ± i sin(φ))]v3,±
=⇒
=⇒
v±,2 = ±iv±,1

1


v+ = v+,1  i

0

v
  1,±

  v2,±

v3,±



0
 


 
 =  0 

 
0
v±,3 = 0





v−


1




= v−,1  −i 


0
Standardnormierung: vk† · vk = 1

 

1
1



1 
1

 

v+ = √  i 
v− = √  −i 




2
2
0
0


0
 
 
v3 =  0 
 
1
−→ Eigenvektoren sind alle linear unabhängig, v3 ist orthogonal zu v±
−→ kein Zufall: siehe später
Aussagen zu Eigenwerten und -vektoren:
1. Zahl m der Eigenwerte λk einer n × n-Matrix A ist stets kleiner oder gleich n, weil
p(λ) maximal n Nullstellen hat: m < n kann aus zwei Gründen resultieren:
(a) erlaubte Werte von λk sind auf R beschränkt (präziser: erlaubte Werte von λk
sind auf einen Körper beschränkt, der nicht algebraisch geschlossen ist) und p(λ)
hat weniger als n Nullstellen im Reellen
197
(b) einige λk gehören zu Nullstellen von p(λ) höherer Ordnung
zur Erläuterung: betrachte allgemeine Form von p(λ) falls nur λk ∈ R erlaubt ist
p(λ) = (−1)
n
µ
Y
gk (λ)µk
gk (λ) = λνk + qk,1λνk −1 + . . . + qk,νk
(8.4.4)
k=1
µ
X
νk µk = n
(8.4.5)
k=1
−→ gk (λ) elementare Polynome, die in R keine weitere Faktorisierung erlauben
Beispiel:
p(λ) = λ4 − 2λ3 + 2λ2 − 2λ + 1
= (λ2 + 1)(λ − 1)2
g 1 = λ2 + 1
µ1 = 1
ν1 = 2
g2 = λ − 1
µ2 = 2
ν2 = 1
vergleiche damit: allgemeine Form von p(λ) falls λk ∈ C erlaubt ist
−→ elementare Polynome reduzieren sich auf gk (λ) = λ − λk
p(λ) = (−1)
n
m
Y
(λ − λk )mk
(8.4.6)
k=1
mk = Ordnung der Nullstelle = Multiplizität des Eigenwerts λk
m
X
mk = n
(8.4.7)
k=1
−→ Form (8.4.6) garantiert wegen Fundamentalsatz der Algebra
Beispiel von oben:
p(λ) = λ4 − 2λ3 + 2λ2 − 2λ + 1
= (λ + i)(λ − i)(λ − 1)2
m = 3
2. Zahl l der linear unabhängigen Eigenvektoren einer n × n-Matrix liegt zwischen
Zahl der Eigenwerte m und n: m ≤ l ≤ n
(oben bewiesen: zu jedem Eigenwert existiert mindestens ein Eigenvektor; die vk haben
aber nicht mehr als n Komponenten)
198
3. Die Eigenvektoren v1 , . . . , vm der Matrix A sind linear unabhängig, falls die zugehörigen Eigenwerte λk paarweise verschieden sind:
λk 6= λj ∀ k 6= j; k, j = 1, . . . m
=⇒
v1 , . . . , vm linear unabhängig
Beweis: lasse Eigenwertgleichungsoperator mit Eigenwert λj auf Eigenvektor vl wirken


0
für l = j
A − λj 1 vl =
 (λ − λ )v für l 6= j
l
j
l
betrachte nun Ausdruck, der lineare Abhängigkeit charakterisiert,
Pm
l=1
αl vl , und lasse
alle Eigenwertgleichungsoperatoren auf ihn wirken, außer einem (k): in Summe verschwinden alle Terme bis auf l = k
m
m
Y
X
αl vl =
A − λj 1
j=1;j6=k
m
Y
=⇒
j=1;j6=k
m
Y
l=1
j=1;j6=k
αk (λk − λj ) vk = 0
αk (λk − λj ) vk
⇐⇒
∀ k = 1, . . . m
αk = 0
(da die λj paarweise verschieden sind)
−→ die vl sind alle linear unabhängig
4. Eigenwerte von symmetrischen reellen sowie von hermitischen Matrizen
sind reell
Zum Beweis: betrachte komplex konjugierte Eigenwertgleichung
∗ Avk = λk vk
A† = AT
=⇒
vk† A† = λ∗k vk†
−→ ist unmittelbar klar in Komponenten: vjk = j-te Komponente des k-ten
Eigenvektors
n
X
aij vjk = λk vik
n
X
=⇒
j=1
a∗ij
∗
vjk
j=1
=
n
X
a†
j=1
ji
∗
∗
vjk
= λ∗k vik
bilde nun Skalarprodukte mit den beiden Eigenwertgleichungen
=⇒
λk =
λ∗k =
=⇒
vk† Avk
vk† vk
vk† A† vk
vk† vk
λk = λ∗k
(für reelle Matrizen: A† = AT )
199
falls
A = A†
(8.4.8)
5. Falls die n × n-Matrix A n linear unabhängige Eigenvektoren besitzt, wird
A durch die aus den Eigenvektoren gebildete Matrix diagonalisiert.
Beweis: schreibe Eigenwertgleichung in Komponenten auf
A vk = λk vk
⇐⇒
n
X
aij vjk = λk vik =
j=1
n
X
λk δjk vij
(8.4.9)
j=1
vjk = j-te Komponente des k-ten Eigenvektors
−→ kann als Matrixmultiplikation ausgedrückt werden
−→ definiere dazu Matrix, deren Spaltenvektoren die vk

v
· · · v1n
 11
..
 ..
S := (vjk ) =  .
.

vn1 · · · vnn
sind





sowie Diagonalmatrix aus Eigenwerten

λ 0 ··· 0
 1

 0 λ2 · · · 0
Λ := (λj δjk ) = 
 ..
..
 .
.

0 0 · · · λn
−→ Gl.(8.4.9) in Matrixform
(8.4.10)








AS = S Λ
(8.4.11)
(8.4.12)
−→ da die Matrix (8.4.10) aus n linear unabhängigen Spaltenvektoren besteht,
existiert ihre Inverse
S −1 A S = Λ
(8.4.13)
man sagt: die Ähnlichkeitstransformation mit S diagonalisiert A
6. Ähnliche Matrizen besitzen dasselbe charakteristische Polynom
A≈B
=⇒
det(B − λ 1) = det(S A S −1 − λ S S −1 ) = det(A − λ 1) (8.4.14)
200
7. Reelle symmetrische und hermitische n × n Matrizen besitzen n linear unabhängige Eigenvektoren. Dabei sind Eigenvektoren, die zu verschiedenen Eigenwerten gehören, paarweise orthogonal, solche, die zu gleichen Eigenwerten gehören,
können paarweise orthogonal gewählt werden.
Beweis: in mehreren Schritten
(i) Eigenvektoren, die zu verschiedenen Eigenwerten gehören, sind orthogonal:
†
†
λl vk† vl = vk† Avl = A† vk vl = Avk vl = λ∗k vk† vl = λk vk† vl
(8.4.15)
−→ entweder gilt λl = λk oder vk† vl = 0
(ii) falls v1 , . . . vm Eigenvektoren von A sind, gilt für jeden Vektor r, der senkrecht
auf allen vk steht
vk† r = 0
=⇒
†
†
vk† Ar = A† vk r = Avk r = λk vk† r = 0 (8.4.16)
−→ auch Ar ist orthogonal zu allen vk
−→ A bildet also den von den vk aufgespannten Unterraum auf sich selbst ab
und ebenso den von den linear unabhängigen rl aufgespannten Unterraum
auf sich selbst: alle Vektoren des einen Unterraums sind orthogonal zu allen
Vektoren des anderen
(iii) führe auf dieser Basis einen Induktionsbeweis:
(a) Aussage (Existenz von n linear unabhängigen Eigenvektoren) ist offensichtlich richtig für n = 1, d.h. 1 × 1-Matrizen (Induktionsbasis)
(auch für reelle symmetrische 2 × 2-Matrizen wurde ihre Richtigkeit für die
Matrix (8.1.38) explizit nachgewiesen)
(b) nehme daher im weiteren an, dass Aussage für (n − 1) × (n − 1)-Matrizen
bewiesen ist (Induktionsannahme)
(c) für jede beliebige n × n-Matrix A lässt sich charakteristisches Polynom aber
in die Form (8.4.6) bringen
m
Y
(λ − λi )mi
p(λ) = (−1)
n
i=1
201
λi 6= λj ∀ i 6= j
−→ es gibt mindestens einen reellen Eigenwert und daher mindestens einen
Eigenvektor v1 , für den (8.4.16) gilt
−→ es gibt n − 1 linear unabhängige rl , die orthogonal zu v1 sind
−→ A wirkt auf den von den n − 1 Vektoren rl aufgespannten Raum wie
eine (n − 1) × (n − 1)-Matrix auf Vektoren mit n − 1 Komponenten
−→ A kann durch die Rotation der Basisvektoren, die v1 in den Vektor
(1, 0, . . . 0) überführt, auf die Form

a′
0 ··· 0
 11

 0 a′22 · · · a′2n
A = 
..
..
 ..
 .
.
.

0 a′n2 · · · a′nn








gebracht werden
−→ für die (n − 1) × (n − 1)-Matrix

a′ · · · a′2n
 22
..
 .
A′ =  ..
.

a′n2 · · · a′nn





ist die Existenz von n − 1 linear unabhängigen Eigenvektoren aber
bereits bewiesen (wegen Induktionsannahme)
−→ daher besitzt A n linear unabhängige Eigenvektoren, weil zu den
n − 1 Eigenvektoren von A′ (nach Rückrotation) noch v1 kommt
(Induktionsschluss)
202
Beispiel: 3 × 3-Matrix: Bestimme zunächst Eigenwerte


3 0 2




A =  0 2 0 


2 0 6


3−λ
0
2




2
=⇒ p(λ) = det  0
2−λ
0  = −(λ − 2) (λ − 7)


2
0
6−λ
=⇒
λ1 = 2
λ2 = 7
Bestimme jetzt Eigenvektoren: beginne mit λ2
−→ setze wieder willkürlich erste Komponente auf 1
A − λ2 1 v2 = 0




−4 + 2v32
1
−4
0
2








 0 −5
0   v22  =  −5v22




2 − v32
v32
2
0 −1
=⇒
v22 = 0
v2
v32 = 2
 
1
 
 
=  0 
 
2


0

 

 !  
=
 0 

 

0
Analysiere nun λ1 : setze erneut willkürlich erste Komponente auf 1
A − λ1 1 v1 = 0




1 + 2v31
1
1 0 2








 0 0 0   v21  = 
0




2 + 4v31
v31
2 0 4
=⇒
v31 = −
1
2


0

 

 !  
=
 0 

 

0
v21 = nicht bestimmt: kann jeden Wert annehmen
−→ man findet also eine ganze Schar von Eigenvektoren zu λ1
−→ wähle davon zwei orthogonale aus




1
1








v1,2 =  − 45 
v1,1 =  1 




1
1
−2
−2
203
=⇒
v1,1 · v1,2 = 0
−→ Wahl so getroffen, dass v1,1 und v1,2 orthogonal
−→ v1,1 und v1,2 aber auch orthogonal zu v2 , wie zuvor behauptet:
v1,i · v2 = 0
Betrachte schließlich Ähnlichkeitstransformation von A mit der aus den Spaltenvektoren vk gebildeten Matrix S:
−→ bestimme dazu Inverse zu S über (8.3.3)



S = 

1
1 1
1 − 54
− 21 − 12



0 

2
=⇒
S −1


20
20 −10

1 


=
 16 −20 −8 

45 
9
0
18
−→ werte jetzt Ähnlichkeitstransformation aus





2
2 7
3 0 2
1
1 1










5
5
A S =  0 2 0   1 −4 0  =  2 −2 0 





1
1
−2 −2 2
−1 −1 14
2 0 6




2
2 7
20
20 −10
90 0
0




1
1





S −1 A S =
 16 −20 −8   2 − 52 0  =
 0 90
0


45 
45 
9
0
18
0 0 315
−1 −1 14
−→ ergibt gerade Diagonalmatrix Matrix mit Eigenwerten auf der Diagonalen
204





Herunterladen