Notizen zum Tutorium

Werbung
Notizen zum Tutorium
Tutorium zur Vorlesung Mathematische Grundlagen der Physik gehalten im
Wintersemester 2015/2016
Oliver Brenk
Fachbereich Physik
TU Kaiserslautern
Deutschland
Stand: 4. Februar 2016
Inhaltsverzeichnis
1 Vorwort
5
2 Mengen, Gruppen, Körper, Vektorräume
2.1 Mengen . . . . . . . . . . . . . . . . .
2.1.1 Definition von Mengen . . . . .
2.1.2 Wichtige Mengen . . . . . . . .
2.2 Gruppen . . . . . . . . . . . . . . . . .
2.3 Körper . . . . . . . . . . . . . . . . . .
2.4 Vektorräume . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
6
6
6
7
8
9
11
3 Skalarprodukt, Norm und Metrik
3.1 Skalarprodukt . . . . . . . . . . .
3.2 Norm . . . . . . . . . . . . . . . .
3.3 Anwendungen des Skalarprodukts
3.3.1 Projektion . . . . . . . . .
3.3.2 Zerlegung eines Vektors .
3.4 Metrik . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
14
14
16
18
18
19
19
.
.
.
.
.
.
.
.
.
21
21
22
23
24
25
25
26
26
27
.
.
.
.
.
.
.
28
28
29
29
30
33
34
35
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4 Lineare Operatoren - Nabla, Div, Grad, Rot
4.1 Linearer Operator . . . . . . . . . . . . . . . . .
4.1.1 Skalarfelder, Vektorfelder . . . . . . . . .
4.1.2 Gebiet . . . . . . . . . . . . . . . . . . .
4.2 Gradient . . . . . . . . . . . . . . . . . . . . . .
4.2.1 Geometrische Bedeutung des Gradienten
4.3 Rotation . . . . . . . . . . . . . . . . . . . . . .
4.3.1 Geometrische Bedeutung der Rotation .
4.4 Divergenz . . . . . . . . . . . . . . . . . . . . .
4.4.1 Geometrische Bedeutung der Divergenz .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5 Koordinatentransformation
5.1 Koordinatentransformationen sind nichts Neues . .
5.2 Benötigte Begriffe . . . . . . . . . . . . . . . . . . .
5.3 Koordinatentransformation . . . . . . . . . . . . . .
5.3.1 Basis . . . . . . . . . . . . . . . . . . . . . .
5.3.2 Jacobimatrix der Koordinatentransformation
5.4 Ebene Polarkoordinaten . . . . . . . . . . . . . . .
5.4.1 Bahnkurve in ebenen Polarkoordinaten . . .
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5.4.2
Vergleich kartesische Koordinaten und ebene Polarkoordinaten . .
6 Volumenintegral
6.1 Volumen . . . . . . . . . . . . .
6.1.1 Kartesische Koordinaten
6.1.2 Zylinderkoordinaten . .
6.1.3 Kugelkoordinaten . . . .
6.2 Masse . . . . . . . . . . . . . .
6.3 Schwerpunkt . . . . . . . . . . .
6.4 Trägheitsmoment . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
36
38
38
38
39
39
40
41
44
7 Analogien zwischen Tanslation und Rotation
47
8 Potential und Phasenraum
8.1 Periodendauer . . . . . . . . . .
8.2 Phasenraum . . . . . . . . . . .
8.2.1 Harmonischer Oszillator
8.2.2 Mathematisches Pendel .
48
49
50
51
53
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
9 Effektivpotential
58
9.1 Keplerproblem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
10 Matrizen
10.1 Determinante . . . . . . . . . . . . .
10.2 Eigenwerte und Eigenvektoren . . . .
10.2.1 Bestimmung von Eigenwerten
10.3 Diagonalisierung . . . . . . . . . . .
10.4 Drehmatrizen . . . . . . . . . . . . .
10.5 Matrixfunktionen . . . . . . . . . . .
.
.
.
.
.
.
11 Bestimmung der inversen Matrix
11.1 Methode 1 - Adjunkte . . . . . . . . .
11.1.1 Zeilenoperationen . . . . . . . .
11.1.2 Beispiel zu Methode 2 . . . . .
11.1.3 Methode 2: Warum funktioniert
12 Determinantenberechnung
12.1 Matrizen aus Mat(2, K) . .
12.2 Matrizen aus Mat(3, K) . .
12.3 Determinantenentwicklung
12.3.1 Praxis . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . .
. . .
. . .
sie?
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
64
73
76
77
79
83
84
.
.
.
.
85
85
88
89
91
.
.
.
.
94
94
94
95
98
13 Komplexe Zahlen
99
13.1 Polardarstellung komplexer Zahlen . . . . . . . . . . . . . . . . . . . . . 106
13.2 Komplexe Wurzel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
3
13.3 Fundamentalsatz der Algebra . . . . . . . . . . . . .
13.4 Anwendungen für komplexe Zahlen . . . . . . . . . .
13.4.1 Bahnkurven und Bewegungsgleichungen . . .
13.4.2 ”Wellen” . . . . . . . . . . . . . . . . . . . . .
13.4.3 Optik . . . . . . . . . . . . . . . . . . . . . .
13.4.4 Weiteres . . . . . . . . . . . . . . . . . . . . .
13.5 Funktionen, Integrale, Ableitungen . . . . . . . . . .
13.6 Anwendungen der Euler Formel - Additionstheoreme
14 Differentialgleichungen
14.1 Gedämpfter harmonischer Oszillator . . . . . . .
14.1.1 Schwingfall . . . . . . . . . . . . . . . .
14.1.2 Kriechfall . . . . . . . . . . . . . . . . .
14.1.3 Aperiodischer Grenzfall . . . . . . . . . .
14.1.4 Weitere unabhängige Lösung bestimmen
4
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
109
111
111
112
112
113
113
113
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
116
121
122
124
125
126
1 Vorwort
Dieses Tutoriumsskript beinhaltet eine Sammlung von Anmerkungen und Ergänzungen
zur Vorlesung Mathematische Grundlagen der Physik, gehalten von Frau Rethfeld an
der TU Kaiserslautern im Wintersemester 15/16.
Hier werden wichtige mathematische Konzepte erläutert und hoffentlich verständlich
erklärt. Beispiele sollen dabei helfen die, teilweise recht abstrakten Konzepte, anschaulich
zu machen.
Dieses Skript ist natürlich nicht aus der leeren Luft entstanden, sondern basiert zum
großen Teil auf bereits vorhandener Literatur. Neben der Vorlesungsliteratur sind besonders zu erwähnen die beiden Vorlesungsskripte von Herrn Gathmann [Gat12] und von
Herrn Markwig [Mar00].
Die Vorlesung selbst basierte auf dem Buch von Herrn Korsch [Kor07].
Hinweise auf Fehler, Kritik und Anmerkungen sind willkommen. Diese bitte an folgende Email-Adresse: [email protected]
5
2 Mengen, Gruppen, Körper,
Vektorräume
In diesem Kapitel tasten wir uns Schrittweise an Vektorräume in ihrer allgemeinen Form
heran. Während [Kor07] mit einem anschaulichen Beispiel für Vektorräume anfängt,
dem R2 , und anhand diesem zeigt was man unter einem Vektorraum versteht, ist der
Vektorraumbegriff sehr viel allgemeiner.
Wir beginnen hier mit einer Menge, einer Sammlung von Elementen. Dann wollen
wir mit diesen Elementen auch etwas tun und nehmen eine Abbildung hinzu, die zwei
Elemente der Menge nimmt und sie auf ein anderes Element der Menge abbildet. Die
Kombination aus Menge und Abbildung nennt man Gruppe. Ist eine Abbildung zu langweilig, kann man noch eine zweite hinzunehmen, damit kommen wir zu einem Körper.
Nimmt man zu einem Körper noch eine weitere Menge mit ihrer Abbildung hinzu und
erlaubt eine Abbildung mit Körperperlementen und Mengenelementen, ein Produkt von
Skalaren und Vektoren, dann sind wir bei einem Vektorraum. Die jeweiligen, Mengen,
Körper und Abbildungen müssen gewissen Anforderungen genügen, wir wollen ja keine x-beliebigen Mengen und Abbildungen. Wie diese Forderungen im Detail aussehen
beschreibt dieses Kapitel.
2.1 Mengen
Definition 2.1 (Naiver Mengenbegriff nach Cantor)
Eine Menge ist eine Zusammenfassung von bestimmten, wohlunterschiedenen Objekten
unserer Anschauung, oder unseres Denkens. Die Objekte heißen Elemente der Menge.
Dieser Mengenbegriff ist sehr allgemein und nicht sonderlich anschaulich. Betrachten
wir im Folgenden einige Methoden Mengen zu definieren und Beispiele für wichtige
Mengen.
2.1.1 Definition von Mengen
Zwei Beispiele wie man Mengen definieren kann:
Beispiel 2.1
Explizite Angabe der Elemente:
a) M = {1, 2, 3}
b) M = {Hund, Katze, Maus}
6
Beispiel 2.2
Angabe einer Aussage P (x), die die Elemente erfüllen müssen:
M = {x | P (x)} .
zum Beispiel:
a) Die Menge aller ungeraden Zahlen:
M = {x | x ∈ Z und x mod 2 6= 0} .
b) Die Menge aller differenzierbaren Funktionen:
M = {x | x ist eine differenzierbare Funktion} .
2.1.2 Wichtige Mengen
Beispiel 2.3
Wichtige Mengen:
a) Die Menge der natürlichen Zahlen
1
N = {0, 1, 2, 3, . . .} .
b) Die Menge der ganzen Zahlen
Z = {. . . , −2, −1, 0, 1, 2, . . .} .
c) Die Menge der rationalen Zahlen
p
Q=
| p, q ∈ Z, q 6= 0 .
q
d) Die Menge der reellen Zahlen R.
e) Die Menge der komplexen Zahlen C.
f ) Die Produktmenge M × N
M × N = (m, n) | m ∈ M, n ∈ N .
Dabei nennt man (m, n) ein Tupel. Ein geordnetes Paar.
g) Die Menge ohne Elemente, die leere Menge: ∅, oder {}.
1
Vorsicht: Je nach Autor gehört die 0 manchmal zu den natürlichen Zahlen und manchmal nicht.
7
2.2 Gruppen
Nachdem man erst einmal eine Menge mit Elementen hat, will man mit diesen Elementen auch etwas tun. Dieses “etwas tun” heißt, wir wollen eine Abbildung definieren, die
zwei Elemente nimmt und wieder ein Element aus der Menge zurückgibt. Dieser Grundgedanke, zusammen mit weiteren Forderungen, führt uns zur Definition einer Gruppe.
Definition 2.2 (Gruppe)
Eine Gruppe ist ein Paar (G, ·), bestehend aus einer nichtleeren Menge G und einer
zweistelligen Operation “·” 2 , das heißt einer Abbildung
· : G × G → G : (x, y) 7→ x · y ,
so daß die folgenden Gruppenaxiome gelten:
a) (x · y) · z = x · (y · z)
“Assoziativgesetz”
∀x, y, z ∈ G
b) ∃1 ∈ G : ∀x ∈ G : 1 · x = x
“Existenz eines Neutralen 3 ”
Weiterhin gilt: x · 1 = x
∀x ∈ G.
c) ∀x ∈ G ∃x′ ∈ G : x′ · x = 1
Weiterhin gilt x · x′ = 1.
“Existenz eines Inversen”
d) Sowohl das neutrale Element 1, als auch das inverse Element x′ sind eindeutig
bestimmt.
e) Eine Gruppe (G, ·) heißt abelsch, oder kommutativ, wenn (G, ·) auch dem folgenden Axiom genügt:
x·y = y·x
∀x, y ∈ G .
Notation 2.1
a) Man schreibt auch x−1 für das inverse Element zu x.
b) Bei abelschen Gruppen schreibt man auch:
i) + statt ·
ii) 0 statt 1
4
iii) −x statt x−1
Lemma 2.1
Sei (G, ·) eine Gruppe und x, y, a, b ∈ G, dann gilt
−1
a) x−1
= x und (xy)−1 = y −1x−1 .
2
Dabei ist “·” ganz allgemein zu Verstehen und nicht zwingend identisch mit der “normalen” Multiplikation im R.
3
Hier dient die 1 nur als Symbol und hat nichts mit der 1 als Zahl zu tun.
4
Diese Null hat erst mal nichts mit der Zahl 0 zu tun
8
b) Es gelten die Kürzungsregeln:
i) ax = bx
ii) xa = xb
⇒a=b
⇒a=b
Beispiel 2.4 (Gruppen)
a) Die Gruppen (Z, +), (Q, +), (R, +) mit der üblichen Addition sind abelsche Gruppen. Das neutrale Element ist 0, diesmal die “Zahl” 0, und das Inverse ist −x.
b) Die Gruppe (R \ {0}, ·), d.h. der R ohne die 0, mit der üblichen Multiplikation
ist eine abelsche Gruppe. Das inverse Element ist x1 . Das neutrale Element ist die
“Zahl” 1.
c) Die einelementige Gruppe G = {e} mit · : G × G → G : e · e 7→ e.
d) Wir betrachten die Menge G = {x ∈ Rn }, mit Rn = R × R × · · · R, das n-fache
Produkt des R mit sich selbst. Sie hat als Elemente x = (x1 , x2 , . . . , xn ), xi ∈ R.
Die Menge G bildet zusammen mit der Operation + : G × G → G : (x, y) 7→ x + y.
Mit x + y := (x1 + y1 , x2 + y2 , . . . , xn + yn ) eine abelsche Gruppe.
2.3 Körper
Wem eine Abbildung von einer Menge in sich selbst nicht genug ist, dem kann geholfen
werden. Denn nun kommen wir zu einem Körper.
Definition 2.3 (Körper)
Eine Menge K mit zwei zweistelligen Operationen + und ·,
a) + : K × K → K : (x, y) 7→ x + y, einer “Addition”
b) · : K × K → K : (x, y) 7→ x · y, einer “Multiplikation”
heißt Körper, falls gilt:
a) (K, +) ist eine abelsche Gruppe. (Neutrales Element bezüglich + ist 0, oder 0K .)
b) x · (y · z) = (x · y) · z
∀x, y, z ∈ K. “Assoziativiät der Multiplikation”
c) Es gilt ∀x, y, z ∈ K:
x · (y + z) = x · y + x · z
(y + z) · x = y · x + z · x
“Distributivität”
d) ∃1 ∈ K, mit 1 · x = x · 1 = x,
∀x ∈ K. 1 ist das neutrale Element bezüglich ·.
e) x · y = y · x ∀x, y ∈ K. “Kommutativität”
9
f ) (K\{0} , ·) ist eine abelsche Gruppe. Das heißt ∀x 6= 0 gibt es ein inverses Element
x−1 , mit x−1 x = xx−1 = 1
Beispiel 2.5
a) Die Mengen R und Q mit der üblichen Addition und Multiplikation sind Körper.
b) N ist mit der üblichen Addition und Multiplikation kein Körper, da kein Element
ein Inverses bezüglich + hat. Einfach gesagt: N beinhaltet keine negativen Zahlen.
c) Z ist auch kein Körper, mit der üblichen Addition und Multiplikation. Hier fehlt
das multiplikative Inverse. Einfach gesagt: x−1 = x1 ∈
/ Z.
d) Die komplexen Zahlen C bilden ebenfalls einen Körper.
Diese Beispiele greifen natürlich alle letzten Endes auf die “normalen” Rechenoperationen zurück. Um zu zeigen, dass dem nicht immer so sein muss, hier ein etwa abstrakteres
Beispiel.
Beispiel 2.6
Dieses Beispiel stammt aus [Gat12].
Betrachten wir die Menge K = {g, u} mit den beiden Verknüpfungen · und +, die
gemäß folgenden Tabellen definiert sind:
+
g
u
g u
g u
u g
und
·
g
u
g
g
g
u
g .
u
Durch direktes Nachprüfen beweist man, dass (K, +, ·) die Körperaxiome erfüllt.
• Das neutrale Element bezüglich + ist g, was man an der Tabelle erkennt, also
g = 0+ . Wie man ebenfalls an der Tabelle ablesen kann gilt: g + g = u + u = 0+ ,
die inversen Elemente bezüglich + sind also −g = g und −u = u.
• Das neutrale Element bezüglich · in K \ {0} ist u. Es ist auch das einzige Element.
Also gilt u = 1· .
Diesen Körper nennt man in der Literatur den Z2 , da seine Elemente die Reste ganzer
Zahlen, bei Division durch 2 beschreiben. Man bezeichnet eine gerade Zahl mit g, eine
ungerade Zahl mit u.
Dieser Körper zeigt noch eine interessante Eigenschaft. Es gilt nämlich 1+1 = u+u =
g = 0. Durch mehrmahliges Ausführen einer Addition von “Einsen” kommt man zur
“Null”.
Anmerkung 2.1
In der Physik betrachten wir meist Körper K mit K = R, oder K = C.
Lemma 2.2 (Körper - Rechenregeln)
Es sei K ein Körper. Für x, y, z, u, v ∈ K gelten:
10
a) −(−x) = x
b) x + y = z ⇔ x = z − y
c) −(x + y) = −x − y
d) 0 · x = x · 0 = 0
e) (−x) · (−y) = x · y
f ) x · (y − z) = x · y − x · z
g) 1 6= 0, insbesondere hat ein Körper mindestens zwei Elemente.
h) (x−1 )−1 = x, für x 6= 0
i) x · y = 0 ⇔ x = 0, oder y = 0.
j) z · x = z · y, z 6= 0
k)
x
u
+
y
v
=
x·v+y·u
,
u·v
⇒x=y
für u, v 6= 0
l) x2 = 1 ⇔ x ∈ {−1, 1}
Salopp gesagt: Man darf rechnen wie gewohnt.
2.4 Vektorräume
In nächsten Schritt kann man zwei Mengen miteinander kombinieren und Abbildungen
hinzunehmen die mit Eingaben aus beiden Mengen arbeiten. Eine Möglichkeit das zu
tun ist ein Vektorraum.
Definition 2.4
Ein K-Vektorraum besteht aus einer nichtleeren Menge V sowie einer Verknüpfung
+ : V × V → V : (x, y) 7→ x + y ,
die Vektoraddition genannt wird. Und einer Operation von einem Körper K auf V , d.h.
einer Abbildung
· : K × V → V : (λ, x) 7→ λ · x = λx ,
die Skalarprodukt genannt wird, so daß folgende Gesetze gelten:
a) (V, +) ist eine abelsche Gruppe.
b) Für λ, µ ∈ K und x, y ∈ V gelten:
i) (λ + µ)x = λx + µx “Verallgemeinertes Distributivgesetz”
ii) λ(x + y) = λx + λy “Verallgemeinertes Distributivgesetz”
11
iii) (λµ)x = λ(µx) “Verallgemeinertes Assoziativgesetz”
Die Elemente von V nennt man Vektoren. Die Elemente von K nennt man Skalare. Das
neutrale Element von V bzgl. + nennt man Nullvektor: 0, 0V . Das neutrale Element von
K nennt man auch 0, 0K .
Beispiel 2.7
a) Die Menge Rn , mit n ∈ N ist die Menge aller n-Tupel, mit Einträgen aus R,
also Rn ∋ x = (x1 , . . . , xn ), mit xi ∈ R. Die “Addition” von Elementen aus Rn
definieren wir wie folgt:
+ : Rn × Rn → Rn : (x, y) 7→ x + y ,
(2.1)
x + y := (x1 + y1 , . . . , xn + yn ) .
(2.2)
mit
Die Vektoraddition wird hier komponentenweise definiert. Das + auf der rechten
Seite ist die “normale” Addition aus dem R. Betrachten wir (Rn , +) zusammen mit
dem Körper R als R-Vektorraum, dann kann man die Multiplikation eines Vektors
mit einem Skalar λ ∈ R wie folgt definieren:
λ · x = λ · (x1 , . . . , xn ) = (λx1 , . . . , λxn ) ,
(2.3)
auch hier die komponentenweise Multiplikation aus dem R. Der Nullvektor, das
neutrale Element bezüglich der Addition von Vektoren ist 0 = (0, . . . , 0). Das neutrale Element, bzgl. “+” aus dem Körper R ist die “normale” 0.
b) Beispiel aus [Gat12]:
Sei K ein Körper und M eine Menge. Die Menge Abb(M, K) := {f : M → K}
ist die Menge aller Abbildungen von M nach K. Die Menge Abb(M, K) wird mit
folgenden Operationen ein K-Vektorraum. Wir definieren punktweise ∀λ ∈ :K, x ∈
M und f, g ∈ Abb(M, K):
+ : Abb(M, K) × Abb(M, K) → Abb(M, K) : (f, g) 7→ f + g ,
(2.4)
f + g := (f + g)(x) = f (x) + g(x) .
(2.5)
mit
Und einer Skalarmultiplikation
· : K × Abb(M, K) → Abb(M, K) : (λ, f ) 7→ λf ,
(2.6)
λf := (λf )(x) = λf (x) .
(2.7)
mit
Der Nullvektor ist die Funktion, die jedes Element von M auf die 0 abbildet. Das
inverse Element bezügl. + ist die Funktion −f : M → K : x 7→ −f (x).
12
Lemma 2.3 (K-Vektorraum - Rechenregeln)
In einem K-Vektorraum gelten folgende Rechenregeln:
a) OK · x = 0V und λ · 0V = 0V ∀x ∈ V, ∀λ ∈ K
b) Für λ ∈ K, x ∈ V gilt:
λ · x = 0V
⇒ λ = 0, oder x = 0 .
c) (−1) · x = −x, ∀x ∈ V . (−1)x ist das eindeutig bestimmte additive Inverse zu x.
Weiterhin gilt: x + (−x) = 0V .
13
3 Skalarprodukt, Norm und Metrik
Dieses Kapitel betrachtet die Konzepte eines Winkels, einer Länge und eines Abstandes.
Auch hier gilt wieder: Man kann von der Anschauung des R2 kommen, oder, was wir
hier tun werden, aus der abstrakteren Richtung.
Im Folgenden betrachten wir, wie man mit Hilfe des Skalaprodukts und der Norm
einen Winkel zwischen Elementen eines Vektorraums definieren kann.
Das Äquivalent zu einer Länge wird der Normbegriff werden und die Metrik wird uns
einen Abstandsbegriff liefern.
3.1 Skalarprodukt
Ein Skalarpodukt ist eine Abbildung, eine spezielle Bilinearform. Eine Bilinearform ist
eine Abbildung, die zwei Elemente eines Vektorraums in den zugrundeliegenden Körper
abbildet und gewisse Eigenschaften aufweist. Erfüllt sie weitere Bedingungen, dann nennt
man die Bilinearform ein Skalarprodukt. Definieren wir zuerst eine Bilinearform.
Definition 3.1 (Bilinearform)
Sei V ein K-Vektorraum.
a) Eine Abbildung b : V × V → K, die folgende Bedingungen erfüllt, ∀x, y, z ∈ V ,
∀λ, µ ∈ K
i) b(λx + µy, z) = λb(x, y) + µb(y, z)
ii) b(z, λx + µy) = λb(z, x) + µb(z, y)
ist linear in beiden Argumenten. Man nennt sie bilinear, oder Bilinearform.
b) Eine Bilinearform b : V × V → K, heißt symmetrisch, falls für x, y ∈ V stets gilt:
b(x, y) = b(y, x) .
c) Eine symmetrische Bilinearform b heißt positiv definit, wenn ∀0 6= x ∈ V gilt
b(x, x) > 0 .
Jetzt haben wir die Begriffe um ein Skalarprodukt zu definieren.
Definition 3.2 (Skalarprodukt)
Sei V ein K-Vektorraum. Eine positiv definite, symmetrische Bilinearform b : V ×V → K
nennen wir Skalarprodukt. Wir verwenden für die Abbildung im Allgemeinen nicht mehr
14
b, sondern schreiben:
h·, ·i : V × V → K .
Definition 3.3
Ist K = R, dann nennt man das Tupel (V, h·, ·i) einen euklidischen Vektorraum.
Beispiel 3.1 (Skalarprodukt)
Sei V = C [0, 1] der R-Vektorraum der auf dem Intervall [0, 1] stetigen Funktionen.
Dann ist für f, g ∈ V durch
ˆ 1
hf, gi =
f (x)g(x)dx ∈ R
0
nach den Rechenregeln für Integrale eine symmetrische Bilinearform auf V definiert. Die
Bilinearform ist sogar positiv definit, da für f (x) 6= 0 gilt:
ˆ 1
hf, f i =
f 2 (x)dx > 0 .
0
In der Physik wird sehr häufig das kanonische Skalarprodukt verwendet, daher widmen
wir diesem eine eigene Definition.
Definition 3.4 (Kanonisches Skalarprodukt oder Standardskalarprodukt)
a) Sei V = Rn ein R-Vektorraum, dabei sind die Elemente von V n-Tupel mit Einträgen aus R, also Rn ∋ x = (x1 , . . . , xn ). Wir definieren die Abbildung:
h·, ·i : Rn × Rn → R
(x, y) 7→ hx, yi ,
wie folgt
hx, yi :=
n
X
xi yi .
i=1
Diese Abbildung ist ein Skalarprodukt, das kanonische Skalarprodukt.
In dieser Definition des kanonischen Skalarporduktes ist es völlig unerheblich, ob
 man

x1
 
den Vektor x als Zeilenvektor x = (x1 , . . . , xn ), oder als Spaltenvektor x =  ... 
xn
schreibt. Dennoch ist es in der Physik und in der Linearen Algebra üblich die Vektoren
als Spaltenvektoren zu schreiben. Die Schreibweise bietet Vorteile in Hinsicht auf die
Lineare Algebra, insbesondere in der Matrizenrechnung. So kann man mit Hilfe der
Operation der Tansposition, das kanonische Skalarprodukt auch anders interpretieren.
15
Definition 3.5 (Transposition eines Vektors)
Die Transposition t überführt einen Spaltenvektor x in einen Zeilenvektor xt :

t
x1
 
xt =  ...  = (x1 , . . . , xn ) .
xn
Und einen Zeilenvektor x in einen Spaltenvektor xt :
 
x1
 .. 
t
t
x = (x1 , . . . , xn ) =  .  .
xn
Zweimaliges anwenden der Tansposition führt wieder auf die ursprüngliche Darstellung.
t
xt = x .
Damit gilt für das Skalarprodukt, mit den Rechenregeln der Matrixmultiplikation:
 
y1
n
 ..  X
t
hx, yi = x · y = (x1 , . . . , xn ) ·  .  =
xi yi .
i=1
yn
Diese “Definition” des Skalarproduktes macht es fasst trivial die Erhaltung des Skalarproduktes unter Rotation der Vektoren zu zeigen.
Um das Skalarprodukt geometrisch interpretieren zu können, brauchen wir noch den
Begriff der Norm, der es uns erlaubt von der “Länge” eines Vektors zu sprechen.
3.2 Norm
Die Norm ist eine Methode, wie man die “Länge” von Vektoren bestimmen kann. Wir
wollen sie zuerst allgemein definieren.
Definition 3.6
Es sei V ein K-Vektorraum, K sei R, oder C. Eine Abbildung
k·k : V → R≥0 ,
die die folgenden Bedingungen erfüllt, heißt Norm auf V . ∀x, y ∈ V und λ ∈ K, soll
gelten
a) kxk ≥ 0 und aus kxk = 0 ⇒ x = 0.
b) kλxk = |λ| · kxk.
16
c) kx + yk ≤ kxk + kyk. Die Dreiecksungleichung.
Diese Vorderungen an die Abbildung sind einsichtig, wenn sich vor Augen führt, dass
sie Längen messen soll:
a) Die Länge soll positiv sein, nur der Nullvektor hat Länge Null. Man misst quasi
den Abstand eines Punktes x zum Nullpunkt.
b) Wird ein Vektor um den Faktor λ gestreckt, soll sich seine Länge um |λ|, den
Betrag von λ, ändern.
c) Der Weg vom Ursprung über x zu x + y soll unter gar keinen Umständen kürzer
sein, als der direkte Weg vom Ursprung zum Punkt x + y.
Definition 3.7 Das Tupel V, k·k heißt dann normierter (Vektor-)Raum.
Satz 3.1
Sei (V, h·, ·i) ein euklidischer Raum. Dann wird durch
k·k : V → R≥0 : x 7→
eine Norm auf V definiert.
p
hx, xi
Satz 3.2 (Cauchy-Schwarzsche Ungleichung)
Ist (V, h·, ·i) ein euklidischer Raum, dann gilt ∀x, y ∈ V
hx, yi ≤ kxk · kyk .
Gleichheit gilt genau dann, wenn x und y linear abhängig sind, d.h. x = λy, mit λ ∈ R.
Nun haben wir alle Zutaten zusammen um “Winkel” definieren zu können. Dazu schreiben wir die Cauchy-Schwarzsche Ungleichung aus Satz 3.2 etwas um:
−kxk · kyk ≤ hx, yi ≤ kxk · kyk .
Anschließend dividieren wir durch kxk · kyk und erhalten
−1 ≤
hx, yi
≤1 .
kxk · kyk
Aus der Analysis ist bekannt, dass es zu jeder reellen Zahl r ∈ [−1, 1] genau einen Winkel
α ∈ [0.π] gibt, mit r = cos α, nämlich α = arccos r. Damit können wir definieren:
Definition 3.8
Sei (V, h·, ·i) ein euklidischer Raum. Die eindeutig bestimmte Zahl α = ∡(x, y) ∈ [0, π]
mit
hx, yi
cos α =
kxk · kyk
heißt Winkel zwischen x und y.
17
Mit dieser Definition kann man zum Beispiel einen “Winkel” zwischen Funktionen
berechnen: Man verwende das Skalarpordukt aus Beispiel 3.1 und definiere die Norm
über das Skalarprodukt.
Im Rn gewinnt die Definition des Winkels ihre anschaulische Bedeutung als “echter”
Winkel, wie man ihn in der Geometrie kennt.
Nach der Definition der Länge eines Vektors und des Winkels zwischen Vektoren, kann
man das Skalarprodukt auch “geometrischer” interpretieren.
Lemma 3.1
Sei V ein euklidischer R-Vektorraum, mit Skalarprodukt h·, ·i und Norm k·k die über das
Skalarprodukt definiert ist. Seien x, y ∈ V , dann gilt:
hx, yi = kxk · kyk cos α .
Was man im Falle von V = Rn interpretieren kann als: Das Skalarprodukt zweier Vektoren ist gleich dem Produkt der jeweiligen Längen der Vektoren mit dem Cosinus des
eingeschlossenen Winkels.
In der Physik verwendet oft die Notation:
x · y = |x| · |y| cos α .
Im Folgenden betrachten wir Anwendungen des Skalarprodukts.
3.3 Anwendungen des Skalarprodukts
In diesem Abschnitt betrachten wir die Projektion eines Vektors auf einen anderen Vektor und die Zerlegung eines Vektors in einen parallelen und senkrechten Anteil in Bezug
auf einen anderen Vektor.
Aber vorher noch eine Definition.
Definition 3.9
Sei x ∈ V , wir nennen x einen Einheitsvektor, wenn gilt
kxk = 1 .
Ein Einheitsvektor hat Länge 1.
In der Physik kennzeichnet man Einheitsvektoren oft mit einem ˆ, also hier x̂.
3.3.1 Projektion
Die Projektion eines Vektors auf die Richtung eines Einheitsvektors liefert die Länge in
Richtung des Einheitsvektors.
Definition 3.10
Unter der Projektion eines Vektors x auf einen Einheitsvektor b̂ verstehen wir die Länge
des Vektors x in die Richtung von b̂
x · b̂ = |x| · |b̂| cos α = |x| cos α ∈ R .
18
|x| cos α ist die Länge von x in Richtung b̂.
Einen Vektor xb der Länge |x| cos α in Richtung b̂ erhalten wir durch Multiplikation
mit dem Vektor b̂
V ∋ xb = b̂|x| cos α .
3.3.2 Zerlegung eines Vektors
In manchen Situation macht es Sinn einen Vektor in die Summe zweier Vektoren aufzuspalten. Eine mögliche Zerlegung ist in einen Anteil der senkrecht zu einem anderen
Vektor ist, und einen parallel zu diesem Vektor, zu zerlegen.
Lemma 3.2
Seien x, b̂ ∈ V , b̂ ein Einheitsvektor. Unter der Zerlegung von x in einen Anteil x⊥
senkrecht zu b̂ und einen Anteil xk verstehen wir Folgendes:
a) x = x⊥ + xk .
b) x⊥ · b̂ = 0. “Senkrecht zu b̂.”
c) xk · b̂ = |xk |. “Parallel zu b̂.”
Dabei gilt:
a) xk = b̂|x| cos α, die Projektion von x auf b̂ multipliziert mit b̂.
b) x⊥ = x − xk .
Man beachte, dass diese Zerlegung für jeden Vektorraum gilt. Geometrisch anschaulich
ist sie in V = Rn .
3.4 Metrik
Eine Metrik ist eine Verallgemeinerung des Normbegriffes. Die Definition der Norm verlangt einen Vektorraum. Das heißt wir haben einen ausgezeichneten Vektor, den Nullvektor 0V , und eine Addition von Vektoren. In beliebigen Mengen haben wir diese Strukturen nicht. Doch auch hier kann man eine Abstandsmessung definieren, diese nennt man
Metrik.
Definition 3.11 (Metrik)
Sei M eine Menge. Eine Abbildung d : M × M → R heißt Metrik, falls ∀x, y, z ∈ M
gilt:
a) d(x, y) ≥ 0, und d(x, y) = 0 ⇔ x = y .
b) d(x, y) = d(y, x).
c) d(x, z) ≤ d(x, y) + d(y, z) “Dreiecksungleichung”.
19
Dabei haben die Punkte a und c die gleiche Bedeutung wie in die entsprechenden
Punkte in der Definition der Norm (Definition 3.6). Punkt b bedeutet, dass der Abstand
von x zu y gleich dem Abstand von y zu x sein soll.
Definition 3.12
Das Tupel (M, d) nenn man einen metrischen Raum.
Beispiel 3.2
Sei M = {Hund, Katze, Maus }. Wir definieren folgende Metrik.
(
0, x = y
.
d : M × M → R : (x, y) 7→
1, x 6= y
Man sieht direkt, dass d eine Metrik ist. Man nennt d die diskrete Metrik.
20
4 Lineare Operatoren - Nabla, Div,
Grad, Rot
Dieses Kapitel gibt einen Überblick über Differentialoperatoren, vor allem den NablaOperator ∇. Operatoren sind Objekte die auf eine Funktion wirken und “etwas mit ihr
machen”. Ein Differentialoperator nimmt eine Funktion und leitet sie ab, ein Integraloperator integriert sie. Ein anderer Operator addiert den Wert 3 zu einer Funktion. Der
Operatorbegriff ist flexibel.
Wir beschränken uns hier auf eine spezielle Art von Operatoren, die linearen Operatoren.
4.1 Linearer Operator
Eine wichtige Art von Operatoren sind lineare Operatoren.
Definition 4.1 (Linearer Operator )
Ein linearer Operator Ô ist eine Abbildung von zwischen Vektorräumen V1 und V2 , beide
über dem Körper K, Ô : V1 → V2 .
Mit der Eigenschaft
∀u, v ∈ V1 und ∀α, β ∈ K .
Ô(αu + βv) = aÔu + β Ôv
Der Operator wirkt dabei auf die Links von ihm stehenden Elemente des Vektorraums.
Operatoren laufen einem schon in der Schule über den Weg, nur nennt man sie dort
noch nicht so. Hier einige Beispiele für altbekannte lineare Operatoren.
Beispiel 4.1
a) Sei I = [a, b] ein kompaktes Intervall, u eine integrierbare Funktion, u : I → R :
x 7→ u(x), dann definieren wir den Integraloperator Ô, wie folgt:
Ôu(x) :=
ˆ
b
dx u(x) .
a
´b
Vereinfacht gesagt gilt Ô = a dx. Dabei ist Ô eine Abbildung vom Vektorraum der
stetigen Funktionen auf dem Intervall I in die reellen Zahlen. Ô : C(I) → R. Das
Integral erfüllt die Bedingungen der Linearität.
21
b) Sei u eine k-mal stetig differenzierbare Funktion, also u ∈ C k , dann definieren wir
den Operator Ô, als
d
Ôu(x) :=
u(x) .
dx
Ô ist ein linearer Operator, Ô : C k → C k−1 , die Linearität folgt aus den Eigenschaften der Ableitung.
c) Jede Matrix ist ein linearer Operator.
Ein wichtiger linearer Operator in der Physik ist der Nabla-Operator. Bevor wir ihn
definieren, zuerst noch folgende Notation.
Notation 4.1
Wir vereinbaren folgende Kurzschreibweisen:
a) Anstatt
∂
∂x
schreiben wir kurz ∂x .
b) Anstatt ∂xi schreiben wir kurz ∂i .
Definition 4.2 (Nabla-Operator)
Der Nabla-Operator ist ein Spaltenvektor, der partielle Ableitungen als Komponenten
hat.
 
∂1
 .. 
∇ :=  .  .
∂n
Ein weiterer öfters vorkommender Operator ist der Laplace-Operator.
Definition 4.3 (Laplace-Operator)
Der Laplace-Operator ist der Operator der aus dem Skalarprodukt des Nabla-Operators
mit sich selbst entsteht.
∆ := ∇ · ∇ =
n
X
∂i ∂i =
i=1
n
X
∂2
.
=
∂i2
∂2
i=1 xi
n
X
∂2
i=1
Um wir tiefer in die Anwendungen des Nabla-Operators einsteigen, ist es an der Zeit
einige Begriffe, die wir oft verwenden werden zu definieren.
4.1.1 Skalarfelder, Vektorfelder
Ein Skalarfeld ist eine Funktion die einen Vektor in den R abbildet, ihm einen Skalar
zuordnet, zum anderen das Vektorfeld, das jedem Vektor einen Vektor zuordnet.
Definition 4.4 (Skalarfeld )
Sei Ω ⊆ Rn ein Gebiet.
22
Eine Abbildung

nennen wir ein Skalarfeld.

x1
 
f : Ω → R : x =  ...  7→ f (x) ,
xn
Ein Skalarfeld ordnet jedem Vektor x eine Zahl, das heißt ein Skalar, zu.
Definition 4.5 (Vektorfeld)
Sei Ω ⊆ Rn ein Gebiet.
Eine Abbildung




x1
f1 (x)
 


F : Ω → Rn : x =  ...  7→ F (x) =  ... 
xn
fn (x)
mit fi : Ω → R : x 7→ fi (x) ein Skalarfeld, nennt man ein Vektorfeld.
Ein Vektorfeld ordnet jedem Vektor x im Raum einen Vektor zu. “An jedem Punkt
x ∈ Rn wird der Vektor F (x) ∈ Rn angebracht.”
4.1.2 Gebiet
Wenn wir Funktionen aus Teilmengen des Rn in den Rn betrachten können wir nicht
von vornerein erwarten, dass sie auf ganz Rn definiert sind. Wir wollen eine Verallgemeinerung des Intervalls I = [a, b] ∈ R für den Rn . Der Begriff des Gebietes wird dieses
leisten.
Definition 4.6 (Gebiet)
Eine Teilmenge Ω ⊆ Rn heißt Gebiet, wenn gilt
a) Ω ist offen.
b) Ω ist zusammenhängend.
Das heißt um jeden Punkt x ∈ Ω gibt es eine offene Kugel Uε (x) und je zwei Punkte
x1 , x2 können durch eine stetige Kurve Γ, die ganz in Ω verläuft, verbunden werden.
Damit erhalten wir Eigenschaften die wir brauchen um Begriffe wie Differentation in Ω
anwenden zu können. Für unsere Zwecke ist es ausreichend sich Ω als ein “Intervall” im
Rn vorzustellen.
23
4.2 Gradient
Der Gradient einer skalaren Funktion f ist die Anwendung des Nabla-Operators auf die
Funktion. Dies entspricht der Multiplikation eines Vektors mit einem Skalar von Links.
Definition 4.7 (Gradient)
Sei Ω ⊆ Rn ein Gebiet. Ist f : Ω → R : x = (x1 , . . . , xn )t 7→ f (x) partiell differenzierbar
in Ω, so definiert man den Spaltenvektor


∂1 f (x)


grad f := ∇ · f (x) =  ...  .
∂n f (x)
Dabei ist
• x ∈ Rn
• f (x) ∈ R
• grad f (x) ∈ Rn
• ∂i f (x) ∈ R
Die Linearität folgt aus der Linearität der Ableitung.
Beispiel 4.2
a) n = 1, grad f = ∂1 f (x1 )
b) n = 2, grad f =
∂1 f (x1 , x2 )
∂2 f (x1 , x2 )
!
c) n = 2, f (x1 , x2 ) = x1 x2 , damit gilt grad f = ∇ · f =
x1
d) n = 2, f (x1 , x2 ) = x21 + x22 , damit gilt grad f = 2
x2
∂1 f
∂2 f
!
=
x2
x1
!
!
Definition 4.8
Sei Ω ⊆ Rn ein Gebiet. Sei F : Ω → Rn ein C 1 -Vektorfeld. F heißt konservativ, wenn
es ein C 1 -Skalarfeld ϕ : Ω → R, ein sogennantes skalares Potential, gibt, so dass in Ω
gilt:
F = grad ϕ = ∇ϕ .
Oder in Komponenten:

  
∂1 ϕ
f1
 ..   .. 
.= .  .
∂n ϕ
fn
24
4.2.1 Geometrische Bedeutung des Gradienten
Satz 4.1
Sei f eine Funktion wie in Definition 4.7.
Der Gradient steht senkrecht auf den Flächen f = f0 , f0 konstant.
Satz 4.2
Sei f eine Funktion wie in Definition 4.7.
Der Gradient zeigt in die Richtung des steilsten Anstiegs.
Beweis Der Gradient ist ein Maß für die Veränderung einer Funktion. Wir betrachten
die Änderung projeziert auf die Richtung des Einheitsvektors v̂ ∈ Rn , mit |v̂| = 1. Damit
gilt
grad f · v̂ = |∇ · f | cos α .
Dabei wird cos α = 1, wenn grad f und v̂, parallel sind. Also zeigt der Gradient in die
Richtung des steilsten Anstiegs.
4.3 Rotation
Die Rotation eines Vektorfeldes F ist die Anwendung des Nabla-Operators auf das Vektorfeld. Sie entspricht dem Kreuzprodukt des Nabla-Operators mit der Funktion. Sie ist
jedoch nur im R3 definiert.
Definition 4.9 (Rotation)
Sei Ω ⊆ R3 ein Gebiet, F : Ω → R3 ein C 1 -Vektorfeld. Man definiert die Rotation durch


∂2 f3 − ∂3 f2


rot F := ∇ × F = ∂3 f1 − ∂1 f3  .
∂1 f2 − ∂2 f1
Dabei ist
• F ∈ R3
• rot F ∈ R3
• fi ∈ R
Mit dem Levi-Cevita Symbol kann man die Rotation auch schreiben als
X
rot F =
εijk êi ∂j fk .
ijk
Man beachte, dass wir die Rotation nur für den R3 definiert haben.
25
Beispiel 4.3
a) Sei F : R3 → R3 : x 7→ x, ein Vektorfeld. Dieses Vektorfeld ordnet jedem Vektor x
den Vektor x zu. Für die Rotation von F gilt:
rot F = 0 .
b) Sei F : R3 → R3 : x 7→ ω × x, ein Vektorfeld und ω ein konstanter Vektor. Für die
Rotation von F gilt:
rot F = 2ω .
Definition 4.10
Sei Ω ⊆ R3 ein Gebiet, F ein Vektorfeld.
a) Man nenn F wirbelfrei, wenn
rot F = 0 in Ω .
b) F heißt ein Wirbelfeld, wenn es ein Vektorpotential G : Ω → R3 , gibt mit
F = rot G in Ω .
4.3.1 Geometrische Bedeutung der Rotation
Die Zirkulation eines Vektorfeldes längs einer Randkurve ∂R, berechnet sich als
˛
F dr ,
∂R
was man mit dem Satz von Stokes umschreiben kann:
˛
¨
F dr =
rot F dA .
∂R
F
Dies fasst der folgende Satz zusammen.
Satz 4.3
Die Rotation eines Vekoktorfeldes F , rot F , beschreibt die Verwirbelung von F (die Rotation).
4.4 Divergenz
Die Divergenz ist die Anwendung des Nabla-Operators auf ein Vektorfeld F . Sie entspricht dem Skalarprodukt des Nabla-Operators mit dem Vektorfeld. Sie ist für Vektorfelder im Rn definiert.
26
Definition 4.11 (Divergenz)
Sei Ω ⊆ Rn ein Gebiet. Sei F : Ω → Rn ein C 1 -Vektorfeld. Man definiert die Divergenz
durch
n
n
X
X
∂fi
div F := ∇ · F =
∂i fi =
.
∂xi
i=1
i=1
Dabei gilt
• Rn ∋ x = (x1 , . . . , xn )t
• xi ∈ R
• F (x) ∈ Rn
• div F (x) ∈ R
Beispiel 4.4
a) Sei F (x1 , x2 , x3 ) = (x1 , x2 , x3 )t ein Vektorfeld. Damit ergibt sich für die Divergenz
div F (x) = ∂1 f1 + ∂2 f2 + ∂3 f3 = ∂1 x1 + ∂2 x2 + ∂3 x3 = 1 + 1 + 1 = 3 .
b) Sei F (x1 , x2 ) = (x1 x2 , − 21 x22 )t ein Vektorfeld. Damit ergibt sich für die Divergenz
1 2
div F (x) = ∂1 f1 + ∂2 f2 = ∂1 (x1 x2 ) + ∂2 − x2 = x2 + (−x2 ) = 0 .
2
Definition 4.12
Sei F ein Vektorfeld. Man nennt F quellenfrei, wenn gilt
div F = 0 .
4.4.1 Geometrische Bedeutung der Divergenz
Man sagt auch die Divergenz div F (x) sei ein Maß für die Quellstärke des Vektorfeldes
F im Punkt x ∈ Rn .
Betrachtet man den Fluss ϕ eines Feldes F durch eine Oberfläche ∂V , eines Volumens
V , so gilt
‹
ϕ=
F dA .
∂V
Diese Gleichung kann man mit Hilfe des Satzes von Gauß umschreiben:
‹
˚
ϕ=
F dA =
div F dV .
∂V
V
27
5 Koordinatentransformation
Das Koordinatensystem mit dem man als erstes konfrontiert wird sind die kartesischen
Koordinaten. Doch dieses Koordinatensystem ist nur eines von beliebig vielen Koordinatensystemen die man wählen kann. Die kartesischen Koordinaten haben den Vorteil,
dass sie recht gut mit unserer Anschauung übereinstimmen, aber damit hat es sich auch
schon. Je nach Art es Problems verwendet man ganz andere Koordinaten. Dabei kann
man die Wahl zum Beispiel nach der Symmetrie eines Problems treffen. Ist es achsensymmetrisch können Zylinderkoordinaten die Arbeit erleichtern, ist es punktsymmetrisch,
können Kugelkoordinaten von Vorteil sein.
In diesem Kapitel werden wir uns anschauen wie man von einem System zu einem
anderen kommt, wie man sich eine Basis beschafft, und wie Bahnkurven in den neuen
Koordinaten aussehen.
Zu Beginn führen wir uns vor Augen, dass eine Koordinatentransformation nichts
Neues ist, danach werden wir sie Allgemein einführen und uns einige Beispiele betrachten.
5.1 Koordinatentransformationen sind nichts Neues
Betrachten wir eine Aufgabe die schon in der Schule drankommen kann, man soll ein
bestimmtes Integral berechnen. Eine Lösungsmethode ist die Substitution. Betrachten
wir ein Beispiel.
Beispiel 5.1
´
´
Berechne die Stammfunktion F (u) von f (u) = e2u , also F (u) = f (u)du = e2u du.
.
Dazu substituieren wir x(u) = 2u = x, und erhalten dd xu = 2 ⇒ du = dx
2
Die Substitution ist nichts anderes, als das Einführen einer neuen Koordinate x, die
von u abhängt.
Das Integral transformiert sich damit zu
ˆ
ˆ
dx
1
2u
e du −→ ex
= ex ,
2
2
in der neuen Koordinate x. Gehen wir nun wieder zurück auf die alte Koordinate u,
erhalten wir:
ˆ
1
e2u = e2u .
2
Führt man die gleiche Transformation bei einem bestimmten Integral durch, so muss
28
man die Integralgenzen mit transformieren.
ˆ
a
b
2u
e du −→
ˆ
x(b)
ex
x(a)
dx
.
2
5.2 Benötigte Begriffe
Bevor wir die Koordinatentransformation definieren, wollen wir noch ein paar Begriffe
im Kontext von Abbildungen einführen.
Definition 5.1
Sei f : M → N eine Abbildung, A ⊆ M, B ⊆ N.
a) f (A) := y ∈ N|∃x ∈ A : y = f (x) heißt das Bild von A unter der Abbildung f .
b) f −1 (B) := x ∈ M|f (x) ∈ B heißt Urbild von B unter f .
c) Die Abbildung f|A : A → N : x 7→ f (x) heißt Einschränkung von f auf A.
d) f heißt injektiv, falls gilt
∀x, x′ ∈ M : f (x) = f (x′ ) ⇒ x = x′ ,
d.h. zwei verschiedene Elemente von M werden durch f nicht auf dasselbe Element
in N abgebildet.
e) f heißt surjektiv, falls gilt
∀y ∈ N∃x ∈ M : y = f (x) ,
d.h. f (M) = N, d.h. jedes Element von N kommt als Bild unter f vor.
f ) f heißt bijektiv, falls f injektiv und surjektiv ist.
Lemma 5.1 (Inverse)
Ist f bijektiv so existiert eine eindeutig
bestimmte inverse Abbildung
f −1 : N → M und
ist ebenfalls bijektiv. Es gilt f −1 f (x) = x, und f f −1 (y) = y.
Jetzt haben wir alle Zutaten um die Koordinatentransformation allgemein einzuführen.
5.3 Koordinatentransformation
Wir definieren zuerst, was wir unter einer Koordinatentransformation verstehen wollen.
Definition 5.2 (Koordinatentransformation)
Seien U, X Gebiete in Rn . Sei Q : U → X eine C s -Abbildung mit 1 ≤ s ≤ ∞. Q heißt
Koordinatentransformation der Klasse C s von U auf X, wenn gilt
29
a) Q ist bijektiv.
b) Ihre Umkehrfunktion Q−1 : X → U ist ebenfalls von der Klasse C s .
Die Variablen u = (u1, . . . , un ) ∈ U beschreiben die Punkte x ∈ X durch krummlinige
Koordinaten u1 , . . . , un mit


Q1 (u1 , . . . , un )


..
n
Rn ∋ x = Q(u) = Q(u1 , . . . , un ) = 
∈R .
.
Qn (u1 , . . . , un )
Wir brauchen die Differenzierbarkeit von Q, damit wir, wie wir später sehen werden,
Basisvektoren bestimmen können. Die Bijektivität brauchen wir, damit jedem Punkt in
U genau ein Bildpunkt in X zugeordnet wird, und auch jeder Punkt in X ein Urbild
hat. Würden zwei verschiedene Vektoren aus U auf den gleichen Vektor in X abgebildet,
so bekämen wir ein Problem, ebenso wenn wir Punkte in X hätten, die wir nicht von
U aus erreichen könnten. Die Inverse von Q brauchen wir wenn wir wieder in die alten
Koordinaten zurück möchten.
5.3.1 Basis
Nun wollen wir uns in den neuen Koordinaten eine Basis beschaffen. Das heißt eine
minimale Menge von Vektoren, die den gesamten Raum aufspannen wenn sie linear
kombiniert werden.
Bestimmung der Basisvektoren
Die Basisvektoren hängen im Allgemeinen von u ab. Man stellt sie sich am Punkt x =
Q(u) “angeheftet” vor.
Lemma 5.2
Man bestimmt den Basisvektor bj (u) ∈ Rn bezüglich der Komponente uj von u wie folgt


∂
Q
(u)
1
 ∂ uj .

∂Q


..
bj (u) := ∂j Q(u) =
(u) = 
j ∈ {1, . . . , n} .

∂uj
∂
Q (u)
∂ uj n
Durch die partielle Ableitung nach der j-ten Komponente erfasst man die Änderung von
Q bezüglich dieser Komponente.
30


Q1 (u)
Beispiel 5.2


Im R3 wäre Q(u) = Q2 (u) und der Basisvektor bezüglich der ersten Komponente
Q3 (u)
b1 (u) = ∂1 Q(u) =


∂
Q1 (u)
 ∂∂u1

 ∂ u1 Q2 (u)
∂
Q (u)
∂ u1 3
.
Damit können wir Basisvektoren b1 (u), . . . , bn (u) bestimmen, doch oft fordert man noch
mehr. Um Rechnungen einfacher zu gestalten wollen wir, dass die Basisvektoren paarweise orthogonal sind. Das heißt, taucht in Rechnungen ein Skalarprodukt zweier Basisvektoren auf, dann ergibt es null wenn sie verschieden sind.
Definition 5.3
Eine Koordinatentransformation Q : U → X heißt orthogonal, wenn für j 6= k gilt
bj (u) · bk (u) = 0 ,
also ihr Skalarprodukt Null ergibt.
Man sagt “Q führt orthogonale Koordinaten ein.”
Wollen wir die Basisvektoren zusätzlich normieren, so müssen wir sie durch ihre Länge
dividieren.
Lemma 5.3
Die Länge eines Basisvektors bj (u) ist
Lj = |bj | =
p
bj · bj
j ∈ {1, . . . , n} .
Der entsprechende Einheitsvektor b̂j ist dann der Basisvektor, dividiert durch seine Länge.
1
b̂j =
bj .
Lj
Anmerkung 5.1
Die Basisvektoren bj sind nichts anderes als die j-ten Spalten der Jacobimatrix von Q


∂1 Q1 (u) . . . ∂n Q1 (u)


..
..
JQ(u) = 
 .
.
.
∂1 Qn (u) . . . ∂n Qn (u)
Der Basisvektor b1 , zum Beispiel, ist gerade die erste Spalte der Jacobimatrix.
Weitere relevante Größen, die sich aus den Basisvektoren und ihren Längen berechnen
lassen sind in der folgenden Definition zusammengefasst.
31
Definition 5.4
• Längenelement: dsj = Lj duj .
Q
Q
• Volumenelement: dV = ni=1 dsi = ni=1 Li dui .
Einige Beispiele verdeutlichen das Konzept. Dabei folgt jedes Beispiel dem gleichen Muster:
a) Berechnen der Jacobimatrix JQ. Der Basisvektor bj ist die j-te Spalte von JQ.
b) Länge Lj der Basisvektoren bj berechnen und ggf. bj normieren.
Beispiel 5.3
Betrachten wir den einfachsten Fall, wir benennen unsere Koordinaten lediglich um. Wir
haben dann folgende Transformation Q, mit x = Q(u), n = 2, und
!
!
!
x1
Q1 (u1 , u2 )
u1
x=
=
=
.
x2
Q2 (u1 , u2 )
u2
Aufstellen der Jacobimatrix
JQ =
!
∂u1 Q1 (u) ∂u2 Q1 (u)
=
∂u1 Q2 (u) ∂u2 Q2 (u)
Die Basisvektoren sind also orthonormal.
!
1
b̂1 =
0
b̂2 =
0
1
!
1 0
0 1
!
.
.
Wie man hier sieht, hängen die Basisvektoren nicht mehr von den Koordinaten ui ab.
Beispiel 5.4
Betrachten wir die Koordinatentransformation die eine Streckung des Koordinatensystems bewirkt. x = Q(u), n = 2, mit
!
!
!
x1
Q1 (u1 , u2 )
2u1
x=
=
=
.
x2
Q2 (u1 , u2 )
2u2
Aufstellen der Jacobimatrix
JQ =
!
∂u1 Q1 (u) ∂u2 Q1 (u)
=
∂u1 Q2 (u) ∂u2 Q2 (u)
2 0
0 2
!
.
Die Basisvektoren sind orthogonal, aber noch nicht normiert. Die Länge ist für beide
Basisvektoren L = 2, damit folgt
!
!
b1
b2
1
0
b̂1 =
=
=
.
b̂2 =
0
1
L1
L2
32
Wie man hier sieht, hängen die Basisvektoren nicht mehr von den Koordinaten ui ab.
5.3.2 Ausblick auf weitere Eigenschaften der Jacobimatrix der
Koordinatentransformation
Die folgenden Eigenschaften werden in ihrer vollen Bedeutung erst in der Linearen Algebra klar, sollen hier aber zumindest erwähnt werden. Sie zeigen das Zusammenspiel
von Analysis und Linearer Algebra.
Lemma 5.4
Hat Q wie gefordert ein Inverses, dann gilt
a) JQ hat vollen Rang.
b) det(JQ) 6= 0.
Dies bedeutet, dass die Spalten in der Tat eine Basis für den Rn bilden.
Es gibt noch weitere Bestandteile der Koordinatentransformation die man sehr schön
anhand der Jacobimatrix sehen kann.
Lemma 5.5
Sei JQ die Jacobimatrix der orthogonalen Koordinatentransformation Q, dann gilt
a) Die Längen Lj der Basisvektoren bj sind die Diagonaleinträge der Matrix die aus
dem Produkt von JQ transponiert mit JQ entsteht.


L1



L
2
t
 .
(JQ) (JQ) = 


L3


..
.
0
0
b) Ist Q eine orthogognale Koordinatentransformation und sind die Basisvektoren der
Länge 1, dann gilt sogar



1


1
t
 = 1n .
(JQ) (JQ) = 


1


..
.
0
0
c) Für das Volumenelement dV gilt
dV = | det(JQ)|
33
n
Y
i
dui .
5.4 Ebene Polarkoordinaten
Am Beispiel der ebenen Polarkoordinaten werden wir sehen, dass die Basisvektoren
durchaus von den Koordinaten abhängen können. In der Regel tun sie das auch. Hier
hilft es vielleicht, nicht die Abhängigkeit der Basis von den Koordinaten als Ausnahme
zu sehen, sondern vielmehr die Konstanz der kartesischen Basis als Ausnahme.
Im Folgenden betrachten wir die ebenen Polarkoordinaten. Da diese eine gute Gelegenheit bieten das Rechnen in neuen Koordinaten zu üben, haben wir ihnen einen
eigenen Abschnitt gewidmet.
Notation 5.1
Um im Einklang mit der üblichen Literatur zu sein, verwenden wir hier folgende Notation:
x := x1
r := u1
y := x2
ϕ := u2
Die normierten Basisvektoren nennen wir
êϕ := b̂ϕ
êr := b̂r
Weiterhin fordern wir, um eine bijektive Koordinatentransformation zu erhalten:
r > 0 und 0 ≤ ϕ < 2π .
Jetzt verfahren wir wie gewohnt. Wir schreiben die Koordinatentransformation hin. Ebene Polarkoordinaten entstehen durch die folgende Koordinatentransformation Q, mit
x = Q(u) und n = 2.
!
!
!
r cos ϕ
Qr (r, ϕ)
x
,
=
=
r sin ϕ
Qϕ (r, ϕ)
y
und stellen die Jacobimatrix auf
JQ =
∂r Qr ∂r Qϕ
∂r Qϕ ∂ϕ Qϕ
!
=
Daran lesen wir direkt die Basisvektoren ab
!
cos ϕ
br =
,
sin ϕ
!
− sin ϕ
bϕ = r
cos ϕ
!
cos ϕ −r sin ϕ
.
sin ϕ r cos ϕ
Lr = 1
,
Lϕ = r .
Der Basisvektor bϕ muss noch normiert werden, damit erhalten wir die beiden normierten
34
Basisvektoren
êr = b̂r =
cos ϕ
sin ϕ
!
êϕ = b̂ϕ =
− sin ϕ
cos ϕ
!
Man beachte, dass diese Basisvektoren von den Koordinaten abhängen. Auch sieht man,
dass die Beschränkung auf r > 0 sinnvoll war, da man für diesen Fall bϕ nicht normieren
könnte.
Der folgende Abschnitt wird zeigen wie man mit den neuen Koordinaten rechnet. Dies
zeigen wir an der Beschreibung einer Bahnkurve in ebenen Polarkoordinaten.
5.4.1 Bahnkurve in ebenen Polarkoordinaten
Eine Bahnkurve ist eine “Bahn” im Raum, die von einem Parameter t ∈ R abhängt.
Definition 5.5 (Bahnkurve in ebenen Polarkoordinaten)
Die Bahnkurve R2 ∋ x(t) = (x(t), y(t))t , lautet in ebenen Polarkoordinaten
!
!
x(t)
r(t) cos ϕ(t)
R2 ∋ x(t) =
=
= r(t)êr (t) .
y(t)
r(t) sin ϕ(t)
Anmerkung 5.2
Hier taucht leider einmal x(t) als Bahnkurve selbst und als Komponente der Bahnkurve
auf. Was jeweils gemeint ist wird hoffentlich durch den Kontext klar. Die Bahnkurve
“lebt” im R2 , die Komponente im R.
Man beachte hier, dass die neuen Koordinaten ebenfalls von t abhängen. Dies sollte
nicht verwundern: die Koordinaten x, y sind zeitabhängig und um dies in den neuen
Koordinaten r, ϕ ausdrücken zu können, “erben” diese praktisch die Zeitabhängigkeit.
Sie geht damit auch über auf die Basisvektoren êi .
Wie wir gleich sehen werden, bedeutet dies auch, dass die Zeitabhängigkeit der Basisvektoren êi auch beim Differenzieren berücksichtigt werden muss. Dies sieht man schon
bei der Bahngeschwindigkeit in ebenen Polarkoordinaten.
Definition 5.6 (Bahngeschwindigkeit in ebenen Polarkoordinaten)
Die Bahngeschwindigkeit R2 ∋ v(t) ist die Zeitableitung der Bahnkurve x(t).
v(t) = ẋ(t) =
d
(rêr ) = ṙêr + r ê˙ r ,
dt
mit der Zeitableitung des Basisvektors êr
!
!
d
ê
d
ϕ
d
ê
d
cos
ϕ(t)
−
sin
ϕ(t)
r
r
=
=
ϕ̇ = ϕ̇
= ϕ̇(t)êϕ (t) .
ê˙ r (t) =
cos ϕ(t)
d t sin ϕ(t)
dϕ dt
dϕ
35
Die zweite Gleichheit folgt nach der Kettenregel. Die letzte Gleichheit folgt durch den
Vergleich des Vektors (− sin ϕ, cos ϕ)t mit dem Basisvektor êϕ .
Einsetzen in die Bahngeschwindigkeit ergibt damit:
v(t) = ṙêr + r ϕ̇êϕ .
Man nennt ϕ̇ die Winkelgeschwindikeit.
Durch erneutes Ableiten nach der Zeit erhalten wir die Bahnbeschleunigung.
Definition 5.7 (Bahnbeschleunigung in ebenen Polarkoordinaten)
Die Bahnbeschleunigung R2 ∋ a(t) ist die Zeitableitung der Bahnbeschleunigung.
a(t) = v̇(t) = ẍ(t) =
d
ṙêr + r ϕ̇êϕ = r̈êr + ṙê˙ r + ṙ ϕ̇êϕ + r ϕ̈êϕ + r ϕ̇ê˙ ϕ ,
dt
mit der Zeitableitung des Basisvektors êϕ
!
!
d êϕ d ϕ
d − sin ϕ(t)
− cos ϕ(t)
=
= ϕ̇
= −ϕ̇(t)êr (t) .
ê˙ ϕ (t) =
cos
ϕ(t)
− sin ϕ(t)
dt
dϕ dt
Die zweite Gleichheit folgt nach der Kettenregel und die letzte Gleichheit folgt durch
Vergleich des Vektors (− sin ϕ(t), − cos ϕ(t)) mit dem Basisvektor êr .
Einsetzen in die Bahnbeschleunigung ergibt:
a(t) = r̈êr + ṙϕ̇êϕ + ṙϕ̇êϕ + r ϕ̈êϕ + r ϕ̇(−ϕ̇)êr
= r̈ − r ϕ̇2 êr + (r ϕ̈ + 2ṙϕ̇) êϕ .
Der Winkel zwischen Bahnkurve und Bahngeschwindigkeit berechnet sich zu
hx, ẋi = r(t)êr · ṙ(t)êr (t) + r(t)ϕ̇(t)êϕ (t) = r(t)ṙ(t) .
5.4.2 Vergleich kartesische Koordinaten und ebene
Polarkoordinaten
Betrachten wir eine Kreisbahn. Einmal stellen wir sie in kartesischen Koordinaten dar,
einmal in ebenen Polarkoordinaten. Man sieht hier schon, dass neue Koordinaten manche Rechnungen vereinfachen können.
Kreis mit Radius 1 in kartesischen Koordinaten
• Kreisgleichung: x2 + y 2 = 1.
!
cos(t)
= cos(t)êx + sin(t)êy .
• Bahnkurve: x(t) =
sin(t)
36
• Bahngeschwindigkeit: v(t) = − sin(t)êx + cos(t)êx .
• Bahnbeschleunigung: a(t) = − cos(t)êx − sin(t)êy .
Kreis mit Radius 1 in Polarkoordinaten
• Bahnkurve: x(t) = êr , da r(t) = 1 und ϕ(t) = t.
• Bahngeschwindigkeit: v(t) = rêϕ , tangential zur Bahnkurve.
• Bahnbeschleunigung: a(t) = −rêr , radial nach Innen.
Was davon sieht einfacher aus?
37
6 Volumenintegral
In diesem Kapitel beschäftigen wir uns mit dem Volumenintegral. Wie der Name schon
suggeriert ist es ein Integral über ein Volumen. Dabei wollen wir Volumen zuerst allgemeiner Verstehen als das “normale” Volumen im R3 . In der allgemeinen Form im Rn ist
ein n-faches Mehrfachintegral ein Volumen. Um das Volumen zu erhalten berechnet man
ein Mehrfachintegral, dessen Integrationsgrenzen so gewählt sind, dass sie das gewünschte Volumen einschließen. Zusätzlich muss man das entsprechende Volumenenlement des
verwendeten Koordinatensystems beachten. 1
Zur Definition und Berechnung des Volumenelements, siehe Definition 5.4 in Abschnitt 5.3. Das eigentliche Volumenintegral definieren jetzt.
Definition 6.1 (Volumenintegral)
Das Integral über ein Volumen V ∈ Rn nennen wir Volumenintegral. Sei f : Rn → R
eine Abbildung. Dann gilt für das Volumenintegral von f über das Volumen V :
ˆ
V
f dV =
ˆ
b1
...
a1
ˆ
bn
f (u1, . . . , un )
an
n
Y
Li dui .
i=1
wobei die ai , bi so gewählt sind, dass sie das Volumen V umschließen. Für die Definitionen von dV und dui und Li , siehe Definition 5.4 in Abschnitt 5.3.
´
Die Schreibweise V dV ist unabhängig vom verwendeten Koordinatensystem.
Im Folgenden werden wir uns einige Anwendungen und Beispiele betrachten. Dabei werden wir uns jedoch auf den R3 beschränken. Zum Einen findet man dort die meisten
direkten Anwendungen in den ersten Semestern, zum Anderen ist dort anschaulich was
mit “Volumen” gemeint ist. Je nach Anwendung wird die Funktion f unterschiedlich
defniert sein.
6.1 Volumen
In diesem Abschnitt betrachten wir die Berechnung eines Volumens in diversen Koordinatensystemen. Für die Funktion f gilt hier f = 1.
6.1.1 Kartesische Koordinaten
In kartesischen Koordinaten gilt für das Volumenintegral
1
suaberer definieren
38
Definition 6.2
Das Volumen V in kartesischen Koordinaten des R3 berechnet sich zu
ˆ
˚
V =
dV =
dxdydz .
V
Das Volumenelement ist dV = dxdydz.
Um über den gesamten Raum zu integrieren verwendet man das Integral mit den
folgenden Grenzen:
ˆ ∞ˆ ∞ˆ ∞
V R3 =
dx dy dz .
−∞
−∞
−∞
6.1.2 Zylinderkoordinaten
In Zylinderkoordinaten gilt für das Volumenintegral
Definition 6.3
Das Volumen V in Zylinderkoordinaten des R3 berechnet sich zu
ˆ
˚
V =
dV =
rdrdϕdz .
V
Das Volumenelement ist dV = rdrdϕdz.
Um über den gesamten Raum zu integrieren verwendet man das Integral mit den
folgenden Grenzen:
ˆ ∞
ˆ 2π
ˆ ∞
V R3 =
rdr
dϕ
dz .
0
0
−∞
Beispiel 6.1
Volumen eines Hohlzylinders der Höhe h, mit Außenradius ra und der Wanddicke d.
Den Zylinder legen wir mit Symmetrieachse auf die z-Achse. Wir lassen ihn bei z = 0
beginnen, d.h. er endet bei z = h. Siehe Abb. 8.4.
Nach der Wahl der entsprechenden Grenzen berechnet sich das Volumen zu
r
ˆ 2π
ˆ 2π
ˆ h
ˆ ra
ˆ ra
ˆ ra
1 2 a
rdr
rdr = 2πh r
rdr
dϕ
VZ =
dϕ = 2πh
dz = h
2 ra −d
ra −d
ra −d
ra −d
0
0
0
i
h
= πh ra2 − (rA − d)2
6.1.3 Kugelkoordinaten
In Kugelkoordinaten gilt für das Volumenintegral
Definition 6.4
Das Volumen V in Kugelkoordinaten des R3 berechnet sich zu
ˆ
˚
V =
dV =
r 2 sin θdrdθ dϕ .
V
39
y
−
−
x
ra
ra
d
ra
ra
d
y
x
Abbildung 6.1: Hohlzylinder, Seitenansicht und Draufsicht.
Das Volumenelement ist dV = r 2 sin θdrdθ dϕ.
Um über den gesamten Raum zu integrieren verwendet man das Integral mit den
folgenden Grenzen:
ˆ ∞
ˆ π
ˆ 2π
2
V R3 =
r dr
sin θdθ
dϕ .
0
0
0
Beispiel 6.2
Volumen einer Kugel mit Radius R. Hier sind die Integrationsgrenzen entsprechend zu
wählen.
ˆ R
ˆ π
ˆ 2π
ˆ R
ˆ π
ˆ R
4
2
2
VK =
r dr
sin θdθ
dϕ = 2π
r dr
sin θdθ = 4π
r 2 dr = πR3
3
0
0
0
0
0
0
6.2 Masse
Die Berechnung einer Masse die in einem Volumen mit Dichteverteilung f = ρ enthalten
ist, erfolgt über Volumenintegrale.
Definition 6.5 (Masse)
Sei f = ρ(u1 , u2 , u3 ) eine Dichteverteilung. Die in einem Volumen V enthaltene Masse
M berechnet sich zu
ˆ
M=
ρdV .
V
40
Ist ρ = ρ0 = konstant, dann gilt
M = ρ0
ˆ
dV .
V
In der Berechnung wird die Funktion ρ, die von den Koordinaten abhängt, über das
Volumen V integriert.
Beispiel 6.3
Wir Berechnen die Masse eines Vollzylinders der Höhe h und Radius R. Die Dichteverteilung sei ρ = ρ0 e−αr , α ∈ R konstant. Die Masse des Vollzylinders berechnet sich dann
zu
ˆ
ˆ R ˆ h ˆ 2π
ˆ R
−αr
M=
ρdV =
dr
dz
dϕρ0 e
= 2πhρ0
dr re−αr
V
0
0
0
0
2πhρ0 =
1 − e−αR αR + 1)
α2
6.3 Schwerpunkt
Im diskreten Fall, in dem man kleine Massen der Masse mi am Ort ri ∈ R3 betrachtet
definiert man den Schwerpunkt.
Definition 6.6
Der Schwerpunkt rS ∈ R3 von N Massen, die jeweils die Masse mi und den Ort ri ∈ R3
haben, mit i ∈ {1, . . . , N}, berechnet sich zu
3
R ∋ rS =
PN
mi ri
Pi=1
N
i=1 mi
=
PN
mi ri
,
M
i=1
P
mit der Gesamtmasse M = N
i=1 mi .
Nimmt man weiterhin an, dass jede Masse, das kleine Volumen Vi einnimt mit der
Ortsabhängigen Dichte ρ(ri ), lässt sich der Schwerpunkt auch schreiben als
N
1 X
R ∋ rs =
ri ρ(ri )Vi .
M i=1
3
Macht man nun den Übergang, dass die Anzahl der Massen N gegen unendlich strebt,
also N → ∞ und gleichzeitig die Volumina immer kleiner, so dass sie gegen Null gegen
streben, Vi → 0, dann vollzieht man den Übergang zu einem kontinuierlichen Körper. In
diesem Fall können wir von einer Summe zu einem Integral übergehen
ˆ
ˆ
X
ri mi →
rdm =
rρ(r)dV .
V
V
In diesem Fall ist der Schwerpunkt
41
R
y
z
R
x
x
Abbildung 6.2: Halbkugel, Draufsicht und Seitenansicht.
Definition 6.7
Der Schwerpunkt rS ∈ R3 , einer Dichteverteilung ρ in einem Volumen V ist definiert
als
ˆ
ˆ
1
1
3
r dm =
ρ(r)dV ,
R ∋ rS =
M V
M V
´
dabei ist r ∈ R3 und M = V ρdV die Gesamtmasse.
Anmerkung 6.1
Ist die Dichteverteilung ρ = ρ0 also konstant, dann kann man das Integral umschreiben
zu:
ˆ
ˆ
ˆ
ˆ
ρ0
ρ0
1
1
rs =
rρ0 dV =
rdV =
rdV =
rdV .
M V
M V
V ρ0 V
V V
Anmerkung 6.2
Der Schwerpunkt ist ein Vektor im R3 , das heißt er hat drei Komponenten.
 
´

ˆ
rS1
r
ρdV
1
1 ´V 1
 

rS = rS2  =
rρdV =
´V r2 ρdV  .
M V
M
rS3
r ρdV
V 3
Die Integration wird Komponentenweise ausgeführt.
Beispiel 6.4
Der Schwerpunkt einer Halbkugel, die mit der flachen Seite in der x − y-Ebene liegt, mit
der z-Achse durch die Kreismitte. Die Dichteverteilung sei homogen, das heißt ρ = ρ0 .
Siehe Abb. 6.2.
Wir berechnen nacheinander die drei kartesischen Komponenten des Schwerpunktvektors rS ∈ R3 .
• x-Komponente: Wir drücken x in Kugelkoordinaten aus und führen die Integration in Kugelkoordinaten aus. In Kugelkoordinaten gilt x = r sin θ cos ϕ, damit
erhalten wir
ˆ π
ˆ
ˆ 2π
2
1 R
2
dr r
rSx =
dθ sin θ
dϕ r sin θ cos ϕ = 0 ,
V 0
0
0
42
da die Integration über eine volle Periode des Cosinus Null ergibt. Also
rSx = 0 .
• y-Komponente: Wir drücken y in Kugelkoordinaten aus und führen die Integration in Kugelkoordinaten aus. In Kugelkoordinaten gilt y = r sin θ sin ϕ, damit
erhalten wir
ˆ 2π
ˆ π
ˆ
2
1 R
2
rSy =
dθ sin θ
dϕ r sin θ sin ϕ = 0 ,
dr r
V 0
0
0
da die Integration über eine volle Periode von sin ϕ gerade Null ergibt. Also
rSy = 0 .
• z-Komponente: Wir drücken z in Kugelkoordinaten aus und führen die Integration in Kugelkoordinaten aus. In Kugelkoordinaten gilt z = r cos θ, damit erhalten
wir
ˆ
ˆ 2π
ˆ
ˆ 2π
ˆ π
ˆ π
2
2
1 R
1 R
2
3
rSz =
dθ sin θ
dθ sin θ cos θ
dr r
dϕ r cos θ =
dr r
dϕ
V 0
V 0
0
0
0
0
ˆ
ˆ
ˆ π
2
2π R
π R
π1 4
3
=
dθ sin θ cos θ =
dr r
drr 3 =
R .
V 0
V 0
V 4
0
Dieses Ergebnis kann man noch etwas vereinfachen wenn man verwendet, dass das
Volumen V einer Halbkugel gerade 32 πR3 ist. damit erhält man
3
rSz = R .
8
Der Schwerpunkt unserer Halbkugel liegt also bei
 
0
 
3
R ∋ rS =  0  .
3
R
8
Dass die x, y-Komponenten Null ergeben, hätte man allein durch Symmetriebetrachtungen erkennen können, da eine Halbkugel symmetrisch zur z-Achse ist.
43
6.4 Trägheitsmoment
Definition 6.8
Das Trägheitsmoment I bezüglich einer Drehachse d ist definiert als
ˆ
ˆ
2
2
I=
r⊥ (r)dm =
r⊥
(r)ρdV .
V
V
Dabei ist r⊥ der senkrechte Abstand eines Raumpunktes r von der Drehachse d.
2
Beispiel 6.5
Wir berechnen das Trägheitsmoment einer Kugel, die um eine Achse d rotiert. Die Achse
d verlaufe entlang der z-Achse und gehe durch den Mittelpunkt der Kugel mit Radius R
und homogener Dichte ρ0 . Der senkrechte Abstand r⊥ = r sin θ.
ˆ R ˆ π ˆ 2π
ˆ
2
sin θ}
I = ρ0
r⊥ dV = ρ0
dr
dθ
dϕ (r sin θ)2 |r 2 {z
| {z }
V
0
0
0
von dV
2
=r⊥
= 2πρ0
ˆ
R
dr
0
ˆ
0
π
2
dθr 4 sin3 θ = πρ0 R5
5
ˆ
π
dθ sin3 θ =
0
8
2
4
πρ0 R5 = R2 ρ0 πR3
15
5
3
2
= R2 MKugel .
5
Beispiel 6.6
Trägheitsmoment eines Hohlzylinders homogener Dichte ρ0 , mit Außenradius ra , Wanddicke d und Höhe h, der in der x − y-Ebene beginnt und sich nach Oben erstreckt. Die
z-Achse ist Symmetrieachse. Die Drehachse d sei identisch mit der z-Achse. Der senkrechte Abstand zur Drehachse ist r⊥ = r.
ˆ 2π
ˆ h
ˆ
ˆ ra
2
dr
dϕ
I = ρ0
r⊥ dV = ρ0
dz |{z}
r 2 |{z}
r
ra −d
V
= 2πρ0
ˆ
ra
ra −d
dr
ˆ
0
h
dzr 3 = 2πρ0 h
0
i
h
1
= πρ0 h ra4 − (ra − d)4 .
2
0
ˆ
2 von dV
=r⊥
ra
drr 3
ra −h
Beispiel 6.7
Trägheitsmoment eines Quaders, mit einer Ecke in (0, 0, 0), der sich in positive Koordiantenrichtung erstreckt. Länge L in x-Richtung, a in y-Richtung und Länge b in
z-Richtung. Die Massedichte sei homogen ρ0 , und die Drehachse d sei identisch
mit der
p
2
2
z-Achse. Das bedeutet für den senkrechten Abstand zur Drehachse: r⊥ = x + y . Siehe
2
Bild einfügen
44
z
b
x
a
L
y
Abbildung 6.3: Quader der sich um z-Achse dreht.
Abb. 6.3.
ˆ L ˆ b 2
2
I = ρ0
= ρ0
dx
dy
dz x + z = ρ0 a
dx
dz x2 + z 2
V
0
0
0
0
0
b
ˆ L ˆ L 1
1
1
dx x2 b + 3 =
L2 + b2 ρ0 abL
= ρ0 a
dx x2 z + z 3 = ρ0 a
3
3b
3
0
0
0
1 2
=
L + b2 MQuader
3
ˆ
ˆ
2
r⊥
dV
L
a
ˆ
ˆ
b
Beispiel 6.8
a) Trägheitsmoment einer Halbkugel homogener Massendichte ρ0 , die mit der Flachen
Seite in der x − y-Ebene liegt mit der Halbkugel nach Oben, zentriert um die zAchse. Die Drehachse ist die z-Achse. Der senkrechte Abstand zur Drehachse ist
r⊥ = r sin θ.
ˆ
ˆ R ˆ π
ˆ 2π
2
2
2
2
sin θ}
Iz = ρ0
r⊥ dV = ρ0
dr
dθ
dϕ |r 2 sin
{z θ} |r {z
0
V
= 2πρ0
ˆ
R
dr
0
ˆ
0
π
2
0
0
2
dθr 4 sin3 θ = πρ0 R5
5
2
=r⊥
ˆ
0
π
2
von dV
dθ sin3 θ =
4
πρ0 R5
15
1
= R2 MKugel
5
b) Trägheitsmoment der obigen Halbkugel, mit der x-Achse als Drehachse. Hier ist
45
r⊥ = r cos θ.
Ix = ρ0
ˆ
2
r⊥
dV
= ρ0
0
V
R
ˆ
R
dr
ˆ
π
2
0
π
2
dθ
ˆ
0
2π
2
2
sin θ}
dϕ |r 2 cos
{z θ} |r {z
2
=r⊥
2
dθr 4 cos2 θ sin θ = πρ0 R5
5
0
0
1 1 2
2
R MKugel
= πρ0 R5 =
15
2 5
1
= Iz
2
= 2πρ0
ˆ
dr
ˆ
46
ˆ
0
von dV
π
2
dθ cos2 θ sin θ
7 Analogien zwischen Tanslation
und Rotation
Viele Größen, die eine Translationsbewegung beschreiben, haben eine Entsprechung für
die Rotationsbewegung. Während die Tranlsationen schon aus der Schulzeit bekannt
sind, sind die Rotationen weniger vertraut. Vielleicht helfen die unten aufgeführten Analogien, sich die relevantesten Größen besser einzuprägen. Die Tabelle stellt Translation
und Rotation gegenüber und zeigt die identische Struktur auf.
• Weg: x
• Winkel: ϕ
• Masse: m
• Trägheitsmoment: I
• Geschwindigkeit: v = ẋ
• Winkelgeschwindigkeit: ω = ϕ̇
• Impuls: p = m · v = m · ẋ
• Drehimpuls: L = I · ω = I · ϕ̇
• Kraft:
F = dd pt =
• Drehmoment:
D = ddLt = d (I·ω)
= I · ω̇ = I · ϕ̈
dt
d (m·v)
dt
= m · v̇ = m · ẍ
• Kinetische Energie: Ekin = 21 mv 2
• Rotationsenergie: Erot = 21 Iω 2
47
8 Potential und Phasenraum
Definition 8.1 (Kinetische Energie)
Die kinetische Energie eines Teilchens mit Masse m und Geschwindigkeit v = ṙ ∈ Rn
ist definiert als
1
1
Ekin = mṙ 2 = mv 2 .
2
2
Definition 8.2 (Potentielle Energie)
Sei die wirkende Kraft F ∈ Rn als negativer Gradient eines Skalarfeldes V (r) ∈ R, das
vom Ort r ∈ Rn abhängt, darstellbar, also
F (r) = −∇V (r) ,
dann bezeichnet man V (r) als potentielle Energie Epot .
Definition 8.3
Gesamtenergie
1
E = Eges = Ekin + Epot = mv 2 + V (r) .
2
Definition 8.4
Eine Erhaltungsgröße O ist zeitlich konstant, sie ändert sich nicht mit der Zeit, d.h.
dO
= Ȯ = 0
dt
Satz 8.1
Die Gesamtenergie ist für Gradientenfelder eine Erhaltungsgröße.
E = Ekin + Epot = konstant .
48
Beweis
dE
d m 2
d m
=
ṙ + V (r) =
ṙ ṙ + V (r)
dt
dt 2
dt 2
dV dr
m
·
= (r̈ ṙ + ṙr̈) +
= mr̈ ṙ + ∇V · ṙ
2
|d r {z d t}

Kettenregel

∇V  = ṙ (F − F )
= ṙ |{z}
mr̈ + |{z}
=F
=−F
=0 .
8.1 Periodendauer
Die Periodendauer eines Teilchen, das sich gebunden in einem eindimensionalen Potential
bewegt ist die Zeit, die es benötigt einen kompletten “Umlauf” durchzuführen.
Definition 8.5 (Periodendauer)
Seien x0 = x(t0 ) und x1 = x(t1 ) die beiden Umkehrpunkte eines Teilchens, das sich mit
Gesamtenergie E in einem eindimensionalen Potential V (x) bewegt. Die Periodendauer
ist die Zeit die es benötigt um den Weg x0 → x1 → x0 zurückzulegen. Die Periodendauer
T berechnet sich zu
ˆ x1
1
q
T =2
dx .
2
x0
E
−
V
(x)
m
Beweis Für eine halbe Periode braucht das Teilchen die Zeit t1 − t0 , und damit für eine
volle Periode offensichtlich 2(t1 − t0 ). Dies kann man schreiben als
ˆ t1
T = 2(t1 − t0 ) = 2
dt .
(8.1)
t0
Dieses Integral werden wir nun geschickt umformen.
Es gilt für die Geschwindigkeit v = dd xt , was wir nach dt auflösen können um dt = dx
zu
v
erhalten.
Nun lösen wir die Gleichung der Gesamtenergie, siehe Definition 8.3, nach der Geschwindigkeit v auf und erhalten
r
2
E − V (x) .
v=
m
49
Diese Ergebnisse setzen wir in Gleichung (8.1) ein
T =2
ˆ
t1
dt = 2
t0
ˆ
x1 =x(t1 )
x0 =x(t0 )
dx
=2
v
ˆ
x1
x0
q
1
1
2
E − V (x)
dx .
8.2 Phasenraum
Definition 8.6
Ein Teilchen mit f Freiheitsgraden der Bewegung hat f Ortskoordinaten xi , i ∈ {1, . . . , f },
also ist x = (x1 , . . . , xf )t ∈ Rf .
Beispiel 8.1
a) Eine eindimensionale Bewegung hat einen Freiheitsgrad der Bewegung. Das Teilchen bewegt sich zum Beispiel entlang der x-Achse. Hier ist f = 1 und wir brauchen
eine Ortskoordinate um das Teilchen eindeutig zu lokalisieren.
b) Eine zweidimensionale Bewegung hat zwei Freiheitsgrade der Bewegung. Das Teilchen bewegt sich zum Beispiel in der x, y-Ebene. Hier ist f = 2 und wir brauchen
zwei Ortskoordinaten um das Teilchen eindeutig zu lokalisieren.
Das Teilchen hat auch f Freiheitsgrade im Geschwindigkeitsraum. Der Geschwindigkeitsvektor ist nämlich gerade die Zeitableitung des Ortsvektors, v = ẋ ∈ Rf .
Beispiel 8.2
Ein Teilchen mit einem Freiheitsgrad der Bewegung hat eine “Geschwindigkeitskoordinate”.
Definition 8.7
Ein System von N Teilchen, jedes mit f Freiheitsgraden der Bewegung, hat
n = fN ,
Freiheitsgrade.
Beispiel 8.3
a) Ein System mit nur einem Teilchen, das 3 Freiheitsgrade der Bewegung hat, f = 3,
hat n = 1 · 3 = 3 Freiheitsgrade.
b) Ein System aus 1 × 1023 Teilchen, mit je 3 Freiheitsgraden der Bewegung, hat
n = 3 × 1023 Freiheitsgrade.
Definition 8.8
Der Ortsvektor x des Systems ist aus dem Rn , N Teilchen und f Komponenten pro
Teilchen. Analog gilt für den Geschwindigkeitsvektor v = ẋ des Systems: v ∈ Rn .
50
Definition 8.9
Der Phasenraum ist ein 2n-dimensionaler Raum P.
Ein klassisches System von N-Teilchen mit jeweils f Freiheitsgraden der Bewegung,
wird eindeutig durch einen Punkt p im 2n-dimensionalen, n = f · N, Phasenraum P
beschrieben.
!
x
R2n ∋ p =
,
v
mit x, v ∈ Rn .
Die x, v spannen lediglich den Phasenraum P auf. Ein funktionaler Zusammenhang
zwischen x, v besteht lediglich entlang der Lösungskurven zu
ẋ = v
v̇ = ẍ =
1
F (x) ,
m
mit der Kraft F (x).
Definition 8.10
Eine Bahnkurve entlang der ein funktionaler Zusammenhang zwischen x und v = ẋ
besteht, nennt man Phasenbahn.
Im Folgenden betrachten wir einige Beispiele um die Konzepte und Möglichkeiten des
Phasenraums näher in Augenschein zu nehmen. Wir betrachten dazu den harmonischen
Oszillator, der in vielen Formen immer wiederkehren wird, und das mathematische Pendel.
8.2.1 Harmonischer Oszillator
Der harmonische Oszillator ist wie folgt definiert.
Definition 8.11
Ein Teilchen der Masse m, mit einem Freiheitsgrad der Bewegung, Koordinate x, das
eine rücktreibende Kraft F der Form
F =−
d V (x)
= −kx ,
dx
R ∋ k > 0, erfährt, nennt man harmonischer Oszillator. Das entsprechende Potential
ist
1
V (x) = kx2 .
2
Beispiel 8.4
Ein Beispiel für einen harmonischen Oszillator ist eine Masse, die an einer Feder mit
Federkonstante k befestigt ist. Für kleine Auslenkungen ist die rücktreibende Kraft linear
in x. In diesem Modell vernachlässigt man Effekte wie Reibung, Erwärmung der Feder,
etc.
51
Die Bewegungsgleichung erhält man aus mẍ = F als
mẍ + kx = 0 ,
q
k
was man durch einführen der Abkürzung ω0 = m
umschreiben kann zu
ẍ + ω02x = 0 .
Die Bewegungsgleichung hat die Lösung:
x = A sin(ω0 t)
ẋ = Aω0 cos(ω0 t) .
Damit ergibt sich für die Phasenbahn b im Phasenraum
!
!
!
x
A sin(ω0 t)
sin(ω0 t)
b=
=
=A
,
v
Aω0 cos(ω0 t)
ω0 cos(ω0 t)
das heißt Ellipsen im Phasenraum. Siehe auch Abb. 8.1.
6
A=2
A=1
A = 0.5
4
v
2
0
-2
-4
-6
-6
-4
-2
0
2
4
6
x
Abbildung 8.1: Phasenbahnen des harmonischen Oszialltors für ω0 = 2 und verschiedene Werte von A.
52
8.2.2 Mathematisches Pendel
In diesem Abschnitt betrachten wir das mathematische Pendel.
Definition 8.12
Ein Massepunkt der Masse m schwingt an einer gewichtslosen Stange der Länge ℓ. Ein
Ende dieser Pendelstange ist fest und das System befindet sich im homogenen Gravitationsfeld F = −mgêz . Vernachlässigt man Reibungseffekte und Ähnliches, bildet das
System ein mathematisches Pendel.
φ
ℓ
h(φ)
h
Abbildung 8.2: Schema des mathematischen Pendels und der verwendeten Größen.
Um die Position des Massepunktes festzulegen verwenden wir den Winkel φ, der Winkel um den das Pendel aus der Ruhelage ausgelenkt ist. Die Höhe der Masse ergibt sich
wie folgt: Sei h die Höhe des Massepunktes in Ruhelage, d.h. φ = 0, dann ergibt sich die
Höhe in Abhängigkeit des Winkels als h(φ) = ℓ (1 − cos φ). Siehe ??.
Die potentielle Energie der Masse ist damit
Epot = mgh = mgℓ (1 − cos φ) .
Die Bewegungsgleichungen lassen sich herleiten unter der Annahme, dass sich die
Trägheitskraft mℓφ̈ mit der Gravitationskraft in tangentialer Richtung, −mg sin φ, im
Gleichgewicht befindet. Damit erhalten wir die Gleichung
mℓφ̈ = −mg sin φ ,
die wir umformen zu
g
sin φ = 0 ,
ℓ
einer nichtlinearen Differentialgleichung.
Bevor wir uns dem Phasenraum zuwenden, betrachten wir das mathematische Pendel für kleine Auslenkungen, d.h. kleine φ. Wir können nun eine Taylorentwicklung für
sin φ durchführen. Wir entwickeln bis zur ersten Ordnung und erhalten aus f (x) =
Pg f (x0 )(n) (x−x0 )n
, mit g = 1 und, da wir um die Null entwickeln x0 = 0:
n=0
n!
φ̈ +
sin φ ≈ 0 +
cos 0
φ=φ .
1
53
Die Bewegunsgleichung für kleine Auslenkungen lautet dann
g
φ̈ + φ = 0 ,
ℓ
was nichts anderes ist, als ein harmonischer Oszillator mit ω0 =
pg
ℓ
.
Mathematisches Pendel - Phasenraum
!
x
Um die Phasenbahn b =
zu bestimmen brauchen wir hier neben φ auch φ̇. Letzteres
v
verschaffen wir uns aus der Gesamtenergie.
1
E = Ekin + Epot = mℓ2 φ̇2 + mgℓ (1 − cos φ) = konst .
2
Da die Gesamtenergie eine Erhaltungsgröße ist, ist sie an den Umkehrpunkten, mit
φ = φ0 , gleich der maximalen potentiellen Energie des Pendels, also gilt
1
E = mℓ2 φ̇2 + mgℓ (1 − cos φ) = mgℓ (1 − cos φ0 ) .
2
Diese Gleichung lösen wir nach φ̇ auf und verwenden dass E = mgℓ (1 − cos φ0 ):
r
2
φ̇ = ±
E
−
mgℓ
(1
−
cos
φ)
mℓ2
r
2
=±
mgℓ (1 − cos φ0 ) − mgℓ (1 − cos φ)
2
mℓ
r
g
= ± 2 (cos φ − cos φ0 ) .
ℓ
Damit ist die Phasenbahn:
b=
x
v
!
=
!
φ
=
φ̇
φ
p
± 2 gℓ (cos φ − cos φ0 )
!
.
Einige Phasenbahnen sind in Abb. 8.3 dargestellt. Man beachte, dass für kleine φ0 , d.h.
kleine Auslenkungen, die Phasenbahn ähnlich der eines harmonischen Oszillators ist.
• Stabiler Fixpunkt bei (0, 0). Das Pendel “hängt” senkrecht nach unten.
• Instabiler Fixpunkt bei (±π, 0). Das Pendel zeigt senkrecht nach oben.
Definition 8.13
Stabiler Fixpunkt: Nach einer kleinen Störung verbleibt das System in einer kleinen
Umgebung des stabilen Fixpunktes.
54
4
φ0=π
φ0= 0.75π
φ0= 0.5π
φ0= 0.1π
3
2
v
1
0
-1
-2
-3
-4
-π
-0.5π
0
0.5π
π
x
Abbildung 8.3: Phasenbahnen des mathematischen Pendels.
Abbildung 8.4: Mathematisches Pendel. Links: Pendelposition beim stabilen Fixpunkt
(0, 0). Rechts: Pendelposition beim instabilen Fixpunkt (±π, 0).
55
Definition 8.14
Instabiler Fixpunkt: Nach einer kleinen Störung verlässt das System die Umgebung des
instabilen Fixpunktes.
Erhöht man stetig die Energie des Pendels, das heißt man lenkt es immer mehr aus, so
wird man bei einer bestimmten Energie den Übergang von einer periodischen Bewegung
zu einer rotierenden Bewegung feststellen. Die Rotationsbewegung beginnt, wenn die
Auslenkung φ0 größer wird als π, d.h. man regt es stark genug an, dass es eine volle
Umdrehung ausführen kann. Da Energieerhaltung gilt, wir also keine Reibung, oder
sonstigen Effekte haben, wird das Pendel immer weiter rotieren. Betrachten wir im
Folgenden was mit der Phasenbahn und der Periodendauer passiert, wenn wir uns der
Grenzenergie zwischen Schwingung und Rotation nähern.
Wir betrachten den Fall, in dem das Pendel gerade genug Energie hat um den instabilen Fixpunkt (π, 0) zu erreichen. Das heißt φ0 → π. Damit gilt für die Energie
E = Epot = mgℓ (1 − cosπ) = 2mgℓ .
Die Winkelgeschwindigkeit wird damit zu
r
2
φ̇ = ±
E
−
mgℓ
(1
−
cosφ)
mℓ2
mit E = 2mgℓ
r
2g
(1 + cosφ)
ℓ
Additionstheorem: 1 + cosφ = 2 cos2 φ2
=±
=2
Die Phasenbahn b =
r
g
φ
.
cos
ℓ
2
!
φ
, ist die sogenannte Seperatrix, die Schwingungen von Roφ̇
tationen trennt.
Betrachten wir nun die dazugehörige Periodendauer. Wir bestimmen zuerst die allgemeine Periodendauer und betrachten danach den Übergang φ0 → π. Die Periodendauer
berechnet sich zu
ˆ φ1
1
q
T =2
dφ
2
φ0
(E
−
V
)
mℓ2
56
Einsetzen von E = mgℓ (1 − cosφ0 ) und V = mgℓ (1 − cos φ)
=2
ˆ
φ1
φ0
q
1
2
mℓ2
dφ
(cos φ − cos φ0 )
Betrachte die Symmetrie des Problems. Betrachte eine halbe Schwingung von φ = 0
nach φ0
=4
ˆ
0
φ0
q
1
2g
ℓ
dφ = 4
(cos φ − cos φ0 )
s
ℓ
2g
ˆ
0
φ0
p
1
(cos φ − cos φ0 )
dφ .
Betrachten wir den Übergang φ0 → π, d.h. cos φ0 → −1 und die Periodendauer geht
über
s ˆ
s ˆ
π
ℓ
ℓ π
1
1
dφ → ∞ ,
√
T →T =4
dφ = 2
2g 0
g 0 cos φ
cos φ + 1
2
da dieses Integral divergiert. Physikalisch heißt dies: Hat das Pendel genau die Energie
zum Erreichen des instabilen Fixpunktes, so nähert es sich diesem unendlich langsam.
57
9 Effektivpotential
In diesem Kapitel weichen wir von der bisher üblichen Notation ab.
Notation 9.1
Wir verwenden fettgedruckte Symbole für Elemente aus dem R-Vektorraum R3 und “normale” Symbole für deren Beträge. Also r ∈ R3 und r = |r|.
Dies wird einige Gleichungen erheblich übersichtlicher machen.
Definition 9.1 (Zentralkraftfeld)
Sei F ein Vektorfeld, V ein Skalarfeld, r ∈ R3 und R ∋ r = |r|. Ist V (r) ein punktsymmetrisches Potential, können wir unsere Koordinaten so wählen, dass V in Kugelkoordinaten nur vom Abstand zum Ursprung, dem Radialabstand r ∈ R abhängt.
V (r) → V (r) .
Für das Vektorfeld F gilt damit
F (r) = F (r) = −∇V (r) = −
dV
dV r
.
êr = −
dr
dr r
Das Vektorfeld F hängt damit nur vom Abstand zum Ursprung ab und weist in radiale
Richtung. Man nennt F (r) ein Zentralkraftfeld.
Definition 9.2 (Drehimpuls)
Der Drehimpuls ist definiert als
L = mr × ṙ .
Satz 9.1
Der Drehimpuls ist eine Erhaltungsgröße.
d
L=0 .
dt
Beweis
dV r
d
dV 1
mr̈ = r × −
= (r × r) −
=0 .
L = m |ṙ {z
× ṙ} +mr × r̈ = r × |{z}
dt
dr r
dr r
=0
=F
58
Da der Drehimpulsvektor senkrecht auf r und auch senkrecht auf ṙ steht, steht L
senkrecht auf der Ebene die von r und ṙ aufgespannt wird. Damit folgt aus L̇ = 0, dass
die Bewegung in einer Ebene erfolgt. In dieser Bahnebene führen wir ebene Polarkoordinaten ein
r = r(t)êr
ṙ = ṙ êr + r ϕ̇êϕ ,
damit ergibt sich für den Drehimpuls
L = m (r × ṙ) = m r r̂r × ṙêr + r ϕ̇êϕ = mr 2 ϕ̇êz .
Und für den Betrag von L
L = |L| = mr 2 ϕ̇ .
Definition 9.3
Die Größe
ϕ̇ =
L
,
mr 2
nennt man Winkelgeschwindigkeit.
Beschreibt die Bewegung eine Kreisbahn, so gibt die Winkelgeschwindigkeit die Frequenz des Umlaufs an.
Betrachten wir nun die kinetische Ekin = 21 mṙ 2 in ebenen Polarkoordinaten.
i
1 h
1
1 1
Ekin = mṙ 2 = mṙ · ṙ = m ṙ êr + r ϕ̇êϕ · ṙ êr + r ϕ̇êϕ = m ṙ 2 + r 2 ϕ̇2 .
2
2
2
2
Die kinetsiche Energie kann man hier aufteilen in einen Radialanteil 12 mṙ 2 und einen
Winkelanteil 21 mr 2 ϕ̇2 .
Verwenden wir nun, dass ϕ̇ =
L
mr 2
ist, dann erhalten wir
1 L2
1
.
Ekin = mṙ 2 +
2
2 mr 2
Betrachten wir nun die Gesamtenergie und verwenden die obigen Ergebnisse
Eges = Ekin + Epot =
1 2
mṙ
|2 {z }
hängt von ṙ ab
+
L2
+ V (r) .
2
}
|2mr {z
hängt von r ab
Den Teil der Gesamtenergie, der nur von r abhängt, fassen wir zum sogenannten Effektivpotential zusammen.
59
Definition 9.4 (Effektivpotential)
Das Effektivpotential ist der Anteil der Gesamtenergie der lediglich von der Radialkoordinate r abhängt
L2
Veff :=
+ V (r) .
2mr 2
Damit schreibt sich die Gesamtenergie als
1
Eges = mṙ 2 + Veff .
2
Man beachte, dass wir um dieses Ergebnis zu erhalten nur ausgenutzt haben, dass bei
einem punktsymmetrischen Potential der Drehimpuls eine Erhaltungsgröße ist. Doch wir
können noch mehr über die Bewegung und die Bahn lernen.
Wir lösen die Gleichung für die Gesamtenergie nach der Geschwindigkeit auf
r
2
ṙ =
(E − Veff ) .
m
Damit können wir weitere Gleichungen gewinnen, unter anderem
ˆ
t′
t0
dt =
ˆ
r′
r0
dr
=
ṙ
ˆ
r′
r0
woraus sich ergibt wann das Teilchen wo ist
t(r) = t0 +
q
r′
ˆ
q
r0
dr
2
m
(E − Veff )
dr
2
m
,
.
(E − Veff )
Analog kann man die Bahnkurve in Abhängigkeit von der Zeit bestimmen
r(t) = r0 +
ˆ
t′
t0
q
dt
2
m
.
(E − Veff )
Ähnlich können wir auch für den Winkel vorgehen
dϕ
L
⇒ dϕ = ϕ̇dt =
dt
2
dt
mr
ˆ
L t dt′
.
ϕ(t) = ϕ0 +
m t0 r 2
ϕ̇ =
60
Oder
dϕ
L
L
L
dr
L 1
=
⇒
dϕ
=
dt
=
dt
=
dr
2
2
2 ṙ
dt
mr 2
mr
mr
d
r
mr
ˆ r
dr ′
L
√
.
ϕ(r) = ϕ0 + √
2m r0 r ′2 E − Veff
Im nächsten Abschnitt betrachten wir das Keplerproblem. Es ist ein Spezialfall des
bisher gezeigten mit V (r) = − αr , und einer weiteren Erhaltungsgröße, dem Runge-Lenz
Vektor.
9.1 Keplerproblem
Wir betrachten nun das Keplerproblem, auch hier haben wir ein punktsymmetrisches
Potential und damit ein Zentralkraftfeld. Das Potential hat hier die Form
V (r) = −
α
.
r
Es gibt drei Erhaltungsgrößen
a) Gesamtenergie: E = Ekin + Epot = 12 mṙ 2 −
α
r
b) Drehimpuls: L = mr × ṙ
c) Runge-Lenz Vektor: A = ṙ × L − αr r
wir werden nun, allein mit diesen Informationen die Bahn berechnen. Dazu betrachten
wir das Effektivpotential
L2
Veff =
+ V (r) ,
2mr 2
das ein Minimum bei
L2
,
r0 =
αm
hat. Dies ergibt eine Kreisbahn mit Radius r0 , Drehimpuls L und Energie E = − rα0 .
Allgemein muss für eine stabile Kreisbahn gelten
a)
d Veff
dr
!
=0
b) Minimum des Effektivpotentials.
61
Um die Bahn zu bestimmen betrachten wir den Runge-Lenz Vektor A, für dessen
Betrag A gilt
2
α
2
A = A · A = ṙ × L − r
r
α2 2
α
2
= (ṙ × L) − 2 r (ṙ × L) + 2 r
r
r
α
2
= (ṙ × L) − 2 r (ṙ × L) + α2 .
r
Jetzt betrachten wir nacheinander die ersten beiden Terme
(ṙ × L) = ṙ 2 L2 sin2 β = ṙ 2 L2 ,
die letzte Gleichheit gilt, da ṙ senkrecht auf L = m(r × ṙ) steht und damit der Winkel
β = π2 ist, damit ist sin β = 1.
Bleibt der zweite Term
1
1
r (ṙ × L) = (r × ṙ) = LL = L2 .
| {z } m
m
1
=m
L
In die Gleichung für A2 eingesetzt erhalten wir
2α 2
α1 2
L + α2 = ṙ 2 L2 −
L + α2
A2 = ṙ 2 L2 + 2
r
m
mr
2α
2
2
+ α2 .
= L ṙ −
mr
1
2 a
Nun
noch eine weitere Umformung: Wir betrachten die Gesamtenergie E = 2 mṙ − r =
m
ṙ 2 − m2 αr , was wir in die Gleichung für A2 einsetzen
2
2L2
2L2
A2 =
E + α2 = α2 1 +
m
mα2 E
Und damit schlußendlich für A
A=α
r
1+
2L2
E = αε .
mα2
62
!
.
Jetzt ist es nur noch ein kleiner Schritt zur Bahnkurve. Wir betrachtehn das Skalarprodukt von A und r, das wir auf zwei Arten berechnen können
α
L2
r·r =
− αr
r
m
A · r = Ar cos ϕ = αεr cos ϕ .
A · r = (ṙ × L) · r −
Gleichzetzen und Umformen ergibt
L2
− αr = αε cos ϕ
m
L2
= αεr cos ϕ + αr = r(αε cos ϕ + α = rα (ε cos ϕ + 1) .
m
Dies nach r aufgelöst und wir haben die Bahngleichung
r(ϕ) =
L2
1
,
mα (1 + ε cos ϕ)
was die Gleichung einer Ellipse ist, was wir für Keplersche Planetenbahnen auch erwartet
haben.
63
10 Matrizen
In diesem Kapitel steigen wir in die Welt der Linearen Algebra ein. Insbesondere in das
Thema der Matrizen.
Bevor wir in die Details einsteigen hier ein allgemeiner Überblick was Matrizen bedeuten.
Matrizen, die auf Vektoren angewendet werden sind lineare Abbildungen zwischen
Vektorräumen. Man kann sie als Funktionen betrachten die auf Vektoren wirken. So
kann man anstatt f (x, y, z) = (x, 0, 0) auch die Matrixabbildung betrachten
   

x
x
1 0 0
   

y
0
0
0
=
   0 .

0
z
0 0 0
Die Addition von Matrizen A + B entspricht dann der Addition zweier Funktionen
(fA + fB )(x). Und die Multplikation von Matrizen A ◦ B entspricht der Verkettung
von Funktionen fA (fB (x)). Die Invertierung einer Matrix entspricht dem Auffinden einer Umkehrabildung f −1 .
Die Komponenten der Matrix sind dabei abhängig von der gewählten Basis des Vektorraums. Darum interessiert man sich für Eigenschaften von Matrizen die unabhängig
sind von der gewählten Basis, die Determinante und die Spur. Auch von Interesse ist
die Frage, in welcher Basis die Matrix eine besonders einfache Form hat, was uns zur
Diagonalisierbarkeit führen wird.
Um dies in der Sprache der Linearen Algebra zu untersuchen brauchen wir erst einmal
das passende Vokabular. Wir werden erst einmal neue Begriffe einführen um klar sagen
zu können was wir meinen.
Im Folgenden sei K ein Körper (siehe Definition 2.3).
Definition 10.1 (Matrix)
Eine m × n Matrix über K ist ein rechteckiges Schema A mit Einträgen aus K


a11 a12 · · · a1n
 a12 a22 · · · a2n 


A =  ..
..
..  .
 .
.
. 
am1 am2 · · · amn
64
Oft verwenden wir auch die Schreibweise
A = (aij ) .
Definition 10.2
Die Menge aller m × n Matrizen über K wird mit
Mat (m × n, K) ,
bezeichnet.
Ist m = n, spricht man von quadratischen Matrizen und schreibt kurz
Mat (n × n, K) = Mat (n, K) .
Definition 10.3
Ist A eine m × n Matrix, dann bezeichnen wir
ai = (ai1 , . . . , ain ) ,
als den i-ten Zeilenvektor von A. Wir bezeichnen


a1j


aj :=  ...  ,
amj
als den j-ten Spaltenvektor von A.
Definition 10.4
Ist A = (aij ) ∈ Mat (m × n, K), so heißt

a11
a12

At :=  ..
 .
a1n
die Matrix

a21 · · · am1
a22 · · · am2 

..
..  ,
.
. 
a2n · · · amn
die Transponierte, oder transponierte Matrix von A. Für At = (a′ij ) gilt a′ij = aji .
Manchmal findet man auch AT anstatt At .
Fasst man t als Abbildung auf so gilt
t
: Mat(m × n, K) → Mat(n × m, K) : A 7→ At .
Definition 10.5
Sei A = (aij ) ∈ Mat(n, K). Die Einträge aii nennt man die Hauptdiagonaleinträge
( Hauptdiagonale), von A.
65
“Bildlich gesprochen ist das Transponieren eine Spiegelung an der Hauptdiagonalen.”
Beispiel 10.1
a) Sei
A ∈ Mat(2 × 3, R) =
dann ist
b) Sei
!
1 2 3
,
4 5 6


1 4


At ∈ Mat(3 × 2, R) = 2 5
3 6
!
B ∈ Mat(2, R) =
7 8
9 10
B t ∈ Mat(n, R) =
!
7 9
.
8 10
dann ist
,
Lemma 10.1
Eigenschaften der Transposition.
Seien A, B ∈ Mat(n, K), dann gilt
a) (A · B)t = B t · At
b) (At )t = A
Anmerkung 10.1
Vektoren im Kn sind Elemente der Menge Mat(n × 1, K).
Wir definieren folgende Rechenoperationen.
Definition 10.6
Sei A = (aij ), B = (bij ) ∈ Mat(m × n, K). Wir definieren die Matrixaddition +, wie
folgt
+ : Mat(m × n, K) × Mat(m × n, K) → Mat(m × n, K) : (A, B) 7→ A + B ,
mit

a11 + b11
 a21 + b21

A + B := (aij + bij ) = 
..

.
a12 + b12
a22 + b22
..
.
···
···
a1n + b1n
a2n + b2n
..
.
am1 + bm1 am2 + bm2 · · · amn + bmn
Die Addition ist komponentenweise definiert.
66



 .

Beispiel 10.2
Addition zweier!Matrizen.
Sei A =
1 2
3 4
und B =
!
8 9
, dann ist
5 6
A+B =
!
1+8 2+9
=
3+5 4+6
9 11
8 10
!
.
Lemma 10.2
Das Tupel Mat(m × n, K), + bildet eine abelsche Gruppe.
Definition 10.7
Sei A = (aij ) ∈ Mat(m × n, K) und λ ∈ K. Wir definieren folgende Multiplikation
· : K × Mat(m × n, K) → Mat(m × n, K) : (λ, A) 7→ λ · A ,
mit


λa11 · · · λa1n

..  .
λ · A := (λaij ) =  ...
. 
λam1 · · · λamn
Jede Komponente von A wird mit λ multipliziert.
Beispiel 10.3
Multiplikation einer Matrix
mit einem Skalar.
!
1 2
Sei λ = 3, A =
, dann ist
3 4
λ·A=
3·1 3·2
3·3 3·4
!
=
!
3 6
.
9 12
Wir definieren die Multiplikation zweier Matrizen.
Definition 10.8 (Matrixmultiplikation)
Sei A = (aij ) ∈ Mat(m × n, K) und B = (bij ) ∈ Mat(n × p, K), das heißt A hat genau
so viele Spalten, wie B Zeilen hat. Dann definieren wir die Abbildung
◦ : Mat(m × n, K) × Mat(n × p, K) → Mat(m × p, K) : (A, B) 7→ A ◦ B ,
mit
A ◦ B = C = (cij ) ∈ Mat(m × p, K) und cik =
n
X
aij bjk .
j=1
Dabei ist cik der Eintrag in der i-ten Zeile und k-ten Spalte von C.
67
Eine andere Sichtweise ist: cik ist das Skalarprodukt der i-ten Zeile von A, ai , und der
k-ten Spalte von B, bk .
cik = ai · bk .
Beispiel 10.4
Multiplikation von Matrizen.
a) Sei Mat(2 × 3, R) ∋ A =
1 2 5
3 4 6
!
gilt
A◦B =

7 8


und Mat(3 × 2, R) ∋ B =  9 10, dann
11 12

!
1 · 7 + 2 · 9 + 5 · 11 1 · 8 + 2 · 10 + 5 · 12
=
3 · 7 + 4 · 9 + 6 · 11 3 · 8 + 4 · 10 + 6 · 12
b) Sei Mat(2, R) ∋ A =
!
1 4
und Mat(2, R) ∋ B =
7 10
A◦B =
!
1 · 2 + 4 · 5 1 · 8 + 4 · 11
7 · 2 + 10 · 5 7 · 8 + 10 · 11
!
80 88
.
123 136
!
2 5
, dann gilt
8 11
=
!
13 52
64 166
.
c) Anwendung einer Matrix!auf einer Vektor ist “nur” eine Matrixmultiplikation.
Sei
!
a b
x
Mat(2, R) ∋ A =
und Mat(2 × 1, R) = R2 ∋ x =
, dann gilt
c d
y
A◦x=
ax + by
cx + dy
!
∈ Mat(2 × 1, R) = R2 .
Notation 10.1
Wir schreiben oft verkürzend
a) λA anstatt λ · A
b) AB anstatt A ◦ B
Lemma 10.3
Es gelten folgende Rechenregeln.
a) Seien x, y ∈ Kn , A, B ∈ Mat(m × n, K), C ∈ Mat(n × p, K) und λ ∈ K, dann gilt
i) A(x + y) = Ax + Ay
ii) A(λx) = λAx
68
b) Die Matrixmultiplikation ist assoziativ, d.h. für A ∈ Mat(m × n, K), B ∈ Mat(n ×
p, K) und C ∈ Mat(p × q, K) gilt
A ◦ (B ◦ C) = (A ◦ B) ◦ C .
c) Sind A, B ∈ Mat(m × n, K) und C, D ∈ Mat(n × p, K), dann gelten die Distributivgesetze
i) A ◦ (C + D) = A ◦ C + A ◦ D
ii) (A + B) ◦ C = A ◦ C + B ◦ C
In [Kor07] wird das dyadische Produkt verwendet im Zusammenhang mit dem Trägheitstensor. Dieses Produkt erscheint auf den ersten Blick etwas seltsam. Wir werden es
erst definieren und es dann mit den Mitteln der Matrixmultiplikation neu interpretieren,
was es hoffentlich etwas weniger mysteriös erscheinen lässt.
Definition 10.9
Das dyadische Produkt ⊗ ist eine Abbildung
⊗ : Km × Kn → Km×n : (x, y) 7→ x ⊗ y ,
die definiert ist als
x ⊗ y = C = (cij ) ,
mit
cij = xi yj .
Eine alternative Sichtweise auf das dyadische Produkt ist die Folgende.
Anmerkung 10.2
Betrachtet man ⊗ als eine Abbildung von Matrizen, so kann man es wie folgt interpretieren:
⊗ : Mat(m × 1, K) × Mat(n × 1, K) → Mat(m × n, K) : (x, y) 7→ x ◦ y t ,
dann ist es nichts weiter als ein Produkt von Matrizen:


 
x1 y1 x1 y2 · · · x1 yn
x1
 x2 y1 x2 y2 · · · x2 yn 


 .. 
t
x ⊗ y = x ◦ y =  .  ◦ y1 , . . . , yn =  ..
..  .
..
 .
. 
.
xm
xm y1 xm y2 · · · xm yn
Beispiel 10.5
Dyadisches Produkt.
69
a) Sei x =
1
2
!
 
3
 
und y = 4, dann gilt
5
1
2
x ⊗ y = x ◦ yt =
b) Sei x =
1
2
!
und y =
!
◦ 3 4 5 =
!
3 4 5
.
6 8 10
!
3
, dann gilt
3
t
x⊗y = x◦y =
1
2
!
70
◦ 3 4 =
3 4
6 8
!
.
HINWEIS
Im Folgenden beschränken wir uns auf quadratische Matrizen, das heißt auf Elemente
von Mat(n × n, K) = Mat(n, K).
Bezüglich der Multiplikation quadratischer Matrizen existiert ein neutrales Element,
die Einheitsmatrix.
Definition 10.10 (Einheitsmatrix)
Die Matrix 1n ∈ Mat(n, K) mit

1
0

1n :=  ..
.
0

0
0

..  ,
.
0 ···
1 ···
.. . .
.
.
0 ···
1
das heißt 1n = (δij ), nennen wir Einheitsmatrix.
Lemma 10.4
Das Tupel Mat(n, K), ◦ bildet ein Monoid. Das heißt eine Gruppe in der nicht zu jedem
x ∈ Mat(n, K) ein Inverses x′ ∈ Mat(n, K) existiert mit xx′ = 1n .
Lemma 10.5
Die Matrixmultiplikation ist im Allgemeinen nicht kommutativ. Das heißt im Allgemeinen gilt für A, B ∈ Mat(n, K)
AB 6= BA .
Beispiel 10.6
Im Allgemeinen! kommutieren zwei
! Matrizen nicht.
1 2
1 1
Sei A =
und B =
, dann gilt
1 1
2 1
AB =
!
5 3
6=
3 2
2 3
3 5
!
= BA .
Definition 10.11
Eine Matrix A ∈ Mat(n, K) heißt invertierbar, oder regulär, falls es eine Matrix B ∈
Mat(n, K) gibt, mit
BA = AB = 1n .
!
!
Beispiel 10.7
1 2
−1 2
Invertierbare Matrizen. Sei A =
und B =
, dann gilt
1 1
1 −1
AB = BA =
1 0
0 1
71
!
= 1n .
Notation 10.2
Sei A ∈ Mat(n, K), dann bezeichnen wir die inverse Matrix mit A−1 .
AA−1 = A−1 A = 1n .
Definition 10.12
Die Menge
Gln (K) = Gl(n, K) := A ∈ Mat(n, K)| A ist invertierbar ,
der invertierbaren Matrizen heißt allgemeine lineare Gruppe. (Engl.: General linear
group)
Satz 10.1
Das Tupel (Gln (K), ◦) bildet eine Gruppe mit neutralem Element 1n .
Lemma 10.6
Seien A, B ∈ Gl(n, K), dann gilt
(AB)−1 = B −1 A−1 .
Definition 10.13
Die Spur einer Matrix A = (aij ) ∈ Mat(n, K) ist eine Abbildung
Spur : Mat(n, K) → K : A 7→ Spur(A) ,
mit
Spur(A) :=
n
X
aii .
i=1
“Die Spur ist die Summe der Einträge auf der Hauptdiagonalen.”
Beispiel 10.8
Spur einer Matrix.
!
Sei A =
2 7
, dann gilt
4 3
Spur(A) = 2 + 3 = 5 .
Lemma 10.7
Eigenschaften der Spur. Sei A ∈ Mat(n, K) und B ∈ Gln (K), dann gilt
a) Spur(AB) = Spur(BA)
b) Spur(A) = Spur(B −1 AB)
72
10.1 Determinante
Die Determinante ist eine der Kenngrößen einer Matrix, die invariant sind unter Basiswechsel. Sie erlaubt außerdem direkt zu erkennen ob eine Matrix invertierbar ist. In
diesem Abschnitt geben wir die formelle Definition der Determinante und ihre wichtigsten Eigenschaften. Im Kapitel Determinantenberechnung werden Wege vorgestellt die
Determinante effektiv zu berechnen.
Um die formelle Definition verstehen zu können, ist etwas Vorarbeit notwendig. Dies
ist nur der Vollständigkeit halber enthalten und kann übersprungen werden.
Definition 10.14
Die Menge der bijektiven Abbildungen f von einer Menge M nach M
S(M) := f : M → M | f ist bijektiv ,
zusammen mit ◦, der Verknüpfung von Abbildung, bildet die symmetrische Gruppe
(S(M), ◦).
Betrachten wir nun endliche Mengen M = {x1 , . . . , xn }, mit n Elementen, dann können wir diese Mengen bijektiv auf die Menge N = {1, . . . , n} abbilden. Daher betrachten
wir im Folgenden lediglich die Menge
Sn = S {1, . . . , n} .
Definition 10.15
Ein Element σ ∈ Sn heißt Permutation.
Man kann die Wirkung von σ durch folgendes Schema angeben
!
1
2
··· n
,
σ(1) σ(2) · · · σ(n)
oder, falls es sich um irgendeine Anordnung der Zahlen von 1 bis n handelt
!
y1
y2
· · · yn
.
σ(y1 ) σ(y2 ) · · · σ(yn )
Beispiel 10.9
Beispiel für eine Permutation
σ1 :=
1 2 3 4
2 1 4 3
das heißt σ1 bildet 1 auf 2 ab, 2 auf 1, etc.
73
!
,
Definition 10.16
Eine Permutation, die lediglich zwei Zahlen, i und j, miteinander vertauscht, die übrigen
aber unverändert lässt, heißt Transposition. Man schreibt τ (ij).
Beispiel 10.10
Beispiel für eine Transposition
τ (13) :=
1 2 3 4
3 2 1 4
!
.
Lemma 10.8
Jede Permutation in Sn , n ≥ 2, ist als Komposition von höchstens n Transpositionen
darstellbar.
Korollar 10.1
Jede Permutation lässt sich als Produkt von Transpositionen zweier aufeinanderfolgender
Zahlen schreiben. Diese Darstellung ist jedoch nicht eindeutig.
Definition 10.17
Sei σ ∈ Sn gegeben.
a) Ein Zahlenpaar (i, j) mit 1 ≤ i, j ≤ n heißt Fehlstand von σ, falls i < j, aber
σ(i) > σ(j).
b) Das Vorzeichen oder Signum von σ wird definiert als
(
+1, falls σ eine gerade Anzahl von Fehlständen besitzt
sgn(σ)
−1, falls σ eine ungerade Anzahl von Fehlständen besitzt.
Beispiel 10.11
Die Permutation
σ=
1 2 3 4
2 1 4 3
!
,
hat die Fehlstände (1, 2) und (3, 4), also gilt sgn(σ) = 1.
Satz 10.2
Ist σ = τ1 ◦ · · · ◦ τk ∈ Sn eine Komposition von k Transpositionen, dann gilt
sgn(σ) = (−1)k .
“Man zählt wie oft man zwei Zahlen vertauschen muss, um die Permutation σ zu
erhalten.”
74
Definition 10.18
Die Determinante ist eine Abbildung
det : Mat(n, K) → K : A 7→ det A ,
mit
det A = |A| :=
X
sgn(σ)a1σ(1) . . . anσ(n) .
σ∈Sn
Anmerkung 10.3
Diese Definition ist für praktische Berechnungen nicht wirklich sinnvoll. Die Anzahl
der Terme in der Summe nimmt rapide zu. Sie bietet jedoch eine gute Grundlage um
Eigenschaften der Determinante zu beweisen. Für praktische Wege zur Determinantenberechnung, siehe das spätere Kapitel dazu.
Lemma 10.9
Eigenschaften der Determinantenfunktion. Seien A, B ∈ Mat(n, K), λ ∈ K.
a) det A = det At
b) det(A−1 ) = (det A)−1 =
1
,
det A
falls det A 6= 0
c) det(AB) = det(A) · det(B)
d) det(λA) = λn det A
e) det 1n = 1
Lemma 10.10
Sei A ∈ Mat(n, K). Aus den Eigenschaften der Determinantenfunktion folgt die Bedingung für Invertierbarkeit, d.h. ob eine Matrix A−1 existiert, mit AA−1 = A−1 A = 1.
Folgende Aussagen sind äquivalent
a) A ist invertierbar.
b) det A 6= 0.
Die Bedingung det A 6= 0 ist notwendig und hinreichend.
Beweis Wir beweisen, dass aus invertierbar folgt, dass det A 6= 0 sein muss.
Wir nehmen an A sei invertierbar und det A = 0. Nach den Eigenschaften der Determinante und der Inversen gilt
1 = det 1 = det(AA−1 ) = det(A) · det(A−1 ) = 0 · det(A−1 ) 6= 1
,
damit folgt: Ist A invertierbar muss det A 6= 0 sein.
Lemma 10.11
Weitere Eigenschaften der Determinantenfunktion. Sei A ∈ Mat(n, K) und λ ∈ K.
75
a) Bei Vertauschung zweier Spalten/Zeilen von A ändert sich das Vorzeichen von
det A.
b) Bei Multiplikation einer Spalte/Zeile von A mit λ multipliziert sich det A mit λ.
c) Bei Addition des λ-fachen einer Spalte/Zeile zu einer anderen Spalte/Zeile ändert
sich det A nicht.
d) Sind zwei Spalten/Zeilen von A linear abhängig, so ist det A = 0.
1
e) Ist eine Spalte/Zeile von A gleich Null, d.h. alle Einträge in der Spalte/Zeile sind
Null, dann ist det A = 0.
Anmerkung 10.4
Damit bietet die Determinantenfunktion eine Möglichkeit Vektoren auf lineare Abhängigkeit zu prüfen.
Seien vi ∈ Kn und i ∈ {1, . . . , n}, dann berechne man det (v1 , . . . , vn ), die Determinante der Matrix, die die vi als Spalten hat. Ist die Determinante gleich Null, dann sind
die Vektoren linear abhängig.
Lemma 10.12
Die Determinantenfunktion ist linear in jeder Spalte/Zeile. Sei A ∈ Mat(n, K), 1 ≤ i ≤
n, λ, µ ∈ K.
det(a1 , . . . , λai + µbi , . . . , an ) = λ det(a1 , . . . , ai , . . . , an ) + µ det(a1 , . . . , bi , . . . , an ) .
10.2 Eigenwerte und Eigenvektoren
Um die Begriffe so allgemein wie möglich zu halten betrachten wir, wo möglich, Matrizen
über einem Körper K. Wo es unterschiede zwischen K = R und K = C gibt, werden wir
gesondert darauf hinweisen.
Definition 10.19
Sei A ∈ Mat(n, K), v ∈ Kn \ {0} und λ ∈ K.
a) λ heißt Eigenwert von A, falls es ein v gibt, so dass
Av = λv ,
gilt.
b) v, mit Av = λv, heißt dann Eigenvektor zum Eigenwert λ.
1
Rang definieren
76
c) Die Menge
σ(A) := λ ∈ K | λ ist Eigenwert von A ,
die Menge der Eigenwerte von A, heißt das Spektrum von A.
Beispiel 10.12
Beispiel einfügen
Anschaulich bedeuten Eigenwert und Eigenvektor dass sich A in Richtung des Eigenvektors vi nur durch Multiplikation mit λi auswirkt. Im Rn entspricht dies einer
Streckung. Im Cn ist entspricht die Multiplikation mit einer komplexen Zahl λi einer
Drehstreckung.
10.2.1 Bestimmung von Eigenwerten
Lemma 10.13
Sei A ∈ Mat(n, K) und λ ∈ K. Damit λ ein Eigenwert von A ist, muss es die Bedingung
det(A − λ1) = 0 ,
erfüllen.
Beweis Aus der Definition des Eigenwertes folgt Av = λv, stellt man diese Gleichung
um, erhält man (A − λ1n ) v = 0. Außerdem gilt, ist v ein Eigenvektor, so ist auch βv,
β ∈ K, ein Eigenvektor. Denn (A − λ1) βv = β (A − λ1) v = β · 0 = 0. Das heißt
(A − λ1) bildet alle Vektoren der Form βv auf die Null ab. Damit folgt, dass (A − λ1)
nicht invertierbar ist, da die Null mehr als ein Urbild hat. Aus nicht invertierbar folgt
det(A − λ1) = 0. Die Eigenwerte erfüllen diese Gleichung.
Die Determinante von A − λ1 ist ein Polynom n-ten Grades in der Variablen λ.
Definition 10.20
Sei A ∈ Mat(n, K). Das Polynom
χA := det (A − λ1n ) ,
heißt charakteristisches Polynom von A.
Anmerkung 10.5
Eine Matrix A ∈ Mat(n, K) muss keine Eigenwerte haben.
Beispiel 10.13
Wir betrachten eine Drehung um den Ursprung im R2 . Die Drehmatrix A ∈ Mat(n, R),
mit
!
cos α − sin α
A=
,
sin α cos α
77
hat nur für bestimmte Werte von α Eigenwerte die in R liegen. Die Nullstellen des
charakteristischen Polynoms
χA = λ2 − 2λ cos α + 1 .
sind
λ± = cos α ± i sin α .
Wobei i die imaginäre Einheit ist, mit i2 = −1. Die λ± sind nur für α = 0 und α = π
Elemente von R.
Lemma 10.14
Eigenschaften der Eigenwerte. Sei A ∈ Mat(n, C), da in C garantiert ist, dass die Eigenwerte existieren. Alternativ gilt die Aussage auch für B ∈ Mat(n, R), wenn alle
Eigenwerte von B in R liegen.
a) Die Summe der Eigenwerte ist gleich der Spur von A.
Spur(A) =
n
X
λi .
i=1
b) Das Produkt der Eigenwerte ist gleich der Determinante von A.
det A =
n
Y
λi .
i=1
Beispiel 10.14
Eigenschaften der Eigenwerte.
!
2 −1
a) Sei A =
. Das charakteristische Polynom lautet
−1 2
χA = (2 − λ)2 − 1 ,
und hat die Nullstelen
λ1 = 1
λ2 = 3 .
Es gilt
Spur(A) = 2 + 2 = 1 + 3 =
X
det A = 4 − 1 = 3 = 1 · 3 =
78
λi
Y
λi .
b) Sei B =
!
1 7
. Das charakteristische Polynom lautet
0 1
χB = (1 − λ)2 ,
mit der zweifachen Nullstelle λ = λ1 = λ2 = 1. Es gilt
X
Spur(B) = 1 + 1 = 2 =
λi
Y
det B = 1 · 1 = 1 =
λi .
Definition 10.21
Sei A ∈ Mat(n, K). Man nennt A symmetrisch, wenn gilt
A = At .
Satz 10.3
Ist A ∈ Mat(n, R) eine symmetrische Matrix, dann sind die Eigenwerte von A reell, d.h.
λi ∈ R.
Lemma 10.15
a) Sei A ∈ Mat(n, K), dann gilt: Eigenvektoren zu verschiedenen Eigenwerten sind
linear unabhängig.
b) Sei A ∈ Mat(n, R) symmetrisch, dann gilt: Die Eigenvektoren zu verschiedenen
Eigenwerten sind orthogonal.
λi 6= λj ⇒ vi · vj = 0 .
10.3 Diagonalisierung
Sei in diesem Abschnitt A ∈ Mat(n, C), λj , j ∈ {1, . . . , n} die n verschiedenen Eigenwerte von A, d.h. j 6= ℓ ⇒ λj 6= λℓ . Damit beschränken wir uns auf einen Spezialfall,
denn im Allgemeinen ist nicht ausgeschlossen dass ein, oder mehrere Eigenwerte gleich
sind, d.h. eine Vielfachheit > 1 haben.
In diesem Fall haben wir n linear unabhängige Eigenvektoren von A. Damit können
wir die Diagonalisierungsmatrix bilden.
Definition 10.22
Seien vj , j ∈ {1, . . . , n} die n verschiedenen, linear unabhängigen, Eigenvektoren von
A ∈ Mat(n, C). Dann definieren wir die Diagonalisierungsmatrix Q ∈ Mat(n, C) als
Q = (v1 , v2 , . . . , vn ) .
Die Eigenvektoren vj von A bilden die Spalten von Q.
79
Definition 10.23
Sei A = (aij ) ∈ Mat(n, K), λj ∈ K, j ∈ {1, . . . , n}. Wir nennen A eine Diagonalmatrix,
wenn gilt
A = (aij ) = (δij λj ) .
A hat nur Einträge auf der Hauptdiagonalen.

λ1

λ2

A=
..

.

λn
Mit der Matrix Q gilt dann


 .

AQ = QAdiag ,
wobei Adiag eine Diagonalmatrix ist, mit den Eigenwerten von A auf der Diagonalen.
Beispiel 10.15
Wir verdeutlichen!den Zusammenhang!zwischen A und Q an einem Beispiel.
a1 a2
q1 q2
Sei A =
und Q =
, mit den Eigenvektoren v1 = (q1 , q3 )t und v2 =
a3 a4
q3 q4
!
λ1 0
(q2 , q4 ). Die Matrix Adiag =
. Dann ist
0 λ2
AQ =
a1 q1 + a2 q3 a1 q2 + a2 q4
a3 q1 + a4 q3 a3 q2 + a4 q4
!
.
!
a1 q2 + a2 q3
Aber
= A · v1 = λ1 v1 . Analog gilt für die zweite Spalte von AQ, dass sie
a3 q1 + a4 q3
identisch ist mit A · v2 = λ2 v2 . Damit gilt
!
λ1 q1 λ2 q2
AQ =
= QAdiag .
λ1 q3 λ2 q4
Die Spalten von Q sind die vj , die linear unabhängig sind, damit ist die Determinante
von Q ungleich Null, det Q 6= 0. Damit existiert die inverse Matrix Q−1 und wir können
umformen
AQ = QAdiag
|Q−1 ·
Q−1 AQ = Adiag
|Q·, ·Q−1
A = QAdiag Q−1 .
80
Definition 10.24
Die Matrix A ∈ Mat(n, K) heißt diagonalisierbar, wenn es eine Matrix Q ∈ Gl(n, K)
gibt, so dass
Q−1 AQ ,
eine Diagonalmatrix ist.
Satz 10.4
Sei A ∈ Mat(n, K) und besitze A n paarweise verschiedene Eigenwerte, dann ist A
diagonalisierbar.
Lemma 10.16
Ist A ∈ Mat(n, K) diagonalisierbar, dann besitzt Kn eine Basis aus Eigenvektoren von
A.
Beispiel 10.16
Betrachten wir ein Beispiel für die Diagonalisierung einer Matrix das die Abfolge von
Arbeitschritten zeigt um die Eigenwerte und Eigenvektoren zu bestimmen und anschließend die Transformationsmatrix um die Matrix zu diagonalisieren. Man beachte jedoch,
dass nicht jede!Matrix diagonalisierbar ist.
1 3
.
Sei A =
0 2
a) Bestimme die Eigenwerte von A.
i) Charakteristisches Polynom χA = det(A − λ1) bestimmen.
!
1−λ
3
χa = det
= (1 − λ)(2 − λ) .
0
2−λ
ii) Nullstellen von χA bestimmen.
λ1 = 1
iii) Probe: Gilt Spur(A) =
P
λ2 = 2
λi und det A =
Q
λi ?
b) Bestimme die Eigenvektoren von A zu den Eigenwerten λi . Löse dazu das Gleichungsystem (A − λi 1)vi = 0.
• λ1 = 1
(A − 1 · 1)v1 =
0 3
0 1
!
x
y
!
=
!
0
,
0
also ist y = 0 und x beliebig, wir wählen x = 1, womit folgt
!
1
v1 =
.
0
81
• λ2 = 2
−1 3
0 0
(A − 2 · 1)v2 =
!
!
x
=
y
0
0
!
,
womit folgt x = 3y, wir wählen y = 1 und erhalten
!
3
v2 =
.
1
c) Bestimme die Diagonalisierungsmatrizen Q und Q−1 .
i) Q hat als Spalten die Eigenvektoren von A, Q = (v1 , . . . , vn ).
!
1 3
Q=
.
0 1
ii) Invertiere Q um Q−1 zu erhalten.
Q−1 =
1 −3
0 1
!
.
d) Bestimme Adiag = Q−1 AQ
Adiag = Q−1 AQ =
1 −3
0 1
!
1 3
0 1
!
1 3
0 1
!
=
1 0
0 2
!
=
λ1 0
0 λ2
!
.
Definition 10.25 (Algebra)
Eine Algebra A über einem Körper K ist ein Vektorraum, in dem zusätzlich eine distributive und assoziative Multiplikation erklärt ist. Das heißt, wir haben die Abblildung
· : A × A → A : (a, b) 7→ a · b ,
mit den folgenden Eigenschaften ∀a, b, c ∈ A, α, β ∈ K
a)
(αa + βb)c = α(ac) + β(bc)
c(αa + βb) = α(ca) + β(cb)
b) a(bc) = (ab)c
82
10.4 Drehmatrizen
Definition 10.26
Wir definieren die Orthogonale Gruppe als die Menge
n
o
t
O(n) := A ∈ Mat(n, R) | A A = 1n .
Definition 10.27
Wir definieren die Spezielle Orthogonale Gruppe als die Menge
SO(n) := A ∈ O(n) | det A = 1 .
Definition 10.28
Drehungen im R3 sind Elemente der SO(3).
Beispiel 10.17
Drehung um die x-Achse um den Winkel α.

  

x
x
1
0
0

  

D · v = 0 cos α − sin α y  = y cos α − z sin α .
y sin α + z cos α
z
0 sin α cos α
Weiterhin gilt
a) det D = cos2 α + sin2 α = 1



1
0
0
1
0
0



b) D t D = 0 cos α sin α  0 cos α − sin α = 13 .
0 sin α cos α
0 − sin α cos α
Satz 10.5
Drehungen erhalten das Skalarprodukt.
Beweis Seien x, y ∈ Rn , D ∈ SO(n). Wir betrachten wir das kanonische Skalarprodukt.
x·y =
n
X
xi yi ,
i=1
das man auch als Matrixmultiplikation interpretieren kann
 
y1
n
 ..  X
t
xi yi .
x · y = x · y = (x1 , . . . , xn ) ·  .  =
i=1
yn
Damit gilt für die gedrehten Vektoren x′ = Dx und y ′ = Dy
x′ · y ′ = (Dx)t (Dy) = xt D t Dy = xt 1y = xt y = x · y .
83
Anmerkung 10.6
Manchmal liest man im Kontext von Drehungen, dass die Zeilen der Drehmatrix paarweise orthogonal sind. Das heißt, wenn di die Zeilen der Drehmatrix D ∈ SO(n) sind,
dass gilt
di · (dj )t = δij .
Aber di · (dj )t ist nichts anderes als das Skalarprodukt der i-ten Zeile von D mit der j-ten
Zeile von D t . Daher heißt paarweise Orthogonalität der Zeilen, nichts anderes als
DD t = 1 .
Anmerkung 10.7
Beim Trägheitstensor I spricht man von Haupträgheitsachsen und Hauptträgheitsmomenten. Dabei sind die Hauptträgheitsmomente die Eigenwerte von I und die Hauptträgheitsachsen die Eigenvektoren von I.
10.5 Matrixfunktionen
Betrachte skalare Funktion
84
11 Bestimmung der inversen
Matrix
Sei im Folgenden A ∈ Gl(n), also eine invertierbare quadratische Matrix. Da A invertierbar ist gilt det A 6= 0.
Dieses Kapitel stellt Methoden vor, wie man die inverse Matrix A−1 zu einer gegebenen Matrix A bestimmen kann. Beide Methoden sind anwendbar für Matrizen belieber
Dimension n über einem Körper K.
Die erste Methode ist etwas formeller als die zweite, doch für “kleine” Matrizen, n ≤ 4,
sollten sie keinen großen Unterschied in der Bearbeitung von Hand machen.
11.1 Methode 1 - Adjunkte
Für diese Methode berechnet man die inverse durch verwenden einer Formel. Die Formel
ist für quadratische Matrizen mit n ≥ 2 anwendbar. Doch bevor wir sie angeben können,
müssen wir erste einige Begriffe definieren.
Definition 11.1
Sei A ∈ Mat(n, K), n ≥ 2 und 1 ≤ i, j ≤ n. Wir nennen die Matrix die aus A durch das
Streichen der j-ten Zeile und der i-ten Spalte entsteht die Streichungmatrix Aji .


a11 · · · a1 i−1
a1 i+1 · · · a1 n
 ..
.. 
..
..
 .
. 
.
.


aj−1 1 · · · aj−1 i−1
aj−1 i+1 · · · aj−1 n 


 .
Aji = 



aj+1 1 · · · aj+1 i−1
a
·
·
·
a
j+1
i+1
j+1
n


 ..
.. 
..
..
 .
. 
.
.
an
Beispiel 11.1
Betrachten wir die Matrix
1
···
an
i−1
an
i+1


1 2 3


A = 4 5 7  .
8 9 10
85
···
an
n
Damit erhalten wir beispielsweise die

1

A11 = 4
8
und
A22
folgenden Streichungsmatrizen:

!
2 3
5 7

5 7=
,
9 10
9 10


1 2 3


= 4 5 7  =
8 9 10
!
1 3
.
8 10
Definition 11.2
Sei A ∈ Mat(n, K), n ≥ 2 und 1 ≤ i, j ≤ n. Wir nennen die Größe
i+j
a#
det(Aji ) ,
ij := (−1)
einen Kofaktor von A.
Beachte die umgedrehte Reihenfolge der Indizes in der Definition.
Die Matrix der Kofaktoren
A# := (a#
ij ) ∈ Mat(n, K) ,
heißt Adjunkte.
Die Adjunkte hat folgende Eigenschaft.
Satz 11.1
Sei A ∈ Mat(n, K), n ≥ 2. Es gilt
A# · A = A · A# = det(A) · 1 .
Damit haben wir alles zusammen um die Inverse einer invertierbaren Matrix zu berechnen.
Korollar 11.1
Sei A ∈ Gl(n), dann ist
1
A−1 =
· A# .
det(A)
Beispiel 11.2
Als Beispiel invertieren die Matrix

1 0 2


A =  3 4 0 .
0 5 6

86
a) Determinante von A berechnen um zu prüfen ob A invertierbar ist, dazu muss
gelten det A 6= 0.
det A = 54 ,
also ist die Matrix invertierbar.
b) Bestimmung der Kofaktoren.
Wir berechnen exemplarisch den Kofaktor a#
12 .
1+2
a#
det A21 = (−1) · det
12 = (−1)
c) Aufstellen der Adjunkten A# .

!
4
0
0
 det
− det

5 6
5

!


3 0
1
A# = 
det
− det 0 6
0

!


1
 det 3 4
− det
0
0 5
!
0 2
5 6
!
2
det
6
!
2
− det
6
!
0
det
5
= 10 .
0
4
1
3
1
3
! 
2 
0 
!

2 
 .
0 
! 

0 

4
Dies ergibt nach der Berechnung der einzelnen Determinanten


24 10 −8


6 .
A# = −18 6
15 −5 4
d) Aufstellen der inversen Matrix A−1 .
A−1 =


24 10 −8
1
1 

−18
6
6 .
A# =

det A
54
15 −5 4
e) Probe.
Methode 2 - Erweiterte Matrix
Bei dieser Methode bildet man die “erweiterte Matrix”.
Definition 11.3
Sei A ∈ Gl(n) und sei 1 die Einheitsmatrix aus Gl(n). Dann nennt man die Matrix
E ∈ Mat(n × 2n), mit
E := A|1 ,
87
die erweiterte Matrix.
Betrachten wir ein Beispiel.
Beispiel 11.3
Sei A ∈ Gl(3), dann ist die erweiterte Matrix

a b

E = A|1 = d e
g h
E gleich

c 1 0 0

f 0 1 0 .
i 0 0 1
Um die Inverse der Matrix A zu bestimmen bringt man A auf die Form der Einheitsmatrix. Unter Verwendung von speziellen Zeilenoperation. Die entsprechenden Operationen
werden dabei auf die erweiterte Matrix E angewendet.
Am Ende hat man eine erweiterte Matrix der Form E = 1|Ã. Die Beispielsweise so
aussieht:


1 0 0 ã b̃ c̃


E = 1|Ã = 0 1 0 d˜ ẽ f˜
0 0 1 g̃ h̃ ĩ
Die inverse Matrix A−1 ist dann gleich Ã
A−1


ã b̃ c̃


= Ã = d˜ ẽ f˜ ,
g̃ h̃ ĩ
Die Einträge von A−1 ergeben sich als Folge der verwendeten Zeilenoperationen.
11.1.1 Zeilenoperationen
Die Zeilenoperationen sind die Umformungen die ich an der Matrix vornehmen darf. Sie
sind im Einzelnen:
a) Multiplikation der i-ten Zeile mit einem Skalar α, mit α 6= 0.
 


..
..
.
 . 
ai  −→ α · ai 
 


..
..
.
.
88
(11.1)
b) Addition der j-ten Zeile von A zur i-ten Zeile.
 


..
..
.
 . 
 ai 
ai + aj 
 


 .. 
 .. 
−→
.
 . 
 


aj 
 aj 
.
 . 
..
..
(11.2)
c) Addition des α-fachen j-ten Zeile von A zur i-ten Zeile.
 


..
..
.
.


 ai 
ai + α · aj 
 


 .. 


..
−→
.


.
 


aj 


a
j
.


..
..
.
(11.3)
d) Vertauschung der i-ten und j-ten Zeile von A.
 
 
..
..
.
.
aj 
 ai 
 
 
 .. 
 .. 
−→
.
.
 
 
 ai 
aj 
.
.
..
..
(11.4)
11.1.2 Beispiel zu Methode 2
Wir betrachten die Matrix


1 2 0


A = 0 2 0
4 0 2
(11.5)

1 2 0 1 0 0


A|E = 0 2 0 0 1 0 .
4 0 2 0 0 1
(11.6)
und bilden die erweiterte Matrix

Nun formen wir mit den erlaubten Zeilenoperation so lange um, bis wir an der A-Position
eine Einheitsmatrix erhalten:
89
a) Addition des (−4)-fachen der ersten Zeile zur dritten Zeile.




1 2 0 1 0 0
1 2 0 1 0 0




0 2 0 0 1 0 III. + (−4) · I. −→ 0 2 0 0 1 0
4 0 2 0 0 1
0 −8 2 −4 0 1
b) Addition des 4-fachen der zweiten Zeile zur dritten Zeile.




1 2 0 1 0 0
1 2 0 1 0 0




III.
+
4
·
II.
0
2
0
0
1
0
−→


0 2 0 0 1 0
0 −8 2 −4 0 1
0 0 2 −4 4 1
c) Addition der

1 2

0 2
0 0
(−1)-fachen der zweiten Zeile zur ersten Zeile.



0 1 0 0
1 0 0 1 −1 0



0 0 1 0 I. + (−1) · II. −→ 0 2 0 0
1 0
2 −4 4 1
0 0 2 −4 4 1
d) Zweite und dritte Zeile mit

1 0 0 1

0 2 0 0
0 0 2 −4
multiplizieren.


−1 0
1 0 0 1 −1
· 1

1 0 2 −→ 0 1 0 0 1/2
0 0 1 −2 2
4 1 · 21
1/2
Damit haben wir die Inverse von A bestimmt, wir

1 −1

−1
A =  0 1/2
−2 2
erhalten

0

0
1/2

0

0
1/2
(11.7)
Diese Methode erfordert nicht das Auswendiglernen einer Formel, sondern erlaubt es
sich den bequemsten Weg zum Ziel zu suchen. Doch je nach den Einträgen der Matrix
kann die Umformung schnell zu Brüchen führen, was die weiteren Rechnungen sehr
Fehleranfällig machen kann.
Welche der beiden Methoden man letzendlich verwendet ist Geschmacksache, da es
im Endeffekt darauf ankommt am Ende die Inverse zu haben, und diesen Job erledigen
beiden Methode. Es empfiehlt sich am Ende die Probe zu machen ob nach der Multiplikation wirklich die Einheitsmatrix herauskommt. Bei beiden kann man sich relativ leicht
verrechnen und eine Probe kostet nicht viel Zeit und verschafft Sicherheit.
90
11.1.3 Methode 2: Warum funktioniert sie?
Man mag sich fragen, wieso Methode zwei die Inverse liefert, schließlich sieht das Verfahren etwas unkonventionell aus. Um den “Beweis” zu führen stellen wir jede der erlaubten
Zeilenoperationen zuerst als Multiplikation von A mit einer sogenannten Elementarmatrix von Links dar. Bevor ich die entsprechenden Elementarmatrizen einführe benötigen
wir noch eine Definition. Die Matrix Eij ist die Matrix, die an der Stelle i, j eine 1 hat
und sonst nur Nullen. Zum Beispiel für 3 × 3 Matrizen.




0 0 0
0 1 0




(11.8)
E12 = 0 0 0 und E33 = 0 0 0 .
0 0 1
0 0 0
Schauen wir uns nun die den Zeilenoperationen entsprechenden Elementarmatrizen (S)
an.
a) Multiplikation der i-ten Zeile mit einem Skalar α, mit α 6= 0.
S = E + (α − 1)Eii
(11.9)
b) Addition der j-ten Zeile von A zur i-ten Zeile.
S = E + Eij
(11.10)
c) Addition des α-fachen j-ten Zeile von A zur i-ten Zeile.
S = E + αEij
(11.11)
d) Vertauschung der i-ten und j-ten Zeile von A.
S = E − Eii − Ejj + Eij + Eji
(11.12)
Hier zwei Beispiele:
a) Vertausche die erste mit der zweiten Zeile. Also i = 1 und j = 2.
S = E − E11 − E22 + E12 + E21
(11.13)

 
 
 
 

0 0 0
0 1 0
0 0 0
1 0 0
1 0 0

 
 
 
 

= 0 1 0 − 0 0 0 − 0 1 0 + 0 0 0 + 1 0 0
0 0 0
0 0 0
0 0 0
0 0 0
0 0 1
(11.14)


0 1 0


= 1 0 0
0 0 1
(11.15)
91
Wir testen den Effekt von S:

 
 

d e f
a b c
0 1 0

 
 

S · A = 1 0 0 · d e f  = a b c 
g h i
g h i
0 0 1
(11.16)
S tut was es soll.
b) Addiere zur 1-ten Zeile von A das 2-fache der der 2-ten Zeile. Also i = 1, j = 2
und α = 2.
!
!
!
1 0
0 1
1 2
S = E + αEij =
+2
=
(11.17)
0 1
0 0
0 1
Wir testen den Effekt von S:
S·A=
1 2
0 1
!
·
!
a b
=
c d
!
a + 2c b + 2d
c
d
(11.18)
S tut was es soll.
Dem Ausführen einer Zeilenoperation entspricht die Multiplikation von A mit einer entsprechenden Elementarmatrix von Links. Mehrere Zeilenoperationen entsprechen einer
Multiplikation mit mehreren Elementarmatrizen, wobei auf die Reihenfolge zu achten
ist. Führt man zum Beispiel 3 Zeilenoperationen aus so entspricht dies:
S3 · S2 · S1 · A ,
(11.19)
wobei S1 der ersten Zeilenoperation entspricht, S2 der zweiten und so weiter. Ist A
invertierbar, kann man A mittels i Zeilenoperationen in die einheitsmatrix E überführen,
die entspricht einer Multiplikation mit i Elementarmatrizen (wobei auf die Reihenfolge
zu achten ist):
Si · Si−1 · · · · · S2 · S1 · A = E .
(11.20)
Multipliziert man dies von Rechts mit dem Inversen von A, von dem wir hier nur wissen
müssen dass es existiert, erhält man
Si · Si−1 · · · · · S2 · S1 · A · A−1 = E · A−1 ,
(11.21)
was unter Berücksichtigung der Eigenschaften von E und A−1 folgendes ergibt:
Si · Si−1 · · · · · S2 · S1 · E = A−1 .
(11.22)
Die Inverse von A ist nichts anderes als das Produkt der Elementarmatrizen (Zeilenoperationen), die man braucht um A in die Einheitsmatrix zu überführen. In unserer
Schreibweise mit der erweiterten Matrix A|E tun wir auf der rechten Seite nichts weiter,
92
als dieses Produkt der Si “abzuspeichern”. Aus diesem Grund steht am Ende, wenn Links
die Einheitsmatrix steht, auf der rechten Seite die Inverse von A.
Anmerkung 11.1
Die Zeilenoperationen 3 und 4 sind Kombinationen aus den Operationen 1 und 2. Operation 3 kann man durch Folgendes ersetzen:
a) Multipliziere die j-te Zeile mit α
b) Addiere die j-te Zeile zur i-ten Zeile
c) Multipliziere die j-te Zeile mit 1/α
Ähnlich kann man Operation 4 durch Folgendes ersetzen:
a) Multipliziere die j-te Zeile mit −1
b) Addiere die j-te Zeile zur i-ten Zeile
c) Multipliziere die j-te Zeile mit −1
d) Addiere die i-te Zeile zur j-ten Zeile
e) Multipliziere die j-te Zeile mit −1
f ) Addiere die j-te Zeile zur i-ten Zeile
g) Multipliziere die j-te Zeile mit −1
h) Multipliziere die i-te Zeile mit −1
Oder anschaulicher für Zeilenoperation 4:
 








..
..
..
..
..
.
 . 
 . 
 . 
 . 
 ai 
 ai 
ai − aj 
ai − aj 
ai − aj 
 








 ..  1.  ..  2.  ..  3.  ..  4.  .. 
.→ . → . → . → . 
 








aj 
−aj 
 −aj 
 aj 
 ai 
.
 . 
 . 
 . 
 . 
..
..
..
..
..
 






..
..
..
..
.
 . 
 . 
 . 
aj 
−aj 
−aj 
ai − aj 
 






8.
7.
6.
5. 
 





→  ...  →  ...  →  ...  →  ... 
 






 ai 
 ai 
 −ai 
 −ai 
.
 . 
 . 
 . 
..
..
..
..
93
(11.23)
(11.24)
12 Determinantenberechnung
Da Determinanten eine wichtige Rolle spielen, sollte zumindest kleinere Matrizen von
Hand berechnen können. Vor allem Matrizen aus Mat(2, K) und Mat(3, K) sollten keine
Herausforderung darstellen.
Zwar gibt die Definition der Determinante gleichzeitig einen Weg sie zu berechnen,
siehe Definition 10.18, doch gerade für größere Matrizen ist dieser Weg viel zu aufwändig.
Im folgenden werden Formeln/Methoden für Matrizen aus Mat(n, K) und Mat(n, K)
vorgestellt. In letzten Abschnitt wird das Verfahren der Determinantenentwicklung gezeigt, das einen flexiblen Weg bietet die Determinanten auch größerer Matrizen zu berechnen. Es ist natürlich auch für kleine Matrixen anwendbar.
12.1 Matrizen aus Mat(2, K)
Korollar 12.1
Sei A ∈ Mat(2, K), dann berechnet sich die Determinante wie folgt
!
a b
det A = det
= ad − bc .
c d
Beispiel 12.1
Berechnung der Determinante einer Matrix aus Mat(2, R). Sei A =
!
1 4
= 1 · 5 − 4 · 2 = −3 .
det A = det
2 5
12.2 Matrizen aus Mat(3, K)
Korollar 12.2 (Regel von Sarrus)
Sei A = (aij ) ∈ Mat(3, K)


a11 a12 a13


A = a21 a22 a23  .
a33 a32 a32
94
1 4
2 5
, dann gilt
det A kann man mit der Regel von Sarrus berechnen. Dabei verwendet man folgendes
Schema.

+ + + 
a11 a12 a13 a11 a12


a21 a22 a23  a21 a22
a31 a32 a33 a31 a32
− − −
Entlang der Verbindungslinien werden Produkte der Einträge gebildet. Durchgezogene
Linien werden addiert, gepunktete Linien werden subtrahiert. Man erhält:
det A = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a31 a22 a13 − a32 a23 a11 − a33 a21 a12 .
Anmerkung 12.1
Die Regel von Sarrus gilt nur für 3 × 3 Matrizen und ist damit wesentlich unflexibler
als die Determinantenentwicklung.
12.3 Determinantenentwicklung
Die in den vorherigen Abschnitten genannten Formeln sind nur auf Matrizen der Dimension 2, bzw. 3, anwendbar. Die Determinantenentwicklung ist dagegen ein flexibles
Werkzeug um die Determinanten von Matrizen beliebiger Dimension zu berechnen. Mit
Hilfe der Determinantenentwicklung kann man die Berechnung der Determinante einer
n × n Matrix auf eine Summe von n Determinanten von (n − 1) × (n − 1) Matrizen
zurückführen.
Lemma 12.1 (Determinantenentwicklung)
Sei A ∈ Mat(n, K), und bezeichne Aij , die Streichungsmatrix die aus A hervorgeht wenn
man die i-te Zeile und die j-te Spalte streicht, siehe Definition 11.1. Dann gilt für die
Determinante von A
n
X
det A =
aij · (−1)i+j det(Aij ) ,
j=1
dies entspricht der Entwicklung nach der i-ten Zeile.
Analog gilt
det A =
n
X
i=1
aij · (−1)i+j det(Aij ) ,
was der Entwicklung nach der j-ten Spalte entspricht.
Um das Verfahren anschaulicher zu machen, schauen wir uns zwei Beispiele an.
Beispiel 12.2
Berechne die Determinante von A ∈ Mat(2, K), mit
!
a11 a12
A=
.
a21 a22
95
Wir entwickeln nach der ersten Zeile.
Beginnend mit a11 erhalten wir als ersten Summanden:
a11 · (−1)1+1 det(A11 )
(12.1)
Die Untermatrix A11 erhält man durch streichen der ersten Zeile (i = 1) und der ersten
Spalte (j = 1).
!
a11 a12
= a22
A11 =
a21 a22
Setzen wir diese Matrix nun in (12.1) ein:
a11 · (−1)1+1 det(A11 ) = a11 · det(a22 ) = a11 · a22 .
Der zweite Summand ist
a12 · (−1)1+2 det(A12 )
(12.2)
Die Untermatrix A12 erhält man durch Streichen der ersten Zeile (i = 1) und der zweiten
Spalte (j = 2).
!
a11 a12
A12 =
= a21
a21 a22
Einsetzen in Gleichung (12.2).
a12 · (−1)1+2 det(A12 ) = −a12 · det(a21 ) = −a12 · a21
Bleibt noch das Aufsummieren um die Determinante von A zu bestimmen. Es gilt also:
!
a
a
det A = det 11 12 = a11 · a22 − a12 · a21
a21 a22
Oder wenn man die Einträge anders benennt:
!
a b
det
=a·d−b·c .
c d
Beispiel 12.3
Berechne die Determinante von A ∈ Mat(3, K),

a11 a12

A = a21 a22
a31 a32
Dazu entwicklen wir nach der ersten Zeile.
96
mit

a13

a23  .
a33
Wir beginnen mit a11 und erhalten als ersten Summanden:
a11 · (−1)1+1 det(A11 )
Die Untermatrix A11 erhält man durch Streichen der ersten Zeile (i = 1) und der ersten
Spalte (j = 1).


!
a11 a12 a13
a22 a23


A11 = a21 a22 a23  =
a32 a33
a31 a32 a33
Der erste Summand ist also
a
a
a11 · (−1)1+1 det(A11 ) = a11 · det 22 23
a32 a33
!
= a11 · (a22 a33 − a23 a32 )
Der zweite Summand ist
a12 · (−1)1+2 det(A12 )
Die Untermatrix A12 erhält man durch streichen der ersten Zeile (i = 1) und der zweiten
Spalte (j = 2).


!
a11 a12 a13
a
a


21
23
A12 = a21 a22 a23  =
a31 a33
a31 a32 a33
Der zweite Summand ist also
a
a
a12 · (−1)1+2 det(A12 ) = −a12 det 21 23
a31 a33
!
= −a12 · (a21 a33 − a23 a31 )
Der dritte Summand ist
a13 · (−1)1+3 det(A13 )
Die Untermatrix A13 erhält man durch Streichen der ersten Zeile (i = 1) und der dritten
Spalte (j = 2).


!
a11 a12 a13
a21 a22


A13 = a21 a22 a23  =
a31 a32
a31 a32 a33
Der dritte Summand ist also:
a13 · (−1)
1+3
a
a
det(A13 ) = a13 · det 21 22
a31 a32
97
!
= a13 · (a21 a32 − a22 a31 ) .
Summiert man alle Summanden auf, erhält man:
!
!
!
a22 a23
a21 a23
a21 a22
det A = a11 · det
− a12 det
+ a13 · det
a32 a33
a31 a33
a31 a32
(12.3)
= a11 (a22 a33 − a23 a32 ) − a12 (a21 a33 − a23 a31 ) + a13 (a21 a32 − a22 a31 )
Man hat die Determinante eine 3 × 3 Matrix zurückgeführt auf eine Summe von Determinanten von 2 × 2 Matrizen.
Anmerkung 12.2
Löst man die Klammern in Gleichung (12.3) auf, erhält man wieder die Summanden
der Regel von Sarrus, (Korollar 12.2).
12.3.1 Praxis
In der Praxis entwickelt man nach Möglichkeit nach einer Zeile/Spalte die viele Nullen
enthält. So würde man zum Beispiel die Matrix


1 2 3


A = 0 1 0
4 5 6
nach der zweiten Zeile entwickeln, und erhielte:
1 3
det A = 1 · (−1)2+2 det
4 6
98
!
1 3
= det
4 6
!
13 Komplexe Zahlen
Ähnlich zur Einführung der irrationalen Zahlen, wie z.B.
Form
x2 = 2
√
2, als man Gleichungen der
lösen wollte, stieß man erneut auf Probleme mit der Gleichung:
x2 = −1 .
Sie hat in den rellen Zahlen R keine Lösung. Man erkannte damit, dass R immer noch
nicht ausreichte und erweiterte ihn zu den komplexen Zahlen. Das ist analog zu der
Hinzunahme der Null, der negativen Zahlen, der Brüche und der Wurzeln.
Dieser Kapitel gibt eine Einführung in die komplexen Zahlen, ihre Definition, die
möglichen Operationen und einige ihrer Eigenschaften.
Definition 13.1
Die Menge
C = (z1 , z2 ) | z1 , z2 ∈ R ⊂ R × R ,
d.h., die Menge aller reellen 2-Tupel, bezeichnet man als die Menge der komplexen
Zahlen.
Definition 13.2
Zwei komplexe Zahlen sind gleich, genau dann, wenn ihre Komponenten gleich sind:
(z1 , z2 ) = (w1 , w2 ) ⇔ z1 = w1 und z2 = w2 .
(13.1)
Auf der Menge der komplexen Zahlen definieren wir die folgenden Operationen.
Definition 13.3
Seien (z1 , z2 ), (w1 , w2 ) ∈ C.
Wir definieren die Addition zweier komplexer Zahlen als
+ : C × C → C : (z1 , z2 ), (w1 , w2 ) 7→ (z1 , z2 ) + (w1 , w2 ) ,
mit
(z1 , z2 ) + (w1 , w2) := (z1 + w1 , z2 + w2 ) .
Die Addition ist also komponentenweise definiert, dabei ist die Addition der Komponenten die „normale“ Addition aus dem R.
99
Definition 13.4
Seien (z1 , z2 ), (w1 , w2 ) ∈ C.
Wir definieren die Multiplikation zweier komplexer Zahlen als
· : C × C → C : (z1 , z2 ), (w1 , w2 ) 7→ (z1 , z2 ) · (w1 , w2) ,
mit
(z1 , z2 ) · (w1 , w2 ) := (z1 w1 − z2 w2 , z1 w2 + z2 w1) .
Beachte hier die „Mischung“ der Komponenten. Die Multiplikation der Komponenten ist
wieder die „normale“ Multiplikation aus dem R.
Anmerkung 13.1
Da + und · über die entsprechenden Operationen in R definiert sind, gelten
• Assoziativgesetz
• Distributivgesetz
• Kommutativgesetz
Die Tupel-Darstellung ist allerdings unhandlich, im Folgenden werden wir sie vereinfachen.
Wenn wir uns die Menge C betrachten, fallen Ähnlichkeiten zum R2 auf. C ist aber
etwas anderes als R2 . R2 ist ein Vektorraum über den reellen Zahlen, C ist ein Körper.
Die definierten Operationen sind verschieden.
Dennoch können wir uns die Ähnlichkeiten
zunutze
machen.
Betrachten wir die Menge CR = (z1 , 0)|z1 ∈ R so ist diese isomorph zu R, d.h.,
es existiert eine bijektive, invertierbare Abbildung f zwischen beiden Mengen, die wir
direkt angeben können.
f :CR → R ,
f :R → CR ,
−1
(z1 , 0) 7→ z1
z1 7→ (z1 , 0) .
Die Menge CR “entspricht” der reellen Achse, wir sagen daher (z1 , 0) “entspricht” z1 und
schreiben vereinfacht:
z1 = (z1 , 0)
und
Das heißt auch:
z1 · (w1 , w2 ) := (z1 , 0) · (w1 , w2 ) = (z1 w1 , z1 w2 )
1 = (1, 0).
Desweiteren definieren wir:
i := (0, 1) .
100
Mit diesen Konventionen und den Rechenregeln in C erhalten wir die gesuchte vereinfachte Schreibweise. Führen wir dazu alle Einzelschritte der Reihe nach durch um zu
zeigen, wie man von der Form (z1 , z2 ) auf die vereinfachte Form z1 + iz2 kommt.
(z1 , z2 ) = (z1 , 0) + (0, z2 ) Additionsregel
= (z1 , 0)(1, 0) + (0, 1)(z2 , 0) Multiplikationsregel
= z1 (1, 0) + (0, 1)z2 Identifiziere (zj , 0) mit zj
= z1 + (0, 1)z2 Identifiziere (1, 0) mit 1
= z1 + iz2 Identifiziere (0, 1) mit i .
(13.2)
wir erhalten damit die wesentlich handlichere Darstellung:
(z1 , z2 ) = z1 + iz2
(13.3)
in dieser Darstellung können wir rechnen wie gewohnt, müssen aber beachten dass für
i = (0, 1) gilt:
i2 = i · i = (0, 1)(0, 1) = (−1, 0) =
b −1 ,
(13.4)
gemäß der Multiplikation in C.
Notation 13.1
Eine alternative Schreibweise der komplexen Zahlen, die Rechnungen vereinfachen kann,
ist Folgende
a) 1 := (1, 0)
b) i := (0.1)
Damit ergibt sich
(z1 , z2 ) = z1 + iz2 .
Mit der Definition der komplexen Zahlen haber wir ein Objekt konstruiert, das die
Lösungen zu Gleichungen wie
x2 = −1
beinhaltet.
Im Folgenden werden wir von der Darstellung z = z1 + iz2 ausgehen.
Wir definieren noch folgende Begriffe
Definition 13.5
Sei C ∋ z = z1 + iz2 , wir definieren
a) Den Realteil von z
Re z = Re (z1 + iz2 ) = z1 ∈ R .
b) Den Imaginärteil von z
Im z = Im (z1 + iz2 ) = z2 ∈ R .
101
Anmerkung 13.2
Man kann sich die komplexen Zahlen als eine Ebene, wie den R2 vorstellen. Eine Achse
repräsentiert den Realteil, die andere den Imagninärteil. Dies wird in Abbildung 13.1
gezeigt.
Im
z
Im z = z2
|z |
Re
Re z = z1
Abbildung 13.1: Darstellung einer komplexen Zahl z = z1 + iz2 in der komplexen
Ebene.
Wir schreiben die oben definierten Operationen nun in der angenehmeren Schreibweise. Beachtet man, dass i2 = −1 gilt, kann man in C “ganz normal” rechnen wie in
R.
Definition 13.6
Seien z, w ∈ C mit z = z1 + iz2 und w = w1 + iw2 , mit zi , wi ∈ R. Wir geben nur die
Rechenoperationen in der vereinfachten Schreibweise an.
a) Die Addition +:
z + w = z1 + iz2 + w1 + iw2 = z1 + w1 + i(z2 + w2 ) ,
Realteile werden addiert und Imaginärteile werden addiert.
b) Die Subtraktion − ist die Addition des Inversen bezüglich +.
z − w = z + (−w) = z1 + iz2 − (w1 + iw2 ) = z1 − w1 + i(z2 − w2 ) ,
Realteile werden subtrahiert und Imaginärteile werden subtrahiert.
Anmerkung 13.3
Man kann hier eine anschauliche Parallele zur Vektoraddition im R2 ziehen, wie in
Abbildung 13.2 dargestellt.
Wir definieren die Multiplikation und die Division zweier komplexer Zahlen.
102
Im
z+w
z
w
Re
Abbildung 13.2: Darstellung der Addition zweier komplexer Zahlen z, w. Man beachte
die Analogie zur Addition zweier Vektoren.
Definition 13.7
Seien z, w ∈ C mit z = z1 + iz2 und w = w1 + iw2 , mit zi , wi ∈ R. Wir geben nur die
Rechenoperationen in der vereinfachten Schreibweise an.
a) Multiplikation ·
z · w = (z1 + iz2 ) · (w1 + iw2 ) = z1 w1 + z1 (iw2 ) + (iz2 )w1 + (iz2 )(iw2 )
= (z1 w1 − z2 w2 ) + i(z1 w2 + z2 w1 ) . .
b) Division durch w 6= 0 ist die Multiplikation mit
1
,
w
dem Inversen bezüglich ·:
1
z1 + iz2
z
=z· =
.
w
w
w1 + iw2
(13.5)
Anmerkung 13.4
Geometrisch ist die Multiplikation von z mit w eine Drehstreckung, Drehung und Streckung,
wie in Abbildung 13.3 gezeigt. Es besteht jedoch ein wichtiger Unterschied zum R2 : Dort
ist keine Multiplikation, Vektor · Vektor, definiert die wieder einen Vektor ergibt. Genausowenig gibt es die Division zweier Vektoren.
Eine “neue” Operation auf den komplexen Zahlen ist die komplexe Konjugation.
Definition 13.8
Sei C ∋ z = z1 + iz2 . Wir definieren die komplexe Konjugation, als eine Abbildung
mit
∗
: C → C : z 7→ z ∗ ,
mit
∗
z ∗ = (z1 + iz2 )∗ = z1 − iz2 .
Anmerkung 13.5
Geometrisch kann man die komplexe Konjugation als eine Spiegelung an der reellen
Achse sehen, siehe Abb. 13.4.
103
Im
z·w
z
w
Re
Abbildung 13.3: Darstellung der Multiplikation zweier komplexer Zahlen z, w. Die
geometrische Analogie ist die Verknüpfung einer Drehung mit einer Streckung.
Im
z
Im z = z2
Re
Re z = z1
z∗
Im z ∗ = −z2
Abbildung 13.4: Darstellung der komplexen Konjugation. Dabei wird z = z1 + iz2
abgebildet auf z ∗ = z1 − iz2 . Geometrisch entspricht dieser einer Spiegelung an der
reellen Achse.
104
Notation 13.2
Ebenso gebräuchlich ist die Notation z̄ für z ∗ .
Lemma 13.1
Die komplexe Konjugation hat folgende Eigenschaften:
a) (z ∗ )∗ = z
b) (z + w)∗ = z ∗ + w ∗
c) (zw)∗ = z ∗ w ∗
Als nächstes betrachten wir den Betrag einer komplexen Zahl.
Definition 13.9
Sei C ∋ z = z1 + iz2 . Wir definieren den Betrag einer komplexen Zahl als Abbildung
| · | : C → R : z 7→ |z| ,
mit
q
√
|z| = |z1 + iz2 | := z12 + z22 = zz ∗ .
Anmerkung 13.6
Man beachte die Analogie zum Betrag eines Vektors aus dem R2 .
Nachdem wir nun komplexe Konjugation und den betrag einer komplexen Zahl definiert haben, betrachten wir erneut einen Bruch komplexer Zahlen.
Korollar 13.1
Seien z = z1 + iz2 und w = w1 + iw2 ∈ C. Der Bruch
z
1
z1 + iz2
=z· =
,
w
w
w1 + iw2
lässt sich durch Erweitern mit dem komplex konjugierten Zähler aufspalten in Real- und
Imaginärteil.
Beweis
z
z1 w2 + z2 w1
z1 w1 − z2 w2
z w∗
z1 + iz2 w1 − iw2
+
i
·
= ... =
= · ∗ =
w
w w
w1 + iw2 w1 − iw2
w12 + w22
w12 + w22
Dabei ist ww ∗ = w12 + w22 = |w|2.
Anmerkung 13.7
Während man auf den Reellen Zahlen eine Ordnungsrelation aufstellen kann, in der
Aussagen wie a < b, a, b ∈ R, Sinn ergeben, so ist dies in den komplexen Zahlen nicht
möglich. Man sagt: Die komplexen Zahlen sind nicht geordnet. Die Relationen >, <
machen für z, w ∈ C keinen Sinn.
105
13.1 Polardarstellung komplexer Zahlen
Wie bei kartesischen Koordinaten macht es auch bei den komplexen Zahlen manchmal
Sinn, sie eine andere Darstellung zu verwenden. Es gibt für die den komplexen Zahlen
eine Analogie zu den ebenen Polarkoordinaten, die Polardarstellung.
Bevor wir jedoch damit beginnen, brauchen wir noch eine wichtige Identität, die die
Exponentialfunktion mit einem imaginären Exponenten mit den Winkelfunktionen Cosinus und Sinus verknüpft: Die Euler-Formel.
Satz 13.1
Sei φ ∈ R. Dann gilt die Euler Formel:
eiφ = cos(φ) + i sin(φ) .
Beweis Wir betrachten die Taylor-Reihe von ex mit x = iφ.
eiφ =
∞
X
(iφ)n
n!
n=0
Zerlegen in grades n (n = 2k) und ungerades n (n = 2k + 1)
∞
∞
X
X
(iφ)n
(iφ)n
=
+
n!
n!
n
n
gerade
ungerade
Umschreiben auf Index k
=
∞
X
(iφ)2k
k=0
(2k)!
+
∞
X
(iφ)2k+1
(2k + 1)!
k=0
i2k = i2k = (i2 )k = (−1)k und i2k+1 = ii2k = i(−1)k
∞
X
φ2k+1
φ2k
+i
(−1)k
=
(−1)
(2k)!
(2k + 1)!
k=0
k=0
∞
X
k
dies sind gerade die Reihendarstellungen von Cosinus und Sinus
= cos φ + i sin φ
Verschaffen wir uns die Polardarstellung von C ∋ z = z1 + iz2 . Wie man anhand
Abbildung 13.5 erkennen kann, gilt:
z = z1 + iz2 = |z|(cos φ + i sin φ) ,
106
(13.6)
Im
z
|z| sin φ
Im z
|z |
φ
Re
Re z
|z| cos φ
Abbildung 13.5: Darstellung einer komplexen Zahl z in Polardarstellung z = |z|eiφ .
mit
φ = arctan
z2
z1
.
|z| ist der Betrag von z und φ das Argument von z. Nun verwenden wir die Euler Formel:
z = z1 + iz2 = |z|eiφ .
(13.7)
Wir fassen unsere Ergebnisse in einer Definition zusammen.
Definition 13.10
Sei C ∋ z = z1 + iz2 . Wir nennen
|z|eiφ = z ,
mit
z2
φ = arctan
z1
,
die Polardarstellung von z. Man nennt φ das Argument von z.
Betrachten wir die Multiplikation zweier komplexer Zahlen z, w in Polardarstellung:
z · w = |z|eiφz · |w|eiφw = |z||w|ei(φz +φw ) ,
Man multipliziert die Beträge und addiert die Argumente. Die Addition der Argumente
bewirkt eine Drehung, die Multiplikation der Beträge bewirkt eine Streckung. Siehe dazu
auch Abb. 13.6.
Anmerkung 13.8
Die Polardarstellung eignet sich sehr gut für die Multiplikation komplexer Zahlen, während für die Addition die Darstellung mit Real- und Imaginärteil vorteilhafter ist.
107
Im
|z
|
|z · w
|
z·w
φz + φw
z
φz
|w |
w
φw
Re
Abbildung 13.6: Darstellung der Multiplikation zweier komplexer Zahlen z, w in der
Polardarstellung. Die geometrische Analogie ist die Verknüpfung einer Drehung mit
einer Streckung.
Anmerkung 13.9
Die Polardarstellung ist nicht eindeutig, was man an der Euler Formel sieht, denn es
gilt
cos(x) = cos(x + 2nπ) n ∈ Z analog für sin
und damit
eiφ = eiφ+i2nπ .
Dies resultiert in verschiedenen Darstellungen für das gleiche z, liefert aber keine “neue”
Zahl, genau so wie 21 = 42 keine neue Zahl liefert. Anschaulich gesehen bedeutet es,
dass ich einen vollen Kreis laufe und wieder auf dem selben Punkt lande. Daher kann
man für praktische Rechnungen den Faktor i2nπ weglassen. Die Nichteindeutigkeit der
Darstellung hat jedoch ihre Folgen, wie wir z.B. beim Wurzel ziehen sehen werden.
Beispiel 13.1
a) Sei z = 1. Damit ist |z| = 1 und φ = arctan(0) = 0. Damit z = ei·0+i2nπ = ei2nπ .
Für n = 1 erhält man
1 = ei2π
(13.8)
π
b) Sei z = i. Damit ist |z| = 1 und φ = arctan(∞) = π2 . Damit z = ei· 2 +i2nπ .
√ π
√
c) Sei z = 1 + i. Damit ist |z| = 2 und φ = arctan(1) = π4 . Damit z = 2ei 4 +i2nπ .
13.2 Komplexe Wurzel
Definition 13.11
Als k-te Wurzel einer komplexen Zahl z bezeichnen wir jede komplexe Zahl wn für die
gilt:
wnk = z .
108
Zur Berechnung der Wurzel eignet sich die Polardarstellung, wobei man beachten muss,
dass diese nicht eindeutig ist. Es gilt dann:
wnk = |z|eiφ+i2πn
mit n ∈ Z .
Zieht man nun auf beiden Seiten die k-te Wurzel, so erhält man alle verschiedenen k-ten
Wurzeln von z.
φ
1
2πn
wn = |z| k ei k +i k
mit n = 0, . . . , k − 1 .
(13.9)
Die Einschränkung für n kommt daher, dass sich für n ≥ k keine neuen Ergebnisse mehr
ergeben, sondern nur andere Darstellungen der vorherigen. 1
Alternative Schreibweise:
1
φ + 2πn
φ + 2πn
wn = |z| k cos
.
(13.10)
+ i sin
k
k
Beispiel 13.2
Dritte Wurzel von 1. Damit gilt |z| = 1, φ = 0 und n = 0, 1, 2. Damit ergeben sich die
folgenden dritten Wurzeln:
2πn
wn = ei 3
w0 = e0 = 1
i 2π
3
w1 = e
4π
w2 = ei 3
√
3
2π
1
2π
i sin
=− +i
= cos
3
3
2
√2
4π
1
4π
3
i sin
=− −i
= cos
3
3
2
2
13.3 Fundamentalsatz der Algebra
Satz 13.2
Sei z ∈ C und p(z) ein Polynom vom Grad g in der Variablen z
p(z) =
g
X
an z n ,
n=0
1
Unvollständige Induktion:
n = k :ei
n = k + 1 :e
2πk
k
=1
i 2π(k+1)
k
= ei
2πk
k
109
ei
2π
k
= ei
2π
k
=
b n=1 .
mit Koeffizienten an ∈ C. Dann hat p(z) in C g Nullstellen cj ∈ C, wenn man deren
Vielfachheit mj ∈ R mitzählt. Es lässt sich demzufolge in Linearfaktoren zerlegen:
p(z) =
g
X
n=0
an z n = an (z − c1 )m1 (z − c2 )m2 . . . (z − cr )mr .
(13.11)
Dabei sind die Nullstellen cj paarweise verschieden. Weiterhin gilt
m1 + m2 + . . . + mr = g ,
dies sagt nichts anderes als, dass die Vielfachheiten der Nullstellen den Grad des Polynoms ergeben.
Beispiel 13.3
a) Sei p(z) = z 2 +1. Dieses Polynom hat die beiden Nullstellen i, −i. Es kann demnach
in Linearfaktoren zerlegt werden:
p(z) = z 2 + 1 = (z − i)(z + i)
Hier hat jede Nullstelle Vielfachheit 1.
b) Sei p(z) = z 3 − iz 2 + z + i. Dieses Polynom hat die beiden Nullstellen i, −i. Es
kann demnach in Linearfaktoren zerlegt werden:
p(z) = z 3 − iz 2 + z + i = (z − i)2 (z + i)
Hier hat die Nullstelle i die Vielfachheit 2 und −i hat Vielfachheit 1.
Lemma 13.2
Sind die Koeffizienten an alle in R so gilt darüber hinaus: Ist cj eine Nullstelle von
p(z), so ist cj ∗ eine weitere Nullstelle. Betrachtet man die Eigenschaften der komplexen
Konjugation erkennt man (p(z))∗ = p(z ∗ ).
Anmerkung 13.10
Das vorherige Lemma bedeutet nicht, dass eine reelle Nullstelle automatisch eine Nullstelle der Vielfachheit 2 ist. Es gilt zwar p(cj ) = 0 = (p(cj ))∗ = p(c∗j ) = 0, aber für
cj ∈ R ist cj = c∗j . Es lässt sich keine Schlussfolgerung auf die Vielfachheit ziehen, wie
auch das folgendende Beispiel zeigt. Sei p(z) = z 2 − 1, das Polynom hat die Nullstelle
c1 = 1, aber c1 hat nur Vielfachheit 1, denn p(z) = (z − 1)(z + 1).
Die Bedeutung des Fundamentalsatzes kommt zum Beispiel zum Tragen bei der Berechnung von Eigenwerten reeller n × n Matrizen.
110
13.4 Anwendungen für komplexe Zahlen
13.4.1 Bahnkurven und Bewegungsgleichungen
Manche Probleme im Reellen lassen sich ins Komplexe übertragen und dort (hoffentlich)
leichter lösen. Betrachten wir als Beispiel die Bewegung eines Punktteilchens auf einer
Kreisbahn mit Radius R und Winkelgeschwindigkeit ω um den Ursprung. Dabei sind
R, ω ∈ R. Diese Bahn kann man in der komplexen Ebene wie folgt darstellen:
z(t) = Reiωt .
Dabei ist z(t) ∈ C und t ∈ R bezeichnet die Zeit. Die Geschwindigkeit des Teilchens ist
wie immer ż = dd zt :
ż = iωReiωt .
Entsprechend berechnet man die Beschleunigung als z̈.
z̈ = −ω 2 Reiωt .
Diese Ergebnisse kann man in kartesische Koordinaten übersetzen, wenn das Problem
es verlangt. Die Vorgehensweise ist dabei analog zu
!
z1
C ∋ z = z1 + iz2 7→
= x ∈ R2 .
z2
Man benutzt hier die Euler-Formel und sortiert nach Real- und Imaginärteil. Dies ergibt
für den Ort
!
cos ωt
z(t) = R(cos ωt + i sin ωt) 7→ x = R
.
sin ωt
Dies kann man in ebenen Polarkoordinaten des R2 ausdrücken als
z(t) 7→ Rê̺ .
Für die Geschwindigkeit ergibt sich:
!
− sin ωt
.
ż = iωR(cos ωt + i sin ωt) = ωR(− sin ωt + i cos ωt) 7→ ẋ = ωR
cos ωt
Dies kann man in ebenen Polarkoordinaten des R2 ausdrücken als
ż(t) 7→ ωRêφ .
111
Für die Beschleunigung:
!
cos
ωt
z̈ = −ω 2 R(cos ωt + i sin ωt) 7→ ẋ = −ω 2 R
.
sin ωt
Dies kann man in ebenen Polarkoordinaten des R2 ausdrücken als
z̈(t) 7→ −ω 2 Rê̺ .
Die Bahnkurve für die Spiralbahn aus Aufgabe 3 auf Blatt 4 hat im Komplexen diese
Darstellung:
L·t
2π
z(t) = L +
exp i t .
T
T
13.4.2 ”Wellen”
Betrachte die zeitlich variierende Größe
E = A · cos ωt E, A, w, t ∈ R,
E, A, w, konst .
E nimmt dabei alle Werte in [−A, A] an. Oder mit einer Phasenverschiebung ∆φ:
E = A · cos(ωt + ∆φ) .
Die kann man ins Komplexe übersetzen:
E = A · cos(ωt + ∆φ) = ARe (ei(ωt+∆φ) ) = Re (Aei(ωt+∆φ) )
= Re (Aeiωt ei∆φ ) = Re (Aei∆φ eiωt )
= Re (Zeiωt )
mit Z ∈ C ,
was manche Rechnungen vereinfachen kann. Man rechnet mit der komplexen ZahlZeiωt
und am Ende nimmt man den Realteil Re (Zeiωt ), dies ist oft bequemer als die Darstellung mit Kosinus und Sinus.
13.4.3 Optik
In der Optik definiert man den komplexen Brechungsindex n̂ als die Wurzel der komplexen dielektrischen Funktion ε:
√
n̂ = ε = n + ik ,
dabei sind n, k reelle Zahlen, Imaginär- und Realteil der Wurzel. Das reelle n nennt man
den Brechungsindex und k den Absorptionskoeffizienten.
112
13.4.4 Weiteres
Weitere Anwendungen/Vorkommen komplexer Zahlen in der Physik:
• Differentialgleichungens und Schwingungen
• Fouriertransformation
• Quantenmechanik (Vorlesung Quantenmechanik)
13.5 Funktionen, Integrale, Ableitungen
Auf C ist es genau wie im Reellen möglich Funktionen zu definieren, die in diesem Fall
mit komplexen Argumenten arbeiten. So sind zum Beispiel Sinus und Cosinus auch für
komplexe Zahlen definiert, ebenso Wurzeln, Exponentialfunktionen, Logarithmen und
Polynome. Ebenso machen die Begriffe Integration und der Ableitung auch im Komplexen Sinn. Vieles ist wie in den Reellen Zahlen, wobei komplexe Funktionen zahlreiche
neue Eigenschaften haben können. Dies ist Gegenstand der Funktionentheorie. Faustregel: Was im Reellen definiert ist, ist auch im Komplexen definiert.
13.6 Anwendungen der Euler Formel Additionstheoreme
Die Euler Formel ist enorm nützlich um Additionstheoreme für Sinus und Cosinus herzuleiten, bzw. zu beweisen. Im Folgen betrachten wir ein Beispiele dafür.
Die Eulerformel verbindet die Exponentialfunktion mit den Winkelfunktionen, siehe
Satz 13.1:
eiϕ = cos ϕ + i sin ϕ .
Umgekehrt kann man damit auch Sinus und Cosinus über die Exponentialfunktion
darstellen.
Satz 13.3
Für φ ∈ R gilt:
a) cos φ =
1
2
b) sin φ =
1
2i
eiφ + e−iφ
eiφ − e−iφ
Beweis Wir beweisen die Aussage für den Cosinus.
1 iφ
−iφ
=
e +e
2
113
Anwendung der Euler Formel
1
cos(φ) + i sin(φ) + cos(−φ) + i sin(φ)
2
1
1
= (cos φ + i sin φ + cos φ − i sin φ) = (2 cos φ)
2
2
= cos φ .
=
Der Beweis für den Sinus verläuft analog.
Korollar 13.2
Für a, b ∈ R gilt
a) cos(a + b) = cos a cos b − sin a sin b
b) sin(a + b) = cos a sin b + sin a cos b
Beweis Der Beweis erfolgt über die Euler Formel, die wir auf zwei Weisen anwenden.
Es gilt einerseits
ei(a+b) = cos(a + b) + i sin(a + b) ,
und andererseits
ei(a+b) = eia eib = (cos a + i sin a) · (cos b + i sin b)
= cos a cos b + i cos a sin b + i sin a cos b − sin a sin b
Sortieren nach Imaginär- und Realteil
= |cos a cos b {z
− sin a sin }b +i (cos a sin b + sin a cos b) .
|
{z
}
=cos(a+b)
=sin(a+b)
Die Gleichheit der Ausdrücke folgt daraus, dass Imaginär- und Realteil der beiden
Schreibweisen übereinstimmen müssen.
Ein Zusammenhang der vielleicht nützlich sein kann ist folgender:
Korollar 13.3
Sei a ∈ R, n ∈ N. Dann gilt
cos(na) + i sin(na) = (cos a + i sin a)n .
Beweis
cos(na) + i sin(na) = eina = (eia )n = (cos a + i sin a)n .
Ähnliche Darstellungen wie für Sinus und Cosinus gibt es auch für den Sinus Hyperbolicus und den Cosinus Hyperbolicus.
114
Satz 13.4
Für φ ∈ R gilt
a) sinh(φ) =
1
2
b) cosh(φ) =
1
2
eφ − e−φ
eφ + e−φ
115
14 Differentialgleichungen
Differentialgleichungen sind ein fundamentaler Bestandteil der Physik. Sie beschreiben
das Änderungsverhalten von Eigenschaften in Abhängigkeit des Ortes, oder der Zeit.
Die Newtonschen Bewegungsgleichungen
F =
dp
,
dt
sind mitunter das erste was Studierenden im ersten Semester begegnet. Sie beschreiben
die Änderung des Ortes mit der Zeit. Abstrakter gesprochen stellen Differentialgleichungen (DGLs) eine Beziehung zwischen einer Funktion und ihren Ableitungen her. Hier
einige Beispiele, die schon während des Studiums aufgetaucht sind:
Beispiel 14.1
a) Schwerkraft
mg = mẍ
⇒ ẍ = g ,
beschreibt die Änderung der Geschwindigkeit.
b) Harmonischer Oszillator
ẍ = −ω 2 x ,
beschreibt die Auslenkung einer Masse an einer Feder.
Die Theorie der Differentialgleichungen ist ein sehr weites Feld. In Abhängigkeit der
Form der DGL werden Aussagen über die Existens von Lösungen betroffen, Lösungmethoden gefunden und vieles mehr. Oft auch mit einem speziellen Satz an Terminologie.
Dieses Kapitel erhebt nicht im mindesten den Anspruch eine detailierte Einführung die
in Theorie zu geben. Wir werden uns nur grob der allgemeinen Struktur einer DGL
zuwenden um zumindest die grundlegensten Begriffe anschaulich zu machen, danach
wenden wir uns einigen physikalisch wichtigen DGLs zu, die schon eine sehr spezielle
Art von DGL sind.
Dies liegt zum einen an der begrenzten Zeit, zum anderen daran, dass das Lösen von
DGLs keinesfalls trivial ist. Oft führen spezielle Ansätze und Transformationen ans Ziel,
aber es kann schnell kompliziert werden.
Definition 14.1
Eine Differentialgleichung (DGL)
a) stellt Bedingungen an eine Funktion x(t)
b) verknüpft die Funktion und ihre Ableitungen
116
c) die höchste vorkommende Ableitung n, nennt man die Ordnung der DGL.
In Gleichungen ausgedrückt gibt es eine Funktion F , die die Funktion x und ihre Ableitungen als Argumente hat
F t, x(t), ẋ(t), . . . , x(n) (t) = 0 .
Differentialgleichungen dieser Form nennt man implizite DGL. Eine implizite DGL ist
nicht mal nach x(n) aufgelöst, muss nicht nach x( n) auflösbar sein.
Notation 14.1
Manchmal findet man auch die Notation F (x, y(x), y ′(x), . . . , y (n) (x)) = 0, doch sind
dies lediglich andere Bezeichner.
Beispiel 14.2
a) ẍ + w 2x = 0, eine DGL der Ordnung 2.
b) ẍ + a(t)ẋ + b(t)x = 0, DGL zweiter Ordnung, mit zeitabhängigen Koeffizienten
a(t), b(t).
Definition 14.2
Eine Differentialgleichung, die nach der höchsten Ableitung aufgelöst ist
(n)
(n−1)
,
x = f t, x, ẋ, . . . , x
nennt man eine explizite DGL.
Ein wichtiger Spezialfall der DGL ist die lineare DGL, das heißt eine DGL in der
x und Ableitungen nur linear vorkommen. Bei linearen DGLs unterscheidet man zwei
Gruppen: inhomogene und homogene DGLs.
Definition 14.3
Eine inhomogene DGL ist eine DGL der Form
x(n) = g(t) +
n−1
X
Ai (t)x(i) ,
i=0
wobei g(t) eine Funktion in der Variablen t ist, und die Koeffizienten Ai (t) ebenfalls
Funktionen in t sind. Man nennt g(t) die Inhomogenität.
Beispiel 14.3
Der angetriebene gedämpfte harmonische Oszillator ist eine inhomogene lineare DGL
ẍ + 2γ ẋ + w02 x = f (t) .
Hier ist f (t) die Inhomogenität.
117
Definition 14.4
Eine homogene DGL ist eine DGL der Form
x(n) =
n−1
X
Ai (t)x(i) .
i=0
Beispiel 14.4
Der gedämpfte harmonische Oszillator ist eine homogene lineare DGL
ẍ + 2γ ẋ + w02 x = 0 .
Im Folgenden beschränken wir uns auf lineare Differentialgleichungen, die eine Inhomogenität aufweisen können.
Was uns interessiert ist eine Lösung der DGL. Bei der Konstruktion dieser Lösung ist
das Superpositionsprinzip enorm wichtig.
Satz 14.1 (Superpositionsprinzip 1)
Seien x1 und x2 Lösungen der homogenen linearen DGl
(n)
x
=
n−1
X
Ai (t)x(i) ,
i=0
dann ist auch jede Linearkombination
x = c1 x1 + c2 x2 ,
mit ci ∈ C eine Lösung.
Beispiel 14.5
Wir demonstrieren das Superpositionsprinzip an einem Beispiel. Wir betrachten den
harmonischen Oszillator
ẍ = −w02 x .
Seien x1 und x2 Lösungen dieser DGL, dann konstruieren wir die Linearkombination
xℓ = c1 x1 + c2 x2 ,
und zeigen dass sie eine weitere Lösung der DGL ist. Dazu berechnen wir die zweite
Ableitung von xℓ
ẍℓ = c1 ẍ1 + c2 ẍ2
da xi Lösungen sind, kann man dies umschreiben
= c1 (−w02 x1 ) + c2 (−ω02 x2 ) = −ω02 (c1 x1 + c2 x2 )
= −ω02 xℓ ,
118
und man sieht, dass xℓ eine weitere Lösung ist.
Das Superpositionsprinzip gilt auch für inhomogene und homogene DGLs.
Satz 14.2 (Superpositionsprinzip 2)
Sei xs eine Lösung von
(n)
x
= g(t) +
n−1
X
Ai (t)x(i) ,
i=0
und x1 , x2 , Lösungen der entsprechenden homogenen DGL
(n)
x
=
n−1
X
Ai (t)x(i) ,
i=0
dann ist
x = xs + c1 x1 + c2 x2 ,
eine Lösung der inhomogenen DGL.
Anmerkung 14.1
Das Superpositionsprinzip gilt wegen der Linearität der DGL und der Linearität der
Ableitung.
Anmerkung 14.2
Das Superpositionsprinzip ist keine besondere Eigenschaft von Differentialgleichungen,
es findet sich schon bei Gleichungssystemen.
Beispiel 14.6
Sei A eine Koeffizientenmatrix und x ein Vektor, dann betrachten wir das homogene
Gleichungssystem
Ax = 0 .
Seien nun x1 und x2 Lösungen des Systems, dann gilt für die Linearkombination xh =
c1 x1 + c2 x2
A(c1 x1 + c2 x2 ) = c1 (Ax1 ) + c2 (Ax2 ) = c1 · 0 + c2 · 0 = 0 ,
dass sie eine weitere Lösung ist. Betrachten wir nun das inhomogene Gleichungssystem
Ax = g ,
mit der Lösung xs . Wir bilden eine die Summe von xs und der Linearkombination der
x1 und x2 , den Lösungen des homogenen Systems: x = xs + c1 x1 c2 x2 und setzen sie in
die inhomogene Gleichung ein
Ax = A(xs + c1 x1 c2 x2 ) = Axs + A(c1 x1 + c2 x2 ) = Axs = g .
|
{z
}
=0
119
Man mag sich fragen, wieso man Linearkombinationen von Lösungen braucht schließlich hat man ja schon eine Lösung, wozu also noch eine?
Die Antwort liegt darin, dass man oft nicht nur eine Lösung sucht, sondern eine, die
an Bedingungen anpassbar ist. Man verlangt zum Beispiel, dass die Lösung x(t) für ein
bestimmtes t den Wert 3 annimmt, und die erste Ableitung ẋ(t) für dieses t den Wert 4.
Dies ist oft mit einer Lösung nicht zu erreichen, weshalb man mehrere Lösungen linear
kombinieren muss. Die Koeffizienten werden dann so gewählt, dass die Lösung diese
Anfangsbedingungen erfüllt. Liegen Anfangsbedingungen vor, spricht man von einem
Anfangswertproblem.
Definition 14.5
Ein Anfangswertproblem liegt vor, wenn wir verlangen, dass die Lösung x(t) einer DGL
für t = t0 gewissen Bedingungen genügt. Das heißt, Bedingungen der Form
x(i) (t0 ) = xi
0≤i≤n−1 .
Anmerkung 14.3
Die Bedingung an x(n) folgt “automatisch” aus
(n)
x
(t0 ) = g(t0 ) +
n−1
X
Ai (t0 )x(i) (t0 ) .
i=0
Beispiel 14.7
Wir betrachten den freien Fall. Die zu lösende DGL ist
ẍ = g ,
die durch “Aufintegrieren” lösbar ist und die Lösung
1
x(t) = gt2 + c1 t + c2
2
hat. Verlangt man als Anfangsbedingungen dass
x(t0 ) = h Anfangshöhe
ẋ(t0 ) = 0 Anfangsgeschwindigkeit
,
dann erreicht man dies durch
c1 = 0
c2 = h ,
wie man durch Ableiten und Einsetzen sieht.
Wir werden uns nun etwas komplexere Beispiele anschauen.
120
14.1 Gedämpfter harmonischer Oszillator
Wir untersuchen nun eine für die Physik relevante Differentialgleichung etwas detailierter. Dazu betrachten wir den gedämpften harmonischen Oszillator ohne Antrieb.
Definition 14.6
Gedämpfter harmonischer Oszillator ohne Antrieb
ẍ + 2γ ẋ + ω02 x = 0 .
Eine homogene lineare Differentialgleichung zweiter Ordnung. Zusätzlich zum harmonischen Oszillator haben wir hier einen Dämpfungsterm 2γ ẋ, mit der Dämpfungskonstanten 2γ, die Proportional zur Geschwindigkeit ist. Wir führen auf diese Art einen
Reibungsterm ein, der das System verlangsamt.
Zur Lösung dieser DGL machen wir einen Ansatz für x(t), den wir in die DGL einsetzen.
Anmerkung 14.4
Für Differentialgleichungen dieser Form, macht man oft einen Ansatz der Form
x(t) = eλt ,
mit λ ∈ C, das durch Einsetzen des Ansatzes in die DGL näher bestimmt wird.
Wir setzen x(t) = eλt in die DGL ein und bilden die entsprechenden Ableitungen
!
λ2 eλt + 2γλeλt + ω02eλt = 0
!
2
2
λt
⇒ e λ 2γλ + ω0 = 0
da eλt 6= 0 für alle t, muss der andere Faktor Null werden
!
λ2 + 2γλω02 = 0 ,
womit man das gesuchte λ erhält
λ± = −γ ±
q
γ 2 − ω02 .
Damit konstruieren wir die beiden Lösungen
(
q
x(t)+ = exp
−γ +
)
γ 2 − ω02 t
(
)
q
x(t)− = exp
−γ − γ 2 − ω02 t .
121
(14.1)
Das heißt unsere allgemeine Lösung ist eine Linearkombination aus den beiden möglichen Lösungen
Lemma 14.1
Die allgemeine Lösung des gedämpften harmonischen Oszillators ohne Antrieb ist
(
(
)
)
q
q
−γ − γ 2 − ω02 t .
x(t) = Ax+ + Bx− = A exp
−γ + γ 2 − ω02 t + B exp
Anmerkung 14.5
Für den ungedämpften harmonischen Oszillator, d.h. γ = 0, erhält man damit die Lösung
q
2
x(t)± = exp ± −ω0 t = exp {±iω0 t} ,
mit der allgemeinen Lösung
x(t) = Ax+ + Bx− .
Woraus sich mit Hilfe der Euler Formel Sinus- und Cosinuslösungen gewinnen lassen.
Wenden wir uns wieder dem gedämpften harmonischen Oszillator zu. Je nach Konstellation der Konstanten γ und ω0 kann man drei Fälle unterscheiden, die wir uns im
Folgenden ansehen werden.
14.1.1 Schwingfall
Definition 14.7
Im Schwingfall gilt
ω0 > γ .
Im sogenannten Schwingfall liegt eine schwache
p Dämpfung vor und es gilt ω0 > γ. Das
2
2
heißt γ − ω0 < 0 und damit wird die Wurzel γ 2 − ω02 in Gleichung (14.1) imaginär.
Wir definieren uns nun eine neue Größe
−ω 2 := γ 2 − ω02 ,
damit wird Gleichung (14.1)
λ± = −γ ±
= −γ ±
q
√
γ 2 − w02
−ω 2 = −γ ± iω ,
und unsere Lösungen werden zu
x± = exp (−γ ± iω)t = |{z}
e−γt e|±iωt
{z } ,
I
mit
122
II
I Abfallende e-Funktion
II Oszillierende e-Funktion.
Die allgemeine Lösung ist damit
−γt
x(t) = Ax+ + Bx− = e
iωt
Ae
−iωt
+ Be
.
Wir werden jetzt die allgemeine Lösung an Anfangsbedungungen anpassen. Dazu wählen wir die Anfangsbedingungen
!
a) x(t = 0) = 0
!
b) ẋ(t = 0) = v0
d.h. zur Zeit t = 0 ist die Auslenkung 0 und die Anfangsgeschwindigkeit ist v0 .
Um die Bedingung für x(t) einzuarbeiten betrachten wir
x(t = 0) = A + B ,
damit dies 0 wird, muss gelten B = −A und damit
x(t) = e−γt Aeiωt − Ae−iωt = Ae−γt eiωt − e−iωt .
Um die zweite Anfangsbedingung einzubauen brauchen wir die erste Ableitung von x(t)
ẋ(t) = −γAe−γt eiωt − e−iωt + iωAe−γt eiωt + e−iωt ,
damit
womit folgt
!
ẋ(t = 0) = −γA (1 − 1) + iωA (1 + 1) = i2Aω = v0 ,
v0
.
i2ω
Der Wert von A mag seltsam erscheinen, schließlich soll x(t) eine Auslenkung beschreiben, also einen reellen Wert. Man bedenke jedoch, dass in x(t) auch noch eine
komplexwertige e-Funktion enthalten ist. Diese drücken wir nun mittels Euler Formel
als Sinus und Cosinus aus.
v0 −iωt
v0 iωt
−γt
e −
e
x(t) = e
i2ω
i2ω
v0 cos(ωt) + i sin(ωt) − cos(ωt) − i sin(ωt)
= e−γt
i2ω
v0 −γt
= e sin(ωt) .
ω
A=
123
Damit haben wir also unsere Lösung die den Anfangsbedingungen x(t = 0) = 0 und
ẋ(t = 0) = v0 genügt
v0
x(t) = e−γt sin(ωt) ,
ω
eine Oszillierende Sinus-Funktion, deren Amplitude mit e−γt abnimmt.
14.1.2 Kriechfall
Definition 14.8
Im Kriechfall gilt
ω0 < γ .
Im Kriechfall liegt eine starke Dämpfung vor, d.h. ω0 < γ. Damit wir
also rein reell. Wir definieren uns wieder eine neue Größe
p
γ2 − ω02 > 0
ω 2 := γ 2 − ω02 .
Damit wird Gleichung (14.1) zu
q
λ± = −γ ± γ 2 − ω02
√
= −γ ± ω 2 = −γ ± ω ,
und unsere Lösungen werden zu
e±ωt ,
x± = |{z}
e−γt |{z}
I
mit
II
I Abfallende e-Funktion
II Abfallende/Ansteigende e-Funktion.
Anmerkung 14.6
Die ansteigende e-Funktion mag verwunderlich erscheinen, da sie für t → ∞ gegen ∞
strebt. Doch betrachtet man e−γt eωt = e(ω−γ)t mit ω 2 = γ 2 − ω02 , also ω < γ, dann sieht
man dass ω − γ < 0 ist, und die e-Funktion insgesamt abfallend ist.
Wir konstruieren die allgemeine Lösung
x(t) = Ax+ + Bx− = e−γt Aeωt + Be−ωt .
Auch hier wollen wir x(t) an die Anfangsbedingungen
a) x(t = 0) = 0
b) ẋ(t = 0) = v0
124
anpassen. Wie im vorherigen Abschnitt ergibt sich aus der Anfangsbedingung für x(t)
B = −A ,
mit diesem Ergebnis betrachten wir ẋ(t) für t = 0
!
ẋ(t = 0) = −γ (A − A) + ω (A + A) = 2ωA = v0 ,
und wir erhalten
v0
.
2ω
Diese Lösung schreiben wir um, indem wir, ähnlich zu vorher, ausnutzen dass gilt
A=
eϕ = cosh ϕ + sinh ϕ .
Wir erhalten die Lösung, die den Anfangsbedingungen genügt
x(t) =
v0 −γt
e sinh(ωt) .
ω
14.1.3 Aperiodischer Grenzfall
Definition 14.9
Im aperiodischen Grenzfall gilt
ω0 = γ .
Im aperiodischen Genzfall stimmen γ und ω0 exakt überein. Damit fällt der Term
p
γ 2 − ω02 weg und Gleichung (14.1) wird zu
λ = −γ ,
das heißt wird erhalten auf diese Art nur eine Lösung, nämlich
x1 = e−γt .
Da wir x1 jedoch nicht immer an gegebene Anfangsbedingungen anpassen können, benötigen wir eine weitere Lösung. Dazu können wir das Verfahren im folgenden Abschnitt
anwenden, das uns folgende weiter Lösung liefert
x2 = te−γt ,
die wir mit x1 linear kombinieren können zur allgemeinen Lösung
x(t) = Ax1 + Bx2 = e−γt (A + Bt) .
Auch hier wollen wir die Lösung an die Anfangsbedingunen
a) x(t = 0) = 0
125
b) ẋ(t = 0) = v0
anpassen.
Für x(t) ergibt sich
x(t = 0) = A ,
womit direkt folgt A = 0. Wir bilden ẋ(t) = −γe−γt Bt + e−γt B = e−γt B (1 − γt), und
erhalten
ẋ(t = 0) = B ,
womit direkt folgt B = v0 . Damit ist die an die Anfangsbedingungen angepasste Lösung
x(t) = v0 e−γt t .
14.1.4 Weitere unabhängige Lösung bestimmen
Wie wir beim aperiodischen Grenzfall gesehen haben, kann es vorkommen dass man
nur eine Lösung bestimmen kann, man aber zwei unabhängige braucht um die Linearkombination zu erzeugen die man an Anfangsbedingungen anpassen kann. In diesem
Abschnitt betrachten wir wie man sich eine weitere unabhängige Lösung beschaffen kann,
wenn man bereits eine Lösung x1 hat.
Lemma 14.2
Sei x1 (t) eine Lösung einer homogenen linearen DGL. Dann kann man sich eine zweite
unabhängige Lösung x2 (t) verschaffen, mittels folgendem Ansatz
x2 (t) = u(t)x1 (t) .
Durch einsetzen von x2 (t) in die DGL, kann man die Funktion u(t) bestimmen.
Als Beispiel betrachten wir den gedämpften harmonischen Oszillator ohne Antrieb im
aperiodischen Grenzfall, also mit γ = ω0 .
Beispiel 14.8
Wir betrachten die DGL
ẍ + 2γ ẋ + γ 2 x = 0 ,
von der wir bereits x1 = e−γt als Lösung bestimmt haben. Um uns eine weitere Lösung
zu verschaffen machen wir den Ansatz
x2 (t) = u(t)x1 (t) = u(t)e−γt ,
den wir in die DGL einsetzen, wofür wir die Ableitungen von x2 brauchen
a) ẋ2 = u̇x1 + uẋ1
b) ẍ2 = üx1 + u̇ẋ1 + u̇ẋ1 + uẍ1 = üx1 + 2u̇ẋ1 + uẍ1
126
Einsetzen in die DGL
!
0 = üx1 + 2u̇ẋ1 + ux¨1 + 2γ(u̇x1 + uẋ1 ) + ω02 ux1
umsortieren der Terme
= üx1 + 2u̇ẋ1 + 2γ u̇x1 + u (ẍ1 + 2γ ẋ1 + ω02 x1 )
|
{z
}
=0 da x1 DGL löst
= üx1 + 2u̇ẋ1 + 2γ u̇x1
ausnutzen dass ẋ1 = −γx1
= üx1 − 2u̇γx1 + 2γ u̇x1
= ü(t)e−γt .
Da e−γt 6= 0, muss damit ü(t) = 0 gelten. Dies liefert u(t) = t. Damit ist die zweite
unabhängige Lösung
x2 (t) = u(t)x1 (t) = te−γt .
127
Literatur
[Gat12]
Andreas Gathmann. Grundlagen der Mathematik. 2012. url: http://www.
mathematik.uni-kl.de/agag/mitglieder/professoren/gathmann/notes/gdm/
(besucht am 02. 11. 2015).
[Kor07]
Hans J Korsch. Mathematische Ergänzungen: zur Einführung in die Physik.
4., veränd. Aufl. Binomi, Okt. 2007. isbn: 9783923923618.
[Mar00] Thomas Markwig. Lineare Algebra I und II. 2000. url: http://www.mathematik.
uni-kl.de/agag/mitglieder/privatdozenten/keilen/veroeffentlichungenthomas-markwig/ (besucht am 09. 11. 2015).
128
Index
Effektivpotential, 60
Eigenvektor, 76
Eigenwert, 76
Einheitsmatrix, 71
Einheitsvektor, 18
Einschränkung, 29
Elemente, 6
Energie
kinetische, 48
potenielle, 48
Euler Formel, 106
O(n), 83
SO(n), 83
Adjunkte, 86
Algebra, 82
aperiodischer Grenzfall, 125
Bahnbeschleunigung, ebenen Polarkoordinaten, 36
Bahngeschwindigkeit, ebene Polarkoordinaten, 35
Bahnkurve, ebene Polarkoordinaten, 35
bijektiv, 29
Bild, 29
bilinear, 14
Bilinearform, 14
Freiheitsgrad
der Bewegung, 50
des Systems, 50
Gebiet, 23
Gradient, 24
Gruppe, 8
spezielle orthogonale, 83
abelsche, 8
orthogonale, 83
symmetrische, 73
Cauchy-Schwarzsche Ungleichung, 17
Determinante, 75
Determinantenentwicklung, 95
diagonalisierbar, 81
Diagonalisierungsmatrix, 79
Diagonalmatrix, 80
Differentialgleichung, 116
Anfangswertproblem, 120
explizite, 117
homogene, 118
implizite, 117
inhomogene, 117
lineare, 117
diskrete Metrik, 20
Divergenz, 27
Drehimpuls, 58
Dreiecksungleichung, 17
harmonischer Oszillator, 51
Hauptdiagonale, 65
Imaginärteil, 101
Inhomogenität, 117
injektiv, 29
Instabiler Fixpunkt, 56
Inverse, 29
Körper, 9
Komplexe Konjugation, 103
Komplexe Wurzel, 108
Komplexe Zahlen, 99
Ebene Polarkoordinaten, 34
129
Produkt
dyadisches, 69
konservativ, 24
Koordinatentransformation, 29
Basisvektor, 30
orthogonal, 31
Kriechfall, 124
quellenfrei, 27
Längenelement, 32
Laplace-Operator, siehe Operator, Laplace
Linearer Operator, siehe Operator, linearer
Matrix, 64
Adjunkte, 86
erweiterte, 88
quadratisch, 65
Spaltenvektor, 65
Streichungsmatrix, 85
symmetrisch, 79
transponierte, 65
Zeilenvektor, 65
Matrixmultiplikation, 67
Menge, 6
Metrik, 19
metrischer Raum, 20
Nabla-Operator, siehe Operator, Nabla
Norm, 16
normierter (Vektor-)Raum, 17
Nullvektor, 12
Realteil, 101
Rotation, 25
Runge-Lenz Vektor, 61
Sarrus, Regel von, 94
Schwerpunkt
diskreter Fall, 41
kontinuierlicher Fall, 42
Schwingfall, 122
Skalare, 12
Skalarfeld, 22
Skalarprodukt, 11, 14
kanonisches, 15
Standardskalarprodukt, 15
Spektrum, 77
Spur, 72
Stabiler Fixpunkt, 54
Streichungsmatrix, 85
Superpositionsprinzip, 118, 119
surjektiv, 29
Transponierte, siehe Matrix, transponierte
Transposition, 74
Tupel, 7
Operator
linearer, 21
Nabla, 22
Urbild, 29
Vektor
Projektion, 18
Zerlegung, 19
Vektoraddition, 11
Vektoren, 12
Vektorfeld, 23
Vektorraum, 11
euklidischer, 15
Volumenelement, 32
Volumenintegral, 38
Masse, 40
Pendel
mathematisches, 53
Periodendauer, 49
Permutation, 73
Phasenbahn, 51
Phasenraum, 51
Polardarstellung, 107
Polynom
charakteristisches, 77
positiv definit, 14
Potential, 24
Winkel, 17
130
Winkelgeschwindigkeit, 59
Winkelgeschwindikeit, 36
Wirbelfeld, 26
wirbelfrei, 26
Zentralkraftfeld, 58
131
Herunterladen