Inhaltsverzeichnis

Werbung
Inhaltsverzeichnis
1 Vektoren
1
1.1
Vektoren und Tensoren in der Physik . . . . . . . . . . . . . . .
1
1.2
Vektorrechnung . . . . . . . . . . . . . . . . . . . . . . . . . . .
4
1.2.1
Rechnen mit Vektoren . . . . . . . . . . . . . . . . . . .
5
1.2.2
Abstraktion des Vektorbegriffs . . . . . . . . . . . . . .
7
1.2.3
Das Skalarprodukt . . . . . . . . . . . . . . . . . . . . .
10
1.2.4
Das Vektorprodukt . . . . . . . . . . . . . . . . . . . . .
12
1.2.5
Komponentendarstellung . . . . . . . . . . . . . . . . .
14
1.2.6
Das Spatprodukt . . . . . . . . . . . . . . . . . . . . . .
19
1.2.7
Das doppelte Vektorprodukt . . . . . . . . . . . . . . .
22
1.3
1.4
1.5
Differentiation
. . . . . . . . . . . . . . . . . . . . . . . . . . .
23
1.3.1
Differentiation von Vektorfunktionen . . . . . . . . . . .
26
1.3.2
Die partielle Ableitung . . . . . . . . . . . . . . . . . . .
28
Krummlinige Koordinaten I . . . . . . . . . . . . . . . . . . . .
32
1.4.1
Ebene Polarkoordinaten . . . . . . . . . . . . . . . . . .
34
1.4.2
Zylinderkoordinaten . . . . . . . . . . . . . . . . . . . .
38
1.4.3
Kugelkoordinaten . . . . . . . . . . . . . . . . . . . . . .
39
1.4.4
Allgemeine orthogonale Koordinatensysteme . . . . . .
44
Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
45
5
6
INHALTSVERZEICHNIS
2 Datenanalyse und Fehlerrechnung*
2.1
47
Messungen und Messfehler . . . . . . . . . . . . . . . . . . . . .
48
2.1.1
Die Normalverteilung . . . . . . . . . . . . . . . . . . .
50
2.1.2
Die Lorentz–Verteilung . . . . . . . . . . . . . . . . . .
52
2.1.3
Statistische Maße einer Messreihe . . . . . . . . . . . . .
53
2.2
Fehlerfortpflanzung . . . . . . . . . . . . . . . . . . . . . . . . .
55
2.3
Ausgleichsrechnung . . . . . . . . . . . . . . . . . . . . . . . . .
57
2.4
Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
60
3 Vektoranalysis I
61
3.1
Der Gradient . . . . . . . . . . . . . . . . . . . . . . . . . . . .
62
3.2
Die Divergenz . . . . . . . . . . . . . . . . . . . . . . . . . . . .
67
3.3
Die Rotation . . . . . . . . . . . . . . . . . . . . . . . . . . . .
70
3.4
Divergenz und Rotation . . . . . . . . . . . . . . . . . . . . . .
71
3.5
Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
74
4 Grundprobleme der Dynamik
4.1
75
Gradientenfelder und Energieerhaltung . . . . . . . . . . . . . .
79
4.1.1
Der schräge Wurf . . . . . . . . . . . . . . . . . . . . . .
80
4.1.2
Das Federpendel . . . . . . . . . . . . . . . . . . . . . .
83
4.1.3
Das mathematische Pendel . . . . . . . . . . . . . . . .
85
4.1.4
Bewegungsgleichungen in Polarkoordinaten . . . . . . .
90
4.2
Impulssatz und Drehimpulssatz . . . . . . . . . . . . . . . . . .
93
4.3
Das Zweiteilchensystem . . . . . . . . . . . . . . . . . . . . . .
95
4.4 Zentralkraftfelder und Drehimpulserhaltung . . . . . . . . . . .
96
4.4.1
4.5
Keplerproblem . . . . . . . . . . . . . . . . . . . . . . .
102
Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
113
5 Matrizen und Tensoren
115
5.1
Rechnen mit Matrizen . . . . . . . . . . . . . . . . . . . . . . .
116
5.2
Quadratische Matrizen . . . . . . . . . . . . . . . . . . . . . . .
118
n
5.2.1
Taylor–Entwicklung im R
. . . . . . . . . . . . . . . .
122
5.2.2
Eigenwerte und Eigenvektoren . . . . . . . . . . . . . .
123
INHALTSVERZEICHNIS
5.2.3
5.3
5.4
5.5
7
Der Trägheitstensor . . . . . . . . . . . . . . . . . . . .
127
Drehung des Koordinatensystems . . . . . . . . . . . . . . . . .
128
5.3.1
Transformation von Vektoren . . . . . . . . . . . . . . .
131
5.3.2
Transformation von Matrizen* . . . . . . . . . . . . . .
132
5.3.3
Drehungen* . . . . . . . . . . . . . . . . . . . . . . . . .
134
Diagonalisierung und Matrix–Funktionen* . . . . . . . . . . . .
137
5.4.1
Transformation auf Diagonalform . . . . . . . . . . . . .
137
5.4.2
Matrix–Funktionen . . . . . . . . . . . . . . . . . . . . .
141
Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
145
6 Lineare Differentialgleichungen*
147
6.1
Gleichungen zweiter Ordnung . . . . . . . . . . . . . . . . . . .
148
6.2
Systeme erster Ordnung . . . . . . . . . . . . . . . . . . . . . .
151
6.3
Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
155
7 Lineare Schwingungen
7.1
157
Der harmonische Oszillator . . . . . . . . . . . . . . . . . . . .
158
7.1.1
Die freie Schwingung . . . . . . . . . . . . . . . . . . . .
159
7.1.2
Erzwungene Schwingungen . . . . . . . . . . . . . . . .
166
7.1.3
Energiebilanz . . . . . . . . . . . . . . . . . . . . . . . .
169
7.1.4
Dynamik im Phasenraum*
. . . . . . . . . . . . . . . .
171
7.2
Gekoppelte Schwingungen . . . . . . . . . . . . . . . . . . . . .
173
7.3
Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
181
8 Nichtlineare Dynamik und Chaos
183
8.1 Numerische Lösung von Differentialgleichungen . . . . . . . . .
183
8.2
Der Duffing–Oszillator . . . . . . . . . . . . . . . . . . . . . . .
186
8.3
Die logistische Differentialgleichung . . . . . . . . . . . . . . . .
192
8.4
Iterierte Abbildungen . . . . . . . . . . . . . . . . . . . . . . .
195
8.5
Fraktale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
206
8.6
Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
211
8
INHALTSVERZEICHNIS
9 Vektoranalysis II
9.1
213
Integrale über Vektorfelder . . . . . . . . . . . . . . . . . . . .
216
9.1.1
Kurvenintegrale . . . . . . . . . . . . . . . . . . . . . . .
216
9.1.2
Wegunabhängigkeit von Kurvenintegralen I . . . . . . .
222
9.1.3
Flächen- und Volumenintegrale . . . . . . . . . . . . . .
225
9.1.4
Oberflächenintegrale . . . . . . . . . . . . . . . . . . . .
232
9.1.5
Funktionaldeterminanten* . . . . . . . . . . . . . . . . .
237
Integraldarstellung von Divergenz und Rotation . . . . . . . . .
239
9.2.1
Die Divergenz als Quellenfeld . . . . . . . . . . . . . . .
239
9.2.2
Die Rotation als Wirbelfeld . . . . . . . . . . . . . . . .
241
Integralsätze von Gauß und Stokes . . . . . . . . . . . . . . . .
243
9.3.1
Der Satz von Gauß . . . . . . . . . . . . . . . . . . . . .
244
9.3.2
Der Satz von Stokes . . . . . . . . . . . . . . . . . . . .
245
9.4
Krummlinige Koordinaten II . . . . . . . . . . . . . . . . . . .
246
9.5
Elementare Anwendungen . . . . . . . . . . . . . . . . . . . . .
250
9.5.1
Die Maxwell–Gleichungen . . . . . . . . . . . . . . . . .
251
9.5.2
Die integrale Form der Maxwell–Gleichungen . . . . . .
251
9.5.3
Der Zylinderkondensator . . . . . . . . . . . . . . . . . .
252
9.5.4
Die Kontinuitätsgleichung . . . . . . . . . . . . . . . . .
255
9.5.5
Wegunabhängigkeit von Kurvenintegralen II . . . . . . .
256
9.5.6
Der Zerlegungssatz . . . . . . . . . . . . . . . . . . . . .
256
9.5.7
Die Poisson–Gleichung . . . . . . . . . . . . . . . . . . .
258
Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
258
9.2
9.3
9.6
10 Die Delta–Funktion
261
10.1 Elementare Definition der Delta–Funktion . . . . . . . . . . . .
262
10.2 Eigenschaften der Delta–Funktion
. . . . . . . . . . . . . . . .
265
10.3 Die dreidimensionale Delta–Funktion . . . . . . . . . . . . . . .
269
10.4 Theorie der Distributionen* . . . . . . . . . . . . . . . . . . . .
272
10.5 Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
276
INHALTSVERZEICHNIS
11 Partielle Differentialgleichungen
9
277
11.1 Die Poisson–Gleichung . . . . . . . . . . . . . . . . . . . . . . .
278
11.1.1 Die Poisson–Gleichung in der Elektrostatik . . . . . . .
279
11.1.2 Die Multipolentwicklung . . . . . . . . . . . . . . . . . .
283
11.1.3 Die Poisson–Gleichung in der Magnetostatik . . . . . . .
285
11.2 Poisson–Gleichung: Numerische Lösung . . . . . . . . . . . . .
287
11.2.1 Die eindimensionale Poisson–Gleichung . . . . . . . . .
288
11.2.2 Die zweidimensionale Poisson–Gleichung . . . . . . . . .
292
11.3 Die Diffusionsgleichung . . . . . . . . . . . . . . . . . . . . . . .
294
11.3.1 Die eindimensionale Diffusionsgleichung . . . . . . . . .
295
11.3.2 Numerische Lösung der Diffusionsgleichung . . . . . . .
300
11.3.3 Diffusion und ‘Random Walk’ . . . . . . . . . . . . . . .
302
11.4 Die Wellengleichung . . . . . . . . . . . . . . . . . . . . . . . .
303
11.4.1 Eindimensionale Wellen . . . . . . . . . . . . . . . . . .
304
11.4.2 Die zweidimensionale Wellengleichung . . . . . . . . . .
313
11.4.3 Dreidimensionale ebene Wellen . . . . . . . . . . . . . .
317
11.5 Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
318
12 Orthogonale Funktionen
321
12.1 Orthogonale Polynome . . . . . . . . . . . . . . . . . . . . . . .
322
12.2 Fourier–Reihen . . . . . . . . . . . . . . . . . . . . . . . . . . .
329
12.2.1 Beispiele für Fourier–Reihen . . . . . . . . . . . . . . . .
331
12.2.2 Allgemeine Eigenschaften der Fourier–Reihen . . . . . .
335
12.3 Fourier–Transformationen . . . . . . . . . . . . . . . . . . . . .
338
12.3.1 Eigenschaften der Fourier–Transformation . . . . . . . .
339
12.3.2 Beispiele für Fourier–Transformationen . . . . . . . . . .
340
12.3.3 Die Unschärferelation* . . . . . . . . . . . . . . . . . . .
343
12.3.4 Anwendungen der Fourier–Transformation . . . . . . . .
345
12.4 Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
349
10
INHALTSVERZEICHNIS
13 Wahrscheinlichkeit und Entropie*
13.1 Wahrscheinlichkeit . . . . . . . . . . . . . . . . . .
13.1.1 Grundlagen der Wahrscheinlichkeitstheorie
13.1.2 Wahrscheinlichkeit und Häufigkeit . . . . .
13.2 Entropie . . . . . . . . . . . . . . . . . . . . . . . .
13.2.1 Ein Maß für die Unbestimmtheit . . . . . .
13.2.2 Eigenschaften von S(p1 , . . . , pn ): . . . . . .
13.3 Maximale Unbestimmtheit . . . . . . . . . . . . . .
13.4 Die Boltzmann–Verteilung . . . . . . . . . . . . . .
13.4.1 Der harmonische Oszillator . . . . . . . . .
13.4.2 Magnetisierung . . . . . . . . . . . . . . . .
13.4.3 Das ideale einatomige Gas . . . . . . . . . .
13.5 Entropie und Irreversibilität . . . . . . . . . . . . .
13.6 Aufgaben . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
351
351
352
358
359
360
364
365
369
370
371
372
374
375
Anhang
377
A Der Vektorraum der Polynome*
377
B Komplexe Zahlen
B.1 Konjugiert komplexe Zahlen .
B.2 Die Polardarstellung . . . . .
B.3 Komplexe Wurzeln . . . . . .
B.4 Fundamentalsatz der Algebra
.
.
.
.
381
384
386
388
390
.
.
.
.
.
391
391
396
398
400
401
C Kegelschnitte
C.1 Die Ellipse . . . . . . . . . . .
C.2 Die Hyperbel . . . . . . . . .
C.3 Die Parabel . . . . . . . . . .
C.4 Quadratische Formen . . . . .
C.5 Die Familie der Kegelschnitte
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Lösungen der Übungsaufgaben
403
Index
472
Kapitel 1
Vektoren
1.1
Vektoren und Tensoren in der Physik
Die Physik befasst sich mit der Beschreibung von Vorgängen in Zeit und Raum,
genauer: mit ihrer mathematischen Beschreibung. Von Raum und Zeit haben
wir einige mehr oder weniger vage Grundvorstellungen, die mit zunehmenden
physikalischen Kenntnissen präzisiert, korrigiert oder erweitert werden. Hier
sollen unsere anschaulichen Vorstellungen aber zunächst ausreichen.
Zu einer mathematischen Formulierung der physikalischen Gesetze (beispielsweise zu einer Beschreibung einer Bewegung im Raum) benötigen wir
zunächst ein passendes mathematisches Handwerkszeug. In einer eindimensionalen Welt wäre das kein großes Problem: Die Position im ‘Raum’ ist durch eine
einzige (reelle) Variable (eine ‘Koordinate’) gekennzeichnet, die wir zum Beispiel mit dem Buchstaben x bezeichnen können, und ein physikalisches Gesetz
wie die Bewegungsgleichung ‘Kraft gleich Masse mal Beschleunigung’ schreibt
sich als F = ma. Dabei steht F für die Kraft, m für die Masse und a für die
Beschleunigung.
Im dreidimensionalen Raum ist das nicht mehr so einfach. Man kann sich
damit helfen, indem man alles auf ein vorgegebenes Koordinatensystem bezieht. Aber dann sind eben nach Konstruktion(!) alle physikalischen Gesetze
für dieses eine Koordinatensystem formuliert. Das ist ganz offensichtlich sehr
unflexibel, denn die mathematische Form physikalischer Gesetze, bei denen auf
Koordinatensysteme bezogene Größen beteiligt sind, kann unmöglich von der
(willkürlichen!) Wahl des Koordinatensystems anhängen, denn sonst gäbe es
unendlich viele Formulierungen ein und desselben Gesetzes. Wir benötigen also
1
2
KAPITEL 1. VEKTOREN
eine mathematische Beschreibung durch Größen, die unabhängig sind von den
speziellen Koordinatensystemen (oder sich nach passenden Regeln transformieren) und so die Invarianz der physikalischen Gesetze gewährleisten.
Mathematische Größen, die das leisten, sind die Tensoren, ein einfacher
Spezialfall davon sind die Vektoren. Neben ihrer Invarianz gegenüber Koordinatentransformationen erlauben sie auch eine Reihe von Rechenoperationen.
Wie wir sehen werden, haben sie eine sehr wichtige mathematische Struktur,
linearer Raum genannt. Eine Realisierung einer solche Struktur stellt z.B. die
Menge aller Translationen im Raum dar, also ganz anschaulich: die Menge
aller parallelgleichen Pfeile. Der Tensorkalkül ist nicht nur nützlich, sondern
für die Bewältigung vieler physikalischer Probleme unbedingt notwendig, wie
zum Beispiel für Albert Einstein bei der Formulierung seiner Allgemeinen Relativitätstheorie.
Wie so oft, wird man erst später die oben verlangte Invarianz der Größen
gegenüber Tranformationen des Koordinatensystems richtig verstehen können.
Das liegt auch daran, dass man zur mathematischen Formulierung bequemerweise schon den Tensor–Formalismus benutzen müsste, der ja eigentlich erklärt
werden soll! Wir gehen hier heuristisch vor, wobei wir die wesentlichen Gedanken zunächst einmal für den R2 formulieren, also den zweidimensionalen
Raum der Zahlenpaare (x, y). Diese Zahlenpaare lassen sich als Punkte der
x,y–Ebene darstellen, und wir würden gerne durch dieses Zahlenpaar einen
Vektor erklären, also eine Größe, die einen Betrag und eine Richtung hat,
gekennzeichnet durch den Pfeil in der Abbildung 1.1. Wir schreiben solche
vektoriellen Größen als ~a, wobei der Pfeil über dem Buchstaben auf ihre Richtungseigenschaft hinweisen soll (außerdem findet man in der Literatur auch eine
Kennzeichnung von Vektoren durch fett gedruckte Buchstaben). Der Betrag,
geschrieben als
a = | ~a | , a ∈ R
ist hier die Länge des Vektorpfeils, also a =
(1.1)
p
x2 + y 2 .
Was geschieht nun, wenn wir zu einem Koordinatensystem übergehen, das
um einen Winkel ϕ gedreht ist? In dem gedrehten Koordinatensystem hat der
gleiche Vektor ~a statt der Koordinaten (x, y) die Koordinaten (u, v). Man kann
sich überlegen, dass man durch
u = +x cos ϕ + y sin ϕ
v = −x sin ϕ + y cos ϕ
(1.2)
1.1. VEKTOREN UND TENSOREN IN DER PHYSIK
3
y
v
u
ϕ
x
Abbildung 1.1: Bei einer Drehung des Koordinatensystems transformieren sich
die Koordinaten (x, y) in die Koordinaten (u, v).
aus den (x, y) die (u, v) √
berechnen kann. Der Betrag des Vektors ~a in den neuen
Koordinaten ist gleich u2 + v 2 , und wir sehen mit
u2 + v 2
= (+x cos ϕ + y sin ϕ)2 + (−x sin ϕ + y cos ϕ)2
= x2 cos2 ϕ + 2xy cos ϕ sin ϕ + y 2 sin2 ϕ
+x2 sin2 ϕ − 2xy sin ϕ cos ϕ + y 2 cos2 ϕ
= x2 (sin2 ϕ + cos2 ϕ) + y 2 (sin2 ϕ + cos2 ϕ)
= x2 + y 2 ,
(1.3)
dass der Betrag des Vektors ~a sich bei der Drehung des Koordinatensystems
nicht ändert. Jetzt dreht man den Spieß um und bezeichnet jede Größe, die
durch ein Paar reeller Zahlen beschrieben wird, als einen Vektor , falls diese
beiden Zahlen, die Koordinaten, sich bei einer Drehung des Koordinatensystems um einen Winkel ϕ wie (1.2) transformieren. Eine Größe, die sich bei
einer Drehung nicht ändert, nennt man einen Skalar . Ein solcher Skalar ist uns
schon bekannt: Der Betrag eines Vektors ist ein Skalar.
Ganz genauso kann man jetzt Vektoren im dreidimensionalen Raum als
Zahlentripel (x, y, z) der drei Koordinaten bezüglich eines rechtwinkligen Koordinatensystems darstellen, die sich bei Transformationen (Drehungen) des
Koordinatensystems in einer bestimmten Weise transformieren. Allerdings ist
hier die Formulierung einer Drehung komplizierter, so dass wir einen anderen Weg einschlagen und uns im nächsten Abschnitt überlegen, dass man mit
solchen Vektoren auch rechnen kann.
Wir werden sehen, dass man auch Vektoren in höherdimensionalen Räumen
bilden kann. Es ist deshalb zweckmäßig, eine Indexschreibweise zu benutzen
4
KAPITEL 1. VEKTOREN
und die Komponenten eines Vektors ~a im R3 mit (a1 , a2 , a3 ) zu bezeichnen.
Unser physikalisches Gesetz ‘Kraft gleich Masse mal Beschleunigung’ kann man
dann als F~ = m~a ausdrücken mit den Vektoren für die gerichteten Größen Kraft
und Beschleunigung und einem Skalar für die Masse. Diese Formulierung ist
koordinatenfrei.
Es wird leider noch etwas schwieriger, denn es lässt sich später nicht vermeiden mit Größen umzugehen, die noch komplizierter sind als Vektoren: mit
Tensoren. Das hat allerdings noch etwas Zeit, deshalb hier nur ein Appetitmacher: Ein Tensor k-ter Stufe ist eine k-fach indizierte Größe, die sich in allen
Indizes so transformiert wie ein Vektor. Ein Vektor selbst ist also ein Tensor
erster Stufe, ein Skalar ein Tensor nullter Stufe. Tensoren zweiter Stufe werden
wir als Matrizen kennen lernen, die beispielsweise die erwähnten Drehungen
beschreiben. Eigentlich also ganz einfach...
1.2
Vektorrechnung
Im vorangehenden Abschnitt wurde der Vektorbegriff motiviert. Ein zweidimensionaler Vektor ist danach ein Zahlenpaar, ein dreidimensionaler Vektor
ein Zahlentripel, die sich bei Transformationen der Koordinatensysteme in geeigneter Weise verhalten.
Wir werden jetzt zeigen, dass man mit solchen Größen rechnen kann und
dann eine präzise Definition des Vektors nachliefern. Ein Beispiel vektorieller
Größen liefern die Verschiebungen (oder Translationen) der Punkte des Raumes
P1 = (x1 , y1 , z1 ) =⇒ P2 = (x2 , y2 , z2 ) ,
(1.4)
wobei (x1 , y1 , z1 ) und (x2 , y2 , z2 ) die Koordinaten der Punkte bezeichnen.
Wir werden im Folgenden die Rechenoperationen und ihre Eigenschaften
einführen und am Beispiel der Verschiebungen im dreidimensionalen Raum illustrieren. Der abstrakte und verallgemeinerte Vektorbegriff im n-dimensionalen
Raum wird dann definiert mit Hilfe dieser Rechenoperationen: Eine Menge, in
der diese Rechenoperationen mit ihren bestimmten (einfachen und plausiblen !)
Eigenschaften erklärt sind, heißt Vektorraum oder auch linearer Raum, und die
Elemente dieser Menge heißen Vektoren.
Eine spezielle Klasse von Vektoren kennzeichnen wir durch ein Dachsymbol
statt eines Vektorpfeils. Solch ein Vektor â hat die gleiche Richtung wie ~a
und den Betrag |â | = 1. Man bezeichnet solche Vektoren als Einheitsvektoren
(siehe Abbildung 1.2 ).
1.2. VEKTORRECHNUNG
5
→
a
P2
^
a
P1
1
Abbildung 1.2: Vektor ~a und Einheitsvektor â = ~a/a.
1.2.1
Rechnen mit Vektoren
Es gibt zwei unterschiedliche Rechenoperationen mit Vektoren, die Multiplikation mit Zahlen (Skalaren), die wir im Folgenden mit griechischen Buchstaben
wie α, β,. . . bezeichnen, und die Addition von Vektoren, die eine Reihe von
Verträglichkeitsregeln erfüllen. Im Wesentlichen sagt diese Verträglichkeit aus,
dass man rechnen darf ‘wie gewohnt’. Es geht also hier nicht darum, etwas
Besonderes oder gar Außergewöhnliches zu lernen. Als anschaulichen Hintergrund zur Motivation der verschiedenen Rechenoperationen verwenden wir als
Bild für die Vektoren die Verschiebungen im Raum in eine bestimmte Richtung
um einen bestimmten Betrag.
Multiplikation eines Vektors mit einem Skalar:
~b = α~a ,
(1.5)
d.h. das Resultat ist wieder ein Vektor mit der Eigenschaft, dass der Betrag
um den Faktor |α| geändert wird:
|~b| = |α| |~a| .
(1.6)
~a = |~a| â = aâ .
(1.7)
Damit kann man schreiben
Für positives α > 0 ist die Richtung von ~b in (1.5) gleich der von ~a, für
α < 0 entgegengesetzt. Das lässt sich schreiben als
b̂ = sign(α) â ,
(1.8)
6
KAPITEL 1. VEKTOREN
wobei mit sign(α) das Vorzeichen von α bezeichnet wird. Diese Multiplikation
ist assoziativ:
(αβ) ~a = α(β~a ) .
(1.9)
Für die Verschiebungen im Raum wird also der Betrag der Verschiebung um
den Faktor |α| geändert, die Richtung wird beibehalten (α > 0) oder umgekehrt
(α < 0).
Einige einfache Folgerungen:
(1) Mit α = 0 ergibt sich der Nullvektor ~0 = 0 ~a. Der Nullvektor hat keine
bestimmte Richtung.
(2) Mit α = −1 erhält man ~b = −~a, einen Vektor gleicher Länge in umgekehrter Richtung (vgl. Abbildung 1.3).
(3) Mit α = 1/a (a = |~a| =
6 0) ergibt sich der Einheitsvektor in Richtung von
~a:
1
1
~a = a â = â .
(1.10)
a
a
→
a
→
-a
Abbildung 1.3:
Umkehrung der
Richtung eines Vektors bei negativem
Vorzeichen.
Addition zweier Vektoren:
Für die Verschiebungen im Raum lässt sich eine Addition als Hintereinanderausführung der beiden Verschiebungen definieren. Das Ergebnis ist wieder eine
Verschiebung. Wir definieren also die Summe zweier Vektoren
~c = ~a + ~b ,
(1.11)
wie in Abbildung 1.4 dargestellt. Die Addition ist kommutativ:
~a + ~b = ~b + ~a .
(1.12)
1.2. VEKTORRECHNUNG
7
→
P3
a
P2’
→
b
→
c
→
b
→
a
P2
P1
Abbildung 1.4: Addition von Vektoren ~a + ~b = ~b + ~a = ~c.
Die Addition von drei Vektoren erfolgt schrittweise durch aufeinanderfolgende
Addition zweier Vektoren. Sie ist assoziativ und distributiv:
~a + ( ~b + ~c ) = ( ~a + ~b ) + ~c = ~a + ~b + ~c
(1.13)
α( ~a + ~b ) = α~a + α~b .
1.2.2
Abstraktion des Vektorbegriffs
Nachdem wir jetzt anhand der anschaulichen Verschiebungsvektoren die elementaren Rechenregeln von Vektoren erläutert haben, können wir davon abstrahieren. Wir betrachten eine allgemeine Menge, deren Elemente wir mit ~a,
~b, . . . bezeichnen, in der eine Addition mit den folgenden Eigenschaften erklärt
ist:
(G1)
Es gilt das Assoziativgesetz ~a + ( ~b + ~c ) = ( ~a + ~b ) + ~c.
(G2)
Der Nullvektor ~0 ist ‘neutrales Element’: ~a + ~0 = ~a für alle ~a.
(G3)
Zu jedem Vektor ~a existiert ein ‘inverser Vektor’ ~b = −~a, mit ~a + ~b = ~0.
(G4)
Die Addition ist kommutativ: ~a + ~b = ~b + ~a.
Diese Struktur definiert eine kommutative Gruppe indexkommutative Gruppe,
auch Abel’sche Gruppe oder Modul genannt.
8
KAPITEL 1. VEKTOREN
Weiterhin sei eine Multiplikation α~a mit einem Skalar α (einem Element
aus dem ‘Körper’ der reellen Zahlen) erklärt mit:
(K1)
(K2)
(K3)
Es gelten die Distributivgesetze α( ~a + ~b ) = α~a + α~b
und (α + β)~a = α~a + β~a.
Es gilt das Assoziativgesetz α(β~a ) = (αβ)~a.
Die Zahl 1 (das ‘Einselement des Zahlenkörpers’) erfüllt die Gleichung
1~a = ~a für alle ~a .
Man nennt eine solche Menge von Elementen mit Rechenoperationen, die die
Regeln (G1) – (G4) und (K1) – (K3) erfüllen, linearer Raum (auch Vektorraum
oder K-Modul ) über dem Körper der reellen Zahlen.
Wenn eine Menge {~x1 , ~x2 , . . . , ~xk } von k Vektoren gegeben ist, so interessiert man sich oft für die Menge der Linearkombinationen
~x = α1 ~x1 + α2 ~x2 + . . . + αk ~xk =
k
X
αj ~xj , αj ∈ R ,
(1.14)
j=1
die durch diese Vektoren erzeugt werden können. Man nennt diese Menge die
lineare Hülle dieser Vektoren, die von ihnen aufgespannt wird.
Falls einer der Vektoren, z.B. xm , als Linearkombination der restlichen dargestellt werden kann,
~xm =
k
X
γj ~xj ,
γj ∈ R ,
(1.15)
j=1,j6=m
oder bequemer: wenn man schreiben kann
β1 ~x1 + β2 ~x2 + . . . + βk ~xk =
k
X
βj ~xj = ~0 ,
βj ∈ R ,
(1.16)
j=1
mit irgendwelchen Koeffizienten βj ∈ R, die nicht alle gleich null sind, dann
ist zumindest einer dieser Vektoren in einer gewissen Weise überflüssig, denn
auch ohne ihn wird die gleiche lineare Hülle erzeugt. Man nennt die Vektoren
{~x1 , ~x2 , . . . , ~xk } in einem solchen Fall linear abhängig und anderenfalls linear
unabhängig.
Die Minimalzahl linear unabhängiger Vektoren eines Vektorraumes, die diesen Vektorraum aufzuspannen, heißt Dimension dieses Vektorrraums, und eine
solche linear unabhängige Menge heißt Basis dieses Raumes.
1.2. VEKTORRECHNUNG
9
Beispiele von Vektorräumen
Die Translationen: Die Translationen oder Verschiebungen im dreidimensionalen Raum R3 bilden den wohl bekanntesten Vektorraum, der meist schon
in der Schule behandelt wird. Eine solche Translation Ta verschiebt alle Punkte parallel. Insbesondere wird der Nullpunkt mit den Koordinaten (0, 0, 0) in
einem kartesischen Koordinatensystem in einen Punkt mit den Koordinaten
(a1 , a2 , a3 ) verschoben. Diese drei Zahlen ai , i = 1, 2, 3 charakterisieren die
Verschiebung in eindeutiger Weise. Ein beliebiger Punkt mit den Koordinaten
(r1 , r2 , r3 ) wird durch Ta in den Punkt (r1 + a1 , r2 + a2 , r3 + a3 ) verschoben.
Eine Addition zweier Verschiebungen Ta und Tb erklärt man durch die Hintereinanderschaltung der beiden Operationen. Dabei wird der Nullpunkt zuerst
durch Ta nach (a1 , a2 , a3 ) und dann durch Tb , beschrieben durch (b1 , b2 , b3 ),
nach (a1 + b1 , a2 + b2 , a3 + b3 ) verschoben. Formal schreibt man das als
(a1 , a2 , a3 ) + (b1 , b2 , b3 ) = (a1 + b1 , a2 + b2 , a3 + b3 ) .
(1.17)
Eine Multiplikation einer Translation Ta mit einer Zahl α ist eine Verschiebung in die gleiche Richtung wie Ta , aber um den Faktor α skaliert. Dadurch
entsteht eine Translation, die den Nullpunkt nach (αa1 , αa2 , αa3 ) verschiebt.
Formal schreibt man das als
α(a1 , a2 , a3 ) = (αa1 , αa2 , αa3 ) .
(1.18)
Es ist offensichtlich, dass diese Operationen die Regeln (G1) – (G4), (K1) –
(K3) erfüllen: Die Translationen bilden einen Vektorraum. Dieser Vektorraum
ist dreidimensional: Die drei Translationen (1, 0, 0), (0, 1, 0), (0, 0, 1) sind linear
unabhängig (Beweis?) und jede Translation (a1 , a2 , a3 ) lässt sich durch eine
Linearkombination dieser drei Vektoren darstellen (Beweis?). Die drei Vektoren
bilden also eine Basis.
Weiterhin kann man sich leicht davon überzeugen, dass man in genau der
gleichen Weise Translationen in einem n–dimensionalen Raum Rn erklären
kann, die man durch die n Koordinaten (a1 , a2 , . . . , an ) beschreibt.
Die Polynome: Neben den Translationen erfüllen eine Reihe anderer
mathematischer Strukturen die Regeln (G1) – (G4), (K1) – (K3) und bilden
folglich einen Vektorraum. Viele dieser Vektorräume sind in der Physik von
Bedeutung. Ein Beispiel eines solchen abstrakten Vektorraums ist die Menge
aller Polynome
P (x) = a0 + a1 x + a2 x2 + . . . + an xn =
n
X
j=0
aj xj .
(1.19)
10
KAPITEL 1. VEKTOREN
mit Grad ≤ n. In Anhang A wird gezeigt, dass diese Menge eine Vektorraumstruktur besitzt. Sie bildet einen Vektorraum der Dimension n + 1, und man
kann daher mit diesen Polynomen rechnen wie mit Vektoren.
1.2.3
Das Skalarprodukt
Das Skalarprodukt, das auch inneres Produkt genannt wird, ist ein Produkt
zweier Vektoren, dessen Resultat eine Zahl ist, ein Skalar. Man kennzeichnet
dieses Produkt durch einen Punkt. Es ist definiert als
~a · ~b = ab cos ϕ .
(1.20)
Dabei ist ϕ der Winkel zwischen den beiden Vektoren (vgl. Abbildung 1.5).
Zunächst sollten wir uns überlegen, dass das Resultat dieses Produktes wirklich
ϕ
→
^
a.b
→
b
Abbildung 1.5: Skalarprodukt zweier Vektoren. Die Projektion eines Vektors ~a
auf die Richtung des Vektors ~b hat die Länge ~a · b̂ = a cos ϕ.
einen Skalar liefert, denn sowohl die Beträge der beiden Vektoren als auch
der Winkel zwischen ihnen bleiben bei einer Drehung des Koordinatensystems
unverändert, und dies war ja die Forderung an eine skalare Größe (vgl. Seite
3).
Eigenschaften des Skalarprodukts:
~a · ~b
~a · ( ~b + ~c )
α( ~a · ~b )
= ~b · ~a (kommutativ)
(1.21)
= ~a · ~b + ~a · ~c (distributiv)
(1.22)
=
(α~a ) · ~b = ~a · (α~b )
(homogen) .
(1.23)
1.2. VEKTORRECHNUNG
11
Einige Spezialfälle:
~a orthogonal ~b =⇒ ~a · ~b = 0
~a parallel ~b =⇒ ~a · ~b = ab
~a antiparallel ~b =⇒ ~a · ~b = −ab
(1.24)
~a = ~b =⇒ ~a · ~a = a2
~a = ~0 oder ~b = ~0 =⇒ ~a · ~b = 0 .
Zwei Vektoren sind also orthogonal wenn ihr Skalarprodukt verschwindet.
Weiterhin gilt die Schwarz’sche Ungleichung
− ab ≤ ~a · ~b ≤ ab .
(1.25)
Man kann mit Hilfe des Skalarprodukts sehr einfach die Projektion eines
Vektors ~a auf eine Richtung (beschrieben durch einen Einheitsvektor b̂ ) definieren. Für den Wert dieser Projektion gilt
ab = a cos ϕ = ~a · b̂
(|b̂ | = 1 ), und der projizierte Vektor ist gleich
~ab = ab b̂ = ~a · b̂ b̂ .
(1.26)
(1.27)
Als Beispiel für eine Anwendung des Skalarproduktes beweisen wir den
Kosinus–Satz: Für die Seitenlängen im Dreieck gilt
c2 = a2 + b2 − 2ab cos γ ,
(1.28)
β
→
a
→
c
γ
α
→
b
Abbildung 1.6: Dreieck aus den
Vektoren ~b, ~c und ~a = ~b + ~c.
12
KAPITEL 1. VEKTOREN
wobei der Winkel γ der Seite c gegenüberliegt (vgl. Abbildung 1.6). Der Beweis
ist sehr einfach:
c2
= ~c · ~c = ( ~a − ~b ) · ( ~a − ~b )
= ~a · ~a + ~b · ~b − ~a · ~b − ~b · ~a = a2 + b2 − 2ab cos γ .
(1.29)
Man kann versucht sein, zu sagen, dass man – sobald man das Skalarprodukt
zur Verfügung hat – den Kosinus–Satz vergessen kann.
Hier sind wir bei der Definition des Skalarproduktes von der anschaulichen Bedeutung eines Vektors ausgegangen, der insbesondere eine Richtung im
Raum besitzt. Der Winkel zwischen zwei solchen Vektoren ist dabei anschaulich klar. In einer abstrakteren Definition eines Vektorraumes (vgl. Abschnitt
1.2.2) ist das aber nicht der Fall. Hier kann man das Skalarprodukt durch die
Eigenschaften (1.21) — (1.23) sowie ~a · ~a > 0 für ~a 6= ~0 definieren Allerdings
existiert ein solches Skalarprodukt nicht für jeden Vektorraum. Ein Beispiel
für einen abstrakten Vektorraum mit einem Skalarprodukt ist der Vektorraum
der Polynome in Anhang A. Dort wird gezeigt, dass man sogar in abstrakter
Weise einen ‘Winkel’ zwischen zwei Polynomen definieren kann.
1.2.4
Das Vektorprodukt
Neben dem Skalarprodukt zweier Vektoren existiert im dreidimensionalen Fall
R3 noch ein zweites Produkt, dessen Resultat aber ein Vektor ist. Man nennt
dieses Vektorprodukt auch Kreuzprodukt oder äußeres Produkt. Es ist definiert
→
b
F
h
ϕ
→
a
Abbildung 1.7: Der Betrag des Vektorproduktes ist gleich der Fläche des aufgespannten Parallelogramms.
1.2. VEKTORRECHNUNG
13
als
~c = ~a × ~b
mit c = ab |sin ϕ| ,
(1.30)
das heißt, der Betrag des Vektors ~c ist gleich der Fläche des von den beiden
Vektoren ~a und ~b aufgespannten Parallelogramms. Diese Fläche ist das Produkt
der Länge der Grundseite a und der Höhe h = b | sin ϕ| :
Fläche = ah = ab | sin ϕ| .
(1.31)
Die Richtung des Vektors ~c wird festgelegt durch die Rechtsschraubenregel:
Dreht man den ersten Vektor, ~a, des Vektorprodukts ~a × ~b auf dem kürzestem
Weg in Richtung des zweiten Vektors, ~b, so hat der Vektor ~c = ~a × ~b die Richtung, in der sich eine Rechtsschraube bei dieser Drehung fortbewegen würde.
Alternativ kann man sich diese Richtung auch mittels der ‘Daumenregel der
rechten Hand’ merken: Orientiert man die rechte Hand so, dass die Finger
der Richtung vom ersten Vektor zum zweiten folgen, so zeigt der Daumen in
Richtung des Vektorproduktes.
→
→
axb
→
ϕ
→
b
F = ab I sin ϕ I
a
Abbildung 1.8: Die Richtung des Vektorproduktes wird bestimmt durch die
Rechtsschraubenregel.
Eigenschaften des Vektorprodukts:
~a × ~b
= −~b × ~a (antikommutativ)
(1.32)
~a × ( ~b + ~c )
= ~a × ~b + ~a × ~c (distributiv)
(1.33)
α( ~a × ~b )
=
(α~a ) × ~b = ~a × (α~b )
(homogen) .
(1.34)
14
KAPITEL 1. VEKTOREN
Bis auf den Vorzeichenwechsel bei der Vertauschung der Reihenfolge stimmen
alle diese Rechenregeln mit denen des Skalarprodukts überein.
Einige Spezialfälle:
~a orthogonal ~b =⇒ ~a × ~b = ab
~a parallel ~b =⇒ ~a × ~b = ~0
~a antiparallel zu ~b =⇒ ~a × ~b = ~0
(1.35)
~a = ~b =⇒ ~a × ~a = ~0
~a = ~0 oder ~b = ~0 =⇒ ~a × ~b = ~0 .
Als Beispiel für eine Anwendung des Vektorproduktes beweisen wir den
Sinus–Satz: Für die Seitenlängen im Dreieck gilt
sin α
a
=
,
b
sin β
(1.36)
wobei der Winkel α bzw. β der Seite a bzw. b gegenüberliegt (vgl. Abbildung
1.6). Entsprechendes gilt für die anderen Seiten und Winkel. Der Beweis ist
wieder einfach:
2 × Fläche des Dreiecks = ~a × ~b = ~c × ~b = ~a × ~c = ab sin γ = cb sin α = ac sin β .
Die letzte Gleichung liefert beispielsweise cb sin α = ac sin β und nach Division
durch c die gesuchte Gleichung (1.36).
1.2.5
Komponentendarstellung
Wir definieren im dreidimensionalen Raum drei paarweise aufeinander senkrecht stehende Einheitsvektoren, die wir mit
x̂ , ŷ , ẑ
(1.37)
bezeichnen. Wie Abbildung 1.9 illustriert, wird dadurch das bekannte kartesische Koordinatensystem des R3 erzeugt. Man sollte außerdem die Bezeichnungen so wählen, dass x̂ × ŷ = ẑ gilt (ein so genanntes Rechtssystem). Es gilt also
1.2. VEKTORRECHNUNG
15
z^
→
a
x^
az
y^
ax
ay
Abbildung 1.9: Die drei Einheitsvektoren x̂, ŷ und ẑ stehen paarweise aufeinander senkrecht.
x̂ · x̂ = ŷ · ŷ = ẑ · ẑ = 1
(1.38)
x̂ · ŷ = x̂ · ẑ = ŷ · ẑ = 0
und
x̂ × ŷ = ẑ , ŷ × ẑ = x̂ , ẑ × x̂ = ŷ
(1.39)
ŷ × x̂ = −ẑ , ẑ × ŷ = −x̂ , x̂ × ẑ = −ŷ .
Man sollte sich auch an andere Schreibweisen für diese Einheitsvektoren
gewöhnen, die oft benutzt werden, wie etwa
~ex , ~ey , ~ez
oder ~e1 , ~e2 , ~e3 ,
oder auch ê1 , ê2 , ê3 .
(1.40)
Dabei steht das e für ‘Einheitsvektor’ (in der englischsprachigen Literatur erscheint dann entsprechend u für ‘unit vector’). Weiterhin findet man auch
1̂ , 2̂ , 3̂ , oder allgemein î , ĵ , k̂ .
An dieser Stelle ist es angebracht, den dreidimensionalen Raum unserer Anschauung zu verallgemeinern. In einem Vektorraum der Dimension n (vgl. Seite
8) bildet ein System von n orthonormierten Vektoren ê1 , ê2 ,. . . , ên eine orthonormierte Basis .
16
KAPITEL 1. VEKTOREN
Wir notieren zur Übung einmal die Gleichungen (1.38) und (1.39) mit Hilfe
der êi als
êi · êj
= δij ,
êi × êj = êk für i, j, k ∈ {1, 2, 3} zyklisch
mit der zweckmäßigen Abkürzung

 1 i=j
δij =
 0 i 6= j
,
(1.41)
(1.42)
dem Kroneckersymbol. Dabei nennt man eine Reihenfolge (i j k) zyklisch, wenn
sie eine gerade Permutation1 von (1 2 3) darstellt, antizyklisch bei einer ungeraden Permutation; z.B. ist (3 1 2) eine gerade (zyklisch) und (2 1 3) eine ungerade Permutation (antizyklisch); die Kombination (2 3 2) ist keines von beiden
(vgl. Abbildung 1.10).
2
1
2
1
3
3
Abbildung 1.10: Eine zyklische Anordnung (links) entspricht einer geraden
Permutation, eine antizyklische Anordnung (rechts) entspricht einer ungeraden
Permutation der drei Zahlen 1, 2, 3.
Man kann nun jeden Vektor durch seine Komponenten bezüglich der orthogonalen Basis darstellen:
~a = ax x̂ + ay ŷ + az ẑ
(1.43)
ax = ~a · x̂ , ay = ~a · ŷ , az = ~a · ẑ .
(1.44)
mit
In einer abgekürzten Schreibweise notiert man nur die Komponenten in der
Form
~a = (ax , ay , az ) .
(1.45)
1 Eine Permutation ist eine Umordnung von Elementen. Man kann jede Permutation durch
eine Folge von Vertauschungen zweier Elemente erzeugen. Ist deren Anzahl (un)gerade, nennt
man die Permutation (un)gerade.
1.2. VEKTORRECHNUNG
17
Man rechnet mit solchen Vektoren in der verkürzten Schreibweise wie
α~a = α (ax , ay , az ) = α(ax x̂ + ay ŷ + az ẑ)
(1.46)
= (αax ) x̂ + (αay ) ŷ + (αaz ) ẑ = (αax , αay , αaz )
und
~a + ~b = (ax , ay , az ) + (bx , by , bz )
(1.47)
= ax x̂ + ay ŷ + az ẑ + bx x̂ + by ŷ + bz ẑ
= (ax + bx )x̂ + (ay + by ) ŷ + (az + bz ) ẑ = (ax + bx , ay + by , az + bz ) .
Ein Vergleich mit den entsprechenden Operationen für die Translationen im R3
in (1.17) und (1.18) zeigt die Verwandtschaft dieser Darstellungen.
Die Komponentendarstellung des Skalarproduktes ist
~a · ~b = (ax x̂ + ay ŷ + az ẑ) · (bx x̂ + by ŷ + bz ẑ) = ax bx + ay by + az bz (1.48)
und speziell
a2 = ~a · ~a = a2x + a2y + a2z
(1.49)
oder
a=
q
a2x + a2y + a2z .
(1.50)
Zur Übung formulieren wir diese Gleichungen noch einmal in einer alternativen kompakteren Schreibweise. Mit
~a =
3
X
ai êi =
i=1
X
ai êi
(1.51)
X
(αai ) êi ,
(1.52)
(ai + bi ) êi .
(1.53)
i
haben wir
α~a = α
X
ai êi =
X
bi êi =
i
~a + ~b =
X
i
ai êi +
i
i
X
i
18
KAPITEL 1. VEKTOREN
und
~a · ~b =
X
ai êi ·
i
X
j
bj êj =
X
ai bj êi · êj =
ij
X
ai bj δij =
ij
X
ai bi .
(1.54)
i
Die Komponentendarstellung des Vektorproduktes gestaltet sich etwas umfangreicher, ist aber problemlos. Zunächst schreiben wir ausführlich
~a × ~b
=
(ax x̂ + ay ŷ + az ẑ) × (bx x̂ + by ŷ + bz ẑ)
= ax bx x̂ × x̂ + ax by x̂ × ŷ + ax bz x̂ × ẑ
+ay bx ŷ × x̂ + ay by ŷ × ŷ + ay bz ŷ × ẑ
+az bx ẑ × x̂ + az by ẑ × ŷ + az bz ẑ × ẑ
=
(ay bz − az by ) x̂ + (az bx − ax bz ) ŷ + (ax by − ay bx ) ẑ
(1.55)
mit x̂ × x̂ = ŷ × ŷ = ẑ × ẑ = 0 und x̂ × ŷ = −ŷ × x̂ = ẑ .
Den Ausdruck (1.55) kann man sich leichter merken mit Hilfe einer Schreibweise als Determinante:
x̂ ŷ
ẑ ~
.
a
a
a
x
y
z
(1.56)
~a × b = b x by b z Wenn man den formalen Ausdruck (1.56) nach den Regeln der 3 × 3–Determinanten auswertet (mehr über Determinanten findet man in Kapitel 5 auf Seite
119), erhält man genau das Ergebnis von (1.55).
In der Theoretischen Physik schreibt man das Vektorprodukt in der Komponentendarstellung auch gerne in der kompakten aber etwas gewöhnungsbedürftigen Form
X
~a × ~b =
ijk ai bj êk ,
(1.57)
ijk
wobei die i j k unabhängig von 1 bis 3 laufen. Die êk sind die Einheitsvektoren
in kartesischen Koordinaten. Die dreifach indizierten Zahlen ijk sind durch


i, j, k zyklisch
 1


ijk =
(1.58)
−1
i, j, k antizyklisch



 0
sonst
1.2. VEKTORRECHNUNG
19
definiert. Für die Komponenten des Vektorprodukts, z.B. der Komponente
bezüglich ê2 , bestätigt man leicht, dass gilt
X
~a × ~b 2 =
ij2 ai bj = a3 b1 − a1 b3
(1.59)
ij
(vgl. 1.55), und genauso für die anderen Komponenten.
Man sagt (aber das muss man jetzt noch nicht genauer verstehen): Die
ijk sind die ‘Komponenten des total-antisymmetrischen Tensors dritter Stufe’.
Hier bedeutet total-antisymmetrisch, dass ijk das Vorzeichen wechselt bei einer
beliebigen Vertauschung zweier Indizes, und die dritte Stufe weist auf eine
dreifach indizierte Größe hin. Mehr dazu in Kapitel 5.
1.2.6
Das Spatprodukt
Mit dem Skalarprodukt und dem Vektorprodukt haben wir zwei wichtige Produkte von Vektoren kennen gelernt. Das Spatprodukt ist kein weiteres Produkt,
sondern eine nützliche Kombination aus einem Skalar- und einem Vektorprodukt:
~a × ~b · ~c .
(1.60)
Wie in Abbildung 1.11 dargestellt, spannen die drei Vektoren ~a, ~b, ~c einen
Körper auf (Parallelepiped, Parallelflächner oder auch einfach Spat genannt;
Kristalle wie Kalkspat kristallisieren in dieser Form.). Mathematisch werden
→
c
h
e^
→
b
G
→
a
Abbildung 1.11: Das Spatprodukt.
20
KAPITEL 1. VEKTOREN
wir die Menge aller Punkte innerhalb des ‘Spates’ beschreiben als die Menge
aller Vektoren ~r, die die folgende Bedingung erfüllen:
~r = α ~a + β ~b + γ ~c mit
0 ≤ α, β, γ ≤ 1 .
(1.61)
Im Moment wollen wir jedoch nur das Volumen dieses ‘Spates’ berechnen. Wir
erinnern uns noch daran, dass wir das Volumen eines Körpers, der in ‘gleichen Höhen über der Grundfläche gleiche Schnittflächen besitzt’, mit Hilfe der
Formel
Volumen = V = Grundfläche mal Höhe
berechnen können. Die Grundfläche ist hier gleich |~a × ~b | und die Höhe ist
gleich der Projektion h = |~c · ê| von ~c auf einen Einheitsvektor ê, der senkrecht
auf der Grundfläche steht. Dieser Vektor ist gegeben durch
ê =
~a × ~b
,
|~a × ~b |
(1.62)
und man erhält das Spatvolumen als
~a × ~b V = ~a × ~b h = ~a × ~b ~c ·
= ~a × ~b · ~c .
|~a × ~b |
(1.63)
Dieses Volumen ist wegen der Betragsstriche in Gleichung (1.63) nicht-negativ.
Das Spatprodukt selbst kann natürlich sowohl positiv als auch negativ sein. Das
sieht man sofort wegen der Antikommutativität des Vektorproduktes (1.32):
~a × ~b · ~c = − ~b × ~a · ~c .
(1.64)
Man kann drei Objekte auf sechs verschiedene Arten anordnen, also können wir
mit den drei Vektoren ~a, ~b, ~c sechs verschiedene Spatprodukte bilden, deren
Betrag gleich ist (der aufgespannte Spat ist immer gleich). Wegen (1.64) haben
drei der sechs Produkte unterschiedliches Vorzeichen. Es gilt
~a × ~b · ~c = ~b × ~c · ~a = ~c × ~a · ~b ,
(1.65)
d.h. das Spatprodukt ist invariant bei zyklischer Vertauschung der Vektoren,
und wegen (1.64) wechselt es das Vorzeichen bei einer antizyklischen Vertauschung. Ein Beweis dieser Formel ergibt sich ein paar Zeilen weiter.
Ausserdem können wir in (1.65) mit Hilfe der Kommutativität des Skalarprodukts umordnen,
~a × ~b · ~c = ~b × ~c · ~a = ~a · ~b × ~c ,
(1.66)
1.2. VEKTORRECHNUNG
21
d.h. es gilt eine Vertauschungsrelation von Vektor- und Skalarprodukt:
~a × ~b · ~c = ~a · ~b × ~c .
(1.67)
Es ist sehr nützlich, einen expliziten Ausdruck für das Spatprodukt in einer Komponentendarstellung zur Verfügung zu haben. Eine kurze Rechnung
ergibt:
~a × ~b · ~c = (ax x̂+ay ŷ+az ẑ )×(bx x̂+by ŷ+bz ẑ ) · (cx x̂+cy ŷ+cz ẑ )
= (ay bz −az by ) x̂+(az bx −ax bz ) ŷ+(ax by −ay bx ) ẑ ·(cx x̂+cy ŷ+cz ẑ )
= (ay bz − az by )cx + (az bx − ax bz )cy + (ax by − ay bx )cz .
(1.68)
Die letzte Zeile identifiziert man mit dem Wert einer 3 × 3–Determinante
(vgl. Abschnitt 5.2), die zeilenweise aus den drei Vektoren ~a, ~b und ~c aufgebaut
ist:
a
x ay az ~a × ~b · ~c = bx by bz .
(1.69)
cx cy cz Man sieht aus dieser Formel, dass der Vorzeichenwechsel des Spatproduktes bei
einer Vertauschung zweier Vektoren dem Vorzeichenwechsel einer Determinante
bei Vertauschung zweier Zeilen entspricht. Damit folgt Gleichung (1.65).
Wir können jetzt eine sehr einfache Antwort auf die folgende Frage geben:
Wann liegen die drei Vektoren ~a, ~b, ~c in einer Ebene? — Eine Lösung liefert
die Überlegung, dass in diesem Fall der von den drei Vektoren aufgespannte
‘Spat’ zu einer Fläche, einem Parallelogramm, degeneriert. Sein Volumen V ist
daher gleich null, was man testen kann durch Berechnung des Spatproduktes:
V = ~a × ~b · ~c = 0 ,
(1.70)
d.h. die Vektoren liegen genau dann in einer Ebene, wenn das Spatprodukt
verschwindet.
Eine andere Antwort ist: Alle Vektoren ~x, die in einer von ~a und ~b aufgespannten Ebene liegen, lassen sich schreiben als
~x = α~a + β~b .
(1.71)
22
KAPITEL 1. VEKTOREN
→
→
αa + βb
→
βb
→
→
a+b
→
b
→
a
→
αa
Abbildung 1.12: Die Menge aller Linearkombinationen α~a + β~b spannt eine
Ebene auf.
Man nennt ~x eine Linearkombination von ~a und ~b (vgl. Abbildung 1.12). Wenn
also der Vektor ~c in dieser Ebene liegt, muss es Zahlen α und β geben mit
~c = α~a + β~b .
(1.72)
Man prüft sofort nach, dass dann auch das Spatprodukt verschwindet:
~a × ~b · ~c = ~a × ~b · (α~a + β~b ) = α ~a × ~b · ~a + β ~a × ~b · ~b = 0 . (1.73)
Die drei Vektoren sind in diesem Fall linear abhängig.
1.2.7
Das doppelte Vektorprodukt
Neben dem Spatprodukt (1.60) lässt sich noch ein weiteres Mehrfachprodukt
aufschreiben, das doppelte Vektorprodukt
~a × ~b × ~c .
(1.74)
Man überzeugt sich leicht, dass im allgemeinen gilt
~a × ~b × ~c 6= ~a × ~b × ~c ,
(1.75)
denn es ist zum Beispiel x̂ × x̂ × ŷ = ~0 × ŷ = ~0 und x̂ × x̂ × ŷ = x̂ × ẑ = −ŷ.
Außerdem gilt der Entwicklungssatz
~a × ~b × ~c = ~b ( ~a · ~c ) − ~a ( ~b · ~c ) ,
(1.76)
der oft benutzt wird, um ein doppeltes Vektorprodukt in Formeln zu vereinfachen.
1.3. DIFFERENTIATION
1.3
23
Differentiation
In diesem Abschnitt befassen wir uns mit der Differentiation in einem dreidimensionalen Raum. Dabei geht es zunächst um die Ableitung von vektorwertigen Funktionen, wie beispielsweise einer Bahnkurve im Raum, die durch
einen Vektor ~r = ~r (t) beschrieben wird, der von der Zeit t abhängt. Die Ableitungen dieser Funktion nach t liefern die Geschwindigkeit und Beschleunigung.
Weiterhin betrachten wir im folgenden Abschnitt Funktionen, die von den drei
Raumkoordinaten abhängen und werden den Ableitungsbegriff auf Funktionen
erweitern, die von mehreren Variablen abhängen.
Die Ableitung einer Funktion f (x) nach der Variablen x in einem Punkt x0
ist definiert durch den Differentialquotienten
∆f
f (x) − f (x0 )
df = lim
,
(1.77)
f 0 (x0 ) =
= lim
dx x0 ∆x→0 ∆x x→x0 (x − x0 )
mit x = x0 + ∆x. Der Differentialquotient ist also der Grenzwert des Differenzenquotienten [f (x) − f (x0 )]/∆x für einen beliebig kleinen Zuwachs ∆x
(vorausgesetzt natürlich, dass dieser Grenzwert existiert). Anschaulicher ausgedrückt: Die Ableitung ist die Steigung der Funktion im Punkt x0 , definiert
als Grenzwert der Steigung im Intervall [x0 , x] (vgl. Abbildung 1.13).
y
g(x) = f(x0) + f’(x0) (x-x0)
f(x)
∆f
∆x
f(x0 + ∆x)
f(x0)
x0
x0 + ∆x
x
Abbildung 1.13: Die Ableitung f 0 (x0 ) einer Funktion f (x) an der Stelle x0 ist
der Grenzwert der Intervallsteigung für ∆x → 0.
Die Taylor–Entwicklung
In vielen Anwendungen in der Physik benutzen wir die Ableitung einer Funktion auch, um einen Funktionswert an einer Stelle x durch den Funktions-
24
KAPITEL 1. VEKTOREN
wert an der Stelle x0 ≈ x zu approximieren. Für kleines ∆x = x − x0 gilt
näherungsweise
f 0 (x0 ) ≈
oder umgeformt
f (x) − f (x0 )
,
x − x0
f (x) ≈ f (x0 ) + f 0 (x0 )(x − x0 ) .
(1.78)
(1.79)
Das bedeutet eine Approximation von f (x) durch die lineare Funktion
g(x) = f (x0 ) + f 0 (x0 )(x − x0 ) ,
(1.80)
die mit f (x) und ihrer ersten Ableitung an der Stelle x0 übereinstimmt. Man
kann diese Näherung noch verbessern durch
f (x) ≈ f (x0 ) + f 0 (x0 )(x − x0 ) +
f 00 (x0 )
(x − x0 )2 ,
2
(1.81)
also durch die Approximation von f (x) durch ein Polynom zweiten Grades.
Durch Differenzieren sieht man, dass in dieser Näherung auch noch die zweiten
Ableitungen bei x0 übereinstimmen.
Eine Verallgemeinerung liefert die Taylor–Entwicklung
f (x) =
m
X
f (n) (x0 )
(x − x0 )n + Rm (x)
n!
n=0
(1.82)
∞
X
f (n) (x0 )
=
(x − x0 )n ,
n!
n=0
vorausgesetzt, dass das Restglied der Reihe, das man schreiben kann als
Rm (x) =
f (m+1) (η)
(x − x0 )m+1 ,
(m + 1)!
η ∈ [x0 , x] ,
(1.83)
mit wachsendem m gegen null geht. Weiterhin ist die Taylor–Entwicklung
P∞
eindeutig, d.h. es existiert keine andere Potenzreihendarstellung f (x) = n=0
an (x − x0 )n in einer Umgebung von x0 .
Ein Beispiel ist die Taylor–Entwicklung der Exponentialfunktion f (x) = ex
um den Punkt x0 = 0. Mit der Ableitung f 0 (x)) = ex = f (x) sehen wir, dass
alle Ableitungen übereinstimmen. Ihr Wert an der Stelle x0 = 0 ist gleich
f ( n)(0) = e0 = 1 .
(1.84)
1.3. DIFFERENTIATION
25
Damit ergibt sich die Taylorreihe
ex =
∞
X
xn
,
n!
n=0
(1.85)
da das Restglied für m → ∞ gegen null geht:
Rm (x) =
eη
(m+1)!
xm+1 ≤
ex
(m+1)!
xm+1 −−−−→ 0 .
m→∞
(1.86)
In gleicher Weise findet man die Taylor–Reihen für die Sinus– und Kosinus–
Funktionen in (B.35).
Das Differential
Neben der Ableitung einer Funktion benutzt man (nicht nur) in der Physik
so genannte Differentiale. Anwendungen finden sich z.B. bei Integraltransformationen, der Behandlung von Differentialgleichungen und in der Fehlerrechnung. In allen Fällen lässt sich die Verwendung von derartigen Differentialen
vermeiden, aber wegen ihrer Zweckmäßigkeit werden sie mehr oder weniger
kommentarlos in vielen Lehrbüchern und Vorlesungen benutzt. Deshalb hier
einige Klarstellungen. Zunächst wieder die Anschauung. Es sei ∆x eine kleine
Differenz der Größe x, also ∆x = x2 − x1 , was man sich als ‘Rütteln’ an der
Größe x vorstellen kann. Wenn nun eine andere Größe, wie z.B. y, mit x zusammenhängt, geschrieben als y = f (x), dann ändert sich diese Größe auch,
d.h. die Änderung ∆y ist starr mit ∆x verknüpft. Es gilt
∆y ≈ f 0 (x)∆x
(1.87)
(dabei ist das Argument x von f 0 (x) aus dem Intervall [x1 , x2 ] ). Wenn man
jetzt das Intervall immer kleiner macht, dann wird aus dem ≈ ein = und aus
den kleinen Differenzen ∆x und ∆y werden die Differentiale dx und dy. Das
einzige Problem, das man hier noch zu bewältigen hat, ist die Tatsache, dass
diese Differentiale dann wegen ∆x → 0 null werden. Man benötigt also einen
Trick, um das zu umgehen.
Will man den Formalismus isolierter Differentiale streng mathematisch einführen, benötigt man etwas mehr höhere Mathematik, hat dann aber auch
ein wesentlich flexibleres Handwerkszeug zur Verfügung (Differentialformen,
Nonstandard–Analysis). Hier versuchen wir erste Schritte in dieser Richtung.
Ist die Funktion y = f (x) an der Stelle x differenzierbar, so nennt man das
Produkt
f 0 (x) h
(1.88)
26
KAPITEL 1. VEKTOREN
das zu dem beliebigen(!) h gehörige Differential von f (x) an der Stelle x und
bezeichnet es mit
dy
oder
df (x) ,
(1.89)
wobei es meist nicht nötig ist, h gesondert anzugeben. Wichtig ist, dass h
nicht ‘klein’ sein muss; x + h braucht nicht einmal dem Definitionsbereich von
f anzugehören.
Betrachtet man insbesondere die Funktion f (x) = x, so ist ihre Ableitung
gleich 1 und es gilt
dx = h
(1.90)
(statt h verwendet man oft auch ∆x). Dann gilt auch
dy = f 0 (x) dx ,
(1.91)
und die Ableitung ist damit exakt gleich dem Quotienten der Differentiale
f 0 (x) =
dy
dx
(1.92)
und nicht ein Grenzwert für ∆x gegen null, wodurch sich auch der Name Differentialquotient für die Ableitung rechtfertigt.
1.3.1
Differentiation von Vektorfunktionen
z^
.
r
→
→
r (t)
→
r
y^
x^
Abbildung 1.14: Bahnkurve der Bewegung eines Massepunktes. Die Bahngeschwindigkeit ~r˙ steht tangential zur Bahn.
1.3. DIFFERENTIATION
27
Wir betrachten in diesem Abschnitt Vektoren ~r = (x, y, z), die von einer
skalaren Größe t abhängen, also
~r = ~r (t) = x(t), y(t), z(t) .
(1.93)
Als konkretes Beispiel kann man sich die Bahn eines Teilchens im Raum als
Funktion der Zeit t vorstellen (vgl. Abbildung 1.14).
Die Differenz der Positionen zu den Zeiten t und t + ∆t ist
∆~r = ~r (t + ∆t) − ~r(t) ,
(1.94)
und die komponentenweise Differentiation (bei einer zeitunabhängigen Basis)
~r˙
=
d~r
∆~r
= lim
∆t→0
dt
∆t
=
~r (t + ∆t) − ~r (t) dx dy dz =
, ,
∆t→0
∆t
dt dt dt
lim
(1.95)
ist die Ableitung2 des Vektors ~r (t) nach dem Skalar t. Man nennt ~r˙ auch
die Geschwindigkeit und schreibt ~v = ~r˙ . Der Geschwindigkeitsvektor ist ein
Tangentialvektor an die Bahnkurve. Da die Geschwindigkeit im allgemeinen
wieder von der Zeit t abhängt, können wir abermals nach t differenzieren und
erhalten damit die Beschleunigung
~a = ~v˙ = ~r¨ =
d2~r
.
dt2
(1.96)
Für die Ableitung von Vektorfunktionen nach einem Skalar gelten die folgenden Rechenregeln, die sich direkt aus den Differentiationsregeln für die Summe
und das Produkt von Funktionen ergeben:
d
~a + ~b
dt
=
d~a
d~b
+
dt
dt
(1.97)
d
d~a ~
d~b
· b + ~a ·
~a · ~b =
dt
dt
dt
(1.98)
d
d~a ~
d~b
~a × ~b =
× b + ~a ×
dt
dt
dt
(1.99)
2 Es sei hier erwähnt, dass diese Ableitung natürlich nur dann existiert, wenn die Komponenten x, y, z des Vektors ~
r nach t differenzierbar sind.
28
KAPITEL 1. VEKTOREN
.
→
r
Abbildung 1.15: Die Differenz der Positionen zur Zeit t und t + ∆t dividiert
durch ∆t liefert für ∆t → 0 die Bahngeschwindigkeit ~r˙ .
d
df
d~a
f~a =
~a + f
dt
dt
dt
(1.100)
d~a ~
d~b
d~c d
~a · ( ~b × ~c ) =
· b × ~c + ~a ·
× ~c + ~a · ~b ×
.(1.101)
dt
dt
dt
dt
Man kann also mit derartigen Ausdrücken rechnen wie gewohnt, allerdings
unter Beachtung der Reihenfolge der Vektoren in den Produkten.
Man beweist diese Beziehungen durch direkte Berechnung. Als Beispiel sei der
Beweis für (1.98) angeführt:
X
d X
d
~a · ~b
=
ai bi =
ȧi bi + ai ḃi
dt
dt i
i
=
X
ȧi bi +
i
X
˙
ai ḃi = ~a˙ · ~b + ~a · ~b ,
(1.102)
i
sowie der Beweis von Gleichung (1.99):
X
d X
d
( ~a × ~b) =
ijk ai bj êk =
ijk ȧi bj + ai ḃj êk
dt
dt
ijk
=
X
ijk
1.3.2
ijk ȧi bj êk +
ijk
X
˙
ijk ai ḃj êk = ~a˙ × ~b + ~a × ~b .(1.103)
ijk
Die partielle Ableitung
Für die Differentiation von Funktionen von mehreren Variablen f (x, y, z) ist
der Begriff der partiellen Ableitung ∂f /∂x von großer Bedeutung. Kurz gesagt
1.3. DIFFERENTIATION
29
wird hierbei nach der Variablen x so differenziert, als ob f nur eine Funktion
von x allein wäre und alle anderen Variablen als Konstanten betrachtet werden:
f (x + ∆x, y, z) − f (x, y, z)
∂f
= lim
.
∂x ∆x→0
∆x
(1.104)
Entsprechend definiert man
∂f
f (x, y + ∆y, z) − f (x, y, z)
= lim
∆y→0
∂y
∆y
(1.105)
∂f
f (x, y, z + ∆z) − f (x, y, z)
= lim
.
∆z→0
∂z
∆z
(1.106)
und
Falls es irgendeinen Zweifel geben sollte, welche Variable oder welche Variablen
bei der partiellen Differentiation konstant gehalten werden, kann man das durch
die folgende Schreibweise festhalten:
∂f
.
(1.107)
∂x y,z
Dies bedeutet, dass nach x differenziert wurde, wobei die Werte von y und z
festgehalten wurden. Man schreibt die partiellen Ableitungen auch alternativ
in der Kurzform
fx =
∂f
,
∂x
fy =
∂f
∂y
und fz =
∂f
,
∂z
(1.108)
wobei allerdings Verwechslungen (z.B. mit den Komponenten eines Vektors)
möglich sind. Entsprechend lassen sich auch höhere partielle Ableitungen bilden, wie zum Beispiel
∂2f
∂ ∂f
fxx =
=
(1.109)
∂x ∂x
∂x2
oder — und das ist neu im Vergleich zu der Differentiation von Funktionen mit
nur einer Variablen — auch gemischte Ableitungen, wie
∂ ∂f
∂2f
fxy =
=
,
(1.110)
∂y ∂x
∂y∂x
d.h. die zweite partielle Ableitung, die sich ergibt, wenn man zuerst nach x und
danach nach y partiell differenziert.
30
KAPITEL 1. VEKTOREN
Als Beispiel berechnen wir alle ersten und zweiten partiellen Ableitungen
der Funktion
f (x, y) = 4x5 + 2x2 y + 9xy 3
(1.111)
von zwei Veränderlichen x und y. Für die ersten Ableitungen ergibt sich
fx = 20x4 + 4xy + 9y 3 ,
fy = 2x2 + 27xy 2
(1.112)
und für die zweiten partiellen Ableitungen
fxx = 80x3 + 4y , fyy = 54xy , fxy = 4x + 27y 2 , fyx = 4x + 27y 2 . (1.113)
Man beobachtet hier, dass die beiden gemischten Ableitungen unabhängig sind
von der Reihenfolge der Differentiation, also fxy = fyx . Das gilt mit recht
großer Allgemeinheit nach dem Satz von Schwarz unter der Voraussetzung,
dass die zweiten partiellen Ableitungen existieren und stetig sind.
Wenn nun die Variablen x, y und z von einer skalaren Variablen t abhängen:
f (t) = f x(t), y(t), z(t) ,
(1.114)
so kann man die Funktion f (t) wie bekannt nach t differenzieren. Es gilt dabei
eine erweiterte Kettenregel:
df
∂f dx ∂f dy ∂f dz
=
+
+
.
dt
∂x dt
∂y dt
∂z dt
Das beweist man mit Hilfe von
f x(t + ∆t), y(t + ∆t), z(t + ∆t) − f (x, y, z)
f (t + ∆t) − f (t)
=
∆t
∆t
(1.115)
1.3. DIFFERENTIATION
31
f (x + ∆x, y + ∆y, z + ∆z) − f (x, y, z)
(vgl. (1.94) )
∆t
1 n
=
f (x + ∆x, y + ∆y, z + ∆z) − f (x, y + ∆y, z + ∆z)
∆t
=
o
+f (x, y+∆y, z+∆z)−f (x, y, z +∆z)+f (x, y, z +∆z)−f (x, y, z)
=
f (x + ∆x, y + ∆y, z + ∆z) − f (x, y + ∆y, z + ∆z) ∆x
∆x
∆t
+
f (x, y + ∆y, z + ∆z) − f (x, y, z + ∆z) ∆y
∆y
∆t
+
−−−−→
∆t→0
f (x, y, z + ∆z) − f (x, y, z) ∆z
∆z
∆t
∂f dx ∂f dy ∂f dz
+
+
.
∂x dt
∂y dt
∂z dt
Unter Verzicht auf das explizite Hinschreiben der Differentiation nach der Variablen t lässt sich (1.115) auch abgekürzt schreiben als
df =
∂f
∂f
∂f
dx +
dy +
dz .
∂x
∂y
∂z
(1.116)
Dieses totale Differential gibt die Änderung des Wertes der Funktion f an, falls
die Variable x um dx verändert wird, y um dy und z um dz (vgl. dazu auch
Seite 25).
Bei manchen Anwendungen möchte man diese Beziehung für endliche, nicht
infinitesimale Größen benutzen. Man schreibt dann ∆ statt d, also
∆f ≈
∂f
∂f
∂f
∆x +
∆y +
∆z ,
∂x
∂y
∂z
(1.117)
wobei natürlich aus dem ‘=’ ein ‘≈’ wurde (vgl. Abbildung 1.16).
Als Beispiel betrachten wir die Funktion
2
f (x, y, z) = (1 + z) ex+y .
(1.118)
Die partiellen Ableitungen sind
2
2
2
∂f
∂f
∂f
= (1 + z) ex+y ,
= 2y(1 + z) ex+y ,
= ex+y .
∂x
∂y
∂z
(1.119)
32
KAPITEL 1. VEKTOREN
∂f
∂y
∂f
∂f
∆x +
∆y
∂y
∂x
∆y
∂f
∂x
∆x
f(x, y)
∆y
(x, y)
∆x
Abbildung 1.16: Zuwachs einer Funktion f (x, y) bei Änderung von x um ∆x
und y um ∆y.
An der Stelle (x, y, z) = (0, 0, 0) ist der Funktionswert f (0, 0, 0) = 1 bekannt.
Bei einem Zuwachs um (∆x, ∆y, ∆z) = (0.1, 0.1, 0.1) ändert sich der Funktionswert nach Gleichung (1.117) näherungsweise um
∂f ∂f ∂f ∆f ≈
∆x +
∆y +
∆z .
(1.120)
∂x 0
∂y 0
∂z 0
Dabei bezeichnet ∂f /∂x0 den Wert der partiellen Ableitung an der Stelle
(x, y, z) = (0, 0, 0). Wir erhalten
∆f = 1 · 0.1 + 0 · 0.1 + 1 · 0.1 = 0.2
(1.121)
und daher nach Gleichung (1.79) einen approximativen Funktionswert von
f (0.1, 0.1, 0.1) ≈ f (0, 0, 0) + ∆f = 1 + 0.2 = 1.2. Ein Vergleich mit der exakten
Berechnung von f (0.1, 0.1, 0.1) = (1 + 0.1) e0.1+0.01 ≈ 1.227 zeigt eine recht
gute Übereinstimmung.
1.4
Krummlinige Koordinaten I
Im Abschnitt 1.2 haben wir die Komponenten eines Vektors in einem dreidimensionalen kartesischen Koordinatensystem dargestellt. Im vorangehenden
Abschnitt haben wir gelernt, in diesen Koordinaten zu differenzieren. Die Wahl
1.4. KRUMMLINIGE KOORDINATEN I
33
eines solchen Koordinatensystems ist aber beliebig. Man kann z.B. ein kartesisches Koordinatensystem in geeigneter Weise orientieren; man kann aber auch
ganz andere Koordinatensysteme – man nennt sie ganz allgemein krummlinige
Koordinaten – wählen, die beispielsweise der Symmetrie eines Systems angepasst sind. Ein bekanntes Beispiel sind die Längen- und Breitengrade auf
der Erdkugel. Wir bezeichnen hier ganz allgemein solche (dreidimensionalen)
Koordinaten mit u, v, w. Unsere Aufgabe ist es nun, in diesen Koordinaten zu
rechnen, also beispielsweise zu differenzieren.
Bei einer Transformation von den kartesischen Koordinaten x, y, z auf beliebige andere Koordinaten u, v, w können wir ganz ähnlich vorgehen wie im
vorigen Abschnitt. Der Vektor ~r = (x, y, z) hängt jetzt von den Variablen
u, v, w ab, d.h. ~r = x(u, v, w), y(u, v, w), z(u, v, w) .
Dann gilt wie oben bei alleiniger Änderung der Bezeichnungen
dx =
∂x
∂x
∂x
du +
dv +
dw ,
∂u
∂v
∂w
(1.122)
sowie ein ganz analoger Ausdruck für dy bzw. dz. Damit erhält man das so
genannte Linienelement als
d~r
=
(dx, dy, dz) = dx êx + dy êy + dz êz
∂x
∂x
∂x
∂y
∂y
∂y
=
du +
dv +
dw êx +
du +
dv +
dw êy
∂u
∂v
∂w
∂u
∂v
∂w
∂z
∂z
∂z
+
du +
dv +
dw êz
∂u
∂v
∂w
∂x
∂y
∂z
∂x
∂y
∂z
=
êx +
êy +
êz du +
êx +
êy +
êz dv
∂u
∂u
∂u
∂v
∂v
∂v
∂x
∂y
∂z
+
êx +
êy +
êz dw
∂w
∂w
∂w
=
∂ ~r
∂ ~r
∂ ~r
du +
dv +
dw
∂u
∂v
∂w
(1.123)
mit
∂ ~r ∂x ∂y ∂z =
,
,
.
∂u
∂u ∂u ∂u
(1.124)
Gleichung (1.123) beschreibt die Änderung des Vektors ~r bei Änderung der
Koordinate u um du, v um dv und w um dw.
34
KAPITEL 1. VEKTOREN
Im folgenden Abschnitt werden wir diese Formeln benutzen, um spezielle
wichtige krummlinige Koordinatensysteme kennen zu lernen.
1.4.1
Ebene Polarkoordinaten
^y
y
ϕ
x
x^
Abbildung 1.17: Ebene Polarkoordinaten.
Die wohl einfachsten und bekanntesten krummlinigen Koordinaten sind die
ebenen Polarkoordinaten. Man benutzt zur Beschreibung eines Punktes in der
(x, y)-Ebene den Abstand r vom Ursprung des Koordinatensystems und den
Winkel ϕ zur x-Achse (siehe Abbildung 1.17). Die Transformation zwischen
den kartesischen Koordinaten x, y und den Polarkoordinaten r, ϕ ist gegeben
durch die Gleichungen
x = r cos ϕ ,
y = r sin ϕ
(1.125)
mit der Umkehrung
r=
p
x2 + y 2 ,
ϕ = arctan
y
y
(x ≥ 0), ϕ = arctan + π (x < 0) . (1.126)
x
x
Die beiden Vektoren
êr = (cos ϕ, sin ϕ) ,
êϕ = (− sin ϕ, cos ϕ)
(1.127)
p
sind Einheitsvektoren (|êr | = |êϕ | = sin2 ϕ + cos2 ϕ = 1), die aufeinander
senkrecht stehen (êr · êϕ = − cos ϕ sin ϕ + sin ϕ cos ϕ = 0). Diese Vektoren
zeigen in die beiden Koordinatenrichtungen, also êr in radiale Richtung und êϕ
in azimutale Richtung, wie in Abbildung 1.18 dargestellt.
1.4. KRUMMLINIGE KOORDINATEN I
35
y
e^ ϕ
.
e^ r
→
r
ϕ
x
Abbildung 1.18: Einheitsvektoren der ebenen Polarkoordinaten.
In diesem einfachen Fall lassen sich die beiden Einheitsvektoren erraten,
aber für kompliziertere Situationen benötigt man ein allgemeines Konstruktionsverfahren. Das lässt sich leicht angeben: Einen Vektor ‘in Richtung einer
Koordinate u’ erhält man durch die Änderung ∆~r des Vektors ~r bei alleiniger
Änderung der Koordinate u um einen kleinen Wert ∆u, also einen Vektor in
Richtung ∂ ~r/∂u. Um einen Einheitsvektor in diese Richtung zu erhalten, muss
man den Vektor noch durch seinen Betrag dividieren:
∂ ~r 1 ∂ ~r
mit bu = .
(1.128)
êu =
bu ∂u
∂u
Als Test verifizieren wir mit Hilfe von (1.128) und
~r = (r cos ϕ, r sin ϕ)
(1.129)
die Einheitsvektoren (1.127) für die ebenen Polarkoordinaten. Zunächst berechnen wir
∂~r
= (cos ϕ, sin ϕ) ,
∂r
und ihre Beträge
q
br = cos2 ϕ + sin2 ϕ = 1
,
∂~r
= (−r sin ϕ, r cos ϕ)
∂ϕ
bϕ =
q
r2 sin2 ϕ + r2 cos2 ϕ = r .
(1.130)
(1.131)
36
KAPITEL 1. VEKTOREN
Damit finden wir
êr =
1 ∂ ~r
= (cos ϕ, sin ϕ)
br ∂r
(1.132)
und
êϕ
=
1 ∂ ~r
= (− sin ϕ, cos ϕ)
bϕ ∂ϕ
(1.133)
in Übereinstimmung mit (1.127).
Die Bahnkurve ist in ebenen Polarkoordinaten gegeben durch
~r = ~r (t) = r(t) êr (t) .
(1.134)
Dabei muss man beachten, dass der Basisvektor êr an den verschiedenen Punkten im Raum unterschiedliche Richtungen hat, d.h. er dreht sich auf der Bahn
und es gilt êr = êr (t). Aus (1.134) erhält man unter Benutzung der Formel
dêr dϕ
ˆ˙er =
= (− sin ϕ, cos ϕ) ϕ̇ = ϕ̇ êϕ
dϕ dt
durch Differentiation die Bahngeschwindigkeit
~r˙ = ṙ êr + r ˆ˙er = ṙ êr + rϕ̇ êϕ .
(1.135)
Die Geschwindigkeit (1.135) lässt sich auch schreiben als
~v = vr êr + vϕ êϕ
(1.136)
mit der Radialgeschwindigkeit
vr = ṙ
(1.137)
vϕ = rϕ̇
(1.138)
und der Geschwindigkeit
in azimutaler Richtung; ϕ̇ bezeichnet man als Winkelgeschwindigkeit. Mit Hilfe
von
ê˙ ϕ = (− cos ϕ, − sin ϕ) ϕ̇ = −ϕ̇ êr
(1.139)
1.4. KRUMMLINIGE KOORDINATEN I
37
berechnen wir die Beschleunigung in Polarkoordinaten als
~a = ~r¨ = ~v˙
d
d
=
vr êr + vϕ êϕ =
ṙ êr + rϕ̇ êϕ
dt
dt
= r̈ êr + ṙ ê˙ r + ṙϕ̇ êϕ + rϕ̈ êϕ + rϕ̇ ê˙ ϕ
=
(r̈ − rϕ̇2 ) êr + (rϕ̈ + 2ṙϕ̇) êϕ
(1.140)
oder
~a = ar êr + aϕ êϕ
(1.141)
mit der Radialbeschleunigung
ar = r̈ − rϕ̇2
(1.142)
aϕ = rϕ̈ + 2ṙϕ̇ .
(1.143)
und der Winkelbeschleunigung
Zum Abschluss berechnen wir noch das Linienelement (1.123) in Polarkoordinaten:
d~r =
∂ ~r
∂ ~r
dr +
dϕ = dr êr + r dϕ êϕ = dsr êr + dsϕ êϕ .
∂r
∂ϕ
(1.144)
y
→
ϕ
ds
dr
dF
dsr = dr
dϕ
r
x
Abbildung 1.19: Differentielle Linienelemente in ebenen Polarkoordinaten.
38
KAPITEL 1. VEKTOREN
Die Linienelemente in die beiden Koordinatenrichtungen êr und êϕ nennt man
auch Längenelemente und bezeichnet sie mit ds, also
dsr = dr
und dsϕ = r dϕ
(1.145)
(vgl. Abbildung 1.19). Da die beiden Vektoren êr und êϕ aufeinander senkrecht stehen, ist das differentiell kleine Flächenelement dF = dx dy in ebenen
Polarkoordinaten durch
dF = dsr dsϕ = r dr dϕ
(1.146)
gegeben.
1.4.2
Zylinderkoordinaten
In den Zylinderkoordinaten werden die beiden kartesischen Koordinaten x und
y durch ebene Polarkoordinaten ersetzt, die hier zur Unterscheidung von den
Kugelkoordinaten (vgl. Abschnitt 1.4.3) mit ρ und ϕ bezeichnet werden. Die
Transformationsgleichungen lauten
x = ρ cos ϕ ,
mit der Umkehrung
p
ρ = x2 + y 2 ,
y = ρ sin ϕ ,
ϕ = arctan
z=z
y
{+π falls x < 0},
x
(1.147)
z = z.
(1.148)
z
e^z
e^ϕ
P
^
e
ρ
z
ϕ
x
ρ
y
Abbildung 1.20: Zylinderkoordinaten.
1.4. KRUMMLINIGE KOORDINATEN I
39
Genau wie oben findet man die Einheitsvektoren als
êρ
êϕ
êz
= ( cos ϕ, sin ϕ, 0)
= (− sin ϕ, cos ϕ, 0)
= (0, 0, 1)
(1.149)
êρ · êϕ = êρ · êz = êϕ · êz = 0 ,
(1.150)
mit
das heißt, die Einheitsvektoren stehen paarweise aufeinander senkrecht und
bilden wegen êρ × êϕ = êz ein Rechtssystem.
Das Linienelement (1.123) ergibt sich genau wie für die ebenen Polarkoordinaten in (1.144) als
d~r
=
=
dρ êρ + ρdϕ êϕ + dz êz
dsρ êρ + dsϕ êϕ + dsz êz .
(1.151)
Das Volumenelement ist gleich dem Volumen eines von den Längenelementen
dsρ = dρ, dsϕ = ρ dϕ und dsz = dz aufgespannten differentiell kleinen Quaders, also
dV = dsρ dsϕ dsz = ρ dρ dϕ dz .
(1.152)
Als direkte Erweiterung von (1.135) und (1.140) (oder auch als Folgerung
von (1.151)) schreiben sich Geschwindigkeit und Beschleunigung in Zylinderkoordinaten als
~v = ρ̇ êρ + ρϕ̇ êϕ + ż êz
(1.153)
~a = (ρ̈ − ρϕ̇2 ) êρ + (2ρ̇ϕ̇ + ρϕ̈) êϕ + z̈ êz .
(1.154)
und
1.4.3
Kugelkoordinaten
Die Transformation von kartesischen Koordinaten auf krummlinige Koordinaten lässt sich ganz allgemein behandeln. Wir wollen diese Technik hier einmal
anhand des Beispiels der Kugelkoordinaten genauer darstellen.
Kugelkoordinaten oder auch sphärische Polarkoordinaten beschreiben einen
Punkt mit den kartesischen Koordinaten x, y, z durch die folgenden drei Angaben: Den Abstand r vom Koordinatenmittelpunkt, den Winkel ϑ zwischen ~r
40
KAPITEL 1. VEKTOREN
z
^
e
r
e^ϕ
r
ϑ
ϕ
z
ρ
^
e
ϑ
y
x
Abbildung 1.21: Sphärische Polarkoordinaten oder auch Kugelkoordinaten.
und der z-Achse und den Drehwinkel ϕ der Projektion von ~r auf die x, y-Ebene
bezüglich der x-Richtung.
Wie man sich aus der Zeichnung 1.21 klarmacht, ist die z–Komponente die
Projektion von ~r auf die z–Achse:
z = r cos ϑ .
(1.155)
Mit der Projektion von ~r auf die x, y–Ebene,
ρ = r sin ϑ ,
(1.156)
erhält man durch weitere Projektion auf die Koordinatenachsen die x– und
y–Komponenten:
x = ρ cos ϕ ,
y = ρ sin ϕ .
(1.157)
Insgesamt sind die Transformationsgleichungen dann gegeben durch
x = r sin ϑ cos ϕ
y = r sin ϑ sin ϕ
z = r cos ϑ .
(1.158)
Zunächst konstruieren wir einen Vektor ‘in Richtung der Koordinate r’, d.h. in
der Richtung, in der sich der Vektor ~r ändert, wenn man nur die Koordinate r
1.4. KRUMMLINIGE KOORDINATEN I
41
ändert und die beiden anderen Koordinaten ϑ und ϕ festhält. Nach Definition
ist das die partielle Ableitung
∂~r
= (sin ϑ cos ϕ, sin ϑ sin ϕ, cos ϑ)
∂r
(1.159)
mit
q
∂~r br = = sin2 ϑ cos2 ϕ + sin2 ϑ sin2 ϕ + cos2 ϑ
∂r
q
= sin2 ϑ cos2 ϕ + sin2 ϕ + cos2 ϑ = 1 .
(1.160)
Als Einheitsvektor in r–Richtung erhalten wir folglich
êr =
1 ∂~r
= (sin ϑ cos ϕ, sin ϑ sin ϕ, cos ϑ) .
br ∂r
(1.161)
Entsprechend verfahren wir mit den beiden anderen Koordinaten:
êϑ
=
1 ∂~r
=
bϑ ∂ϑ
=
1
r cos ϑ cos ϕ, r cos ϑ sin ϕ, −r sin ϑ
r
=
(cos ϑ cos ϕ, cos ϑ sin ϕ, − sin ϑ)
(1.162)
mit
und
q
∂~r bϑ = = r2 cos2 ϕ + sin2 ϕ cos2 ϑ + r2 sin2 ϑ = r
∂ϑ
êϕ
=
1 ∂~r
bϕ ∂ϕ
=
1
− r sin ϑ sin ϕ, r sin ϑ cos ϕ, 0
r sin ϑ
=
(− sin ϕ, cos ϕ, 0)
(1.163)
(1.164)
mit
q
∂~r bϕ = = r2 sin2 ϑ sin2 ϕ + cos2 ϕ = r sin ϑ .
∂ϕ
(1.165)
42
KAPITEL 1. VEKTOREN
Man prüft leicht nach, dass gilt êr · êϑ = êr · êϕ = êϑ · êϕ = 0, d.h. die drei
Einheitsvektoren sind paarweise orthogonal.
Das Linienelement in kartesischen Koordinaten
d~r = (dx, dy, dz) = dx êx + dy êy + dz êz
(1.166)
schreibt man in den neuen Koordinaten wie
d~r = dsr êr + dsϑ êϑ + dsϕ êϕ .
(1.167)
∂~r
∂~r
∂~r
dr +
dϑ +
dϕ
∂r
∂ϑ
∂ϕ
∂~r ∂~r ∂~r = dr êr + dϑ êϑ + dϕ êϕ
∂r
∂ϑ
∂ϕ
(1.168)
Vergleicht man mit
d~r =
= br dr êr + bϑ dϑ êϑ + bϕ dϕ êϕ
(siehe auch (1.123) ), so erhält man für die Längenelemente
dsr = br dr
,
dsϑ = bϑ dϑ
,
dsϕ = bϕ dϕ
(1.169)
und
d~r = dr êr + r dϑ êϑ + r sin ϑ dϕ êϕ .
(1.170)
Das Volumenelement ist schließlich
dV = dsr dsϑ dsϕ = br bϑ bϕ dr dϑ dϕ = r2 sin ϑ dr dϑ dϕ .
(1.171)
Oft ist es zweckmäßig, die Radial- und Winkelanteile zu trennen. Man findet
dann oft eine Schreibweise des Volumenelements als
dV = r2 dr dΩ
(1.172)
dΩ = sin ϑ dϑ dϕ ,
(1.173)
mit dem Raumwinkelelement
das man als Flächenelement auf der Einheitskugel verstehen
R kann (das Integral
über alle Winkel ist gleich der Fläche der Einheitskugel: dΩ = 4π).
1.4. KRUMMLINIGE KOORDINATEN I
43
Für die Beschreibung der Bewegung eines Massepunktes in Kugelkoordinaten benötigen wir außerdem noch die Geschwindigkeit und die Beschleunigung
ausgedrückt in den Basisvektoren êr , êϑ , êϕ .
Für die Geschwindigkeit ist das recht einfach: Wir differenzieren ~r (t) = rêr
nach der Zeit und beachten dabei, dass sich entlang der Bahn auch der Vektor
êr ändert. Nach der Kettenregel ergibt sich
ê˙ r
=
∂êr
∂êr
ϑ̇ +
ϕ̇
∂ϑ
∂ϕ
= ϑ̇ (cos ϑ cos ϕ, cos ϑ sin ϕ, − sin ϑ) + ϕ̇ (− sin ϑ sin ϕ, sin ϑ cos ϕ, 0)
(1.174)
= ϑ̇ êϑ + ϕ̇ sin ϑ êϕ .
Insgesamt also:
~v (t)
= ~r˙ = vr êr + vϑ êϑ + vϕ êϕ
= ṙ êr + rϑ̇ êϑ + r sin ϑ ϕ̇ êϕ .
(1.175)
Das hätte man natürlich auch schneller aus dem Differential für d~r in Gleichung
(1.170) erhalten können. Die Berechnung der Beschleunigung (die ja direkt in
die Bewegungsgleichungen eingeht!) ist etwas umfangreicher. Zunächst ermitteln wir analog zu dem Vorgehen für ê˙ r die Zeitableitungen der beiden anderen
Basisvektoren. Wir erhalten
ê˙ ϑ
= −ϑ̇ êr + ϕ̇ cos ϑ êϕ
(1.176)
ê˙ ϕ
= −ϕ̇ sin ϑ êr − ϕ̇ cos ϑ êϑ
(1.177)
und damit
~a(t)
= ~v˙ = ~r¨
= ar êr + aϑ êϑ + aϕ êϕ
(1.178)
mit den Komponenten
ar
= r̈ − rϑ̇2 − r sin2 ϑ ϕ̇2
(1.179)
aϑ
= rϑ̈ + 2ṙϑ̇ − r sin ϑ cos ϑ ϕ̇2
(1.180)
aϕ
= r sin ϑ ϕ̈ + 2 sin ϑ ṙϕ̇ + 2r cos ϑ ϑ̇ϕ̇ .
(1.181)
44
KAPITEL 1. VEKTOREN
1.4.4
Allgemeine orthogonale Koordinatensysteme
Zum Abschluss dieses Abschnittes sollen einige wichtige Formeln für allgemeine orthogonale Koordinatensysteme zusammengestellt werden. Wir werden in
diesem Abschnitt die kartesischen Koordinaten x, y, z mit x1 , x2 , x3 bezeichnen
und die kartesischen Einheitsvektoren mit ê1 , ê2 , ê3 . Ein beliebiger Vektor ~r
hat dann die Darstellung
3
X
~r =
xi êi .
(1.182)
i=1
Die neuen, krummlinigen Koordinaten seien mit y1 , y2 , y3 bezeichnet. Mit den
Transformationsgleichungen
xi = xi (y1 , y2 , y3 )
(1.183)
zwischen den Koordinatensystemen lassen sich die neuen Einheitsvektoren in
den Richtungen der neuen Koordinaten berechnen:
∂~r 1 ∂~r
, k = 1, 2, 3 .
ûk =
, bk = (1.184)
bk ∂yk
∂yk ∂~
r
Hierzu sei angemerkt, dass der Vektor ∂y
in die Richtung der Änderung von
k
~r bei alleiniger Änderung der Koordinate yk zeigt; bk ist der Betrag dieses
Vektors, und die Division durch bk normiert ûk auf den Betrag eins.
Wir fordern jetzt zusätzlich, dass die Vektoren ûk paarweise aufeinander
senkrecht stehen, wie z.B. bei den sphärischen Polarkoordinaten. Wir fordern
deshalb
ûi · ûk = δik i, k = 1, 2, 3 .
(1.185)
Man nennt solche Koordinaten dann lokal orthogonal. Das Wort lokal unterstreicht hier noch einmal, dass diese Orthogonalität in jedem Punkt des Raumes
gilt, denn die Vektoren ûk hängen ja von den Koordinaten ab und zeigen in
verschiedenen Raumpunkten in unterschiedliche Richtungen3 .
Mit Gleichung (1.123) erhält man für das Linienelement
d~r =
X
i
dxi êi =
X ∂ ~r
dyk
∂yk
(1.186)
k
3 Klarerweise ist die Orthogonalität eine starke Einschränkung, die in keiner Weise notwendig ist. Man kann auch mit nicht-orthogonalen Koordinaten arbeiten, wobei sich allerdings
einige Rechnungen umständlicher darstellen.
1.5. AUFGABEN
45
unter Benutzung von (1.184) den Ausdruck
X
d~r =
dsk ûk
(1.187)
k
mit den Längenelementen
dsk = bk dyk .
(1.188)
Wegen der Orthogonalität der Basisvektoren sind dann die Flächenelemente
gegeben als die Fläche eines Rechtecks mit den Seitenlängen dsj und dsk , z.B.
dF12 = ds1 ds2 = b1 b2 dy1 dy2
(1.189)
und das Volumenelement als Volumen eines Quaders mit den Kantenlängen
dsk :
3
3
Y
Y
dV =
dsk =
bk dyk = b1 b2 b3 dy1 dy2 dy3 .
(1.190)
k=1
1.5
k=1
Aufgaben
Aufgabe 1.1
Beweisen Sie die Dreiecksungleichung
|a − b| ≤ |~a + ~b | ≤ a + b .
Aufgabe 1.2 Beweisen Sie mit Hilfe der Vektorrechnung den Satz von Thales: ‘Der Umfangswinkel über dem Durchmesser eines Kreises ist ein rechter Winkel.’
Aufgabe 1.3
Gegeben sind die beiden Vektoren
~a = 4êx + 3êy − 5êz
und ~b = −êx + 4êy + êz .
(a) Berechnen Sie den Winkel zwischen ~a und ~b.
(b) Berechnen Sie das Vektorprodukt ~a ×~b . Verifizieren Sie die Beziehung
~a × ~b 2 = a2 b2 − ~a · ~b 2
durch getrennte Berechnung beider Seiten.
(c) Wie müssen die Koeffizienten α und β der Linearkombination
~c = α ~a + ~b + β ~a × ~b
46
KAPITEL 1. VEKTOREN
√
gewählt werden, damit die Projektion von ~c auf ~b die Länge p = 7/ 2
erhält und die drei Vektoren ~a, ~b, ~c ein Parallelepiped mit Volumen V =
297 aufspannen? Lösen Sie die Bestimmungsgleichungen für α und β
zunächst allgemein und setzen Sie dann Zahlenwerte ein.
Aufgabe 1.4 Der Vektorbegriff wurde zunächst über die Invarianz bei Drehungen motiviert. Später wurden dann die Vektoren als Elemente eines
linearen Raumes definiert. Vergewissern Sie sich für den zweidimensinalen Fall, dass Vektoraddition und Multiplikation mit einer Zahl unter
Drehungen invariant sind und dass das Skalarprodukt einen Skalar ergibt.
Aufgabe 1.5 Berechnen Sie unter Verwendung der Differentiationsregeln
für Vektoren ~r = ~r (t) die Ableitungen
(a)
d ~r
dt
,
(b)
d
~r × ~r˙
dt
,
(c)
i
dh
~r · ~r˙ × ~r¨ .
dt
Aufgabe 1.6 In ebenen Polarkoordinaten r, ϕ wird die Bahnkurve eines
Teilchens durch
~r(ϕ) = r(ϕ) êr ,
r(ϕ) =
k
1 + ε cos ϕ
mit 0 ≤ ε < 1 beschrieben.
(a) Berechnen Sie die Minimal- und Maximalwerte von r, und skizzieren
Sie die Bahnkurve.
(b) Berechnen Sie einen Einheitsvektor t̂ tangential zur Bahnkurve.
Aufgabe 1.7 Die parabolischen Koordinaten u, v sind gegeben durch die
Transformationsgleichungen
x = uv , y = v 2 − u2 /2 .
(a) Skizzieren Sie in der x, y–Ebene die Kurven mit konstantem u bzw. v.
(b) Bestimmen Sie die Einheitsvektoren êu , êv und zeigen Sie, dass sie
aufeinander senkrecht stehen.
(c) Berechnen Sie das Linienelement und das Flächenelement in diesen
Koordinaten.
Index
a priori Wahrscheinlichkeit, 352
Abel’sche Gruppe, 7
Ableitung
partielle, 28
Ablenkfunktion, 111
Ablenkwinkel, 111
abzählbar, 201
Additionstheorem, 160, 180, 330, 388
äußeres Produkt, 12
Aktivkohle, 210
Algebra, 118
Anfangsbedingung, 76, 157, 161, 179
Anordnungsmöglichkeiten, 375, 466
antikommutativ, 13
antizyklisch, 16, 119
aperiodischer Grenzfall, 165
assoziativ, 7
Assoziativgesetz, 7, 117
Asymptote, 398
Atomphysik, 103
Attraktor, 190, 201
Einzugsbereich, 190, 206
Grenzzyklus-, 169, 188, 190, 201
Punkt-, 165
seltsamer, 191, 201
Ausgleichsgerade, 58, 60
Ausgleichsrechnung, 57
Bahn
geschlossene, 101, 419
periodische, 101, 419
Bahngeschwindigkeit, 36
Bahnkurve, 27, 76, 407
Barometrische Höhenformel, 374, 376,
471
Basis, 8
Bernoulli, 360
Beschleunigung, 1, 27, 43
Radial-, 37
Winkel-, 37
Bessel–Funktion, 320, 460
Betrag
einer komplexen Zahl, 166, 386
einer komplexen Zahlen, 385
eines Vektors, 2, 13, 104, 114
Beugungsgitter, 347
Bewegungsgleichung, 1, 76
im Phasenraum, 77
in Polarkoordinaten, 90
Newton’sche, 75
Bifurkation, 190, 200
Bifurkationsdiagramm, 191, 201
Bilinearform, 322
Binomial
-Koeffizient, 356
-Verteilung, 355, 356, 376, 467
binomische Formel, 356
Bits, 365
Boltzmann
-Konstante, 359, 370
-Verteilung, 359, 369, 376, 471
Brennpunkt, 64, 83, 105, 392, 399
472
INDEX
Brennstrahl, 65, 396
Cantor–Menge, 201, 208, 212, 437
Chaos, 183
chaotisch, 78, 202, 204, 437
charakteristische Gleichung, 124, 162,
175
charakteristisches Polynom, 124
Computerprogramm, 197, 287, 438
cosh, 164
Coulomb
-Eichung, 286
-Feld, 69, 102
-Potential, 282, 452
-Streuung, 112
Daumenregel, 13
Delta–Funktion, 261, 274, 279, 341,
449, 450
dreidimensional, 269
Eigenschaften, 265
Determinante, 18, 118, 129, 133
Funktional-, 237
Jacobi-, 237
Wronski-, 149, 152
Diagonalform, 423
Dichteverteilung, 60, 319, 410
Dielektrizitätskonstante, 102, 214
Differential, 25
totales, 31, 64, 91, 223, 225, 256,
259, 442
Differentialform, 223, 256
Differentialgleichung, 76
erster Ordnung, 77, 148
homogene, 148, 155, 159
inhomogene, 154, 155, 159, 424,
426
lineare, 147
logistische, 192
numerische Lösung, 183, 287, 300,
319
473
Ordnung, 76
Randbedingungen, 157
zweiter Ordnung, 76, 148
Differentialquotient, 23, 26, 185
Differentiation, 23
Diffusionsgleichung, 277, 294, 319
allgemeine Lösung, 299
eindimensional, 456
numerische Lösung, 300
Diffusionskonstante, 295
Dimension, 8
Dipolfeld, 214, 258, 439
Dipolmoment, 215, 271, 284, 285
Dirac, Paul, 261, 279
Diskretisierung
der ersten Ableitung, 185
der zweiten Ableitung, 288, 292,
293
Distribution, 261, 272
distributiv, 7, 10, 13
Distributivgesetz, 117
Divergenz, 61, 67, 239, 413
in krummlinigen Koordinaten, 247,
250
Integraldarstellung, 239
Komponentendarstellung, 67
Rechenregeln, 67, 72
doppelte Rotation, 72, 74, 415
doppeltes Vektorprodukt, 22, 103, 286
Drehimpuls, 93, 102, 417
-Barriere, 100
-Erhaltung, 96, 99, 101, 102, 108
Drehmatrix, 128, 132, 136, 181, 421
Drehung, 3, 46, 128, 134, 144, 400, 405
Dreieck–Abbildung, 435
Dreieckschwingung, 333
Dreieckspyramide, 230
Dreiecksungleichung, 45, 403
Duffing–Oszillator, 186, 201, 211, 434
dyadisches Produkt, 127, 133
474
INDEX
Energie
der Rotation, 91
effektive, 98
kinetische, 79, 91
mittlere, 366, 369–372
potentielle, 79
ebene Polarkoordinaten, 34, 46, 395, Entartung, 124, 316
Entropie, 359, 363, 371, 374
398, 399
-satz, 374
ebene Welle, 317
Eigenschaften, 364
Effektivenergie, 98
Entwicklungssatz, 22, 103, 414
Eichung, 286
Ereignis, 360
Eigenfrequenz, 176, 178, 311, 320
Ereignisraum, 352
Eigenmode, 320
Erhaltungsgröße, 78, 94
Eigenschwingung, 311
Eigenvektor, 122, 123, 126, 144, 145, Erzeugende Funktion, 323
erzwungene Schwingung, 166, 167
171, 175
Eigenwert, 122, 123, 125, 144, 145, 171, Euler’sche Formel, 386
Euler–Verfahren, 186, 211, 433
181
Euler–Winkel, 135
einfach zusammenhängend, 222
Exponentialdarstellung, 144
Einheitskreis, 386
Exzentrizität, 105, 107, 110, 411
Einheitskugel, 42
Einheitsmatrix, 118
Einheitsvektor, 4–6, 15, 34, 408
Fadenkonstruktion, 392
Einhüllende, 82
Fast–Fourier–Transformation, 350
Einschwingvorgang, 169
Federkonstante, 84
Einstein, Albert, 2
Federpendel, 83
Einzugsbereich, 190, 206
Fehler, 47, 355
Elastizitätsmodul, 310
mittlerer, 60
Elementarereignis, 352
relativer, 57
Elementarmagnet, 371
statistischer, 47
Elementarwelle, 347
systematischer, 47
Ellipse, 65, 105, 161, 391, 406
Fehlerfortpflanzung, 55
Brennpunkte, 391
Fehlerfortpflanzungsgesetz, 56
Brennpunkteigenschaft, 395
Fehlerrechnung, 47, 355
Definition, 391
Fehlerwachstum, 204
Flächeninhalt, 396
Feigenbaum–Konstante, 201
Halbachse, 392, 393
Feld, 61
Parameter, 393
Coulomb-, 102
Elliptisches Integral, 88
Skalar-, 61
endlicher Wellenzug, 342
Vektor-, 61
Dynamik, 75, 78
chaotische, 204
im Phasenraum, 171
nichtlineare, 183, 187
reguläre, 204
INDEX
Feldlinie, 213
Fermi–Fragen, 470
FFT, 350
Fixpunkt, 89, 194, 197, 212, 436
Stabilität, 89, 198, 436
Flächenelement, 38, 227
in krummlinigen Koordinaten, 45,
46, 233, 408
Flächeninhalt, 237, 396
Flächenintegral, 225
Flächennormale, 233
Flächensatz, 108
Fluss, 216, 234, 239, 243
Flussdichte, 239
Formel von Moivre, 212, 387
Fourier
-Differentiation, 465
-Reihe, 329, 349, 462
-Transformation, 338, 349, 463
Fraktal, 191, 206, 437
Fraktaldimension, 207, 212, 437
Freiheitsgrad, 77
Fundamentalsatz der Algebra, 390
Funktion
gerade, 267, 323, 328
ungerade, 187, 323, 328
verallgemeinerte, 261
Funktional, 273
Funktionaldeterminante, 237
Funktionenraum, 321
Gärtnerkonstruktion, 392
Gas, ideales, 372
Gasgleichung, 372
Gauß
-Funktion, 264
-Puls, 341
-Verteilung, 50, 357
Gebiet, 222, 256
gekoppelte Schwingungen, 173
475
gerade
Funktion, 323, 328
Permutation, 16, 120
Gesamtdrehimpuls, 94, 96
Gesamtenergie, 79, 97
Gesamtimpuls, 94
Gesamtmasse, 95
Gesamtteilchenzahl, 295
Geschwindigkeit, 27, 43
Geschwindigkeitsverteilung, 374, 376,
471
Gibbs’sches Phänomen, 333
Gitter, 347, 463
gleichförmige Kreisbewegung, 418
Gleichungssystem, lineares, 118
Gleichverteilung, 364
Grad eines Polynoms, 377
Gradient, 61, 62, 64, 133, 246, 411
in krummlinigen Koordinaten, 249,
250
Komponentendarstellung, 62
Rechenregeln, 62
Gradientenfeld, 63, 69, 73, 79, 256,
259
Gravitationsfeld, 69, 92
Gravitationskonstante, 102, 214
Gravitationspotential, 63
Grenzfall, aperiodischer, 165
Grenzwertsatz, 355
Grenzzyklus, 169, 170, 188–190, 201
Grundgesamtheit, 54, 60
Gruppe, 7
Abel’sche, 7
der Drehungen, 130, 144
kommutative, 7
Häufigkeit, 358
Häufigkeitsverteilung, 358
Halbachse, 107, 392, 393
Halbschritt–Verfahren, 186, 211, 433
476
Halbwertsbreite, 52
harmonischer Oszillator, 84, 158, 370,
417
Hauptachse, 145
Hauptsatz der Vektoranalysis, 257
Hauptträgheitsachse, 127, 421
Hauptträgheitsmoment, 127, 145, 146,
422
Heaviside–Funktion, 266
Helmholtz’scher Zerlegungssatz, 257
Helmholtz–Gleichung, 277
Hermite
-Funktionen, 328
-Polynome, 327, 328
hermitesch, 322
Histogramm, 49, 53
homogen, 10, 13
Differentialgleichung, 148, 155, 159
Feld, 80
Ladungsverteilung, 270
Hyperbel, 105, 396
Asymptoten, 398
Brennpunkte, 396
Brennpunkteigenschaft, 398
Definition, 396
INDEX
der Rotation, 242
Invarianz, 2, 46
inverse Matrix, 120, 420
Irreversibilität, 374
Iteration, 289
iterierte Abbildung, 195, 211, 212
Jacobi–Determinante, 237
Jaynes, E.T., 360
Julia–Menge, 212, 438
K-Modul, 8
kartesisches Koordinatensystem, 14
Kastenfunktion, 262
Kaustik, 82, 112, 113, 416
Kegelschnitte, 105, 391, 401, 411
Kepler’sche Gesetze, 106, 108, 109
Keplerellipse, 106
Keplerproblem, 102
Kettenregel, 30, 43, 133, 182, 248
Kippschwingung, 334
Knotenlinie, 136
Körper, 8
kommutativ, 6, 7, 10
Kommutator, 117
komplexe Wurzeln, 388
komplexe Zahlen, 381
ideales Gas, 372
Addition, 381
imaginäre Einheit, 382
Betrag, 385
Imaginärteil, 381
komplex konjugierte Zahl, 166
Impuls, 93
Multiplikation, 381
Impulssatz, 93
Polardarstellung, 166, 386
Information, 365
Rechenregeln, 384
Informations–Entropie, 363
komplexe Zahlenebene, 386
Informationstheorie, 360
Komponentendarstellung, 14
inhomogene Differentialgleichung, 154,
Divergenz, 67
155, 159
Gradient, 62
Inhomogenität, 159
Rotation, 70
inneres Produkt, 10
Skalarprodukt, 17
Integraldarstellung
Spatprodukt, 21
der Divergenz, 239
Vektorprodukt, 18
INDEX
Kompositions–Regel, 361
Konfidenzintervall, 52
konfokal, 74
konjugiert komplexe Zahl, 384
Konstante der Bewegung, 78
Kontinuitätsgleichung, 255
konvexe Hülle, 368
Koordinaten, 1
-transformation, 2
kartesische, 14
krummlinige, 33, 44, 237, 246
Kugel-, 39
Normal-, 176, 178
parabolische, 46, 407
Polar-, 34
Zylinder-, 38
Koordinatensystem, 1, 3
orthogonales, 44
Kosinus hyperbolicus, 164
Kosinus–Satz, 11
Kraft, 1, 75
Kraftfeld, 61, 75, 259, 440
Kraftstoß, 276, 450
Kreisbewegung
gleichförmige, 418
Kreisfläche, 230
Kreisfrequenz, 306
Kreismembran, 320, 459
Kreuzprodukt, 12
Kriechfall, 164
Kroneckersymbol, 16
krummlinige Koordinaten, 33, 44, 237,
246
Küstenlänge, 206, 207, 210, 211
Kugelkoordinaten, 39
Kurvenintegral, 216, 259, 440, 441
wegunabhängiges, 442
477
Längenelement, 38, 42, 45
Lagrange’scher Multiplikator, 367
Laguerre–Polynome, 327
Laplace, P.-S., 359
Laplace–Gleichung, 277, 290
Laplace–Operator, 69, 72, 258, 278
in krummlinigen Koordinaten, 249,
250
Leapfrog–Verfahren, 186
Legendre–Polynome, 322, 327, 349, 380,
461
Leibnitz’sche Reihe, 335
Leistung, 170
Lenz–Runge–Vektor, 102
Lenz–Vektor, 102, 104
Lewis–Invariante, 156, 426
linear,
Abbildung, 120
abhängig, 8, 22
Algebra, 78
Differentialgleichung, 147
Fit, 410
Gleichungssystem, 118
Hülle, 8
Raum, 2, 4, 8, 46, 274, 378
Schwingungen, 157
unabhängig, 8
Linearform, 322
Linearkombination, 8, 22, 45, 148
Linienelement, 33, 37, 39, 42, 44, 46,
408
Linienstrom, 215
logistische Abbildung, 195
logistische Differentialgleichung, 192
lokal orthogonal, 44, 232
Longitudinalwelle, 309
Lorentz–Kraft, 77
Lorentz–Kurve, 264, 338
Ladungsverteilung, 270, 280, 318, 447, Lorentz–Verteilung, 52, 347
451
Lyapunov–Exponent, 202, 212, 437
478
Magnetfeld, 215, 252, 260, 319, 371,
448, 453
magnetisches Moment, 371
Magnetisierung, 371
Mandelbrot–Abbildung, 212, 438
Mandelbrot–Menge, 211, 212, 438
Masse, 1, 75
Massepunkt, 43, 75
mathematisches Pendel, 85, 187
Mathieu–Gleichung, 147
Matrix, 115
-Addition, 116
-Diagonalisierung, 137
-Funktion, 141, 146, 424
-Multiplikation, 116
inverse, 120, 420, 423
nicht-diagonalisierbare, 422
orthogonale, 129
Rechenregeln, 117
symmetrische, 125
transponierte, 118
maximale Unbestimmtheit, 365
Maxwell–Boltzmann’sche Geschwindigkeitsverteilung, 471
Maxwell–Boltzmann–Verteilung, 374,
376, 471
Maxwell–Gleichungen
differentielle, 251
integrale, 251
Membran, 303
-schwingung, 303, 314, 320, 459
Kreis-, 320
Rechteck-, 314
Mittelwert, 48, 51, 52, 54, 60, 357, 367,
376, 409, 467, 468
Mittelwertsatz
der Differentialrechnung, 265
der Integralrechnung, 241
mittlere Abweichung vom Mittelwert,
357, 376
INDEX
mittlere Energie, 373
Modul, 7
Moivre, Formel von, 212, 387
Molekülschwingung, 182, 431
Multipolentwicklung, 122, 283, 285, 326
Nabla–Operator, 62
in krummlinige Koordinaten, 247
Nats, 363
neutrales Element, 7
nichtlineare
Differentialgleichung, 78
Dynamik, 183
Schwingung, 187
nirgends dicht, 201
Normale, 65, 66, 396
Normalkoordinaten, 176, 178
Normalschwingungen, 176
Normalverteilung, 50
Nullvektor, 6
numerische Exzentrizität, 393
numerische Methoden, 183–186, 287–
294, 300, 301, 319, 454
Oberflächenintegral, 232, 234, 443
orthogonal, 126
Funktionen, 321, 459
Koordinatensysteme, 44
Polynome, 322
Vektoren, 11, 14, 42
Orthogonalitätsrelation, 329, 330
Ortsvektor, 77
Oszillator
angetriebener, 158, 336, 429
dreidimensionaler, 114, 419
Duffing-, 186, 211, 434
gepulster, 345
harmonischer, 84, 158, 182, 370,
417
Parabel, 80, 83, 105, 398
INDEX
Brennpunkt, 399
Brennpunkteigenschaft, 400
Definition, 398
Parameter, 399
parabolische Koordinaten, 407
Parallelepiped, 19, 46
Parallelflächner, 19
Parameter, 105, 393, 399
Parität, 328
Parseval–Identität, 336, 339, 350, 465
partielle Ableitung, 28
partielle Differentialgleichung, 277
Pendel
Feder-, 83
mathematisches, 85, 187
Periode, 84
Periodenverdopplung, 190, 200
Permutation, 16, 375, 466
(anti)zyklische, 120
(un)gerade, 120
Phasenbahn, 77, 89, 161
Phasenraum, 77, 89, 93, 161, 171, 184
Phasenverschiebung, 167
Phasenwinkel, 167
Planck’sches Wirkungsquantum, 370,
373
Poincaré–Abbildung, 189
Poincaré–Schnitt, 188
Poisson
-Gleichung, 258
Poisson–Gleichung, 277, 278, 285, 287,
292, 319, 447, 454
numerische Lösung, 287, 319
Poisson–Integral, 280
Poisson–Verteilung, 358, 376, 468, 469
Polardarstellung, 388, 402
komplexe Zahlen, 166
Polarkoordinaten
ebene, 34, 46, 395, 398, 399
sphärische, 39
479
Polynome, 9, 322, 327, 377, 378
Populationsdynamik, 193
Potential, 63, 102, 254
Potenzreihe, 142
Prinzip
maximaler Unbestimmtheit, 374
Prinzip maximaler Unbestimmtheit, 359,
366
Prinzip vom nicht zureichenden Grunde, 360
Projektion, 10, 11
Punktattraktor, 165
Punktladung, 102, 214, 270, 279
Punktmasse, 63, 214
Punktquelle, 63, 66, 69
quadratische Form, 400, 419
Quadrupolfeld, 285
Quadrupolmoment, 284
Quadrupoltensor, 285
Quantenmechanik, 103, 117, 277, 343,
366
Quellenfeld, 239, 257
quellenfrei, 69, 71, 73
Quellstärke, 67, 216, 239, 245, 251,
257
Radialbeschleunigung, 37
Radialfeld, 214
Radialgeschwindigkeit, 36
radialsymmetrisch, 97
Randbedingung, 76, 157, 293, 308–310,
315, 320
Random Walk, 302
Ratengleichung, 301, 319, 375, 457
Raumwinkelelement, 42, 234
Realteil, 381
Rechenregeln, 72
Divergenz, 67, 72
Gradient, 62
komplexe Zahlen, 384
480
Matrizen, 117
Rotation, 70, 72
Skalarprodukt, 10
Vektorprodukt, 13
Rechteck–Puls, 340
Rechteckmembran, 314
Rechteckschwingung, 331
Rechtsschraubenregel, 13
Rechtssystem, 14, 39
reduzierte Masse, 95
reelle Zahlen, 8
Regel von Sarrus, 119
reguläre Dynamik, 204
Reibung, 77, 147, 158, 161, 163, 164,
168, 170
Rekursion, 327, 328, 349, 461
Relativdrehimpuls, 96, 114
Relativitätstheorie, 2
Relativkoordinate, 95
Relaxationsgleichung, 293
Relaxationsparameter, 292
Relaxationsverfahren, 292, 319, 454
Resonanz, 168, 430
Restglied, 24
reziproker Abstand, 283, 326
Rosettenbahn, 101
Rotation, 61, 70, 225, 241, 413, 415
in krummlinigen Koordinaten, 249,
250
Integraldarstellung, 242
Komponentendarstellung, 70
Rechenregeln, 70, 72
Rotationsenergie, 91
Rückstellkraft, 84
Sarrus, Regel von, 119
Satz
von Fischer-Riesz, 328
von Gauß, 244, 260, 279, 445
von Pythagoras, 393, 394
INDEX
von Schwarz, 30, 74, 223
von Stokes, 245, 252, 260, 445
von Thales, 45, 403
Schaukel, 147
Scheitelhöhe, 80
Schmetterlingseffekt, 206
schräger Wurf, 80
Schrödinger–Gleichung, 277
Schwarz’sche Ungleichung, 11
Schwarz, Satz von, 30, 74, 223
Schwebung, 180
Schwerefeld, 80
Schwerpunkt, 94, 95
Schwingfall, 162
Schwingung
Dreieck-, 333
erzwungene, 166, 167
freie, 159
gedämpfte, 427
gekoppelte, 173, 431
harmonische, 84, 158, 427, 450
Kipp-, 334
lineare, 157
nichtlineare, 187
Normal-, 176
Rechteck-, 331
Schwingungsdauer, 84, 86, 113, 416
Schwingungsgleichung, 276
allgemeine Lösung, 311
Schwingungsknoten, 307, 311
Schwingungsmode, 315
selbstähnlich, 201, 206
seltsamer Attraktor, 191, 201
Separationsansatz, 307
Separatrix, 90
Sierpinski
-Dreieck, 209
-Quadrat, 212, 438
-Schwamm, 209, 212, 437
sinh, 164
INDEX
Sinus hyperbolicus, 164
Sinus–Satz, 14
Skalar, 3, 46
Skalarfeld, 61
Skalarprodukt, 10, 46, 321, 379, 404,
411
Komponentendarstellung, 17
Rechenregeln, 10
Skalengesetz, 208, 339
Spalt, 348
Spaltenvektor, 117, 131, 139, 145, 420
Spannung, 310
Spat, 19
Spatprodukt, 19
Spektralanalyse, 336
spezifische Wärme, 372
sphärische Polarkoordinaten, 39
Divergenz, 250
Gradient, 249
Laplace–Operator, 250
Rotation, 250
Spiegelung, 120
Sprungfunktion, 266, 276
Spur, 123, 133, 285, 420
Stabilität von Fixpunkten, 89, 198, 212,
436
Standardabweichung, 54, 60, 409
statistische Physik, 351
Stirling’sche Näherung, 355
Stoßkaskade, 209
Stoßparameter, 111
Strahlenoptik, 82
Streckschwingung, 432
Streubahn, 100, 110
Streuwinkel, 110
stroboskopisch, 188
Stromdichte, 319, 453
stückweise glatt, 335
Stufenfunktion, 266, 275
symmetrisch, 121, 122, 125, 420
481
Szenario, 200
Tangente, 77
Tangentialvektor, 27
Taylor–Reihe, 24, 88, 122, 283, 324
Teilchenfluss, 234
Teilchensystem, 76
Temperatur, 359, 369
temperierte Distribution, 273
Tensor, 4, 127, 133, 285
total antisymmetrischer, 19
Tensore, 2
Testfunktion, 273
total antisymmetrischer Tensor, 19
totales Differential, 31, 64, 91, 223,
225, 256, 259, 442
Trägheitsmoment, 127
Trägheitstensor, 127, 133, 145, 146, 421
Transformation, 3, 237
auf Diagonalform, 137, 146, 423
von Matrizen, 132
von Vektoren, 131
von Volumenelementen, 239
Translation, 4, 9
Transmissionsfunktion, 347
transponierte Matrix, 118
Transversalschwingung, 303
Trennung der Variablen, 192
Tschebyscheff–Polynome, 327
Umkehrpunkt, 100, 114, 417
Umlaufzeit, 90
Unbestimmtheit, 359, 360, 365
ungerade
Funktion, 323, 328
Permutation, 16
universell, 191, 195, 201
Unschärferelation, 343, 350, 466
Varianz, 53, 54, 60, 376
Vektor, 2, 4, 6
482
Vektoranalysis, 61
Vektorfeld, 61, 75, 213
Vektorpotential, 285, 453
Vektorprodukt, 12, 45, 404, 415
doppeltes, 22
Komponentendarstellung, 18
Rechenregeln, 13
Vektorraum, 4, 8, 321
verallgemeinerte Funktion, 261, 272
Verhulst–Gleichung, 195
Verschiebung, 4, 9
Verschiebungsrelation, 339
Vertauschung, 420
Vertauschungsrelation, 21
Verteilung
Binomial-, 355, 356, 376, 467
Boltzmann-, 359, 369, 376, 471
Gauß-, 357
Poisson-, 358, 376, 468, 469
Vertrauensintervall, 52
vollständige Induktion, 138, 142
Vollständigkeit, 326, 349, 461
Volumenelement, 39, 42, 45, 227, 239
Volumenintegral, 225
INDEX
stehende, 307
Wellengleichung, 277, 303
dreidimensional, 317
eindimensional, 320, 457
zweidimensional, 313
Wellenlänge, 306
Wellenprofil, 305
Wellenzahl, 306
Winkelbeschleunigung, 37
Winkelgeschwindigkeit, 36
Wirbelfeld, 73, 241, 257
wirbelfrei, 71, 73
Wirbelstärke, 242, 257
Wronski–Determinante, 149, 152
Wurf, 80, 81, 113
Zahlen
komplexe, 381
reelle, 8
Zahlenebene, 382
Zeitentwicklungsmatrix, 152, 171
Zeitentwicklungsoperator, 152
zentraler Grenzwertsatz, 355
Zentralpotential, 102
zentralsymmetrisch, 97
Zerlegungssatz, 257
Wärme, spezifische, 372
Zirkulation, 216, 221, 241, 242, 447
Wärmeleitungsgleichung, 301
zufällig, 196, 302, 355
Wahrscheinlichkeit, 351, 358
Zungenfrequenzmesser, 338
a priori, 352
zusammenhängend, 222, 256
Wahrscheinlichkeitstheorie, 359
Zustand, 360
Wahrscheinlichkeitsverteilung, 354–361,
Zustandssumme, 359, 367, 371, 372
366–374
Zweiteilchensystem, 95
Wegunabhängigkeit von Kurvenintegrazyklisch, 16, 119
len, 222, 225, 256
Zylinderkondensator, 252
wegzusammenhängend, 222
Zylinderkoordinaten, 38
Welle
Divergenz, 250
ebene, 317
Gradient, 250
eindimensionale, 304
Laplace–Operator, 250
harmonische, 306
Rotation, 250
Longitudinal-, 309
Herunterladen