Inhaltsverzeichnis 1 Vektoren 1 1.1 Vektoren und Tensoren in der Physik . . . . . . . . . . . . . . . 1 1.2 Vektorrechnung . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.2.1 Rechnen mit Vektoren . . . . . . . . . . . . . . . . . . . 5 1.2.2 Abstraktion des Vektorbegriffs . . . . . . . . . . . . . . 7 1.2.3 Das Skalarprodukt . . . . . . . . . . . . . . . . . . . . . 10 1.2.4 Das Vektorprodukt . . . . . . . . . . . . . . . . . . . . . 12 1.2.5 Komponentendarstellung . . . . . . . . . . . . . . . . . 14 1.2.6 Das Spatprodukt . . . . . . . . . . . . . . . . . . . . . . 19 1.2.7 Das doppelte Vektorprodukt . . . . . . . . . . . . . . . 22 1.3 1.4 1.5 Differentiation . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 1.3.1 Differentiation von Vektorfunktionen . . . . . . . . . . . 26 1.3.2 Die partielle Ableitung . . . . . . . . . . . . . . . . . . . 28 Krummlinige Koordinaten I . . . . . . . . . . . . . . . . . . . . 32 1.4.1 Ebene Polarkoordinaten . . . . . . . . . . . . . . . . . . 34 1.4.2 Zylinderkoordinaten . . . . . . . . . . . . . . . . . . . . 38 1.4.3 Kugelkoordinaten . . . . . . . . . . . . . . . . . . . . . . 39 1.4.4 Allgemeine orthogonale Koordinatensysteme . . . . . . 44 Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 5 6 INHALTSVERZEICHNIS 2 Datenanalyse und Fehlerrechnung* 2.1 47 Messungen und Messfehler . . . . . . . . . . . . . . . . . . . . . 48 2.1.1 Die Normalverteilung . . . . . . . . . . . . . . . . . . . 50 2.1.2 Die Lorentz–Verteilung . . . . . . . . . . . . . . . . . . 52 2.1.3 Statistische Maße einer Messreihe . . . . . . . . . . . . . 53 2.2 Fehlerfortpflanzung . . . . . . . . . . . . . . . . . . . . . . . . . 55 2.3 Ausgleichsrechnung . . . . . . . . . . . . . . . . . . . . . . . . . 57 2.4 Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 3 Vektoranalysis I 61 3.1 Der Gradient . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 3.2 Die Divergenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 3.3 Die Rotation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 3.4 Divergenz und Rotation . . . . . . . . . . . . . . . . . . . . . . 71 3.5 Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 4 Grundprobleme der Dynamik 4.1 75 Gradientenfelder und Energieerhaltung . . . . . . . . . . . . . . 79 4.1.1 Der schräge Wurf . . . . . . . . . . . . . . . . . . . . . . 80 4.1.2 Das Federpendel . . . . . . . . . . . . . . . . . . . . . . 83 4.1.3 Das mathematische Pendel . . . . . . . . . . . . . . . . 85 4.1.4 Bewegungsgleichungen in Polarkoordinaten . . . . . . . 90 4.2 Impulssatz und Drehimpulssatz . . . . . . . . . . . . . . . . . . 93 4.3 Das Zweiteilchensystem . . . . . . . . . . . . . . . . . . . . . . 95 4.4 Zentralkraftfelder und Drehimpulserhaltung . . . . . . . . . . . 96 4.4.1 4.5 Keplerproblem . . . . . . . . . . . . . . . . . . . . . . . 102 Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113 5 Matrizen und Tensoren 115 5.1 Rechnen mit Matrizen . . . . . . . . . . . . . . . . . . . . . . . 116 5.2 Quadratische Matrizen . . . . . . . . . . . . . . . . . . . . . . . 118 n 5.2.1 Taylor–Entwicklung im R . . . . . . . . . . . . . . . . 122 5.2.2 Eigenwerte und Eigenvektoren . . . . . . . . . . . . . . 123 INHALTSVERZEICHNIS 5.2.3 5.3 5.4 5.5 7 Der Trägheitstensor . . . . . . . . . . . . . . . . . . . . 127 Drehung des Koordinatensystems . . . . . . . . . . . . . . . . . 128 5.3.1 Transformation von Vektoren . . . . . . . . . . . . . . . 131 5.3.2 Transformation von Matrizen* . . . . . . . . . . . . . . 132 5.3.3 Drehungen* . . . . . . . . . . . . . . . . . . . . . . . . . 134 Diagonalisierung und Matrix–Funktionen* . . . . . . . . . . . . 137 5.4.1 Transformation auf Diagonalform . . . . . . . . . . . . . 137 5.4.2 Matrix–Funktionen . . . . . . . . . . . . . . . . . . . . . 141 Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 6 Lineare Differentialgleichungen* 147 6.1 Gleichungen zweiter Ordnung . . . . . . . . . . . . . . . . . . . 148 6.2 Systeme erster Ordnung . . . . . . . . . . . . . . . . . . . . . . 151 6.3 Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155 7 Lineare Schwingungen 7.1 157 Der harmonische Oszillator . . . . . . . . . . . . . . . . . . . . 158 7.1.1 Die freie Schwingung . . . . . . . . . . . . . . . . . . . . 159 7.1.2 Erzwungene Schwingungen . . . . . . . . . . . . . . . . 166 7.1.3 Energiebilanz . . . . . . . . . . . . . . . . . . . . . . . . 169 7.1.4 Dynamik im Phasenraum* . . . . . . . . . . . . . . . . 171 7.2 Gekoppelte Schwingungen . . . . . . . . . . . . . . . . . . . . . 173 7.3 Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181 8 Nichtlineare Dynamik und Chaos 183 8.1 Numerische Lösung von Differentialgleichungen . . . . . . . . . 183 8.2 Der Duffing–Oszillator . . . . . . . . . . . . . . . . . . . . . . . 186 8.3 Die logistische Differentialgleichung . . . . . . . . . . . . . . . . 192 8.4 Iterierte Abbildungen . . . . . . . . . . . . . . . . . . . . . . . 195 8.5 Fraktale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206 8.6 Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211 8 INHALTSVERZEICHNIS 9 Vektoranalysis II 9.1 213 Integrale über Vektorfelder . . . . . . . . . . . . . . . . . . . . 216 9.1.1 Kurvenintegrale . . . . . . . . . . . . . . . . . . . . . . . 216 9.1.2 Wegunabhängigkeit von Kurvenintegralen I . . . . . . . 222 9.1.3 Flächen- und Volumenintegrale . . . . . . . . . . . . . . 225 9.1.4 Oberflächenintegrale . . . . . . . . . . . . . . . . . . . . 232 9.1.5 Funktionaldeterminanten* . . . . . . . . . . . . . . . . . 237 Integraldarstellung von Divergenz und Rotation . . . . . . . . . 239 9.2.1 Die Divergenz als Quellenfeld . . . . . . . . . . . . . . . 239 9.2.2 Die Rotation als Wirbelfeld . . . . . . . . . . . . . . . . 241 Integralsätze von Gauß und Stokes . . . . . . . . . . . . . . . . 243 9.3.1 Der Satz von Gauß . . . . . . . . . . . . . . . . . . . . . 244 9.3.2 Der Satz von Stokes . . . . . . . . . . . . . . . . . . . . 245 9.4 Krummlinige Koordinaten II . . . . . . . . . . . . . . . . . . . 246 9.5 Elementare Anwendungen . . . . . . . . . . . . . . . . . . . . . 250 9.5.1 Die Maxwell–Gleichungen . . . . . . . . . . . . . . . . . 251 9.5.2 Die integrale Form der Maxwell–Gleichungen . . . . . . 251 9.5.3 Der Zylinderkondensator . . . . . . . . . . . . . . . . . . 252 9.5.4 Die Kontinuitätsgleichung . . . . . . . . . . . . . . . . . 255 9.5.5 Wegunabhängigkeit von Kurvenintegralen II . . . . . . . 256 9.5.6 Der Zerlegungssatz . . . . . . . . . . . . . . . . . . . . . 256 9.5.7 Die Poisson–Gleichung . . . . . . . . . . . . . . . . . . . 258 Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258 9.2 9.3 9.6 10 Die Delta–Funktion 261 10.1 Elementare Definition der Delta–Funktion . . . . . . . . . . . . 262 10.2 Eigenschaften der Delta–Funktion . . . . . . . . . . . . . . . . 265 10.3 Die dreidimensionale Delta–Funktion . . . . . . . . . . . . . . . 269 10.4 Theorie der Distributionen* . . . . . . . . . . . . . . . . . . . . 272 10.5 Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 276 INHALTSVERZEICHNIS 11 Partielle Differentialgleichungen 9 277 11.1 Die Poisson–Gleichung . . . . . . . . . . . . . . . . . . . . . . . 278 11.1.1 Die Poisson–Gleichung in der Elektrostatik . . . . . . . 279 11.1.2 Die Multipolentwicklung . . . . . . . . . . . . . . . . . . 283 11.1.3 Die Poisson–Gleichung in der Magnetostatik . . . . . . . 285 11.2 Poisson–Gleichung: Numerische Lösung . . . . . . . . . . . . . 287 11.2.1 Die eindimensionale Poisson–Gleichung . . . . . . . . . 288 11.2.2 Die zweidimensionale Poisson–Gleichung . . . . . . . . . 292 11.3 Die Diffusionsgleichung . . . . . . . . . . . . . . . . . . . . . . . 294 11.3.1 Die eindimensionale Diffusionsgleichung . . . . . . . . . 295 11.3.2 Numerische Lösung der Diffusionsgleichung . . . . . . . 300 11.3.3 Diffusion und ‘Random Walk’ . . . . . . . . . . . . . . . 302 11.4 Die Wellengleichung . . . . . . . . . . . . . . . . . . . . . . . . 303 11.4.1 Eindimensionale Wellen . . . . . . . . . . . . . . . . . . 304 11.4.2 Die zweidimensionale Wellengleichung . . . . . . . . . . 313 11.4.3 Dreidimensionale ebene Wellen . . . . . . . . . . . . . . 317 11.5 Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 318 12 Orthogonale Funktionen 321 12.1 Orthogonale Polynome . . . . . . . . . . . . . . . . . . . . . . . 322 12.2 Fourier–Reihen . . . . . . . . . . . . . . . . . . . . . . . . . . . 329 12.2.1 Beispiele für Fourier–Reihen . . . . . . . . . . . . . . . . 331 12.2.2 Allgemeine Eigenschaften der Fourier–Reihen . . . . . . 335 12.3 Fourier–Transformationen . . . . . . . . . . . . . . . . . . . . . 338 12.3.1 Eigenschaften der Fourier–Transformation . . . . . . . . 339 12.3.2 Beispiele für Fourier–Transformationen . . . . . . . . . . 340 12.3.3 Die Unschärferelation* . . . . . . . . . . . . . . . . . . . 343 12.3.4 Anwendungen der Fourier–Transformation . . . . . . . . 345 12.4 Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 349 10 INHALTSVERZEICHNIS 13 Wahrscheinlichkeit und Entropie* 13.1 Wahrscheinlichkeit . . . . . . . . . . . . . . . . . . 13.1.1 Grundlagen der Wahrscheinlichkeitstheorie 13.1.2 Wahrscheinlichkeit und Häufigkeit . . . . . 13.2 Entropie . . . . . . . . . . . . . . . . . . . . . . . . 13.2.1 Ein Maß für die Unbestimmtheit . . . . . . 13.2.2 Eigenschaften von S(p1 , . . . , pn ): . . . . . . 13.3 Maximale Unbestimmtheit . . . . . . . . . . . . . . 13.4 Die Boltzmann–Verteilung . . . . . . . . . . . . . . 13.4.1 Der harmonische Oszillator . . . . . . . . . 13.4.2 Magnetisierung . . . . . . . . . . . . . . . . 13.4.3 Das ideale einatomige Gas . . . . . . . . . . 13.5 Entropie und Irreversibilität . . . . . . . . . . . . . 13.6 Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 351 351 352 358 359 360 364 365 369 370 371 372 374 375 Anhang 377 A Der Vektorraum der Polynome* 377 B Komplexe Zahlen B.1 Konjugiert komplexe Zahlen . B.2 Die Polardarstellung . . . . . B.3 Komplexe Wurzeln . . . . . . B.4 Fundamentalsatz der Algebra . . . . 381 384 386 388 390 . . . . . 391 391 396 398 400 401 C Kegelschnitte C.1 Die Ellipse . . . . . . . . . . . C.2 Die Hyperbel . . . . . . . . . C.3 Die Parabel . . . . . . . . . . C.4 Quadratische Formen . . . . . C.5 Die Familie der Kegelschnitte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Lösungen der Übungsaufgaben 403 Index 472 Kapitel 1 Vektoren 1.1 Vektoren und Tensoren in der Physik Die Physik befasst sich mit der Beschreibung von Vorgängen in Zeit und Raum, genauer: mit ihrer mathematischen Beschreibung. Von Raum und Zeit haben wir einige mehr oder weniger vage Grundvorstellungen, die mit zunehmenden physikalischen Kenntnissen präzisiert, korrigiert oder erweitert werden. Hier sollen unsere anschaulichen Vorstellungen aber zunächst ausreichen. Zu einer mathematischen Formulierung der physikalischen Gesetze (beispielsweise zu einer Beschreibung einer Bewegung im Raum) benötigen wir zunächst ein passendes mathematisches Handwerkszeug. In einer eindimensionalen Welt wäre das kein großes Problem: Die Position im ‘Raum’ ist durch eine einzige (reelle) Variable (eine ‘Koordinate’) gekennzeichnet, die wir zum Beispiel mit dem Buchstaben x bezeichnen können, und ein physikalisches Gesetz wie die Bewegungsgleichung ‘Kraft gleich Masse mal Beschleunigung’ schreibt sich als F = ma. Dabei steht F für die Kraft, m für die Masse und a für die Beschleunigung. Im dreidimensionalen Raum ist das nicht mehr so einfach. Man kann sich damit helfen, indem man alles auf ein vorgegebenes Koordinatensystem bezieht. Aber dann sind eben nach Konstruktion(!) alle physikalischen Gesetze für dieses eine Koordinatensystem formuliert. Das ist ganz offensichtlich sehr unflexibel, denn die mathematische Form physikalischer Gesetze, bei denen auf Koordinatensysteme bezogene Größen beteiligt sind, kann unmöglich von der (willkürlichen!) Wahl des Koordinatensystems anhängen, denn sonst gäbe es unendlich viele Formulierungen ein und desselben Gesetzes. Wir benötigen also 1 2 KAPITEL 1. VEKTOREN eine mathematische Beschreibung durch Größen, die unabhängig sind von den speziellen Koordinatensystemen (oder sich nach passenden Regeln transformieren) und so die Invarianz der physikalischen Gesetze gewährleisten. Mathematische Größen, die das leisten, sind die Tensoren, ein einfacher Spezialfall davon sind die Vektoren. Neben ihrer Invarianz gegenüber Koordinatentransformationen erlauben sie auch eine Reihe von Rechenoperationen. Wie wir sehen werden, haben sie eine sehr wichtige mathematische Struktur, linearer Raum genannt. Eine Realisierung einer solche Struktur stellt z.B. die Menge aller Translationen im Raum dar, also ganz anschaulich: die Menge aller parallelgleichen Pfeile. Der Tensorkalkül ist nicht nur nützlich, sondern für die Bewältigung vieler physikalischer Probleme unbedingt notwendig, wie zum Beispiel für Albert Einstein bei der Formulierung seiner Allgemeinen Relativitätstheorie. Wie so oft, wird man erst später die oben verlangte Invarianz der Größen gegenüber Tranformationen des Koordinatensystems richtig verstehen können. Das liegt auch daran, dass man zur mathematischen Formulierung bequemerweise schon den Tensor–Formalismus benutzen müsste, der ja eigentlich erklärt werden soll! Wir gehen hier heuristisch vor, wobei wir die wesentlichen Gedanken zunächst einmal für den R2 formulieren, also den zweidimensionalen Raum der Zahlenpaare (x, y). Diese Zahlenpaare lassen sich als Punkte der x,y–Ebene darstellen, und wir würden gerne durch dieses Zahlenpaar einen Vektor erklären, also eine Größe, die einen Betrag und eine Richtung hat, gekennzeichnet durch den Pfeil in der Abbildung 1.1. Wir schreiben solche vektoriellen Größen als ~a, wobei der Pfeil über dem Buchstaben auf ihre Richtungseigenschaft hinweisen soll (außerdem findet man in der Literatur auch eine Kennzeichnung von Vektoren durch fett gedruckte Buchstaben). Der Betrag, geschrieben als a = | ~a | , a ∈ R ist hier die Länge des Vektorpfeils, also a = (1.1) p x2 + y 2 . Was geschieht nun, wenn wir zu einem Koordinatensystem übergehen, das um einen Winkel ϕ gedreht ist? In dem gedrehten Koordinatensystem hat der gleiche Vektor ~a statt der Koordinaten (x, y) die Koordinaten (u, v). Man kann sich überlegen, dass man durch u = +x cos ϕ + y sin ϕ v = −x sin ϕ + y cos ϕ (1.2) 1.1. VEKTOREN UND TENSOREN IN DER PHYSIK 3 y v u ϕ x Abbildung 1.1: Bei einer Drehung des Koordinatensystems transformieren sich die Koordinaten (x, y) in die Koordinaten (u, v). aus den (x, y) die (u, v) √ berechnen kann. Der Betrag des Vektors ~a in den neuen Koordinaten ist gleich u2 + v 2 , und wir sehen mit u2 + v 2 = (+x cos ϕ + y sin ϕ)2 + (−x sin ϕ + y cos ϕ)2 = x2 cos2 ϕ + 2xy cos ϕ sin ϕ + y 2 sin2 ϕ +x2 sin2 ϕ − 2xy sin ϕ cos ϕ + y 2 cos2 ϕ = x2 (sin2 ϕ + cos2 ϕ) + y 2 (sin2 ϕ + cos2 ϕ) = x2 + y 2 , (1.3) dass der Betrag des Vektors ~a sich bei der Drehung des Koordinatensystems nicht ändert. Jetzt dreht man den Spieß um und bezeichnet jede Größe, die durch ein Paar reeller Zahlen beschrieben wird, als einen Vektor , falls diese beiden Zahlen, die Koordinaten, sich bei einer Drehung des Koordinatensystems um einen Winkel ϕ wie (1.2) transformieren. Eine Größe, die sich bei einer Drehung nicht ändert, nennt man einen Skalar . Ein solcher Skalar ist uns schon bekannt: Der Betrag eines Vektors ist ein Skalar. Ganz genauso kann man jetzt Vektoren im dreidimensionalen Raum als Zahlentripel (x, y, z) der drei Koordinaten bezüglich eines rechtwinkligen Koordinatensystems darstellen, die sich bei Transformationen (Drehungen) des Koordinatensystems in einer bestimmten Weise transformieren. Allerdings ist hier die Formulierung einer Drehung komplizierter, so dass wir einen anderen Weg einschlagen und uns im nächsten Abschnitt überlegen, dass man mit solchen Vektoren auch rechnen kann. Wir werden sehen, dass man auch Vektoren in höherdimensionalen Räumen bilden kann. Es ist deshalb zweckmäßig, eine Indexschreibweise zu benutzen 4 KAPITEL 1. VEKTOREN und die Komponenten eines Vektors ~a im R3 mit (a1 , a2 , a3 ) zu bezeichnen. Unser physikalisches Gesetz ‘Kraft gleich Masse mal Beschleunigung’ kann man dann als F~ = m~a ausdrücken mit den Vektoren für die gerichteten Größen Kraft und Beschleunigung und einem Skalar für die Masse. Diese Formulierung ist koordinatenfrei. Es wird leider noch etwas schwieriger, denn es lässt sich später nicht vermeiden mit Größen umzugehen, die noch komplizierter sind als Vektoren: mit Tensoren. Das hat allerdings noch etwas Zeit, deshalb hier nur ein Appetitmacher: Ein Tensor k-ter Stufe ist eine k-fach indizierte Größe, die sich in allen Indizes so transformiert wie ein Vektor. Ein Vektor selbst ist also ein Tensor erster Stufe, ein Skalar ein Tensor nullter Stufe. Tensoren zweiter Stufe werden wir als Matrizen kennen lernen, die beispielsweise die erwähnten Drehungen beschreiben. Eigentlich also ganz einfach... 1.2 Vektorrechnung Im vorangehenden Abschnitt wurde der Vektorbegriff motiviert. Ein zweidimensionaler Vektor ist danach ein Zahlenpaar, ein dreidimensionaler Vektor ein Zahlentripel, die sich bei Transformationen der Koordinatensysteme in geeigneter Weise verhalten. Wir werden jetzt zeigen, dass man mit solchen Größen rechnen kann und dann eine präzise Definition des Vektors nachliefern. Ein Beispiel vektorieller Größen liefern die Verschiebungen (oder Translationen) der Punkte des Raumes P1 = (x1 , y1 , z1 ) =⇒ P2 = (x2 , y2 , z2 ) , (1.4) wobei (x1 , y1 , z1 ) und (x2 , y2 , z2 ) die Koordinaten der Punkte bezeichnen. Wir werden im Folgenden die Rechenoperationen und ihre Eigenschaften einführen und am Beispiel der Verschiebungen im dreidimensionalen Raum illustrieren. Der abstrakte und verallgemeinerte Vektorbegriff im n-dimensionalen Raum wird dann definiert mit Hilfe dieser Rechenoperationen: Eine Menge, in der diese Rechenoperationen mit ihren bestimmten (einfachen und plausiblen !) Eigenschaften erklärt sind, heißt Vektorraum oder auch linearer Raum, und die Elemente dieser Menge heißen Vektoren. Eine spezielle Klasse von Vektoren kennzeichnen wir durch ein Dachsymbol statt eines Vektorpfeils. Solch ein Vektor â hat die gleiche Richtung wie ~a und den Betrag |â | = 1. Man bezeichnet solche Vektoren als Einheitsvektoren (siehe Abbildung 1.2 ). 1.2. VEKTORRECHNUNG 5 → a P2 ^ a P1 1 Abbildung 1.2: Vektor ~a und Einheitsvektor â = ~a/a. 1.2.1 Rechnen mit Vektoren Es gibt zwei unterschiedliche Rechenoperationen mit Vektoren, die Multiplikation mit Zahlen (Skalaren), die wir im Folgenden mit griechischen Buchstaben wie α, β,. . . bezeichnen, und die Addition von Vektoren, die eine Reihe von Verträglichkeitsregeln erfüllen. Im Wesentlichen sagt diese Verträglichkeit aus, dass man rechnen darf ‘wie gewohnt’. Es geht also hier nicht darum, etwas Besonderes oder gar Außergewöhnliches zu lernen. Als anschaulichen Hintergrund zur Motivation der verschiedenen Rechenoperationen verwenden wir als Bild für die Vektoren die Verschiebungen im Raum in eine bestimmte Richtung um einen bestimmten Betrag. Multiplikation eines Vektors mit einem Skalar: ~b = α~a , (1.5) d.h. das Resultat ist wieder ein Vektor mit der Eigenschaft, dass der Betrag um den Faktor |α| geändert wird: |~b| = |α| |~a| . (1.6) ~a = |~a| â = aâ . (1.7) Damit kann man schreiben Für positives α > 0 ist die Richtung von ~b in (1.5) gleich der von ~a, für α < 0 entgegengesetzt. Das lässt sich schreiben als b̂ = sign(α) â , (1.8) 6 KAPITEL 1. VEKTOREN wobei mit sign(α) das Vorzeichen von α bezeichnet wird. Diese Multiplikation ist assoziativ: (αβ) ~a = α(β~a ) . (1.9) Für die Verschiebungen im Raum wird also der Betrag der Verschiebung um den Faktor |α| geändert, die Richtung wird beibehalten (α > 0) oder umgekehrt (α < 0). Einige einfache Folgerungen: (1) Mit α = 0 ergibt sich der Nullvektor ~0 = 0 ~a. Der Nullvektor hat keine bestimmte Richtung. (2) Mit α = −1 erhält man ~b = −~a, einen Vektor gleicher Länge in umgekehrter Richtung (vgl. Abbildung 1.3). (3) Mit α = 1/a (a = |~a| = 6 0) ergibt sich der Einheitsvektor in Richtung von ~a: 1 1 ~a = a â = â . (1.10) a a → a → -a Abbildung 1.3: Umkehrung der Richtung eines Vektors bei negativem Vorzeichen. Addition zweier Vektoren: Für die Verschiebungen im Raum lässt sich eine Addition als Hintereinanderausführung der beiden Verschiebungen definieren. Das Ergebnis ist wieder eine Verschiebung. Wir definieren also die Summe zweier Vektoren ~c = ~a + ~b , (1.11) wie in Abbildung 1.4 dargestellt. Die Addition ist kommutativ: ~a + ~b = ~b + ~a . (1.12) 1.2. VEKTORRECHNUNG 7 → P3 a P2’ → b → c → b → a P2 P1 Abbildung 1.4: Addition von Vektoren ~a + ~b = ~b + ~a = ~c. Die Addition von drei Vektoren erfolgt schrittweise durch aufeinanderfolgende Addition zweier Vektoren. Sie ist assoziativ und distributiv: ~a + ( ~b + ~c ) = ( ~a + ~b ) + ~c = ~a + ~b + ~c (1.13) α( ~a + ~b ) = α~a + α~b . 1.2.2 Abstraktion des Vektorbegriffs Nachdem wir jetzt anhand der anschaulichen Verschiebungsvektoren die elementaren Rechenregeln von Vektoren erläutert haben, können wir davon abstrahieren. Wir betrachten eine allgemeine Menge, deren Elemente wir mit ~a, ~b, . . . bezeichnen, in der eine Addition mit den folgenden Eigenschaften erklärt ist: (G1) Es gilt das Assoziativgesetz ~a + ( ~b + ~c ) = ( ~a + ~b ) + ~c. (G2) Der Nullvektor ~0 ist ‘neutrales Element’: ~a + ~0 = ~a für alle ~a. (G3) Zu jedem Vektor ~a existiert ein ‘inverser Vektor’ ~b = −~a, mit ~a + ~b = ~0. (G4) Die Addition ist kommutativ: ~a + ~b = ~b + ~a. Diese Struktur definiert eine kommutative Gruppe indexkommutative Gruppe, auch Abel’sche Gruppe oder Modul genannt. 8 KAPITEL 1. VEKTOREN Weiterhin sei eine Multiplikation α~a mit einem Skalar α (einem Element aus dem ‘Körper’ der reellen Zahlen) erklärt mit: (K1) (K2) (K3) Es gelten die Distributivgesetze α( ~a + ~b ) = α~a + α~b und (α + β)~a = α~a + β~a. Es gilt das Assoziativgesetz α(β~a ) = (αβ)~a. Die Zahl 1 (das ‘Einselement des Zahlenkörpers’) erfüllt die Gleichung 1~a = ~a für alle ~a . Man nennt eine solche Menge von Elementen mit Rechenoperationen, die die Regeln (G1) – (G4) und (K1) – (K3) erfüllen, linearer Raum (auch Vektorraum oder K-Modul ) über dem Körper der reellen Zahlen. Wenn eine Menge {~x1 , ~x2 , . . . , ~xk } von k Vektoren gegeben ist, so interessiert man sich oft für die Menge der Linearkombinationen ~x = α1 ~x1 + α2 ~x2 + . . . + αk ~xk = k X αj ~xj , αj ∈ R , (1.14) j=1 die durch diese Vektoren erzeugt werden können. Man nennt diese Menge die lineare Hülle dieser Vektoren, die von ihnen aufgespannt wird. Falls einer der Vektoren, z.B. xm , als Linearkombination der restlichen dargestellt werden kann, ~xm = k X γj ~xj , γj ∈ R , (1.15) j=1,j6=m oder bequemer: wenn man schreiben kann β1 ~x1 + β2 ~x2 + . . . + βk ~xk = k X βj ~xj = ~0 , βj ∈ R , (1.16) j=1 mit irgendwelchen Koeffizienten βj ∈ R, die nicht alle gleich null sind, dann ist zumindest einer dieser Vektoren in einer gewissen Weise überflüssig, denn auch ohne ihn wird die gleiche lineare Hülle erzeugt. Man nennt die Vektoren {~x1 , ~x2 , . . . , ~xk } in einem solchen Fall linear abhängig und anderenfalls linear unabhängig. Die Minimalzahl linear unabhängiger Vektoren eines Vektorraumes, die diesen Vektorraum aufzuspannen, heißt Dimension dieses Vektorrraums, und eine solche linear unabhängige Menge heißt Basis dieses Raumes. 1.2. VEKTORRECHNUNG 9 Beispiele von Vektorräumen Die Translationen: Die Translationen oder Verschiebungen im dreidimensionalen Raum R3 bilden den wohl bekanntesten Vektorraum, der meist schon in der Schule behandelt wird. Eine solche Translation Ta verschiebt alle Punkte parallel. Insbesondere wird der Nullpunkt mit den Koordinaten (0, 0, 0) in einem kartesischen Koordinatensystem in einen Punkt mit den Koordinaten (a1 , a2 , a3 ) verschoben. Diese drei Zahlen ai , i = 1, 2, 3 charakterisieren die Verschiebung in eindeutiger Weise. Ein beliebiger Punkt mit den Koordinaten (r1 , r2 , r3 ) wird durch Ta in den Punkt (r1 + a1 , r2 + a2 , r3 + a3 ) verschoben. Eine Addition zweier Verschiebungen Ta und Tb erklärt man durch die Hintereinanderschaltung der beiden Operationen. Dabei wird der Nullpunkt zuerst durch Ta nach (a1 , a2 , a3 ) und dann durch Tb , beschrieben durch (b1 , b2 , b3 ), nach (a1 + b1 , a2 + b2 , a3 + b3 ) verschoben. Formal schreibt man das als (a1 , a2 , a3 ) + (b1 , b2 , b3 ) = (a1 + b1 , a2 + b2 , a3 + b3 ) . (1.17) Eine Multiplikation einer Translation Ta mit einer Zahl α ist eine Verschiebung in die gleiche Richtung wie Ta , aber um den Faktor α skaliert. Dadurch entsteht eine Translation, die den Nullpunkt nach (αa1 , αa2 , αa3 ) verschiebt. Formal schreibt man das als α(a1 , a2 , a3 ) = (αa1 , αa2 , αa3 ) . (1.18) Es ist offensichtlich, dass diese Operationen die Regeln (G1) – (G4), (K1) – (K3) erfüllen: Die Translationen bilden einen Vektorraum. Dieser Vektorraum ist dreidimensional: Die drei Translationen (1, 0, 0), (0, 1, 0), (0, 0, 1) sind linear unabhängig (Beweis?) und jede Translation (a1 , a2 , a3 ) lässt sich durch eine Linearkombination dieser drei Vektoren darstellen (Beweis?). Die drei Vektoren bilden also eine Basis. Weiterhin kann man sich leicht davon überzeugen, dass man in genau der gleichen Weise Translationen in einem n–dimensionalen Raum Rn erklären kann, die man durch die n Koordinaten (a1 , a2 , . . . , an ) beschreibt. Die Polynome: Neben den Translationen erfüllen eine Reihe anderer mathematischer Strukturen die Regeln (G1) – (G4), (K1) – (K3) und bilden folglich einen Vektorraum. Viele dieser Vektorräume sind in der Physik von Bedeutung. Ein Beispiel eines solchen abstrakten Vektorraums ist die Menge aller Polynome P (x) = a0 + a1 x + a2 x2 + . . . + an xn = n X j=0 aj xj . (1.19) 10 KAPITEL 1. VEKTOREN mit Grad ≤ n. In Anhang A wird gezeigt, dass diese Menge eine Vektorraumstruktur besitzt. Sie bildet einen Vektorraum der Dimension n + 1, und man kann daher mit diesen Polynomen rechnen wie mit Vektoren. 1.2.3 Das Skalarprodukt Das Skalarprodukt, das auch inneres Produkt genannt wird, ist ein Produkt zweier Vektoren, dessen Resultat eine Zahl ist, ein Skalar. Man kennzeichnet dieses Produkt durch einen Punkt. Es ist definiert als ~a · ~b = ab cos ϕ . (1.20) Dabei ist ϕ der Winkel zwischen den beiden Vektoren (vgl. Abbildung 1.5). Zunächst sollten wir uns überlegen, dass das Resultat dieses Produktes wirklich ϕ → ^ a.b → b Abbildung 1.5: Skalarprodukt zweier Vektoren. Die Projektion eines Vektors ~a auf die Richtung des Vektors ~b hat die Länge ~a · b̂ = a cos ϕ. einen Skalar liefert, denn sowohl die Beträge der beiden Vektoren als auch der Winkel zwischen ihnen bleiben bei einer Drehung des Koordinatensystems unverändert, und dies war ja die Forderung an eine skalare Größe (vgl. Seite 3). Eigenschaften des Skalarprodukts: ~a · ~b ~a · ( ~b + ~c ) α( ~a · ~b ) = ~b · ~a (kommutativ) (1.21) = ~a · ~b + ~a · ~c (distributiv) (1.22) = (α~a ) · ~b = ~a · (α~b ) (homogen) . (1.23) 1.2. VEKTORRECHNUNG 11 Einige Spezialfälle: ~a orthogonal ~b =⇒ ~a · ~b = 0 ~a parallel ~b =⇒ ~a · ~b = ab ~a antiparallel ~b =⇒ ~a · ~b = −ab (1.24) ~a = ~b =⇒ ~a · ~a = a2 ~a = ~0 oder ~b = ~0 =⇒ ~a · ~b = 0 . Zwei Vektoren sind also orthogonal wenn ihr Skalarprodukt verschwindet. Weiterhin gilt die Schwarz’sche Ungleichung − ab ≤ ~a · ~b ≤ ab . (1.25) Man kann mit Hilfe des Skalarprodukts sehr einfach die Projektion eines Vektors ~a auf eine Richtung (beschrieben durch einen Einheitsvektor b̂ ) definieren. Für den Wert dieser Projektion gilt ab = a cos ϕ = ~a · b̂ (|b̂ | = 1 ), und der projizierte Vektor ist gleich ~ab = ab b̂ = ~a · b̂ b̂ . (1.26) (1.27) Als Beispiel für eine Anwendung des Skalarproduktes beweisen wir den Kosinus–Satz: Für die Seitenlängen im Dreieck gilt c2 = a2 + b2 − 2ab cos γ , (1.28) β → a → c γ α → b Abbildung 1.6: Dreieck aus den Vektoren ~b, ~c und ~a = ~b + ~c. 12 KAPITEL 1. VEKTOREN wobei der Winkel γ der Seite c gegenüberliegt (vgl. Abbildung 1.6). Der Beweis ist sehr einfach: c2 = ~c · ~c = ( ~a − ~b ) · ( ~a − ~b ) = ~a · ~a + ~b · ~b − ~a · ~b − ~b · ~a = a2 + b2 − 2ab cos γ . (1.29) Man kann versucht sein, zu sagen, dass man – sobald man das Skalarprodukt zur Verfügung hat – den Kosinus–Satz vergessen kann. Hier sind wir bei der Definition des Skalarproduktes von der anschaulichen Bedeutung eines Vektors ausgegangen, der insbesondere eine Richtung im Raum besitzt. Der Winkel zwischen zwei solchen Vektoren ist dabei anschaulich klar. In einer abstrakteren Definition eines Vektorraumes (vgl. Abschnitt 1.2.2) ist das aber nicht der Fall. Hier kann man das Skalarprodukt durch die Eigenschaften (1.21) — (1.23) sowie ~a · ~a > 0 für ~a 6= ~0 definieren Allerdings existiert ein solches Skalarprodukt nicht für jeden Vektorraum. Ein Beispiel für einen abstrakten Vektorraum mit einem Skalarprodukt ist der Vektorraum der Polynome in Anhang A. Dort wird gezeigt, dass man sogar in abstrakter Weise einen ‘Winkel’ zwischen zwei Polynomen definieren kann. 1.2.4 Das Vektorprodukt Neben dem Skalarprodukt zweier Vektoren existiert im dreidimensionalen Fall R3 noch ein zweites Produkt, dessen Resultat aber ein Vektor ist. Man nennt dieses Vektorprodukt auch Kreuzprodukt oder äußeres Produkt. Es ist definiert → b F h ϕ → a Abbildung 1.7: Der Betrag des Vektorproduktes ist gleich der Fläche des aufgespannten Parallelogramms. 1.2. VEKTORRECHNUNG 13 als ~c = ~a × ~b mit c = ab |sin ϕ| , (1.30) das heißt, der Betrag des Vektors ~c ist gleich der Fläche des von den beiden Vektoren ~a und ~b aufgespannten Parallelogramms. Diese Fläche ist das Produkt der Länge der Grundseite a und der Höhe h = b | sin ϕ| : Fläche = ah = ab | sin ϕ| . (1.31) Die Richtung des Vektors ~c wird festgelegt durch die Rechtsschraubenregel: Dreht man den ersten Vektor, ~a, des Vektorprodukts ~a × ~b auf dem kürzestem Weg in Richtung des zweiten Vektors, ~b, so hat der Vektor ~c = ~a × ~b die Richtung, in der sich eine Rechtsschraube bei dieser Drehung fortbewegen würde. Alternativ kann man sich diese Richtung auch mittels der ‘Daumenregel der rechten Hand’ merken: Orientiert man die rechte Hand so, dass die Finger der Richtung vom ersten Vektor zum zweiten folgen, so zeigt der Daumen in Richtung des Vektorproduktes. → → axb → ϕ → b F = ab I sin ϕ I a Abbildung 1.8: Die Richtung des Vektorproduktes wird bestimmt durch die Rechtsschraubenregel. Eigenschaften des Vektorprodukts: ~a × ~b = −~b × ~a (antikommutativ) (1.32) ~a × ( ~b + ~c ) = ~a × ~b + ~a × ~c (distributiv) (1.33) α( ~a × ~b ) = (α~a ) × ~b = ~a × (α~b ) (homogen) . (1.34) 14 KAPITEL 1. VEKTOREN Bis auf den Vorzeichenwechsel bei der Vertauschung der Reihenfolge stimmen alle diese Rechenregeln mit denen des Skalarprodukts überein. Einige Spezialfälle: ~a orthogonal ~b =⇒ ~a × ~b = ab ~a parallel ~b =⇒ ~a × ~b = ~0 ~a antiparallel zu ~b =⇒ ~a × ~b = ~0 (1.35) ~a = ~b =⇒ ~a × ~a = ~0 ~a = ~0 oder ~b = ~0 =⇒ ~a × ~b = ~0 . Als Beispiel für eine Anwendung des Vektorproduktes beweisen wir den Sinus–Satz: Für die Seitenlängen im Dreieck gilt sin α a = , b sin β (1.36) wobei der Winkel α bzw. β der Seite a bzw. b gegenüberliegt (vgl. Abbildung 1.6). Entsprechendes gilt für die anderen Seiten und Winkel. Der Beweis ist wieder einfach: 2 × Fläche des Dreiecks = ~a × ~b = ~c × ~b = ~a × ~c = ab sin γ = cb sin α = ac sin β . Die letzte Gleichung liefert beispielsweise cb sin α = ac sin β und nach Division durch c die gesuchte Gleichung (1.36). 1.2.5 Komponentendarstellung Wir definieren im dreidimensionalen Raum drei paarweise aufeinander senkrecht stehende Einheitsvektoren, die wir mit x̂ , ŷ , ẑ (1.37) bezeichnen. Wie Abbildung 1.9 illustriert, wird dadurch das bekannte kartesische Koordinatensystem des R3 erzeugt. Man sollte außerdem die Bezeichnungen so wählen, dass x̂ × ŷ = ẑ gilt (ein so genanntes Rechtssystem). Es gilt also 1.2. VEKTORRECHNUNG 15 z^ → a x^ az y^ ax ay Abbildung 1.9: Die drei Einheitsvektoren x̂, ŷ und ẑ stehen paarweise aufeinander senkrecht. x̂ · x̂ = ŷ · ŷ = ẑ · ẑ = 1 (1.38) x̂ · ŷ = x̂ · ẑ = ŷ · ẑ = 0 und x̂ × ŷ = ẑ , ŷ × ẑ = x̂ , ẑ × x̂ = ŷ (1.39) ŷ × x̂ = −ẑ , ẑ × ŷ = −x̂ , x̂ × ẑ = −ŷ . Man sollte sich auch an andere Schreibweisen für diese Einheitsvektoren gewöhnen, die oft benutzt werden, wie etwa ~ex , ~ey , ~ez oder ~e1 , ~e2 , ~e3 , oder auch ê1 , ê2 , ê3 . (1.40) Dabei steht das e für ‘Einheitsvektor’ (in der englischsprachigen Literatur erscheint dann entsprechend u für ‘unit vector’). Weiterhin findet man auch 1̂ , 2̂ , 3̂ , oder allgemein î , ĵ , k̂ . An dieser Stelle ist es angebracht, den dreidimensionalen Raum unserer Anschauung zu verallgemeinern. In einem Vektorraum der Dimension n (vgl. Seite 8) bildet ein System von n orthonormierten Vektoren ê1 , ê2 ,. . . , ên eine orthonormierte Basis . 16 KAPITEL 1. VEKTOREN Wir notieren zur Übung einmal die Gleichungen (1.38) und (1.39) mit Hilfe der êi als êi · êj = δij , êi × êj = êk für i, j, k ∈ {1, 2, 3} zyklisch mit der zweckmäßigen Abkürzung 1 i=j δij = 0 i 6= j , (1.41) (1.42) dem Kroneckersymbol. Dabei nennt man eine Reihenfolge (i j k) zyklisch, wenn sie eine gerade Permutation1 von (1 2 3) darstellt, antizyklisch bei einer ungeraden Permutation; z.B. ist (3 1 2) eine gerade (zyklisch) und (2 1 3) eine ungerade Permutation (antizyklisch); die Kombination (2 3 2) ist keines von beiden (vgl. Abbildung 1.10). 2 1 2 1 3 3 Abbildung 1.10: Eine zyklische Anordnung (links) entspricht einer geraden Permutation, eine antizyklische Anordnung (rechts) entspricht einer ungeraden Permutation der drei Zahlen 1, 2, 3. Man kann nun jeden Vektor durch seine Komponenten bezüglich der orthogonalen Basis darstellen: ~a = ax x̂ + ay ŷ + az ẑ (1.43) ax = ~a · x̂ , ay = ~a · ŷ , az = ~a · ẑ . (1.44) mit In einer abgekürzten Schreibweise notiert man nur die Komponenten in der Form ~a = (ax , ay , az ) . (1.45) 1 Eine Permutation ist eine Umordnung von Elementen. Man kann jede Permutation durch eine Folge von Vertauschungen zweier Elemente erzeugen. Ist deren Anzahl (un)gerade, nennt man die Permutation (un)gerade. 1.2. VEKTORRECHNUNG 17 Man rechnet mit solchen Vektoren in der verkürzten Schreibweise wie α~a = α (ax , ay , az ) = α(ax x̂ + ay ŷ + az ẑ) (1.46) = (αax ) x̂ + (αay ) ŷ + (αaz ) ẑ = (αax , αay , αaz ) und ~a + ~b = (ax , ay , az ) + (bx , by , bz ) (1.47) = ax x̂ + ay ŷ + az ẑ + bx x̂ + by ŷ + bz ẑ = (ax + bx )x̂ + (ay + by ) ŷ + (az + bz ) ẑ = (ax + bx , ay + by , az + bz ) . Ein Vergleich mit den entsprechenden Operationen für die Translationen im R3 in (1.17) und (1.18) zeigt die Verwandtschaft dieser Darstellungen. Die Komponentendarstellung des Skalarproduktes ist ~a · ~b = (ax x̂ + ay ŷ + az ẑ) · (bx x̂ + by ŷ + bz ẑ) = ax bx + ay by + az bz (1.48) und speziell a2 = ~a · ~a = a2x + a2y + a2z (1.49) oder a= q a2x + a2y + a2z . (1.50) Zur Übung formulieren wir diese Gleichungen noch einmal in einer alternativen kompakteren Schreibweise. Mit ~a = 3 X ai êi = i=1 X ai êi (1.51) X (αai ) êi , (1.52) (ai + bi ) êi . (1.53) i haben wir α~a = α X ai êi = X bi êi = i ~a + ~b = X i ai êi + i i X i 18 KAPITEL 1. VEKTOREN und ~a · ~b = X ai êi · i X j bj êj = X ai bj êi · êj = ij X ai bj δij = ij X ai bi . (1.54) i Die Komponentendarstellung des Vektorproduktes gestaltet sich etwas umfangreicher, ist aber problemlos. Zunächst schreiben wir ausführlich ~a × ~b = (ax x̂ + ay ŷ + az ẑ) × (bx x̂ + by ŷ + bz ẑ) = ax bx x̂ × x̂ + ax by x̂ × ŷ + ax bz x̂ × ẑ +ay bx ŷ × x̂ + ay by ŷ × ŷ + ay bz ŷ × ẑ +az bx ẑ × x̂ + az by ẑ × ŷ + az bz ẑ × ẑ = (ay bz − az by ) x̂ + (az bx − ax bz ) ŷ + (ax by − ay bx ) ẑ (1.55) mit x̂ × x̂ = ŷ × ŷ = ẑ × ẑ = 0 und x̂ × ŷ = −ŷ × x̂ = ẑ . Den Ausdruck (1.55) kann man sich leichter merken mit Hilfe einer Schreibweise als Determinante: x̂ ŷ ẑ ~ . a a a x y z (1.56) ~a × b = b x by b z Wenn man den formalen Ausdruck (1.56) nach den Regeln der 3 × 3–Determinanten auswertet (mehr über Determinanten findet man in Kapitel 5 auf Seite 119), erhält man genau das Ergebnis von (1.55). In der Theoretischen Physik schreibt man das Vektorprodukt in der Komponentendarstellung auch gerne in der kompakten aber etwas gewöhnungsbedürftigen Form X ~a × ~b = ijk ai bj êk , (1.57) ijk wobei die i j k unabhängig von 1 bis 3 laufen. Die êk sind die Einheitsvektoren in kartesischen Koordinaten. Die dreifach indizierten Zahlen ijk sind durch i, j, k zyklisch 1 ijk = (1.58) −1 i, j, k antizyklisch 0 sonst 1.2. VEKTORRECHNUNG 19 definiert. Für die Komponenten des Vektorprodukts, z.B. der Komponente bezüglich ê2 , bestätigt man leicht, dass gilt X ~a × ~b 2 = ij2 ai bj = a3 b1 − a1 b3 (1.59) ij (vgl. 1.55), und genauso für die anderen Komponenten. Man sagt (aber das muss man jetzt noch nicht genauer verstehen): Die ijk sind die ‘Komponenten des total-antisymmetrischen Tensors dritter Stufe’. Hier bedeutet total-antisymmetrisch, dass ijk das Vorzeichen wechselt bei einer beliebigen Vertauschung zweier Indizes, und die dritte Stufe weist auf eine dreifach indizierte Größe hin. Mehr dazu in Kapitel 5. 1.2.6 Das Spatprodukt Mit dem Skalarprodukt und dem Vektorprodukt haben wir zwei wichtige Produkte von Vektoren kennen gelernt. Das Spatprodukt ist kein weiteres Produkt, sondern eine nützliche Kombination aus einem Skalar- und einem Vektorprodukt: ~a × ~b · ~c . (1.60) Wie in Abbildung 1.11 dargestellt, spannen die drei Vektoren ~a, ~b, ~c einen Körper auf (Parallelepiped, Parallelflächner oder auch einfach Spat genannt; Kristalle wie Kalkspat kristallisieren in dieser Form.). Mathematisch werden → c h e^ → b G → a Abbildung 1.11: Das Spatprodukt. 20 KAPITEL 1. VEKTOREN wir die Menge aller Punkte innerhalb des ‘Spates’ beschreiben als die Menge aller Vektoren ~r, die die folgende Bedingung erfüllen: ~r = α ~a + β ~b + γ ~c mit 0 ≤ α, β, γ ≤ 1 . (1.61) Im Moment wollen wir jedoch nur das Volumen dieses ‘Spates’ berechnen. Wir erinnern uns noch daran, dass wir das Volumen eines Körpers, der in ‘gleichen Höhen über der Grundfläche gleiche Schnittflächen besitzt’, mit Hilfe der Formel Volumen = V = Grundfläche mal Höhe berechnen können. Die Grundfläche ist hier gleich |~a × ~b | und die Höhe ist gleich der Projektion h = |~c · ê| von ~c auf einen Einheitsvektor ê, der senkrecht auf der Grundfläche steht. Dieser Vektor ist gegeben durch ê = ~a × ~b , |~a × ~b | (1.62) und man erhält das Spatvolumen als ~a × ~b V = ~a × ~b h = ~a × ~b ~c · = ~a × ~b · ~c . |~a × ~b | (1.63) Dieses Volumen ist wegen der Betragsstriche in Gleichung (1.63) nicht-negativ. Das Spatprodukt selbst kann natürlich sowohl positiv als auch negativ sein. Das sieht man sofort wegen der Antikommutativität des Vektorproduktes (1.32): ~a × ~b · ~c = − ~b × ~a · ~c . (1.64) Man kann drei Objekte auf sechs verschiedene Arten anordnen, also können wir mit den drei Vektoren ~a, ~b, ~c sechs verschiedene Spatprodukte bilden, deren Betrag gleich ist (der aufgespannte Spat ist immer gleich). Wegen (1.64) haben drei der sechs Produkte unterschiedliches Vorzeichen. Es gilt ~a × ~b · ~c = ~b × ~c · ~a = ~c × ~a · ~b , (1.65) d.h. das Spatprodukt ist invariant bei zyklischer Vertauschung der Vektoren, und wegen (1.64) wechselt es das Vorzeichen bei einer antizyklischen Vertauschung. Ein Beweis dieser Formel ergibt sich ein paar Zeilen weiter. Ausserdem können wir in (1.65) mit Hilfe der Kommutativität des Skalarprodukts umordnen, ~a × ~b · ~c = ~b × ~c · ~a = ~a · ~b × ~c , (1.66) 1.2. VEKTORRECHNUNG 21 d.h. es gilt eine Vertauschungsrelation von Vektor- und Skalarprodukt: ~a × ~b · ~c = ~a · ~b × ~c . (1.67) Es ist sehr nützlich, einen expliziten Ausdruck für das Spatprodukt in einer Komponentendarstellung zur Verfügung zu haben. Eine kurze Rechnung ergibt: ~a × ~b · ~c = (ax x̂+ay ŷ+az ẑ )×(bx x̂+by ŷ+bz ẑ ) · (cx x̂+cy ŷ+cz ẑ ) = (ay bz −az by ) x̂+(az bx −ax bz ) ŷ+(ax by −ay bx ) ẑ ·(cx x̂+cy ŷ+cz ẑ ) = (ay bz − az by )cx + (az bx − ax bz )cy + (ax by − ay bx )cz . (1.68) Die letzte Zeile identifiziert man mit dem Wert einer 3 × 3–Determinante (vgl. Abschnitt 5.2), die zeilenweise aus den drei Vektoren ~a, ~b und ~c aufgebaut ist: a x ay az ~a × ~b · ~c = bx by bz . (1.69) cx cy cz Man sieht aus dieser Formel, dass der Vorzeichenwechsel des Spatproduktes bei einer Vertauschung zweier Vektoren dem Vorzeichenwechsel einer Determinante bei Vertauschung zweier Zeilen entspricht. Damit folgt Gleichung (1.65). Wir können jetzt eine sehr einfache Antwort auf die folgende Frage geben: Wann liegen die drei Vektoren ~a, ~b, ~c in einer Ebene? — Eine Lösung liefert die Überlegung, dass in diesem Fall der von den drei Vektoren aufgespannte ‘Spat’ zu einer Fläche, einem Parallelogramm, degeneriert. Sein Volumen V ist daher gleich null, was man testen kann durch Berechnung des Spatproduktes: V = ~a × ~b · ~c = 0 , (1.70) d.h. die Vektoren liegen genau dann in einer Ebene, wenn das Spatprodukt verschwindet. Eine andere Antwort ist: Alle Vektoren ~x, die in einer von ~a und ~b aufgespannten Ebene liegen, lassen sich schreiben als ~x = α~a + β~b . (1.71) 22 KAPITEL 1. VEKTOREN → → αa + βb → βb → → a+b → b → a → αa Abbildung 1.12: Die Menge aller Linearkombinationen α~a + β~b spannt eine Ebene auf. Man nennt ~x eine Linearkombination von ~a und ~b (vgl. Abbildung 1.12). Wenn also der Vektor ~c in dieser Ebene liegt, muss es Zahlen α und β geben mit ~c = α~a + β~b . (1.72) Man prüft sofort nach, dass dann auch das Spatprodukt verschwindet: ~a × ~b · ~c = ~a × ~b · (α~a + β~b ) = α ~a × ~b · ~a + β ~a × ~b · ~b = 0 . (1.73) Die drei Vektoren sind in diesem Fall linear abhängig. 1.2.7 Das doppelte Vektorprodukt Neben dem Spatprodukt (1.60) lässt sich noch ein weiteres Mehrfachprodukt aufschreiben, das doppelte Vektorprodukt ~a × ~b × ~c . (1.74) Man überzeugt sich leicht, dass im allgemeinen gilt ~a × ~b × ~c 6= ~a × ~b × ~c , (1.75) denn es ist zum Beispiel x̂ × x̂ × ŷ = ~0 × ŷ = ~0 und x̂ × x̂ × ŷ = x̂ × ẑ = −ŷ. Außerdem gilt der Entwicklungssatz ~a × ~b × ~c = ~b ( ~a · ~c ) − ~a ( ~b · ~c ) , (1.76) der oft benutzt wird, um ein doppeltes Vektorprodukt in Formeln zu vereinfachen. 1.3. DIFFERENTIATION 1.3 23 Differentiation In diesem Abschnitt befassen wir uns mit der Differentiation in einem dreidimensionalen Raum. Dabei geht es zunächst um die Ableitung von vektorwertigen Funktionen, wie beispielsweise einer Bahnkurve im Raum, die durch einen Vektor ~r = ~r (t) beschrieben wird, der von der Zeit t abhängt. Die Ableitungen dieser Funktion nach t liefern die Geschwindigkeit und Beschleunigung. Weiterhin betrachten wir im folgenden Abschnitt Funktionen, die von den drei Raumkoordinaten abhängen und werden den Ableitungsbegriff auf Funktionen erweitern, die von mehreren Variablen abhängen. Die Ableitung einer Funktion f (x) nach der Variablen x in einem Punkt x0 ist definiert durch den Differentialquotienten ∆f f (x) − f (x0 ) df = lim , (1.77) f 0 (x0 ) = = lim dx x0 ∆x→0 ∆x x→x0 (x − x0 ) mit x = x0 + ∆x. Der Differentialquotient ist also der Grenzwert des Differenzenquotienten [f (x) − f (x0 )]/∆x für einen beliebig kleinen Zuwachs ∆x (vorausgesetzt natürlich, dass dieser Grenzwert existiert). Anschaulicher ausgedrückt: Die Ableitung ist die Steigung der Funktion im Punkt x0 , definiert als Grenzwert der Steigung im Intervall [x0 , x] (vgl. Abbildung 1.13). y g(x) = f(x0) + f’(x0) (x-x0) f(x) ∆f ∆x f(x0 + ∆x) f(x0) x0 x0 + ∆x x Abbildung 1.13: Die Ableitung f 0 (x0 ) einer Funktion f (x) an der Stelle x0 ist der Grenzwert der Intervallsteigung für ∆x → 0. Die Taylor–Entwicklung In vielen Anwendungen in der Physik benutzen wir die Ableitung einer Funktion auch, um einen Funktionswert an einer Stelle x durch den Funktions- 24 KAPITEL 1. VEKTOREN wert an der Stelle x0 ≈ x zu approximieren. Für kleines ∆x = x − x0 gilt näherungsweise f 0 (x0 ) ≈ oder umgeformt f (x) − f (x0 ) , x − x0 f (x) ≈ f (x0 ) + f 0 (x0 )(x − x0 ) . (1.78) (1.79) Das bedeutet eine Approximation von f (x) durch die lineare Funktion g(x) = f (x0 ) + f 0 (x0 )(x − x0 ) , (1.80) die mit f (x) und ihrer ersten Ableitung an der Stelle x0 übereinstimmt. Man kann diese Näherung noch verbessern durch f (x) ≈ f (x0 ) + f 0 (x0 )(x − x0 ) + f 00 (x0 ) (x − x0 )2 , 2 (1.81) also durch die Approximation von f (x) durch ein Polynom zweiten Grades. Durch Differenzieren sieht man, dass in dieser Näherung auch noch die zweiten Ableitungen bei x0 übereinstimmen. Eine Verallgemeinerung liefert die Taylor–Entwicklung f (x) = m X f (n) (x0 ) (x − x0 )n + Rm (x) n! n=0 (1.82) ∞ X f (n) (x0 ) = (x − x0 )n , n! n=0 vorausgesetzt, dass das Restglied der Reihe, das man schreiben kann als Rm (x) = f (m+1) (η) (x − x0 )m+1 , (m + 1)! η ∈ [x0 , x] , (1.83) mit wachsendem m gegen null geht. Weiterhin ist die Taylor–Entwicklung P∞ eindeutig, d.h. es existiert keine andere Potenzreihendarstellung f (x) = n=0 an (x − x0 )n in einer Umgebung von x0 . Ein Beispiel ist die Taylor–Entwicklung der Exponentialfunktion f (x) = ex um den Punkt x0 = 0. Mit der Ableitung f 0 (x)) = ex = f (x) sehen wir, dass alle Ableitungen übereinstimmen. Ihr Wert an der Stelle x0 = 0 ist gleich f ( n)(0) = e0 = 1 . (1.84) 1.3. DIFFERENTIATION 25 Damit ergibt sich die Taylorreihe ex = ∞ X xn , n! n=0 (1.85) da das Restglied für m → ∞ gegen null geht: Rm (x) = eη (m+1)! xm+1 ≤ ex (m+1)! xm+1 −−−−→ 0 . m→∞ (1.86) In gleicher Weise findet man die Taylor–Reihen für die Sinus– und Kosinus– Funktionen in (B.35). Das Differential Neben der Ableitung einer Funktion benutzt man (nicht nur) in der Physik so genannte Differentiale. Anwendungen finden sich z.B. bei Integraltransformationen, der Behandlung von Differentialgleichungen und in der Fehlerrechnung. In allen Fällen lässt sich die Verwendung von derartigen Differentialen vermeiden, aber wegen ihrer Zweckmäßigkeit werden sie mehr oder weniger kommentarlos in vielen Lehrbüchern und Vorlesungen benutzt. Deshalb hier einige Klarstellungen. Zunächst wieder die Anschauung. Es sei ∆x eine kleine Differenz der Größe x, also ∆x = x2 − x1 , was man sich als ‘Rütteln’ an der Größe x vorstellen kann. Wenn nun eine andere Größe, wie z.B. y, mit x zusammenhängt, geschrieben als y = f (x), dann ändert sich diese Größe auch, d.h. die Änderung ∆y ist starr mit ∆x verknüpft. Es gilt ∆y ≈ f 0 (x)∆x (1.87) (dabei ist das Argument x von f 0 (x) aus dem Intervall [x1 , x2 ] ). Wenn man jetzt das Intervall immer kleiner macht, dann wird aus dem ≈ ein = und aus den kleinen Differenzen ∆x und ∆y werden die Differentiale dx und dy. Das einzige Problem, das man hier noch zu bewältigen hat, ist die Tatsache, dass diese Differentiale dann wegen ∆x → 0 null werden. Man benötigt also einen Trick, um das zu umgehen. Will man den Formalismus isolierter Differentiale streng mathematisch einführen, benötigt man etwas mehr höhere Mathematik, hat dann aber auch ein wesentlich flexibleres Handwerkszeug zur Verfügung (Differentialformen, Nonstandard–Analysis). Hier versuchen wir erste Schritte in dieser Richtung. Ist die Funktion y = f (x) an der Stelle x differenzierbar, so nennt man das Produkt f 0 (x) h (1.88) 26 KAPITEL 1. VEKTOREN das zu dem beliebigen(!) h gehörige Differential von f (x) an der Stelle x und bezeichnet es mit dy oder df (x) , (1.89) wobei es meist nicht nötig ist, h gesondert anzugeben. Wichtig ist, dass h nicht ‘klein’ sein muss; x + h braucht nicht einmal dem Definitionsbereich von f anzugehören. Betrachtet man insbesondere die Funktion f (x) = x, so ist ihre Ableitung gleich 1 und es gilt dx = h (1.90) (statt h verwendet man oft auch ∆x). Dann gilt auch dy = f 0 (x) dx , (1.91) und die Ableitung ist damit exakt gleich dem Quotienten der Differentiale f 0 (x) = dy dx (1.92) und nicht ein Grenzwert für ∆x gegen null, wodurch sich auch der Name Differentialquotient für die Ableitung rechtfertigt. 1.3.1 Differentiation von Vektorfunktionen z^ . r → → r (t) → r y^ x^ Abbildung 1.14: Bahnkurve der Bewegung eines Massepunktes. Die Bahngeschwindigkeit ~r˙ steht tangential zur Bahn. 1.3. DIFFERENTIATION 27 Wir betrachten in diesem Abschnitt Vektoren ~r = (x, y, z), die von einer skalaren Größe t abhängen, also ~r = ~r (t) = x(t), y(t), z(t) . (1.93) Als konkretes Beispiel kann man sich die Bahn eines Teilchens im Raum als Funktion der Zeit t vorstellen (vgl. Abbildung 1.14). Die Differenz der Positionen zu den Zeiten t und t + ∆t ist ∆~r = ~r (t + ∆t) − ~r(t) , (1.94) und die komponentenweise Differentiation (bei einer zeitunabhängigen Basis) ~r˙ = d~r ∆~r = lim ∆t→0 dt ∆t = ~r (t + ∆t) − ~r (t) dx dy dz = , , ∆t→0 ∆t dt dt dt lim (1.95) ist die Ableitung2 des Vektors ~r (t) nach dem Skalar t. Man nennt ~r˙ auch die Geschwindigkeit und schreibt ~v = ~r˙ . Der Geschwindigkeitsvektor ist ein Tangentialvektor an die Bahnkurve. Da die Geschwindigkeit im allgemeinen wieder von der Zeit t abhängt, können wir abermals nach t differenzieren und erhalten damit die Beschleunigung ~a = ~v˙ = ~r¨ = d2~r . dt2 (1.96) Für die Ableitung von Vektorfunktionen nach einem Skalar gelten die folgenden Rechenregeln, die sich direkt aus den Differentiationsregeln für die Summe und das Produkt von Funktionen ergeben: d ~a + ~b dt = d~a d~b + dt dt (1.97) d d~a ~ d~b · b + ~a · ~a · ~b = dt dt dt (1.98) d d~a ~ d~b ~a × ~b = × b + ~a × dt dt dt (1.99) 2 Es sei hier erwähnt, dass diese Ableitung natürlich nur dann existiert, wenn die Komponenten x, y, z des Vektors ~ r nach t differenzierbar sind. 28 KAPITEL 1. VEKTOREN . → r Abbildung 1.15: Die Differenz der Positionen zur Zeit t und t + ∆t dividiert durch ∆t liefert für ∆t → 0 die Bahngeschwindigkeit ~r˙ . d df d~a f~a = ~a + f dt dt dt (1.100) d~a ~ d~b d~c d ~a · ( ~b × ~c ) = · b × ~c + ~a · × ~c + ~a · ~b × .(1.101) dt dt dt dt Man kann also mit derartigen Ausdrücken rechnen wie gewohnt, allerdings unter Beachtung der Reihenfolge der Vektoren in den Produkten. Man beweist diese Beziehungen durch direkte Berechnung. Als Beispiel sei der Beweis für (1.98) angeführt: X d X d ~a · ~b = ai bi = ȧi bi + ai ḃi dt dt i i = X ȧi bi + i X ˙ ai ḃi = ~a˙ · ~b + ~a · ~b , (1.102) i sowie der Beweis von Gleichung (1.99): X d X d ( ~a × ~b) = ijk ai bj êk = ijk ȧi bj + ai ḃj êk dt dt ijk = X ijk 1.3.2 ijk ȧi bj êk + ijk X ˙ ijk ai ḃj êk = ~a˙ × ~b + ~a × ~b .(1.103) ijk Die partielle Ableitung Für die Differentiation von Funktionen von mehreren Variablen f (x, y, z) ist der Begriff der partiellen Ableitung ∂f /∂x von großer Bedeutung. Kurz gesagt 1.3. DIFFERENTIATION 29 wird hierbei nach der Variablen x so differenziert, als ob f nur eine Funktion von x allein wäre und alle anderen Variablen als Konstanten betrachtet werden: f (x + ∆x, y, z) − f (x, y, z) ∂f = lim . ∂x ∆x→0 ∆x (1.104) Entsprechend definiert man ∂f f (x, y + ∆y, z) − f (x, y, z) = lim ∆y→0 ∂y ∆y (1.105) ∂f f (x, y, z + ∆z) − f (x, y, z) = lim . ∆z→0 ∂z ∆z (1.106) und Falls es irgendeinen Zweifel geben sollte, welche Variable oder welche Variablen bei der partiellen Differentiation konstant gehalten werden, kann man das durch die folgende Schreibweise festhalten: ∂f . (1.107) ∂x y,z Dies bedeutet, dass nach x differenziert wurde, wobei die Werte von y und z festgehalten wurden. Man schreibt die partiellen Ableitungen auch alternativ in der Kurzform fx = ∂f , ∂x fy = ∂f ∂y und fz = ∂f , ∂z (1.108) wobei allerdings Verwechslungen (z.B. mit den Komponenten eines Vektors) möglich sind. Entsprechend lassen sich auch höhere partielle Ableitungen bilden, wie zum Beispiel ∂2f ∂ ∂f fxx = = (1.109) ∂x ∂x ∂x2 oder — und das ist neu im Vergleich zu der Differentiation von Funktionen mit nur einer Variablen — auch gemischte Ableitungen, wie ∂ ∂f ∂2f fxy = = , (1.110) ∂y ∂x ∂y∂x d.h. die zweite partielle Ableitung, die sich ergibt, wenn man zuerst nach x und danach nach y partiell differenziert. 30 KAPITEL 1. VEKTOREN Als Beispiel berechnen wir alle ersten und zweiten partiellen Ableitungen der Funktion f (x, y) = 4x5 + 2x2 y + 9xy 3 (1.111) von zwei Veränderlichen x und y. Für die ersten Ableitungen ergibt sich fx = 20x4 + 4xy + 9y 3 , fy = 2x2 + 27xy 2 (1.112) und für die zweiten partiellen Ableitungen fxx = 80x3 + 4y , fyy = 54xy , fxy = 4x + 27y 2 , fyx = 4x + 27y 2 . (1.113) Man beobachtet hier, dass die beiden gemischten Ableitungen unabhängig sind von der Reihenfolge der Differentiation, also fxy = fyx . Das gilt mit recht großer Allgemeinheit nach dem Satz von Schwarz unter der Voraussetzung, dass die zweiten partiellen Ableitungen existieren und stetig sind. Wenn nun die Variablen x, y und z von einer skalaren Variablen t abhängen: f (t) = f x(t), y(t), z(t) , (1.114) so kann man die Funktion f (t) wie bekannt nach t differenzieren. Es gilt dabei eine erweiterte Kettenregel: df ∂f dx ∂f dy ∂f dz = + + . dt ∂x dt ∂y dt ∂z dt Das beweist man mit Hilfe von f x(t + ∆t), y(t + ∆t), z(t + ∆t) − f (x, y, z) f (t + ∆t) − f (t) = ∆t ∆t (1.115) 1.3. DIFFERENTIATION 31 f (x + ∆x, y + ∆y, z + ∆z) − f (x, y, z) (vgl. (1.94) ) ∆t 1 n = f (x + ∆x, y + ∆y, z + ∆z) − f (x, y + ∆y, z + ∆z) ∆t = o +f (x, y+∆y, z+∆z)−f (x, y, z +∆z)+f (x, y, z +∆z)−f (x, y, z) = f (x + ∆x, y + ∆y, z + ∆z) − f (x, y + ∆y, z + ∆z) ∆x ∆x ∆t + f (x, y + ∆y, z + ∆z) − f (x, y, z + ∆z) ∆y ∆y ∆t + −−−−→ ∆t→0 f (x, y, z + ∆z) − f (x, y, z) ∆z ∆z ∆t ∂f dx ∂f dy ∂f dz + + . ∂x dt ∂y dt ∂z dt Unter Verzicht auf das explizite Hinschreiben der Differentiation nach der Variablen t lässt sich (1.115) auch abgekürzt schreiben als df = ∂f ∂f ∂f dx + dy + dz . ∂x ∂y ∂z (1.116) Dieses totale Differential gibt die Änderung des Wertes der Funktion f an, falls die Variable x um dx verändert wird, y um dy und z um dz (vgl. dazu auch Seite 25). Bei manchen Anwendungen möchte man diese Beziehung für endliche, nicht infinitesimale Größen benutzen. Man schreibt dann ∆ statt d, also ∆f ≈ ∂f ∂f ∂f ∆x + ∆y + ∆z , ∂x ∂y ∂z (1.117) wobei natürlich aus dem ‘=’ ein ‘≈’ wurde (vgl. Abbildung 1.16). Als Beispiel betrachten wir die Funktion 2 f (x, y, z) = (1 + z) ex+y . (1.118) Die partiellen Ableitungen sind 2 2 2 ∂f ∂f ∂f = (1 + z) ex+y , = 2y(1 + z) ex+y , = ex+y . ∂x ∂y ∂z (1.119) 32 KAPITEL 1. VEKTOREN ∂f ∂y ∂f ∂f ∆x + ∆y ∂y ∂x ∆y ∂f ∂x ∆x f(x, y) ∆y (x, y) ∆x Abbildung 1.16: Zuwachs einer Funktion f (x, y) bei Änderung von x um ∆x und y um ∆y. An der Stelle (x, y, z) = (0, 0, 0) ist der Funktionswert f (0, 0, 0) = 1 bekannt. Bei einem Zuwachs um (∆x, ∆y, ∆z) = (0.1, 0.1, 0.1) ändert sich der Funktionswert nach Gleichung (1.117) näherungsweise um ∂f ∂f ∂f ∆f ≈ ∆x + ∆y + ∆z . (1.120) ∂x 0 ∂y 0 ∂z 0 Dabei bezeichnet ∂f /∂x0 den Wert der partiellen Ableitung an der Stelle (x, y, z) = (0, 0, 0). Wir erhalten ∆f = 1 · 0.1 + 0 · 0.1 + 1 · 0.1 = 0.2 (1.121) und daher nach Gleichung (1.79) einen approximativen Funktionswert von f (0.1, 0.1, 0.1) ≈ f (0, 0, 0) + ∆f = 1 + 0.2 = 1.2. Ein Vergleich mit der exakten Berechnung von f (0.1, 0.1, 0.1) = (1 + 0.1) e0.1+0.01 ≈ 1.227 zeigt eine recht gute Übereinstimmung. 1.4 Krummlinige Koordinaten I Im Abschnitt 1.2 haben wir die Komponenten eines Vektors in einem dreidimensionalen kartesischen Koordinatensystem dargestellt. Im vorangehenden Abschnitt haben wir gelernt, in diesen Koordinaten zu differenzieren. Die Wahl 1.4. KRUMMLINIGE KOORDINATEN I 33 eines solchen Koordinatensystems ist aber beliebig. Man kann z.B. ein kartesisches Koordinatensystem in geeigneter Weise orientieren; man kann aber auch ganz andere Koordinatensysteme – man nennt sie ganz allgemein krummlinige Koordinaten – wählen, die beispielsweise der Symmetrie eines Systems angepasst sind. Ein bekanntes Beispiel sind die Längen- und Breitengrade auf der Erdkugel. Wir bezeichnen hier ganz allgemein solche (dreidimensionalen) Koordinaten mit u, v, w. Unsere Aufgabe ist es nun, in diesen Koordinaten zu rechnen, also beispielsweise zu differenzieren. Bei einer Transformation von den kartesischen Koordinaten x, y, z auf beliebige andere Koordinaten u, v, w können wir ganz ähnlich vorgehen wie im vorigen Abschnitt. Der Vektor ~r = (x, y, z) hängt jetzt von den Variablen u, v, w ab, d.h. ~r = x(u, v, w), y(u, v, w), z(u, v, w) . Dann gilt wie oben bei alleiniger Änderung der Bezeichnungen dx = ∂x ∂x ∂x du + dv + dw , ∂u ∂v ∂w (1.122) sowie ein ganz analoger Ausdruck für dy bzw. dz. Damit erhält man das so genannte Linienelement als d~r = (dx, dy, dz) = dx êx + dy êy + dz êz ∂x ∂x ∂x ∂y ∂y ∂y = du + dv + dw êx + du + dv + dw êy ∂u ∂v ∂w ∂u ∂v ∂w ∂z ∂z ∂z + du + dv + dw êz ∂u ∂v ∂w ∂x ∂y ∂z ∂x ∂y ∂z = êx + êy + êz du + êx + êy + êz dv ∂u ∂u ∂u ∂v ∂v ∂v ∂x ∂y ∂z + êx + êy + êz dw ∂w ∂w ∂w = ∂ ~r ∂ ~r ∂ ~r du + dv + dw ∂u ∂v ∂w (1.123) mit ∂ ~r ∂x ∂y ∂z = , , . ∂u ∂u ∂u ∂u (1.124) Gleichung (1.123) beschreibt die Änderung des Vektors ~r bei Änderung der Koordinate u um du, v um dv und w um dw. 34 KAPITEL 1. VEKTOREN Im folgenden Abschnitt werden wir diese Formeln benutzen, um spezielle wichtige krummlinige Koordinatensysteme kennen zu lernen. 1.4.1 Ebene Polarkoordinaten ^y y ϕ x x^ Abbildung 1.17: Ebene Polarkoordinaten. Die wohl einfachsten und bekanntesten krummlinigen Koordinaten sind die ebenen Polarkoordinaten. Man benutzt zur Beschreibung eines Punktes in der (x, y)-Ebene den Abstand r vom Ursprung des Koordinatensystems und den Winkel ϕ zur x-Achse (siehe Abbildung 1.17). Die Transformation zwischen den kartesischen Koordinaten x, y und den Polarkoordinaten r, ϕ ist gegeben durch die Gleichungen x = r cos ϕ , y = r sin ϕ (1.125) mit der Umkehrung r= p x2 + y 2 , ϕ = arctan y y (x ≥ 0), ϕ = arctan + π (x < 0) . (1.126) x x Die beiden Vektoren êr = (cos ϕ, sin ϕ) , êϕ = (− sin ϕ, cos ϕ) (1.127) p sind Einheitsvektoren (|êr | = |êϕ | = sin2 ϕ + cos2 ϕ = 1), die aufeinander senkrecht stehen (êr · êϕ = − cos ϕ sin ϕ + sin ϕ cos ϕ = 0). Diese Vektoren zeigen in die beiden Koordinatenrichtungen, also êr in radiale Richtung und êϕ in azimutale Richtung, wie in Abbildung 1.18 dargestellt. 1.4. KRUMMLINIGE KOORDINATEN I 35 y e^ ϕ . e^ r → r ϕ x Abbildung 1.18: Einheitsvektoren der ebenen Polarkoordinaten. In diesem einfachen Fall lassen sich die beiden Einheitsvektoren erraten, aber für kompliziertere Situationen benötigt man ein allgemeines Konstruktionsverfahren. Das lässt sich leicht angeben: Einen Vektor ‘in Richtung einer Koordinate u’ erhält man durch die Änderung ∆~r des Vektors ~r bei alleiniger Änderung der Koordinate u um einen kleinen Wert ∆u, also einen Vektor in Richtung ∂ ~r/∂u. Um einen Einheitsvektor in diese Richtung zu erhalten, muss man den Vektor noch durch seinen Betrag dividieren: ∂ ~r 1 ∂ ~r mit bu = . (1.128) êu = bu ∂u ∂u Als Test verifizieren wir mit Hilfe von (1.128) und ~r = (r cos ϕ, r sin ϕ) (1.129) die Einheitsvektoren (1.127) für die ebenen Polarkoordinaten. Zunächst berechnen wir ∂~r = (cos ϕ, sin ϕ) , ∂r und ihre Beträge q br = cos2 ϕ + sin2 ϕ = 1 , ∂~r = (−r sin ϕ, r cos ϕ) ∂ϕ bϕ = q r2 sin2 ϕ + r2 cos2 ϕ = r . (1.130) (1.131) 36 KAPITEL 1. VEKTOREN Damit finden wir êr = 1 ∂ ~r = (cos ϕ, sin ϕ) br ∂r (1.132) und êϕ = 1 ∂ ~r = (− sin ϕ, cos ϕ) bϕ ∂ϕ (1.133) in Übereinstimmung mit (1.127). Die Bahnkurve ist in ebenen Polarkoordinaten gegeben durch ~r = ~r (t) = r(t) êr (t) . (1.134) Dabei muss man beachten, dass der Basisvektor êr an den verschiedenen Punkten im Raum unterschiedliche Richtungen hat, d.h. er dreht sich auf der Bahn und es gilt êr = êr (t). Aus (1.134) erhält man unter Benutzung der Formel dêr dϕ ˆ˙er = = (− sin ϕ, cos ϕ) ϕ̇ = ϕ̇ êϕ dϕ dt durch Differentiation die Bahngeschwindigkeit ~r˙ = ṙ êr + r ˆ˙er = ṙ êr + rϕ̇ êϕ . (1.135) Die Geschwindigkeit (1.135) lässt sich auch schreiben als ~v = vr êr + vϕ êϕ (1.136) mit der Radialgeschwindigkeit vr = ṙ (1.137) vϕ = rϕ̇ (1.138) und der Geschwindigkeit in azimutaler Richtung; ϕ̇ bezeichnet man als Winkelgeschwindigkeit. Mit Hilfe von ê˙ ϕ = (− cos ϕ, − sin ϕ) ϕ̇ = −ϕ̇ êr (1.139) 1.4. KRUMMLINIGE KOORDINATEN I 37 berechnen wir die Beschleunigung in Polarkoordinaten als ~a = ~r¨ = ~v˙ d d = vr êr + vϕ êϕ = ṙ êr + rϕ̇ êϕ dt dt = r̈ êr + ṙ ê˙ r + ṙϕ̇ êϕ + rϕ̈ êϕ + rϕ̇ ê˙ ϕ = (r̈ − rϕ̇2 ) êr + (rϕ̈ + 2ṙϕ̇) êϕ (1.140) oder ~a = ar êr + aϕ êϕ (1.141) mit der Radialbeschleunigung ar = r̈ − rϕ̇2 (1.142) aϕ = rϕ̈ + 2ṙϕ̇ . (1.143) und der Winkelbeschleunigung Zum Abschluss berechnen wir noch das Linienelement (1.123) in Polarkoordinaten: d~r = ∂ ~r ∂ ~r dr + dϕ = dr êr + r dϕ êϕ = dsr êr + dsϕ êϕ . ∂r ∂ϕ (1.144) y → ϕ ds dr dF dsr = dr dϕ r x Abbildung 1.19: Differentielle Linienelemente in ebenen Polarkoordinaten. 38 KAPITEL 1. VEKTOREN Die Linienelemente in die beiden Koordinatenrichtungen êr und êϕ nennt man auch Längenelemente und bezeichnet sie mit ds, also dsr = dr und dsϕ = r dϕ (1.145) (vgl. Abbildung 1.19). Da die beiden Vektoren êr und êϕ aufeinander senkrecht stehen, ist das differentiell kleine Flächenelement dF = dx dy in ebenen Polarkoordinaten durch dF = dsr dsϕ = r dr dϕ (1.146) gegeben. 1.4.2 Zylinderkoordinaten In den Zylinderkoordinaten werden die beiden kartesischen Koordinaten x und y durch ebene Polarkoordinaten ersetzt, die hier zur Unterscheidung von den Kugelkoordinaten (vgl. Abschnitt 1.4.3) mit ρ und ϕ bezeichnet werden. Die Transformationsgleichungen lauten x = ρ cos ϕ , mit der Umkehrung p ρ = x2 + y 2 , y = ρ sin ϕ , ϕ = arctan z=z y {+π falls x < 0}, x (1.147) z = z. (1.148) z e^z e^ϕ P ^ e ρ z ϕ x ρ y Abbildung 1.20: Zylinderkoordinaten. 1.4. KRUMMLINIGE KOORDINATEN I 39 Genau wie oben findet man die Einheitsvektoren als êρ êϕ êz = ( cos ϕ, sin ϕ, 0) = (− sin ϕ, cos ϕ, 0) = (0, 0, 1) (1.149) êρ · êϕ = êρ · êz = êϕ · êz = 0 , (1.150) mit das heißt, die Einheitsvektoren stehen paarweise aufeinander senkrecht und bilden wegen êρ × êϕ = êz ein Rechtssystem. Das Linienelement (1.123) ergibt sich genau wie für die ebenen Polarkoordinaten in (1.144) als d~r = = dρ êρ + ρdϕ êϕ + dz êz dsρ êρ + dsϕ êϕ + dsz êz . (1.151) Das Volumenelement ist gleich dem Volumen eines von den Längenelementen dsρ = dρ, dsϕ = ρ dϕ und dsz = dz aufgespannten differentiell kleinen Quaders, also dV = dsρ dsϕ dsz = ρ dρ dϕ dz . (1.152) Als direkte Erweiterung von (1.135) und (1.140) (oder auch als Folgerung von (1.151)) schreiben sich Geschwindigkeit und Beschleunigung in Zylinderkoordinaten als ~v = ρ̇ êρ + ρϕ̇ êϕ + ż êz (1.153) ~a = (ρ̈ − ρϕ̇2 ) êρ + (2ρ̇ϕ̇ + ρϕ̈) êϕ + z̈ êz . (1.154) und 1.4.3 Kugelkoordinaten Die Transformation von kartesischen Koordinaten auf krummlinige Koordinaten lässt sich ganz allgemein behandeln. Wir wollen diese Technik hier einmal anhand des Beispiels der Kugelkoordinaten genauer darstellen. Kugelkoordinaten oder auch sphärische Polarkoordinaten beschreiben einen Punkt mit den kartesischen Koordinaten x, y, z durch die folgenden drei Angaben: Den Abstand r vom Koordinatenmittelpunkt, den Winkel ϑ zwischen ~r 40 KAPITEL 1. VEKTOREN z ^ e r e^ϕ r ϑ ϕ z ρ ^ e ϑ y x Abbildung 1.21: Sphärische Polarkoordinaten oder auch Kugelkoordinaten. und der z-Achse und den Drehwinkel ϕ der Projektion von ~r auf die x, y-Ebene bezüglich der x-Richtung. Wie man sich aus der Zeichnung 1.21 klarmacht, ist die z–Komponente die Projektion von ~r auf die z–Achse: z = r cos ϑ . (1.155) Mit der Projektion von ~r auf die x, y–Ebene, ρ = r sin ϑ , (1.156) erhält man durch weitere Projektion auf die Koordinatenachsen die x– und y–Komponenten: x = ρ cos ϕ , y = ρ sin ϕ . (1.157) Insgesamt sind die Transformationsgleichungen dann gegeben durch x = r sin ϑ cos ϕ y = r sin ϑ sin ϕ z = r cos ϑ . (1.158) Zunächst konstruieren wir einen Vektor ‘in Richtung der Koordinate r’, d.h. in der Richtung, in der sich der Vektor ~r ändert, wenn man nur die Koordinate r 1.4. KRUMMLINIGE KOORDINATEN I 41 ändert und die beiden anderen Koordinaten ϑ und ϕ festhält. Nach Definition ist das die partielle Ableitung ∂~r = (sin ϑ cos ϕ, sin ϑ sin ϕ, cos ϑ) ∂r (1.159) mit q ∂~r br = = sin2 ϑ cos2 ϕ + sin2 ϑ sin2 ϕ + cos2 ϑ ∂r q = sin2 ϑ cos2 ϕ + sin2 ϕ + cos2 ϑ = 1 . (1.160) Als Einheitsvektor in r–Richtung erhalten wir folglich êr = 1 ∂~r = (sin ϑ cos ϕ, sin ϑ sin ϕ, cos ϑ) . br ∂r (1.161) Entsprechend verfahren wir mit den beiden anderen Koordinaten: êϑ = 1 ∂~r = bϑ ∂ϑ = 1 r cos ϑ cos ϕ, r cos ϑ sin ϕ, −r sin ϑ r = (cos ϑ cos ϕ, cos ϑ sin ϕ, − sin ϑ) (1.162) mit und q ∂~r bϑ = = r2 cos2 ϕ + sin2 ϕ cos2 ϑ + r2 sin2 ϑ = r ∂ϑ êϕ = 1 ∂~r bϕ ∂ϕ = 1 − r sin ϑ sin ϕ, r sin ϑ cos ϕ, 0 r sin ϑ = (− sin ϕ, cos ϕ, 0) (1.163) (1.164) mit q ∂~r bϕ = = r2 sin2 ϑ sin2 ϕ + cos2 ϕ = r sin ϑ . ∂ϕ (1.165) 42 KAPITEL 1. VEKTOREN Man prüft leicht nach, dass gilt êr · êϑ = êr · êϕ = êϑ · êϕ = 0, d.h. die drei Einheitsvektoren sind paarweise orthogonal. Das Linienelement in kartesischen Koordinaten d~r = (dx, dy, dz) = dx êx + dy êy + dz êz (1.166) schreibt man in den neuen Koordinaten wie d~r = dsr êr + dsϑ êϑ + dsϕ êϕ . (1.167) ∂~r ∂~r ∂~r dr + dϑ + dϕ ∂r ∂ϑ ∂ϕ ∂~r ∂~r ∂~r = dr êr + dϑ êϑ + dϕ êϕ ∂r ∂ϑ ∂ϕ (1.168) Vergleicht man mit d~r = = br dr êr + bϑ dϑ êϑ + bϕ dϕ êϕ (siehe auch (1.123) ), so erhält man für die Längenelemente dsr = br dr , dsϑ = bϑ dϑ , dsϕ = bϕ dϕ (1.169) und d~r = dr êr + r dϑ êϑ + r sin ϑ dϕ êϕ . (1.170) Das Volumenelement ist schließlich dV = dsr dsϑ dsϕ = br bϑ bϕ dr dϑ dϕ = r2 sin ϑ dr dϑ dϕ . (1.171) Oft ist es zweckmäßig, die Radial- und Winkelanteile zu trennen. Man findet dann oft eine Schreibweise des Volumenelements als dV = r2 dr dΩ (1.172) dΩ = sin ϑ dϑ dϕ , (1.173) mit dem Raumwinkelelement das man als Flächenelement auf der Einheitskugel verstehen R kann (das Integral über alle Winkel ist gleich der Fläche der Einheitskugel: dΩ = 4π). 1.4. KRUMMLINIGE KOORDINATEN I 43 Für die Beschreibung der Bewegung eines Massepunktes in Kugelkoordinaten benötigen wir außerdem noch die Geschwindigkeit und die Beschleunigung ausgedrückt in den Basisvektoren êr , êϑ , êϕ . Für die Geschwindigkeit ist das recht einfach: Wir differenzieren ~r (t) = rêr nach der Zeit und beachten dabei, dass sich entlang der Bahn auch der Vektor êr ändert. Nach der Kettenregel ergibt sich ê˙ r = ∂êr ∂êr ϑ̇ + ϕ̇ ∂ϑ ∂ϕ = ϑ̇ (cos ϑ cos ϕ, cos ϑ sin ϕ, − sin ϑ) + ϕ̇ (− sin ϑ sin ϕ, sin ϑ cos ϕ, 0) (1.174) = ϑ̇ êϑ + ϕ̇ sin ϑ êϕ . Insgesamt also: ~v (t) = ~r˙ = vr êr + vϑ êϑ + vϕ êϕ = ṙ êr + rϑ̇ êϑ + r sin ϑ ϕ̇ êϕ . (1.175) Das hätte man natürlich auch schneller aus dem Differential für d~r in Gleichung (1.170) erhalten können. Die Berechnung der Beschleunigung (die ja direkt in die Bewegungsgleichungen eingeht!) ist etwas umfangreicher. Zunächst ermitteln wir analog zu dem Vorgehen für ê˙ r die Zeitableitungen der beiden anderen Basisvektoren. Wir erhalten ê˙ ϑ = −ϑ̇ êr + ϕ̇ cos ϑ êϕ (1.176) ê˙ ϕ = −ϕ̇ sin ϑ êr − ϕ̇ cos ϑ êϑ (1.177) und damit ~a(t) = ~v˙ = ~r¨ = ar êr + aϑ êϑ + aϕ êϕ (1.178) mit den Komponenten ar = r̈ − rϑ̇2 − r sin2 ϑ ϕ̇2 (1.179) aϑ = rϑ̈ + 2ṙϑ̇ − r sin ϑ cos ϑ ϕ̇2 (1.180) aϕ = r sin ϑ ϕ̈ + 2 sin ϑ ṙϕ̇ + 2r cos ϑ ϑ̇ϕ̇ . (1.181) 44 KAPITEL 1. VEKTOREN 1.4.4 Allgemeine orthogonale Koordinatensysteme Zum Abschluss dieses Abschnittes sollen einige wichtige Formeln für allgemeine orthogonale Koordinatensysteme zusammengestellt werden. Wir werden in diesem Abschnitt die kartesischen Koordinaten x, y, z mit x1 , x2 , x3 bezeichnen und die kartesischen Einheitsvektoren mit ê1 , ê2 , ê3 . Ein beliebiger Vektor ~r hat dann die Darstellung 3 X ~r = xi êi . (1.182) i=1 Die neuen, krummlinigen Koordinaten seien mit y1 , y2 , y3 bezeichnet. Mit den Transformationsgleichungen xi = xi (y1 , y2 , y3 ) (1.183) zwischen den Koordinatensystemen lassen sich die neuen Einheitsvektoren in den Richtungen der neuen Koordinaten berechnen: ∂~r 1 ∂~r , k = 1, 2, 3 . ûk = , bk = (1.184) bk ∂yk ∂yk ∂~ r Hierzu sei angemerkt, dass der Vektor ∂y in die Richtung der Änderung von k ~r bei alleiniger Änderung der Koordinate yk zeigt; bk ist der Betrag dieses Vektors, und die Division durch bk normiert ûk auf den Betrag eins. Wir fordern jetzt zusätzlich, dass die Vektoren ûk paarweise aufeinander senkrecht stehen, wie z.B. bei den sphärischen Polarkoordinaten. Wir fordern deshalb ûi · ûk = δik i, k = 1, 2, 3 . (1.185) Man nennt solche Koordinaten dann lokal orthogonal. Das Wort lokal unterstreicht hier noch einmal, dass diese Orthogonalität in jedem Punkt des Raumes gilt, denn die Vektoren ûk hängen ja von den Koordinaten ab und zeigen in verschiedenen Raumpunkten in unterschiedliche Richtungen3 . Mit Gleichung (1.123) erhält man für das Linienelement d~r = X i dxi êi = X ∂ ~r dyk ∂yk (1.186) k 3 Klarerweise ist die Orthogonalität eine starke Einschränkung, die in keiner Weise notwendig ist. Man kann auch mit nicht-orthogonalen Koordinaten arbeiten, wobei sich allerdings einige Rechnungen umständlicher darstellen. 1.5. AUFGABEN 45 unter Benutzung von (1.184) den Ausdruck X d~r = dsk ûk (1.187) k mit den Längenelementen dsk = bk dyk . (1.188) Wegen der Orthogonalität der Basisvektoren sind dann die Flächenelemente gegeben als die Fläche eines Rechtecks mit den Seitenlängen dsj und dsk , z.B. dF12 = ds1 ds2 = b1 b2 dy1 dy2 (1.189) und das Volumenelement als Volumen eines Quaders mit den Kantenlängen dsk : 3 3 Y Y dV = dsk = bk dyk = b1 b2 b3 dy1 dy2 dy3 . (1.190) k=1 1.5 k=1 Aufgaben Aufgabe 1.1 Beweisen Sie die Dreiecksungleichung |a − b| ≤ |~a + ~b | ≤ a + b . Aufgabe 1.2 Beweisen Sie mit Hilfe der Vektorrechnung den Satz von Thales: ‘Der Umfangswinkel über dem Durchmesser eines Kreises ist ein rechter Winkel.’ Aufgabe 1.3 Gegeben sind die beiden Vektoren ~a = 4êx + 3êy − 5êz und ~b = −êx + 4êy + êz . (a) Berechnen Sie den Winkel zwischen ~a und ~b. (b) Berechnen Sie das Vektorprodukt ~a ×~b . Verifizieren Sie die Beziehung ~a × ~b 2 = a2 b2 − ~a · ~b 2 durch getrennte Berechnung beider Seiten. (c) Wie müssen die Koeffizienten α und β der Linearkombination ~c = α ~a + ~b + β ~a × ~b 46 KAPITEL 1. VEKTOREN √ gewählt werden, damit die Projektion von ~c auf ~b die Länge p = 7/ 2 erhält und die drei Vektoren ~a, ~b, ~c ein Parallelepiped mit Volumen V = 297 aufspannen? Lösen Sie die Bestimmungsgleichungen für α und β zunächst allgemein und setzen Sie dann Zahlenwerte ein. Aufgabe 1.4 Der Vektorbegriff wurde zunächst über die Invarianz bei Drehungen motiviert. Später wurden dann die Vektoren als Elemente eines linearen Raumes definiert. Vergewissern Sie sich für den zweidimensinalen Fall, dass Vektoraddition und Multiplikation mit einer Zahl unter Drehungen invariant sind und dass das Skalarprodukt einen Skalar ergibt. Aufgabe 1.5 Berechnen Sie unter Verwendung der Differentiationsregeln für Vektoren ~r = ~r (t) die Ableitungen (a) d ~r dt , (b) d ~r × ~r˙ dt , (c) i dh ~r · ~r˙ × ~r¨ . dt Aufgabe 1.6 In ebenen Polarkoordinaten r, ϕ wird die Bahnkurve eines Teilchens durch ~r(ϕ) = r(ϕ) êr , r(ϕ) = k 1 + ε cos ϕ mit 0 ≤ ε < 1 beschrieben. (a) Berechnen Sie die Minimal- und Maximalwerte von r, und skizzieren Sie die Bahnkurve. (b) Berechnen Sie einen Einheitsvektor t̂ tangential zur Bahnkurve. Aufgabe 1.7 Die parabolischen Koordinaten u, v sind gegeben durch die Transformationsgleichungen x = uv , y = v 2 − u2 /2 . (a) Skizzieren Sie in der x, y–Ebene die Kurven mit konstantem u bzw. v. (b) Bestimmen Sie die Einheitsvektoren êu , êv und zeigen Sie, dass sie aufeinander senkrecht stehen. (c) Berechnen Sie das Linienelement und das Flächenelement in diesen Koordinaten. Index a priori Wahrscheinlichkeit, 352 Abel’sche Gruppe, 7 Ableitung partielle, 28 Ablenkfunktion, 111 Ablenkwinkel, 111 abzählbar, 201 Additionstheorem, 160, 180, 330, 388 äußeres Produkt, 12 Aktivkohle, 210 Algebra, 118 Anfangsbedingung, 76, 157, 161, 179 Anordnungsmöglichkeiten, 375, 466 antikommutativ, 13 antizyklisch, 16, 119 aperiodischer Grenzfall, 165 assoziativ, 7 Assoziativgesetz, 7, 117 Asymptote, 398 Atomphysik, 103 Attraktor, 190, 201 Einzugsbereich, 190, 206 Grenzzyklus-, 169, 188, 190, 201 Punkt-, 165 seltsamer, 191, 201 Ausgleichsgerade, 58, 60 Ausgleichsrechnung, 57 Bahn geschlossene, 101, 419 periodische, 101, 419 Bahngeschwindigkeit, 36 Bahnkurve, 27, 76, 407 Barometrische Höhenformel, 374, 376, 471 Basis, 8 Bernoulli, 360 Beschleunigung, 1, 27, 43 Radial-, 37 Winkel-, 37 Bessel–Funktion, 320, 460 Betrag einer komplexen Zahl, 166, 386 einer komplexen Zahlen, 385 eines Vektors, 2, 13, 104, 114 Beugungsgitter, 347 Bewegungsgleichung, 1, 76 im Phasenraum, 77 in Polarkoordinaten, 90 Newton’sche, 75 Bifurkation, 190, 200 Bifurkationsdiagramm, 191, 201 Bilinearform, 322 Binomial -Koeffizient, 356 -Verteilung, 355, 356, 376, 467 binomische Formel, 356 Bits, 365 Boltzmann -Konstante, 359, 370 -Verteilung, 359, 369, 376, 471 Brennpunkt, 64, 83, 105, 392, 399 472 INDEX Brennstrahl, 65, 396 Cantor–Menge, 201, 208, 212, 437 Chaos, 183 chaotisch, 78, 202, 204, 437 charakteristische Gleichung, 124, 162, 175 charakteristisches Polynom, 124 Computerprogramm, 197, 287, 438 cosh, 164 Coulomb -Eichung, 286 -Feld, 69, 102 -Potential, 282, 452 -Streuung, 112 Daumenregel, 13 Delta–Funktion, 261, 274, 279, 341, 449, 450 dreidimensional, 269 Eigenschaften, 265 Determinante, 18, 118, 129, 133 Funktional-, 237 Jacobi-, 237 Wronski-, 149, 152 Diagonalform, 423 Dichteverteilung, 60, 319, 410 Dielektrizitätskonstante, 102, 214 Differential, 25 totales, 31, 64, 91, 223, 225, 256, 259, 442 Differentialform, 223, 256 Differentialgleichung, 76 erster Ordnung, 77, 148 homogene, 148, 155, 159 inhomogene, 154, 155, 159, 424, 426 lineare, 147 logistische, 192 numerische Lösung, 183, 287, 300, 319 473 Ordnung, 76 Randbedingungen, 157 zweiter Ordnung, 76, 148 Differentialquotient, 23, 26, 185 Differentiation, 23 Diffusionsgleichung, 277, 294, 319 allgemeine Lösung, 299 eindimensional, 456 numerische Lösung, 300 Diffusionskonstante, 295 Dimension, 8 Dipolfeld, 214, 258, 439 Dipolmoment, 215, 271, 284, 285 Dirac, Paul, 261, 279 Diskretisierung der ersten Ableitung, 185 der zweiten Ableitung, 288, 292, 293 Distribution, 261, 272 distributiv, 7, 10, 13 Distributivgesetz, 117 Divergenz, 61, 67, 239, 413 in krummlinigen Koordinaten, 247, 250 Integraldarstellung, 239 Komponentendarstellung, 67 Rechenregeln, 67, 72 doppelte Rotation, 72, 74, 415 doppeltes Vektorprodukt, 22, 103, 286 Drehimpuls, 93, 102, 417 -Barriere, 100 -Erhaltung, 96, 99, 101, 102, 108 Drehmatrix, 128, 132, 136, 181, 421 Drehung, 3, 46, 128, 134, 144, 400, 405 Dreieck–Abbildung, 435 Dreieckschwingung, 333 Dreieckspyramide, 230 Dreiecksungleichung, 45, 403 Duffing–Oszillator, 186, 201, 211, 434 dyadisches Produkt, 127, 133 474 INDEX Energie der Rotation, 91 effektive, 98 kinetische, 79, 91 mittlere, 366, 369–372 potentielle, 79 ebene Polarkoordinaten, 34, 46, 395, Entartung, 124, 316 Entropie, 359, 363, 371, 374 398, 399 -satz, 374 ebene Welle, 317 Eigenschaften, 364 Effektivenergie, 98 Entwicklungssatz, 22, 103, 414 Eichung, 286 Ereignis, 360 Eigenfrequenz, 176, 178, 311, 320 Ereignisraum, 352 Eigenmode, 320 Erhaltungsgröße, 78, 94 Eigenschwingung, 311 Eigenvektor, 122, 123, 126, 144, 145, Erzeugende Funktion, 323 erzwungene Schwingung, 166, 167 171, 175 Eigenwert, 122, 123, 125, 144, 145, 171, Euler’sche Formel, 386 Euler–Verfahren, 186, 211, 433 181 Euler–Winkel, 135 einfach zusammenhängend, 222 Exponentialdarstellung, 144 Einheitskreis, 386 Exzentrizität, 105, 107, 110, 411 Einheitskugel, 42 Einheitsmatrix, 118 Einheitsvektor, 4–6, 15, 34, 408 Fadenkonstruktion, 392 Einhüllende, 82 Fast–Fourier–Transformation, 350 Einschwingvorgang, 169 Federkonstante, 84 Einstein, Albert, 2 Federpendel, 83 Einzugsbereich, 190, 206 Fehler, 47, 355 Elastizitätsmodul, 310 mittlerer, 60 Elementarereignis, 352 relativer, 57 Elementarmagnet, 371 statistischer, 47 Elementarwelle, 347 systematischer, 47 Ellipse, 65, 105, 161, 391, 406 Fehlerfortpflanzung, 55 Brennpunkte, 391 Fehlerfortpflanzungsgesetz, 56 Brennpunkteigenschaft, 395 Fehlerrechnung, 47, 355 Definition, 391 Fehlerwachstum, 204 Flächeninhalt, 396 Feigenbaum–Konstante, 201 Halbachse, 392, 393 Feld, 61 Parameter, 393 Coulomb-, 102 Elliptisches Integral, 88 Skalar-, 61 endlicher Wellenzug, 342 Vektor-, 61 Dynamik, 75, 78 chaotische, 204 im Phasenraum, 171 nichtlineare, 183, 187 reguläre, 204 INDEX Feldlinie, 213 Fermi–Fragen, 470 FFT, 350 Fixpunkt, 89, 194, 197, 212, 436 Stabilität, 89, 198, 436 Flächenelement, 38, 227 in krummlinigen Koordinaten, 45, 46, 233, 408 Flächeninhalt, 237, 396 Flächenintegral, 225 Flächennormale, 233 Flächensatz, 108 Fluss, 216, 234, 239, 243 Flussdichte, 239 Formel von Moivre, 212, 387 Fourier -Differentiation, 465 -Reihe, 329, 349, 462 -Transformation, 338, 349, 463 Fraktal, 191, 206, 437 Fraktaldimension, 207, 212, 437 Freiheitsgrad, 77 Fundamentalsatz der Algebra, 390 Funktion gerade, 267, 323, 328 ungerade, 187, 323, 328 verallgemeinerte, 261 Funktional, 273 Funktionaldeterminante, 237 Funktionenraum, 321 Gärtnerkonstruktion, 392 Gas, ideales, 372 Gasgleichung, 372 Gauß -Funktion, 264 -Puls, 341 -Verteilung, 50, 357 Gebiet, 222, 256 gekoppelte Schwingungen, 173 475 gerade Funktion, 323, 328 Permutation, 16, 120 Gesamtdrehimpuls, 94, 96 Gesamtenergie, 79, 97 Gesamtimpuls, 94 Gesamtmasse, 95 Gesamtteilchenzahl, 295 Geschwindigkeit, 27, 43 Geschwindigkeitsverteilung, 374, 376, 471 Gibbs’sches Phänomen, 333 Gitter, 347, 463 gleichförmige Kreisbewegung, 418 Gleichungssystem, lineares, 118 Gleichverteilung, 364 Grad eines Polynoms, 377 Gradient, 61, 62, 64, 133, 246, 411 in krummlinigen Koordinaten, 249, 250 Komponentendarstellung, 62 Rechenregeln, 62 Gradientenfeld, 63, 69, 73, 79, 256, 259 Gravitationsfeld, 69, 92 Gravitationskonstante, 102, 214 Gravitationspotential, 63 Grenzfall, aperiodischer, 165 Grenzwertsatz, 355 Grenzzyklus, 169, 170, 188–190, 201 Grundgesamtheit, 54, 60 Gruppe, 7 Abel’sche, 7 der Drehungen, 130, 144 kommutative, 7 Häufigkeit, 358 Häufigkeitsverteilung, 358 Halbachse, 107, 392, 393 Halbschritt–Verfahren, 186, 211, 433 476 Halbwertsbreite, 52 harmonischer Oszillator, 84, 158, 370, 417 Hauptachse, 145 Hauptsatz der Vektoranalysis, 257 Hauptträgheitsachse, 127, 421 Hauptträgheitsmoment, 127, 145, 146, 422 Heaviside–Funktion, 266 Helmholtz’scher Zerlegungssatz, 257 Helmholtz–Gleichung, 277 Hermite -Funktionen, 328 -Polynome, 327, 328 hermitesch, 322 Histogramm, 49, 53 homogen, 10, 13 Differentialgleichung, 148, 155, 159 Feld, 80 Ladungsverteilung, 270 Hyperbel, 105, 396 Asymptoten, 398 Brennpunkte, 396 Brennpunkteigenschaft, 398 Definition, 396 INDEX der Rotation, 242 Invarianz, 2, 46 inverse Matrix, 120, 420 Irreversibilität, 374 Iteration, 289 iterierte Abbildung, 195, 211, 212 Jacobi–Determinante, 237 Jaynes, E.T., 360 Julia–Menge, 212, 438 K-Modul, 8 kartesisches Koordinatensystem, 14 Kastenfunktion, 262 Kaustik, 82, 112, 113, 416 Kegelschnitte, 105, 391, 401, 411 Kepler’sche Gesetze, 106, 108, 109 Keplerellipse, 106 Keplerproblem, 102 Kettenregel, 30, 43, 133, 182, 248 Kippschwingung, 334 Knotenlinie, 136 Körper, 8 kommutativ, 6, 7, 10 Kommutator, 117 komplexe Wurzeln, 388 komplexe Zahlen, 381 ideales Gas, 372 Addition, 381 imaginäre Einheit, 382 Betrag, 385 Imaginärteil, 381 komplex konjugierte Zahl, 166 Impuls, 93 Multiplikation, 381 Impulssatz, 93 Polardarstellung, 166, 386 Information, 365 Rechenregeln, 384 Informations–Entropie, 363 komplexe Zahlenebene, 386 Informationstheorie, 360 Komponentendarstellung, 14 inhomogene Differentialgleichung, 154, Divergenz, 67 155, 159 Gradient, 62 Inhomogenität, 159 Rotation, 70 inneres Produkt, 10 Skalarprodukt, 17 Integraldarstellung Spatprodukt, 21 der Divergenz, 239 Vektorprodukt, 18 INDEX Kompositions–Regel, 361 Konfidenzintervall, 52 konfokal, 74 konjugiert komplexe Zahl, 384 Konstante der Bewegung, 78 Kontinuitätsgleichung, 255 konvexe Hülle, 368 Koordinaten, 1 -transformation, 2 kartesische, 14 krummlinige, 33, 44, 237, 246 Kugel-, 39 Normal-, 176, 178 parabolische, 46, 407 Polar-, 34 Zylinder-, 38 Koordinatensystem, 1, 3 orthogonales, 44 Kosinus hyperbolicus, 164 Kosinus–Satz, 11 Kraft, 1, 75 Kraftfeld, 61, 75, 259, 440 Kraftstoß, 276, 450 Kreisbewegung gleichförmige, 418 Kreisfläche, 230 Kreisfrequenz, 306 Kreismembran, 320, 459 Kreuzprodukt, 12 Kriechfall, 164 Kroneckersymbol, 16 krummlinige Koordinaten, 33, 44, 237, 246 Küstenlänge, 206, 207, 210, 211 Kugelkoordinaten, 39 Kurvenintegral, 216, 259, 440, 441 wegunabhängiges, 442 477 Längenelement, 38, 42, 45 Lagrange’scher Multiplikator, 367 Laguerre–Polynome, 327 Laplace, P.-S., 359 Laplace–Gleichung, 277, 290 Laplace–Operator, 69, 72, 258, 278 in krummlinigen Koordinaten, 249, 250 Leapfrog–Verfahren, 186 Legendre–Polynome, 322, 327, 349, 380, 461 Leibnitz’sche Reihe, 335 Leistung, 170 Lenz–Runge–Vektor, 102 Lenz–Vektor, 102, 104 Lewis–Invariante, 156, 426 linear, Abbildung, 120 abhängig, 8, 22 Algebra, 78 Differentialgleichung, 147 Fit, 410 Gleichungssystem, 118 Hülle, 8 Raum, 2, 4, 8, 46, 274, 378 Schwingungen, 157 unabhängig, 8 Linearform, 322 Linearkombination, 8, 22, 45, 148 Linienelement, 33, 37, 39, 42, 44, 46, 408 Linienstrom, 215 logistische Abbildung, 195 logistische Differentialgleichung, 192 lokal orthogonal, 44, 232 Longitudinalwelle, 309 Lorentz–Kraft, 77 Lorentz–Kurve, 264, 338 Ladungsverteilung, 270, 280, 318, 447, Lorentz–Verteilung, 52, 347 451 Lyapunov–Exponent, 202, 212, 437 478 Magnetfeld, 215, 252, 260, 319, 371, 448, 453 magnetisches Moment, 371 Magnetisierung, 371 Mandelbrot–Abbildung, 212, 438 Mandelbrot–Menge, 211, 212, 438 Masse, 1, 75 Massepunkt, 43, 75 mathematisches Pendel, 85, 187 Mathieu–Gleichung, 147 Matrix, 115 -Addition, 116 -Diagonalisierung, 137 -Funktion, 141, 146, 424 -Multiplikation, 116 inverse, 120, 420, 423 nicht-diagonalisierbare, 422 orthogonale, 129 Rechenregeln, 117 symmetrische, 125 transponierte, 118 maximale Unbestimmtheit, 365 Maxwell–Boltzmann’sche Geschwindigkeitsverteilung, 471 Maxwell–Boltzmann–Verteilung, 374, 376, 471 Maxwell–Gleichungen differentielle, 251 integrale, 251 Membran, 303 -schwingung, 303, 314, 320, 459 Kreis-, 320 Rechteck-, 314 Mittelwert, 48, 51, 52, 54, 60, 357, 367, 376, 409, 467, 468 Mittelwertsatz der Differentialrechnung, 265 der Integralrechnung, 241 mittlere Abweichung vom Mittelwert, 357, 376 INDEX mittlere Energie, 373 Modul, 7 Moivre, Formel von, 212, 387 Molekülschwingung, 182, 431 Multipolentwicklung, 122, 283, 285, 326 Nabla–Operator, 62 in krummlinige Koordinaten, 247 Nats, 363 neutrales Element, 7 nichtlineare Differentialgleichung, 78 Dynamik, 183 Schwingung, 187 nirgends dicht, 201 Normale, 65, 66, 396 Normalkoordinaten, 176, 178 Normalschwingungen, 176 Normalverteilung, 50 Nullvektor, 6 numerische Exzentrizität, 393 numerische Methoden, 183–186, 287– 294, 300, 301, 319, 454 Oberflächenintegral, 232, 234, 443 orthogonal, 126 Funktionen, 321, 459 Koordinatensysteme, 44 Polynome, 322 Vektoren, 11, 14, 42 Orthogonalitätsrelation, 329, 330 Ortsvektor, 77 Oszillator angetriebener, 158, 336, 429 dreidimensionaler, 114, 419 Duffing-, 186, 211, 434 gepulster, 345 harmonischer, 84, 158, 182, 370, 417 Parabel, 80, 83, 105, 398 INDEX Brennpunkt, 399 Brennpunkteigenschaft, 400 Definition, 398 Parameter, 399 parabolische Koordinaten, 407 Parallelepiped, 19, 46 Parallelflächner, 19 Parameter, 105, 393, 399 Parität, 328 Parseval–Identität, 336, 339, 350, 465 partielle Ableitung, 28 partielle Differentialgleichung, 277 Pendel Feder-, 83 mathematisches, 85, 187 Periode, 84 Periodenverdopplung, 190, 200 Permutation, 16, 375, 466 (anti)zyklische, 120 (un)gerade, 120 Phasenbahn, 77, 89, 161 Phasenraum, 77, 89, 93, 161, 171, 184 Phasenverschiebung, 167 Phasenwinkel, 167 Planck’sches Wirkungsquantum, 370, 373 Poincaré–Abbildung, 189 Poincaré–Schnitt, 188 Poisson -Gleichung, 258 Poisson–Gleichung, 277, 278, 285, 287, 292, 319, 447, 454 numerische Lösung, 287, 319 Poisson–Integral, 280 Poisson–Verteilung, 358, 376, 468, 469 Polardarstellung, 388, 402 komplexe Zahlen, 166 Polarkoordinaten ebene, 34, 46, 395, 398, 399 sphärische, 39 479 Polynome, 9, 322, 327, 377, 378 Populationsdynamik, 193 Potential, 63, 102, 254 Potenzreihe, 142 Prinzip maximaler Unbestimmtheit, 374 Prinzip maximaler Unbestimmtheit, 359, 366 Prinzip vom nicht zureichenden Grunde, 360 Projektion, 10, 11 Punktattraktor, 165 Punktladung, 102, 214, 270, 279 Punktmasse, 63, 214 Punktquelle, 63, 66, 69 quadratische Form, 400, 419 Quadrupolfeld, 285 Quadrupolmoment, 284 Quadrupoltensor, 285 Quantenmechanik, 103, 117, 277, 343, 366 Quellenfeld, 239, 257 quellenfrei, 69, 71, 73 Quellstärke, 67, 216, 239, 245, 251, 257 Radialbeschleunigung, 37 Radialfeld, 214 Radialgeschwindigkeit, 36 radialsymmetrisch, 97 Randbedingung, 76, 157, 293, 308–310, 315, 320 Random Walk, 302 Ratengleichung, 301, 319, 375, 457 Raumwinkelelement, 42, 234 Realteil, 381 Rechenregeln, 72 Divergenz, 67, 72 Gradient, 62 komplexe Zahlen, 384 480 Matrizen, 117 Rotation, 70, 72 Skalarprodukt, 10 Vektorprodukt, 13 Rechteck–Puls, 340 Rechteckmembran, 314 Rechteckschwingung, 331 Rechtsschraubenregel, 13 Rechtssystem, 14, 39 reduzierte Masse, 95 reelle Zahlen, 8 Regel von Sarrus, 119 reguläre Dynamik, 204 Reibung, 77, 147, 158, 161, 163, 164, 168, 170 Rekursion, 327, 328, 349, 461 Relativdrehimpuls, 96, 114 Relativitätstheorie, 2 Relativkoordinate, 95 Relaxationsgleichung, 293 Relaxationsparameter, 292 Relaxationsverfahren, 292, 319, 454 Resonanz, 168, 430 Restglied, 24 reziproker Abstand, 283, 326 Rosettenbahn, 101 Rotation, 61, 70, 225, 241, 413, 415 in krummlinigen Koordinaten, 249, 250 Integraldarstellung, 242 Komponentendarstellung, 70 Rechenregeln, 70, 72 Rotationsenergie, 91 Rückstellkraft, 84 Sarrus, Regel von, 119 Satz von Fischer-Riesz, 328 von Gauß, 244, 260, 279, 445 von Pythagoras, 393, 394 INDEX von Schwarz, 30, 74, 223 von Stokes, 245, 252, 260, 445 von Thales, 45, 403 Schaukel, 147 Scheitelhöhe, 80 Schmetterlingseffekt, 206 schräger Wurf, 80 Schrödinger–Gleichung, 277 Schwarz’sche Ungleichung, 11 Schwarz, Satz von, 30, 74, 223 Schwebung, 180 Schwerefeld, 80 Schwerpunkt, 94, 95 Schwingfall, 162 Schwingung Dreieck-, 333 erzwungene, 166, 167 freie, 159 gedämpfte, 427 gekoppelte, 173, 431 harmonische, 84, 158, 427, 450 Kipp-, 334 lineare, 157 nichtlineare, 187 Normal-, 176 Rechteck-, 331 Schwingungsdauer, 84, 86, 113, 416 Schwingungsgleichung, 276 allgemeine Lösung, 311 Schwingungsknoten, 307, 311 Schwingungsmode, 315 selbstähnlich, 201, 206 seltsamer Attraktor, 191, 201 Separationsansatz, 307 Separatrix, 90 Sierpinski -Dreieck, 209 -Quadrat, 212, 438 -Schwamm, 209, 212, 437 sinh, 164 INDEX Sinus hyperbolicus, 164 Sinus–Satz, 14 Skalar, 3, 46 Skalarfeld, 61 Skalarprodukt, 10, 46, 321, 379, 404, 411 Komponentendarstellung, 17 Rechenregeln, 10 Skalengesetz, 208, 339 Spalt, 348 Spaltenvektor, 117, 131, 139, 145, 420 Spannung, 310 Spat, 19 Spatprodukt, 19 Spektralanalyse, 336 spezifische Wärme, 372 sphärische Polarkoordinaten, 39 Divergenz, 250 Gradient, 249 Laplace–Operator, 250 Rotation, 250 Spiegelung, 120 Sprungfunktion, 266, 276 Spur, 123, 133, 285, 420 Stabilität von Fixpunkten, 89, 198, 212, 436 Standardabweichung, 54, 60, 409 statistische Physik, 351 Stirling’sche Näherung, 355 Stoßkaskade, 209 Stoßparameter, 111 Strahlenoptik, 82 Streckschwingung, 432 Streubahn, 100, 110 Streuwinkel, 110 stroboskopisch, 188 Stromdichte, 319, 453 stückweise glatt, 335 Stufenfunktion, 266, 275 symmetrisch, 121, 122, 125, 420 481 Szenario, 200 Tangente, 77 Tangentialvektor, 27 Taylor–Reihe, 24, 88, 122, 283, 324 Teilchenfluss, 234 Teilchensystem, 76 Temperatur, 359, 369 temperierte Distribution, 273 Tensor, 4, 127, 133, 285 total antisymmetrischer, 19 Tensore, 2 Testfunktion, 273 total antisymmetrischer Tensor, 19 totales Differential, 31, 64, 91, 223, 225, 256, 259, 442 Trägheitsmoment, 127 Trägheitstensor, 127, 133, 145, 146, 421 Transformation, 3, 237 auf Diagonalform, 137, 146, 423 von Matrizen, 132 von Vektoren, 131 von Volumenelementen, 239 Translation, 4, 9 Transmissionsfunktion, 347 transponierte Matrix, 118 Transversalschwingung, 303 Trennung der Variablen, 192 Tschebyscheff–Polynome, 327 Umkehrpunkt, 100, 114, 417 Umlaufzeit, 90 Unbestimmtheit, 359, 360, 365 ungerade Funktion, 323, 328 Permutation, 16 universell, 191, 195, 201 Unschärferelation, 343, 350, 466 Varianz, 53, 54, 60, 376 Vektor, 2, 4, 6 482 Vektoranalysis, 61 Vektorfeld, 61, 75, 213 Vektorpotential, 285, 453 Vektorprodukt, 12, 45, 404, 415 doppeltes, 22 Komponentendarstellung, 18 Rechenregeln, 13 Vektorraum, 4, 8, 321 verallgemeinerte Funktion, 261, 272 Verhulst–Gleichung, 195 Verschiebung, 4, 9 Verschiebungsrelation, 339 Vertauschung, 420 Vertauschungsrelation, 21 Verteilung Binomial-, 355, 356, 376, 467 Boltzmann-, 359, 369, 376, 471 Gauß-, 357 Poisson-, 358, 376, 468, 469 Vertrauensintervall, 52 vollständige Induktion, 138, 142 Vollständigkeit, 326, 349, 461 Volumenelement, 39, 42, 45, 227, 239 Volumenintegral, 225 INDEX stehende, 307 Wellengleichung, 277, 303 dreidimensional, 317 eindimensional, 320, 457 zweidimensional, 313 Wellenlänge, 306 Wellenprofil, 305 Wellenzahl, 306 Winkelbeschleunigung, 37 Winkelgeschwindigkeit, 36 Wirbelfeld, 73, 241, 257 wirbelfrei, 71, 73 Wirbelstärke, 242, 257 Wronski–Determinante, 149, 152 Wurf, 80, 81, 113 Zahlen komplexe, 381 reelle, 8 Zahlenebene, 382 Zeitentwicklungsmatrix, 152, 171 Zeitentwicklungsoperator, 152 zentraler Grenzwertsatz, 355 Zentralpotential, 102 zentralsymmetrisch, 97 Zerlegungssatz, 257 Wärme, spezifische, 372 Zirkulation, 216, 221, 241, 242, 447 Wärmeleitungsgleichung, 301 zufällig, 196, 302, 355 Wahrscheinlichkeit, 351, 358 Zungenfrequenzmesser, 338 a priori, 352 zusammenhängend, 222, 256 Wahrscheinlichkeitstheorie, 359 Zustand, 360 Wahrscheinlichkeitsverteilung, 354–361, Zustandssumme, 359, 367, 371, 372 366–374 Zweiteilchensystem, 95 Wegunabhängigkeit von Kurvenintegrazyklisch, 16, 119 len, 222, 225, 256 Zylinderkondensator, 252 wegzusammenhängend, 222 Zylinderkoordinaten, 38 Welle Divergenz, 250 ebene, 317 Gradient, 250 eindimensionale, 304 Laplace–Operator, 250 harmonische, 306 Rotation, 250 Longitudinal-, 309