T HEORETISCHE P HYSIK Hans-Jürgen Matschull Institut für Physik, Universität Mainz 23.7.2003 T EIL II K LASSISCHE M ECHANIK 9 Tensoren Im Teil I haben wir die wesentlichen Eigenschaften des physikalischen Raumes mit den Mitteln der linearen Algebra beschrieben. Die Orte im Raum haben wir mit den Punkten eines dreidimensionalen, metrischen affinen Raumes identifiziert, und darauf aufbauend haben wir die Newtonsche Mechanik für Systeme von Punktteilchen formuliert. Außerdem haben wir Kraftfelder zur Beschreibung von Wechselwirkungen verwendet, etwa in Form von Gravitations- oder elektromagnetischen Feldern. In diesem Kapitel wollen wir die mathematischen Strukturen, die hinter diesen Begriffen stehen, etwas weiter vertiefen. Oft begegnen uns in ganz unterschiedlichen physikalischen Fragestellungen ähnliche mathematische Strukturen. Es ist deshalb nützlich, eine Sprache zu entwickeln, die solche Ähnlichkeiten und Analogien zwischen scheinbar ganz verschiedenen Objekten leichter erkennbar macht. Gleichzeitig sollte diese Sprache aber auch dazu geeignet sein, die physikalischen Fragestellungen möglichst anschaulich zu formulieren. Wir suchen also einen Kompromiss zwischen der Sprache der Mathematiker, die oft speziell darauf ausgelegt ist, möglichst elegante und allgemeingültige Beweise zu führen, und der Sprache der Physiker, die primär darauf ausgelegt ist, Beobachtungen und Experimente zu beschreiben. Dass zwischen diesen Anforderungen manchmal eine gewisse Spannung besteht, haben wir bereits bei der Beschreibung des physikalischen Raumes gesehen. Der Mathematiker denkt bei einem N dimensionalen affinen Raum immer gleich an den speziellen Raum R N . Der Grund ist sehr einfach. Man weiß, dass alle affinen Räume gleicher Dimension isomorph sind. Um Sätze über affinen Räume und Vektorräume zu beweisen, kann man sich daher auf einen speziellen, möglichst einfach strukturierten Raum beschränken und alle Beweise in diesem Raum führen. Für den Physiker ist die Vorstellung des Raumes als R3 aber sehr unbefriedigend, denn sie vermittelt die falsche Vorstellung, dass es so etwas wie ein ausgezeichnetes Koordinatensystem gäbe, und insbesondere einen Nullpunkt. Gesucht ist deshalb eine Formulierung von physikalischen Theorien, in der die verwendeten mathematischen Objekte die physikalischen Strukturen möglichst gut widerspiegeln, auch wenn dies hin und wieder bedeutet, dass die Beweise für mathematische Sätze, wenn wir sie denn führen wollen, ein wenig umständlicher aussehen als sie tatsächlich sind. Eine dafür recht gut geeignete Sprache, in der sich einerseits alle wesentlichen Aspekte der linearen Algebra und der Analysis erfassen lassen, die aber andererseits auch sehr gut an die gängigen physikalischen Konzepte von Raum und Zeit, Kraftfeldern und die Beschreibung von dynamischen Systemen angepasst ist, bietet das Tensorkalk ül. Etwas überspitzt kann man sagen, dass alle mathematischen Objekte, die wir bis jetzt eingeführt und benutzt haben, Tensoren oder Tensorfelder sind, oder dass sie zumindest etwas mit diesem Konzept zu tun haben. Das Tensorkalkül dient im wesentlichen dazu, mathematische Objekte und Strukturen, wie sie typischerweise in physikalischen Theorien auftreten, zu klassifizieren. Außerdem stellt es einen Rahmen bereit, der sich fast beliebig erweitern lässt, und in dem in einer sehr genau definierten Art und Weise neue Objekte aus bereits vorhandenen konstruiert werden können. Natürlich müssen wir erst einmal definieren, was denn ein Tensor überhaupt ist. Das werden wir in diesem Kapitels tun, und wir werden zeigen, wie sich die wichtigsten mathematischen Begriffe aus dem ersten Teil in dieses Konzept einpassen. Viele der dort hergeleiten, scheinbar sehr unterschiedlichen Eigenschaften von Vektoren und Vektorfeldern werden dabei in einem neuen, einheitlichen Licht erscheinen. Vektoren und duale Vektoren Es sei V ein N -dimensionaler Vektorraum über R. Um später eine einheitliche Notation einzuführen, bezeichnen wir die Vektoren mit fett gedruckten Buchstaben x, y, . . . ∈ V, und eine Basis von V mit e i , wobei der Vektorindex i irgendeine nicht weiter spezifizierte Indexmenge mit N Elementen durchläuft. Einen Vektor x können wir dann durch seine Komponenten x i bezüglich dieser Basis darstellen, x = xi ei ∈ V. 1 (9.1) Warum wir den Index nach oben schreiben, werden wir gleich verstehen. Wir verwenden außerdem die folgende, leicht veränderte Summenkonvention. Über Vektorindizes in einem Produkt ist genau dann zu summieren, wenn derselbe Index einmal als oberer und einmal als unterer Index auftritt. Andere Situationen, also Ausdrücke, in denen derselbe Index zweimal unten oder zweimal oben steht, werden im folgenden nicht auftreten und sind, wie wir sehen werden, auch nicht sinnvoll. Der zu V duale Vektorraum V ∗ ist die Menge aller linearen Abbildungen V → R. Ist u ∈ V ∗ , so bezeichnen wir die durch u definierte Abbildung mit einem Punkt, also u: V → R, x 7→ u · x. (9.2) Da diese Abbildung linear ist, gilt für alle x, y ∈ V, u ∈ V ∗ und s ∈ R u · (x + y) = u · x + u · y, u · (s x) = s (u · x). (9.3) Damit V ∗ zu einem Vektorraum wird, erklärt man die Vektoraddition und skalare Multiplikation in V ∗ wie für Abbildungen üblich. Für u, v ∈ V ∗ , x ∈ V und s ∈ R ist (u + v) · x = u · x + v · x, (s u) · x = s (u · x). (9.4) Umgekehrt definiert jeder Vektor x ∈ V eine lineare Abbildung V ∗ → R, die genau die gleichen Eigenschaften hat, nämlich x : V ∗ → R, u 7→ u · x. (9.5) Tatsächlich lässt sich jede lineare Abbildung V ∗ → R so schreiben. Der zu V ∗ duale Vektorraum ist demnach V. Um diese Symmetrie zum Ausdruck zu bringen, fasst man den Punkt auch als eine bilineare Abbildung auf, die einen dualen Vektor und einen Vektor auf eine reelle Zahl abbildet, V∗ × V → R : (u, x) 7→ u · x. (9.6) Bilinear bedeutet linear in beiden Argumenten, also die Eigenschaften (9.3) und (9.4). Wir nennen u · x auch einfach das Produkt von u und x. Zu jeder Basis ei von V gibt es eine zugehörige duale Basis ei von V ∗ . Der Index i durchläuft dabei die gleiche Indexmenge. Wir unterscheiden die Basis von der dualen Basis dadurch, dass wir den Index einmal nach unten und einmal nach oben schreiben. Die duale Basis ist dadurch eindeutig festgelegt, dass die dualen Vektoren e i ∈ V ∗ , aufgefasst als lineare Abbildungen V ∗ → R, die Basisvektoren ej ∈ V auf Null oder Eins abbilden, je nachdem, ob i gleich j ist oder nicht. Das lässt sich mit dem bekannten Kronecker-Symbol schreiben, 1 für i = j, i i e · ej = δ j = (9.7) 0 für i 6= j. Auch diese Bedingung ist symmetrisch in dem Sinne, dass ei dann auch die zu ei duale Basis ist. Zu jeder Basis von V gibt es eine eindeutig bestimmte duale Basis von V ∗ . Einen dualen Vektor u ∈ V können wir durch seine Komponenten bezüglich der dualen Basis e i darstellen, wobei wir den Index diesmal nach unten schreiben, damit wieder die Summenkonvention zur Anwendung kommt, u = u i ei ∈ V ∗ . (9.8) Bilden wir nun das Produkt von u und a, so finden wir u · x = (ui ei ) · (ej xj ) = ui (ei · ej ) xj = ui δ ij xj = ui xi . Das Produkt ist einfach durch die Summe über die Produkte der Komponenten gegeben. 2 (9.9) Aufgabe 9.1 Eine andere nützliche Eigenschaften einer Basis und ihrer dualen Basis ist, dass die dualen Basisvektoren ei , aufgefasst als lineare Abbildungen V → R, den Vektoren ihre Komponenten zuordnen, und umgekehrt die Basisvektoren ei , aufgefasst als lineare Abbildungen V ∗ → R, den dualen Vektoren ihre Komponenten zuordnen. Man zeige das, also x = x i ei , u = u i ei ⇒ xi = ei · x, ui = u · e i . (9.10) Ein typisches Beispiel für einen Vektorraum und seinen Dualraum sieht wie folgt aus. Es sei V der Raum aller Spaltenvektoren der Länge N , also 1 x .. (9.11) x = . ∈ V, mit x1 , . . . , xN ∈ R. N x Jede lineare Abbildung u : V → R kann dann wie folgt geschrieben werden, u: x 7→ u · x = u 1 x1 + · · · + u N xN , (9.12) mit eindeutig bestimmten Koeffizienten u1 , . . . uN ∈ R. Fassen wir diese zu einem Zeilenvektor zusammen, u = u1 · · · uN ∈ V ∗ , mit u1 , . . . , uN ∈ R, (9.13) so lässt sich die Abbildung (9.12) als Matrixmultiplikation schreiben, 1 x . u · x = u1 · · · un .. = u1 x1 + · · · + uN xN . xN (9.14) und die Zahlen u1 , . . . , uN sind die Komponenten von u bezüglich der dazu dualen Basis e1 = 1 0 · · · 0 , ..., eN = 0 · · · 0 1 . (9.16) Natürlich sind in diesem Fall die Zahlen x1 , . . . , xN die Komponenten des Vektors x bezüglich der Basis 1 0 0 .. e1 = .. , ..., eN = . , (9.15) . 0 0 1 Der zum Spaltenvektorraum V duale Vektorraum ist folglich der Zeilenvektorraum V ∗ . Dies ist gewissermaßen der Prototyp für einen Vektorraum und seinen Dualraum. Oft ist es nützlich, sich Vektoren als Spalten und duale Vektoren als Zeilen vorzustellen. Insbesondere wird dadurch klar, dass es sich um zwei verschiedene Arten von Objekten handelt. Obwohl der duale Vektorraum V ∗ die gleiche Dimension hat wie der Vektorraum V selbst, ist er nicht mit diesem identisch. Aufgabe 9.2 Die Regeln (9.3) und (9.4) entsprechen formal den Eigenschaften eines Skalarproduktes. Was ist jedoch der wesentliche Unterschied zwischen dem hier definierten Produkt und einem Skalarprodukt? 3 Aufgabe 9.3 Es sei V der Raum aller Spaltenvektoren der Länge N , und V ∗ der Raum aller Zeilenvektoren der Länge N . Ferner sei die folgende Basis von V gegeben, 1 1 1 1 1 1 1 0 1 1 0 0 (9.17) ···, eN = 1 . e3 = 0 , e2 = 0 , e1 = 0 , .. .. .. .. . . . . 1 0 0 0 Man bestimme die duale Basis ei , i ∈ {1, . . . , N }, von V ∗ . Aufgabe 9.4 Wir haben hier der Einfachheit halber nur endlich dimensionale Vektorr äume betrachtet. Für Vektorräume unendlicher Dimension kann man ganz analog einen dualen Vektorraum einf ühren. Allerdings ist dieser in der Regel nicht mehr genauso groß wie die Vektorraum selbst. Es sei zum Beispiel V der Raum aller unendlichen Folgen a = (a1 , a2 , . . .) mit der Eigenschaft, dass alle bis auf endlich viele Glieder gleich Null sind. Das ist ein unendlich dimensionaler Vektorraum, der aber noch vergleichsweise klein ist. Es lässt sich sogar recht leicht eine Basis ei von V angeben, mit i ∈ N, so dass sich jeder Vektor eindeutig als endliche Linearkombination der Basisvektoren schreiben l ässt. Wie sieht diese Basis aus? Was ist der duale Vektorraum V ∗ ? Gibt es eine zu ei duale Basis von V ∗ ? Basistransformationen Die Komponenten eines Vektors sind immer nur bezüglich einer gegebenen Basis definiert. Ändern wir die Basis, so ändern sich auch die Komponenten. Wir müssen zwischen dem Vektor x ∈ V als solchem und seiner Darstellung durch die Komponenten xi unterscheiden, und entsprechend zwischen dem dualen Vektor u ∈ V ∗ seine Darstellung durch die Komponenten ui . Wir betrachten im folgenden zwei Basen ei und ea , die wir durch ihre Indizes unterscheiden. Der Index a durchlaufe eine andere Indexmenge als der Index i, zum Beispiel i ∈ {x, y, z} und a ∈ {1, 2, 3} im Falle eines dreidimensionalen Vektorraumes. Die Beziehung zwischen den Basen kann durch eine N ×N - Übergangsmatrix ausgedrückt werden, wobei wieder N = dim V ist. Wir stellen dazu die Basisvektoren e a als Linearkombination der Basisvektoren ei dar, oder umgekehrt die Basisvektoren ei als Linearkombination der Basisvektoren ea , ea = ei Λia ⇔ ei = ea Λai . (9.18) Damit die beiden Gleichungen zueinander äquivalent sind, müssen die Übergangsmatrizen zueinander invers sein, also Λia Λaj = δ ij oder Λai Λib = δ ab . (9.19) Wir können das als Matrixmultiplikation lesen, wenn wir den ersten, oberen Index der Übergangsmatrix als Zeilenindex, und den zweiten, unteren Index als Spaltenindex interpretieren. Die Summenkonvention sorgt dafür, dass die Matrixmultiplikation richtig ausgeführt wird. Natürlich besteht dann auch ein Zusammenhang zwischen den dualen Basen e i und ea . Dieser wird durch die gleichen Übergangsmatrizen vermittelt. Es gilt nämlich ea = Λai ei ⇔ ei = Λia ea . (9.20) Der Beweis ist ganz einfach. Es sei ei die zu ei duale Basis, also ei · ej = δ ij . Dann ist ea · eb = (Λai ei ) · (ej Λjb ) = Λai (ei · ej ) Λjb = Λai δ ij Λjb = Λai Λib = δ ab , 4 (9.21) also ist auch ea die zu ea duale Basis. Die Transformationseigenschaften (9.18) und (9.20) lassen sich leicht einprägen, denn das sind die einzigen Möglichkeiten, die Basisvektoren so mit den Übergangsmatrizen zu kombinieren, dass alle Indizes richtig zusammenpassen und dabei die Summenkonvention zur Anwendung kommt. Aus diesen Transformationsgesetzen lassen sich schließlich auch die Regeln für die Komponenten eines Vektors und eines dualen Vektors ableiten. Es sei also x = xi ei = xa ea ∈ V, und u = ui ei = ua ea ∈ V ∗ . (9.22) Dann ergibt sich aus (9.10) xi = ei · x, xa = ea · x, ui = u · e i , ua = u · e a , (9.23) und durch Einsetzen von (9.18) und (9.20) das folgende Transformationsverhalten für die Komponenten eines Vektors, xa = Λai xi ⇔ xi = Λia xa . (9.24) Für die Komponenten eines dualen Vektors gilt entsprechend ua = ui Λia ⇔ ui = ua Λai . (9.25) Auch diese Zusammenhänge lassen sich leicht einprägen, da es keine andere Möglichkeit gibt, die Komponenten so mit der Übergangsmatrix zu kombinieren, dass die Indexstellung stimmt und die Summenkonvention zur Anwendung kommt. Alternativ können wir das auch wie folgt formulieren: Bei einem Basiswechsel transformieren sich die Komponenten von Vektoren so wie die dualen Basisvektoren und die Komponenten von dualen Vektoren so wie die Basisvektoren. Ein Vektor wird also durch einen Satz von N reellen Zahlen dargestellt, der sich beim Wechsel der Basis in einer ganz bestimmten Art und Weise transformiert. Wir können das im Prinzip als eine Definition des Begriffes “Vektor” auffassen. Das gleiche gilt für einen dualen Vektor, nur dass für diesen eben ein anderes Transformationsverhalten gilt. Vektoren und duale Vektoren unterscheiden sich dadurch, dass ihre Komponenten beim Basiswechsel anders transformieren. Deshalb unterscheiden wir sie durch obere und untere Indizes. Die verschiedenen Transformationseigenschaften von oberen und unteren Indizes haben zur Folge, dass eine bestimmte Kombination eines dualen Vektors und eines Vektors von der Basis unabhängig ist, nämlich das Produkt u · x = u i xi = u a xa . (9.26) Einen solchen Ausdruck nennen wir einen Skalar. Ein Skalar ist einfach eine reelle Größe, die sich bei einem Basiswechsel gar nicht verändert. Aufgabe 9.5 Es sei V der Raum aller Spaltenvektoren der Länge 3, und Zeilenvektoren der Länge 3. Eine Basis ea , mit a ∈ {1, 2, 3}, sei durch 1 0 e1 = 0 , e2 = 1 , e3 = 0 0 gegeben, eine zweite Basis ei , mit i ∈ {x, y, z}, durch 1 0 1 , 1 , ex = ey = 0 1 V ∗ der dazu duale Raum aller 0 0 1 (9.27) 1 ez = 0 . 1 (9.28) Man bestimme die Übergangsmatrizen Λai und Λia , finde die dualen Basen ea und ei , und verifiziere das Transformationsverhalten (9.20). 5 Aufgabe 9.6 Es seien ei und ea zwei Basen von V, und ei bzw. ea die dazu dualen Basen. Man zeige, dass sich die Übergangsmatrizen wie folgt darstellen lassen, Λai = ea · ei , Λia = ei · ea . (9.29) Aufgabe 9.7 Es sei V der Raum aller Spaltenvektoren der Länge 2, und V ∗ der entsprechende Zeilenvektorraum. Die Basis ea , mit a ∈ {1, 2}, und die Basis ei , mit i ∈ {u, v}, seien durch sin α cos α 0 1 (9.30) , ev = , eu = , e2 = e1 = − cos α sin α 1 0 gegeben, wobei α ein fest gewählter Winkel ist. Man bestimme die Übergangsmatrizen und die dualen Basisvektoren. Aufgabe 9.8 Basistransformationen können verkettet werden. Es seien ei , ea und eµ drei Basen von V, die wir durch unterschiedliche Indexmengen unterscheiden. Man zeige, dass dann die Übergangsmatrix Λiµ , die die erste Basis in die dritte überführt, durch das Matrixprodukt der Übergangsmatrizen Λia und Λaµ gegeben ist, also Λiµ = Λia Λaµ . (9.31) Die Menge aller möglichen Basistransformationen bildet folglich eine Gruppe. Um welche Matrixgruppe handelt es sich? Tensoren Das Konzept eines Vektors oder eines dualen Vektors als ein Satz von N reellen Zahlen, die sich unter einem Basiswechsel in einer ganz bestimmten Art transformieren, lässt sich verallgemeinern. Betrachten wir zum Beispiel einen Satz von N 2 reellen Zahlen, die wir in Form einer Matrix anordnen und mit Aij bezeichnen, wobei die Indizes i und j jeweils N Werte annehmen. Wir postulieren, dass sich dieses Zahlenschema unter einem Basiswechsel wie folgt transformieren soll. Beim Übergang von einer Basis ei zu einer neuen Basis ea soll sich die Matrix Aij in eine Matrix Aab = Λai Aij Λjb (9.32) transformieren. Der erste, obere Index verhält sich wie der eines Vektors, der zweite, untere Index wie der eines dualen Vektors. Wird dadurch irgendein sinnvolles Objekt definiert? Tatsächlich ist das der Fall. Es handelt sich um die Matrixdarstellung einer linearen Abbildung A : V → V. Sie ordnet einem Vektor x mit den Komponenten xi bzw. xa einen Vektor y = A(x) mit den Komponenten y i = Aij xj bzw. y a = Aab xb (9.33) zu. Um zu zeigen, dass diese beiden Gleichungen tatsächlich äquivalent sind, also den gleichen Zusammenhang zwischen den Vektoren x und y ausdrücken, benutzen wir das Transformationsgesetz für die Komponenten von Vektoren und das postulierte Transformationsgesetz (9.32) für die Matrix. Daraus folgt y a = Aab xb = Λai Aij Λjb Λbk xk = Λai Aij δ jk xk = Λai Aij xj = Λai y i . (9.34) Die rechte Seite der Gleichungen (9.33) transformiert sich in der gleichen Weise wie die linke Seite. Die Gleichungen drücken denselben Sachverhalt aus, benutzen nur verschiedenen Darstellungen der Vektoren. Diese Grundidee lässt sich leicht verallgemeinern. Wir können zunächst ganz abstrakt reelle Zahlen zu einem Schema anordnen, und dann verlangen, dass sich dieses Zahlenschema bei einem Basiswechsel in 6 einer ganz bestimmten Art transformiert. Wir erklären das Transformationsverhalten implizit dadurch, dass wir das Zahlenschema durch ein Symbol mit m oberen und n unteren Indizes bezeichnen, etwa B i ··· jk ··· l , wobei jeder Index Werte aus derselben Indexmenge mit N = dim V Elementen annimmt. Insgesamt besteht das Schema dann aus N n+m Zahlen. Wir können uns die Einträge des Zahlenschemas in einem imaginären, höherdimensionalen Raum in Form von Spalten und Zeilen angeordnet vorstellen. Beim Übergang von einer Basis ei zu einer neuen Basis ea soll sich das Schema B i ··· jk ··· l in ein neues Schema B a ··· bc ··· d = Λai · · · Λbj B i ··· jk ··· l Λkc · · · Λld (9.35) transformieren. Wir transformieren quasi jeden einzelnen Index mit einer passenden Übergangsmatrix. Die Transformationsgesetze (9.24) für Vektoren und (9.25) für duale Vektoren sind einfache Spezialfälle davon, die sich für m = 1 und n = 0, bzw. für m = 0 und n = 1 ergeben. Und das Transformationsverhalten (9.32) für die Matrixdarstellung einer linearen Abbildung ergibt sich für m = 1 und n = 1. Ein auf diese Weise zunächst ganz abstrakt definiertes Zahlenschema heißt Tensor der Stufe (m, n). Ein Vektor ist in diesem Sinne ein Tensor der Stufe (1, 0), ein dualer Vektor ein Tensor der Stufe (0, 1), und eine linear Abbildung V → V ein Tensor der Stufe (1, 1). Einen Skalar, also eine reelle Zahl, die sich beim Basiswechsel gar nicht transformiert, können wir als Tensor der Stufe (0, 0) auffassen. Er trägt gar keine Indizes, und transformiert daher auch nicht beim Basiswechsel. Wir können das in der folgenden, leicht rekursiven, aber sehr intuitiven Definition zusammenfassen: Ein Tensor der Stufe (m, n) ist ein Zahlenschema mit m oberen und n unteren Indizes, das sich beim Basiswechsel wie ein Tensor transformiert. Wir unterscheiden zwischen dem Tensor als abstraktes Objekt, das wir mit B bezeichnen, und seiner Darstellung bezüglich einer bestimmten Basis durch ein Zahlenschema B i ··· jk ··· l . Als was wir uns dieses abstrakte Objekt vorstellen müssen, hängt von der Stufe des Tensors ab. Meistens gibt es mehrere Möglichkeiten, einen Tensor als mathematisches Objekt zu interpretieren. So haben wir zum Beispiel gesehen, dass sich ein Tensor A der Stufe (1, 1) als lineare Abbildung A : V → V interpretieren lässt. Ein Tensor x der Stufe (1, 0) ist ein Vektor, oder auch eine lineare Abbildung x : V ∗ → R. Den Raum aller Tensoren der Stufe (m, n) bezeichnen wir mir V (m,n) . Das ist ein (dim V)m+n dimensionaler Vektorraum, und als Spezialfälle haben wir V (1,0) = V, V (0,1) = V ∗ und V (0,0) = R. Die Addition und skalare Multiplikation in diesen Vektorräumen ist wie üblich Komponentenweise definiert. Wir addieren zwei Tensoren gleicher Stufe, indem wie die Einträge des Zahlenschemas addieren. Das gleiche gilt für die skalare Multiplikation. Das ist offenbar mit dem linearen Transformationsverhalten (9.35) verträglich, und es entspricht der komponentenweisen Addition und skalaren Multiplikation von Vektoren. Die Summe A + B von zwei Tensoren und das reelle Vielfache s A eines Tensors existieren unabhängig von der gewählten Basis. Aufgabe 9.9 Warum kann man einen Tensor der Stufe (1, 1) auch als Darstellung einer linearen Abbildung V ∗ → V∗ auffassen? Aufgabe 9.10 Man zeige, dass das Kronecker-Symbol δ ij einen Tensor δ der Stufe (1, 1) definiert, indem man das Transformationsverhalten (9.35) nachweist. Einen solchen Tensor, der in allen Basen durch dasselbe Zahlenschema dargestellt wird, nennt man invarianten Tensor. Wenn wir Tensoren der Stufe (1, 1) als lineare Abbildungen V → V interpretieren, welche spezielle solche Abbildung wird dann durch den Tensor δ dargestellt? Aufgabe 9.11 Ein Tensor A der Stufe (0, 2) sei bezüglich einer Basis ei durch seine Darstellung Aij = δij , also durch das Kronecker-Symbol mit zwei unteren Indizes definiert. Man zeige, dass dies kein invarianter Tensor ist, dass also die Darstellung Aab bezüglich einer anderen Basis ea im allgemeinen nicht durch das Kronecker-Symbol δab gegeben ist. 7 Aufgabe 9.12 Bevor man das Transformationsverhalten (9.35) postulieren kann, muss man eigentlich erst zeigen, dass es konsistent ist. Wenn wir zuerst von einer Basis zu einer anderen transformieren, und dann zu einer dritten, dann muss das Ergebnis dasselbe sein wie wenn wir gleich von der ersten zur dritten Basis transformieren. Man verwende das Ergebnis von Aufgabe 9.8, um zu zeigen, dass das Transformationsverhalten (9.35) diese Konsistenzbedingung erfüllt. Aufgabe 9.13 Es sei ein Tensor der Stufe (m, n) gegeben, dargestellt durch ein Zahlenschema B i ··· jk ··· l bezüglich einer Basis ei . Wir definieren eine Abbildung B: ∗ V · · × V }∗ × V · · × V} → R, | × ·{z | × ·{z m durch (9.36) n B(u, . . . , v, x, . . . , y) = B i ··· jk ··· l ui · · · vj xk · · · y l , (9.37) B i ··· jk ··· l = B(ei , . . . , ej , ek , . . . , el ). (9.38) wobei ui , . . . , vj bzw. xk , . . . , y l die Komponenten von u, . . . , v bzw. x, . . . , y bezüglich der gegeben Basis sind. Man zeige, dass die so definierte Abbildung, die in jedem ihrer Argumente linear ist, nicht von der gewählten Basis abhängt. Jeder Tensor der Stufe (m, n) definiert auf diese Weise eine multilineare Abbildung, die als Argumente m duale Vektoren und n Vektoren hat. Man zeige umgekehrt, dass sich jeder solchen Abbildung ein Zahlenschema zuordnen lässt, welches sich wie ein Tensor transformiert. Man muss dazu nur die gegebene Abbildung B für die Basisvektoren auswerten, also Welche bilineare Abbildung V ∗ × V → R definiert der Tensor δ aus Aufgabe 9.10? Der Tensor-Baukasten Tensoren lassen sich nicht nur wie Vektoren addieren und mit Zahlen multiplizieren, sondern sie lassen sich auch zu neuen Tensoren kombinieren. Das ist die eigentliche Stärke des Tensorkalküls. Zum Teil haben wir solche Operationen auch schon durchgeführt. So haben wir zum Beispiel aus einem Vektor x mit Komponenten xi und einem dualen Vektor u mit Komponenten ui einen Skalar u · x = ui xi gebildet. Oder wir haben eine lineare Abbildung A, dargestellt durch eine Matrix A ij , auf einen Vektor, dargestellt durch seine Komponenten xi , angewandt, um so einen neuen Vektor y = A(x) zu bekommen, dargestellt durch y i = Aij xj . Alle diese Operationen setzen sich aus zwei Grundoperationen zusammen, die Tensoren auf andere Tensoren abbilden. Die erste Grundoperation ist die Tensormultiplikation. Wir multiplizieren zwei Tensoren beliebiger Stufe, indem wir ihre Komponenten auf alle möglichen Arten multiplizieren und das Ergebnis wieder in einem Schema anordnen. Auf alle möglichen Arten heißt, dass wir jeden Eintrag des einen Tensors mit jedem des anderen multiplizieren. Explizit sieht das zum Beispiel so aus, dass wir aus einem Tensor A der Stufe (2, 0) und einem Tensor B der Stufe (1, 1) einen Tensor C der Stufe (3, 1) bilden, der durch das Zahlenschema C ijkl = Aij B kl (9.39) dargestellt wird. Wir schreiben dafür auch C = A ⊗ B, und nennen dies das Tensorprodukt von A und B. Dass auf diese Weise tatsächlich ein neuer Tensor definiert wird, müssen wir natürlich beweisen. Wir müssen also zeigen, dass das Zahlenschema (9.39) bei einem Basiswechsel wie ein Tensor transformiert. Wir setzen voraus, dass A und B Tensoren sind, das heißt für zwei beliebigen Basen e i und ea gilt Aab = Λai Λbj Aij , B cd = Λck B kl Λld . 8 (9.40) Wenn wir die beiden Gleichungen multiplizieren, bekommen wir C abcd = Aab B cd = Λai Λbj Λck Aij B kl Λld = Λai Λbj Λck C ijkl Λld . (9.41) Das ist genau das Transformationsverhalten eines Tensors der Stufe (3, 1). Also haben wir gezeigt, dass durch (9.39) ein solcher Tensor definiert ist, und zwar unabhängig davon, in welcher Basis wir diese Gleichung aufschreiben. Genau wir die komponentenweise Addition ist auch die komponentenweise Multiplikation von zwei Tensoren, wenn sie auf diese Weise ausgeführt wird, unabhängig von der gewählten Darstellung. Wie das Tensorprodukt zu verallgemeinern ist, ist sofort offensichtlich. Das Tensorprodukt eines Tensor der Stufe (m, n) mit einem Tensor der Stufe (p, q) ist ein Tensor der Stufe (m + p, n + q). Das einfachste Beispiel ist das Tensorprodukt eines Vektors z = z i ei mit einem dualen Vektor w = w i ei . Das ist ein Tensor A = z⊗w der Stufe (1, 1), dessen Komponenten durch A ij = z i wj gegeben sind. Wenn V der Spaltenvektorraum der Länge N , V ∗ der zugehörige Zeilenvektorraum, und ei die Standardbasis (9.15) ist, dann lässt sich auch dieses Produkt als Matrixmultiplikation schreiben. Es gilt dann nämlich 1 z .. z = . , w = w1 · · · wN , (9.42) N z und folglich z1 A = z ⊗ w = ... zN w1 · · · wN z 1 w1 · · · z 1 wN .. .. .. = . . . . N 1 N N z w ··· z w (9.43) Die Matrix A wird offenbar aus allen möglichen Produkten der Komponenten von z und w gebildet. Das Tensorprodukt ist etwas anderes als das Produkt (9.6) eines Vektors mit einem dualen Vektor, das eine Zahl liefert. Mit dem Tensorprodukt lassen sich Tensoren höherer Stufe bilden. Man kann damit auch eine Basis der Vektorräume V (m,n) konstruieren. Bleiben wir bei dem Beispiel von eben, und ersetzen den Vektor z der Reihe nach durch alle Basisvektoren ei , und den dualen Vektor w der Reihe nach durch alle dualen Basisvektoren ej . Das Tensorprodukt ei ⊗ ej wird dann durch eine Matrix dargestellt, die nur in der i-ten Spalte und j-ten Zeile eine Eins, und sonst nur Nullen als Einträge hat. Diese Matrizen bilden eine Basis von V (1,1) . Das lässt sich natürlich wieder verallgemeinern. Um eine Basis von V (m,n) zu definieren, müssen wir alle möglichen Tensorprodukte von m Basisvektoren und n dualen Basisvektoren bilden. Es gibt (dim V) m+n Möglichkeiten, dies zu tun, und das ist auch die Dimension von V (m,n) . Ein Tensor der Stufe (m, n) hat dann die Darstellung k ⊗ ·{z · · ⊗ e}l . (9.44) B = B i ··· jk ··· l ei ⊗ · · · ⊗ ej ⊗ e {z } | | m n Aufgabe 9.14 Man beweise, dass die rechte Seite von (9.44) tats ächlich unabhängig von der Basis ist, also unter einem Basiswechsel invariant bleibt. Der so definierte Tensor B existiert also unabh ängig von seiner Darstellung. Die zweite Grundoperation des Tensorkalküls ist die Spurbildung oder Kontraktion. Wir betrachten noch einmal eine lineare Abbildung A : V → V, dargestellt durch eine Matrix A ij . Die Spur der Matrix ist die Summe über die Diagonalemente, also sp(A) = Aii . (9.45) 9 Die Spur ist unabhängig von der gewählten Basis. Das lässt sich leicht zeigen. Es gilt Aaa = Λai Aij Λja = Aij δ ji = Aii . (9.46) Die Spur eines Tensors der Stufe (1, 1) ist ein Skalar, der nicht von der gewählten Basis abhängt. Auch das lässt sich wieder verallgemeinern. Betrachten wir einen beliebigen Tensor A, der mindestens einen oberen und einen unteren Index hat. Dann können wir über diese Indizes die Spur bilden und so einen neuen Tensor B definieren. Etwas schematisch, B ············ = A··· i ······ i··· , (9.47) oder am Beispiel eines Tensors der Stufe (1, 3), Bkl = Aikil . (9.48) Sobald ein Tensor mehr als einen oberen oder mehr als einen unteren Index hat, gibt es mehrere Möglichkeiten, eine Spur zu bilden. Wir sagen in diesem Fall, dass wir den ersten und den dritten Index des Tensors A kontrahiert haben, um den Tensor B zu bilden. Auch hier müssen wir erst nachweisen, dass durch die Kontraktion tatsächlich ein neuer Tensor definiert wird. Der Beweis ist wieder sehr einfach und völlig analog zu (9.46). Wir müssen nur ein paar zusätzliche Übergangsmatrizen ausschreiben. Wir führen ihn exemplarisch für den Fall (9.48). Es ist Bcd = Aacad = Λai Aikjl Λkc Λja Λld = δ ji Aikjl Λkc Λld = Bkl Λkc Λld , (9.49) was wieder dem Transformationsverhalten eines Tensors der Stufe (0, 2) entspricht. Für den allgemeine Fall ist der Beweis genauso zu führen. Die Kontraktion eines Tensors der Stufe (m, n) ergibt einen Tensor der Stufe (m − 1, n − 1). Wir verstehen nun auch, warum die Summenkonvention gerade so und nicht anders formuliert ist. Der Beweis (9.49) funktioniert nur, wenn einer der Indizes, über den summiert wird, oben steht und der andere unten. Denn nur dann heben sich die beiden Übergangsmatrizen Λai und Λja gegenseitig weg. Würden wir über einen doppelt oben der doppelt unten vorkommenden Index summieren, hätte das Ergebnis nicht das richtige Transformationsverhalten, wäre also kein Tensor. Und schon gar nicht, wenn wir über einen Index summieren würden, der nur einmal oder dreimal vorkommt. Tatsächlich lassen sich jetzt alle Operationen, die wir mit Vektoren, dualen Vektoren oder Tensoren höherer Stufe durchgeführt haben, auf diese zwei Grundoperationen zurückführen. So entsteht zum Beispiel das Produkt eines Vektors mit einem dualen Vektor, u · x = ui xi , durch Tensormultiplikation und anschließende Kontraktion. Ein anderes Beispiel ist die Verkettung von zwei linearen Abbildungen A und B zu einer Abbildung C = A ◦ B. Diese erfolgt durch Multiplikation der Matrizen, also C ik = Aij B jk . Auch das ergibt sich aus einer Tensormultiplikation und einer Kontraktion. Die beiden Grundoperationen können verwendet werden, um Tensoren fast beliebig zu neuen Tensoren zu kombinieren. Auf diese Weise entsteht ein Art Baukasten. Die Bausteine sind die Tensoren. Ihre Indizes kann man als Stecker und Buchen interpretieren. Man kann zwei Tensoren aneinander heften und das ganze als einen zusammengesetzten Baustein betrachten. Das entspricht der Tensormultiplikation. Man kann auch einen Stecker mit einer Buchse verbinden, und das als einen Baustein mit wenigen freien Steckern und Buchsen betrachten. Das entspricht der Kontraktion. Wir werden hier höchstens Tensoren zweiter Stufe benötigen, bis auf eine spezielle Ausnahme eines Tensor dritter Stufe, den wir am Ende dieses Kapitels einführen werden. Trotzdem ist es ganz nützlich, das allgemeine Prinzip verstanden zu haben. Das Tensorkalkül bietet eine einheitliche Sprache, in der sich fast alle Aussagen der linearen Algebra formulieren lassen. Wir wollen das im folgenden anhand von ein paar Beispielen zeigen, und dabei auch den Anschluss an das herstellen, was wir im Teil I über die Strukturen des physikalischen Raumes gesagt haben. 10 Aufgabe 9.15 Mit der Interpretation eines Tensors als multilineare Abbildung aus Aufgabe 9.13 l ässt sich das Tensorprodukt auch ohne Rückgriff auf eine Basis definieren. Im hier gezeigten Beispiel (9.39) sind die Tensoren bilineare Abbildungen A : V ∗ × V ∗ → R und B : V ∗ × V → R. Man zeige, dass der Tensor C = A ⊗ B durch die folgende multilineare Abbildung gegeben ist, C: V ∗ × V ∗ × V ∗ × V → R, C(u, v, w, x) = A(u, v) B(w, x). (9.50) Aufgabe 9.16 Es sei ei eine beliebige Basis von V und ei die zugehörige duale Basis von V ∗ . Man zeige, dass der Kronecker-Tensor δ aus Aufgabe 9.10 durch δ = e i ⊗ ei dargestellt werden kann. Die Metrik Wir betrachten jetzt einen Vektorraum V, auf dem eine Metrik, also ein Skalarprodukt V ×V → R definiert ist. Um es von dem Produkt (9.6) zu unterscheiden, für das wir den Punkt verwenden, bezeichen wir das Skalarprodukt von zwei Vektoren x, y ∈ V zunächst mit g(x, y). Die Axiome für einen metrischen Vektorraum verlangen, dass das Skalarprodukt symmetrisch und bilinear ist. Daraus folgt mit x = xi ei und y = y i ei g(x, y) = g(xi ei , y i ei ) = g(ei , ej ) xi y j = gij xi y j , (9.51) wobei gij eine symmetrische N ×N -Matrix ist. Tatsächlich handelt es sich dabei, wie man aus der Indexstellung abliest, um einen Tensor der Stufe (0, 2). Es gilt nämlich beim Übergang von der Basis ei zu einer neuen Basis ea gab = g(ea , eb ) = g(ei Λia , ej Λjb ) = g(ei , ej ) Λia Λjb = gij Λia Λjb . (9.52) Das ist das Transformationsverhalten, das einen Tensor der Stufe (0, 2) definiert. Wir nennen einen Tensor symmetrisch, wenn das Zahlenschema unter Vertauschung von zwei Indizes invariant ist, also gij = gji . (9.53) Außerdem müssen wir noch verlangen, dass die Metrik positiv ist. Für alle x ∈ V gilt g(x, x) ≥ 0, g(x, x) = 0 ⇒ x = 0. (9.54) ⇒ xi = 0. (9.55) Das ist eine weitere Forderung an die Matrix gij , nämlich gij xi xj ≥ 0, gij xi xj = 0 Zusammenfassend können wir sagen: Eine Metrik ist ein positiver, symmetrischer Tensor der Stufe (0, 2). Mit einer Metrik auf V ist auch eine Metrik auf V ∗ definiert. Aus der Positivität der Matrix gij folgt nämlich, dass sie invertierbar ist. Es existiert also eine ebenfalls symmetrische, inverse Matrix, die wir mit g ij bezeichnen, so dass g ij gjk = δ ik ⇔ gij g jk = δi k . (9.56) Diese inverse Matrix ist die Darstellung eines Tensors der Stufe (2, 0). Das müssen wir jetzt gar nicht mehr anhand der Transformationseigenschaften beweisen, sondern das können wir unmittelbar aus den Gleichungen (9.56) ablesen. Dazu argumentieren wir wie folgt. Zuerst wählen wir irgendeine Basis, und definieren einen Tensor g ij , dessen Komponenten in dieser Basis die Gleichungen (9.56) erfüllen. Dann transformieren wir diesen 11 Tensor in eine beliebige andere Basis. Von der jeweils rechten Seite der Gleichung wissen wir, dass sich δ ik wie ein Tensor transformiert. Also steht dort auch in jeder anderen Basis das Kronecker-Symbol. Auf der linken Seite wissen wir, dass sowohl g ij als auch gjk die Darstellungen von Tensoren sind. Außerdem wissen wir, dass wir Tensoren multiplizieren und kontrahieren dürfen, und dass sich das Ergebnis dieser Operation wieder wir ein Tensor verhält. Wir schließen daraus, dass die Gleichung, so wie sie dort steht, in jeder Darstellung, als für jeder Wahl der Basis gilt. Wir hätten genauso gut eine andere Basis wählen können, um die inverse Metrik als Tensor zu definieren. Das ist eine ganz wesentliche Eigenschaft der Tensorkalküls. Wir können es einer Gleichung, die eine Beziehung zwischen Tensoren herstellt, allein an ihre Form ansehen, dass sie in in jeder Basis, also für jede Darstellung der Tensoren gilt. Die Voraussetzung dafür ist, dass auf beiden seiten der Gleichung die gleichen freien Indizes erscheinen, also die, für die wir noch Werte einsetzen können. Das sind hier die Indizes i und k. Und alle Indizes, über die summiert wird, müssen genau einmal oben und einmal unten stehen. Das ist hier der Index j. Mit Hilfe der inversen Metrik können wir nun das Skalarprodukt von zwei dualen Vektoren u = u i ei und v = vi ei bilden. Wir setzen dazu g(ei , ej ) = g ij , so dass g(u, v) = g(ui ei , vi ei ) = g(ei , ej ) ui vj = g ij ui vj . (9.57) Tatsächlich können wir sogar noch einen Schritt weiter gehen. Die Tensoren g ij und g ij lassen nämlich noch eine andere Interpretation zu. Sie lassen sich als lineare Abbildungen V → V ∗ , bzw. V ∗ → V auffassen. Wir ordnen einem Vektor x = xi ei ∈ V umkehrbar eindeutig einen dualen Vektor x∗ = x∗i ei ∈ V ∗ zu, indem wir (9.58) x∗i = gij xj ⇔ xi = g ij x∗j setzen. Wenn wir den dualen Vektor x∗ als lineare Abbildung V → R auffassen, dann lässt sich diese mit den Worten “bilde das Skalarprodukt mit x” anschaulich beschreiben. In einem metrischen Vektorraum entspricht also jedem Vektor eindeutig eine solche lineare Abbildung, und umgekehrt kann jede lineare Abbildung V → R, also jeder duale Vektor, eindeutig als Skalarprodukt mit einen Vektor dargestellt werden. Es ist daher sinnvoll, die Räume V und V ∗ miteinander zu identifizieren, indem man den Vektor x mit dem dualen Vektor x∗ gleich setzt. Der Punkt bekommt dann auch wieder seine Bedeutung als Skalarprodukt, denn nun ist g(x, y) = x∗ · y = x · y. (9.59) Eine weitere Konsequenz ist, dass nun auch die Komponenten x i = x∗i und xi Darstellungen desselben Vektors sind, nämlich x = x i ei = x i ei ∈ V = V ∗ . (9.60) Für die Beziehungen zwischen den Komponenten xi und xi bzw. den Basisvektoren ei und ei finden wir xi = g ij xj , xi = gij xj , ei = gij ej , ei = g ij ej . (9.61) Wir können einen Vektor also wahlweise durch seine “oberen” oder “unteren” Komponenten darstellen, indem wir ihn entweder als Linearkombination der Basisvektoren, oder der dualen Basisvektoren schreiben. Die beiden Darstellungen transformieren bei einem Basiswechsel noch immer verschieden, aber sie repräsentieren beide dasselbe Objekt, nämlich den Vektor x. Diese etwas verwirrende Tatsache lässt sich, wie fast alles in einem metrischen Vektorraum, geometrisch veranschaulichen. Am Beispiel eines zweidimensionalen Vektorraumes wird dies in Abbildung 9.1(a) gezeigt. Dort ist zunächst eine Basis (e1 , e2 ) eingezeichnet. Der Vektor x kann in dieser Basis als Linearkombination x = x1 e1 + x2 e2 dargestellt werden. Die entsprechenden Komponenten (x1 , x2 ) können an den Achsen, die von den Basisvektoren aufgespannt werden, abgelesen werden. 12 (c) (d) x2 x2 x2 e2 e2 x x e2 e1 x1 x1 e1 e1 x1 (b) (a) Abbildung 9.1: In einem metrischen Vektorraum V gibt es zu jeder Basis e i von V eine duale Basis ei , die ebenfalls eine Basis von V ist (a). Nur eine Orthonormalbasis (b) ist zu sich selbst dual. Die duale Basis (e1 , e2 ) ist eindeutig durch die Forderung ei · ej = δ ij festgelegt. Dies ist jetzt eine Forderung an die Skalarprodukte der Basisvektoren mit den dualen Basisvektoren. Der Vektor e 1 steht auf e2 senkrecht, und sein Betrag wird dadurch bestimmt, dass das Skalarprodukt mit e 1 gleich Eins ist. Entsprechend ist der Vektor e2 festgelegt. Stellt man nun denselben Vektor als Linearkombination x = x1 e1 + x2 e2 dar, so liest man die entsprechenden Komponenten (x1 , x2 ) an den gestrichelten Achsen ab, die von den dualen Basisvektoren aufgespannt werden. Sie sind im allgemeinen von der Komponenten (x 1 , x2 ) desselben Vektors verschieden, und sie transformieren auch bei einem Basiswechsel anders. Es gibt allerdings den Spezialfall, in dem die Basis mit der dualen Basis identisch ist. Aus (9.61) entnehmen wir, dass dies genau dann der Fall ist, wenn gij = δij , und folglich auch g ij = δ ij ist, die Metrik also durch die Einheitsmatrix gegeben ist. Das ist allerdings keine Forderung an die Metrik, sondern an die Basis. Eine Basis mit dieser Eigenschaft heißt Orthonormalbasis. Wir können die wesentlichen Eigenschaften eines metrischen Vektorraumes wie folgt zusammenfassen: Ein metrischer Vektorraum ist mit seinem Dualraum identisch. Eine Orthonormalbasis ist mit ihrer dualen Basis identisch. Wenn wir eine Orthonormalbasis verwenden, dann müssen wir nicht mehr zwischen oberen und unteren Indizes unterscheiden. Wir können, wie in Abbildung 9.1(b) gezeigt, alle Indizes nach unten schreiben und einen Vektor einfach als Linearkombination x = xi ei darstellen, wobei wir die Summenkonvention entsprechend abändern. So hatten wir sie ja auch ursprünglich eingeführt. Der Grund dafür ist, dass in (9.61) überall das Kronecker-Symbol steht, so dass alle Größen mit oberen Indizes zu den entsprechenden Größen mit unteren Indizes gleichgesetzt werden. Das geht natürlich nur dann, wenn wir uns darauf einigen, nur Orthonormalbasen zu verwenden. Das ist aber, wie wir später sehen werden, nicht immer sinnvoll. Deshalb werden wir auch in einem metrischen Vektorraum die Unterscheidung zwischen einer Basis und der dazugehörigen dualen Basis nicht aufgeben. Folglich müssen wir auch weiterhin zwischen oberen und unteren Indizes unterscheiden. Es gibt aber eine einfache Regel, sie ineinander umzurechnen, nämlich die Formeln (9.61). Um einen oberen Index in einen unteren zu verwandeln, müssen wir nur das jeweilige Objekt mit der Metrik multiplizieren und die Spur über den betreffenden Index bilden. Wir sagen auch, dass wir einen 13 Index mit Hilfe der Metrik “nach unten ziehen”. Entsprechend können wir den Index mit der inversen Metrik wieder “nach oben ziehen”. Laut (9.61) gilt diese Regel sowohl für die Komponenten von Vektoren, als auch für die Basisvektoren selbst. Sie lässt sich auf beliebige Tensoren verallgemeinern. Da wir in einem metrischen Vektorraum nicht zwischen Vektoren und dualen Vektoren unterscheiden müssen, müssen wir auch nicht zwischen Tensoren der Stufen (m, n) und (p, q) unterscheiden, falls m + n = p + q ist, falls also beide Tensoren insgesamt gleich viele Indizes haben. Mit Hilfe der Metrik können wir zum Beispiel einen Tensor der Stufe (0, 2) mit einem Tensor der Stufe (2, 0) identifizieren, indem wir Bij = gik gjl B kl ⇔ B ij = g ik g jl Bkl (9.62) setzen, und dann beides als Darstellungen desselben Tensors zweiter Stufe B interpretieren, so wie wir x i und xi als Darstellungen desselben Vektors x betrachten können. In einem metrischen Raum können wir einfach von einem Tensor der Stufe m sprechen, wenn es sich um ein Objekt mit m Indizes handelt. Er besitzt jedoch verschiedene Darstellungen, die bei einem Basiswechsel verschieden transformieren. Aufgabe 9.17 Warum ist eine positive Matrix immer invertierbar? Aufgabe 9.18 Wenn V der Spaltenvektorraum der Länge N ist, V ∗ der entsprechende Zeilenvektorraum, und die Metrik auf V durch die Summe über der Produkte der Einträge gegeben ist, also das StandardSkalarprodukt auf dem RN , wie sieht dann die Abbildung V → V ∗ : x → x∗ aus? Mit anderen Worten, welcher Spaltenvektor wird mit welchem Zeilenvektor identifiziert, wenn man V = V ∗ setzt? Aufgabe 9.19 Für einen speziellen Tensor hatten wir bereits eine Version mit zwei oberen und eine Version mit zwei unteren Indizes definiert, nämlich für die Metrik g, die einmal durch die Matrix gij und einmal durch die inverse Matrix g ij dargestellt wird. Ist das mit (9.62) konsistent? Mit anderen Worten, gilt diese Gleichung auch, wenn wir dort Bij = gij und B ij = g ij setzen? Aufgabe 9.20 Auf dem dreidimensionalen Vektorraum aus Aufgabe 9.5 sei eine Metrik durch ihre Komponenten g11 = g22 = g33 = 1 und g12 = g23 = g31 = 0 bezüglich der Basis (e1 , e2 , e3 ) definiert. Man bestimmte die Komponenten bezüglich der Basis (ex , ey , ez ). Die orthogonale Gruppe Da Orthonormalbasen in der Physik eine wichtige Rolle spielen, wollen wir uns kurz mit den Besonderheiten befassen, die beim Übergang zwischen zwei solchen Basen auftreten. Es sei also ei eine Orthonormalbasis und ea eine andere Orthonormalbasis. Da in diesem Fall beide Basen mit ihren jeweiligen dualen Basen übereinstimmen, können wir in diesem Abschnitt alle Indizes nach unten schreiben. Das gilt auch für die Übergangsmatrizen, so dass der Zusammenhang zwischen den Basen durch ea = ei Λia ⇔ ei = ea Λai (9.63) gegeben ist. Das ergibt sich aus (9.18), wenn wir dort einfach alle Indizes nach unten schreiben. Die Übergangsmatrizen Λia und Λai sind natürlich wieder zueinander invers, also Λia Λaj = δij , ⇔ Λai Λib = δab . (9.64) Sie können aber nicht beliebig gewählt werden. Aus der Forderung, dass mit e i auch ea eine Orthonormalbasis ist, ergibt sich folgende Bedingung an die Übergangsmatrizen, ea · eb = (ei Λia ) · (ej Λjb ) = (ei · ej ) Λia Λjb = δij Λia Λjb = Λia Λib = δab . 14 (9.65) Nur, wenn die Übergangsmatrix die letzte Gleichung erfüllt, bildet sie eine Orthonormalbasis wieder auf eine Orthonormalbasis ab. Wenn man die Basen ei und ea vertauscht, findet man natürlich dieselbe Bedingung für die inverse Matrix, also Λia Λib = δab ⇔ Λai Λbj = δij . (9.66) Eine Matrix mit dieser Eigenschaft heißt orthogonale Matrix. Um das in der üblichen Matrixnotation aufzuschreiben, schreiben wir für die Übergangsmatrizen Λ = Λai , Λ−1 = Λia , (9.67) wobei der erste Index als Zeilenindex, der zweite als Spaltenindex zu lesen ist. Die zweite Gleichung in (9.66) lautet dann Λ Λ> = I ⇔ Λ> = Λ−1 , (9.68) wobei I die N ×N -Einheitsmatrix ist, die durch das Kronecker-Symbol dargestellt wird, und Λ > die transponierte Matrix ist, die durch das Vertauschen von Zeilen und Spalten entsteht. Die erste Gleichung in (9.66) ist dazu äquivalent und macht dieselbe Aussage über die inverse Matrix Λ −1 . Eine orthogonale Matrix Λ hat also die Eigenschaft, dass sie zu ihrer transponierten Matrix Λ > invers ist. Die Menge aller dieser Matrizen bildet eine Gruppe, die man mit O(N ) bezeichnet und orthogonale Gruppe der Dimension N nennt. Aufgabe 9.21 Man beweise das. Zu zeigen ist dazu, dass die Einheitsmatrix orthogonal ist, also I ∈ O(N ), dass mit jeder Matrix Λ ∈ O(N ) auch die inverse Matrix Λ−1 ∈ O(N ) orthogonal ist, und dass mit je zwei orthogonalen Matrizen Λ1 , Λ2 ∈ O(N ) auch das Produkt Λ1 Λ2 ∈ O(N ) orthogonal ist. Wir können hier nicht die gesamte Theorie der orthogonalen Gruppe erarbeiten, wollen aber kurz die wichtigsten Eigenschaften zusammenstellen. Diese lassen sich bereits an der Gruppe O(2) ablesen, also der Gruppe aller orthogonalen Transformation in einem zweidimensionalen Vektorraum. Wir setzen a b a c > Λ= ⇒ Λ = . (9.69) c d b d Die Bedingung (9.68) lautet in diesem Fall 2 a b a c a + b2 a c + b d 1 0 > ΛΛ = I ⇔ = . c d b d a c + b d c 2 + d2 0 1 (9.70) Komponentenweise ausgeschrieben, a2 + b2 = 1, c2 + d2 = 1, a c + b d = 0. (9.71) Die ersten beiden Gleichungen lassen sich durch den Ansatz a = cos α, b = sin α, c = sin β und d = cos β lösen. Die dritte Gleichung lautet dann cos α sin β + sin α cos β = sin(α + β) = 0, also α + β = 0 oder α + β = π. Eingesetzt ergibt das cos α sin α Λ = D(α) = oder − sin α cos α 15 Λ = S(α) = cos α sin α sin α − cos α (9.72) . (9.73) replacements (c) (d) ey ey eu eu α α ex ex ev ev (b) (a) Abbildung 9.2: In einem zweidimensionalen metrischen Vektorraum gibt es orthogonale Basistransformationen ohne (a) und mit (b) Spiegelung. Beide werden durch einen Winkel α parametrisiert. Die erste Übergangsmatrix beschreibt eine Drehung der Basis um den Winkel α. Wählen wir als Indexmenge a ∈ {u, v} und i ∈ {x, y}, so lautet die explizite Transformation der Basisvektoren eu = cos α ex + sin α ey , ev = − sin α ex + cos α ey . (9.74) Die zweite Möglichkeit in (9.73) entspricht einer Drehung mit anschließender Spiegelung, eu = cos α ex + sin α ey , ev = sin α ex − cos α ey . (9.75) Es gibt also zwei Arten von orthogonalen Basistransformationen, nämlich solche, die die Orientierung der Basis erhalten und solche, die sie umkehren. Das gilt in jeder Dimension, wobei sich anhand der Determinante der Übergangsmatrix entscheiden lässt, ob die Orientierung erhalten bleibt oder nicht. Aus (9.68) folgt nämlich det(Λ Λ> ) = det(Λ) det(Λ> ) = det(Λ)2 = det(I) = 1 ⇒ det(Λ) = ±1. (9.76) Hier haben wir benutzt, dass die Determinante des Produktes von zwei Matrizen das Produkt der Determinante ist, und dass die Determinante einer Matrix beim Transponieren erhalten bleibt. Die Determinante einer orthogonalen Matrix ist also entweder +1 oder −1, wobei der positive Werte einer Drehung der Basis ohne Spiegelung, ein negativer Wert einer Drehung der Basis mit Spiegelung entspricht. Die Teilmenge von O(N ), die die Drehungen ohne Spiegelung enthält, bildet eine Untergruppe, die spezielle orthogonale Gruppe SO(N ). Sie besteht aus allen orthogonalen Basistransformationen, bei denen die Orientierung der Basis erhalten bleibt. In der Physik ist natürlich die orthogonale Gruppe O(3) von besonderer Bedeutung. Wir werden auf sie später noch ausführlicher eingehen. Im Prinzip gilt für sie aber dasselbe wir für O(N ) im allgemeinen. Sie zerfällt in zwei Teilmengen, wobei die Untergruppe SO(3) die Drehgruppe ist, also alle möglichen Drehungen der Basis enthält, aber keine Spiegelungen. Aufgabe 9.22 Warum bilden die orthogonalen Basistransformationen ohne Spiegelung eine Untergruppe der orthogonalen Gruppe, die Transformationen mit Spiegelung aber nicht? Aufgabe 9.23 Man beweise, dass alle Einträge einer orthogonalen Matrix vom Betrag kleiner oder gleich Eins sind. 16 Aufgabe 9.24 Man berechne für die Matrizen aus (9.73) die Produkte D(α) D(β), D(α) S(β), S(α) D(β) und S(α) S(β). Aufgabe 9.25 Wie lauten die explizit ausgeschriebenen Bedingungen (9.68) an die Eintr äge einer Matrix U ∈ O(3)? Wie viele unabhängige Gleichungen ergeben sich, und wie viele unabhängige Parameter bleiben übrig? Das Kreuz- und Spatprodukt Bei der Diskussion der Geometrie des dreidimensionalen Euklidischen Raumes hatten wir noch zwei andere Produkte von Vektoren eingeführt, nämlich das Kreuzprodukt und das Spatprodukt. Wir wollen nun zeigen, dass auch sie eine recht einfach Darstellung als Tensoren haben. Dazu sei V von nun an ein dreidimensionaler, metrischer Vektorraum, und e a eine Orthonormalbasis. Für die Metrik gilt also gab = δab und g ab = δ ab . Wir definieren dann einen Tensor ω dritter Stufe, der bezüglich dieser Basis die Komponenten ω abc = εabc bzw. ωabc = εabc (9.77) haben soll, wobei εabc bzw. εabc das Levi-Civita-Symbol ist, welches wir in (2.27) definiert hatten. Es ist gleich +1, wenn die Indizes {a, b, c} eine gerade Permutation der vorgegebenen Indexmenge bilden, −1, wenn sie eine ungerade Permutation bilden, und 0, wenn mindestens zwei der Indizes den gleichen Wert annehmen. Insbesondere ist der so definierte Tensor ω total antisymmetrisch. Er ändert sein Vorzeichen bei jeder Vertauschung von zwei Indizes, ωabc = ωbca = ωcab = −ωacb = −ωbac = −ωcba . (9.78) Da wir uns in einem metrischen Vektorraum befinden, können wir Indizes wahlweise nach oben oder nach unten schreiben. Die beiden Darstellungen (9.77) repräsentieren denselben Tensor ω, und (9.78) gilt entsprechend mit oberen Indizes. Da wir zudem eine Orthonormalbasis verwenden, sind beide Darstellungen sogar gleich. Eine wichtige Frage ist nun, wie die Darstellungen des Tensors ω in anderen Basen aussehen. Dazu sei ei irgendeine andere Basis, die nicht unbedingt eine Orthonormalbasis sein muss. Dann können wir die Komponenten ω ijk des Tensor ω in dieser Basis mit Hilfe des allgemeinen Transformationsgesetzes ausrechnen. Es gilt ω ijk = Λia Λjb Λkc ω abc . (9.79) Natürlich ist der Term auf der rechten Seite wieder total antisymmetrisch, das heißt er ändert sein Vorzeichen bei jeder Vertauschung von zwei Indizes. Er ist daher bis auf eine Konstante bestimmt und proportional zum Levi-Civita-Symbol εijk . Wir müssen nur noch die Konstante finden. Aufgabe 9.26 Warum ist jeder total antisymmetrische Ausdruck mit drei Indizes in einem dreidimensionalen Vektorraum proportional zum Levi-Civita-Symbol? Um die Konstante zu finden, setzen wir den Ansatz ω ijk = c εijk in (9.79) ein und drücken die Komponenten ω abc durch (9.77) aus, c εijk = Λia Λjb Λkc εabc . (9.80) Für eine fest gewählte Permutation der Zeilenindizes {i, j, k} der Übergangsmatrizen wird auf der rechten Seite über alle Permutationen der Spaltenindizes {a, b, c} summiert. Dabei werden jeweils Produkte von drei Matrixelementen gebildet, von denen nie zwei in einer Zeile oder zwei in einer Spalte stehen. Anschließend wird das Produkt mit einem Vorzeichen versehen, welches davon abhängt, ob die Permutation der Spaltenindizes {a, b, c} gerade oder ungerade ist. 17 Das ist die Definition der Determinante einer Matrix. Die Zahl c ist demnach die Determinante der Übergangsmatrix Λia , und es gilt ω ijk = det(Λia ) εijk , ωijk = det(Λai ) εijk . (9.81) Die zweite Gleichung für die Darstellung mit unteren Indizes folgt dabei aus der analogen Überlegung, bei der wir die Darstellung mit unteren Indizes transformieren. Es tritt dabei die inverse Transformationsmatrix auf, und daher auch deren Determinante. Daraus können wir unmittelbar folgenden Schluss ziehen. Wenn wir die Basis e a , von der wir ausgegangen sind, als positiv orientiert definieren, dann hat die Tensor ω in jeder positiv orientierten Orthonormalbasis ei die Darstellung ω ijk = εijk bzw. ωijk = εijk . (9.82) Die Basis ea , von der wir ausgegangen sind, ist also in keiner Weise speziell. Wir hätten jede andere Orthonormalbasis mit der gleichen Orientierung als Ausgangspunkt nehmen können, um den Tensor ω durch (9.77) zu definieren. Wir finden aber, dass der Tensor ω in einer negativ orientierten Orthonormalbasis e i eine andere Darstellung hat, nämlich ω ijk = −εijk bzw. ωijk = −εijk . (9.83) Damit können wir das, was wir weiter oben über Orthonormalbasen gesagt haben, wie folgt ergänzen In einer positiv orientierten Orthonormalbasis gilt gij = δij und ωijk = εijk . In einer negativ orientierten Orthonormalbasis gilt gij = δij und ωijk = −εijk . Und wie verhält es sich mit einer Basis ei , die keine Orthonormalbasis ist? In diesem Fall gibt es einen sehr eleganten Trick, mit dem man den Tensor ω darstellen kann, ohne die Übergangsmatrizen explizit benutzen zu müssen. Wir betrachten dazu eine andere Determinante, nämlich die der Matrix g ij . Wir können diese wie folgt definieren, g = det(gij ) = 1 ikm jln ε ε gij gkl gmn . 6 (9.84) Wenn man hier die Summen über die Indizes {j, l, n} explizit ausschreibt, ergeben sich wieder die Summen über alle Permutationen von Zeilen- und Spaltenindizes der Matrix g ij , wobei immer nur solche Matrixelemente multipliziert werden, die nicht zusammen in einer Zeile oder einer Spalte stehen. Der Faktor 6 tritt auf, weil wir anschließend auch noch über die Indizes {i, k, m} summieren. Die Determinante g der Metrik ist kein Skalar, denn die Levi-Civita-Symbole zu verschiedenen Basen sind nicht verschiedene Darstellungen eines Tensor. Genau das haben wir ja gerade widerlegt. Wir können aber nun den folgenden Ausdruck bilden, 1 ikm jln ω ω gij gkl gmn = 1. 6 (9.85) In diesem Fall ist die linke Seite ein Skalar, denn sie entsteht durch Multiplikation und Kontraktion aus Tensoren. Sie hat folglich in jeder Basis denselben Wert. In einer Orthonormalbasis ergibt sich der Wert 1, folglich ist dies der Wert in jeder Basis. Durch Vergleich von dieser Gleichung mit (9.84) ergibt sich nun 1 ω ijk = ± √ εijk , g √ bzw. ωijk = ± g εijk . (9.86) Der zweite Ausdruck folgt wieder aus einer analogen Überlegung für die Darstellung mit unteren Indizes. Nur das Vorzeichen bleibt unbestimmt. Es hängt auch hier wieder von der Orientierung der Basis ab, das 18 heißt darüber entscheidet die Determinante der Übergangsmatrix. Wir müssen irgendeine Basis auswählen und diese als positiv orientiert definieren, dann gilt in dieser und in allen anderen Basen mit der gleichen Orientierung das positive Vorzeichen, in allen anderen das negative. Für den Spezialfall einer Orthonormalbasis stimmt dies natürlich mit dem Ergebnis von oben überein, denn dann ist g ij = δij , uns somit die Determinante g = 1. Für den Tensor ω führen wir die Bezeichnung antisymmetrischer Einheitstensor ein. Seine Definition lässt sich leicht auf einen N -dimensionalen metrischen Vektorraum verallgemeinern, und es gelten die gleichen Darstellungen, wenn man entsprechend ein Levi-Civita-Symbol mit N Indizes einführt. Voraussetzung für für die Existenz dieses Tensors ist allerdings eine Metrik, denn sonst gibt es keine ausgezeichneten Basen, nämlich die Orthonormalbasis, die wir zur Definition verwendet haben. In jedem metrischen Vektorraum gibt es einen bis auf das Vorzeichen eindeutig definierten antisymmetrischen Einheitstensor. Nun können wir die Definition des Kreuz- und Spatproduktes reproduzieren und als Tensoroperationen darstellen. Hier ist sogar das Spatprodukt das einfachere. Es ist diejenige Abbildung, die durch den Tensor ω in Sinne der Aufgabe 9.13 definiert wird, nämlich √ ω(x, y, z) = ωijk xi y j z k = ± g εijk xi y j z k . (9.87) Das Vorzeichen ist durch die Orientierung der Basis festgelegt, und für eine positiv orientierte Orthonormalbasis gilt offenbar der bekannte Ausdruck εijk xi yj zk , wenn wir alle Indizes nach unten schreiben. Wir können nun aber auch das Spatprodukt in jeder anderen Basis berechnen. Eine sehr praktische Anwendung dafür wird sich im nächsten Kapitel ergeben, wenn wir Integrationen ausführen. Wir können damit nämlich das Volumen eines Spates ausrechnen, ohne dazu auf eine Orthonormalbasis zurückgreifen zu müssen. Das Kreuzprodukt ist nun ebenfalls leicht darzustellen. Wir setzen √ x × y = ωijk xi y j ek = ± g εijk xi y j ek . (9.88) Auch hier ergibt sich in einer positiv orientierten Orthonormalbasis wieder der bekannte Ausdruck εijk xi yj ek , wenn wir alle Indizes nach unten schreiben. Man beachte jedoch, dass in (9.88) der duale Basisvektor ek steht, so dass, wenn wir die Vektoren x und y einer bestimmten Basis darstellen, das Kreuzprodukt x × y zunächst in der dualen Basis dargestellt wird. Aber wir können dies natürlich mit Hilfe der Metrik umrechnen. In Komponenten ausgeschrieben gilt x×y =z ⇔ z i = g ij ωjkl xk y l . (9.89) Das Kreuzprodukt wird also genau genommen durch eine Kombination des antisymmetrischen Einheitstensor mit der Metrik gebildet. Aufgabe 9.27 Man zeige, dass das hier definierte Kreuzprodukt alle bekannten Eigenschaften hat. Es ist antisymmetrisch und das Produkt von zwei Vektoren steht auf beiden senkrecht. Außerdem gilt in einer positiv orientierten Orthonormalbasis ei × ej = εijk ek . Aufgabe 9.28 Man zeige, dass mit den hier vorgenommenen Definitionen f ür das Spatprodukt η(x, y, z) = (x × y) · z gilt. Aufgabe 9.29 Man leite die jeweils zweite Gleichung in (9.86) und (9.81) her. 19 Aufgabe 9.30 Da die beiden Ausdrücke in (9.86) zwei Darstellungen desselben Tensors in einem metrischen Vektorraum sind, sollte es möglich sein, die eine aus der anderen durch Hoch- bzw. Runterziehen der Indizes zu bekommen. Man bestätige dies, also ωikm = gij gkl gmn ω ilm . (9.90) Aufgabe 9.31 Die drei Basisvektoren ei eine dreidimensionalen metrischen Vektorraums spannen, wenn sie keine Orthonormalbasis bilden, keinen Würfel, sondern einen Spat auf. Wie groß ist das Volumen dieses Spates? Aufgabe 9.32 Es sei V ein nicht notwendigerweise metrischer, dreidimensionaler Vektorraum. Man zeige, dass durch Ωijk lmn = εikm εjlm (9.91) ein invarianter Tensor Ω der Stufe (3, 3) definiert wird, und dass folglich f ür jeden Tensor A der Stufe (1, 1) die Größe 1 (9.92) det(A) = εikm εjlk Aij Akl Amn 6 ein Skalar ist, und zwar die Determinante der Matrix Aij . Was ist der wesentliche Unterschied zwischen dieser Definition einer Determinante und der Determinante der Metrik (9.84)? Warum handelt es sich dort nicht um einen Skalar? Gibt es eine alternative Definition von Ω, die explizit deutlich macht, dass es sich um einen Tensor handelt? 20 10 Tensorfelder Im letzten Kapitel haben wir Tensoren nur im Zusammenhang mit Vektorräumen diskutiert. In physikalischen Theorien tauchen Tensoren aber meistens in Form Tensorfelder auf, zum Beispiel als Kraftfelder auf dem physikalischen Raum. Unter einem Feld verstehen wir eine Abbildung, die jedem Punkt des Raumes eine Zahl, einen Vektor, oder eben einen Tensor bestimmter Stufe zuordnet. In diesem Kapitel wollen wir uns mit der Darstellung von solchen Feldern in verschiedenen Koordinatensystemen beschäftigen. Insbesondere geht es darum, das Transformationsverhalten von Tensorfeldern bei Koordinatentransformationen zu verstehen, das wir im letzten Kapitel anhand von Basistransformationen in Vektorräumen diskutiert haben. In physikalischen Anwendungen müssen wir oft spezielle Koordinatensysteme wählen, die dem gestellten Problem angepasst sind, um überhaupt einer Lösung näher zu kommen. Zum Beispiel konnten wir das Kepler-Problem, also die Bewegungsgleichung für einen Planeten im Sonnensystem, erst durch den Übergang zu Kugelkoordinaten lösen. Kugelkoordinaten sind krummlinige Koordinaten. Das bereitete ein paar Schwierigkeiten, da wir, bevor wir die Bewegungsgleichungen explizit aufstellen konnten, erst einmal Größen wir Geschwindigkeit und Beschleunigung in solchen Koordinaten darstellen mussten. Um solche Rechnungen nicht für jedes neue Koordinatensystem noch einmal durchführen zu müssen, wollen wir hier eine Art Rezeptsammlung für den Umgang krummlinigen Koordinatensystem bereitstellen. Das Tensorkalkül ist dafür die geeignete Sprache. Wir werden zuerst nur affine Koordinatensystem betrachten und zeigen, dass sich das Transformationsverhalten von Tensorfeldern in solchen Koordinatensystem unmittelbar auf das Transformationsverhalten beim Basiswechsel zurückführen lässt. Anschließend werden wir dies verallgemeinern und zeigen, dass in krummlinigen Koordinatensystemen ein ganz ähnliches Verhalten gilt. Schwierigkeiten mach dort nur das Ableiten, so dass wir dazu eine spezielle kovariante Ableitung einführen müssen. Mit ihr werden wir in der Lage sein, viele der Ergebnisse, zu denen wir früher erst nach mühsamen Rechnungen gekommen sind, durch sehr einfaches Einsetzen von nur ein paar wenigen zu bestimmenden Größen zu reproduzieren. Dazu gehören zum Beispiel die Ausdrücke für Geschwindigkeit und Beschleunigung in Kugelkoordinaten, oder auch die für den Laplace-Operator oder die Divergenz oder Rotation eines Vektorfeldes in verschiedenen krummlinigen Koordinatensystemen. Vektoren und duale Vektoren Wir erinnern uns, dass ein affiner Raum E eine Menge von Punkten ist, der ein Vektorraum V zugeordnet ist, so dass zu je zwei Punkten ein Abstandsvektor existiert. Um die Notation etwas besser an die aus dem letzten Kapitel anzupassen, bezeichnen wir die Punkte jetzt auch mit fett gedruckten Buchstaben a, b, . . . ∈ E. Außerdem schreiben wir für den Abstandsvektor, der von a ∈ E nach b ∈ E zeigt, einfach b − a ∈ V. Obwohl es sich dabei nicht wirklich um das Bilden einer Differenz handelt, ist die Notation sehr naheliegend. Entsprechend können wir den Punkt, der aus a ∈ E durch Verschiebung um einen Vektor v ∈ V entsteht, mit a + v ∈ E bezeichnen. Es gilt dann zum Beispiel a + (b − a) = b, und es gelten auch sonst die üblichen Rechenregeln wie bei der gewöhnlichen Addition und Subtraktion von Vektoren. Wir müssen nur darauf achten, dass wir nicht zwei Punkte addieren können, und dass wir Punkte nicht mit Zahlen multiplizieren können. Für a, b ∈ E und s ∈ R ergeben die Ausdrücke a + b oder s a keinen Sinn. Wir ersetzen außerdem das Symbol V für den zugeordneten Vektorraum durch die Bezeichnung TE, was soviel bedeutet wie Tangentenraum von E. Die Bezeichnung rührt daher, dass der zugeordnete Vektorraum TE als die Menge aller Tangentenvektoren von Kurven in E betrachtet werden kann. Eine Kurve ist eine differenzierbare Abbildung λ : R → E, deren Ableitung ein Vektor ist, nämlich der Tangentenvektor λ0 (s) = λ(s + ) − λ(s) dλ = lim . →0 ds 21 (10.1) Im Zähler steht ein Abstandsvektor von zwei Punkten, so dass der Grenzwert im Vektorraum TE gebildet wird. Der Tangentenvektor einer Kurve ist also auf ganz natürliche Weise ein Vektor, ohne das wir dafür zuerst ein Koordinatensystem einführen müssen, um die Ableitungen auf die Koordinatendarstellung der Kurve anzuwenden. Es gibt nun eine ebenso natürliche Definition des zu TE dualen Vektorraumes T ∗ E. Dazu betrachten wir ein skalares Feld, also eine Abbildung φ : E → R. Wir definieren die Richtungsableitung von φ an der Stelle r ∈ E in Richtung des Vektors v ∈ TE wie folgt. Wie werten das Feld φ entlang der Kurve s 7→ r + s v aus, und bilden von dieser Funktion die Ableitung an der Stelle s = 0. Das Ergebnis bezeichnen wir mit φ(r + v) − φ(r) dφ(r + s v) . (10.2) v · ∇φ(r) = = lim →0 ds s=0 Aufgabe 10.1 Man zeige, dass die rechte Seite von (10.2) für festes r ∈ E eine lineare Funktion von v ∈ TE ist, wenn die Funktion φ hinreichend glatt ist, so dass Grenzwerte beliebig vertauscht werden können. Demnach wird, wenn wir den Punkt r ∈ E festhalten, durch ∇φ(r) : TE → R, v 7→ v · ∇φ(r) (10.3) eine lineare Abbildung definiert. Diese lineare Abbildung heißt Gradient von φ an der Stelle r. Für jedes r ist folglich ∇φ(r) ∈ T∗ E, das heißt der Gradient ist ein dualer Vektor, oder genauer ein duales Vektorfeld auf E. In einem affinen Raum sind Vektoren die Tangentenvektoren von Kurven, und duale Vektoren die Gradienten von skalaren Feldern. Tatsächlich besteht zwischen den beiden Objekten eine Art Symmetrie, denn ein Tangentenvektor ist die Ableitungen einer Kurve, also einer Abbildung R → E in den affinen Raum hinein, während der Gradient die Ableitung eines skalaren Feldes ist, also einer Abbildung E → R aus dem affinen Raum hinaus. Beide Objekte lassen sich in natürlicher Weise miteinander kombinieren, nämlich indem wir die Ableitung eines Feldes φ : E → R entlang einer Kurve λ : R → E berechnen. Das ist die Ableitung einer gewöhnlichen Funktion R → R, nämlich dφ(λ(s)) = λ0 (s) · ∇φ(λ(s)). ds (10.4) Sie wird gebildet, indem man der Tangentenvektor der Kurve mit dem Gradienten des Feldes multipliziert, und zwar im Sinne der natürlichen Produktes eines Vektors mit einem dualen Vektor. Wie hier schreiben wir den Vektor auch gelegentlich als erstes Argument, und den dualen Vektor als zweites Argument. Da die Beziehung zwischen einem Vektorraum und seinem Dualraum symmetrisch ist, spielt das keine Rolle. Aufgabe 10.2 Man mache sich auch hier noch einmal klar, dass der Punkt in (10.4) kein Skalarprodukt ist, der affine Raum E also kein metrischer Raum sein muss, um eine solche Ableitung eines skalaren Feldes entlang einer Kurve zu bilden. Affine Koordinaten Um Kurven und Felder explizit zu beschreiben, müssen wir ein Koordinatensystem verwenden. Ein affines Koordinatensystem wird durch die Wahl eines Ursprungs o ∈ E und einer Basis e i von TE festgelegt. Jeder Punkt r ∈ E lässt sich dann eindeutig durch einen Satz von Koordinaten r i identifizieren, r = o + r i ei , r i = (r − o) · ei . 22 (10.5) Man beachte, dass die Koordinaten r i jetzt einen oberen Index tragen, da es sich um die Komponenten eines Vektors r − o ∈ TE handelt. Eine sehr geschickte Art, den Zusammenhang zwischen dem Koordinatensystem auf E und der zugehörigen Basis ei von TE auszudrücken, ergibt sich aus der folgenden Beobachtung. Wir betrachten den Punkt r ∈ E als eine Funktion der reellen Zahlen {r i }. Das Koordinatensystem ist eine Abbildung RN → E : {r i } r({r i }) = o + r i ei , 7→ (10.6) mit N = dim E. Wenn wir die partiellen Ableitungen dieser Funktion r nach den Koordinaten r i bilden, finden wir ∂r = ei . (10.7) ∂r i Die Basisvektoren ei von TE, die zu einem affinen Koordinatensystem gehören, sind die partiellen Ableitungen des Punktes r nach den Koordinaten r i . Dafür gibt es auch eine sehr anschauliche geometrische Erklärung. Die Basisvektoren e i sind die Tangentenvektoren der Koordinatenlinien. Eine Koordinatenlinie ist eine Kurve, die dadurch definiert ist, dass alle bis auf eine Koordinate konstant sind, und die verbleibende Koordinate als Kurvenparameter aufgefasst wird. In einem affinen Koordinatensystem sind die Koordinatenlinien die Geraden, die parallel zu den Achsen liegen. Der Tangentenvektor einer solchen Koordinatenlinie ist die Ableitung nach dem Kurvenparameter, also genau die partielle Ableitung ∂r/∂r i , bei der eine Koordinaten variiert wird und alle anderen festgehalten werden. Mit diesem Trick können wir den Tangentenvektor einer Kurve sehr leicht berechnen. Die Kurve λ(s) wird durch ihre Koordinatendarstellung λi (s) beschrieben, also durch eine Verkettung einer Funktion R → RN : s → {λi (s)} mit der Koordinatenabbildung {r i } 7→ r. Folglich gilt für die Ableitung die Kettenregel ∂r dλi dλ = i = ei λ0i (s). (10.8) λ0 (s) = ds ∂r = (s) ds Die Komponenten des Tangentenvektors sind durch die Ableitungen der Koordinatenfunktionen gegeben. Das ist natürlich nichts neues, denn so hatten ursprünglich den Tangentenvektor einer Kurve definiert. Mit Hilfe der Darstellung (10.7) lässt sich das offenbar sehr geschickt reproduzieren. Entsprechend wird ein skalares Feld durch eine Funktion φ({r i }) der Koordinaten dargestellt. Betrachten wir wieder die Richtungsableitung des Feldes an der Stelle r ∈ E in Richtung eines Vektors v ∈ TE, so finden wir mit der Kettenregel ∂φ({r i }) dφ({r i + s v i }) dφ(r + s v) = = vi = v i ∂i φ(r). (10.9) v · ∇φ(r) = s=0 s=0 ds ds ∂r i Daraus folgt, dass die partiellen Ableitungen ∂φ/∂r i an der Stelle r die Komponenten des Gradienten ∇φ(r) bezüglich der dualen Basis ei sind. Wir benutzen dafür die abkürzende Schreibweise ∂i = ∂/∂r i , also ∇φ(r) = ∂i φ(r) ei . (10.10) Der Index bei ∂i steht unten, weil es sich um die Komponenten eines dualen Vektors handelt. Für die Ableitung eines Feldes entlang einer Kurve gilt schließlich in der Koordinatendarstellung dφ(λ(s)) = λ0 (s) · ∇φ(λ(s)) = λ0i (s) ∂i φ(λ(s)). ds (10.11) Das können wir wieder als Tensoroperation verstehen. Wir haben einen Tensor der Stufe (1, 0) mit einem Tensor der Stufe (0, 1) multipliziert und anschließend die kontrahiert. Das Ergebnis ist ein Tensor der Stufe (0, 0), also ein Skalar. 23 Aufgabe 10.3 Es sei E ein zweidimensionaler affiner Raum, auf dem die affinen Koordinaten (x, y) definiert sind. Wir betrachten eine Kurve λ und ein skalares Feld φ, gegeben durch x(s) = cosh(s), y(s) = sinh(s), φ(x, y) = x2 − y 2 . (10.12) Man stelle den Tangentenvektor der Kurve in der Basis (ex , ey ), und den Gradienten des Feldes in der dualen Basis (ex , ey ) dar. Man bestimme daraus die Ableitung des Feldes entlang der Kurve und überprüfe das Ergebnis durch direktes Nachrechnen, also durch Ableiten der Funktion φ(s) = φ(x(s), y(s)) nach s. Aufgabe 10.4 Man zeige, dass sich auch die dualen Basisvektoren als Ableitungen ausfassen lassen. Dazu betrachtet man die Koordinaten r i als reelle Funktionen auf E. Dann ist ∇r i = ei , das heißt die dualen Basisvektoren sind die Gradienten der Koordinaten. Koordinatentransformationen Wir wollen nun zeigen, dass sich die gerade eingeführten Objekte tatsächlich wie Tensoren verhalten. Dazu müssen wir untersuchen, was bei einer Koordinatentransformation passiert, die ja gleichzeitig einen Basiswechsel impliziert. Es sei ein “altes” Koordinatensystem gegeben, in dem wir die Koordinaten eines Punktes r mit r i bezeichnen. Die “neuen” Koordinaten r a desselben Punktes definieren wir dadurch, dass wir entweder die alten Koordinaten als Funktion der neuen schreiben, oder umgekehrt die neuen als Funktion der alten. Beim Übergang von einem affinen Koordinatensystem zu einem anderen handelt es sich dabei um eine affine Abbildung, also (10.13) r i = Λia r a + ξ i ⇔ r a = Λai r i + ξ a . Eine affine Koordinatentransformation besteht aus einer linearen Abbildung mit Verschiebung. Damit die beiden Gleichungen (10.13) äquivalent sind, muss gelten Λai Λib = δ ab , Λai ξ i + ξ a = 0. (10.14) Die Übergangsmatrizen sind wieder zueinander invers, und die Verschiebungen müssen sich gegeneinander aufheben, wenn wir die eine zuerst mit der Übergangsmatrix transformieren. Aufgabe 10.5 Man zeige, dass ξ i die alten Koordinaten des neuen Ursprungs sind, und ξ a die neuen Koordinaten des alten Ursprungs. Die additiven Terme in (10.13) sind also die Darstellungen von Vektoren, die angeben, wohin der Ursprung des Koordinatensystems verschoben wird. Betrachten wir nur die Beziehungen (10.13) zwischen den Koordinaten, so stellen wir fest, dass sich die Übergangsmatrizen Λia und Λai wieder sehr geschickt als partielle Ableitungen schreiben lassen, nämlich als die der neuen Koordinaten nach den alten oder umgekehrt, Λia ∂r i = a, ∂r Λai ∂r a = i. ∂r (10.15) Dass die beiden Matrizen zueinander invers sind, ergibt sich dann ganz einfach aus der Kettenregel, Λai Λib = ∂r a ∂r a ∂r i = = δ ab . ∂r i ∂r b ∂r b (10.16) Außerdem können wir daraus sehr leicht die Transformation der zugehörigen Basis ableiten. Es gilt in beiden Koordinatensystemen, dass die zugehörige Basis von TE durch die partiellen Ableitungen des Punktes nach den Koordinaten gegeben sind, ∂r ei = i , ∂r ∂r ∂r i ∂r ea = a = i a = ei Λia . ∂r ∂r ∂r 24 (10.17) px pu p p pv py ev ey v y r r eu ex u x (b) (a) Abbildung 10.1: Bei einer affinen Koordinatentransformation gelten für die Koordinaten eines Punktes r ∈ E die Transformationen (10.13), die sich aus einer Verschiebung und einer Basistransformation zusammensetzen. Für die Komponenten eines Vektors p ∈ TE ist jedoch nur die Basistransformation relevant. Wir finden also das Transformationsverhalten der Basisvektoren allein durch Anwenden der Kettenregel. Das einzige, was wir uns dazu einprägen müssen, ist die Darstellung (10.7) der Basis als Ableitung des Punktes nach den Koordinaten. Wir können das an einem Beispiel veranschaulichen. In einem zweidimensionalen affinen Raum sei ein Koordinatensystem (x, y) gegeben, mit den zugehörigen Basisvektoren (e x , ey ). Ein zweites Koordinatensystem (u, v) werde durch x = u cos α − v sin α + 1, y = u sin α + v cos α − 1 (10.18) definiert. Das entspricht anschaulich einer Drehung der Koordinatenachsen um einen Winkel α und einer Verschiebung des Ursprungs um einen Vektor ex − ey . Die Beziehung (10.18) lässt sich leicht invertieren. Es ist u = (x − 1) cos α + (y + 1) sin α, v = (1 − x) sin α + (1 + y) cos α. (10.19) Um die neuen Basisvektoren (eu , ev ) durch die alten auszudrücken, benutzen wir die Formel (10.17) und finden ∂x ∂y eu = ex + ey = cos α ex + sin α ey , ∂u ∂u ∂y ∂x ex + ey = − sin α ex + cos α ey . (10.20) ev = ∂v ∂v Wir müssen also gar nicht erst die Übergangsmatrizen berechnen, sondern können direkt die partiellen Ableitungen der alten Koordinaten nach den neuen benutzen, um die Basisvektoren ineinander umzurechnen. Wir finden natürlich wieder eine Drehung um den Winkel α. Die Verschiebung des Ursprungs macht sich dabei nicht bemerkbar. 25 Um die Komponenten eines Vektors oder eines dualen Vektors umzurechnen, können wir genauso vorgehen. Für die Übergangsmatrizen setzen wir die partiellen Ableitungen der Koordinaten ein. Für einen Vektor p = pi ei = pa ea und einen dualen Vektor q = qi ei = qa ea gilt pa = Λai pi = ∂r a i p. ∂r i qa = qi Λia = qi ∂r i . ∂r a (10.21) Vektoren spüren von der Verschiebung des Ursprungs nichts, sondern sieht quasi nur die Drehung der Basis. Als einfache Regel gilt auch hier, dass wir nur die “passende” partielle Ableitung bilden müssen, so dass die Summenkonvention zur Anwendung kommt. Im Zähler steht die Koordinate mit einem oberen Index, im Nenner fungiert der Koordinatenindex dagegen als unterer Index, wie wir dies schon bei der Definition des Gradienten gesehen haben. Es ergibt sich dann ganz von selbst, dass der Gradient eines skalaren Feldes wie ein dualen Vektor, und der Tangentenvektor einer Kurve wie ein Vektor transformiert. Es handelt sich in beiden Fällen um eine einfache Anwendung der Kettenregel, nämlich ∂a φ = ∂φ ∂r i ∂φ i = a = ∂i φ Λ a i ∂r a ∂r ∂r bzw. λ0a = ∂λa ∂r a ∂λi = i = Λai λ0i . ∂s ∂s ∂r (10.22) Aufgabe 10.6 In dem affinen Raum aus Aufgabe 10.3 sei ein zweites Koordinatensystem (u, v) durch u = 1 + x + y, v =1+x−y (10.23) definiert. Welche Beziehung besteht dann zwischen den alten Basisvektoren (e x , ey ) und den neuen Basisvektoren (eu , ev )? Wie lautet die Darstellung der Kurve durch u(s) und v(s) in dem neuen Koordinatensystem, und wie die des Feldes φ(u, v)? Welche Darstellung hat der Tangentenvektor der Kurve in der Basis (eu , ev ), und welche der Gradient des Feldes in der dualen Basis (eu , ev )? Tensorfelder Wir können nun den Begriff des Feldes auf einem affinen Raum erweitern, indem wir nicht nur skalare Felder und deren Gradienten betrachten, sondern ganz allgemein Tensorfelder. Ein Tensorfeld auf einem affinen Raum ist eine Abbildung, die jedem Punkt einen Tensor zurordnet. Ein Tensorfeld der Stufe (m, n) definiert also eine Abbildung E → T(m,n) E, wobei T(m,n) E den Raum aller Tensoren der Stufe (m, n) auf dem Vektorraum TE bezeichnet. Ein Vektorfeld F ist in diesem Sinne ein Tensorfeld der Stufe (1, 0), das jedem Punkt r ∈ E einen Vektor F (r) ∈ TE zuordnet. Typische Beispiel für solchen Vektorfelder kennen wir bereits aus der elementaren Mechanik. Kraftfelder wie zum Beispiel das elektrische Feld oder das Gravitationsfeld sind Vektorfelder auf dem physikalischen Ortsraum. Eigentlich sind wir mit diesem Konzept also schon vertraut. Ein Tensorfeld ist nur die naheliegende Verallgemeinerung eines Vektorfeldes. Es umfasst skalare Felder als Tensorfelder der Stufe (0, 0), die Vektorfelder selbst als Tensorfelder der Stufe (1, 0), sowie duale Vektorfelder der Stufe (0, 1), die typischerweise als die Gradienten von skalaren Feldern auftreten. Mit Hilfe des Tensorbaukastens können wir aus diesen Grundobjekten Tensorfelder beliebiger Stufe bilden, indem wir sie addieren, multiplizieren und kontrahieren. Um ein Tensorfeld F explizit darzustellen, müssen wir wieder ein Koordinatensystem verwenden. Ihm kommen in diesem Fall zwei Bedeutungen zu. Zum einen treten die Koordinaten wie bei einem skalaren Feld als Argumente auf. Das Feld wird durch eine Funktion F (r) = F ({r i }) der Koordinaten dargestellt. Zusätzlich müssen wir den Tensor selbst aber auch noch in seine Komponenten bezüglich einer 26 Basis zerlegen. Dazu verwenden wir immer die Basis ei bzw. die duale Basis ei , die zu dem gewählten Koordinatensystem gehört. Ein Tensorfeld der Stufe (m, n) wird also explizit durch einen Satz von (dim E) m+n Funktionen dargestellt, die jeweils von dim E reellen Variablen abhängen, k F (r) = F i ··· jk ··· l ({r i }) ei ⊗ · · · ⊗ ej ⊗ e ⊗ ·{z · · ⊗ e}l . | {z } | (10.24) n m Für ein Vektorfeld oder ein duales Vektorfeld ergeben sich auf diese Weise dim E Funktionen von dim E Variablen, im Falle des dreidimensionalen Ortsraumes also drei Funktionen von drei Variablen. Auch das sollte uns schon vertraut sein. Ein Kraftfeld wird durch drei Funktionen von drei Variablen explizit dargestellt. Beim Übergang von einem Koordinatensystem zu einem anderen ist nun zu beachten, dass sich sowohl die Koordinaten, die als Argumente auftreten, als auch die Basisvektoren transformieren. Am besten machen wir uns das zuerst an einem nicht ganz trivialen Beispiel klar, das auch als kleine Rechenübung dient. In einem zweidimensionalen Raum sei ein Vektorfeld F gegeben, das wie folgt im Koordinatensystem (x, y) dargestellt wird, F = (x + y) ex + (x − y − 2) ey , oder F x = x + y, F y = x − y − 2. (10.25) In Abbildung 10.2(a) ist dieses Vektorfeld grafisch dargestellt, indem an den Gitterpunkten des Koordinatensystems jeweils der Wert des Feldes als Pfeil dargestellt ist. Wir wollen dieses Vektorfeld in das durch (10.18) definierte Koordinatensystem (u, v) umrechnen. Dazu gehen wir in zwei Schritten vor. Zuerst schreiben wir die Komponenten F x und F y als Funktionen von u und v. Das ergibt F x = (u − v) sin α + (u + v) cos α, F y = (u − v) cos α − (u + v) sin α. (10.26) Diese rechnen wir jetzt in die Komponenten F u und F v um, indem wir die allgemeine Formel (10.21) für die Umrechnung der Vektorkomponenten verwenden, Fu = ∂u x ∂u y F (u, v) + F (u, v) ∂x ∂y = cos α ((u − v) sin α + (u + v) cos α) + sin α ((u − v) cos α − (u + v) sin α) = cos(2 α) (u + v) + sin(2 α) (u − v), Fv = ∂v x ∂v y F (u, v) + F (u, v) ∂x ∂y = − sin α ((u − v) sin α + (u + v) cos α) + cos α ((u − v) cos α − (u + v) sin α) = cos(2 α) (u − v) − sin(2 α) (u + v). (10.27) Aufgabe 10.7 Man beweise die folgenden trigonometrischen Formeln, die bei dieser Rechnung verwendet wurden, 2 sin α cos α = sin(2 α), cos2 α − sin2 α = cos(2 α). (10.28) √ Setzen wir speziell α = π/8, so ist sin(2 α) = cos(2 α) = 1/ 2. Die Komponenten nehmen dann eine besonders einfache Form an, und das Vektorfeld hat in dem neuen Koordinatensystem die Darstellung √ √ √ √ (10.29) F = 2 u eu − 2 v ev , oder F u = 2 u, F v = − 2 v. 27 y v replacements u x (c) (d) (b) (a) Abbildung 10.2: Dasselbe Vektorfeld, dargestellt in zwei verschiedenen Koordinatensystemen. Dieses Koordinatensystem ist in Abbildung 10.2(b) dargestellt. Tatsächlich sieht das Vektorfeld dort etwas einfacher aus als in der Abbildung (a). Durch die spezielle Wahl des Winkels α lässt sich das Koordinatensystem also besser an das Vektorfeld anpassen. Nach dem gleichen Prinzip lässt sich die Umrechnung eines beliebigen Tensorfeldes von einem Koordinatensystem in ein anderes in zwei Schritte zerlegen. Man rechnet zuerst die Koordinaten um, von denen der Tensor abhängt, und transformiert anschließend die Komponenten in die neue Basis. Dabei müssen wir jeden einzelnen Index transformieren, und dazu die Formeln (10.21) entsprechend verallgemeinern. Das allgemeine Transformationsgesetz für ein Tensorfeld F der Stufe (m, n) lautet F a ··· bc ··· d (r) = ∂r a ∂r b i ··· j ∂r k ∂r l · · · F (r) , · · · k ··· l ∂r c ∂r i ∂r j ∂r d (10.30) wobei der Punkt r, an dem das Feld ausgewertet wird, links als Funktion der Koordinaten r a , rechts dagegen als Funktion der Koordinaten r i darzustellen ist. Aufgabe 10.8 Als Beispiel betrachten wir das Vektorfeld F x (x, y, z) = −z y F y (x, y, z) = z x, F z (x, y, z) = x2 + y 2 (10.31) auf dem dreidimensionalen affinen Raum mit Koordinaten (x, y, z). Ein neues Koordinatensystem werde durch x+y y−x u= √ , v= √ , w =z+d (10.32) 2 2 definiert, wobei d irgendeine Konstante ist. Man bestimme die Komponenten F u (u, v, w), F v (u, v, w) und F w (u, v, w) des Vektorfeldes in den neuen Koordinaten. Genau wie Tensoren lassen sich natürlich auch Tensorfelder addieren, multiplizieren und kontrahieren. Wir tun dies einfach punktweise. Die Summe von zwei Tensorfeldern gleicher Stufe F und G ist durch 28 (F + G)(r) = F (r) + G(r) definiert, und das Tensorprodukt durch (F ⊗ G)(r) = F (r) ⊗ G(r), jeweils für alle Punkte r ∈ E. Allerdings gibt es für Tensorfelder noch eine zusätzliche Grundoperation, die es für Tensoren als solche nicht gibt. Das ist die Ableitung. Wenn wir nämlich ein beliebiges Tensorfeld wie in (10.24) durch seine Komponenten darstellen, so können wir die partiellen Ableitungen dieser Funktionen nach den Koordinaten bilden. Als Beispiel betrachten wir ein Vektorfeld F = F k ek . Die partiellen Ableitungen der Funktionen F k nach den Koordinaten r i bezeichnen wir wieder mit ∂i F k = ∂F k . ∂r i (10.33) Da es dim E Funktionen F k gibt und dim E Koordinaten r i , können wir auf diese Weise insgesamt (dim E)2 partielle Ableitung bilden. Es sollte nicht überraschen, dass diese Größen wieder die Komponenten eines Tensorfeldes sind. Der Beweis erfolgt völlig analog zu (10.22). Dort hatten wir gezeigt, dass die partiellen Ableitungen eines skalaren Feldes wie die Komponenten eines dualen Vektors transformieren. Um zu zeigen, dass die partiellen Ableitungen (10.33) wie die eines Tensors der Stufe (1, 1) transformieren, müssen wir nur zusätzlich für den Index k noch eine weitere Übergangsmatrix anbringen. Wir benutzen die Beziehung Fc = ∂r c k F , ∂r k (10.34) wobei die rechte Seite als Funktion der Koordinaten r i dargestellt ist, die linke Seite dagegen als Funktion der Koordinaten r a . Dann leiten wir beide Seiten nach r a ab, wobei wir auf der rechten Seite, da sie ja eine Funktion der Koordinaten r i ist, dazu die Kettenregel verwenden. Das ergibt ∂F c ∂ ∂r c k ∂r i ∂ ∂r c k F = a i F . = ∂r a ∂r a ∂r k ∂r ∂r ∂r k (10.35) Nun ist aber die Übergangsmatrix ∂r c /∂r k konstant, das heißt die Ableitung wirkt nur auf F k . Daraus folgt ∂r i ∂r c ∂F k ∂F c ⇒ ∂a F c = Λck ∂i F k Λia . (10.36) = ∂r a ∂r a ∂r k ∂r i Das ist das Transformationsverhalten für einen Tensor der Stufe (1, 1). Wir können also von jedem Vektorfeld F die Ableitung bilden, und erhalten ein Tensorfeld der Stufe (1, 1), das wir mit ∇F bezeichnen. Allgemein lässt sich zu jedem Tensorfeld F der Stufe (m, n) die Ableitung ∇F bilden, die dann ein Tensorfeld der Stufe (m, n + 1) ist, da es einen zusätzlichen unteren Index trägt. Die Komponenten des Feldes ∇F sind die partiellen Ableitungen der Komponenten von F nach den Koordinaten, ∂i F k ···l ··· ∂F k ···l ··· . = ∂r i (10.37) Außerdem können die diese Operation natürlich mehrmals ausführen, also höhere Ableitungen ∇∇F , ∇∇∇F etc. bilden. Für Tensorfelder sind die Möglichkeiten, die sich zu deren Verknüpfung ergeben, um eine Operation erweitert. Die Grundoperationen für Tensorfelder sind Addition, Tensormultiplikation, Kontraktion und Ableitung Aufgabe 10.9 Man führe den Beweis für einen Tensor beliebiger Stufe, zeige also, dass sich die Komponenten (10.37) tatsächlich wie ein Tensor der Stufe (m, n + 1) verhalten, wenn F ein Tensor der Stufe (m, n) ist. 29 Krummlinige Koordinaten Nun kommen wir zu einer weiteren Stärke des Tensorkalküls. Wie wir bereits an einigen praktischen Beispielen gesehen haben, lassen sich bestimmte physikalische Probleme erst dann lösen, wenn wir das Koordinatensystem an das spezielle Problem anpassen. Dabei genügte es nicht immer, nur affine Koordinatensystems zu betrachten. Wir mussten auch krummlinige Koordinaten einführen, etwa Kugelkoordinaten, um das allgemeine Zentralkraftproblem zu lösen. Tatsächlich lässt sich alles, was wie bisher über Tensoren und Tensorfelder gesagt haben, auch mit Hilfe von krummlinigen Koordinatensystemen formulieren. Zunächst definieren wir, was wir unter einem krummlinigen Koordinatensystem verstehen. Ist E ein N -dimensionaler affiner Raum, so ist ein krummliniges Koordinatensystem eine Abbildung RN → E, {r i } 7→ r {r i } , (10.38) die einem Satz von N reellen Zahlen r i einen Punkt r ∈ E zuordnet. Das ist völlig analog zu (10.6), mit den einzigen Unterschied, dass wir nun von der Koordinatenabbildung nicht mehr verlangen, dass die affin ist. Wir verlangen nur noch, dass sie hinreichend oft differenzierbar ist. Außerdem muss sie, damit es sich wirklich um ein Koordinatensystem handelt, zumindest lokal umkehrbar sein. Lokal umkehrbar heißt, dass wir zumindest in der Umgebung eines Punktes allen anderen Punkten eindeutig ihre Koordinaten zuordnen können. In der Regel ist ein krummliniges Koordinatensystem nicht global invertierbar. Verwenden wir zum Beispiel Polarkoordinaten in der Ebene, so ist die Winkelkoordinate nur bis auf eine Vielfaches von 2π bestimmt. Dasselbe gilt für Kugelkoordinaten im dreidimensionalen Raum. Aber zumindest in der Umgebung eines Punktes lassen sich eindeutig die Koordinaten aller anderen Punkte angeben. Im allgemeinen ist es auch so, dass von einem krummlinigen Koordinatensystem nur eine Teilmenge von E erfasst wird. Bei einem Polarkoordinatensystem zum Beispiel nicht der Ursprung, und bei räumlichen Kugel- oder Zylinderkoordinaten nicht die z-Achse. Wir sagen dann, dass das Koordinatensystem nur eine Teilmenge des Raumes abdeckt, und können es natürlich nur dort verwenden. Das spielt aber im folgenden keine Rolle, denn wir machen nur Aussagen über lokale Eigenschaften von Koordinaten und Feldern. Notfalls müssen wir, um den Raum vollständig abzudecken, mehrere Koordinatensysteme verwenden. Der Begriff der lokalen Invertierbarkeit lässt sich auch wie folgt fassen. Wir betrachten einen Punkt r ∈ E, sowie eine kleine Umgebung dieses Punktes. Dort können wir die Koordinatenlinien als N parametrisierte Kurven auffassen, die sich im Punkt r schneiden. Eine Koordinatenlinie ist auch hier wieder eine Kurve, die sich ergibt, wenn wir alle bis auf eine Koordinate festhalten und die verbleibende als Kurvenparameter verwenden. Nur ist es jetzt eben keine Gerade mehr, sondern eine beliebige Kurve. Wir können von diesen Kurven im Punkt r die Tangentenvektoren bilden. Sie zeigen an, in welche Richtung die einzelnen Koordinatenlinien verlaufen. Die Tangentenvektoren bekommen wir, genau wie vorher, indem wir von der Funktion (10.38) die partiellen Ableitungen nach den Koordinaten r i bilden. Es sind also ∂r (10.39) ei (r) = i ∂r die Tangentenvektoren der Koordinatenlinien im Punkt r. Die Schreibweise ist ein wenig verkürzt, aber es sollte klar sein, wie die Ableitung zu verstehen ist. Zunächst ist der Punkt r eine Funktion der Koordinaten {r i }. Diese Funktion leiten wir partiell ab, und erhalten so einen Satz von N Vektoren, die als Funktionen der Koordinaten {r i } gegeben sind. Setzen wir die Koordinaten des vorgegebenen Punktes r ein, so erhalten wir die Vektoren ei (r). Lokal invertierbar bedeutet nun, dass diese N Vektoren in jedem Punkt linear unabhängig sind, also eine Basis es Tangentenraumes TE bilden. Anschaulich heißt das, dass wir von jedem Punkt r aus in jede Richtung gehen können, ohne das Koordinatensystem zu verlassen. Die auf diese Weise durch das Koordinatensystem in jedem Punkt r definierte Basis ei (r) heißt lokale Koordinatenbasis. Sie bildet die Analogie zu der festen Basis ei , die zur Definition eines affinen Koordinatensystem gehört. 30 Ein krummliniges Koordinatensystem definiert an jedem Punkt eine lokale Koordinatenbasis. Das können wir uns am besten wieder an einem einfachen Beispiel klar machen. Wir betrachten einen zweidimensionalen affinen Raum, auf dem wir zunächst ein affines Koordinatensystem (x, y) einführen. Ein Punkt r ∈ E ist dann eindeutig durch r(x, y) = o + x ex + y ey als Funktion von x und y gegeben, und es gilt für die zugehörigen Basisvektoren ∂r = ey . ∂y ∂r = ex , ∂x (10.40) Als krummliniges Koordinatensystem führen wir nun ein Polarkoordinatensystem ein, das wie folgt als Abbildung definiert werden kann, (r, ϕ) 7→ r(r, ϕ) = o + r cos ϕ ex + r sin ϕ ey . (10.41) Wenn wir diese Funktion nach r und ϕ ableiten, so finden wir für die Tangentenvektoren der Koordinatenlinien ∂r er (r, ϕ) = = cos ϕ ex + sin ϕ ey , ∂r ∂r eϕ (r, ϕ) = = −r sin ϕ ex + r cos ϕ ey . (10.42) ∂ϕ In Abbildung 10.3(a) sind die Koordinatenlinien des affinen Koordinatensystems (x, y) gezeigt, in Abbildung 10.3(b) die des Polarkoordinatensystems (r, ϕ). An zwei ausgewählten Punkten r 1 und r2 sind die entsprechenden Tangentenvektoren eingezeichnet. Wie man sieht, ergeben sich bei einem affinen Koordinatensystem in jedem Punkt die gleichen Vektoren (ex , ey ), während in einem krummlinigen Koordinatensystem die Vektoren (er , eϕ ) ortsabhängig sind. Trotzdem bilden die beiden Vektoren (er , eϕ ) in jedem Punkt r, außer am Ursprung, der von den Polarkoordinaten nicht abgedeckt wird, eine Basis des Tangentenraumes TE. Wir können jeden Vektor v als Linearkombination dieser Vektoren schreiben, und die Koeffizienten als die Komponenten v r und v ϕ des Vektors bezeichnen. Wir müssen nur immer dazu sagen, an welcher Stelle r wir diese Entwicklung vorgenommen haben. Zum Beispiel können wir ein Vektorfeld F darstellen, indem wir den Vektor F (r) an der Stelle r in der dort definierten Basis entwickeln, also F (r, ϕ) = F r (r, ϕ) er (r, ϕ) + F ϕ (r, ϕ) eϕ (r, ϕ). (10.43) Das ist die natürliche Art und Weise, ein Vektorfeld in einem krummlinigen Koordinatensystem darzustellen. Das einzig neue ist, dass jetzt nicht nur die Komponenten F i von den Koordinaten abhängen, sondern auch die Basis ei , in der das Feld entwickelt ist. Das hat zur Folge, dass ein konstantes Vektorfeld nicht unbedingt konstante Komponenten haben muss, und umgekehrt bedeuten konstante Komponenten nicht, dass das Vektorfeld konstant ist. Auch das kann man an einem einfachen Beispiel sehen. In Abbildung 10.3 ist jeweils zweimal derselbe Vektor v eingezeichnet, einmal am Punkt r1 und einmal am Punkt r2 . Definieren wir ein konstantes Vektorfeld F = v, so sind die Komponenten F x und F y dieses Vektorfeldes natürlich konstant. Die Komponenten F r und F ϕ in Polarkoordinaten sind jedoch nicht konstant. Wie man in der Abbildung sieht, hat der Vektor v an der Stelle r1 andere Komponenten bezüglich der dort definierten Basis als an der Stelle r2 . Umgekehrt sei ein Vektorfeld gegeben, das in Polarkoordinaten die konstanten Komponenten F r = 1 und F ϕ = 0 hat, also F = er . In affinen Koordinaten gilt dann F = cos ϕ ex + sin ϕ ey oder F = 31 (c) (d) ey v er v eϕ r2 r2 ex ey r1 eϕ v v r1 ex er (b) (a) Abbildung 10.3: In einem affinen Koordinatensystem (a) sind die Tangentenvektoren der Koordinatenlinien die Basisvektoren ei . In einem krummlinigen Koordinatensystem (b) bilden die Tangentenvektoren der Koordinatenlinien in jedem Punkt r eine andere Basis e i (r). x/r ex + y/r ey . Die Komponenten sind also F x = x/r und F y = y/r, wobei r als Funktion von x und y aufzufassen ist. Das ist sicher kein konstantes Vektorfeld. Wir können von der Darstellung eines Vektorfeldes in krummlinigen Koordinaten nicht unmittelbar auf bestimmte Eigenschaften schließen. Insbesondere beim Ableiten von Vektorfeldern, worauf wir gleich noch näher eingehen werden, spielt das eine gewisse Rolle. Solange wir keine Ableitungen bilden, ist das Rechnen mit Tensorfeldern in krummlinigen Koordinatensystemen aber nicht komplizierter als in affinen Koordinatensystemen. Für die Transformation eines Tensorfeldes von einem affinen in ein krummliniges Koordinatensystem gelten formal genau dieselben Regeln wie für die Transformation von einem affinen Koordinatensystem zu einem anderen. Der entscheidende Trick ist derselbe wir vorher. Die Übergangsmatrizen lassen sich als partielle Ableitungen der neuen Koordinaten nach den alten oder umgekehrt schreiben. Der einzige Unterschied ist, dass diese jetzt ortsabhängig sind. Nehmen wir zum Beispiel die Definition (10.39) der Basisvektoren e i (r) in einem krummlinigen Koordinatensystem, und stellen wir die krummlinigen Koordinaten r i als Funktion von affinen Koordinaten r a dar, so finden wir ∂r ∂r ∂r a a ei (r) = i = a (10.44) i = ea Λ i (r). ∂r ∂r ∂r Die krummlinigen Basisvektoren ei (r) an der Stelle r ergeben sich aus den affinen Basisvektoren ei durch eine Übergangsmatrix Λai (r), die jetzt vom Ort r abhängt, an dem wir uns befinden. Sie ist aber immer noch durch dieselbe partielle Ableitung gegeben, nur dass diese jetzt nicht mehr konstant ist. Wir müssen also gar nicht den Umweg über die Koordinatenabbildung (10.38) machen, sondern können die Transformation der Basis direkt aus dem Zusammenhang zwischen den beiden Koordinatensystem ablesen. Im obigen Beispiel ist x = r cos ϕ, y = r sin ϕ, (10.45) 32 und daher ∂x ex + ∂r ∂x eϕ = ex + ∂ϕ Das ist natürlich dasselbe wie (10.42). er = ∂y ey = cos ϕ ex + sin ϕ ey , ∂r ∂y ey = −r sin ϕ ex + r cos ϕ ey . ∂ϕ (10.46) Aufgabe 10.10 Man zeige, dass die Beziehung (10.44) sogar dann noch gilt, wenn beide beteiligten Koordinatensystem krummlinig sind, wobei dann natürlich beide Basen ortsabhängig sind. Insbesondere können wir das Transformationsgesetz (10.30) für beliebige Vektorfelder unmittelbar übernehmen, das heißt für den Übergang von einem beliebigen Koordinatensystem zu einem beliebigen anderen gilt für einen Tensor der Stufe (m, n) F a ··· bc ··· d (r) = ∂r a ∂r b i ··· j ∂r k ∂r l · · · F (r) , · · · k ··· l ∂r c ∂r i ∂r j ∂r d (10.47) wobei links m und rechts n Übergangsmatrizen stehen, die jetzt alle vom Ort abhängen. Als Beispiel wollen wir die Metrik in Polarkoordinaten ausdrücken. Wenn (x, y) kartesische Koordinaten sind, dann ist gxx = gyy = 1 und gxy = gyx = 0. Explizites Ausschreiben der Summen in (10.47) liefert dann grr = gxx ∂x ∂y ∂y ∂x ∂y ∂y ∂x ∂x + gxy + gyx + gyy = cos2 ϕ + sin2 ϕ = 1. ∂r ∂r ∂r ∂r ∂r ∂r ∂r ∂r (10.48) Dieselbe Rechnung für die anderen drei Komponenten ergibt grr = 1, grϕ = gϕr = 0, gϕϕ = r 2 . (10.49) Ein Vektor v, der an der Stelle (r, ϕ) durch seine Komponenten v r und v ϕ dargestellt ist, hat also den Betrag |v|2 = (v r )2 + r 2 (v ϕ )2 . Und ein Vektorfeld, das konstante Komponenten F ϕ = q und F r = 0 hat, steigt, wenn man den Betrag des Feldes betrachtet, wie q r mit dem Radius an. Aufgabe 10.11 Wie sieht die inverse Metrik g ij in Polarkoordinaten aus, und welches Verhalten hat der Betrag eines Vektorfeldes mit zunehmendem r, wenn dessen Komponenten mit unteren Indizes F r und Fϕ konstant sind? Die Koordinatenbasis, die an der Stelle (r, ϕ) durch die Polarkoordinaten definiert ist, ist offenbar keine Orthonormalbasis. Auch das ist in Abbildung 10.3 zu sehen. Die Vektoren e r und eϕ stehen zwar überall senkrecht zueinander. Der Vektor eϕ , der tangential zu den Kreisen um den Ursprung zeigt, wird aber nach außen hin immer länger, während der Vektor er , der radial nach außen zeigt, immer ein Einheitsvektor ist. Alle diese Eigenschaften der Basisvektoren lesen wir auch aus (10.49) ab, denn die Komponenten der Metrik sind, wie wir wissen, die Skalarprodukte der Basisvektoren, g ij = ei · ej . Als zweites Beispiel berechnen wir noch den antisymmetrischen Einheitstensor in Polarkoordinaten. Da wir uns in einem zweidimensionalen Raum befinden, hat er nur zwei Indizes und ist durch ω xy = 1 oder ω xy = 1 eindeutig festgelegt. Die Basis (ex , ey ) soll also positiv orientiert sein. Um ihn zu transformieren, müssen wir nur eine Komponente berechnen, zum Beispiel ωrϕ = ωxx ∂x ∂x ∂x ∂y ∂y ∂x ∂y ∂y + ωxy + ωyx + ωyy = r cos2 ϕ + r sin2 ϕ = r. ∂r ∂ϕ ∂r ∂ϕ ∂r ∂ϕ ∂r ∂ϕ (10.50) Es gilt also ωrr = 0, ωrϕ = r, ωϕr = −r, 33 ωϕϕ = 0. (10.51) Wie man leicht sieht, stimmt auch hier die Beziehung (9.86) zwischen dem antisymmetrischen Einheitstensor ωij , der Determinante g der Metrik, und dem Levi-Civita-Symbol εij , nur dass dieses jetzt auch nur √ zwei Indizes trägt. Aus (10.49) entnimmt man, dass g = det(gij ) = r 2 ist, und somit g = r. Setzen wir √ dann noch εrϕ = 1, so bekommen wir ωij = g εij = r εij , was mit (10.51) übereinstimmt. Da sich dabei ein positives Vorzeichen ergibt, ist das Koordinatensystem (r, ϕ) offenbar ebenfalls positiv orientiert. Auch das sehen wir in der Abbildung 10.3. Die Basen (e r , eϕ ) haben überall die gleiche Orientierung wie (ex , ey ). Aufgabe 10.12 Man bestimme die Komponenten der Metrik und des antisymmetrischen Einheitstensors in Zylinderkoordinaten (r, ϕ, u), definiert durch x = r cos ϕ, y = r sin ϕ, z = u, (10.52) wobei (x, y, z) ein kartesischen Koordinatensystem ist. Die ungew öhnliche Bezeichnung u für die dritte Koordinaten wurde hier nur gewählt, um sie eindeutig einem der beiden Koordinatensysteme zuzuordnen. Man erkläre anhand des allgemeinen Transformationsgesetzes für Tensoren (10.47), warum es erlaubt ist, Koordinaten, die bei der Transformation nicht beteiligt sind, in beiden Koordinatensystemen denselben Namen zu geben. Aufgabe 10.13 Kugelkoordinaten (r, ϑ, ϕ) sind durch die Beziehungen x = r sin ϑ cos ϕ, y = r sin ϑ sin ϕ, z = r cos ϑ (10.53) zu einem kartesischen Koordinatensystem (x, y, z) definiert. Man zeige, dass die Metrik in Kugelkoordinaten die Darstellung grr = 1, gϑϑ = r 2 , gϕϕ = r 2 sin2 ϑ, (10.54) und der antisymmetrische Einheitstensor die Darstellung ωrϑϕ = ωϑϕr = ωϕrϑ = −ωrϕϑ = −ωϑrϕ = −ωϕϑr = r 2 sin ϑ (10.55) hat. Alle nicht angegebenen Komponenten sind Null. Aufgabe 10.14 Wir betrachten ein Vektorfeld auf dem dreidimensionalen Euklidischen Raum, das in kartesischen Koordinaten durch q F = f (r) (y ex − x ey ), mit r = x2 + y 2 , (10.56) dargestellt wird. Wie sieht dieses Vektorfeld aus? Wie verhält sich sein Betrag als Funktion des Abstandes von der z-Achse? Man bestimme die Komponenten des Vektorfeldes in Zylinderkoordinaten, und zwar sowohl die Komponenten (F r , F ϕ , F z ) mit oberen Indizes, also auch die Komponenten (Fr , Fϕ , Fz ) mit unteren Indizes. Was fällt auf, wenn man das Verhalten dieser Komponenten als Funktion von r betrachtet? Warum ist das so? Aufgabe 10.15 Man führe dieselben Überlegungen wie in Aufgabe 10.14 für das Vektorfeld q F = f (r) (x ex + y ey ), mit r = x2 + y 2 , (10.57) durch. Man diskutiere auch hier das Verhalten der Komponenten (F r , F ϕ , F z ) und (Fr , Fϕ , Fz ) als Funktion von r. Warum ergibt sich etwas ganz anderes als in Aufgabe 10.14? 34 Aufgabe 10.16 Man stelle die dualen Basisvektoren er (r, ϕ) und eϕ (r, ϕ) für ebene Polarkoordinaten als Funktion der dualen Basisvektoren ex und ey dar. Aufgabe 10.17 Im dreidimensionalen Euklidischen Raum soll ein Volumenintegral über ein skalares Feld φ einmal in kartesischen Koordinaten (x, y, z) und einmal in krummlinigen Koordinaten (u, v, w) ausgeführt werden. Es sei g die Determinante der Metrik im krummlinigen Koordinatensystem, die im allgemeinen von den Koordinaten, also vom Ort abhängt. Man zeige, dass das Integral durch Z Z p dx dy dz φ(x, y, z) = du dv dw g(u, v, w) φ(u, w, v) (10.58) gegeben ist. Die Wurzel aus der Determinante der Metrik definiert also in einem beliebigen krummlinigen Koordinatensystem das Volumenelement. Man vergleiche dies mit den bekannten Ausdr ücken für das Volumenelement in Kugel- und Zylinderkoordinaten. Aufgabe 10.18 Krummlinige Koordinaten im dreidimensionalen Euklidischen Raum m üssen nicht die physikalische Dimension einer Länge haben. Sie können sogar verschiedene Einheiten tragen. In Kugelkoordinaten gilt zum Beispiel r = Länge, aber ϑ = ϕ = Winkel, das heißt zwei der drei Koordinaten sind dimensionslos. Anderseits bilden die Vektoren (e r , eϑ , eϕ ) keine Orthonormalbasis. Es handelt sich also nicht um Einheitsvektoren, und folglich müssen sie auch nicht dimensionslos sein. Welche physikalische Dimension haben sie? Welche Beziehung besteht allgemein zwischen den physikalischen Dimensionen von krummlinigen Koordinaten r i und denen der zugehörigen Basisvektoren ei ? Welche physikalischen Dimensionen haben die Komponenten gij der Metrik in Kugelkoordinaten, bzw. in einem allgemeinen krummlinigen Koordinatensystem? Die kovariante Ableitung Wir können nun beliebige Tensorfelder auch in krummlinigen Koordinatensystemen darstellen. Grundsätzlich gilt dabei stets, dass man ein Tensorfeld, wenn man es an einem Punkt r auswertet, auch in der lokalen Basis in diesem Punkt in seine Komponenten zerlegt. Folglich können wir Tensorfelder auch in krummlinigen Koordinatensystemen punktweise addieren, multiplizieren und kontrahieren. Bei Ableiten gibt es aber ein Problem. Denn dabei vergleichen wir ja die Werte eines Tensors an zwei verschiedenen Punkten und bilden einen Grenzwert. Wir zeigen zunächst, dass die beiden einfachsten Ableitungen, nämlich das Bilden des Tangentenvektors einer Kurve und des Gradienten eines skalaren Feldes, trotzdem auch in krummlinigen Koordinatensystemen in der gleichen Art und Weise funktionieren. Das ist im Grunde ganz einfach, denn wir man leicht sieht, gelten die Transformationsregeln (10.22) auch dann noch, wenn die beiden Koordinatensysteme krummlinig sind. Es sind einfache Anwendungen der Kettenregel, die natürlich auch dann gelten, wenn die Übergangsfunktionen ∂r i /∂r a bzw. ∂r a /∂r i nicht konstant sind. Das Bilden des Tangentenvektors einer Kurve oder des Gradienten eines skalaren Feldes macht in krummlinigen Koordinatensystemen keine Probleme. Bei einem Vektorfeld ist es schon schwieriger. So haben wir bereits gesehen, dass konstante Komponenten eines Vektorfeldes nicht bedeuten, dass das Feld als solches konstant ist, und umgekehrt hat ein konstantes Vektorfeld in krummlinigen Koordinaten keine konstanten Komponenten. Würden wir einfach die Ableitung der Komponenten nach den Koordinaten bilden, würden daher ein völlig falsches Bild davon bekommen, wie sich das Vektorfeld von Punkt zu Punkt verändert. Um die “richtige” Ableitung eines Vektorfeldes in krummlinigen Koordinaten zu bilden, schauen wir uns die explizite Darstellung eines Vektorfeldes an, nämlich als Linearkombination der lokalen Basisvektoren F (r) = F i (r) ei (r). (10.59) 35 Was passiert nun, wenn wir ein dieses Feld ableiten? Offenbar müssen wir dabei beachten, dass nicht nur die Komponenten F i von r abhängen, sondern auch die Basis ei , in der das Feld dargestellt ist. Bilden wir zum Beispiel die Ableitung nach r k , so finden wir ∂F ∂ i = ∂ k F i ei + F i ∂ k ei . (10.60) F e = i k k ∂r ∂r Nun möchten wir diesen Vektor gerne wieder in der lokalen Basis e j am Ort r darstellen. Dazu müssen wir die Ableitungen der Basisvektoren wieder nach diesen entwickeln. Das heißt, wie müssen den Vektor ∂k ei als Linearkombination der Basisvektoren ej darstellen, ∂k ei = Γ jik ej . (10.61) Die Koeffizienten dieser Entwicklung bilden ein Schema von (dim E) 3 Zahlen, das man Christoffel-Symbol nennt. Es ist gewissermaßen ein Maß dafür, wie krummlinig ein Koordinatensystem ist. Für ein affines Koordinatensystem sind alle Einträge gleich Null, denn dort sind die Basisvektoren konstant. Aufgabe 10.19 Tatsächlich ist das Christoffel-Symbol eines Koordinatensystems genau dann gleich Null, wenn es sich um ein affinen Koordinatensystem handelt. Warum ist das so? Wenn wir (10.61) in (10.60) einsetzen und ein paar Indizes umbenennen, bekommen wir ∂F i i j = ∂ F + Γ F ei . (10.62) k jk ∂r k Wir haben also die Ableitung eines Vektors wieder als Linearkombination der Basisvektoren geschrieben. Die Komponenten dieses Vektors, also den Ausdruck in der Klammer, bezeichnen wir mit ∇k F i = ∂k F i + Γ ijk F j , (10.63) und nennen ihn die kovariante Ableitung von F k nach r i . Wir wollen zeigen, dass es sich dabei um die Komponenten des Tensors ∇F bezüglich des krummlinigen Koordinatensystems handelt. In einem affinen Koordinatensystem ist dieser Tensor durch die Komponenten ∂c F a gegeben, also durch die partiellen Ableitungen der Komponenten F a nach den Koordinaten r a . Wir können dafür auch ∇c F a schreiben, denn in einem affinen Koordinatensystem verschwindet das Christoffel-Symbol. Wir müssen also zeigen, dass ∇c F a und ∇k F j zwei Darstellungen desselben Tensors der Stufe (1, 1) sind. Dazu schreiben wir das Transformationsgesetz auf, wobei wir eine Übergangsmatrix auf die linke und eine auf die rechte Seite schreiben. Zu zeigen ist also ∂r c ∂r c ∂F a ∂r a ∂F i ∂r a i ∂r a i j a ∇ F = Γ F = . (10.64) ∇ F ⇔ + k jk c ∂r i ∂r i ∂r k ∂r i ∂r k ∂r k ∂r c Um die linke Seite umzuformen, setzen wir die Definition (10.39) der Basisvektoren in die Definition (10.61) des Christoffelsymbols ein. Das ergibt a ∂r ∂2r ∂ 2 ra i ∂r = j k ⇒ Γ jk i = j k . (10.65) ∂r i ∂r ∂r ∂r ∂r ∂r Die zweite Gleichung folgt aus der ersten, indem wir den Punkt r im affinen Koordinatensystem durch r = o + r a ea ausdrücken und benutzen, dass die Basisvektoren ea konstant sind. Wenn wir das dann in die linke Seite von (10.64) einsetzen, finden wir ∂ 2 ra ∂ ∂r a j ∂F a ∂r a ∂F i ∂r a i ∂r a ∂F j j j + + F = (10.66) Γ F = F = jk ∂r i ∂r k ∂r i ∂r j ∂r k ∂r j ∂r k ∂r k ∂r j ∂r k Das ist aber nach der Kettenregel gleich der rechten Seite von (10.64). Wir haben also gezeigt, dass der Ausdruck (10.63), wenn wir ihn in ein affines Koordinatensystem transformieren, dort die Ableitung ∇F des Vektorfeldes F repräsentiert. Γ ijk 36 Der Ableitung eines Tensorfeldes wird in krummlinigen Koordinaten durch die kovariante Ableitung seiner Komponenten dargestellt. Welche praktische Bedeutung hat das nun? Wir veranschaulichen uns dies wieder am Beispiel der Polarkoordinaten. Wenn wir die Basisvektoren er und eϕ nach den Koordinaten ableiten und das Ergebnis wieder als Linearkombination dieser Vektoren darstellen, dann finden wir nach einer kurzen Rechnung ∂r er = 0, ∂ ϕ er = 1 eϕ , r ∂ r eϕ = 1 eϕ , r ∂ϕ eϕ = −r er . (10.67) Daraus lesen wir ab, dass nur die folgenden Komponenten des Christoffel-Symbols nicht verschwinden, Γ rϕϕ = −r, 1 Γ ϕrϕ = Γ ϕϕr = . r (10.68) Betrachten wir nun zum Beispiel ein Vektorfeld, das radial nach innen oder außen zeigt, also F = f (r) er , oder F r = f (r), F ϕ = 0. (10.69) Wir wollen die Divergenz dieses Vektorfeldes berechnen. Die naive Rechnung divF = ∂ r F r + ∂ϕ F ϕ = f 0 (r) führt zum falschen Ergebnis. Wenden wir jedoch die Formel (10.63) an und bilden die kovariante Ableitung, dann ergibt sich ∇i F i = ∂i F i + Γ iji F j = ∂r F r + ∂ϕ F ϕ + 1 r 1 F = f 0 (r) + f (r). r r (10.70) Hier haben wir verwendet, dass 1 Γ iri = Γ rrr + Γ ϕrϕ = , r Γ iϕi = Γ rϕr + Γ ϕϕϕ = 0. (10.71) Aufgabe 10.20 Man rechne das Vektorfeld (10.69) in affine Koordinaten (x, y) im und zeige, dass (10.70) tatsächlich das richtige Ergebnis ist, das sich auch aus ∂a F a = ∂x F x + ∂y F y ergibt. Wir benötigen die kovariante Ableitung und damit das Christoffel-Symbol also dazu, um in krummlinigen Koordinaten Ableitungen von Vektorfeldern zu berechnen. Der Vorteil ist dabei, dass wir das ChristoffelSymbol für jedes Koordinatensystem nur einmal berechnen müssen, also eine Art Formelsammlung anlegen können, um es immer dann anwenden zu können, wenn wir mit diesen Koordinaten arbeiten. Natürlich lässt sich die kovariante Ableitungen auf beliebige Tensorfelder anwenden. Wie das geht, bekommen wir mit folgendem Trick heraus. Wir betrachten ein Vektorfeld F und ein duales Vektorfeld G, sowie das skalare Feld φ = G · F . In einem affinen Koordinatensystem mit Koordinaten r a gilt dann φ = Ga F a ⇒ ∂b φ = ∂b (Ga F a ) = ∂b Ga F a + Ga ∂b F a . (10.72) Das ist eine Beziehung zwischen Tensoren, folglich in jedem Koordinatensystem gilt, auch in einem krummlinigen. Dort müssen wir allerdings die Komponenten der Tensoren ∇F und ∇G, die auf der rechten Seite stehen, durch die kovarianten Ableitungen darstellen. Das skalare Feld φ dagegen können wir einfach partiell nach den Koordinaten r i ableiten. Es gilt also im krummlinigen Koordinatensystem ∂k φ = ∂k (Gi F i ) = ∂k Gi F i + Gi ∂k F i = ∇k Gi F i + Gi ∇k F i . (10.73) Der dritte Ausdruck ergibt sich aus der Produktregel für partielle Ableitungen aus dem zweiten. Der letzte Ausdruck ergibt aus der rechten Seite von (10.72), wenn wir die beiden Summanden als Tensoren transformieren. Wenn wir nun hier die Definition (10.63) der kovarianten Ableitung eines Vektorfeldes einsetzen, und anschließend die Indizes umbenennen, bekommen wir ∂k Gi F i = ∇k Gi F i + Gi Γ ijk F j = ∇k Gi F i + Gi Γ jik F i . 37 (10.74) Da dies für jedes Vektorfeld F gelten muss, ergibt sich ∇k Gi = ∂k Gi − Gj Γ jik . (10.75) Das ist der allgemeine Ausdruck für die kovariante Ableitung eines Tensorfeldes der Stufe (0, 1). Wir können also die kovariante Ableitung eines dualen Vektorfeldes mit dem gleichen Christoffel-Symbol bilden, allerdings mit einer leicht veränderten Indexstellung. Mit einem ganz ähnlichen Trick lässt sich die kovariante Ableitung eines beliebigen Tensorfeldes bestimmen. Das werden wir aber vorerst nicht benötigen. Aufgabe 10.21 Man zeige, dass das Christoffel-Symbol in seinen beiden unteren Indizes symmetrisch ist, Γ kij = Γ kji . (10.76) Aufgabe 10.22 Warum ist das Christoffel-Symbol nicht die Darstellung eines Tensors? Aufgabe 10.23 Man zeige, dass die nicht verschwindenden Eintr äge des Christoffel-Symbol auf einem dreidimensionalen affinen Raum in Zylinderkoordinaten (r, ϕ, z) genau durch (10.68) gegeben sind, also mit denen für ein ebenes Polarkoordinatensystem identisch sind. Aufgabe 10.24 Ein Vektorfeld in einem zweidimensionalen affinen Raum sei in Polarkoordinaten durch F = F r er + F ϕ eϕ dargestellt. Man zeige, dass dieses Feld genau dann konstant ist, wenn die Komponenten die folgenden Differenzialgleichungen erfüllen, ∂r F r = 0, ∂r (r F ϕ ) = 0, ∂ϕ F r = r F ϕ , ∂ϕ (r F ϕ ) = −F r . (10.77) Aufgabe 10.25 Man zeige, dass das Christoffel-Symbol in Kugelkoordinaten (r, ϑ, ϕ) die folgenden nicht verschwindenden Einträge hat, Γ rϑϑ = −r Γ rϕϕ = −r sin2 ϑ Γ ϑrϑ = Γ ϑϑr = Γ ϕrϕ = Γ ϕϕr = 1 r Γ ϑϕϕ = − sin ϑ cos ϑ Γ ϕϑϕ = Γ ϕϕϑ = cot ϑ. (10.78) Aufgabe 10.26 Es sei r(t) eine parametrisierte Kurve in E, zum Beispiel die Bahn eines Teilchens im physikalischen Raum. Stellt man diese in einem krummlinigen Koordinatensystem durch die Funktionen r i (t) dar, so sind die Ableitungen v i (t) = ṙ i (t) die Komponenten der Geschwindigkeit v(t), dargestellt in der lokalen Basis an dem Ort, an dem sich das Teilchen gerade befindet. Man zeige, dass die Beschleunigung a(t) wie folgt dargestellt wird, ai (t) = r̈ i (t) + Γ ikl (r(t)) ṙ k (t) ṙ l (t), (10.79) also durch eine kovariante Ableitung, wobei das Christoffel-Symbol wieder an dem Ort auszuwerten ist, an dem sich das Teilchen gerade befindet. Wie lauten folglich die Bewegungsgleichungen f ür ein kräftefreies Teilchen in Kugelkoordinaten (r(t), ϑ(t), ϕ(t))? Man betrachte speziell ein Teilchen, das sich in der Äquatorebene bewegt. Es sei also ϑ = π/2. Man zeige, dass sich in diesem Fall unmittelbar die Drehimpulserhaltung ` = m r 2 ϕ̇ = konst ergibt, sowie die radiale Bewegungsgleichung m r̈ = −∂r Ve (r), mit Ve (r) = ` . 2 m r2 (10.80) Man vergleiche die Ausdrücke für Geschwindigkeit und Beschleunigung mit denen aus Kapitel 5, also (5.32) und (5.35). Warum stimmen die Komponenten nicht überein? Welcher wesentliche Unterschied besteht zwischen den dort eingeführten Basisvektoren (~er ,~eϑ ,~eϕ ) und den hier verwendeten Basisvektoren (er , eϑ , eϕ )? 38 Aufgabe 10.27 Ein Tensor der Stufe (0, 2) kann durch Tensormultiplikation von zwei dualen Vektoren gebildet werden, Bij = Xi Yj . Dasselbe gilt für ein entsprechendes Tensorfeld. Man benutze die Darstellung (10.75) für die kovariante Ableitung eines dualen Vektorfeldes, um zu zeigen, dass die kovariante Ableitung eines Tensorfeldes der Stufe (0, 2) wie folgt gebildet wird, ∇k Bij = ∂k Bij − Γ lik Blj − Γ ljk Bil . (10.81) Wie wird die kovariante Ableitung eines Tensorfeldes der Stufe (m, n) gebildet? Aufgabe 10.28 Es sei E ein metrischer affiner Raum und {r i } ein krummliniges Koordinatensystem. Dann sind die Komponenten der Metrik gij im allgemeinen ortsabhängig, das heißt die partiellen Ableitungen ∂k gij sind nicht Null. Warum ist trotzdem ∇k gij = 0? Aufgabe 10.29 Man beweise, dass ein Koordinatensystem genau dann affin ist, wenn die Komponenten gij der Metrik konstant, also nicht ortsabhängig sind. Gradient, Divergenz, Rotation Der Begriff der Divergenz eines Vektorfeldes ist gerade schon gefallen, und wir haben auch schon den Gradient eines skalaren Feldes definiert. Dies waren zwei der drei Ableitungsoperationen, die wir bereits früher für Felder auf dem Euklidischen Raum eingeführt haben. Wie wollen nun zeigen, wie sich diese im Tensorkalkül formulieren lassen, und insbesondere deren Darstellung in krummlinigen Koordinaten diskutieren. Wir betrachten dazu speziell den dreidimensionalen Euklidischen Raum, lassen aber beliebige krummlinige Koordinatensysteme zu. Die Metrik g wird dann durch einen ortsabhängige Matrix g ij und ihre inverse Matrix g ij dargestellt, und auch der antisymmetrische Einheitstensor ω hat ortsabhängige Komponenten ωijk bzw. ω ijk . Diese zwei Tensoren stehen uns zur Verfügung, um daraus die bekannten Ableitungsoperatoren zu konstruieren. Beginnen wir mit dem Gradient. Wenn φ ein skalares Feld ist, dann sind die partiellen Ableitungen nach der Koordinaten ∂i φ, wie wir schon gezeigt haben, die Komponenten eines dualen Vektorfeldes. In einem metrischen Raum können wir dies mit einem Vektorfeld identifizieren, indem wir den Index nach oben ziehen, also grad φ = ∂i φ ei = g ij ∂j φ ei = g ij ∇j φ ei . (10.82) Wir können hier auch die kovariante Ableitung schreiben, denn diese ist, wenn sie auf ein skalares Feld wirkt, mit der gewöhnlichen partiellen Ableitung identisch. Das einzige, was wir beim bilden des Gradienten in einem krummlinigen Koordinatensystem beachten müssen, ist die Indexstellung. Wenn wir den Gradient explizit als Vektorfeld, also mit dem Index oben darstellen wollen, müssen wir die inverse Metrik dazu verwenden. Haben wir zum Beispiel ein Feld φ in Kugelkoordinaten gegeben, so gilt für den Gradient grad φ = ∂r φ er + 1 1 ∂ ϕ φ eϕ . ∂ ϑ φ eϑ + 2 2 r r sin2 ϑ (10.83) Die inverse Metrik haben wir dabei aus (10.54) entnommen. Da es sich um eine diagonale Matrix handelt, müssen wir nur die einzelnen Einträge invertieren. Die Divergenz eines Vektorfeldes F = F i ei haben wir gerade schon gebildet. Für sie gilt allgemein div F = ∇i F i = ∂i F i + Γ iji F j . (10.84) Hier müssen wir die kovariante Ableitung verwenden, denn nur dann ist das Ergebnis unabhängig vom verwendeten Koordinatensystem. Wir hatten das an einem zweidimensionalen Beispiel schon gesehen. Nur, 39 wenn wir ein affines, also geradliniges Koordinatensystem verwenden, fällt der Term mit dem ChristoffelSymbol weg. Auch hier betrachten wir speziell ein in Kugelkoordinaten durch die Komponenten (F r , F ϑ , F ϕ ) dargestelltes Vektorfeld. Die auftretenden Christoffel-Symbole, bei denen noch über den Index i zu summieren ist, entnehmen wir aus (10.78). Wenn wir die Summen ausführen, finden wir 2 Γ iri = , r Γ iϑi = cot ϑ, Γ iϕi = 0. (10.85) Folglich ergibt sich für die Divergenz eines Vektorfeldes in Kugelkoordinaten explizit div F = ∂r F r + ∂ϑ F ϑ + ∂ϕ F ϕ + 2 r F + cot ϑ F ϑ . r (10.86) Aufgabe 10.30 Ein kugelsymmetrisches Vektorfeld zeige radial nach außen, also F = f (r) e r . Man bestimme f (r) so, dass div F = 0 ist. Mit welcher Potenz von r fällt das Feld nach außen ab? Um die Rotation zu bilden, benötigen wir den antisymmetrischen Einheitstensor. Für ein Vektorfeld F = F i ei setzen wir rot F = ω ijk ∇i Fj ek = ω ijk ∂i Fj ek . (10.87) Hier müssten wir im Prinzip auch die kovariante Ableitung verwenden, denn sie wirkt auf ein Vektorfeld, aber in diesem Fall fällt das Christoffel-Symbol weg, weil es in seinen unteren beiden Indizes symmetrisch ist. Bei der Kontraktion mit dem antisymmetrischen Einheitstensor ergibt sich deshalb Null. Das Bilden der Rotation ist also recht einfach, denn hier genügt auch in krummlinigen Koordinaten die normale partielle Ableitung. Allerdings tritt der antisymmetrische Einheitstensor auf, in dessen Darstellung die Determinante der Metrik eingeht, und wir müssen das Vektorfeld zuerst durch seine Komponenten mit unteren Indizes darstellen. Aufgabe 10.31 Ein Vektorfeld sei in Zylinderkoordinaten durch F = F r er + F ϕ eϕ + F z ez gegeben. Man benutze das Ergebnis aus Aufgabe 10.12, um zu zeigen, dass rot F = r ∂r F ϕ − 1 1 1 ∂ ϕ F r + 2 F ϕ ez + ∂ ϕ F z − r ∂ z F ϕ er + ∂ z F r − ∂ r F z eϕ r r r (10.88) ist. Man betrachte speziell ein Vektorfeld B = f (r) eϕ . Für welche Funktionen f (r) gilt rot B = 0? Mit welcher Potenz von r fällt der Betrag dieses Feld nach außen ab? Zum Abschluss betrachten wir noch den Laplace-Operator, der eine spezielle zweite Ableitung eines Feldes definiert. Wenn φ ein skalares Feld ist, dann können wir zuerst den Gradient ∇i φ = ∂i φ bilden. Das ist ein duales Vektorfeld, das wir wieder ableiten können. Allerdings müssen wir dabei beachten, dass die zweite Ableitung auf einen dualen Vektor wirkt, so dass wir in krummlinigen Koordinaten die kovariante Ableitung gemäß (10.75) verwenden müssen. Es ist also ∇i ∇j φ = ∂i ∂j φ − Γ kij ∂k φ. (10.89) Hieraus ergibt sich übrigens eine Begründung dafür, warum das Christoffel-Symbol in seinen beiden unteren Indizes symmetrisch sein muss. Es ist nämlich ∇i ∇j φ = ∇j ∇i φ, denn in einem affinen Koordinatensystem handelt es sich dabei im die zweite partielle Ableitung einer Funktion, und die ist natürlich symmetrisch. Also muss das auch in jedem krummlinigen Koordinatensystem gelten, und das ist offenbar genau dann der Fall, wenn Γ kij = Γ kji ist. Nun ist (10.89) ein Tensor zweiter Stufe. In einem metrischen Raum können wir ihn kontrahieren, wenn wir einen der Indizes zuerst mit der Metrik nach oben ziehen. Auf diese Wiese ist der Laplace-Operator definiert, (10.90) 4φ = g ij ∇i ∇j φ = g ij ∂i ∂j φ − g ij Γ kij ∂k φ. 40 In kartesischen Koordinaten entspricht das der üblichen Definition 4 = ∂ i ∂i . Wir können den Operator jetzt aber auch sehr leicht zum Beispiel in Kugelkoordinaten berechnen. Wir benutzen wieder die Christoffel-Symbole (10.78), sowie die Metrik (10.54) bzw. die daraus abgeleitete inverse Metrik. Eine kurze Rechnung ergibt 2 g ij Γ rij = − , r g ij Γ ϑij = − cot ϑ , r2 g ij Γ ϕij = 0. (10.91) Eingesetzt in (10.90) ergibt das 4φ = ∂r ∂r φ + 2 cot ϑ 1 1 ∂ϕ ∂ϕ φ. ∂r φ + 2 ∂ϑ ∂ϑ φ + 2 ∂ϑ φ + 2 r r r r sin2 ϑ (10.92) Aufgabe 10.32 Man bestätige die Ausdrücke (10.91) für die im Laplace-Operator vorkommenden Kombinationen der Christoffel-Symbole und zeige, dass sich der Operator (10.92) auch wie folgt schreiben lässt, 1 ∂ 2 ∂φ ∂ ∂2φ 1 ∂φ 1 4φ = 2 . (10.93) r + 2 sin ϑ + 2 ∂r ∂ϑ r ∂r r sin ϑ ∂ϑ r sin2 ϑ ∂ϕ2 Aufgabe 10.33 Um den Laplace-Operator in einem krummlinigen Koordinatensystem darzustellen, gibt es eine alternative, in den meisten Fällen sehr viel einfachere Formel, die ohne Christoffel-Symbole auskommen. Man zeige, dass in jedem Koordinatensystem 1 √ 4φ = √ ∂i g g ij ∂j φ , g mit g = det(gij ), (10.94) gilt, und dass sich daraus der Ausdruck (10.93) für den Laplace-Operator in Kugelkoordinaten ergibt. Aufgabe 10.34 Gibt es für die Vektorfelder aus Aufgabe 10.14 und Aufgabe 10.15 jeweils ein skalares Feld φ, so dass F = ∇φ ist? 41 11 Lagrangesche Mechanik In diesem Kapitel werden wir den ersten Schritt zu einer allgemeinen Formulierung aller heute bekannten fundamentalen physikalischen Theorien machen. Allerdings ist dieser erste Schritt sehr bescheiden. Wir werden im Prinzip nichts anderes tun als die Newtonschen Bewegungsgleichungen in einer mathematisch etwas anspruchsvolleren, “geometrischen” Form aufzuschreiben. Diese neue Formulierung der Newtonschen Mechanik wurde im 18. Jahrhundert entwickelt und geht im wesentlichen auf d’Alembert, Lagrange und Euler zurück. Sie ist begrifflich sehr viel abstrakter als die Newtonsche Formulierung, bietet aber eine Reihe von praktischen und konzeptionellen Vorteilen. Ein wichtiger, ganz pragmatischer Vorteil ist, dass sich typische mechanische Systeme, wie sie in technischen Anwendungen auftreten, sehr viel effizienter berechnen lassen als mit den Newtonschen Mitteln. Eine andere, für die theoretische Physik besonders wichtige Eigenschaft der neuen Formulierung ist, dass sich mit ihr viele allgemeine Sätze beweisen lassen, mir deren Hilfe sich Aussagen über die Lösungen von Bewegungsgleichungen machen lassen, auch wenn man diese nicht explizit angeben kann. Der wohl wichtigste derartige Satz ist das Noether-Theorem, wonach es einen Zusammenhang zwischen den Symmetrien eines Systems und seinen Erhaltungsgrößen. Bis wir zu diesem zentralen Theorem kommen, müssen wir uns allerdings erst mit einigen neuen Begriffen vertraut machen. Die Methoden, die wir hier entwickeln werden, lassen sich weit über die Mechanik hinaus auch in anderen Teilgebieten der Physik anwenden. Daher werden uns die Begriffe, die wir in diesem Kapitel einführen, fast überall wieder begegnen. Wie schon angedeutet, geht dies sogar so weit, dass sich alle heute als fundamental angesehenen Theorien in dieses Schema einordnen lassen. Einen Hinweis darauf, dass zum Beispiel auch die Elektrodynamik eine solche Formulierung zulässt, wird sich am Ende dieses Kapitels ergeben. Ansonsten werden wir uns hier jedoch nur mit mechanischen Systemen beschäftigen. Energie und Impuls Bei der allgemeinen Diskussion der Newtonschen Bewegungsgleichungen für ein System von Punktteilchen hatten wir die Impulse der Teilchen als nützlich Hilfsgrößen eingeführt. Damit konnten wir ein System von Differenzialgleichungen zweiter Ordnung in ein System erster Ordnung überführen. Außerdem gab es für Systeme ohne äußere Kräfte einen Erhaltungssatz für den Gesamtimpuls, also für die Summe der Impulse aller Teilchen. Das konnten wir verwenden, um die Bewegungsgleichungen weiter zu vereinfachen und um deren Lösungen zu klassifizieren. Den Impuls hatten wir als das Produkt von Masse und Geschwindigkeit definiert, weil so seine Zeitableitung durch die Kraft gegeben war, die auf ein Teilchen einwirkt. Wir wollen nun zeigen, dass es noch eine alternative Definition der Größe “Impuls” gibt. Diese wird sich später als sehr viel allgemeiner erweisen. Sie ist weit über die Mechanik hinaus anwendbar. Sie gibt dem Begriff “Impuls” eine ähnlich wichtige Bedeutung wie etwa dem Begriff “Energie”, der ja auch in allen Bereichen der Physik von zentraler Bedeutung ist. Tatsächlich lässt sich der Impuls eines Teilchens aus seiner Energie ableiten, und zwar im wahrsten Sinne des Wortes. Stellen wir die Geschwindigkeit des Teilchens der Masse m in einem kartesischen Koordinatensystem durch v = vi ei dar, so ist seine kinetische Energie T = 1 1 m v · v = m vi vi . 2 2 (11.1) Es ist üblich, die Funktion, die der Geschwindigkeit die kinetische Energie zuordnet, mit T zu bezeichnen. Wenn wir sie partiell nach den Komponenten der Geschwindigkeit ableiten, bekommen wir ∂T = m vi = pi , ∂vi 42 (11.2) also die Komponenten des Impulses. Der Impuls ist die Ableitung der Energie nach der Geschwindigkeit. Das lässt sich verallgemeinern. Für ein System von N Teilchen mit Massen m n ist die gesamte kinetische Energie eine Funktion der Geschwindigkeiten vn = vn,i ei der einzelnen Teilchen, T = 1X 1X m n vn · v n = mn vn,i vn,i . 2 n 2 n (11.3) Die Funktion T hängt jetzt von 3 N reellen Variablen ab, nämlich den Komponenten der Geschwindigkeiten vn,i , mit n ∈ {1, . . . , N } als Teilchenindex und i ∈ {x, y, z} als Vektorindex. Für Vektorindizes soll wieder die Summenkonvention gelten, und da wir eine Orthonormalbasis verwenden, können wir alle Indizes nach unten schreiben. Bilden wir nun wieder die partiellen Ableitungen der Funktion T , so finden wir ∂T = mn vn,i = pn,i . ∂vn,i (11.4) Das sind die Komponenten des Impulses des Teilchens Nummer n. Wir können auf diese Weise durch Ableiten der kinetischen Energie eines Systems von beliebig vielen Teilchen jedem einzelnen Teilchen seinen Impuls zuordnen. Der Impuls eines Teilchens ist die Ableitung der kinetischen Energie nach der Geschwindigkeit dieses Teilchens. Wie sich gleich zeigen wird, ist es an dieser Stelle ganz wesentlich, dass es sich um eine Funktion T handelt, die von den Geschwindigkeiten aller Teilchen abhängt. Die Funktion T ist also dem System als ganzes zugeordnet, nicht den einzelnen Teilchen. Die Bewegungsgleichungen lassen sich nun wie folgt formulieren. Die Teilchen bewegen sich auf Bahnen rn (t), oder in kartesischen Koordinaten rn,i (t). Dann ist natürlich vn (t) = ṙn (t) bzw. vn,i (t) = ṙn,i (t), und somit ∂T ∂T (t). (11.5) = pn,i (t) = ∂vn,i n = ˙ n (t) ∂ ṙn,i Der Ausdruck ist so zu verstehen, dass wir erst die Funktion T nach v n,i ableiten, und dann diese Funktion für vn = ṙn (t) auswerten, also die gegebene Bahnkurve einsetzen, so dass der Ausdruck zu einer Funktion der Zeit wird. Um die Notation etwas zu verkürzen, schreiben wir dafür auch einfach ∂T /∂ ṙ n,i . Jetzt müssen wir den Impuls nur noch nach der Zeit ableiten und mit der Kraft gleichsetzen, d ∂T ṗn,i (t) = (t) = Fn,i (t). (11.6) dt ∂ ṙn,i Die Kräfte Fn = Fn,i ei sind in der Regel als Funktionen der Orte und der Geschwindigkeiten gegeben. Setzen wir wieder die Bahnen rn (t) ein, so ergibt sich eine Funktion der Zeit, die die Ableitung des Impulses nach der Zeit bestimmt. Die Gleichungen (11.6) bilden dann ein System von 3 N gekoppelten Differenzialgleichungen zweiter Ordnung für die Koordinatenfunktionen r n,i (t). Dies sind natürlich die bekannten Newtonschen Bewegungsgleichungen. Auf den ersten Blick scheint damit nicht viel gewonnen zu sein. Genau genommen sehen die Gleichungen (11.6) sogar ziemlich kompliziert aus, nicht zuletzt wegen der etwas verschachtelten Ableitungen. Was allerdings auffällt, ist, dass die Massen mn anscheinend aus den Bewegungsgleichungen verschwunden sind. Natürlich sind sie nicht wirklich verschwunden. Aber sie gehen jetzt nur noch implizit über die Definition der Funktion T ein. In den Newtonschen Formulierung der Bewegungsgleichungen ist die Masse ein Maß für die Trägheit eines Teilchens, also das Verhältnis von Impuls zu Geschwindigkeit. Hier ist die Masse statt dessen ein 43 Maß für die kinetische Energie, die ein bewegtes Teilchen besitzt, und der Impuls ist definiert als die Ableitung der Energie nach der Geschwindigkeit. Das ändert an den mathematischen Zusammenhängen zwischen diesen Größen nichts, bietet aber eine alternative Interpretation der Begriffe. Aufgabe 11.1 Wir nehmen an, dass die Kräfte konservativ sind und nur von den Orten der Teilchen abhängen. Dann existiert ein Potenzial V, das eine Funktion der Orte r n ist, und die Kraft Fn ist der negative Gradient von V bezüglich des Ortes rn . Folglich gelten die Bewegungsgleichungen d ∂T ∂V (t) = Fn,i (t) = − (t). (11.7) dt ∂ ṙn,i ∂rn,i Andererseits wissen wir, dass in diesem Fall die Energie E = T + V eine Erhaltungsgr öße ist. Man zeige, dass sich dies aus (11.7) ergibt, wobei man nur annehmen muss, dass die Funktion T rein quadratisch ist, also homogen vom Grad 2 in den Komponenten den Geschwindigkeiten. Der Konfigurationsraum Die Bewegungsgleichungen in der Form (11.6) lassen sich etwas einfacher darstellen, wenn wir das folgende neue Konzept einführen. Wir fassen die Ortskoordinaten r n,i aller N Teilchen als Koordinaten eines Punktes in einem 3 N -dimensionalen Raum auf. Diesen Raum nennen wir den Konfigurationsraum des Systems, und wir bezeichnen ihn mit Q. Der Konfigurationsraum besteht aus allen möglichen Anordnungen der Teilchen im Ortsraum, das heißt aus allen möglichen Konfigurationen von N Teilchen. Einen Punkt in diesem Raum bezeichnen wir mit q ∈ Q, und seine Koordinaten mit q µ , wobei µ ein laufender Index ist, der 3 N Werte annimmt. Um die Beziehung zu den einzelnen Teilchen deutlich zu machen, können wir als Indexmenge die Symbole µ ∈ {x1 , y1 , z1 , x2 , y2 , z2 , . . . , xN , yN , zN } verwenden. Wir können die Koordinaten aber auch einfach von 1 bis 3 N durchnummerieren. Wir sagen, dass ein System aus N Teilchen 3 N Freiheitsgrade besitzt. Die Zahl der Freiheitsgrade eines mechanischen System ist die Dimension des Konfigurationsraumes, dim Q = 3 N . Wir schreiben den Index bei q µ nach oben, weil der Konfigurationsraum im allgemeinen kein metrischer Raum ist. Wir können zwar den Abstand zwischen zwei Punkten oder zwei Teilchen im Ortsraum messen. Es ist aber eine völlig andere Frage, was unter dem “Abstand” von zwei verschiedenen Konfigurationen von N Teilchen zu verstehen ist. Jedenfalls gibt es keine unmittelbar auf der Hand liegende Antwort auf die Frage, wie weit zwei Konfigurationen voneinander entfernt sind. Es gibt auf dem Konfigurationsraum keine Metrik, folglich auch keine kartesischen Koordinaten, und deshalb müssen wir zwischen Vektoren und dualen Vektoren unterscheiden. Wie wird nun die Zeitentwicklung des Systems beschreiben? Offenbar durch eine Bahn q(t) im Konfigurationsraum Q, die zu jedem Zeitpunkt angibt, welche Konfiguration das System gerade einnimmt. Sie wird explizit durch die Koordinatenfunktionen q µ (t) dargestellt. Das ist eine parametrisierte Kurve in einem affinen Raum. Wir können daher den Tangentenvektor q̇(t) bilden, dessen Komponenten durch die Ableitungen q̇ µ (t) gegeben sind. Dies ist ein Vektor in dem zugeordneten Vektorraum TQ des Konfigurationsraumes Q. Um die Sprechweise möglichst einfach zu halten, nennen wir q(t) den Ort und q̇(t) die Geschwindigkeit des Systems zum Zeitpunkt t. Wir fassen quasi alle Orte der Teilchen zu einem Ort in Q zusammen, und alle Geschwindigkeiten der Teilchen zu einem Geschwindigkeitsvektor in TQ. Die oben eingeführte alternative Formulierung der Bewegungsgleichungen für ein System aus N Teilchen stellt sich jetzt wie folgt dar. Zuerst definieren wir die kinetische Energie als Funktion der Geschwindigkeiten der Teilchen, das heißt als Funktion eines Vektors q̇ ∈ TQ. Sie ist eine quadratische Funktion der Komponenten q̇ µ , die sich ganz allgemein wie folgt schreiben lässt, T = 1 Mµν q̇ µ q̇ ν . 2 44 (11.8) Die 3 N ×3 N -Matrix Mµν ist die Massenmatrix des Systems. Für den hier beschriebenen Fall hat sie eine einfache Diagonalform m1 m1 0 m1 . . Mµν = (11.9) . . m N 0 mN mN Ihre Einträge sind die Massen der einzelnen Teilchen, wobei jede Masse genau dreimal auftritt, entsprechend den drei Komponenten der Geschwindigkeit, die zu diesem Teilchen gehören. Schreibt man die Summe über µ und ν in (11.8) explizit aus, so findet man wieder den Ausdruck (11.3). Dass wir die Massen zu einer Matrix mit zwei unteren Indizes zusammengefasst haben, ist im wesentlichen dadurch motiviert, dass sich diese Matrix nun wie ein symmetrischer Tensor der Stufe (0, 2) auf dem Konfigurationsraum Q verhält. Durch (11.8) wird eine symmetrische, bilineare Abbildung M : TQ × TQ → R definiert, so dass T = M (q̇, q̇)/2 ist. Wir werden darauf gleich noch näher eingehen. Im nächsten Schritt definieren wir die Impulse, indem wir die partiellen Ableitungen der Funktion T nach den Komponenten q̇ µ der Geschwindigkeit bilden. Das ergibt pµ = ∂T = Mµν q̇ µ . ∂ q̇ µ (11.10) Wie man leicht durch Einsetzen der Matrix (11.9) bestätigt, sind das die 3 N Komponenten der Impulse der einzelnen Teilchen. Diese können wir wieder zu einem 3 N -dimensionalen Vektor zusammenfassen. Aus (11.10) ergibt sich jedoch, dass die Komponenten pµ ihren Index unten tragen. Folglich ist die Geschwindigkeit q̇ ∈ TQ ein Vektor, während der Impuls p ∈ T∗ Q des Systems ein dualer Vektor ist. Da die Kraft die Zeitableitung des Impulses ist, muss auch das ein dualer Vektor F ∈ T ∗ Q sein. Es gilt, in Komponenten aufgeschrieben, d ∂T (t) = Fµ (t). (11.11) ṗµ (t) = dt ∂ q̇ µ Genau wie die Komponenten pµ des Impulses p ergeben sich die 3 N Komponenten Fµ der Kraft F aus den ursprünglichen Komponenten Fn,i dadurch, dass wir sie einfach nur neu nummerieren. Wir fassen den Teilchenindex n und den Vektorindex i zu einem einzigen Vektorindex µ zusammen, der 3 N Werte annimmt. Inhaltlich ändert sich an den Bewegungsgleichungen nichts. Es handelt sich noch immer um ein Gleichungssystem für 3 N unbekannte Funktionen, nur dass wir diese jetzt mit q µ (t) bezeichnen. Die Kraft F ist typischerweise als Funktion des Ortes q und der Geschwindigkeit q̇ gegeben, und sie kann natürlich auch explizit von der Zeit abhängen. Erst durch Einsetzen einer Bahn q(t) wird daraus eine Funktion, die nur noch von der Zeit anhängt. Das gleiche gilt für den Impuls. Die partielle Ableitung ∂T /∂ q̇ µ ist eine Funktion der Geschwindigkeit q̇, und durch Einsetzen einer Bahn q(t) wird sie zu einer Funktion der Zeit. Dass Kraft und Impuls duale Vektoren auf dem Konfigurationsraum sind, lässt sich auch noch auf eine ganz andere Weise erklären. Für konservative Systeme ist die Kraft der Gradient des Potenzials. Die potenzielle Energie eines N -Teilchen-Systems ist eine Funktion der Orte der Teilchen, also eine skalare Funktion V auf dem Konfigurationsraum. Folglich ist der Gradient davon ein dualer Vektor, oder genauer ein duales Vektorfeld auf Q. Für konservative Systeme, deren Kräfte nur vom Ort abhängen, gilt ∂V ∂V d ∂T Fµ = µ ⇒ ṗµ (t) = (t) = µ (t). (11.12) ∂q dt ∂ q̇ µ ∂q 45 Damit hier die rechte und die linke Seite der Gleichung zusammenpassen, muss auf beiden Seiten ein dualer Vektor stehen. Das ist auch der Fall, und es impliziert, dass auch der Impuls in dualer Vektor sein muss. Damit haben wir bereits die wichtigsten Begriffe eingeführt, die wir zur systematischen Beschreibung eines allgemeinen mechanischen Systems benötigen. Die Konfiguration eines mechanischen Systems wird durch einen Punkt im Konfigurationsraum dargestellt. Die Geschwindigkeit ist ein Vektor, Impuls und Kraft sind duale Vektoren in diesem Raum. Um ein konkretes mechanisches System zu beschrieben, benötigen wir zwei Informationen über das System. Wir müssen erstens wissen, wie die Geschwindigkeiten mit den Impulsen zusammenhängen. Dies geschieht durch die Abgabe der Funktion T , die die kinetische Energie als Funktion der Geschwindigkeiten darstellt. Für ein N -Teilchen-System bedeutet das im wesentlichen, dass wir die Massen der Teilchen kennen müssen. Und wir müssen natürlich zweitens wissen, wie die Kraft F konkret als Funktionen des Ortes q, der Geschwindigkeit q̇ und der Zeit t gegeben ist. Für ein System mit Potenzialkräften ist das äquivalent zur Angabe der Potenzialfunktion V. Aufgabe 11.2 Man betrachte ein System aus drei Teilchen mit Massen m 1 , m2 und m3 , die sich gegenseitig durch Gravitationskräfte anziehen. Wie sieht in diesem Fall das Potenzial aus? Man mache sich an diesem Beispiel klar, dass es sich um eine reelle Funktion V auf einem neundimensionalen Raum Q handelt. Aufgabe 11.3 Die Massenmatrix Mµν eines mechanischen Systems ist symmetrisch und positiv, da die kinetische Energie stets positiv ist und nur dann gleich Null, wenn alle Teilchen ruhen. Man kann sie daher als Metrik auf dem Konfigurationsraum interpretieren, der dadurch zu einem metrischen affinen Raum wird. Wenn man dies tut, welche anschauliche Vorstellung verbindet sich dann mit dem Abstand von zwei Konfigurationen? Wann liegen zwei gegebene Konfigurationen nahe beieinander, wann sind sie weit voneinander entfernt? Ein einfaches Beispiel Um den Begriff des Konfigurationsraumes etwas besser zu verstehen, betrachten wir ein einfaches Beispiel. Zwei Teilchen wechselwirken miteinander durch eine linear vom Abstand abhängende Kraft. Es handelt sich im wesentlichen um einen harmonischen Oszillator, der aus zwei Teilchen besteht. Um das ganze so einfach wie möglich zu halten, und um das Ergebnis auch grafisch darstellen zu können, sollen sich die Teilchen nur in eine Raumrichtung bewegen. Dadurch sparen wir uns das Ausschreiben einiger Indizes, verlieren jedoch keine wesentlichen Aspekte von dem, worum es hier gehen soll. Es seien also m1 und m2 die Massen der beiden Teilchen, q 1 und q 2 ihre Ortskoordinaten, und q̇ 1 und 2 q̇ die Geschwindigkeiten. Die Orte q µ , mit µ ∈ {1, 2}, sind die Koordinaten eines Punktes q ∈ Q, wobei der Konfigurationsraum Q ein zweidimensionaler affiner Raum ist. Die Geschwindigkeiten q̇ µ sind entsprechend die Komponenten eines Vektors q̇ ∈ TQ. Für die kinetische und die potenzielle Energie setzen wir T = 1 1 m1 (q̇ 1 )2 + m2 (q̇ 2 )2 , 2 2 V= 1 κ (q 1 − q 2 )2 , 2 (11.13) wobei κ eine Federkonstante ist, die die Anziehungskraft zwischen den beiden Teilchen bestimmt. Für die Impulse ergibt sich daraus, wie nicht anders zu erwarten ist, p1 = ∂T = m1 q̇ 1 , ∂ q̇ 1 p2 = 46 ∂T = m2 q̇ 2 , ∂ q̇ 2 (11.14) und für die Komponenten der Kraft gilt F1 = − ∂V 2 1 1 = κ (q − q ), ∂q F2 = − ∂V 1 2 2 = κ (q − q ). ∂q (11.15) Die Teilchen ziehen sich mit einer linear mit dem Abstand ansteigenden Kraft an. Schließlich ergeben sich aus dieser Gleichung und der vorigen die Bewegungsgleichungen ṗ1 = F1 , ṗ2 = F2 ⇒ m1 q̈ 1 = κ (q 2 − q 1 ), m2 q̈ 2 = κ (q 1 − q 2 ). (11.16) Wir wissen bereits, wie wir diese Gleichungen am einfachsten lösen können. Die Idee besteht im wesentlichen darin, die Bewegung des Schwerpunktes von der relativen Bewegung der Teilchen zu entkoppeln. Das neue ist, dass wir dies nun als Koordinatentransformation auf dem Konfigurationsraum Q auffassen können. Die Transformation, die hier zum Ziel führt, ist q+ = m2 m1 q1 + q2, m1 + m 2 m1 + m 2 q− = q1 − q2, (11.17) oder umgekehrt m2 m1 q −, q2 = q+ − q−. (11.18) m1 + m 2 m1 + m 2 Da es sich um eine lineare Transformation handelt, gelten die gleichen Umrechnungsformel auch für die Geschwindigkeiten. Wir müssen nur alle q’s mit einem Punkt versehen, oder einfach die Gleichungen (11.17) und (11.18) nach der Zeit ableiten. Nach einer kurzen Rechnung findet man dann die folgenden neuen Ausdrücke für die kinetische und die potenzielle Energie, q1 = q+ + T = 1 1 m+ (q̇ + )2 + m− (q̇ − )2 , 2 2 V= 1 κ (q − )2 , 2 (11.19) wobei wir die Abkürzungen m1 m2 (11.20) m1 + m 2 für die gesamte und die reduzierte Masse eingeführt haben. Wiederholen wir jetzt die ganze Prozedur noch einmal, so finden wir die Impulse m+ = m 1 + m 2 , p+ = m− = p− = ∂T = m− q̇ − , ∂ q̇ − (11.21) F− = − ∂V = −κ q − . ∂q − (11.22) ∂T = m+ q̇ + , ∂ q̇ + und für die Komponenten der Kraft gilt jetzt F+ = − ∂V = 0, ∂q + Daraus lesen wir wieder die Bewegungsgleichungen ab. Sie haben sich ein wenig vereinfacht und lauten nun ṗ+ = F+ , ṗ+ = F+ ⇒ m+ q̈ + = 0, m− q̈ − = −κ q − . (11.23) Die Lösungen dieser Gleichungen können wir sofort angeben. Für q + müssen wir eine gleichförmige Bewegung einsetzen, das heißt das System bewegt sich mit konstanter Geschwindigkeit in Richtung der q + -Achse. In Richtung der q − -Achse finden wir eine harmonische Oszillation mit der Eigenfrequenz ω 2 = κ/m− . Was haben wir bei dieser Herleitung anders gemacht als früher, als wir ein solches System schon einmal im Rahmen der Newtonschen Mechanik diskutiert haben? Der wesentliche Unterschied liegt darin, dass 47 q2 q+ replacements q1 q− (c) (d) (b) (a) Abbildung 11.1: Der Konfigurationsraum eines Zwei-Teilchen-Systems mit linearer Wechselwirkung. Die gestrichelten Geraden sind die Linien konstanter potenzieller Energie V = konst. Die gestrichelte Ellipse ist eine Linie konstanter kinetischer Energie T = konst im Raum der Geschwindigkeiten. Die durchgezogene Linie ist eine typische Bahn. Die Koordinaten in (a) sind den Teilchen angepasst, die Koordinaten in (b) den Eigenmoden des Systems. wir an keiner Stelle die Bewegungsgleichungen selbst transformiert haben. Wir haben nicht die Definitionen (11.18) der neuen Koordinaten in die Bewegungsgleichungen (11.16) eingesetzt. Statt dessen haben wir nur die zwei Größen, von denen wir ausgegangen sind, nämlich die Funktionen T und V, durch die neuen Koordinaten ausgedrückt. In Abbildung 11.1(a) ist der zweidimensionale Konfigurationsraum Q mit der q 1 - und q 2 -Achse dargestellt. Das Potenzial V(q) hängt nur von q 1 − q 2 ab, so dass die Linien mit V = konst Geraden sind, die parallel zur Winkelhalbierenden verlaufen. Die Linien T = konst im Raum TQ der Geschwindigkeiten sind Ellipsen, deren Halbachsen durch die Massen m1 und m2 bestimmt sind. Eine solche Ellipse ist in der Abbildung eingezeichnet. Nun hatten wir gesehen, dass die Dynamik des Systems, also letztlich die Bewegungsgleichungen, eindeutig durch die beiden Funktion T und V bestimmt wird. Insbesondere ist das dynamische Verhalten des Systems völlig unabhängig davon, welche Koordinaten wir benutzen, um eine explizite Rechnung durchzuführen. Die Dynamik des Systems ist ein Art geometrische Eigenschaft des Konfigurationsraumes, die unabhängig von der Wahl irgendeines Koordinatensystems ist, genau wie die Geometrie des Ortsraumes als abstrakte Struktur unabhängig von den Koordinatensystemen ist, die wir verwenden, um den Raum zu beschreiben. Wir können deshalb zu einem beliebigen anderen Koordinatensystem übergehen, das der Dynamik des Systems besser angepasst ist. Ein solches Koordinatensystem ist in Abbildung 11.1(b) dargestellt. Die q + Achse ist so gewählt, dass sie im Minimum des Potenzials liegt. Daher hängt die Funktion V jetzt nur noch von q − ab, und zwar unabhängig davon, in welche Richtung die q − -Achse zeigt. Aber auch für diese Achse gibt es eine bevorzugte Wahl. Sie ist so gelegt, dass in dem quadratischen Ausdruck für T keine gemischten Terme auftreten, die das Produkt q̇ + q̇ − enthalten. Aufgabe 11.4 Man zeige, dass die lineare Transformation (11.17) durch diese beiden Forderungen an die neuen Koordinaten q + und q − bis auf Skalierungen eindeutig festgelegt ist. Die einzige Freiheit, die noch bleibt, ist eine Transformation q̃ + = α q + und q̃ − = β q − mit Konstanten α, β 6= 0. 48 Das abstrakte Konzept des Konfigurationsraumes eines mechanischen Systems kann also bei der Lösung der Bewegungsgleichungen hilfreich sein. Es zeigt nämlich, dass die Koordinaten, die sich auf natürliche Weise aus der physikalischen Situation ergeben, nicht immer die sind, die dem eigentlichen dynamischen Prozess am besten angepasst sind. In unserem Beispiel liegt es durch die Beschreibung des Systems eigentlich auf der Hand, dass die “natürlichen” Koordinaten diejenigen sind, die sich auf die beiden Teilchen beziehen, also (q 1 , q 2 ). Lassen wir jedoch die physikalische Anschauung für einen Moment außer acht, und betrachten nur die mathematischen Strukturen des Konfigurationsraumes Q, so stellen wir fest, dass diese eine ganz andere “natürliche” Wahl der Koordinaten nahe legen, nämlich die Koordinaten (q + , q − ). In diesen Koordinaten nehmen die beiden für die Dynamik relevanten Funktionen T und V eine besonders einfache Form an. Das Ziel der folgenden Überlegungen ist es deshalb, von der unmittelbaren physikalischen Vorstellung Abstand zu nehmen, dass die Bewegungen eines mechanischen Systems im dreidimensionalen Ortsraum stattfinden. Statt dessen wollen wir den Konfigurationsraum als denjenigen Raum betrachten, in dem sich das System bewegt. Das ist der erste Schritt hin zu einer Abstraktion, die es letztlich auch ermöglicht, ganz andere dynamische Systeme, wie etwa das elektromagnetische Feld, mit den gleichen Methoden zu beschreiben und dabei die gleichen mathematischen Strukturen zu verwenden. Aufgabe 11.5 Es soll ein System von zwei Teilchen gleicher Masse m betrachtet werden, die zus ätzlich eine lineare rücktreibende Kraft von außen spüren. Diese soll eine Federkonstante κ haben, die Wechselwirkung eine Federkonstante κ̃. Es ist dann T = 1 m (q̇ 1 )2 + (q̇ 2 )2 , 2 V= 1 1 κ (q 1 )2 + (q 2 )2 + κ̃ (q 1 − q 2 )2 . 2 2 (11.24) Man finde eine lineare Transformation zu neuen Koordinaten (q + , q − ), so dass T = 1 1 m+ (q̇ + )2 + m− (q̇ − )2 , 2 2 V= 1 1 κ+ (q + )2 + κ− (q − )2 2 2 (11.25) gilt. Man bestimme die Größen m± und κ± , und daraus die Eigenfrequenzen ω± des System. Sind die neuen Koordinaten eindeutig bestimmt? Wenn nicht, welche Freiheiten gibt es bei der Wahl? Aufgabe 11.6 Man wiederhole die einzelnen Schritte in diesem Abschnitt f ür ein System von zwei Teilchen, die sich im dreidimensionalen Raum bewegen. Um die Zerlegung in Schwerpunkt- und Relativbewegung durchzuführen, hatten wir in Kapitel 3 den Schwerpunktimpuls (3.53) und den relativen Impuls (3.54) eingeführt. Man zeige, dass diese Größen den hier definierten Impulsen p+ und p− entsprechen. Aufgabe 11.7 Der Übergang zwischen den beiden Koordinatensystemen (q 1 , q 2 ) und (q + , q − ) ist eine affine Koordinatentransformation auf dem Konfigurationsraum Q. Man zeige, dass der Impuls und die Kraft dabei wie duale Vektoren transformieren. Es gilt also pα = ∂q µ pµ , ∂q α bzw. pµ = ∂q α pα , ∂q µ mit µ ∈ {1, 2}, α ∈ {+, −}, (11.26) und entsprechend für Fµ und Fα . Aufgabe 11.8 Sowohl in (11.13) als auch in (11.19) lässt sich die kinetische Energie durch eine Massenmatrix darstellen. Mit den Bezeichnungen aus Aufgabe 11.7 gilt f ür die Einträge dieser Matrix in den beiden Koordinatensystemen M11 = m1 , M22 = m2 , bzw. M++ = m+ , 49 M−− = m− , (11.27) und alle anderen Komponenten sind jeweils Null. Man verifiziere, dass f ür diese Matrix das Transformationsverhalten für einen Tensor der Stufe (0, 2) gilt, also Mαβ = ∂q µ ∂q ν Mµν , ∂q α ∂q β (11.28) wieder mit µ ∈ {1, 2} und α ∈ {+, −}. Aufgabe 11.9 In Abbildung 11.1(a) stehen die Koordinatenachsen senkrecht aufeinander, in Abbildung 11.1(b) nicht. Hat dieser Umstand irgendeine Bedeutung? Aufgabe 11.10 Ist in Abbildung 11.1 m1 oder m2 die größere Masse? Verallgemeinerte Koordinaten Wir kehren nun wieder zu der allgemeinen Situation zurück, die bei einem N -Teilchen-System mit beliebigen Wechselwirkungen vorliegt. Die kinetische Energie T ist dann eine quadratische Funktion der Geschwindigkeit q̇ ∈ TQ, und die Kraft ist ein dualer Vektor F ∈ T∗ Q, der zunächst vom Ort q ∈ Q, der Geschwindigkeit q̇ ∈ TQ, und möglicherweise auch von der Zeit t abhängt. Weitere Annahmen machen wir nicht. Insbesondere muss die Kraft nicht konservativ sein. Dann gelten, wie wir gezeigt haben, die Bewegungsgleichungen (11.11), also d ∂T = Fµ . dt ∂ q̇ µ (11.29) Wir erinnern noch einmal daran, was die Notation bedeutet. Die linke Seite ist so zu verstehen, dass wir zuerst die Funktion T als gewöhnliche Funktion der Komponenten q̇ µ der Geschwindigkeit betrachten, diese Funktion partiell ableiten, und dann die Bahn q(t) und ihre Ableitung q̇(t) einsetzen. Dadurch wird der Ausdruck ∂T /∂ q̇ µ zu einer Funktion der Zeit, die wir dann wieder nach t ableiten können. Wir schreiben wie üblich die partiellen Ableitungen von Funktionen nach ihren Argumenten mit einem geschwungenen ‘∂’. Dagegen ist die totale Zeitableitung ‘d/dt’ immer so zu verstehen, dass wir den Ausdruck, auf den sie wirkt, entlang einer bestimmten Bahn q(t) auswerten, und diese Funktion dann nach t ableiten. An dieser Stelle haben die Ableitungssymbole ‘∂’ und ‘d’ also wirklich unterschiedliche Bedeutungen. Da dies im folgenden sehr wichtig ist, machen wir es uns noch einmal dadurch klar, dass wir die Bewegungsgleichungen (11.29) etwas expliziter ausschreiben. Da die Funktion T und damit auch die Ableitungen ∂T /∂ q̇ µ nur indirekt über q̇ µ (t) von der Zeit t abhängen, gilt natürlich die Kettenregel, also d ∂T ∂2T ∂ 2 T dq̇ ν = q̈ ν = dt ∂ q̇ µ ∂ q̇ µ ∂ q̇ ν dt ∂ q̇ µ ∂ q̇ ν ⇒ Mµν q̈ ν = Fµ . (11.30) Wenn T als quadratische Funktion durch eine Massenmatrix gegeben ist, ist die zweite Ableitung genau diese Massenmatrix. Wir sehen, dass (11.29) nichts anderes ist als eine etwas ungewöhnliche Darstellung der Newtonschen Bewegungsgleichungen, wonach Masse mal Beschleunigung gleich Kraft ist. Es stellt sich daher die Frage, warum wir diese merkwürdige Formulierung überhaupt benutzen. Die Bewegungsgleichung (11.30) sieht doch viel einfacher aus. Sie stellt über die Massenmatrix eine Beziehung zwischen der Kraft F ∈ T∗ Q und der Beschleunigung q̈ ∈ TQ her, und beschreibt so die Bewegungen des Systems im Konfigurationsraum auf eine geometrische Art und Weise, die zudem noch unabhängig von der Wahl der Koordinaten ist. Da alle drei beteiligten Objekte wie Tensoren transformieren, gilt die Gleichung in jedem affinen Koordinatensystem. Das haben wir gerade verwendet, um die Bewegungsgleichungen für einen zusammengesetzten harmonischen Oszillator zu entkoppeln 50 Um die Bewegungsgleichungen für ein gegebenes mechanisches System aufstellen und lösen zu können, genügt das jedoch meistens nicht. Wir müssen auch krummlinige Koordinatensysteme verwenden. Das Zentralkraftproblem, und insbesondere das Keplersche Problem der Planetenbahnen, konnten wir zum Beispiel erst erfolgreich angehen, nachdem wir Kugelkoordinaten eingeführt hatten. In krummlinigen Koordinatensystem gilt jedoch die einfache Darstellung (11.30) der Bewegungsgleichungen nicht mehr. Zwar können wir die Massenmatrix Mµν auch in einem krummlinigen Koordinatensystem darstellen, wobei ihre Komponenten dann ortsabhängig werden. Um jedoch die Beschleunigung in krummlinigen Koordinatensystemen darzustellen, benötigen wir eine kovariante Ableitung. Dies hatten wir in Kapitel 10 und insbesondere in Aufgabe 10.26 gesehen. Es genügt nicht, einfach die zweite Ableitung der Koordinatenfunktionen q µ (t) zu bilden. Es stellt sich nun heraus, dass es sehr viel einfacher ist, die Gleichung (11.29) in ein krummliniges Koordinatensystem zu transformieren, als die scheinbar einfachere Gleichung (11.30). Wir müssen dazu noch nicht einmal das Konzept der kovarianten Ableitung explizit verwenden, obwohl wir letztlich wieder eine solche bilden werden. Zudem ist das Ergebnis so allgemein, dass wir von der kinetischen Energie noch nicht einmal annehmen müssen, dass sie homogen vom Grad 2 ist, also quadratisch in den Geschwindigkeiten. Das wird sich später als nützlich erweisen, wenn wir sehr viel allgemeinere Bewegungsgleichungen betrachten. Das Ziel ist nun, die Bewegungsgleichung (11.29) in einem krummlinigen Koordinatensystem auf dem Konfigurationsraum Q darzustellen. Dazu sei weiterhin {q µ } ein affines Koordinatensystem, in dem die Gleichung in der angegebenen Form gelten soll. Die krummlinigen Koordinaten bezeichnen wir mit {q α }. Oft nennt man diese auch verallgemeinerte oder generalisierte Koordinaten. Die Unterscheidung zwischen den beiden Koordinatensystemen erfolgt, wie bisher auch, durch zwei verschiedene Indexmengen. Für die affinen Koordinaten verwenden wir die Indizes µ, ν, . . ., für die verallgemeinerten Koordinaten die Indizes α, β, . . .. Für ein N -Teilchen-System können die Koordinaten q µ zum Beispiel die kartesischen Ortskoordinaten {x1 , y1 , z1 , . . . , xN , yN , zN } der einzelnen Teilchen sein, und als verallgemeinerte Koordinaten q α können wir die Darstellungen derselben Orte in Kugelkoordinaten {r1 , ϑ1 , ϕ1 , . . . , rN , ϑN , ϕN } verwenden. Die Umrechnung zwischen den beiden Koordinatensystemen erfolgt dadurch, dass wir die affinen Koordinaten q µ als Funktionen der verallgemeinerten Koordinaten q α darstellen. Um ein möglichst allgemeines Ergebnis zu bekommen, lassen wir sogar zu, dass diese Funktionen explizit von der Zeit abhängen. Mit anderen Worten, wir können sogar zu jedem Zeitpunkt ein anderes krummliniges Koordinatensystem verwenden. Die Übergangsfunktionen haben dann die Form (11.31) q µ = q µ {q α }, t . Nun betrachten wir eine Bahn q(t) des Systems im Konfigurationsraum. In krummlinigen Koordinaten wird diese Bahn durch einen Satz von Funktionen q α (t) dargestellt. Folglich gilt für die Darstellung derselben Bahn in affinen Koordinaten q µ (t) = q µ {q α (t)}, t . (11.32) Wenn wir diese Gleichung nach der Zeit ableiten, finden wir die affinen Komponenten q̇ µ (t) der Geschwindigkeit, ausgedrückt durch die verallgemeinerten Koordinaten q α (t) und deren Zeitableitungen q̇ α (t), den verallgemeinerten Geschwindigkeiten. Auf der rechten Seite müssen wir dazu die partiellen Ableitungen der affinen Koordinaten nach den krummlinigen Koordinaten bilden, und zusätzlich die partielle Ableitung der Übergangsfunktionen nach der Zeit, ∂q µ ∂q µ {q α (t)}, t . (11.33) q̇ µ (t) = α {q α (t)}, t q̇ α (t) + ∂q ∂t Wir schreiben das etwas verkürzt in der Form ∂q µ ∂q µ . (11.34) q̇ µ = α q̇ α + ∂q ∂t 51 Der erste Term beschreibt wie üblich die Transformation eines Vektors von einem Koordinatensystem in ein anderes. Der zweite Term tritt auf, weil das krummlinige Koordinatensystem zusätzlich von der Zeit abhängen kann. Wenn die Koordinaten q α (t) zeitlich konstant sind, so bedeutet das nämlich nicht, dass die Teilchen ruhen, also die Konfiguration q(t) zeitlich konstant ist. Nun können wir die kinetische Energie T als Funktion der neuen Koordinaten ausdrücken. Ursprünglich war T ({q̇ µ }) eine Funktion, die nur von den Komponenten q̇ µ der Geschwindigkeit abhing. Da diese aber nun über (11.34) sowohl von den verallgemeinerten Geschwindigkeiten q̇ α als auch von den verallgemeinerten Koordinaten q α und sogar der Zeit t abhängen, wird die kinetische Energie jetzt zu einer Funktion T ({q α }, {q̇ α }, t). Das ist letztlich nichts anderes als die weiter oben bereits gemachte Feststellung, dass die Massenmatrix eines mechanischen Systems in krummlinigen Koordinaten ortsabhängig wird, da es sich um die Darstellung eines Tensors in einem krummlinigen Koordinatensystem handelt. Da dieses Koordinatensystem zudem von der Zeit abhängt, ergibt sich zusätzlich noch eine Zeitabhängigkeit. In krummlinigen Koordinaten hängt die kinetische Energie vom den Ortskoordinaten, den Komponenten der Geschwindigkeit und explizit von der Zeit ab. Am besten machen wir uns das wieder an einem Beispiel klar. Wir betrachten ein einzelnes Teilchen, das sich frei im Raum bewegt. Als affine Koordinaten q µ verwenden wir (x, y, z), und als verallgemeinerte Koordinaten q α , um auch eine explizite Zeitabhängigkeit zu bekommen, rotierende Zylinderkoordinaten (r, ϕ, z). Die zeitabhängigen Übergangsfunktionen (11.31) sollen explizit durch x = r cos(ϕ − ω t), y = r sin(ϕ − ω t) (11.35) gegeben sein. Die Winkelgeschwindigkeit ω gibt an, wie schnell sich das Koordinatensystem dreht. Die Koordinate z bleibt einfach unverändert. Sie spielt in den folgenden Überlegungen keine Rolle. Wenn wir diese Gleichungen nach der Zeit t ableiten, finden wir ẋ = ṙ cos(ϕ − ω t) − (ϕ̇ − ω) r sin(ϕ − ω t), ẏ = ṙ sin(ϕ − ω t) + (ϕ̇ − ω) r cos(ϕ − ω t). (11.36) Das sind die explizit ausgeschriebenen Gleichungen (11.34) für dieses spezielle Beispiel. Die rechten Seiten hängen nicht nur von den verallgemeinerten Geschwindigkeiten (ṙ, ϕ̇) ab, sondern auch von den Koordinaten (r, ϕ) und sogar explizit von der Zeit t. Für die kinetische Energie ergibt sich T = 1 1 m (ẋ2 + ẏ 2 + ż 2 ) = m (ṙ 2 + r 2 (ϕ̇ − ω)2 + ż 2 ). 2 2 (11.37) Auch diese Funktion ist wieder quadratisch in den verallgemeinerten Geschwindigkeiten, aber sie hängt zusätzlich von r ab, und sie enthält auch noch Terme, die proportional zu ω und ω 2 sind. Das ist auch klar, denn die kinetische Energie eines Teilchens, dass in diesem Koordinatensystem “ruht”, kreist ja in Wirklichkeit mit der Winkelgeschwindigkeit ω um den Ursprung. Aufgabe 11.11 In welcher konkreten physikalischen Situation w ürde die Wahl eines solchen Koordinatensystems nahe liegen? Aufgabe 11.12 Man ersetze in (11.35) ω t durch eine beliebige Funktion γ(t) und zeige, dass sich dann auch eine explizit zeitabhängige Energiefunktion T ergibt. 52 Die d’Alembertschen Gleichungen Wir wollen nun die Bewegungsgleichungen in krummlinigen Koordinaten darstellen. Da die kinetische Energie T ursprünglich nur eine Funktion der Geschwindigkeiten q̇ µ war, können wir die partiellen Ableitungen von T nach q α und q̇ α durch die Ableitungen der ursprünglichen Funktion T nach q̇ µ ausdrücken. Mit Hilfe der Kettenregel finden wir ∂T ∂T ∂ q̇ µ ∂T ∂q µ = = . ∂ q̇ α ∂ q̇ µ ∂ q̇ α ∂ q̇ µ ∂q α (11.38) Hier haben wir verwendet, dass aus (11.34) ∂ q̇ µ /∂ q̇ α = ∂q µ /∂q α folgt. Die partiellen Ableitungen ∂q µ /∂q α , die in (11.38) vorkommen, sind die ortsabhängigen Übergangsmatrizen für die Koordinatentransformation von {q µ } nach {q α }. Wir haben also gezeigt, dass sich die partiellen Ableitungen pα = ∂T /∂ q̇ α bzw. pµ = ∂T /∂ q̇ µ bei einer Koordinatentransformation wie die Komponenten eines dualen Vektors verhalten. Dies ist natürlich der Impulsvektor p ∈ T ∗ Q des Systems. Seine Komponenten pα bezüglich des krummlinigen Koordinatensystems werden auch als verallgemeinerte Impulse bezeichnet. Die entsprechende Rechnung für die partiellen Ableitungen von T nach den Koordinaten q α ist etwas komplizierter, da wir dazu die rechte Seite von (11.34) nochmal nach q α ableiten müssen. Das ergibt ∂T ∂ q̇ µ ∂T ∂ 2 q µ β ∂T ∂2qµ = µ α = µ q̇ + α . ∂q α ∂ q̇ ∂q ∂ q̇ ∂q ∂t ∂q α ∂q β (11.39) Wir wollen nun versuchen, die linke Seite der Gleichung (11.29) durch die krummlinigen Koordinaten auszudrücken. Als Ansatz bietet sich dazu an, die Zeitableitung von (11.38) zu bilden, d ∂T d ∂T ∂q µ d ∂T ∂q µ ∂T d ∂q µ = + = . dt ∂ q̇ α dt ∂ q̇ µ ∂q α dt ∂ q̇ µ ∂q α ∂ q̇ µ dt ∂q α (11.40) Auch das ist natürlich wieder so zu verstehen, dass wir zuerst die partiellen Ableitungen bilden, dann eine Bahn q(t) einsetzen, die wir jetzt wahlweise durch die Koordinatenfunktionen q µ (t) oder q α (t) darstellen können, und anschließend die totalen Zeitableitungen d/dt bilden. Der erste Term in der Klammer ist genau der, den wir suchen, nämlich die linke Seite von (11.29). Um den zweiten Term weiter umzuformen, benutzen wir, dass die affinen Koordinaten q µ sowohl implizit über die krummlinigen Koordinaten als auch explizit von der Zeit abhängen. Daher gilt ∂2qµ ∂2 qµ β d ∂q µ = α β q̇ + α . dt ∂q α ∂q ∂t ∂q ∂q (11.41) Das ist aber genau der Ausdruck in der Klammer in (11.39). Wir finden also d ∂T ∂q µ ∂T d ∂T − = . dt ∂ q̇ α ∂q α dt ∂ q̇ µ ∂q α (11.42) Um das für die Bewegungsgleichung zu verwenden, multiplizieren wir diese mit der Übergangsmatrix ∂q µ /∂q α und setzen ∂q µ Fα = α Fµ . (11.43) ∂q Die Größen Fα werden als verallgemeinerte Kräfte bezeichnet. Es sind die Komponenten des Kraftvektors F ∈ T∗ Q, dargestellt in den krummlinigen Koordinaten. Die Gleichung (11.43) beschreibt wieder das Transformationsverhalten eines dualen Vektors unter einer Koordinatentransformation. 53 Wenn wir nun dies und (11.42) in die Bewegungsgleichung (11.29) einsetzen, so lassen sich diese schließlich wie folgt schreiben, ∂T d ∂T d’Alembertsche = Fα . (11.44) α − Bewegungsgleichung dt ∂ q̇ ∂q α Die in dieser Form dargestellten Bewegungsgleichungen für ein mechanisches System heißen d’Alembertsche Gleichungen. Bis auf den zusätzlichen Term auf der linken Seite, der die Abhängigkeit der kinetischen Energie von den Koordinaten berücksichtigt, haben sie die gleiche Form wie vorher die Gleichungen (11.29) in affinen Koordinaten. Und es gibt natürlich wieder eine reelle Gleichung für jeden Freiheitsgrad des Systems. Tatsächlich verschwindet der zusätzliche Term auf der linken Seite, wenn der Zusammenhang zwischen q µ und q α affin und zeitunabhängig ist. Dann sind die neuen Geschwindigkeiten q̇ α lineare Funktionen der alten Geschwindigkeiten q̇ µ , und somit hängt auch die kinetische Energie nur von q̇ α , aber nicht von q α ab. Die allgemeinere Form (11.44) gilt also auch für affine Koordinatensysteme. Um die Bewegungsgleichungen für ein spezielles mechanisches System auf diese Form zu bringen, müssen wir nur zwei Dinge tun. Wir müssen die kinetische Energie T als Funktion der verallgemeinerten Koordinaten und deren Zeitableitungen darstellen, und wir müssen dasselbe mit der Kraft F tun. Bei der Kraft müssen wir zusätzlich beachten, dass es sich dabei um einen dualen Vektor handelt. Wir müssen deshalb gemäß (11.43) den Index transformieren. Um an unserem Beispiel von oben zu demonstrieren, dass die d’Alembertschen Gleichungen tatsächlich die richtigen Bewegungsgleichungen sind, setzen wir für T die Funktion (11.37) ein. Die Kraft soll der Einfachheit halber verschwinden, und wir setzen auch ω = 0. Das Zylinderkoordinatensystem soll also nicht rotieren. Dann ergeben sich nach einer kurzen Rechnung die folgenden Bewegungsgleichungen d dt d dt ∂T ∂T d − = m ṙ − m r ϕ̇2 = 0, ∂ ṙ ∂r dt ∂T ∂T d d ∂T ∂T d − = m r 2 ϕ̇ = 0, − = m ż = 0. ∂ ϕ̇ ∂ϕ dt dt ∂ ż ∂z dt (11.45) Das bemerkenswerte an diesem Beispiel ist, dass die beiden letzten Gleichungen ganz automatisch die entscheidenden Erhaltungssätze liefern, die wir benutzen können, um die Bewegungsgleichungen zu lösen. Es ist nämlich m ż = pz die Impulskomponente in z-Richtung, und pϕ = m r 2 ϕ̇ der Drehimpuls um die z-Achse. Beides sind natürlich für ein kräftefreies Teilchen Erhaltungsgrößen. Ebenfalls bemerkenswert ist, dass die Komponente pϕ = ∂T /∂ ϕ̇ des Impulses nach unserer neuen, allgemeinen Definition, wonach der Impuls die Ableitung der Energie nach der Geschwindigkeit ist, gerade der Drehimpuls ist, der einer Rotation in Richtung der Koordinaten ϕ entspricht. Anscheinend passt sich der Begriff “Drehimpuls” sehr gut in dieses allgemeine Konzept ein. Darauf werden wir später aber noch im Detail eingehen. Aufgabe 11.13 Man finde die allgemeine Lösung der Bewegungsgleichungen (11.45) und zeige, dass sich in dem dargestellten Beispiel auch für ω 6= 0 aus den d’Alembertschen Gleichungen die richtigen Bewegungsgleichungen für ein freies Teilchen ergeben. Aufgabe 11.14 Welche physikalischen Dimensionen haben die verallgemeinerten Koordinaten (r, ϕ, z) in dem gezeigten Beispiel? Welche physikalischen Dimensionen haben folglich die verallgemeinerten Impulse (pr , pϕ , pz ) und Kräfte (Fr , Fϕ , Fz ), wenn diese nicht gleich Null gesetzt sind? Aufgabe 11.15 Die kinetische Energie T sei eine homogene quadratische Funktion der verallgemeinerten Geschwindigkeiten q̇ α . Sie hänge nicht explizit von t, aber in irgendeiner Weise von den verallgemeinerten Koordinaten q α ab. Man zeige, dass dann die zeitliche Änderung der kinetischen Energie durch die 54 mechanische Leistung gegeben ist, die sich als Produkt von Kraft und Geschwindigkeit ergibt, dT = F · q̇ = Fµ q̇ µ = Fα q̇ α . dt (11.46) Warum kann die rechte Seite dieser Gleichung in jedem beliebigen Koordinatensystem ausgewertet werden? Aufgabe 11.16 Man zeige, dass sich die linke Seite der d’Alembertschen Gleichung wie ein dualer Vektor transformiert, und zwar beim Übergang von einem beliebigen krummlinigen Koordinatensystem zu einem beliebigen anderen. Man führe dazu einen zweiten Satz von krummlinigen Koordinaten q µ ein, stelle diese als Funktionen von q α dar, und zeige d ∂T ∂T ∂q µ d ∂T ∂T . (11.47) − = − dt ∂ q̇ α ∂q α ∂q α dt ∂ q̇ µ ∂q µ Die gerade durchgeführte Herleitung, bei der die Koordinaten q µ affin waren, ist also nur ein Spezialfall von diesem allgemeinen Transformationsverhalten. Die Lagrange-Funktion Besonders einfach ist die Situation dann, wenn alle auftretenden Kräfte Potenzialkräfte sind. Dann ist nämlich die Kraft der Gradient des Potenzials, und dann gilt natürlich in jedem Koordinatensystem, dass die Komponenten dieses dualen Vektors durch die partiellen Ableitungen nach den Koordinaten gegeben sind. Explizit, ∂V ∂q µ ∂q µ ∂V ∂V Fµ = − µ ⇒ F α = α Fµ = − α µ = − α . (11.48) ∂q ∂q ∂q ∂q ∂q Das Potenzial kann dabei auch von t abhängen, und die Umrechnungsformel (11.48) gilt auch dann, wenn die verallgemeinerten Koordinaten q α aus q µ durch eine zeitabhängige Transformation auseinander hervor gehen. In diesem Fall sind die Übergangsmatrizen ∂q µ /∂q α zwar zeitabhängig, aber die Beziehung (11.48) gilt immer noch zu jedem Zeitpunkt. Die d’Alembertschen Bewegungsgleichungen lauten jetzt ∂T ∂V d ∂T = 0. α − α + dt ∂ q̇ ∂q ∂q α (11.49) Da das Potenzial V nicht von der Geschwindigkeit abhängt, lässt sich das sogar noch einfacher schreiben. Wir definieren eine Funktion LagrangeFunktion L = T − V, (11.50) die auch wieder vom Ort, der Geschwindigkeit und eventuell explizit von der Zeit abhängt. Diese Funktion heißt Lagrange-Funktion. Die Lagrange-Funktion ist die Differenz von kinetischer und potenzieller Energie. Mit dieser Funktion können die d’Alembertschen Bewegungsgleichungen in einer sehr kompakten Form geschrieben werden, nämlich d ∂L ∂L Lagrange− = 0. (11.51) α Gleichung dt ∂ q̇ ∂q α Die gesamte Dynamik eines mechanischen System wird somit durch eine einzige Funktion L auf dem Konfigurationsraum beschrieben. Diese Funktion können wir in einem beliebigen Koordinatensystem darstellen, so dass die Lagrange-Gleichung (11.51) auch in jedem beliebigen Koordinatensystem ausgewertet 55 werden kann. Auch hier ergibt sich natürlich wieder eine reelle Differenzialgleichung für jeden Freiheitsgrad, also für jeden Wert, den der Index α annehmen kann. Für die explizite Herleitung von Bewegungsgleichungen für mechanische System ist die LagrangeFunktion ein sehr effizientes Werkzeug. Wir wollen das am Beispiel des allgemeinen Zentralkraftproblems demonstrieren. Ein Teilchen der Masse m befinde sich in einem Potenzial V = V (r). Seine kinetische Energie, in Kugelkoordinaten ausgedrückt, ist T = 1 m ṙ 2 + r 2 ϑ̇2 + r 2 sin2 ϑ ϕ̇2 . 2 (11.52) Aufgabe 11.17 Wieso ergibt sich dieser Ausdruck unmittelbar aus der Darstellung (10.54) der Euklidischen Metrik in Kugelkoordinaten? Die Lagrange-Funktion für dieses System ist folglich L=T −V = 1 m ṙ 2 + r 2 ϑ̇2 + r 2 sin2 ϑ ϕ̇2 − V (r). 2 (11.53) Diese Funktion müssen wir jetzt nur noch in (11.51) einsetzen und die entsprechenden partiellen Ableitungen bilden, um die Bewegungsgleichungen zu bekommen, d ∂L ∂L m ṙ − m r ϑ̇2 − m r sin2 ϑ ϕ̇2 + V 0 (r) = 0, − = ∂ ṙ ∂r dt d ∂L ∂L m r 2 ϑ̇ − m r 2 sin ϑ cos ϑ ϕ̇2 = 0 − = ∂ϑ dt ∂ ϑ̇ d ∂L ∂L d m r 2 sin2 ϑ ϕ̇ = 0. − = dt ∂ ϕ̇ ∂ϕ dt d dt d dt (11.54) Aus der zweiten Gleichung entnehmen wir, dass diese für ϑ(t) = π/2 erfüllt ist. Es ist also möglich, dass sich das Teilchen nur in der Äquatorebene aufhält. Tatsächlich genügt es dazu, die Anfangsbedingungen ϑ(t0 ) = π/2 und ϑ̇(t0 ) = 0 zu wählen. Die erste und die dritte Gleichung vereinfachen sich dann zu d m ṙ − m r ϕ̇2 + V 0 (r) = 0, dt d m r 2 ϕ̇ = 0. dt (11.55) Wir finden wieder die Drehimpulserhaltung pϕ = m r 2 ϕ̇ = konst, und für die radiale Bewegungsgleichung können wir ein effektives Potenzial einführen, m r̈ = −Ve 0 (r), pϕ2 mit Ve (r) = V (r) + . 2 m r2 (11.56) Was wir in Kapitel 8 erst durch mühsames Umrechnen der Koordinaten herleiten mussten, ergibt sich hier ohne größeren Aufwand, indem wir einfach die Lagrange-Funktion in Kugelkoordinaten darstellen. Natürlich haben wir dafür schon ein wenig Vorarbeit geleistet, indem wir zum Beispiel die Euklidische Metrik in Kugelkoordinaten dargestellt haben, so dass wir dies in (11.52) verwenden konnten. Trotzdem ist die Herleitung jetzt sehr viel einfacher. Denn wir haben hier nicht nur, wie in Kapitel 8, die Bewegungsgleichungen für ein Teilchen in der Äquatorebene bekommen, sondern mit (11.54) auch die für ein Teilchen, das sich beliebig im Raum bewegt und eine nicht verschwindende Geschwindigkeit ϑ̇ hat. Das wäre mit den Methoden in Kapitel 8 ungleich schwieriger gewesen. Aufgabe 11.18 Man zeige, dass der Ausdruck für pϕ = m r 2 sin2 ϑ ϕ̇ in der letzten Gleichung in (11.54) auch für ϑ 6= π/2 die z-Komponente des Drehimpulses des Teilchens ist. 56 Aufgabe 11.19 Am Beispiel des gekoppelten harmonischen Oszillators von weiter oben, und auch schon früher in Kapitel 6, hatten wir gesehen, dass eine nützlich Strategie zur Lösung von Bewegungsgleichungen deren Entkoppelung ist. Man beweise folgenden allgemeinen Satz. L ässt sich die Lagrange-Funktion eines mechanischen Systems als Summe von zwei Funktionen L = L1 + L2 schreiben, wobei L1 nur von einem Teil der Koordinaten abhängt, und L2 nur von den übrigen Koordinaten, so sind die beiden Sätze von Bewegungsgleichungen unabhängig voneinander. Sie können unabhängig voneinander gelöst werden, so als würde es sich um zwei voneinander getrennte mechanische System handeln. Aufgabe 11.20 Man wende den Satz aus Aufgabe 11.19 auf ein System von zwei Teilchen an, die sich frei im dreidimensionalen Raum bewegen und durch die Gravitationskraft anziehen. Welches sind hier die am besten geeigneten verallgemeinerten Koordinaten, in denen die Lagrange-Funktion sogar in vier unabhängige Summanden zerfällt? Kräfte und Potenziale Die d’Alembertsche Formulierung der Bewegungsgleichungen können wir für jedes mechanische System verwenden. Wir müssen nur, wenn wir ein krummliniges oder sogar zeitabhängiges Koordinatensystem verwenden, die Komponenten der Kräfte entsprechend in die verallgemeinerten Kräfte umrechnen. Wir können dies tun, indem wir direkt die Teilchenkoordinaten r n,i bzw. die Teilchenorte rn im dreidimensionalen Raum als Funktionen der krummlinigen Koordinaten q α auf dem Konfigurationsraum darstellen, also rn,i = rn,i {q α }, t bzw. rn = rn {q α }, t . (11.57) Hier ist n wieder der Teilchenindex, und i der Index für ein kartesisches Koordinatensystem im dreidimensionalen Raum. Die verallgemeinerten Kräfte Fα ergeben sich dann aus der allgemeinen Formel (11.43), wobei wir die Summe über den Index µ aufspalten müssen in eine Summe über die Teilchen n und eine Summe über die Vektorkomponenten i. Das ergibt Fα = X ∂rn,i n ∂q α Fn,i = X ∂rn n ∂q α · Fn . (11.58) Die Summe über den Vektorindex i können wir auch wieder als Skalarprodukt im Euklidischen Raum schreiben. In dieser Form lassen sich die verallgemeinerten Kräfte oft am einfachsten berechnen. Als Beispiel betrachten wir eine Reibungskraft als typisches Beispiel für eine Kraft, die sich nicht aus einem Potenzial ableiten lässt. Das System bestehe aus nur einem Teilchen, und wir benutzen Zylinderkoordinaten (r, ϕ, z). Der Ort des Teilchens ist dann r = o + r cos ϕ ex + +r sin ϕ ey , +z ez , (11.59) wobei (ex , ey , ez ) eine Orthonormalbasis ist. Die kinetische Energie entnehmen wir aus (11.37), indem wir dort ω = 0 setzen, 1 T = m (ṙ 2 + r 2 ϕ̇2 + ż 2 ). (11.60) 2 Von der Kraft nehmen an, dass es sich um eine lineare Reibungskraft handelt. Sie soll proportional zur Geschwindigkeit und ihr entgegengerichtet sein, F = −η ṙ ⇒ Fα = ∂r ∂r ∂r ∂r β q̇ . · α · F = −η α · ṙ = −η ∂q ∂q ∂q α ∂q β (11.61) Die Summe über n in (11.58) ist hier trivial, da nur ein Teilchen vorhanden ist. Der letzte Ausdruck ergibt sich, indem wir die Geschwindigkeit ṙ mit Hilfe der Kettenregel als Funktion der verallgemeinerten 57 Geschwindigkeiten q̇ α ausdrücken. Die Skalarprodukte gαβ = ∂r ∂r ∂ri ∂ri ∂ri ∂rj = α β = α β δij α · β ∂q ∂q ∂q ∂q ∂q ∂q (11.62) für α, β ∈ {r, ϕ, z} haben wir bereits einmal ausgerechnet. Das sind nämlich die Komponenten der Metrik in Zylinderkoordinaten, die in kartesischen Koordinaten durch g ij = δij dargestellt wird. Mit (10.49), um die Koordinate z ergänzt, ergibt sich grr = 1, gϕϕ = r 2 , gzz = 1, (11.63) und alle anderen Komponenten sind gleich Null. Im Falle eines Ein-Teilchen-Systems wird auf diese Weise natürlich auch auf dem Konfigurationsraum eine Metrik definiert, und diese können wir in beliebigen krummlinigen Koordinatensystemen darstellen. Für die verallgemeinerten Kräfte ergibt sich daraus Fα = −η gαβ q̇ β ⇒ Fr = −η ṙ, Fϕ = −η r 2 ϕ̇, Fz = −η ż. (11.64) Die verallgemeinerten Kräfte sind nicht einfach proportional zu den verallgemeinerten Geschwindigkeiten, sondern es tritt bei der ϕ-Komponente eine ortsabhängige Proportionalitätskonstante auf. Dafür gibt es wieder eine einfache geometrische Erklärung. Die Kraft ist ein dualer Vektor, die Geschwindigkeit dagegen ein Vektor. Deshalb wird der Zusammenhang zwischen den beiden durch die Metrik hergestellt, und deren Komponenten sind in krummlinigen Koordinaten ortsabhängig. Die linke Seite der d’Alembertschen Gleichung hatten wir bereits in (11.45) ausgerechnet. Auf der rechten Seite steht jetzt die Kraft (11.64). Folglich ergeben sich für das Teilchen mit linearer Reibung die Bewegungsgleichungen d m ṙ = m r ϕ̇2 − η ṙ, dt d m r 2 ϕ̇ = −η r 2 ϕ̇, dt d m ż) = −η ż. dt (11.65) Aufgabe 11.21 Man gebe die Lösung dieser Bewegungsgleichungen mit den Anfangsbedingungen r(0) = ρ, ṙ(0) = 0, ϕ(0) = 0, ϕ̇(0) = ω, z(0) = 0, ż(0) = v (11.66) an. Der Trick besteht auch hier darin, zuerst die Bewegungsgleichungen f ür den Drehimpuls pϕ = m r 2 ϕ̇ zu lösen. Es handelt sich zwar jetzt nicht mehr um eine Erhaltungsgr öße, aber sie lässt sich dennoch lösen, und danach entkoppeln die übrigen Bewegungsgleichungen. Aufgabe 11.22 Man führe die gleiche Rechnung in Kugelkoordinaten aus. Welche verallgemeinerten Komponenten (Fr , Fϑ , Fϕ ) ergeben sich in diesem Fall für die die Reibungskraft? Natürlich sind Zylinder- oder Kugelkoordinaten in diesem Fall nicht die am besten an das Problem angepassten Koordinaten. Die Bewegungsgleichungen in kartesischen Koordinaten sind viel einfacher, da sie für eine lineare Reibungskraft unmittelbar entkoppeln. Wir können aber eine kleine Variation an diesem Problem vornehmen, so dass das nicht mehr der Fall ist. Das leicht veränderte Problem dient gleichzeitig als Beispiel für eine verallgemeinerte Form der Bewegungsgleichungen, die sich als Kombination der d’Alembertschen und Lagrangeschen Form ergibt. Da Kräfte additiv sind, können wir sie in konservative Kräfte und solche Kräfte zerlegen, die sich nicht aus einem Potenzial ableiten lassen. Wir fassen dann alle konservativen Kräfte zu einem Potenzial V zusammen und definieren wie üblich eine Lagrange-Funktion L = T − V. Dann müssen wir aber die nicht-konservativen Kräfte noch zusätzlich in die Bewegungsgleichungen aufnehmen, indem wir ihre verallgemeinerten Komponenten Fα auf die rechte Seite schreiben. 58 Als Kombination der Bewegungsgleichungen (11.44) und (11.51) ergibt sich dann allgemeine Bewegungsgleichung ∂L d ∂L = Fα . α − dt ∂ q̇ ∂q α (11.67) Für V = 0 ist L = T , und es ergibt sich wieder die d’Alembertsche Formulierung. Für F α = 0 sind alle Kräfte konservativ, und es ergibt sich die Lagrangesche Formulierung. Als Beispiel fügen wir zu unserem oben definierten Teilchen mit Reibungskraft ein Potenzial V = V (r) hinzu, das nur vom Abstand von der z-Achse abhängen soll. In diesem Fall sind die Zylinderkoordinaten etwas besser an das Problem angepasst, denn dann hängt das Potenzial nur von einer Koordinate ab. Wir können uns als Realisierung eines solchen Systems ein elektrisch geladenes Teilchen vorstellen, das sich in einem Medium, das eine Reibung verursacht, in der Nähe eines geladenen Drahtes befindet. Um die Bewegungsgleichungen in der Form (11.67) aufzuschreiben, müssen wir nur statt der kinetischen Energie (11.60) die Lagrange-Funktion L=T −V = 1 m ṙ 2 + r 2 ϕ̇2 + ż 2 − V (r) 2 (11.68) verwenden. Die Reibungskraft ist die gleiche wie vorher. Folglich ändert sich nur die Bewegungsgleichung für die Koordinate r, denn nur in sie geht die Ableitung des Potenzials ein. Es genügt außerdem, nur die Bewegungsgleichungen für r und ϕ zu betrachten, da die Bewegung in z-Richtung ohnehin entkoppelt, d m ṙ = m r ϕ̇2 − η ṙ − V 0 (r), dt d m r 2 ϕ̇ = −η r 2 ϕ̇. dt (11.69) Aufgabe 11.23 Das Potenzial sei V (r) = κ r 2 /2, bewirke also eine lineare, rücktriebende Kraft. Welche Lösung ergibt sich dann aus den Anfangsbedingungen (11.66)? Auch hier l ässt sie sich wieder bestimmen, wenn man zuerst die unveränderte Bewegungsgleichung für den Drehimpuls pϕ = m r 2 ϕ̇ löst. Aufgabe 11.24 Es sei V (r) irgendeine monoton wachsende Funktion, so dass das Minimum des Potenzials auf der z-Achse liegt. Man zeige, dass in diesem Fall jede Bewegung, unabh ängig von den Anfangsbedingungen, früher oder später in der Nähe der z-Achse endet. Es gilt also r(t) → 0 für t → ∞. Aufgabe 11.25 Man führe wieder die analogen Überlegungen in Kugelkoordinaten durch, wobei das Potenzial in diesem Fall kugelsymmetrisch sein soll. Man zeige entsprechend, dass bei einem monoton ansteigenden Potenzial V (r) das Teilchen stets in der Nähe des Ursprungs endet, also auch hier r(t) → 0 für t → ∞ gilt. Die Lorentz-Kraft Mit der Mischform (11.67) haben wir die allgemeinste Darstellung für die Bewegungsgleichungen eines mechanischen Systems in einem beliebigen krummlinigen Koordinatensystem angegeben. Wir wollen jetzt noch der Frage nachgehen, was das allgemeinste Kraftgesetz ist, das sich allein aus einer LagrangeFunktion ableiten lässt. Bisher hatten wir argumentiert, dass es dazu ein Potenzial V geben muss, also eine Funktion des Ortes q ∈ Q, deren Gradient die Kraft ist. Eine genauere Betrachtung zeigt jedoch, dass sich eine viel größere Klasse von Kräfte durch eine Lagrange-Funktion beschreiben lässt. Interessanterweise sind es genau diejenigen Kräfte, die wir als elektromagnetische Kräfte kennen. Das ist ein sehr bemerkenswerter Umstand, denn es zeigt, dass es offenbar einen Zusammenhang zwischen der Lagrangeschen Formulierung der Mechanik und anderen, fundamentalen physikalischen Theorien gibt. 59 Um herauszufinden, welche Arten von Kräften sich prinzipiell aus einer Lagrange-Funktion ableiten lassen, betrachten wir irgendeine Funktion L, die ein Polynom vom Grad 2 in den Geschwindigkeiten ist, aber ansonsten beliebig vom Ort und der Zeit abhängt. Das ist natürlich noch längst nicht die allgemeinste mögliche Lagrange-Funktion. Da aber für mechanische Systeme die kinetische Energie immer eine quadratische Funktion der Geschwindigkeit ist, treten nur solche Lagrange-Funktionen für physikalisch realistische Systeme auf. Wir sind außerdem bescheiden und betrachten nur ein einzelnes Teilchen, also einen dreidimensionalen Konfigurationsraum, dessen Koordinaten wir mit ri bezeichnen. Dies seien die üblichen kartesischen Koordinaten im Euklidischen Raum, so dass wir alle Indizes nach unten schreiben können. Die LagrangeFunktion lautet dann 1 (11.70) L = Mij (r, t) ṙi ṙj + Ai (r, t) ṙi − φ(r, t), 2 wobei Mij ein beliebiges symmetrisches Tensorfeld zweiter Stufe ist, Ai ein beliebiges Vektorfeld, und φ ein beliebiges skalares Feld, jeweils auf dem dreidimensionalen Euklidischen Raum. Alle drei Felder können zudem von der Zeit abhängen. Das ist offenbar die allgemeinste Funktion L mit den verlangen Eigenschaften. Der spezielle Fall eines gewöhnlichen Teilchens der Masse m in einem Potenzial V (r, t) ist darin enthalten. In diesem Fall müssen wir nur Mij (r, t) = m δij , Ai (r, t) = 0 und φ(r, t) = V (r, t) setzen. Wie lauten nun die Bewegungsgleichungen, die sich aus (11.70) ergeben? Wir müssen dazu nur die Gleichung (11.51) auswerten. Zunächst ist ∂L = Mkj (r, t) ṙj + Ak (r, t). ∂ ṙk (11.71) Diese Größe müssen wir nach der Zeit ableiten, wobei wir jetzt beachten müssen, dass wir zuerst für r eine Bahn r(t) einsetzen müssen, und dass wir zusätzlich die explizite Zeitabhängigkeit der Felder M ij und Ai berücksichtigen müssen. Es genügt, den Ausdruck wie folgt teilweise mit Hilfe der Kettenregel auszuwerten, d d ∂L Mkj (r, t) ṙj + ∂i Ak (r, t) ṙi + ∂t Ak (r, t). (11.72) = dt ∂ ṙk dt Als Abkürzungen haben wir hier ∂t für die partielle Ableitung ∂/∂t nach der Zeit verwendet, und wie üblich ist ∂i die Ableitung ∂/∂ri nach den räumlichen Koordinaten. Jetzt müssen wir noch den zweiten Term in der Bewegungsgleichung ausrechnen. Das ergibt ∂L 1 = ∂k Mij (r, t) ṙi ṙj + ∂k Ai (r, t) ṙi − ∂k φ(r, t). ∂rk 2 (11.73) Wenn wir die Terme dann noch ein wenig ordnen, bekommen wir die Lagrange-Gleichung 1 d Mkj ṙj − ∂k Mij ṙi ṙj = ∂k Ai − ∂i Ak ṙi − ∂k φ + ∂t Ak . dt 2 (11.74) Diese Gleichung können wir wie folgt interpretieren. Auf der linken Seite steht die Zeitableitung des Impulses. Allerdings hängt der Impuls jetzt nicht mehr einfach nur linear mit der Geschwindigkeit zusammen, sondern über eine orts- und zeitabhängige Massenmatrix Mij . Das ist etwas ungewöhnlich, aber zumindest im Prinzip können wir uns ja durchaus vorstellen, dass die Trägheit eines Teilchens keine feste Eigenschaft des Teilchen ist, sondern von Ort, Zeit und sogar der Bewegungsrichtung im Raum abhängt. Genau dies wird durch die orts- und zeitabhängige Massenmatrix Mij ausgedrückt, also durch den quadratischen Teil der Lagrange-Funktion. Der zusätzliche Term auf der linken Seite ist derselbe, der sich auch in einem krummlinigen Koordinatensystem ergibt, wenn dort die Massenmatrix ortsabhängig ist. 60 Da die Kraft auf der rechten Seite der interessantere Aspekt der Bewegungsgleichung ist, setzen wir von nun an Mij = m δij , betrachten also ein “gewöhnliches” Teilchen mit der Masse m. Auf der linken Seite der Bewegungsgleichung (11.74) steht dann m r̈k , also Masse mal Beschleunigung. Die Kraft Fk auf der rechten Seite hängt aber immer noch vom Ort, der Geschwindigkeit und von der Zeit ab. Es ist also nicht einfach eine Potenzialkraft. Eine kurze Rechnung zeigt, dass wir diese speziele Form einer Kraft bereits kennen. Definieren wir nämlich zwei neue Vektorfelder, Bi = εijk ∂j Ak und Ei = ∂i φ + ∂t Ai , (11.75) dann gilt für die Kraft auf der rechten Seite von (11.74) Fk = εkij ṙi Bj + Ek oder F = ṙ × B + E. (11.76) Das ist die elektromagnetische Lorentz-Kraft. Nur die Ladungen und, je nach Wahl des Einheitensystems, die Lichtgeschwindigkeit fehlt in dieser Darstellung. Das lässt sich aber leicht beheben. Hat das Teilchen eine Masse m und eine Ladung q, und verwenden wir das Gaußsche Maßsystem, so müssen wir die Lagrange-Funktion 1 q L = m ṙ · ṙ + A(r, t) · ṙ − q φ(r, t) (11.77) 2 c verwenden, um die Bewegungsgleichung mit den richtigen Konstanten zu bekommen, nämlich m r̈ = q ṙ × B + q E, c mit B = ∇ × A, E = −∇φ − 1 ∂t A. c (11.78) Bemerkenswert an diesem Ergebnis ist nicht nur, dass die Lorentz-Kraft offenbar die allgemeinste Form einer Kraft ist, die sich für ein einzelnes Teilchen aus einer Lagrange-Funktion ableiten lässt. Das eigentlich verblüffende ist, dass nur solche elektrische und magnetische Felder auftreten, die Lösungen der homogenen Maxwell-Gleichungen sind, für die also gilt ∇×E+ 1 ∂t B = 0, c ∇ · B = 0. (11.79) Denn genau diese Felder lassen sich durch ein elektrisches Potenzial φ und ein magnetisches Vektorpotenzial A wie in (11.78) darstellen. Es lassen sich also nicht nur Potenzialkräfte aus einer Lagrange-Funktion ableiten, sondern auch geschwindigkeitsabhängige Kräfte, wenn sie die Form der Lorentz-Kraft haben. Dass dem so ist, können wir an dieser Stelle nur feststellen. Dass es sich dabei um eine sehr tiefsinnige Erkenntnis handelt, wird erst sehr viel später klar werden, wenn wir nämlich zeigen, dass sich auch die Bewegungsgleichungen des elektromagnetischen Feldes, also die Maxwell-Gleichungen aus einer Lagrange-Funktion ableiten lassen. Dann wird sich diese Eigenschaft der Lorentz-Kraft nämlich als eine Konsistenzbedingung ergeben, und es werden dabei auch die inhomogenen Maxwell-Gleichungen eine Rolle spielen. Aber das geht natürlich zu weit über die klassische Mechanik hinaus, als das wir es an dieser Stelle wirklich verstehen können. Wir werden uns im folgenden auf rein mechanische Systeme beschränken, und im nächsten Kapitel den Umgang mit Lagrange-Funktion ausführlich üben. Aufgabe 11.26 Aus der elementaren Elektrodynamik ist bekannt, dass sich die Felder E und B nicht ändern, wenn wir die Potenziale φ und A wie folgt eichtransformieren, φ0 = φ − 1 ∂t Λ, c A0 = A + ∇Λ, 61 (11.80) wobei Λ irgendeine Funktion von Ort und Zeit ist. Das ergibt sich auch durch Einsetzen unmittelbar aus (11.78). Die Lagrangefunktion L ändert sich jedoch, wenn wir diese Transformation durchführen. Man zeige, dass die transformierte Funktion durch L0 = L + q dΛ c dt (11.81) gegeben ist. Die Zeitableitung d/dt ist wie üblich so zu verstehen ist, dass wir die Funktion Λ erst entlang einer Bahn auswerten, und das Ergebnis dann als Funktion von Ort und Geschwindigkeit darstellen. Aufgabe 11.27 Man beweise folgenden allgemeinen Satz. Es sei L irgendeine Lagrange-Funktion auf einem Konfigurationsraum Q, die nicht einmal quadratisch in den Geschwindigkeiten sein muss. Sie wird in einem beliebigen Koordinatensystem dargestellt als Funktion der Ortskoordinaten q α , der Geschwindigkeiten q̇ α und der Zeit t. Eine zweite Lagrange-Funktion L0 sei definiert durch L0 = L + dΛ ∂Λ ∂Λ = L + α q̇ α + , dt ∂q ∂t (11.82) wobei Λ irgendeine Funktion der Orte q α und der Zeit t ist. Dann ergeben sich aus L und L0 dieselben Bewegungsgleichungen (11.51). Verschiedene Lagrange-Funktionen L und L 0 führen also auf die gleichen Bewegungsgleichungen, wenn sie sich nur um die totale Zeitableitung einer Funktion Λ unterscheiden. 62 12 Einfache mechanische Systeme Eine besondere Stärke der d’Alembertschen oder Lagrangeschen Formulierung der Bewegungsgleichungen für mechanische Systeme liegt darin, dass sich Systeme mit Zwangsbedingungen besonders elegant und einfach beschreiben lassen. Einige spezielle solche Systeme hatten wir schon in Kapitel 5 diskutiert, dort jedoch mit den manchmal etwas schwerfälligen Newtonschen Methoden. Aufbauend auf den allgemeinen Überlegungen aus dem letzten Kapitel werden wir hier zunächst eine Art Rezept für die Beschreibung von allgemeinen mechanischen Systemen entwickeln. Es besteht aus ein paar einfachen Grundregeln, nach denen wir im Prinzip für jedes mechanische System in wenigen Schritten die Bewegungsgleichungen herleiten können. Um die Effizienz dieses Verfahrens zu demonstrieren, werden wir es anschließend auf eine Reihe von typischen mechanischen Systemen mit Zwangsbedingungen anwenden. Bei den meisten derartigen Systemen geht es im wesentlichen darum, die richtige Lagrange-Funktion zu bestimmen. Nach ein wenig Übung ist dies oft nur noch ein Ein- oder Zwei-Zeilen-Rechnung. Man entwickelt schließlich eine gewisse Intuition dafür, wie die Lagrange-Funktion für ein gegebenes System aussehen muss, wenn dieses bestimmte physikalische Eigenschaften hat. Später werden wir solche Eigenschaften noch etwas systematischer untersuchen. Dieses Kapitel soll hauptsächlich als Beispielsammlung dienen, auf die wir dann hin und wieder zurückgreifen können. Holonome Zwangbedingungen Wir wollen zunächst kurz wiederholen, was wir unter einer Zwangsbedingung und einer Zwangskraft verstehen. Auch dies lässt sich mit dem Konzept des Konfigurationsraumes besonders elegant darstellen. Eine Zwangsbedingung ist eine Einschränkung der physikalisch möglichen Konfigurationen eines mechanischen Systems. Ein typisches Beispiel dafür ist ein Pendel, bei dem sich ein Teilchen nur auf einer Kugeloberfläche mit einem vorgegebenen Radius bewegen kann. Eine solche Bedingung wird durch eine Gleichung C(q, t) = 0 auf dem Konfigurationsraum dargestellt. Sie kann auch explizit von der Zeit abhängen. So können wir zum Beispiel bei einem Pendel die Länge ` der Pendelschnur “von außen” in einer vorgegebenen Art und Weise als Funktion der Zeit ändern. In diesem Fall würde die Zwangsbedingung lauten C(q, t) = x2 + y 2 + z 2 − `(t)2 = r 2 − `(t)2 = 0. (12.1) Hier haben wir dieselbe Funktion C(q, t) auf dem Konfigurationsraum einmal in kartesischen Koordinaten (x, y, z) und einmal in Kugelkoordinaten (r, ϑ, ϕ) dargestellt. Die Funktion `(t) ist in diesem Fall fest vorgegeben. Wir legen die Länge der Pendelschnur unabhängig davon fest, welche Bewegungen das Pendel ausführt. Sonst würde es sich nicht um eine Zwangsbedingung handeln, sondern es läge eine Wechselwirkung zwischen dem Pendel und der äußeren Instanz vor, die die Länge einstellt. Zwangsbedingungen sind immer unabhängig davon, welche Bewegungen ein System tatsächlich ausführt. Wir bezeichnen eine solche Einschränkung der Bewegungsfreiheit eines mechanischen Systems als eine holonome Zwangsbedingung, was soviel wie “ganzheitliche” Zwangsbedingung bedeutet. Es gibt noch andere Arten von Zwangsbedingungen, auf die wir später eingehen werden. Eine holonome Zwangsbedingung wird durch eine skalare Funktion auf dem Konfigurationsraum eines mechanischen System definiert, die für alle physikalische m öglichen Konfigurationen verschwindet. Ein System kann natürlich mehreren solcher Zwangsbedingungen unterliegen. Im allgemeinen haben wir einen Satz von K ≥ 1 Zwangsbedingungen, die wir durch die Gleichungen C k (q, t) = 0, mit k ∈ {1, . . . , K}, 63 (12.2) darstellen können. Die Systeme, die wir in Kapitel 5 studiert haben, zum Beispiel das Schienenfahrzeug, das Pendel oder die Hantel, waren alle von dieser Form. Dort waren die Zwangsbedingungen sogar immer unabhängig von der Zeit. Man kann sich aber leicht Verallgemeinerungen mit zeitabhängigen Zwangsbedingungen vorstellen, wie etwa das Pendel mit veränderlicher Länge. In einem mechanischen System mit Zwangsbedingungen treten Zwangskräfte auf, die dafür sorgen, dass die gestellten Bedingungen auch tatsächlich erfüllt werden. Früher hatten wir argumentiert, dass diese Kräfte stets senkrecht zu den möglichen Bewegungsrichtungen wirken müssen, da sie sonst das System quasi “von selbst” in Bewegung setzen könnten. Die Begründung beruhte jedoch eher auf einer gewissen physikalischer Intuition als auf einem mathematischen Beweis. Einen solchen Beweis kann es natürlich auch nicht geben. Denn letztlich handelt es sich um einen speziellen Aspekt einer physikalischen Theorie. Es ist eine Beobachtung, dass Zwangsbedingungen nicht dazu führen, dass sich ein Pendel von selbst in Bewegung setzt, oder dass ein Schienenfahrzeug nur aufgrund der Tatsache, dass es ein solches ist, von selbst bergauf fährt. Wir können diese spezielle Eigenschaft von Zwangskräften nicht beweisen. Aber wir können sie nun ein wenig besser begründen. Wir schreiben zunächst die d’Alembertschen Bewegungsgleichungen auf, wie sie für jedes mechanische System gelten. Wir verwenden dazu beliebige, verallgemeinerte Koordinaten q µ auf dem Konfigurationsraum. Allerdings spalten wir die Kräfte jetzt in Zwangskräfte Zµ und dynamische Kräfte Fµ auf, also d ∂T ∂T = Fµ + Zµ . µ − dt ∂ q̇ ∂q µ (12.3) Unter den dynamischen Kräften Fµ verstehen wir diejenigen Kräfte, die wir als Funktionen der Orte und Geschwindigkeiten der Teilchen explizit angeben können. Dies umfasst sowohl die Wechselwirkungen der Teilchen untereinander als auch die möglicherweise von außen einwirkenden Kräfte. Die Zwangskräfte Zµ sind dagegen diejenigen Kräfte, von denen wir nur wissen, was sie bewirken, aber uns nicht damit auseinandersetzen wollen oder können, wie sie entstehen. Das Ziel ist es, diese unbekannten Kräfte aus dem Gleichungssystem (12.3) zu eliminieren. Betrachten wir zuerst den Fall, dass nur eine einzige Zwangsbedingung C(q, t) = 0 vorliegt. Wir können in diesem Fall die Zwangskraft Zµ als Grenzfall einer Potenzialkraft ansehen. Wir stellen uns vor, dass ein sehr hohes und steiles Potenzial das System daran hindert, sich von dem Unterraum des Konfigurationsraumes zu entfernen, in dem C(q, t) = 0 ist. Ein solches Potenzial ist durch V(q, t) = 1 Λ C(q, t)2 2 (12.4) gegeben, wobei Λ eine große Zahl sein soll. Sie muss natürlich die richtige physikalische Dimension haben, damit V eine Energie ist. Das Potenzial bewirkt eine rücktreibende Kraft Zµ (q, t) = − ∂V(q, t) ∂C(q, t) = −Λ C(q, t) . µ ∂q ∂q µ (12.5) Sie zeigt in Richtung des Gradienten der Funktion C(q, t) im Konfigurationsraum. Die Zeitabhängigkeit spielt dabei keine Rolle. Sie bewirkt nur, dass zu unterschiedlichen Zeiten am selben Ort im Konfigurationsraum unterschiedliche Kräfte wirken. Was passiert nun, wenn wir den Grenzwert Λ → ∞ bilden? Das Potenzial wird dann unendlich hoch, außer dort, wo C(q, t) = 0 ist. Das System, das immer nur eine endliche Energie besitzt, wird gezwungen, sich dort aufzuhalten. Die Zwangskraft stellt sich dabei so ein, dass sie endlich bliebt, denn trotz der Zwangsbedingung erfahren die einzelnen Teilchen ja nur endliche Beschleunigungen. Während Λ wächst, geht der Faktor C(q, t) gegen Null, denn das System wird immer stärker gezwungen, in der Nähe des erlaubten Unterraumes zu bleiben. Es bliebt schließlich im Grenzfall ein Ausdruck für die Zwangskraft, dessen Betrag wir nicht kennen. Denn dieser ergibt sich aus dem Grenzwert des Produktes Λ C(q, t), und 64 der hängt von der tatsächlich realisierten Bewegung ab. Aber wir kennen die Richtung dieser Kraft. Sie zeigt in Richtung des Gradienten der Funktion C(q, t) im Konfigurationsraum. Aus der realistischen Annahme, dass eine Zwangskraft in Wirklichkeit eine sehr starke Potenzialkraft ist, folgt also, dass sie stets in die Richtung des Gradienten der Zwangsbedingung zeigt. Auch hier geht wieder die Eigenschaft ein, dass die Kraft ein dualer Vektor auf dem Konfigurationsraum ist. Denn sonst würde eine solche Aussage keinen Sinn ergeben. Nur bei einem Ein-Teilchen-System, dessen Konfigurationsraum mit dem dreidimensionalen Euklidischen Raum identisch ist, ist sie äquivalent zu der Aussage, dass die Zwangskraft auf den möglichen Bewegungsrichtungen senkrecht steht, denn nur dann steht uns immer eine Metrik zur Verfügung. Eine wesentliche Voraussetzung bei dieser Überlegung ist, dass der Gradient ∂C/∂q µ überall dort, wo C = 0 ist, nicht verschwindet. Das ist die Analogie zu der Eigenschaft einer gewöhnlichen reellen Funktion von einer Variablen, eine einfache Nullstelle zu haben, also eine Nullstelle, an der nicht gleichzeitig ihre Ableitung verschwindet. Anschaulich heißt das, dass die Funktion C in jede Richtung weg von der Nullstellenmenge linear ansteigt oder abfällt. Ohne diese Voraussetzung könnten wir die Zwangskraft nicht auf diese Weise darstellen. Aufgabe 12.1 Davon abgesehen haben wir bei der Formulierung der Zwangsbedingungen aber eine gewisse Freiheit. Es seien C und C˜ zwei Funktionen auf Q, die dieselbe Nullstellenmenge haben, und deren Gradienten auf dieser Nullstellenmenge nirgendwo verschwinden. Man zeige, dass dann die Gradien˜ µ ∝ ten beider Funktion zumindest auf der Nullstellenmenge in dieselbe Richtung zeigen. Es gilt ∂ C/∂q ∂C/∂q µ überall dort, wo C = 0 und C˜ = 0 ist. Das ganze lässt sich leicht auf ein System von mehreren Zwangsbedingungen erweitern. Wir betrachten dann einfach ein Potenzial, das das System zwingt, alle Zwangsbedingungen zu erfüllen, zum Beispiel V(q, t) = 1 X Λkl C k (q, t) C l (q, t) 2 k,l ⇒ Zµ (q, t) = − X kl Λkl C k (q, t) ∂C l (q, t) . ∂q µ (12.6) Hier ist Λkl irgendeine symmetrische, positive K×K-Matrix, deren Einträge wir so wählen, dass alle Summanden die Dimension einer Energie haben. Das Potenzial V ist dann überall dort positiv, wo mindestens eine Zwangsbedingung nicht Null ist, und Null genau dort, wo alle Zwangsbedingungen erfüllt sind. Lassen wir nun die Einträge der Matrix Λkl , oder zumindest deren Eigenwerte gegen Unendlich gehen, so wird das System wieder gezwungen, die Zwangsbedingungen zu erfüllen. Denn das Potenzial bleibt nur dort endlich, wo alle Zwangsbedingungen erfüllt sind. Die dann wirkende Zwangskraft ist eine Linearkombination der Gradienten ∂C k /∂q µ . Wir schreiben dafür Zµ = − X k λk ∂C k . ∂q µ (12.7) Die unbekannten Koeffizienten λk werden Lagrange-Multiplikatoren genannt. Sie werden erst durch die tatsächlich realisierte Bewegung des Systems bestimmt und hängen dann natürlich auch von der Zeit ab. Auch hier setzen wir wieder voraus, dass sich jede mögliche Zwangskraft so darstellen lässt. Das ist genau dann der Fall, wenn die Gradienten X kµ = ∂C k /∂q µ einen Satz von K linear unabhängigen dualen Vektoren bilden, und zwar an jeder Stelle der gemeinsamen Nullstellenmenge der Funktionen C k . Anschaulich heißt das wieder, dass in jede Richtung weg von der Nullstellenmenge mindestens eine der Zwangsbedingungen linear ansteigt. Nun unter dieser Voraussetzung wird durch das Potenzial (12.6) in jede Richtung eine lineare rücktriebende Kraft erzeugt. Wenn wir das hier beschriebene Verfahren anwenden wollen, müssen wir die Zwangsbedingungen also immer so formulieren, dass ihre Gradienten zumindest auf der Nullstellenmenge linear unabhängig sind. 65 Beim Pendel ist dies der Fall. Der Gradient Xµ = ∂C/∂q µ von (12.1) ist in kartesischen Koordinaten Xx = 2 x, Xy = 2 y und Xz = 2 z, oder in Kugelkoordinaten Xr = 2 r, Xϑ = 0 und Xϕ = 0. Auf der Nullstellenmenge, also für r = `, ist er nicht Null. Außerdem sehen wir, dass der Gradient tatsächlich die Richtung der Zwangskraft angibt, die in diesem Fall in radiale Richtung wirkt, und zwar unabhängig davon, ob die Pendellänge ` konstant ist oder zeitlich variiert. Um die Bahn des Systems zu bestimmen, müssen wir neben den 3 N Koordinatenfunktionen q µ (t), die die eigentliche Bahn des Systems beschreiben, nun auch die Lagrange-Multiplikatoren λ k (t) bestimmen. Das sind K zusätzliche Funktionen der Zeit. Dafür haben wir aber auch K zusätzliche Gleichungen, nämlich die Zwangsbedingungen. Tatsächlich ergibt sich aus diesen und den d’Alembertschen Bewegungsgleichungen jetzt ein System von 3 N + K unabhängigen Gleichungen für ebenso viele Funktionen. Sie lauten X ∂C k ∂T d ∂T λk µ , C k = 0. (12.8) µ − µ = Fµ − dt ∂ q̇ ∂q ∂q k Wenn die dynamischen Kräfte Fµ = −∂V/∂q µ Potenzialkräfte sind, lassen sich auch diese Gleichungen wieder besonders elegant schreiben. Wir definieren dazu eine erweiterte Lagrange-Funktion, in die auch die Zwangsbedingungen eingehen, und zwar jeweils multipliziert mit ihren Lagrange-Multiplikatoren. Das erklärt im übrigen auch die Bezeichnung “Multiplikator”. Wir setzen also X λk C k . (12.9) Le = T − V − k Auch hier ist wieder die gesamte Dynamik des Systems in einer einzigen Funktion zusammengefasst. Die Bewegungsgleichungen (12.8) lauten nämlich nun d ∂ Le ∂ Le − = 0, dt ∂ q̇ µ ∂q µ ∂ Le = 0. ∂λk (12.10) Zusätzlich zu den bereits bekannten Langrangeschen Bewegungsgleichungen müssen die partiellen Ableitungen von Le nach den Multiplikatoren verschwinden. Auf diese Weise werden dem System die Zwangsbedingungen auferlegt. Um eines der Standardbeispiele aus Kapitel 5 zu reproduzieren, betrachten wir das Pendel im Schwerefeld. Die Pendellänge ` soll jetzt konstant sein. Die dynamischen Kräfte sind in diesem Fall Potenzialkräfte. Zunächst verwenden wir kartesische Koordinaten (x, y, z). Dann ist die erweiterte Lagrange-Funktion durch m 2 Le = T − V − λ C = ẋ + ẏ 2 + ż 2 − m g z − λ x2 + y 2 + z 2 − `2 (12.11) 2 gegeben. Die Bewegungsgleichungen (12.10) lauten demnach d m ẋ + 2 λ x = 0, dt d m ẏ + 2 λ y = 0, dt d m ż + 2 λ z + m g = 0, dt (12.12) e und natürlich ist die Zwangsbedingung ∂ L/∂λ = x2 + y 2 + z 2 − `2 = 0 zu erfüllen. Wir müssen also ein System von vier Gleichungen für die vier Funktionen x(t), y(t), z(t) und λ(t) lösen. Auf diese Weise hatten wir die Bewegungen des Pendels in Kapitel 5 studiert. Etwas einfacher geht es, wenn wir von Anfang an Kugelkoordinaten verwenden. In diesem Fall ist die kinetische Energie durch den Ausdruck (11.52) gegeben, und für die erweitere Lagrange-Funktion ergibt sich m 2 ṙ + r 2 ϑ̇2 + r 2 sin2 ϑ ϕ̇2 + m g r cos ϑ − λ (r 2 − `2 ). (12.13) Le = T − V − λ C = 2 66 Analog zu (11.54) finden wir jetzt die Bewegungsgleichungen d ∂ Le − dt ∂ ṙ d ∂ Le − dt ∂ ϑ̇ d ∂ Le − dt ∂ ϕ̇ ∂ Le d m ṙ − m r ϑ̇2 − m r sin2 ϑ ϕ̇2 − m g cos ϑ + 2 r λ = 0, = ∂r dt ∂ Le d m r 2 ϑ̇ − m r 2 sin ϑ cos ϑ ϕ̇2 + m g r sin ϑ = 0, = ∂ϑ dt ∂ Le d m r 2 sin2 ϑ ϕ̇ = 0. = ∂ϕ dt (12.14) Auf den ersten Blick sieht das sehr viel komplizierter aus als (12.12). Betrachten wir aber die einzelnen Gleichungen, so stellen wir fest, dass die Hilfsfunktion λ nur noch in der ersten Gleichung auftritt. Zudem können wir in alle drei Gleichungen unmittelbar die Lösung der vierten Gleichung, also der Zwangse bedingung ∂ L/∂λ = r 2 − `2 = 0 einsetzen. Mit r(t) = ` lauten die Bewegungsgleichungen für die Winkelkoordinaten, wenn wir noch die Ableitungen d/dt ausführen, ϑ̈ − sin ϑ cos ϑ ϕ̇2 = − g sin ϑ, ` ϕ̈ + 2 cot ϑ ϑ̇ ϕ̇ = 0. (12.15) Das sind die Pendelgleichungen (5.45). Wir bekommen also dasselbe Ergebnis wie in Kapitel 5, nachdem wir dort die Zwangskräfte aus den Bewegungsgleichungen eliminiert hatten. Die zusätzliche Bewegungsgleichung für die Koordinate r, also die erste Gleichung in (12.14), ist eigentlich keine Bewegungsgleichung. Sie liefert nur die Hilfsgröße λ als Funktion der anderen Koordinaten und deren Zeitableitungen. Sie ist nur dann von Interesse, wenn wir explizit wissen wollen, wie stark die Zwangskraft ist, die auf das Pendel wirkt. Ihre einzige nicht verschwindende Komponente ist Zr = −λ ∂C = −2 r λ = −m `2 ϑ̇2 + sin2 ϑ ϕ̇2 − m g cos ϑ. ∂r (12.16) Auch diese Kraft hatten wir in Kapitel 5 bereits ausgerechnet. Sie setzt sich zusammen aus der nach innen gerichteten Zentripetalkraft, die zum Quadrat der Geschwindigkeit proportional ist, und der Komponente der Gravitationskraft in Richtung der Pendelstange, die durch die Zwangskraft ausgeglichen werden muss. Aufgabe 12.2 Man führe die gleichen Überlegungen für die Hantel aus Abbildung 5.3(b) durch. Was sind hier die geeigneten verallgemeinerten Koordinaten auf dem sechsdimensionalen Konfigurationsraum? Aufgabe 12.3 Was passiert, wenn wir in (12.11) die Zwangsbedingung C = x 2 + y 2 + z 2 − `2 durch C = (x2 + y 2 + z 2 − `2 )2 ersetzen? Sie hat offenbar die gleiche Nullstellenmenge, beschreibt also die gleiche physikalische Einschränkung der möglichen Konfigurationen. Warum ergeben sich trotzdem nicht die richtigen Bewegungsgleichungen? Der reduzierte Konfigurationsraum Holonome Zwangsbedingungen lassen sich im Prinzip immer auf die gerade gezeigte Art und Weise auflösen. Durch geschickte Wahl der Koordinaten kann die Zahl der zu lösenden Bewegungsgleichungen reduziert werden, wobei die Multiplikatoren in diesen Gleichungen gar nicht mehr vorkommen. Die Idee ist kurz gefasst die folgende. Da wir ohnehin schon wissen, dass sich das System nur eingeschränkt bewegen kann, sollte es möglich sein, dies bereits beim Aufstellen der Bewegungsgleichungen zu berücksichtigen. Wir sollten von Anfang an überhaupt nur solche Bahnen zulassen, die auch realisierbar sind, anstatt erst alle Bahnen im Konfigurationsraum zu betrachten, um aus dieser, eigentlich viel zu großen Menge dann mit Hilfe der Bewegungsgleichungen die tatsächlich realisierten Bahnen herauszusuchen. 67 q3 e Q q2 ζ Fµ Q C=0 Fµ + Z µ q µ (t) Fα q1 Zµ χα (t) χ2 χ1 (b) (a) Abbildung 12.1: Durch eine zeitunabhängige Zwangsbedingungen C = 0 wird ein Unterraum Q des ere definiert, der alle physikalische möglichen Konfigurationen enthält (a). weiterten Konfigurationsraumes Q Wirken auf das System dynamische Kräfte F µ , so stellen sich die Zwangskräfte Z µ so ein, dass das System in Q verbleibt. Um die Bewegungsgleichungen aufzustellen, genügt es, nur solche Bahnen zu betrachten, die ganz in Q liegen. Dazu führt man ein reduziertes Koordinatensystem {χ α } auf Q ein (b). Man muss dann nur noch die Komponenten Fα der dynamischen Kräfte kennen, um die Bewegungsgleichungen zu formulieren In Abbildung 12.1(a) ist der Konfigurationsraum eines mechanischen Systems dargestellt, versehen mit e und nennen ihn den erweiterten Konfigueinem Koordinatensystem {q µ }. Wir bezeichnen ihn hier mit Q rationsraum, da er mehr Konfigurationen enthält als tatsächlich realisiert werden können. Die Zwangsbedingungen definieren zu jedem Zeitpunkt t einen Unterraum e Qt = { q ∈ Q, C k (q, t) = 0 }. (12.17) Dieser Unterraum enthält alle zur Zeit t realisierbaren Konfigurationen. Wir nennen ihn den physikalischen oder reduzierten Konfigurationsraum. In der Abbildung 12.1(a) ist der einfache Fall darstellt, dass die Zwangsbedingungen zeitunabhängig sind. Dann hängt Q t = Q nicht von der Zeit ab, und jede möglich Bahn des Systems liegt ganz in Q. Handelt es sich um ein System von N Teilchen und liegen K Zwangsbedingungen vor, so hat der reduzierte Konfigurationsraum die Dimension 3 N − K. Das System hat in Wirklichkeit nur 3 N − K Freiheitsgrade. Es kann sich von jedem Punkt des reduzierten Konfigurationsraumes nur in 3 N − K Richtungen bewegen, weil die restlichen K Richtungen durch die Zwangsbedingungen eingeschränkt sind. Wirkt auf das System eine Kraft in irgendeine Richtung, so stellt sich die Zwangskraft immer so ein, dass das System innerhalb von Qt verbleibt. Das ist die anschauliche Beschreibung dessen, was den d’Alembertschen oder Langrangeschen Bewegungsgleichungen (12.8) bzw. (12.10) zu Grunde liegt. Da diese Gleichungen ein gekoppeltes System von Differenzialgleichungen für die Koordinaten q µ (t) und die Lagrange-Multiplikatoren λk (t) bilden, löst man auf diese Weise quasi in einem Schritt sowohl die Zwangsbedingungen als auch die eigentlichen Bewegungsgleichungen, und man bekommt zudem noch die Zwangskräfte geliefert. Eine Alternative besteht nun darin, Schritt für Schritt vorzugehen. Man löst zuerst die Zwangsbedingungen, anschließend die Bewegungsgleichungen, und zuletzt verschafft man sich Informationen über die auftretenden Zwangskräfte, wenn dies erforderlich ist. In den meisten praktischen Fällen, und insbesondere dann, wenn die genaue Kenntnis der Zwangskräfte nicht erforderlich ist, ist dieses Vorgehen sehr viel effizienter. 68 Der Trick besteht im wesentlichen darin, ein an die Zwangsbedingungen angepasstes Koordinatensystem zu verwenden. Entscheidend ist dabei, dass die vorangegangenen Überlegungen für beliebige, also insbesondere für krummlinige und zeitabhängige Koordinatensysteme gelten. Sobald wir ein speziell angepasstes Koordinatensystem definiert haben, zerfallen die d’Alembertschen oder Lagrangeschen Gleichungen ganz von selbst in drei unabhängige Gleichungssysteme. Das erste besteht aus den Zwangsbedingungen, die dann trivial sind. Das zweite Gleichungssystem enthält die eigentlichen Bewegungsgleichungen. Und aus dem dritten Gleichungssystem ergeben sich die Zwangskräfte. Die Konstruktion des angepassten Koordinatensystems ist in Abbildung 12.1(b) skizziert. Sie erfolgt analog zu den Kugelkoordinaten für das Pendel. Der erste Schritt besteht darin, ein Koordinatensystem {χα } auf dem physikalischen Konfigurationsraum Qt einzuführen. Der Index α läuft dabei von 1 bis 3 N − K, oder nimmt Werte aus irgendeiner Indexmenge mit 3 N − K Elementen an. Beim Pendel sind dies die Winkelkoordinaten (ϑ, ϕ), mit denen wir jeden Punkt auf der Kugeloberfläche identifizieren, also jede physikalisch mögliche Konfiguration des Pendels erfassen können. Wir finden solche Koordinaten, indem wir die Zwangsbedingungen “auflösen”. Die Zwangsbedingungen C k ({q µ }, t) = 0 sind K Gleichungen für 3 N Unbekannte, nämlich die ursprünglichen Koordinaten q µ auf Q. Wenn wir annehmen, dass die Gleichungen genügend regulär sind, dann lässt sich die Lösungsmenge zu jeder Zeit t durch 3 N − K Parameter darstellen. Diese Parameter bezeichnen wir mit χ α , und wir betrachten sie als Koordinaten auf dem physikalischen Konfigurationsraum Q t . Jede tatsächlich realisierbare Konfiguration wird dann durch die Angabe ihrer Koordinaten χ α identifiziert, und folglich können wir jede realisierbare Bahn durch die Koordinatenfunktion χα (t) vollständig beschreiben. Da es sich im allgemeinen um krummlinige Koordinaten handelt, wird es jedoch nicht immer möglich sein, ein Koordinatensystem zu finden, das den ganzen physikalischen Konfigurationsraum abdeckt und jedem Punkt eindeutig einen Satz von Koordinaten zuordnet. Die für das Pendel verwendeten Kugelkoordinaten sind zum Beispiel an den Polen, also den beiden Gleichgewichtslagen des Pendels nicht wohldefiniert. Es genügt aber für die folgenden Überlegungen, dass zumindest ein Teil von Q durch ein solches Koordinatensystem abgedeckt wird. Wir beschränken uns dann zunächst auf Bewegungen, die in dieser Teilmenge stattfinden. Im nächsten Kapitel werden wir uns ein wenig ausführlicher mit diesem Problem beschäftigen und zeigen, wir man es umgehen kann. In Abbildung 12.1(b) sind die Koordinatenlinien von χα auf dem Unterraum Q = Qt eingezeichnet. e ergänzen. Wir fügen noch K zusätzliche Wir können sie wie folgt zu einem Koordinatensystem von Q l Koordinaten ζ hinzu, so dass der reduzierte Konfigurationsraum Qt die Koordinatenfläche ζ l = 0 ist. Die Koordinatenlinien der zusätzlichen Koordinaten ζ l zeigen also aus dem physikalischen Unterraum hinaus, in die K verbleibenden Richtungen. Zumindest in einer gewissen Umgebung von Q t bekommen e wobei der Index α insgesamt wir auf diese Weise ein vollständiges Koordinatensystem ({χα }, {ζ l }) auf Q, 3 N − K Werte annimmt, und der Index l über K Werte läuft. In diesem Koordinatensystem haben die Zwangsbedingungen C k eine sehr einfache Darstellung. Wenn wir sie in der Nähe des reduzierten Konfigurationsraumes in eine Taylor-Reihe in den Koordinaten ζ l entwickeln, dann fallen die konstanten Glieder weg, denn die Zwangsbedingungen C k sind ja genau dort gleich Null, wo auch die Koordinaten ζ l Null sind. Es gilt also C k = X kl ζ l + O(ζ l )2 mit X kl = ∂C k . ∂ζ l ζ l =0 (12.18) Die Koeffizienten X kl bilden eine K×K-Matrix, deren Einträge im allgemeinen noch von den Koordinaten χα und der Zeit abhängen. Es handelt sich also um Funktionen auf dem reduzierten Konfigurationsraum Qt . Die Matrix X kl ist sogar überall auf Qt invertierbar. Das folgt aus der Voraussetzung, dass die Gradienten der Zwangsbedingungen linear unabhängig sind. Die Einträge der Matrix X kl sind die einzigen nicht verschwindenden Komponenten dieser Gradienten in dem angepassten Koordinatensystem, denn die 69 übrigen Komponenten X kα = ∂C k /∂χα sind überall auf Qt gleich Null, weil dort die Zwangsbedingungen verschwinden, also insbesondere konstant sind. Die Einträge der K×K-Matrix X kl bilden daher ein System von K linear unabhängigen Vektoren, also eine invertierbare Matrix. Beim Pendel können wir als eine zusätzliche Koordinate mit den verlangen Eigenschaften zum Beispiel ζ = r − ` wählen. Die Zwangsbedingung lautet dann C = r 2 − `2 = ζ (2 ` + ζ) = X ζ + O(ζ 2 ), und offenbar ist sie genau dann gleich Null, wenn ζ = 0 ist. Außerdem ist sie von der Form (12.18), wobei die 1×1-Matrix X = 2 ` in diesem Fall konstant, und natürlich auch invertierbar ist. Nachdem wir ein solches angepasstes Koordinatensystem eingeführt haben, ergibt sich alles andere fast von selbst. Wir müssen jetzt nur noch die d’Alembertschen Bewegungsgleichungen aufschreiben. Da wir nun zwei Sätze von Koordinaten {χα } und {ζ l } haben, zerfallen auch die Bewegungsgleichungen entsprechend. Betrachten wir zunächst die für die Koordinaten ζ l . Für sie ergibt sich X ∂C k X ∂T d ∂T − = F − λ = F − λk X kl . l k l l l dt ∂ ζ̇ l ∂ζ ∂ζ k k (12.19) Hier haben wir benutzt, dass wir nur solche Bahnen q(t) betrachten müssen, die zu jedem Zeitpunkt t in Qt liegen. Wir können also, nachdem wir die Bewegungsgleichungen aufgestellt haben, überall ζ l = 0 und natürlich auch ζ̇ l = 0 setzen. Auf der rechten Seite bedeutet das, dass wir die Gradienten der Zwangsbedingungen durch die oben definierte Matrix X kl ausdrücken können. Da diese Matrix wissen wir, dass sie invertierbar ist. Folglich lassen sich diese Gleichungen immer nach λk auflösen. Es handelt sich nicht um Bewegungsgleichungen im eigentlichen Sinne. Diese Gleichungen bestimmen die Lagrange-Multiplikatoren und damit die Zwangskräfte. Man sieht auch sofort, dass jede zusätzliche dynamische Kraftkomponente Fl in eine “verbotene” Richtung, also in Richtung einer Koordinaten ζ l , automatisch eine entsprechende zusätzliche, entgegengesetzt ausgerichtete Zwangskraft bewirkt. Die eigentlichen Bewegungsgleichungen sind die für die Koordinaten χ α . Sie lauten X ∂C k ∂T d ∂T − = Fα − λk = Fα . dt ∂ χ̇α ∂χα ∂χα k (12.20) Auch hier können wir ζ l = 0 und ζ̇ l = 0 setzen, nachdem wir die Gleichungen aufgestellt haben, denn es kommen ja nur solche Bahnen in betracht. Die Zwangsbedingungen fallen dann ganz weg, denn ihre Ableitungen in Richtung der Koordinaten χα verschwinden. Das entscheidende ist nun, dass wir hier bereits ζ l = 0 und ζ̇ l = 0 setzen können, bevor wir die partiellen Ableitungen von T auf der linken Seite berechnen. Es werden nämlich gar keine Ableitungen in Richtung der Koordinaten ζ l oder der Geschwindigkeiten ζ̇ l gebildet. Um die eigentlichen Bewegungsgleichungen aufzustellen, genügt es daher völlig, die Funktion T nur als Funktion der reduzierten Koordinaten χ α , der zugehörigen Geschwindigkeiten χ̇α und der Zeit t auf dem Unterraum Qt zu kennen. Die Koordinaten ζ l brauchen wir dazu überhaupt nicht. Das gleiche gilt für die rechte Seite der Bewegungsgleichung (12.20). Um die Komponenten F α der dynamischen Kraft zu berechnen, benötigen wir die zusätzlichen Koordinaten ζ l außerhalb des physikalischen Unterraumes Qt nicht. Wenn wir die Kraft ursprünglich als Funktion der affinen Koordinaten q µ durch ihre Komponenten Fµ dargestellt haben, so ergeben sich die Komponenten Fα aus dem üblichen Transformationsverhalten eines dualen Vektors. Das hatten wir bereits in (11.43) aufgeschrieben, oder in der Form (11.58) für ein N -Teilchen-System. In dem hier verwendeten speziellen Koordinatensystem ergeben sich daraus die Komponenten ∂q µ Fl = Fµ . ∂ζ l ∂q µ Fµ , Fα = ∂χα 70 (12.21) In die eigentlichen Bewegungsgleichungen (12.20) gehen nur die Komponenten F α ein.Es genügt deshalb, die ursprünglichen Koordinaten q µ als Funktion der reduzierten Koordinaten χα zu kennen. Wir müssen nur eine explizite Darstellung der Lösungen der Zwangsbedingung kennen. Nur, wenn wir die Zwangskräfte berechnen wollen, benötigen wir zur Berechnung von F l die zusätzlichen Koordinaten ζ l . Besonders einfach ist die Situation wieder dann, wenn alle Kräfte Potenzialkräfte sind. In diesem Fall gilt statt (12.21) einfach Fα = −∂V/∂χα und Fl = −∂V/∂ζ l . Wir müssen dazu nur das Potenzial als Funktion der angepassten Koordinaten {χα } und {ζ l } darstellen. Und auch hier gilt, dass wir für die eigentlichen Bewegungsgleichungen die Funktion V nur auf Q t , also für ζ l = 0 kennen müssen. Denn zur Berechnung der Komponenten Fα müssen wir nur die Ableitungen des Potenzials nach den Koordinaten χα bilden. In jedem Fall können wir die Bewegungsgleichungen wieder in der gemischten Form (11.67) aufschreiben, die alle möglichen Fälle von konservativen und nicht konservativen Kräften umfasst. Auch die Lagrange-Funktion L = T − V müssen wir dazu nur auf Qt kennen, das heißt als Funktion der reduzierten Koordinaten χα , der Geschwindigkeiten χ̇α und der Zeit t. Zusätzlich müssen wir dann nur noch diejenigen Kräfte, die sich nicht aus dem Potenzial V ableiten, gemäß (12.21) in dem angepassten Koordinatensystem darstellen. Formal ergeben sich wieder die gleichen Bewegungsgleichungen, nämlich reduzierte Bewegungsgleichung ∂L d ∂L = Fα . α − dt ∂ χ̇ ∂χα (12.22) Unabhängig davon, welche Form der Bewegungsgleichungen wir verwenden, sind es jetzt nur noch 3 N −K Differenzialgleichungen, die wir lösen müssen. Das sind genau so viele, wie das System Freiheitsgrade besitzt. Besonders für Systeme mit sehr vielen Zwangsbedingungen bedeutet das eine erhebliche Reduktion der Zahl der Bewegungsgleichungen. Dass das neue Verfahren sehr effizient ist, sieht man schon an dem einfachen Beispiel des Pendels. In diesem Fall sind die reduzierten Koordinaten die Winkelkoordinaten (ϑ, ϕ). Wir können die LagrangeFunktion unmittelbar als Funktion dieser Koordinaten und ihrer Zeitableitungen ausdrücken, indem wir in (12.13) r = ` setzen. Das ergibt L=T −V = 1 m `2 ϑ̇2 + sin2 ϑ ϕ̇2 − m g ` cos ϑ. 2 (12.23) Sie hängt jetzt nur noch von den Koordinaten (ϑ, ϕ) und den Geschwindigkeiten ( ϑ̇, ϕ̇) ab. Der prinzipielle Unterschied zu der früheren Herleitung ist, dass wir jetzt nicht mehr zuerst die kinetische und potenzielle Energie eines frei beweglichen Teilchens in Kugelkoordinaten ausrechnen müssen, um dann eine erweiterte Lagrange-Funktion zu definieren, indem wir die Zwangsbedingung mit einem Multiplikator addieren. Statt dessen müssen wir nur noch die Energien für tatsächlich realisierbare Orte und Geschwindigkeiten bestimmen, also für Bahnen mit r(t) = `, die im physikalischen Konfigurationsraum Qt liegen, der in diesem Fall zeitunabhängig ist. Aufgabe 12.4 Man zeige, dass die Lagrange-Gleichungen (12.22) f ür die Funktion (12.23) und mit Fα = 0 jetzt unmittelbar die Pendelgleichungen (12.15) liefern. Aufgabe 12.5 Was passiert, wenn der Pendelkörper zusätzlich eine Ladung q trägt, und sich am Aufhängepunkt des Pendels eine Ladung Q befindet? Zum Gravitationspotenzial V G = m g r cos ϑ kommt dann noch ein elektrisches Potenzial VE = Q q/r hinzu. Hat dies irgendeinen Einfluss auf die Bewegungen des Pendels? 71 Einfache Beispiele Wir wollen nun das gerade hergeleitete Verfahren anwenden und die Bewegungsgleichungen für ein paar typische Systeme mit holonomen Zwangsbedingungen aufstellen. Es wird sich zeigen, dass die praktische Anwendung im Einzelfall meist sehr viel einfacher ist als die allgemeine Herleitung. Zunächst betrachten wir nur konservative Systeme, deren Kräfte sich aus einem zeitunabhängigen Potenzial ableiten lassen. Für solche Systeme haben wir nun ein sehr einfaches Rezept zur Herleitung der Bewegungsgleichungen. Man führt zunächst einen Satz von reduzierten Koordinaten χ α ein, um die physikalisch möglichen Konfigurationen zu parametrisieren. Auf diese Weise definiert man implizit den reduzierten Konfigurationsraum Q. Es ist gar nicht mehr nötig, diesen zuerst mit Hilfe von Zwangsbedingune zu definieren. Es genügt, die Lösungsmenge gen als Teilmenge eines erweiterten Konfigurationsraumes Q dieser Zwangsbedingungen zu beschreiben, was oft wesentlich einfacher ist. Dann muss man nur noch die kinetische Energie T und die potenzielle Energie V des Systems als Funktion der Koordinaten χα , der Geschwindigkeiten χ̇α und der Zeit t darstellen. Daraus ergibt sich die Lagrange-Funktion L = T − V, und aus ihr können wir unmittelbar die Bewegungsgleichungen (12.22) ableiten. Bei einem konservativen System steht auf der rechten Seite einfach Null. In Abbildung 12.2 sind ein paar einfache mechanische Systeme dieser Art dargestellt. In der Abbildung (a) bewegt sich ein Teilchen auf einer vorgegeben Kurve. Die Kurve soll sich in der x-z-Ebene befinden, und es soll eine konstante Gravitationskraft wirken, wie üblich in Richtung der negativen z-Achse. Um für dieses System, das offenbar nur einen Freiheitsgrad besitzt, die Lagrange-Funktion anzugeben, müssen wir uns noch nicht einmal Gedanken darüber machen, wie die Zwangsbedingungen genau zu formulieren sind. Es genügt, die Kurve, auf der sich das Teilchen bewegt, durch zwei Funktionen x(s) und z(s) zu parametrisieren. Wir können dann den Kurvenparameter s als verallgemeinerte Koordinate auf dem reduzierten, eindimensionalen Konfigurationsraum Q verwenden. Wir beschreiben die Bahn das Teilchens durch eine Funktion s(t), und wir können dann unmittelbar die kinetische und potenzielle Energie als Funktion von s und ṡ angeben. Es gilt nämlich T = 1 1 m ẋ2 + ż 2 = m x0 (s)2 + z 0 (s)2 ṡ2 , 2 2 V = m g z(s). (12.24) Offenbar hängt die kinetische Energie von s und ṡ ab. Wir können aber die Parametrisierung der Kurve so wählen, dass der Term in der Klammer konstant ist. Wir müssen dazu nur den Kurvenparameter so einrichten, dass er die Länge der Kurve misst. Dann gilt nämlich x 0 (s)2 + y 0 (s)2 = 1, und wir bekommen L=T −V = 1 m ṡ2 − m g z(s). 2 (12.25) Aus dieser Darstellung der Lagrange-Funktion entnehmen wir sofort, dass sich ein Teilchen auf einer solchen Bahn, auch wenn sie beliebig gebogen ist, genau wie ein Teilchen auf einer geraden Bahn verhält, wenn es dort das Potenzial V(s) = m g z(s) spürt. Seine Bewegungsgleichung lautet einfach m s̈ = −m g z 0 (s). Das hatten wir für das Schienenfahrzeug in Kapitel 5 auch schon gezeigt, jedoch war die Herleitung dort wesentlich mühsamer. Aufgabe 12.6 Ist die Bahn wie in Abbildung 12.2(a) geformt, so pendelt das Teilchen in der Mulde hin und her. Wie muss diese Mulde genau geformt sind, damit sich das Teilchen wie ein harmonischer Oszillator verhält, also unabhängig von der Amplitude stets mit der gleichen Periode oszilliert? Aufgabe 12.7 Eine äußere Instanz bewege die Bahn in Abbildung 12.2(a) periodisch nach rechts und links, bzw. nach oben und unten. Die Bewegung werde jeweils durch eine Kosinusfunktion mit der Kreisfrequenz ω und Amplitude a beschieben. Wir sieht in diesem Fall die Lagrange-Funktion f ür das Teilchen aus, und welche Bewegungsgleichungen ergeben sich? 72 replacements r1 r2 s `1 α (a) s2 s1 m1 `2 m2 s β m2 (b) (c) m1 (d) Abbildung 12.2: Einfache mechanische Systeme, deren Lagrange-Funktionen sich leicht angeben lassen. Ein Teilchen, das sich auf einer vorgegebenen Bahn bewegt (a), eine über eine Tischkante gleitende Kette (b), ein Doppelpendel (c), und zwei über eine Rolle verbundene Körper (d). Das Doppelpendel hat zwei Freiheitsgrade, alle anderen Systeme haben jeweils einen Freiheitsgrad. Ein System, an dem die Effizienz des neuen Verfahrens noch einmal deutlich gemacht werden soll, ist in Abbildung 12.2(b) dargestellt. Eine Kette der Masse m und Länge ` gleitet reibungsfrei über eine Tischkante und fällt von dort aus senkrecht nach unten. Die Kette ist ein System aus sehr vielen Teilchen. Man kann sich leicht vorstellen, dass es sehr umständlich wäre, nun die einzelnen Kettenglieder zu betrachten und für diese die Bewegungsgleichungen aufzustellen. Wir müssten dann die Zwangskräfte berücksichtigen, die die Abstände zwischen den Gliedern fixieren und die Kette in ihrer vorgegebenen Bahn halten. Das System hat jedoch unabhängig von der Anzahl der Glieder nur genau einen Freiheitsgrad. Wir können dafür wieder eine Koordinate s einführen, die zum Beispiel die Länge der über die Kante nach unten hängenden Kette festlegt. Dann können wir die kinetische Energie leicht angeben. Bewegt sich nämlich das untere Ende der Kette mit der Geschwindigkeit ṡ, so bewegen sich alle Kettenglieder mit derselben Geschwindigkeit. Da die kinetische Energie nicht von der Richtung der Bewegung im Raum abhängt, spielt es dabei keine Rolle, wie viele Glieder sich auf dem Tisch in horizontale Richtung bewegen, und wie viele sich in vertikale Richtung bewegen. Es gilt immer T = m ṡ 2 /2. Die potenzielle Energie des Systems hängt davon ab, welcher Teil der Kette überhängt. Setzen wir das Gravitationspotenzial auf der Tischebene gleich Null, so haben die oben liegenden Glieder keine potenzielle Energie. Der überhängende Teil der Kette hat die Länge s und befindet sich in einer Höhe zwischen 0 und −s, also im Mittel auf der Höhe −s/2. Die Masse dieses Teils der Kette ist m s/`. Da das Gravitationspotenzial linear ist, ergibt sich daraus T = m 2 ṡ , 2 V=− mg 2 s 2` ⇒ L= m 2 mg 2 ṡ + s. 2 2` (12.26) Das sieht aus wie die Lagrange-Funktion eines harmonischen Oszillators, jedoch hat das Potenzial das falsche Vorzeichen. Wir können sofort die Bewegungsgleichung angeben. Sie lautet d ∂L ∂L − = m s̈ − ω 2 s = 0, dt ∂ ṡ ∂s 73 g mit ω 2 = . ` (12.27) Die allgemeine Lösung ist s(t) = b eω t + c e−ω t , (12.28) wobei die Integrationskonstanten b und c den Anfangsbedingungen anzupassen sind. Die Kette gleitet mit exponentiell ansteigender Geschwindigkeit über die Tischkante. Aufgabe 12.8 Bei der Herleitung des Potenzials haben wir alle Effekte, die beim Ablaufen der einzelnen Kettenglieder über die Tischkante auftreten, vernachlässigt. Das ist gerechtfertigt, wenn die Kette aus sehr vielen kurzen Gliedern besteht. Man zeige, dass unter dieser Annahme die Form der Tischkante nicht relevant ist. Es kann sich um eine beliebig abgerundete Kante handeln. Man stelle sich dazu die Kette als kontinuierliches Objekt mit eine Masse pro Länge µ = m/` vor, und bestimme die potenzielle Energie durch eine Integration. Aufgabe 12.9 Wie sieht die Lagrange-Funktion für die Kette aus, wenn sie an der Tischkante nicht nach unten sondern, durch eine geeignete Vorrichtung geführt, nach oben abknickt? Wie sieht dann die allgemeine Lösung der Bewegungsgleichung aus? Ein weiteres interessantes System ist das Doppelpendel in Abbildung 12.2(c). Es besteht aus einem Pendel der Länge `1 , an dem ein Körper der Masse m1 montiert ist. An diesem wiederum hängt ein Körper der Masse m2 an einer Stange der Länge `2 . Der Einfachheit halber soll dieses Pendel nur in einer Ebene schwingen. Wie man sich leicht überlegt, hat dieses System zwei Freiheitsgrade, also einen zweidimensionalen reduzierten Konfigurationsraum. An diesem Beispiel lässt sich sehr schön zeigen, wie die Berechnung der reduzierten Lagrange-Funktion im allgemeinen erfolgt. Wir gehen daher das Verfahren aus dem letzten Abschnitt noch einmal Schritt für Schritt durch. e für ein allgemeines Zwei-TeilchenZunächst betrachten wir den erweiterten Konfigurationsraum Q System. Dies ist ein sechsdimensionaler Raum, auf dem wir die Koordinaten (x 1 , y1 , z2 , x1 , y2 , z2 ) einführen. Das sind die kartesischen Ortskoordinaten der beiden Teilchen. Der Ursprung des Koordinatensystems soll sich im Aufhängepunkt des Pendels befinden, und die Gravitationskraft wie immer in Richtung der negativen z-Achse zeigen. Für die kinetische und potenzielle Energie gilt dann T = 1 1 m1 ẋ12 + ẏ12 + ż12 + m2 ẋ22 + ẏ22 + ż22 , 2 2 V = g (m1 z1 + m2 z2 ). (12.29) Die Zwangsbedingungen lauten y1 = 0, y2 = 0, x12 + z12 − `12 = 0, (x2 − x1 )2 + (z2 − z1 )2 − `22 = 0. (12.30) Die Lösungen der letzten beiden Gleichungen lassen sich wie folgt durch zwei Parameter α und β darstellen, x1 = `1 sin α, x2 = `1 sin α + `2 sin β, z1 = −`1 cos α, z2 = −`1 cos α − `2 cos β. (12.31) Wie man leicht sehen kann, sind dies gerade die in Abbildung 12.2(c) eingezeichneten Auslenkwinkel α und β. Dies sind die Koordinaten auf dem reduzierten Konfigurationsraum Q. Wir müssen nun die Energiefunktionen (12.29) als Funktionen von α und β und deren Zeitableitungen darstellen. Aufgabe 12.10 Man verifiziere das Ergebnis T = 1 1 (m1 + m2 ) `12 α̇2 + m2 `22 β̇ 2 + m2 `1 `2 α̇ β̇ cos(α − β), 2 2 V = −g (m1 + m2 ) `1 cos α − g m2 `2 cos β, 74 (12.32) und die daraus resultierenden Bewegungsgleichungen d (m1 + m2 ) `12 α̇ + m2 `1 `2 β̇ cos(α − β) + dt + m2 `1 `2 α̇ β̇ sin(α − β) + g (m1 + m2 ) `1 sin α = 0, d m2 `22 β̇ + m2 `1 `2 α̇ cos(α − β) + dt + m2 `1 `2 α̇ β̇ sin(β − α) + g m2 `2 sin β = 0. (12.33) Lassen sich diese Gleichungen immer nach α̈ und β̈ auflösen? Das ist ein recht kompliziertes gekoppeltes System von nichtlinearen Differenzialgleichungen. Die allgemeine Lösung lässt sich nicht mehr explizit angeben. Hier liegt bereits der allgemeine Fall vor, bei dem die kinetische Energie zwar eine quadratische Funktion der Geschwindigkeiten α̇ und β̇ ist. Aber weder ist die Massenmatrix diagonal, noch sind ihre Einträge konstant. Es tritt ein Mischterm auf, der das Produkt α̇ β̇ enthält, und dieser hängt zudem noch von α und β ab. Es ist nicht mehr möglich, die Massenmatrix durch eine Koordinatentransformation zu diagonalisieren, und folglich ist es auch nicht möglich, die Bewegungsgleichungen zu entkoppeln. Aufgabe 12.11 Man diskutiere den Fall m1 m2 , also den Grenzfall, in dem der obere Pendelkörper sehr viel schwerer ist als der untere. Man zeige, dass sich dann der obere Arm des Doppelpendels wie ein einzelnes Pendel verhält, während sich der untere Arm wie ein angetriebenes Pendel verh ält, wobei die Schwingungen des oberen Armes den äußeren Antrieb darstellen. Aufgabe 12.12 In dem umgekehrten Grenzfall m1 m2 , in dem die Masse des oberen Pendelkörper verschwindend klein ist, lassen sich die Bewegungsgleichungen sogar explizit l ösen. Man zeige dies durch eine geschickte Koordinatentransformation auf dem Konfigurationsraum. Man findet diese Transformation, wenn man sich zunächst überlegt, welche Art von Bewegungen das Pendel in diesem Fall ausf ührt. Aufgabe 12.13 Für kleine Auslenkungwinkel α, β 1 lassen sich die Winkelfunktionen in (12.32) in eine Taylor-Reihe entwickeln. Man vernachlässige alle Terme, die von vierter Ordnung oder höher in α, β, α̇ oder β̇ sind. Man zeige, dass sich dann die Lagrange-Funktion für einen gekoppelten harmonischen Oszillator ergibt. Welches sind die Eigenfrequenzen dieses Systems, und wie sehen die Eigenmoden aus? Aufgabe 12.14 Um einen Eindruck von den Bewegungen des Doppelpendels zu bekommen, kann man die Bewegungsgleichungen (12.33) numerisch integrieren. Man gibt als Anfangsbedingungen α(t 0 ), β(t0 ), α̇(t0 ) und β̇(t0 ) vor, und berechnet anschließend die Funktionen α(t) und β(t) mit einem geeigneten numerischen Verfahren. Solche sind in den gängigen “intelligenten” Programmiersprachen wie Mathematica oder Maple vorprogrammiert, so dass man letztlich nur die Differenzialgleichungen und die Anfangsbedingungen eingeben muss. Es ist sogar möglich, das Verfahren so weit zu automatisieren, dass man nur die Lagrange-Funktion eingeben muss. Aufgabe 12.15 In Abbildung 12.2(d) ist ein weiteres mechanisches System mit nur einem Freiheitsgrad dargestellt. Zwei Körper sind über eine starre Rolle miteinander verbunden. Die Seile, an denen die K örper hängen, sind jedoch auf verschiedenen Radien aufgewickelt. Als verallgemeinerte Koordinaten kann wahlweise der Drehwinkel der Rolle oder die Länge eines der beiden herabhängenden Seile verwendet werden. Welche Beziehung besteht zwischen diesen Größen? Man finde die Lagrange-Funktion und löse die Bewegungsgleichungen. Die kinetische Energie der Rolle kann entweder vernachl ässigt werden, oder es kann der weiter unten hergeleitete Ausdruck (12.36) verwendet werden. 75 Das fixierte Rad Ein etwas anspruchsvolleres mechanisches System ist in Abbildung 12.3 dargestellt. Es dient zur Vorbereitung auf ein späteres Kapitel, in dem wir uns mit den Drehbewegungen eines starren Körpers beschäftigen werden. In der hier gezeigten vereinfachten Version lässt es sich jedoch mit den bereits zur Verfügung stehenden Mitteln beschreiben. In der einfachsten Version von Abbildung 12.3(a) betrachten wir ein Rad, dessen Achse im Raum fixiert ist. Es kann sich also nur um diese vorgegebene Achse drehen, und besitzt folglich nur einen Freiheitsgrad. Dies ist der Drehwinkel χ. Wir machen außerdem die vereinfachte Annahme, dass sich die gesamte Masse M des Rades auf die Lauffläche konzentriert, also auf einen Kreisring vom Radius R. Sie verteilt sich dort auf N Teilchen, die in gleichmäßigen Winkelabständen auf dem Kreis angeordnet sind. Es sei rn , mit n ∈ {1, . . . , N }, der Ort des n-ten Teilchens, und das Koordinatensystem sei so gewählt, dass die Achse des Rades in Richtung der x-Achse zeigt. Dann ist rn = o + R sin χn ey − cos χn ez , mit χn = χ − 2π n . N (12.34) Der Koordinatenursprung o ist natürlich der Mittelpunkt des Rades. Die Teilchen haben wir so durchnummeriert, dass sich das Teilchen mit der Nummer n genau dann “unten”, also auf der negativen z-Achse befindet, wenn der Drehwinkel gerade χ = 2π n/N ist. Die Nummerierung können wir als periodisch betrachten, so dass die Indizes n und n + N dassselbe Teilchen bezeichnen. Für die Geschwindigkeit des n-ten Teilchens ergibt sich ṙn = R χ̇ cos χn ey + sin χn ez , (12.35) denn die einzige zeitabhängige Größe ist der Drehwinkel χ, und die Winkelgeschwindigkeit ist natürlich für alle Teilchen gleich, χ̇n = χ̇. Daraus können wir leicht die kinetische Energie berechnen. Jedes einzelne Teilchen hat eine Masse M/N . Es bewegt sich mit einer Geschwindigkeit R χ̇, besitzt also die kinetische Energie M (R χ̇)2 /(2 N ). Die Summe über alle Teilchen ist T = 1 M R2 χ̇2 . 2 (12.36) Auch hier ist es wieder unnötig, die Zwangsbedingungen explizit zu kennen. Es genügt, ihre Lösungen zu parametrisieren, also die Orte (12.34) der einzelnen Teilchen als Funktion der reduzierten Koordinate χ darzustellen, um die kinetische Energie T als Funktion von χ und χ̇ zu berechnen. Wenn auf das Rad keine dynamischen Kräfte einwirken, haben wir damit auch schon die LagrangeFunktion gefunden, denn es ist L = T . Wir können unmittelbar die Bewegungsgleichung χ̈ = 0 ablesen. Das Rad dreht sich gleichmäßig mit konstanter Winkelgeschwindigkeit. Das ist natürlich genau das, was wir erwartet haben. Nun wollen wir feststellen, was passiert, wenn auf die Lauffläche des Rades eine Reibungskraft wirkt. Eine solche Kraft kann nicht durch ein Potenzial beschrieben werden. Wir müssen also die d’Alembertsche Form der Bewegungsgleichungen verwenden. Dazu müssen wir zunächst die Kraftkomponente F χ in Richtung der reduzierten Koordinate χ finden. Dafür hatten wir die Formel (11.58) angegeben. Es gilt also Fχ = X ∂rn n ∂χ · Fn = X n R cos χn ey + sin χn ez · Fn . (12.37) Hier ist Fn die dynamische Kraft, die auf das Teilchen mit der Nummer n wirkt. Die partielle Ableitung ∂rn /∂χ haben wir aus (12.34) entnommen. Es soll nun auf ein ganz bestimmtes Teilchen, und zwar das, welches sich gerade an unterster Stelle befindet, eine Reibungskraft wirken, die proportional zu seiner Geschwindigkeit und ihr entgegengerichtet 76 replacements (d) ϑ χ ϕ (b) (a) (c) Abbildung 12.3: Ein Rad als mechanisches System mit einem, zwei bzw. drei Freiheitsgraden. Ist die Achse fixiert (a), so ist der einzige Freiheitsgrad der Drehwinkel χ. Kann sich die Achse frei in einer Ebene drehen (b), so ist die Ausrichtung ϕ der Achse ein zweiter Freiheitsgrad. Bewegt sich das Rad völlig frei (c), so ist der dritte Freiheitsgrad der Kippwinkel ϑ. ist. Damit modellieren wir die Situation, dass das Rad an einer Stelle durch einen bremsenden Gegenstand berührt wird, zum Beispiel auf einer Standfläche aufliegt oder eine Bremse an der Lauffläche angreift. Für das Teilchen mit der Nummer n̄, welches sich zu einem bestimmten Zeitpunkt ganz unten befindet, gilt χn̄ = 0, also n̄ = N χ/2π, oder genauer, n̄ ist die ganze Zahl, die dieser am nächsten liegt. Für große N können wir aber den Fehler, den wir dabei machen, vernachlässigen. Wichtig ist nur, dass die Kraft auf genau ein Teilchen wirken soll, und dass für dieses gerade χn̄ = 0 ist. Die Geschwindigkeit dieses Teilchens ist dann laut (12.35) ṙn̄ = R χ̇ ey . Folglich ist die Reibungskraft, die auf dieses Teilchen wirkt, Fn̄ = −η ṙn̄ = −η R χ̇ ey , (12.38) wobei η die Reibungskonstante ist. Setzen wir dies in (12.37) ein, so bleibt nur ein Term von der Summe übrig, denn es soll ja nur auf dieses eine Teilchen eine Kraft wirken. Es ergibt sich, wieder mit χ n̄ = 0, Fχ = −η R2 χ̇. (12.39) Die verallgemeinerte Reibungskraft Fχ ist ebenfalls proportional zur verallgemeinerten Geschwindigkeit χ̇ und ihr entgegengerichtet. Es tritt nur neben der Reibungskonstante η noch ein Faktor R 2 auf. Er sorgt unter anderem dafür, dass die verallgemeinerte Kraft die richtige physikalische Dimension hat. Sie ist nämlich eigentlich keine Kraft sondern ein Drehmoment, und χ̇ ist keine Geschwindigkeit sondern eine Winkelgeschwindigkeit, wenn man die “richtigen” Bezeichnungen für die physikalischen Dimensionen verwendet. Die Bewegungsgleichungen stellen sich nun wie folgt dar. Wir werten die linke Seite von (11.44) für die gegebene Energiefunktion T aus, und setzen auf der rechten Seite die verallgemeinerte Kraft ein, d ∂T ∂T − = Fχ dt ∂ χ̇ ∂χ ⇒ M R2 χ̈ = −η R2 χ̇. (12.40) Offenbar hebt sich der Radius R des Rades aus dieser Gleichung heraus, so dass das Rad die gleiche Bremswirkung erfährt wie ein Körper der Masse M , der sich geradlinig bewegt und dabei eine Reibungskonstante η spürt. Aufgabe 12.16 Wie sieht die allgemeine Lösung der Bewegungsgleichung (12.40) aus? Aufgabe 12.17 Welche Bewegungsgleichung ergibt sich, wenn wir f ür die Reibungskraft eine andere Abhängigkeit von der Geschwindigkeit annehmen? Man betrachte allgemein einen Zusammenhang der 77 Form Fn̄ = −η |ṙn̄ |k−1 ṙn̄ , also ein Ansteigen der Reibungskraft mit der Potenz k > 0. Kommt das Rad dann nach endlicher Zeit zum Stillstand oder nicht? Und wenn es nicht nach endlicher Zeit zum Stillstand kommt, macht es dann insgesamt endlich viele oder unendlich viele Umdrehungen? Aufgabe 12.18 Wenn sich das Rad im Schwerefeld der Erde befindet, wirkt eigentlich noch die Gravitationskraft auf jedes Teilchen. Man setze diese für Fn in (12.37) ein und zeige, dass sie nicht zu Fχ beiträgt. Man begründe damit die intuitiv richtige Vorstellung, dass sich die Gravitationskr äfte gegenseitig aufheben, weil sie das Rad in entgegengesetzte Richtungen zu beschleunigen versuchen. Gilt das auch, wenn sich das Rad in einem inhomogenen Gravitationsfeld befindet? Aufgabe 12.19 Man zeige, dass sich qualitativ dieselbe Lagrange-Funktion f ür das Rad auch dann ergibt, wenn man nicht annimmt, dass alle Teilchen auf einem Kreisring mit Radius R angeordnet sind. Es gen ügt anzunehmen, dass die Massen gleichmäßig, also rotationssymmetrisch angeordnet sind. Welche konkrete Form ergibt sich dann für L? Das hängende Rad Nun wollen wir ein etwas komplizierteres System betrachten. Die Achse des Rades ist nicht mehr vollständig fixiert, sondern kann sich, wie in Abbildung 12.3(b) gezeigt, in einer Ebene frei drehen. Ein solches System lässt sich leicht realisieren, indem man etwa die Achse des Laufrades eines Fahrrades an zwei Seilen aufhängt, so dass sich die Achse in einer horizontalen Ebene drehen kann. Das System hat jetzt zwei Freiheitsgrade, nämlich den Drehwinkel des Rades χ und die Ausrichtung der Achse, die wir ebenfalls durch eine Winkelkoordinate ϕ beschreiben können. Der reduzierte Konfigurationsraum ist demnach ein zweidimensionaler Raum. Wir gehen wieder nach dem gleichen Schema vor, um die kinetische Energie zu berechnen. Zuerst stellen wir die Orte r n der Teilchen als Funktionen von χ und ϕ dar. Dazu ist es nützlich, die Einheitsvektoren e0 (ϕ) = − sin ϕ ex + cos ϕ ey e(ϕ) = cos ϕ ex + sin ϕ ey , (12.41) einzuführen. Der Vektor e(ϕ) gibt die Ausrichtung der Achse an, und e 0 (ϕ) steht dazu senkrecht. Dabei ist e0 (ϕ) auch gleichzeitig die Ableitung von e(ϕ) nach ϕ, und es gilt e00 (ϕ) = −e(ϕ). Die Darstellung (12.34) der Teilchenorte lässt sich dann unmittelbar verallgemeinern. Für das gedrehte Rad müssen wir nur ey durch den gedrehten Einheitsvektor e0 (ϕ) ersetzen, rn = o + R sin χn e0 (ϕ) − cos χn ez , mit χn = χ − 2π n . N (12.42) Für die Geschwindigkeiten der Teilchen ergibt sich jetzt ṙn = R χ̇ cos χn e0 (ϕ) + sin χn ez − R ϕ̇ sin χn e(ϕ). (12.43) Die kinetische Energie des Teilchens mit der Nummer n ist demnach 1M 2 2 1M 2 2 1M R χ̇ + R ϕ̇ sin2 χn . ṙn · ṙn = 2 N 2 N 2 N (12.44) Wenn wir über alle N Teilchen summieren, ergibt der erste Term wieder den Ausdruck M R 2 χ̇2 /2. Den zweiten Term können wir für große N durch ein Integral approximieren. Für N → ∞ gilt mit x = n/N Z N 1 1 X 2 sin (χ − 2πn/N ) → dx sin2 (χ − 2π x) = . N n=1 2 1 0 78 (12.45) Die linke Seite ist gerade die Summendarstellung für das Integral, wenn wir das Intervall von 0 bis 2π in N Teilintervalle aufteilen. Die kinetische Energie des Systems, ausgedrückt als Funktion der Geschwindigkeiten χ̇ und ϕ̇, ist folglich 1 1 T = M R2 χ̇2 + M R2 ϕ̇2 . (12.46) 2 4 Offenbar steckt in einer Rotation des Rades um seine Achse mehr Energie als in einer Rotation der Achse in der Ebene. Das liegt daran, dass sich bei einer Rotation des Rades um die Achse alle Massen mit der gleichen Geschwindigkeit R χ̇ durch den Raum bewegen. Bei einer Drehung der Achse bewegen sich jedoch Teile des Rades langsamer oder sogar gar nicht, wenn sie sich gerade auf der z-Achse befinden. Was sofort aus (12.46) hervor geht, ist, dass die beiden Drehungen unabhängig voneinander stattfinden. Es gibt keine Kopplung zwischen den beiden Bewegungen, jedenfalls solange keine dynamische Kraft auf das Rad wirkt. Dann ist die Lagrange-Funktion L = T , und die Bewegungsgleichungen sind χ̈ = 0 und ϕ̈ = 0. Wenn das Rad entsprechend angeworfen wird, dreht es sich gleichmäßig um seine Achse, und gleichzeitig dreht sich die Achse gleichmäßig in der Ebene. Dass sich dieses Resultat auf diese sehr einfache Weise ergibt, ist tatsächlich ein Erfolg der Lagrangeschen bzw. d’Alembertschen Methode, und es belegt deutlich deren Effizienz. Man stelle sich vor, man würde versuchen, dieses Ergebnis durch Berechnung der Zwangskräfte zu bekommen, die die Teilchen im Rad aneinander binden. Zwar würde man nach einigen Überlegungen auch zu dem Resultat kommen, dass es nur zwei Freiheitsgrade gibt, und dass diese unabhängig voneinander gleichförmige Bewegungen ausführen. Der Weg dahin wäre aber sehr mühsam. Wir wollen auch hier noch einmal die Auswirkungen einer Reibungskraft auf das System berechnen, und zwar um zu demonstrieren, dass die Umrechnung der Kräfte in die reduzierten Koordinaten nicht immer ganz trivial ist. Weiter oben hatten wir den Ansatz gemacht, dass zu jedem Zeitpunkt auf ein bestimmtes Teilchen eine Kraft wirkt, die proportional zu seiner Geschwindigkeit und ihr entgegengerichtet ist. Das Resultat war, dass genau eine solche der Geschwindigkeit entgegengerichtete Kraft auch auf dem reduzierten Konfigurationsraum auftrat. Das legt die Vermutung nahe, dass genau das gleiche für das Rad mit zwei Freiheitsgraden gilt. Das ist aber nicht der Fall, wie wir jetzt zeigen werden. Wir nehmen wieder an, dass auf das Teilchen, das sich gerade ganz unten auf der z-Achse befindet, eine Reibungskraft wirkt, die der Geschwindigkeit dieses Teilchens entgegengerichtet ist. Das Teilchen ist wieder das mit der Nummer n̄ = N χ/2π, denn für dieses Teilchen ist χ n̄ = 0 und somit rn̄ = o − ez . Für die Geschwindigkeit dieses Teilchens gilt nun laut (12.43) ṙn̄ = R χ̇ e(ϕ). Folglich ist die Reibungskraft wieder durch den Ausdruck (12.38) gegeben, nur dass wir dort e y durch e0 (ϕ) ersetzen müssen, Fn̄ = −η ṙn̄ = −η R χ̇ e0 (ϕ). (12.47) Die verallgemeinerte Kraft auf dem zweidimensionalen reduzieren Konfigurationsraum hat jetzt zwei Komponenten, nämlich Fχ und Fϕ . Wir benutzen wieder die allgemeine Formel (11.58), X ∂rn X Fχ = · Fn = R cos χn e0 (ϕ) + sin χn ez · Fn , ∂χ n n Fϕ = X ∂rn n ∂ϕ · Fn = − X n R sin χn e(ϕ) · Fn . (12.48) Setzen wir alle Fn gleich Null, nur für n = n̄ (12.47) ein, so ergibt sich wieder Fχ = −η R2 χ̇. Jedoch ist Fϕ = 0, denn der Vektor Fn̄ steht auf e(ϕ) senkrecht, und außerdem ist sogar noch sin χn̄ = 0. Es wirkt also im Konfigurationsraum keine Reibungskraft in Richtung der Koordinate ϕ. Wenn wir das wieder in die d’Alembertschen Bewegungsgleichungen einsetzen, bekommen wir nach ein paar Vereinfachungen M χ̈ = −η χ̇, ϕ̈ = 0. (12.49) 79 Die Rotation des Rades um seine Achse ist wieder gebremst, die Drehung der Achse in der Ebene jedoch nicht. Das hat auch einen einfachen, physikalisch anschaulichen Grund. Wenn wir annehmen, dass die Reibung dadurch verursacht wird, dass das Rad an der untersten Stelle an einem Punkt aufliegt, dann bewegt sich dieser Auflagepunkt zwar bei einer Rotation des Rades um seine Achse, nicht jedoch bei einer Drehung der Achse in der Ebene. Deshalb tritt bei einer solchen Bewegung auch keine Reibung auf. Genau dies wird bei der Umrechnung der Kraft in die reduzierten Koordinaten berücksichtigt. Das, was wir abstrakt als Transformationsverhalten eines dualen Vektors im Konfigurationsraum hergeleitet haben, beschreibt in eine physikalische Sprache übersetzt die Richtung, in die eine Kraft im reduzierten Konfigurationsraum des Systems wirkt, also auf welche der reduzierten Koordinaten sie Einfluss nimmt. Aufgabe 12.20 Anstatt das Rad an der untersten Stelle abzubremsen, k önnen wir uns vorstellen, dass es in der Ebene, die in Abbildung 12.3 schraffiert dargestellt ist, an einem festen Ring reibt. Es wirkt dann an zwei Stellen eine Reibungskraft, nämlich jeweils auf die beiden Teilchen, die sich gerade in der x-y-Ebene befinden. Auch hier machen wir den Ansatz, dass die Reibungskr äfte proportional zu den Geschwindigkeiten dieser beiden Teilchen und ihren entgegengerichtet sind. Welche der beiden Bewegungen des Rades wird jetzt schneller abgebremst, die Drehung um die Achse, oder die Drehung der Achse in der Ebene? Aufgabe 12.21 In Abbildung 12.3(c) ist die Achse des Rades gar nicht mehr fixiert. Sie kann nun auch kippen. Für den dritten Freiheitsgrad führen wir die Koordinate ϑ ein, die den Winkel zwischen der Achse des Rades und der z-Achse misst. Die Koordinate wird deshalb so gew ählt, weil (ϑ, ϕ) dann die üblichen Kugelkoordinaten sind, die die Ausrichtung der Achse im Raum festlegen, und χ wieder der Drehwinkel des Rades um die Achse ist. Man zeige zunächst, dass der Ort des Teilchens Nummer n jetzt wie folgt gegeben ist, (12.50) rn = o + R sin χn e0 (ϕ) + R cos χn cos ϑ e(ϕ) − sin ϑ ez . Man bestimme daraus die Geschwindigkeiten der Teilchen und zeige, dass die kinetische Energie durch die Funktion T = Θ 2 Θ 2 Θ χ̇ + ϑ̇ + (1 + cos2 ϑ) ϕ̇2 + Θ cos ϑ χ̇ ϕ̇, 2 4 4 mit Θ = M R2 , (12.51) gegeben ist. Aus ihr lassen sich die Lagrangeschen Bewegungsgleichungen ableiten. Aus denen f ür die Koordinaten χ und ϕ ergibt sich, dass die Impulse pχ = ∂T /∂ χ̇ und und pϕ = ∂T /∂ ϕ̇ Erhaltungsgrößen sind, da die Ableitungen ∂T /∂ϕ und ∂T /∂χ verschwinden. Man benutze das, um die Bewegungsgleichung für ϑ mit Hilfe eines effektives Potenzial darzustellen, Θ ϑ̈ = −Ve 0 (ϑ), 2 pχ2 + pϕ2 − 2 pχ pϕ cos ϑ . mit Ve (ϑ) = Θ sin2 ϑ (12.52) Man skizziere das effektive Potenzial und diskutiere qualitativ die möglichen Bewegungsformen des Rades. Zeitabhängige Zwangsbedingungen Als nächstes wollen wir ein paar einfache Beispiele für Systeme mit zeitabhängigen Zwangsbedingungen diskutieren, um zu zeigen, dass auch solche Systeme sehr effizient mit Hilfe der Lagrangeschen bzw. d’Alembertschen Bewegungsgleichungen beschrieben werden können. Der reduzierte Konfigurationsraum e und wir Qt ist dann zu jedem Zeitpunkt t eine andere Teilmenge des erweiterten Konfigurationsraumes Q, müssen zeitabhängige Koordinaten verwenden, um die Zwangsbedingungen zu lösen. Als erstes betrachten wir ein System, das dem Pendel mit variabler Länge sehr ähnlich ist. Es ist allerdings einfacher, da keine Gravitationskraft wirkt und die Bewegung nur in einer Ebene stattfindet. Es ist in Abbildung 12.4(a) dargestellt. Ein Körper der Masse m befindet sich auf einem Tisch. Er ist an einem 80 replacements ϕ (c) (d) m r m ω c (b) (a) Abbildung 12.4: Zwei einfache mechanische System mit zeitabhängigen Zwangsbedingungen. Im ersten Beispiel gleitet der Körper auf einer Tischplatte und dabei an einem Seil nach innen gezogen (a). Der einzige Freiheitsgrad ist die Winkelkoordinaten ϕ. Im zweiten Beispiel gleitet der Körper auf einer rotierenden Stange (b). Der einzige Freiheitsgrad ist jetzt die radiale Koordinaten r. Seil befestigt, das durch ein Loch im Tisch eingezogen wird. Die Länge des Seiles ist ` zur Zeit t = 0, und sie soll sich mit einer konstanten Geschwindigkeit c verkürzen. Offenbar hat das System nur einen Freiheitsgrad. Die Länge des Seiles ist vorgegeben, so dass als einzige unabhängige Koordinate der Winkel ϕ bleibt, der angibt, in welcher Richtung sich der Körper, vom Loch aus gesehen, befindet. Wenn (x, y) kartesische Koordinaten in der Ebene sind, wobei sich der Ursprung im Loch befindet, so gilt für den Ort des Körpers x = (` − c t) cos ϕ, y = (` − c t) sin ϕ. (12.53) Daraus können wir wieder die kinetische Energie berechnen. Allerdings müssen wir jetzt die explizite Zeitabhängigkeit der Koordinaten beachten. Es ist ẋ = −(` − c t) ϕ̇ sin ϕ − c cos ϕ, ẏ = (` − c t) ϕ̇ cos ϕ − c sin ϕ, (12.54) und daher 1 1 1 m ẋ2 + ẏ 2 = m (` − c t)2 ϕ̇2 + m c2 . (12.55) 2 2 2 Das gleiche Resultat hätten wir natürlich auch aus der Darstellung (11.60) der kinetischen Energie in Zylinderkoordinaten entnehmen können, indem wir dort r = ` − c t und z = 0 setzen. Den konstanten Term m c2 /2 können wir vernachlässigen, da er in die Bewegungsgleichungen nicht eingeht. Nur der Term, der proportional zu ϕ̇2 ist, erscheint in der Bewegungsgleichung T =L= d ∂L ∂L d − = m (` − c t)2 ϕ̇ = 0. dt ∂ ϕ̇ ∂ϕ dt (12.56) Auch hier wird die Bewegungsgleichung wieder in einer Form geliefert, aus der wir sofort den entscheidenden Erhaltungssatz ablesen können. In der Klammer steht natürlich wieder der Drehimpuls. Dass er erhalten ist, ergibt sich auch daraus, dass die Zwangskraft, die auf den Körper wirkt, eine Zentralkraft ist. Als Lösung findet man m (` − c t)2 ϕ̇ = pϕ ⇒ ϕ̇ = pϕ m (` − c t)2 81 ⇒ ϕ(t) = pϕ . c m (` − c t) (12.57) Für t → `/c, wenn das Seil ganz eingezogen wird, wird der Körper offenbar immer schneller und umläuft das Zentrum unendlich oft. Berechnen wir die kinetische Energie als Funktion der Zeit, so ergibt sich T − 1 pϕ2 1 m c2 = m (` − c t)2 ϕ̇2 = → ∞ für 2 2 2 m (` − c t)2 t → `/c. (12.58) Wo kommt diese Energie her? Sie muss offenbar als mechanische Leistung von der Zwangskraft aufgebracht werden, also von der äußeren Instanz geliefert werden, die das Seil verkürzt. Um das zu zeigen, berechnen wir für dieses Beispiel die Zwangskraft. Wir führen dazu auf dem Konfigurationsraum die zusätzliche Koordinate r ein und definieren die erweiterte Lagrange-Funktion mit einem Multiplikator λ und der Zwangsbedingung C = r − ` + c t, 1 Le = m ṙ 2 + r 2 ϕ̇2 − λ (r − ` + c t). 2 (12.59) Der Lagrange-Multiplikator ist dann bis auf das Vorzeichen die r-Komponente der Zwangskraft, und die ϕ-Komponente der Zwangskraft verschwindet, Zr = −λ ∂C = −λ, ∂r Zϕ = −λ ∂C = 0. ∂ϕ (12.60) Aus der Bewegungsgleichung für r ergibt sich d d ∂ Le ∂ Le − = m ṙ − m r ϕ̇2 + λ dt ∂ ṙ ∂r dt ⇒ Zr = −λ = − pϕ2 . m (` − c t)3 (12.61) Auch die Zwangskraft divergiert für t → `/c. Um das Seil ganz einzuziehen, wird schließlich eine unendliche Kraft benötigt. Die einzige Ausnahme liegt vor, wenn pϕ = 0 ist. Dann wird der Körper einfach radial nach innen gezogen. In diesem Fall ist gar keine Zwangskraft erforderlich, da sich der Körper ohnehin geradlinig und gleichförmig mit der Geschwindigkeit c auf das Loch zu bewegen würde. Aufgabe 12.22 Man berechne die Gesamtlänge des von dem Körper zurückgelegten Weges im Zeitintervall 0 < t < `/c. Aufgabe 12.23 Man diskutiere auch dieses Beispiel wieder mit einer zus ätzlichen Reibungskraft, die proportional zur Geschwindigkeit des Körpers auf der Ebene ist. Das mechanische System in Abbildung 12.4(b) ist zu dem gerade diskutierten in einem gewissen Sinne komplementär. Dort befindet sich ein Körper auf einer Stange, die mit einer Winkelgeschwindigkeit ω rotiert. Auch hier bewegt sich der Körper in einer Ebene, jedoch wird diesmal statt der radialen Koordinate die Winkelkoordinate durch die Zwangsbedingung vorgegeben. Am einfachsten gehen wir hier von der Darstellung (12.59) der Lagrange-Funktion für ein freies Teilchen in Polarkoordinaten aus, und setzen ϕ = ω t. Daraus ergibt sich 1 1 L = m ṙ 2 + m ω 2 r 2 . (12.62) 2 2 Die einzige verbleibende Koordinate r auf dem reduzierten Konfigurationsraum gibt an, in welcher Entfernung vom Drehpunkt sich der Körper befindet. Sie kann hier auch negativ werden, wenn sich die Stange in beide Richtungen erstreckt. Diese Lagrange-Funktion kennen wir bereits. Es ist die gleiche Funktion (12.26), die wir auch schon für die über die Tischkante gleitende Kette gefunden haben. Folglich ergeben sich auch die gleichen Lösungen. Es handelt sich um zwei äquivalente mechanische Systeme. Da sie die gleiche Lagrange-Funktion besitzen, besitzen sie auch die gleichen dynamischen Eigenschaften. 82 replacements ω ϑ+ ` ϑ (d) (b) m ϑ− (a) (c) Abbildung 12.5: Der Aufhängepunkt des Pendels (a) rotiert mit einer Winkelgeschwindigkeit ω und zwingt das Pendel, ebenfalls mit dieser Winkelgeschwindigkeit zu rotieren. Der einzige Freiheitsgrad ist der Auslenkwinkel ϑ. Es ergibt sich eine stabile Gleichgewichtslage (b), bei der das Pendel nach außen ausgelenkt ist, sowie bei hinreichend hoher Antriebsgeschwindigkeit eine zweite stabile Gleichgewichtslage (c), bei der das Pendel nach innen ausgelenkt ist. Der Körper auf der Stange “sieht” offenbar das Potenzial eines harmonischen Oszillators, allerdings wieder mit dem falschen Vorzeichen, V (r) = −m ω 2 r 2 /2. Bei r = 0 befindet sich eine instabile Gleichgewichtslage. Nach beiden Seiten fällt das Potenzial ab, so dass der Körper nach außen beschleunigt wird. Die allgemeine Lösung der Bewegungsgleichung ist r(t) = b eω t + c e−ω t . (12.63) Die rotierende Stange ist eine Schleuder, auf der der Körper exponentiell nach außen beschleunigt wird. Aufgabe 12.24 Die rotierende Stange lässt sich wie folgt variieren. Die Rotationsachse muss nicht zur Stange senkrecht stehen. Der Körper bewegt sich dann nicht in einer Ebene, sondern auf einem Kegel. Nehmen wir an, die Stange rotiere mit einer Winkelgeschwindigkeit ω um die z-Achse und bilde mit dieser einen Winkel α. Zusätzlich spürt der Körper die Gravitationskraft. Wo befindet sich jetzt die Gleichgewichtslage? Handelt es sich um eine stabile oder instabile Gleichgewichtslage? Das rotierende Pendel Ein weiteres Beispiel für ein System mit zeitabhängigen Zwangsbedingungen ist das angetriebene Pendel in Abbildung 12.5(a). Der Aufhängepunkt rotiert mit einer Winkelgeschwindigkeit ω auf einem Kreis mit Radius a. Die Länge des Pendels sei `. Legen wir den Koordinatenursprung o in die Mitte dieses Kreises, so befindet sich der Aufhängepunkt zur Zeit t am Ort o+a e(ω t), wobei e(ϕ) wieder der Einheitsvektor (12.41) ist. In der einfachsten Version kann das Pendel nur in eine Richtung schwingen, und zwar in der Ebene, die von e z und e(ω t) aufgespannt wird. Es wird also gezwungen, mit dem Antrieb mit zu rotieren. Wir betrachten zuerst nur diese Version. Als einzige reduzierte Koordinate haben wir dann den Auslenkwinkel ϑ. Der Pendelkörper befindet sich am Ort r = o + (a + ` sin ϑ) e(ω t) − ` cos ϑ ez . (12.64) 83 replacements (a) (b) (c) (d) Ve −π Ve −π π ω=0 ϑ+ π ω < ω0 ϑ− −π Ve ϑ+ ϑ− −π π ω = ω0 Ve ϑ+ π ω > ω0 Abbildung 12.6: Das effektive Potenzial für das rotierende Pendel mit a = 0.2 `. Die Antriebsfrequenz ω nimmt von oben links nach unten rechts zu. Ein positiver Winkel ϑ bedeutet, dass das Pendel “nach außen”, also in die Richtung ausgelenkt ist, in die der Antrieb gerade zeigt. Für negatives ϑ ist das Pendel dagegen “nach innen”, also zur der Rotationsachse hin ausgelenkt. Wie üblich berechnen wir die kinetische Energie, indem wir erst die Geschwindigkeit bestimmen, (12.65) ṙ = (a + ` sin ϑ) ω e0 (ω t) + ` ϑ̇ cos ϑ e(ω t) + sin ϑ ez , und anschließend das Betragsquadrat davon bilden. Daraus ergibt sich die kinetische Energie T , und für das Potenzial V setzen wir wie üblich das Gravitationspotenzial an, T = 1 1 m `2 ϑ̇2 + m ω 2 (a + ` sin ϑ)2 , 2 2 V = −m g ` cos ϑ. (12.66) Bilden wir daraus die Lagrange-Funktion L = T −V, so hat diese wieder die übliche Form einer LagrangeFunktion für ein freies Teilchen in einem effektiven Potenzial, L= 1 m `2 ϑ̇2 − Ve (ϑ), 2 1 mit Ve (ϑ) = −m g ` cos ϑ − m ω 2 (a + ` sin ϑ)2 . 2 (12.67) Die Bewegungsgleichung für die Auslenkung ϑ ist folglich die für ein gewöhnliches Teilchen in einem Potenzial Ve (ϑ), nur dass es sich hier um eine periodische Koordinate handelt, also ϑ und ϑ + 2 π dieselbe Pendelstellung repräsentieren. Die Form des effektiven Potenzials Ve hängt von den Parametern des Pendels ab. Entscheidend sind zwei dimensionslose Größen, nämlich das Verhältnis des Radius a des Antriebs zur Pendellänge `, sowie das p Verhältnis der Antriebsfrequenz ω zur Eigenfrequenz g/` des Pendels. Für einige typische Fälle ist das Potenzial in Abbildung 12.6 dargestellt. Für ω = 0 handelt es sich um ein gewöhnliches Pendel ohne Antrieb. Es gibt eine stabile Gleichgewichtslage bei ϑ = 0 und eine instabile Gleichgewichtslage bei ϑ = ±π. Schaltet man den Antrieb ein, so verschiebt sich die stabile Gleichgewichtslage nach außen. Das Pendel wird durch die Drehung von der Rotationsachse weg ausgelenkt und kann um die neue stabile Gleichgewichtslage bei ϑ = ϑ + > 0 schwingen. Abbildung 12.5(b) zeigt die “Ruhelage”, bei der das Pendel starr mit dem Antrieb rotiert. Für 84 ω → ∞ geht ϑ+ → π/2. Bei einem sehr schnellen Antrieb steht das Pendel beinahe horizontal. Das ist natürlich genau das, was man erwartet. Interessanterweise gibt es eine kritische Antriebsfrequenz ω = ω0 , bei der für ϑ = ϑ− < 0 eine zweite Gleichgewichtslage auftritt. Diese ist zunächst instabil, da es sich um einen Sattelpunkt des Potenzials handelt. Für ω > ω0 spaltet sie jedoch in eine stabile und eine instabile Gleichgewichtslage auf, so dass das Pendel nun auch um die neue stabile Gleichgewichtslage bei ϑ = ϑ − schwingen kann. Die entsprechende “Ruhelage”, bei der das Pendel starr rotiert, ohne zu schwingen, ist in Abbildung 12.5(b) dargestellt. Es ist in dieser Lage nach innen, also zur Rotationsachse hin ausgelenkt. Aufgabe 12.25 Man zeige, dass der kritische Wert für die Antriebfrequenz bei ω02 = g `2/3 − a2/3 −3/2 (12.68) liegt, und dass die zweite stabile Gleichgewichtslage nur dann auftreten kann, wenn a < ` ist. Gibt es daf ür eine anschauliche Begründung? Warum ergibt sich für a = 0 für die kritische Antriebsfrequenz genau die Eigenfrequenz ω0 2 = g/`? Aufgabe 12.26 Eine anspruchsvollere Version des angetriebenen Pendels ergibt sich, wenn wir nicht mehr verlangen, dass das Pendel nur in einer sich drehenden Ebene schwingt. Statt dessen lassen wir es jetzt wie ein freies Pendel im Raum schwingen. Ein solches Pendel wird von der Gondel eines Kettenkarussells realisiert. Der Ort r des Pendelkörpers lässt sich durch zwei Koordinaten (ϑ, ϕ) parametrisieren, r = o + a e(ω t) + ` sin ϑ e(ϕ + ω t) − ` cos ϑ ez . (12.69) Hier ist ϑ wieder die Auslenkung, ϕ jedoch nicht wie üblich die Richtung der Auslenkung im Raum, sondern die Abweichung der Auslenkrichtung von der momentanen Stellung des Antriebs. Man zeige, dass sich daraus die zeitunabhängige Lagrange-Funktion L= 1 m a2 ω 2 + `2 ϑ̇2 + `2 sin2 ϑ (ϕ̇ + ω)2 + 2 + m a ω ` cos ϑ sin ϕ ϑ̇ + sin ϑ cos ϕ (ϕ̇ + ω) + m g ` cos ϑ (12.70) ergibt. Mit dem Satz aus Aufgabe 11.27 lässt sich diese vereinfachen. Man zeige, dass die alternative Lagrange-Funktion L0 = 1 m `2 ϑ̇2 + sin2 ϑ (ϕ̇ + ω)2 + m a ω 2 ` sin ϑ cos ϕ + m g ` cos ϑ 2 (12.71) dieselben Bewegungsgleichungen liefert. Wegen der speziellen Wahl der Koordinaten entspricht eine Lösung ϑ(t) = konst und ϕ(t) = konst einer Bewegung, bei der das Pendel starr mit dem Antrieb mitrotiert. Man zeige, dass dieses Pendel dieselben Gleichgewichtslagen hat wie zuvor das eingeschr änkte Pendel, dass davon jedoch nur noch eine stabil ist, nämlich die mit ϑ = ϑ+ und ϕ = 0. Anholonome Zwangsbedingungen Die bis jetzt diskutierten mechanischen Systeme waren solche, deren Zwangsbedingungen sich auflösen e definieren, und so die Zwangsbedinließen. Wir konnten einen reduzierten Konfigurationsraum Q ⊂ Q gungen und die zugehörigen Lagrange-Multiplikatoren aus den Bewegungsgleichungen eliminieren. Es gibt aber noch eine andere wichtige Klasse von Zwangsbedingungen, die typischerweise bei mechanischen Systemen auftritt. 85 replacements (c) (d) q3 q3 q2 q q1 q2 q1 Xµ q̇ µ = 0 q1 q2 (b) (a) Abbildung 12.7: Eine anholonome Zwangsbedingung schränkt die Geschwindigkeit q̇ ∈ TQ an jeder Stelle q ∈ Q im Konfigurationsraum auf einen Untervektorraum ein (a). Über einen geeigneten Weg kann trotzdem jeder Punkt im Konfigurationsraum erreicht werden (b). Eine Zwangsbedingung kann auch eine Einschränkung an die Bewegungsrichtungen eines Systems sein, ohne dass die Konfigurationen selbst eingeschränkt werden. Ein typisches Beispiel dafür ist eine rollende Kugel auf einer Tischplatte. Jede Bewegung, die die Kugel auf dem Tisch ausführt, bedingt eine gleichzeitige Drehung. Die Konfigurationen selbst sind aber, mit Ausnahme der Forderung, dass die Kugel auf dem Tisch liegen soll, nicht eingeschränkt. Man kann die Kugel von jeder Stelle an jede andere bewegen, und dabei auch in jede beliebigen Richtung drehen, wenn man nur einen geeigneten Weg nimmt. Leider ist dieses sehr anschauliche Beispiel noch etwas zu anspruchsvoll. Um eine rollende Kugel richtig zu beschreiben, müssen wir zuerst die Drehbewegung eines starren Körpers verstehen. Wir werden uns aber gleich ein ähnliches Beispiel anschauen, das auf dem Rad aus Abbildung 12.3 beruht. Zuerst wollen wir jedoch die grundsätzlichen Eigenschaften solcher anholonomer Zwangsbedingungen diskutieren. Der Ausgangspunkt der folgenden Überlegungen ist ein Konfigurationsraum Q, der entweder der ursprüngliche Konfigurationsraum eines N -Teilchen-Systems ist, oder der bereits reduzierte Konfigurationsraum eines Systems, nachdem wir alle holonomen Zwangsbedingungen eliminiert haben. Auf diesem Raum sei ein beliebiges Koordinatensystem {q µ } eingeführt. Falls es sich um einen reduzierten Konfigurationsraum handelt, nennen wir die reduzierten Koordinaten jetzt also wieder q µ , um eine einheitliche Notation zu bekommen. Eine anholonome Zwangsbedingungen verbietet Bewegungen in bestimmte Richtungen. Sie stellt keine Forderung an die Koordinaten q µ , schränkt aber die erlaubten Geschwindigkeiten q̇ µ ein. Befindet sich das System zu einer Zeit t an einem Ort q ∈ Q, so ist seine Bewegungsfreiheit auf einen Untervektorraum von TQ eingeschränkt. Dies kann an jeder Stelle q und zu jeder Zeit t ein anderer Untervektorraum sein. Die Abbildung 12.7(a) zeigt eine grafische Darstellung einer solchen Zwangsbedingung. An jedem Punkt q ∈ Q spannen die erlaubten Bewegungsrichtungen einen Untervektorraum auf. Diesen können wir durch einen Satz von K linearen Gleichungen beschreiben, die die Geschwindigkeit q̇ ∈ TQ zu erfüllen hat, X kµ (q, t) q̇ µ = 0, mit k ∈ {1, . . . , K}. (12.72) Als einfachstes, wenn auch etwas unrealistisches Beispiel können wir uns vorstellen, dass es einem Teilchen nicht möglich ist, sich in eine bestimmte Raumrichtung zu bewegen, etwa in x-Richtung. Dann lautet die Zwangsbedingung ganz einfach ẋ = 0, wenn x die entsprechende Koordinate dieses Teilchens ist. Oder es ist zwei Teilchen nicht erlaubt, sich relativ zueinander zu bewegen. Dann hätten wir drei solche Zwangsbedingungen, nämlich ẋ1 − ẋ2 = 0, ẏ1 − ẏ2 = 0 und ż1 − ż2 = 0. 86 Auf dem Konfigurationsraum Q lassen sich solche Einschränkungen an die Bewegungsrichtungen immer als ein lineares Gleichungssystem darstellen, das die Komponenten der Geschwindigkeiten q̇ µ zu erfüllen haben. Die Koeffizienten in diesem Gleichungssystem sind die Größen X kµ in (12.72), die im allgemeinen vom Ort q und von der Zeit t abhängen können. Wir können sie als einen Satz von K dualen Vektorfeldern auf Q auffassen. Eine anholonome Zwangsbedingung wird durch ein duales Vektorfeld auf dem Konfigurationsraum eines mechanischen System definiert. Sie verbietet Bewegungen in ein bestimmte Richtung. Um den Unterschied zwischen einer holonomen und einer anholonomen Zwangsbedingung deutlich zu machen, betrachten wir noch einmal eine holonome Zwangsbedingung der Form C(q, t) = 0. Eine solche Zwangsbedingung impliziert natürlich auch eine Einschränkung der möglichen Bewegungsrichtungen. Leiten wir nämlich die gegebene Gleichung nach der Zeit ab, so ergibt sich X µ (q, t) q̇ µ = 0, mit Xµ = ∂C/∂q µ . Die Einschränkung der Bewegungsrichtung ist also genau von der Form (12.72). Es gibt aber einen wesentlichen Unterschied. Im allgemeinen muss das duale Vektorfeld X µ , das eine anholonome Zwangsbedingung Xµ q̇ µ = 0 definiert, nicht der Gradient irgendeiner skalaren Funktion C sein. Was das bedeutet, wird in Abbildung 12.7(b) veranschaulicht. Nehmen wir an, wie befinden uns an einer Stelle q1 ∈ Q im Konfigurationsraum. Ein zweiter Zustand q2 ∈ Q ist von dort aus auf dem direkten Weg unerreichbar, weil wir dazu in eine verbotene Richtung gehen müssten. Betrachten wir zuerst den Fall, dass Xµ = ∂C/∂q µ der Gradient einer skalaren Funktion ist. Dann ist der Wert der Funktion C entlang jedes erlaubten Weges konstant. Denn genau das besagt die Gleichung Xµ q̇ µ = ∂C/∂q µ q̇ µ = 0. Das System darf sich nur in solche Richtungen bewegen, in die die Funktion C konstant ist, also eine verschwindende Richtungsableitung hat. Wenn zwei Konfigurationen q 1 und q2 entlang eines erlaubten Weges miteinander verbunden werden können, dann muss die Funktion C für beide denselben Wert haben. Umgekehrt, wenn die Funktion C für die beiden Konfigurationen q 1 und q2 verschiedene Werte hat, dann können wir daraus unmittelbar schießen, dass sich das System niemals von q 1 nach q2 bewegen kann. Es verbleibt immer in einem Unterraum mit C = konst. Liegt eine solche “scheinbar” anholonome Zwangsbedingung vor, dann verhält sich das System wie bei einer entsprechenden holonomen Zwangsbedingung C − konst = 0, mit dem einzigen Unterschied, dass die Konstante beliebig vorgegeben werden kann. Wenn das Vektorfeld Xµ , das die Zwangsbedingung Xµ q̇ µ = 0 definiert, jedoch nicht der Gradient irgendeiner skalaren Funktion zw ist, dann können wir dieses Argument nicht mehr anwenden. Dann ist es im allgemeinen so, wie in Abbildung 12.7(b) gezeigt. Obwohl die zwei Konfigurationen q 1 und q2 nicht auf dem direkten Weg miteinander verbunden werden können, gibt es einen Umweg, auf dem das System doch von q1 nach q2 gelangen kann. In diesem Fall ist die Zwangsbedingung “echt” anholonom. Sie lässt ich nicht als Zeitableitung einer holonomen Zwangsbedingung darstellen. Wir werden für beide Fälle gleich ein Beispiel kennen lernen. Für die allgemeine Beschreibung von anholonomen Zwangsbedingungen spielt es zunächst keine Rolle, ob es sich um “echt” oder “scheinbar” anholonome Bedingungen handelt. Entscheidend ist nur, dass der Konfigurationsraum selbst nicht eingeschränkt wird, sondern nur die möglichen Bewegungsrichtungen. Um die Bewegungsgleichungen zu formulieren, gehen wir von der d’Alembertschen Form aus, wobei wir die Kräfte wieder in dynamische Kräfte und Zwangskräfte aufteilen, d ∂T ∂T = Fµ + Zµ . µ − dt ∂ q̇ ∂q µ (12.73) Am Anfang dieses Kapitels hatten wir gezeigt, dass wir eine holonome Zwangsbedingung als Grenzfall einer unendlich starken Potenzialkraft verstehen können. Analog gilt für eine anholonome Zwangsbedin87 gung, dass sie als Grenzfall einer unendlich starken Reibungskraft betrachtet werden kann. Eine Bewegung in eine verbotene Richtung würde eine unendliche Kraft erfordern, um diese Reibung zu überwinden. Wir wollen daher versuchen, die Zwangskraft Zµ erst als Reibungskraft darzustellen, um dann einen geeigneten Grenzwert zu bilden. Der Einfachheit halber soll zunächst nur eine Zwangsbedingung X ν q̇ ν = 0 vorliegen. Solange sich das System frei bewegen kann, ist Xν q̇ ν gerade die Geschwindigkeitskomponente in die eigentlich verbotene Richtung. Die Reibungskraft Zµ soll daher proportional zu dieser Geschwindigkeit sein. Wir machen also für die Reibungskraft einen linearen Ansatz. Eine weitere Bedingung an die Reibung ist, dass sie keine mechanische Leistung erbringt, wenn die Bewegung des Systems in eine erlaubte Richtung erfolgt. Aus Xµ q̇ µ = 0 soll also Zµ q̇ µ = 0 folgen. Das ist genau dann der Fall, wenn die dualen Vektoren Zµ und Xµ zueinander proportional sind. Die Zwangsbedingung bestimmt also unmittelbar die Richtung der Zwangskraft. Beides zusammen impliziert Zµ = −Λ Xµ Xν q̇ ν , (12.74) wobei Λ wieder irgendeine große positive Zahl ist. Sie hat in diesem Fall die Bedeutung einer Reibungskonstanten. Das Vorzeichen ergibt sich aus der Forderung, dass die von der Reibungskraft erbrachte Leistung negativ sein muss, wenn sich das System in eine verbotene Richtung bewegt. Das ist genau dann der Fall, wenn Λ > 0 ist, denn dann ist immer Zµ q̇ µ ≤ 0, und das Gleichheitszeichen gilt nur dann, wenn Xµ q̇ µ = 0 ist, die Bewegung also in eine erlaubte Richtung erfolgt. Liegen mehrere Zwangsbedingungen vor, so können wir analog den Ansatz machen, dass die Reibungskraft irgendeine lineare Funktion der verbotenen Geschwindigkeiten X kµ q̇ µ ist. Außerdem muss sie eine Linearkombination der dualen Vektoren X kµ sein, denn nur dann verschwindet die erbrachte Leistung für erlaubte Geschwindigkeiten. Das ergibt X Λkl X kµ X lν q̇ ν . (12.75) Zµ = − k,l Die K×K-Matrix Λkl muss wieder positiv sein, damit die von der Reibungskraft erbrachte Leistung Z µ q̇ µ immer negativ ist, wenn eine Bewegung in eine verbotene Richtung erfolgt. Der Rest des Argumentes ist genau dasselbe wie zuvor für die holonomen Zwangsbedingungen. Wir bilden jetzt den Grenzwert, in dem die Einträge der Matrix Λkl , oder zumindest ihre Eigenwerte unendlich groß werden. Dann wird das System gezwungen, nur noch Bewegungen in erlaubte Richtungen auszuführen, weil Bewegungen in verbotene Richtungen unendlich schnell exponentiell abgebremst werden. Der Ausdruck X lν q̇ ν in (12.75) geht dann gegen Null, und zwar so, dass die Zwangskraft Z µ endlich bleibt. Nach dem Grenzübergang wissen nur noch, dass Zµ eine Linearkombination der dualen Vektoren X kµ ist. Die Koeffizienten kennen aber nicht. Wir schreiben dafür wieder X Zµ = − λk X kµ . (12.76) k Die dualen Vektorfelder X kµ spielen hier offenbar dieselbe Rolle wie in (12.7) die Gradienten ∂C k /∂q µ der holonomen Zwangsbedingungen. Die Analogie hatten wir schon weiter oben hergestellt. Wenn X kµ die Gradienten von skalaren Funktionen C µ sind, dann sind die Zwangsbedingungen X kµ q̇ µ nur scheinbar anholonom, und das System verhält sich ansonsten wir eines mit holonomen Zwangsbedingungen. Daher steht auch in (12.76) der bekannte Ausdruck für die Zwangskraft. Ebenfalls ganz analog zu den holonomen Zwangsbedingungen sind die Lagrange-Multiplikatoren λ k wieder unbekannte Funktionen der Zeit. Sie ergeben sich erst aus den Bewegungsgleichungen X d ∂T ∂T − = F − λk X kµ , µ dt ∂ q̇ µ ∂q µ k 88 X kµ q̇ µ = 0. (12.77) Anders als im Falle der holonomen Zwangsbedingungen lassen sich diese Gleichungen allerdings nicht aus einer erweiterten Lagrange-Funktion ableiten, auch wenn die dynamischen Kräfte F µ Potenzialkräfte sind. Der Grund dafür ist, dass es sich bei den Zwangskräften um Reibungskräfte handelt, und diese lassen sich nicht aus einer Lagrange-Funktion ableiten. Zusammenfassend ergibt sich daraus die folgende allgemeine Strategie zum Aufstellen der Bewegungsgleichungen für ein mechanisches System mit Zwangsbedingungen. Zuerst lösen wir die holonomen e zu einem reduzierten KonfiguZwangsbedingungen, indem wir vom erweiterten Konfigurationsraum Q rationsraum Q übergehen. Sind die holonomen Zwangsbedingungen zeitabhängig, so ist dieser Raum zu e Die Dimension dieses Raumes ist die Anzahl der Freiheitsjeder Zeit t ein anderer Unterraum Qt von Q. grade des System. In jedem Fall können wir auf Q bzw. Qt ein Koordinatensystem {q µ } einführen, und die Energiefunktionen T und V, bzw. die Komponenten Fµ der dynamischen Kräfte als Funktionen der Koordinaten q µ , der zugehörigen Geschwindigkeiten q̇ µ und der Zeit t darstellen. Dann müssen wir nur noch die anholonomen Zwangsbedingung in die Bewegungsgleichungen einbauen, indem wir für jede solche Zwangsbedingung X k = X kµ q̇ µ = 0 einen Lagrange-Multiplikator λk einführen, und eine entsprechende Zwangskraft λk X kµ zu den Bewegungsgleichungen (12.77) hinzufügen. Zusammen mit den Zwangsbedingungen selbst ergibt sich dann ein System von Differenzialgleichungen für die Funktionen q µ (t) und λk (t). Jedoch gehen die Multiplikatoren nur linear in diese Gleichungen ein, so dass wir sie leicht eliminieren können, indem wir solche Linearkombinationen der Bewegungsgleichungen bilden, in denen sie verschwinden. Wir werden das gleich an einem Beispiel zeigen. Solange wir nicht an den Zwangskräften interessiert sind, müssen wir nur die Bewegungsgleichungen für die Koordinatenfunktionen q µ (t) lösen. Aufgabe 12.27 Ein N -Teilchen-System unterliege K holonomen und K 0 anholonomen Zwangsbedingungen. Man zeige, dass die Lösungen der Bewegungsgleichungen dann von 6 N − 2 K − K 0 unabhängigen Parametern abhängen. Es müssen also 6 N − 2 K − K 0 Anfangsbedingungen festgelegt werden. Das rollende Rad Als anschauliches Beispiel für ein System mit anholonomen Zwangsbedingungen betrachten wir nun noch einmal das Rad aus Abbildung 12.3. Seine Achse soll jetzt aber nicht fixiert sein, sondern es soll auf einer ebenen Fläche rollen. Es könnte sich zum Beispiel um eine rollende Münze auf einem Tisch handeln. Um das prinzipielle Vorgehen zuerst an einem sehr einfachen Fall zu erläutern, soll die Achse des Rades zwar im Raum beweglich, aber fest ausgerichtet sein. Sie soll wie in Abbildung 12.3(a) stets in Richtung der x-Achse zeigen. Wieviele Freiheitsgrade hat dieses System? Wir haben natürlich wieder den Drehwinkel χ des Rades. Außerdem können wir das Rad an eine beliebige Stelle auf dem Tisch platzieren. Das sind noch einmal zwei Freiheitsgrade, denen wir die Koordinaten x und y zuordnen. Es sei also o + x e x + y ey der Punkt, an dem das Rad auf der Fläche aufliegt. Insgesamt hat das System dann drei Freiheitsgrade (x, y, χ), also einen dreidimensionalen reduzierten Konfigurationsraum Q. Der Mittelpunkt des Rades befindet sich, da es nur aufrecht stehen kann, an der Stelle o + x e x + y ey + R ez . Wenn wir wieder annehmen, dass die Masse des Rades auf den Rand konzentriert ist und aus N gleichen Teilchen besteht, können wir mit dem bereits bekannten Trick auch hier die kinetische Energie bestimmen. Das Teilchen mit der Nummer n befindet sich am Ort 2π n . (12.78) rn = o + x ex + y ey + R sin χn ey + (1 − cos χn ) ez , mit χn = χ − N Die Geschwindigkeiten sind folglich ṙn = ẋ ex + ẏ ey + R χ̇ cos χn ey + sin χn ez , 89 (12.79) Wenn wir davon die Quadrate bilden und über alle Teilchen summieren, erhalten wir T = 1 1 1 M R2 χ̇2 + M ẋ2 + M ẏ 2 . 2 2 2 (12.80) Eine Bewegung des Rades in x- oder y-Richtung trägt also gerade so viel zur Energie bei wie die Bewegung eines Körpers der Masse M , und die Rotationsenergie ist genau die, die wir auch für das fixierte Rad gefunden hatten. Aufgabe 12.28 Man verifiziere das Ergebnis (12.80). Warum muss man dazu wieder annehmen, dass die Massen gleichmäßig über den Radkreis verteilt sind? Aus (12.80) entnimmt man sofort, dass die Rotations- und Translationsbewegung des Rades entkoppeln, wenn keine dynamischen Kräfte wirken. Allerdings haben wir noch gar nicht berücksichtigt, dass noch eine weitere Zwangsbedingung vorliegt. Das Rad soll auf der Ebene rollen und nicht rutschen. Es darf sich also nur in eine Richtung bewegen, die senkrecht zur Achse steht, und muss dabei auch tatsächlich abrollen. Wenn es sich um einen Winkel α dreht, dann muss es dabei eine Strecke R α zurücklegen. Eine solche Zwangsbedingung stellt offenbar eine Einschränkung an die Geschwindigkeiten, aber nicht an die Orte dar. Sie ist deshalb nicht holonom. Um sie explizit aufzuschreiben, betrachten wir wieder ein bestimmtes Teilchen auf der Lauffläche des Rades, und zwar das Teilchen, das gerade auf dem Tisch aufliegt. Wenn das Rad nicht rutschen soll, dann darf sich dieses Teilchen in dem Moment, in dem es den Tisch berührt, nicht bewegen. Das Teilchen, dass gerade den Tisch berührt, hat natürlich wieder die Nummer n̄ = N χ/2π, und für dieses Teilchen gilt χn̄ = 0. Die Geschwindigkeit dieses Teilchens ist laut (12.79) ṙn̄ = ẋ ex + (ẏ + R χ̇) ey . (12.81) Somit lauten die zusätzlich zu stellenden Zwangsbedingungen X 1 = ẋ = 0, X 2 = ẏ + R χ̇ = 0. (12.82) Das Rad kann sich nicht in x-Richtung bewegen, und es rollt in y-Richtung genau in der Art, wie wir es gerade beschrieben haben. Eine Änderung des Winkels um α kann nur gleichzeitig mit einer Bewegung um −R α in y-Richtung erfolgen. Dass hier noch ein Minuszeichen auftritt liegt nur an der speziellen Ausrichtung des Koordinatensystems und der willkürlichen Wahl der positiven Drehrichtung des Rades. Die Zwangsbedingungen sind genau von der Form (12.72). Sie sind linear in den Geschwindigkeiten, das heißt die schränken die Bewegungsrichtungen im Konfigurationsraum ein, aber sonst nichts. Von den drei möglichen Richtungen, in denen sich das System “rollendes Rad” bewegen könnte, nämlich in x-, y- oder χ-Richtung, ist nur eine zulässig, nämlich eine Rollbewegung in y-Richtung mit gleichzeitiger Drehung in χ-Richtung. Um die Bewegungsgleichungen aufzustellen, müssen wir nun die erweiterten d’Alembertschen Gleichungen (12.77) mit Zwangskräften verwenden. Da hier keine dynamischen Kräfte vorliegen, ist F µ = 0. Es muss also gelten d dt d dt ∂T ∂T − = λ1 X 1x + λ2 X 2x ∂ ẋ ∂x ∂T ∂T − = λ1 X 1y + λ2 X 2y ∂ ẏ ∂y ⇒ M ẍ = λ1 , ⇒ M ÿ = λ2 , d ∂T ∂T − = λ1 X 1χ + λ2 X 2χ dt ∂ χ̇ ∂χ ⇒ M R2 χ̈ = R λ2 . 90 (12.83) Die Koeffizienten X kµ für k ∈ {1, 2} und µ ∈ {x, y, χ} haben wir aus (12.82) entnommen. Es sind die Koeffizienten in den Zwangsbedingungen X k = X kµ q̇ µ . Wir müssen jetzt ein Gleichungssystem für fünf unbekannte Funktionen lösen, nämlich die Ortskoordinaten x(t), y(t) und χ(t), und die beiden Lagrange-Multiplikatoren λ 1 (t) und λ2 (t). Wir haben aber auch fünf Gleichungen, nämlich die Bewegungsgleichungen (12.83) und die Zwangsbedingungen (12.82). Zum Glück sind sie sehr einfach. Wir können die Lösungen sofort angeben. Aus der ersten Zwangsbedingung und der ersten Bewegungsgleichung folgt ẋ = 0 und λ 1 = 0. Es findet keine Bewegung in x-Richtung statt, und es wirkt auch keine Zwangskraft in diese Richtung. Teilen wir die dritte Bewegungsgleichung durch R und subtrahieren sie von der zweiten, so bekommen wir ÿ − R χ̈ = 0. Leiten wir die zweite Zwangsbedingung noch einmal nach t ab, so ergibt das ÿ + R χ̈ = 0. Beides zusammen impliziert ÿ = 0 und χ̈ = 0, und schließlich mit folgt daraus auch λ 2 = 0. Zusammengefasst ergibt sich die folgende allgemeine Lösung, x(t) = x0 , y(t) = y0 − R ω t, χ(t) = χ0 + ω t, λ1 (t) = 0, λ2 (t) = 0. (12.84) Das Rad rollt geradlinig mit konstanter Geschwindigkeit in Richtung der y-Achse, und es treten nie irgendwelche Zwangskräfte auf. Das liegt daran, dass das Rad diese Bewegung ohnehin ausführen würde, wenn man die Anfangsbedingungen entsprechend wählt. Es bewegt sich als ganzes geradlinig und gleichförmig und dreht sich mit konstanter Winkelgeschwindigkeit. Entscheidend ist jedoch, dass die allgemeine Lösung der Bewegungsgleichungen nur von vier Parametern abhängt, nämlich x0 , y0 , χ0 und ω, obwohl der reduzierte Konfigurationsraum dreidimensional ist, so dass ohne zusätzliche Zwangsbedingungen sechs Anfangsbedingungen zu wählen wären, nämlich drei Orte und drei Geschwindigkeiten. Anholonome Zwangsbedingungen schränken zwar die Orte nicht ein, aber die Geschwindigkeiten und somit auch die wählbaren Anfangsbedingungen. Aufgabe 12.29 Wie man leicht in (12.82) sieht, lassen sich diese beiden Zwangsbedingungen als totale Zeitableitungen von zwei Funktionen schreiben, nämlich X 1 = dx/dt und X 2 = d(y + R χ)/dt. Die Zwangsbedingungen sind also nur scheinbar anholonom. Worin besteht jedoch der wesentliche Unterschied zwischen den hier gestellten Bedingungen und der alternativen Beschreibung eines rollenden Rades durch holonome Zwangsbedingungen C 1 = x und C 2 = y + R χ? Nun war dieses System ein sehr einfaches, und das Ergebnis war auch genau das erwartete. Das Rad rollt, wie in Abbildung 12.8(a) gezeigt, einfach geradeaus über den Tisch. Im nächsten Schritt führen wir wieder einen zusätzlichen Freiheitsgrad ein und erlauben dem Rad, seine Achse zu drehen, aber nicht zu kippen. Wie wir gleich sehen werden, führt ein solches Rad eine interessante Bewegung aus, die man vielleicht nicht sofort erwartet. Der reduzierte Konfigurationsraum des Systems ist jetzt vierdimensional und wird durch die Koordinaten (x, y, ϕ, χ) beschrieben, wobei der Winkel ϕ wieder die Ausrichtung der Achse ist. Aufgabe 12.30 Die Herleitung der kinetischen Energie erfolgt wie oben. Man zeige, dass sich die Summe aus der Rotationsenergie (12.46) und der Translationsenergie eines K örpers der Masse M ergibt, also T = 1 1 1 1 M R2 χ̇2 + M R2 ϕ̇2 + M ẋ2 + M ẏ 2 . 2 4 2 2 (12.85) Auf den ersten Blick sind die vier Bewegungsrichtungen wieder entkoppelt. Aber wir müssen natürlich noch die Zwangsbedingungen berücksichtigen, die dafür sorgen, dass das Rad rollt und nicht rutscht. Wir betrachten dazu wieder die Geschwindigkeit des Teilchens mit der Nummer n̄ = N χ/2π, das gerade den Tisch berührt, und verlangen, dass diese verschwindet. Um die neue Ausrichtung der Achse zu berücksichtigen, müssen wir wieder ey durch e0 (ϕ) ersetzen. Es ist jetzt ṙn̄ = ẋ ex + ẏ ey + R χ̇ e0 (ϕ). 91 (12.86) replacements (d) (b) (a) (c) Abbildung 12.8: Das Rad aus Abbildung 12.3 rollt auf einem Tisch. Je nach der Zahl der Freiheitsgrade kann es entweder nur geradeaus laufen, aufrecht um eine Kurve fahren, oder dabei auch noch kippen. Komponentenweise aufgeschrieben ergeben sich die Zwangsbedingungen X 1 = ẋ − R sin ϕ χ̇ = 0, X 2 = ẏ + R cos ϕ χ̇ = 0. (12.87) Anschaulich interpretiert besagen diese Gleichungen, dass sich das Rad in der x-y-Ebene nur in die Richtung bewegen darf, die senkrecht zur momentanen Ausrichtung ϕ der Achse steht, und dass es dabei abrollt, also bei einem Drehwinkel α die Strecke R α zurücklegt. Das Aufstellen der Bewegungsgleichungen erfolgt wie oben, nur dass wir jetzt eine mehr bekommen, d dt d dt ∂T ∂T − = λ1 X 1x + λ2 X 2x ∂ ẋ ∂x ∂T ∂T − = λ1 X 1y + λ2 X 2y ∂ ẏ ∂y ⇒ M ẍ = λ1 , ⇒ M ÿ = λ2 , d ∂T ∂T − = λ1 X 1χ + λ2 X 2χ dt ∂ χ̇ ∂χ ⇒ M R2 χ̈ = R (λ2 cos ϕ − λ1 sin ϕ), ∂T d ∂T − = λ1 X 1ϕ + λ2 X 2ϕ dt ∂ ϕ̇ ∂ϕ ⇒ M R2 ϕ̈ = 0. (12.88) Auch hier haben wir die Koeffizienten X kµ für k ∈ {1, 2} und µ ∈ {x, y, χ, ϕ} wieder aus der expliziten Darstellung (12.87) der Zwangsbedingungen C k = X kµ q̇ µ abgelesen. Die letzte Bewegungsgleichung für ϕ(t) können wir sofort lösen. Es ist ϕ̈ = 0 ⇒ ϕ(t) = ϕ0 + γ t, (12.89) wobei γ und ϕ0 Integrationskonstanten sind. Die Achse des Rades dreht sich gleichmäßig mit einer beliebigen Winkelgeschwindigkeit γ. Die Konstante ϕ0 ist die Ausrichtung der Achse zur Zeit t = 0. Wir können ohne Beschränkung der Allgemeinheit ϕ0 = 0 setzen, wenn wir das Koordinatensystem entsprechend anpassen. Aus den restlichen Bewegungsgleichungen lassen sich die Multiplikatoren eliminieren. Wir setzen dazu die ersten beiden Gleichungen in die dritte ein und erhalten R χ̈ = ÿ cos(γ t) − ẍ sin(γ t). (12.90) Andererseits folgt aus den Zwangsbedingungen, wenn wir die gefundene Lösung für ϕ einsetzen und diese dann nach der Zeit ableiten, ẍ = R γ cos(γ t) χ̇ + R sin(γ t) χ̈, ÿ = R γ sin(γ t) χ̇ − R cos(γ t) χ̈. 92 (12.91) Setzen wir das in die letzte Gleichung ein, so finden wir R χ̈ = −R χ̈, also χ̈ = 0 ⇒ χ(t) = χ0 + ω t. (12.92) Das Rad rotiert mit einer ebenfalls konstanten Winkelgeschwindigkeit ω um seine Achse. Da χ 0 wieder nur die Stellung des Rades zur Zeit t = 0 repräsentiert, können wir auch diese Integrationskonstante ohne Beschränkung der Allgemeinheit gleich Null setzen. Damit ist schon anschaulich klar, wie sich das Rad bewegt. Es rollt mit konstanter Geschwindigkeit über die Ebene, jedoch nicht geradeaus, sondern im Kreis, denn es verändert kontinuierlich die Richtung seiner Bewegung. Tatsächlich folgt das auch aus den Bewegungsgleichungen. Aus den Zwangsbedingungen ergibt sich nämlich jetzt ẋ = R ω sin(γ t), ⇒ ẏ = −R ω cos(γ t) x(t) = x0 + Rω (1 − cos(γ t)), γ y(t) = y0 − Rω sin(γ t). γ (12.93) Das Rad läuft auf einem Kreis mit dem Radius R ω/γ mit der Kreisfrequenz γ um, wobei es mit der Winkelgeschwindigkeit ω rotiert. Der Anfangspunkt (x0 , y0 ) in der Ebene kann frei gewählt werden. Der erste Teil dieser Bewegung ist in Abbildung 12.3(b) dargestellt. Aufgabe 12.31 Man bestimme für die hier ermittelte Bewegung die Komponenten Zx , Zy , Zϕ und Zχ der Zwangskraft und zeige, dass die Komponenten Zx und Zy gerade die Zentripetalkraft ergeben, die benötigt wird, um einen Körper der Masse M auf die Kreisbahn zu zwingen. Aufgabe 12.32 Man zeige, dass die Zwangsbedingungen jetzt echt anholonom sind. Die Funktionen X k in (12.87) lassen sich nicht als Zeitableitungen von holonomen Zwangsbedingungen darstellen. Ist es möglich, jeden Punkt des Konfigurationsraumes mit jedem anderen auf einem erlaubten Weg zu verbinden? Was bedeutet das anschaulich? Aufgabe 12.33 Das rollende Rad in Abbildung 12.8(c) kann auch kippen. Es sei wieder (x, y) der Auflagepunkt, und (ϑ, ϕ, χ) seien die Winkelkoordinaten, wie sie in Abbildung 12.3 definiert sind. Man stelle die Orte der Teilchen als Funktion dieser fünf Koordinaten dar, berechne daraus die Lagrange-Funktion und stelle die Bewegungsgleichungen auf. Wie lauten nun die Zwangsbedingungen, wenn das Rad wieder nur rollen, aber nicht rutschen soll? Aufgabe 12.34 Zuletzt lassen sich auch noch Reibungskräfte einbeziehen. Man kann zwischen Rollreibung, Drehreibung und Kippreibung unterscheiden, entsprechend den drei Richtungen, in die das Rad rollt, sich dreht bzw. kippt. Man kann für diese Kräfte den linearen Ansatz Fx = 0, Fy = 0, Fχ = −ηroll χ̇, Fϕ = −ηdreh ϕ̇, Fϑ = −ηkipp ϑ̇ (12.94) machen. In einer realistischen Situation, etwa einer rollenden M ünze auf einem Tisch, sind alle drei Reibungskonstanten etwa gleich groß. Man füge die Reibungskräfte in die Bewegungsgleichungen ein, eliminiere die Multiplikatoren, und löse die Gleichungen dann nach den Beschleunigungen auf. In dieser Form lassen sie sich numerisch integrieren, wobei als Anfangsbedingungen f ünf Koordinaten (x, y, ϑ, ϕ, χ) und drei Geschwindigkeiten (ϑ̇, ϕ̇, χ̇) vorgegeben werden können. Man studiere anhand der numerischen Lösungen das typische Verhalten einer rollenden Münze auf einem Tisch. 93 13 Mannigfaltigkeiten Im letzten Kapitel haben wir gezeigt, dass sich mechanische System mit holonomen Zwangsbedingungen sehr leicht beschreiben lassen, wenn man den reduzierten Konfigurationraum einführt. Es genügt, alle für die Dynamik relevanten Größen, also die kinetische und die potenzielle Energie bzw. die nichtkonservativen Kräfte, nur auf diesem Unterraum zu kennen. Wir können daher den reduzierten Konfigurationsraum auch als den eigentlichen Konfigurationsraum betrachten. Dass es sich um eine Teilmenge eines größeren Raumes handelt, spielt für die Dynamik des Systems gar keine Rolle. Dabei tritt nur ein Problem auf. Der reduzierte Konfigurationsraum ist im allgemeinen kein affiner Raum. Der reduzierte Konfigurationsraum eines Pendels ist eine Kugeloberfläche. Beim Rad aus Abbildung 12.3 oder 12.8 hängt die Struktur dieses Raumes davon ab, wieviel Bewegungsfreiheit das Rad hat. Es stellt sich daher die folgende Frage. Wenn wir nur noch den reduzierten Konfigurationsraum als den Raum betrachten, in dem die Dynamik stattfindet, können wir dann überhaupt noch die ganzen Methoden verwenden, die wir uns im Zusammenhang mit affinen Räumen und Vektorräumen erarbeitet haben? Ist es dann überhaupt noch sinnvoll, über die Geschwindigkeit als Vektor, oder die Kraft als dualen Vektor zu sprechen? Offenbar haben wir es irgendwie geschafft, die Bewegungsgleichungen so zu formulieren, dass wir dazu nur noch die Koordinaten auf dem reduzierten Konfigurationsraum benötigen. Formal sahen die d’Alembertschen oder Lagrangeschen Gleichung sogar genau so aus wie die ursprünglichen Gleichungen auf dem Konfigurationsraum eines N -Teilchen-Systems ohne Zwangsbedingungen, der ja immer ein affiner Raum ist. Wir wollen nun etwas genauer untersuchen, welche mathematischen Strukturen hinter dieser Formulierung der Bewegungsgleichungen stehen. Karten und Koordinaten Wie lässt sich eine Kugeloberfläche beschreiben, ohne sie in einen dreidimensionalen Raum einzubetten? Die Antwort auf diese Frage steht in vielen Bücherregalen und heißt Atlas. Ein Atlas ist eine Sammlung von Karten, die jeweils einen Teil der Erdoberfläche auf ein zweidimensionales Blatt Papier abbilden. Jeder Ort auf der Erdoberfläche ist mindestens in einer Karte dargestellt. Manche Orte erscheinen auf mehreren Karten. Die Karten überlappen. Erst dadurch lässt sich die Erdoberfläche als ganzes aus den einzelnen Karten rekonstruieren. Warum lässt sich die Erdoberfläche auf diese Art und Weise beschreiben? Offenbar, weil kleine Stücke dieser Oberfläche so ähnlich aussehen wie Teilmengen des R2 . Sie lassen sich auf einer Buchseite mehr oder weniger treu darstellen. Als ganzes ist die Erdoberfläche aber keine Teilmenge des R 2 . Deshalb ist es nicht möglich, sie als ganzes mit nur einer Karte zu erfassen. Wenn wir beliebige Verzerrungen, also nicht maßstabsgetreue Karten zulassen, dann benötigen wir mindestens zwei Karten. In Abbildung 13.1 wird ein Atlas der Kugeloberfläche konstruiert, der aus genau zwei Karten besteht. Wir definieren die Kugeloberfläche zunächst als Teilmenge des R 3 , S2 = { (x, y, z) ∈ R3 , x2 + y 2 + z 2 = 1 }. (13.1) Die übliche Bezeichnung S2 für die Kugeloberfläche leitet sich aus der allgemeineren Definition einer N -dimensionalen Sphäre SN her, die entsprechend als Teilmenge des RN +1 dargestellt werden kann, SN = { (x0 , . . . , xN ) ∈ RN +1 , x0 2 + · · · + xN 2 = 1 }. (13.2) Alle folgenden Überlegungen lassen sich auch für die N -dimensionale Sphäre durchführen. Der Anschaulichkeit halber bleiben wir jedoch bei der vertrauten, zweidimensionalen Sphäre. Um eine spezielle Karte zu konstruieren, betrachten wir die Ebene, die die Sphäre am S üdpol, also am Punkt (0, 0, −1) ∈ S2 berührt. Wir stellen uns vor, dass diese Ebene eine Einbettung des R 2 in den R3 94 replacements (u(N) , v(N) ) (c) (d) (x, y, z) (u(S) , v(S) ) (u, v) (a) (b) Abbildung 13.1: Eine Karte der Sphäre einsteht, indem man sie stereografisch vom Nordpol aus auf eine Ebene projiziert (a). Durch zwei solche Karten entsteht ein Atlas, der die gesamte Sphäre abdeckt (b). Die Punkte in der Nähe des Äquators werden von beiden Karten erfasst, die Polregionen nur von jeweils einer. ist, die durch die Abbildung R2 → R3 : (u, v) 7→ (2 u, −2 v, −1) gegeben ist. Den Faktor 2 und das Minuszeichen führen wir an dieser Stelle nur ein, um die späteren Rechnungen ein wenig zu vereinfachen, und um den Koordinatensystemen die richtigen Orientierungen zu geben. Es handelt sich um eine reine Konvention, die keine prinzipielle Bedeutung hat. Der Punkt in der Ebene mit den Koordinaten (u, v) ∈ R 2 soll im Raum an der Stelle (2 u, −2 v, −1) ∈ R3 liegen. Verbinden wir nun einen Punkt (u, v) in der Ebene durch eine Gerade mit dem Nordpol (0, 0, 1) ∈ S 2 , so schneidet die Gerade die Sphäre noch in genau einem anderen Punkt (x, y, z) ∈ S 2 . Auf diese Weise wird eine Abbildung von der Ebene auf die Sphäre definiert. Die Umkehrung dieser Abbildung hießt stereografische Projektion der Sphäre auf die Ebene. Eine kurze Rechnung ergibt, dass die Abbildung wie folgt explizit dargestellt werden kann, Σ(S) : 2 2 R →S , (u, v) 7→ 2u 2v 1 − u2 − v 2 ,− ,− . 1 + u2 + v 2 1 + u2 + v 2 1 + u2 + v 2 (13.3) Entscheidend ist nun nicht, wie diese Abbildung konstruiert wurde, sondern dass es sich um eine Abbildung der Ebene R2 auf die Sphäre S2 handelt. Wir können mit der Abbildung Σ(S) eine Karte anfertigen, die wir Süd-Karte nennen. Sie erfasst die gesamte Südhalbkugel und ein kleines Stück der Nordhalbkugel nördlich des Äquators. Tatsächlich könnten wir sogar die gesamte Nordhalbkugel mit Ausnahme des Nordpols erfassen. Die Karte wäre dann unendlich groß. Das ist aber gar nicht nötig. Es genügt, dass die Karte etwas über den Äquator hinaus reicht. Eine zweite Karte stellen wir auf die gleiche Weise her, indem wir diesmal vom Südpol aus auf eine Ebene projizieren, die die Kugel am Nordpol berührt. Die entsprechende Abbildung für die Nord-Karte lautet 2v 1 − u2 − v 2 2u 2 2 . (13.4) , , Σ(N) : R → S , (u, v) 7→ 1 + u2 + v 2 1 + u2 + v 2 1 + u2 + v 2 Ist die Sphäre S2 die Erdoberfläche, so ergeben sich die in Abbildung 13.2 dargestellten Karten, die jeweils etwas mehr als eine Halbkugel erfassen. Beide Karten haben die Eigenschaft, dass der jeweilige Pol in der Mitte der Karte an der Stelle (u, v) = (0, 0) liegt, und der Äquator durch den Einheitskreis u2 + v 2 = 1 dargestellt wird. Das ist der Grund für die oben gewählte Normierung der Koordinaten. Außerdem sehen wir, dass beide Karten die gleiche Orientierung haben, also die Erdteile so dargestellt werden, wie sie “von oben” aussehen. Dafür war das eine Minuszeichen in (13.3) nötig. 95 replacements (a) (b) (c) (d) Abbildung 13.2: Ein einfacher Atlas der Erdoberfläche besteht aus zwei Karten, die jeweils etwas mehr als eine Halbkugel überdecken. Die speziellen hier gezeigten Karten ergeben sich durch die stereografischen Projektionen aus Abbildung 13.1. Die Pole befinden sich jeweils in der Kartenmitte, und der Äquator wird durch einen Kreis dargestellt. Die gestrichelte Linie begrenzt das Überlappgebiet der beiden Karten. Nun betrachten wir einen Ort in der Nähe des Äquators, der von beiden Karten erfasst wird. Er erscheint natürlich in der einen Karte an einer anderen Stelle als in der anderen. In der Nord-Karte hat der Ort die Koordinaten (u(N) , v(N) ), in der Süd-Karte erscheint derselbe Ort an der Stelle (u(S) , v(S) ). Welcher Zusammenhang besteht zwischen diesen Koordinaten? Er lässt sich aus (13.3) und (13.4) durch Gleichsetzen und Auflösen nach (u(N) , v(N) ) bzw. (u(S) , v(S) ) ablesen. Man findet u(S) = oder umgekehrt u(N) = u(N) , u(N)2 + v(N)2 v(S) = − u(S) , + v(S)2 v(N) = − u(S)2 v(N) , u(N)2 + v(N)2 (13.5) v(S) . + v(S)2 (13.6) u(S)2 Da die beiden Karten auf die gleiche Art und Weise hergestellt wurden, ist der Zusammenhang zwischen (u(N) , v(N) ) und (u(S) , v(S) ) symmetrisch. Mit den beiden Karten können wir uns nun ein Bild von der Kugeloberfläche machen, ohne sie dafür in den dreidimensionalen Raum einbetten zu müssen. Wir wissen nämlich jetzt, wie wir die beiden Karten zusammensetzen müssen, um die Sphäre als ganzes zu erfassen. Wir müssen dazu die Orte in der Nähe des Äquators, die auf beiden Karten dargestellt sind, mit Hilfe der Übergangsfunktionen (13.5) bzw. (13.6) identifizieren. Ein Punkt, der in der Nord-Karte die Koordinaten (u (N) , v(N) ) hat, repräsentiert denselben Ort auf der Kugelkoberfläche wie ein Punkt, der in der Süd-Karte die Koordinaten (u (S) , v(S) ) hat, wenn zwischen diesen Koordinaten der durch die Übergangsfunktionen definierte Zusammenhang besteht. Die Übergangsfunktionen sagen uns, anschaulich formuliert, wie wir die beiden flachen Karten zusammenkleben müssen, um einen Globus zu bekommen. Den können wir nicht mehr auf ein flaches Blatt Papier zeichnen. Entscheidend ist jedoch, dass in der Übergangsfunktionen die vollständige Bauanleitung 96 für den Globus enthalten ist, also letztlich die Information, die wir benötigen, um aus den lokalen Karten die globale Struktur der Kugeloberfläche zu rekonstruieren. An dieser Stelle können wir die ursprüngliche Definition (13.1) der Sphäre S 2 als Teilmenge des R3 vergessen. Die Sphäre ist ein zweidimensionales Objekt. Sie existiert unabhängig von ihrer Einbettung in den dreidimensionalen Raum. Sie wird allein durch die beiden Karten und die Übergangsfunktion (13.1) bereits vollständig beschrieben. Um die Struktur der Sphäre zu verstehen, müssen wir nicht wissen, ob und wie diese in einen größeren Raum eingebettet ist. Das ist die Idee, die hinter dem Konzept einer Mannigfaltigkeit steht, das wir gleich allgemein einführen werden. Aufgabe 13.1 Man zeige, dass die Umkehrungen der Abbildungen (13.3) und (13.4) wie folgt dargestellt werden können, x y , S2 → R 2 , (x, y, z) 7→ Σ −1 , (S) : 1−z z−1 x y −1 , Σ (N) : S2 → R2 , (x, y, z) 7→ . (13.7) 1+z z+1 Daraus lässt sich leicht ablesen, dass es sich tatsächlich um die in Abbildung 13.1 konstruierte stereografische Projektion handelt, und es lassen sich schließlich auch die Übergangsfunktionen (13.5) und (13.6) bestimmen. Aufgabe 13.2 Wir führen komplexe Koordinaten w(N) = u(N) + i v(N) und w(S) = u(S) + i v(S) ein. Welcher sehr einfache Zusammenhang zwischen w(N) und w(S) ergibt sich dann aus den Übergangsfunktionen (13.5) und (13.6)? Aufgabe 13.3 Man zeige, dass der Rand der Nord-Karte in Abbildung 13.2 links in der S üd-Karte rechts durch eine aus vier Halbkreisen zusammengesetzte Kurve dargestellt wird. Dazu gen ügt es im wesentlichen, zu zeigen, dass eine Gerade u(N) = konst bzw. v(N) = konst in der Nord-Karte durch einen Kreis in der Süd-Karte dargestellt wird, der durch den Südpol verläuft, und dessen Mittelpunkt auf der v(S) - bzw. u(S) -Achse liegt. Aufgabe 13.4 Natürlich gibt es noch viele andere Möglichkeiten, die Kugeloberfläche mit Karten zu überdecken. Zum Beispiel könnte man jeweils eine Halbkugel orthogonal auf die Koordinatenebenen im R 3 projizieren. Es ergeben sich dann sechs kreisrunde Karten, wobei eine Karte jeweils mit vier anderen überlappt. Tatsächlich findet man solche Karten nicht selten in alten Atlanten. Man bestimme hierf ür die Übergangsfunktionen. Aufgabe 13.5 Die üblichen Kugelkoordinaten (ϑ, ϕ) definieren ebenfalls eine Karte. Sie deckt fast die gesamte Kugeloberfläche ab, mit Ausnahme der beiden Pole. Um einen kompletten Atlas zu bekommen, muss man noch zwei Karten hinzufügen, die jeweils die Polregionen abdecken. Auch solche Darstellungen der Erdoberfläche findet man oft in Atlanten. Zusätzlich zu einer rechteckigen Karte, in der die Längenund Breitengrade durch Geraden dargestellt werden, sind die Polregionen in zwei kleineren, runden Karten dargestellt. Man kann dort die oben definierten Koordinaten (u (N) , v(N) ) für das Nordpolargebiet und (u(S) , v(S) ) für das Südpolargebiet verwenden. Man zeige, dass dann die Übergangsfunktionen zu den Kugelkoordinaten wie folgt gegeben sind. In der Nord-Karte gilt u(N) = tan(ϑ/2) cos ϕ, v(N) = tan(ϑ/2) sin ϕ, (13.8) v(S) = − cot(ϑ/2) sin ϕ. (13.9) und in der Süd-Karte u(S) = cot(ϑ/2) cos ϕ, Aufgabe 13.6 Man konstruiere mit Hilfe einer entsprechenden stereografischen Projektion zwei Karten, die eine N -dimensionale Sphäre SN abdecken, und bestimme die zugehörige Übergangsfunktion. 97 Differenzierbare Mannigfaltigkeiten Die Idee, eine Sphäre unabhängig von ihrer Einbettung in einen höherdimensionalen Raum durch geschicktes Zusammenkleben von einzelnen Karten zu beschreiben, lässt sich nun sehr leicht verallgemeinern. Dies führt auf das Konzept einer differenzierbaren oder glatten Mannigfaltigkeit. Im Prinzip kennen wir bereits alle dafür nötigen Bausteine. Etwas verkürzt lässt sich die Definition wie folgt zusammenfassen: Eine Mannigfaltigkeit ist eine Punktmenge, die durch einen Atlas beschrieben wird. Ein Atlas besteht aus einer Sammlung von Karten und Übergangsfunktionen zwischen ihnen. Eine Punktmenge M ist einfach eine Menge, deren Elemente x, y, . . . ∈ M wir Punkte nennen. Man setzt üblicherweise voraus, dass diese Menge bereits gewisse mathematische Strukturen hat. Es soll sich sich um einen topologischen Raum handeln. Eine Punktmenge ist ein topologischer Raum, wenn in ihr offene und abgeschlossene Teilmengen definiert sind, die im wesentlichen die gleichen Eigenschaften haben wie die offenen und abgeschlossenen Teilmengen des R N . In einem topologischen Raum kann man die Konvergenz von Folgen und die Stetigkeit von Abbildungen definieren. Allerdings ist diese Voraussetzung nicht wesentlich, so dass wir nicht weiter auf diese Details eingehen werden. Entscheidend ist vielmehr, dass sich gewisse Teilmengen der Mannigfaltigkeit bijektiv auf Teilmengen des RN abbilden lassen, was anschaulich in etwa bedeutet, dass die Mannigfaltigkeit lokal, also in der Umgebung jedes Punktes, so ähnlich aussieht wie der R N . Die Zahl N = dim M nennt man dann die Dimension von M. Das ist die wesentliche Eigenschaft einer Mannigfaltigkeit, die wir im folgenden genauer beschreiben werden. Der entscheidende Begriff ist der einer Karte. Eine Karte besteht aus einer offenen Teilmenge U (m) ⊂ N R und einer Koordinatenabbildung Σ(m) , die die Teilmenge U(m) ⊂ RN bijektiv auf eine Teilmenge M(m) ⊂ M abbildet, Karte Σ(m) : U(m) ⊂ RN → M(m) ⊂ M, {x(m)µ } 7→ x. (13.10) Innerhalb der Karte U(m) bzw. ihren Bild M(m) gibt es eine umkehrbar eindeutige Zuordnung zwischen den Punkten x auf M und ihren Koordinaten {x(m)µ } im RN . Das ist völlig analog zu einer Koordinatenabbildung (10.38) für ein krummliniges Koordinatensystem auf einem affinen Raum zu verstehen. Eine Karte ist also im Prinzip nichts anderes als ein krummliniges Koordinatensystem, das im allgemeinen nur einen Teil des betrachteten Raumes abdeckt. Wenn man voraussetzt, dass M bereits ein topologischer Raum ist, dann muss sowohl die Koordinatenabbildung als auch deren Umkehrung stetig sein. Das Bild M(n) der Karte ist dann ebenfalls eine offene Teilmenge von M. Macht man diese Voraussetzung nicht, so kann man die Koordinatenabbildung dazu benutzen, die Topologie von M zu definieren. Das sind aber mathematische Spitzfindigkeiten, auf die wir hier nicht weiter eingehen werden. Um die Mannigfaltigkeit als ganzes zu beschreiben, benötigen wir mehrere Karten. Ein Atlas ist eine Sammlung von Karten U(m) mit den zugehörigen Koordinatenabbildungen Σ(m) , wobei der Index (m) irgendeine Indexmenge durchläuft. Jeder Punkt in M muss von mindestens einer Karte erfasst werden. Die Vereinigung aller Bilder M(m) ⊂ M ist folglich ganz M, [ M= M(m) . (13.11) (m) Wenn wir uns einen Atlas als Buch vorstellen, dann ist der Index (m) die Seitennummer, und die Koordinaten {x(m)µ } ∈ RN eines Ortes x ∈ M(m) geben an, wo dieser Ort auf der Seite (m) verzeichnet ist. Zur besseren Unterscheidung hängen wir auch den Koordinaten {x (m)µ } den Kartenindex (m) an. So können 98 replacements (a) (b) (c) (d) U(m,n) Σ −1 (n) ◦ Σ(m) U(m) U(n) U(n,m) Σ(m) Σ(n) M(n) M(m) M Abbildung 13.3: Karten und Übergangsfunktionen auf einer Mannigfaltigkeit M. Jede Karte deckt eine Teilmenge von M ab, indem sie eine Teilmenge des R N bijektiv auf diese abbildet. Das Überlappgebiet von zwei Karten wird von beiden Karten erfasst. Die Übergangsfunktion, die die Koordinaten eines Punktes in der einen Karte auf die Koordinaten desselben Punktes in der anderen Karte abbildet, ist eine beliebig oft differenzierbare Abbildung R N → RN . wir für alle Karten dieselben Koordinatenindizes µ, ν, . . . verwenden, um die N einzelnen Koordinaten zu unterscheiden. Wir müssen uns nicht für jede Karte andere Bezeichnungen und eine andere Indexmenge für die einzelnen Koordinaten ausdenken. Für die zweidimensionale Sphäre sind wir genau so vorgegangen. Wir haben zwei Karten konstruiert, die wir durch die Indizes (N) und (S) unterschieden haben. In beiden Karten haben wir die Koordinaten mit u und v bezeichnet, das heißt der Koordinatenindex µ nahm in diesem Fall die Werte u und v an. Im deutlich zu machen, auf welche der beiden Karten wir uns beziehen, haben wir die Koordinaten zusätzlich mit Kartenindizes versehen, also mit (u(N) , v(N) ) bzw. (u(S) , v(S) ) bezeichnet. Überschneiden sich nun zwei Karten, so können wir einem Ort x ∈ M (m) ∩ M(n) in der Schnittmenge zwei Sätze von Koordinaten zuordnen, nämlich die Koordinaten {x (m)µ } in der Karte U(m) und die Koordinaten {x(n)µ } in der Karte U(n) . Derselbe Ort ist sowohl auf der Seite (m) als auch auf der Seite (n) im Atlas verzeichnet. Die Abbildung, die den Koordinaten {x(m)µ } in der einen Karte die Koordinaten {x(n)µ } in der anderen Karte zuordnet, heißt Übergangsfunktion. Die Übergangsfunktion beschreibt das Umrechnen von einem Koordinatensystem in ein anderes im Überlappgebiet von zwei Karten. Die Abbildung 13.3 zeigt die typische Situation. Unten ist die Mannigfaltigkeit M dargestellt, oben zwei Karten, also zwei Teilmengen U(m) und U(n) des RN , die durch bijektive Abbildungen Σ(m) bzw. Σ(n) auf die Teilmengen M(m) und M(n) von M abgebildet werden. Die Schnittmenge M(m) ∩ M(n) wird von beiden Karten erfasst. In der Karte Σ(m) erscheint das Überlappgebiet als Teilmenge U(m,n) ⊂ U(m) . In der Karte Σ(n) wird dasselbe Gebiet durch die Teilmenge U(n,m) ⊂ U(n) repräsentiert. Mit der üblichen Schreibweise für Mengen und Abbildungen ist −1 −1 U(m,n) = Σ (m) M(m) ∩ M(n) , U(n,m) = Σ (n) M(m) ∩ M(n) . (13.12) Das sind die in der Abbildung 13.3 oben schattiert dargestellten Teilmengen der beiden Karten. Die Übergangsfunktion ist eine Abbildung zwischen diesen beiden Teilmengen des R N . Sie lässt sich wie folgt aus 99 den Koordinatenabbildungen zusammensetzen, ÜbergangsFunktion Σ −1 (n) ◦ Σ(m) : U(m,n) → U(n,m) , {x(m)µ } 7→ {x(n)µ }. (13.13) Wir bilden zuerst die Koordinaten {x(m)µ } in der einen Karte auf den zugehörigen Punkt x ∈ M ab, und diesen dann auf seine Koordinaten {x(n)µ } in der anderen Karte. Der entscheidende Punkt ist nun, dass es sich bei den Übergangsfunktionen um Abbildungen zwischen zwei offenen Teilmengen des RN handelt. Da nämlich die Schnittmenge M(m) ∩ M(n) von zwei offenen Mengen wieder offen ist, und die Koordinatenabbildungen in beide Richtungen stetig sind, sind auch die beiden Urbilder der Schnittmenge M(m) ∩ M(n) , also U(m,n) und U(m,n) offen. Wir können daher an die Übergangsfunktionen eine zusätzliche Forderung stellen. Sie sollen beliebig oft differenzierbar sein. Wenn das der Fall ist, dann nennen wir M eine differenzierbare oder glatte Mannigfaltigkeit. Eine Mannigfaltigkeit heißt glatt oder differenzierbar, wenn die Übergangsfunktionen beliebig oft differenzierbar sind. Die zweidimensionale Sphäre S2 ist in diesem Sinne eine glatte Mannigfaltigkeit. Denn die Übergangsfunktionen (13.5) und (13.6) sind auf ihrem Definitionsbereich beliebig oft differenzierbare Abbildungen R2 → R2 . Dar maximale Definitionsbereich dieser Abbildungen ist jeweils der ganze R 2 mit Ausnahme des Nullpunktes. Wie groß der Definitionsbereich der Übergangsfunktionen tatsächlich ist, hängt davon ab, wie groß wir die beiden Karten machen. In Abbildung 13.2 ist der Definitionsbereich der Übergangsfunktionen jeweils der Bereich außerhalb der gestichelten, aus vier Halbkreisen zusammengesetzten Linien. Dass man von den Übergangsfunktionen verlangt, differenzierbar zu sein, hat folgenden Grund. Nur, wenn das der Fall ist, kann man auf einer Mannigfaltigkeit von differenzierbaren Kurven und Funktionen sprechen und deren Ableitungen bilden. Genau das benötigen wir, wenn wir auf dem Konfigurationsraum eines mechanischen Systems von dessen Geschwindigkeit sprechen oder Bewegungsgleichungen aufstellen wollen. Was unter einer differenzierbaren Kurve bzw. eine differenzierbaren Funktion auf einer Mannigfaltigkeit zu verstehen ist, soll in den folgenden Aufgaben erläutert werden. Aufgabe 13.7 Es sei λ : R → M eine parametrisierte Kurve auf einer glatten Mannigfaltigkeit. Wir betrachten ein endliches Stück der Kurve, also λ(s) mit s1 < s < s2 , das ganz im Bild einer Karte M(n) ⊂ M liegt. Dieses Kurvenstück kann wie üblich durch seine Koordinatendarstellung {λ(n)µ (s)}, also durch N = dim M reelle Funktionen beschrieben werden. Wir nennen die Kurve k-mal differenzierbar, wenn die gewöhnlichen Ableitungen dλ(n)µ , ds d2 λ(n)µ , ds2 ..., dk λ(n)µ dsk (13.14) existieren. Warum ist diese Definition nur dann konsistent, wenn die Übergangsfunktionen ebenfalls mindestens k-mal differenzierbar sind? Um von einer beliebig oft differenzierbaren, also einer glatten Kurve sprechen zu können, müssen demnach auch alle Übergangsfunktionen glatt sein. Aufgabe 13.8 Für eine Kurve λ(s) mit −1 ≤ s ≤ 1 auf der Sphäre S2 gelte im Abdeckungsbereich der Kugelkoordinaten −s für −1 ≤ s < 0, α für −1 ≤ s < 0, ϑ(s) = ϕ(s) = (13.15) s für 0 < s ≤ 1, β für 0 < s ≤ 1. Man zeige, dass sich diese Kurve bei s = 0 immer zu einer stetigen Kurve erg änzen lässt, dass diese aber nur dann differenzierbar ist, wenn α − β = π + 2π n mit n ∈ Z gilt. 100 Aufgabe 13.9 Es sei φ : M → R ein skalares Feld, also eine reelle Funktion auf einer glatten Mannigfaltigkeit. Um ein solches Feld explizit darzustellen, beschreibt man es in jeder einzelnen Karte durch seine Koordinatendarstellung φ(n) = φ ◦ Σ(n) : {x(n)µ } 7→ φ(x) = φ(n) ({x(n)µ }). U(n) → R, (13.16) Man stellt das Feld also innerhalb jeder Karte durch eine reelle Funktion von N = dim M reellen Variablen dar, die sich aus dem eigentlichen Feld und der Koordinatenabbildung zusammensetzt. Man nennt das Feld k-mal differenzierbar, wenn die partiellen Ableitungen ∂φ(n) , ∂x(n)µ ∂ 2 φ(n) , ∂x(n)µ ∂x(n)ν ..., ∂ k φ(n) ∂x(n)µ ∂x(n)ν · · · ∂x(n)ρ (13.17) existieren. Warum ist es auch für diese Definition notwendig, dass die Übergangsfunktionen beliebig oft differenzierbar sind? Aufgabe 13.10 Eine stetige Funktion auf der Sphäre S2 werde in Kugelkoordinaten durch f (ϑ, ϕ) = sin(2 ϑ), eine andere durch g(ϑ, ϕ) = sin(2 ϑ) cos(3 ϕ) dargestellt. Beide lassen sich zu einer an den Polen stetigen Funktion fortsetzen, wie man leicht durch Grenzwertbildung ϑ → 0 bzw. ϑ → π sehen kann. Sind diese Funktionen dann auch differenzierbar? Aufgabe 13.11 Warum ist jeder affine Raum auch eine glatte Mannigfaltigkeit? Aufgabe 13.12 In Abbildung 13.4 sind zwei typische Mannigfaltigkeiten dargestellt, die zwar von einer einzigen Karte überdeckt werden können, allerdings nur, wenn man zulässt, dass diese Karte mit sich selbst überlappt. Das ist eigentlich nicht zulässig, da die Koordinatenabbildung dann nicht bijektiv ist. Wie viele Karten braucht man für einen Zylinder bzw. einen Torus mindestens, um einen “richtigen” Atlas zu definieren? Aufgabe 13.13 Eine zweidimensionale Mannigfaltigkeit M werde wie folgt durch einen Atlas beschrieben. Er besteht aus drei Karten, die jeweils ein Quadrat im R2 beanspruchen, U(1) = U(2) = U(3) = { (x, y) ∈ R2 , −1 < x < 1, −1 < y < 1 }. (13.18) Die Karte U(1) überlappt mit der Karte U(2) so, dass die rechte Hälfte von U(1) durch die Übergangsfunktion −1 Σ (2) ◦ Σ(1) : (x(1) , y(1) ) 7→ (x(2) , y(2) ) = (x(1) − 1, −y(1) ) (13.19) auf die linke Hälfte von U(2) abgebildet wird. Das gleiche gilt für die rechte Hälfte von U(2) , die durch die Übergangsfunktion −1 Σ (3) ◦ Σ(2) : (x(2) , y(2) ) 7→ (x(3) , y(3) ) = (x(2) − 1, −y(2) ) (13.20) auf die linke Hälfte von U(3) abgebildet wird. Und schließlich wird die rechte Hälfte von U(3) durch −1 Σ (1) ◦ Σ(3) : (x(3) , y(3) ) 7→ (x(1) , y(1) ) = (x(3) − 1, −y(3) ) (13.21) auf die linke Hälfte von U(1) abgebildet. Unter welchem Namen ist diese Mannigfaltigkeit allgemein bekannt? 101 ϕ 7→ ϕ + 2π α 7→ α + 2π β 7→ β + 2π replacements (c) (d) S1 × R S1 × S 1 (a) (b) Abbildung 13.4: Der Zylinder (a) und der Torus (b) sind Beispiele für glatte Mannigfaltigkeiten, die sich mit einer selbstüberlappenden Karte beschreiben lassen. Kurven und Vektoren Will man auf einer Mannigfaltigkeit mit Vektoren rechnen, so ergibt sich ein Problem. Es ist nicht möglich, einem Paar von Punkten x, y ∈ M einen Abstandsvektor y − x zuzuordnen, um auf diese Weise einen zugeordneten Vektorraum zu definieren. Am Beispiel der Sphäre kann man sich das leicht klar machen. Es ist nicht möglich, jeweils zwei Punkte auf der Sphäre so durch einen Vektor zu verbinden, dass die Menge aller dieser Vektoren einen Vektorraum bildet und die üblichen Rechenregeln gelten. Die “üblichen Rechenregeln” wären dann nämlich die Axiome für einen affinen Raum, und die Sphäre ist ja gerade kein affiner Raum. Man kann jedoch statt dessen Tangentenvektoren von Kurven definieren und darauf aufbauend Vektoren und Tensoren auf Mannigfaltigkeiten einführen, die sich im wesentlichen so verhalten wie Vektoren und Tensoren auf affinen Räumen. Im Prinzip haben wir genau das bereits im letzten Kapitel verwendet, wenn wir dort von Geschwindigkeiten gesprochen haben. Allerdings gibt es einen wichtigen Unterschied zwischen affinen Räumen und Mannigfaltigkeiten, den wir im folgenden herausarbeiten wollen. Es sei λ : R → M eine parametrierte Kurve auf einer glatten Mannigfaltigkeit. Sie soll im Sinne der Aufgabe 13.7 differenzierbar sein. Wir können die Kurve λ(s) dann innerhalb einer Karte M (m) durch einen Satz von N = dim M differenzierbaren Funktionen λ(m)µ (s) darstellen und die Ableitungen λ0(m)µ (s) = dλ(m)µ ds (13.22) bilden. In einem affinen Raum sind dies die Komponenten des Tangentenvektors λ 0 (s), dargestellt in der lokalen Koordinatenbasis am Punkt λ(s). Wir wollen zeigen, dass eine ähnliche Interpretation auch auf einer Mannigfaltigkeit möglich ist. Wir betrachten dazu den Teil der Kurve, der im Überlappgebiet der Karte M(m) mit einer anderen Karte M(n) liegt. Dort wird dieselbe Kurve λ(s) durch die Koordinatenfunktionen λ (n)ν (s) dargestellt. Für die Ableitungen dieser Funktionen gilt λ0(n)ν (s) ∂λ(n)ν dλ(m)µ dλ(n)ν = = Λ(n,m)νµ (λ(s)) λ0(m)µ (s). = ds ∂λ(m)µ ds 102 (13.23) Das entspricht dem bekannten Transformationsverhalten eines Vektors beim Übergang von einem krummlinigen Koordinatensystem zu einem anderen. Die Übergangsmatrix ist durch die partiellen Ableitungen der “neuen” Koordinaten x(n)ν nach den “alten” Koordinaten x(m)µ gegeben, und sie hängt von dem Ort x ab, an dem wir diese Ableitungen bilden, Λ(n,m)νµ (x) = ∂x(n)ν . ∂x(m)µ (13.24) Der einzige Unterschied zur Notation in Kapitel 10 ist, dass wir die beiden Koordinatensysteme {x (m)µ } und {x(n)ν } jetzt nicht durch verschiedene Indexmengen unterscheiden, sondern durch einen zusätzlichen Kartenindex (m) bzw. (n), der entsprechend auch die Übergangsmatrix kennzeichnet. Ansonsten ergeben sich aus der Kettenregel für die partiellen Ableitungen (13.24) die bekannten Eigenschaften von Übergangsmatrizen. Vertauscht man die Karten M(m) und M(n) , so ergibt sich die inverse Übergangsmatrix, und im Überlappgebiet von drei Karten M(l) , M(m) und M(n) können die Transformationen verkettet werden, Λ(n,m)νµ (x) Λ(m,n)µρ (x) = δ νρ , Λ(l,m)ρµ (x) Λ(m,n)µν (x) = Λ(l,n)ρµ (x). (13.25) Aufgrund dieser Beobachtung können wir nun wie folgt einen Vektorraum definieren. An jedem Punkt x ∈ M(m) innerhalb einer Karte führen wir zunächst ganz formal einen Satz von N = dim M Vektoren e(m)µ (x) ein. Diese spannen einen Vektorraum auf, den wir mit T M bezeichnen und Tangentenraum von M am Punkt x ∈ M nennen. Die Vektoren e(m)µ (x) bilden also eine Basis von T M, die wir als lokale Koordinatenbasis bezeichnen. Damit die Definition konsistent ist, müssen wir sagen, welche Beziehung zwischen der Koordinatenbasis e(m)µ (x) und der Koordinatenbasis e(n)ν (x) bestehen soll, wenn x im Überlappgebiet von zwei Karten M(m) und M(n) liegt. Beides sind dann nämlich Basen desselben Vektorraumes T M. Genau wie für die lokalen Koordinatenbasen von zwei krummlinigen Koordinatensystem in einem affinen Raum soll in diesem Fall das Transformationsgesetz e(n)ν (x) = e(m)µ (x) Λ(m,n)µν (x) (13.26) gelten, wobei die Übergangsmatrix Λ(m,n)µν (x) durch (13.24) gegeben ist. Aufgabe 13.14 Warum sind die Beziehungen (13.25) zwischen den Übergangsmatrizen notwendige Bedingungen dafür, dass die Forderung (13.26) an die Basisvektoren konsistent ist? Nun haben wir in jedem Punkt x ∈ M einen anderen Vektorraum T M definiert. Außer den Beziehungen (13.26) zwischen den lokalen Basisvektoren e(m)µ (x) und e(n)ν (x) am selben Punkt x im Überlappgebiet der Karten M(m) und M(n) gibt es nämlich keinerlei Beziehungen zwischen den Basen e(m)µ (x) und e(m)µ (y) an verschiedenen Punkten x, y ∈ M(m) , selbst wenn beide Punkte in derselben Karte liegen. Da genau das der wesentliche Unterschied zwischen einer Mannigfaltigkeit und einem affinen Raum ist, fassen wir es noch einmal wie folgt zusammen: Eine glatte Mannigfaltigkeit M besitzt in jedem Punkt x ∈ M einen Tangentenraum T M, der innerhalb einer Karte M(m) von der lokalen Koordinatenbasis e(m)µ (x) aufgespannt wird. Den Tangentenvektor einer Kurve λ(s) können wir dann wie üblich darstellen. Es gilt λ0 (s) = λ0(m)µ (s) e(m)µ (λ(s)) = λ0(n)ν (s) e(n)ν (λ(s)), (13.27) wobei die Gleichheit der beiden Darstellungen aus dem Transformationsverhalten (13.23) für die Koordinatenfunktionen und (13.26) für die Basisvektoren folgt. Die Darstellung des Tangentenvektors einer 103 e(N)v e(N)u T S2 (u(N) , v(N) ) eϕ λ0 (s) x (ϑ, ϕ) e(S)v λ(s) eϑ e(S)u (u(S) , v(S) ) (b) (a) (c) Abbildung 13.5: In jedem Punkt einer Mannigfaltigkeit spannen die lokalen Basisvektoren (a) den Tangentenraum (b) auf. Der Tangentenvektor einer Kurve (c) liegt stets im Tangentenraum an dem Punkt, den die Kurve gerade durchläuft. Kurve in der lokalen Koordinatenbasis ist formal mit der auf einem affinen Raum identisch. Allerdings gibt es einen Unterschied. Der Tangentenvektor einer Kurve λ(s) auf einer Mannigfaltigkeit liegt für jedes s in einem anderen Vektorraum, denn aus (13.27) folgt λ0 (s) ∈ T (s) M. Warum das so ist, und warum eine Mannigfaltigkeit in jedem Punkt einen anderen Tangentenraum besitzt, können wir uns am Beispiel der Sphäre S2 anschaulich klar machen. In Abbildung 13.5(a) sind verschiedene Koordinatensysteme auf der Sphäre dargestellt. Oben links ein Ausschnitt aus der Nord-Karte mit den Koordinaten (u(N) , v(N) ), unten ein Ausschnitt aus der Süd-Karte mit den Koordinaten (u (S) , v(S) ), und rechts sind ein paar Längen- und Breitenkreise dargestellt, also die Koordinatenlinien der Kugelkoordinaten (ϑ, ϕ). An jedem Punkt im Abdeckungsbereich dieser Koordinatensysteme können wir eine lokale Koordinatenbasis einführen. In der Nord-Karte besteht diese aus den Vektoren (e (N)u , e(N)v ), die wir uns anschaulich als Vektoren vorstellen können, die in die Richtungen der jeweiligen Koordinatenlinien zeigen. Entsprechend gibt es in der Süd-Karte an jedem Punkt zwei Vektoren (e (S)u , e(S)v ), die dort die lokale Koordinatenbasis bilden. Und schließlich gilt dasselbe für die Vektoren (e ϑ , eϕ ) in Kugelkoordinaten. Wenn wir uns diese Basisvektoren im Einbettungsraum vorstellen, in diesem Fall also im R 3 , so wird klar, dass es sich nicht nur in jedem Punkt auf der Sphäre um eine andere Basis handelt, sondern dass sogar in jedem Punkt x ∈ S2 ein anderer Vektorraum T S2 aufgespannt wird. Dies wird in Abbildung 13.5(b) deutlich. Die lokale Koordinatenbasis spannt in jedem Punkt eine Ebene auf, die dort tangential an der Sphäre anliegt. Das ist für jeden Punkt auf der Sphäre ein anderer zweidimensionaler Unterraum des dreidimensionalen Einbettungsraumes. Es gibt keine Möglichkeit, alle diese Unterräume so miteinander zu identifizieren, dass man sie als Kopien ein und desselben Vektorraumes betrachten könnte. Das ist die bildliche Vorstellung, die man sich von dem Tangentenraum T M einer Mannigfaltigkeit M an einem Punkt x ∈ M machen kann. Bettet man die Mannigfaltigkeit in einen größeren affinen Raum ein, so ist der Tangentenraum an einem bestimmten Punkt derjenige Unterraum des Einbettungsraumes, der an diesem Punkt tangential an der eingebetteten Mannigfaltigkeit anliegt. Und das erklärt auch anschaulich, warum der Vektorräume T M und T M für x 6= y verschieden sind. Wir können nun auch verstehen, warum der Tangentenvektor λ 0 (s) einer Kurve an der Stelle s stets im Tangentenraum T (s) M liegt. Betrachten wir nämlich die in Abbildung 13.5(c) dargestellte Kurve auf der eingebetteten Sphäre, so zeigt der Tangentenvektor dieser Kurve stets tangential zu Sphäre. Er liegt an jeder Stelle der Kurve in demjenigen Unterraum des Einbettungsraumes, der an dieser Stelle zur Sphäre 104 tangential ist. Aus dieser Tatsache und dem Umstand, dass der Tangentenraum an jedem Punkt ein anderer ist, folgt unter anderem, dass es auf einer Mannigfaltigkeit keine Geraden im üblichen Sinne gibt. Eine Gerade in einem affinen Raum ist nämlich eine Kurve, deren Tangentenvektor, zumindest bis auf eine Skalierung, entlang der Kurve konstant ist. Auf einer Mannigfaltigkeit ist jedoch schon die Frage sinnlos, ob ein Vektor v ∈ T M mit einem Vektor w ∈ T M übereinstimmt oder nicht. Und damit ist auch die Frage sinnlos, ob der Tangentenvektor einer Kurve konstant ist oder nicht. Wir können gar nicht entscheiden, ob eine Kurve “geradeaus” läuft oder nicht. Gewisse Eigenschaften von affinen Räumen existieren also auf Mannigfaltigkeiten nicht mehr. So gibt es keine Abstandsvektoren und keine Geraden mehr, und folglich auch keine geradlinigen Koordinatensystem. In diesem Sinne ist ein Koordinatensystem auf einer Mannigfaltigkeit immer krummlinig. Andere Eigenschaften bleiben jedoch erhalten. Wir können Ableitungen von Kurven bilden und diese als Vektoren in einem Vektorraum betrachten, auch wenn wir dazu in jedem Punkt einen anderen Vektorraum einführen müssen. Um diese Eigenschaft von Vektoren deutlich zu machen, sagen wir, dass jeder Vektor auf einer Mannigfaltigkeit einen Bezugspunkt hat. Ein Vektor v ∈ T M hat den Bezugspunkt x. Wenn wir Vektoren miteinander verknüpfen, etwa indem wir sie addieren oder mit Skalaren multiplizieren, müssen wir stets darauf achten, dass wir nur Vektoren mit dem gleichen Bezugspunkt verknüpfen können. Das gleiche gilt für das Bilden von Tensoren, wie wir gleich zeigen werden. Aufgabe 13.15 Die Kurve in Abbildung 13.5(c) hat in Kugelkoordinaten die Darstellung ϑ(s) = π s, ϕ(s) = 4π s, mit 0 < s < 1. (13.28) Sie läuft vom Nord- zum Südpol und umrundet die Sphäre dabei zweimal in West-Ost-Richtung. Wie lautet die Darstellung des Tangentenvektors in Kugelkoordinaten, wie in der Nord-Karte und wie in der S üdKarte? Wenn man die Kurve stetig zu den Endpunkten fortsetzt, ist der Tangentenvektor dann bei s = 0 und bei s = 1 wohldefiniert? Welche Karten muss man verwenden, um ihn dort zu berechnen? Aufgabe 13.16 Eine andere Kurve auf der Sphäre werde in Kugelkoordinaten wie folgt dargestellt, ϑ(s) = a sk , ϕ(s) = b/s, 0 < s < s0 , (13.29) wobei k > 0, a, b und s0 Konstanten sind. Für s → 0 nähert sich diese Kurve offenbar dem Nordpol. Wir können die Kurve also stetig nach s = 0 fortsetzen. Ist sie dort dann noch differenzierbar? Mit anderen Worten, existiert der Tangentenvektor λ0 (s) für s = 0? Aufgabe 13.17 Ein Vektorfeld auf einer Mannigfaltigkeit M ist eine Zuordnung F : x 7→ F (x) ∈ T M. Sie ordnet jedem Punkt x ∈ M einen Vektor im Tangentenraum bei x zu. Wie sieht die Koordinatendarstellung eines solchen Feldes aus, und wie verhält es sich beim Übergang von einer Karte in eine andere? Aufgabe 13.18 Auf der Sphäre S2 seien zwei Vektorfelder F und G in Kugelkoordinaten durch F (ϑ, ϕ) = eϕ , G(ϑ, ϕ) = cot ϑ sin ϕ eϕ + cos ϕ eϑ (13.30) gegeben. Wie sieht ihre Darstellung in der Nord- bzw. Süd-Karte aus? Lassen sie sich stetig und differenzierbar an den Polen fortsetzen? Aufgabe 13.19 Man zeige, dass die lokale Koordinatenbasis auch auf einer Mannigfaltigkeit aus den Tangentenvektoren der Koordinatenlinien besteht. Betrachtet man n ämlich den Punkt x als Funktion der Koordinaten {x(m)µ }, so gilt ∂x . (13.31) e(m)µ (x) = ∂x(m)µ Die anschauliche Vorstellung, von der wir in Abbildung 13.1(a) ausgegangen sind, ergibt sich demnach auch aus der formalen Definition des Tangentenraumes und der lokalen Koordinatenbasis. 105 Duale Vektoren und Tensoren Nun betrachten wir statt einer Kurve λ : R → M ein skalares Feld φ : M → R, also eine Abbildung in die umgekehrte Richtung. Es soll im Sinne der Aufgabe 13.9 differenzierbar sein. Es wird in einer Karte M(m) als Funktion der Koordinaten {x(m)µ } dargestellt, und wir können dort die partiellen Ableitungen ∂µ φ(m) (x) = ∂φ ∂x(m)µ (13.32) bilden. Befinden wir uns im Überlappgebiet mit einer anderen Karte M(n) , so gilt entsprechend ∂ν φ(n) (x) = ∂φ ∂φ ∂x(m)µ = = ∂µ φ(m) (x) Λ(m,n)µν (x). ∂x(n)ν ∂x(m)µ ∂x(n)ν (13.33) Da dies das bekannte Transformationsgesetz eines dualen Vektors ist, können die wir partiellen Ableitungen als Komponenten eines dualen Vektors auffassen. Wir definieren dazu an jedem Punkt x ∈ M einen Kotangentenraum T ∗ M, der zum Tangentenraum T M im üblichen Sinne dual ist. Dann existiert zu jeder Basis von T M eine duale Basis von T∗ M. Insbesondere gibt es zu der lokalen Koordinatenbasis e(m)µ (x) ein duale Koordinatenbasis e(m)µ (x) mit der Eigenschaft e(m)µ (x) · e(m)ν (x) = δ µν . (13.34) Der Punkt bezeichnet wie üblich das Produkt eines dualen Vektors mit einem Vektor. Der duale Vektor ist eigentlich eine lineare Abbildung, die auf den Vektor angewandt wird. Der Kotangentenraum T∗ M ist der zum Tangentenraum T M duale Vektorraum. Er wird innerhalb einer Karte M(m) von einer dualen Koordinatenbasis e(m)µ (x) aufgespannt. Für die dualen Basisvektoren gilt das übliche Transformationsverhalten im Überlappgebiet von zwei Karten, nämlich e(n)ν (x) = e(m)µ (x) Λ(m,n)µν (x) ⇒ e(n)ν (x) = Λ(n,m)νµ (x) e(m)µ (x). (13.35) Daraus und aus (13.33) ergibt sich, dass durch ∇φ(x) = ∂µ φ(m) (x) e(m)µ (x) = ∂ν φ(n) (x) e(n)ν (x) (13.36) ein dualer Vektor am Bezugspunkt x definiert wird, der vom verwendeten Koordinatensystem unabhängig ist. Dieser duale Vektor ist der Gradient von φ an der Stelle x. Der Gradient eines skalaren Feldes φ ist ein duales Vektorfeld ∇φ, das jedem Punkt x ∈ M einen dualen Vektor ∇φ(x) ∈ T ∗ M zuordnet. Um die Notation ein wenig zu vereinfachen, werden wir im folgenden den Kartenindex weglassen, wenn wir von den Koordinaten eines Punktes oder den Komponenten eines Vektors sprechen, ohne uns dabei auf eine bestimmte Karte zu beziehen. Für die lokalen Basisvektoren schreiben wir einfach e µ (x), bzw. für die dualen Basisvektoren eµ (x). Entsprechend gilt dann für den Tangentenvektor einer Kurve bzw. den Gradienten eines skalaren Feldes ∇φ(x) = ∂µ φ(x) eµ (x), λ0 (s) = λ0µ (s) eµ (λ(s)), (13.37) was der ursprünglichen Notation aus Kapitel 10 entspricht. Wir bringen damit zum Ausdruck, dass die Gleichungen in dieser Form in jedem Koordinatensystem gelten. Für Vektoren und duale Vektoren auf einer Mannigfaltigkeit gelten somit die gleichen Rechenregeln wie in krummlinigen Koordinatensystemen auf affinen Räumen. Insbesondere gelten dieselben Transformationsgesetze beim Übergang von einem Koordinatensystem zu einem anderen. Wir müssen nur beachten, 106 dass alle Vektoren und duale Vektoren auf einer Mannigfaltigkeit einen Bezugspunkt haben müssen, und dass wir nur solche Objekte miteinander kombinieren dürfen, die denselben Bezugspunkt haben. Das gilt insbesondere für das Produkt eines dualen Vektors mit einem Vektor, wie es in (13.34) auftritt. Ein typisches Beispiel dafür ist die Richtungsableitung einer Funktion, die auch auf einer Mannigfaltigkeit definiert werden kann. Es sei φ : M → R wieder ein skalares Feld auf M und λ : R → M eine Kurve. Dann wird durch s 7→ φ(λ(s)) eine Funktion R → R definiert. Ihre Ableitung ist die Ableitung des Feldes entlang der Kurve, dφ(λ(s)) dλµ ∂φ 0µ 0 = µ = λ (s) ∂µ φ(λ(s)) = λ (s) · ∇φ(λ(s)). ds ds ∂λ (13.38) Entscheidend ist hier, dass das Produkt eines dualen Vektors ∇φ(λ(s)) mit einem Vektor λ 0 (s) gebildet wird, die beide denselben Bezugspunkt haben. Sonst wäre das Produkt nicht definiert. Um ganz allgemein die Richtungsableitung eines skalaren Feldes φ zu berechnen, müssen wir einen Punkt x ∈ M und einen Vektor v ∈ T M vorgeben. Sind xµ die Koordinaten von x und v µ die Komponenten von v bezüglich der lokalen Koordinatenbasis eµ (x), so ist die Richtungsableitung durch v · ∇φ(x) = v µ ∂µ φ(x) (13.39) gegeben. Auch hier ergibt sich formal der gleiche Ausdruck wie auf einem affinen Raum. Aus Vektoren und dualen Vektoren können wir nun in der üblichen Art und Weise Tensoren bilden. Das einzig neue ist auch hier, dass jeder Tensor einen Bezugspunkt haben muss. Wir können nicht einfach von einem Tensor A auf einer Mannigfaltigkeit M sprechen, sondern müssen immer zusätzlichen abgeben, an welchem Punkt x ∈ M der Tensor definiert ist. Tensoren auf Mannigfaltigkeiten treten deshalb meistens als Tensorfelder auf. Ein Tensorfeld F der Stufe (m, n) auf einer Mannigfaltigkeit M ist eine Zuordnung, die jedem Punkt x ∈ M einen Tensor (m,n) F (x) ∈ T M zuordnet, also einen Tensor der Stufe (m, n) am Punkt x. Die Koordinatendarstellung eines solchen Tensorfeldes sieht dann genau wie die in einem krummlinigen Koordinatensystem in einem affinen Raum aus, F (x) = F µ ··· νρ ··· σ (x) eµ (x) ⊗ · · · ⊗ eν (x) ⊗ eρ (x) ⊗ · · · ⊗ eσ (x) . {z } {z } | | m (13.40) n Die Komponenten F µ ··· νρ ··· σ des Tensorfeldes sind (dim M)m+n Funktionen der Koordinaten xµ . Wir nennen ein Tensorfeld stetig, differenzierbar etc. wenn die Koordinatendarstellung diese Eigenschaft hat. Die einfachsten Tensorfelder sind skalare Felder der Stufe (0, 0), Vektorfelder der Stufe (1, 0), wie sie bereits in der Aufgabe 13.18 definiert wurden, oder duale Vektorfelder der Stufe (0, 1), die sich in natürlicher Weise als Gradienten von skalaren Feldern ergeben. Schließlich können wir Tensoren in der üblichen Art und Weise addieren, multiplizieren und kontrahieren, um neue Tensoren zu bilden. Wir wollen das am Beispiel einer Metrik demonstrieren. Wir erinnern uns, dass ein metrischer affiner Raum dadurch charakterisiert ist, dass auf dem zugeordneten Vektorraum ein Skalarprodukt existiert. Entsprechend ist eine metrische Mannigfaltigkeit eine glatte Mannigfaltigkeit M, mit der Eigenschaft, dass auf jedem Tangentenraum T M ein Skalarprodukt definiert wird. Da ein Skalarprodukt auf einem Vektorraum durch einen Tensor der Stufe (0, 2) dargestellt wird, ist eine Metrik auf einer Mannigfaltigkeit ein Tensorfeld der Stufe (0, 2). Man bezeichnet dieses Tensorfeld üblicherweise mit g(x), und folglich seine Komponenten bezüglich der lokalen Koordinatenbasis mit gµν (x). Wie in jedem Vektorraum sind die Einträge dieser symmetrischen, positiven Matrix gerade die Skalarprodukte der Basisvektoren, also gµν (x) = eµ (x) · eν (x). 107 (13.41) Wir können dann das Skalarprodukt von zwei Vektoren u, v ∈ T M berechnen, indem wir diese zuerst durch ihre Komponenten uµ bzw. v ν in der lokalen Koordinatenbasis darstellen und anschließend mit der Metrik gµν kontrahieren, u · v = gµν (x) uµ v ν , für u, v ∈ T M. (13.42) Auch hier ist es wieder entscheidend, dass beide Vektoren im selben Tangentenraum T M liegen, und dass wir die Metrik an diesem Punkt x verwenden, um das Skalarprodukt zu berechnen. Ansonsten sind es aber dieselben Kombinationsregeln für Tensoren, aus denen sich ergibt, dass das Ergebnis ein Skalar, also unabhängig von der verwendenten Basis bzw. von dem gewählten Koordinatensystem ist, bezüglich dessen wir die Vektoren und die Metrik darstellen. Mit Hilfe einer Metrik können wir auch die Länge einer Kurve λ(s) für a ≤ s ≤ b auf einer Mannigfaltigkeit berechnen. Zuerst bestimmen wir den Betrag des Tangentenvektors, |λ0 (s)|2 = λ0 (s) · λ0 (s) = gµν (λ(s)) λ0µ (s) λ0ν (s), (13.43) den wir anschließend entlang der Kurve integrieren, L(a, b) = Z a b q ds gµν (λ(s)) λ0µ (s) λ0ν (s). (13.44) Das Ergebnis ist die Länge der Kurve zwischen den Punkten λ(a) und λ(b). Der Ausdruck (13.44) ist genau derselbe wie der für die Länge einer Kurve in einem affinen Raum, wenn wir dort ein krummliniges Koordinatensystem verwenden. Wie so eine Metrik aussieht, können wir uns am Beispiel der Sphäre wie folgt klar machen. Wir stellen uns wieder vor, dass die Sphäre in einen dreidimensionalen Raum in der üblichen Art und Weise eingebettet ist. Diesmal soll es sich um eine Kugeloberfläche mit dem Radius R handeln. Die Einbettung wird in Kugelkoordinaten durch x = R sin ϑ cos ϕ, y = R sin ϑ sin ϕ, z = R cos ϑ (13.45) beschrieben, wobei (x, y, z) ein kartesisches Koordinatensystem sein soll. Eine Kurve auf der Sphäre, die dort durch die Koordinatenfunktionen (ϑ(s), ϕ(s)) beschrieben wird, definiert dann eine entsprechende Kurve im dreidimensionalen Raum, die durch die Koordinatenfunktionen (x(s), y(s), z(s)) beschrieben wird. Dort können wir die Länge der Kurve berechnen. Eine kurze Rechnung ergibt x0 (s)2 + y 0 (s)2 + z 0 (s)2 = R2 ϑ0 (s)2 + R2 sin2 (ϑ(s)) ϕ0 (s)2 . (13.46) Die Kurvenlänge ist somit durch den Ausdruck (13.44) gegeben, wobei wir unter der Wurzel die rechte Seite von (13.46) einsetzen müssen. Durch Koeffizientenvergleich entnehmen wir daraus, dass die Komponenten der Metrik auf der Sphäre S2 in Kugelkoordinaten wie folgt gegeben sein müssen, wenn sich die gleiche Kurvenlänge ergeben soll, gϑϑ = R2 , gϑϕ = 0, gϕϑ = 0, gϕϕ = R2 sin2 ϑ. (13.47) An dieser Stelle können wir die Einbettung wieder vergessen. Durch das symmetrische Tensorfeld (13.47) wird an jedem Punkt der Sphäre ein Skalarprodukt im dortigen Tangentenraum definiert. Wir können also die Länge eines Vektors oder den Winkel zwischen zwei Vektoren, sofern sie den gleichen Bezugspunkt haben, berechnen, ohne dafür die Sphäre in den dreidimensionalen Raum einzubetten. Aus der Tatsache, dass die Metrik in Kugelkoordinaten durch eine Diagonalmatrix beschreiben wird, folgt zum Beispiel, dass sich die Koordinatenlinien überall im Abdeckungsbereich dieser Karte im rechten 108 Winkel schneiden. Die Basisvektoren eϑ und eϕ sind nämlich überall zueinander orthogonal. Das kennen wir bereits als Eigenschaft der Koordinatenlinien eines Kugelkoordinatensystems im dreidimensionalen Raum. Mit der Metrik (13.47) auf der Sphäre ist dies aber nun eine Eigenschaft der Sphäre selbst, und nicht ihrer Einbettung. Aufgabe 13.20 Um zu beweisen, dass durch (13.47) tatsächlich eine Metrik auf der ganzen Sphäre definiert wird, muss man eigentlich noch zeigen, dass sich auch an den Polen ein wohldefiniertes Skalarprodukt in den dortigen Tangentenräumen ergibt. Man berechne dazu die Komponenten guu , guv , gvu und gvv desselben Tensors in der Nord- und Süd-Karte und zeige, dass sich auch für (u, v) = (0, 0) ein symmetrische, positive Matrix ergibt. Aufgabe 13.21 Betrachtet man die Erdkarten in Abbildung 13.2, so f ällt auf, dass die Erdteile zwar im großen etwas verzerrt dargestellt sind, die Küstenlinien im kleinen aber recht treu wiedergegeben werden, und zwar unabhängig davon, ob wir uns in Polnähe oder in der Nähe des Äquators befinden. Sowohl Grönland auf der Nord-Karte als auch Neu Guinea auf beiden Karten werden recht wirklichkeitstreu dargestellt, wenn auch in verschiedenen Maßstäben. Der Grund dafür ist, dass die Karten winkeltreu sind. Wenn sich zwei Kurven auf der Erdoberfläche unter einem Winkel α schneiden, so tun sie dies auch auf der Karte. Man benutze die Darstellung der Metrik aus Abbildung 13.20, um das zu beweisen. Aufgabe 13.22 Wie sieht der antisymmetrische Einheitstensor ω auf der Sph äre S2 aus, wenn die Metrik durch (13.47) gegeben ist? Man bestimme seine Komponenten ω µν in Kugelkoordinaten, sowie in den Koordinaten (u, v) der Nord- bzw. Süd-Karte. Ableitungen Formal gilt also auch für Tensorfelder, was wir schon speziell für Vektoren und duale Vektoren gesagt haben. Es gelten dieselben Rechnenregeln wie in krummlinigen Koordinatensystemen auf affinen Räumen. Tensoren lassen sich durch Addition, Tensormultiplikation und Kontraktion miteinander verknüpfen. Das Berechnen des Skalarproduktes von zwei Vektoren ist ein Beispiel für eine solche Verknüpfung. Wir bilden zuerst das Tensorprodukt der Vektoren mit der Metrik, und kontrahieren anschließend die Indizes paarweise, so dass sich ein Skalar ergibt. Eine Operation haben wir jedoch noch nicht genauer betrachtet. Auf einem affinen Raum können wir aus einem Tensorfeld der Stufe (m, n) durch Ableiten ein Tensorfeld der Stufe (m, n + 1) bilden. So wird zum Beispiel aus einem Vektorfeld F µ (x) durch Ableiten der Komponenten nach den affinen Koordinaten xµ ein Tensorfeld ∂µ F µ (x) der Stufe (1, 1). Wenn wir ein krummliniges Koordinatensystem verwenden, können wir diese Operation zwar immer noch durchführen, aber wir müssen die kovariante Ableitung verwenden, ∇µ F ν (x) = ∂µ F ν (x) + Γ νρµ (x) F ρ (x), mit Γ νρµ (x) = eν (x) · ∂µ eρ (x). (13.48) Das Christoffel-Symbol Γ νµρ mussten wir einführen, um die Ortsabhängigkeit der lokalen Koordinatenbasis in einem krummlinigen Koordinatensystem beim Ableiten zu berücksichtigen. Es stellt sich nun die Frage, wie es sich mit einer solchen Ableitung auf einer Mannigfaltigkeit verhält, wo ja jedes Koordinatensystem krummlinig ist. Die Antwort ist recht einfach: Es gibt eine solche Ableitung nicht. Betrachten wir nämlich die Definition des Christoffel-Symbols, so kommt darin die Ableitung ∂µ eρ (x) vor, also die Ableitung der Basisvektoren eρ (x) nach den Koordinaten xµ . Das ist aber nun ein sinnloser Ausdruck. Denn um diese Ableitung zu berechnen, müssten wir zuerst die Differenzen dieser Vektoren an verschiedenen Punkten berechnen und dann einen Grenzwert bilden. Wir können eine solche Differenz aber nicht berechnen, da die Basisvektoren an verschiedene Punkt in verschiedenen Vektorräumen liegen. 109 Die Möglichkeiten, auf einer Mannigfaltigkeit Ableitungen von Tensorfeldern zu bilden, sind also stark eingeschränkt. Wir können zwar die Ableitung eines skalaren Feldes bilden und bekommen ein duales Vektorfeld, aber das ist die einzige Ableitung eines Tensorfeldes nach den Koordinaten, die wir in einem krummlinigen Koordinatensystem bilden können, ohne das Christoffel-Symbol zu verwenden. Das hat auch wieder einen einfachen Grund. Wäre es möglich, die Ableitung eines Vektorfeldes auf einer Mannigfaltigkeit zu bilden, so könnten wir auch sagen, wann ein Vektor konstant ist und wann nicht, und folglich gäbe es doch wieder so etwas wie eine Gerade, und wir könnten doch wieder Vektoren in verschiedenen Tangentenräumen miteinander vergleichen. Interessanterweise gibt es aber gewisse Kombinationen von Ableitungen, die Tensorfelder wieder auf Tensorfelder abbilden. Und genau dafür kennen wir schon ein Beispiel. Das ist die spezielle Ableitung, die in der Lagrangeschen Bewegungsgleichungen gebildet wird. Darauf werden wir im nächsten Abschnitt noch einmal kurz eingehen. Es gibt noch andere Beispiele für solche Tensorableitungen, die auch auf Mannigfaltigkeiten wohldefiniert sind, und für die kein Christoffel-Symbol benötigt wird. Es würde ein wenig zu weit führen, hier alle Möglichkeiten zu diskutieren, aber wir wollen an einem Beispiel, das später noch eine gewisse Rolle spielen wird, zumindest das Prinzip erklären. Es sei F ein Vektorfeld und φ ein skalares Feld auf einer glatten Mannigfaltigkeit M. Dann können wir an jeder Stelle x ∈ M die Richtungsableitung von φ(x) in Richtung des Vektors F (x) bilden. Das ist wieder ein skalares Feld. Wir schreiben dafür (F · ∇) φ = F (x) · ∇φ = F µ (x) ∂µ φ(x). (13.49) Wir können F · ∇ als einen Ableitungsoperator auffassen, der auf die Funktion φ wirkt und daraus eine andere skalare Funktion macht. Aufgabe 13.23 Man zeige, dass sich der Operator F · ∇ tatsächlich wie ein Ableitungsoperator verhält. Er ist linear, und es gilt die Produkt- und Kettenregel, F · ∇(φ1 + φ2 ) = F · ∇φ1 + F · ∇φ1 , F · ∇(φ1 φ2 ) = (F · ∇φ1 ) φ2 + φ1 (F · ∇φ1 ), F · ∇(g ◦ φ) = (g 0 ◦ φ) (F · ∇φ). (13.50) Man beachte, dass in der letzten Gleichung g : R → R eine gewöhnliche reelle Funktion ist. Das ist noch nichts neues, denn bis jetzt haben wir nur den Gradient eines skalaren Feldes gebildet und dieses duale Vektorfeld mit einem Vektorfeld multipliziert und kontrahiert. Nun betrachten wir ein zweites Vektorfeld G und den zugehörigen Operator G · ∇. Wir lassen zuerst diesen und dann den Operator F · ∇ auf ein skalares Feld wirken. Das Ergebnis ist (F · ∇) (G · ∇) φ = (F · ∇) Gν ∂ν φ = F µ ∂µ Gν ∂ν φ = F µ ∂µ Gν φ + F µ Gν ∂µ ∂ν φ. (13.51) Man beachte, dass das Resultat wieder ein skalares Feld ist, obwohl die einzelnen Terme im letzten Ausdruck keine Tensoren sind. Weder die Ableitungen ∂µ Gν noch die zweiten Ableitungen ∂µ ∂ν φ verhalten sich beim Übergang von eine Karte zu einer anderen wie die Komponenten eines Tensors. Die Summe der beiden Ausdrücke ist aber ein Skalar, weil wir von der linken Seite der Gleichung wissen, dass es sich um einen Skalar handelt. Nun bilden wir die gleiche doppelte Ableitung noch einmal, nur in der anderen Reihenfolge. Es wirkt also zuerst der Operator F · ∇ und dann der Operator G · ∇, (G · ∇) (F · ∇) φ = Gµ ∂µ F ν φ + Gµ F ν ∂µ ∂ν φ. 110 (13.52) Wenn wir jetzt die beiden Ausdrücke voneinander abziehen, so finden wir (F · ∇) (G · ∇) φ − (G · ∇) (F · ∇) φ = (F µ ∂µ Gν − Gµ ∂µ F ν ) ∂ν φ. (13.53) Das ist wieder in Ausdruck der Form (13.49), und zwar (H · ∇) φ mit H µ = F µ ∂µ Gν − Gµ ∂µ F ν . (13.54) Tatsächlich findet man, dass H wieder ein Vektorfeld ist. Es wird in einer speziellen Art und Weise aus den Ableitungen der Felder F und G gebildet. Man nennt es den Kommutator von F und G. Welche geometrische Bedeutung hinter dieser Struktur steckt, werden wir später erfahren, wenn wir uns ausführlich mit den Symmetrien von mechanischen Systemen beschäftigen. Hier soll dies nur als Beispiel dafür dienen, zu zeigen, dass man auf einer Mannigfaltigkeit zwar Ableitungen von Tensorfeldern nach den Koordinaten bilden kann, dass aber nur bestimmte Kombinationen solcher Ableitungen wieder Tensorfelder sind. Eine solche spezielle Kombination ist die in (13.54) angegebene. Aufgabe 13.24 Man zeige, dass durch H µ in (13.54) tatsächlich ein Vektorfeld definiert wird. Man stelle dazu die rechte Seite der Gleichungen in zwei verschiedenen Koordinatensystemen dar und zeige, dass sich das richtige Transformationsverhalten ergibt. Aufgabe 13.25 Eine andere Kombination von Ableitungen, die ein Tensorfeld wieder auf ein Tensorfeld abbildet, ist die folgende. Wenn Aµ ein duales Vektorfeld ist, so definieren wir die antisymmetrisierte Ableitung durch Bµν = ∂µ Aν − ∂ν Aµ . (13.55) Man zeige, dass Bµν ein Tensorfeld der Stufe (0, 2) ist. Die Lagrange-Funktion Abschließend wollen wir noch einmal auf die eigentliche Fragestellung zurück kommen, die uns zur Definition einer Mannigfaltigkeit führte. Wie ordnet sich die Langrangesche Beschreibung eines mechanischen Systems mit Zwangsbedingungen in dieses Konzept ein? Wir hatten gezeigt, dass der reduzierte Konfigurationsraum Q eines Systems mit holonomen Zwangse betrachtet werden kann, wobei die bedingungen als Teilmenge eines erweiterten Konfigurationsraumes Q Teilmenge gerade die Lösungsmenge der Zwangsbedingungen ist. Der reduzierte Konfigurationsraum ist laut dieser Definition immer in einen höherdimensionalen, affinen Raum eingebettet, zum Beispiel den 3 N -dimensionalen Konfigurationsraum eines N -Teilchen-Systems. Wir hatten dann aber gesehen, dass wir diese Einbettung gar nicht benötigen, um die Bewegungsgleichungen zu formulieren. Es genügt, die Bahn des Systems als Kurve q(t) im reduzierten Konfigurationsraum Q zu beschreiben. Dieser Raum ist im allgemeinen eine glatte Mannigfaltigkeit. Die Bahn eines mechanischen System ist demnach eine parametrisierte Kurve auf einer glatten Mannigfaltigkeit. Um die Dynamik des Systems zu beschreiben, müssen wir diese Mannigfaltigkeit nicht irgendwo einbetten. Allerdings müssen wir dann einige der in den Bewegungsgleichungen vorkommenden Größen neu interpretieren, wenn wir deren geometrische Bedeutung verstehen wollen. So ist zum Beispiel die Geschwindigkeit q̇(t) nicht mehr einfach ein Vektor, sondern ein Vektor im Tangentenraum T (t) Q, also an dem Ort im Konfigurationsraum, an der sich das System gerade befindet. Folglich sollten wir auch noch einmal überdenken, wie eigentlich die Lagrange-Funktion L definiert ist. Es ist eine Funktion des Ortes q, der Geschwindigkeit q̇, und möglicherweise der Zeit t. Nun ist es aber sinnlos, von einer Geschwindigkeit q̇ zu sprechen, ohne den Bezugspunkt dieses Vektors festzulegen, also ohne gleichzeitig den Ort q anzugeben. 111 Was also ist der Definitionsbereich von L? Es ist die Menge aller Bewegungszust ände, wobei ein Bewegungszustand durch ein Paar (q, q̇) gegeben ist, mit q ∈ Q und q̇ ∈ T M. Der Raum aller dieser Bewegungszustände hat einen speziellen Namen. Es ist das Tangentenb ündel T(Q) von Q. Wir können diesen Raum als die Vereinigung aller Tangentenräume betrachten, [ (13.56) T(Q) = T M. ∈M Die Bezeichung “Bündel” ergibt sich aus der anschaulichen Vorstellung, dass wir alle Tangentenräume einer Mannigfaltigkeit quasi zu einem Bündel zusammenschnüren. Für die Sphäre S 2 ist T(S2 ) die Vereinigung aller an die Sphäre angehefteten Ebenen. Drei davon sind in Abbildung 13.5(b) dargestellt. An jedem Punkt auf der zweidimensionalen Sphäre ist eine zweidimensionale Ebene angeheftet. Wenn wir diese Ebenen zusammenschnüren, ergibt sich ein vierdimensionaler Raum. Tatsächlich ist das Tangentenbündel T(Q) einer Mannigfaltigkeit Q selbst wieder eine Mannigfaltigkeit, wobei dim T(Q) = 2 dim Q gilt. Ist {q µ } ein Koordinatensystem auf Q, so bilden diese Koordinaten und die zugehörigen Geschwindigkeiten, also ({q µ }, {q̇ µ }), zusammen ein Koordinatensystem auf T(Q), denn durch die Koordinaten {q µ } wird eindeutig ein Punkt q ∈ Q, und durch die Geschwindigkeiten {q̇ µ } eindeutig ein Vektor q̇ ∈ T Q definiert. In diesem Sinne ist das Tangentenbündel T(Q) der Zustandsraum des mechanischen Systems, den wir in Kapitel 3 als denjenigen Raum eingeführt haben, in dem sich die Bewegungen eines dynamischen Systems abspielen. Wenn wir einen Punkt (q, q̇) ∈ T(Q) vorgeben und die Lagrange-Funktion L kennen, die eine Funktion auf diesem Raum ist, dann können wir die Zeitentwicklung des Systems für alle Zeiten in der Zukunft und in der Vergangenheit berechnen. Das Tangentenbündel des reduzierten Konfigurationsraumes eines mechanischen Systems hat somit zwei physikalische Bedeutungen. Zum einen ist es der Raum aller Bewegungszustände, so dass die Bewegungen des Systems festgelegt sind, sobald wir zu einem Zeitpunkt wissen, an welcher Stelle im diesem Raum sich das System gerade befindet. Zum anderen ist es auch der Definitionsbereich der LagrangeFunktion, wenn dem System eine solche Funktion zugeordnet werden kann. Die Lagrange-Funktion L eines mechanischen ist eine reelle Funktion auf dem Tangentenbündel T(Q) des Konfigurationsraumes Q. In Kapitel 15 werden wir eine alternative Beschreibung dieses Raumes aller Bewegungszustände präsentieren, die eine noch etwas elegantere Formulierung der Bewegungsgleichungen erlaubt. Entscheidend ist jedoch, dass wir bereits an dieser Stelle eine sehr “geometrische” Formulierung der klassischen Mechanik gefunden haben, die wir später als Ausgangspunkt zum Beweis von einigen allgemeinen Sätzen, zum Beispiel über Symmetrien und Erhaltungssätze, benutzen werden. Aufgabe 13.26 Der spezielle, aus partiellen und totalen Ableitungen gebildete Ausdruck d ∂L ∂L , µ − dt ∂ q̇ ∂q µ (13.57) wie er auf der linken Seite der Lagrangeschen Bewegungsgleichungen steht, ist erst sinnvoll, wenn wir f ür q eine Bahn q(t) einsetzen, denn erst dann ist definiert, was die totale Ableitung d/dt bedeutet. Nehmen wir also an, wie hätten eine solche Bahn gegeben und L sei eine Funktion auf dem Tangentenb ündel T(Q). Dann ist der Ausdruck (13.57) eine Funktion der Zeit. Man zeige, dass es sich zu jedem Zeitpunkt t um die Komponenten eines dualen Vektor aus T∗ (t) M handelt. Die beiden Summanden für sich sind jedoch nicht die Komponenten von dualen Vektoren. Sie transformieren nicht in der richtigen Art und Weise unter Koordinatentransformationen. Daher ist nur diese spezielle in den Bewegungsgleichungen auftretende Kombination eine sinnvolle Größe, nicht aber die einzelnen Summanden. 112 14 Das Wirkungsprinzip Mit den d’Alembertschen bzw. Lagrangeschen Bewegungsgleichungen haben wir eine elegante geometrische Formulierung der Bewegungsgleichungen für ein allgemeines mechanisches System gefunden. Im Prinzip handelt es sich aber immer noch um dieselben Newtonschen Gleichungen, mit denen wir im Teil I gearbeitet haben. Wir haben sie nur in eine etwas allgemeinere Form gebracht und in eine geometrische Sprache übersetzt, aber inhaltlich hat sich an den Bewegungsgleichungen nichts geändert. In diesem Kapitel wollen wir zeigen, dass sich die Bewegungen eines mechanischen Systeme auch auf eine ganz andere Art und Weise beschreiben lassen. Man geht dabei nicht von Kräften als Ursachen von Bewegungen aus, und von Massen als Eigenschaften von Teilchen. Statt dessen stellt man ein Extremalprinzip auf. Die Behauptung ist, dass ein mechanisches System unter allen denkbaren Bahnen gerade diejenige Bahn realisiert, für die eine bestimmte Funktion, die man Wirkung nennen, ein Extremum annimmt. Diese Zugangsweise zu den grundlegenden Gesetzen der Mechanik ist eine völlig andere, da man mit ihr auch eine ganz andere Funktionsweise von Naturgesetzen verbindet. Die Bewegungen von einzelnen Teilchen werden nicht mehr, wie es Newtons Vorstellung entsprach, dadurch gesteuert, dass Kräfte auf sie einwirken und jedes Teilchen sich mit seiner Trägheit den Einflüssen der Kräfte entgegen stellt. Statt dessen besitzt ein mechanisches System als ganzes das Bestreben, eine bestimmte Größe zu minimieren, etwa so wie ein Pendel im Ruhezustand das bestreben hat, nach unten zu hängen, also sein Energie zu minimieren. Im Rahmen der klassischen Mechanik ist diese Vorstellung zunächst etwas ungewöhnlich. Geht man nämlich von der anschaulichen Vorstellung aus, dass sich einzelne Objekte im Raum bewegen und dabei durch Wechselwirkungen miteinander kommunizieren, so ist die Newtonsche Beschreibung viel natürlicher. Dass sich ein mechanisches System als ganzes ausgerechnet so verhält, dass eine bestimmte Funktion seiner Bewegungsgrößen minimal wird, erscheint zumindest sonderbar und führt fast zwangsläufig zu der Vorstellung, dass es wohl irgendeine höhere Instanz geben muss, die eine Kontrolle über das System ausübt. Tatsächlich liefert die klassische Mechanik selbst keine Erklärung dafür, warum es ein solches Wirkungsprinzip gibt. Nicht jede in der Newtonschen Beschreibung mögliche Bewegungsgleichung lässt sich nämlich auf diese Weise herleiten. Man stellt aber fest, dass gerade für diejenigen mechanischen Systeme ein Wirkungsprinzip existiert, die durch fundamentale Wechselwirkungen beschrieben werden können, also zum Beispiel allein durch elektromagnetische und Gravitationskräfte. Es sind genau die, für die ein auch Lagrange-Funktion existiert. Eine Erklärung für das Wirkungsprinzip findet man erst, wenn man zu einer noch fundamentaleren Beschreibung der Phänomene übergeht, nämlich zur Quantenmechanik. Im Rahmen dieser Theorie lassen sich nämlich nur solche Wechselwirkungen beschreiben, die aus einem Wirkungsprinzip abgeleitet werden können. Wenn wir also annehmen, dass letztlich alle fundamentalen physikalischen Theorien Quantentheorien sind, dann muss auch allen fundamentalen Wechselwirkungen ein Wirkungsprinzip zugrunde liegen. Extremal- und Variationsprobleme Eine typische Aufgabe der Analysis ist es, die Extrema einer gegebenen Funktion zu finden. Eine solche Aufgabe bezeichnet man als Extremalproblem. Anhand von einfachen Beispielen wollen wir die wichtigsten Eigenschaften solcher Extremalprobleme zusammenstellen und ein paar nützliche Begriffe einführen. Der einfachste Fall liegt vor, wenn wir die Extrema einer differenzierbaren Funktion h : R → R suchen. Eine notwendige Bedingung für das Vorliegen eines Extremums bei x 0 ∈ R ist h0 (x0 ) = 0. Gilt außerdem h00 (x0 ) > 0, so handelt es sich um ein lokales Minimum. Wenn f 00 (x0 ) < 0 ist, liegt ein lokales Maximum 113 vor. Für f 00 (x0 ) = 0 muss man höhere Ableitungen betrachten, um zu entscheiden, ob es sich um einen Sattelpunkt oder ein Extremum handelt. Etwas komplizierter wird es, wenn wir die Extrema einer Funktion h : M → R suchen, wobei M eine beliebige glatte Mannigfaltigkeit ist. Ein typisches Beispiel dafür wäre die Suche nach den stabilen Gleichgewichtslagen eines mechanischen System. Das sind die lokalen Minima des Potenzials, also die einer reellen Funktion auf dem Konfigurationsraum des Systems. Wie wir aus dem letzten Kapitel wissen, ist dies im allgemeinen eine glatte Mannigfaltigkeit. Das Problem, die Extrema einer Funktion auf einer Mannigfaltigkeit M zu finden, lässt sich wie folgt auf des einfachere Problem zurückführen, die Extrema von Funktionen auf R zu finden. Wenn die Funktion x 7→ h(x) am Punkt x = x0 ein Maximum hat, so hat auch die Funktion s 7→ h(λ(s)) an der Stelle s = 0 ein Maximum, wenn die Kurve λ(s) durch den Punkt λ(0) = x0 läuft. Dasselbe gilt entsprechend für ein Minimum. Daraus ergibt sich die folgende notwendige Bedingung für das Vorliegen eines Extremums einer Funktion x 7→ h(x) an der Stelle x = x0 . Für jede Kurve λ(s) mit λ(0) = x0 muss die Ableitung der Funktion s 7→ h(λ(s)) an der Stelle s = 0 verschwinden. Diese Ableitung ist die Richtungsableitung von h(x) an der Stelle x0 = λ(0) in Richtung des Tangentenvektors v0 = λ0 (0), dh(λ(s)) = λ0 (0) · ∇h(λ(0)) = v0 · ∇h(x0 ) = 0. (14.1) ds s=0 Dies muss für alle möglichen Kurven und damit auch für alle Vektoren v 0 ∈ T 0 M gelten. Folglich müssen alle Richtungsableitungen von h(x) an der Stelle x = x0 verschwinden, oder äquivalent dazu, es muss ∇h(x0 ) = 0 sein. Wir sagen, dass eine Funktion h an der Stelle x0 stationär ist, wenn ∇h(x0 ) = 0 ist. Wir verbinden damit die folgende anschauliche Vorstellung. Wir befinden uns am Ort x 0 ∈ M und werten dort die Funktion h aus. Nun bewegen wir uns vom Ort x0 weg, in Richtung eines Vektors v0 ∈ T 0 M. Dann können wir uns fragen, wie sich der Wert der Funktion h ändert. Genau diese Änderung wird durch die Richtungsableitung von h an der Stelle x0 in Richtung des Vektors v0 beschrieben. Eine Funktion h heißt also genau dann an einem Ort x0 ∈ M stationär, wenn sich der Funktionwert von h nicht ändert, wenn wir uns in irgendeine Richtung von x0 weg bewegen. Das ist folglich eine notwendige Bedingung dafür, dass die Funktion an der betreffenden Stelle ein Extremum besitzt. Wenn eine Funktion h : M → R am Punkt x0 ∈ M ein Extremum besitzt, so ist sie dort stationär. Es ist nützlich, die folgende Schreibweise zu verwenden, wenn es darum geht, ein konkretes Extremalproblem zu lösen. Wenn wir uns an einem Punkt x ∈ M befinden und dort die Richtungsableitung einer Funktion h(x) berechnen wollen, so bezeichnen wir den Richtungsvektor mit δx ∈ T M und nennen ihn die Variation des Punktes x. Die resultierende Richtungsableitung schreiben wir als Variation δh(x) = δx · ∇h(x) = δxµ ∂h , ∂xµ (14.2) und nennen sie die Variation von h(x). Mit anderen Worten, wie variieren zuerst den Punkt x, indem wir ihn in Richtung eines Vektors δx verschieben, und fragen dann nach der daraus resultierenden Variation δh(x) der Funktion h(x). Ein Extremalproblem ist deshalb zunächst ein Variationsproblem. Gesucht sind diejenigen Punkte x ∈ M, an denen eine gegebene Funktion h(x) stationär ist. Das ist genau dort der Fall, wo die Variation δh(x) für alle Variationen δx verschwindet. Das ist natürlich wieder äquivalent zum Verschwinden des Gradienten ∇h(x). Im Grunde haben wir also nur ein paar neue Begriffe eingeführt, um denselben Sachverhalt mit anderen Worten darzustellen. 114 Die neue Schreib- und Sprechweise hat aber mehrere sehr nützliche Vorteile. So müssen wir zum Beispiel kein zusätzliches Symbol mehr verwenden, um den Vektor für die Richtungsableitung zu bezeichnen. Die Variation δx entspricht dem Vektor v für die Richtungsableitung. Außerdem verhält sich das Variationssymbol δ wie ein Ableitungsoperator, für den die Produkt- und Kettenregel gilt. Der rechte Ausdruck in (14.2), also die Koordinatendarstellung der Richtungsableitung von h, ist letztlich nichts anderes als eine spezielle Schreibweise für die Kettenregel. Wenn wir uns vorstellen, dass x und damit die Koordinaten xµ von einer Variablen s abhängen, so können wir δ durch d/ds ersetzen und bekommen die übliche Ableitung einer Funktion entlang einer Kurve. Den Umgang mit dem Variationssymbol δ wollen wir an zwei einfachen Beispielen erläutern. Als erstes betrachten wir eine Funktion h : S2 → R, die wir in Kugelkoordinaten durch h(ϑ, ϕ) = sin ϑ sin ϕ + cos ϑ (14.3) darstellen. Man kann sich leicht davon überzeugen, dass es sich um eine überall differenzierbare Funktion auf S2 handelt, indem man sie in die Nord- bzw. Süd-Karte umrechnet. Wo befinden sich die Extrema dieser Funktion? Wir berechnen die Variation δh(ϑ, ϕ) der Funktion, die sich aus einer von Variation (δϑ, δϕ) der Koordinaten ergibt. Das Symbol δ verwenden wir bei der Rechnung so, als wäre des die Ableitung d/ds nach einem Kurvenparameter s, und als seien die Koordinaten (ϑ, ϕ) Funktionen dieses Parameters. Das ergibt δh(ϑ, ϕ) = δ (sin ϑ sin ϕ + cos ϑ) = δ (sin ϑ sin ϕ) + δ (cos ϑ) = δ (sin ϑ) sin ϕ + sin ϑ δ (sin ϕ) + δ (cos ϑ) = cos ϑ sin ϕ δϑ + sin ϑ cos ϕ δϕ − sin ϑ δϑ. (14.4) Wir haben hier jeden einzelnen Schritt der Rechnung ausgeschrieben, weil jede der drei definierenden Eigenschaften eines Ableitungsoperators mindestens einmal auftritt. Die Linearität in der ersten Zeile, die Produktregel in der zweiter Zeile, und die Kettenregel in der dritten Zeile. Durch den Vergleich mit der allgemeinen Formel (14.2) können wir die Komponenten ∂h/∂ϑ und ∂h/∂ϕ des Gradienten ablesen. Der interessiert uns aber gar nicht, sondern wir wollen wissen, wo die Funktion h stationär ist. Dazu muss die rechte Seite von (14.4) für alle Variationen δϕ und alle δϑ verschwinden. Offenbar ist das genau dann der Fall, wenn cos ϑ sin ϕ = sin ϑ und sin ϑ cos ϕ = 0 (14.5) ist. Man sieht leicht, dass diese Gleichungen im Definitionsbereich der Kugelkoordinaten zwei Lösungen haben, nämlich ϑ = π/4 und ϕ = π/2, oder ϑ = 3π/4 und ϕ = 3π/2. Das sind zwei einander gegenüberliegende Punkte auf der Sphäre, wenn man sie in den dreidimensionalen Raum einbettet, und zwar die Schnittpunkte der Kugeloberfläche mit der Winkelhalbierenden in der y-z-Ebene. Tatsächlich liegen dort die Extrema der gegebenen Funktion, die sich auch in der Form h(ϑ, ϕ) = y(ϑ, ϕ) + z(ϑ, ϕ) darstellen lässt, wobei (x, y, z) die üblichen Einbettungskoordinaten in den dreidimensionalen Raum sind. Das Beispiel ist zwar nicht sehr tiefsinnig, sollte aber deutlich machen, dass die Variationsschreibweise eine sehr kompakte Notation erlaubt, wenn es darum geht, konkret die Richtungsableitung einer Funktion zu berechnen. Die Rechnung lässt sich in der Form (14.4) meist etwas übersichtlicher darstellen als die entsprechende Rechnung, bei der wir zuerst die Komponenten des Gradienten ausrechnen und diese dann gleich Null setzen. Wir rechnen quasi alle Komponenten des Gradienten auf einmal aus, statt der Reihe nach alle partiellen Ableitungen nach den Koordinaten. Ein anderes Beispiel soll zeigen, dass die Variationrechnung auch ohne die Verwendung von Koordinaten sehr schnell zum Ziel führen kann. Diesmal sei E ein metrischer affiner Raum beliebiger Dimension, a und b zwei ausgewählte Punkte in E und h(x) = (x − a) · (x − b). 115 (14.6) Für welchen Punkt x ist dieses Skalarprodukt minimal? Wir berechnen die Variation δh(x) = δ (x − a) · (x − b) + (x − a) · δ (x − b) = δx · (x − b) + δx · (x − a) = δx · (2 x − a − b), (14.7) die genau dann für alle δx verschwindet, wenn x = (a + b)/2 ist, also wenn der Punkt x genau in der Mitte zwischen a und b liegt. Tatsächlich ist dort das Skalarprodukt der Abstandsvektoren x−a und x−b minimal. Es gilt nämlich a−b a+b a + b 2 a − b 2 2 h(x) = x − − ≥− =h 2 2 2 2 (14.8) Von dieser koordinatenfreien Schreibweise werden wir in den folgenden Abschnitten Gebrauch machen, wenn es darum geht, spezielle Variationsproblem zu lösen, die auf unendlich-dimensionalen Räumen definiert sind. Dort existieren nämlich keine Koordinaten im üblichen Sinne, wohl aber Richtungsableitungen und somit auch das Konzept, das hinter dem Begriff einer Variation steht. Aufgabe 14.1 Man stelle die Funktion (14.3) in den Nord-Koordinaten (u (N) , v(N) ) dar, berechne die Variation δh als Funktion von (δu(N) , δv(N) ) und zeige, dass sich dieselben Punkte ergeben, an denen die Funktion stationär ist. Aufgabe 14.2 Die Punkte a, b, c bilden ein nicht entartetes Dreieck im dreidimensionalen Euklidischen Raum. Die Funktion h(x) sei das Volumen des Tetraeders mit den Ecken a, b, c und x, also 1 h(x) = (x − a) · (x − b) × (x − c) . 6 (14.9) Man berechne die Variation δh(x) unter einer Variation δx. Man zeige, dass der Gradient ∇h(x) konstant ist und seine Richtung durch den Normalenvektor des Dreiecks gegeben ist. Dies l ässt sich ganz ohne die Verwendung von Koordinaten zeigen. Aufgabe 14.3 Für eine Funktion φ : M → R bestimmen wir an der Stelle x0 ∈ M innerhalb des Abdeckungsbereiches eines Koordinatensystems {xµ } die ersten und zweiten partiellen Ableitungen und finden ∂ 2 φ ∂φ = 0, = Bµν . (14.10) ∂xµ = 0 ∂xµ ∂xν = 0 Die Funktion φ(x) ist folglich an der Stelle x = x0 stationär. Man zeige, dass dann Bµν die Darstellung eines Tensors B ∈ T (0,2) M ist. Aus welcher hinreichenden Bedingung an die Matrix Bµν folgt, dass φ(x) an der Stelle x = x0 ein Minimum hat? Aufgabe 14.4 Der Konfigurationsraum Q des Doppelpendels aus Abbildung 12.2 ist ein Torus, der durch ein periodisches Koordinatensystem (α, β) mit α ≡ α + 2π und β ≡ β + 2π erfasst werden kann. Man betrachte die potenzielle Energie des Pendels als Funktion V : Q → R. Wo liegen die Extrema dieser Funktion? Handelt es sich dabei um Minima oder Maxima? Funktionenräume und Funktionale Die interessanten Variationsprobleme, die in der Physik auftreten, betreffen Funktionen, die von unendlich vielen Variablen abhängen. Ein typisches Problem dieser Art ist, die kürzeste Verbindung zwischen zwei Punkten in einem metrischen Raum zu finden. Wir wollen dieses Beispiel als Prototyp eines 116 unendlich-dimensionalen Variationsproblems benutzen, um zu zeigen, wie die gerade eingeführte Schreibund Sprechweise verallgemeinert werden kann. Zunächst formulieren wir das Problem in einer etwas vereinfachten Form. Es sei eine differenzierbare Funktion f : R → R gegeben. Ihr Graf definiert eine Kurve y = f (x) in der x-y-Ebene. Es seien zwei Punkte (x1 , y1 ) und (x2 , y2 ) gegeben, mit x2 > x1 , und wir betrachten nur solche Funktionen, deren Graf beide Punkte enthält, also f (x1 ) = y1 und f (x2 ) = y2 . Dann können wir die Länge des Grafen zwischen den beiden Punkten wie folgt berechnen. Wir zerlegen die Kurve, wie in Abbildung 14.1(a) gezeigt, in infinitesimal kleine Stücke, deren Längen durch dx 2 2 2 2 2 dx2 = (1 + f 0 (x)2 ) dx2 (14.11) d` = dx + dy = dx + dy gegeben sind. Anschließend integrieren wir diese Längenelemente, und erhalten so den folgenden Ausdruck für die Länge des Grafen zwischen den Punkten (x1 , y1 ) und (x2 , y2 ), L[f ] = 2 Z xq 1 + f 0 (x)2 dx. (14.12) x1 Nun betrachten wir dies als eine Abbildung L : f 7→ L[f ]. Sie ordnet jeder Funktion f , die auf dem Intervall x1 ≤ x ≤ x2 differenzierbar ist und die Randwerte f (x1 ) = y1 und f (x2 ) = y2 annimmt, eine reelle Zahl L[f ] zu. Eine solche Abbildung, deren Argument selbst eine Funktion ist, wird als Funktional bezeichnet, wobei man das Argument in eine eckige Klammer schreibt. Das ist aber nur eine sprachliche Vereinbarung, da es manchmal ein wenig verwirrend ist, wenn man von einer Funktion spricht, deren Argument wieder eine Funktion ist. Ein Funktional ist nur ein neues Wort, aber kein neues Konzept. Es handelt sich um eine Abbildung eines Funktionenraumes in die reellen Zahlen. Aufgabe 14.5 Wie muss man den Abstandsvektor zwischen zwei Funktionen f 1 und f2 definieren, damit der Raum der Funktionen, auf dem die Abbildung L definiert ist, zu einem affinen Raum wird? Was ist dann der zugeordnete Vektorraum? Wenn wir nun die Frage stellen, welches die kürzeste Verbindung zwischen den beiden Punkten ist, so ist dies gleichbedeutend mit der Frage, an welcher Stelle, also für welche Funktion f das Funktional L[f ] minimal wird. Es handelt sich um ein Variationsproblem im Sinne des letzten Abschnitts. Wir müssen diejenigen Stellen im Raum aller zulässigen Funktionen f finden, an denen eine skalare Funktion, oder genauer ein Funktional stationär ist. Das Problem ist nun, dass dieser Raum eine unendliche Dimension hat. Funktionenräume sind im allgemeinen keine endlich-dimensionalen Räume. Wir können daher kein Koordinatensystem im üblichen Sinne einführen und die partiellen Ableitungen nach den Koordinaten berechnen. Wir können aber immer noch eine Richtungsableitung definieren, ohne dass wir dafür Koordinaten benötigen. Wir stellen uns wieder vor, dass wir uns an einer bestimmten “Ort” im Funktionenraum befinden, also bei einer Funktion f . Wenn wir von dort aus in eine bestimmte “Richtung” gehen, so bedeutet das, dass wir zu der Funktion f eine andere Funktion g addieren. Wir führen einen Parameter ein, der angibt, wie weit wir schon gegangen sind. Wir betrachten also die Funktion f (x) + g(x), mit f (x1 ) = y1 , f (x2 ) = y2 , g(x1 ) = 0, g(x2 ) = 0. (14.13) Die ersten beiden Bedingungen sind diejenigen, die den Funktionenraum definieren, in dem die Funktion f liegen soll. Die Bedingungen an g, an den Rändern des Intervalls zu verschwinden, ergibt sich aus der Forderung, dass wir innerhalb der Funktionenraumes bleiben müssen, wenn wir die Funktion verändern. 117 (d) y y y f +g y2 d` y2 dy dx f y1 x (a) y1 x x1 x2 (b) x x1 x2 (c) Abbildung 14.1: Die Kurvenlänge eines Grafen (a) ergibt sich durch Integration der Linienelemente d`. Um festzustellen, ob die Kurvenlänge eines bestimmten Grafen extremal ist, betrachtet man eine Schar von Funktionen (b), die sich von der gegebenen Funktion f um das Vielfache einer Funktion g unterscheiden. Unter allen Kurven, die zwei feste Punkte miteinander verbinden, findet man schließlich die Gerade (c) als die kürzeste. Auch die Funktion f + g muss, für alle , die gestellten Randbedingungen erfüllen, da wir uns sonst nicht innerhalb des Funktionenraumes bewegen, auf dem das Funktional L definiert ist. Nun können wir uns fragen, wie sich die Länge des Grafen verändert, wenn wir uns von der Funktion f aus in die Richtung der Funktion g bewegen. In diesem Sinne ist f der Ort, an dem wir uns befinden, und g ist der Vektor, der abgibt, in welche Richtung wir uns im Funktionenraum bewegen. Die typische Situation ist in Abbildung 14.1(b) dargestellt. Für jedes ergibt sich ein anderer Graf, der folglich auch eine andere Länge hat, nämlich 2 Z xq L[f + g] = 1 + (f 0 (x) + g 0 (x))2 dx. (14.14) x1 Jetzt können wir wie üblich die Richtungsableitung berechnen. Wir betrachten den Ausdruck (14.14) als gewöhnliche reelle Funktion von einer reellen Variablen , und bilden die Ableitung an der Stelle = 0, dL[f + g] L[f + g] − L[f ] . (14.15) = lim →0 d =0 Diese Ableitung können wir leicht berechnen. Da die Integralgrenzen nicht von abhängen, wirkt die Ableitung nur auf den Integranden. Es ist d d 2 Z xq Z x2 0 (f (x) + g 0 (x)) g 0 (x) 0 0 2 p 1 + (f (x) + g (x)) dx = dx. 1 + (f 0 (x) + g 0 (x))2 x1 (14.16) x1 Jetzt müssen wir nur noch = 0 setzen, und bekommen für die gesuchte Richtungsableitung Z x2 0 f (x) g 0 (x) dL[f + g] p = dx. d =0 1 + f 0 (x)2 (14.17) x1 Dieses Integral gibt an, wie sich die Länge eines Grafen verändert, wenn wir die Funktion f in die Richtung der Funktion g verändern. 118 Aufgabe 14.6 In welchem Sinne definiert der Ausdruck auf der rechten Seite in (14.17) den “Gradienten” von L an der Stelle f ? Man bedenke, dass der Gradient ein dualer Vektor ist, also eine lineare Abbildung. Um welchen Vektorraum handelt es sich hier, und auf welchen Vektor wirkt die lineare Abbildung? Jetzt können wir uns der Frage zuwenden, für welche Funktionen f das Funktional L[f ] stationär ist. Das ist genau dann der Fall, wenn die Richtungsableitung von L[f ] in alle Richtungen verschwindet. Mit anderen Worten, die rechte Seite von (14.17) muss für alle Funktionen g Null ergeben. Um daraus eine Bedingung an die Funktion f abzuleiten, entfernen wir zunächst die Ableitung g 0 (x), die unter dem Integral steht, durch eine partielle Integration. Es gilt Z x2 0 h f 0 (x) g(x) ix=x2 Z x2 d f (x) g 0 (x) f 0 (x) p p dx = p g(x) dx. − dx 1 + f 0 (x)2 1 + f 0 (x)2 x=x1 1 + f 0 (x)2 x1 (14.18) x1 Der erste Term verschwindet, denn nach Voraussetzung ist g(x) an den Rändern des Intervalls gleich Null. Es muss also der zweite Ausdruck für alle möglichen Funktionen g verschwinden. Da der Funktionswert von g an jeder Stelle innerhalb des Intervalls beliebig ist, kann das nur dann der Fall sein, wenn der Rest des Integranden gleich Null ist. Die Bedingung lautet also f 0 (x) d p =0 dx 1 + f 0 (x)2 ⇔ f 0 (x) p = konst 1 + f 0 (x)2 ⇔ f 0 (x) = konst. (14.19) Das Funktional L[f ] ist genau dann an der Stelle f stationär, wenn die Funktion f linear ist. Es gibt genau eine lineare Funktion, die die gestellten Randbedingungen erfüllt, nämlich f (x) = y2 (x − x1 ) + y1 (x2 − x) . x2 − x 1 (14.20) Tatsächlich liegt an dieser Stelle ein Minimum des Funktionals L[f ] vor. Die Gerade ist die kürzeste Verbindung von zwei Punkten. Es ist die einzige Stelle im Funktionenraum, an der alle Richtungsableitungen von L verschwinden. Aufgabe 14.7 Man löse folgendes, leicht verändertes Extremalproblem. Die Funktionswerte von f an den Rändern des Intervalls seien nicht festgelegt. Das heißt, f ist irgendeine differenzierbare Funktion auf dem Intervall x1 ≤ x ≤ x2 . Welche zusätzliche Bedingung ergibt sich nun für die Funktion f , wenn L[f ] stationär sein soll? Welches ist jetzt die Funktion mit dem kürzesten Grafen? Ist sie eindeutig? Ist das Ergebnis das, was man erwartet? Aufgabe 14.8 Eine Kurve in der Euklidischen Ebene werde in Polarkoordinaten (r, ϕ) durch eine Funktion r = f (ϕ) beschrieben. Auf diese Weise hatten wir zum Beispiel die Keplerschen Ellipsen in Kapitel 8 beschrieben. Man zeige, dass die Länge der Kurve zwischen zwei Punkten (r1 , ϕ1 ) und (r2 , ϕ2 ) mit ϕ2 > ϕ1 durch 2 Z ϕp L[f ] = f (ϕ)2 + f 0 (ϕ)2 dϕ (14.21) ϕ1 gegeben ist, wobei die Funktion f die Randbedingungen f (ϕ 1 ) = r1 und f (ϕ2 ) = r2 erfüllt. Man bestimme die Funktion f , für die dieses Funktional stationär wird, und zeige anschließend, dass es sich um die Darstellung einer geraden Strecke in Polarkoordinaten handelt. Welche Einschr änkung muss man an ϕ1 und ϕ2 machen, damit dieses Variationsproblem überhaupt eine Lösung hat? Welche geometrische Begründung gibt es dafür? 119 Die Eulersche Gleichung Wir wollen das Verfahren, das wir soeben verwendet haben, um ein bestimmtes Extremalproblem zu lösen, nun ein wenig systematischer analysieren. Wir betrachten wieder eine Funktion f (x), die auf einem Intervall x1 ≤ x ≤ x2 definiert ist. Sie soll hinreichend oft differenzierbar sein, damit alle Ausdrücke, die im folgenden auftreten, wohldefiniert sind. Es zeigt sich, dass ein sehr große Klasse von Extremalproblemen auf die folgende allgemeine Form gebracht werden kann. Das Funktional, das extremal werden soll, ist als Integral über x gegeben, wobei der Integrand von f (x), den ersten n Ableitungen f 0 (x), f 00 (x), . . ., f (n) (x), sowie von x selbst abhängt, also Z x2 (14.22) S[f ] = L f (x), f 0 (x), f 00 (x), . . . , f (n) (x), x dx. x1 Hierbei ist L(y0 , y1 , . . . , yn , x) eine gewöhnliche reelle Funktion mit n + 2 Argumenten wobei für diese die gesuchte Funktion und ihren ersten n Ableitungen an der Stelle x, sowie x selbst einzusetzen sind. Anschließend ist dieser Ausdruck über x zu integrieren. Um herauszufinden, für welche Funktionen f dieses Funktional stationär ist, bilden wir die Richtungsableitung von S[f ] in die Richtung einer Funktion g. Wir betrachten also die Ableitung Z x2 d d S[f + g] = L y0 + z0 , y1 + z1 , . . . , yn + zn , x dx , d d =0 =0 (14.23) x1 wobei wir yk = f (k) (x) und zk = g (k) (x) als Abkürzungen für die Werte der Funktionen und ihrer Ableitungen an der Stelle x verwendet haben. Diese hängen natürlich nicht von ab, so dass wir sie bei der Ableitung nach als Konstanten betrachten können. Das gleiche gilt für die Integralgrenzen, so dass wir die Ableitung nach auf den Integranden wirken lassen können. Das ergibt 2 Z x n X ∂L d = S[f + g] y0 , y1 , . . . , yn , x zk dx. d =0 ∂yk k=0 (14.24) x1 Diese Richtungsableitung können wir auch als Variation des Funktionals S[f ] darstellen. Dazu schreiben wir f (x) + δf (x) statt f (x) + g(x), wobei δf (x) die Variation der Funktion f (x) ist. Die anschauliche Vorstellung ist die, dass wir an der Funktion f (x) ein wenig “wackeln”, so dass sich eine veränderte Funktion f (x)+δf (x) ergibt. Die Variation δf (x) ist dann auch eine Funktion auf dem Intervall x 1 ≤ x ≤ x2 . Gegebenenfalls muss sie gewissen Randbedingungen genügen, wenn entsprechende Randbedingungen an die Funktion f (x) gestellt sind. Wenn wir die Funktion f (x) verändern, ändert sich auch ihre Ableitung. Da das Ableiten eine lineare Operation ist, ist die Variation der Ableitung f 0 (x) gleich der Ableitung der Variation δf (x) nach x. Wir schreiben dafür δf 0 (x), wobei es unerheblich ist, ob hier quasi zuerst der Strich und dann das Delta wirkt, oder umgekehrt erst das Delta und dann der Strich. Es spielt keine Rolle, ob wir eine Funktion erst ableiten und dann variieren oder erst variieren und dann ableiten. Das gleiche gilt natürlich auch für alle höheren Ableitungen. Statt (14.24) können wir nun auch schreiben δS[f ] = 2 Z x n X x1 k=0 (k) ∂L 0 (n) f (x), f (x), . . . , f (x), x δf (x) dx, ∂f (k) (14.25) wobei ∂L/∂f (k) die partielle Ableitung nach dem entsprechenden Argument der Funktion L bezeichnet. 120 Der Vorteil dieser Schreibweise ist, dass wir das nicht explizit ausschreiben müssen und für die Richtung, in die wir ableiten, keine zusätzliche Bezeichnung einführen müssen. Inhaltlich sind die Aussagen von (14.24) und (14.25) aber identisch. Wenn das Funktional S[f ] an der Stelle f stationär sein soll, dann müssen dort alle Richtungsableitungen verschwinden, oder äquivalent dazu, es muss die Variation δS[f ] für alle Variationen δf verschwinden. Um das in eine Bedingung an f zu übersetzen, müssen wir auch hier wieder die Ableitungen loswerden, die noch auf die Variation δf wirken. Dazu führen wir mehrere partielle Integrationen durch. Und zwar integrieren wir den Term, der δf (k) (x) enthält, k mal partiell. Das produziert ein Vorzeichen (−1)k und einen Satz von Randtermen, die uns im Moment nicht interessieren. Das Ergebnis ist δS[f ] = h Rand- i terme + 2 Z x n X x1 (−1)k k=0 dk ∂L 0 (n) f (x), f (x), . . . , f (x), x δf (x) dx. dxk ∂f (k) (14.26) Wenn das für alle δf gleich Null sein soll, dann muss der Ausdruck in der Klammer für alle x verschwinden, denn δf (x) kann für alle x innerhalb des Intervalls beliebig gewählt werden. Als notwendige Bedingung dafür, dass das Funktional S[f ] an der Stelle f stationär ist, bekommen wir die Gleichung Eulersche Gleichung n X k=0 (−1)k dk ∂L f (x), f 0 (x), . . . , f (n) (x), x = 0. k (k) dx ∂f (14.27) Dies ist eine Differenzialgleichung für die Funktion f (x). Sie wird als Eulersche Gleichung für das gegebene Variationsproblem bezeichnet. Zu beachten ist dabei, dass die Ableitungen d/dx, die auf die einzelnen Ausdrücke wirken, jeweils auf alle Argumente der Funktion L wirken, nämlich explizit auf das letzte Argument x, und implizit auf alle anderen Argumente, weil diese wiederum über f , f 0 , f 00 etc. von x abhängen. Die entsprechende Überlegung für die Richtungsableitung (14.24) führt natürlich zum selben Ergebnis. Damit die Richtungsableitungen verschwinden, muss die Differenzialgleichung (14.27) erfüllt sein. Damit ein Funktional S[f ], das als Integral einer Funktion von f (x), f 0 (x), . . ., f (n) (x) und x gegeben ist, stationär wird, muss die Funktion f die zugehörige Eulersche Gleichung erfüllen. Das ist natürlich nur eine notwendige Bedingung, denn die Randterme in (14.26) müssen auch verschwinden, damit das Funktional wirklich stationär ist. In dem Beispiel aus dem letzten Abschnitt hatten wir allerdings gesehen, dass diese Randterme schon wegen der an die Funktion f gestellten Randbedingungen gleich Null waren. Tatsächlich hängen die Randterme von den gestellten Randbedingungen an die Funktion f ab, also davon, wie der Funktionenraum, auf dem das Funktional definiert ist, an den Rändern des Intervalls aussieht. In den meisten praktischen Fällen verschwinden die Randterme automatisch. Wir werden dies im folgenden stets annehmen, wenn wir Variationsprobleme allgemein diskutieren. Natürlich müssen wir dann im Einzelfall stets zeigen, dass dem auch so ist, wenn wir ein spezielles Problem lösen wollen. Mit Hilfe der Eulerschen Gleichung lässt sich das Ergebnis des letzten Abschnitts leicht reproduzieren. Um das Funktional (14.12) für die Länge des Grafen der Funktion f zu bekommen, müssen wir n = 1 und p (14.28) L f, f 0 , x = 1 + f 02 setzen. Daraus folgt ∂L f, f 0 , x = 0, ∂f ∂L f0 0 p , f, f , x = ∂f 0 1 − f 02 121 (14.29) und die Eulersche Gleichung lautet d ∂L d f 0 (x) ∂L 0 p f (x), f (x), x = − = 0. f (x), f 0 (x), x − ∂f dx ∂f 0 dx 1 − f 0 (x)2 (14.30) Das ist wieder die Gleichung (14.19), die genau dann erfüllt ist, wenn f (x) eine lineare Funktion ist. Aufgabe 14.9 Welche höchste Ordnung kann die Differenzialgleichung (14.27) für die gesuchte Funktion f (x) haben? Aufgabe 14.10 Man berechne die Randterme in (14.26) für n = 2. Aufgabe 14.11 Wenn die Randterme in (14.26) nicht verschwinden, ergeben sich zus ätzliche Bedingungen an f . Die Eulersche Gleichung (14.27) als notwendige Bedingung f ür das Vorliegen eines Extremums wird durch die Randterme jedoch nicht modifiziert. Warum nicht? Das Brachistochronenproblem Ein nicht ganz triviales Variationsproblem ergibt sich aus der folgenden Aufgabe, die wir als anschauliches Beispiel diskutieren wollen. Es soll eine Rutschbahn gebaut werden, auf der Gegenstände möglichst schnell von einem vorgegeben Ort zu einem anderen transportiert werden sollen, indem man sie einfach in die Rutschbahn fallen lässt. Sie bewegen sich dort nur unter dem Einfluss der Schwerkraft, und die Reibung soll vernachlässigt werden. Welches ist die günstigste Form der Rutschbahn? Die Bezeichung Brachistochronenproblem für dieses Extremalproblem leitet sich aus den griechischen Wörtern brachis für ‘kurz’ und chonos für ‘Zeit’ ab. Gesucht ist diejenige Kurve, der die kürzesten Laufzeit entspricht. Solche physikalisch motivierten Extremalprobleme wurden bereits im 17. Jahrhundert von Newton und den Brüdern Bernoulli gestellt und diskutiert. Erst durch das von Euler im 18. Jahrhundert entwickelte Verfahren, das wir im letzten Abschnitt hergeleitet haben, gelingt jedoch eine elegante Lösung. Das Problem ist in Abbildung 14.2(a) dargestellt. Es handelt sich um ein zweidimensionales Problem, da es sicher am günstigsten ist, wenn die Rutschbahn, von oben gesehen, die beiden Punkte auf einer geraden Strecke verbindet. Wir verwenden die Koordinaten (x, z), wobei die z-Achse wie üblich nach oben zeigen soll. Der Anfangspunkt der Rutschbahn befinde sich am Koordinatenursprung bei (x, z) = (0, 0), der Endpunkt bei (x, z) = (d, −h), wobei sowohl die horizontale Strecke d als auch die Fallhöhe h positiv sein sollen. Die Rutschbahn kann dann durch die Gleichung z = −f (x), mit f (0) = 0, f (d) = h, (14.31) dargestellt werden. Bewegt sich ein Gegenstand auf der Rutschbahn, so können wir seine Bahn durch die Funktionen x(t) und z(t) = −f (x(t)) beschreiben. Um die Laufzeit zu berechnen, benutzen wir die in Teil I entwickelte Methode, die auf dem Energieerhaltungssatz beruht. Dann müssen wir die Bewegungsgleichungen nämlich gar nicht explizit lösen. Die Energie des rutschenden Körpers setzt sich aus der kinetischen und der potenziellen Energie zusammen. Da der Gegenstand am Anfang einfach fallen gelassen werden soll, ergibt sich ihr Wert aus dem Gravitationspotenzial an dieser Stelle. Setzen wir das Gravitationspotenzial bei z = 0 gleich Null, so gilt dx m m 2 − m g f (x) = 0. (14.32) E = (ẋ2 + ż 2 ) + m g z = (1 + f 0 (x)2 ) 2 2 dt Durch Auflösen nach der Geschwindigkeit ergibt sich eine Differenzialgleichung erster Ordnung, s dx 2 g f (x) 1 + f 0 (x)2 2 ⇒ dt = dx. (14.33) = dt 2 g f (x) 1 + f 0 (x)2 122 (c) (d) z d u v x z x ϕ ϕ ϕ h (b) (a) Abbildung 14.2: Beim Brachistochronenproblem (a) geht es darum, eine Rutschbahn zu konstruieren, auf der ein Gegenstand allein unter dem Einfluss der Schwerkraft möglichst schnell von einem vorgegebenen Punkt zu einem anderen gelangt. Die Lösungskurve ist eine Zykloide (b), die einsteht, wenn ein Rad auf einer Geraden abrollt. Daraus ergibt sich durch Integration die Laufzeit für den Gegenstand, T [f ] = Z 0 T dt = 2 Z xs 1 + f 0 (x)2 dx. 2 g f (x) (14.34) x1 Die Aufgabe besteht nun darin, das Funktional T [f ] zu minimieren. Es handelt sich um ein Variationsproblem der allgemeinen Form, wie wir es gerade diskutiert haben. Wir müssen die Eulersche Gleichung s d ∂L 1 + f 02 ∂L 0 − = 0 mit L(f, f ) = (14.35) ∂f dx ∂f 0 2gf lösen. Explizit ausgewertet ergibt sich daraus eine Differenzialgleichung zweiter Ordnung für die gesuchte Funktion f (x). Mit einem kleinen Trick, der sich später als Spezialfall eines ganz wichtigen Satzes herausstellen wird, formen wir sie in eine Differenzialgleichung erster Ordnung mit einem freien Parameter um. Da die Funktion L nicht explizit, sondern nur über die Funktion f und ihre Ableitung f 0 von der Integrationsvariable x abhängt, gilt folgende Identität. Es ist ∂L d 0 ∂L 0 d ∂L 00 ∂L 0 ∂L + f 00 0 f 0 −L = f 0 +f 0 −f dx ∂f dx ∂f ∂f ∂f ∂f d ∂L ∂L = f0 − . dx ∂f 0 ∂f (14.36) Unter der Voraussetzung f 0 6= 0 ist somit die Eulersche Gleichung äquivalent zu der Differenzialgleichung erster Ordnung ∂L (14.37) f 0 0 − L = konst. ∂f Die linke Seite dieser Gleichung lässt sich für die spezielle Funktion L (14.35) leicht auswerten. Es ergibt sich ∂L 1 (14.38) f0 0 − L = q . ∂f 2 g f 1 + f 02 123 Die zu lösende Differenzialgleichung lautet also f (x) (1 + f 0 (x)2 ) = 2 a ⇔ f 0 (x)2 = 2 a − f (x) , f (x) (14.39) wobei a eine Konstante ist. Den Faktor 2 haben wir an dieser Stelle nur eingeführt, damit die Lösung später eine einfache Form annimmt. Aufgabe 14.12 Gibt es eine anschauliche physikalische Erklärung dafür, dass letztlich weder die Masse m des Gegenstandes, noch die Erdbeschleunigung g für die gesuchte Form der Rutschbahn eine Rolle spielt? Die Differenzialgleichung (14.39) lässt sich durch folgende Substitution lösen. Wir setzen f 0 (x) = a sin(ϕ(x)) ϕ0 (x). (14.40) 1 + cos(ϕ(x)) a + a cos(ϕ(x)) = . a − a cos(ϕ(x)) 1 − cos(ϕ(x)) (14.41) f (x) = a − a cos(ϕ(x)) ⇒ Setzen wir das in (14.39) ein, so ergibt sich a2 sin2 (ϕ(x)) ϕ0 (x)2 = Erweitert man den Bruch mit 1 − cos(ϕ(x)), so findet man 1 + cos(ϕ(x)) sin2 (ϕ(x)) , = 1 − cos(ϕ(x)) ( 1 − cos(ϕ(x)) )2 (14.42) was schließlich auf die Differenzialgleichung ϕ0 (x) = 1 a − a cos(ϕ(x)) (14.43) führt. Sie lässt sich nicht explizit lösen. Wenn wir jedoch die Umkehrfunktion x(ϕ) betrachten, so gilt für diese x0 (ϕ) = a (1 − cos ϕ) ⇒ x(ϕ) = a (ϕ − sin ϕ) + b, (14.44) wobei b eine zweite Integrationskonstante ist. Da die Koordinate z = −f (x) bereits als Funktion von ϕ(x) dargestellt ist, bekommen wir folgende Parameterdarstellung der gesuchten Kurve, x(ϕ) = a (ϕ − sin ϕ) + b, z(ϕ) = a (cos ϕ − 1). (14.45) Die Konstanten a und b müssen wir so bestimmen, dass die Kurve durch die Punkte (0, 0) und (d, −h) läuft. Die erste Bedingung ist für b = 0 erfüllt. Der Anfangspunkt der Rutschbahn entspricht dann dem Kurvenparameter ϕ = 0. Damit die Kurve durch den vorgegebenen Endpunkt verläuft, muss es ein ϕ geben mit a (ϕ − sin ϕ) = d, a (1 − cos ϕ) = h. (14.46) Aus diesem Gleichungssystem lässt sich die Konstante a und der Wert von ϕ am Endpunkt der Bahn numerisch bestimmen. Damit haben wir die gesuchte Bahn gefunden, auf der Körper am schnellsten sein Ziel erreicht. Die optimale Bahn ist eine Zykloide. Sie ergibt sich, wenn man ein Rad, wie in Abbildung 14.2(b) gezeigt, auf der x-Achse abrollt und dabei einen vorgegebenen Punkt auf dem Umfang verfolgt. Der Mittelpunkt des Rades befindet sich am Punkt (a ϕ, −a) unterhalb der x-Achse un bewegt sich gleichmäßig nach rechts. Die Speiche, also der Vektor, der vom Mittelpunkt zu dem vorgegeben Punkt auf dem Umfang zeigt, hat die Komponenten (−a sin ϕ, a cos ϕ) und dreht sich gleichmäßig gegen den Uhrzeigersinn. Der Radius a des Rades ist so zu bestimmen, dass der Punkt auf dem Umfang, der am Anfangspunkt der Kurve gerade die x-Achse berührt, später durch den vorgegebenen Endpunkt der Kurve hindurch läuft. 124 Aufgabe 14.13 Man zeige, dass das Gleichungssystem (14.46) f ür d > 0 und h > 0 genau eine Lösung mit a > 0 und 0 < ϕ < 2π besitzt. Das Brachistochronenproblem ist also eindeutig l ösbar. Aufgabe 14.14 Wie man in Abbildung 14.2(a) erkennt, erreicht die optimale Rutschbahn ihr Ziel von unten, das heißt die Bahn verläuft teilweise unterhalb des Zielpunktes. Offenbar lässt sich dadurch Zeit gewinnen, denn der Körper ist auf diesem Teilstück noch schneller als bei seiner Ankunft. Für welche Werte der horizontalen Wegstrecke d und Fallhöhe h hat die optimale Bahn diese Eigenschaft? Aufgabe 14.15 Man zeige, dass die Bahn so durchlaufen wird, dass der Kurvenparameter ϕ eine lineare Funktion der Zeit ist. Wie lang ist die benötigte Zeit T auf der optimalen Bahn? Welche Laufzeit ergibt sich speziell für zwei Punkte, die auf gleicher Höhe liegen? Aufgabe 14.16 In Abbildung 14.2(a) sind zwei alternative Bahnen eingezeichnet. Die erste verl äuft entlang einer Geraden. Auf der zweiten fällt der Gegenstand zuerst senkrecht nach unten, wird dann scharf umgelenkt und bewegt sich mit konstanter Geschwindigkeit zum Ziel. Man zeige, dass die Laufzeit in beiden Fällen größer ist als die auf der optimalen Bahn. Aufgabe 14.17 Wie sollte die Rutschbahn angelegt werden, wenn der K örper möglichst lange unterwegs sein soll? Gibt es dafür auch eine optimale Bahn? Aufgabe 14.18 Ein anderes Variationsproblem, das sich auf ähnliche Weise lösen lässt, ist das in Abbildung 14.3 dargestellte Minimalflächenproblem. Zwei parallele Ringe mit Radius r werden in einem Abstand d aufgestellt. Zwischen ihnen ist eine Rotationsfläche aufgespannt, die durch die Gleichung y 2 + z 2 = f (x)2 beschrieben werden kann, mit −d/2 ≤ x ≤ d/2 und f (−d/2) = f (d/2) = r. Gesucht ist die kleinste solche Fläche. Man beweise die in der Abbildung gemachten Angaben und bestimme den kritischen Wert für das Verhältnis d/r numerisch. Man betrachte speziell die Situation (b). Ist die dargestellte äußere Fläche tatsächlich die kleinste mögliche Fläche, die von den Ringen begrenzt wird? Funktionale mit mehreren Argumenten Das allgemeine, durch (14.22) definierte Variationsproblem lässt sich leicht auf Funktionale verallgemeinern, die von mehreren Argumenten, also von mehreren Funktionen abhängen. Als Beispiel betrachten wir ein Funktional S[f, g], das von zwei Funktionen f (x) und g(x) abhängt. Beide sollen auf dem Intervall x1 ≤ x ≤ x2 definiert sein, und das Funktional soll wieder durch ein Integral gegeben sein, dessen Integrand jetzt aber von den beiden Funktion und ihren Ableitungen abhängt. Der Einfachheit halber beschränken wir uns an dieser Stelle auf die Funktionen und ihre ersten Ableitungen. Es sei also Z x2 S[f, g] = L(f (x), f 0 (x), g(x), g 0 (x), x) dx. (14.47) x1 Die übliche Rechnung ergibt dann den folgenden Ausdruck für die Variation des Funktionals, δS[f, g] = 2 Z x x1 ∂L ∂L 0 ∂L ∂L 0 δf (x) + 0 δf (x) + δg(x) + 0 δg (x) dx. ∂f ∂f ∂g ∂g (14.48) Auch hier führen wir wieder partielle Integrationen durch, um die Ableitungen der Variationen δf 0 (x) und δg 0 (x) zu eliminieren. Außerdem nehmen wir an, dass an beide Funktionen feste Randbedingungen 125 replacements (d) d = 1.0 r d = 1.3 r (a) (b) d = 1.4 r (c) Abbildung 14.3: Zwischen zwei gleich großen, parallel zueinander ausgerichteten Ringen bilden sich zwei Extremalflächen aus (a). Nur die äußere ist eine Minimalfläche. Zieht man die Ringe weiter auseinander, so nähern sich die beiden Extremalflächen einander an (b). Übersteigt das Verhältnis aus Abstand und Radius einen kritischen Wert, so gibt es nur noch die entartete Minimalfläche, die aus zwei Kreisscheiben besteht. f (x1,2 ) = f1,2 und g(x1,2 ) = g1,2 gestellt sind. Dann verschwinden die beim partiellen Integrieren auftretenden Randterme, denn es muss δf (x1,2 ) = 0 und δg(x1,2 ) = 0 sein. Wir bekommen schließlich δS[f, g] = Z x2h x1 ∂L i d ∂L d ∂L ∂L − − δf (x) + δg(x) dx ∂f dx ∂f 0 ∂g dx ∂g 0 (14.49) Damit das Funktional stationär ist, muss das Integral für alle δf und alle δg verschwinden. Offenbar ist das genau dann der Fall, wenn für f und g die Differenzialgleichungen ∂L d ∂L − = 0, ∂f dx ∂f 0 ∂L d ∂L − =0 ∂g dx ∂g 0 (14.50) erfüllt sind. Es muss also für jede Funktion jeweils eine Eulersche Gleichung erfüllt sein. Es ergibt sich ein gekoppeltes System von Differenzialgleichungen, da die Funktion L und ihre Ableitungen im allgemeinen von beiden Funktionen abhängen. Es ist mehr oder weniger offensichtlich, wie sich diese Aussage auf Funktionale von endlich vielen Funktionen verallgemeinern lässt, sowie auf Funktionale, die von beliebig vielen Ableitungen abhängen. Hängt der Integrand L von endlich vielen Funktionen fα (x) und ihren Ableitungen fα0 (x) bis fα(n) (x) ab, so lauten die Eulerschen Gleichungen n X k=1 (−1) dk ∂L = 0, dxk ∂fα(k) (14.51) und es gibt eine solche Gleichung für jeden Index α, also genau so viele wie Funktionen f α (x). Wir wollen auch dafür ein einfaches Beispiel diskutieren, das zudem eine andere typische Eigenschaft von Variationsproblemen deutlich macht. Wir suchen wieder die kürzeste Verbindung zwischen zwei Punkten, diesmal aber in einem metrischen affinen Raum beliebiger Dimension. Die Kurve werde durch 126 eine Funktion λ(s) beschrieben, wobei s der Kurvenparameter ist. Als Randwerte geben wir λ(s 1 ) = p1 und λ(s2 ) = p2 , wobei p1 und p2 zwei beliebige Punkte sind und s2 > s1 . Wenn wir die Kurve durch kartesische Koordinaten λi (s) darstellen, können wir die Länge wie folgt berechnen, 2 2 Z sq Z sq 0 0 L[λ] = λ (s) · λ (s) ds = λ0i (s) λ0i (s) ds. (14.52) s1 s1 Das Funktional hängt von insgesamt N Funktionen ab, wenn N die Dimension des Raumes ist. Die unter dem Integral auftretende Funktion ist q L(λ0 (s)) = λ0i (s) λ0i (s). (14.53) Sie hängt nur von den ersten Ableitungen der gesuchten Funktionen λ i (s) ab. Die Eulerschen Gleichungen haben daher nur einen Term, und zwar λ0i (s) d d ∂L q = 0. = ds ∂λ0i ds λ0 (s) λ0 (s) j (14.54) j Die Gleichungen für die einzelnen Koordinatenfunktionen können wir wieder zu einer Vektorgleichung zusammenfassen. Die Bedingung lautet λ0 (s) d p =0 ds λ0 (s) · λ0 (s) ⇒ λ0 (s) p = konst. λ0 (s) · λ0 (s) (14.55) Die Eulerschen Gleichungen verlangen, dass der normierte Tangentenvektor der Kurve entlang der Kurve konstant ist. Der normierte Tangentenvektor an der Stelle s ist der Einheitsvektor, der anzeigt, in welche Richtung die Kurve an der Stelle s verläuft. Dieser Vektor ist genau dann konstant, wenn die Kurve eine Gerade ist. Das bedeutet aber nicht, dass die Funktion λ(s) durch die Eulerschen Gleichungen zusammen mit den Randbedingungen eindeutig festgelegt ist. In den bisherigen Beispielen war das immer der Fall. Hier finden wir jedoch eine unendliche Menge von Funktionen, für die das Funktional stationär ist, nämlich alle möglichen Parametrisierungen der Geraden von p1 nach p2 . Jede Funktion der Form λ(s) = p1 + u(s) (p2 − p1 ) (14.56) erfüllt die Differenzialgleichung (14.55) und die gestellten Randbedingungen, sofern u(s) eine monoton steigende reelle Funktion mit u(s1 ) = 0 und u(s2 ) = 1 ist. Wir sehen also, dass das Minimum eines Funktionals nicht immer an einem einzelnen Punkt im Funktionenraum, also für eine bestimmte Funktion angenommen wird. Es ist durchaus möglich, dass es eine Teilmenge von Funktionen gibt, für die das Funktional den gleichen minimalen Wert annimmt. Hier haben natürlich alle parametrisierten Kurve (14.56) dieselbe Länge, nämlich |p 2 − p1 |, wie man durch Einsetzen leicht nachrechnen kann. Aufgabe 14.19 Man überzeuge sich davon, dass bei der partiellen Integration, die zur Herleitung der Eulerschen Gleichungen notwendig ist, auch in diesem Fall keine Randterme auftreten. Man zeige allgemein, dass die Randterme verschwinden, wenn der Integrand, also die Funktion L, nur von den Funktionen fα (x) und ihren ersten Ableitungen fα0 (x) abhängen, und wenn die Funktionswerte fα (x1 ) und fα (x2 ) an den Rändern des Intervalls fixiert sind. 127 Lagrange-Funktion und Wirkung Auch wenn wir es bisher nicht explizit erwähnt haben, sollte an dieser Stelle bereits klar sein, wie das allgemeine Variationsproblem mit den Bewegungsgleichungen der klassischen Mechanik zusammenhängt. Die Eulerschen Gleichungen sind genau die Lagrangeschen Bewegungsgleichungen für ein mechanisches System, wenn die für die Integrationsvariable x die Zeit t einsetzen, die gesuchten Funktionen f α (t) durch die Koordinatenfunktionen q µ (t) auf dem Konfigurationsraum ersetzen, und für den Integranden des Funktionals die Lagrange-Funktion L des mechanischen Systems einsetzen. Natürlich besteht diese Beziehung nur dann, wenn dem mechanischen System eine Lagrange-Funktion zugeordnet werden kann. Wir nehmen daher im folgenden an, dass es sich um ein solches System handelt. Es dürfen also nur Kräfte auftreten, die entweder aus einem Potenzial abgeleitet werden können oder, etwas allgemeiner, von der Art der Lorentz-Kraft sind. Von dieser hatten wir am Ende von Kapitel 11 gezeigt, dass auch sie aus eine Lagrange-Funktion abgeleitet werden kann, wenn die zugehörigen Felder die Maxwell-Gleichungen erfüllen. Auf die spezielle Form der Lagrange-Funktion kommt es hier nicht an. Wichtig ist nur, dass es sich um eine Funktion der Koordinaten q µ auf dem Konfigurationsraum und ihrer Zeitableitungen q̇ µ handelt. Außerdem kann sie noch explizit von der Zeit abhängen. Die Bewegungsgleichungen lassen sich dann in der Form ∂L d ∂L =0 (14.57) µ − dt ∂ q̇ ∂q µ aufschreiben. Wir wollen diese Bewegungsgleichungen nun als die Eulerschen Gleichungen interpretieren, die sich aus einem speziellen Variationsproblem ergeben. Sie werden deshalb auch als Euler-LagrangeGleichungen bezeichnet, wobei der Name Euler, so wie wir ihn bisher gebraucht haben, die Tatsache zum Ausdruck bringt, dass sich die Gleichungen aus einem Variationsproblem ableiten lassen, während der Name Lagrange für die physikalische Bedeutung der Gleichungen steht. Das zugehörige Variationsproblem können wir wie folgt formulieren. Wir betrachten zunächst eine beliebige Bahn q(t) im Konfigurationsraum Q des mechanischen Systems, dargestellt durch die Koordinatenfunktionen q µ (t), und zwar für ein endliches Zeitintervall t1 ≤ t ≤ t2 . Außerdem stellen wir die folgenden Randbedingungen. Zur Zeit t1 soll das System die Konfiguration q(t1 ) = q1 annehmen, und zur Zeit t2 die Konfiguration q(t2 ) = q2 . Über den Verlauf der Bahn machen wir sonst keine Aussage, außer dass sie differenzierbar sein soll. Insbesondere nehmen wir nicht an, dass es sich um eine Lösung der Bewegungsgleichung handelt. Es ist einfach irgendeine denkbare Bahn, die zur Zeit t1 bei q1 startet und zur Zeit t2 bei q2 ankommt. Jeder solchen Bahn ordnen wir eine reelle Zahl zu, nämlich Wirkung S[q] = Z t1 t2 L q(t), q̇(t), t dt. (14.58) Wir nennen diese Größe die Wirkung der gegebenen Bahn. Die Wirkung S ist ein Funktional der Bahn q(t). Sie hat die physikalische Dimension Energie mal Zeit. Die Wirkung einer Bahn ist das Zeitintegral der Lagrange-Funktion. Wir können nun die Frage stellen, für welche Bahnen diese Wirkung extremal wird. Die Antwort können wir sofort geben. Es sind diejenigen Bahnen, die die Lagrange-Gleichungen (14.57) erfüllen. Denn für die Variation der Wirkung gilt Z t2 h ∂L it=t2 Z t2 ∂L d ∂L µ ∂L µ ∂L µ µ δq dt. δq + δ q̇ dt = δq + − δS[q] = ∂q µ ∂ q̇ µ ∂ q̇ µ t=t1 ∂q µ dt ∂ q̇ µ t1 t1 128 (14.59) Die Randterme verschwinden, da wir nur solche Bahnen q(t) betrachten, die zu den Zeiten t 1 und t2 die Werte q1 bzw. q2 annehmen. Folglich betrachten wir auch nur solche Variationen δq(t), die bei t = t 1 und t = t2 verschwinden. Ansonsten sind die Variationen δq µ (t) der Koordinatenfunktionen aber beliebig. Deshalb muss der Ausdruck in der Klammer zu jedem Zeitpunkt t zwischen t 1 und t2 verschwinden, das heißt die Bewegungsgleichungen (14.57) müssen erfüllt sein. Daraus ziehen wir den folgenden Schluss. Bewegt sich ein System von einer Konfigurationen q 1 zur Zeit t1 zu einer Konfiguration q2 zur Zeit t2 , so nimmt es dabei genau diejenige Bahn, für die die Wirkung extremal wird. Diese Formulierung der Bewegungsgleichungen wird Prinzip der station ären Wirkung oder kurz Wirkungsprinzip genannt. Die physikalischen Bahnen sind die Bahnen mit stationärer Wirkung. Unter den physikalischen Bahnen eines mechanischen Systems verstehen wir dabei diejenigen Bahnen, die tatsächlich von dem System realisiert werden, im Gegensatz zu allen denkbaren Bahnen im Konfigurationsraum. Damit haben wir eine sehr bedeutende Feststellung gemacht. Ursprünglich hatten wir die LagrangeGleichungen aus den Newtonschen Bewegungsgleichungen abgeleitet, indem wir diese einfach in einer neuen Form dargestellt haben. Das hatte ein paar technische Vorteile, etwa bei der Handhabung von krummlinigen Koordinatensystemen oder der Beschreibung von Systemen mit Zwangsbedingungen. Es handelte sich aber nur um eine neue Schreibweise derselben Differenzialgleichungen. Nun haben wir ein neues Prinzip definiert, das wir als eine Art übergeordnetes Naturprinzip betrachten können. Offenbar verhalten sich bestimmte mechanische Systeme so, dass die Bahnen, die sie realisieren, nicht nur einfach durch einen Satz von mehr oder weniger willkürlichen Differenzialgleichungen bestimmt werden. Sie folgen vielmehr einen “höheren” Prinzip, nach dem sie eine bestimmte Funktion, oder genauer ein bestimmtes Funktional extremal machen. Ein Begründung dafür gibt es zunächst nicht. Es ist nur eine Beobachtung, die man beim Studium von mechanischen System macht. Es zeigt sich aber, dass sich ähnliche Variationsprinzipien auch in anderen Bereichen der Physik formulieren lassen, und zwar insbesondere für alle bekannten fundamentalen Theorien von Teilchen und ihren Wechselwirkungen. Tatsächlich hatten wir ja bereits gesehen, dass sich genau diejenigen Kräfte auf ein einzelnes Teilchen aus einer Lagrange-Funktion ableiten lassen, die die Form der elektromagnetischen Lorentz-Kraft haben. Auch die Gravitationskraft kann aus einem Potenzial und damit aus einer Lagrange-Funktion abgeleitet werden. Typische mechanische Systeme, bei denen dies nicht der Fall ist, sind solche, in denen Reibungskräfte auftreten. Reibungskräfte sind aber niemals “fundamental”. Es handelt sich vielmehr nur um eine effektive Beschreibung sehr komplizierter, mikroskopischer Wechselwirkungen, deren Details für die Beschreibung eines makroskopischen mechanischen Systems nicht von Bedeutung sind. Würde man diese Details vollständig in die Beschreibung mit aufnehmen, könnte man die Bewegungsgleichungen wieder aus einer Lagrange-Funktion ableiten. In der Beschreibung von grundlegenden Naturgesetzen kommt dem Wirkungsprinzip daher eine sehr wichtige Bedeutung zu. Auch die Formulierungen von anderen grundlegenden Theorien wie der Quantenphysik bauen auf diesem Prinzip auf. Tatsächlich stellt das Wirkungsfunktional in einer bestimmten Art und Weise das Bindeglied zwischen der klassischen Physik und der Quantenphysik her. Auf einige dieser Aspekte werden wir in den nächsten Kapiteln eingehen. Aufgabe 14.20 Um eine anschauliche Vorstellung davon zu bekommen, was das Wirkungsprinzip eigentlich genau besagt, betrachten wir folgende Situation. Ein Teilchen bewege sich im dreidimensionalen Raum mit kartesischen Koordinaten (x, y, z) in einem Gravitationspotenzial V = m g z. Es befinde sich zur Zeit t1 am Koordinatenursprung und zur Zeit t2 wieder dort. Wir betrachten nur eine ganz kleine Teilmenge der möglichen Bahnen, die das Teilchen in der Zwischenzeit zurück gelegt haben könnte, nämlich diejenigen 129 Bahnen, die durch eine quadratische Funktion von t wie folgt dargestellt werden k önnen, x(t) = a (t − t1 ) (t2 − t), y(t) = b (t − t1 ) (t2 − t), z(t) = c (t − t1 ) (t2 − t). (14.60) Statt des unendlich-dimensionalen Raumes aller möglicher Bahnen betrachten wir also nur einen dreidimensionalen Unterraum, der durch drei Zahlen a, b und c parametrisiert wird. Alle diese Bahnen haben die verlangte Eigenschaft, dass sich das Teilchen zu den Zeiten t 1 und t2 jeweils am Ursprung befindet. Es ist natürlich nicht klar, ob die tatsächlich realisierte Bahn in dieser “zufälligen” Auswahl von Bahnen dabei ist. Trotzdem können wir für jede solche Bahn die Wirkung berechnen und diese als Funktion S(a, b, c) darstellen. Wenn die tatsächlich realisierte Bahn dabei ist, muss es diejenige sein, für die diese Funktion von drei Variablen extremal wird. Gibt es ein solches Extremum? Wenn ja, ist es ein Minimum, ein Maximum oder ein Sattelpunkt, und entspricht es der tatsächlich realisierten Bahn? Aufgabe 14.21 Das folgende Beispiel soll klar machen, wie das Wirkungsprinzip benutzt werden kann, um physikalische Bahnen zu approximieren. Wieder betrachten wir ein Teilchen in einem homogenen Gravitationsfeld. Diesmal soll sich das Teilchen zu Zeit t1 an einem Ort r1 befinden, und Zeit t2 am Ort r2 . Wir erlauben aber nur solche Bahnen, auf denen sich das Teilchen zuerst mit konstanter Geschwindigkeit von r1 nach r bewegt, wo es zur Zeit t mit t1 < t < t2 ankommt, um dann von dort aus wieder mit konstanter Geschwindigkeit zum Ort r2 zu gelangen. Für jede solche Bahn ergibt sich eine Wirkung, die als Funktion S(r, t) des “Umkehrpunktes” r und der “Umkehrzeit” t dargestellt werden kann. Man zeige, dass das Extremum dieser Funktion zwar nicht die tatsächlich realisierte Bahn liefert, aber zumindest eine Bahn, die im Rahmen dieser sehr primitiven Näherung der physikalischen Bahn am nächsten kommt. Aufgabe 14.22 Für einen eindimensionalen harmonischen Oszillator gilt m 2 κ 2 L(q, q̇) = q̇ − q . 2 2 (14.61) Der Oszillator befinde sich zum Zeitpunkt t = 0 an der Stelle q(0) = 0 und zum Zeitpunkt t = T bei q(T ) = Q. Für die Bahn machen wir den Potenzreihenansatz q(t) = a (t/T ) + b (t/T )3 + c (t/T )5 , mit a + b + c = Q. (14.62) Die Zahlen a, b, c sind so zu bestimmen, dass die Wirkung der Bahn extremal wird. Auf diese Weise erh ält man eine Näherung für die tatsächlich realisierte Bahn. Man stellt fest, dass es einen bestimmten Wert f ür T gibt, bei dem kein solches Extremum mehr existiert. Woran liegt das? Man bestimme diesen kritischen p Wert für T numerisch und zeige, dass es sich um eine gute Näherung für die halbe Periode π m/κ handelt. Aufgabe 14.23 In Aufgabe 11.27 hatten wir festgestellt, dass sich die Bewegungsgleichungen nicht ändern, wenn wir zu einer Lagrange-Funktion L(q, q̇, t) die totale Zeitableitung irgendeiner Funktion Λ(q, t) addieren, also die alternative Lagrange-Funktion d Λ(q, t) (14.63) dt betrachten. Warum das so ist, können wir nun mit Hilfe des Wirkungsprinzips sehr leicht verstehen. Welcher Zusammenhang besteht nämlich zwischen den Wirkungsfunktionalen L0 (q, q̇, t) = L(q, q̇, t) + S[q] = Z t1 t2 L q(t), q̇(t), t dt 0 und S [q] = Z t1 t2 L0 q(t), q̇(t), t dt, (14.64) wenn q(t) eine Bahn mit festgelegten Anfangs- und Endpunkten q(t 1 ) = q1 und q(t2 ) = q2 ist? Warum führen beide auf dasselbe Variationsproblem? 130 replacements h(x) h(x) (c) (d) x2 x2 c(x) = 0 x1 (a) x1 (b) Abbildung 14.4: ... Variation mit Nebenbedingungen Nun wollen wir noch zeigen, dass das Wirkungsprinzip auch für Systeme mit holonomen Zwangsbedingungen gilt. Zur Vorbereitung betrachten wir ein Variationsproblem, bei dem eine bestimmte Funktion extremal werden soll, wobei die Argumente dieser Funktion jedoch gewissen Einschränkung unterliegen. Ein solches Problem bezeichnet man als Variationsproblem mit Nebenbedingungen. Gesucht sind zunächst die Extrema einer Funktion h(x) auf einem affinen Raum E. In der Abbildung 14.4(a) ist der Graf einer Funktion auf einem zweidimensionalen affinen Raum E als Fläche über einer Ebene aufgetragen. Als Koordinaten haben wir dort ein affines Koordinatensystem (x 1 , x2 ) verwendet. Die dargestellte Funktion besitzt genau ein Maximum an der Stelle, an der der Gradient ∇h(x) verschwindet. Nun verändern wir das gestellte Problem ein wenig. Wir lassen die Funktion h(x) unverändert, schränken die Suche nach den Extrema aber auf eine Teilmenge von E ein, die durch eine Gleichung c(x) = 0 beschrieben wird. Eine solche Gleichung bezeichnen wir als Nebenbedingung. In Abbildung 14.4(a) wird durch sie eine Kreislinie beschrieben. Gesucht sind jetzt diejenigen Punkte, an denen die Funktion h(x) innerhalb der Teilmenge extremal wird. Wie man in der Abbildung erkennt, ergibt sich in diesem Fall ein Minimum und ein Maximum. Es gibt zwei Möglichkeiten, dieses Problem zu lösen. Wenn es uns gelingt, die Gleichung c(x) = 0 zu lösen, indem wir auf der Lösungsmenge ein reduziertes Koordinatensystem {y α } einführen, so besteht das Problem nur noch darin, die Extrema der Funktion h(y) zu finden, wobei y ein Punkt auf der Lösungsmenge der Gleichung c(x) = 0 ist. Im allgemeinen ist diese Lösungsmenge eine glatte Mannigfaltigkeit M, die in E eingebettet ist, so dass es sich um ein Variationsproblem auf einer Mannigfaltigkeit handelt, wie wir es am Anfang dieses Kapitels beschreiben haben. Ist zum Beispiel h(x, y) = x + y und c(x, y) = x2 + y 2 − 1, (14.65) so können wir die Lösung der Nebenbedingung in der Form x = cos ϕ und y = sin ϕ darstellen. Gesucht sind dann die Extrema der Funktion h(ϕ) = cos ϕ + sin ϕ, die bei ϕ = π/4 ein Maximum und bei ϕ = 5π/4 ein Minimum annimmt. Eine alternative Methode lässt sich auch dann noch anwenden, wenn es nicht möglich oder sehr kompliziert ist, die Nebenbedingung aufzulösen. Wir betrachten dazu die erweiterte Funktion h̃(x, λ) = h(x) − λ c(x), 131 (14.66) wobei λ eine reelle Variable ist. Wir wollen zeigen, dass diese Funktion genau dort stationär ist, wo die Funktion h(x) auf der Teilmenge c(x) = 0 extremal ist. Wir berechnen dazu die Variation von h̃(x, λ). Es ist δ h̃(x, λ) = δx · ∇h(x) − λ δx · ∇c(x) − δλ c(x). (14.67) Damit diese Variation für alle δλ und alle δx verschwindet, muss c(x) = 0 sein, das heißt die Nebenbedingung muss erfüllt sein, und die Richtungsableitung von h(x) muss proportional zur Richtungsableitung von c(x) sein, δx · ∇h(x) = λ δx · ∇c(x). (14.68) Nun betrachten wir solche Variationen δx, die mit der Nebenbedingung verträglich sind, also Variationen des Punktes x innerhalb der Teilmenge, auf der das eigentlichen Extremalproblem gestellt ist. Da die Funktion c(x) auf dieser Teilmenge konstant ist, sind das genau diejenigen Variationen, für die δc(x) = δx · ∇c(x) = 0. Für solche Variationen verschwindet dann laut (14.68) auch δh(x). Mit anderen Worten, wenn die Gleichung (14.68) erfüllt ist, dann ist die Funktion h(x) stationär unter allen Variationen δx innerhalb der durch die Nebenbedingung definierten Teilmenge. Und das ist genau die notwendige Bedingung dafür, dass ein Extremum von h(x) innerhalb der Teilmenge vorliegt. Das Extremalproblem lässt sich also lösen, ohne dass wir die zuerst Nebenbedingung lösen müssen. Wir demonstrieren das an dem Beispiel von oben. Aus (14.65) ergibt sich h̃(x, y, λ) = x + y − λ (x2 + y 2 − 1), (14.69) δ h̃(x, y, λ) = δx (1 − 2 λ x) + δy (1 − 2 λ y) + δλ (x2 + y 2 − 1). (14.70) und daraus 2 2 Die erweiterte Funktion h̃(x, y, λ) ist somit √ genau dann stationär,√wenn x = y = 1/(2 λ) und x + y = 1 ist, was unmittelbar auf x = y = 1/ 2 oder x = y = −1/ 2 führt, in Übereinstimmung mit dem Ergebnis von oben. Obwohl das Beispiel sehr einfach ist, macht es deutlich, dass die Lösung des Variationsproblems mit Hilfe eines Lagrange-Multiplikators einfacher sein kann als die Zugangsweise, bei der man zuerst die Nebenbedingung auflöst. Hier mussten wir nämlich nur eine quadratische Gleichung lösen, während wir bei der zuerst angewandten Methode mit trigonometrischen Funktionen arbeiten mussten. Das Verfahren lässt sich leicht verallgemeinern. Liegen mehrere Nebenbedingungen c k (x) = 0 vor, wobei k wie üblich irgendeine Indexmenge durchläuft, so definieren wir eine erweiterte Funktion X h̃(x, {λk }) = h(x) − λk ck (x), (14.71) k und verlangen, dass die Variation dieser Funktion für alle Variationen δx und δλ k verschwindet. Die Lösungen dieses Variationsproblems entsprechen den Punkten x, an denen die Funktion h(x) innerhalb der durch die Nebenbedingungen ck (x) = 0 definierten Teilmenge stationär ist. Aufgabe 14.24 Eine Fläche im dreidimensionalen Euklidischen Raum werde in kartesischen Koordinaten (x, y, z) durch die Gleichung (b2 − a2 + x2 + y 2 + 2z 2 )2 = 4b2 (x2 + y 2 + z 2 ) definiert. Gesucht ist die minimale Entfernung dieser Fläche vom Koordinatenursprung. 132 (14.72) y y ds replacements dF x x (c) (d) (b) (a) Abbildung 14.5: Die von einer Kurve umschlossene Fläche ergibt sich durch Summation über infinitesimale Dreiecke oder Kreissegmente (a). Unter allen Kurven gleicher Länge umschließt ein Kreis die größte Fläche (b). Das Maximalflächenproblem Ein interessantes Variationsproblem mit Nebenbedingung, bei dem die zu maximierende Funktion ein Funktional ist, also von unendlichen vielen Variablen abhängt, ist das folgenden Maximalfl ächenproblem. Unter allen geschlossenen Kurven gleicher Länge in der Euklidischen Ebene ist diejenige Kurve gesucht, die die größte Fläche umschließt. Wenn (x, y) ein kartesisches Koordinatensystem ist, dann kann eine geschlossene Kurve durch die Koordinatenfunktionen x(s) und y(s) beschreiben werden, wobei s ein periodischer Kurvenparameter ist, so dass x(s + 2π) = x(s) und y(s + 2π) = y(s) gilt. Wir können dieselbe Kurve auch in Polarkoordinaten durch die Funktionen r(s) und ϕ(s) darstellen, wobei dann r(s + 2π) = r(s) und ϕ(s + 2π) = ϕ(s) + 2π z ist. Die ganze Zahl z ∈ Z gibt an, wie oft die Kurve den Ursprung gegen den Uhrzeigersinn umläuft. In Polarkoordinaten lässt sich die von der Kurve umschlossene Fläche besonders leicht berechnen. In Abbildung 14.5(a) ist ein infinitesimales Kurvenstück ds dargestellt. Von diesem Kurvenstück und dem Ursprung wird eine Fläche dF aufgespannt. Das Flächenstück kann näherungsweise als ein Kreissegment mit dem Radius r(s) und dem Winkel dϕ = ϕ0 (s) ds betrachtet werden. Folglich hat es den Flächeninhalt dF = 1 1 r(s) ϕ0 (s) ds = x(s) y 0 (s) − y(s) x0 (s) ds. 2 2 (14.73) Aufgabe 14.25 Man zeige, dass sich der angegebene Ausdruck in kartesischen Koordinaten ergibt, wenn man x = r cos ϕ und y = r sin ϕ einsetzt. Das Vorzeichen von dF ist positiv, wenn ϕ0 (s) positiv ist. Wenn die Kurve den Ursprung genau einmal gegen den Uhrzeigersinn umläuft, ergibt sich die Gesamtfläche als Summe aller dieser Flächenstücke. Sie ist folglich durch das Integral 1 F [x, y] = 2 Z 2π x(s) y 0 (s) − y(s) x0 (s) ds 0 133 (14.74) als Funktional der Funktionen x(s) und y(s) gegeben. Falls der Ursprung nicht von der Kurve umschlossen wird, oder ϕ 0 (s) nicht überall positiv ist, so kann man sich leicht überlegen, dass der Ausdruck (14.74) trotzdem den richtigen Flächeninhalt liefert. Teile der umschlossenen Fläche werden dann mehrfach überstrichen. Die Vorzeichen der Beiträge sind aber immer so eingerichtet, dass sich insgesamt genau einmal die Gesamtfläche ergibt. Die einzige Voraussetzung ist, dass sich die Kurve nicht selbst schneidet und gegen den Uhrzeigersinn umläuft. Aufgabe 14.26 Was liefert der Ausdruck (14.74), wenn die Kurve im Uhrzeigersinn uml äuft, und was ergibt sich als “Flächeninhalt”, wenn sich die Kurve überscheidet? Die Aufgabe besteht nun darin, das Maximum des Funktionals (14.74) zu finden. Allerdings dürfen wir die Funktionen x(s) und y(s) nicht beliebig wählen. Sonst könnten wir die umschlossene Fläche natürlich beliebig groß machen. Wir müssen die Suche auf solche Kurven einschränken, die eine bestimmte Länge haben. Der Einfachheit halber soll die Gesamtlänge der Kurve gleich 2π sein, also der Periode des Kurvenparameters s entsprechen. Das können wir wie folgt berücksichtigen. Da wir außerdem noch die Freiheit haben, die Kurve beliebig zu parametrisieren, wählen wir den Kurvenparameter s so, dass x0 (s)2 + y 0 (s)2 = 1 (14.75) ist. Dann ist s ein Maß für die Kurvenlänge, und da s ein Periode von 2π hat ergibt sich automatisch eine Gesamtlänge der Kurve von 2π. Aufgabe 14.27 Wodurch ist die Gleichung (14.75) zu ersetzen, wenn die Kurve eine Gesamtl änge ` haben soll? Damit haben wir ein Variationsproblem mit Nebenbedingungen formuliert. Gesucht ist das Maximum des Funktionals F [x, y] auf dem Raum aller periodischen Funktionen x(s) und y(s), wobei diese jedoch die Nebenbedingung (14.75) erfüllen müssen. Es handelt sich genau genommen um einen Satz von unendlich vielen Nebenbedingungen, denn die angegebene Gleichung muss f ür alle s gelten. Folglich benötigen wir auch unendlich viele Multiplikatoren, um diese Nebenbedingungen in einem erweiterten Funktional zu berücksichtigen. Für jedes s benötigen wir einen Multiplikator λ(s), den wir mit der entsprechenden Nebenbedingung (14.75) multiplizieren und zu F [x, y] addieren. Das ergibt 1 F̃ [x, y, λ] = 2 Z 2π Z 2π 0 0 x(s) y (s) − y(s) x (s) ds − λ(s) x0 (s)2 + y 0 (s)2 − 1 ds 0 (14.76) 0 Die Summe über alle Nebenbedingungen in (14.71) wird hier zu einem Integral, wobei die einzelnen Nebenbedingung durch einen kontinuierlichen Parameter s indiziert werden. Das erweiterte Funktional F̃ hängt also von drei Funktionen x(s), y(s) und λ(s) ab. Es lässt sich wie üblich als Integral über eine “Lagrange-Funktion” schreiben, Z 2π F̃ [x, y, λ] = L x(s), x0 (s), y(s), y 0(s), λ(s) ds, (14.77) L(x, x0 , y, y 0, λ) = x y 0 − y x0 − λ (x02 + y 02 − 1). (14.78) 0 mit Damit dieses Funktional stationär ist, müssen die Eulerschen Gleichungen für die Funktionen x(s), y(s) und λ(s) erfüllt sind. 134 Der einzige Unterschied zu den bisher diskutierten Variationsproblemen sind die leicht veränderten Randbedingungen an die Funktionen x(s), y(s) und λ(s). Es sind nicht die Werte dieser Funktionen an den Rändern eines Intervalls festgelegt, sondern es wird verlangt, dass die Funktionen periodisch sind, da s und s + 2π denselben Punkt auf der Kurve bezeichnen. Man kann sich aber leicht klar machen, dass dies keinen Unterschied macht. Aufgabe 14.28 Man berechne die Variation δ F̃ des Funktionals F̃ für beliebige Variationen δx(s), δy(s) und δλ(s). Diese müssen natürlich auch periodisch sein. Man zeige, dass dann alle beim partiellen Integrieren auftretenden Randterme wegfallen und die Variation des Funktionals genau dann verschwindet, wenn die Eulerschen Gleichungen für die Funktionen x, y und λ erfüllt sind. Die Eulersche Gleichung für λ ist ∂L/∂λ = 0, was unmittelbar auf die Nebenbedingung (14.75) führt. Die anderen beiden Eulerschen Gleichungen lauten ∂L d − ∂x ds d ∂L − ∂y ds ∂L d 0 − y − 2 λ x0 = 2 y 0 + 2 λ0 x0 + 2 λ x00 = 0, 0 = y − ∂x ds ∂L d 0 x − 2 λ x0 = −2 x0 + 2 λ0 y 0 + 2 λ y 00 = 0. 0 = −x − ∂y ds (14.79) Multiplizieren wir die erste Gleichung mit x0 /2 und die zweite mit y 0 /2 und bilden anschließend die Summe, so ergibt sich λ0 (x02 + y 02 ) + λ (x0 x00 + y 0 y 00 ) = 0 ⇒ λ0 = 0, (14.80) denn aus der Nebenbedingung (14.75) und ihrer Ableitung nach s folgt, dass die erste Klammer gleich Eins und die zweite Klammer gleich Null ist. Also ist λ(s) = λ0 eine Konstante, und die zu lösenden Gleichungen für x(s) und y(s) lauten y 0 = −λ0 x00 , x0 = λ0 y 00 . (14.81) y(s) = y0 + a0 sin(λ0 (s − s0 )), (14.82) Die allgemeine Lösung ist x(s) = x0 + a0 cos(λ0 (s − s0 )), wobei x0 , y0 , a0 und s0 vier weitere Integrationskonstanten sind. Ohne Beschränkung der Allgemeinheit können wir s0 = 0 setzen und a0 > 0 annehmen, was wir jederzeit durch eine Verschiebung des Kurvenparameters s 7→ s + s0 bzw. s 7→ s + π/λ0 erreichen können. Nun müssen wir aber noch zwei Bedingungen erfüllen. Erstens muss der Kurvenparameter s eine Periode von 2π haben. Das ist genau dann der Fall, wenn λ0 = ±1 ist. Zweitens muss die Nebenbedingung (14.75) erfüllt sein, was nur für λ0 a0 = ±1, also a0 = 1 der Fall ist. Die allgemeine Lösung der Variationsproblems lautet somit x(s) = x0 + cos(±s), y(s) = y0 + sin(±s), λ(s) = ±1. (14.83) Je nach dem Vorzeichen ist dies entweder ein gegen den Uhrzeigersinn oder im Uhrzeigersinn parametrisierter Kreis mit Radius 1 und Mittelpunkt bei (x0 , y0 ). Berechnet man mit (14.74) die Fläche, so findet man F = ±π. Wir haben also gezeigt, dass die von der Kurve umschlossene Fläche genau dann Extremal ist, wenn es sich um einen Kreis handelt. Die Fläche im Sinne von (14.74) ist mit F = π maximal, wenn der Kreis ein positive Orientierung hat, und mit F = −π minimal, wenn der Kreis negativ orientiert ist. Aufgabe 14.29 Man kann auch die umgekehrte Frage stellen. Welches ist, unter allen Fl ächen mit dem gleichen Inhalt, diejenige mit dem kleinsten Umfang? Wie sieht das zugeh örige Variationsproblem aus? Was ist die Lösung? 135 replacements (c) (d) (b) (a) Abbildung 14.6: Hängt man eine Kette in einem homogenen Gravitationsfeld an zwei Punkten auf, so nimmt sie einen Gleichgewichtszustand minimaler potenzieller Energie an, der durch eine charakteristische Kettenlinie beschrieben wird (a). Fixiert man die Enden eines biegsamen Stabes, so nimmt dieser ebenfalls einen Zustand minimaler Energie an (b). Die Krümmung des Stabes ist in der Mitte am größten und verschwindet an der Enden. Aufgabe 14.30 Das in Abbildung 14.6(a) dargestellte Extremalproblem l ässt sich im wesentlichen mit der gleichen Methode lösen. Man muss nur ein anderes Funktional F einsetzen. Eine Kette der L änge 2 ` mit einer konstanten Masse pro Länge wird an zwei gleich hohen Punkten im Abstand 2 a < 2 ` in einem homogenen Gravitationsfeld aufgehängt. In der stabilen Gleichgewichtslage ist die potenzielle Energie der Kette minimal. Die Kurve, die die Kette in dieser Lage beschreibt, heißt Kettenlinie. Man zeige, dass die Kettenlinie in der x-z-Ebene durch die Gleichung ω z = cosh(ω a) − cosh(ω x) mit sinh(ω a) = ω ` (14.84) beschrieben wird, wenn sich die Endpunkte bei x = ±a und z = 0 befinden. Die Konstante ω > 0 wird eindeutig durch die Parameter ` und a festgelegt. Aufgabe 14.31 Für die nächste Aufgabe benötigen wir den Begriff der Krümmung einer Kurve λ(s) in einem metrischen affinen Raum. Ist die Kurve so parametrisiert, dass s die Kurvenl änge misst, also |λ0 (s)| = 1, so ist die Krümmung K(s) an der Stelle s der Betrag der zweiten Ableitung K(s) = |λ 00 (s)|. Man zeige, dass die Krümmung einer Kreislinie der inverse Radius des Kreises ist. Wie lässt sich K(s) berechnen, wenn die Parameter s nicht die die Länge misst? Aufgabe 14.32 Ein etwas anspruchsvolleres Variationsproblem mit Nebenbedingung ist in Abbildung 14.6(b) dargestellt. Ein elastischer Stab der Länge 2 ` wird durch eine Kurve λ(s) mit |λ0 (s)| = 1 und −` ≤ s ≤ ` beschrieben. Die potenzielle Energie des Stabes ist eine Funktion seiner Kr ümmung, integriert über die Länge. Wir nehmen an, dass die Energie proportional zum Quadrat der Kr ümmung ist, also Z ` κ E[λ] = λ00 (s) · λ00 (s) ds, (14.85) 2 −` wobei κ eine Konstante ist. Fixiert man die Enden des Stabes im Abstand 2 a < 2 `, zum Beispiel an den Punkten λ(±`) = o ± a ex , so nimmt der Stab einen Zustand kleinster Energie an. Man zeige, dass dieser durch die Differenzialgleichung λ000 (s) = c − λ00 (s) · λ00 (s) + c · λ0 (s) λ0 (s) (14.86) 136 beschrieben wird, wobei c ein konstanter Vektor ist. Dies ist eine Differenzialgleichung dritter Ordnung, so dass wir drei Randbedingungen benötigen, um eine eindeutige Lösung zu bekommen, und eine zusätzliche Randbedingung, um die Konstante c zu bestimmen. Man zeige, dass sich neben den bereits gestellten Randbedingungen λ(±`) = o ± a ex aus der Forderung, dass die Energie stationär sein soll, die zusätzlichen Randbedingungen λ00 (±`) = 0 ergeben. Im Zustand kleinster Energie verschwindet die Kr ümmung an den Enden des Stabes. Aufgabe 14.33 Beim Geodätenproblem geht es darum, die k ürzeste Verbindung zwischen zwei Punkten auf einer vorgegebenen Fläche zu finden, die in einen metrischen Raum eingebettet ist. Man zeige, dass die kürzeste Verbindung zwischen zwei Punkten auf einer Kugeloberfl äche ein Großkreis ist, also ein Kurve, die sich als Schnittmenge der Kugeloberfläche mit einer Ebene durch ihren Mittelpunkt ergibt. Zwangsbedingungen Offenbar entsprechen die beiden Zugangsweisen zu einem Variationsproblem mit Nebenbedingungen gerade den zwei möglichen Beschreibungen eines mechanischen Systems mit holonomen Zwangsbedingungen, die wir im Kapitel 12 kennen gelernt haben. Wir können ein solches System durch eine erweiterte Lagrange-Funktion L̃ auf dem erweiterten Konfie beschreiben, die dann zusätzlich zum Ort q und der Geschwindigkeit q̇ von einem Satz gurationsraum Q von Lagrange-Multiplikatoren λk abhängt, X Le = L(q, q̇, t) − λk C k (q). (14.87) k Die Langrangeschen Gleichungen für die Multiplikatoren λk sorgen dann dafür, dass die Zwangsbedingungen C k = 0 zu jedem Zeitpunkt erfüllt sind, und die entsprechenden Gleichungen für die Koordinaten q µ bestimmen die eigentliche Bewegung sowie die Zwangskräfte. Explizit lauten die Bewegungsgleichungen d ∂ Le ∂ Le d ∂L ∂L X ∂C k − = − + λk µ = 0, dt ∂ q̇ µ ∂q µ dt ∂ q̇ µ ∂q µ ∂q k ∂ Le = C k = 0. ∂λk (14.88) Offenbar sind dies die Eulerschen Gleichungen, die zu dem aus L̃ gebildeten Wirkungsfunktional gehören, e {λk }] = S[q, t2 Z L(q, q̇, t) − t1 X k λk C k (q) dt (14.89) Die erweiterte Wirkung Se hängt von einer Bahn q(t) und den Multiplikator-Funktionen λk (t) ab, und das Wirkungsprinzip besagt in diesem Fall, dass das Funktional Se für die tatsächlich realisierte Bahn q(t) stationär ist. Als Randbedingungen müssen wir dazu wieder die Konfigurationen q(t 1 ) = q1 und q(t2 ) = q2 vorgeben. Wichtig ist an dieser Stelle, dass die Bahnen q(t), die wir in (14.89) einsetzen können, beliebige Bahnen im erweiterten Konfigurationsraum sind, also auch solche, die mit den Zwangsbedingungen nicht verträglich sind. Die physikalische realisierte Bahn ist jedoch immer mit ihnen verträglich, denn das Funktional ist nur dann stationär, wenn die Gleichungen (14.88) erfüllt sind. Eine andere Möglichkeit, sich die Bewegungsgleichungen zu verschaffen, besteht darin, erst die Zwangsbedingungen zu lösen, zu einem reduzierten Konfigurationsraum überzugehen, und dort dann nur noch die reduzierte Lagrange-Funktion L = L(q, q̇, t) (14.90) 137 zu betrachten, wobei q ∈ Q jetzt ein Ort im reduzierten Konfigurationsraum ist, und entsprechend q̇ ∈ T Q ein Geschwindigkeitsvektor im zugehörigen Tangentenraum. Nun lauten die Bewegungsgleichungen nur noch ∂L d ∂L = 0, (14.91) α − dt ∂ q̇ ∂q α wobei q α die reduzierten Koordinaten eines Punktes q ∈ Q und q̇ α die entsprechenden Geschwindigkeiten sind. Auch diese Bewegungsgleichungen können wir aus einem Wirkungsprinzip ableiten. Die entsprechende reduzierte Wirkung ist Z t2 (14.92) S[q] = L(q, q̇, t) dt. t1 Die Bahn q(t) ist jetzt eine Bahn, die ganz im reduzierten Konfigurationsraum Q liegt, die also zu jedem Zeitpunkt die Zwangsbedingungen erfüllt. Wir verstehen nun auch, warum die beiden Formulierungen der Bewegungsgleichungen äquivalent sind. Das Wirkungsprinzip ist nämlich in beiden Fällen dasselbe. Gesucht ist diejenige Bahn, die unter allen mit den Zwangsbedingungen verträglichen Bahnen die Wirkung extremal macht. Dieses Problem können wir auf zwei unterschiedliche Arten angehen, nämlich entweder indem wir die Zwangsbedingungen zuerst lösen und dann verlangen, dass die Wirkung stationär wird, oder indem wir die Methode der Lagrangeschen Multiplikatoren verwenden und das Wirkungsprinzip als Variationsproblem mit Nebenbedingungen formulieren. 138 15 Hamiltonsche Mechanik Wie bereits an anderer Stelle kurz erwähnt, stellt das Wirkungsprinzip so etwas wie das Bindeglied zwischen der klassischen Physik und der Quantenphysik her. Wenn man für ein bestimmtes mechanisches System ein Wirkungsprinzip angeben kann, dann lässt sich dasselbe System auch im Rahmen der Quantenmechanik konsistent beschreiben. Wie dieser Übergang von der klassischen zur Quantenmechanik aussieht, ist natürlich nicht Inhalt dieser Vorlesung. Man kann den Übergang jedoch bereits im Rahmen der klassischen Physik vorbereiten und ihn damit sowohl technisch als auch konzeptuell erleichtern. Wir formulieren dazu das Wirkungsprinzip aus dem letzten Kapitel ein wenig um, und gelangen so zur Hamiltonschen Formulierung der Bewegungsgleichungen für ein mechanisches System. Unabhängig von ihrer Bedeutung für die Quantenmechanik haben die Bewegungsgleichungen in dieser Form auch in der klassischen Mechanik einige sehr nützliche Eigenschaften. So können wir zum Beispiel die Zeitentwicklung eines Systems in einer geometrisch sehr anschaulichen Art und Weise darstellen. Darüber hinaus können wir einige Sätze über Erhaltungsgrößen beweisen, die das Auffinden von Lösungen erleichtern. Die Wirkung erster Ordnung Ein Extremalproblem, das von mehreren Variablen abhängt, kann man schrittweise lösen. Ist zum Beispiel das Minimum einer Funktion (x, y) 7→ h(x, y) gesucht, so können wir zuerst x als Konstante betrachten und das Minimum der Funktion y 7→ h(x, y) suchen. Nehmen wir an, diese Funktion hätte ein Minimum bei y = ymin (x), wobei der Wert von ymin im allgemeinen von x abhängen wird. Im zweiten Schritt betrachten wir dann die Funktion x 7→ h(x, ymin (x)). Wenn diese Funktion bei x = x0 ein Minimum hat, so liegt das gesuchte Minimum der Funktion (x, y) 7→ h(x, y) bei x = x0 und y = ymin (x0 ). Wir können auch umgekehrt vorgehen, also zuerst y als Konstante betrachten und die Funktion x 7→ h(x, y) minimieren. Nehmen wir wieder an, das Minimum dieser Funktion befinde sich bei x = x min (y). Dann müssen wir nur noch die Funktion y 7→ h(xmin (y), y) minimieren, um das gestellte Extremalproblem zu lösen. Wenn das Minimum dieser Funktion bei y = y0 liegt, so finden wir das Minimum der Funktion h(x, y) diesmal bei x = xmin (y0 ) und y = y0 . Da das Ergebnis in beiden Fällen dasselbe sein muss, gilt natürlich x0 = xmin (y0 ) bzw. y0 = ymin (x0 ). Ein typisches Beispiel für ein Extremalproblem dieser Art ist, die kürzeste Verbindung zwischen zwei Teilmengen eines metrischen Raumes zu finden. Ist x ein Punkt in der ersten Teilmenge, y ein Punkt in der zweiten Teilmenge, so ist der Abstand dieser Punkte eine Funktion d(x, y) der beiden Punkte. Man findet den minimalen Abstand der beiden Teilmengen, indem man zuerst für jeden Punkt x in der einen Teilmenge den nächsten Punkt y in der zweiten Teilmenge sucht, und anschließend denjenigen Punkt x auswählt, für den dieser minimale Abstand wiederum minimal wird. Eigentlich ist es aber nicht diese Lösungsstrategie für spezielle Extremalprobleme, die uns an dieser Stelle interessiert, sondern ein ganz anderer Aspekt, der sich aus diesen Überlegungen ergibt. Betrachten wir noch einmal die jeweils im zweiten Schritt auftretenden, zu minimierenden Funktionen x 7→ h(x, ymin (x)) bzw. y 7→ h(xmin (y), y). Beides sind Funktion, die von jeweils einer reellen Variablen abhängen. Es sind jedoch im allgemeinen völlig andere Funktionen, denen man unter Umständen gar nicht mehr ansieht, dass sie sich auf die dargestellte Art und Weise aus einer Funktion h(x, y) ableiten lassen. Trotzdem sind die beiden durch diese Funktionen definierten Extremalprobleme in einem gewissen Sinne äquivalent. Beide lösen dasselbe, ursprünglich gestellte Extremalproblem, das von zwei Variablen abhing. Nehmen wir nun an, der Ausgangspunkt sei gar nicht dieses Problem, sondern das Extremalproblem für die Funktion x 7→ h(x, ymin (x)). Dann können wir dieses Extremalproblem auf ein äquivalentes Problem 139 abbilden, nämlich auf das für die Funktion y 7→ h(xmin (y), y), indem wir gewissermaßen einen “Umweg” über das Extremalproblem für (x, y) 7→ h(x, y) machen. Unter Umständen kann dieser Umweg nützlich sein, etwa wenn das äquivalente Extremalproblem eine sehr viel einfachere Lösung besitzt. Auf dieser Idee beruht im wesentlichen die Hamiltonsche Formulierung der Bewegungsgleichungen eines mechanisches Systems, die wir im folgenden herleiten wollen. Man geht von dem bekannten Wirkungsprinzip aus, und ersetzt dieses durch ein anderes, äquivalentes Wirkungsprinzip, aus dem man schließlich eine neue, etwas einfachere Darstellung der Bewegungsgleichungen erhält. Es sei also ein mechanisches System gegeben mit einem Konfigurationsraum Q und einer LagrangeFunktion L(q, v, t), mit q ∈ Q und v ∈ T Q. Die Wirkung einer Bahn q(t) mit den Randbedingungen q(t1 ) = q1 und q(t2 ) = q2 ist dann S[q] = Z t2 t1 L q(t), q̇(t), t dt, (15.1) und das Wirkungsprinzip verlangt, dass dieses Funktional für die physikalische Bahn stationär wird. Da wir im folgenden zwischen der Geschwindigkeit als Argument der Lagrange-Funktion und der Geschwindigkeit als Ableitung einer Bahn nach der Zeit unterscheiden müssen, verwenden wir für das Argument der Lagrange-Funktion ein anderes Symbol. Wir schreiben also L(q, v, t), um deutlich zu machen, dass die Lagrange-Funktion von einem Punkt q ∈ Q im Konfigurationsraum und von einem Vektor v ∈ T Q im Tangentenraum abhängt. Zwischen diesen Argumenten besteht zunächst kein Zusammenhang. Erst, wenn wir die Lagrange-Funktion entlang einer Bahn q(t) auswerten, so wie dies in (15.1) geschieht, ist es sinnvoll, für q den Punkt q(t) und für v die Zeitableitung q̇(t) einzusetzen. Diesen Umstand haben wir bisher durch eine etwas verkürzte Notation verschleiert. Es sollte aber klar sein, dass es erst dann einen Sinn hat, von einer Geschwindigkeit als Zeitableitung des Ortes zu sprechen, wenn dieser eine Funktion der Zeit ist. Man kann nun dieses “Einsetzen” der Bahn in die Lagrange-Funktion und das anschließende Berechnen der Wirkung noch auf eine andere Art und Weise beschreiben. Wir betrachten dazu das erweiterte Wirkungsfunktional, das sich ergibt, wenn wir die Funktionen q(t) und v(t) als voneinander unabhängig betrachten. Wir verlangen also nicht, dass v(t) = q̇(t) ist. Wir bekommen dann ein Funktional, dass von zwei Funktionen abhängt, nämlich S[q, v] = Z t1 t2 L q(t), v(t), t dt. (15.2) Das Wirkungsprinzip besagt nun, dass die physikalisch realisierte Bahn dieses Funktional stationär macht, allerdings nicht um Raum aller Funktionen q(t) und v(t), sondern in einem Teilraum davon, nämlich in demjenigen Unterraum, der durch die Beziehung v(t) = q̇(t) bestimmt wird. Das ist eine an die Argumente des Funktionals gestellte Nebenbedingung, die wir mit Hilfe von Lagrange-Multiplikatoren berücksichtigen können. Die Gleichung v(t) = q̇(t) muss zu jedem Zeitpunkt erfüllt sein, und sie setzt sich als Vektorgleichung aus dim Q Komponenten v µ (t) = q̇ µ (t) zusammen. Wir brauchen deshalb für jeden Zeitpunkt t und für jeden Wert des Index µ einen Multiplikator. Wir bezeichnen diese Multiplikatoren mit pµ (t) und fassen die Komponenten zu einem dualen Vektor p(t) zusammen, der selbst wieder zu einer Funktion der Zeit wird. Dann lässt sich das Wirkungsprinzip wie folgt formulieren. Wir betrachten alle möglichen Bahnen q(t) von q(t1 ) = q1 nach q(t2 ) = q2 , sowie alle glatten Funktionen v(t) und p(t) für t1 ≤ t ≤ t2 , an die wir keine weiteren Randbedingungen stellen müssen. Als Funktional davon definieren wir die erweiterte 140 Wirkung S[q, v, p] = Z t2 t1 µ µ L q(t), v(t), t + pµ (t) q̇ (t) − v (t) dt. (15.3) Schließlich verlangen wir, dass die physikalische Bahn diejenige ist, für die dieses Funktional stationär wird, und zwar bei einer gleichzeitigen Variation aller Argumente, also der Funktionen q(t), v(t) und p(t). Obwohl es sich eigentlich aus der Konstruktion ergibt, wollen wir zeigen, dass aus diesem Wirkungsprinzip tatsächlich wieder auf die ursprünglichen Bewegungsgleichungen folgen. Wir variieren zuerst die Funktion p(t). Das ergibt unmittelbar δS[q, v, p] = Z t2 t1 δpµ (t) q̇ µ (t) − v µ (t) dt. (15.4) Die Wirkung ist genau dann bei einer beliebigen Variation δpµ (t) der Lagrange-Multiplikatoren pµ (t) stationär, wenn die Geschwindigkeiten v µ (t) die Zeitableitungen der Koordinatenfunktionen q µ (t) sind. Das ist natürlich nicht weiter überraschend, denn genau das hatten wir als Nebenbedingung gefordert, und dafür die Funktionen pµ (t) als Lagrange-Multiplikatoren eingeführt. Aus dem erweiterten Wirkungsprinzip folgt also v µ (t) = q̇ µ (t). (15.5) Als nächstes betrachten wir eine Variation der Funktion v(t). Für diese gilt δS[q, v, p] = Z t2 δv µ (t) t1 ∂L q(t), v(t), t − p (t) dt. µ ∂v µ (15.6) Dieser Ausdruck verschwindet genau dann für alle δv µ (t), wenn pµ (t) = ∂L µ q(t), v(t), t ∂v (15.7) ist. Wenn L, wie es üblicherweise für ein mechanisches System der Fall ist, durch T − V gegeben ist, und wenn nur die kinetische Energie T von der Geschwindigkeit abhängt, so stehen auf der rechten Seite dieser Gleichung die verallgemeinerten Impulse, die wir ursprünglich als Ableitungen der kinetischen Energie nach den Komponenten der Geschwindigkeit definiert hatten. Es liegt deshalb nahe, diese Definition noch weiter zu verallgemeinern, und die Größen p µ (t) auch dann als Impulse zu bezeichnen, wenn die Lagrange-Funktion nicht von der speziellen Form L = T − V ist. Wir ändern unsere Definition aus Kapitel 11 ab, indem wir den Impuls nicht mehr als Ableitung der kinetischen Energie nach der Geschwindigkeit definieren, sondern statt dessen von der Lagrange-Funktion ausgehen. Der Impuls eines mechanischen Systems ist die Ableitung der Lagrange-Funktion nach der Geschwindigkeit. Das erklärt auch, warum es sinnvoll war, die Multiplikatoren pµ (t) zu einem dualen Vektor p(t) zusammenzufassen. Da L ein Skalar ist und v µ die Komponenten eines Vektors sind, sind pµ = ∂L/∂v µ die Komponenten eines dualen Vektors. Der in (15.3) unter dem Integral gebildete Ausdruck ist das Produkt des dualen Vektors p(t) mit dem Vektor v(t) − q̇(t), also wieder ein Skalar. Die erweiterte Wirkung ist somit unabhängig davon, in welchem Koordinatensystem wir sie ausrechnen, wenn wir alle dort auftretenden Größen entsprechend transformieren. 141 Nun müssen wir noch zeigen, dass die erweiterte Wirkung auch tatsächlich die richtigen Bewegungsgleichungen liefert. Wir müssen dazu noch eine Variation der Bahn q(t) betrachten. Das ergibt δS[q, v, p] = Z t2 δq µ (t) t1 ∂L µ q(t), v(t), t + δ q̇ (t) p (t) dt. µ ∂q µ (15.8) Im Gegensatz zu den beiden vorherigen Variationen müssen wir hier eine partielle Integration durchführen, um die Zeitableitung von der Variation δ q̇ µ (t) zu entfernen. Es tritt also ein Randterm auf, h µ δS[q, v, p] = δq (t) pµ (t) i t2 t1 + Z t1 t2 ∂L δq (t) q(t), v(t), t − ṗµ (t) dt. ∂q µ µ (15.9) Der Randterm verschwindet jedoch, da wir an die Bahn q(t) die üblichen Randbedingungen stellen, also die Anfangs- und Endkonfiguration festgelegen. Daher verschwindet δq µ (t) bei t = t1 und t = t2 . Es bleibt schließlich die Gleichung ∂L (15.10) ṗµ (t) = µ q(t), v(t), t . ∂q Fassen wir das Ergebnis noch einmal wie folgt zusammen. Die erweiterte Wirkung (15.3) ist genau dann stationär, wenn die Funktionen q(t), v(t) und p(t) den Gleichungen v µ (t) = q̇ µ (t), pµ (t) = ∂L µ q(t), v(t), t , ∂v ṗµ (t) = ∂L µ q(t), v(t), t ∂q (15.11) genügen. Dass diese Gleichungen zu den ursprünglichen Bewegungsgleichungen äquivalent sind, sieht man nun sehr leicht. Man muss nur die Funktionen v(t) und p(t) eliminieren, indem man die ersten beiden Gleichungen in die dritte Gleichung einsetzt. Das führt unmittelbar auf die Euler-Lagrange-Gleichung ∂L d ∂L µ q(t), q̇(t), t − µ q(t), q̇(t), t = 0. dt ∂ q̇ ∂q (15.12) Aufgabe 15.1 Man wiederhole die einzelnen Schritte in diesem Kapitel f ür den speziellen Fall eines mechanisches Systems mit einem Freiheitsgrad mit L(q, v) = m v 2 /2 − V (q). Aufgabe 15.2 Bei der Herleitung der Bewegungsgleichungen aus der erweiterten Wirkung sind wir schrittweise vorgegangen, indem wir zuerst nur die Funktion p(t) variiert haben, dann nur die Funktion v(t), und schließlich nur die Funktion q(t). Das Wirkungsprinzip verlangt jedoch, dass die Wirkung unter einer gleichzeitigen Variation aller Argumente stationär ist. Genau genommen haben wir aber nur sehr spezielle Richtungsableitungen des Funktionals (15.3) berechnet und von diesen verlangt, dass sie Null sind. Warum führt dieses Vorgehen trotzdem zum richtigen Resultat? Die Hamilton-Funktion Was haben wir mit diesem nochmaligen Umschreiben der Bewegungsgleichungen nun eigentlich gewonnen? Sind die neuen Gleichungen (15.11) nicht viel komplizierter als die alten Euler-LagrangeGleichungen (15.12)? In einem gewissen Sinne schon, da sie von mehr Funktionen abhängen, aber in einem anderen Sinne sind sie auch einfacher. Sie bilden nämlich ein System von Differenzialgleichungen erster Ordnung. Es kommen nur noch die ersten Ableitungen der gesuchten Funktionen nach der Zeit vor, und die Gleichungen sind sogar nach diesen aufgelöst. 142 Die mittlere der drei Bewegungsgleichungen ist darüber hinaus noch nicht einmal eine echte Differenzialgleichung. Wir werden dies jetzt benutzen, um eine der beiden Hilfsfunktionen wieder zu eliminieren. Dazu benutzen wir die am Anfang beschriebene Methode. Ein Variationsproblem können wir schrittweise lösen. Wir betrachten zuerst nur eine Variation der Funktion v(t), während wir die Funktionen q(t) und p(t) festhalten. Wie wir gesehen haben, führt dies auf die Gleichung pµ (t) = ∂L µ q(t), v(t), t . ∂v (15.13) Sie stellt eine Beziehung zwischen den Größen p(t), v(t) und q(t) her, die zu jedem Zeitpunkt t gelten muss. Es treten dabei keine Zeitableitungen auf, so dass die Gleichung zu jedem Zeitpunkt unabhängig von den Gleichungen zu allen anderen Zeitpunkten ist. Wir nehmen nun an, dass diese Gleichung nach v(t) auflösbar ist. Mit anderen Worten, wir können v(t) als Funktion von q(t) und p(t) darstellen. Für typische mechanische Systeme, wie wir sie bisher kennen gelernt haben, ist dies immer der Fall. Die Geschwindigkeit ist immer eindeutig durch den Impuls bestimmt, wobei der Zusammenhang aber vom Ort abhängen kann, zum Beispiel wenn wir ein krummliniges Koordinatensystem benutzen oder Zwangsbedingungen vorliegen. Für Systeme mit zeitabhängigen Zwangsbedingungen kann der Zusammenhang auch zeitabhängig sein. Wenn diese Voraussetzung erfüllt ist, können wir die Geschwindigkeit v(t) immer so bestimmen, dass das Funktional S[q, v, p] bezüglich einer Variation von v(t) stationär ist. Es bleibt dann noch ein reduziertes Funktional S[q, p] = Z t2 t1 h i pµ (t) q̇ µ (t) − pµ (t) v µ (t) − L q(t), v(t), t = ( , ,t) dt, (15.14) das nur noch von den Funktionen q(t) und p(t) abhängt, und dessen Variation bezüglich dieser Funktionen für die physikalischen Bahnen verschwinden muss. In der eckigen Klammer müssen wir für v(t) die in (15.13) gefundene Lösung einsetzen, was durch die etwas verkürzte Notation v = v(q, p, t) angedeutet werden soll. Wir wollen uns diesen Ausdruck etwas genauer ansehen. Es handelt sich um eine Funktion, die nur von q(t), p(t) und t abhängt, nicht aber von den Ableitungen dieser Größen oder ihren Werten zu anderen Zeitpunkten. Das folgt aus der Tatsache, dass die Gleichung (15.13), die v(t) als Funktion von q(t) und p(t) bestimmt, zwar im allgemeinen von der Zeit t abhängen kann, aber keine Zeitableitungen enthält und alle drei Größen nur zu einem Zeitpunkt eingehen. Man nennt den Ausdruck in der eckigen Klammer die Hamilton-Funktion des mechanischen Systems. Eine sehr elegante Art und Weise, die Hamilton-Funktion darzustellen, ist HamiltonFunktion H(q, p, t) = Ext pµ v µ − L(q, v, t) , (15.15) wobei Ext für das Extremum im Raum aller Geschwindigkeiten v steht. Wie wir gleich sehen werden, handelt es sich typischerweise um ein Maximum, aber darauf kommt es nicht an. Tatsächlich liefert das Extremum des Ausdrucks (15.15) bis auf ein Vorzeichen genau die eckige Klammer in (15.14). Das Extremum liegt nämlich bei der Geschwindigkeit v, für die pµ = ∂L/∂v µ ist. Am besten machen wir uns dies an ein paar Beispielen klar. Zunächst betrachten wir ein Teilchen in einer Raumrichtung, das sich in einem Potenzial bewegt. Seine Lagrange-Funktion ist L(q, v) = m v 2 /2−V (q). Sie hängt nicht explizit von der Zeit ab, so dass auch die Hamilton-Funktion nicht zeitabhängig ist. Man findet p2 m 2 + V (q). (15.16) H(q, p) = Ext p v − v + V (q) = v 2 2m 143 Hier haben wir verwendet, dass der Ausdruck in der Klammer sein Extremum bei v = p/m annimmt und dies dann für v eingesetzt. Wie man leicht sieht, ist die Hamilton-Funktion in diesem Fall gerade die Gesamtenergie des Teilchens, ausgedrückt als Funktion von Ort und Impuls. Das gilt sogar ganz allgemein. Wenn nämlich L = T − V ist, und T eine quadratische Funktion der Geschwindigkeit ist, die wir durch eine symmetrische Massenmatrix darstellen können, während V nur vom Ort abhängt, so findet man 1 ∂L Mµν (q) v µ v ν − V (q) ⇒ pµ = µ = Mµν (q) v ν . (15.17) 2 ∂v Für mechanische Systeme ist die kinetische Energie immer positiv, also ist die Massenmatrix invertierbar. Wie bezeichnen die inverse Matrix mit M µν (q), und können dann die Geschwindigkeit als Funktion des Ortes und des Impulses darstellen, L(q, v) = M µν (q) Mνρ (q) = δ µρ ⇒ v µ = M µν (q) pν . (15.18) Nun können wir die Hamilton-Funktion berechnen. Es ist 1 1 H(q, p) = Ext pµ v µ − Mµν (q) v µ v µ + V (q) = M µν (q) pµ pν + V (q). (15.19) 2 2 Der erste Summand ist, wie man sich leicht überzeugt, wieder die kinetische Energie, jetzt allerdings dargestellt als Funktion des Ortes q und des Impulses p. Und der zweite Summand ist natürlich die potenzielle Energie. Der Übergang von der Lagrange-Funktion, die eine Funktion von Ort und Geschwindigkeit ist, zur Hamilton-Funktion als Funktion von Ort und Impuls, bewirkt in diesem Fall, dass sich das relative Vorzeichen von kinetischer und potenzieller Energie umkehrt. Allerdings gilt dieser Zusammenhang nur dann, wenn sich die Lagrange-Funktion in der Form L = T − V darstellen lässt, und T quadratisch von der Geschwindigkeit abhängt. Dann ist H = T + V, also die Gesamtenergie. Wenn die Lagrange-Funktion nicht von dieser speziellen Form ist, ist es trotzdem sinnvoll, die HamiltonFunktion mit der Energie des Systems zu identifizieren. In diesem Fall ist nämlich die Größe Energie noch gar nicht definiert. Die einzige Stelle, an der wir diesen Begriff bisher im Rahmen der Lagrangeschen Mechanik verwendet haben, war die Definition der Lagrange-Funktion als Differenz von kinetischer und potenzieller Energie. Wir nehmen uns daher die Freiheit, den Begriff Energie auf diese Weise zu verallgemeinern. Die Hamilton-Funktion repräsentiert die Gesamtenergie eines mechanischen Systems als Funktion von Ort und Impuls. Warum das sinnvoll ist, werden wir in den nächsten Abschnitten sehen. Unter bestimmten Voraussetzungen ist nämlich die Hamilton-Funktion eine Erhaltungsgröße, und zwar unabhängig davon, ob L = T − V und somit H = T + V ist oder nicht. Dies führt auf eine Verallgemeinerung des Energieerhaltungsatzes, wenn man den Begriff der Energie entsprechend verallgemeinert. Fassen wir an dieser Stelle noch einmal kurz zusammen, was wir bisher getan haben. Ausgehend von der Lagrange-Funktion und dem daraus abgeleiteten Wirkungsprinzip (15.1) sind wir zu einer alternativen, aber äquivalenten Formulierung übergegangen, bei dem die Wirkung durch (15.14) oder S[q, p] = t2 Z t1 µ pµ (t) q̇ (t) − H q(t), p(t), t dt (15.20) als Funktional der Funktionen q(t) und p(t) gegeben ist. Die Hamilton-Funktion H(q, p, t) ergibt sich dabei durch (15.15) aus der Lagrange-Funktion L(q, v, t). Jetzt müssen wir nur noch verlangen, dass diese Wirkung stationär wird, um die physikalischen Bahnen zu finden. 144 Aufgabe 15.3 Der Übergang von der Lagrange- zur Hamilton-Funktion wird in der Mathematik als Legendre-Transformation bezeichnet. Sie ist, ähnlich wie die Fourier-Transformation, eine Abbildung zwischen Funktionen, die von verschiedenen Argumenten abh ängen. Man zeige, dass die Umkehrung der Legendre-Transformation wieder eine solche Transformation ist. Man kann also aus der HamiltonFunktion H(q, p, t) wieder die Lagrange-Funktion L(q, v, t) bestimmen, indem man das Extremum (15.21) L(q, v, t) = Ext pµ v µ − H(q, p, t) bildet. Die Transformation L(q, v) ↔ H(q, p) ist in diesem Sinne symmetrisch. Man verifiziere dies explizit am Beispiel eines Teilchens im Potenzial in einer Raumdimension. Aufgabe 15.4 Wenn der Konfigurationsraum Q des mechanischen Systems eine glatte Mannigfaltigkeit ist, so hatten wir am Ende von Kapitel 13 gezeigt, dass die Lagrange-Funktion L eine reelle Funktion, also ein skalares Feld auf dem Tangentenbündel T(Q) ist. Auf welchem Raum ist in diesem Fall die Hamilton-Funktion H eine reelle Funktion? Warum ist sie unabhängig von dem in der Definition (15.15) verwendeten Koordinatensystem? Aufgabe 15.5 Bekanntlich ist die Lagrange-Funktion eines geladenen Teilchens im elektromagnetischen Feld durch den Ausdruck (11.77) gegeben, L(r, v) = 1 q m v · v + A(r, t) · v − q φ(r, t), 2 c (15.22) wobei A(r, t) das magnetische Vektorpotenzial und φ(r, t) das elektrische Potenzial sind. Wie sieht die Hamilton-Funktion aus? Welcher Zusammenhang besteht zwischen dem Impuls p und der Geschwindigkeit v? Bewegungsgleichungen und Phasenraum Nun kommen wir zurück zu den eigentlichen Bewegungsgleichungen des mechanischen Systems. Wie wir gerade gezeigt haben, ergeben sie sich aus dem Wirkungsprinzip (15.20), das heißt das dort definierte Funktional muss für physikalische Bahnen stationär sein. Als Randbedingungen geben wir wieder die Konfigurationen q(t1 ) = q1 am Anfang und q(t2 ) = q2 am Ende des Zeitintervalls vor. An die Impulse p(t1 ) und p( t2 ) müssen wir keine Einschränkungen machen. Die Bewegungsgleichungen, die sich daraus ergeben, haben eine sehr einfache Form. Variieren wir zuerst wieder die Funktion p(t), so finden wir δS[q, p] = Z t2 t1 ∂H δpµ (t) q̇ (t) − q(t), p(t), t dt. ∂pµ µ (15.23) Entsprechend ergibt eine Variation von q(t), nachdem wir die übliche partielle Integration durchgeführt haben, Z t2 ∂H (15.24) δS[q, p] = − δq µ (t) ṗµ (t) + µ q(t), p(t), t dt. ∂q t1 Damit die Wirkung stationär ist, müssen die folgenden Bewegungsgleichungen erfüllt sind. Hamiltonsche Bewegungsgleichungen q̇ µ = ∂H , ∂pµ 145 ṗµ = − ∂H . ∂q µ (15.25) Dies ist ein System von Differenzialgleichungen erster Ordnung, die bereits nach den Ableitungen der Funktionen q(t) und p(t) aufgelöst sind. Einfacher lassen sich die Bewegungsgleichungen für ein mechanisches System eigentlich nicht mehr darstellen. Viele typische Eigenschaften von mechanischen Systemen können wir aus diesen Hamiltonschen Bewegungsgleichungen sofort ablesen. So zum Beispiel die Eigenschaft, dass die Zeitentwicklung eines Systems eindeutig festgelegt ist, wenn wir zu irgendeinem Zeitpunkt t 0 sowohl den Ort q(t0 ) = q0 als auch den Impuls p(t0 ) = p0 kennen. In diesem Sinne ist der Zustandsraum des Systems, also die Menge aller Bewegungszustände, die das System annehmen kann und die die Zeitentwicklung eindeutig festlegen, nun der Raum aller Orte q und Impulse p. Man nennt diesen Raum den Phasenraum. Der Phasenraum P eines mechanischen Systems ist der Menge aller Bewegungszust ände, dargestellt durch den Ort q ∈ Q und den Impuls p ∈ T Q. Ist der Konfigurationsraum Q des System ein affiner Raum, so ist der Ort q ∈ Q ein Punkt in diesem Raum und der Impuls ein dualer Vektor p ∈ T∗ Q. Folglich ist der Phasenraum der Produktraum P = Q × T∗ Q. Dies ist wieder ein affiner Raum, wobei dim P = 2 dim Q ist. Der Phasenraum hat also für jeden Freiheitsgrad zwei Dimensionen. Wenn der Konfigurationsraum Q kein affiner Raum ist, sondern nur eine glatte Mannigfaltigkeit, so müssen wir zusätzlich beachten, dass der duale Vektor p ein Vektor am Bezugspunkt q ist, also im Kotangentenraum T ∗ Q. Der Phasenraum ist dann die Menge aller Paare (q, p) mit q ∈ Q und p ∈ T ∗ Q. Das ist das Kotangentenbündel P = T∗ (Q) des Konfigurationsraum, also der zu dem am Ende von Kapitel 13 eingeführten Tangentenbündel T(Q) duale Raum. Auf jeden Fall ist der Phasenraum ein 2 N -dimensionaler Raum, wenn das System N Freiheitsgrade besitzt. Zu jedem Koordinatensystem {q µ } auf Q gehört ein Satz von verallgemeinerten Impulsen {pµ }, die die Komponenten eines dualen Vektors bilden. Man bezeichnet die Größen {p µ } in der Hamiltonschen Mechanik auch als die den Koordinaten {q µ } zugeordneten kanonisch konjugierten Impulse. Gemeinsam bilden die Ortskoordinaten und die konjugierten Impulse ein kanonisches Koordinatensystem ({q µ }, {pµ }) auf dem Phasenraum P. Jeder Bewegungszustand wird auf diese Weise eindeutig durch eine Satz von 2 N reelle Zahlen festgelegt. Ein kanonisches Koordinatensystem auf dem Phasenraum P eines mechanischen Systems besteht aus den Ortskoordinaten {q µ } auf dem Konfigurationsraum Q und den konjugierten Impulsen {pµ }, die die Komponenten eines dualen Vektors bilden. Wenn wir zu einem anderen Koordinatensystem {q µ } auf dem Konfigurationsraum übergehen, so müssen wir auch die Impulskomponenten {pµ } und die Hamilton-Funktion entsprechend transformieren. Verwenden wir die Notation aus Kapitel 13 und bezeichnen das “alte” Koordinatensystem mit {q (m)µ } und das “neue” mit {q(n)ν }, so besteht zwischen den “alten” Impulsen {p(m)µ } und den “neuen” Impulsen {p(n)ν } der Zusammenhang ∂q(n)ν ∂q(m)µ p ⇔ p = p(n)ν . (15.26) p(n)ν = (m)µ (m)µ ∂q(n)ν ∂q(m)µ Es treten die üblichen Übergangsmatrizen bei der Transformation eines dualen Vektors auf. Für die Zeitableitung der Koordinaten entlang einer Bahn gilt natürlich wieder die Kettenregel, ∂q(n)ν ∂q(m)µ µ µ q̇(n)ν = q̇ ⇔ q̇ = q̇(n)ν . (15.27) (m) (m) ∂q(m)µ ∂q(n)ν Daraus folgt, dass die Wirkung (15.20) in jedem Koordinatensystem durch den gleichen Ausdruck dargestellt wird. Wir können sie auch ganz koordinatenfrei in der Form t2 Z p(t) · q̇(t) − H q(t), p(t), t dt (15.28) S[q, p] = t1 146 darstellen, um deutlich zu machen, dass der Integrand ein Skalar ist. Der Punkt bezeichnet wieder wie üblich das Produkt eines dualen Vektors mit einem Vektor. Aus dieser Überlegung folgt sofort, dass auch die Hamiltonschen Bewegungsgleichungen in jedem kanonischen Koordinatensystem die Form (15.25) annehmen. Denn sie ergeben sich aus der Forderung, dass die Wirkung (15.28) für die physikalische Bahn stationär sein muss. Und wenn diese Wirkung, wie gerade gezeigt, von der Wahl des Koordinatensystems unabhängig ist, dann sind es natürlich auch die Bewegungsgleichungen. Genau wie die Lagrangeschen oder d’Alembertschen Bewegungsgleichungen beschreiben auch die Hamiltonschen Bewegungsgleichungen die Dynamik des Systems in einer “geometrischen” Sprache, die vom Koordinatensystem unabhängig ist. Tatsächlich wird sich später herausstellen, dass wir sogar noch sehr viel allgemeinere Koordinatentransformationen zulassen können als die hier betrachteten, unter denen die Hamiltonschen Bewegungsgleichungen ihre Form beibehalten. In diesem Sinne ist die Hamiltonsche Formulierung der Bewegungsgleichen noch allgemeiner als die Lagrangesche Form. Außerdem sind die Hamiltonschen Bewegungsgleichungen in ihrer Struktur sehr viel einfacher als die Lagrangeschen Gleichungen. Es sind, wie wir bereits betont haben, Differenzialgleichungen erster Ordnung, die zudem schon nach den Ableitungen aufgelöst sind, während die Euler-Lagrange-Gleichungen Differenzialgleichungen zweiter Ordnung sind, in denen die Zeitableitungen zudem noch etwas verschachtelt sind. Es stellt sich daher die Frage, warum wir eigentlich nicht gleich diese Form der Bewegungsgleichungen verwendet haben, um mechanische Systeme im allgemeinen zu beschreiben. Die Antwort ist recht einfach. Es lassen sich nur ganz spezielle Systeme mit einer Hamilton-Funktion beschreiben. In der Herleitung haben wir zwei Annahmen gemacht, die nicht für alle mechanischen Systeme erfüllt sind. Zum einen sind wir davon ausgegangen, dass es überhaupt eine Lagrange-Funktion für das System gibt. Es dürfen also keine Reibungs- oder anderen Kräfte auftreten, die sich nicht aus einer Lagrange-Funktion ableiten lassen. Auch dürfen keine anholonomen Zwangsbedingungen vorliegen, die ja im wesentlichen auch Reibungskräfte sind. Der Konfigurationsraum Q kann der reduzierte Konfigurationsraum eines Systems mit holonomen Zwangsbedingungen sein, aber es dürfen keine weiteren Einschränkungen an die Bewegungsfreiheit vorliegen. Zum anderen geht ganz entscheidend in die Herleitung ein, dass sich die Gleichung (15.13) nach der Geschwindigkeit v als Funktion von q und p auflösen lässt. Oder äquivalent dazu, das Extremum in (15.15) muss existieren existiert und es muss eindeutig sein. Nur dann existiert überhaupt eine Hamilton-Funktion. Systeme, die diese Bedingung erfüllen, heißen Hamiltonsche oder kanonische mechanische Systeme. Im wesentlichen kann man sagen, dass alle mechanischen Systeme kanonisch sind, in denen keine Reibungskräfte und keine anholonomen Zwangsbedingungen auftreten. Die zweite Forderung bedeutet für typische mechanische Systeme keine Einschränkung, solange die kinetische Energie in der Geschwindigkeit quadratisch und positiv ist. Auf sie kann man im Prinzip sogar verzichten, was auf eine verallgemeinerte Version der Hamiltonschen Mechanik führt. Darauf werden wir allerdings nicht weiter eingehen. Wir gehen hier stets davon aus, dass der Konfigurationsraum Q der reduzierte Konfigurationsraum des Systems ist, also alle holonomen Zwangsbedingungen bereits eliminiert wurden, und die Geschwindigkeit eine eindeutige Funktion des Impulses ist. Aufgabe 15.6 Die Hamiltonschen Bewegungsgleichungen lassen sich auch ohne Umweg über das Variationsprinzip direkt aus den Lagrangeschen Bewegungsgleichungen herleiten. Man geht von den Gleichungen d ∂L ∂L =0 (15.29) µ − dt ∂ q̇ ∂q µ für die Koordinaten q µ (t) aus. Um dieses System von Differenzialgleichungen zweiter Ordnung in ein System erster Ordnung zu verwandeln, führt man die kanonischen Impulse als Hilfsfunktionen ein, indem 147 man pµ = ∂L ∂ q̇ µ (15.30) setzt. Die Hamilton-Funktion definiert man durch H(q, p, t) = pµ q̇ µ − L(q, q̇, t), (15.31) wobei man für q̇ µ auf der rechten Seite die Lösung von (15.30) einsetzt, so dass die Geschwindigkeit eine Funktion von Ort und Impuls wird. Man zeige, dass sich so auch die Hamiltonschen Bewegungsgleichungen (15.25) ergeben, und dass sie zu den Lagrangeschen Gleichungen äquivalent sind. Aufgabe 15.7 Für welche mechanischen Systeme aus den Abbildungen in Kapitel 12 existiert eine Hamilton-Funktion, für welche nicht? Man bestimme die Hamilton-Funktionen für diejenigen Systeme, die dies zulassen, leite daraus die Bewegungsgleichungen ab und zeige, dass sie zu den Lagrangeschen Bewegungsgleichungen äquivalent sind. Einfache Beispiele Wir beginnen mit dem einfachsten denkbaren mechanischen System, einem freien Teilchen im einer Raumdimension. Es sei q die Ortskoordinate, v die Geschwindigkeit und p der Impuls. Dann ist L(q, v) = m 2 v 2 ⇒ m p2 H(q, p) = Ext p v − v 2 = . v 2 2m (15.32) Daraus lassen sich unmittelbar die Hamiltonschen Bewegungsgleichungen ablesen. Sie lauten q̇ = p ∂H = , ∂p m ṗ = − ∂H = 0. ∂q (15.33) Also ist p(t) = p0 konstant und q(t) = q0 + p0 t/m beschreibt eine gleichförmige Bewegung. Wir sehen außerdem, dass H wieder die Energie des Teilchens ist, die in diesem Fall allein aus der kinetischen Energie besteht. Ein anderes, ebenfalls sehr einfaches Beispiel ist der harmonischer Oszillator. Er wird uns später noch eine Weile verfolgen, denn an ihm lassen sich sehr viele wichtige Eigenschaften der Hamiltonschen Mechanik einfach und klar darstellen. Die Lagrange-Funktion ist in diesem Fall L(q, v) = m 2 κ 2 v − q . 2 2 (15.34) Die es sich um eine Funktion der Form L = T − V handelt, und die kinetische Energie in der Geschwindigkeit quadratisch ist, ergibt sich die Hamilton-Funktion zu H = T + V. Allerdings müssen wir sie als Funktion von q und p darstellen, wobei p = ∂L/∂v = m v wieder der gewöhnliche Impuls ist. Es gilt daher m κ κ q2 p2 H(q, p) = Ext p v − v 2 + q 2 = + . (15.35) v 2 2 2m 2 Für die Hamiltonschen Bewegungsgleichungen ergibt sich q̇ = ∂H p = , ∂p m ṗ = − ∂H = −κ q. ∂q (15.36) Die zweite Gleichung ist nichts anderes als die Newtonsche Bewegungsgleichung, wonach die Zeitableitung des Impulses die Kraft ist, und diese wiederum als Ableitung des Potenzials gegeben ist. Und die 148 erste Gleichung ist eigentlich redundant, da sie nur noch einmal die bereits bekannte Beziehung zwischen Impuls und Geschwindigkeit herstellt. Wir sehen also, dass wir immer noch “dieselbe Mechanik” betreiben. Nur unsere Begriffe haben sich etwas verändert. Die Lösungen der Bewegungsgleichungen sind natürlich immer noch die gleichen. Die allgemeinen Lösungen von (15.36) lassen sich sofort angeben. Es gilt q(t) = a sin(ω t + ϕ), p(t) = m ω a cos(ω t + ϕ), (15.37) wobei a und ϕ Integrationskonstanten sind, die durch die Anfangsbedingung festgelegt werden, und ω 2 = κ/m die Eigenfrequenz des Oszillators ist. Um die Dynamik eines ebenen Pendels zu beschreiben, können wir ganz ähnlich vorgehen. Wir benutzen als Ortskoordinate q die Auslenkung des Pendels, also die Stecke, die das Pendel vom Ruhepunkt aus zurückgelegt hat. Da sich ein Pendel auf einem Kreis bewegt, ist dies eine periodische Koordinate. Bei einer Pendellänge ` gilt q ≡ q + 2π `. Der Konfigurationsraum ist die Mannigfaltigkeit Q = S 1 , also eine eindimensionale Sphäre. Wie sieht dann der Phasenraum aus? Da der Konfigurationsraum eindimensional ist, ist sein Kotangentenraum an jeder Stelle q ∈ Q ein eindimensionaler Vektorraum Tq∗ Q. Der Impuls wird folglich durch eine reelle Zahl p dargestellt. Der Phasenraum ist die Vereinigung aller dieser Vektorräume, also das Kotangentenbündel T∗ (S1 ). Wenn wir an jeden Punkt auf der Kreislinie einen eindimensionalen Vektorraum anheften, so bekommen wir einen Zylinder. Der Phasenraum eines Pendels ist folglich ein Zylinder. Die Ortskoordinate q ist periodisch, und der konjugierte Impuls p dient als zweite, nicht periodisch Koordinate. Um die Hamilton-Funktion zu bestimmen, gehen wir wieder von der Lagrange-Funktion aus. Die kinetische Energie ist weiterhin T = m v 2 /2, wobei v = q̇ die Zeitableitung der Auslenkung ist. Für die potenzielle Energie müssen wir V = −m g ` cos(q/`) setzen, wenn der Ruhepunkt bei q = 0 liegen soll. Dann ist L = T − V, und T ist in v quadratisch. Also gilt H = T + V. Um die kinetische Energie als Funktion des Impulses p darzustellen, benötigen wir nur noch die übliche Beziehung p = ∂L/∂v = m v. Wir bekommen dann die Hamilton-Funktion p2 p2 m g q2 − m g ` cos(q/`) ≈ + − m g. (15.38) 2m 2m 2` Bis auf eine Konstante, die sich auf die Bewegungsgleichungen nicht auswirkt, stimmt sie für kleine Auslenkungen näherungsweise mit der Hamilton-Funktion eines harmonischen Oszillators überein. Wir müssen nur für die Federkonstante κ = m g/` setzen, so dass sich für die Eigenfrequenz der bekannte Ausdruck ω 2 = κ/m = g/` ergibt. Die Bewegungsgleichungen lauten schließlich H(q, p) = q̇ = ∂H p = , ∂p m ṗ = − ∂H mgq = −m g sin(q/`) ≈ − . ∂q ` (15.39) Aufgabe 15.8 Wie sieht die Hamilton-Funktion für das Pendel aus, wenn man als Ortskoordinate statt der Auslenkung q den Auslenkwinkel ϑ = q/` verwendet? Was ist dann der konjugierte Impuls, und welche Bewegungsgleichungen ergeben sich? Koordinatentransformationen Als nächstes betrachten wir ein System mit zwei Freiheitsgraden, um zu zeigen, was bei einer Koordinatentransformation geschieht, und wie sich dabei die Hamiltonschen Bewegungsgleichungen transformieren. Das einfachste System mit zwei Freiheitsgraden ist ein Teilchen in einer Ebene. Es soll sich dort in einem zeitunabhängigen Potenzial bewegen, für das wir der Einfachheit halber wieder das eines harmonischen Oszillators einsetzen. Ist (x, y) ein kartesischen Koordinatensystem in der Ebene, so ist die LagrangeFunktion κ 2 m (v x )2 + (v y )2 − x + y 2 ). (15.40) L(x, y, v x , v y ) = 2 2 149 Der Zusammenhang zwischen den Geschwindigkeiten (vx , vy ) und den konjugierten Impulsen (px , py ) ist wieder der übliche, ∂L ∂L px = x = m v x , py = y = m v y . (15.41) ∂v ∂v Da die Lagrange-Funktion wieder von der Form L = T − V ist, und T eine quadratische Funktion der Geschwindigkeiten ist, gilt für die Hamilton-Funktion H = T + V, wobei wir die kinetische Energie als Funktion der Impulse schreiben müssen. Das ergibt py 2 κ x2 κ y 2 px 2 + + + . H(x, y, px , py ) = 2m 2m 2 2 (15.42) Die Hamiltonschen Bewegungsgleichungen lauten ẋ = px ∂H = , ∂px m ẏ = ∂H py = , ∂py m ṗx = − ∂H = −κ x, ∂x ṗy = − ∂H = −κ y. ∂y (15.43) Es handelt sich einfach um zwei voneinander unabhängige harmonische Oszillatoren mit der Eigenfrequenz ω 2 = κ/m. Dass die Bewegungen in die beiden Richtungen unabhängig ablaufen, ergibt sich auch daraus, dass die Lagrange-Funktion als Summe von zwei Funktionen dargestellt werden kann, wobei die eine nur von x und v x , die andere nur von y und v y abhängt. Offenbar gilt in diesem Fall dasselbe für die Hamilton-Funktion, die ebenfalls eine Summe von zwei Funktionen ist. Hier hängt der eine Summand nur von x und px ab,. der andere nur von y und py . Aufgabe 15.9 Man finde die allgemeine Lösung von (15.43). Welche spezielle Lösung ergibt sich für die Anfangsbedingungen x(0) = a, y(0) = 0, px (0) = 0, py (0) = b? Nun wollen wir dieselben Bewegungsgleichungen in einem anderen Koordinatensystem darstellen. Der Konfigurationsraum Q des Teilchens ist eine Euklidische Ebene. Wie führen dort ein Polarkoordinatensystem (r, ϕ) ein, so dass wie üblich x = r cos ϕ und y = r sin ϕ gilt. Es gibt dann mehrere Stellen in der gerade durchgeführten Herleitung, an der wir diese Koordinatentransformation einsetzen können. Wir können zum Beispiel ganz von vorne beginnen, und zuerst die Lagrange-Funktion umrechnen. Das ergibt L(r, ϕ, v r , v ϕ ) = κ m (v r )2 + r 2 (v ϕ )2 − r 2 , 2 2 (15.44) wobei (v r , v ϕ ) die Komponenten der Geschwindigkeit in Polarkoordinaten sind, also die radiale und die Winkelgeschwindigkeit. Diesen Ausdruck für die Lagrange-Funktion hatten wir schon mehrmals benutzt, so dass wir ihn hier nicht mehr herleiten müssen. Die konjugierten Impulse sind nun pr = ∂L = m vr , ∂v r pϕ = ∂L = m r2 v ϕ. ∂v ϕ (15.45) Der zur Koordinate r kanonisch konjugierte Impuls pr ist die Komponente des Impulses in radiale Richtung, und der zur Koordinate ϕ kanonisch konjugierte Impuls p ϕ ist der Drehimpuls, oder genauer dessen z-Komponente, wenn wir uns die Ebene im Raum eingebettet denken. Da weiterhin L = T − V ist, gilt für die Hamiltonfunktion auch hier H = T + V, also pϕ2 κ r2 pr2 + + . H(r, ϕ, pr , pϕ ) = 2 m 2 m r2 2 (15.46) Eine andere Möglichkeit, sich diese Hamilton-Funktion zu verschaffen, geht direkt von der Darstellung (15.42) aus. Der Phasenraum P des Teilchens ist ein vierdimensionaler Raum, auf dem durch (x, y, p x , py ) 150 ein kanonisches Koordinatensystem definiert wird. Nun führen wir eine Koordinatentransformation durch, indem wir x = r cos ϕ, y = r sin ϕ (15.47) setzen. Dann müssen wir auch die Impulse transformieren, und zwar wie die Komponenten eines dualen Vektors, ∂y ∂x px + py = cos ϕ px + sin ϕ py , pr = ∂r ∂r ∂y ∂x px + py = −r sin ϕ px + r cos ϕ py . (15.48) pϕ = ∂ϕ ∂ϕ Die neuen Koordinaten (r, ϕ, pr , pϕ ) bilden dann ebenfalls ein kanonisches Koordinatensystem auf P. Um die Hamilton-Funktion in diesen Koordinaten darzustellen, müssen wir nur die Beziehungen (15.47) und (15.48) in (15.42) einsetzen. Das Ergebnis ist natürlich wieder (15.46). Wir müssen also nur dieselbe Funktion H in den neuen Koordinaten darstellen. Die Bewegungsgleichungen können wir nun ebenso gut in diesem Koordinatensystem bestimmen. Es gilt ṙ = ∂H pr = , ∂pr m ϕ̇ = pϕ ∂H = , ∂pϕ m r2 ṗr = − pϕ2 ∂H = − κ r, ∂r m r3 ṗϕ = − ∂H = 0. ∂ϕ (15.49) In der Bewegungsgleichung für pr tritt nun ein effektives Potenzial auf, das wir auch schon aus anderen Herleitungen von Bewegungsgleichungen in Polarkoordinaten kennen. Man kann sich leicht davon überzeugen, dass diese Bewegungsgleichungen zu (15.43) äquivalent sind. Sie sind zwar nun miteinander gekoppelt. Wir sehen daher nicht mehr sofort, dass die es sich um zwei unabhängige Oszillatoren handelt. Aber wir können statt dessen aus der letzten Gleichung sofort ablesen, dass der Drehimpuls pϕ eine Erhaltungsgröße ist. Damit lässt sich auch dieses Gleichungssystem leicht auflösen. Aufgabe 15.10 Man finde die allgemeine Lösung von (15.49). Wie stellt sich die Anfangsbedingung aus Aufgabe 15.9 in Polarkoordinaten dar, und welche spezielle L ösung ergibt sich daraus? Aufgabe 15.11 Für ein N -Teilchen-System im dreidimensionalen Euklidischen Raum bezeichnen wir die Orte der Teilchen wie üblich mit rα , α ∈ {1, . . . , N }, und ihre Koordinaten mit rα,i , i ∈ {x, y, z}. Entsprechend sind vα bzw. vα,i die Geschwindigkeiten. Liegt eine paarweise, nur vom Abstand abh ängige Wechselwirkung der Teilchen vor, so hat die Lagrange-Funktion die Form 1X 1X mα vα2 − Vα,β (|rα − rβ |) L {rα }, {vα } = 2 α 2 (15.50) α6=β Die kanonischen Impulse werden mit pα , bzw. ihre Komponenten mit pα,i bezeichnet. Man bestimme die Beziehungen zwischen den Impulsen und den Geschwindigkeiten, die Hamilton-Funktion H({r α }, {pα }), und die daraus resultierenden Bewegungsgleichungen. Aufgabe 15.12 Ein Teilchen im dreidimensionalen Raum bewege sich in einem kugelsymmetrischen Potenzial V = V (r). Die Lagrange-Funktion in Kugelkoordinaten ist folglich L(r, ϑ, ϕ, v r , v ϑ , v ϕ ) = m (v r )2 + r 2 (v ϑ )2 + r 2 sin2 ϑ (v ϕ )2 − V (r). 2 Welche Hamilton-Funktion H(r, ϑ, ϕ, pr , pϑ , pϕ ) ergibt sich daraus? 151 (15.51) Zeitabhängige Systeme Um zu zeigen, dass die Hamiltonsche Methode auch dann noch funktioniert, wenn die Lagrange-Funktion, und damit auf die Hamilton-Funktion explizit zeitabhängig ist, betrachten wir als drittes Beispiel ein ebenes Pendel mit veränderlicher Länge. Es handelt sich um ein System mit holonomen, aber zeitabhängigen Zwangsbedingungen. Wir verwenden als reduzierte Koordinate eine Winkelkoordinate ϑ, so dass sich das Pendel in der x-z-Ebene an der Stelle x = ` sin ϑ und z = −` cos ϑ befindet, wobei die Pendellänge ` = `(t) als Funktion der Zeit vorgegeben ist. Die Lagrange-Funktion bestimmen wir wie üblich, indem wir die kinetische und potenzielle Energie berechnen. Das ergibt m m m 2 ẋ + ż 2 = `2 ϑ̇2 + `˙2 , T = 2 2 2 V = m g z = −m g ` cos ϕ. (15.52) Bezeichnen wir die Winkelgeschwindigkeit ϑ̇ mit ω, so ist L(ϑ, ω, t) = ˙ 2 m `(t)2 2 m `(t) ω + + m g `(t) cos ϑ. 2 2 (15.53) ˙ hängt die Lagrange-Funktion also explizit Über die vorgegebene Funktion `(t) und deren Ableitung `(t) von der Zeit ab. Um die Hamilton-Funktion zu finden, bestimmen wir erst den Zusammenhang zwischen der Winkelgeschwindigkeit ω und dem zugehörigen Impuls, von dem wir ja bereits wissen, dass es der Drehimpuls ist. Wir bezeichnen ihn daher mit l= ∂L = m `(t)2 ω. ∂ω (15.54) Der Zusammenhang zwischen ω und l ist ebenfalls explizit von der Zeit abhängig. Das ändert aber nichts an der Definition der Hamilton-Funktion die sich aus (15.15) ergibt. Es gilt ˙ 2 l2 m `(t) H(ϑ, l, t) = Ext l ω − L(ϑ, ω, t) = − − m g `(t) cos ϑ, ω 2 2 m `(t)2 (15.55) wobei wir das Extremum gefunden haben, indem wir für ω die Lösung der Gleichung (15.54) eingesetzt haben. ˙ explizit von der Zeit ab. Außerdem können Auch die Hamilton-Funktion hängt nun über `(t) und `(t) wir noch die folgende wichtige Feststellung machen. Sie ist nicht von der Form H = T + V, denn der ˙ 2 proportional ist, hat das falsche Vorzeichen. Das liegt daran, dass dieser Term in der Term, der zu `(t) Lagrange-Funktion (15.53) einen Anteil der kinetischen Energie repräsentiert, aber keine quadratische Funktion der Geschwindigkeit ω ist. In diesem Sinne ist H nicht die Größe, die wir üblicherweise als Gesamtenergie bezeichnen würden. Das steht ein wenig mit der Definition im Widerspruch, die wir weiter oben für die physikalische Interpretation von H gegebenen haben. Die Hamilton-Funktion liefert hier einen anderen Ausdruck für die Gesamtenergie des Systems als die Summe aus potenzieller und kinetischer Energie. Waren wir also zu voreilig, als wir die Hamilton-Funktion als eine Verallgemeinerung des Begriffes “Energie” definiert haben? Was ist hier die “richtige” Definition von Energie? Wir müssen uns entweder für die “physikalisch intuitive” Definition E = T + V entscheiden, oder für die “formale” Definition E = H. Im Grunde ist es aber völlig egal, welche Größe wir in diesem Fall Energie nennen. Wir können mit ihr nämlich gar nichts weiter anfangen. Da es sich um ein System mit zeitabhängigen Zwangsbedingungen handelt, leisten diese Arbeit am System, so dass die Energie, wie 152 auch immer definiert, keine Erhaltungsgröße ist. Wir können sie nicht wie sonst üblich zur Lösung der Bewegungsgleichungen verwenden. Aus diesem Grund können wir gut mit dem Umstand zurecht kommen, dass die Energie eines Systems, die sich aus der Hamilton-Funktion ergibt, nicht immer mit dem übereinstimmt, was wir uns intuitiv unter Energie vorstellen. Wichtiger als die Frage, welche Größe wir Energie nennen, ist die Frage nach Erhaltungsgrößen, die uns helfen, die Bewegungsgleichungen zu lösen. Damit werden wir uns gleich näher befassen und sehen, dass es stets die Hamilton-Funktion, also die formale Definition der Energie ist, die zu einer solchen Erhaltungsgröße führt. Unabhängig von der Frage nach der Bedeutung des Begriffes Energie können wir jedoch aus (15.38) die Bewegungsgleichungen ableiten. Da ϑ nun die Ortskoordinate und l der kanonisch konjugierte Impuls ist, bekommen wir ∂H l ∂H ϑ̇ = = l˙ = − = −m g `(t) sin ϑ. (15.56) 2, ∂l ∂ϑ m `(t) Der fragliche Term mit dem falschen Vorzeichen geht in die Bewegungsgleichungen gar nicht ein, da er weder von ϑ noch von l abhängt. Wie immer ergibt sich ein Satz von Differenzialgleichungen erster ˙ Ordnung, aufgelöst nach den Ableitungen ϑ̇(t) und l(t). Das einzig neue ist, dass nun die Koeffizienten dieser Gleichungen explizit von t abhängen, über die vorgegebene Funktion `(t). Aufgabe 15.13 Man löse die Bewegungsgleichungen (15.56) des Pendels für g = 0, also im schwerelosen Raum. Der Hamiltonsche Fluss Wir wollen uns nun die Hamiltonschen Bewegungsgleichungen (15.25) etwas genauer ansehen. Wie bereits erwähnt, wird durch die Vorgabe eines Anfangszustandes q(0) = q 0 und p(0) = p0 die Zeitentwicklung des Systems eindeutig festgelegt. Wir kennen also die Funktionen q(t) und p(t), sobald wir ihre Werte zu einem bestimmten Zeitpunkt, zum Beispiel t = 0, kennen. Eine Kurve (q(t), p(t)) im Phasenraum, die auf diese Weise bestimmt wird, nennt man eine Trajektorie. Eine Trajektorie im Phasenraum ist das Analogon zu einer Bahn q(t) im Konfigurationsraum. Beide beschreiben die zeitliche Entwicklung des Systems als parametrisierte Kurve. Während die Bahn jedoch zu jedem Zeitpunkt nur den Ort des Systems im Konfigurationsraum festlegt, können wir auf der Trajektorie im Phasenraum gleichzeitig den Ort und den Impuls ablesen. Eine Trajektorie ist eine Bahn (q(t), p(t)) im Phasenraum, die den Hamiltonschen Bewegungsgleichungen genügt. Für zwei sehr einfache mechanische Systeme sind in Abbildung 15.1 ein paar Trajektorien dargestellt. Die Abbildung (a) zeigt den Phasenraum eines harmonischen Oszillators, aufgespannt durch die kanonischen Koordinaten (q, p). Wir wählen als Anfangszustand einen Punkt auf der positiven p-Achse. Das System soll sich zum Zeitpunkt t = 0 am Ruhepunkt q0 = 0 befinden und einen Impuls p0 > 0 haben. Die zugehörige Lösung entnehmen wir aus (15.37), q(t) = a0 sin(ω t), p(t) = p0 cos(ω t), mit a0 = p0 . mω (15.57) Im Phasenraum ergibt sich eine Ellipse mit den Halbachsen p0 und a0 , wobei p0 der Anfangsimpuls und a0 die daraus resultierende Amplitude der Schwingung ist. Der Oszillator schlägt zuerst in die positive qRichtung aus, so dass die Ellipse im Uhrzeigersinn durchlaufen wird, wenn man die Darstellung so wie in der Abbildung wählt, also q nach rechts und p nach oben aufträgt. Für einige ausgewählte Werte von p 0 sind die entsprechenden Trajektorien, jeweils für ein bestimmtes Zeitintervall 0 ≤ t ≤ τ , in Abbildung 15.1(a) eingezeichnet. 153 p p replacements q q (a) (b) (c) (d) Abbildung 15.1: Der Hamiltonsche Fluss eines harmonischen Oszillators (a) und eines Pendels (b). Die Trajektorien des harmonischen Oszillators sind Ellipsen, die alle mit der gleichen Kreisfrequenz ω durchlaufen werden. Beim Pendel gibt es oszillierende und sich überschlagende Trajektorien. Die gestrichelten Linien sind die Niveaulinien der Hamilton-Funktion. Die Trajektorien im Phasenraum haben zwei wichtige Eigenschaften. Die erste beruht auf der Tatsache, dass die Hamilton-Funktion in diesem Fall nicht explizit von der Zeit abhängt. Damit hängen auch die Bewegungsgleichungen nicht explizit von der Zeit ab. Folglich ist mit t 7→ (q(t), p(t)) auch jede in der Zeit verschobene Kurve t 7→ (q(t − t0 ), q(t − t0 )) eine Trajektorie. Es spielt keine Rolle, zu welchem Zeitpunkt wir das System in den gegeben Anfangszustand versetzen. Es wird immer die gleiche Trajektorie durchlaufen, nur eben zu einer früheren oder späteren Zeit. Die zweite Eigenschaft ergibt sich aus der Tatsache, dass die Bewegungsgleichungen die Zeitentwicklung eindeutig festlegen. Daher geht durch jeden Punkt im Phasenraum genau eine Trajektorie. Die Trajektorien bilden eine Schar von Kurven, die den Phasenraum vollständig ausfüllen, sich dabei aber niemals schneiden. Denn durch den Schnittpunkt würden dann mehrere Trajektorien verlaufen. Beim harmonischen Oszillator können wir uns das recht einfach klar machen. Egal, welchen Anfangszustand wir vorgeben, das System kehrt immer nach einer Periode T = 2π/ω in diesen Zustand zurück. Die Trajektorien sind geschlossen Kurven, die alle die gleiche Periode T haben. Es sind Ellipsen, die den Ursprung, also den Ruhepunkt des Oszillators bei q = 0 und p = 0 im Uhrzeigersinn umlaufen. Es gibt nur eine spezielle, “entartete” Trajektorie, die nur aus einem Punkt besteht. Sie beschreibt den in der Gleichgewichtslage ruhenden Oszillator. Ein etwas anderes Bild ergibt sich, wenn wir statt eines harmonischen Oszillators ein ebenes Pendel betrachten. Wie wir bereits gezeigt haben, ist der Phasenraum in diesem Fall ein Zylinder. Die Pendellänge sei wieder `. Als kanonische Koordinaten verwenden wir die periodische Ortskoordinate q ≡ q + 2π `, also die Auslenkung, und den konjugierten Impuls p. Die Hamilton-Funktion nimmt dann die Form (15.38) an. In Abbildung 15.1(b) ist dieser Phasenraum grafisch dargestellt. Wir müssen uns die Abbildung zu einem Zylinder aufgerollt denken, so dass die gestrichelte Linie am rechten Rand bei q = π ` mit der am linken Rand bei q = −π ` identifiziert wird. Als Anfangszustand wählen wir wieder einen Punkt auf der positiven p-Achse. Natürlich gilt auch hier, dass von jedem Punkt genau eine Trajektorie ausgeht, die wir durch Lösen der Bewegungsgleichen (15.39) berechnen können. Wohin diese Trajektorie läuft, hängt nun jedoch vom Wert des Anfangsimpulses ab. Für kleine Impulse oszilliert das Pendel um die Ruhelage und verhält sich dabei näherungsweise wie der har154 monische Oszillator. In der Nähe des Koordinatenursprungs ergibt sich in den Abbildungen 15.1(a) und (b) ein sehr ähnliches Bild. Jede Trajektorie kehrt nach einer gewissen Zeit, die für kleine Auslenkungen der Eigenperiode T = 2π/ω entspricht, in den Ausgangszustand zurück. Für große Impulse überschlägt sich das Pendel. Es kehrt dann auch nach einer gewissen Zeit zum Anfangszustand zurück, jedoch wickelt sich die Trajektorie dabei um den Zylinder, statt den Koordinatenursprung zu umrunden. Als Grenzfall zwischen diesen beiden Klassen von Trajektorien gibt es die Kriechbahn, bei der das Pendel nach unendlicher langer Zeit den oberen, instabilen Gleichgewichtspunkt erreicht. Diese spezielle Lösung der Bewegungsgleichungen wurde bereits in Aufgabe 5.16 diskutiert. Schließlich gibt es noch zwei spezielle Trajektorien, die jeweils nur aus einem Punkt bestehen, nämlich die stabile Gleichgewichtslage bei q = 0 und p = 0, sowie die instabile Gleichgewichtslage bei q = ±π ` und p = 0. Wir werden nun dieses Verhalten von Trajektorien im Phasenraum etwas allgemeiner beschreiben. Der Einfachheit halber nehmen wir dazu an, dass die Hamilton-Funktion, so wie in den beiden gerade diskutierten Beispielen, nicht explizit von der Zeit abhängt. Dann können wir wie folgt eine Abbildung des Phasenraumes auf sich selbst definieren. Wir geben irgendeinen Anfangszustand (q 0 , p0 ) vor. Wir versetzen das System in diesen Zustand und warten eine Zeitspanne τ . Dann ist das System in einem Zustand (qτ , pτ ). Für jedes τ wird auf dieser Weise eine Abbildung χH (τ ) : P → P, (q0 , p0 ) 7→ (qτ , pτ ). (15.58) definiert. Man nennt diese Schar von Abbildung den Hamiltonschen Fluss. Er gibt für jedes τ ∈ R an, wie sich das System innerhalb einer Zeitspanne τ entwickelt. Jedem Anfangszustand wird ein Endzustand zugeordnet. Der Hamiltonsche Fluss ist für jedes τ ∈ R eine bijektive Abbildung des Phasenraumes auf sich selbst. Das ergibt sich aus der Tatsache, dass wir die Bewegungsgleichungen natürlich auch benutzen können, um die Trajektorie in die Vergangenheit fortzusetzen. Da die Bewegungsgleichungen nicht explizit von der Zeit abhängen sollen, gilt sogar ganz allgemein die Beziehung χH (τ1 ) ◦ χH (τ2 ) = χH (τ1 + τ2 ). (15.59) Wenn sich das System erst über eine Zeitspanne τ1 entwickelt und dann über eine Zeitspanne τ2 , dann ist das Ergebnis das gleiche als würde es sich gleich über eine Zeitspanne τ 1 + τ2 entwickeln. Setzen wir in (15.59) τ2 = 0, so ergibt sich χH (0) = id, was auch anschaulich klar ist. Wenn wir dem System gar keine Zeit geben, sich zu entwickeln, so ist der Endzustand gleich dem Anfangszustand. Setzen wir schließlich τ1 = τ und τ2 = −τ , so finden wir χH (τ )−1 = χH (−τ ). Die inverse Abbildung bekommen wir, indem wir das System in die jeweils umgekehrte Zeitrichtung entwickeln lassen. Eine Schar von bijektiven Abbildungen eines Raumes auch sich selbst, die durch eine reelle Zahl parametrisiert werden, und die zudem die Eigenschaft (15.59) haben, nennt man im allgemeinen einen Fluss. Dahinter steckt die anschauliche Vorstellung von einer strömenden Flüssigkeit. Verfolgt man die einzelnen Teilchen in einer strömenden Flüssigkeit über ein bestimmte Zeitspanne, so wird auch dadurch eine Abbildung des Raumes, in dem die Strömung stattfindet, auf sich selbst definiert. Wenn die Strömung station är ist, als zeitunabhängig, so gilt für diese Abbildungen die Gleichung (15.59). Wir können uns den Hamiltonschen Fluss im Phasenraum, also die Zeitentwicklung eines mechanischen Systems, in diesem Sinne wie die Strömung einer Flüssigkeit vorstellen. Die in Abbildung 15.1 gezeigten Trajektorien ergeben sich, wenn man einzelne Teilchen in dieser Flüssigkeit markiert und dann ihren Weg verfolgt. Die Zeitentwicklung eines mechanischen System wird durch einen Fluss im Phasenraum beschrieben. 155 Beim harmonischen Oszillator bildet der Fluss einen einzigen großen Wirbel um den Koordinatenursprung. Alles strömt gleichmäßig auf elliptischen Kurven. Wir können den Fluss sogar relativ leicht explizit angeben. Gibt man als Anfangszustand (q0 , p0 ) vor, so ist die eindeutige Lösung der Bewegungsgleichung q(t) = q0 cos(ω t) + p0 sin(ω t), mω p(t) = p0 cos(ω t) − m ω q0 sin(ω t). Die Abbildung (15.58) sieht also explizit wie folgt aus, p χH (τ ) : (q, p) 7→ q cos(ω τ ) + sin(ω τ ) , p cos(ω t) − m ω q sin(ω t) . mω (15.60) (15.61) Man kann sich leicht davon überzeugen, dass diese Schar von Abbildungen die Eigenschaft (15.59) hat. Beim Pendel sieht der Fluss ein wenig komplizierter aus und lässt sich nicht mehr in geschlossener Form angeben. Wir können aber weiterhin das Bild einer strömenden Flüssigkeit verwenden. Auf dem zylinderförmigen Phasenraum, der in Abbildung 15.1(b) dargestellt ist, verläuft die Strömung im oberen Bereich nach rechts um den Zylinder herum, und im unteren Bereich nach links um den Zylinder herum. Dies entspricht dem Pendel, das sich entweder rechts- oder linksrum überschlägt. In der Mitte um den Koordinatenursprung bildet sich ein Wirbel, in dem das Pendel um die Ruhelage oszilliert. Aufgabe 15.14 Wie sieht der Hamiltonsche Fluss für ein freies Teilchen im dreidimensionalen Raum aus? Aufgabe 15.15 Kann man den Hamiltonschen Fluss auch dann noch definieren, wenn die HamiltonFunktion explizit von der Zeit abhängt? Die Poisson-Klammer Wir werden von nun an stets die Annahme machen, dass die Hamilton-Funktion nicht explizit von der Zeit abhängt. Wir betrachten also nur solche mechanischen Systeme, die nicht “von außen” über zeitabhängige Zwangsbedingungen gesteuert werden. Über solche autonomen Systeme macht die Hamiltonsche Formulierung der Bewegungsgleichungen einige sehr interessante Aussagen. Zwar lassen sich viele dieser Aussagen verallgemeinern, so dass sie auch für Systeme mit zeitabhängiger Dynamik gelten. Dies führt aber nicht zu sehr viel tieferen Erkenntnissen. Eine der wichtigsten Eigenschaften der Hamiltonschen Mechanik ist, dass sie eine sehr elegante Antwort auf die Frage gibt, ob ein System Erhaltungsgrößen besitzt und welche Größen das gegebenenfalls sind. Unter einer Erhaltungsgröße verstehen wir dabei eine Funktion des Bewegungszustands, deren Wert sich zeitlich nicht ändert. Beispiele für solche Größen kennen wir bereits aus der Newtonschen Mechanik von Punktteilchen, etwa den Gesamtimpuls oder den Gesamtdrehimpuls eines N -Teilchen-System. Diese Größen sind zeitlich konstant, wenn die Wechselwirkungen zwischen Teilchen bestimmte Eigenschaften haben. Diesen Zusammenhang wollen wir nun systematisch untersuchen. In der Hamiltonschen Formulierung ist der Bewegungszustand ein Paar (q, p), also ein Punkt im Phasenraum P. Folglich wird eine Erhaltungsgröße durch eine Phasenraumfunktion A : P → R dargestellt, die jedem Bewegungszustand (q, p) eine reelle Zahl A(q, p) zuordnet. Als Beispiel für eine Phasenraumfunktion kennen wir bereits die Hamilton-Funktion H. Wenn sie nicht explizit von der Zeit abhängt, handelt es sich um eine Abbildung H : P → R. Wir kennen auch schon ihre physikalische Interpretation. Es ist die Gesamtenergie des Systems. Wir wollen uns nun ganz allgemein fragen, wie sich der Wert einer Phasenraumfunktion mit der Zeit ändert, wenn das System sich gemäß seinen Bewegungsgleichungen entwickelt. Dazu müssen wir den Wert der Funktion A entlang einer Trajektorie (q(t), p(t)) auswerten. Das ergibt eine Funktion A(t) = 156 A(q(t), p(t)). Sie beschreibt die zeitliche Entwicklung der Größe A aus der Sicht des Systems, das sich entlang der Trajektorie bewegt. Für die Ableitung dieser Größe nach der Zeit gilt Ȧ = ∂A ∂A dA = q̇ µ µ + ṗµ . dt ∂q ∂pµ (15.62) Wie üblich steht der Punkt bzw. d/dt für die totale Zeitableitung, also die Ableitung der Funktion t 7→ H(q(t), p(t)), während mit ∂/∂q µ bzw. ∂/∂pµ die partiellen Ableitungen nach den Phasenraumkoordinaten bezeichnet werden, die in diesem Fall selbst wieder Funktionen der Zeit sind. Nun setzen wir in (15.62) die Hamiltonschen Bewegungsgleichungen ein. Das ergibt dA ∂H ∂A ∂H ∂A = . µ − dt ∂pµ ∂q ∂q µ ∂pµ (15.63) Wenn man sich den Ausdruck auf der rechten Seite genauer anschaut, stellt man fest, dass es sich wieder um eine Phasenraumfunktion handelt. Sie wird in einer speziellen Art und Weise aus den partiellen Ableitungen von A und H gebildet. Während auf der linken Seite die Ableitung entlang einer Trajektorie steht, steht also auf der rechten Seite wieder eine Phasenraumfunktion. Das hat folgenden einfachen Grund. Wenn wir wissen, in welchem Bewegungszustand sich das System zu einem Zeitpunkt befindet, dann wissen wir auch, in welche Richtung es sich von dort aus im Phasenraum bewegen wird. Folglich wissen wir auch, wie sich eine gegebene Funktion A(q, p) zeitlich entwickeln wird, ohne die Trajektorie selbst kennen zu müssen. Wir können nun ein sehr einfaches Kriterium dafür angeben, wann eine Phasenraumfunktion eine Erhaltungsgröße ist, ohne dass wir uns dazu die Bewegungsgleichungen näher anschauen müssen. Eine Funktion A(q, p) ist genau dann eine Erhaltungsgröße, wenn ∂H ∂A ∂H ∂A =0 µ − ∂pµ ∂q ∂q µ ∂pµ (15.64) ist. Da solche Ausdrücke im folgenden öfters auftreten, ist es nützlich, dafür eine spezielle Schreibweise einzuführen. Es seien A, B : P → R zwei Phasenraumfunktionen. Dann ordnen wir ihnen eine dritte Phasenraumfunktion C : P → R zu, die wie folgt definiert ist PoissonKlammer C = {A, B} = ∂A ∂B ∂A ∂B µ − ∂pµ ∂q ∂q µ ∂pµ (15.65) Die Funktion C heißt Poisson-Klammer von A und B. Man bezeichnet sie üblicherweise mit einer geschweiften Klammer, in die man die beiden Funktionen A und B als Argumente einträgt. Die Poisson-Klammer ordnet jedem Paar von Phasenraumfunktionen A und B eine neue Phasenraumfunktion {A, B} zu. Mit Hilfe dieser Notation können wir für die Zeitentwicklung einer beliebigen Phasenraumfunktion ganz einfach als Ȧ = {H, A} (15.66) schreiben. Zu beachten ist hierbei nur, dass die Gleichung erst dann sinnvoll zu interpretieren ist, wenn wir sowohl die Phasenraumfunktion A links als auch Phasenraumfunktion {H, A} rechts entlang einer Trajektorie auswerten. Denn erst dann ist der Punkt, also die totale Zeitableitung, ein sinnvolle Operation. Nehmen wir nun an, die Phasenraumfunktion A sei eine Erhaltungsgröße. Dann gilt auf jeder Trajektorie Ȧ = 0. Folglich hat auf die Funktion auf der rechten Seite von (15.66) auf jeder Trajektorie den Wert Null. 157 Da durch jeden Punkt im Phasenraum genau eine Trajektorie geht, verschwindet also die Funktion {H, A} identisch. Umgekehrt, wenn die Phasenraumfunktion {H, A} identisch verschwindet, dann folgt aus (15.66), dass auf jeder Trajektorie Ȧ = 0 ist, also ist A eine Erhaltungsgröße. Wir haben damit den folgenden Satz bewiesen: Eine Phasenraumfunktion A ist genau dann eine Erhaltungsgröße, wenn {H, A} = 0 ist. Die Gleichung {H, A} = 0 ist ein System von partiellen Differenzialgleichungen für die Koordinatendarstellung A({q µ }, {pµ }) der Phasenraumfunktion A. Wir haben also die Suche nach Erhaltungsgrößen auf das Lösen dieser Differenzialgleichungen zurückgeführt. Allerdings wäre es sehr mühsam, dies für ein gegebenes System explizit durchzuführen, um alle möglichen Erhaltungsgrößen zu finden. Wir werden daher zunächst ein paar Sätze über die Poisson-Klammer beweisen, die diese Suche nach Erhaltungsgrößen erheblich vereinfachen. Aufgabe 15.16 Auch die Ortskoordinaten q µ und die konjugierten Impulse pµ sind reellwertige Phasenraumfunktionen. Man zeige, dass sich für sie die folgenden Poisson-Klammern ergeben, {q µ , q ν } = 0, {q µ , pν } = −δ µν , {pµ , q ν } = δµ ν , {pµ , pν } = 0. (15.67) Die Poisson-Klammern dieser speziellen Funktionen sind also sehr einfache Phasenraumfunktionen, nämlich konstante Funktionen mit dem Werten 0, 1 oder −1. Aufgabe 15.17 Wir fassen die Phasenraumkoordinaten q µ und pµ zu einem einzigen Satz von Koordinaten xm zusammen, wobei der Index m 2 N Werte annimmt, wenn das System N Freiheitsgrade hat. Man zeige, dass die Bewegungsgleichungen des Systems dann wie folgt geschrieben werden k önnen, ẋm = {H, xm }. (15.68) In dieser Form gelten die Bewegungsgleichungen auch dann noch, wenn x m beliebige krummlinige Koordinaten auf dem Phasenraum sind, also irgendwelche Funktionen von q µ und pµ , die einen Zustand eindeutig festlegen. Wie kann man das beweisen, ohne eine längere Rechnung durchführen zu müssen? Aufgabe 15.18 Es seien (x, y, z) die Ortskoordinaten eines Teilchens im dreidimensionalen Raum und (px , py , pz ) die kanonisch konjugierten Impulse. Auf dem sechsdimensionalen Phasenraum P, der durch die Koordinaten (x, y, z, px , py , pz ) aufgespannt wird, betrachten wird die Funktionen A = p x 2 + py 2 + z 2 , B = p y 2 + p z 2 + x2 , C = p z 2 + px 2 + y 2 . (15.69) Man berechne die Poisson-Klammern {A, B}, {B, C} und {C, A}. Aufgabe 15.19 Man beweise die folgende Kettenregel für Poisson-Klammern. Sind Ak (q, p), mit k ∈ {1, . . . , K}, irgendwelche differenzierbaren Phasenraumfunktion, und ist F (a 1 , . . . , aK ) eine Funktion mit K reellen Argumenten, so ist F (q, p) = F (A1 (q, p), . . . , Ak (q, p)) wieder eine Phasenraumfunktion. Für die Poisson-Klammer dieser Funktion mit einer anderen gilt {F (A1 , . . . , Ak ), B} = X ∂F {Ak , B}. ∂A k k (15.70) Dieser Regel ist völlig analog zur Kettenregel für partielle Ableitungen und gilt natürlich auch im zweiten Argument der Poisson-Klammer. 158 Die Poisson-Algebra Die Poisson-Klammer definiert ein Produkt auf dem Raum aller beliebig oft differenzierbaren Phasenraumfunktionen. Bezeichen wir diesen Raum wie in der Mathematik üblich mit C ∞ (P), so wird das Produkt durch die Abbildung {, } : C ∞ (P) × C ∞ (P) → C ∞ (P), (A, B) 7→ {A, B} (15.71) definiert. Die Bezeichnung “Produkt” ist deshalb gerechtfertigt, weil die Poisson-Klammer die üblichen Eigenschaften eines Produktes hat, nämlich linear in beiden Argumenten zu sein. Der Raum C ∞ (P) ist ein Vektorraum, das heißt wir können Phasenraumfunktionen addieren und mit reellen Zahlen multiplizieren. Es gilt dann für alle A, B, C ∈ C ∞ (P) und alle u ∈ R Linearität {A + B, C} = {A, C} + {B, C}, {u A, B} = u {A, B}. (15.72) Dasselbe gilt natürlich für das zweite Argument, was sich auch unmittelbar aus der folgenden Eigenschaft ergibt. Die Poisson-Klammer ist antisymmetrisch, das heißt für alle A, B ∈ C ∞ (P) gilt Antisymmetrie {A, B} = −{B, A}. (15.73) Diese beiden Eigenschaften der Poisson-Klammer lassen sich sehr leicht aus der Definition (15.65) ablesen. Die folgende Eigenschaft ist nicht sofort offensichtlich, lässt sich aber durch explizites Nachrechnen überprüfen. Für drei Phasenraumfunktionen A, B, C ∈ C ∞ (P) gilt die Jacobi-Identität JacobiIdentität {A, {B, C}} + {B, {C, A}} + {C, {A, B}} = 0. (15.74) Diese werden wir im folgenden einige Male benutzen, um Sätze über Erhaltungsgrößen zu beweisen. Ein Produkt mit diesen drei Eigenschaften nennt man Lie-Produkt, und ein Vektorraum, auf dem ein LieProdukt definiert ist, heißt Lie-Algebra. Der Vektorraum C ∞ (P) wird also durch die Poisson-Klammer zu einer Lie-Algebra. Nun gibt es auf diesem Raum aber noch ein zweites Produkt, nämlich das gewöhnliche, punktweise definierte Produkt von zwei Funktionen (A, B) 7→ A B. Setzen wir ein solches Produkt von zwei Funktionen in die Poisson-Klammer ein, so finden wir nach einer kurzen Rechnung, dass für je drei Funktionen A, B, C ∈ C ∞ (P) die Leibniz- oder Produktregel gilt, LeibnizRegel {A B, C} = {A, C} B + A {B, C}. (15.75) Das ist im wesentlichen die Produktregel für Ableitungen. Die Poisson-Klammer wirkt auf jedes ihrer Argumente wie ein Ableitungsoperator. Es gelten formal die gleichen Rechenregeln wie für das Ableiten von Funktionen. Auf dem Vektorraum C ∞ (P) sind folglich zwei Produkte definiert, die gewöhnliche, punktweise Multiplikation von zwei Funktionen, und die Poisson-Klammer. Sie sind im Sinne der Leibniz-Regel miteinander verträglich. Man kann das Bilden der Poisson-Klammer mit der gewöhnlichen Multiplikation in der Reihenfolge vertauschen, wenn man Leibniz-Regel beachtet. Ein Vektorraum, auf dem in dieser Art und Weise zwei Produkte definiert sind, heißt Poisson-Algebra. Der Funktionenraum C ∞ (P) aller beliebig oft differenzierbaren Phasenraumfunktionen ist eine Poisson-Algebra. 159 Aufgabe 15.20 Man beweise die Jacobi-Identität und die Leibniz-Regel durch Einsetzen der Definition der Poisson-Klammer und direktes Nachrechnen. Aufgabe 15.21 Wir kennen bereits ein ganz anderes Lie-Produkt, n ämlich das Kreuzprodukt auf einem dreidimensionalen metrischen Vektorraum. Man überzeuge sich davon, dass dadurch tatsächlich eine LieAlgebra definiert wird. Warum handelt es sich nicht um eine Poisson-Algebra? Aufgabe 15.22 Auf dem zweidimensionalen Phasenraum eines mechanischen Systems mit einen Freiheitsgrad seien die folgenden drei Funktionen definiert, A1 = p 2 + q 2 , A2 = 2 p q, A 3 = p2 − q 2 , (15.76) wobei (q, p) ein kanonisches Koordinatensystem ist. Man berechne die Poisson Klammern dieser Funktionen untereinander und verifiziere die Jacobi-Identität. Aufgabe 15.23 Für ein Teilchen im dreidimensionalen Euklidischen Raum seien ri die Ortskoordinaten und pi die konjugierten Impulse. Die Komponenten des Drehimpulses sind dann li = εijk rj pk . (15.77) Man berechne ihre Poisson-Klammern und zeige {li , lj } = −εijk lk . (15.78) Wenn das Teilchen in freies Teilchen ist, dann gilt H = pi pi /(2 m). Man zeige, dass der Drehimpuls dann eine Erhaltungsgröße ist. Aufgabe 15.24 Man beweise folgenden Satz. Sind A und B zwei Erhaltungsgr ößen eines mechanischen Systems, so ist auch C = {A, B} eine Erhaltungsgröße. Der Energieerhaltungsatz Was können wir nun mit der Poisson-Klammer und ihren Eigenschaften konkret anfangen? Wie bereits gezeigt, haben wir mit der Poisson-Klammer ein zumindest prinzipiell sehr einfaches Verfahren zur Hand, mit dem wir testen können, ob eine gegebene Phasenraumfunktion A eine Erhaltungsgröße ist oder nicht. Wir müssen nur die Poisson-Klammer {H, A} ausrechnen. Wenn sie identisch verschwindet, dann ist A eine Erhaltungsgröße, sonst nicht. Eine ganz spezielle Erhaltungsgröße können wir sofort angeben. Es ist die Hamilton-Funktion selbst. Wegen der Antisymmetrie gilt nämlich immer {H, H} = 0. Die einzige Voraussetzung, die wir bei der ganzen Überlegung gemacht haben, ist, dass das System autonom ist, seine Hamilton-Funktion also nicht explizit von der Zeit abhängt. Ist die Hamilton-Funktion eines mechanischen System nicht explizit zeitabhängig, so ist sie eine Erhaltungsgröße. Das ist der Energieerhaltungsatz in der Hamiltonschen Mechanik. Er ergibt sich aus einer bestimmten Symmetrie des betrachteten Systems, nämlich der Symmetrie unter einer Zeitverschiebung. Ein System ist symmetrisch unter Zeitverschiebung, wenn es unabhängig davon, wann wir einen bestimmten Anfangszustand herstellen, stets die gleiche Trajektorie durchläuft. Genau das wird durch die Zeitunabhängigkeit der Hamilton-Funktion zum Ausdruck gebracht. Wir hatten diese Tatsache bereits anhand der Beispiele in Abbildung 15.1 diskutiert. Wir betrachten nun die dort eingezeichneten Trajektorien noch einmal etwas genauer. Der Energieerhaltungsatz besagt, dass 160 der Wert der Funktion H auf jeder Trajektorie konstant ist. Also folgen die Trajektorien den Niveaulinien von H, die in der Abbildung als gestichelte Linien eingezeichnet sind. Für den harmonischen Oszillator sind dies Ellipsen, für das Pendel ergeben sich etwas komplizierte Linien. In beiden Fällen folgen die Trajektorien dem Verlauf dieser Linien. Für ein System mit nur einem Freiheitsgrad, dessen zweidimensionaler Phasenraum durch die kanonischen Koordinaten (q, p) aufgespannt wird, hat dies eine interessante Konsequenz. Wir können nämlich allein aus dem Verlauf der Niveaulinien von H bereits auf die möglichen Bewegungsformen des System schließen. Tatsächlich haben wir eine ganz ähnlich Diskussion bereits in Kapitel 7 im Rahmen der Newtonschen Mechanik durchgeführt, um die Bewegungen eines Systems mit nur einem Freiheitsgrad qualitativ zu beschreiben. Auch dort beruhte das Vorgehen auf dem Energieerhaltungsatz. Betrachten wir zum Beispiel den Phasenraum des Pendels in Abbildung 15.1(b), so erkennen wir, dass es im wesentlichen zwei Typen von Niveaulinien gibt, nämlich solche, die sich um den Zylinder wickeln, und solche, die der Ursprung umrunden. Folglich gibt es auch zwei Bewegungsformen des Pendels, nämlich das sich überschlagende und das oszillierende Pendel. Dazwischen liegt die Kriechbahn als Grenzfall. Sie entspricht der speziellen Niveaulinien, die die beiden Bereiche des Phasenraumes voneinander trennt. An den zwei Gleichgewichtslagen bei q = 0 und p = 0 unten, sowie bei q = ±π` und p = 0 oben, weisen die Niveaulinien jeweils eine Besonderheit auf. Am stabilen Gleichgewichtspunkt unten bilden sie kleine Kreise, oder genauer Ellipsen. Wie man sich leicht überzeugt, besitzt die Hamilton-Funktion des Pendels dort ein lokales Minimum. Es ist sogar das absolute Minimum. Insbesondere verschwindet dort auch der Gradient von H. Tatsächlich ist genau das das Kriterium für das Vorliegen eines Gleichgewichtspunktes im Phasenraum. Verschwindet nämlich der Gradient der Funktion H(q, p), so folgt daraus q̇ µ = ∂H = 0, ∂pµ ṗµ = − ∂H = 0. ∂q µ (15.79) Das System verbleibt also für immer in diesem Zustand, wenn man ihn als Anfangszustand wählt. Ob ein solcher Gleichgewichtszustand stabil oder instabil ist, können wir ebenfalls aus den Niveaulinien ablesen. Bilden die Niveaulinien in der Nähe des Gleichgewichstpunktes geschlossene Kurven, so ist das Gleichgewicht stabil. Denn dann würde ein kleine Störung dazu führen, dass das System in der Nähe des Gleichgewichts oszilliert. Das ist immer dann der Fall, wenn die Hamilton-Funktion am Gleichgewichtspunkt ein lokales Minimum oder Maximum hat. Laufen die Niveaulinien jedoch vom Gleichgewichtspunkt weg, so liegt ein Sattelpunkt des Hamilton-Funktion vor. In diesem Fall ist das Gleichgewicht instabil, da sich das System bei einer kleinen Störung auf einer solchen Niveaulinie weit vom Anfangspunkt entfernt. Für ein System mit nur einem Freiheitsgrad lassen sich auf diese Weise allein aus der Hamilton-Funktion und deren Niveaulinien bereits sehr viele Schlüsse über die Dynamik des Systems ziehen. Ausgangspunkt ist dabei der Energieerhaltungssatz und die geometrische Interpretation der Bewegung als Trajektorie im Phasenraum. Für Systeme mit mehreren Freiheitsgraden ist dies nicht mehr so einfach. Dann gilt zwar immer noch der Energieerhaltungsatz, aber die Hamilton-Funktion hat keine Niveaulinien mehr, sondern höherdimensionale Niveauflächen. Zwar bewegt sich das System dann immer noch auf einer solchen Niveaufläche, aber daraus allein können wir noch nicht auf den Verlauf der Trajektorie schließen. Das Ziel ist es deshalb, weitete Erhaltungsgrößen zu finden. Aufgabe 15.25 Man zeige, dass der Energieerhaltungssatz in der Lagrangeschen Mechanik wie folgt formuliert werden kann. Hängt die Lagrange-Funktion nicht explizit von der Zeit ab, so ist die Gr öße E = q̇ µ ∂L −L ∂ q̇ µ (15.80) eine Erhaltungsgröße. Ihr Wert auf einer physikalischen Bahn entspricht dem Wert der Hamilton-Funktion auf der entsprechenden Trajektorie. 161 Aufgabe 15.26 Es gibt noch eine andere Situation, in der wir aus einer gegebenen Hamiltonfunktion sofort auf eine Erhaltungsgröße schließen können. Das hatten wir sogar schon an der einer oder anderen Stelle verwendet. Nehmen wir an, die Funktion H hängt von einer bestimmten Ortskoordinate ϕ nicht ab. Das gilt zum Beispiel für die Hamilton-Funktion (15.46) des zweidimensionalen harmonischen Oszillators, dargestellt in Polarkoordinaten. Man zeige, dass dann der kanonisch konjugierte Impuls p ϕ eine Erhaltungsgröße ist. Man wende diesen Satz auf ein freies Teilchen im dreidimensionalen Raum an. Welche Erhaltungsgrößen findet man? 162 16 Symmetrien Das Ziel dieses Abschnittes ist es, eines der wichtigsten Theoreme der theoretischen Physik zu beweisen, das erstmals von Emmy Noether im Jahre 1905 formuliert wurde. Es stellt eine Beziehung her zwischen den Symmetrien eines Systems und seinen Erhaltungsgrößen. Ein sehr spezielles Beispiel für eine solche Beziehung kennen wir schon. Für ein Hamiltonsches mechanisches System, dessen Bewegungsgleichungen zeitunabhängig, also symmetrisch unter Zeitverschiebungen sind, ist die Energie eine Erhaltungsgröße. Es gibt verschiedene Versionen dieses Theorems in der klassischen Mechanik, die auf den verschiedenen Formulierungen der Bewegungsgleichungen beruhen. Im Hamiltonschen Formalismus lässt sich das Noether-Theorem besonders elegant auf eine geometrische Art und Weise aufschreiben und beweisen. Außerdem wird in es genau der gleichen Form später in der Quantenmechanik wieder auftauchen. Wir werden uns deshalb auf die Hamiltonsche Darstellung beschränken. Sie ist zugleich auch die allgemeinste, denn anders als die oft in Mechanik-Lehrbüchern dargestellt Lagrangesche Formulierung sind hier keine komplizierten Fallunterscheidungen nötig, um wirklich alle möglichen Symmetrien und damit alle Erhaltungsgrößen eines mechanischen Systems zu erfassen. Allerdings erfordert das ein wenig Vorarbeit. Wir benötigen ein paar zusätzliche Begriffe, insbesondere den eines Flusses, sowie die geometrische Darstellung der Poisson-Klammer durch eine symplektische Form als Tensorfeld. Beides werden wir in diesem Kapitel einführen. Nachdem wir diese Konzepte definiert und ihre Eigenschaften studiert haben, wird sich der Beweis der Noether-Theorems in wenigen Zeilen erledigen lassen. Auch das ist ein Vorteil der Hamiltonschen Formulierung. Nachdem man die mathematischen Strukturen eines Phasenraumes erst einmal verstanden hat, ist das Noether-Theorem eigentlich etwas völlig selbstverständliches. Dass sich dahinter eine tiefe mathematische Einsicht in die Struktur von mechanischen, und später ganz allgemeinen Hamiltonschen Systemen verbirgt, fällt gar nicht mehr auf. Allgemeine Phasenraumkoordinaten Im letzten Kapitel haben wir den Hamiltonschen Fluss als eine geometrische Beschreibung der Zeitentwicklung eines mechanischen System kennen gelernt. Außerdem haben wir die Poisson-Klammer eingeführt, die je zwei Phasenraumfunktionen eine dritte zurordnet. Auch diese Zuordnung kann man geometrisch verstehen. Damit, und mit dem Zusammenhang zwischen diesen beiden Strukturen, wollen wir uns nun näher befassen. Der erste Schritt zu einer geometrischen Darstellung der Poisson-Klammer ist die Einführung eines verallgemeinerten Koordinatensystems im Phasenraum P. Wir fassen dazu das Paar (q, p) ∈ P zu einem Punkt x ∈ P zusammen, wobei wir P als affinen Raum oder als glatte Mannigfaltigkeit auffassen, je nachdem, welches mechanische System wir gerade betrachten. Anschließend führen wir auf dem Raum P ein Koordinatensystem {x m } ein. Der Index m läuft über 2 N Werte, wenn N die Zahl der Freiheitsgrade, also die Dimension des Konfigurationsraumes ist. Das Koordinatensystem {xm } kann völlig beliebig sein. Beliebig heißt nicht nur krummlinig, sondern auch, dass wir in keiner Weise mehr zwischen “Orten” und “Impulsen” unterscheiden müssen. Entscheidend ist nur, dass jeder Satz von 2 N reellen Zahlen {xm } genau einen Zustand x ∈ P festlegt und umgekehrt. Jedenfalls soll dies im Rahmen der üblichen Einschränkungen gelten, die wir bei krummlinigen Koordinatensystemen, oder allgemeiner bei Karten auf einer Mannigfaltigkeit machen müssen. Wenn wir ein solches Koordinatensystem einführen, können wir die Hamilton-Funktion, genau wie jede andere Phasenraumfunktion, als Funktion der Koordinaten {x m } darstellen. Aber reicht das, um die Bewegungsgleichungen in diesen Koordinaten aufzustellen? Offenbar nicht, denn wie sollen wir diese Koordinaten in die Hamiltonschen Bewegungsgleichungen (15.25) einsetzen, wenn wir nicht wissen, wel- 163 che Koordinaten Orte und welche Impulse sind? Vielleicht hilft es, die folgende alternative Darstellung der Bewegungsgleichungen zu benutzen. Wir hatten gezeigt, dass wir die Zeitableitung jeder Phasenraumfunktion entlang einer Trajektorie durch die Poisson-Klammer (15.66) ausdrücken können, also Ȧ = {H, A}. (16.1) Die neuen Phasenraumkoordinaten sind Funktionen in diesem Sinne. Jede einzelne Koordinate x m ist eine reelle Funktion auf dem Phasenraum. Für die Zeitentwicklung der Koordinaten gelten also die Gleichungen ẋm = {H, xm }. (16.2) Dies ist tatsächlich ein vollständiger Satz von Bewegungsgleichungen. Wir geben als Anfangsbedingungen die Werte xm (0) = x0m vor, also den Anfangszustand x(0) = x0 , und können dann die Gleichungen (16.2) integrieren. Wir erhalten eine Trajektorie x(t), dargestellt durch die Koordinatenfunktionen x m (t). Allerdings gibt es ein kleines Problem. Wie berechnen wir die Poisson-Klammer eigentlich? Um die Definition (15.65) zu verwenden, benötigen wir auch wieder Orte und Impulse. Anscheinend wird durch die ursprünglich vorhandene Unterscheidung zwischen Orten q µ und Impulsen pµ eine mathematische Struktur auf dem Phasenraum P definiert, die wir nicht mehr sehen, wenn wir allgemeine Koordinaten x m verwenden. Ohne diese Struktur ist es offenbar nicht möglich, die Bewegungsgleichungen aufzustellen. Die Kenntnis der Hamilton-Funktion allein genügt nicht. Um herauszufinden, was für eine zusätzliche Struktur das ist, müssen wir noch einmal auf ein kanonischen Koordinatensystem zurückgreifen, also eines, das zwischen Orten q µ und Impulsen pµ unterscheidet. Zwischen den beiden Koordinatensystemen vermittelt dann eine Übergangsfunktion, das heißt wir können wahlweise die “neuen” Koordinaten xm als Funktionen der ”alten” Koordinaten q µ und pµ darstellen, oder umgekehrt die alten Koordinaten q µ und pµ als Funktionen der neuen Koordinaten xm . Entsprechend können wir eine Phasenraumfunktion A : P → R wahlweise als Funktion der neuen Koordinaten A(x) oder als Funktion der alten Koordinaten A(q, p) darstellen. Haben wir zwei solche Funktionen gegeben, können wir wie folgt ihre Poisson-Klammer berechnen, ∂A ∂B ∂A ∂xm ∂xn ∂A ∂B − = ∂pµ ∂q µ ∂q µ ∂pµ ∂xm ∂pµ ∂q µ ∂A ∂xm ∂xn ∂xm ∂xn ∂B = m − = ∂x ∂pµ ∂q µ ∂q µ ∂pµ ∂xn {A, B} = ∂B ∂A ∂xm ∂xn ∂B − ∂xn ∂xm ∂q µ ∂pµ ∂xn ∂A m n ∂B . m {x , x } ∂x ∂xn (16.3) Hier haben wir A und B zuerst als Funktionen von q und p betrachtet, die Definition der Poisson-Klammer eingesetzt, und anschließend, wie immer mit Hilfe der Kettenregel, die partiellen Ableitungen in das neue Koordinatensystem umgerechnet. Dazu haben wir A und B als Funktionen von x aufgefasst. Aus dem Ergebnis schließen wir, dass wir jede Poisson-Klammer von zwei Funktionen A(x) und B(x) ausrechnen können, sobald wir die Poisson-Klammern {xm , xn } der Koordinaten miteinander kennen. Dann können wir auch die Klammern (16.2) ausrechnen und die Bewegungsgleichungen aufstellen. Die fundamentalen Klammern {xm , xn } können wir uns allerdings nur verschaffen, indem wir auf ein kanonisches, also aus Orten und Impulsen bestehendes Koordinatensystem Bezug nehmen. Da das alles bis jetzt sehr abstrakt ist, wollen wir die wesentlichen Schritte an einem einfachen Beispiel noch einmal wiederholen. Der Phasenraum P sei der eines eindimensionalen harmonischen Oszillators. Das ist ein zweidimensionaler Raum, in dem ein Punkt, also ein Zustand durch ein Paar (q, p) dargestellt wird. Genauer gesagt, (q, p) ist ein kanonisches Koordinatensystem auf P, wobei q der Ort und p der konjugierte Impuls ist. Die Hamilton-Funktion soll wie üblich durch H(q, p) = m ω2 q2 p2 + 2m 2 164 (16.4) gegeben sein. Die Federkonstante κ = m ω 2 haben wir durch die Masse und die Eigenfrequenz ausgedrückt. Wir führen nun ein spezielles Polarkoordinatensystem (J, φ) auf P ein, wobei J die radiale Koordinate und φ die Winkelkoordinate mit der Periode 2π ist. Die Beziehung zu den kanonischen Koordinaten (q, p) lautet r q 2J q= (16.5) sin φ, p = 2 m ω J cos φ. ωm Die Definition weicht ein wenig von der sonst üblichen ab, insbesondere wegen der Wurzel und dem Auftreten der Parameter m und ω. Wir müssen diese Parameter aber schon aus Dimensionsgründen verwenden. Da q und p unterschiedliche physikalische Dimensionen haben, können wir nicht einfach p = R cos φ und q = R sin φ setzen, wobei R irgendeine radiale Koordinate ist. Aufgabe 16.1 Man zeige, dass q genau dann die Dimension L änge und p die Dimension Impuls hat, wenn J die Dimension Wirkung, also Energie mal Zeit oder Länge mal Impuls hat. Die Koordinate J hat also die Dimension Wirkung, und die Winkelvariable φ ist natürlich dimensionslos. Der Grund, warum man ein Polarkoordinatensystem im Phasenraum eines harmonischen Oszillators gerade so wählt, ergibt sich aus der folgenden sehr einfachen Darstellung der Hamilton-Funktion. Man findet nämlich H(J, φ) = ω J. (16.6) Da ω eine inverse Zeit ist, ergibt sich für H die Dimension Energie, wie es natürlich auch sein muss. Die radiale Koordinate J ist also im wesentlichen die Energie des Oszillators und hat damit auch eine physikalische Bedeutung, so wie bei einem Polarkoordinatensystem in den Euklidischen Ebene die radiale Koordinate der metrische Abstand vom Ursprung ist. Allein mit der Feststellung, dass die Hamilton-Funktion in dem neuen Koordinatensystem diese einfache Form annimmt, können wir allerdings noch recht wenig anfangen. Um die Bewegungsgleichungen aufzustellen, müssen wir auch die Poisson-Klammern der neuen Koordinaten kennen, und diese müssen wir uns aus der Koordinatentransformation (16.5) verschaffen. Da wir zwei Koordinaten haben, benötigen wir vier Klammern. Allerdings sind zwei davon wegen der Antisymmetrie gleich Null, und die anderen beiden sind bis aufs Vorzeichen gleich, {J, J} = 0, {φ, φ} = 0, {J, φ} = −{φ, J}. (16.7) Wir müssen also nur eine einzige Klammer wirklich ausrechnen. Aufgabe 16.2 Man löse die Koordinatentransformation (16.5) nach J und φ auf und zeige {J, φ} = ∂J ∂φ ∂J ∂φ − = 1. ∂p ∂q ∂q ∂p (16.8) Die Klammern der neuen Koordinaten (J, φ) untereinander sind also genauso einfach wie die für die alten Koordinaten (q, p). Die Bewegungsgleichungen sind sogar noch einfacher, J˙ = {H, J} = {ω J, J} = ω {J, J} = 0, φ̇ = {H, φ} = {ω J, φ} = ω {J, φ} = ω. (16.9) Die allgemeine Lösung ist J(t) = J0 , φ(t) = φ0 + ω t, 165 (16.10) p J φ replacements (c) (d) p (b) (a) Abbildung 16.1: Der Phasenraum eines harmonischen Oszillators, dargestellt in Orts- und Impulskoordinaten (a), sowie in einem speziell an die Dynamik angepassten Polarkoordinatensystem (b). Es ist jeweils dieselbe Trajektorie dargestellt, die in (b) den Koordinatenlinien J = konst folgt. mit zwei Integrationskonstanten J0 ≥ 0 und φ0 . Dass es sich dabei tatsächlich um die bekannten Schwingungen des harmonischen Oszillators handelt, sieht man am besten, wenn man sich die Situation anhand der Darstellung in Abbildung 16.1 anschaut. Das Polarkoordinatensystem (J, φ) im Phasenraum ist so gewählt, dass die Kurven mit konstantem J die Niveaulinien der Hamilton-Funktion sind. Also läuft der Zustand auf einer Trajektorie mit J = konst um den Koordinatenursprung herum. Die Umlaufperiode ist 2π/ω, also ist die “Winkelgeschwindigkeit” des Umlaufs gerade ω. Die Integrationskonstante J0 bestimmt die Energie und damit die Amplitude der Schwingung, und φ0 ist die Phase, die angibt, in welchem Zustand sich das System zur Zeit t = 0 befindet. Wir sehen also, dass sich die Bewegungsgleichungen in diesem Fall durch die Wahl eines bestimmten Koordinatensystems noch weiter vereinfachen lassen. Allerdings ist es jetzt nicht mehr sinnvoll, von Orts- und Impulskoordinaten zu sprechen. Die Koordinaten (J, φ) haben keine unmittelbar anschauliche physikalische Interpretation im Sinne von messbaren Größen. Sie beschreiben nicht des Ausschlag des Oszillators oder seine Geschwindigkeit oder dergleichen. Statt dessen sind die neuen Koordinaten an die Dynamik des Systems angepasst. Damit ist gemeint, dass eine der Koordinaten im wesentlichen die Hamilton-Funktion ist, und die Poisson-Klammer wieder die kanonische Form hat, also die Klammern der Koordinaten miteinander gleich Eins ist. Die Koordinaten J und φ verhalten sich wie eine Ortskoordinate und der konjugierte Impuls, jedenfalls wenn man von ihrer physikalischen Interpretation absieht und davon, dass es sich um ein krummliniges Koordinatensystem mit den üblichen Einschränkungen an die Wertebereiche der Koordinaten handelt. Lassen sich die Koordinaten xm eines ausgewählten Koordinatensystem genau wie zuvor die Orte q µ und die Impulse pµ zu Paaren ordnen, so dass ihre Poisson-Klammern die Form (15.67) haben, so nennt man das Koordinatensystem kanonisch. Für ein kanonisches Koordinatensystem gilt also {xm , xn } = −εmn , (16.11) wobei εmn eine antisymmetrische (2 N )×(2 N )-Matrix ist, deren Einträge Null oder Eins sind. Indem wir 166 die Koordinaten entsprechend anordnen, können wir sie immer auf die Form 0 ··· 0 1 ··· 0 .. .. . . .. .. . . . . . 0 ··· 0 0 ··· 1 mn ε = −1 · · · 0 0 · · · 0 . . .. .. . . ... ... . 0 · · · −1 0 · · · 0 (16.12) bringen. Oben rechts steht eine N ×N -Einheitsmatrix, und unten links die negative N ×N -Einheitsmatrix. Diese Matrix ergibt sich auch dann aus den Poisson-Klammern, wenn wir für die Koordinaten x µ die ursprünglichen Orte q µ und Impulse pµ einsetzen. Für einen zweidimensionalen Phasenraum ist εmn nichts anderes als das Levi-Civita-Symbol. Im Falle des harmonischen Oszillators sind sowohl das ursprüngliche Koordinatensystem (q, p) als auch das neue Koordinatensystem (J, φ) kanonisch. Damit das Vorzeichen der Klammern stimmt, müssen wir J als Impuls- und φ als Ortskoordinate auffassen, das heißt wir sollten eigentlich besser (φ, J) schreiben, wenn wir das Koordinatensystem kanonisch nennen wollen. Das ist aber wegen der fehlenden physikalischen Interpretation als Ort und Impuls eine willkürliche Festlegung. Würden wir φ durch −φ ersetzen, wäre J der Ort und φ der konjugierte Impuls. Der Begriff eines kanonischen Koordinatensystems ist also sehr viel allgemeiner als der, den wir im letzten Kapitel eingeführt haben. Entscheidend sind allein die Poisson-Klammern der Koordinaten, nicht deren physikalische Interpretation als Orte und Impulse. Darüber hinaus gibt es sogar einen Satz, den so genannten Gl ättungssatz, der besagt, dass es unter bestimmten Bedingungen immer ein kanonisches Koordinatensystem gibt, in dem eine der Koordinaten die Hamilton-Funktion ist. In diesem Koordinatensystem ist die Dynamik dann besonders einfach. Alle bis auf eine Koordinate, nämlich die, die zu der Hamilton-Funktion kanonisch konjugiert ist, sind konstant, und diese eine Koordinaten ist eine lineare Funktion der Zeit. Die Trajektorien sind also spezielle Koordinatenlinien, und in letzter Konsequenz bedeutet das, dass alle Phasenräume von mechanischen Systemen mit gleich vielen Freiheitsgraden im wesentlichen die gleiche Struktur haben. Der Beweise dieses Satzes erfordert allerdings Methoden aus der Theorie der differenzierbaren Mannigfaltigkeiten, die hier ein wenig zu weit führen würden. Oft hilft der Satz auch wenig, wenn es darum geht, die Bewegungsgleichungen eines gegebenen Systems zu lösen, denn um die Koordinaten zu konstruieren, muss man im wesentlichen genau das tun. Außerdem macht er nur eine lokale Aussage über ein krummliniges Koordinatensystem. Über das globale Verhalten von Trajektorien macht er keine Aussagen. Wir begnügen uns daher, was die Konstruktion von speziellen, an die Dynamik angepassten Koordinatensystem betrifft, mit dem Beispiel des harmonischen Oszillators. Aufgabe 16.3 Man betrachte denselben harmonischen Oszillator und f ühre eine lineare Koordinatentransformation von (q, p) nach (q̃, p̃) durch, mit q = a q̃ + b p̃, p = c q̃ + d p̃. (16.13) Man stelle die Hamiltonfunktion als Funktion von (q̃, p̃) dar, und berechne die Poisson-Klammer {p̃, q̃}. Welche Bedingung muss man an die Konstanten a, b, c, d stellen, damit {p̃, q̃} = 1 ist? Welche Bedingungen ergeben sich aus der Forderung, dass die transformierte Hamilton-Funktion wieder die Darstellung H(p̃, q̃) = p̃2 m̃ ω̃ 2 q 2 + 2 m̃ 2 (16.14) hat? Wenn beide Bedingungen erfüllt sind, dann sind die Bewegungsgleichungen für (q̃, p̃) mit denen für (q, p) identisch. Gibt es solche Koordinaten? 167 Aufgabe 16.4 Wenn man die Koordinaten auf dem Phasenraum beliebig w ählen kann, dann kann man statt der Impulse auch die Geschwindigkeiten der Teilchen als Koordinaten verwenden. Wir betrachten dazu ein einzelnes freies Teilchen im dreidimensionalen Raum. Seine Ortskoordinaten sind r i , mit i ∈ {x, y, z}, und die dazu konjugierten Impulse sind pi , so dass für die Hamilton-Funktion und die PoissonKlammern pi pi , {pi , rj } = δij (16.15) H= 2m gilt. Man ersetze die Impulse pi durch die Geschwindigkeiten vi als Phasenraumkoordinaten. Wie sieht dann die Hamilton-Funktion aus? Welche Poisson-Klammern ergeben sich f ür die Koordinaten untereinander? Welche Bewegungsgleichungen ergeben sich? Die symplektische Struktur Wir wollen nun etwas näher untersuchen, welche zusätzliche geometrische Struktur durch die PoissonKlammer auf dem Phasenraum definiert wird. Wir hatten bereits gezeigt, dass die Kenntnis der Klammern {xm , xn } der Koordinaten untereinander genügt, um alle anderen zu berechnen. In einem kanonischen Koordinatensystem sind diese Klammern gleich Null oder Eins. Nun betrachten wir jedoch ein beliebiges Koordinatensystem. Dann sind die Klammern {xm , xn } wieder irgendwelche Phasenraumfunktionen. Bei 2 N Koordinaten gibt es (2 N )2 von diesen Klammern. Wir fassen sie zu einer (2 N )×(2 N )matrixwertigen Funktion zusammen, die wir mit Ω mn = {xm , xn } (16.16) bezeichnen. Einige Eigenschaften dieser Matrix folgen unmittelbar aus den entsprechenden Eigenschaften der Poisson-Klammer. Sie ist zum Beispiel antisymmetrisch Ω mn = −Ω nm . (16.17) Zwei weitere nützliche Eigenschaften sind nicht sofort erkennbar. Wir werden sie aber gleich beweisen. Die Matrix Ω mn ist invertierbar. Es gibt eine inverse Matrix Ωmn mit Ω mn Ωnk = δ mk . (16.18) Die inverse Matrix ist dann natürlich ebenfalls antisymmetrisch, Ωmn = −Ωnm . (16.19) Schließlich hat die Ableitung der Matrix Ω mn nach den Koordinaten, oder genauer die der inverse Matrix Ωmn noch ein spezielle Eigenschaft. Die folgende zyklische Ableitung verschwindet, ∂m Ωnk + ∂k Ωmn + ∂n Ωkm = 0. (16.20) Bevor wir diese Eigenschaften allgemein beweisen, stellen wir zunächst fest, dass sie in einem kanonischen Koordinatensystem erfüllt sind. Dann ist nämlich Ω mn = −εmn , mit der Matrix aus (16.12). Diese Matrix ist offenbar invertierbar. Die inverse Matrix ist Ωmn = εmn , wobei εmn dieselbe Matrix ist, die in zwei Dimensionalen wieder mit dem entsprechenden Levi-Civita-Symbol übereinstimmt. Man sieht sofort, dass dann die Eigenschaften (16.17–16.20) vorliegen. In der letzten Gleichung verschwinden sogar alle drei Terme jeweils für sich. Nun ist aber nicht jedes Koordinatensystem kanonisch. Man kann aber zeigen, dass sich die Matrizen Ω mn und Ωmn beim Übergang von einem Koordinatensystem zu einem anderen wie Tensoren zweiter Stufe transformieren. Etwas genauer, Ω mn ist ein Tensor der Stufe (2, 0), und Ωmn ist ein Tensor der Stufe (0, 2). 168 Der Beweis ergibt sich unmittelbar aus den Eigenschaften der Poisson-Klammer. Weiter oben haben wir gezeigt, wie man die Poisson-Klammer zweier beliebiger Funktionen berechnet, wenn man die Klammern {xm , xn } der Koordinaten kennt. Die Gleichung (16.3) können wir jetzt wie folgt schreiben. Für zwei Funktionen A(x) und B(x) gilt {A, B} = Ω mn ∂A ∂B = Ω mn ∂m A ∂n B. ∂xm ∂xn (16.21) Es sei nun {xa } ein anderes Koordinatensystem, das wir von dem Koordinatensystem {x m } durch eine andere Indexmenge unterscheiden. Keines von beiden muss kanonisch sein. Dann können wir die Koordinaten xa als Funktionen der Koordinaten xm auffassen und ihre Poisson-Klammern berechnen. Das ergibt Ω ab a b = {x , x } = Ω mn ∂xa ∂xb ∂xm ∂xn (16.22) Das ist das Transformationsverhalten eines Tensors der Stufe (2, 0) beim Übergang von einem Koordinatensystem zum anderen. Wir haben also gezeigt, dass durch die Poisson-Klammern der Koordinaten miteinander ein Tensor Ω mn der Stufe (2, 0) definiert wird. Wie wir bereits in Kapitel 9 für eine Metrik gezeigt haben, folgt dann aus der Invertierbarkeit der Matrixdarstellung dieses Tensors seine Invertierbarkeit in jedem Koordinatensystem, wobei die inverse Matrix Ωmn wie ein Tensor der Stufe (0, 2) transformiert. Es bleibt jetzt nur noch zu zeigen, dass auch die Gleichung (16.20) in jedem Koordinatensystem gilt. Dazu muss man zeigen, dass die linke Seite wie ein Tensor der Stufe (0, 3) transformiert. Wir erinnern uns, dass die Ableitungen eines Tensors nach den Koordinaten in einem krummlinigen Koordinatensystem im allgemeinen keinen Tensor liefert. Die einzelnen Terme werden also im allgemeinen nicht verschwinden. Die zyklische Kombination der Ableitungen ist jedoch wieder ein Tensor. Also gilt die Gleichung (16.20) in jedem Koordinatensystem. Aufgabe 16.5 Es sei Amn ein antisymmetrisches Tensorfeld der Stufe (0, 2) auf einer Mannigfaltigkeit oder einem affinen Raum. Man zeige, dass dann Bkmn = ∂k Amn + ∂m Ank + ∂n Akm (16.23) ein Tensor der Stufe (0, 3) ist. Man verallgemeinere diese Aussage f ür einen total antisymmetrischen Tensor Am ··· n der Stufe (0, l) mit l ≥ 0. Welche bereits bekannten Aussagen ergeben sich f ür l = 0 und l = 1? Einen Tensor Ωmn mit den oben beschriebenen Eigenschaften nennt man symplektische Form, und den inversen Tensor Ω mn bezeichnet man als inverse symplektische Form. Einen Raum, auf dem ein solcher Tensor definiert ist, ist ein symplektischer Raum. Das ist das geometrische Äquivalent zu einer PoissonKlammer. Der Phasenraum eines mechanischen Systems ist ein symplektischer Raum. Eine symplektische Form ist so etwas wie eine “antisymmetrische Metrik”. Genau wie eine Metrik können wir die symplektische Form invertieren, und wir können mit ihr Vektoren auf dualen Vektoren abbilden und umgekehrt. Oder anders ausgedrückt, wir können mit Hilfe der symplektischen Form Indizes hoch und runter ziehen. Tatsächlich spielt genau diese Tensoroperation eine Rolle, wenn wir die Bewegungsgleichungen mit Hilfe der symplektischen Form formulieren. Die Hamiltonschen Bewegungsgleichungen (16.2) lassen sich jetzt nämlich wie folgt aufschreiben, ẋk = {H, xk } = Ω mn ∂H ∂xk = Ω mn ∂m H δ kn = Ω mk ∂m H. ∂xm ∂xn 169 (16.24) Die Zeitableitung des Zustandes ist ein Vektor mit den Komponenten ẋ k . Diesen bekommen wir, indem wir den Gradient der Hamilton-Funktion ∂m H bilden, und diesem dualen Vektor mit Hilfe der symplektischen Struktur Ω mn auf einen Vektor abbilden. In diesem Form gilt die Bewegungsgleichung in jedem beliebigen Koordinatensystem. Sie hat damit eine geometrische bekommen. Außerdem wird deutlich, dass es nicht aller ein Hamilton-Funktion ist, die die Dynamik des Systems bestimmt, sondern dass auch die symplektische Form als eine wesentliche Struktur des Phasenraumes in die Bewegungsgleichung eingeht. Erst beide Strukturen gemeinsam, also die Hamilton-Funktion und die symplektische Form, bestimmen die Dynamik des Systems eindeutig. Ansonsten gelten natürlich weiterhin die bereits früher gemachten Aussagen über Trajektorien, also über die Lösungen der Bewegungsgleichungen (16.24). Durch jeden Punkt x ∈ P geht genau eine Trajektorie, der Phasenraum wird vollständig von ihnen ausgefüllt, und sie können sich niemals schneiden. All das folgt aus der speziellen Form der Bewegungsgleichung (16.24), die die Zeitentwicklung x(t) festlegt, sobald der Anfangszustand x(0) = x0 gegeben ist. Aufgabe 16.6 Es sei eine Mannigfaltigkeit M gegeben, auf der eine symplektische Form definiert ist, also ein invertierbarer Tensor Ωmn mit den Eigenschaften (16.17–16.20). Durch (16.21) werde eine PoissonKlammer definiert. Man zeige, dass die sie Eigenschaften (15.72–15.75) hat. Die Definition einer symplektischen Form ist also zur Definition einer Poisson-Klammer äquivalent. Aufgabe 16.7 Warum kann eine symplektische Form nur auf einem Raum mit gerader Dimension existieren? Vektorfelder und Flüsse Die symplektische Struktur des Phasenraumes ist die Grundlage zur Beschreibung der Symmetrien eines mechanischen Systems. Darüber hinaus benötigen wir noch den Begriff eines Flusses eines Vektorfeldes. Da ist eine Verallgemeinerung des Hamiltonschen Flusses, den wir im vorigen Kapitel zur Beschreibung der Zeitentwicklung eines Systems benutzt haben. Wir betrachten zunächst irgendeinen affinen Raum oder eine Mannigfaltigkeit. Das spielt keine Rolle, da wir im folgenden keine Abstandsvektoren benutzen, sondern nur solche Operationen durchführen, die auch auf Mannigfaltigkeiten erlaubt sind. Den Raum bezeichnen wir mit M. Das einzige, was wir benötigen, ist ein Vektorfeld ξ auf M, also eine Zuordnung x ∈ M 7→ ξ(x) ∈ T M. Wenn dieses Vektorfeld hinreichend glatt ist, dann können wir die “Bewegungsgleichungen” λ̇(τ ) = ξ(λ(τ )) (16.25) aufstellen. Darin übernimmt τ ∈ R die Rolle der “Zeit”, der Punkt bezeichnet die Ableitung nach τ , und λ(τ ) ist eine parametrisierte Kurve, die wir “Trajektorie” nennen können. Formal ist die Situation genau dieselbe wie im Falle der Hamiltonschen Bewegungsgleichungen im Phasenraum. Wenn wir die Gleichung (16.25) in Koordinaten ausschreiben, also ein Koordinatensystem {x m } auf M einführen und das Vektorfeld in seine Komponenten ξ m (x) zerlegen, so bekommen wir ein System von gekoppelten Differenzialgleichungen erster Ordnung für die Koordinatenfunktionen λ m (τ ), λ̇m (τ ) = ξ m (λ(τ )). (16.26) Dieses Gleichungsystem hat eine eindeutige Lösung, sobald wir die Anfangsbedingung λ(0) = x festlegen. Analog zum Hamiltonschen Fluss definieren wir jetzt einen Fluss χ, der von dem Vektorfeld ξ erzeugt wird. Der Fluss ist eine Abbildung Fluss χ: M × R → M, (x, τ ) 170 7→ χ(x, τ ), (16.27) mit der Eigenschaft, dass bei festgehaltenem x die Funktion λ(τ ) = χ(x, τ ) eine Lösung der Bewegungsgleichung (16.25) ist, und zwar die zu der Anfangsbedingung λ(0) = x. Es gilt also χ̇(x, τ ) = ξ(χ(x, τ )), Flussgleichung I χ(x, 0) = x. (16.28) Das ist dasselbe wie (16.25), nur dass wie hier quasi die Anfangsbedingung als Argument der Funktion χ “mitschleppen”, so dass sich nicht nur eine Trajektorie τ 7→ λ(τ ), sondern eine ganze Schar von Trajektorien τ 7→ χ(x, τ ) ergibt, nämlich eine für jeden Punkt x ∈ M. Die Flussgleichung (16.25) können wir natürlich auch wieder in Komponenten zerlegen. In einem Koordinatensystem {xm } wird der Fluss durch die Koordinatenfunktionen χm (x, τ ) dargestellt. Für sie gilt χ̇m (x, τ ) = ξ m (χ(x, τ )), χm (x, 0) = xm . (16.29) Der Punkt bezeichnet hier wie im folgenden immer die Ableitung nach dem Flussparameter τ , den wir uns als eine Art verallgemeinerte Zeit vorstellen können. Eine wesentliche Eigenschaft jedes Flusses ist die Verkettungsregel Verkettungsregel χ(x, τ1 + τ2 ) = χ(χ(x, τ1 ), τ2 ). (16.30) Sie ergibt sich, wie man sich leicht überlegt, aus der Differenzialgleichung (16.28). Wir hatten uns das bereits für den Hamiltonschen Fluss überlegt. Wenn sich das System zuerst über eine Zeitspanne τ 1 von einem Zustand x in einen Zustand χ(x, τ1 ) entwickelt, und anschließend von diesem Zustand über eine Zeitspanne τ2 in den Zustand χ(χ(x, τ1 ), τ2 ), so ist das Ergebnis dasselbe wie das einer Zeitentwicklung von x über eine Zeitspanne von τ1 + τ2 , was den Endzustand χ(x, τ1 + τ2 ) ergibt. Aufgabe 16.8 Man beweise die Gleichung (16.30) formal mit Hilfe der Differenzialgleichung (16.28). Die Umkehrung dieses Satzes gilt auch. Man muss nur zusätzlich fordern, dass die Zuordnungen x 7→ χ(x, τ ) für jedes τ bijektiv sind. Wenn eine solche Schar von Abbildungen χ : M × R → M die Verkettungsregel (16.30) erfüllt, dann handelt es sich um einen Fluss, der von einem Vektorfeld erzeugt wird. Der Beweis ist ganz einfach. Wir leiten die Gleichung (16.30) nach τ 2 ab und setzen anschließend τ1 = τ und τ2 = 0. Das ergibt χ̇(x, τ ) = χ̇(χ(x, τ ), 0). (16.31) Nun definieren wir ein Vektorfeld ξ(x) = χ̇(x, 0). Dann gilt offenbar χ̇(x, τ ) = ξ(χ(x, τ )). (16.32) Außerdem folgt aus der Verkettungsregel, wenn man τ1 = 0 setzt, χ(x, 0) = x. Dafür braucht man die Bijektivität. Also ist χ der Fluss des Vektorfeldes ξ. Definieren wir einen Fluss allgemein als eine Schar von bijektiven Abbildungen χ : M × R → M, für die die Verkettungsregel erfüllt ist, dann gilt folgender Satz: Jedes Vektorfeld erzeugt einen Fluss, und jeder Fluss wird von einem Vektorfeld erzeugt. Das einfachste Beispiel für ein Vektorfeld ist ein konstantes Vektorfeld in einem affinen Raum. Sei also E ein affiner Raum und ξ(x) = v ein konstantes Vektorfeld. Dann lautet die Flussgleichung χ̇(x, τ ) = v, χ(x, 0) = x, (16.33) die offenbar den Fluss χ(x, τ ) = x + τ v 171 (16.34) v v v replacements u u u (d) (b) (a) (c) Abbildung 16.2: Das Vektorfeld (a) erzeugt eine Verschiebung, das Vektorfeld (b) eine Drehung, und das Vektorfeld (c) eine hyperbolische Verzerrung. als eindeutige Lösung hat. Der zu einem konstanten Vektorfeld gehörende Fluss ist eine Verschiebung. Eine solche kann es natürlich nur auf einem affinen Raum geben. Auf einer glatten Mannigfaltigkeit gibt es im allgemeinen keine konstanten Vektorfelder und auch keine Verschiebungen. Weniger trivial ist das folgende Beispiel. Wir betrachten den dreidimensionalen Euklidischen Raum. Es sei ein Koordinatenursprung o gegeben, und ein Einheitsvektor n. Dann definieren wir ein Vektorfeld ξ(r) = n × (r − o). (16.35) Der Fluss dieses Vektorfeldes ist eine Drehung des Raumes um die durch n aufgespannte Achse. Das kann man sich leicht klar machen. Am Ort r zeigt das Vektorfeld ξ(r) in eine Richtung senkrecht zu n und zum Ortsvektor r − o, und zwar so, dass es mit diesen ein Rechtssystem bildet. Es verschwindet, wenn r auf der durch n aufgespannten Achse liegt, und steigt linear mit dem Abstand von dieser Achse an. Aufgabe 16.9 Um zu zeigen, dass der zugehörige Fluss tatsächlich eine Drehung ist, löse man die Flussgleichung und zeige, dass die Lösung wie folgt dargestellt werden kann, χ(x, τ ) = o + rk + cos τ r⊥ + sin τ n × r⊥ , (16.36) wobei rk und r⊥ die Anteile die Anteile des Ortsvektors r − o parallel und senkrecht zu n sind, r = o + r k + r⊥ , rk ∝ n, r⊥ ⊥ n. (16.37) Aufgabe 16.10 In der Abbildung 16.2 sind drei Vektorfelder in einem zweidimensionalen Raum mit den Koordinaten (u, v) dargestellt, und zwar (a): ξ u (u, v) = 2, ξ v (u, v) = 1, (b): ξ u (u, v) = −v, ξ v (u, v) = u, (c): ξ u (u, v) = v, ξ v (u, v) = u. (16.38) Man bestimmen jeweils den von dem Vektorfeld erzeugten Fluss. Aufgabe 16.11 Es sei Q der 3 N -dimensionale Konfigurationsraum eines N -Teilchen-Systems. Durch die kartesischen Koordinaten rα,i mit α ∈ {1, . . . , N } und i ∈ {x, y, z} wird ein Koordinatensystem auf Q definiert. Wie sieht das Vektorfeld ξ mit den Komponenten ξ α,i aus, welches als Fluss eine simultane Rotation aller Teilchen um einen Vektor n im Raum erzeugt? 172 Invariante Funktionen Wir betrachten nun eine Funktion A : M → R, also ein skalares Feld auf dem Raum M. Wenn auf M ein Fluss χ : M × R → M definiert ist, so können wir diesen mit der Funktion A verketten und auf diese Weise ein Funktion A : M × R → R definieren, A(x, τ ) = A(χ(x, τ )). (16.39) Wir können diese Abbildung als eine Schar von Funktionen M → R auffassen, mit einem Flussparameter τ . Die Funktion x 7→ A(x, τ ) geht aus der Funktion x 7→ A(x) durch eine von dem Fluss erzeugte Transformation hervor. Das einfachste Beispiel ist wieder die Verschiebung in einem affinen Raum. Setzen wir für den Fluss (16.34) ein, so ist A(x, τ ) = A(x + τ v). (16.40) Das ist die um den Vektor −τ v verschobene Funktion. Der Fluss eines konstanten Vektorfeldes auf einem affinen Raum bewirkt also eine Verschiebung der Funktion A in die dem Vektorfeld entgegengesetzte Richtung. Entsprechendes gilt für einen Fluss, der eine Drehung erzeugt. Das fließen einer Funktion unter einem gegeben Fluss ist also nichts anderes als eine Verallgemeinerung dessen, was wir üblicherweise unter einer Verschiebung oder Drehung einer Funktion im Raum verstehen. Um die Wirkung eines Flusses auf eine Funktion zu berechnen, müssen wir den Fluss selbst gar nicht kennen. Es genügt, das erzeugende Vektorfeld zu kennen. Um das möglichst einfach zu zeigen, benutzen wir folgenden Trick. Wir schreiben die Gleichung (16.39) um, indem wir x durch χ(x, −τ ) ersetzen. Dann lautet sie A(χ(x, −τ ), τ ) = A(χ(χ(x, −τ ), τ )) = A(x). (16.41) Nun leiten wir beide Seiten nach τ ab, wobei sich rechts Null ergibt, da A(x) nicht von τ abhängt. Links müssen wir einmal nach dem Argument τ von A ableiten, und einmal nach dem Argument −τ von χ. Das ergibt Ȧ(χ(x, −τ ), τ ) − χ̇m (x, −τ ) ∂m A(χ(x, −τ ), τ ) = 0. (16.42) Mit Ȧ(x, τ ) bezeichnen wir hier die Funktion, die sich durch Ableiten nach dem zweiten Argument ergibt, und mit ∂m Aτ (x, τ ) bezeichnen wir wie üblich die Ableitung nach den Koordinaten des Punktes im ersten Argument der Funktion. Nun setzen wir für die Ableitung des Flusses das Vektorfeld ein, Ȧ(χ(x, −τ ), τ ) − ξ m (χ(x, −τ )) ∂m A(χ(x, −τ ), τ ) = 0. (16.43) Zum Schluss ersetzen wir χ(x, −τ ) wieder überall durch x, oder äquivalent dazu x durch χ(x, τ ). Dann bekommen wir Flussgleichung II Ȧ(x, τ ) = ξ m (x) ∂m A(x, τ ) = ξ(x) · ∇A(x, τ ). (16.44) Diese Gleichung sagt uns, wie die Funktion A(x, τ ) unter dem Vektorfeld ξ fließt. Wenn wir noch die Anfangsbedingung A(x, 0) = A(x) hinzunehmen, wird die transformierte Funktion A(x, τ ) durch diese Differenzialgleichung für alle τ ∈ R eindeutig bestimmt. Es gibt also zwei Methoden, die Transformation einer Funktion A unter dem Fluss eines Vektorfeldes ξ zu berechnen. Man kann entweder zuerst den Fluss χ des Vektorfeldes bestimmen, und dann diesen in die Funktion einsetzen, oder direkt die Flussgleichung (16.44) für die Funktion selbst lösen. Dies ist eine partielle Differentialgleichung für die Funktion A(x, τ ), die von den Koordinaten {x µ } des Punktes x und von dem Flussparameter τ abhängt. Sie besagt, dass die Ableitung nach dem Flussparameter gleich der Richtungsableitung in Richtung des erzeugenden Vektorfeldes ist. 173 Ein wichtiges Konzept in diesem Zusammenhang ist das einer invarianten Funktion. Eine Funktion ist unter dem Fluss eines Vektorfeldes invariant, wenn die transformierte Funktion, unabhängig vom Flussparameter, mit der ursprünglichen Funktion übereinstimmt. Wie man aus der Flussgleichung (16.44) entnimmt, ist das genau dann der Fall, wenn die Richtungsableitung von A(x) in Richtung des erzeugenden Vektorfeldes ξ(x) für alle x verschwindet, ξ(x) · ∇A(x) = 0 ⇔ A(x, τ ) = A(x). (16.45) Genau dann verschwindet nämlich die Ableitung Ȧ(x, τ ) für alle x und alle τ . Eine Funktion A ist genau dann unter dem Fluss eines Vektorfeldes ξ invariant, wenn die Richtungableitung ξ · ∇A überall verschwindet. Als Beispiele betrachten wir noch einmal die Verschiebungen und Drehungen im dreidimensionalen Euklidischen Raum, den wir uns als den Konfigurationsraum eines Teilchens vorstellen können. Es sei A(r) eine Funktion des Ortes r, und ξ(r) = v ein konstantes Vektorfeld. Dann ist die Funktion A genau dann unter dem Fluss dieses Vektorfeldes invariant, wenn für alle τ ∈ R A(r + τ v) = A(r) (16.46) gilt, oder äquivalent dazu, wenn die Richtungsableitung von A in Richtung von v überall verschwindet, v · ∇A(r) = 0. (16.47) Ist zum Beispiel v = ex , so darf A nicht von der Koordinaten rx abhängen. An diesem Beispiel sehen wir, dass die Invarianz einer Funktion unter dem Fluss eines Vektorfeldes etwas mit den Symmetrien dieser Funktion zu tun hat. Wenn eine Funktion A(r) nicht von der Koordinate rx abhängt, dann ist sie symmetrisch unter Verschiebungen in x-Richtung. Ist eine Funktion unter allen Verschiebungen invariant, so ist sie konstant und somit auch in einem gewissen Sinne sehr symmetrisch. Für Drehungen lässt sich ähnliches sagen. Betrachten wir das erzeugende Vektorfeld ξ einer Drehung im Ortsraum (16.35) und verlangen, dass die Funktion A(r) invariant ist, so ergibt sich die Gleichung (n × (r − o)) · ∇A(r) = 0, (16.48) εijk ni rj ∂k A(r) = 0. (16.49) oder in Koordinaten ausgedrückt Betrachten wir als Spezialfall n = ez , so ergibt sich die Forderung rx ∂y A − ry ∂x Ay = 0, die genau dann erfüllt ist, wenn A eine Funktion von rz und ρ2 = rx 2 + ry 2 ist. Das bedeutet natürlich nichts anderes als dass die Funktion rotationssymmetrisch um die z-Achse ist. Verlangt man, dass die Gleichung (16.49) für alle Richtungen n der Drehachse erfüllt ist, so darf die Funktion A nur von r 2 = rx2 + ry2 + rz2 abhängen. Sie ist dann bezüglich jeder Achse rotationssymmetrisch, also kugelsymmetrisch. Aufgabe 16.12 Es sei Q der Konfigurationsraum eines N -Teilchen-Systems, r α,i die Ortskoordinaten der einzelnen Teilchen, und V eine skalare Funktion auf Q, zum Beispiel das Wechselwirkungspotenzial der Teilchen. Ein Vektorfeld ξ sei durch die Komponenten ξα,i = ni definiert, wobei ni ein Einheitsvektor im dreidimensionalen Raum ist. Welchen Fluss erzeugt dieses Vektorfeld? Welche Bedingung muss das Potenzial V erfüllen, damit es unter dem Fluss invariant ist? Aufgabe 16.13 Es sei Q der Konfigurationsraum eines N -Teilchen-Systems, r α,i die Ortskoordinaten der einzelnen Teilchen, und V eine skalare Funktion auf Q, zum Beispiel das Wechselwirkungspotenzial der Teilchen. Ein Vektorfeld ξ sei durch die Komponenten ξα,i = εijk nj rα,k definiert, wobei ni ein Einheitsvektor im dreidimensionalen Raum ist. Welchen Fluss erzeugt dieses Vektorfeld? Welche Bedingung muss das Potenzial V erfüllen, damit es unter dem Fluss invariant ist? 174 Hamiltonsche Flüsse Die bisher gemachten Aussagen über Vektorfelder und Flüsse gelten auf beliebigen affinen Räumen oder Mannigfaltigkeiten. Nun betrachten wir speziell den Phasenraum P eines mechanischen Systems, auf dem als eine wichtige Struktur die symplektische Form Ωmn bzw. die inverse symplektische Form Ω mn definiert ist. Man kann die inverse symplektische Form verwenden, um jeder Phasenraumfunktion F (x) ein Vektorfeld ξF (x) zuzuordnen. Und zwar setzt man Hamiltonsches Vektorfeld ξFn (x) = Ω mn (x) ∂m F (x). (16.50) Dieses Vektorfeld ist das der Funktion F zugeordnete Hamiltonsche Vektorfeld. Der zugehörige Fluss χ F heißt Hamiltonscher oder kanonischer Fluss von F . Für ihn gilt die Flussgleichung χ̇Fn (x, τ ) = ξFn (χ(x, τ )) = Ω mn (χ(x, τ )) ∂m F (χ(x, τ )). (16.51) Wenn wir für die Funktion F die Hamilton-Funktion H einsetzen, so ist das Hamiltonsche Vektorfeld ξH (x) gerade die rechte Seite der Bewegungsgleichung (16.24), und der zugehörige Hamiltonsche Fluss gerade die Zeitentwicklung des Systems. Man kann daher mit dem Hamiltonschen Fluss einer beliebigen Phasenraumfunktion F folgende anschauliche Vorstellung verbinden. Man stellt sich ein hypothetisches mechanisches System vor, dessen Phasenraum der Raum P mit derselben symplektischen Form ist, dessen Hamilton-Funktion jedoch F ist. Der zu F gehörende Hamiltonschen Fluss beschreibt dann die Zeitentwicklung dieses hypothetischen Systems. Wir machen uns das an einem einfachen Beispiel klar. Es sei P der zweidimensionale Phasenraum eines mechanischen Systems mit einem Freiheitsgrad, und (q, p) ein kanonisches Koordinatensystem auf diesem Raum. Es gilt also {p, q} = −{q, p} = 1, oder äquivalent dazu Ω pq = −Ω qp = 1. Die Hamilton-Funktion H dieses System ist im folgenden nicht von Belang. Statt dessen betrachten wir die Funktion F (q, p) = p und stellen uns vor, dies sei die Hamilton-Funktion eines anderen hypothetischen Systems mit einem Freiheitsgrad. Das zugehörige Hamiltonsche Vektorfeld ist ξ q = Ω qq ∂q F + Ω pq ∂p F = 1, ξ p = Ω qp ∂q F + Ω pp ∂p F = 0. (16.52) Offenbar erzeugt dieses konstante Vektorfeld einen Fluss in Richtung der positiven q-Achse. Die Trajektorien dies hypothetischen Systems, dessen Hamilton-Funktion die Funktion F (q, p) = p ist, sind Geraden in Richtung der q-Achse. Wir können auch die Funktion F (q, p) = q betrachten und fragen, welchen Hamiltonschen Fluss diese Funktion erzeugt. In diesem Fall gilt für das Vektorfeld ξ q = Ω qq ∂q F + Ω pq ∂p F = 0, ξ p = Ω qp ∂q F + Ω pp ∂p F = −1. (16.53) Der zugehörige Fluss ist eine Verschiebung in Richtung der negativen p-Achse. Ein hypothetisches System, dessen Hamilton-Funktion und damit dessen Energie durch F (q, p) = q gegeben wäre, würde sich also auf Trajektorien bewegen, auf denen der Ort q konstant ist und der Impuls p linear mit der Zeit abnimmt. Ein solches mechanisches System ist natürlich nicht sehr realistisch. Aber darauf kommt es bei dieser Betrachtung nicht an. Es geht nur darum, sich eine anschauliche Vorstellung davon zu machen, was ein Hamiltonschen Fluss ist. Der im letzten Kapitel eingeführte, durch die reale Hamilton-Funktion H erzeugte Fluss, der die tatsächliche Zeitentwicklung des Systems beschreibt, ist nur ein Spezialfall eines solchen Flusses. 175 Man kann sich leicht überlegen, dass nicht jeder Fluss auf einem Phasenraum P ein Hamiltonscher Fluss sein kann. Es gibt nämlich sehr viel mehr Vektorfelder als skalare Funktionen auf P, weil ein Vektorfeld durch mehrere reelle Koordinatenfunktionen dargestellt wird. Man kann also nicht jedes Vektorfeld in der Form (16.50) darstellen. Hamiltonsche Flüsse haben aber eine sehr spezielle Eigenschaft, die bei der Definition von Symmetrien eine wichtige Rolle spielt. Wir betrachten dazu eine andere Phasenraumfunktion A(x) und die durch den Fluss des Vektorfeldes ξF erzeugte Transformation dieser Funktion, also die Funktion A(x, τ ), die durch die Flussgleichung Ȧ(x, τ ) = ξ n (x) ∂n A(x, τ ) = Ω mn (x) ∂m F (x) ∂n A(x, τ ) (16.54) bestimmt wird und vom Flussparameter τ abhängt. Offenbar können wir die rechte Seite dieser Gleichung als eine Poisson-Klammer schreiben. Es gilt Ȧ = {F, A}, (16.55) wobei wir A auf der linken Seite nach dem Flussparameter τ ableiten, während wir es rechts als Funktion der Phasenraumkoordinaten auffassen, um die Poisson-Klammer zu bilden. Ein kanonischer Fluss wird lässt sich also durch die Poisson-Klammer beschreiben, ohne dass man zunächst ein erzeugendes Vektorfeld einführen muss. Wenn wir wieder das Bild eines hypothetischen mechanischen Systems mit der Hamilton-Funktion F verwenden, ist die Gleichung (16.55) völlig analog zur Bewegungsgleichung (15.66) zu lesen. Um zu zeigen, dass wir mit dieser Methode sehr leicht den Hamiltonschen Fluss zu einer gegebenen Phasenraumfunktion bestimmen können, betrachten wir als etwas anspruchsvolleres Beispiel den Phasenraum P eines N -Teilchen-Systems im Euklidischen Raum, mit kartesischen Ortskoordinaten r α,i und den dazu konjugierten Impulsen pα,i . Die Phasenraumfunktion sei die Komponente des Gesamtimpulses P in Richtung eines Einheitsvektors n, X X n·P = n · pα = ni pα,i . (16.56) α α Nun sei A({rα }, {pα }, τ ) eine Phasenraumfunktion, die zusätzlich von einem Flussparameter τ abhängt. Um den von der Funktion n · P erzeugten Fluss zu bestimmen, bilden wir die Poisson-Klammer Ȧ = {n · P , A} = X ∂(n · P ) ∂A X ∂A ∂(n · P ) ∂A − = ni . ∂pα,i ∂rα,i ∂pα,i ∂rα,i ∂rα,i α α (16.57) Die Lösung dieser Gleichung lässt sich leicht angeben. Es ist A({rα }, {pα }, τ ) = A({rα + τ n}, {pα }). (16.58) Offenbar ist dies eine Transformation, bei der gleichzeitig alle Orte der Teilchen um einen Vektor τ n im Raum verschoben werden. Ein hypothetisches System, dessen Hamilton-Funktion n · P wäre, würde folgende Bewegung ausführen. Die Impulse der Teilchen wären konstant und hätten keinen Einfluss auf die Bewegung im Ortsraum. Dort würden sich alle Teilchen mit der Geschwindigkeit Eins in Richtung des Vektors n bewegen. Ihre relativen Positionen blieben dabei erhalten. Es ist offensichtlich, dass dies ein sehr unrealistisches physikalisches System ist. Aber man kann sich so sehr gut den von der Funktion n · P erzeugten Fluss veranschaulichen. Man drückt diesen Sachverhalt oft etwas verkürzt wie folgt aus: Der Gesamtimpuls eines mechanischen System ist der Erzeuger einer Verschiebung im Ortsraum. 176 Analog zu Aufgabe 16.12 kann man feststellen, dass eine Phasenraumfunktion A genau dann unter dem Hamiltonschen Fluss von n · P für alle Richtungen n invariant ist, wenn sie nur von den Impulsen p α und den relativen Positionen rα − rβ der Teilchen abhängt. Hat die reale Hamilton-Funktion H diese Eigenschaft, so hängt die Energie des N -Teilchen-Systems nur von diesen Größen ab. Das ist typischerweise für Systeme ohne äußere Kräfte der Fall. Aufgabe 16.14 Man zeige entsprechend, dass durch die Phasenraumfunktion X X n·L = n · (rα × pα ) = εijk ni rα,j pα,k , α (16.59) α also durch die Komponente des Gesamtdrehimpulses, eine simultane Rotation aller Teilchen um den Ursprung erzeugt wird, wobei die Drehachse durch den Vektor n vorgegeben ist. Wie sieht hier die hypothetische Bewegung der Teilchen aus? Warum ändern sich dabei auch die Impulse? Auch dies lässt sich wieder in einem Satz zusammenfassen: Der Gesamtdrehimpuls eines mechanischen System ist der Erzeuger einer Drehung im Ortsraum. Die typischen Symmetrien von mechanischen Systemen, die aus N frei im Raum beweglichen Teilchen bestehen, und die wir schon in Kapitel 3 ausführlich untersucht haben, lassen sich also im Rahmen der Hamiltonschen Mechanik als Flüsse auf dem Phasenraum darstellen, die von speziellen Funktionen erzeugt werden. Etwas allgemeiner formuliert sehen wir, dass die kanonischen Flüsse, die von von bestimmten Phasenraumfunktionen erzeugt werden, etwas mit den Symmetrien eines System zu tun haben. Das hat auch einen Grund. Die kanonischen oder Hamiltonschen Flüsse haben nämlich eine spezielle Eigenschaft, die Flüsse im allgemeinen nicht haben. Diese spezielle Eigenschaft von Hamiltonschen Flüssen ist, dass die Poisson-Klammer unter solchen Flüssen invariant ist. Damit ist folgendes gemeint. Es seien A, B und C drei Phasenraumfunktionen, so dass {A, B} = C gilt. Nun transformieren wir diese Funktionen unter dem Fluss einer Funktion F . Dann hängen A, B und C von einem Flussparameter τ ab, und es gilt Ȧ = {F, A}, Ḃ = {F, B}, Ċ = {F, C}, (16.60) wobei sich für τ = 0 die ursprünglichen Funktionen ergeben. Wir wollen zeigen, dass die Beziehung {A, B} = C dann für alle τ gilt, das heißt zwischen den transformierten Funktionen gilt die gleiche Beziehung wie zwischen den ursprünglichen Funktionen für τ = 0. Um den Beweis zu führen, definieren wir eine Funktion G = C − {A, B}, die dann ebenfalls von τ abhängt, und berechnen deren Ableitung nach τ . Es ist Ġ = Ċ − {Ȧ, B} − {A, Ḃ} = {F, C} − {{F, A}, B} − {A, {F, B}}. (16.61) Nun setzen wir G + {A, B} für C ein, und benutzen die Antisymmetrie und die Jacobi-Identität (15.74) für die Poisson-Klammer. Das ergibt Ġ = {F, G} + {F, {A, B}} + {B, {F, A}} + {A, {B, F }} = {F, G}. (16.62) Nun ist aber nach Voraussetzung G = 0 für τ = 0 und damit wird diese Flussgleichung durch G = 0 für alle τ ∈ R eindeutig gelöst. Also gilt für alle τ ∈ R die Beziehung {A, B} = C. Unter einem Hamiltonschen Fluss ist die Poisson-Klammer invariant. 177 Auch das ist wieder eine etwas verkürzte Formulierung, die man genauer interpretieren muss. Gemeint ist damit, dass jeder Beziehung zwischen Phasenraumfunktionen, die man mit Hilfe der Poisson-Klammer ausdrücken kann, unter einem Hamiltonschen Fluss erhalten bleibt. Für das oben dargestellte Beispiel eines N -Teilchen-Systems bedeutet das, dass die Poisson-Klammern von Funktionen unter Drehungen und Verschiebungen invariant sind. Darin drückt sich eine wesentliche Symmetrie von mechanischen Systemen von Punktteilchen aus, die mit der eigentlichen Dynamik noch gar nichts zu tun hat. Denn wir haben die Hamilton-Funktion bisher noch gar nicht in die Betrachtungen einbezogen. Invarianz der Poisson-Klammer Wir wollen nun zeigen, dass auch die Umkehrung des letzten Satzes gilt. Wenn die Poisson-Klammer unter einem gegebenen Fluss invariant ist, dann handelt es sich um den Hamiltonschen Fluss einer Phasenraumfunktion. Dieser Beweis ist ein wenig komplizierter und trickreicher. Wir müssen dazu auf das erzeugende Vektorfeld und die symplektische Struktur zurückgreifen. Es sei also ξ m die Darstellung eines Vektorfeld auf einem Phasenraum P, und Ω mn bzw. Ω mn die Darstellung der symplektischen Form in einem Koordinatensystem {x m }. Wie oben betrachten wir drei Funktionen A(x), B(x) und C(x) mit {A, B} = C, also C(x) = Ω mn (x) ∂m A(x) ∂n B(x). (16.63) Nun lassen wir diese Funktionen fließen, das heißt wir betrachten die Funktionen A(x, τ ), B(x, τ ) und C(x, τ ), definiert durch die Flussgleichungen Ȧ(x, τ ) = ξ k (x) ∂k A(x, τ ), Ḃ(x, τ ) = ξ k (x) ∂k B(x, τ ), Ċ(x, τ ) = ξ k (x) ∂k C(x, τ ). (16.64) Wir verlangen nun, dass auch für diese Funktionen die Beziehung {A, B} = C gilt. Daraus leiten wir eine Bedingung an das Vektorfeld ξ µ ab. Es soll also für alle τ ∈ R gelten C(x, τ ) = Ω mn (x) ∂m A(x, τ ) ∂n B(x, τ ). (16.65) Wir leiten beide Seiten nach τ ab und setzen (16.64) ein. Das ergibt ξ k ∂k C = Ω mn ∂m ξ k ∂k A ∂n B + Ω mn ∂m A ∂n ξ k ∂k B . (16.66) Die rechte Seite der Gleichung (16.66) lässt sich wie folgt umformen, Ω mn ∂m ξ k ∂k A ∂n B + ∂n ξ k ∂m A ∂k B + Ω mn ξ k ∂k ∂m A ∂n B . (16.68) Um die Darstellung ein wenig abzukürzen, lassen wir die Argumente x und τ weg. Wir müssen jedoch beachten, dass alle vorkommenden Größen von x abhängen, und A, B und C zusätzlich von τ . Wir werten nun die linke Seite der Gleichung (16.66) aus, indem wir für C wieder (16.65) einsetzen. Das ergibt ξ k ∂k Ω mn ∂m A ∂n B = ξ k ∂k Ω mn ∂m A ∂n B + Ω mn ξ k ∂k ∂m A ∂n B . (16.67) Durch Umbenennen von Indizes, über die summiert wird, können wir das auch wie folgt schreiben, Ω kn ∂k ξ m ∂m A ∂n B + Ω mk ∂k ξ n ∂m A ∂n B + Ω mn ξ k ∂k ∂m A ∂n B . (16.69) 178 Nun verlangen wir, dass (16.67) und (16.69) gleich sind, und zwar für alle Funktionen A und B. Genau dann ist nämlich die Poisson-Klammer unter dem Fluss des Vektorfeldes ξ m invariant. Das führt auf die Bedingung ξ k ∂k Ω mn − Ω kn ∂k ξ m − Ω mk ∂k ξ n = 0, (16.70) die als Forderung an das Vektorfeld ξ m zu verstehen ist. Das ist zunächst eine unübersichtliche Kombination von partiellen Ableitungen. Sie lässt sich jedoch noch vereinfachen. Wir multiplizieren die Gleichung dazu mit Ωpm uns Ωnq und bekommen die äquivalente Bedingung ξ k Ωpm ∂k Ω mn Ωnq − Ωpm ∂q ξ m − Ω nq ∂p ξ n = 0 (16.71) Dabei haben wir benutzt, dass Ωpm bzw. Ωnq jeweils zu Ω mn inverse Matrizen sind. Daraus folgt auch Ωpm ∂k Ω mn Ωnq = ∂k (Ωpm Ω mn ) Ωnq − ∂k Ωpm Ω mn Ωnq = ∂k Ωpq . (16.72) Durch nochmaliges Umbenennen von Indizes lautet die an das Vektorfeld ξ m zu stellende Bedingung nun ξ m ∂m Ωpq − Ωpm ∂q ξ m − Ω nq ∂p ξ n = 0 (16.73) Nun verwenden wir noch die Identität (16.20), also das Verschwinden der zyklischen Ableitung von der symplektischen Form. Damit lässt sich die Bedingung schließlich wie folgt schreiben, ∂q (Ωpm ξ m ) − ∂p (Ωqm ξ m ) = 0. (16.74) Nach dieser etwas mühsameren Rechnung sehen wir, dass diese Bedingung für Hamiltonsche Vektorfelder tatsächlich erfüllt ist. Setzen wir nämlich ξ m = Ω km ∂k F für eine beliebige Funktion F , so ist Ωpm ξ m = −∂p F und entsprechend Ωqm ξ m = ∂q F , und folglich ∂q ∂p F − ∂p ∂q F = 0. Nun müssen wir aber umgekehrt zeigen, dass jedes Vektorfeld ξ m , das die Gleichung (16.74) erfüllt, ein Hamiltonsches Vektorfeld ist. Wir betrachten dazu das duale Vektorfeld ζ m = ξ n Ωnm , das offenbar die Eigenschaft ∂ m ζn − ∂ n ζm = 0 (16.75) hat. Wenn wir zeigen können, dass es eine Phasenraumfunktion F gibt mit ∂ m F = ζm , dann sind wir fertig. Es gilt dann nämlich Ω mn ∂m F = ζm Ω mn = ξ p Ωpm Ω mn = ξ n . Wir müssen also folgenden allgemeinen Satz beweisen. Wenn die antisymmetrisierte Ableitung eines dualen Vektorfeldes verschwindet, dass ist das duale Vektorfeld der Gradient eines skalaren Funktion. Um den Beweis zu motivieren, erinnern wir uns an eine schon vor langer Zeit im Zusammenhang mit Vektorfeldern im dreidimensionalen Raum gestellte Frage. Wann ist ein Vektorfeld, oder hier sollten wir besser sagen ein duales Vektorfeld, der Gradient eines skalaren Feldes? Die Antwort in Kapitel 7 war: genau dann, wenn die Rotation des Vektorfeldes verschwindet. Tatsächlich ist die antisymmetrisierte Ableitung ∂m ζn −∂n ζm eines dualen Vektorfeldes ζm eine Verallgemeinerung der Rotation. Man kann diese Ableitung auf jeder Mannigfaltigkeit bilden, ohne dafür eine Metrik oder einen antisymmetrischen Einheitstensor zu benötigen. Das wurde sogar in Aufgabe 13.25 schon gezeigt. Im Gegensatz zu den einzelnen Summanden ist die antisymmetrische Kombination der Ableitungen wieder ein Tensor. Dass die antisymmetrisierte Ableitung verschwindet, wenn ζm = ∂m F ist, ist sofort offensichtlich. Wir müssen aber die Umkehrung dieser Aussage beweisen. Der Beweis ist völlig analog zu dem in Kapitel 7. Wir legen zunächst irgendeinen Punkt x0 ∈ P fest. Dann betrachten wir eine Kurve λ(s) ∈ P, mit 0 ≤ s ≤ 1. Den Anfangspunkt der Kurve legen wir bei λ(0) = x0 fest, und der Endpunkt λ(1) = x sei variabel. Dann bilden wir das Wegintegral F [λ] = Z 0 1 ds λ0 (s) · ζ(λ(s)). 179 (16.76) Wir bilden das Produkt des Tangentenvektors der Kurve mit dem dualen Vektorfeld ζ, ausgewertet entlang der Kurve, und integrieren über die Kurve. Das Ergebnis betrachten wir als Funktional der Kurve λ. Was wir nun zeigen werden ist, dass das Funktional F gar nicht von der Kurve abhängt, sondern nur von ihrem Endpunkt x. Mit anderen Worten, das Funktional ändert seinen Wert nicht, wenn wir die Kurve beliebig verformen oder reparametrisieren, solange wir nur die Endpunkte festhalten. Oder noch ein wenig anderes formuliert, die Variation δF [λ] des Funktionals F [λ] verschwindet für alle Variationen δλ der Kurve, solange wir die Endpunkte festhalten. Es ist überall im Raum aller Kurven stationär. Den Beweis können wir mit den uns nun zur Verfügung stehenden Mitteln aus der Variationsrechnung leicht führen. Wir schreiben den Integranden zunächst in Komponenten aus, F [λ] = Z 1 ds λ0n (s) ζn (λ(s)), (16.77) 0 und führen dann eine Variation aus, δF [λ] = Z 0 1 ds δλ0n (s) ζn (λ(s)) + λ0n (s) δζn (λ(s)) . (16.78) Den ersten Summanden formen wir durch eine partielle Integration um, für den zweiten benutzen wie die Kettenregel, wonach δζn (λ(s)) = δλm (s) ∂m ζn (λ(s)) (16.79) gilt. Unter Berücksichtigung der entsprechenden Randterme ergibt sich h i1 n δF [λ] = δλ (s)ζn (λ(s)) − 0 − Z 0 1 ds δλn (s) λ0m (s) ∂m ζn (λ(s)) − λ0n (s) δλm (s) ∂m ζn (λ(s)) . (16.80) Wenn man nun die Indizes noch umbenennt und die Terme ein wenig sortiert, und außerdem den Anfangspunkt λ(0) = x0 festhält, bekommt man n δF [λ] = δx ζn (x) − Z 0 1 ds δλn (s) λ0m ∂m ζn (λ(s)) + ∂n ζm (λ(s)) . (16.81) Nach Voraussetzung verschwindet aber die antisymmetrisierte Ableitung, das heißt es bliebt nur δF [λ] = δx · ζ(x), (16.82) wobei x = λ(1) der Endpunkt der Kurve ist. Daraus ziehen wir zwei Schlussfolgerungen. Erstens hängt der Wert des Funktionals F [λ] nur vom Endpunkt x ab, es definiert also eine gewöhnliche Funktionen F (x). Zweitens ist ∇F = ζ, denn genau das ist die Aussage der Gleichung (16.82). Also haben wir eine skalare Funktion F (x) gefunden, deren Gradient das gegebene Vektorfeld ζ ist. Und damit haben wir auch die Aussage bewiesen, wonach jeder Fluss, unter dem die Poisson-Klammer invariant ist, ein Hamiltonscher Fluss ist, der von einer Phasenraumfunktion erzeugt wird. Da wir den Anfangspunkt der betrachteten Kurven beliebig wählen können, ist diese Funktion nur bis auf eine Konstante bestimmt. Das ist auch klar, denn die Addition einer Konstanten zu einer Phasenraumfunktion ändert den von ihr erzeugten Fluss nicht. 180 Allerdings gibt es im Beweis eine kleine Lücke. Wir haben nämlich nur gezeigt, dass sich der Wert des Wegintegrals nicht ändert, wenn wir die Kurve verformen. Aber was passiert, wenn es mehrere Kurven gibt, die den Vorgegeben Anfangspunkt x0 mit dem Endpunkt verbinden, diese aber nicht durch eine Verformung ineinander überführbar sind? Eine solche Situation ist sehr leicht vorstellbar, und wir kennen sogar schon ein Beispiel für einen Phasenraum, in dem genau das passiert. Das ist der zylinderförmige Phasenraum eines Pendels, bei dem die Auslenkung q eine periodische Koordinaten mit q ≡ q + 2π` ist, während der konjugierte Impuls p eine gewöhnliche reelle Koordinate ist. Betrachten wir als Beispiel den durch das Vektorfeld ξ q = 0, ξp = 1 (16.83) erzeugten Fluss, also eine Verschiebung in Richtung der p-Achse. Die Poisson-Klammer ist unter diesem Fluss invariant, wie man leicht durch Nachrechnen bestätigt. Mit der symplektischen Form Ω qp = 1 und Ωpq ergibt sich für das oben definierte duale Vektorfeld ζq = −1, ζp = 0. (16.84) Offenbar gilt hier ∂m ζn − ∂n ζm = 0. Aber ist ζm = ∂m F der Gradient einer skalaren Funktionen. Anscheinend schon, wenn wir F = −q setzen. Das ist aber gar keine wohldefinierte Funktion auf dem Phasenraum, denn die Koordinate q ist periodisch und somit als Funktion nicht wohldefiniert. Wie man sich leicht überlegt, ergibt sich dieses Problem aus der Tatsache, dass sich zwei Kurven auf einem Zylinder, die den gleichen Anfangs- und Endpunkt haben, nicht immer stetig ineinander deformieren lassen. Daher funktioniert der Beweis in diesem Fall nicht. Er ist nur dann richtig, wenn der Phasenraum P einfach zusammenhängend ist. Das bedeutet, dass jede Kurve in jede andere stetig deformiert werden kann, wenn Anfangs- und Endpunkt übereinstimmen. Auf einem Zylinder ist das nicht der Fall, wohl aber zum Beispiel auf jedem affinen Raum. Die Schlussfolgerung, die wir über Hamiltonschen Flüsse ziehen können, muss also etwas eingeschränkt lauten: Ist der Phasenraum einfach zusammenhängend, so wird jeder Fluss, unter dem die PoissonKlammer invariant ist, von einer Phasenraumfunktion erzeugt. Aufgabe 16.15 Das bedeutet natürlich nicht, dass der Satz auf einem nicht einfach zusammenh ängenden Phasenraum gänzlich falsch wäre. Es ist nur so, dass nicht zu jedem entsprechenden Fluss eine Phasenraumfunktion gefunden werden kann. Betrachtet man statt dessen eine Verschiebung in Richtung q als Fluss auf dem Phasenraum des Pendels, so findet man sehr wohl eine Phasenraumfunktion, die diesen Fluss erzeugt. Welche ist das? Aufgabe 16.16 Es sei ζm ein dualen Vektorfeld auf einer Mannigfaltigkeit und es gelte ∂m ζn − ∂n ζm = 0. Man zeige, dass ζm = ∂m F genau dann der Gradient einer skalaren Funktion F ist, wenn f ür jede geschlossene Kurve das Wegintegral von ζm entlang der Kurve verschwindet, und dass es genügt, dies für endlich viele Kurven zu überprüfen. Das Noether-Theorem Zum Abschluss dieser ganzen Vorüberlegungen beweisen wir nun das Noether-Theorem. Wie schon eingangs erwähnt, handelt es sich um eine der wichtigesten und allgemeinsten Aussagen über Hamiltonsche Systeme. Seine Bedeutung geht weit über die klassische Mechanik hinaus. Verallgemeinerte Versionen dieses Satzes gelten auch in der Quantenmechanik, in der klassischen Feldtheorie, etwa der Maxwellschen Elektrodynamik, und in der Quantenfeldtheorie, also der Theorie der Elementarteilchen. Dort spielen Symmetrien eine sehr bedeutende Rolle, und zwar im wesentlichen wegen der Gültigkeit des NoetherTheorems. Die Aussage des Theorems lässt sich sehr knapp zusammenfassen: 181 Zu jeder Symmetrie eines Hamiltonschen Systems gehört eine Erhaltungsgr öße. Zuerst müssen wir erklären, was wir unter einer Symmetrie verstehen. Zum Teil haben wir dies schon getan. So hatten wir zum Beispiel festgestellt, dass eine Funktion unter dem Fluss eines Vektorfeldes invariant ist, wenn ihre Richtungsableitung in Richtung des Vektorfeldes überall verschwindet. In dieser Tatsache drückt sich eine bestimmte Symmetrie der Funktion aus, etwa eine Rotationssymmetrie, wenn der Fluss eine Drehung beschreibt. Darüber hinaus haben wir im letzten Abschnitt gezeigt, dass es auf einem Phasenraum spezielle Flüsse gibt, unter denen die Poisson-Klammer invariant ist. Auch die Poisson-Klammer als eine geometrische Struktur auf dem Phasenraum hat also bestimmte Symmetrien. Sie ist unter allen Transformationen invariant, die sich als Hamiltonsche Flüsse darstellen lassen. Um zu erklären, was eine Symmetrie eines mechanischen Systems ist, müssen wir diese beiden Begriffe nur noch miteinander kombinieren. Die Dynamik eines mechanischen Systems wird durch seine HamiltonFunktion H und die Poisson-Klammer {, }, oder äquivalent dazu die symplektische Form beschrieben. Beides sind geometrische Strukturen auf dem Phasenraum P. Ein Symmetrie des Systems ist ein Fluss χ : P × R → P, der beide Strukturen invariant lässt. Hängt zum Beispiel die Hamilton-Funktion eines N -Teilchen-Systems nur von den relativen Positionen der Teilchen ab, so ist sowohl die Poisson-Klammer unter Verschiebungen im Raum invariant, wie wir weiter ober allgemein gezeigt haben, als auch die Hamilton-Funktion. Denn sie hängt in diesem Fall nur von den Impulsen und den relativen Positionen der Teilchen ab, und diese ändern sich bei einer Verschiebung nicht. Entsprechend sind sowohl die Poisson-Klammer also auch die Hamilton-Funktion unter Drehungen des Raumes invariant, wenn die Wechselwirkungspotenziale der Teilchen nur von deren Abständen abhängen. Denn die kinetischen Energien der einzelnen Teilchen hängen nur von den Beträgen der Impulse ab, die sich bei einer Drehung nicht ändern, und die Abstände der Teilchen voneinander sind bei einer Drehung natürlich auch invariant. In den beiden beschriebenen Fällen sind die Verschiebungen bzw. Drehungen also Symmetrien des Phasenraumes. Doch kommen wir nun zum Beweis des Noether-Theorems. Wir nehmen also an, dass wir einen Fluss χ : P × R → P gegeben haben, unter dem sowohl die Poisson-Klammer als auch die Hamilton-Funktion invariant ist. Aus der ersten Voraussetzung folgt, wie wir weiter oben gezeigt haben, dass es sich um einen Hamiltonschen Fluss handelt. Er wird von einer Phasenraumfunktion F erzeugt, und das erzeugende Vektorfeld ist durch ξ n = Ω mn ∂m F (16.85) gegeben. Wir nehmen dabei der Einfachheit halber an, dass der Phasenraum einfach zusammenhängend ist. Ansonsten ist die Funktion F möglicherweise nicht überall wohldefiniert. Die zweite Voraussetzung besagt, dass die Hamilton-Funktion unter dem Fluss dieses Vektorfeldes invariant ist, also ihre Richtungsableitung verschwindet, ξ n ∂n H = Ω mn ∂m F ∂n H = {F, H} = 0. (16.86) Damit haben wir den Beweis bereits erbracht. Die Poisson-Klammer von F mit H ist Null, also ist F eine Erhaltungsgröße. Sie ist durch die Symmetrie, die sie als Fluss erzeugt, bis auf eine Konstante bestimmt. Dass der Beweis so einfach ist, beruht auf den umfangreichen Vorarbeiten, und auf einer speziellen Dualität der Hamiltonschen Bewegungsgleichungen. Betrachten wir nämlich die im vorigen Kapitel hergeleitete Bedingung, dass eine Phasenraumfunktion F genau dann eine Erhaltungsgröße ist, wenn {H, F } = 0 ist, so fällt auf, dass diese Bedingung in einer speziellen Art und Weise in H und F “symmetrisch” ist. Wir können die Rollen der beiden Funktionen H und F vertauschen, ohne den Inhalt der Aussage zu verändern. 182 replacements y y y L J S (d) x x (b) (a) x (c) Abbildung 16.3: Verschiedene Versionen des Drehimpulses erzeugen verschiedenen Flüsse. Der Gesamtdrehimpuls L erzeugt eine Drehung des Systems als ganzes um den Ursprung (a). Der Schwerpunktdrehimpuls J rotiert den Schwerpunkt um den Ursprung, verändert aber nicht die relativen Positionen der Teilchen (b). Der innere Drehimpuls S erzeugt eine Drehung der Teilchen um den Schwerpunkt. Es ist genau diese, auf den ersten Blick etwas merkwürdige Beobachtung, die in einem gewissen Sinne eine tiefere Begründung des Noether-Theorems liefert. Um uns das klar zu machen, schreiben wir statt F H0 , und denken uns diese Funktion als die Hamilton-Funktionen eines anderen, hypothetischen mechanischen Systems. Es kommt nicht darauf an, ob sich ein solches System tatsächlich realisieren lässt. Entscheidend ist nur, dass es denselben Phasenraum besitzt wie das reale System, dessen Bewegungen durch die Hamilton-Funktion H beschrieben werden. Zunächst sei H0 irgendeine Phasenraumfunktion. Dann können wir die dadurch erzeugten Bewegungsgleichungen des hypothetischen Systems betrachten. Nehmen wir an, dass die daraus abgeleiteten Trajektorien die Eigenschaft haben, dass die Funktion H auf ihnen konstant ist. Dann würden wir sagen, dass H eine Erhaltungsgröße des hypothetischen Systems ist. Wir können diese Aussage aber auch anders interpretieren. Wir können die Zeitentwicklung des hypothetischen Systems als einen Fluss auf den Phasenraum betrachten, der die Hamilton-Funktion H des realen Systems invariant lässt. Es handelt sich also um eine Symmetrie des realen Systems. Zu jeder Symmetrie des realen Systems gehört daher ein hypothetisches Systems, beschreiben durch eine hypothetische Hamilton-Funktion H0 , so dass H für dieses hypothetische System eine Erhaltungsgröße ist. Das Noether-Theorem beruht nun auf der Tatsache, dass die Funktion H genau dann eine Erhaltungsgröße des hypothetischen Systems ist, wenn die Funktion H 0 eine Erhaltungsgröße des realen Systems ist, denn in beiden Fällen lautet die Forderung {H, H 0 } = 0. Das Noether-Theorem beruht also auf einer sehr eigentümlichen Struktur des Phasenraumes, die sich letztlich aus der Tatsache ergibt, dass die HamiltonFunktion, die die Zeitentwicklung erzeugt, nur eine unter vielen möglichen Phasenraumfunktionen ist. Aufgabe 16.17 Folgende Aussage ist nun leicht als Spezialfall des Noether-Theorems zu beweisen. Es sei P der Phasenraum eines N -Teilchen-Systems im dreidimensionalen, Euklidischen Raum. Die HamiltonFunktion H hänge nur von den Impulsen und den relativen Positionen der Teilchen ab. Dann ist der Gesamtimpuls P eine Erhaltungsgröße. Aufgabe 16.18 In Kapitel 3 hatten wir für ein N -Teilchen-System im dreidimensionalen Raum drei verschiedene Definitionen des Drehimpulses eingeführt. Den Gesamtdrehimpuls X L= (rα − o) × pα , (16.87) α 183 hatten wir bereits weiter oben als den Erzeuger von Drehungen um den Ursprung o des Koordinatensystems ausgemacht. der Schwerpunktdrehimpuls war durch .X X X J = (R − o) × P , mit P = pα , R = mα r α mα , (16.88) α α α als der Drehimpuls eines hypothetischen Teilchens im Schwerpunkt des Systems definiert. Beide h ängen vom gewählten Koordinatenursprung o ab. Der innere Drehimpuls S =L−J (16.89) ist dagegen vom Koordinatenursprung unabhängig. Man bestimme die von diesen Phasenraumfunktionen erzeugten Flüsse, die in Abbildung 16.3 schematisch dargestellt sind. Welche Bedingungen muss die Hamilton-Funktion erfüllen, damit es sich um Erhaltungsgrößen handelt? 184 17 Der starre Körper Unter einem starren Körper verstehen wir ein ausgedehntes Objekt, das sich frei im Raum bewegen und drehen kann, seine Form dabei aber nicht verändert. Etwas genauer formuliert, die Verteilung der Masse im Innern des Körpers soll sich zeitlich nicht verändern. Von der Mechanik der Punktteilchen ausgehend, können wir uns vorstellen, dass es sich dabei um ein System von vielen Teilchen handelt, deren Abstände zueinander durch Zwangskräfte festgehalten werden. Als einfachstes Beispiel für einen solchen idealisierten starren Körper kennen wir bereits die Hantel aus Abbildung 5.3. Wir können uns also vorstellen, dass die einzelnen Teilchen durch ‘virtuelle Stangen’ zusammengehalten werden, die den Abstand von jeweils zwei Teilchen fixieren. Die einzigen verbleibenden Bewegungen sind dann eine Verschiebung des ganzen Körpers im Raum, oder die Drehung des Körpers um eine Achse. Das Ziel dieses Kapitels ist es, die Bewegungsgleichungen für einen starren Körper aufzustellen und seine wichtigsten mechanischen Eigenschaften zu verstehen. Geschwindigkeit und Winkelgeschwindigkeit Um den Ort festzulegen, an dem sich ein starrer Körpers im Raum befindet, denken wir uns einen speziell ausgewählten Punkt in dem Körper als Bezugspunkt markiert. Wie wir gleich sehen werden, vereinfachen sich die meisten Gleichungen erheblich, wenn wir den Schwerpunkt als Bezugspunkt verwenden. Wir legen uns aber an dieser Stelle noch nicht fest. Den Ort, an dem sich der Bezugspunkt zur Zeit t im Raum befindet, bezeichnen wir mit r(t). Zusätzlich müssen wir noch die genaue Lage des Körpers im Raum festlegen. Dazu denken wir uns zusätzlich zum Bezugspunkt noch drei orthogonale Einheitsvektoren an den Körper angeheftet. Wie in Abbildung 17.1(a) gezeigt, bezeichnen wir diese Vektoren mit n a , wobei der Index a die Werte {1, 2, 3} annimmt. Sie sollen eine positiv orientierte Orthonormalbasis bilden. Es gilt also na · nb = δab , na × nb = εabc nc . (17.1) Für die Vektorindizes a, b, c, . . . gelten die üblichen Regeln. Über doppelt vorkommende Indizes ist jeweils zu summieren, mit δab wird das Kronecker-Symbol bezeichnet, und mit εabc das Levi-Civita-Symbol, dessen Vorzeichen durch ε123 = 1 festgelegt ist. Wenn sich der Körper bewegt, so sind im allgemeinen auch die Vektoren n a Funktionen der Zeit. Umgekehrt bestimmen diese Vektoren die Lage des Körpers eindeutig, so dass wir aus den Funktionen n a (t) die Rotationsbewegung des Körpers ablesen können. Daraus ergibt sich die folgende Beschreibung der Bewegung eines starren Körpers im Raum: Die Bahn eines starren Körpers wird durch die Angabe des Ortes r(t) des körperfesten Bezugspunktes sowie der körperfesten Basis na (t) zu jedem Zeitpunkt beschrieben. Damit haben wir ein Beschreibung des Konfigurationsraumes eines starren Körpers angegeben. Um die Bewegungsgleichungen aufzustellen, müssen wir die zeitlichen Änderungen dieser Größen betrachten. Unter der Geschwindigkeit v(t) des Körpers verstehen wir einfach die Zeitableitung von r(t), also die Geschwindigkeit des Bezugspunktes, v(t) = ṙ(t). (17.2) Um die Ableitung der Basis na nach der Zeit zu berechnen, müssen wir beachten, dass es sich zu jeden Zeitpunkt um eine Orthonormalbasis handelt. Die Gleichung (17.1) gilt zu jeder Zeit t. Folglich gilt für die Ableitungen der Basisvektoren na nach der Zeit na · ṅb + ṅa · nb = 0. 185 (17.3) replacements (c) (d) z z ω n1 n3 ez ṅ3 ṅ1 y y ṅ2 n2 ey x ex x (b) (a) Abbildung 17.1: Die Lage eines starren Körpers im Raum wird durch die Angabe einer Orthonormalbasis na definiert, die fest mit dem Körper verbunden ist (a). Rotiert der Körper, so ist deren Zeitableitung ṅa durch das Kreuzprodukt mit der Winkelgeschwindigkeit ω gegeben (b). Das ergibt sich unmittelbar aus (17.1), wenn man beide Seiten nach der Zeit ableitet. Wir wollen zeigen, dass es einen eindeutig bestimmten Vektor ω gibt, mit der Eigenschaft ṅa = ω × na . (17.4) Der Vektor ω, der im allgemeinen natürlich auch von der Zeit abhängt, wird als Winkelgeschwindigkeit bezeichnet. Die Zeitableitungen ṅa der Basisvektoren stehen senkrecht zu den jeweiligen Basisvektoren und zur Winkelgeschwindigkeit. Wie man in Abbildung 17.1(b) erkennen kann, führt der Körper eine Rechtsdrehung um eine Achse aus, die in die Richtung von ω zeigt. Wir beweisen zuerst, dass der Vektor ω durch (17.4) eindeutig bestimmt ist. Dazu multiplizieren wir diese Gleichung skalar mit εabc nb , wobei dann über a und b zu summieren ist. Das ergibt εabc ṅa · nb = εabc (ω × na ) · nb = εabc (na × nb ) · ω = εabc εabd nd · ω = εabc εabd ωd = 2 ωc . (17.5) Hier haben wir zuerst die zyklische Eigenschaft des Spatproduktes verwendet, dann das Kreuzprodukt der Basisvektoren ausgewertet, und schließlich haben wir benutzt, dass die Vektoren n a eine Orthonormalbasis bilden, und den Vektor ω bezüglich dieser Basis in seine Komponenten zerlegt. Es folgt somit aus (17.4) ω = ω a na , mit ωa = ω · na = 1 εabc ṅb · nc . 2 (17.6) Nun müssen wir noch zeigen, dass dieser Vektor auch tatsächlich die Gleichung (17.4) erfüllt. Einsetzen ergibt 1 1 ω × nd = ωa na × nd = εabc (ṅb · nc ) na × nd = εabc εade (ṅb · nc ) ne 2 2 1 1 (17.7) = (δbd δce − δbe δcd ) (ṅb · nc ) ne = (ṅd · ne − ṅe · nd ) ne . 2 2 186 Addieren wir zu dem Ausdruck in der Klammer die Hälfte der linken Seite von (17.3), so ergibt sich ω × nd = (ṅd · ne ) ne = ṅd . (17.8) Die letzte Gleichung folgt wieder aus der Tatsache, dass die Vektoren n e eine Orthonormalbasis bilden. Das Ergebnis fassen wir wie folgt zusammen: Der Bewegungszustand eines starren Körpers wird durch den Ort r und die Geschwindigkeit v des Bezugspunktes, sowie die Orthonormalbasis na und die Winkelgeschwindigkeit ω festgelegt. Wie wir aus der Mechanik der Punktteilchen wissen, legen die Bewegungsgleichung die zeitliche Entwicklung eines Systems fest, sobald wir den Bewegungszustand, also die Orte und Geschwindigkeiten aller Teilchen, zu einem Zeitpunkt kennen. Wir werden jetzt zeigen, dass es sich bei den angegebenen Größen um die entsprechenden Bewegungsgrößen eines starren Körpers handelt. Aufgabe 17.1 Wieviele unabhängige reelle Zahlen muss man festlegen, um den Bewegungszustand eines starren Körpers eindeutig zu bestimmen? Das körperfeste Koordinatensystem Im folgenden ist es nützlich, sich den starren Körper als ein System von Punktteilchen vorzustellen. Die Teilchen sollen durch Zwangskräfte so aneinander gebunden sein, dass sich der Körper als ganzes frei bewegen, aber seine Form dabei nicht verändern kann. Konkret können wir uns vorstellen, dass zwischen jeweils zwei Teilchen eine Zwangskraft wirkt, die den Abstand der beiden Teilchen fixiert. Als einfachstes Beispiel für einen solchen idealisierten starren Körper hatten bereits die Hantel in Abbildung 5.3 kennen gelernt. Ein etwas anspruchsvolleres Beispiel war das Rad aus Kapitel 12. Nun wollen wir eine ganz allgemeine Anordnung von Punktteilchen betrachten. Aufgabe 17.2 Man stelle sich den Körper aus N Teilchen aufgebaut vor, die durch virtuelle Stangen miteinander verbunden sind. Wieviele solcher Stangen sind mindestens erforderlich, um den K örper vollständig starr zu machen? Wie üblich nummerieren wir die Teilchen mit einem Index α durch, und bezeichnen den Ort des Teilchens α zur Zeit t mit rα (t). Jedes Teilchen nimmt dann einen festen Ort innerhalb des Körpers ein. Wenn wir den Abstandsvektor uα = rα − r des Teilchens vom Bezugspunkt bezüglich der körperfesten Basis n a in seine Komponenten zerlegen, so sind diese Komponenten zeitlich konstant. Es gilt also rα (t) = r(t) + uα (t) = r(t) + uα,a na (t), (17.9) wobei die körperfesten Koordinaten uα,a des Teilchens nicht von der Zeit abhängen. Wir können dabei den Bezugspunkt als Ursprung, und die Vektoren na als die Basis eines kartesischen Koordinatensystems betrachten. Durch den Bezugspunkt r und die Basis na wird ein körperfestes Koordinatensystem definiert, in dem die Position jedes Teilchen innerhalb des Körpers durch zeitunabh ängige Koordinaten festgelegt ist. Dieser Sachverhalt ist in Abbildung 17.2(a) dargestellt. Das Teilchen befindet sich am Ort r α innerhalb des Körpers. Der Vektor uα ist der Ortsvektor des Teilchens relativ zum Bezugspunkt r. Seine Komponenten uα,a bezüglich der Basis na ergeben sich als die Projektionen auf die mit {1, 2, 3} bezeichneten 187 (c) (d) pα 1 z rα y 3 uα × p α 1 rα uα uα r r 3 o 2 2 (a) (b) x Abbildung 17.2: Die körperfesten und damit zeitunabhängigen Koordinaten u α,a des Teilchens α sind die Komponenten des Abstandsvektors u = r α − r vom Bezugspunkt, dargestellt bezüglich der körperfesten Basis na (a). Jedes Teilchen trägt mit seinem Impuls p α zu Gesamtimpuls bei und mit dem Kreuzprodukt uα × pα zum inneren Drehimpuls (b). Koordinatenachsen. Da sich sowohl der Bezugspunkt als auch diese Koordinatenachsen mit dem Körper mitbewegen, sind die Koordinaten uα,a des Teilchens zeitlich unveränderlich. Nun können wir leicht zeigen, dass wir den Bewegungszustand jedes einzelnen Teilchens aus den oben definierten Bewegungsgrößen des starren Körpers bestimmen können. Der Ort ist durch (17.9) gegeben, und die Geschwindigkeit des Teilchens ergibt sich zu vα (t) = ṙα (t) = ṙ(t) + uα,a ṅa (t) = v(t) + uα,a ω(t) × na (t). (17.10) Die Geschwindigkeiten der einzelnen Teilchen lassen sich folglich durch die Geschwindigkeit v und die Winkelgeschwindigkeit ω des Körpers ausdrücken, die im allgemeinen ebenfalls Funktionen der Zeit sind. Die Kenntnis der Bewegungsgrößen r, na , v und ω reicht somit aus, um den Bewegungszustand jedes Teilchens zu bestimmen, sobald wir die körperfesten Koordinaten u α,a des Teilchens kennen. In diesem Sinne legen die Koordinaten uα,a der Teilchen den inneren Aufbau des Körpers fest, während die Bewegungsgrößen seine Bewegung im Raum beschreiben. Wie wir gleich sehen werden, gehören zum inneren Aufbau das Körpers noch andere Daten, wie zum Beispiel die Massen m α der einzelnen Teilchen, oder deren Ladungen qα , wenn es sich um einen geladen Körper handelt. Entscheidend ist, dass diese Größen zeitlich unveränderlich sind. Nur die Bewegungsgrößen hängen von der Zeit ab. Für sie müssen wir die Bewegungsgleichungen aufstellen, wenn die die Bewegungen eines starren Körpers berechnen wollen. Bevor wir dies tun, wollen wir uns noch kurz überlegen, wie wir eine solche Bewegung explizit, also letztlich numerisch beschreiben können. Dazu müssen wir zusätzlich ein raumfestes Koordinatensystem einführen, auf welches wir die Darstellung der Bahn beziehen. Wie üblich bezeichnen wir den Ursprung dieses Koordinatensystems mit o, und die Basis mit e i , wobei der Index i die Werte {x, y, z} annimmt. Ort und Geschwindigkeit des Bezugspunktes lassen sich dann durch ihre Koordinaten bzw. Komponenten bezüglich dieses Koordinatensystems ausdrücken, r(t) = o + ri (t) ei , v(t) = vi (t) ei , mit vi (t) = ṙi (t). (17.11) Dasselbe gilt für die Basisvektoren na . Sie lassen sich als Linearkombination der Basisvektoren ei schreiben, wobei die Koeffizienten zeitabhängig sind. Da es sich um zwei Orthonormalbasen handelt, bilden die 188 Koeffizienten zu jedem Zeitpunkt eine orthogonale Matrix. Es gilt also na (t) = Λai (t) ei , mit Λai (t) Λbi (t) = δab . (17.12) Diese Beziehung lässt sich auch umgekehrt schreiben, indem man die raumfesten Basisvektoren als Linearkombination der körperfesten darstellt, ei = Λai (t) na (t), mit Λai (t) Λaj (t) = δij . (17.13) In einer expliziten Darstellung der Bewegung eines starren Körpers sind es also nicht drei Vektoren, die als Variable auftreten, sondern genau genommen eine orthogonale Transformation, die die raumfeste Basis ei auf die körperfeste Basis na abbildet und dadurch die Lage des Körpers festlegt. Wenn sich der Körper dreht, hängt diese Transformation natürlich von der Zeit ab. Schließlich können wir auch noch die Winkelgeschwindigkeit in ihre Komponenten zerlegen, und zwar wahlweise bezüglich der raumfesten oder der körperfesten Basis, ω(t) = ωi (t) ei = ωa (t) na (t). (17.14) Weiter oben hatten wir bereits die Komponenten ωa benutzt, um die Existenz einer Winkelgeschwindigkeit zu beweisen. Welche der beiden Darstellungen nützlicher ist, die körperfeste oder die raumfeste, hängt oft von dem jeweils gestellten Problem ab. Wir können sie jederzeit ineinander umrechnen, denn aus (17.12) und (17.13) folgt die entsprechende Umrechnungsformel für die Komponenten, ωa (t) = Λai (t) ωi (t) bzw. ωi (t) = Λai (t) ωa (t). (17.15) Aufgabe 17.3 Man zeige, dass sich die Zeitableitungen der Übergangsmatrizen wie folgt durch die Komponenten der Winkelgeschwindigkeit ausdrücken lassen, Λ̇ai = εijk ωj Λak = εabc Λbi ωc , (17.16) und dass sich daraus umgekehrt die folgenden Ausdrücke für die Komponenten der Winkelgeschwindigkeit ergeben, ωa =??εabc Λbi Λ̇ci , ωi =??εijk Λ̇aj Λak , (17.17) Masse, Impuls und Kraft Zur Herleitung der Bewegungsgleichungen für den starren Körper sind zwei Größen von zentraler Bedeutung, nämlich der Gesamtimpuls und der innere Drehimpuls des Körpers. Für ein System von einzelnen Teilchen hatten diese Größen bereits in Kapitel 3 eingeführt, und wir hatten gezeigt, dass es sich dabei unter gewissen Voraussetzungen um Erhaltungsgrößen handelt. Berechnen wir zunächst den Gesamtimpuls des Körpers. Für jedes einzelne Teilchen können wir den Impuls aus (17.10) berechnen. Wenn mα die Masse des Teilchen ist, dann gilt pα (t) = mα vα (t) = mα v(t) + mα uα,a ω(t) × na (t). (17.18) Der Gesamtimpuls des Körpers ergibt sich durch Summation über alle Teilchen, X X X P (t) = pα (t) = mα v(t) + mα uα,a ω(t) × na (t). (17.19) Der Ausdruck in der ersten Klammer ist offenbar die Gesamtmasse des Körpers, X M= mα . (17.20) α α α α 189 Der erste Beitrag zum Gesamtimpuls ist folglich von der Form “Masse man Geschwindigkeit”. Der zweite Beitrag, der zur Winkelgeschwindigkeit proportional ist, lässt sich durch geschickte Wahl des Bezugspunktes eliminieren. Dazu berechnen wir den Schwerpunkt R des Körpers. Für ihn gilt 1 X 1 X 1 X mα r α = mα (r + uα,a na ) = r + mα uα,a na . (17.21) R= M α M α M α Offenbar verschwindet sie Summe in der Klammer genau dann, wenn wir als Bezugspunkt r den Schwerpunkt wählen, und genau in diesem Fall ist der Gesamtimpuls des Körpers durch den einfachen Ausdruck P (t) = M v(t) = M ṙ(t) (17.22) gegeben. Da dies, wie schon eingangs erwähnt, die folgenden Rechnungen erheblich vereinfacht, wollen wir von nun an diese spezielle Wahl treffen. Aus der Definition des Impulses lässt sich nun leicht die erste Bewegungsgleichung ableiten. Auch dazu betrachten wir zuerst wieder die einzelnen Teilchen. Auf jedes Teilchen wirkt eine äußere Kraft Fα und eine Zwangskraft Zα , die dafür sorgt, dass die Abstände des Teilchens zu den anderen Teilchen unverändert bleiben. Beide Kräfte hängen im allgemeinen von der Zeit ab. Somit gilt für jedes einzelne Teilchen die Bewegungsgleichung ṗα (t) = Fα (t) + Zα (t). (17.23) Die einzelnen Zwangskräfte kennen wir nicht, aber wir müssen sie auch nicht kennen, um die Bewegungsgleichung für den starren Körper als ganzes zu bestimmen. Wir summieren dazu einfach über alle Teilchen. Das ergibt X Ṗ (t) = F (t) = Fα (t), (17.24) α denn für die Zwangskräfte Zα gilt das dritte Newtonsche Gesetz. Sie heben sich gegenseitig als Wechselwirkungskräfte auf, so dass die Summe über alle Teilchen verschwindet. Die zeitliche Änderung des Gesamtimpulses P ist folglich durch die Gesamtkraft F gegeben, die sich wiederum als Summe aller auf die einzelnen Teilchen wirkenden Kräfte ergibt. Aus (17.22) und (17.24) ergibt sich somit das folgende System von Gleichung für die Bewegung des Schwerpunktes des Körpers, M ṙ(t) = P (t), Ṗ (t) = F (t) ⇒ M r̈(t) = F (t). (17.25) Das sind formal die Bewegungsgleichung für ein punktförmiges Teilchen. Offenbar haben wir damit gezeigt, dass sich ein ausgedehnter Körper, wenn wir von seiner Rotationsbewegung absehen, tatsächlich wie ein punktförmiges, in seinem Schwerpunkt befindliches Teilchen verhält. Die Bewegung des Bezugspunktes, also des Schwerpunktes, entkoppelt anscheinend von der Rotationsbewegung. Das ist aber nicht ganz richtig. Es kommt nämlich entscheidend darauf an, wovon die Kraft F abhängt. Da es sich um die Summe über alle auf die einzelnen Teilchen wirkenden Kräfte handelt, hängt diese Kraft im allgemeinen auch von den Orten und Geschwindigkeiten aller dieser Teilchen ab, und somit auch von der räumlichen Lage und der Winkelgeschwindigkeit des Körpers. Wir wollen uns das an ein paar einfachen Beispielen klar machen. Aufgabe 17.4 Zunächst befinde sich der Körper entweder in einem homogenen Gravitationsfeld g oder einem homogenen elektrischen Feld E, wobei die Teilchen dann zus ätzlich noch Ladungen qα tragen sollen. Man zeige, dass in diesem Fall die Gesamtkraft durch F =Mg bzw. F = Q E gegeben ist, wobei M die Gesamtmasse und Q die Gesamtladung des K örpers ist. 190 (17.26) In einem homogenen elektrischen Feld bzw. einem homogenen Gravitationsfeld verhält sich ein ausgedehnter Körper also tatsächlich wie ein Punktteilchen. Das gilt in guter Näherung auch dann noch, wenn das Feld zwar inhomogen ist, aber auf einer Skala, die sehr viel größer ist als die Ausdehnung des Körpers. Als ein typisches Beispiel dafür hatten wir die Bewegung eines Planeten im Gravitationsfeld der Sonne diskutiert. Innerhalb des Planeten kann das Gravitationsfeld der Sonne als homogen angenommen werden, so dass die Gesamtkraft F tatsächlich nur vom Ort r des Schwerpunktes des Planeten abhängt. Wir können nun sogar abschätzen, wie groß der Fehler ist, den wir dabei machen. Aufgabe 17.5 Bewegt sich der Körper in einem inhomogenen Gravitationsfeld g, so wirkt auf ein Teilchen am Ort rα die Kraft Fα = mα g(rα ) = mα g(r + uα,a na ). (17.27) Man entwickle diesen Ausdruck bis zur zweiten Ordnung in den Koordinaten u α,a in eine Taylor-Reihe und berechne daraus näherungsweise die Gesamtkraft. Man zeige, dass der Term erster Ordnung verschwindet. Eine Abweichung von der Punkteilchen-Näherung, bei der man F = g(r) setzt, tritt also erst dann auf, wenn die zweite Ableitung des Gravitationsfeldes von Null verschieden ist. Aufgabe 17.6 Man zeige, dass der relative Fehler, den man bei der Berechnung der Kraft macht, wenn man die Erde im Gravitationsfeld der Sonne als punktförmig betrachtet, von der Größenordnung Erdradius geteilt durch Bahnradius hoch zwei ist, also etwa 10−9 . Wie dieses Beispiel zeigt, gilt die Punktteilchen-Näherung nur dann, wenn der Körper so klein ist, dass er die Inhomogenität eines Feldes nicht spürt. Geschwindigkeitsabhängige Kräfte führen ebenfalls dazu, dass die Rotationsbewegung nicht mehr von der Schwerpunktbewegung entkoppelt, und somit der Körper nicht mehr als Punktteilchen betrachtet werden kann. Aufgabe 17.7 Der Körper bewege sich in einem homogenen Magnetfeld B. Man zeige, dass auf ihn die Gesamtkraft F = Q v × B + χa (ω × na ) × B (17.28) wirkt, wobei Q wieder die Gesamtladung und χa die körperfesten Komponenten des elektrischen Dipolvektors sind, X X Q= qα , χa = qα uα,a . (17.29) α α Die Formel für die Lorentzkraft auf ein Punktteilchen, das sich im Schwerpunkt befindet, gilt also nur dann, wenn der Dipolvektor des Körpers verschwindet. Das ist zum Beispiel dann der Fall, wenn die Ladungsverteilung der Massenverteilung entspricht, also für alle Teilchen qα /mα = q/m gilt. Trägheitstensor, Drehimpuls und Drehmoment Nun wollen wir die Bewegungsgleichungen für die Rotationsbewegung aufstellen. Die entscheidende Größe, die wir dazu benötigen, ist der innere Drehimpuls S. Wir erinnern uns, dass es für ein System von Punktteilchen verschiedene Möglichkeiten gibt, einen Drehimpuls zu definieren. Der Drehimpuls eines einzelnen Teilchens bezüglich eines raumfesten Bezugspunktes o ist durch lα = (rα − o) × pα (17.30) gegeben, also durch das Kreuzprodukt des Ortsvektors mit dem Impuls, wobei der Ortsvektor der Abstandsvektor zum Bezugspunkt o ist. Summieren wir über alle Teilchen, so ergibt sich der Gesamtdrehimpuls zu X X L= lα = (rα − o) × pα . (17.31) α α 191 Den Schwerpunktdrehimpuls hatten wir als den Drehimpuls eines fiktiven, im Schwerpunkt des Systems lokalisierten Teilchens definiert, dessen Impuls der Gesamtimpuls des Systems ist. Für den starren Körper lässt sich dieser unmittelbar aus den bereits eingeführten Bewegungsgrößen berechnen, X J = (r − o) × P = (r − o) × pα . (17.32) α Für einen starren Körper bezeichnet man dieser Größe auch als Bahndrehimpuls. Sowohl der Gesamtdrehimpuls als auch der Bahndrehimpuls hängen von der Wahl des Bezugspunktes o ab. Ersetzen wir ihn durch einen anderen Bezugspunkt o0 , so hatten wir in Kapitel 3 gezeigt, dass dann L0 = J − (o0 − o) × P und J 0 = J − (o0 − o) × P (17.33) gilt. Beide Größen transformieren in der gleichen Art und Weise unter einer Verschiebung des Bezugspunktes. Der innere Drehimpuls ist die Differenz S = L − J . Er ist folglich unabhängig vom Bezugspunkt und eignet sich zur Beschreibung der Rotationsbewegung eines starren Körpers daher besser als der Gesamtdrehimpuls. Für einen starren Körper lässt sich der innere Drehimpuls leicht berechnen. Wir bilden einfach die Differenz der Gleichungen (17.31) und (17.32), X X S =L−J = (rα − r) × pα = uα × p α (17.34) α α Wie in Abbildung 17.2(b) gezeigt, trägt jedes Teilchen mit einem Beitrag zum inneren Drehimpuls bei, der sich aus dem Kreuzprodukt des Abstandsvektors vom Schwerpunkt mit dem Impuls ergibt. In diesem Sinne ist der innere Drehimpuls, wie wir bereits in Abbildung 3 gesehen hatten, so etwas wie der Gesamtdrehimpuls des System, wobei als Bezugspunkt aber nicht der Koordinatenursprung, sondern der Schwerpunkt gewählt wird. Wie der Impuls lässt sich auch der Drehimpuls durch die Bewegungsgrößen des starren Körpers ausdrücken. Wenn wir (17.18) in (17.34) einsetzen, ergibt sich X X S= uα × p α = mα uα,a na × (v + uα,b ω × nb ) α = α X α mα uα,a na × v + X α mα uα,a uα,b na × (ω × nb ). (17.35) Der erste Term verschwindet, denn es handelt sich wieder um die Summe aus (17.21). Für das doppelte Kreuzprodukt gilt na × (ω × nb ) = (na · nb ) ω − (na · ω) nb = (δab ωc − δbc ωa ) nc . (17.36) Wenn wir nun noch ein paar Indizes umbenennen, lässt sich der innere Drehimpuls schließlich wie folgt ausdrücken, X S= mα (uα,c uα,c ωa − uα,a uα,b ωb ) na . (17.37) α Noch einfacher wird dieser Ausdruck, wenn wir die Komponenten von S bezüglich der Basis n a angeben. Dann ist X S = Sa na , mit Sa = Θab ωb , Θab = mα (uα,c uα,c δab − uα,a uα,b ). (17.38) α 192 Die 3 × 3-Matrix Θab heißt Trägheitstensor. Es handelt sich offenbar um die zeitlich konstanten Komponenten eines symmetrischen Tensors Θ zweiter Stufe bezüglich des körperfesten Koordinatensystems. Aufgefasst als lineare Abbildung bildet der Trägheitstensor die Winkelgeschwindigkeit auf den Drehimpuls ab. Mit der Notation aus (9) können wir dafür auch schreiben S = Θ(ω), mit Θ = Θab na ⊗ nb . (17.39) Diese Beziehung ist analog zur Beziehung P = M v zu verstehen, die eine lineare Beziehung zwischen Impuls und Geschwindigkeit herstellt. Zu beachten ist allerdings, dass der Trägheitstensor Θ, im Gegensatz zur Masse M des Körpers, von seiner Lage im Raum abhängt. Diese geht also implizit in die lineare Beziehung (17.39) ein. Wie wir gleich sehen werden, lässt sich aber auch diese Beziehung eindeutig umkehren, so dass aus dem Drehimpuls auf die Winkelgeschwindigkeit und damit die Rotationsbewegung des Körpers geschlossen werden kann. Zuvor wollen wir jedoch die eigentliche Bewegungsgleichung aufstellen. Dazu müssen wir die Zeitableitung des Drehimpulses berechnen. Wir gehen wieder von der Bewegungsgleichung (17.23) für das Teilchen α aus. Für den Gesamtdrehimpuls folgt daraus X X L̇ = (rα − o) × ṗα = (rα − o) × (Fα + Zα ). (17.40) α α Hier haben wir bereits verwendet, dass die Geschwindigkeit ṙα des Teilchens proportional zu pα ist, so dass wir diesen Term nicht berücksichtigen müssen. In der Summe heben sich außerdem die Zwangskräfte wieder gegenseitig auf. Wir schreiben sie dazu als Summe über Wechselwirkungskräfte zwischen je zwei Teilchen, für die das dritte Newtonsche Gesetz gilt, X Zα = Zα,β , mit Zα,β = −Zβ,α , Zα,α = 0. (17.41) β Daraus folgt X α (rα − o) × Zα = X α,β (rα − o) × Zα,β = − X α,β (rβ − o) × Zα,β . (17.42) Die letzte Gleichung ergibt sich, indem wie zuerst die Indizes α und β vertauschen, und anschließend benutzen, dass Zα,β = −Zβ,α ist. Addieren wir die beiden letzten Ausdrücke, so ergibt sich X X 2 (rα − o) × Zα = (rα − rβ ) × Zα,β = 0, (17.43) α α denn die Zwangskräfte, die dafür sorgen, dass die Abstände der Teilchen konstant bleiben, sind Zentralkräfte. Damit haben wir noch einmal gezeigt, dass Zentralkräfte den Gesamtdrehimpuls eines Systems nicht verändern. Seine Zeitableitung hängt nur von den äußeren Kräften ab, X L̇ = (rα − o) × Fα . (17.44) α Für die Zeitableitung des Bahndrehimpulses ergibt sich aus (17.24) X J˙ = (r − o) × Ṗ = (r − o) × F = (r − o) × Fα . (17.45) Bilden wir wieder die Differenz, so finden wir schließlich die Bewegungsgleichung für S, X X Ṡ = M , mit M = (rα − r) × Fα = uα × F α . (17.46) α α α 193 Der Vektor M wird als Drehmoment bezeichnet. Es setzt sich wieder aus Beiträgen der einzelnen Teilchen zusammen, wobei jeweils das Kreuzprodukt des Abstandsvektors vom Bezugspunkt mit der Kraft zu bilden ist. Das Bild ist das gleiche wie in Abbildung 17.2(b), wobei der Impuls p α durch die Kraft Fα zu ersetzen ist. Die Bewegungsgleichungen des starren Körpers lassen sich damit wie folgt kompakt zusammenfassen. Sie bilden ein System von Differenzialgleichungen erster Ordnung. Impuls und Drehimpuls sind als lineare Funktionen der Geschwindigkeit und Winkelgeschwindigkeit gegeben, die wiederum durch die zeitlichen Ableitungen des Ortes und der Lage des Körpers gegeben sind, P = M v, S = Θ(ω), mit v = ṙ, ω= 1 εabc (ṅa · nb ) nc . 2 (17.47) Die zeitlichen Änderungen von Impuls und Drehimpuls ergeben sich aus der Kraft und dem Drehmoment, die sich wiederum aus den Kräfte auf die einzelnen Teilchen zusammensetzen, X X Ṗ = F = Fα , Ṡ = M = uα × F α . (17.48) α α Insbesondere folgt aus den Bewegungsgleichungen, dass P und S Erhaltungsgrößen sind, wenn auf den Körper keine äußeren Kräfte einwirken. Mit diesem Fall eines “freien” starren Körpers werden wir und gleich ausführlich beschäftigen. Aufgabe 17.8 Man zeige, dass auf einen starren Körper in einem homogenen Gravitationsfeld kein Drehmoment wirkt. Aufgabe 17.9 Man berechne das Drehmoment auf einen geladenen K örper in einem homogenen elektrischen Feld und drücke das Ergebnis durch die Feldstärke E und den Dipolvektor χ = χa na aus Aufgabe 17.7 aus. Aufgabe 17.10 Man berechne die kinetische Energie eines starren K örpers und zeige, dass diese sich wie folgt aus einer “Bewegungsenergie” und einer “Rotationsenergie” zusammensetzt, T = 1 1 1 1 M v · v + Θ(ω, ω) = M vi vi + Θab ωa ωb . 2 2 2 2 (17.49) Aufgabe 17.11 Man bestimme das Trägheitmoment der Hantel aus Abbildung 5.3(b). Wie groß sind laut (17.49) Bewegungs- und Rotationsenergie, wenn die Hantel mit einer Winkelgeschwindigkeit ω um eine zur Stange senkrechte Achse rotiert und sich mit der Geschwindigkeit v durch den Raum bewegt? Kontinuierliche Körper Die Vorstellung von einem aus einzelnen Teilchen aufgebauten Körper ist zwar sehr nützlich, um das Konzept eines starren Körpers auf der Basis der Mechanik von Punktteilchen zu verstehen. In der Praxis ist dieses Konzept aber unbrauchbar, da es unmöglich ist, einen makroskopischen Körper durch die Gesamtheit seiner atomaren Teilchen zu beschreiben. Außerdem verhalten sich diese Teilchen ja in Wirklichkeit nicht wie klassische Punkteilchen, sondern müssten genau genommen quantenmechanisch beschrieben werden. Wir wollen daher zeigen, dass wir über den genauen Aufbau eines starren Körpers eigentlich gar nicht viel wissen müssen, um seine Bewegungsgleichungen aufzustellen. Es ist nicht nötig, die Koordinaten u α,a aller Teilchen kennen, und wir müssen auch nicht alle Massen m α oder alle Ladungen qα der Teilchen kennen. Es genügt, gewisse Verteilungsfunktionen dieser Größen zu kennen. 194 In die Beziehungen (17.47) zwischen Impuls und Geschwindigkeit bzw. Drehimpuls und Winkelgeschwindigkeit gehen zum Beispiel nur zwei solche Größen ein, nämlich die Gesamtmasse M und der Trägheitstensor Θ. Welche Größen konkret in die Kraftgleichungen (17.48) eingehen, hängt zwar davon ab, welche Art von Kräften auftreten. Aber auch hier ist es im allgemeinen so, dass wir nur ganz spezielle Funktionen der Teilchenorte, Massen, Ladungen etc. kennen müssen, um die Kraft bzw. das Drehmoment zu bestimmen. Am Beispiel der Größen M und Θ wollen wir zeigen, wie sich diese Größen für einen aus kontinuierlicher Materie bestehenden Körper berechnen lassen. Alles, was wir dazu wissen müssen, ist, wie die Masse innerhalb des Körpers verteilt ist. Dies wird durch eine Massendichte µ(r) beschrieben. In einem Volumenelement dω(r) am Ort r befindet sich dann eine Masse dµ(r) = µ(r) dω(r). Das Problem bei der Beschreibung eines sich bewegenden starren Körpers ist nun, dass diese Massendichte von der Zeit abhängt, und zwar in einer sehr speziellen Art und Weise. Die Zeitabhängigkeit der Massendichte µ(r) kommt dadurch zustande, dass sich der Körper als ganzes zwar bewegt, nicht jedoch durch eine Verformung des Körpers. Dieses Problem können wir dadurch lösen, dass wir zur Beschreibung der Massendichte das körperfeste Koordinatensystem verwenden. Wir betrachten die Massendichte daher nicht als Funktion des Ortes, sondern als Funktion µ(u) des in Abbildung 17.2 definierten Vektors u, und stellen sie explizit als Funktion der körperfesten Koordinaten dar, also letztlich als Funktion µ({ua }) von drei reellen Zahlen. Diese Funktion ist dann zeitlich konstant, das heißt wir können mit ihnen rechnen wie mit einer zeitlich konstanten Massenverteilung. So können wir zum Beispiel die Gesamtmasse des Körpers berechnen, indem wir die Massendichte integrieren, Z Z Z M= dµ(u) = dω(u) µ(u) = du1 du2 du3 µ(u). (17.50) Die Integration erfolgt formal immer über den ganzen Raum, wobei wir aber annehmen, dass der Körper nur eine endliche Ausdehnung hat, so dass effektiv nur über einen endlichen Raumbereich zu integrieren ist. Da durch die körperfesten Koordinaten ua ein kartesisches Koordinatensystem definiert wird, ist das Volumenelement einfach durch dω(u) = du1 du2 du3 gegeben, wobei alle Koordinaten über ganz R laufen. Die Massendichte µ(u) ist nicht ganz beliebig, denn auch für einen kontinuierlichen Körper gilt, dass der Bezugspunkt mit dem Schwerpunkt übereinstimmen muss. Wie wir gesehen haben, ist dies für einen aus Teilchen aufgebauten Körper genau dann der Fall, wenn die Summe in (17.21) verschwindet, also X mα uα,a = 0. (17.51) α Ersetzen wir hier die Summe durch ein Integral, und die Massen mα der Teilchen durch das Massenelement dµ(u) am Ort u, so ergibt sich die entsprechende Bedingung für einen kontinuierlichen Körper zu Z Z dµ(u) ua = dω(u) µ(u) ua = 0 (17.52) Man beachte, dass dies eine Vektorgleichung ist, die sich aus drei Komponenten zusammensetzt. An einem einfachen Beispiel lässt sich zeigen, dass dadurch die Lage des Bezugspunktes eindeutig festgelegt wird. Aufgabe 17.12 Ein gleichmäßig mit Masse gefüllter Quader werde durch die folgende Massendichte beschrieben, µ0 falls a1 < u1 < b1 , a2 < u2 < b2 , a3 < u3 < b3 , µ(u1 , u2 , u3 ) = (17.53) 0 sonst. Man bestimme die Gesamtmasse und zeige, dass die Schwerpunktbedingung (17.52) genau dann erf üllt ist, wenn a1 + b1 = a2 + b2 = a3 + b3 = 0 ist. In diesem Fall befindet sich der Mittelpunkt des Quaders genau am Ort mit den Koordinaten u1 = u2 = u3 = 0. 195 Aufgabe 17.13 Es sei eine Massedichte µ(u) vorgegeben, die die Bedingung (17.52) nicht erf üllt. Man zeige, dass man dann zu einer verschobenen Massedichte µ̃(u) = µ(u − a) übergehen kann, wobei a ein fester Vektor ist, so dass die neue Massendichte µ̃(u) die Bedingung erf üllt. Dies entspricht einer Verschiebung des Bezugspunktes so, dass der neue Bezugspunkt mit dem Schwerpunkt übereinstimmt. Nun können wir auch den Trägheitstensor eines kontinuierlichen Körpers berechnen. Wir gehen von der Darstellung (17.38) für Punktteilchen aus, X Θab = mα (uα,c uα,c δab − uα,a uα,b ), (17.54) α und ersetzen die Summe wieder durch ein Integral. Das ergibt Z Θab = dω(u) µ(u) (uc uc δab − ua ub ). (17.55) Aufgabe 17.14 Man berechne dieses Integral für den Quader aus Aufgabe 17.12, wobei der Schwerpunkt jetzt mit dem Bezugspunkt übereinstimmen soll. Es ist dann −a1 = b1 = `1 /2, −a2 = b2 = `2 /2, −a3 = b3 = `3 /2, wobei `1 , `2 , `3 die Kantenlängen des Quaders sind. Man zeige, dass sich der Trägheitstensor schließlich wie folgt als Matrix darstellen lässt, 2 `2 + ` 3 2 0 0 Θ11 Θ12 Θ13 M . 0 `3 2 + `1 2 0 Θab = Θ21 Θ32 Θ23 = (17.56) 12 2 2 0 0 ` 1 + `2 Θ31 Θ32 Θ33 Für einen Würfel der Kantenlänge ` ergibt sich daraus Θab = M `2 δab /6, das heißt der Trägheitstensor eines Würfels ist proportional zur Einheitsmatrix. Symmetrien des Trägheitstensors Um den Trägheitstensor eines gegebenen Körpers explizit zu berechnen, können wir auch andere als kartesische Koordinatensystem verwenden, wenn diese besser an die Geometrie des Körpers angepasst sind. Oft helfen dabei auch Symmetrieüberlegungen. Hat der Körper bestimmte Symmetrien, so hat auch der Trägheitstensor diese Symmetrien, und damit lässt sich seine Berechnung oft erheblich vereinfachen. Was bedeutet in diesem Fall Symmetrie? Wir nennen einen Körper symmetrisch, wenn er unter einer bestimmten Transformation in sich übergeht. Da eine solche Transformation stets den Schwerpunkt auf sich selbst abbilden muss, kann es sich nur um eine Rotation oder eine Spiegelung handeln, also um eine orthogonale Transformation. Eine solche Abbildung wird durch eine orthogonale Matrix dargestellt, u 7→ ũ = D(u), ua 7→ ũa = Dab ub , mit Dab Dac = δab . (17.57) Wir verwenden diese Abbildung zunächst dazu, im Integral (17.55) eine Substitution durchzuführen, indem wir die Integrationsvariable u durch ũ = D · u ersetzen. Zunächst zeigt man leicht, dass für den Ausdruck in der Klammer (ũe ũe δab − ũa ũb ) = Dac Dbd (ue ue δcd − uc ud ) (17.58) gilt. Ferner ist unter einer orthogonalen Transformation das Volumenelement invariant, dω(ũ) = dω(D(u)) = dω(u). 196 (17.59) Eingesetzt in (17.55) ergibt sich somit Z Z Θab = dω(ũ) µ(ũ) (ũe ũe δab − ũa ũb ) = Dac Dbd dω(u) µ(D(u)) (ue ue δab − ua ub ) (17.60) Beides sind Eigenschaften von orthogonalen Transformationen, die wir in Kapitel 9 bewiesen haben. Nun betrachten wir den speziellen Fall, dass es sich bei der Abbildung u 7→ D · u um eine Symmetrie des Körper handelt. In diesem Fall ist µ(D(u)) = µ(u), (17.61) denn die Massendichte ist vor und nach der Anwendung der Abbildung die gleiche. Offenbar ergibt sich dann aus (17.60) Θab = Dac Dbd Θcd . (17.62) Den Ausdruck auf der rechten Seite kennen bereits als das Verhalten eines Tensors zweiter Stufe unter einer linearen Abbildung. Die Aussage ist also, dass der Trägheitstensor unter jeder orthogonalen Abbildung invariant ist, die den Körper in sich überführt. Der Trägheitstensor ist mindestens so symmetrisch wie der Körper, zu dem er gehört. Als spezielles Beispiel hatten wir bereits den Trägheitstensor eines Quaders berechnet und gesehen, dass es sich um eine Diagonalmatrix handelt, wenn wir die Koordinatenachsen in die Richtungen der Kanten legen. Tatsächlich ist dies eine Konsequenz der Symmetrien. Der Quader ist symmetrisch bezüglich der Spiegelungen an der Koordinatenebenen. So wird zum Beispiel die Spiegelung an der 1-2-Ebene durch die Matrix 1 0 0 Dab = 0 1 0 (17.63) 0 0 −1 dargestellt. Wie man leicht sieht, ergibt sich aus (17.62) zum Beispiel Θ23 = D2c D3d Θcd = −Θ23 ⇒ Θ23 = 0. (17.64) Entsprechend lässt sich das Verschwinden von allen anderen nichtdiagonalen Einträge von Θ ab zeigen, indem man jeweils eine der drei möglichen Spiegelungen auswählt und die Gleichung (17.62) für die entsprechende Komponente aufschreibt. Wir haben also gezeigt, dass der Trägheitstensor diagonal ist, wenn der Körper symmetrisch unter Spiegelungen an den Koordinatenachsen ist. Oft ist der Trägheitstensor sogar noch symmetrischer als der Körper selbst. Ein Beispiel dafür ist der Würfel. In diesem Fall ist, wie wir in Aufgabe 17.14 gesehen haben, Θab = M `2 δab /6. Dieser Tensor ist unter allen orthogonalen Transformationen invariant, denn er ist proportional zum Einheitstensor, und somit ist (17.62) für alle orthogonalen Matrizen erfüllt. Aber natürlich geht der Würfel nicht unter allen orthogonalen Abbildung in sich über. Umgekehrt können wir die Symmetrien eines Körpers nun auch benutzen, um den Trägheitstensor zu berechnen. Der symmetrischste denkbare Körper ist eine Kugel. Wir wollen also den Trägheitstensor einer Kugel mit Radius R, Massendichte µ0 , und folglich der Masse M = 4π µ0 R3 /3 berechnen. Da der Einheitstensor δab der einzige Tensor zweiter Stufe ist, der unter allen orthogonalen Abbildungen invariant ist, muss der Trägheitstensor der Kugel proportional dazu sein. Wir machen also den Ansatz Θab = θ δab (17.65) Um die skalare Größe θ zu berechnen, bilden wir die Spur dieses Tensors. Es ist Θ aa = 3 θ und folglich Z Z 1 1 2 θ = Θaa = dω(u) µ(u) (uc uc δaa − ua ua ) = dω(u) µ(u) ua ua . (17.66) 3 3 3 197 Das Integral lässt sich nun am leichtesten in Kugelkoordinaten auswerten. Wir ersetzen die kartesischen Koordinaten (u1 , u2 , u3 ) durch (r, ϑ, ϕ), wobei r 2 = ua ua ist, und die Massendichte nur von r abhängt. Mit dem bekannten Volumenelement in Kugelkoordinaten finden wir 2 θ= 3 Z 8π µ0 µ(r) r 4 sin ϑ dr dϑ dϕ = 3 Z R r 4 dr = 8π 2 µ0 R 5 = M R 2 . 15 5 (17.67) 0 Damit finden wir für den Trägheitstensor einer Kugel Θab = 2 M R2 δab . 5 (17.68) Aufgabe 17.15 Wie bewegt sich eine Kugel, wenn auf sie keine äußeren Kräfte wirken? Wie bewegt sich ein Würfel ohne äußeren Kräfte? Aufgabe 17.16 Eine Kugel und ein Würfel rotieren mit der gleichen Winkelgeschwindigkeit. Beide haben dieselbe Masse und bestehen aus dem gleichen Stoff. Welcher der K örper besitzt eine größere Rotationsenergie? Um ein nicht ganz so einfaches Beispiel vorzuführen, berechnen wir noch den Trägheitstensor eines Zylinders. Er soll den Radius R, die Länge `, und die Massendichte µ 0 haben. Für die Masse ergibt sich daraus M = π µ0 ` R2 . Die Koordinatenachsen legen wir so, dass die Rotationsachse des Zylinders die 3-Achse ist, und der Querschnitt eine Kreisscheibe in der 1-2-Ebene liegt. Der Trägheitstensor ist dann wieder diagonal, denn der Zylinder ist symmetrisch unter Spiegelungen an allen drei Koordinatenebenen. Es gilt also Θ11 0 0 Θab = 0 Θ22 0 . (17.69) 0 0 Θ33 Darüber hinaus gilt sogar Θ11 = Θ22 , aufgrund der Rotationssymmetrie um die 3-Achse. Das ist anschaulich mehr oder weniger offensichtlich, denn wir können die Richtungen den 1- und 2-Achse beliebig wählen und somit die beiden Achsen auch vertauschen. Formal können wir den Beweis wie folgt führen. Der Zylinder ist symmetrisch unter einer Spiegelung an der Winkelhalbierenden in der 1-2-Ebene. Diese wird durch die Matrix 0 1 0 Dab = 1 0 0 (17.70) 0 0 1 dargestellt. Aus der Symmetrieforderung (17.62) an den Trägheitstensor ergibt sich daraus Θ11 = D1c D1d Θcd = D12 D12 Θ22 = Θ22 . Wir müssen also nur zwei Größen berechnen, nämlich Θ11 = Θ22 und Θ33 . Beginnen wir mit Z Θ33 = dω(u) µ(u) (u12 + u2 2 ). (17.71) (17.72) Um dieses Integral auszuwerten, verwenden wir Zylinderkoordinaten, das heißt wir setzen u1 = r cos ϕ, u2 = r sin ϕ, u3 = z 198 ⇒ dω(u) = r dr dϕ dz. (17.73) Für die Massendichte gilt µ(r, z) = µ0 0 falls r < R, sonst. −`/2 < z < `/2, (17.74) Mit den entsprechenden Integrationsgrenzen und nach Ausführung der ϕ-Integration ergibt sich daraus Θ33 = 2π µ0 Z 0 Z `/2 π 1 dr dz r 3 = µ0 ` R4 = M R2 . 2 2 R (17.75) −`/2 Für die Komponenten Θ11 und Θ22 gilt Z Θ11 = dω(u) µ(u) (u22 + u3 2 ), Θ22 = Z dω(u) µ(u) (u12 + u3 2 ). (17.76) Da wir bereits wissen, dass sie gleich sind, berechnen wir die Summe und drücken das Integral wieder in Zylinderkoordinaten aus, Θ11 + Θ22 = Z dω(u) µ(u) (u12 + u2 2 + 2 u3 2 ) = 2π µ0 Z 0 Z `/2 dr dz r (r 2 + 2 z 2 ). R (17.77) −`/2 Auch dieses Integral kann leicht ausgewertet werden. Man findet schließlich Θ11 = Θ22 = π µ0 ` R 4 π µ0 ` 3 R 2 M + = (3 R2 + `2 ). 4 12 12 (17.78) Für einen zylindrischen Körper sind also stets zwei diagonale Komponenten des Trägheitstensors gleich, nämlich die in der Rotationsebene des Zylinders, während die dritte Komponente größer oder kleiner sein kann, je nachdem, ob der Zylinder eher flach oder lang ist. Wenn zwischen Radius und Länge die Beziehung `2 = 3 R2 gilt, so sind alle Komponenten gleich. In diesem Fall ist der Trägheitstensor proportional zur Einheitsmatrix, hat also die gleichen Symmetrien wir der eines Würfels oder einer Kugel. Gilt dagegen `2 > 3 R2 , zum Beispiel im Fall einer langen Stange, so ist die Komponenten des Trägheitstensors entlang der Drehachse des Zylinders kleiner als die anderen. Ein Drehung um diese Symmetrieachse hat eine kleinere Rotationsenergie als eine Drehung um eine dazu senkrechte Achse. Ist der Zylinder dagegen flach wie ein Münze, so ist ` 2 < 3 R3 . In diesem Fall hat eine Rotation um die Symmetrieachse ein höhere Energie als eine Rotation um eine dazu senkrechte Achse. Aufgabe 17.17 Wie sieht der Trägheitstensor für das Rad aus Abbildung 12.3 aus? 199 18 Der Kreisel Nachdem wir im letzten Kapitel die wesentlichen physikalischen Eigenschaften des starren Körpers beschrieben haben, wollen wir nun seine Bewegungen studieren. Schon für einen freien Kreisel, also für einen starren Körper, der keinen äußeren Kräften ausgesetzt ist, sind diese Gleichungen nicht ganz einfach. Sie lassen sich zwar durch eine geschickte Wahl des körperfesten Koordinatensystems auf eine relativ einfache Form bringen. Jedoch können nur für sehr spezielle Ausnahmefälle exakte Lösungen angegebene werden. Eigenwerte und Eigenvektoren Bevor wir versuchen, die Bewegungsgleichungen zu lösen, werden wir sie auf eine möglichst einfache Form bringen. Dazu müssen wir das körperfeste Koordinatensystem in einer speziellen Art und Weise wählen. Wie wir bereits im letzten Kapitel gesehen haben, wird der Trägheitstensor durch eine Diagonalmatrix dargestellt, wenn der Körper besonders symmetrisch ist und das körperfeste Koordinatensystem an diese Symmetrie angepasst wird. Wir werden nun zeigen, dass es unabhängig von der Symmetrie des Körpers immer möglich ist, das körperfeste Koordinatensystem so zu wählen, dass der Trägheitstensor durch eine Diagonalmatrix dargestellt wird. Wir benötigen dafür einen Satz aus der linearen Algebra, den wir kurz beweisen werden, weil der Beweis auf einer sehr schönen Anwendung des Variationsprinzips mit Nebenbedingungen beruht. Es sei ein N -dimensionaler, metrischer Vektorraum V gegeben, sowie ein symmetrischer Tensor zweiter Stufe Θ. Durch einen solchen Tensor wird eine bilineare Abbildung definiert, V ×V →R: (x, y) 7→ Θ(x, y), (18.1) die ebenfalls symmetrisch ist, Θ(x, y) = Θ(y, x). (18.2) Es sei nun ei eine Orthonormalbasis, x = xi ei und y = yi ei . Dann ist Θ(x, y) = Θij xi yj , Θij = Θji . (18.3) Alternativ können wir den Tensor Θ auch als eine lineare Abbildung V→V: x 7→ Θ(x), (18.4) auffassen. In Komponenten ausgedrückt schreibt sich diese Abbildung als x = x i ei 7→ y = y i ei , mit yi = Θij xj . (18.5) Wir können Θ also Wahlweise als Funktion mit einem Argument auffassen, wobei Θ(x) dann wieder ein Vektor ist, oder als Funktion mit zwei Argumenten, wobei Θ(x, y) eine reelle Zahl ist. Wie man leicht sieht, gilt Θ(x, y) = x · Θ(y) = y · Θ(x) = Θ(y, x). (18.6) Einen nicht verschwinden Vektor n = ni ei nennen wir Eigenvektor von Θ, wenn er auf ein Vielfaches von sich selbst abgebildet wird, wenn also gilt EigenwertGleichung Θ(n) = λ n, bzw. Θij nj = λ ni . (18.7) Die Zahl λ ∈ R ist der zugehörige Eigenwert. Über die Eigenwerte und Eigenvektoren lässt sich dann folgender Satz beweisen. 200 Auf einem N -dimensionalen metrischen Vektorraum existieren zu jedem symmetrischen Tensor zweiter Stufe insgesamt N zueinander senkrechte, normierte Eigenvektoren. Es gibt also Einheitsvektoren na , mit a ∈ {1, . . . , N }, mit der Eigenschaft Θ(na ) = λa na , na · nb = δab . (18.8) Man beachte, dass auf der rechten Seite der ersten Gleichung über den Index a nicht zu summieren ist. Die Gleichung würde dann auch gar keinen Sinn ergeben. Es handelt sich an dieser Stelle also nicht um einen Vektorindex im üblichen Sinne. Es ist einfach nur ein laufender Index, der die Eigenvektoren durchnummeriert. Für die im folgenden auftretenden Indizes a, b, . . . gilt daher bis auf weiteres keine Summenkonvention. Der Beweis des Satzes erfolgt durch vollständige Induktion über die Dimension N des Vektorraums. Für N = 1 ist der Satz trivial. In einem eindimensionalen Vektorraum ist jeder Vektor Eigenvektor einer linearen Abbildung, also auch jeder Einheitsvektoren, von denen es in diesem Fall genau zwei gibt. Es sei also N > 1, und wir nehmen an, dass der Satz für jeden Vektorraum kleinerer Dimension bereits bewiesen ist. Als erstes zeigen wir, dass es in V immer mindestens einen Eigenvektor von Θ gibt. Dazu betrachten wir die quadratische Funktion L(n) = 1 Θ(n, n) 2 (18.9) als Funktion auf der Einheitskugel, also der Menge aller Einheitsvektoren n in V. Das ist eine kompakte Menge, und die Funktion L ist stetig und differenzierbar, also nimmt die Funktion irgendwo ihr Maximum an. Wir werden zeigen, dass der Vektor n0 , an dem das Maximum angenommen wird, ein Eigenvektor von Θ ist. Den zugehörigen Eigenwert nennen wir λ0 . Wenn die Funktion L(n) an der Stelle n0 maximal ist, dann ist sie dort natürlich auch stationär. Wir betrachten daher das folgende Variationsproblem mit Nebenbedingung. Gesucht sind diejenigen Vektoren n ∈ V und Zahlen λ ∈ R, für die die Funktion L(n, λ) = 1 1 Θ(n, n) − λ (n · n − 1) 2 2 (18.10) stationär ist. Wie wir in Kapitel 14 gezeigt haben, ist diese Funktion genau an den Stellen stationär, die als Kandidaten für die Extrema der Funktion (18.9) in Frage kommen. Tatsächlich liefert die Variation δL(n, λ) = δn · (Θ(n) − λ n) − 1 δλ (n · n − 1). 2 (18.11) Damit dieser Ausdruck für alle δλ und alle δn verschwindet, müssen die Gleichungen n · n = 1 und Θ(n) = λ n (18.12) erfüllt sein. Mit anderen Worten, n muss ein Einheitsvektor sein, der gleichzeitig ein Eigenvektor von Θ zum Eigenwert λ ist. Wir haben gezeigt damit, dass der Vektor n0 , an dem die Funktion L(n) auf der Einheitskugel ihr Maximum annimmt, ein Eigenvektor von Θ ist. Tatsächlich können wir auf diese Weise alle Eigenvektoren von Θ finden, denn offenbar sind die Eigenvektoren n und die zugehörigen Eigenwerte λ genau diejenigen Vektoren, für die Funktion (18.10) stationär ist. Es geht aber hier zunächst nur darum, zu beweisen, dass es stets N zueinander senkrechte solche Vektoren gibt. Wir zeigen nun, dass ein Vektor x, der zu n0 senkrecht steht, durch Θ auf einen Vektor y = Θ(x) abgebildet wird, der ebenfalls zu n0 senkrecht steht. Das folgt aus der Symmetrie des Tensors Θ. Es ist nämlich n0 · y = n0 · Θ(x) = Θ(n0 , x) = Θ(n0 ) · x = λ0 n0 · x. (18.13) 201 Aus x · n0 = 0 folgt also y · n0 = 0. Wir können das auch wie folgt formulieren. Der Orthogonalraum V⊥ = { x ∈ V, x · n0 = 0 } (18.14) wird von der Abbildung Θ auf sich abgebildet. Es existiert also eine lineare Abbildung V⊥ → V ⊥ : x 7→ Θ(x), (18.15) die die gleichen Eigenschaften hat wie die Abbildung (18.4) auf V. Sie wird durch einen Tensor zweiter Stufe auf V⊥ dargestellt, der ebenfalls symmetrisch ist, denn die Gleichung (18.2) gilt natürlich auch für alle Vektoren aus V⊥ . Ferner ist V⊥ natürlich auch ein metrischer Vektorraum. Allerdings mit einer kleineren Dimension, das heißt wir können annehmen, dass der Satz dort bereits gilt. Es gibt also einen Satz von Einheitsvektoren na aus V⊥ , mit a ∈ {1, . . . , N − 1}, und mit den Eigenschaften (18.8). Setzen wir nun nN = n0 , so sehen wir leicht, dass diese Eigenschaften auch für alle N Vektoren gelten, denn nN ist ein Eigenvektor von Θ, ein Einheitsvektor, und er steht senkrecht zu allen anderen Vektoren. Damit ist der Satz bewiesen. Aufgabe 18.1 An welchen beiden Stellen geht in den Beweis ein, dass der Tensor Θ symmetrisch ist, und warum ist das wesentlich? Hauptachsen Was bedeutet das nun für das physikalische Problem der Beschreibung eines rotierenden Körpers? Ein Satz von N zueinander senkrechten Einheitsvektoren in einem N -dimensionalen Vektorraum ist natürlich eine Orthonormalbasis. Es existiert also eine Orthonormalbasis, die aus Eigenvektoren besteht. Wir haben damit gezeigt, dass wir das körperfeste Koordinatensystem eines starren Körpers stets so wählen können, dass die Basisvektoren (n1 , n2 , n3 ) Eigenvektoren des Trägheitstensors sind. Die Koordinatenachsen, die dadurch definiert werden, heißen Haupttr ägheitsachsen des Körpers, oder kurz Hauptachsen. Die zugehörigen Eigenwerte sind die Trägheitsmomente des Körpers. Wir bezeichnen sie im folgenden mit (θ1 , θ2 , θ3 ). Es gilt also Hauptachsen Θ(n1 ) = θ1 n1 , Θ(n2 ) = θ2 n2 , Θ(n3 ) = θ3 n3 . (18.16) Wenn wir das Koordinatensystem auf diese Weise festlegen, dann ist die Darstellung des Trägheitstensors in dieser Basis, also die Matrix Θab , eine Diagonalmatrix ist. Sei nämlich ω irgendein Vektor, typischerweise eine Winkelgeschwindigkeit, und S = Θ(ω) der zugehörige Drehimpuls, dann gilt ω = ω 1 n1 + ω 2 n2 + ω 3 n3 ⇒ S = Θ(ω) = θ1 ω1 n1 + θ2 ω2 n2 + θ3 ω3 n3 (18.17) Anderseits gilt natürlich in jedem körperfesten Koordinatensystem, jetzt wieder mit der Summenkonvention, Sa = Θab ωb ⇒ S = Θab ωb na . (18.18) Durch Koeffizientenvergleich stellen wir fest, dass die Matrix Θab diagonal ist, θ1 0 0 Θab = 0 θ2 0 0 0 θ3 (18.19) Die Aussage des Satzes von oben, angewandt auf die spezielle physikalisch Situation, lautet somit wie folgt: 202 Jeder starre Körper besitzt ein System von drei Hauptachsen. Wählt man diese als Achsen des körperfesten Koordinatensystems, so ist der Trägheitstensor eine Diagonalmatrix. Die Hauptachsen sind nicht immer eindeutig bestimmt. Sind nämlich zwei der drei Eigenwerte, oder sogar alle drei gleich, so können wir zu beliebigen Linearkombinationen der entsprechenden Eigenvektoren übergehen und bekommen wieder Eigenvektoren zu den gleichen Eigenwerten. Dieser Fall liegt vor, wenn der Körper rotationssymmetrisch um eine Achse ist, wie etwa der Zylinder, dessen Trägheitstensor wir im letzten Kapitel berechnet hatten. In diesem Fall gibt es keine bevorzugte Wahl der beiden zur Zylinderachse senkrecht stehenden Hauptachsen. Und bei einer Kugel gibt es natürlich gar keine bevorzugte Wahl der Hauptachsen, denn jeder Vektor ist eine Eigenvektor des Trägheitstensors, der in diesem Fall proportional zum Einheitstensor ist. Aber auch, wenn der Körper selbst nicht symmetrisch ist, können gleiche Eigenwerte auftreten. Ein Beispiel hierfür ist ein Quader mit quadratischer Grundfläche. Dann sind zwei der drei Eigenwerte in (17.56) gleich. Durch den Trägheitstensor wird dann nur eine der Hauptachsen festgelegt, nämlich diejenige, die zur quadratischen Grundfläche senkrecht steht. Die anderen beiden Achsen können beliebig gewählt werde. Und schließlich hat ein Würfel, was den Trägheitstensor betrifft, die gleichen Symmetrien wie eine Kugel, also gar keine ausgezeichneten Hauptachsen. Wie wir später sehen werden, entsprechen die drei verschiedenen Möglichkeiten, nämlich paarweise verschiedene, zwei gleiche, oder drei gleiche Eigenwerte, drei verschiedenen Schwierigkeitsgraden bei der Lösung der Bewegungsgleichungen. Je symmetrischer der Körper, umso leichter lassen sich die Bewegungsgleichungen lösen. Bei drei gleichen Eigenwerten ist die Lösung trivial. Bei zwei gleichen Eigenwerten lässt sie sich relativ leicht angeben. Bei drei verschiedenen Eigenwerten ist sie nicht mehr elementar darstellbar. In den folgenden Aufgaben werden noch ein paar nützliche Eigenschaften der Eigenwerte des Trägheitstensors zusammenstellen, die wir bei der Lösung der Bewegungsgleichungen benötigen werden. Aufgabe 18.2 Bis auf einen sehr speziellen Fall sind die Trägheitsmomente immer positiv, θ1 , θ2 , θ3 > 0. (18.20) Daraus folgt unter anderem, dass die Matrix Θab invertierbar ist, so dass die Winkelgeschwindigkeit eine eindeutige Funktion des Drehimpulses ist. Man beweise das und zeige, dass der spezielle Fall genau dann vorliegt, wenn der Körper zu einer unendlich dünnen Stange entartet ist. Dann ist eines der Trägheitsmomente Null, und die anderen beiden sind gleich. Warum ist in diesem Fall die Beziehung zwischen Winkelgeschwindigkeit und Drehimpuls nicht umkehrbar? Aufgabe 18.3 Man zeige, dass für die Eigenwerte des Trägheitstensors die Dreiecksungleichungen θ1 + θ 2 ≥ θ 3 , θ2 + θ 3 ≥ θ 1 , θ3 + θ 1 ≥ θ 2 (18.21) gelten. Diese Ungleichungen gelten sogar ganz allgemein f ür die Diagonalelemente Θ11 , Θ22 und Θ33 bezüglich jeder Basis. Bei welcher Geometrie des Körpers gilt in einer der drei Ungleichungen das Gleichheitszeichen? Der freie Kreisel Nach diesen Vorbereitungen können wir jetzt die Bewegungsgleichungen für den freien starren Körper aufstellen. Frei bedeutet wie üblich, dass auf den Körper keine äußeren Kräfte einwirken sollen. Ausgangspunkt sind die allgemeinen Bewegungsgleichungen (17.47) und (17.48), wobei wir dort alle Kräfte gleich Null setzen und somit die Erhaltungssätze für den Impuls und den Drehimpuls folgen, Ṗ (t) = 0, Ṡ(t) = 0. 203 (18.22) Aus der ersten Gleichung ergibt sich unmittelbar, dass die Geschwindigkeit des Körpers konstant ist, der Schwerpunkt des Körpers also eine geradlinig gleichförmig Bewegung ausführt. Diese ist völlig uninteressant, so dass wir im folgenden annehmen können, dass der Schwerpunkt ruht. Aufgabe 18.4 Um die folgenden Aussagen experimentell zu überprüfen, ohne dafür große Geldsummen auszugeben, wird man in der Regel so vorgehen, dass man einen K örper im Gravitationsfeld der Erde frei fallen lässt. Genau genommen handelt es sich also nicht um einen kr äftefreien Körper. Warum entkoppelt die Bewegung des Schwerpunktes trotzdem von der Rotationsbewegung? Um die Rotationsbewegung zu beschreiben, müssen wir die Gleichung Ṡ = 0 näher untersuchen. Wir schreiben zunächst den Drehimpuls in Komponenten bezüglich der körperfesten Basis auf, wobei wir wieder genau beachten, welche Größen zeitabhängig sind und welche nicht. Es gilt S(t) = Sa (t) na (t) = Θab ωb (t) na (t). (18.23) Wir verwenden an dieser Stelle noch nicht, dass der Trägheitstensor diagonal ist, das heißt noch gelten alle Gleichungen in beliebigen körperfesten Koordinatensystemen. Wir berechnen die Ableitung des Drehimpulses und finden unter Verwendung von (17.4) Ṡ(t) = Θab ω̇b (t) na (t) + Θab ωb (t) ṅa (t) = Θab ω̇b (t) na (t) + Θab ωb (t) ω(t) × na (t) = Θab ω̇b (t) na (t) + Θab ωb (t) ωc (t) nc (t) × na (t) = Θab ω̇b (t) na (t) + Θab ωb (t) ωc (t) εcad nd (t) = Θdb ω̇b (t) + Θab ωb (t) ωc (t) εcad nd (t) (18.24) Θab ω̇b (t) = εabc Θbd ωc (t) ωd (t). (18.25) Überraschenderweise ist die Gleichung Ṡ = 0 nicht in der Winkelgeschwindigkeit linear, sondern quadratisch. Das liegt daran, dass die Beziehung zwischen ω und S zu jedem Zeitpunkt zwar linear ist, diese lineare Abbildung aber von der Zeit abhängt und ihre Zeitableitung wiederum von der Winkelgeschwindigkeit abhängt. Da es sich bei (18.24) um eine Vektorgleichung handelt, spielt es keine Rolle, in welcher Basis wir sie darstellen, und ob diese Basis zeitabhängig ist oder nicht. Zu jedem Zeitpunkt müssen alle Komponenten des Vektors verschwinden. Also ergibt sich ein Satz von Bewegungsgleichungen, in denen nur noch die Komponenten ωa der Winkelgeschwindigkeit im körperfesten Koordinatensystem auftreten. Wenn wir wieder ein paar Indizes umbenennen, lauten sie Wir können zunächst unabhängig von der räumlichen Lage des Körpers diese Bewegungsgleichungen für die Winkelgeschwindigkeit lösen. Dazu müssen wir Anfangswerte ω a (t0 ) vorgeben. Dann ist die Lösung eindeutig bestimmt. Wie wir gerade gezeigt haben, ist die Matrix Θab nämlich invertierbar. Die Bewegungsgleichungen können also nach den Zeitableitungen ω̇ a (t) aufgelöst werden. Wir werden das gleich explizit tun. Um anschließend die tatsächliche Bewegung des Körpers zu bestimmen, müssen wir noch die Anfangsbedingungen für die Lage vorgeben, also die Vektoren n a (t0 ). Ihre Zeitableitungen sind dann durch die Bewegungsgleichungen ṅa (t) = ω(t) × na (t) = −εabc ωb (t) nc (t) (18.26) eindeutig bestimmt. Wir können daraus die Bewegung der körperfesten Basis n a (t) bestimmen, sobald wir die Funktionen ωa (t) kennen. Wenn wir dazu noch die unabhängige Bewegung des Schwerpunktes hinzunehmen, kennen wir die Bewegung des Körpers vollständig. 204 Wir schauen uns nun die gekoppelten Differenzialgleichungen (18.25) für die Winkelgeschwindigkeit genauer an. Sie vereinfachen sich etwas, wenn wir das Koordinatensystem an die Hauptachsen des Körpers anpassen. Wir führen dazu die Summen explizit aus, und benutzen die diagonale Darstellung (18.19) des Trägheitstensors. Daraus ergeben sich die folgenden drei Gleichungen, θ1 ω̇1 (t) = (θ2 − θ3 ) ω2 (t) ω3 (t), θ2 ω̇2 (t) = (θ3 − θ1 ) ω3 (t) ω1 (t), θ3 ω̇3 (t) = (θ1 − θ2 ) ω1 (t) ω2 (t). (18.27) Diese Gleichungen werden als freie Kreisgleichungen, manchmal auch als Eulersche Kreiselgleichungen bezeichnet. Sie sind in den Indizes {1, 2, 3} zyklisch, jedoch handelt es sich immer noch um nichtlineare, gekoppelte Differenzialgleichungen, die sich nicht geschlossen lösen lassen. Wir werden deshalb im folgenden versuchen, möglichst viele qualitative Aussagen über ihre Lösungen und damit die möglichen Bewegungen eines starren Körpers zu machen. Aufgabe 18.5 Für den speziellen Fall eines Kugelkreisels werden die Kreiselgleichungen trivial. Man gebe die allgemeine Lösung an, und löse anschließend auch die Bewegungsgleichungen für die körperfesten Basisvektoren (18.26). Warum kann dabei ohne Beschränkung der Allgemeinheit angenommen werden, dass nur eine der drei Komponenten ωa von Null verschieden ist? Der unsymmetrische Kreisel Wir betrachten zuerst den Fall, dass alle drei Trägheitsmomente verschieden sind, und natürlich nicht verschwinden. Ein Körper mit dieser Eigenschaft heißt unsymmetrischer Kreisel. Wir nummerieren die Eigenwerte des Trägheitstensors so, dass sie absteigende Werte haben, also θ1 > θ2 > θ3 > 0. (18.28) Dann lassen sich die Gleichungen (18.27) nicht mehr weiter vereinfachen. Es gibt aber drei spezielle Lösungen dieser Gleichungen, die wir unmittelbar ablesen können. Setzen wir nämlich zwei der drei Funktionen ωa (t) gleich Null, so sind zwei der drei Gleichungen identisch erfüllt, und die dritte Gleichung verlangt, dass die dritte Funktion konstant ist. So ist zum Beispiel ω1 (t) = ω0 , ω2 (t) = 0, ω3 (t) = 0, (18.29) mit einer beliebigen Konstanten ω0 eine Lösung. Das gleiche gilt bei zyklisch vertauschten Indizes. Wie sieht in diesem Fall die Bewegung des Körper aus? Im körperfesten System zeigt die Winkelgeschwindigkeit konstant in die Richtung einer der Hauptachsen, in diesem Fall in Richtung von n 1 . Die Gleichungen (18.27) lassen sich dann ebenfalls leicht lösen. Man findet ṅ1 (t) = 0, ṅ2 (t) = n3 (t), ṅ3 (t) = −n2 (t). (18.30) Als Anfangsbedingung geben wir der Einfachheit halber n1 (0) = ex , n2 (0) = ey und n3 (0) = ez vor. Wir wählen einfach das raumfeste Bezugsystem so, dass es zum Zeitpunkt t = 0 mit dem körperfesten Bezugsystem übereinstimmt. Dann lautet die eindeutige Lösung von (18.30) n1 (t) = ex , n2 (t) = cos(ω0 t) ey + sin(ω0 t) ez , n3 (t) = − sin(ω0 t) ey + cos(ω0 t) ez . (18.31) Der Körper rotiert gleichmäßig mit der Winkelgeschwindigkeit ω0 um die x-Achse, die mit der ersten Hauptachse übereinstimmt. Die anderen drei Lösungen beschreiben entsprechend eine gleichmäßige Rotation um die anderen Hauptachsen. 205 replacements (d) (b) (a) (c) Abbildung 18.1: Die Rotation eines unsymmetrischen Kreisels um die Hauptachse mit dem größten (a) bzw. kleinsten (c) Trägheitsmoment ist stabil. Die Rotation um die Hauptachse mit dem mittleren (b) Trägheitsmoment ist instabil. Aufgabe 18.6 Es sei ω0 > 0. Man verifiziere mit der Rechten-Hand-Regel, dass die Rotation tats ächlich rechtsherum erfolgt, also in die Richtungen der Finger in der rechten Faust, wenn der Daumen in Richtung der Vektors ω zeigt. Mit einem geeigneten Testkörper müsste sich die Existenz dieser Lösungen bestätigen lassen. Ein geeigneter Körper für solche Experimente ist ein Buch. Es ist starr genug, wenn man es so verpackt, dass es sich nicht von selbst öffnen kann. Es kann leicht in Rotation versetzt werden, und es richtet keinen größeren Schaden an, wenn die Schwerpunktbewegung einmal nicht so verläuft wie geplant. Außerdem sind seine drei Trägheitsmomente paarweise verschieden, wenn das Papierformat nicht zufällig quadratisch ist. Aufgabe 18.7 In welchem Verhältnis stehen die Trägheitsmomente zueinander, wenn sich die Kanten des Buches wie 1 : 7 : 10 verhalten? Das entspricht einem typischen Buch im DIN-Format. Um das Experiment durchzuführen, versetzt man das Buch so in Rotation, dass es sich um eine der Hauptachsen dreht. Die Rotationsachse verläuft also parallel zu den Kanten. Wirft man das Buch zusätzlich nach oben, so fällt es für eine kurze Zeit frei im Gravitationsfeld der Erde. Wie wir bereits gezeigt haben, entsteht dadurch kein Drehmoment, so dass der Fall auf die Drehbewegung keinen Einfluss hat. Das Ergebnis dieses Experiments ist in Abbildung 18.1 dargestellt. Wählt man wie in (a) die Achse n1 mit dem größten Trägheitsmoment θ1 , so rotiert der Körper sehr stabil um diese Achse. Ähnlich sieht es aus, wenn man wie in (c) dargestellt die Achse n3 mit dem kleinsten Trägheitsmoment θ3 wählt. Der Körper führt eine gleichmäßige Drehung um diese Achse aus. Ganz anders sieht das Ergebnis in Abbildung 18.1 (b) aus. Hier dreht sich der Körper zunächst um die Hauptachse n2 mit dem mittleren Trägheitmoment θ2 . Nach einer kurzen Flugstrecke beginnt der Körper allerdings zu taumeln. Die Rotation ist alles andere als gleichmäßig. Eine konstante Rotationsachse ist 206 nicht mehr erkennbar. Es geschieht sogar noch etwas merkwürdiges. Hält man das Buch beim Werfen so, dass zum Beispiel der Buchrücken in der rechten Hand liegt, so kann man mit etwas Übung das Buch so wieder auffangen, dass der Rücken jetzt in der linken Hand liegt. In der Abbildung 18.1(b) ist diese Umklappbewegung an dem dunklen Band erkennbar, das sich beim Abwurf rechts befand. Nach der taumelnden Bewegung im Zenit der Bahn befindet sich das Band aber plötzlich auf der linken Seite. Das ist deswegen verblüffend, weil eine Rotation um die vorgegebene Achse, die in diesem Fall senkrecht zum Buchrücken verläuft, einen solchen Seitenwechsel eigentlich gar nicht verursachen sollte. Wie also kommt der Buchrücken von einer Seite auf die andere? Aufgabe 18.8 Man führe die Experimente mit einem geeigneten Gegenstand durch und beobachte dabei insbesondere den “Seitenwechsel” im Fall (b). Stabile und instabile Achsen Das beobachtete Phänomen beruht offenbar darauf, dass wir im Experiment die Anfangsbedingungen nicht so vorgeben können, dass wir genau eine der drei bekannten, speziellen Lösungen der Kreiselgleichungen treffen. Dass trotzdem eine stabile Drehung um die 1- bzw. 3-Achse möglich ist, liegt wohl daran, dass es “in der Nähe” dieser speziellen Lösungen noch andere Lösungen gibt, die so ähnlich aussehen. Die Drehachse ist also nicht wirklich konstant, aber zumindest näherungsweise. Für den Fall einer Drehung um die 2-Achse scheint es solche “ähnlichen” Lösungen dagegen nicht zu geben. Der Körper durchläuft eine völlig andere Bewegung, wenn wir diese Lösung nicht genau treffen. Wir wollen versuchen, das anhand der Kreiselgleichungen qualitativ zu verstehen. Es zeigt sich, dass der Schlüssel zum Verständnis dieses Verhaltens in den Erhaltungsgrößen liegt, die wir bereits kennen. Es ist nützlich, die Kreiselgleichungen (18.27) als Bewegungsgleichungen für die Komponenten des Drehimpulses im körperfesten System umzuschreiben. Im Hauptachsensystem besteht zwischen den Komponenten der Winkelgeschwindigkeit und denen des Drehimpulses der einfache Zusammenhang S1 = θ 1 ω1 , S2 = θ 2 ω2 , S3 = θ 3 ω3 . (18.32) Da die Trägheitsmomente zeitlich konstant sind, ergeben sich aus (18.27) für die Komponenten des Drehimpulses die ähnlich aussehenden Differenzialgleichungen Ṡ1 (t) = θ2 − θ 3 S2 (t) S3 (t), θ2 θ3 Ṡ2 (t) = θ3 − θ 1 S3 (t) S1 (t), θ3 θ1 Ṡ3 (t) = θ1 − θ 2 S1 (t) S2 (t). θ1 θ2 (18.33) Auch diese können wir nicht explizit lösen. Aber wir können ein paar wichtige Aussagen über die Lösungen machen. Wir wissen nämlich, dass der Drehimpuls eine Erhaltungsgröße, also zeitlich konstant ist. Dass die Drehimpulskomponenten Sa zeitabhängig sind, liegt also nur daran, dass die Basis na , bezüglich der diese Komponenten definiert sind, zeitabhängig ist. Was können wir daraus schließen? Wenn der Drehimpuls konstant ist, dann ist insbesondere sein Betrag konstant. Den können wir aber auch im körperfesten Bezugsystem ausrechen. Es ist natürlich |S|2 = S1 2 + S2 2 + S3 2 . (18.34) Wir wissen also, dass sich die Funktionen Sa (t) so verhalten, dass der Betrag dieses Vektors konstant bliebt. Im körperfesten Bezugsystem bewegt sich der Drehimpulsvektor auf einer Kugel mit dem Radius ρ0 = |S|. 207 3 3 2 2 replacements 1 (c) (d) (a) 1 (b) Abbildung 18.2: Beim unsymmetrischen Kreisel (a) läuft der Drehimpulsvektor im körperfesten System auf einer Schnittlinie von einer Kugel und einem Ellipsoid um. Aus der Geometrie dieser Schnittkurven entnimmt man, dass eine Rotation um die 1- oder 3-Achse stabil ist, während eine Rotation um die 2Achse instabil ist. Beim symmetrischen Kreisel (b) sind alle Schnittkurven Kreise. Aufgabe 18.9 Man zeige, dass aus den Bewegungsgleichungen (18.33) tats ächlich die Erhaltung der rechten Seite von (18.34) folgt. Eine zweite Erhaltungsgröße, die wir bereits einmal berechnet haben, ist die Energie. Hier ist allein die Rotationsenergie von Belang. Für sie hatten wir den Ausdruck 1 1 1 (18.35) Θ(ω, ω) = Θab ωa ωb = (θ1 ω1 2 + θ2 ω2 2 + θ3 ω3 2 ) 2 2 2 gefunden. Auch diese Erhaltungsgröße können wir durch die Komponenten des Drehimpulses ausdrücken. Es ist 1 S1 2 S2 2 S3 2 Erot = + + . (18.36) 2 θ1 θ2 θ3 Aufgabe 18.10 Man bestätige auch diesen Erhaltungssatz durch explizites Einsetzen in die Bewegungsgleichungen (18.33). Erot = Durch die Energiegleichung (18.36) wird im körperfesten Koordinatensystem ein Ellipsoid definiert. Seine Halbachsen entlang der Koordinatenachsen sind p p p ρ1 = 2 Erot θ1 , ρ2 = 2 Erot θ2 , ρ3 = 2 Erot θ3 . (18.37) Wir können daraus den Schluss ziehen, dass sich der Drehimpuls im körperfesten Koordinatensystem auf einer Bahn bewegt, die sowohl auf einer Kugel mit Radius ρ0 , als auch auf einem Ellipsoid mit den Halbachsen (ρ1 , ρ2 , ρ3 ) mit ρ1 > ρ2 > ρ3 liegt. Die Schnittkurven dieser beiden geometrischen Objekte im dreidimensionalen Raum lassen sich bestimmen. Sie sind in Abbildung 18.2(a) dargestellt. Gezeigt ist ein Ellipsoid im körperfesten Koordinatensystem, das zu einer festen Energie gehört. Die Halbachse ρ1 in 1-Richtung ist die größte, die Halbachse ρ3 in 3-Richtung die kleinste, und die Halbachse ρ2 in 2-Richtung hat eine mittlere Länge. Die Linien darauf sind die Schnittkurven mit Kugeln verschiedener Radien ρ 0 . Offenbar muss ρ3 ≤ ρ0 ≤ ρ1 sein, damit es überhaupt eine Schnittmenge gibt. In physikalischen Größen ausgedrückt heißt das θ3 ≤ |S|2 ≤ θ1 . 2 Erot 208 (18.38) An den Rändern dieses Intervalls besteht die Schnittmenge jeweils nur aus zwei Punkten. Dies entspricht den bereits bekannten speziellen Lösungen der Kreiselgleichungen, nämlich den Rotationen um die Hauptachsen n1 und n3 , wobei die Rotation in positive oder negative Richtung erfolgen kann. Die Schnittkurven in der Nähe dieser Punkte sehen wie kleine Kreise aus. Wenn wir einen Anfangszustand vorgeben, bei dem zum Beispiel ω ≈ ω1 n1 ist, dann ist S ≈ ω1 θ1 n1 . Der Drehimpuls im körperfesten System ist dann zwar nicht konstant, sondern läuft auf einer bestimmten Schnittlinie von Ellipsoid und Kugel um. Aber auf dieser Linie kann er nicht “weit weg” laufen. Er bleibt in der Nähe des Ausgangspunktes, so dass für alle Zeiten S ≈ ω1 θ1 n1 und somit auch ω ≈ ω1 n1 gilt. Aufgabe 18.11 Das lässt sich auch quantitativ zeigen. Es sei als Anfangsbedingung ω 1 (t0 ) ω2 (t0 ), ω3 (t0 ) vorgegeben, das heißt die Komponente ω1 soll zur Zeit t = t0 viel größer als die beiden anderen sein. Man zeige mit Hilfe der Kreisgleichungen (18.27), dass dies dann auch so bleibt. Die Komponente ω1 (t) bleibt annähernd gleich, während die anderen Komponenten eine periodische Bewegung mit kleiner Amplitude ausführen. Dasselbe gilt für ω3 (t0 ) ω1 (t0 ), ω2 (t0 ). Je mehr wir uns von der 1- bzw. 3-Achse entfernen, desto länger werden die Schnittlinien, die vom Drehimpuls durchlaufen werden können. Wie man sich leicht überlegt, werden die Linien immer als ganzes periodisch durchlaufen, und zwar in die durch die Pfeile an den Achsen angedeuteten Richtungen. Es gibt nämlich nirgendwo außer an den Schnittpunkten mit den Achsen Fixpunkte, also Punkte, an denen die Zeitableitungen aller drei Komponenten des Drehimpulses verschwinden. Betrachten wir nun die diejenige Schnittkurve von Ellipsoid und Kugel, die sich für ρ 0 = ρ2 ergibt, also für den Fall, dass Energie und Drehimpuls so eingestellt sind wie bei einer Rotation um die 2-Achse. Die entsprechende Schnittlinie besteht, wie man in der Abbildung erkennt, aus vier Segmenten, die jeweils die positive mit der negativen 2-Achse verbinden. Wenn wir nun einen Anfangszustand vorgeben, für den ω ≈ ω 2 n2 ist, und folglich S ≈ ω2 θ2 n2 , so werden wir in einem realen Experiment den Schnittpunkt mit der Achse nicht genau treffen. Also läuft der Drehimpuls wieder auf einer durch den seinen Betrag und die Energie bestimmten Schnittlinie um. Diesmal sieht diese Schnittlinie aber ganz anders aus. Sie bleibt nicht in der Nähe des Ausgangspunktes, sondern läuft um das ganze Ellipsoid herum. Wenn wir in der Nähe der positiven 2-Achse starten, dann werden wir nach einer gewissen Zeit in der Nähe der negativen 2-Achse ankommen, und schließlich zwischen diesen Punkten periodisch hin und her pendeln. Mit welcher Frequenz dieses Pendeln erfolgt, und auf welchem der vier möglichen Wege der Drehimpuls über das Ellipsoid wandert, hängt sehr kritisch von den Anfangsbedingungen ab. Nur, wenn wir eine der vier Schnittlinien genau treffen würden, würde sich der Zustand für große Zeiten einem der beiden Achsen asymptotisch nähern und dort verbleiben. Aber das ist im realen Experiment natürlich auch ausgeschlossen. Aus einem Anfangszustand mit S ≈ S2 n2 entwickelt sich also nach einer gewissen Zeit ein Zustand mit S ≈ −S2 n2 . Nun ist aber in Wirklichkeit nicht der Vektor S zeitabhängig, sondern der körperfeste Basisvektor n2 . Vom raumfesten Bezugssystem aus gesehen kippt also nicht der Drehimpuls um, sondern die Körperachse n2 . Das ist genau das merkwürdige Phänomen, dass wir im Experiment in Abbildung 18.1 beobachtet haben. Es wird also durch die Kreiselgleichungen erklärt. Aufgabe 18.12 Auch hier kann eine quantitative Analyse genauere Informationen liefern. Es sei als Anfangsbedingung ω2 (t0 ) ω1 (t0 ), ω3 (t0 ) vorgegeben. Man zeige, dass sich in diesem Fall aus den Kreiselgleichungen keine Umlaufbewegung von ω1 (t) und ω3 (t) ergibt, sondern ein exponentieller Anstieg. Diese Komponenten blieben nicht klein, sondern laufen innerhalb einer charakteristischen Zeitskala τ davon. Man zeige, dass die charakteristische Zeit τ , in der sich der Drehimpuls um einen Faktor e weiter von der 2-Achse entfernt, durch θ1 θ3 1 τ2 = (18.39) (θ1 − θ2 ) (θ2 − θ3 ) ω2 2 209 gegeben ist. Zur Abschätzung der Größenordnungen machen wir die realistische Annahme θ1 : θ2 : θ3 = 4 : 3 : 2, und dass es uns gelingt, die 2-Achse bis auf 5◦ genau zu treffen. Man zeige, dass dann die Taumelbewegung bereits nach etwa einer Umdrehung einsetzt. Wie genau muss man die Achse treffen, wenn das Taumeln erst nach etwa zehn Umdrehungen des Körpers einsetzen soll? Der symmetrische Kreisel Unter seinem symmetrischen Kreisel versteht man einen starren Körper, der zwei gleiche Trägheitsmomente besitzt. Typische solche Körper sind Zylinder oder Quader mit quadratischer Grundfläche. Da ein symmetrischer Kreisel meist ein Körper ist, der eine Rotationssymmetrie um eine Achse besitzt, bezeichnet man diese Achse auch als Figurenachse. Dies sei im folgenden die 3-Achse im körperfesten Koordinatensystem. Die Ausrichtungen der anderen beiden, zur Figurenachse senkrecht stehenden Hauptachsen muss man willkürlich festlegen. Für die Trägheitsmomente gilt dann θ1 = θ2 = θ0 , wobei wir θ0 als Bezeichnung verwenden, damit die folgenden Formeln etwas “symmetrischer” aussehen. Es ist nützlich, die folgenden drei Fälle zu unterscheiden, θ0 > θ 3 , θ0 = θ 3 , θ0 < θ 3 . (18.40) Der erste Fall liegt dann vor, wenn der Körper eher die Form einer Zigarre hat. Dann ist das Trägheitsmoment um die Figurenachse kleiner als die beiden anderen. Der zweite Fall entspricht einem kugelsymmetrischen Kreisel, dessen Bewegungsgleichungen schon in Aufgabe 18.5 gelöst wurden. Wir werden diesen Fall hier nicht weiter betrachten. Im dritten Fall hat der Körper eher die Form eines Tellers. Hier ist das Trägheitsmoment um die Figurenachse das größte. Aufgabe 18.13 Welcher Fall liegt beim Rad aus Abbildung 12.3 vor und welche Werte haben dort θ 0 und θ3 ? Setzen wir in die Kreiselgleichungen (18.27) die Trägheitsmomente θ 1 = θ2 = θ0 und θ3 ein, so vereinfachen sich diese zu θ0 ω̇1 (t) = (θ0 − θ3 ) ω2 (t) ω3 (t), θ0 ω̇2 (t) = (θ3 − θ0 ) ω3 (t) ω1 (t), θ3 ω̇3 (t) = 0. (18.41) Die Komponente der Winkelgeschwindigkeit in Richtung der Figurenachse ist somit konstant. Damit können wir leicht die allgemeine Lösung der Kreiselgleichungen angeben. Es ist ω1 (t) = σ0 cos(γ t + ϕ0 ), ω2 (t) = σ0 sin(γ t + ϕ0 ), ω3 (t) = σ3 , (18.42) mit θ3 − θ 0 σ3 . (18.43) θ0 Als Integrationskonstanten treten σ0 , σ3 und ϕ0 auf. Sie sind aus den Anfangsbedingungen zu bestimmen. Die Winkelgeschwindigkeit läuft in körperfesten Koordinatensystem auf einem Kreis um die Figurenachse um. Die Umlauffrequenz ist γ und hängt vom Verhältnis θ0 : θ3 ab. Wir können auch die Komponenten des Drehimpulses angeben. Sie sind γ= S1 (t) = θ0 σ0 cos(γ t + ϕ0 ), S2 (t) = θ0 σ0 sin(γ t + ϕ0 ), S3 (t) = θ3 σ3 . (18.44) Auch der Drehimpuls läuft auf einem Kreis um die Figurenachse. Das sehen wir auch in Abbildung 18.2(b). Sind zwei der drei Trägheitsmomente gleich, so ist das Ellipsoid, das einer bestimmten Energie entspricht, rotationssymmetrisch um die Figurenachse. Folglich sind die Schnittlinien mit einer Kugel Kreise, deren Mittelpunkt auf der Figurenachse liegen. 210 replacements 3 3 (c) (d) θ0 ω (θ3 − θ0 ) σ3 n3 (θ3 − θ0 ) σ3 n3 S ω θ0 ω n3 n3 S ω θ0 < θ 3 θ0 > θ 3 1 n1 n1 1 (b) (a) Abbildung 18.3: Winkelgeschwindigkeit und Drehimpuls eines symmetrischen Kreisels im körperfesten Koordinatensystem. Für einen zigarrenförmigen Kreisel (a) liegt ω zwischen S und n 3 , für einen tellerförmigen Kreisel liegt S zwischen ω und n 3 . Durch eine geeignete Wahl dieses Koordinatensystems können wir die Integrationskonstanten auch noch weiter einschränken. Wir schließen den trivialen Fall σ3 = 0 aus. In diesem Fall rotiert der Körper einfach gleichmäßig um eine zur Figurenachse senkrecht Hauptachse. Da wir dann noch die Freiheit haben, die Richtung der Figurenachse n3 zu wählen, also gegebenenfalls n3 durch −n3 zu ersetzen, können wir stets erreichen, dass σ3 > 0 ist. ferner können wir durch Drehen der beiden anderen Hauptachsen erreichen, dass zum Zeitpunkt t = 0 die Winkelgeschwindigkeit in der positiven 1-3-Ebene liegt, was äquivalent zu ϕ0 = 0 und σ0 > 0 ist. Damit fällt eine Integrationskonstante weg. Es bleiben nur die Parameter σ 0 > 0 und σ3 > 0, und die daraus abgeleitete Größe γ. Es gilt für die Winkelgeschwindigkeit ω1 (t) = σ0 cos(γ t), ω2 (t) = σ0 sin(γ t), ω3 (t) = σ3 , (18.45) und für den Drehimpuls S1 (t) = θ0 σ0 cos(γ t), S2 (t) = θ0 σ0 sin(γ t), S3 (t) = θ3 σ3 . (18.46) Wir schauen uns die Situation zum Zeitpunkt t = 0 in der 1-3-Ebene an, die in Abbildung 18.3 dargestellt ist. Wie man leicht sieht, gilt sogar zu jedem Zeitpunkt S = θ0 ω + (θ3 − θ0 ) σ3 n3 . (18.47) Die Vektoren n3 , ω und S liegen also stets in einer Ebene, und zwar sogar in einem Quadranten der Ebene. Ihre Lage zueinander hängt jedoch vom Vorzeichen von θ 3 − θ0 ab. Im Prinzip ist es nun möglich, auch die Bewegungsgleichungen für die Vektoren n a (t) zu lösen, um so letztlich die Bewegungen des Körpers zu beschreiben. Aus den expliziten Lösungen lässt sich aber nur wenig ablesen. Wir wollen daher versuchen, die Lösung grafisch zu bestimmen, um einen anschauliche Vorstellung von den Bewegungen eines symmetrischen Kreisels zu bekommen. Wir wechseln dazu vom körperfesten Bezugsystem in des raumfeste Bezugsystem. Das wählen wir so, dass die Vektoren n3 , ω und S zum Zeitpunkt t = 0 in der x-z-Ebene liegen. Außerdem soll der Drehimpuls S in Richtung der z-Achse zeigen. Da dieser Vektor zeitlich konstant ist, wird er dann immer 211 z replacements z S ω S ω n3 (c) (d) n3 x x (a) (b) Abbildung 18.4: Drehimpuls S, Winkelgeschwindigkeit ω und Figurenachse n 3 eines symmetrischen Kreisels im raumfesten Koordinatensystem. Alle drei Vektoren liegen stets in einer Ebene, die sich um den konstanten Drehimpulsvektor dreht. Legt man um den Drehimpuls einen raumfesten Spurkegel, und um die Figurenachse einen körperfesten Polkegel so, dass sich diese beiden Kegel auf einer Geraden schneiden, die in Richtung der Winkelgeschwindigkeit zeigt, so rollt der Polkegel um den Spurkegel ab. in diese Richtung zeigen. Schließlich soll sich der Schwerpunkt des Körpers im Ursprung befinden und nicht bewegen. Wir unterscheiden außerdem wieder zwischen einem zigarrenförmigen Körper und einem tellerförmigen Körper. Die beiden Fälle sind in Abbildung 18.4 entsprechend der Unterscheidung in Abbildung 18.3 dargestellt. Betrachten wir zuerst den zigarrenförmigen Kreisel in Abbildung 18.4(a). In diesem Fall liegen alle drei Vektor im positiven x-z-Quadranten, wobei ω zwischen S und n 3 liegt. Wie sieht die Zeitentwicklung dieser Vektoren aus? Alle drei Vektoren liegen stets in einer Ebene. Außerdem ist S konstant, und wie man leicht aus der oben angegebenen Lösung im körperfesten System entnimmt, sind die Winkel zwischen den drei Vektoren ebenfalls zeitlich konstant. Also bleibt als einzig mögliche Bewegung eine gemeinsame Drehung von n1 und ω um die z-Achse, also um den Drehimpuls. Dieses Phänomen heißt Präzession. Dreht sich ein symmetrischer Kreisel so, dass sein Drehimpuls nicht genau in die Richtung der Figurenachse oder in eine dazu senkrechte Richtung, dann läuft die Figurenachse periodisch um den Drehimpuls um. Die Kreisfrequenz, mit der das geschieht, nennt man Präzessionsfrequenz. Um sie zu berechnen, müssen wir uns zunächst überlegen, wie sich eigentlich der Körper selbst bewegt. Um das herauszufinden, genügt es zu wissen, dass zu jedem Zeitpunkt diejenigen Punkte des Körpers in Ruhe sind, die sich gerade auf der momentanen Drehachse befinden. Das ist die Achse, die durch die Winkelgeschwindigkeit festgelegt wird. Die Winkelgeschwindigkeit läuft auf einem Kegel um die z-Achse um, den wir als Spurkegel bezeichnen. Der Öffnungswinkel dieses Kegels ist der Winkel zwischen S und ω. Wir stellen uns diesen Kegel als im Raum fixiert vor. Nun konstruieren wir einen zweiten Kegel. Die Achse dieses Kegels ist die Figurenachse n 3 , und sein Öffnungswinkel ist der Winkel zwischen n3 und ω. Diesen Kegel nennen wir Polkegel und stellen uns vor, dass er fest mit dem rotierenden Körper verbunden ist. Die beiden Kegel sind so gemacht, dass sie sich entlang einer Halbgeraden berühren. Das ist genau die Halbgerade, die von der Winkelgeschwindigkeit ω aufgespannt wird. Was passiert nun, wenn der Körper sich bewegt? Da alle Punkt auf der Schnittlinie der beiben Kegel in 212 Ruhe sein müssen, ist die einzig mögliche Bewegung des Polkegels ein abrollen auf dem Spurkegel. Wie man sich leicht überlegt, bleiben dabei die drei Vektoren tatsächlich stets in einer Ebene, und es sind immer genau die Punkte des Körpers in Ruhe, die sich gerade auf der Schnittlinie der beiden Kegel befinden. Die Schlussfolgerung ist, dass die Bewegungen eines zigarrenförmigen symmetrischen Kreisels durch das Abrollen eines Kegels auf einem anderen Kegel beschrieben werden können. Der eine Kegel steht fest im Raum, der andere ist fest mit dem Körper verbunden. Für einen tellerförmigen Kreisel sieht es ganz ähnlich aus. Der einzige Unterschied ist, wie man in Abbildung 18.4(b) sieht, dass hier der Polkegel mit seiner Innenseite am Spurkegel abrollt, weil die Anordnung der drei Vektoren verschieden ist. Aufgabe 18.14 Man berechne für die oben angegebene Lösung der Kreiselgleichungen mit den Integrationskonstanten σ0 und σ3 die Präzessionsfrequenz. Diese lässt sich durch eine einfache geometrische Überlegung anhand der Abbildung 18.4 bestimmen. Entscheidend sind dabei die Öffnungswinkel der beiden Kegel. Warum ist die Kreisfrequenz γ nicht dasselbe wie die Pr äzessionsfrequenz? Aufgabe 18.15 Die Erde ist in guter Näherung ein leicht tellerförmiger, symmetrischer Kreisel mit θ3 ≈ 1.003θ0 . Die Winkelgeschwindigkeit zeigt jedoch nicht genau in Richtung der Figurenachse. W ürde man am Nordpol die Punkte markieren, an denen die Figurenachse, der Drehimpuls und die Winkelgeschwindigkeit die Oberfläche durchstoßen, so würde man eine Abweichung von einigen Metern sehen, und die Punkte würden sich langsam umkreisen. Wie sind die Punkte angeordnet? Welcher Punkt ist ortsfest, und mit welcher Periode und in welche Richtung umkreisen ihn die anderen beiden Punkte? Der Konfigurationsraum und die Drehgruppe Der freie Kreisel kann natürlich auch im Rahmen der Lagrangeschen oder Hamiltonschen Mechanik beschrieben werden. Dazu müssen wir aber zuerst auf dem Konfigurationsraum Q geeignete Koordinaten einführen, denn bis jetzt haben wir nur eine implizite Beschreibung dieses Raumes. Um eine Konfiguration festzulegen, müssen wir den Bezugsort r und die körperfeste Basis n a angeben. Das sind insgesamt 12 reelle Zahlen, nämlich die Komponenten ri und die Übergangsmatrizen Λai aus (17.12). Der Körper hat aber nur 6 Freiheitsgrade, denn diese 12 reellen Größen sind nicht unabhängig. Die Übergangsmatrizen Λai sind nämlich orthogonal, was auf 6 unabhängige Beziehungen zwischen den Einträgen führt. Ein Möglichkeit diese Einschränkungen zu berücksichtigen wäre, sie als Zwangsbedingungen zu betrachten. Es ist aber einfacher, sie durch Einführung von geeigneten reduzierten Koordinaten zu eliminieren. Wir müssen dazu die Lage des Körpers im Raum durch drei unabhängige Koordinaten festlegen. Man verwendet dazu die Eulerschen Winkel, die wir aus einem anderen Zusammenhang bereits kennen. Wir haben sie nämlich benutzt, um den Konfigurationsraum des Rades aus Abbildung 12.3 zu beschreiben. Dies war bereits ein einfaches Beispiel für einen starren Körper. In Abbildung 18.5 ist die Definition dieser Winkel noch einmal in einer etwas anderen Form dargestellt. Wir beginnen mit einem Körper, dessen Hauptachsen entlang der drei Koordinatenachsen ausgerichtet sind, also die 1-Achse entlang der x-Achse, die 2-Achse entlang der y-Achse und die 3-Achse entlang der z-Achse. Nun drehen wir den Körper wie in der Abbildung (a) gezeigt um einen Winkel ϕ um die 3-Achse des Körpers, die bis jetzt noch mit der z-Achse identisch ist. Die gedrehten Körperachsen sind dann n001 = cos ϕ ex + sin ϕ ey , n002 = − sin ϕ ex + cos ϕ ey , n003 = ez . (18.48) Im zweiten Schritt drehen wir den Körper um die neue 2-Achse um einen Winkel ϑ. Das Ergebnis ist in der Abbildung (b) dargestellt. Die Körperachsen sind jetzt n01 = cos ϑ n001 − sin ϑ n003 , n02 = n002 , 213 n03 = sin ϑ n001 + cos ϑ n003 . (18.49) z z n003 z ϑ n2 n03 n3 χ n001 y ϕ x n002 ϕ y ϑ (a) x n02 n01 y x n1 (b) (c) χ Abbildung 18.5: Die Eulerschen Winkel zu Bestimmung der Lage eines starren Körpers im Raum. Der Körper liegt zuerst so, dass seine Hauptachsen mit den Koordinatenachsen übereinstimmen. Dann erfolgt eine Drehung um die 3-Achse um den Winkel ϕ = −40 ◦ (a), anschließend eine Drehung um die 2Achse um den Winkel ϑ = 50◦ (b), und schließlich wieder eine Drehung um die 3-Achse um den Winkel χ = 70◦ (c). Schließlich drehen wir den Körper noch einmal um die 3-Achse, und zwar um einen Winkel χ. Die resultierenden Körperachsen in der Abbildung (c) sind n1 = cos χ n01 + sin χ n02 , n2 = − sin χ n01 + cos χ n02 , n3 = n03 . (18.50) Um zu zeigen, dass wir auf diese Weise tatsächlich jede mögliche Lage des Körpers im Raum erfassen, betrachten wir zuerst den Vektor n3 . Wenn wir die Drehungen ineinander einsetzen, finden wir n3 = n03 = sin ϑ n001 + cos ϑ n003 = sin ϑ cos ϕ ex + sin ϑ sin ϕ ey + cos ϑ ez . (18.51) Das ist der bekannte radiale Einheitsvektor in Kugelkoordinaten. Wir können also die 3-Achse des Körpers in jede beliebige Richtung des Raumes ausrichten. Den Wertebereich von ϑ können wir dabei auf 0 ≤ ϑ ≤ π einschränken, und ϕ ist wie üblich periodisch, ϕ ≡ ϕ+2π. Da die letzte Drehung auf die 3-Achse keinen Einfluss mehr hat, können wir den Körper anschließend noch in jede mögliche Lage drehen, nachdem wir die 3-Achse fixiert haben. Natürlich ist dann auch χ eine periodische Koordinate mit χ = χ + 2π. Aufgabe 18.16 Man bestätige durch Einsetzen die folgenden Ausdrücke für die beiden anderen Basisvektoren. Es gilt n1 = (cos ϑ cos ϕ cos χ − sin ϕ sin χ) ex + (cos ϑ sin ϕ cos ϑ + cos ϕ sin χ) ey − cos χ sin ϕ ez , n2 = −(cos ϑ cos ϕ sin χ + sin ϕ cos χ) ex − (cos ϑ sin ϕ sin ϑ − cos ϕ cos χ) ey + sin χ sin ϕ ez , n3 = sin ϑ cos ϕ ex + sin ϑ sin ϕ ey + cos ϑ ez . (18.52) Wie sieht nun der Konfigurationsraum Q aus? Können wir ihn in irgendeiner Form anschaulich beschreiben? Zunächst können wir sechs Koordinaten (x, y, z, ϑ, ϕ, χ) einführen, wenn wir den Ort des Bezugspunktes in durch r = o + x e x + y ey + z ez (18.53) darstellen. Es ist aber nicht einfach ein sechsdimensionaler affiner Raum, denn die Koordinate ϑ läuft ja nur von 0 bis π, und die anderen Winkelkoordinaten sind periodisch. Wir betrachten die Stellen ϑ = 0 und 214 ϑ = π im Konfigurationsraum etwas genauer. Für ϑ = 0 ergibt sich aus (18.52) n1 = cos(χ + ϕ) ex + sin(χ + ϕ) ey , n2 = − sin(χ + ϕ) ex + cos(χ + ϕ) ey , n3 = e z . (18.54) Das ergibt sich auch aus der Darstellung in Abbildung 18.5. Wenn die mittlere Drehung wegfällt, addieren sich die Drehwinkel ϕ und χ. Der Körper wird nur um die z-Achse gedreht. Offenbar ist für ϑ = 0 eine der beiden anderen Koordinaten redundant. Nur die Summe χ + ϕ ist für die Lage des Körpers relevant. Ganz ähnlich sieht es für ϑ = π aus. Dann gilt nämlich n1 = − cos(χ − ϕ) ex + sin(χ − ϕ) ey , n2 = sin(χ − ϕ) ex + cos(χ − ϕ) ey , n3 = −ez (18.55) Hier ist nur die Differenz χ − ϕ relevant. Auch das lässt sich in der Abbildung 18.5 erkennen. Die mittlere Drehung ist in diesem Fall eine Drehung um 180◦ , bei der die z-Achse umgekippt wird. Dadurch kommt es zu ein paar veränderten Vorzeichen der Winkelfunktionen, und die Drehwinkel ϕ und χ sind voneinander abzuziehen. Daraus ergibt sich die folgende Möglichkeit, den Konfigurationsraum zu beschreiben. Für 0 < ϑ < ϕ sind die Koordinaten ϕ und χ jeweils periodisch mit einer Periode von 2π, aber ansonsten treten keine Redundanzen auf. Wir können uns daher eine Schar von Tori vorstellen, einen für jedes ϑ, und uns auf diesen Tori jeweils die Koordinatenlinien von ϕ und χ als umlaufende Kreise vorstellen. An den Rändern dieses Intervalls schrumpft der Torus dann jeweils zu einem Ring zusammen, denn dort ist nur noch eine der beiden Koordinaten relevant. Sehr anschaulich ist diese Vorstellung aber noch nicht. Überraschenderweise gibt es noch eine einfachere Darstellung. Der Konfigurationsraumes ist nämlich eine dreidimensionale Sph äre, oder genauer um eine projektive Sphäre. Wir definieren zunächst, was das ist, und zeigen dann, das der Konfigurationsraum des starren Körpers tatsächlich so aussieht. Die dreidimensionale Sphäre definieren wir als Teilmenge des R4 , S3 = { (u1 , u2 , u3 , u4 ) ∈ R4 , u12 + u22 + u32 + u42 = 1 }. (18.56) Natürlich könnten wir die Sphäre S3 auch als Mannigfaltigkeit ohne eine solche Einbettung definieren. Aber in dieser Form ist die folgende Herleitung ein wenig einfacher. Die projektive Sph äre, oder der projektive dreidimensionale Raum RP3 ergibt sich daraus, indem man die antipodischen Punkte der Sphäre miteinander identifiziert. Man führt eine Äquivalenzrelation ∼ ein, mit (u1 , u2 , u3 , u4 ) ∼ (−u1 , −u2 , −u3 , −u4 ), (18.57) und definiert RP3 = S3 /∼ als Quotientenraum. Aufgabe 18.17 Eine alternative Definition des dreidimensionalen projektiven Raumes geht von der Menge R4 − (0, 0, 0, 0) aus und definiert die Äquivalenzrelation (u1 , u2 , u3 , u4 ) ∼ (k u1 , k u2 , k u3 , k u4 ) für alle k ∈ R − {0}. Dann setzt man RP3 = (R4 − (0, 0, 0, 0))/∼. Der projektive dreidimensionale Raum ist in diesem Sinne die Menge aller Geraden durch den Ursprung im R 4 . Man zeige, dass diese Definition zu der obigen äquivalent ist. Nun definieren wir eine Abbildung vom Konfigurationsraum des starren Körpers in die Mannigfaltigkeit S3 /∼. Dazu setzen wir ϑ χ−ϕ ϑ χ−ϕ u1 = sin cos , u2 = sin sin , 2 2 2 2 ϑ χ+ϕ ϑ χ+ϕ u3 = cos cos , u4 = cos sin . (18.58) 2 2 2 2 215 Zunächst überzeugen wir uns davon, dass die Abbildung wohldefiniert ist. Man sieht leicht, dass die Summe der Quadrate dieser Ausdrücke gleich Eins ist, so dass die Abbildung tatsächlich in die Sphäre erfolgt. Aber ist sie auch eindeutig? Wenn ϑ von 0 bis π läuft, läuft sin(ϑ/2) von 0 bis 1 und cos(ϑ/2) von 1 bis 0. Die ersten Faktoren sind also stets positiv, wobei u1 und u2 bei ϑ = 0 verschwinden, während u3 und u4 bei ϑ = π verschwinden. Gleichzeitig sehen wir, dass an diesen Stellen die beiden verbleibenden Koordinaten nur von χ + ϕ bzw. χ − ϕ abhängen. Die Abbildung hat also genau dieselben Redundanzen wie die Eulerschen Winkel bei der Darstellung der Lage des Körpers in Raum. Dasselbe gilt für die Periodizität von ϕ und χ. Addieren wir 2π zu einer dieser beiden Koordinaten, so ändern sich jeweils die Vorzeichen aller vier u’s. Da wir antipodische Punkte auf der Sphäre identifiziert haben, sind das aber dieselben Punkte in S 3 /∼. Ebenso leicht lässt sich zeigen, dass die Abbildung umkehrbar und somit bijektiv ist. Zunächst bestimmen wir ϑ eindeutig durch die Gleichung tan 2 ϑ u12 + u22 . = 2 2 u3 + u42 (18.59) Anschließend ergeben sich die Winkel χ−ϕ und χ+ϕ wie üblich in einem ebenen Polarkoordinatensystem aus den Größen (u1 , u2 ) bzw. (u3 , u4 ), wobei wieder die bekannte Redundanz auftritt, wenn u1 = u2 = 0 bzw. u3 = u4 = 0 ist. Auch wenn die Zuordnung (18.58) zwischen den Lagen eines Körpers im Raum zu den Punkten auf der projektiven Sphäre S3 /∼ keine unmittelbare geometrische Interpretation hat, können wir uns nun zumindest ein anschauliches Bild von dem Konfigurationsraum Q eines starren Körpers machen. Wenn wir von der Bewegung des Bezugspunktes absehen und nur die Drehbewegung betrachten, so ist es eine dreidimensionalen Sphäre, bei der gegenüberliegende Punkte identifiziert wurden. Diese Beobachtung ist deshalb von einem gewissen Interesse, weil dieser Konfigurationsraum nichts anderes ist als die spezielle orthogonale Gruppe SO(3). Wie wir bereits an anderer Stelle bemerkt haben, wird nämlich die Beziehung zwischen der körperfesten Basis n a und einer raumfesten Basis ei durch eine orthogonale Transformation dargestellt. Da wir den Körper dabei nicht spiegeln können, muss dies eine Transformation mit der Determinante +1 sein, die durch ein Element aus der Gruppe SO(3) dargestellt wird. Wir haben also auch eine anschauliches Beschreibung der Drehgruppe SO(3) als Mannigfaltigkeit gefunden, und wir haben sogar ein Koordinatensystem auf dieser Gruppe eingeführt. Die Gruppe SO(3) ist eine dreidimensionale Sphäre, auf der gegenüberliegende Punkten identifiziert sind, und die Eulerschen Winkel stellen ein Koordinatensystem auf dieser Mannigfaltigkeit dar. Allerdings mit ein paar Einschränkungen, die denen eines Kugelkoordinatensystems auf der Sphäre S 2 entsprechen. Die Koordinaten sind teilweise redundant. Aufgabe 18.18 Die Gruppe SU(2) ist die Menge aller unitären komplexen 2×2-Matrizen, also Matrizen der Form a b U= mit a, b, c, d ∈ C, U U † = I, (18.60) c d wobei U † die hermitesch konjugierte Matrix ist, die sich durch Transposition und komplexe Konjugation ergibt, also ∗ ∗ a b a c † U= ⇒ U = . (18.61) c d b∗ d ∗ Man beweise die folgenden Aussagen. Die Gruppe SU(2) ist dreidimensional und l ässt sich durch eine einfache Darstellung der Einträge a, b, c, d als Funktionen von vier reellen Zahlen u1 , u2 , u3 , u4 bijektiv auf die Sphäre S3 ⊂ R4 abbilden. Die Sphäre S3 ist also selbst eine Gruppe, nämlich die Matrixgruppe SU(2). Die Gruppe SO(3) ergibt sich als Quotientengruppe SU(2)/∼ wobei U ∼ U 0 genau dann gilt, 216 wenn U 0 = −U ist. Jedem Element der Drehgruppe SO(3) entsprechen folglich genau zwei Elemente der Gruppe SU(2), die sich durch das Vorzeichen der Matrizen unterscheiden. Dieser Umstand wird in der Quantenmechanik eine zentrale Rolle spielen. 217