theoretische physik

Werbung
T HEORETISCHE P HYSIK
Hans-Jürgen Matschull
Institut für Physik, Universität Mainz
23.7.2003
T EIL II
K LASSISCHE M ECHANIK
9
Tensoren
können.
Natürlich müssen wir erst einmal definieren, was denn ein Tensor überhaupt ist. Das werden
wir in diesem Kapitels tun, und wir werden zeigen, wie sich die wichtigsten mathematischen
Begriffe aus dem ersten Teil in dieses Konzept einpassen. Viele der dort hergeleiten, scheinbar
sehr unterschiedlichen Eigenschaften von Vektoren und Vektorfeldern werden dabei in einem
neuen, einheitlichen Licht erscheinen.
Im Teil I haben wir die wesentlichen Eigenschaften des physikalischen Raumes mit den Mitteln
der linearen Algebra beschrieben. Die Orte im Raum haben wir mit den Punkten eines dreidimensionalen, metrischen affinen Raumes identifiziert, und darauf aufbauend haben wir die Newtonsche Mechanik für Systeme von Punktteilchen formuliert. Außerdem haben wir Kraftfelder zur
Beschreibung von Wechselwirkungen verwendet, etwa in Form von Gravitations- oder elektromagnetischen Feldern.
In diesem Kapitel wollen wir die mathematischen Strukturen, die hinter diesen Begriffen stehen, etwas weiter vertiefen. Oft begegnen uns in ganz unterschiedlichen physikalischen Fragestellungen ähnliche mathematische Strukturen. Es ist deshalb nützlich, eine Sprache zu entwickeln,
die solche Ähnlichkeiten und Analogien zwischen scheinbar ganz verschiedenen Objekten leichter erkennbar macht. Gleichzeitig sollte diese Sprache aber auch dazu geeignet sein, die physikalischen Fragestellungen möglichst anschaulich zu formulieren. Wir suchen also einen Kompromiss
zwischen der Sprache der Mathematiker, die oft speziell darauf ausgelegt ist, möglichst elegante
und allgemeingültige Beweise zu führen, und der Sprache der Physiker, die primär darauf ausgelegt ist, Beobachtungen und Experimente zu beschreiben.
Dass zwischen diesen Anforderungen manchmal eine gewisse Spannung besteht, haben wir
bereits bei der Beschreibung des physikalischen Raumes gesehen. Der Mathematiker denkt bei
einem N -dimensionalen affinen Raum immer gleich an den speziellen Raum R N . Der Grund ist
sehr einfach. Man weiß, dass alle affinen Räume gleicher Dimension isomorph sind. Um Sätze
über affinen Räume und Vektorräume zu beweisen, kann man sich daher auf einen speziellen,
möglichst einfach strukturierten Raum beschränken und alle Beweise in diesem Raum führen. Für
den Physiker ist die Vorstellung des Raumes als R3 aber sehr unbefriedigend, denn sie vermittelt
die falsche Vorstellung, dass es so etwas wie ein ausgezeichnetes Koordinatensystem gäbe, und
insbesondere einen Nullpunkt.
Gesucht ist deshalb eine Formulierung von physikalischen Theorien, in der die verwendeten
mathematischen Objekte die physikalischen Strukturen möglichst gut widerspiegeln, auch wenn
dies hin und wieder bedeutet, dass die Beweise für mathematische Sätze, wenn wir sie denn führen
wollen, ein wenig umständlicher aussehen als sie tatsächlich sind. Eine dafür recht gut geeignete
Sprache, in der sich einerseits alle wesentlichen Aspekte der linearen Algebra und der Analysis
erfassen lassen, die aber andererseits auch sehr gut an die gängigen physikalischen Konzepte von
Raum und Zeit, Kraftfeldern und die Beschreibung von dynamischen Systemen angepasst ist,
bietet das Tensorkalkül.
Etwas überspitzt kann man sagen, dass alle mathematischen Objekte, die wir bis jetzt eingeführt
und benutzt haben, Tensoren oder Tensorfelder sind, oder dass sie zumindest etwas mit diesem
Konzept zu tun haben. Das Tensorkalkül dient im wesentlichen dazu, mathematische Objekte
und Strukturen, wie sie typischerweise in physikalischen Theorien auftreten, zu klassifizieren.
Außerdem stellt es einen Rahmen bereit, der sich fast beliebig erweitern lässt, und in dem in einer
sehr genau definierten Art und Weise neue Objekte aus bereits vorhandenen konstruiert werden
Vektoren und duale Vektoren
Es sei V ein N -dimensionaler Vektorraum über R. Um später eine einheitliche Notation einzuführen, bezeichnen wir die Vektoren mit fett gedruckten Buchstaben x, y, . . . ∈ V, und eine
Basis von V mit ei , wobei der Vektorindex i irgendeine nicht weiter spezifizierte Indexmenge mit
N Elementen durchläuft. Einen Vektor x können wir dann durch seine Komponenten x i bezüglich
dieser Basis darstellen,
x = xi ei ∈ V.
(9.1)
Warum wir den Index nach oben schreiben, werden wir gleich verstehen. Wir verwenden außerdem die folgende, leicht veränderte Summenkonvention.
Über Vektorindizes in einem Produkt ist genau dann zu summieren, wenn derselbe
Index einmal als oberer und einmal als unterer Index auftritt.
Andere Situationen, also Ausdrücke, in denen derselbe Index zweimal unten oder zweimal oben
steht, werden im folgenden nicht auftreten und sind, wie wir sehen werden, auch nicht sinnvoll.
Der zu V duale Vektorraum V ∗ ist die Menge aller linearen Abbildungen V → R. Ist u ∈ V ∗ ,
so bezeichnen wir die durch u definierte Abbildung mit einem Punkt, also
u:
V → R,
x 7→ u · x.
(9.2)
Da diese Abbildung linear ist, gilt für alle x, y ∈ V, u ∈ V ∗ und s ∈ R
u · (x + y) = u · x + u · y,
u · (s x) = s (u · x).
(9.3)
Damit V ∗ zu einem Vektorraum wird, erklärt man die Vektoraddition und skalare Multiplikation
in V ∗ wie für Abbildungen üblich. Für u, v ∈ V ∗ , x ∈ V und s ∈ R ist
(u + v) · x = u · x + v · x,
(s u) · x = s (u · x).
(9.4)
Umgekehrt definiert jeder Vektor x ∈ V eine lineare Abbildung V ∗ → R, die genau die gleichen
Eigenschaften hat, nämlich
x : V ∗ → R,
u 7→ u · x.
(9.5)
1
Tatsächlich lässt sich jede lineare Abbildung V ∗ → R so schreiben. Der zu V ∗ duale Vektorraum
ist demnach V. Um diese Symmetrie zum Ausdruck zu bringen, fasst man den Punkt auch als eine
bilineare Abbildung auf, die einen dualen Vektor und einen Vektor auf eine reelle Zahl abbildet,
V∗ × V → R :
(u, x) 7→ u · x.
Jede lineare Abbildung u : V → R kann dann wie folgt geschrieben werden,
u:
Der zum Spaltenvektorraum V duale Vektorraum ist folglich der Zeilenvektorraum V ∗ . Dies ist
gewissermaßen der Prototyp für einen Vektorraum und seinen Dualraum. Oft ist es nützlich, sich
Vektoren als Spalten und duale Vektoren als Zeilen vorzustellen. Insbesondere wird dadurch klar,
dass es sich um zwei verschiedene Arten von Objekten handelt. Obwohl der duale Vektorraum
V ∗ die gleiche Dimension hat wie der Vektorraum V selbst, ist er nicht mit diesem identisch.
Bilden wir nun das Produkt von u und a, so finden wir
(9.9)
Aufgabe 9.2 Die Regeln (9.3) und (9.4) entsprechen formal den Eigenschaften eines Skalarproduktes. Was ist jedoch der wesentliche Unterschied zwischen dem hier definierten Produkt und
einem Skalarprodukt?
Das Produkt ist einfach durch die Summe über die Produkte der Komponenten gegeben.
Aufgabe 9.1 Eine andere nützliche Eigenschaften einer Basis und ihrer dualen Basis ist, dass
die dualen Basisvektoren ei , aufgefasst als lineare Abbildungen V → R, den Vektoren ihre
Komponenten zuordnen, und umgekehrt die Basisvektoren e i , aufgefasst als lineare Abbildungen V ∗ → R, den dualen Vektoren ihre Komponenten zuordnen. Man zeige das, also
xi = ei · x,
ui = u · e i .
(9.14)
Natürlich sind in diesem Fall die Zahlen x1 , . . . , xN die Komponenten des Vektors x bezüglich
der Basis
 
 
1
0
0
 .. 
 
 . 
(9.15)
e1 =  .  ,
...,
eN =   ,
 .. 
0
1
0
und die Zahlen u1 , . . . , uN sind die Komponenten von u bezüglich der dazu dualen Basis
...,
eN = 0 · · · 0 1 .
(9.16)
e1 = 1 0 · · · 0 ,
Einen dualen Vektor u ∈ V können wir durch seine Komponenten bezüglich der dualen Basis e i
darstellen, wobei wir den Index diesmal nach unten schreiben, damit wieder die Summenkonvention zur Anwendung kommt,
(9.8)
u = u i ei ∈ V ∗ .
⇒
(9.12)
xN
Zu jeder Basis von V gibt es eine eindeutig bestimmte duale Basis von V ∗ .
u = u i ei
u · x = u 1 x1 + · · · + u N xN ,
so lässt sich die Abbildung (9.12) als Matrixmultiplikation schreiben,
 1 
x
 . 
u · x = u1 · · · un  ..  = u1 x1 + · · · + uN xN .
Auch diese Bedingung ist symmetrisch in dem Sinne, dass ei dann auch die zu ei duale Basis ist.
x = x i ei ,
7→
mit eindeutig bestimmten Koeffizienten u1 , . . . uN ∈ R. Fassen wir diese zu einem Zeilenvektor
zusammen,
(9.13)
u = u1 · · · uN ∈ V ∗ , mit u1 , . . . , uN ∈ R,
(9.6)
Bilinear bedeutet linear in beiden Argumenten, also die Eigenschaften (9.3) und (9.4). Wir nennen
u · x auch einfach das Produkt von u und x.
Zu jeder Basis ei von V gibt es eine zugehörige duale Basis ei von V ∗ . Der Index i durchläuft
dabei die gleiche Indexmenge. Wir unterscheiden die Basis von der dualen Basis dadurch, dass
wir den Index einmal nach unten und einmal nach oben schreiben.
Die duale Basis ist dadurch eindeutig festgelegt, dass die dualen Vektoren e i ∈ V ∗ , aufgefasst als lineare Abbildungen V ∗ → R, die Basisvektoren ej ∈ V auf Null oder Eins abbilden,
je nachdem, ob i gleich j ist oder nicht. Das lässt sich mit dem bekannten Kronecker-Symbol
schreiben,
1
für i = j,
ei · ej = δ ij =
(9.7)
0
für i 6= j.
u · x = (ui ei ) · (ej xj ) = ui (ei · ej ) xj = ui δ ij xj = ui xi .
x
Aufgabe 9.3 Es sei V der Raum aller Spaltenvektoren der Länge N , und V ∗ der Raum aller
Zeilenvektoren der Länge N . Ferner sei die folgende Basis von V gegeben,
 
 
 
 
1
1
1
1
0
1
1
1
 
 
 
 
0
0
1
1
 
 
 
 
e1 =  0  ,
e2 =  0  ,
e3 =  0  ,
···,
eN =  1  . (9.17)
 
 
 
 
 .. 
 .. 
 .. 
 .. 
 . 
 . 
 . 
 . 
0
0
0
1
(9.10)
Ein typisches Beispiel für einen Vektorraum und seinen Dualraum sieht wie folgt aus. Es sei V
der Raum aller Spaltenvektoren der Länge N , also
 1 
x
 .. 
x =  .  ∈ V, mit x1 , . . . , xN ∈ R.
(9.11)
Man bestimme die duale Basis ei , i ∈ {1, . . . , N }, von V ∗ .
xN
2
Aufgabe 9.4 Wir haben hier der Einfachheit halber nur endlich dimensionale Vektorr äume betrachtet. Für Vektorräume unendlicher Dimension kann man ganz analog einen dualen Vektorraum einführen. Allerdings ist dieser in der Regel nicht mehr genauso groß wie die Vektorraum
selbst. Es sei zum Beispiel V der Raum aller unendlichen Folgen a = (a 1 , a2 , . . .) mit der Eigenschaft, dass alle bis auf endlich viele Glieder gleich Null sind. Das ist ein unendlich dimensionaler
Vektorraum, der aber noch vergleichsweise klein ist. Es lässt sich sogar recht leicht eine Basis ei
von V angeben, mit i ∈ N, so dass sich jeder Vektor eindeutig als endliche Linearkombination
der Basisvektoren schreiben lässt. Wie sieht diese Basis aus? Was ist der duale Vektorraum V ∗ ?
Gibt es eine zu ei duale Basis von V ∗ ?
Die Transformationseigenschaften (9.18) und (9.20) lassen sich leicht einprägen, denn das sind
die einzigen Möglichkeiten, die Basisvektoren so mit den Übergangsmatrizen zu kombinieren,
dass alle Indizes richtig zusammenpassen und dabei die Summenkonvention zur Anwendung
kommt.
Aus diesen Transformationsgesetzen lassen sich schließlich auch die Regeln für die Komponenten eines Vektors und eines dualen Vektors ableiten. Es sei also
x = xi ei = xa ea ∈ V,
xi = ei · x,
Die Komponenten eines Vektors sind immer nur bezüglich einer gegebenen Basis definiert.
Ändern wir die Basis, so ändern sich auch die Komponenten. Wir müssen zwischen dem Vektor x ∈ V als solchem und seiner Darstellung durch die Komponenten x i unterscheiden, und
entsprechend zwischen dem dualen Vektor u ∈ V ∗ seine Darstellung durch die Komponenten ui .
Wir betrachten im folgenden zwei Basen ei und ea , die wir durch ihre Indizes unterscheiden.
Der Index a durchlaufe eine andere Indexmenge als der Index i, zum Beispiel i ∈ {x, y, z}
und a ∈ {1, 2, 3} im Falle eines dreidimensionalen Vektorraumes. Die Beziehung zwischen den
Basen kann durch eine N ×N -Übergangsmatrix ausgedrückt werden, wobei wieder N = dim V
ist. Wir stellen dazu die Basisvektoren ea als Linearkombination der Basisvektoren ei dar, oder
umgekehrt die Basisvektoren ei als Linearkombination der Basisvektoren ea ,
⇔
ei = ea Λai .
ei = Λia ea .
ua = ui Λia
ua = u · e a ,
(9.23)
⇔
ui = ua Λai .
(9.25)
Auch diese Zusammenhänge lassen sich leicht einprägen, da es keine andere Möglichkeit gibt,
die Komponenten so mit der Übergangsmatrix zu kombinieren, dass die Indexstellung stimmt
und die Summenkonvention zur Anwendung kommt. Alternativ können wir das auch wie folgt
formulieren:
(9.18)
Bei einem Basiswechsel transformieren sich die Komponenten von Vektoren so wie
die dualen Basisvektoren und die Komponenten von dualen Vektoren so wie die Basisvektoren.
Ein Vektor wird also durch einen Satz von N reellen Zahlen dargestellt, der sich beim Wechsel
der Basis in einer ganz bestimmten Art und Weise transformiert. Wir können das im Prinzip
als eine Definition des Begriffes “Vektor” auffassen. Das gleiche gilt für einen dualen Vektor,
nur dass für diesen eben ein anderes Transformationsverhalten gilt. Vektoren und duale Vektoren
unterscheiden sich dadurch, dass ihre Komponenten beim Basiswechsel anders transformieren.
Deshalb unterscheiden wir sie durch obere und untere Indizes.
Die verschiedenen Transformationseigenschaften von oberen und unteren Indizes haben zur
Folge, dass eine bestimmte Kombination eines dualen Vektors und eines Vektors von der Basis
unabhängig ist, nämlich das Produkt
(9.20)
Der Beweis ist ganz einfach. Es sei ei die zu ei duale Basis, also ei · ej = δ ij . Dann ist
ea · eb = (Λai ei ) · (ej Λjb ) = Λai (ei · ej ) Λjb = Λai δ ij Λjb = Λai Λib = δ ab ,
ui = u · e i ,
Für die Komponenten eines dualen Vektors gilt entsprechend
Wir können das als Matrixmultiplikation lesen, wenn wir den ersten, oberen Index der Übergangsmatrix als Zeilenindex, und den zweiten, unteren Index als Spaltenindex interpretieren. Die
Summenkonvention sorgt dafür, dass die Matrixmultiplikation richtig ausgeführt wird.
Natürlich besteht dann auch ein Zusammenhang zwischen den dualen Basen e i und ea . Dieser
wird durch die gleichen Übergangsmatrizen vermittelt. Es gilt nämlich
⇔
xa = ea · x,
und durch Einsetzen von (9.18) und (9.20) das folgende Transformationsverhalten für die Komponenten eines Vektors,
xa = Λai xi ⇔ xi = Λia xa .
(9.24)
Damit die beiden Gleichungen zueinander äquivalent sind, müssen die Übergangsmatrizen zueinander invers sein, also
Λia Λaj = δ ij oder Λai Λib = δ ab .
(9.19)
ea = Λai ei
(9.22)
Dann ergibt sich aus (9.10)
Basistransformationen
ea = ei Λia
und u = ui ei = ua ea ∈ V ∗ .
u · x = u i xi = u a xa .
(9.21)
(9.26)
Einen solchen Ausdruck nennen wir einen Skalar. Ein Skalar ist einfach eine reelle Größe, die
sich bei einem Basiswechsel gar nicht verändert.
also ist auch ea die zu ea duale Basis.
3
Aufgabe 9.5 Es sei V der Raum aller Spaltenvektoren der Länge 3, und V ∗ der dazu duale Raum
aller Zeilenvektoren der Länge 3. Eine Basis ea , mit a ∈ {1, 2, 3}, sei durch
 
 
 
1
0
0
e2 =  1  ,
e3 =  0 
(9.27)
e1 =  0  ,
0
0
1
gegeben, eine zweite Basis ei , mit i ∈ {x, y, z}, durch
 
 
1
0
ey =  1  ,
ex =  1  ,
0
1
Übergangsmatrizen Λai
Man bestimme die
und
ziere das Transformationsverhalten (9.20).
Λia ,

1
ez =  0  .
1

Tensoren
Das Konzept eines Vektors oder eines dualen Vektors als ein Satz von N reellen Zahlen, die sich
unter einem Basiswechsel in einer ganz bestimmten Art transformieren, lässt sich verallgemeinern.
Betrachten wir zum Beispiel einen Satz von N 2 reellen Zahlen, die wir in Form einer Matrix
anordnen und mit Aij bezeichnen, wobei die Indizes i und j jeweils N Werte annehmen. Wir
postulieren, dass sich dieses Zahlenschema unter einem Basiswechsel wie folgt transformieren
soll. Beim Übergang von einer Basis ei zu einer neuen Basis ea soll sich die Matrix Aij in eine
Matrix
Aab = Λai Aij Λjb
(9.32)
(9.28)
a
transformieren. Der erste, obere Index verhält sich wie der eines Vektors, der zweite, untere Index
wie der eines dualen Vektors.
Wird dadurch irgendein sinnvolles Objekt definiert? Tatsächlich ist das der Fall. Es handelt sich
um die Matrixdarstellung einer linearen Abbildung A : V → V. Sie ordnet einem Vektor x mit
den Komponenten xi bzw. xa einen Vektor y = A(x) mit den Komponenten
i
finde die dualen Basen e und e , und verifi-
Aufgabe 9.6 Es seien ei und ea zwei Basen von V, und ei bzw. ea die dazu dualen Basen. Man
zeige, dass sich die Übergangsmatrizen wie folgt darstellen lassen,
Λai
a
= e · ei ,
Λia
i
= e · ea .
y i = Aij xj
(9.29)
(9.33)
zu. Um zu zeigen, dass diese beiden Gleichungen tatsächlich äquivalent sind, also den gleichen
Zusammenhang zwischen den Vektoren x und y ausdrücken, benutzen wir das Transformationsgesetz für die Komponenten von Vektoren und das postulierte Transformationsgesetz (9.32) für
die Matrix. Daraus folgt
Aufgabe 9.7 Es sei V der Raum aller Spaltenvektoren der Länge 2, und V ∗ der entsprechende
Zeilenvektorraum. Die Basis ea , mit a ∈ {1, 2}, und die Basis ei , mit i ∈ {u, v}, seien durch
1
0
cos α
sin α
e1 =
, e2 =
,
eu =
, ev =
(9.30)
0
1
sin α
− cos α
y a = Aab xb = Λai Aij Λjb Λbk xk = Λai Aij δ jk xk = Λai Aij xj = Λai y i .
(9.34)
Die rechte Seite der Gleichungen (9.33) transformiert sich in der gleichen Weise wie die linke
Seite. Die Gleichungen drücken denselben Sachverhalt aus, benutzen nur verschiedenen Darstellungen der Vektoren.
Diese Grundidee lässt sich leicht verallgemeinern. Wir können zunächst ganz abstrakt reelle Zahlen zu einem Schema anordnen, und dann verlangen, dass sich dieses Zahlenschema bei
einem Basiswechsel in einer ganz bestimmten Art transformiert. Wir erklären das Transformationsverhalten implizit dadurch, dass wir das Zahlenschema durch ein Symbol mit m oberen und n
unteren Indizes bezeichnen, etwa B i ··· jk ··· l , wobei jeder Index Werte aus derselben Indexmenge
mit N = dim V Elementen annimmt. Insgesamt besteht das Schema dann aus N n+m Zahlen. Wir
können uns die Einträge des Zahlenschemas in einem imaginären, höherdimensionalen Raum in
Form von Spalten und Zeilen angeordnet vorstellen.
Beim Übergang von einer Basis ei zu einer neuen Basis ea soll sich das Schema B i ··· jk ··· l in
ein neues Schema
(9.35)
B a ··· bc ··· d = Λai · · · Λbj B i ··· jk ··· l Λkc · · · Λld
gegeben, wobei α ein fest gewählter Winkel ist. Man bestimme die Übergangsmatrizen und die
dualen Basisvektoren.
Aufgabe 9.8 Basistransformationen können verkettet werden. Es seien ei , ea und eµ drei Basen
von V, die wir durch unterschiedliche Indexmengen unterscheiden. Man zeige, dass dann die
Übergangsmatrix Λiµ , die die erste Basis in die dritte überführt, durch das Matrixprodukt der
Übergangsmatrizen Λia und Λaµ gegeben ist, also
Λiµ = Λia Λaµ .
bzw. y a = Aab xb
(9.31)
Die Menge aller möglichen Basistransformationen bildet folglich eine Gruppe. Um welche Matrixgruppe handelt es sich?
4
Aufgabe 9.11 Ein Tensor A der Stufe (0, 2) sei bezüglich einer Basis ei durch seine Darstellung
Aij = δij , also durch das Kronecker-Symbol mit zwei unteren Indizes definiert. Man zeige, dass
dies kein invarianter Tensor ist, dass also die Darstellung Aab bezüglich einer anderen Basis ea
im allgemeinen nicht durch das Kronecker-Symbol δab gegeben ist.
transformieren. Wir transformieren quasi jeden einzelnen Index mit einer passenden Übergangsmatrix. Die Transformationsgesetze (9.24) für Vektoren und (9.25) für duale Vektoren sind einfache Spezialfälle davon, die sich für m = 1 und n = 0, bzw. für m = 0 und n = 1 ergeben. Und
das Transformationsverhalten (9.32) für die Matrixdarstellung einer linearen Abbildung ergibt
sich für m = 1 und n = 1.
Ein auf diese Weise zunächst ganz abstrakt definiertes Zahlenschema heißt Tensor der Stufe
(m, n). Ein Vektor ist in diesem Sinne ein Tensor der Stufe (1, 0), ein dualer Vektor ein Tensor
der Stufe (0, 1), und eine linear Abbildung V → V ein Tensor der Stufe (1, 1). Einen Skalar,
also eine reelle Zahl, die sich beim Basiswechsel gar nicht transformiert, können wir als Tensor
der Stufe (0, 0) auffassen. Er trägt gar keine Indizes, und transformiert daher auch nicht beim
Basiswechsel.
Wir können das in der folgenden, leicht rekursiven, aber sehr intuitiven Definition zusammenfassen:
Aufgabe 9.12 Bevor man das Transformationsverhalten (9.35) postulieren kann, muss man eigentlich erst zeigen, dass es konsistent ist. Wenn wir zuerst von einer Basis zu einer anderen transformieren, und dann zu einer dritten, dann muss das Ergebnis dasselbe sein wie wenn wir gleich
von der ersten zur dritten Basis transformieren. Man verwende das Ergebnis von Aufgabe 9.8, um
zu zeigen, dass das Transformationsverhalten (9.35) diese Konsistenzbedingung erf üllt.
Aufgabe 9.13 Es sei ein Tensor der Stufe (m, n) gegeben, dargestellt durch ein Zahlenschema
B i ··· jk ··· l bezüglich einer Basis ei . Wir definieren eine Abbildung
V ∗ × · · · × V ∗ × V × · · · × V → R,
|
{z
} |
{z
}
B:
Ein Tensor der Stufe (m, n) ist ein Zahlenschema mit m oberen und n unteren
Indizes, das sich beim Basiswechsel wie ein Tensor transformiert.
m
durch
Wir unterscheiden zwischen dem Tensor als abstraktes Objekt, das wir mit B bezeichnen, und
seiner Darstellung bezüglich einer bestimmten Basis durch ein Zahlenschema B i ··· jk ··· l . Als was
wir uns dieses abstrakte Objekt vorstellen müssen, hängt von der Stufe des Tensors ab. Meistens
gibt es mehrere Möglichkeiten, einen Tensor als mathematisches Objekt zu interpretieren. So
haben wir zum Beispiel gesehen, dass sich ein Tensor A der Stufe (1, 1) als lineare Abbildung
A : V → V interpretieren lässt. Ein Tensor x der Stufe (1, 0) ist ein Vektor, oder auch eine lineare
Abbildung x : V ∗ → R.
Den Raum aller Tensoren der Stufe (m, n) bezeichnen wir mir V (m,n) . Das ist ein
(dim V)m+n -dimensionaler Vektorraum, und als Spezialfälle haben wir V (1,0) = V, V (0,1) = V ∗
und V (0,0) = R. Die Addition und skalare Multiplikation in diesen Vektorräumen ist wie üblich
Komponentenweise definiert. Wir addieren zwei Tensoren gleicher Stufe, indem wie die Einträge
des Zahlenschemas addieren. Das gleiche gilt für die skalare Multiplikation. Das ist offenbar mit
dem linearen Transformationsverhalten (9.35) verträglich, und es entspricht der komponentenweisen Addition und skalaren Multiplikation von Vektoren. Die Summe A + B von zwei Tensoren
und das reelle Vielfache s A eines Tensors existieren unabhängig von der gewählten Basis.
(9.36)
n
B(u, . . . , v, x, . . . , y) = B i ··· jk ··· l ui · · · vj xk · · · y l ,
(9.37)
B i ··· jk ··· l = B(ei , . . . , ej , ek , . . . , el ).
(9.38)
k
l
wobei ui , . . . , vj bzw. x , . . . , y die Komponenten von u, . . . , v bzw. x, . . . , y bezüglich der
gegeben Basis sind. Man zeige, dass die so definierte Abbildung, die in jedem ihrer Argumente
linear ist, nicht von der gewählten Basis abhängt. Jeder Tensor der Stufe (m, n) definiert auf
diese Weise eine multilineare Abbildung, die als Argumente m duale Vektoren und n Vektoren
hat. Man zeige umgekehrt, dass sich jeder solchen Abbildung ein Zahlenschema zuordnen l ässt,
welches sich wie ein Tensor transformiert. Man muss dazu nur die gegebene Abbildung B f ür die
Basisvektoren auswerten, also
Welche bilineare Abbildung V ∗ × V → R definiert der Tensor δ aus Aufgabe 9.10?
Der Tensor-Baukasten
Tensoren lassen sich nicht nur wie Vektoren addieren und mit Zahlen multiplizieren, sondern sie
lassen sich auch zu neuen Tensoren kombinieren. Das ist die eigentliche Stärke des Tensorkalküls.
Zum Teil haben wir solche Operationen auch schon durchgeführt. So haben wir zum Beispiel aus
einem Vektor x mit Komponenten xi und einem dualen Vektor u mit Komponenten ui einen
Skalar u · x = ui xi gebildet. Oder wir haben eine lineare Abbildung A, dargestellt durch eine
Matrix Aij , auf einen Vektor, dargestellt durch seine Komponenten xi , angewandt, um so einen
neuen Vektor y = A(x) zu bekommen, dargestellt durch y i = Aij xj .
Alle diese Operationen setzen sich aus zwei Grundoperationen zusammen, die Tensoren auf
andere Tensoren abbilden. Die erste Grundoperation ist die Tensormultiplikation. Wir multiplizieren zwei Tensoren beliebiger Stufe, indem wir ihre Komponenten auf alle möglichen Arten
Aufgabe 9.9 Warum kann man einen Tensor der Stufe (1, 1) auch als Darstellung einer linearen
Abbildung V ∗ → V∗ auffassen?
Aufgabe 9.10 Man zeige, dass das Kronecker-Symbol δ ij einen Tensor δ der Stufe (1, 1) definiert,
indem man das Transformationsverhalten (9.35) nachweist. Einen solchen Tensor, der in allen
Basen durch dasselbe Zahlenschema dargestellt wird, nennt man invarianten Tensor. Wenn wir
Tensoren der Stufe (1, 1) als lineare Abbildungen V → V interpretieren, welche spezielle solche
Abbildung wird dann durch den Tensor δ dargestellt?
5
Die Matrix A wird offenbar aus allen möglichen Produkten der Komponenten von z und w
gebildet.
Das Tensorprodukt ist etwas anderes als das Produkt (9.6) eines Vektors mit einem dualen
Vektor, das eine Zahl liefert. Mit dem Tensorprodukt lassen sich Tensoren höherer Stufe bilden.
Man kann damit auch eine Basis der Vektorräume V (m,n) konstruieren. Bleiben wir bei dem
Beispiel von eben, und ersetzen den Vektor z der Reihe nach durch alle Basisvektoren e i , und
den dualen Vektor w der Reihe nach durch alle dualen Basisvektoren e j . Das Tensorprodukt
ei ⊗ ej wird dann durch eine Matrix dargestellt, die nur in der i-ten Spalte und j-ten Zeile eine
Eins, und sonst nur Nullen als Einträge hat. Diese Matrizen bilden eine Basis von V (1,1) .
Das lässt sich natürlich wieder verallgemeinern. Um eine Basis von V (m,n) zu definieren,
müssen wir alle möglichen Tensorprodukte von m Basisvektoren und n dualen Basisvektoren
bilden. Es gibt (dim V)m+n Möglichkeiten, dies zu tun, und das ist auch die Dimension von
V (m,n) . Ein Tensor der Stufe (m, n) hat dann die Darstellung
multiplizieren und das Ergebnis wieder in einem Schema anordnen. Auf alle möglichen Arten
heißt, dass wir jeden Eintrag des einen Tensors mit jedem des anderen multiplizieren.
Explizit sieht das zum Beispiel so aus, dass wir aus einem Tensor A der Stufe (2, 0) und einem
Tensor B der Stufe (1, 1) einen Tensor C der Stufe (3, 1) bilden, der durch das Zahlenschema
C ijkl = Aij B kl
(9.39)
dargestellt wird. Wir schreiben dafür auch C = A ⊗ B, und nennen dies das Tensorprodukt von
A und B. Dass auf diese Weise tatsächlich ein neuer Tensor definiert wird, müssen wir natürlich
beweisen. Wir müssen also zeigen, dass das Zahlenschema (9.39) bei einem Basiswechsel wie
ein Tensor transformiert.
Wir setzen voraus, dass A und B Tensoren sind, das heißt für zwei beliebigen Basen e i und
ea gilt
Aab = Λai Λbj Aij ,
B cd = Λck B kl Λld .
(9.40)
B = B i ··· jk ··· l ei ⊗ · · · ⊗ ej ⊗ |ek ⊗ ·{z· · ⊗ e}l .
|
{z
}
Wenn wir die beiden Gleichungen multiplizieren, bekommen wir
C abcd = Aab B cd = Λai Λbj Λck Aij B kl Λld = Λai Λbj Λck C ijkl Λld .
m
(9.41)
Die zweite Grundoperation des Tensorkalküls ist die Spurbildung oder Kontraktion. Wir betrachten noch einmal eine lineare Abbildung A : V → V, dargestellt durch eine Matrix A ij . Die Spur
der Matrix ist die Summe über die Diagonalemente, also
sp(A) = Aii .
Das Tensorprodukt eines Tensor der Stufe (m, n) mit einem Tensor der Stufe (p, q)
ist ein Tensor der Stufe (m + p, n + q).
Aaa = Λai Aij Λja = Aij δ ji = Aii .
z
 .. 
A=z⊗w = . 
zN
w1 · · · wN

1
1
1
N

z w ··· z w


..
..
..
=
.
.
.
.
N 1
N N
z w ··· z w
(9.46)
Die Spur eines Tensors der Stufe (1, 1) ist ein Skalar, der nicht von der gewählten Basis abhängt.
Auch das lässt sich wieder verallgemeinern. Betrachten wir einen beliebigen Tensor A, der
mindestens einen oberen und einen unteren Index hat. Dann können wir über diese Indizes die
Spur bilden und so einen neuen Tensor B definieren. Etwas schematisch,
B ············ = A··· i ······ i··· ,
(9.47)
oder am Beispiel eines Tensors der Stufe (1, 3),
und folglich

(9.45)
Die Spur ist unabhängig von der gewählten Basis. Das lässt sich leicht zeigen. Es gilt
Das einfachste Beispiel ist das Tensorprodukt eines Vektors z = z i ei mit einem dualen Vektor w = wi ei . Das ist ein Tensor A = z ⊗ w der Stufe (1, 1), dessen Komponenten durch
Aij = z i wj gegeben sind. Wenn V der Spaltenvektorraum der Länge N , V ∗ der zugehörige
Zeilenvektorraum, und ei die Standardbasis (9.15) ist, dann lässt sich auch dieses Produkt als
Matrixmultiplikation schreiben. Es gilt dann nämlich
 1 
z
 .. 
(9.42)
w = w1 · · · wN ,
z =  . ,
N
z
1
n
Aufgabe 9.14 Man beweise, dass die rechte Seite von (9.44) tats ächlich unabhängig von der
Basis ist, also unter einem Basiswechsel invariant bleibt. Der so definierte Tensor B existiert
also unabhängig von seiner Darstellung.
Das ist genau das Transformationsverhalten eines Tensors der Stufe (3, 1). Also haben wir gezeigt, dass durch (9.39) ein solcher Tensor definiert ist, und zwar unabhängig davon, in welcher
Basis wir diese Gleichung aufschreiben. Genau wir die komponentenweise Addition ist auch die
komponentenweise Multiplikation von zwei Tensoren, wenn sie auf diese Weise ausgeführt wird,
unabhängig von der gewählten Darstellung.
Wie das Tensorprodukt zu verallgemeinern ist, ist sofort offensichtlich.

(9.44)
Bkl = Aikil .
(9.48)
Sobald ein Tensor mehr als einen oberen oder mehr als einen unteren Index hat, gibt es mehrere
Möglichkeiten, eine Spur zu bilden. Wir sagen in diesem Fall, dass wir den ersten und den dritten
Index des Tensors A kontrahiert haben, um den Tensor B zu bilden.
(9.43)
6
Auch hier müssen wir erst nachweisen, dass durch die Kontraktion tatsächlich ein neuer Tensor
definiert wird. Der Beweis ist wieder sehr einfach und völlig analog zu (9.46). Wir müssen nur
ein paar zusätzliche Übergangsmatrizen ausschreiben. Wir führen ihn exemplarisch für den Fall
(9.48). Es ist
Beispiel (9.39) sind die Tensoren bilineare Abbildungen A : V ∗ × V ∗ → R und B : V ∗ × V → R.
Man zeige, dass der Tensor C = A ⊗ B durch die folgende multilineare Abbildung gegeben ist,
Bcd = Aacad = Λai Aikjl Λkc Λja Λld = δ ji Aikjl Λkc Λld = Bkl Λkc Λld ,
Aufgabe 9.16 Es sei ei eine beliebige Basis von V und ei die zugehörige duale Basis von V ∗ .
Man zeige, dass der Kronecker-Tensor δ aus Aufgabe 9.10 durch δ = e i ⊗ ei dargestellt werden
kann.
C:
(9.49)
was wieder dem Transformationsverhalten eines Tensors der Stufe (0, 2) entspricht. Für den allgemeine Fall ist der Beweis genauso zu führen.
Die Kontraktion eines Tensors der Stufe (m, n) ergibt einen Tensor der Stufe (m −
1, n − 1).
V ∗ × V ∗ × V ∗ × V → R,
C(u, v, w, x) = A(u, v) B(w, x).
(9.50)
Die Metrik
Wir betrachten jetzt einen Vektorraum V, auf dem eine Metrik, also ein Skalarprodukt V ×V → R
definiert ist. Um es von dem Produkt (9.6) zu unterscheiden, für das wir den Punkt verwenden,
bezeichen wir das Skalarprodukt von zwei Vektoren x, y ∈ V zunächst mit g(x, y).
Die Axiome für einen metrischen Vektorraum verlangen, dass das Skalarprodukt symmetrisch
und bilinear ist. Daraus folgt mit x = xi ei und y = y i ei
Wir verstehen nun auch, warum die Summenkonvention gerade so und nicht anders formuliert
ist. Der Beweis (9.49) funktioniert nur, wenn einer der Indizes, über den summiert wird, oben
steht und der andere unten. Denn nur dann heben sich die beiden Übergangsmatrizen Λai und
Λja gegenseitig weg. Würden wir über einen doppelt oben der doppelt unten vorkommenden
Index summieren, hätte das Ergebnis nicht das richtige Transformationsverhalten, wäre also kein
Tensor. Und schon gar nicht, wenn wir über einen Index summieren würden, der nur einmal oder
dreimal vorkommt.
Tatsächlich lassen sich jetzt alle Operationen, die wir mit Vektoren, dualen Vektoren oder Tensoren höherer Stufe durchgeführt haben, auf diese zwei Grundoperationen zurückführen. So entsteht zum Beispiel das Produkt eines Vektors mit einem dualen Vektor, u · x = u i xi , durch
Tensormultiplikation und anschließende Kontraktion. Ein anderes Beispiel ist die Verkettung von
zwei linearen Abbildungen A und B zu einer Abbildung C = A ◦ B. Diese erfolgt durch Multiplikation der Matrizen, also C ik = Aij B jk . Auch das ergibt sich aus einer Tensormultiplikation
und einer Kontraktion.
Die beiden Grundoperationen können verwendet werden, um Tensoren fast beliebig zu neuen
Tensoren zu kombinieren. Auf diese Weise entsteht ein Art Baukasten. Die Bausteine sind die
Tensoren. Ihre Indizes kann man als Stecker und Buchen interpretieren. Man kann zwei Tensoren aneinander heften und das ganze als einen zusammengesetzten Baustein betrachten. Das
entspricht der Tensormultiplikation. Man kann auch einen Stecker mit einer Buchse verbinden,
und das als einen Baustein mit wenigen freien Steckern und Buchsen betrachten. Das entspricht
der Kontraktion.
Wir werden hier höchstens Tensoren zweiter Stufe benötigen, bis auf eine spezielle Ausnahme
eines Tensor dritter Stufe, den wir am Ende dieses Kapitels einführen werden. Trotzdem ist es
ganz nützlich, das allgemeine Prinzip verstanden zu haben. Das Tensorkalkül bietet eine einheitliche Sprache, in der sich fast alle Aussagen der linearen Algebra formulieren lassen. Wir wollen
das im folgenden anhand von ein paar Beispielen zeigen, und dabei auch den Anschluss an das
herstellen, was wir im Teil I über die Strukturen des physikalischen Raumes gesagt haben.
g(x, y) = g(xi ei , y i ei ) = g(ei , ej ) xi y j = gij xi y j ,
(9.51)
wobei gij eine symmetrische N ×N -Matrix ist. Tatsächlich handelt es sich dabei, wie man aus
der Indexstellung abliest, um einen Tensor der Stufe (0, 2). Es gilt nämlich beim Übergang von
der Basis ei zu einer neuen Basis ea
gab = g(ea , eb ) = g(ei Λia , ej Λjb ) = g(ei , ej ) Λia Λjb = gij Λia Λjb .
(9.52)
Das ist das Transformationsverhalten, das einen Tensor der Stufe (0, 2) definiert. Wir nennen
einen Tensor symmetrisch, wenn das Zahlenschema unter Vertauschung von zwei Indizes invariant ist, also
(9.53)
gij = gji .
Außerdem müssen wir noch verlangen, dass die Metrik positiv ist. Für alle x ∈ V gilt
g(x, x) ≥ 0,
g(x, x) = 0
⇒
x = 0.
(9.54)
⇒
xi = 0.
(9.55)
Das ist eine weitere Forderung an die Matrix gij , nämlich
gij xi xj ≥ 0,
gij xi xj = 0
Zusammenfassend können wir sagen:
Eine Metrik ist ein positiver, symmetrischer Tensor der Stufe (0, 2).
Aufgabe 9.15 Mit der Interpretation eines Tensors als multilineare Abbildung aus Aufgabe 9.13
lässt sich das Tensorprodukt auch ohne Rückgriff auf eine Basis definieren. Im hier gezeigten
7
(c)
(d)
Mit einer Metrik auf V ist auch eine Metrik auf V ∗ definiert. Aus der Positivität der Matrix
gij folgt nämlich, dass sie invertierbar ist. Es existiert also eine ebenfalls symmetrische, inverse
Matrix, die wir mit g ij bezeichnen, so dass
gij g jk = δi k .
2
(9.56)
2
Diese inverse Matrix ist die Darstellung eines Tensors der Stufe (2, 0). Das müssen wir jetzt gar
nicht mehr anhand der Transformationseigenschaften beweisen, sondern das können wir unmittelbar aus den Gleichungen (9.56) ablesen.
Dazu argumentieren wir wie folgt. Zuerst wählen wir irgendeine Basis, und definieren einen
Tensor g ij , dessen Komponenten in dieser Basis die Gleichungen (9.56) erfüllen. Dann transformieren wir diesen Tensor in eine beliebige andere Basis. Von der jeweils rechten Seite der
Gleichung wissen wir, dass sich δ ik wie ein Tensor transformiert. Also steht dort auch in jeder
anderen Basis das Kronecker-Symbol.
Auf der linken Seite wissen wir, dass sowohl g ij als auch gjk die Darstellungen von Tensoren
sind. Außerdem wissen wir, dass wir Tensoren multiplizieren und kontrahieren dürfen, und dass
sich das Ergebnis dieser Operation wieder wir ein Tensor verhält. Wir schließen daraus, dass die
Gleichung, so wie sie dort steht, in jeder Darstellung, als für jeder Wahl der Basis gilt. Wir hätten
genauso gut eine andere Basis wählen können, um die inverse Metrik als Tensor zu definieren.
Das ist eine ganz wesentliche Eigenschaft der Tensorkalküls. Wir können es einer Gleichung,
die eine Beziehung zwischen Tensoren herstellt, allein an ihre Form ansehen, dass sie in in jeder
Basis, also für jede Darstellung der Tensoren gilt. Die Voraussetzung dafür ist, dass auf beiden
seiten der Gleichung die gleichen freien Indizes erscheinen, also die, für die wir noch Werte
einsetzen können. Das sind hier die Indizes i und k. Und alle Indizes, über die summiert wird,
müssen genau einmal oben und einmal unten stehen. Das ist hier der Index j.
Mit Hilfe der inversen Metrik können wir nun das Skalarprodukt von zwei dualen Vektoren
u = ui ei und v = vi ei bilden. Wir setzen dazu g(ei , ej ) = g ij , so dass
g(u, v) = g(ui ei , vi ei ) = g(ei , ej ) ui vj = g ij ui vj .
⇔
xi = g ij x∗j
2
1
x1
x1
1
x1
(a)
1
(b)
Abbildung 9.1: In einem metrischen Vektorraum V gibt es zu jeder Basis i von V eine duale
Basis i , die ebenfalls eine Basis von V ist (a). Nur eine Orthonormalbasis (b) ist zu sich selbst
dual.
Es ist daher sinnvoll, die Räume V und V ∗ miteinander zu identifizieren, indem man den Vektor
x mit dem dualen Vektor x∗ gleich setzt. Der Punkt bekommt dann auch wieder seine Bedeutung
als Skalarprodukt, denn nun ist
g(x, y) = x∗ · y = x · y.
(9.59)
Eine weitere Konsequenz ist, dass nun auch die Komponenten x i = x∗i und xi Darstellungen
desselben Vektors sind, nämlich
(9.57)
x = x i ei = x i ei ∈ V = V ∗ .
Tatsächlich können wir sogar noch einen Schritt weiter gehen. Die Tensoren g ij und g ij lassen
nämlich noch eine andere Interpretation zu. Sie lassen sich als lineare Abbildungen V → V ∗ ,
bzw. V ∗ → V auffassen. Wir ordnen einem Vektor x = xi ei ∈ V umkehrbar eindeutig einen
dualen Vektor x∗ = x∗i ei ∈ V ∗ zu, indem wir
x∗i = gij xj
⇔
x2
x2
g ij gjk = δ ik
x2
(9.60)
Für die Beziehungen zwischen den Komponenten xi und xi bzw. den Basisvektoren ei und ei
finden wir
xi = g ij xj , xi = gij xj ,
ei = gij ej ,
ei = g ij ej .
(9.61)
Wir können einen Vektor also wahlweise durch seine “oberen” oder “unteren” Komponenten
darstellen, indem wir ihn entweder als Linearkombination der Basisvektoren, oder der dualen
Basisvektoren schreiben. Die beiden Darstellungen transformieren bei einem Basiswechsel noch
immer verschieden, aber sie repräsentieren beide dasselbe Objekt, nämlich den Vektor x.
Diese etwas verwirrende Tatsache lässt sich, wie fast alles in einem metrischen Vektorraum,
geometrisch veranschaulichen. Am Beispiel eines zweidimensionalen Vektorraumes wird dies in
Abbildung 9.1(a) gezeigt. Dort ist zunächst eine Basis (e1 , e2 ) eingezeichnet. Der Vektor x kann
in dieser Basis als Linearkombination x = x1 e1 + x2 e2 dargestellt werden. Die entsprechenden
(9.58)
setzen. Wenn wir den dualen Vektor x∗ als lineare Abbildung V → R auffassen, dann lässt sich
diese mit den Worten “bilde das Skalarprodukt mit x” anschaulich beschreiben. In einem metrischen Vektorraum entspricht also jedem Vektor eindeutig eine solche lineare Abbildung, und
umgekehrt kann jede lineare Abbildung V → R, also jeder duale Vektor, eindeutig als Skalarprodukt mit einen Vektor dargestellt werden.
8
Komponenten (x1 , x2 ) können an den Achsen, die von den Basisvektoren aufgespannt werden,
abgelesen werden.
Die duale Basis (e1 , e2 ) ist eindeutig durch die Forderung ei · ej = δ ij festgelegt. Dies ist
jetzt eine Forderung an die Skalarprodukte der Basisvektoren mit den dualen Basisvektoren. Der
Vektor e1 steht auf e2 senkrecht, und sein Betrag wird dadurch bestimmt, dass das Skalarprodukt
mit e1 gleich Eins ist. Entsprechend ist der Vektor e2 festgelegt.
Stellt man nun denselben Vektor als Linearkombination x = x1 e1 +x2 e2 dar, so liest man die
entsprechenden Komponenten (x1 , x2 ) an den gestrichelten Achsen ab, die von den dualen Basisvektoren aufgespannt werden. Sie sind im allgemeinen von der Komponenten (x 1 , x2 ) desselben
Vektors verschieden, und sie transformieren auch bei einem Basiswechsel anders.
Es gibt allerdings den Spezialfall, in dem die Basis mit der dualen Basis identisch ist. Aus (9.61)
entnehmen wir, dass dies genau dann der Fall ist, wenn gij = δij , und folglich auch g ij = δ ij ist,
die Metrik also durch die Einheitsmatrix gegeben ist. Das ist allerdings keine Forderung an die
Metrik, sondern an die Basis. Eine Basis mit dieser Eigenschaft heißt Orthonormalbasis.
Wir können die wesentlichen Eigenschaften eines metrischen Vektorraumes wie folgt zusammenfassen:
spiel einen Tensor der Stufe (0, 2) mit einem Tensor der Stufe (2, 0) identifizieren, indem wir
Bij = gik gjl B kl
⇔
B ij = g ik g jl Bkl
(9.62)
setzen, und dann beides als Darstellungen desselben Tensors zweiter Stufe B interpretieren, so
wie wir xi und xi als Darstellungen desselben Vektors x betrachten können. In einem metrischen
Raum können wir einfach von einem Tensor der Stufe m sprechen, wenn es sich um ein Objekt
mit m Indizes handelt. Er besitzt jedoch verschiedene Darstellungen, die bei einem Basiswechsel
verschieden transformieren.
Aufgabe 9.17 Warum ist eine positive Matrix immer invertierbar?
Aufgabe 9.18 Wenn V der Spaltenvektorraum der Länge N ist, V ∗ der entsprechende Zeilenvektorraum, und die Metrik auf V durch die Summe über der Produkte der Einträge gegeben ist, also
das Standard-Skalarprodukt auf dem RN , wie sieht dann die Abbildung V → V ∗ : x → x∗ aus?
Mit anderen Worten, welcher Spaltenvektor wird mit welchem Zeilenvektor identifiziert, wenn man
V = V ∗ setzt?
Ein metrischer Vektorraum ist mit seinem Dualraum identisch. Eine Orthonormalbasis ist mit ihrer dualen Basis identisch.
Aufgabe 9.19 Für einen speziellen Tensor hatten wir bereits eine Version mit zwei oberen und
eine Version mit zwei unteren Indizes definiert, nämlich für die Metrik g, die einmal durch die
Matrix gij und einmal durch die inverse Matrix g ij dargestellt wird. Ist das mit (9.62) konsistent?
Mit anderen Worten, gilt diese Gleichung auch, wenn wir dort B ij = gij und B ij = g ij setzen?
Wenn wir eine Orthonormalbasis verwenden, dann müssen wir nicht mehr zwischen oberen und
unteren Indizes unterscheiden. Wir können, wie in Abbildung 9.1(b) gezeigt, alle Indizes nach
unten schreiben und einen Vektor einfach als Linearkombination x = x i ei darstellen, wobei wir
die Summenkonvention entsprechend abändern. So hatten wir sie ja auch ursprünglich eingeführt.
Der Grund dafür ist, dass in (9.61) überall das Kronecker-Symbol steht, so dass alle Größen mit
oberen Indizes zu den entsprechenden Größen mit unteren Indizes gleichgesetzt werden.
Das geht natürlich nur dann, wenn wir uns darauf einigen, nur Orthonormalbasen zu verwenden. Das ist aber, wie wir später sehen werden, nicht immer sinnvoll. Deshalb werden wir auch in
einem metrischen Vektorraum die Unterscheidung zwischen einer Basis und der dazugehörigen
dualen Basis nicht aufgeben. Folglich müssen wir auch weiterhin zwischen oberen und unteren
Indizes unterscheiden. Es gibt aber eine einfache Regel, sie ineinander umzurechnen, nämlich die
Formeln (9.61).
Um einen oberen Index in einen unteren zu verwandeln, müssen wir nur das jeweilige Objekt
mit der Metrik multiplizieren und die Spur über den betreffenden Index bilden. Wir sagen auch,
dass wir einen Index mit Hilfe der Metrik “nach unten ziehen”. Entsprechend können wir den
Index mit der inversen Metrik wieder “nach oben ziehen”. Laut (9.61) gilt diese Regel sowohl für
die Komponenten von Vektoren, als auch für die Basisvektoren selbst.
Sie lässt sich auf beliebige Tensoren verallgemeinern. Da wir in einem metrischen Vektorraum
nicht zwischen Vektoren und dualen Vektoren unterscheiden müssen, müssen wir auch nicht zwischen Tensoren der Stufen (m, n) und (p, q) unterscheiden, falls m + n = p + q ist, falls also
beide Tensoren insgesamt gleich viele Indizes haben. Mit Hilfe der Metrik können wir zum Bei-
Aufgabe 9.20 Auf dem dreidimensionalen Vektorraum aus Aufgabe 9.5 sei eine Metrik durch ihre
Komponenten g11 = g22 = g33 = 1 und g12 = g23 = g31 = 0 bezüglich der Basis (e1 , e2 , e3 )
definiert. Man bestimmte die Komponenten bezüglich der Basis (ex , ey , ez ).
Die orthogonale Gruppe
Da Orthonormalbasen in der Physik eine wichtige Rolle spielen, wollen wir uns kurz mit den
Besonderheiten befassen, die beim Übergang zwischen zwei solchen Basen auftreten. Es sei also
ei eine Orthonormalbasis und ea eine andere Orthonormalbasis. Da in diesem Fall beide Basen
mit ihren jeweiligen dualen Basen übereinstimmen, können wir in diesem Abschnitt alle Indizes
nach unten schreiben.
Das gilt auch für die Übergangsmatrizen, so dass der Zusammenhang zwischen den Basen
durch
(9.63)
ea = ei Λia ⇔ ei = ea Λai
gegeben ist. Das ergibt sich aus (9.18), wenn wir dort einfach alle Indizes nach unten schreiben.
Die Übergangsmatrizen Λia und Λai sind natürlich wieder zueinander invers, also
Λia Λaj = δij ,
9
⇔
Λai Λib = δab .
(9.64)
Sie können aber nicht beliebig gewählt werden. Aus der Forderung, dass mit e i auch ea eine
Orthonormalbasis ist, ergibt sich folgende Bedingung an die Übergangsmatrizen,
ea · eb = (ei Λia ) · (ej Λjb ) = (ei · ej ) Λia Λjb = δij Λia Λjb = Λia Λib = δab .
Komponentenweise ausgeschrieben,
a2 + b2 = 1,
(9.65)
⇔
Λai Λbj = δij .
cos α sin β + sin α cos β = sin(α + β) = 0,
(9.71)
(9.72)
also α + β = 0 oder α + β = π. Eingesetzt ergibt das
cos α sin α
cos α
sin α
Λ = D(α) =
oder Λ = S(α) =
.
− sin α cos α
sin α − cos α
(9.66)
Eine Matrix mit dieser Eigenschaft heißt orthogonale Matrix. Um das in der üblichen Matrixnotation aufzuschreiben, schreiben wir für die Übergangsmatrizen
Λ = Λai ,
Λ−1 = Λia ,
(9.67)
(9.73)
Die erste Übergangsmatrix beschreibt eine Drehung der Basis um den Winkel α. Wählen wir als
Indexmenge a ∈ {u, v} und i ∈ {x, y}, so lautet die explizite Transformation der Basisvektoren
wobei der erste Index als Zeilenindex, der zweite als Spaltenindex zu lesen ist. Die zweite Gleichung in (9.66) lautet dann
Λ Λ> = I ⇔ Λ> = Λ−1 ,
(9.68)
eu = cos α ex + sin α ey ,
ev = − sin α ex + cos α ey .
(9.74)
Die zweite Möglichkeit in (9.73) entspricht einer Drehung mit anschließender Spiegelung,
>
wobei I die N ×N -Einheitsmatrix ist, die durch das Kronecker-Symbol dargestellt wird, und Λ
die transponierte Matrix ist, die durch das Vertauschen von Zeilen und Spalten entsteht. Die erste
Gleichung in (9.66) ist dazu äquivalent und macht dieselbe Aussage über die inverse Matrix Λ −1 .
Eine orthogonale Matrix Λ hat also die Eigenschaft, dass sie zu ihrer transponierten Matrix
Λ> invers ist. Die Menge aller dieser Matrizen bildet eine Gruppe, die man mit O(N ) bezeichnet
und orthogonale Gruppe der Dimension N nennt.
eu = cos α ex + sin α ey ,
ev = sin α ex − cos α ey .
(9.75)
Es gibt also zwei Arten von orthogonalen Basistransformationen, nämlich solche, die die Orientierung der Basis erhalten und solche, die sie umkehren.
Das gilt in jeder Dimension, wobei sich anhand der Determinante der Übergangsmatrix entscheiden lässt, ob die Orientierung erhalten bleibt oder nicht. Aus (9.68) folgt nämlich
Aufgabe 9.21 Man beweise das. Zu zeigen ist dazu, dass die Einheitsmatrix orthogonal ist, also
I ∈ O(N ), dass mit jeder Matrix Λ ∈ O(N ) auch die inverse Matrix Λ−1 ∈ O(N ) orthogonal
ist, und dass mit je zwei orthogonalen Matrizen Λ1 , Λ2 ∈ O(N ) auch das Produkt Λ1 Λ2 ∈
O(N ) orthogonal ist.
det(Λ Λ> ) = det(Λ) det(Λ> ) = det(Λ)2 = det(I) = 1
⇒
det(Λ) = ±1.
(9.76)
Hier haben wir benutzt, dass die Determinante des Produktes von zwei Matrizen das Produkt der
Determinante ist, und dass die Determinante einer Matrix beim Transponieren erhalten bleibt.
Die Determinante einer orthogonalen Matrix ist also entweder +1 oder −1, wobei der positive
Werte einer Drehung der Basis ohne Spiegelung, ein negativer Wert einer Drehung der Basis mit
Spiegelung entspricht. Die Teilmenge von O(N ), die die Drehungen ohne Spiegelung enthält,
bildet eine Untergruppe, die spezielle orthogonale Gruppe SO(N ). Sie besteht aus allen orthogonalen Basistransformationen, bei denen die Orientierung der Basis erhalten bleibt.
In der Physik ist natürlich die orthogonale Gruppe O(3) von besonderer Bedeutung. Wir werden auf sie später noch ausführlicher eingehen. Im Prinzip gilt für sie aber dasselbe wir für O(N )
im allgemeinen. Sie zerfällt in zwei Teilmengen, wobei die Untergruppe SO(3) die Drehgruppe
ist, also alle möglichen Drehungen der Basis enthält, aber keine Spiegelungen.
Wir können hier nicht die gesamte Theorie der orthogonalen Gruppe erarbeiten, wollen aber kurz
die wichtigsten Eigenschaften zusammenstellen. Diese lassen sich bereits an der Gruppe O(2)
ablesen, also der Gruppe aller orthogonalen Transformation in einem zweidimensionalen Vektorraum. Wir setzen
a b
a c
>
Λ=
⇒ Λ =
.
(9.69)
c d
b d
Die Bedingung (9.68) lautet in diesem Fall
2
1 0
a b
a c
a + b2 a c + b d
Λ Λ> = I ⇔
=
.
0 1
c d
b d
a c + b d c 2 + d2
a c + b d = 0.
Die ersten beiden Gleichungen lassen sich durch den Ansatz a = cos α, b = sin α, c = sin β und
d = cos β lösen. Die dritte Gleichung lautet dann
Nur, wenn die Übergangsmatrix die letzte Gleichung erfüllt, bildet sie eine Orthonormalbasis
wieder auf eine Orthonormalbasis ab. Wenn man die Basen ei und ea vertauscht, findet man
natürlich dieselbe Bedingung für die inverse Matrix, also
Λia Λib = δab
c2 + d2 = 1,
(9.70)
Aufgabe 9.22 Warum bilden die orthogonalen Basistransformationen ohne Spiegelung eine Untergruppe der orthogonalen Gruppe, die Transformationen mit Spiegelung aber nicht?
10
replacements
(c)
(d)
y
Indizes den gleichen Wert annehmen. Insbesondere ist der so definierte Tensor ω total antisymmetrisch. Er ändert sein Vorzeichen bei jeder Vertauschung von zwei Indizes,
y
u
u
α
ωabc = ωbca = ωcab = −ωacb = −ωbac = −ωcba .
α
x
x
v
Da wir uns in einem metrischen Vektorraum befinden, können wir Indizes wahlweise nach oben
oder nach unten schreiben. Die beiden Darstellungen (9.77) repräsentieren denselben Tensor ω,
und (9.78) gilt entsprechend mit oberen Indizes. Da wir zudem eine Orthonormalbasis verwenden,
sind beide Darstellungen sogar gleich.
Eine wichtige Frage ist nun, wie die Darstellungen des Tensors ω in anderen Basen aussehen. Dazu sei ei irgendeine andere Basis, die nicht unbedingt eine Orthonormalbasis sein muss.
Dann können wir die Komponenten ω ijk des Tensor ω in dieser Basis mit Hilfe des allgemeinen
Transformationsgesetzes ausrechnen. Es gilt
v
(a)
(9.78)
(b)
Abbildung 9.2: In einem zweidimensionalen metrischen Vektorraum gibt es orthogonale Basistransformationen ohne (a) und mit (b) Spiegelung. Beide werden durch einen Winkel α parametrisiert.
ω ijk = Λia Λjb Λkc ω abc .
(9.79)
Natürlich ist der Term auf der rechten Seite wieder total antisymmetrisch, das heißt er ändert sein
Vorzeichen bei jeder Vertauschung von zwei Indizes. Er ist daher bis auf eine Konstante bestimmt
und proportional zum Levi-Civita-Symbol εijk . Wir müssen nur noch die Konstante finden.
Aufgabe 9.26 Warum ist jeder total antisymmetrische Ausdruck mit drei Indizes in einem dreidimensionalen Vektorraum proportional zum Levi-Civita-Symbol?
Aufgabe 9.23 Man beweise, dass alle Einträge einer orthogonalen Matrix vom Betrag kleiner
oder gleich Eins sind.
Um die Konstante zu finden, setzen wir den Ansatz ω ijk = c εijk in (9.79) ein und drücken die
Komponenten ω abc durch (9.77) aus,
Aufgabe 9.24 Man berechne für die Matrizen aus (9.73) die Produkte D(α) D(β), D(α) S(β),
S(α) D(β) und S(α) S(β).
c εijk = Λia Λjb Λkc εabc .
Aufgabe 9.25 Wie lauten die explizit ausgeschriebenen Bedingungen (9.68) an die Eintr äge einer
Matrix U ∈ O(3)? Wie viele unabhängige Gleichungen ergeben sich, und wie viele unabhängige
Parameter bleiben übrig?
Für eine fest gewählte Permutation der Zeilenindizes {i, j, k} der Übergangsmatrizen wird auf
der rechten Seite über alle Permutationen der Spaltenindizes {a, b, c} summiert. Dabei werden
jeweils Produkte von drei Matrixelementen gebildet, von denen nie zwei in einer Zeile oder zwei
in einer Spalte stehen. Anschließend wird das Produkt mit einem Vorzeichen versehen, welches
davon abhängt, ob die Permutation der Spaltenindizes {a, b, c} gerade oder ungerade ist.
Das ist die Definition der Determinante einer Matrix. Die Zahl c ist demnach die Determinante
der Übergangsmatrix Λia , und es gilt
Das Kreuz- und Spatprodukt
Bei der Diskussion der Geometrie des dreidimensionalen Euklidischen Raumes hatten wir noch
zwei andere Produkte von Vektoren eingeführt, nämlich das Kreuzprodukt und das Spatprodukt.
Wir wollen nun zeigen, dass auch sie eine recht einfach Darstellung als Tensoren haben.
Dazu sei V von nun an ein dreidimensionaler, metrischer Vektorraum, und e a eine Orthonormalbasis. Für die Metrik gilt also gab = δab und g ab = δ ab . Wir definieren dann einen Tensor ω
dritter Stufe, der bezüglich dieser Basis die Komponenten
ω abc = εabc
bzw. ωabc = εabc
(9.80)
ω ijk = det(Λia ) εijk ,
ωijk = det(Λai ) εijk .
(9.81)
Die zweite Gleichung für die Darstellung mit unteren Indizes folgt dabei aus der analogen Überlegung, bei der wir die Darstellung mit unteren Indizes transformieren. Es tritt dabei die inverse
Transformationsmatrix auf, und daher auch deren Determinante.
Daraus können wir unmittelbar folgenden Schluss ziehen. Wenn wir die Basis e a , von der
wir ausgegangen sind, als positiv orientiert definieren, dann hat die Tensor ω in jeder positiv
orientierten Orthonormalbasis ei die Darstellung
(9.77)
haben soll, wobei εabc bzw. εabc das Levi-Civita-Symbol ist, welches wir in (2.27) definiert hatten. Es ist gleich +1, wenn die Indizes {a, b, c} eine gerade Permutation der vorgegebenen Indexmenge bilden, −1, wenn sie eine ungerade Permutation bilden, und 0, wenn mindestens zwei der
ω ijk = εijk
11
bzw. ωijk = εijk .
(9.82)
Die Basis ea , von der wir ausgegangen sind, ist also in keiner Weise speziell. Wir hätten jede
andere Orthonormalbasis mit der gleichen Orientierung als Ausgangspunkt nehmen können, um
den Tensor ω durch (9.77) zu definieren.
Wir finden aber, dass der Tensor ω in einer negativ orientierten Orthonormalbasis e i eine
andere Darstellung hat, nämlich
ω ijk = −εijk
bzw. ωijk = −εijk .
der Basis ab, das heißt darüber entscheidet die Determinante der Übergangsmatrix. Wir müssen
irgendeine Basis auswählen und diese als positiv orientiert definieren, dann gilt in dieser und in
allen anderen Basen mit der gleichen Orientierung das positive Vorzeichen, in allen anderen das
negative. Für den Spezialfall einer Orthonormalbasis stimmt dies natürlich mit dem Ergebnis von
oben überein, denn dann ist gij = δij , uns somit die Determinante g = 1.
Für den Tensor ω führen wir die Bezeichnung antisymmetrischer Einheitstensor ein. Seine
Definition lässt sich leicht auf einen N -dimensionalen metrischen Vektorraum verallgemeinern,
und es gelten die gleichen Darstellungen, wenn man entsprechend ein Levi-Civita-Symbol mit N
Indizes einführt. Voraussetzung für für die Existenz dieses Tensors ist allerdings eine Metrik, denn
sonst gibt es keine ausgezeichneten Basen, nämlich die Orthonormalbasis, die wir zur Definition
verwendet haben.
(9.83)
Damit können wir das, was wir weiter oben über Orthonormalbasen gesagt haben, wie folgt
ergänzen
In einer positiv orientierten Orthonormalbasis gilt gij = δij und ωijk = εijk .
In einer negativ orientierten Orthonormalbasis gilt gij = δij und ωijk = −εijk .
In jedem metrischen Vektorraum gibt es einen bis auf das Vorzeichen eindeutig definierten antisymmetrischen Einheitstensor.
Und wie verhält es sich mit einer Basis ei , die keine Orthonormalbasis ist? In diesem Fall gibt es
einen sehr eleganten Trick, mit dem man den Tensor ω darstellen kann, ohne die Übergangsmatrizen explizit benutzen zu müssen. Wir betrachten dazu eine andere Determinante, nämlich die
der Matrix gij . Wir können diese wie folgt definieren,
(9.84)
Nun können wir die Definition des Kreuz- und Spatproduktes reproduzieren und als Tensoroperationen darstellen. Hier ist sogar das Spatprodukt das einfachere. Es ist diejenige Abbildung, die
durch den Tensor ω in Sinne der Aufgabe 9.13 definiert wird, nämlich
√
ω(x, y, z) = ωijk xi y j z k = ± g εijk xi y j z k .
(9.87)
Wenn man hier die Summen über die Indizes {j, l, n} explizit ausschreibt, ergeben sich wieder
die Summen über alle Permutationen von Zeilen- und Spaltenindizes der Matrix g ij , wobei immer
nur solche Matrixelemente multipliziert werden, die nicht zusammen in einer Zeile oder einer
Spalte stehen. Der Faktor 6 tritt auf, weil wir anschließend auch noch über die Indizes {i, k, m}
summieren.
Die Determinante g der Metrik ist kein Skalar, denn die Levi-Civita-Symbole zu verschiedenen Basen sind nicht verschiedene Darstellungen eines Tensor. Genau das haben wir ja gerade
widerlegt. Wir können aber nun den folgenden Ausdruck bilden,
Das Vorzeichen ist durch die Orientierung der Basis festgelegt, und für eine positiv orientierte
Orthonormalbasis gilt offenbar der bekannte Ausdruck εijk xi yj zk , wenn wir alle Indizes nach
unten schreiben. Wir können nun aber auch das Spatprodukt in jeder anderen Basis berechnen.
Eine sehr praktische Anwendung dafür wird sich im nächsten Kapitel ergeben, wenn wir Integrationen ausführen. Wir können damit nämlich das Volumen eines Spates ausrechnen, ohne dazu
auf eine Orthonormalbasis zurückgreifen zu müssen.
Das Kreuzprodukt ist nun ebenfalls leicht darzustellen. Wir setzen
√
(9.88)
x × y = ωijk xi y j ek = ± g εijk xi y j ek .
g = det(gij ) =
1 ikm jln
ε
ε gij gkl gmn .
6
1 ikm jln
ω
ω gij gkl gmn = 1.
6
Auch hier ergibt sich in einer positiv orientierten Orthonormalbasis wieder der bekannte Ausdruck
εijk xi yj ek , wenn wir alle Indizes nach unten schreiben. Man beachte jedoch, dass in (9.88)
der duale Basisvektor ek steht, so dass, wenn wir die Vektoren x und y einer bestimmten Basis
darstellen, das Kreuzprodukt x×y zunächst in der dualen Basis dargestellt wird. Aber wir können
dies natürlich mit Hilfe der Metrik umrechnen. In Komponenten ausgeschrieben gilt
(9.85)
In diesem Fall ist die linke Seite ein Skalar, denn sie entsteht durch Multiplikation und Kontraktion aus Tensoren. Sie hat folglich in jeder Basis denselben Wert. In einer Orthonormalbasis ergibt
sich der Wert 1, folglich ist dies der Wert in jeder Basis. Durch Vergleich von dieser Gleichung
mit (9.84) ergibt sich nun
ω
ijk
1
= ± √ εijk ,
g
√
bzw. ωijk = ± g ε
ijk
.
x×y =z
⇔
z i = g ij ωjkl xk y l .
(9.89)
Das Kreuzprodukt wird also genau genommen durch eine Kombination des antisymmetrischen
Einheitstensor mit der Metrik gebildet.
(9.86)
Aufgabe 9.27 Man zeige, dass das hier definierte Kreuzprodukt alle bekannten Eigenschaften
hat. Es ist antisymmetrisch und das Produkt von zwei Vektoren steht auf beiden senkrecht. Außerdem gilt in einer positiv orientierten Orthonormalbasis ei × ej = εijk ek .
Der zweite Ausdruck folgt wieder aus einer analogen Überlegung für die Darstellung mit unteren
Indizes. Nur das Vorzeichen bleibt unbestimmt. Es hängt auch hier wieder von der Orientierung
12
Aufgabe 9.28 Man zeige, dass mit den hier vorgenommenen Definitionen f ür das Spatprodukt
η(x, y, z) = (x × y) · z gilt.
Aufgabe 9.29 Man leite die jeweils zweite Gleichung in (9.86) und (9.81) her.
Aufgabe 9.30 Da die beiden Ausdrücke in (9.86) zwei Darstellungen desselben Tensors in einem
metrischen Vektorraum sind, sollte es möglich sein, die eine aus der anderen durch Hoch- bzw.
Runterziehen der Indizes zu bekommen. Man bestätige dies, also
ωikm = gij gkl gmn ω ilm .
(9.90)
Aufgabe 9.31 Die drei Basisvektoren ei eine dreidimensionalen metrischen Vektorraums spannen, wenn sie keine Orthonormalbasis bilden, keinen Würfel, sondern einen Spat auf. Wie groß
ist das Volumen dieses Spates?
Aufgabe 9.32 Es sei V ein nicht notwendigerweise metrischer, dreidimensionaler Vektorraum.
Man zeige, dass durch
(9.91)
Ωijk lmn = εikm εjlm
ein invarianter Tensor Ω der Stufe (3, 3) definiert wird, und dass folglich f ür jeden Tensor A der
Stufe (1, 1) die Größe
1
det(A) = εikm εjlk Aij Akl Amn
(9.92)
6
ein Skalar ist, und zwar die Determinante der Matrix Aij . Was ist der wesentliche Unterschied
zwischen dieser Definition einer Determinante und der Determinante der Metrik (9.84)? Warum
handelt es sich dort nicht um einen Skalar? Gibt es eine alternative Definition von Ω, die explizit
deutlich macht, dass es sich um einen Tensor handelt?
13
10 Tensorfelder
Obwohl es sich dabei nicht wirklich um das Bilden einer Differenz handelt, ist die Notation
sehr naheliegend. Entsprechend können wir den Punkt, der aus a ∈ E durch Verschiebung um
einen Vektor v ∈ V entsteht, mit a + v ∈ E bezeichnen. Es gilt dann zum Beispiel a + (b − a) =
b, und es gelten auch sonst die üblichen Rechenregeln wie bei der gewöhnlichen Addition und
Subtraktion von Vektoren. Wir müssen nur darauf achten, dass wir nicht zwei Punkte addieren
können, und dass wir Punkte nicht mit Zahlen multiplizieren können. Für a, b ∈ E und s ∈ R
ergeben die Ausdrücke a + b oder s a keinen Sinn.
Wir ersetzen außerdem das Symbol V für den zugeordneten Vektorraum durch die Bezeichnung TE, was soviel bedeutet wie Tangentenraum von E. Die Bezeichnung rührt daher, dass der
zugeordnete Vektorraum TE als die Menge aller Tangentenvektoren von Kurven in E betrachtet
werden kann. Eine Kurve ist eine differenzierbare Abbildung λ : R → E, deren Ableitung ein
Vektor ist, nämlich der Tangentenvektor
Im letzten Kapitel haben wir Tensoren nur im Zusammenhang mit Vektorräumen diskutiert. In
physikalischen Theorien tauchen Tensoren aber meistens in Form Tensorfelder auf, zum Beispiel
als Kraftfelder auf dem physikalischen Raum. Unter einem Feld verstehen wir eine Abbildung,
die jedem Punkt des Raumes eine Zahl, einen Vektor, oder eben einen Tensor bestimmter Stufe
zuordnet. In diesem Kapitel wollen wir uns mit der Darstellung von solchen Feldern in verschiedenen Koordinatensystemen beschäftigen.
Insbesondere geht es darum, das Transformationsverhalten von Tensorfeldern bei Koordinatentransformationen zu verstehen, das wir im letzten Kapitel anhand von Basistransformationen in
Vektorräumen diskutiert haben. In physikalischen Anwendungen müssen wir oft spezielle Koordinatensysteme wählen, die dem gestellten Problem angepasst sind, um überhaupt einer Lösung
näher zu kommen. Zum Beispiel konnten wir das Kepler-Problem, also die Bewegungsgleichung
für einen Planeten im Sonnensystem, erst durch den Übergang zu Kugelkoordinaten lösen.
Kugelkoordinaten sind krummlinige Koordinaten. Das bereitete ein paar Schwierigkeiten, da
wir, bevor wir die Bewegungsgleichungen explizit aufstellen konnten, erst einmal Größen wir Geschwindigkeit und Beschleunigung in solchen Koordinaten darstellen mussten. Um solche Rechnungen nicht für jedes neue Koordinatensystem noch einmal durchführen zu müssen, wollen wir
hier eine Art Rezeptsammlung für den Umgang krummlinigen Koordinatensystem bereitstellen.
Das Tensorkalkül ist dafür die geeignete Sprache.
Wir werden zuerst nur affine Koordinatensystem betrachten und zeigen, dass sich das Transformationsverhalten von Tensorfeldern in solchen Koordinatensystem unmittelbar auf das Transformationsverhalten beim Basiswechsel zurückführen lässt. Anschließend werden wir dies verallgemeinern und zeigen, dass in krummlinigen Koordinatensystemen ein ganz ähnliches Verhalten
gilt. Schwierigkeiten mach dort nur das Ableiten, so dass wir dazu eine spezielle kovariante Ableitung einführen müssen.
Mit ihr werden wir in der Lage sein, viele der Ergebnisse, zu denen wir früher erst nach
mühsamen Rechnungen gekommen sind, durch sehr einfaches Einsetzen von nur ein paar wenigen zu bestimmenden Größen zu reproduzieren. Dazu gehören zum Beispiel die Ausdrücke
für Geschwindigkeit und Beschleunigung in Kugelkoordinaten, oder auch die für den LaplaceOperator oder die Divergenz oder Rotation eines Vektorfeldes in verschiedenen krummlinigen
Koordinatensystemen.
λ0 (s) =
dλ
λ(s + ) − λ(s)
= lim
.
→0
ds
(10.1)
Im Zähler steht ein Abstandsvektor von zwei Punkten, so dass der Grenzwert im Vektorraum TE
gebildet wird. Der Tangentenvektor einer Kurve ist also auf ganz natürliche Weise ein Vektor,
ohne das wir dafür zuerst ein Koordinatensystem einführen müssen, um die Ableitungen auf die
Koordinatendarstellung der Kurve anzuwenden.
Es gibt nun eine ebenso natürliche Definition des zu TE dualen Vektorraumes T ∗ E. Dazu betrachten wir ein skalares Feld, also eine Abbildung φ : E → R. Wir definieren die Richtungsableitung von φ an der Stelle r ∈ E in Richtung des Vektors v ∈ TE wie folgt. Wie werten das
Feld φ entlang der Kurve s 7→ r + s v aus, und bilden von dieser Funktion die Ableitung an der
Stelle s = 0. Das Ergebnis bezeichnen wir mit
v · ∇φ(r) =
φ(r + v) − φ(r)
dφ(r + s v) = lim
.
→0
ds
s=0
(10.2)
Aufgabe 10.1 Man zeige, dass die rechte Seite von (10.2) für festes r ∈ E eine lineare Funktion
von v ∈ TE ist, wenn die Funktion φ hinreichend glatt ist, so dass Grenzwerte beliebig vertauscht
werden können.
Demnach wird, wenn wir den Punkt r ∈ E festhalten, durch
Vektoren und duale Vektoren
∇φ(r) :
Wir erinnern uns, dass ein affiner Raum E eine Menge von Punkten ist, der ein Vektorraum V
zugeordnet ist, so dass zu je zwei Punkten ein Abstandsvektor existiert. Um die Notation etwas
besser an die aus dem letzten Kapitel anzupassen, bezeichnen wir die Punkte jetzt auch mit fett
gedruckten Buchstaben a, b, . . . ∈ E. Außerdem schreiben wir für den Abstandsvektor, der von
a ∈ E nach b ∈ E zeigt, einfach b − a ∈ V.
TE → R,
v 7→ v · ∇φ(r)
(10.3)
eine lineare Abbildung definiert. Diese lineare Abbildung heißt Gradient von φ an der Stelle r.
Für jedes r ist folglich ∇φ(r) ∈ T∗ E, das heißt der Gradient ist ein dualer Vektor, oder genauer
ein duales Vektorfeld auf E.
In einem affinen Raum sind Vektoren die Tangentenvektoren von Kurven, und duale
Vektoren die Gradienten von skalaren Feldern.
14
Dafür gibt es auch eine sehr anschauliche geometrische Erklärung. Die Basisvektoren e i sind
die Tangentenvektoren der Koordinatenlinien. Eine Koordinatenlinie ist eine Kurve, die dadurch
definiert ist, dass alle bis auf eine Koordinate konstant sind, und die verbleibende Koordinate als
Kurvenparameter aufgefasst wird. In einem affinen Koordinatensystem sind die Koordinatenlinien die Geraden, die parallel zu den Achsen liegen. Der Tangentenvektor einer solchen Koordinatenlinie ist die Ableitung nach dem Kurvenparameter, also genau die partielle Ableitung ∂r/∂r i ,
bei der eine Koordinaten variiert wird und alle anderen festgehalten werden.
Mit diesem Trick können wir den Tangentenvektor einer Kurve sehr leicht berechnen. Die
Kurve λ(s) wird durch ihre Koordinatendarstellung λi (s) beschrieben, also durch eine Verkettung
einer Funktion R → RN : s → {λi (s)} mit der Koordinatenabbildung {r i } 7→ r. Folglich gilt
für die Ableitung die Kettenregel
dλi
dλ
∂r λ0 (s) =
(10.8)
= i
= ei λ0i (s).
ds
∂r r=λ(s) ds
Tatsächlich besteht zwischen den beiden Objekten eine Art Symmetrie, denn ein Tangentenvektor ist die Ableitungen einer Kurve, also einer Abbildung R → E in den affinen Raum hinein,
während der Gradient die Ableitung eines skalaren Feldes ist, also einer Abbildung E → R aus
dem affinen Raum hinaus.
Beide Objekte lassen sich in natürlicher Weise miteinander kombinieren, nämlich indem wir
die Ableitung eines Feldes φ : E → R entlang einer Kurve λ : R → E berechnen. Das ist die
Ableitung einer gewöhnlichen Funktion R → R, nämlich
dφ(λ(s))
= λ0 (s) · ∇φ(λ(s)).
ds
(10.4)
Sie wird gebildet, indem man der Tangentenvektor der Kurve mit dem Gradienten des Feldes multipliziert, und zwar im Sinne der natürlichen Produktes eines Vektors mit einem dualen Vektor.
Wie hier schreiben wir den Vektor auch gelegentlich als erstes Argument, und den dualen Vektor als zweites Argument. Da die Beziehung zwischen einem Vektorraum und seinem Dualraum
symmetrisch ist, spielt das keine Rolle.
Die Komponenten des Tangentenvektors sind durch die Ableitungen der Koordinatenfunktionen
gegeben. Das ist natürlich nichts neues, denn so hatten ursprünglich den Tangentenvektor einer
Kurve definiert. Mit Hilfe der Darstellung (10.7) lässt sich das offenbar sehr geschickt reproduzieren.
Entsprechend wird ein skalares Feld durch eine Funktion φ({r i }) der Koordinaten dargestellt.
Betrachten wir wieder die Richtungsableitung des Feldes an der Stelle r ∈ E in Richtung eines
Vektors v ∈ TE, so finden wir mit der Kettenregel
dφ({ri + s v i }) ∂φ({ri })
dφ(r + s v) =
= vi
= v i ∂i φ(r). (10.9)
v · ∇φ(r) =
ds
ds
s=0
s=0
∂ri
Aufgabe 10.2 Man mache sich auch hier noch einmal klar, dass der Punkt in (10.4) kein Skalarprodukt ist, der affine Raum E also kein metrischer Raum sein muss, um eine solche Ableitung
eines skalaren Feldes entlang einer Kurve zu bilden.
Affine Koordinaten
Um Kurven und Felder explizit zu beschreiben, müssen wir ein Koordinatensystem verwenden.
Ein affines Koordinatensystem wird durch die Wahl eines Ursprungs o ∈ E und einer Basis e i
von TE festgelegt. Jeder Punkt r ∈ E lässt sich dann eindeutig durch einen Satz von Koordinaten
ri identifizieren,
r = o + r i ei ,
ri = (r − o) · ei .
(10.5)
Daraus folgt, dass die partiellen Ableitungen ∂φ/∂r i an der Stelle r die Komponenten des Gradienten ∇φ(r) bezüglich der dualen Basis ei sind. Wir benutzen dafür die abkürzende Schreibweise
∂i = ∂/∂ri , also
∇φ(r) = ∂i φ(r) ei .
(10.10)
Man beachte, dass die Koordinaten r i jetzt einen oberen Index tragen, da es sich um die Komponenten eines Vektors r − o ∈ TE handelt.
Eine sehr geschickte Art, den Zusammenhang zwischen dem Koordinatensystem auf E und
der zugehörigen Basis ei von TE auszudrücken, ergibt sich aus der folgenden Beobachtung. Wir
betrachten den Punkt r ∈ E als eine Funktion der reellen Zahlen {r i }. Das Koordinatensystem
ist eine Abbildung
RN → E : {ri } 7→ r({ri }) = o + ri ei ,
(10.6)
Der Index bei ∂i steht unten, weil es sich um die Komponenten eines dualen Vektors handelt.
Für die Ableitung eines Feldes entlang einer Kurve gilt schließlich in der Koordinatendarstellung
dφ(λ(s))
(10.11)
= λ0 (s) · ∇φ(λ(s)) = λ0i (s) ∂i φ(λ(s)).
ds
Das können wir wieder als Tensoroperation verstehen. Wir haben einen Tensor der Stufe (1, 0)
mit einem Tensor der Stufe (0, 1) multipliziert und anschließend die kontrahiert. Das Ergebnis ist
ein Tensor der Stufe (0, 0), also ein Skalar.
mit N = dim E. Wenn wir die partiellen Ableitungen dieser Funktion r nach den Koordinaten r i
bilden, finden wir
∂r
= ei .
(10.7)
∂ri
Aufgabe 10.3 Es sei E ein zweidimensionaler affiner Raum, auf dem die affinen Koordinaten
(x, y) definiert sind. Wir betrachten eine Kurve λ und ein skalares Feld φ, gegeben durch
Die Basisvektoren ei von TE, die zu einem affinen Koordinatensystem gehören, sind
die partiellen Ableitungen des Punktes r nach den Koordinaten r i .
x(s) = cosh(s),
15
y(s) = sinh(s),
φ(x, y) = x2 − y 2 .
(10.12)
Man stelle den Tangentenvektor der Kurve in der Basis (ex , ey ), und den Gradienten des Feldes
in der dualen Basis (ex , ey ) dar. Man bestimme daraus die Ableitung des Feldes entlang der
Kurve und überprüfe das Ergebnis durch direktes Nachrechnen, also durch Ableiten der Funktion
φ(s) = φ(x(s), y(s)) nach s.
Außerdem können wir daraus sehr leicht die Transformation der zugehörigen Basis ableiten. Es
gilt in beiden Koordinatensystemen, dass die zugehörige Basis von TE durch die partiellen Ableitungen des Punktes nach den Koordinaten gegeben sind,
ei =
Aufgabe 10.4 Man zeige, dass sich auch die dualen Basisvektoren als Ableitungen ausfassen
lassen. Dazu betrachtet man die Koordinaten r i als reelle Funktionen auf E. Dann ist ∇r i = ei ,
das heißt die dualen Basisvektoren sind die Gradienten der Koordinaten.
Wir wollen nun zeigen, dass sich die gerade eingeführten Objekte tatsächlich wie Tensoren verhalten. Dazu müssen wir untersuchen, was bei einer Koordinatentransformation passiert, die ja
gleichzeitig einen Basiswechsel impliziert.
Es sei ein “altes” Koordinatensystem gegeben, in dem wir die Koordinaten eines Punktes r
mit ri bezeichnen. Die “neuen” Koordinaten r a desselben Punktes definieren wir dadurch, dass
wir entweder die alten Koordinaten als Funktion der neuen schreiben, oder umgekehrt die neuen
als Funktion der alten. Beim Übergang von einem affinen Koordinatensystem zu einem anderen
handelt es sich dabei um eine affine Abbildung, also
⇔
ra = Λai ri + ξ a .
x = u cos α − v sin α + 1,
Λai ξ i + ξ a = 0.
u = (x − 1) cos α + (y + 1) sin α,
(10.13)
Um die neuen Basisvektoren (eu , ev )
(10.17) und finden
∂x
eu =
ex +
∂u
∂x
ex +
ev =
∂v
(10.14)
Die Übergangsmatrizen sind wieder zueinander invers, und die Verschiebungen müssen sich gegeneinander aufheben, wenn wir die eine zuerst mit der Übergangsmatrix transformieren.
Aufgabe 10.5 Man zeige, dass ξ i die alten Koordinaten des neuen Ursprungs sind, und ξ a die
neuen Koordinaten des alten Ursprungs. Die additiven Terme in (10.13) sind also die Darstellungen von Vektoren, die angeben, wohin der Ursprung des Koordinatensystems verschoben wird.
∂ri
,
∂ra
Λai =
∂ra
.
∂ri
(10.17)
y = u sin α + v cos α − 1
(10.18)
v = (1 − x) sin α + (1 + y) cos α.
(10.19)
durch die alten auszudrücken, benutzen wir die Formel
∂y
ey = cos α ex + sin α ey ,
∂u
∂y
ey = − sin α ex + cos α ey .
∂v
(10.20)
Wir müssen also gar nicht erst die Übergangsmatrizen berechnen, sondern können direkt die partiellen Ableitungen der alten Koordinaten nach den neuen benutzen, um die Basisvektoren ineinander umzurechnen. Wir finden natürlich wieder eine Drehung um den Winkel α. Die Verschiebung
des Ursprungs macht sich dabei nicht bemerkbar.
Um die Komponenten eines Vektors oder eines dualen Vektors umzurechnen, können wir genauso vorgehen. Für die Übergangsmatrizen setzen wir die partiellen Ableitungen der Koordinaten ein. Für einen Vektor p = pi ei = pa ea und einen dualen Vektor q = qi ei = qa ea
gilt
∂ri
∂ra i
i
p
.
q
=
q
Λ
=
q
.
(10.21)
pa = Λai pi =
a
a
i
i
∂ra
∂ri
Vektoren spüren von der Verschiebung des Ursprungs nichts, sondern sieht quasi nur die Drehung
der Basis. Als einfache Regel gilt auch hier, dass wir nur die “passende” partielle Ableitung bilden
müssen, so dass die Summenkonvention zur Anwendung kommt. Im Zähler steht die Koordinate
Betrachten wir nur die Beziehungen (10.13) zwischen den Koordinaten, so stellen wir fest, dass
sich die Übergangsmatrizen Λia und Λai wieder sehr geschickt als partielle Ableitungen schreiben
lassen, nämlich als die der neuen Koordinaten nach den alten oder umgekehrt,
Λia =
∂r
∂r ∂ri
= ei Λia .
a =
∂r
∂ri ∂ra
definiert. Das entspricht anschaulich einer Drehung der Koordinatenachsen um einen Winkel α
und einer Verschiebung des Ursprungs um einen Vektor ex −ey . Die Beziehung (10.18) lässt sich
leicht invertieren. Es ist
Eine affine Koordinatentransformation besteht aus einer linearen Abbildung mit Verschiebung.
Damit die beiden Gleichungen (10.13) äquivalent sind, muss gelten
Λai Λib = δ ab ,
ea =
Wir finden also das Transformationsverhalten der Basisvektoren allein durch Anwenden der Kettenregel. Das einzige, was wir uns dazu einprägen müssen, ist die Darstellung (10.7) der Basis als
Ableitung des Punktes nach den Koordinaten.
Wir können das an einem Beispiel veranschaulichen. In einem zweidimensionalen affinen
Raum sei ein Koordinatensystem (x, y) gegeben, mit den zugehörigen Basisvektoren (e x , ey ).
Ein zweites Koordinatensystem (u, v) werde durch
Koordinatentransformationen
ri = Λia ra + ξ i
∂r
,
∂ri
(10.15)
Dass die beiden Matrizen zueinander invers sind, ergibt sich dann ganz einfach aus der Kettenregel,
∂ra ∂ri
∂ra
=
= δ ab .
(10.16)
Λai Λib =
∂ri ∂rb
∂rb
16
px
pu
Tensorfelder
Wir können nun den Begriff des Feldes auf einem affinen Raum erweitern, indem wir nicht nur
skalare Felder und deren Gradienten betrachten, sondern ganz allgemein Tensorfelder.
pv
py
Ein Tensorfeld auf einem affinen Raum ist eine Abbildung, die jedem Punkt einen
Tensor zurordnet.
v
y
v
Ein Tensorfeld der Stufe (m, n) definiert also eine Abbildung E → T(m,n) E, wobei T(m,n) E den
Raum aller Tensoren der Stufe (m, n) auf dem Vektorraum TE bezeichnet.
Ein Vektorfeld F ist in diesem Sinne ein Tensorfeld der Stufe (1, 0), das jedem Punkt r ∈
E einen Vektor F (r) ∈ TE zuordnet. Typische Beispiel für solchen Vektorfelder kennen wir
bereits aus der elementaren Mechanik. Kraftfelder wie zum Beispiel das elektrische Feld oder
das Gravitationsfeld sind Vektorfelder auf dem physikalischen Ortsraum. Eigentlich sind wir mit
diesem Konzept also schon vertraut.
Ein Tensorfeld ist nur die naheliegende Verallgemeinerung eines Vektorfeldes. Es umfasst skalare Felder als Tensorfelder der Stufe (0, 0), die Vektorfelder selbst als Tensorfelder der Stufe
(1, 0), sowie duale Vektorfelder der Stufe (0, 1), die typischerweise als die Gradienten von skalaren Feldern auftreten. Mit Hilfe des Tensorbaukastens können wir aus diesen Grundobjekten
Tensorfelder beliebiger Stufe bilden, indem wir sie addieren, multiplizieren und kontrahieren.
Um ein Tensorfeld F explizit darzustellen, müssen wir wieder ein Koordinatensystem verwenden. Ihm kommen in diesem Fall zwei Bedeutungen zu. Zum einen treten die Koordinaten wie
bei einem skalaren Feld als Argumente auf. Das Feld wird durch eine Funktion F (r) = F ({r i })
der Koordinaten dargestellt. Zusätzlich müssen wir den Tensor selbst aber auch noch in seine
Komponenten bezüglich einer Basis zerlegen. Dazu verwenden wir immer die Basis e i bzw. die
duale Basis ei , die zu dem gewählten Koordinatensystem gehört.
Ein Tensorfeld der Stufe (m, n) wird also explizit durch einen Satz von (dim E) m+n Funktionen dargestellt, die jeweils von dim E reellen Variablen abhängen,
y
u
x
u
x
(b)
(a)
Abbildung 10.1: Bei einer affinen Koordinatentransformation gelten für die Koordinaten eines
Punktes ∈ E die Transformationen (10.13), die sich aus einer Verschiebung und einer Basistransformation zusammensetzen. Für die Komponenten eines Vektors ∈ TE ist jedoch nur die
Basistransformation relevant.
mit einem oberen Index, im Nenner fungiert der Koordinatenindex dagegen als unterer Index, wie
wir dies schon bei der Definition des Gradienten gesehen haben.
Es ergibt sich dann ganz von selbst, dass der Gradient eines skalaren Feldes wie ein dualen
Vektor, und der Tangentenvektor einer Kurve wie ein Vektor transformiert. Es handelt sich in
beiden Fällen um eine einfache Anwendung der Kettenregel, nämlich
i
∂a φ =
∂φ
∂φ ∂r
= i
= ∂i φ Λia
∂ra
∂r ∂ra
bzw. λ0a =
a
a
F (r) = F i ··· jk ··· l ({ri }) ei ⊗ · · · ⊗ ej ⊗ |ek ⊗ ·{z· · ⊗ e}l .
|
{z
}
i
∂λ
∂r ∂λ
=
= Λai λ0i .
∂s
∂ri ∂s
m
(10.22)
(10.24)
n
Für ein Vektorfeld oder ein duales Vektorfeld ergeben sich auf diese Weise dim E Funktionen
von dim E Variablen, im Falle des dreidimensionalen Ortsraumes also drei Funktionen von drei
Variablen. Auch das sollte uns schon vertraut sein. Ein Kraftfeld wird durch drei Funktionen von
drei Variablen explizit dargestellt.
Beim Übergang von einem Koordinatensystem zu einem anderen ist nun zu beachten, dass sich
sowohl die Koordinaten, die als Argumente auftreten, als auch die Basisvektoren transformieren.
Am besten machen wir uns das zuerst an einem nicht ganz trivialen Beispiel klar, das auch als
kleine Rechenübung dient. In einem zweidimensionalen Raum sei ein Vektorfeld F gegeben, das
wie folgt im Koordinatensystem (x, y) dargestellt wird,
Aufgabe 10.6 In dem affinen Raum aus Aufgabe 10.3 sei ein zweites Koordinatensystem (u, v)
durch
u = 1 + x + y,
v =1+x−y
(10.23)
definiert. Welche Beziehung besteht dann zwischen den alten Basisvektoren (e x , ey ) und den neuen Basisvektoren (eu , ev )? Wie lautet die Darstellung der Kurve durch u(s) und v(s) in dem
neuen Koordinatensystem, und wie die des Feldes φ(u, v)? Welche Darstellung hat der Tangentenvektor der Kurve in der Basis (eu , ev ), und welche der Gradient des Feldes in der dualen Basis
(eu , ev )?
F = (x + y) ex + (x − y − 2) ey ,
17
oder F x = x + y,
F y = x − y − 2.
(10.25)
In Abbildung 10.2(a) ist dieses Vektorfeld grafisch dargestellt, indem an den Gitterpunkten des
Koordinatensystems jeweils der Wert des Feldes als Pfeil dargestellt ist.
Wir wollen dieses Vektorfeld in das durch (10.18) definierte Koordinatensystem (u, v) umrechnen. Dazu gehen wir in zwei Schritten vor. Zuerst schreiben wir die Komponenten F x und F y als
Funktionen von u und v. Das ergibt
PSfrag replacements
y
v
F x = (u − v) sin α + (u + v) cos α,
y
F = (u − v) cos α − (u + v) sin α.
(10.26)
(c)
(d)
Diese rechnen wir jetzt in die Komponenten F u und F v um, indem wir die allgemeine Formel
(10.21) für die Umrechnung der Vektorkomponenten verwenden,
Fu =
u
x
∂u x
∂u y
F (u, v) +
F (u, v)
∂x
∂y
(b)
(a)
= cos α ((u − v) sin α + (u + v) cos α) + sin α ((u − v) cos α − (u + v) sin α)
Abbildung 10.2: Dasselbe Vektorfeld, dargestellt in zwei verschiedenen Koordinatensystemen.
= cos(2 α) (u + v) + sin(2 α) (u − v),
Fv =
∂v x
∂v y
F (u, v) +
F (u, v)
∂x
∂y
entsprechend verallgemeinern. Das allgemeine Transformationsgesetz für ein Tensorfeld F der
Stufe (m, n) lautet
= − sin α ((u − v) sin α + (u + v) cos α) + cos α ((u − v) cos α − (u + v) sin α)
= cos(2 α) (u − v) − sin(2 α) (u + v).
(10.27)
∂ra
∂rb i ··· j
∂rk
∂rl
·
·
·
F
(r)
·
·
·
,
(10.30)
k ··· l
∂rc
∂ri
∂rj
∂rd
wobei der Punkt r, an dem das Feld ausgewertet wird, links als Funktion der Koordinaten r a ,
rechts dagegen als Funktion der Koordinaten r i darzustellen ist.
F a ··· bc ··· d (r) =
Aufgabe 10.7 Man beweise die folgenden trigonometrischen Formeln, die bei dieser Rechnung
verwendet wurden,
(10.28)
cos2 α − sin2 α = cos(2 α).
√
Setzen wir speziell α = π/8, so ist sin(2 α) = cos(2 α) = 1/ 2. Die Komponenten nehmen
dann eine besonders einfache Form an, und das Vektorfeld hat in dem neuen Koordinatensystem
die Darstellung
√
√
√
√
F = 2 u eu − 2 v ev , oder F u = 2 u, F v = − 2 v.
(10.29)
2 sin α cos α = sin(2 α),
Aufgabe 10.8 Als Beispiel betrachten wir das Vektorfeld
F x (x, y, z) = −z y
F y (x, y, z) = z x,
F z (x, y, z) = x2 + y 2
(10.31)
auf dem dreidimensionalen affinen Raum mit Koordinaten (x, y, z). Ein neues Koordinatensystem
werde durch
y−x
x+y
v= √ ,
w =z+d
(10.32)
u= √ ,
2
2
definiert, wobei d irgendeine Konstante ist. Man bestimme die Komponenten F u (u, v, w),
F v (u, v, w) und F w (u, v, w) des Vektorfeldes in den neuen Koordinaten.
Dieses Koordinatensystem ist in Abbildung 10.2(b) dargestellt. Tatsächlich sieht das Vektorfeld
dort etwas einfacher aus als in der Abbildung (a). Durch die spezielle Wahl des Winkels α lässt
sich das Koordinatensystem also besser an das Vektorfeld anpassen.
Nach dem gleichen Prinzip lässt sich die Umrechnung eines beliebigen Tensorfeldes von einem
Koordinatensystem in ein anderes in zwei Schritte zerlegen. Man rechnet zuerst die Koordinaten
um, von denen der Tensor abhängt, und transformiert anschließend die Komponenten in die neue
Basis. Dabei müssen wir jeden einzelnen Index transformieren, und dazu die Formeln (10.21)
Genau wie Tensoren lassen sich natürlich auch Tensorfelder addieren, multiplizieren und kontrahieren. Wir tun dies einfach punktweise. Die Summe von zwei Tensorfeldern gleicher Stufe F und G ist durch (F + G)(r) = F (r) + G(r) definiert, und das Tensorprodukt durch
(F ⊗ G)(r) = F (r) ⊗ G(r), jeweils für alle Punkte r ∈ E.
18
Allerdings gibt es für Tensorfelder noch eine zusätzliche Grundoperation, die es für Tensoren
als solche nicht gibt. Das ist die Ableitung. Wenn wir nämlich ein beliebiges Tensorfeld wie in
(10.24) durch seine Komponenten darstellen, so können wir die partiellen Ableitungen dieser
Funktionen nach den Koordinaten bilden. Als Beispiel betrachten wir ein Vektorfeld F = F k ek .
Die partiellen Ableitungen der Funktionen F k nach den Koordinaten r i bezeichnen wir wieder
mit
∂F k
.
(10.33)
∂i F k =
∂ri
Da es dim E Funktionen F k gibt und dim E Koordinaten r i , können wir auf diese Weise insgesamt
(dim E)2 partielle Ableitung bilden. Es sollte nicht überraschen, dass diese Größen wieder die
Komponenten eines Tensorfeldes sind.
Der Beweis erfolgt völlig analog zu (10.22). Dort hatten wir gezeigt, dass die partiellen Ableitungen eines skalaren Feldes wie die Komponenten eines dualen Vektors transformieren. Um
zu zeigen, dass die partiellen Ableitungen (10.33) wie die eines Tensors der Stufe (1, 1) transformieren, müssen wir nur zusätzlich für den Index k noch eine weitere Übergangsmatrix anbringen.
Wir benutzen die Beziehung
∂rc
(10.34)
F c = k F k,
∂r
wobei die rechte Seite als Funktion der Koordinaten r i dargestellt ist, die linke Seite dagegen als
Funktion der Koordinaten r a . Dann leiten wir beide Seiten nach r a ab, wobei wir auf der rechten
Seite, da sie ja eine Funktion der Koordinaten r i ist, dazu die Kettenregel verwenden. Das ergibt
∂F c
∂ ∂rc k ∂ri ∂ ∂rc k (10.35)
F = a
F .
a =
∂r
∂ra ∂rk
∂r ∂ri ∂rk
Die Grundoperationen für Tensorfelder sind Addition, Tensormultiplikation, Kontraktion und Ableitung
Aufgabe 10.9 Man führe den Beweis für einen Tensor beliebiger Stufe, zeige also, dass sich die
Komponenten (10.37) tatsächlich wie ein Tensor der Stufe (m, n + 1) verhalten, wenn F ein
Tensor der Stufe (m, n) ist.
Krummlinige Koordinaten
Nun kommen wir zu einer weiteren Stärke des Tensorkalküls. Wie wir bereits an einigen praktischen Beispielen gesehen haben, lassen sich bestimmte physikalische Probleme erst dann lösen,
wenn wir das Koordinatensystem an das spezielle Problem anpassen. Dabei genügte es nicht immer, nur affine Koordinatensystems zu betrachten. Wir mussten auch krummlinige Koordinaten
einführen, etwa Kugelkoordinaten, um das allgemeine Zentralkraftproblem zu lösen. Tatsächlich
lässt sich alles, was wie bisher über Tensoren und Tensorfelder gesagt haben, auch mit Hilfe von
krummlinigen Koordinatensystemen formulieren.
Zunächst definieren wir, was wir unter einem krummlinigen Koordinatensystem verstehen. Ist
E ein N -dimensionaler affiner Raum, so ist ein krummliniges Koordinatensystem eine Abbildung
(10.38)
RN → E, {ri } 7→ r {ri } ,
die einem Satz von N reellen Zahlen r i einen Punkt r ∈ E zuordnet. Das ist völlig analog zu
(10.6), mit den einzigen Unterschied, dass wir nun von der Koordinatenabbildung nicht mehr
verlangen, dass die affin ist. Wir verlangen nur noch, dass sie hinreichend oft differenzierbar ist.
Außerdem muss sie, damit es sich wirklich um ein Koordinatensystem handelt, zumindest lokal
umkehrbar sein.
Lokal umkehrbar heißt, dass wir zumindest in der Umgebung eines Punktes allen anderen
Punkten eindeutig ihre Koordinaten zuordnen können. In der Regel ist ein krummliniges Koordinatensystem nicht global invertierbar. Verwenden wir zum Beispiel Polarkoordinaten in der
Ebene, so ist die Winkelkoordinate nur bis auf eine Vielfaches von 2π bestimmt. Dasselbe gilt für
Kugelkoordinaten im dreidimensionalen Raum. Aber zumindest in der Umgebung eines Punktes
lassen sich eindeutig die Koordinaten aller anderen Punkte angeben.
Im allgemeinen ist es auch so, dass von einem krummlinigen Koordinatensystem nur eine Teilmenge von E erfasst wird. Bei einem Polarkoordinatensystem zum Beispiel nicht der Ursprung,
und bei räumlichen Kugel- oder Zylinderkoordinaten nicht die z-Achse. Wir sagen dann, dass das
Koordinatensystem nur eine Teilmenge des Raumes abdeckt, und können es natürlich nur dort
verwenden. Das spielt aber im folgenden keine Rolle, denn wir machen nur Aussagen über lokale Eigenschaften von Koordinaten und Feldern. Notfalls müssen wir, um den Raum vollständig
abzudecken, mehrere Koordinatensysteme verwenden.
Der Begriff der lokalen Invertierbarkeit lässt sich auch wie folgt fassen. Wir betrachten einen
Punkt r ∈ E, sowie eine kleine Umgebung dieses Punktes. Dort können wir die Koordinatenlinien
Nun ist aber die Übergangsmatrix ∂r c /∂rk konstant, das heißt die Ableitung wirkt nur auf F k .
Daraus folgt
∂F c
∂ri ∂rc ∂F k
⇒ ∂a F c = Λck ∂i F k Λia .
(10.36)
a =
∂r
∂ra ∂rk ∂ri
Das ist das Transformationsverhalten für einen Tensor der Stufe (1, 1). Wir können also von jedem
Vektorfeld F die Ableitung bilden, und erhalten ein Tensorfeld der Stufe (1, 1), das wir mit ∇F
bezeichnen.
Allgemein lässt sich zu jedem Tensorfeld F der Stufe (m, n) die Ableitung ∇F bilden, die
dann ein Tensorfeld der Stufe (m, n + 1) ist, da es einen zusätzlichen unteren Index trägt. Die
Komponenten des Feldes ∇F sind die partiellen Ableitungen der Komponenten von F nach den
Koordinaten,
∂F k ···l ···
.
(10.37)
∂i F k ···l ··· =
∂ri
Außerdem können die diese Operation natürlich mehrmals ausführen, also höhere Ableitungen
∇∇F , ∇∇∇F etc. bilden. Für Tensorfelder sind die Möglichkeiten, die sich zu deren Verknüpfung ergeben, um eine Operation erweitert.
19
ϕ
2
ϕ
1
x
1
r
(b)
Abbildung 10.3: In einem affinen Koordinatensystem (a) sind die Tangentenvektoren der Koordinatenlinien die Basisvektoren i . In einem krummlinigen Koordinatensystem (b) bilden die
Tangentenvektoren der Koordinatenlinien in jedem Punkt eine andere Basis i ( ).
r(r, ϕ) = o + r cos ϕ ex + r sin ϕ ey .
7→
x
(a)
In Abbildung 10.3(a) sind die Koordinatenlinien des affinen Koordinatensystems (x, y) gezeigt,
in Abbildung 10.3(b) die des Polarkoordinatensystems (r, ϕ). An zwei ausgewählten Punkten r 1
und r2 sind die entsprechenden Tangentenvektoren eingezeichnet. Wie man sieht, ergeben sich
bei einem affinen Koordinatensystem in jedem Punkt die gleichen Vektoren (e x , ey ), während in
einem krummlinigen Koordinatensystem die Vektoren (er , eϕ ) ortsabhängig sind.
Trotzdem bilden die beiden Vektoren (er , eϕ ) in jedem Punkt r, außer am Ursprung, der von
den Polarkoordinaten nicht abgedeckt wird, eine Basis des Tangentenraumes TE. Wir können
jeden Vektor v als Linearkombination dieser Vektoren schreiben, und die Koeffizienten als die
Komponenten v r und v ϕ des Vektors bezeichnen. Wir müssen nur immer dazu sagen, an welcher
Stelle r wir diese Entwicklung vorgenommen haben. Zum Beispiel können wir ein Vektorfeld F
darstellen, indem wir den Vektor F (r) an der Stelle r in der dort definierten Basis entwickeln,
also
F (r, ϕ) = F r (r, ϕ) er (r, ϕ) + F ϕ (r, ϕ) eϕ (r, ϕ).
(10.43)
(10.40)
Als krummliniges Koordinatensystem führen wir nun ein Polarkoordinatensystem ein, das wie
folgt als Abbildung definiert werden kann,
(r, ϕ)
2
y
Das können wir uns am besten wieder an einem einfachen Beispiel klar machen. Wir betrachten
einen zweidimensionalen affinen Raum, auf dem wir zunächst ein affines Koordinatensystem
(x, y) einführen. Ein Punkt r ∈ E ist dann eindeutig durch r(x, y) = o + x e x + y ey als
Funktion von x und y gegeben, und es gilt für die zugehörigen Basisvektoren
∂r
= ey .
∂y
y
Ein krummliniges Koordinatensystem definiert an jedem Punkt eine lokale Koordinatenbasis.
∂r
= ex ,
∂x
r
als N parametrisierte Kurven auffassen, die sich im Punkt r schneiden. Eine Koordinatenlinie ist
auch hier wieder eine Kurve, die sich ergibt, wenn wir alle bis auf eine Koordinate festhalten
und die verbleibende als Kurvenparameter verwenden. Nur ist es jetzt eben keine Gerade mehr,
sondern eine beliebige Kurve.
Wir können von diesen Kurven im Punkt r die Tangentenvektoren bilden. Sie zeigen an, in
welche Richtung die einzelnen Koordinatenlinien verlaufen. Die Tangentenvektoren bekommen
wir, genau wie vorher, indem wir von der Funktion (10.38) die partiellen Ableitungen nach den
Koordinaten r i bilden. Es sind also
∂r
ei (r) = i
(10.39)
∂r
die Tangentenvektoren der Koordinatenlinien im Punkt r. Die Schreibweise ist ein wenig
verkürzt, aber es sollte klar sein, wie die Ableitung zu verstehen ist. Zunächst ist der Punkt r
eine Funktion der Koordinaten {r i }. Diese Funktion leiten wir partiell ab, und erhalten so einen
Satz von N Vektoren, die als Funktionen der Koordinaten {r i } gegeben sind. Setzen wir die
Koordinaten des vorgegebenen Punktes r ein, so erhalten wir die Vektoren e i (r).
Lokal invertierbar bedeutet nun, dass diese N Vektoren in jedem Punkt linear unabhängig sind,
also eine Basis es Tangentenraumes TE bilden. Anschaulich heißt das, dass wir von jedem Punkt
r aus in jede Richtung gehen können, ohne das Koordinatensystem zu verlassen. Die auf diese
Weise durch das Koordinatensystem in jedem Punkt r definierte Basis e i (r) heißt lokale Koordinatenbasis. Sie bildet die Analogie zu der festen Basis ei , die zur Definition eines affinen
Koordinatensystem gehört.
(10.41)
Wenn wir diese Funktion nach r und ϕ ableiten, so finden wir für die Tangentenvektoren der
Koordinatenlinien
∂r
= cos ϕ ex + sin ϕ ey ,
er (r, ϕ) =
∂r
∂r
eϕ (r, ϕ) =
= −r sin ϕ ex + r cos ϕ ey .
(10.42)
∂ϕ
Das ist die natürliche Art und Weise, ein Vektorfeld in einem krummlinigen Koordinatensystem
darzustellen. Das einzig neue ist, dass jetzt nicht nur die Komponenten F i von den Koordinaten
abhängen, sondern auch die Basis ei , in der das Feld entwickelt ist. Das hat zur Folge, dass
ein konstantes Vektorfeld nicht unbedingt konstante Komponenten haben muss, und umgekehrt
bedeuten konstante Komponenten nicht, dass das Vektorfeld konstant ist.
20
Auch das kann man an einem einfachen Beispiel sehen. In Abbildung 10.3 ist jeweils zweimal
derselbe Vektor v eingezeichnet, einmal am Punkt r1 und einmal am Punkt r2 . Definieren wir ein
konstantes Vektorfeld F = v, so sind die Komponenten F x und F y dieses Vektorfeldes natürlich
konstant. Die Komponenten F r und F ϕ in Polarkoordinaten sind jedoch nicht konstant. Wie man
in der Abbildung sieht, hat der Vektor v an der Stelle r1 andere Komponenten bezüglich der dort
definierten Basis als an der Stelle r2 .
Umgekehrt sei ein Vektorfeld gegeben, das in Polarkoordinaten die konstanten Komponenten
F r = 1 und F ϕ = 0 hat, also F = er . In affinen Koordinaten gilt dann F = cos ϕ ex + sin ϕ ey
oder F = x/r ex + y/r ey . Die Komponenten sind also F x = x/r und F y = y/r, wobei r als
Funktion von x und y aufzufassen ist. Das ist sicher kein konstantes Vektorfeld.
Wir können von der Darstellung eines Vektorfeldes in krummlinigen Koordinaten nicht unmittelbar auf bestimmte Eigenschaften schließen. Insbesondere beim Ableiten von Vektorfeldern,
worauf wir gleich noch näher eingehen werden, spielt das eine gewisse Rolle. Solange wir keine
Ableitungen bilden, ist das Rechnen mit Tensorfeldern in krummlinigen Koordinatensystemen
aber nicht komplizierter als in affinen Koordinatensystemen.
Für die Transformation eines Tensorfeldes von einem affinen in ein krummliniges Koordinatensystem gelten formal genau dieselben Regeln wie für die Transformation von einem affinen
Koordinatensystem zu einem anderen. Der entscheidende Trick ist derselbe wir vorher. Die Übergangsmatrizen lassen sich als partielle Ableitungen der neuen Koordinaten nach den alten oder
umgekehrt schreiben. Der einzige Unterschied ist, dass diese jetzt ortsabhängig sind.
Nehmen wir zum Beispiel die Definition (10.39) der Basisvektoren e i (r) in einem krummlinigen Koordinatensystem, und stellen wir die krummlinigen Koordinaten r i als Funktion von
affinen Koordinaten r a dar, so finden wir
∂r
∂r ∂ra
ei (r) = i = a
= ea Λai (r).
∂r ∂ri
∂r
Das ist natürlich dasselbe wie (10.42).
Aufgabe 10.10 Man zeige, dass die Beziehung (10.44) sogar dann noch gilt, wenn beide beteiligten Koordinatensystem krummlinig sind, wobei dann natürlich beide Basen ortsabhängig sind.
Insbesondere können wir das Transformationsgesetz (10.30) für beliebige Vektorfelder unmittelbar übernehmen, das heißt für den Übergang von einem beliebigen Koordinatensystem zu einem
beliebigen anderen gilt für einen Tensor der Stufe (m, n)
F a ··· bc ··· d (r) =
und daher
∂x
ex +
∂r
∂x
eϕ =
ex +
∂ϕ
er =
y = r sin ϕ,
∂y
ey = cos ϕ ex + sin ϕ ey ,
∂r
∂y
ey = −r sin ϕ ex + r cos ϕ ey .
∂ϕ
(10.47)
wobei links m und rechts n Übergangsmatrizen stehen, die jetzt alle vom Ort abhängen.
Als Beispiel wollen wir die Metrik in Polarkoordinaten ausdrücken. Wenn (x, y) kartesische
Koordinaten sind, dann ist gxx = gyy = 1 und gxy = gyx = 0. Explizites Ausschreiben der
Summen in (10.47) liefert dann
∂x ∂x
∂x ∂y
∂y ∂x
∂y ∂y
+ gxy
+ gyx
+ gyy
= cos2 ϕ + sin2 ϕ = 1. (10.48)
∂r ∂r
∂r ∂r
∂r ∂r
∂r ∂r
Dieselbe Rechnung für die anderen drei Komponenten ergibt
grr = gxx
grr = 1,
grϕ = gϕr = 0,
gϕϕ = r2 .
(10.49)
Ein Vektor v, der an der Stelle (r, ϕ) durch seine Komponenten v r und v ϕ dargestellt ist, hat also
den Betrag |v|2 = (v r )2 + r2 (v ϕ )2 . Und ein Vektorfeld, das konstante Komponenten F ϕ = q
und F r = 0 hat, steigt, wenn man den Betrag des Feldes betrachtet, wie q r mit dem Radius an.
Aufgabe 10.11 Wie sieht die inverse Metrik g ij in Polarkoordinaten aus, und welches Verhalten
hat der Betrag eines Vektorfeldes mit zunehmendem r, wenn dessen Komponenten mit unteren
Indizes Fr und Fϕ konstant sind?
(10.44)
Die krummlinigen Basisvektoren ei (r) an der Stelle r ergeben sich aus den affinen Basisvektoren
ei durch eine Übergangsmatrix Λai (r), die jetzt vom Ort r abhängt, an dem wir uns befinden. Sie
ist aber immer noch durch dieselbe partielle Ableitung gegeben, nur dass diese jetzt nicht mehr
konstant ist.
Wir müssen also gar nicht den Umweg über die Koordinatenabbildung (10.38) machen, sondern können die Transformation der Basis direkt aus dem Zusammenhang zwischen den beiden
Koordinatensystem ablesen. Im obigen Beispiel ist
x = r cos ϕ,
∂ra
∂rb i ··· j
∂rk
∂rl
,
k ··· l (r)
c ···
i ···
j F
∂r
∂r
∂r
∂rd
Die Koordinatenbasis, die an der Stelle (r, ϕ) durch die Polarkoordinaten definiert ist, ist offenbar
keine Orthonormalbasis. Auch das ist in Abbildung 10.3 zu sehen. Die Vektoren e r und eϕ stehen
zwar überall senkrecht zueinander. Der Vektor eϕ , der tangential zu den Kreisen um den Ursprung
zeigt, wird aber nach außen hin immer länger, während der Vektor e r , der radial nach außen
zeigt, immer ein Einheitsvektor ist. Alle diese Eigenschaften der Basisvektoren lesen wir auch
aus (10.49) ab, denn die Komponenten der Metrik sind, wie wir wissen, die Skalarprodukte der
Basisvektoren, gij = ei · ej .
Als zweites Beispiel berechnen wir noch den antisymmetrischen Einheitstensor in Polarkoordinaten. Da wir uns in einem zweidimensionalen Raum befinden, hat er nur zwei Indizes und ist
durch ωxy = 1 oder ω xy = 1 eindeutig festgelegt. Die Basis (ex , ey ) soll also positiv orientiert
sein. Um ihn zu transformieren, müssen wir nur eine Komponente berechnen, zum Beispiel
(10.45)
ωrϕ = ωxx
(10.46)
21
∂x ∂x
∂x ∂y
∂y ∂x
∂y ∂y
+ ωxy
+ ωyx
+ ωyy
= r cos2 ϕ + r sin2 ϕ = r.
∂r ∂ϕ
∂r ∂ϕ
∂r ∂ϕ
∂r ∂ϕ
(10.50)
Es gilt also
ωrr = 0,
ωrϕ = r,
ωϕr = −r,
ωϕϕ = 0.
Aufgabe 10.15 Man führe dieselben Überlegungen wie in Aufgabe 10.14 für das Vektorfeld
q
(10.57)
F = f (r) (x ex + y ey ), mit r = x2 + y 2 ,
(10.51)
Wie man leicht sieht, stimmt auch hier die Beziehung (9.86) zwischen dem antisymmetrischen
Einheitstensor ωij , der Determinante g der Metrik, und dem Levi-Civita-Symbol εij , nur dass
dieses jetzt auch nur zwei Indizes trägt. Aus (10.49) entnimmt man, dass g = det(g ij ) = r2 ist,
√
√
und somit g = r. Setzen wir dann noch εrϕ = 1, so bekommen wir ωij = g εij = r εij , was
mit (10.51) übereinstimmt.
Da sich dabei ein positives Vorzeichen ergibt, ist das Koordinatensystem (r, ϕ) offenbar ebenfalls positiv orientiert. Auch das sehen wir in der Abbildung 10.3. Die Basen (e r , eϕ ) haben
überall die gleiche Orientierung wie (ex , ey ).
durch. Man diskutiere auch hier das Verhalten der Komponenten (F r , F ϕ , F z ) und (Fr , Fϕ , Fz )
als Funktion von r. Warum ergibt sich etwas ganz anderes als in Aufgabe 10.14?
Aufgabe 10.16 Man stelle die dualen Basisvektoren er (r, ϕ) und eϕ (r, ϕ) für ebene Polarkoordinaten als Funktion der dualen Basisvektoren ex und ey dar.
Aufgabe 10.17 Im dreidimensionalen Euklidischen Raum soll ein Volumenintegral über ein skalares Feld φ einmal in kartesischen Koordinaten (x, y, z) und einmal in krummlinigen Koordinaten (u, v, w) ausgeführt werden. Es sei g die Determinante der Metrik im krummlinigen Koordinatensystem, die im allgemeinen von den Koordinaten, also vom Ort abh ängt. Man zeige, dass
das Integral durch
Z
Z
p
dx dy dz φ(x, y, z) = du dv dw g(u, v, w) φ(u, w, v)
(10.58)
Aufgabe 10.12 Man bestimme die Komponenten der Metrik und des antisymmetrischen Einheitstensors in Zylinderkoordinaten (r, ϕ, u), definiert durch
x = r cos ϕ,
y = r sin ϕ,
z = u,
(10.52)
wobei (x, y, z) ein kartesischen Koordinatensystem ist. Die ungew öhnliche Bezeichnung u für die
dritte Koordinaten wurde hier nur gewählt, um sie eindeutig einem der beiden Koordinatensysteme zuzuordnen. Man erkläre anhand des allgemeinen Transformationsgesetzes für Tensoren
(10.47), warum es erlaubt ist, Koordinaten, die bei der Transformation nicht beteiligt sind, in
beiden Koordinatensystemen denselben Namen zu geben.
gegeben ist. Die Wurzel aus der Determinante der Metrik definiert also in einem beliebigen
krummlinigen Koordinatensystem das Volumenelement. Man vergleiche dies mit den bekannten
Ausdrücken für das Volumenelement in Kugel- und Zylinderkoordinaten.
Aufgabe 10.13 Kugelkoordinaten (r, ϑ, ϕ) sind durch die Beziehungen
x = r sin ϑ cos ϕ,
y = r sin ϑ sin ϕ,
z = r cos ϑ
und der antisymmetrische Einheitstensor die Darstellung
ωrϑϕ = ωϑϕr = ωϕrϑ = −ωrϕϑ = −ωϑrϕ = −ωϕϑr = r2 sin ϑ
(10.55)
hat. Alle nicht angegebenen Komponenten sind Null.
Aufgabe 10.14 Wir betrachten ein Vektorfeld auf dem dreidimensionalen Euklidischen Raum,
das in kartesischen Koordinaten durch
q
(10.56)
F = f (r) (y ex − x ey ), mit r = x2 + y 2 ,
(10.54)
gϕϕ = r2 sin2 ϑ,
gϑϑ = r2 ,
grr = 1,
zu einem kartesischen Koordinatensystem (x, y, z) definiert. Man zeige, dass die Metrik in Kugelkoordinaten die Darstellung
Aufgabe 10.18 Krummlinige Koordinaten im dreidimensionalen Euklidischen Raum m üssen
nicht die physikalische Dimension einer Länge haben. Sie können sogar verschiedene Einheiten tragen. In Kugelkoordinaten gilt zum Beispiel r = Länge, aber ϑ = ϕ = Winkel, das
heißt zwei der drei Koordinaten sind dimensionslos. Anderseits bilden die Vektoren (e r , eϑ , eϕ )
keine Orthonormalbasis. Es handelt sich also nicht um Einheitsvektoren, und folglich m üssen sie
auch nicht dimensionslos sein. Welche physikalische Dimension haben sie? Welche Beziehung
besteht allgemein zwischen den physikalischen Dimensionen von krummlinigen Koordinaten r i
und denen der zugehörigen Basisvektoren ei ? Welche physikalischen Dimensionen haben die
Komponenten gij der Metrik in Kugelkoordinaten, bzw. in einem allgemeinen krummlinigen Koordinatensystem?
(10.53)
Die kovariante Ableitung
Wir können nun beliebige Tensorfelder auch in krummlinigen Koordinatensystemen darstellen.
Grundsätzlich gilt dabei stets, dass man ein Tensorfeld, wenn man es an einem Punkt r auswertet,
auch in der lokalen Basis in diesem Punkt in seine Komponenten zerlegt. Folglich können wir
Tensorfelder auch in krummlinigen Koordinatensystemen punktweise addieren, multiplizieren
und kontrahieren.
Bei Ableiten gibt es aber ein Problem. Denn dabei vergleichen wir ja die Werte eines Tensors
an zwei verschiedenen Punkten und bilden einen Grenzwert. Wir zeigen zunächst, dass die beiden
dargestellt wird. Wie sieht dieses Vektorfeld aus? Wie verhält sich sein Betrag als Funktion des
Abstandes von der z-Achse? Man bestimme die Komponenten des Vektorfeldes in Zylinderkoordinaten, und zwar sowohl die Komponenten (F r , F ϕ , F z ) mit oberen Indizes, also auch die
Komponenten (Fr , Fϕ , Fz ) mit unteren Indizes. Was fällt auf, wenn man das Verhalten dieser
Komponenten als Funktion von r betrachtet? Warum ist das so?
22
einfachsten Ableitungen, nämlich das Bilden des Tangentenvektors einer Kurve und des Gradienten eines skalaren Feldes, trotzdem auch in krummlinigen Koordinatensystemen in der gleichen
Art und Weise funktionieren.
Das ist im Grunde ganz einfach, denn wir man leicht sieht, gelten die Transformationsregeln
(10.22) auch dann noch, wenn die beiden Koordinatensysteme krummlinig sind. Es sind einfache
Anwendungen der Kettenregel, die natürlich auch dann gelten, wenn die Übergangsfunktionen
∂ri /∂ra bzw. ∂ra /∂ri nicht konstant sind. Das Bilden des Tangentenvektors einer Kurve oder des
Gradienten eines skalaren Feldes macht in krummlinigen Koordinatensystemen keine Probleme.
Bei einem Vektorfeld ist es schon schwieriger. So haben wir bereits gesehen, dass konstante
Komponenten eines Vektorfeldes nicht bedeuten, dass das Feld als solches konstant ist, und umgekehrt hat ein konstantes Vektorfeld in krummlinigen Koordinaten keine konstanten Komponenten.
Würden wir einfach die Ableitung der Komponenten nach den Koordinaten bilden, würden daher
ein völlig falsches Bild davon bekommen, wie sich das Vektorfeld von Punkt zu Punkt verändert.
Um die “richtige” Ableitung eines Vektorfeldes in krummlinigen Koordinaten zu bilden, schauen wir uns die explizite Darstellung eines Vektorfeldes an, nämlich als Linearkombination der
lokalen Basisvektoren
F (r) = F i (r) ei (r).
(10.59)
Wir haben also die Ableitung eines Vektors wieder als Linearkombination der Basisvektoren geschrieben. Die Komponenten dieses Vektors, also den Ausdruck in der Klammer, bezeichnen wir
mit
(10.63)
∇k F i = ∂k F i + Γ ijk F j ,
und nennen ihn die kovariante Ableitung von F k nach ri .
Wir wollen zeigen, dass es sich dabei um die Komponenten des Tensors ∇F bezüglich des
krummlinigen Koordinatensystems handelt. In einem affinen Koordinatensystem ist dieser Tensor
durch die Komponenten ∂c F a gegeben, also durch die partiellen Ableitungen der Komponenten
F a nach den Koordinaten r a . Wir können dafür auch ∇c F a schreiben, denn in einem affinen
Koordinatensystem verschwindet das Christoffel-Symbol.
Wir müssen also zeigen, dass ∇c F a und ∇k F j zwei Darstellungen desselben Tensors der Stufe
(1, 1) sind. Dazu schreiben wir das Transformationsgesetz auf, wobei wir eine Übergangsmatrix
auf die linke und eine auf die rechte Seite schreiben. Zu zeigen ist also
∂ra
∂rc
i
∇
F
=
∇c F a
k
∂ri
∂rk
Γ ijk
(10.60)
∂ k ei =
ej .
∂r
∂2r
i =
∂r
∂rj ∂rk
⇒
Γ ijk
∂ra
∂ 2 ra
.
i =
∂r
∂rj ∂rk
∂ra
∂ra ∂F j
∂ 2 ra
∂ ∂ra j ∂F a
∂ra ∂F i
+ i Γ ijk F j = j
+ j k Fj = k
F =
i
k
k
∂r ∂r
∂r
∂r ∂r
∂rj
∂r ∂r
∂r
∂rk
(10.61)
(10.65)
(10.66)
Das ist aber nach der Kettenregel gleich der rechten Seite von (10.64). Wir haben also gezeigt,
dass der Ausdruck (10.63), wenn wir ihn in ein affines Koordinatensystem transformieren, dort
die Ableitung ∇F des Vektorfeldes F repräsentiert.
Die Koeffizienten dieser Entwicklung bilden ein Schema von (dim E) 3 Zahlen, das man
Christoffel-Symbol nennt. Es ist gewissermaßen ein Maß dafür, wie krummlinig ein Koordinatensystem ist. Für ein affines Koordinatensystem sind alle Einträge gleich Null, denn dort sind die
Basisvektoren konstant.
Der Ableitung eines Tensorfeldes wird in krummlinigen Koordinaten durch die kovariante Ableitung seiner Komponenten dargestellt.
Aufgabe 10.19 Tatsächlich ist das Christoffel-Symbol eines Koordinatensystems genau dann
gleich Null, wenn es sich um ein affinen Koordinatensystem handelt. Warum ist das so?
Welche praktische Bedeutung hat das nun? Wir veranschaulichen uns dies wieder am Beispiel der
Polarkoordinaten. Wenn wir die Basisvektoren er und eϕ nach den Koordinaten ableiten und das
Ergebnis wieder als Linearkombination dieser Vektoren darstellen, dann finden wir nach einer
kurzen Rechnung
Wenn wir (10.61) in (10.60) einsetzen und ein paar Indizes umbenennen, bekommen wir
∂F
= ∂k F i + Γ ijk F j ei .
k
∂r
(10.64)
Die zweite Gleichung folgt aus der ersten, indem wir den Punkt r im affinen Koordinatensystem
durch r = o + r a ea ausdrücken und benutzen, dass die Basisvektoren ea konstant sind. Wenn
wir das dann in die linke Seite von (10.64) einsetzen, finden wir
Nun möchten wir diesen Vektor gerne wieder in der lokalen Basis e j am Ort r darstellen. Dazu
müssen wir die Ableitungen der Basisvektoren wieder nach diesen entwickeln. Das heißt, wie
müssen den Vektor ∂k ei als Linearkombination der Basisvektoren ej darstellen,
Γ jik
∂ra ∂F i
∂ra i
∂rc ∂F a
j
+
Γ
F
=
jk
c .
∂ri ∂rk
∂ri
∂rk ∂r
Um die linke Seite umzuformen, setzen wir die Definition (10.39) der Basisvektoren in die Definition (10.61) des Christoffelsymbols ein. Das ergibt
Was passiert nun, wenn wir ein dieses Feld ableiten? Offenbar müssen wir dabei beachten, dass
nicht nur die Komponenten F i von r abhängen, sondern auch die Basis ei , in der das Feld dargestellt ist. Bilden wir zum Beispiel die Ableitung nach r k , so finden wir
∂
∂F
= k F i ei = ∂ k F i ei + F i ∂ k ei .
k
∂r
∂r
⇔
(10.62)
∂r er = 0,
23
∂ ϕ er =
1
eϕ ,
r
∂ r eϕ =
1
eϕ ,
r
∂ϕ eϕ = −r er .
(10.67)
Daraus lesen wir ab, dass nur die folgenden Komponenten des Christoffel-Symbols nicht verschwinden,
1
(10.68)
Γ rϕϕ = −r,
Γ ϕrϕ = Γ ϕϕr = .
r
Betrachten wir nun zum Beispiel ein Vektorfeld, das radial nach innen oder außen zeigt, also
F = f (r) er ,
r
oder F = f (r),
ϕ
F = 0.
als Tensoren transformieren. Wenn wir nun hier die Definition (10.63) der kovarianten Ableitung
eines Vektorfeldes einsetzen, und anschließend die Indizes umbenennen, bekommen wir
∂k Gi F i = ∇k Gi F i + Gi Γ ijk F j = ∇k Gi F i + Gi Γ jik F i .
Da dies für jedes Vektorfeld F gelten muss, ergibt sich
(10.69)
∇k Gi = ∂k Gi − Gj Γ jik .
r
Wir wollen die Divergenz dieses Vektorfeldes berechnen. Die naive Rechnung divF = ∂ r F +
∂ϕ F ϕ = f 0 (r) führt zum falschen Ergebnis. Wenden wir jedoch die Formel (10.63) an und bilden
die kovariante Ableitung, dann ergibt sich
∇i F i = ∂i F i + Γ iji F j = ∂r F r + ∂ϕ F ϕ +
1 r
1
F = f 0 (r) + f (r).
r
r
1
,
r
Γ iϕi = Γ rϕr + Γ ϕϕϕ = 0.
(10.70)
(10.71)
Aufgabe 10.21 Man zeige, dass das Christoffel-Symbol in seinen beiden unteren Indizes symmetrisch ist,
Γ kij = Γ kji .
(10.76)
Aufgabe 10.22 Warum ist das Christoffel-Symbol nicht die Darstellung eines Tensors?
Aufgabe 10.20 Man rechne das Vektorfeld (10.69) in affine Koordinaten (x, y) im und zeige, dass
(10.70) tatsächlich das richtige Ergebnis ist, das sich auch aus ∂a F a = ∂x F x + ∂y F y ergibt.
Aufgabe 10.23 Man zeige, dass die nicht verschwindenden Eintr äge des Christoffel-Symbol auf
einem dreidimensionalen affinen Raum in Zylinderkoordinaten (r, ϕ, z) genau durch (10.68) gegeben sind, also mit denen für ein ebenes Polarkoordinatensystem identisch sind.
Wir benötigen die kovariante Ableitung und damit das Christoffel-Symbol also dazu, um in
krummlinigen Koordinaten Ableitungen von Vektorfeldern zu berechnen. Der Vorteil ist dabei,
dass wir das Christoffel-Symbol für jedes Koordinatensystem nur einmal berechnen müssen, also
eine Art Formelsammlung anlegen können, um es immer dann anwenden zu können, wenn wir
mit diesen Koordinaten arbeiten.
Natürlich lässt sich die kovariante Ableitungen auf beliebige Tensorfelder anwenden. Wie das
geht, bekommen wir mit folgendem Trick heraus. Wir betrachten ein Vektorfeld F und ein duales Vektorfeld G, sowie das skalare Feld φ = G · F . In einem affinen Koordinatensystem mit
Koordinaten r a gilt dann
φ = Ga F a
⇒
∂b φ = ∂b (Ga F a ) = ∂b Ga F a + Ga ∂b F a .
Aufgabe 10.24 Ein Vektorfeld in einem zweidimensionalen affinen Raum sei in Polarkoordinaten
durch F = F r er +F ϕ eϕ dargestellt. Man zeige, dass dieses Feld genau dann konstant ist, wenn
die Komponenten die folgenden Differenzialgleichungen erf üllen,
∂r F r = 0,
∂r (r F ϕ ) = 0,
∂ϕ F r = r F ϕ ,
∂ϕ (r F ϕ ) = −F r .
(10.77)
Aufgabe 10.25 Man zeige, dass das Christoffel-Symbol in Kugelkoordinaten (r, ϑ, ϕ) die folgenden nicht verschwindenden Einträge hat,
(10.72)
Γ rϑϑ = −r
Das ist eine Beziehung zwischen Tensoren, folglich in jedem Koordinatensystem gilt, auch in einem krummlinigen. Dort müssen wir allerdings die Komponenten der Tensoren ∇F und ∇G, die
auf der rechten Seite stehen, durch die kovarianten Ableitungen darstellen. Das skalare Feld φ dagegen können wir einfach partiell nach den Koordinaten r i ableiten. Es gilt also im krummlinigen
Koordinatensystem
∂k φ = ∂k (Gi F i ) = ∂k Gi F i + Gi ∂k F i = ∇k Gi F i + Gi ∇k F i .
(10.75)
Das ist der allgemeine Ausdruck für die kovariante Ableitung eines Tensorfeldes der Stufe (0, 1).
Wir können also die kovariante Ableitung eines dualen Vektorfeldes mit dem gleichen ChristoffelSymbol bilden, allerdings mit einer leicht veränderten Indexstellung. Mit einem ganz ähnlichen
Trick lässt sich die kovariante Ableitung eines beliebigen Tensorfeldes bestimmen. Das werden
wir aber vorerst nicht benötigen.
Hier haben wir verwendet, dass
Γ iri = Γ rrr + Γ ϕrϕ =
(10.74)
Γ rϕϕ = −r sin2 ϑ
Γ ϑrϑ = Γ ϑϑr = Γ ϕrϕ = Γ ϕϕr =
1
r
Γ ϑϕϕ = − sin ϑ cos ϑ
Γ ϕϑϕ = Γ ϕϕϑ = cot ϑ.
(10.78)
Aufgabe 10.26 Es sei r(t) eine parametrisierte Kurve in E, zum Beispiel die Bahn eines Teilchens im physikalischen Raum. Stellt man diese in einem krummlinigen Koordinatensystem durch
die Funktionen r i (t) dar, so sind die Ableitungen v i (t) = ṙi (t) die Komponenten der Geschwindigkeit v(t), dargestellt in der lokalen Basis an dem Ort, an dem sich das Teilchen gerade befindet.
Man zeige, dass die Beschleunigung a(t) wie folgt dargestellt wird,
(10.73)
Der dritte Ausdruck ergibt sich aus der Produktregel für partielle Ableitungen aus dem zweiten.
Der letzte Ausdruck ergibt aus der rechten Seite von (10.72), wenn wir die beiden Summanden
ai (t) = r̈i (t) + Γ ikl (r(t)) ṙk (t) ṙl (t),
24
(10.79)
Beginnen wir mit dem Gradient. Wenn φ ein skalares Feld ist, dann sind die partiellen Ableitungen nach der Koordinaten ∂i φ, wie wir schon gezeigt haben, die Komponenten eines dualen
Vektorfeldes. In einem metrischen Raum können wir dies mit einem Vektorfeld identifizieren,
indem wir den Index nach oben ziehen, also
also durch eine kovariante Ableitung, wobei das Christoffel-Symbol wieder an dem Ort auszuwerten ist, an dem sich das Teilchen gerade befindet. Wie lauten folglich die Bewegungsgleichungen
für ein kräftefreies Teilchen in Kugelkoordinaten (r(t), ϑ(t), ϕ(t))? Man betrachte speziell ein
Teilchen, das sich in der Äquatorebene bewegt. Es sei also ϑ = π/2. Man zeige, dass sich in
diesem Fall unmittelbar die Drehimpulserhaltung ` = m r 2 ϕ̇ = konst ergibt, sowie die radiale
Bewegungsgleichung
`
.
(10.80)
m r̈ = −∂r Ve (r), mit Ve (r) =
2 m r2
Man vergleiche die Ausdrücke für Geschwindigkeit und Beschleunigung mit denen aus Kapitel 5,
also (5.32) und (5.35). Warum stimmen die Komponenten nicht überein? Welcher wesentliche
Unterschied besteht zwischen den dort eingeführten Basisvektoren (~er ,~eϑ ,~eϕ ) und den hier verwendeten Basisvektoren (er , eϑ , eϕ )?
grad φ = ∂i φ ei = g ij ∂j φ ei = g ij ∇j φ ei .
Wir können hier auch die kovariante Ableitung schreiben, denn diese ist, wenn sie auf ein skalares Feld wirkt, mit der gewöhnlichen partiellen Ableitung identisch. Das einzige, was wir beim
bilden des Gradienten in einem krummlinigen Koordinatensystem beachten müssen, ist die Indexstellung. Wenn wir den Gradient explizit als Vektorfeld, also mit dem Index oben darstellen
wollen, müssen wir die inverse Metrik dazu verwenden.
Haben wir zum Beispiel ein Feld φ in Kugelkoordinaten gegeben, so gilt für den Gradient
Aufgabe 10.27 Ein Tensor der Stufe (0, 2) kann durch Tensormultiplikation von zwei dualen Vektoren gebildet werden, Bij = Xi Yj . Dasselbe gilt für ein entsprechendes Tensorfeld. Man benutze die Darstellung (10.75) für die kovariante Ableitung eines dualen Vektorfeldes, um zu zeigen,
dass die kovariante Ableitung eines Tensorfeldes der Stufe (0, 2) wie folgt gebildet wird,
∇k Bij = ∂k Bij − Γ lik Blj − Γ ljk Bil .
(10.82)
grad φ = ∂r φ er +
1
1
∂ ϕ φ eϕ .
∂ ϑ φ eϑ + 2
2
r
r sin2 ϑ
(10.83)
Die inverse Metrik haben wir dabei aus (10.54) entnommen. Da es sich um eine diagonale Matrix
handelt, müssen wir nur die einzelnen Einträge invertieren.
Die Divergenz eines Vektorfeldes F = F i ei haben wir gerade schon gebildet. Für sie gilt
allgemein
(10.84)
div F = ∇i F i = ∂i F i + Γ iji F j .
(10.81)
Wie wird die kovariante Ableitung eines Tensorfeldes der Stufe (m, n) gebildet?
Aufgabe 10.28 Es sei E ein metrischer affiner Raum und {r i } ein krummliniges Koordinatensystem. Dann sind die Komponenten der Metrik gij im allgemeinen ortsabhängig, das heißt die
partiellen Ableitungen ∂k gij sind nicht Null. Warum ist trotzdem ∇k gij = 0?
Hier müssen wir die kovariante Ableitung verwenden, denn nur dann ist das Ergebnis unabhängig
vom verwendeten Koordinatensystem. Wir hatten das an einem zweidimensionalen Beispiel
schon gesehen. Nur, wenn wir ein affines, also geradliniges Koordinatensystem verwenden, fällt
der Term mit dem Christoffel-Symbol weg.
Auch hier betrachten wir speziell ein in Kugelkoordinaten durch die Komponenten
(F r , F ϑ , F ϕ ) dargestelltes Vektorfeld. Die auftretenden Christoffel-Symbole, bei denen noch
über den Index i zu summieren ist, entnehmen wir aus (10.78). Wenn wir die Summen ausführen,
finden wir
2
Γ iϕi = 0.
(10.85)
Γ iϑi = cot ϑ,
Γ iri = ,
r
Folglich ergibt sich für die Divergenz eines Vektorfeldes in Kugelkoordinaten explizit
Aufgabe 10.29 Man beweise, dass ein Koordinatensystem genau dann affin ist, wenn die Komponenten gij der Metrik konstant, also nicht ortsabhängig sind.
Gradient, Divergenz, Rotation
Der Begriff der Divergenz eines Vektorfeldes ist gerade schon gefallen, und wir haben auch schon
den Gradient eines skalaren Feldes definiert. Dies waren zwei der drei Ableitungsoperationen,
die wir bereits früher für Felder auf dem Euklidischen Raum eingeführt haben. Wie wollen nun
zeigen, wie sich diese im Tensorkalkül formulieren lassen, und insbesondere deren Darstellung
in krummlinigen Koordinaten diskutieren.
Wir betrachten dazu speziell den dreidimensionalen Euklidischen Raum, lassen aber beliebige
krummlinige Koordinatensysteme zu. Die Metrik g wird dann durch einen ortsabhängige Matrix
gij und ihre inverse Matrix g ij dargestellt, und auch der antisymmetrische Einheitstensor ω hat
ortsabhängige Komponenten ωijk bzw. ω ijk . Diese zwei Tensoren stehen uns zur Verfügung, um
daraus die bekannten Ableitungsoperatoren zu konstruieren.
div F = ∂r F r + ∂ϑ F ϑ + ∂ϕ F ϕ +
2 r
F + cot ϑ F ϑ .
r
(10.86)
Aufgabe 10.30 Ein kugelsymmetrisches Vektorfeld zeige radial nach außen, also F = f (r) e r .
Man bestimme f (r) so, dass div F = 0 ist. Mit welcher Potenz von r fällt das Feld nach außen
ab?
25
Um die Rotation zu bilden, benötigen wir den antisymmetrischen Einheitstensor. Für ein Vektorfeld F = F i ei setzen wir
rot F = ω ijk ∇i Fj ek = ω ijk ∂i Fj ek .
wieder die Christoffel-Symbole (10.78), sowie die Metrik (10.54) bzw. die daraus abgeleitete
inverse Metrik. Eine kurze Rechnung ergibt
2
g ij Γ rij = − ,
r
(10.87)
Hier müssten wir im Prinzip auch die kovariante Ableitung verwenden, denn sie wirkt auf ein
Vektorfeld, aber in diesem Fall fällt das Christoffel-Symbol weg, weil es in seinen unteren beiden
Indizes symmetrisch ist. Bei der Kontraktion mit dem antisymmetrischen Einheitstensor ergibt
sich deshalb Null.
Das Bilden der Rotation ist also recht einfach, denn hier genügt auch in krummlinigen Koordinaten die normale partielle Ableitung. Allerdings tritt der antisymmetrische Einheitstensor auf,
in dessen Darstellung die Determinante der Metrik eingeht, und wir müssen das Vektorfeld zuerst
durch seine Komponenten mit unteren Indizes darstellen.
cot ϑ
,
r2
g ij Γ ϕij = 0.
(10.91)
Eingesetzt in (10.90) ergibt das
4φ = ∂r ∂r φ +
2
1
cot ϑ
1
∂r φ + 2 ∂ϑ ∂ϑ φ + 2 ∂ϑ φ + 2
∂ϕ ∂ϕ φ.
r
r
r
r sin2 ϑ
(10.92)
Aufgabe 10.32 Man bestätige die Ausdrücke (10.91) für die im Laplace-Operator vorkommenden Kombinationen der Christoffel-Symbole und zeige, dass sich der Operator (10.92) auch wie
folgt schreiben lässt,
Aufgabe 10.31 Ein Vektorfeld sei in Zylinderkoordinaten durch F = F r er + F ϕ eϕ + F z ez
gegeben. Man benutze das Ergebnis aus Aufgabe 10.12, um zu zeigen, dass
4φ =
1
1
1
∂ ϕ F r + 2 F ϕ ez +
∂ ϕ F z − r ∂ z F ϕ er +
∂z F r − ∂ r F z eϕ
r
r
r
(10.88)
ist. Man betrachte speziell ein Vektorfeld B = f (r) eϕ . Für welche Funktionen f (r) gilt rot B =
0? Mit welcher Potenz von r fällt der Betrag dieses Feld nach außen ab?
rot F = r ∂r F ϕ −
1 ∂ 2 ∂φ 1
∂φ 1
∂ ∂2φ
r
+
sin
ϑ
+
.
∂r
∂ϑ
r2 ∂r
r2 sin ϑ ∂ϑ
r2 sin2 ϑ ∂ϕ2
(10.93)
Aufgabe 10.33 Um den Laplace-Operator in einem krummlinigen Koordinatensystem darzustellen, gibt es eine alternative, in den meisten Fällen sehr viel einfachere Formel, die ohne
Christoffel-Symbole auskommen. Man zeige, dass in jedem Koordinatensystem
1
√
4φ = √ ∂i g g ij ∂j φ ,
g
Zum Abschluss betrachten wir noch den Laplace-Operator, der eine spezielle zweite Ableitung
eines Feldes definiert. Wenn φ ein skalares Feld ist, dann können wir zuerst den Gradient ∇i φ =
∂i φ bilden. Das ist ein duales Vektorfeld, das wir wieder ableiten können. Allerdings müssen
wir dabei beachten, dass die zweite Ableitung auf einen dualen Vektor wirkt, so dass wir in
krummlinigen Koordinaten die kovariante Ableitung gemäß (10.75) verwenden müssen. Es ist
also
(10.89)
∇i ∇j φ = ∂i ∂j φ − Γ kij ∂k φ.
mit g = det(gij ),
(10.94)
gilt, und dass sich daraus der Ausdruck (10.93) für den Laplace-Operator in Kugelkoordinaten
ergibt.
Aufgabe 10.34 Gibt es für die Vektorfelder aus Aufgabe 10.14 und Aufgabe 10.15 jeweils ein
skalares Feld φ, so dass F = ∇φ ist?
Hieraus ergibt sich übrigens eine Begründung dafür, warum das Christoffel-Symbol in seinen
beiden unteren Indizes symmetrisch sein muss. Es ist nämlich ∇i ∇j φ = ∇j ∇i φ, denn in einem
affinen Koordinatensystem handelt es sich dabei im die zweite partielle Ableitung einer Funktion,
und die ist natürlich symmetrisch. Also muss das auch in jedem krummlinigen Koordinatensystem
gelten, und das ist offenbar genau dann der Fall, wenn Γ kij = Γ kji ist.
Nun ist (10.89) ein Tensor zweiter Stufe. In einem metrischen Raum können wir ihn kontrahieren, wenn wir einen der Indizes zuerst mit der Metrik nach oben ziehen. Auf diese Wiese ist der
Laplace-Operator definiert,
4φ = g ij ∇i ∇j φ = g ij ∂i ∂j φ − g ij Γ kij ∂k φ.
g ij Γ ϑij = −
(10.90)
In kartesischen Koordinaten entspricht das der üblichen Definition 4 = ∂ i ∂i . Wir können den
Operator jetzt aber auch sehr leicht zum Beispiel in Kugelkoordinaten berechnen. Wir benutzen
26
11 Lagrangesche Mechanik
Tatsächlich lässt sich der Impuls eines Teilchens aus seiner Energie ableiten, und zwar im
wahrsten Sinne des Wortes. Stellen wir die Geschwindigkeit des Teilchens der Masse m in einem
kartesischen Koordinatensystem durch v = vi ei dar, so ist seine kinetische Energie
In diesem Kapitel werden wir den ersten Schritt zu einer allgemeinen Formulierung aller heute bekannten fundamentalen physikalischen Theorien machen. Allerdings ist dieser erste Schritt
sehr bescheiden. Wir werden im Prinzip nichts anderes tun als die Newtonschen Bewegungsgleichungen in einer mathematisch etwas anspruchsvolleren, “geometrischen” Form aufzuschreiben.
Diese neue Formulierung der Newtonschen Mechanik wurde im 18. Jahrhundert entwickelt
und geht im wesentlichen auf d’Alembert, Lagrange und Euler zurück. Sie ist begrifflich sehr viel
abstrakter als die Newtonsche Formulierung, bietet aber eine Reihe von praktischen und konzeptionellen Vorteilen. Ein wichtiger, ganz pragmatischer Vorteil ist, dass sich typische mechanische
Systeme, wie sie in technischen Anwendungen auftreten, sehr viel effizienter berechnen lassen
als mit den Newtonschen Mitteln.
Eine andere, für die theoretische Physik besonders wichtige Eigenschaft der neuen Formulierung ist, dass sich mit ihr viele allgemeine Sätze beweisen lassen, mir deren Hilfe sich Aussagen
über die Lösungen von Bewegungsgleichungen machen lassen, auch wenn man diese nicht explizit angeben kann. Der wohl wichtigste derartige Satz ist das Noether-Theorem, wonach es einen
Zusammenhang zwischen den Symmetrien eines Systems und seinen Erhaltungsgrößen. Bis wir
zu diesem zentralen Theorem kommen, müssen wir uns allerdings erst mit einigen neuen Begriffen vertraut machen.
Die Methoden, die wir hier entwickeln werden, lassen sich weit über die Mechanik hinaus auch
in anderen Teilgebieten der Physik anwenden. Daher werden uns die Begriffe, die wir in diesem
Kapitel einführen, fast überall wieder begegnen. Wie schon angedeutet, geht dies sogar so weit,
dass sich alle heute als fundamental angesehenen Theorien in dieses Schema einordnen lassen.
Einen Hinweis darauf, dass zum Beispiel auch die Elektrodynamik eine solche Formulierung
zulässt, wird sich am Ende dieses Kapitels ergeben. Ansonsten werden wir uns hier jedoch nur
mit mechanischen Systemen beschäftigen.
T =
1
1
m v · v = m v i vi .
2
2
(11.1)
Es ist üblich, die Funktion, die der Geschwindigkeit die kinetische Energie zuordnet, mit T zu bezeichnen. Wenn wir sie partiell nach den Komponenten der Geschwindigkeit ableiten, bekommen
wir
∂T
= m vi = pi ,
(11.2)
∂vi
also die Komponenten des Impulses. Der Impuls ist die Ableitung der Energie nach der Geschwindigkeit.
Das lässt sich verallgemeinern. Für ein System von N Teilchen mit Massen m n ist die gesamte
kinetische Energie eine Funktion der Geschwindigkeiten vn = vn,i ei der einzelnen Teilchen,
T =
1X
1X
m n vn · v n =
mn vn,i vn,i .
2 n
2 n
(11.3)
Die Funktion T hängt jetzt von 3 N reellen Variablen ab, nämlich den Komponenten der Geschwindigkeiten vn,i , mit n ∈ {1, . . . , N } als Teilchenindex und i ∈ {x, y, z} als Vektorindex.
Für Vektorindizes soll wieder die Summenkonvention gelten, und da wir eine Orthonormalbasis
verwenden, können wir alle Indizes nach unten schreiben.
Bilden wir nun wieder die partiellen Ableitungen der Funktion T , so finden wir
∂T
= mn vn,i = pn,i .
∂vn,i
(11.4)
Das sind die Komponenten des Impulses des Teilchens Nummer n. Wir können auf diese Weise
durch Ableiten der kinetischen Energie eines Systems von beliebig vielen Teilchen jedem einzelnen Teilchen seinen Impuls zuordnen.
Energie und Impuls
Bei der allgemeinen Diskussion der Newtonschen Bewegungsgleichungen für ein System von
Punktteilchen hatten wir die Impulse der Teilchen als nützlich Hilfsgrößen eingeführt. Damit
konnten wir ein System von Differenzialgleichungen zweiter Ordnung in ein System erster Ordnung überführen. Außerdem gab es für Systeme ohne äußere Kräfte einen Erhaltungssatz für den
Gesamtimpuls, also für die Summe der Impulse aller Teilchen. Das konnten wir verwenden, um
die Bewegungsgleichungen weiter zu vereinfachen und um deren Lösungen zu klassifizieren.
Den Impuls hatten wir als das Produkt von Masse und Geschwindigkeit definiert, weil so seine
Zeitableitung durch die Kraft gegeben war, die auf ein Teilchen einwirkt. Wir wollen nun zeigen,
dass es noch eine alternative Definition der Größe “Impuls” gibt. Diese wird sich später als sehr
viel allgemeiner erweisen. Sie ist weit über die Mechanik hinaus anwendbar. Sie gibt dem Begriff
“Impuls” eine ähnlich wichtige Bedeutung wie etwa dem Begriff “Energie”, der ja auch in allen
Bereichen der Physik von zentraler Bedeutung ist.
Der Impuls eines Teilchens ist die Ableitung der kinetischen Energie nach der Geschwindigkeit dieses Teilchens.
27
Wie sich gleich zeigen wird, ist es an dieser Stelle ganz wesentlich, dass es sich um eine Funktion
T handelt, die von den Geschwindigkeiten aller Teilchen abhängt. Die Funktion T ist also dem
System als ganzes zugeordnet, nicht den einzelnen Teilchen.
Die Bewegungsgleichungen lassen sich nun wie folgt formulieren. Die Teilchen bewegen sich
auf Bahnen rn (t), oder in kartesischen Koordinaten rn,i (t). Dann ist natürlich vn (t) = ṙn (t)
bzw. vn,i (t) = ṙn,i (t), und somit
∂T ∂T
=
(t).
(11.5)
pn,i (t) =
∂vn,i vn =ṙn (t)
∂ ṙn,i
Der Ausdruck ist so zu verstehen, dass wir erst die Funktion T nach v n,i ableiten, und dann
diese Funktion für vn = ṙn (t) auswerten, also die gegebene Bahnkurve einsetzen, so dass der
Ausdruck zu einer Funktion der Zeit wird. Um die Notation etwas zu verkürzen, schreiben wir
dafür auch einfach ∂T /∂ ṙn,i .
Jetzt müssen wir den Impuls nur noch nach der Zeit ableiten und mit der Kraft gleichsetzen,
d ∂T
ṗn,i (t) =
(t) = Fn,i (t).
(11.6)
dt ∂ ṙn,i
Der Konfigurationsraum besteht aus allen möglichen Anordnungen der Teilchen im Ortsraum,
das heißt aus allen möglichen Konfigurationen von N Teilchen. Einen Punkt in diesem Raum bezeichnen wir mit q ∈ Q, und seine Koordinaten mit q µ , wobei µ ein laufender Index ist, der 3 N
Werte annimmt. Um die Beziehung zu den einzelnen Teilchen deutlich zu machen, können wir als
Indexmenge die Symbole µ ∈ {x1 , y1 , z1 , x2 , y2 , z2 , . . . , xN , yN , zN } verwenden. Wir können
die Koordinaten aber auch einfach von 1 bis 3 N durchnummerieren. Wir sagen, dass ein System aus N Teilchen 3 N Freiheitsgrade besitzt. Die Zahl der Freiheitsgrade eines mechanischen
System ist die Dimension des Konfigurationsraumes, dim Q = 3 N .
Wir schreiben den Index bei q µ nach oben, weil der Konfigurationsraum im allgemeinen kein
metrischer Raum ist. Wir können zwar den Abstand zwischen zwei Punkten oder zwei Teilchen
im Ortsraum messen. Es ist aber eine völlig andere Frage, was unter dem “Abstand” von zwei
verschiedenen Konfigurationen von N Teilchen zu verstehen ist. Jedenfalls gibt es keine unmittelbar auf der Hand liegende Antwort auf die Frage, wie weit zwei Konfigurationen voneinander
entfernt sind. Es gibt auf dem Konfigurationsraum keine Metrik, folglich auch keine kartesischen
Koordinaten, und deshalb müssen wir zwischen Vektoren und dualen Vektoren unterscheiden.
Wie wird nun die Zeitentwicklung des Systems beschreiben? Offenbar durch eine Bahn q(t) im
Konfigurationsraum Q, die zu jedem Zeitpunkt angibt, welche Konfiguration das System gerade
einnimmt. Sie wird explizit durch die Koordinatenfunktionen q µ (t) dargestellt. Das ist eine parametrisierte Kurve in einem affinen Raum. Wir können daher den Tangentenvektor q̇(t) bilden,
dessen Komponenten durch die Ableitungen q̇ µ (t) gegeben sind. Dies ist ein Vektor in dem zugeordneten Vektorraum TQ des Konfigurationsraumes Q. Um die Sprechweise möglichst einfach
zu halten, nennen wir q(t) den Ort und q̇(t) die Geschwindigkeit des Systems zum Zeitpunkt t.
Wir fassen quasi alle Orte der Teilchen zu einem Ort in Q zusammen, und alle Geschwindigkeiten
der Teilchen zu einem Geschwindigkeitsvektor in TQ.
Die oben eingeführte alternative Formulierung der Bewegungsgleichungen für ein System aus
N Teilchen stellt sich jetzt wie folgt dar. Zuerst definieren wir die kinetische Energie als Funktion
der Geschwindigkeiten der Teilchen, das heißt als Funktion eines Vektors q̇ ∈ TQ. Sie ist eine
quadratische Funktion der Komponenten q̇ µ , die sich ganz allgemein wie folgt schreiben lässt,
Die Kräfte Fn = Fn,i ei sind in der Regel als Funktionen der Orte und der Geschwindigkeiten
gegeben. Setzen wir wieder die Bahnen rn (t) ein, so ergibt sich eine Funktion der Zeit, die die
Ableitung des Impulses nach der Zeit bestimmt. Die Gleichungen (11.6) bilden dann ein System
von 3 N gekoppelten Differenzialgleichungen zweiter Ordnung für die Koordinatenfunktionen
rn,i (t). Dies sind natürlich die bekannten Newtonschen Bewegungsgleichungen.
Auf den ersten Blick scheint damit nicht viel gewonnen zu sein. Genau genommen sehen die
Gleichungen (11.6) sogar ziemlich kompliziert aus, nicht zuletzt wegen der etwas verschachtelten
Ableitungen. Was allerdings auffällt, ist, dass die Massen mn anscheinend aus den Bewegungsgleichungen verschwunden sind. Natürlich sind sie nicht wirklich verschwunden. Aber sie gehen
jetzt nur noch implizit über die Definition der Funktion T ein.
In den Newtonschen Formulierung der Bewegungsgleichungen ist die Masse ein Maß für die
Trägheit eines Teilchens, also das Verhältnis von Impuls zu Geschwindigkeit. Hier ist die Masse statt dessen ein Maß für die kinetische Energie, die ein bewegtes Teilchen besitzt, und der
Impuls ist definiert als die Ableitung der Energie nach der Geschwindigkeit. Das ändert an den
mathematischen Zusammenhängen zwischen diesen Größen nichts, bietet aber eine alternative
Interpretation der Begriffe.
Aufgabe 11.1 Wir nehmen an, dass die Kräfte konservativ sind und nur von den Orten der Teilchen abhängen. Dann existiert ein Potenzial V, das eine Funktion der Orte r n ist, und die Kraft
Fn ist der negative Gradient von V bezüglich des Ortes rn . Folglich gelten die Bewegungsgleichungen
∂V
d ∂T
(t) = Fn,i (t) = −
(t).
(11.7)
dt ∂ ṙn,i
∂rn,i
T =
Andererseits wissen wir, dass in diesem Fall die Energie E = T + V eine Erhaltungsgr öße ist.
Man zeige, dass sich dies aus (11.7) ergibt, wobei man nur annehmen muss, dass die Funktion T
rein quadratisch ist, also homogen vom Grad 2 in den Komponenten den Geschwindigkeiten.
1
Mµν q̇ µ q̇ ν .
2
(11.8)
Die 3 N ×3 N -Matrix Mµν ist die Massenmatrix des Systems. Für den hier beschriebenen Fall
hat sie eine einfache Diagonalform


m1
m1
0




m1


.

.
..
Mµν = 
(11.9)



m
N


0
mN
mN
Der Konfigurationsraum
Die Bewegungsgleichungen in der Form (11.6) lassen sich etwas einfacher darstellen, wenn wir
das folgende neue Konzept einführen. Wir fassen die Ortskoordinaten r n,i aller N Teilchen als
Koordinaten eines Punktes in einem 3 N -dimensionalen Raum auf. Diesen Raum nennen wir den
Konfigurationsraum des Systems, und wir bezeichnen ihn mit Q.
28
Ihre Einträge sind die Massen der einzelnen Teilchen, wobei jede Masse genau dreimal auftritt, entsprechend den drei Komponenten der Geschwindigkeit, die zu diesem Teilchen gehören.
Schreibt man die Summe über µ und ν in (11.8) explizit aus, so findet man wieder den Ausdruck
(11.3).
Dass wir die Massen zu einer Matrix mit zwei unteren Indizes zusammengefasst haben, ist
im wesentlichen dadurch motiviert, dass sich diese Matrix nun wie ein symmetrischer Tensor
der Stufe (0, 2) auf dem Konfigurationsraum Q verhält. Durch (11.8) wird eine symmetrische,
bilineare Abbildung M : TQ × TQ → R definiert, so dass T = M (q̇, q̇)/2 ist. Wir werden
darauf gleich noch näher eingehen.
Im nächsten Schritt definieren wir die Impulse, indem wir die partiellen Ableitungen der Funktion T nach den Komponenten q̇ µ der Geschwindigkeit bilden. Das ergibt
pµ =
∂T
= Mµν q̇ µ .
∂ q̇ µ
Kräfte nur vom Ort abhängen, gilt
Fµ =
d ∂T
µ (t) = Fµ (t).
dt ∂ q̇
⇒
ṗµ (t) =
∂V
d ∂T
(t)
= µ (t).
dt ∂ q̇ µ
∂q
(11.12)
Damit hier die rechte und die linke Seite der Gleichung zusammenpassen, muss auf beiden Seiten
ein dualer Vektor stehen. Das ist auch der Fall, und es impliziert, dass auch der Impuls in dualer
Vektor sein muss.
Damit haben wir bereits die wichtigsten Begriffe eingeführt, die wir zur systematischen Beschreibung eines allgemeinen mechanischen Systems benötigen.
Die Konfiguration eines mechanischen Systems wird durch einen Punkt im Konfigurationsraum dargestellt. Die Geschwindigkeit ist ein Vektor, Impuls und Kraft
sind duale Vektoren in diesem Raum.
(11.10)
Um ein konkretes mechanisches System zu beschrieben, benötigen wir zwei Informationen über
das System. Wir müssen erstens wissen, wie die Geschwindigkeiten mit den Impulsen zusammenhängen. Dies geschieht durch die Abgabe der Funktion T , die die kinetische Energie als
Funktion der Geschwindigkeiten darstellt. Für ein N -Teilchen-System bedeutet das im wesentlichen, dass wir die Massen der Teilchen kennen müssen. Und wir müssen natürlich zweitens
wissen, wie die Kraft F konkret als Funktionen des Ortes q, der Geschwindigkeit q̇ und der Zeit
t gegeben ist. Für ein System mit Potenzialkräften ist das äquivalent zur Angabe der Potenzialfunktion V.
Wie man leicht durch Einsetzen der Matrix (11.9) bestätigt, sind das die 3 N Komponenten der
Impulse der einzelnen Teilchen. Diese können wir wieder zu einem 3 N -dimensionalen Vektor
zusammenfassen. Aus (11.10) ergibt sich jedoch, dass die Komponenten p µ ihren Index unten
tragen. Folglich ist die Geschwindigkeit q̇ ∈ TQ ein Vektor, während der Impuls p ∈ T∗ Q des
Systems ein dualer Vektor ist.
Da die Kraft die Zeitableitung des Impulses ist, muss auch das ein dualer Vektor F ∈ T ∗ Q
sein. Es gilt, in Komponenten aufgeschrieben,
ṗµ (t) =
∂V
∂q µ
Aufgabe 11.2 Man betrachte ein System aus drei Teilchen mit Massen m 1 , m2 und m3 , die sich
gegenseitig durch Gravitationskräfte anziehen. Wie sieht in diesem Fall das Potenzial aus? Man
mache sich an diesem Beispiel klar, dass es sich um eine reelle Funktion V auf einem neundimensionalen Raum Q handelt.
(11.11)
Genau wie die Komponenten pµ des Impulses p ergeben sich die 3 N Komponenten Fµ der Kraft
F aus den ursprünglichen Komponenten Fn,i dadurch, dass wir sie einfach nur neu nummerieren. Wir fassen den Teilchenindex n und den Vektorindex i zu einem einzigen Vektorindex µ
zusammen, der 3 N Werte annimmt.
Inhaltlich ändert sich an den Bewegungsgleichungen nichts. Es handelt sich noch immer um ein
Gleichungssystem für 3 N unbekannte Funktionen, nur dass wir diese jetzt mit q µ (t) bezeichnen.
Die Kraft F ist typischerweise als Funktion des Ortes q und der Geschwindigkeit q̇ gegeben, und
sie kann natürlich auch explizit von der Zeit abhängen. Erst durch Einsetzen einer Bahn q(t) wird
daraus eine Funktion, die nur noch von der Zeit anhängt. Das gleiche gilt für den Impuls. Die
partielle Ableitung ∂T /∂ q̇ µ ist eine Funktion der Geschwindigkeit q̇, und durch Einsetzen einer
Bahn q(t) wird sie zu einer Funktion der Zeit.
Dass Kraft und Impuls duale Vektoren auf dem Konfigurationsraum sind, lässt sich auch noch
auf eine ganz andere Weise erklären. Für konservative Systeme ist die Kraft der Gradient des Potenzials. Die potenzielle Energie eines N -Teilchen-Systems ist eine Funktion der Orte der Teilchen, also eine skalare Funktion V auf dem Konfigurationsraum. Folglich ist der Gradient davon
ein dualer Vektor, oder genauer ein duales Vektorfeld auf Q. Für konservative Systeme, deren
Aufgabe 11.3 Die Massenmatrix Mµν eines mechanischen Systems ist symmetrisch und positiv,
da die kinetische Energie stets positiv ist und nur dann gleich Null, wenn alle Teilchen ruhen.
Man kann sie daher als Metrik auf dem Konfigurationsraum interpretieren, der dadurch zu einem
metrischen affinen Raum wird. Wenn man dies tut, welche anschauliche Vorstellung verbindet sich
dann mit dem Abstand von zwei Konfigurationen? Wann liegen zwei gegebene Konfigurationen
nahe beieinander, wann sind sie weit voneinander entfernt?
Ein einfaches Beispiel
Um den Begriff des Konfigurationsraumes etwas besser zu verstehen, betrachten wir ein einfaches
Beispiel. Zwei Teilchen wechselwirken miteinander durch eine linear vom Abstand abhängende
Kraft. Es handelt sich im wesentlichen um einen harmonischen Oszillator, der aus zwei Teilchen
besteht. Um das ganze so einfach wie möglich zu halten, und um das Ergebnis auch grafisch
darstellen zu können, sollen sich die Teilchen nur in eine Raumrichtung bewegen. Dadurch sparen
29
wir uns das Ausschreiben einiger Indizes, verlieren jedoch keine wesentlichen Aspekte von dem,
worum es hier gehen soll.
Es seien also m1 und m2 die Massen der beiden Teilchen, q 1 und q 2 ihre Ortskoordinaten,
und q̇ 1 und q̇ 2 die Geschwindigkeiten. Die Orte q µ , mit µ ∈ {1, 2}, sind die Koordinaten eines
Punktes q ∈ Q, wobei der Konfigurationsraum Q ein zweidimensionaler affiner Raum ist. Die
Geschwindigkeiten q̇ µ sind entsprechend die Komponenten eines Vektors q̇ ∈ TQ.
Für die kinetische und die potenzielle Energie setzen wir
1
1
T = m1 (q̇ 1 )2 + m2 (q̇ 2 )2 ,
2
2
1
V = κ (q 1 − q 2 )2 ,
2
wobei wir die Abkürzungen
m+ = m 1 + m 2 ,
∂T
p2 = 2 = m2 q̇ 2 ,
∂ q̇
p+ =
(11.13)
∂V
= κ (q 2 − q 1 ),
∂q 1
F2 = −
∂V
= κ (q 1 − q 2 ).
∂q 2
ṗ2 = F2
⇒
m1 q̈ 1 = κ (q 2 − q 1 ),
m2 q̈ 2 = κ (q 1 − q 2 ).
(11.14)
(11.15)
ṗ+ = F+ ,
q2 = q+ −
m1
q− .
m1 + m 2
(11.16)
(11.18)
Da es sich um eine lineare Transformation handelt, gelten die gleichen Umrechnungsformel auch
für die Geschwindigkeiten. Wir müssen nur alle q’s mit einem Punkt versehen, oder einfach die
Gleichungen (11.17) und (11.18) nach der Zeit ableiten. Nach einer kurzen Rechnung findet man
dann die folgenden neuen Ausdrücke für die kinetische und die potenzielle Energie,
T =
1
1
m+ (q̇ + )2 + m− (q̇ − )2 ,
2
2
V=
1
κ (q − )2 ,
2
∂T
= m− q̇ − ,
∂ q̇ −
(11.21)
∂V
= 0,
∂q +
F− = −
∂V
= −κ q − .
∂q −
(11.22)
ṗ+ = F+
⇒
m+ q̈ + = 0,
m− q̈ − = −κ q − .
(11.23)
Die Lösungen dieser Gleichungen können wir sofort angeben. Für q + müssen wir eine
gleichförmige Bewegung einsetzen, das heißt das System bewegt sich mit konstanter Geschwindigkeit in Richtung der q + -Achse. In Richtung der q − -Achse finden wir eine harmonische Oszillation mit der Eigenfrequenz ω 2 = κ/m− .
Was haben wir bei dieser Herleitung anders gemacht als früher, als wir ein solches System
schon einmal im Rahmen der Newtonschen Mechanik diskutiert haben? Der wesentliche Unterschied liegt darin, dass wir an keiner Stelle die Bewegungsgleichungen selbst transformiert haben.
Wir haben nicht die Definitionen (11.18) der neuen Koordinaten in die Bewegungsgleichungen
(11.16) eingesetzt. Statt dessen haben wir nur die zwei Größen, von denen wir ausgegangen sind,
nämlich die Funktionen T und V, durch die neuen Koordinaten ausgedrückt.
In Abbildung 11.1(a) ist der zweidimensionale Konfigurationsraum Q mit der q 1 - und q 2 -Achse
dargestellt. Das Potenzial V(q) hängt nur von q 1 − q 2 ab, so dass die Linien mit V = konst
Geraden sind, die parallel zur Winkelhalbierenden verlaufen. Die Linien T = konst im Raum TQ
der Geschwindigkeiten sind Ellipsen, deren Halbachsen durch die Massen m 1 und m2 bestimmt
sind. Eine solche Ellipse ist in der Abbildung eingezeichnet.
Nun hatten wir gesehen, dass die Dynamik des Systems, also letztlich die Bewegungsgleichungen, eindeutig durch die beiden Funktion T und V bestimmt wird. Insbesondere ist das dynamische Verhalten des Systems völlig unabhängig davon, welche Koordinaten wir benutzen, um eine
explizite Rechnung durchzuführen. Die Dynamik des Systems ist ein Art geometrische Eigenschaft des Konfigurationsraumes, die unabhängig von der Wahl irgendeines Koordinatensystems
ist, genau wie die Geometrie des Ortsraumes als abstrakte Struktur unabhängig von den Koordinatensystemen ist, die wir verwenden, um den Raum zu beschreiben.
oder umgekehrt
m2
q− ,
m1 + m 2
p− =
Daraus lesen wir wieder die Bewegungsgleichungen ab. Sie haben sich ein wenig vereinfacht und
lauten nun
Wir wissen bereits, wie wir diese Gleichungen am einfachsten lösen können. Die Idee besteht im
wesentlichen darin, die Bewegung des Schwerpunktes von der relativen Bewegung der Teilchen
zu entkoppeln.
Das neue ist, dass wir dies nun als Koordinatentransformation auf dem Konfigurationsraum Q
auffassen können. Die Transformation, die hier zum Ziel führt, ist
m1
m2
q1 +
q2 ,
q− = q1 − q2 ,
(11.17)
q+ =
m1 + m 2
m1 + m 2
q1 = q+ +
∂T
= m+ q̇ + ,
∂ q̇ +
F+ = −
Die Teilchen ziehen sich mit einer linear mit dem Abstand ansteigenden Kraft an. Schließlich
ergeben sich aus dieser Gleichung und der vorigen die Bewegungsgleichungen
ṗ1 = F1 ,
(11.20)
und für die Komponenten der Kraft gilt jetzt
und für die Komponenten der Kraft gilt
F1 = −
m1 m2
m1 + m 2
für die gesamte und die reduzierte Masse eingeführt haben. Wiederholen wir jetzt die ganze Prozedur noch einmal, so finden wir die Impulse
wobei κ eine Federkonstante ist, die die Anziehungskraft zwischen den beiden Teilchen bestimmt.
Für die Impulse ergibt sich daraus, wie nicht anders zu erwarten ist,
∂T
p1 = 1 = m1 q̇ 1 ,
∂ q̇
m− =
(11.19)
30
q2
ne ganz andere “natürliche” Wahl der Koordinaten nahe legen, nämlich die Koordinaten (q + , q − ).
In diesen Koordinaten nehmen die beiden für die Dynamik relevanten Funktionen T und V eine
besonders einfache Form an.
Das Ziel der folgenden Überlegungen ist es deshalb, von der unmittelbaren physikalischen
Vorstellung Abstand zu nehmen, dass die Bewegungen eines mechanischen Systems im dreidimensionalen Ortsraum stattfinden. Statt dessen wollen wir den Konfigurationsraum als denjenigen Raum betrachten, in dem sich das System bewegt. Das ist der erste Schritt hin zu einer
Abstraktion, die es letztlich auch ermöglicht, ganz andere dynamische Systeme, wie etwa das
elektromagnetische Feld, mit den gleichen Methoden zu beschreiben und dabei die gleichen mathematischen Strukturen zu verwenden.
q+
replacements
(c)
(d)
q1
q−
(a)
(b)
Aufgabe 11.5 Es soll ein System von zwei Teilchen gleicher Masse m betrachtet werden, die
zusätzlich eine lineare rücktreibende Kraft von außen spüren. Diese soll eine Federkonstante κ
haben, die Wechselwirkung eine Federkonstante κ̃. Es ist dann
1
1
1
V = κ (q 1 )2 + (q 2 )2 + κ̃ (q 1 − q 2 )2 .
T = m (q̇ 1 )2 + (q̇ 2 )2 ,
(11.24)
2
2
2
Abbildung 11.1: Der Konfigurationsraum eines Zwei-Teilchen-Systems mit linearer Wechselwirkung. Die gestrichelten Geraden sind die Linien konstanter potenzieller Energie V = konst. Die
gestrichelte Ellipse ist eine Linie konstanter kinetischer Energie T = konst im Raum der Geschwindigkeiten. Die durchgezogene Linie ist eine typische Bahn. Die Koordinaten in (a) sind
den Teilchen angepasst, die Koordinaten in (b) den Eigenmoden des Systems.
Man finde eine lineare Transformation zu neuen Koordinaten (q + , q − ), so dass
1
1
1
1
V = κ+ (q + )2 + κ− (q − )2
(11.25)
m+ (q̇ + )2 + m− (q̇ − )2 ,
2
2
2
2
gilt. Man bestimme die Größen m± und κ± , und daraus die Eigenfrequenzen ω± des System.
Sind die neuen Koordinaten eindeutig bestimmt? Wenn nicht, welche Freiheiten gibt es bei der
Wahl?
T =
Wir können deshalb zu einem beliebigen anderen Koordinatensystem übergehen, das der Dynamik des Systems besser angepasst ist. Ein solches Koordinatensystem ist in Abbildung 11.1(b)
dargestellt. Die q + -Achse ist so gewählt, dass sie im Minimum des Potenzials liegt. Daher hängt
die Funktion V jetzt nur noch von q − ab, und zwar unabhängig davon, in welche Richtung die
q − -Achse zeigt. Aber auch für diese Achse gibt es eine bevorzugte Wahl. Sie ist so gelegt, dass
in dem quadratischen Ausdruck für T keine gemischten Terme auftreten, die das Produkt q̇ + q̇ −
enthalten.
Aufgabe 11.6 Man wiederhole die einzelnen Schritte in diesem Abschnitt f ür ein System von zwei
Teilchen, die sich im dreidimensionalen Raum bewegen. Um die Zerlegung in Schwerpunkt- und
Relativbewegung durchzuführen, hatten wir in Kapitel 3 den Schwerpunktimpuls (3.53) und den
relativen Impuls (3.54) eingeführt. Man zeige, dass diese Größen den hier definierten Impulsen
p+ und p− entsprechen.
Aufgabe 11.4 Man zeige, dass die lineare Transformation (11.17) durch diese beiden Forderungen an die neuen Koordinaten q + und q − bis auf Skalierungen eindeutig festgelegt ist. Die einzige Freiheit, die noch bleibt, ist eine Transformation q̃ + = α q + und q̃ − = β q − mit Konstanten
α, β 6= 0.
Aufgabe 11.7 Der Übergang zwischen den beiden Koordinatensystemen (q 1 , q 2 ) und (q + , q − )
ist eine affine Koordinatentransformation auf dem Konfigurationsraum Q. Man zeige, dass der
Impuls und die Kraft dabei wie duale Vektoren transformieren. Es gilt also
pα =
Das abstrakte Konzept des Konfigurationsraumes eines mechanischen Systems kann also bei der
Lösung der Bewegungsgleichungen hilfreich sein. Es zeigt nämlich, dass die Koordinaten, die
sich auf natürliche Weise aus der physikalischen Situation ergeben, nicht immer die sind, die
dem eigentlichen dynamischen Prozess am besten angepasst sind. In unserem Beispiel liegt es
durch die Beschreibung des Systems eigentlich auf der Hand, dass die “natürlichen” Koordinaten
diejenigen sind, die sich auf die beiden Teilchen beziehen, also (q 1 , q 2 ).
Lassen wir jedoch die physikalische Anschauung für einen Moment außer acht, und betrachten
nur die mathematischen Strukturen des Konfigurationsraumes Q, so stellen wir fest, dass diese ei-
∂q µ
pµ ,
∂q α
bzw. pµ =
∂q α
pα ,
∂q µ
mit µ ∈ {1, 2},
α ∈ {+, −},
(11.26)
und entsprechend für Fµ und Fα .
Aufgabe 11.8 Sowohl in (11.13) als auch in (11.19) lässt sich die kinetische Energie durch eine
Massenmatrix darstellen. Mit den Bezeichnungen aus Aufgabe 11.7 gilt f ür die Einträge dieser
Matrix in den beiden Koordinatensystemen
M11 = m1 ,
31
M22 = m2 ,
bzw. M++ = m+ ,
M−− = m− ,
(11.27)
Wenn T als quadratische Funktion durch eine Massenmatrix gegeben ist, ist die zweite Ableitung
genau diese Massenmatrix. Wir sehen, dass (11.29) nichts anderes ist als eine etwas ungewöhnliche Darstellung der Newtonschen Bewegungsgleichungen, wonach Masse mal Beschleunigung
gleich Kraft ist.
Es stellt sich daher die Frage, warum wir diese merkwürdige Formulierung überhaupt benutzen.
Die Bewegungsgleichung (11.30) sieht doch viel einfacher aus. Sie stellt über die Massenmatrix
eine Beziehung zwischen der Kraft F ∈ T∗ Q und der Beschleunigung q̈ ∈ TQ her, und beschreibt so die Bewegungen des Systems im Konfigurationsraum auf eine geometrische Art und
Weise, die zudem noch unabhängig von der Wahl der Koordinaten ist. Da alle drei beteiligten
Objekte wie Tensoren transformieren, gilt die Gleichung in jedem affinen Koordinatensystem.
Das haben wir gerade verwendet, um die Bewegungsgleichungen für einen zusammengesetzten
harmonischen Oszillator zu entkoppeln
Um die Bewegungsgleichungen für ein gegebenes mechanisches System aufstellen und lösen
zu können, genügt das jedoch meistens nicht. Wir müssen auch krummlinige Koordinatensysteme
verwenden. Das Zentralkraftproblem, und insbesondere das Keplersche Problem der Planetenbahnen, konnten wir zum Beispiel erst erfolgreich angehen, nachdem wir Kugelkoordinaten eingeführt hatten. In krummlinigen Koordinatensystem gilt jedoch die einfache Darstellung (11.30)
der Bewegungsgleichungen nicht mehr.
Zwar können wir die Massenmatrix Mµν auch in einem krummlinigen Koordinatensystem darstellen, wobei ihre Komponenten dann ortsabhängig werden. Um jedoch die Beschleunigung in
krummlinigen Koordinatensystemen darzustellen, benötigen wir eine kovariante Ableitung. Dies
hatten wir in Kapitel 10 und insbesondere in Aufgabe 10.26 gesehen. Es genügt nicht, einfach die
zweite Ableitung der Koordinatenfunktionen q µ (t) zu bilden.
Es stellt sich nun heraus, dass es sehr viel einfacher ist, die Gleichung (11.29) in ein krummliniges Koordinatensystem zu transformieren, als die scheinbar einfachere Gleichung (11.30). Wir
müssen dazu noch nicht einmal das Konzept der kovarianten Ableitung explizit verwenden, obwohl wir letztlich wieder eine solche bilden werden. Zudem ist das Ergebnis so allgemein, dass
wir von der kinetischen Energie noch nicht einmal annehmen müssen, dass sie homogen vom
Grad 2 ist, also quadratisch in den Geschwindigkeiten. Das wird sich später als nützlich erweisen, wenn wir sehr viel allgemeinere Bewegungsgleichungen betrachten.
Das Ziel ist nun, die Bewegungsgleichung (11.29) in einem krummlinigen Koordinatensystem
auf dem Konfigurationsraum Q darzustellen. Dazu sei weiterhin {q µ } ein affines Koordinatensystem, in dem die Gleichung in der angegebenen Form gelten soll. Die krummlinigen Koordinaten
bezeichnen wir mit {q α }. Oft nennt man diese auch verallgemeinerte oder generalisierte Koordinaten.
Die Unterscheidung zwischen den beiden Koordinatensystemen erfolgt, wie bisher auch, durch
zwei verschiedene Indexmengen. Für die affinen Koordinaten verwenden wir die Indizes µ, ν, . . .,
für die verallgemeinerten Koordinaten die Indizes α, β, . . .. Für ein N -Teilchen-System können
die Koordinaten q µ zum Beispiel die kartesischen Ortskoordinaten {x1 , y1 , z1 , . . . , xN , yN , zN }
der einzelnen Teilchen sein, und als verallgemeinerte Koordinaten q α können wir die Darstellun-
und alle anderen Komponenten sind jeweils Null. Man verifiziere, dass f ür diese Matrix das Transformationsverhalten für einen Tensor der Stufe (0, 2) gilt, also
Mαβ =
∂q µ ∂q ν
Mµν ,
∂q α ∂q β
(11.28)
wieder mit µ ∈ {1, 2} und α ∈ {+, −}.
Aufgabe 11.9 In Abbildung 11.1(a) stehen die Koordinatenachsen senkrecht aufeinander, in Abbildung 11.1(b) nicht. Hat dieser Umstand irgendeine Bedeutung?
Aufgabe 11.10 Ist in Abbildung 11.1 m1 oder m2 die größere Masse?
Verallgemeinerte Koordinaten
Wir kehren nun wieder zu der allgemeinen Situation zurück, die bei einem N -Teilchen-System
mit beliebigen Wechselwirkungen vorliegt. Die kinetische Energie T ist dann eine quadratische
Funktion der Geschwindigkeit q̇ ∈ TQ, und die Kraft ist ein dualer Vektor F ∈ T∗ Q, der
zunächst vom Ort q ∈ Q, der Geschwindigkeit q̇ ∈ TQ, und möglicherweise auch von der Zeit
t abhängt. Weitere Annahmen machen wir nicht. Insbesondere muss die Kraft nicht konservativ
sein.
Dann gelten, wie wir gezeigt haben, die Bewegungsgleichungen (11.11), also
d ∂T
= Fµ .
dt ∂ q̇ µ
(11.29)
Wir erinnern noch einmal daran, was die Notation bedeutet. Die linke Seite ist so zu verstehen,
dass wir zuerst die Funktion T als gewöhnliche Funktion der Komponenten q̇ µ der Geschwindigkeit betrachten, diese Funktion partiell ableiten, und dann die Bahn q(t) und ihre Ableitung q̇(t)
einsetzen. Dadurch wird der Ausdruck ∂T /∂ q̇ µ zu einer Funktion der Zeit, die wir dann wieder
nach t ableiten können.
Wir schreiben wie üblich die partiellen Ableitungen von Funktionen nach ihren Argumenten
mit einem geschwungenen ‘∂’. Dagegen ist die totale Zeitableitung ‘d/dt’ immer so zu verstehen,
dass wir den Ausdruck, auf den sie wirkt, entlang einer bestimmten Bahn q(t) auswerten, und
diese Funktion dann nach t ableiten. An dieser Stelle haben die Ableitungssymbole ‘∂’ und ‘d’
also wirklich unterschiedliche Bedeutungen.
Da dies im folgenden sehr wichtig ist, machen wir es uns noch einmal dadurch klar, dass wir
die Bewegungsgleichungen (11.29) etwas expliziter ausschreiben. Da die Funktion T und damit
auch die Ableitungen ∂T /∂ q̇ µ nur indirekt über q̇ µ (t) von der Zeit t abhängen, gilt natürlich die
Kettenregel, also
∂2T
∂ 2 T dq̇ ν
d ∂T = µ ν q̈ ν
µ =
µ
ν
dt ∂ q̇
∂ q̇ ∂ q̇ dt
∂ q̇ ∂ q̇
⇒
Mµν q̈ ν = Fµ .
(11.30)
32
gen derselben Orte in Kugelkoordinaten {r1 , ϑ1 , ϕ1 , . . . , rN , ϑN , ϕN } verwenden.
Die Umrechnung zwischen den beiden Koordinatensystemen erfolgt dadurch, dass wir die affinen Koordinaten q µ als Funktionen der verallgemeinerten Koordinaten q α darstellen. Um ein
möglichst allgemeines Ergebnis zu bekommen, lassen wir sogar zu, dass diese Funktionen explizit von der Zeit abhängen. Mit anderen Worten, wir können sogar zu jedem Zeitpunkt ein anderes
krummliniges Koordinatensystem verwenden. Die Übergangsfunktionen haben dann die Form
q µ = q µ {q α }, t .
(11.31)
In krummlinigen Koordinaten hängt die kinetische Energie vom den
Ortskoordinaten, den Komponenten der Geschwindigkeit und explizit von der
Zeit ab.
Am besten machen wir uns das wieder an einem Beispiel klar. Wir betrachten ein einzelnes Teilchen, das sich frei im Raum bewegt. Als affine Koordinaten q µ verwenden wir (x, y, z), und
als verallgemeinerte Koordinaten q α , um auch eine explizite Zeitabhängigkeit zu bekommen, rotierende Zylinderkoordinaten (r, ϕ, z). Die zeitabhängigen Übergangsfunktionen (11.31) sollen
explizit durch
x = r cos(ϕ − ω t),
y = r sin(ϕ − ω t)
(11.35)
Nun betrachten wir eine Bahn q(t) des Systems im Konfigurationsraum. In krummlinigen Koordinaten wird diese Bahn durch einen Satz von Funktionen q α (t) dargestellt. Folglich gilt für die
Darstellung derselben Bahn in affinen Koordinaten
q µ (t) = q µ {q α (t)}, t .
(11.32)
gegeben sein. Die Winkelgeschwindigkeit ω gibt an, wie schnell sich das Koordinatensystem
dreht. Die Koordinate z bleibt einfach unverändert. Sie spielt in den folgenden Überlegungen
keine Rolle. Wenn wir diese Gleichungen nach der Zeit t ableiten, finden wir
ẋ = ṙ cos(ϕ − ω t) − (ϕ̇ − ω) r sin(ϕ − ω t),
Wenn wir diese Gleichung nach der Zeit ableiten, finden wir die affinen Komponenten q̇ µ (t) der
Geschwindigkeit, ausgedrückt durch die verallgemeinerten Koordinaten q α (t) und deren Zeitableitungen q̇ α (t), den verallgemeinerten Geschwindigkeiten. Auf der rechten Seite müssen wir
dazu die partiellen Ableitungen der affinen Koordinaten nach den krummlinigen Koordinaten bilden, und zusätzlich die partielle Ableitung der Übergangsfunktionen nach der Zeit,
q̇ µ (t) =
α
∂q µ
∂q µ
α
{q α (t)}, t .
α {q (t)}, t q̇ (t) +
∂q
∂t
ẏ = ṙ sin(ϕ − ω t) + (ϕ̇ − ω) r cos(ϕ − ω t).
Das sind die explizit ausgeschriebenen Gleichungen (11.34) für dieses spezielle Beispiel. Die
rechten Seiten hängen nicht nur von den verallgemeinerten Geschwindigkeiten (ṙ, ϕ̇) ab, sondern
auch von den Koordinaten (r, ϕ) und sogar explizit von der Zeit t. Für die kinetische Energie
ergibt sich
1
1
T = m (ẋ2 + ẏ 2 + ż 2 ) = m (ṙ2 + r2 (ϕ̇ − ω)2 + ż 2 ).
(11.37)
2
2
Auch diese Funktion ist wieder quadratisch in den verallgemeinerten Geschwindigkeiten, aber sie
hängt zusätzlich von r ab, und sie enthält auch noch Terme, die proportional zu ω und ω 2 sind.
Das ist auch klar, denn die kinetische Energie eines Teilchens, dass in diesem Koordinatensystem
“ruht”, kreist ja in Wirklichkeit mit der Winkelgeschwindigkeit ω um den Ursprung.
(11.33)
Wir schreiben das etwas verkürzt in der Form
q̇ µ =
∂q µ α ∂q µ
q̇ +
.
∂q α
∂t
(11.36)
(11.34)
Der erste Term beschreibt wie üblich die Transformation eines Vektors von einem Koordinatensystem in ein anderes. Der zweite Term tritt auf, weil das krummlinige Koordinatensystem
zusätzlich von der Zeit abhängen kann. Wenn die Koordinaten q α (t) zeitlich konstant sind, so
bedeutet das nämlich nicht, dass die Teilchen ruhen, also die Konfiguration q(t) zeitlich konstant
ist.
Nun können wir die kinetische Energie T als Funktion der neuen Koordinaten ausdrücken.
Ursprünglich war T ({q̇ µ }) eine Funktion, die nur von den Komponenten q̇ µ der Geschwindigkeit
abhing. Da diese aber nun über (11.34) sowohl von den verallgemeinerten Geschwindigkeiten q̇ α
als auch von den verallgemeinerten Koordinaten q α und sogar der Zeit t abhängen, wird die
kinetische Energie jetzt zu einer Funktion T ({q α }, {q̇ α }, t).
Das ist letztlich nichts anderes als die weiter oben bereits gemachte Feststellung, dass die
Massenmatrix eines mechanischen Systems in krummlinigen Koordinaten ortsabhängig wird,
da es sich um die Darstellung eines Tensors in einem krummlinigen Koordinatensystem handelt. Da dieses Koordinatensystem zudem von der Zeit abhängt, ergibt sich zusätzlich noch eine
Zeitabhängigkeit.
Aufgabe 11.11 In welcher konkreten physikalischen Situation w ürde die Wahl eines solchen Koordinatensystems nahe liegen?
Aufgabe 11.12 Man ersetze in (11.35) ω t durch eine beliebige Funktion γ(t) und zeige, dass
sich dann auch eine explizit zeitabhängige Energiefunktion T ergibt.
Die d’Alembertschen Gleichungen
Wir wollen nun die Bewegungsgleichungen in krummlinigen Koordinaten darstellen. Da die kinetische Energie T ursprünglich nur eine Funktion der Geschwindigkeiten q̇ µ war, können wir die
partiellen Ableitungen von T nach q α und q̇ α durch die Ableitungen der ursprünglichen Funktion
T nach q̇ µ ausdrücken. Mit Hilfe der Kettenregel finden wir
∂T
∂T ∂ q̇ µ
∂T ∂q µ
.
α =
µ
α =
∂ q̇
∂ q̇ ∂ q̇
∂ q̇ µ ∂q α
33
(11.38)
Hier haben wir verwendet, dass aus (11.34) ∂ q̇ µ /∂ q̇ α = ∂q µ /∂q α folgt.
Die partiellen Ableitungen ∂q µ /∂q α , die in (11.38) vorkommen, sind die ortsabhängigen Übergangsmatrizen für die Koordinatentransformation von {q µ } nach {q α }. Wir haben also gezeigt,
dass sich die partiellen Ableitungen pα = ∂T /∂ q̇ α bzw. pµ = ∂T /∂ q̇ µ bei einer Koordinatentransformation wie die Komponenten eines dualen Vektors verhalten. Dies ist natürlich der
Impulsvektor p ∈ T∗ Q des Systems. Seine Komponenten pα bezüglich des krummlinigen Koordinatensystems werden auch als verallgemeinerte Impulse bezeichnet.
Die entsprechende Rechnung für die partiellen Ableitungen von T nach den Koordinaten q α ist
etwas komplizierter, da wir dazu die rechte Seite von (11.34) nochmal nach q α ableiten müssen.
Das ergibt
∂T ∂ q̇ µ
∂T ∂ 2 q µ
∂ 2 qµ ∂T
β
=
=
q̇
+
.
(11.39)
∂q α
∂ q̇ µ ∂q α
∂ q̇ µ ∂q α ∂q β
∂q α ∂t
Wenn wir nun dies und (11.42) in die Bewegungsgleichung (11.29) einsetzen, so lassen sich
diese schließlich wie folgt schreiben,
d’Alembertsche
Bewegungsgleichung
(11.40)
Auch das ist natürlich wieder so zu verstehen, dass wir zuerst die partiellen Ableitungen bilden,
dann eine Bahn q(t) einsetzen, die wir jetzt wahlweise durch die Koordinatenfunktionen q µ (t)
oder q α (t) darstellen können, und anschließend die totalen Zeitableitungen d/dt bilden.
Der erste Term in der Klammer ist genau der, den wir suchen, nämlich die linke Seite von
(11.29). Um den zweiten Term weiter umzuformen, benutzen wir, dass die affinen Koordinaten
q µ sowohl implizit über die krummlinigen Koordinaten als auch explizit von der Zeit abhängen.
Daher gilt
d ∂q µ
∂ 2 qµ
∂ 2 qµ
β
.
(11.41)
=
q̇
+
dt ∂q α
∂q α ∂t
∂q α ∂q β
d
dt
d
dt
Das ist aber genau der Ausdruck in der Klammer in (11.39). Wir finden also
d ∂T ∂q µ
d ∂T
∂T
.
α −
α =
dt ∂ q̇
∂q
dt ∂ q̇ µ ∂q α
(11.44)
Die in dieser Form dargestellten Bewegungsgleichungen für ein mechanisches System heißen d’Alembertsche Gleichungen. Bis auf den zusätzlichen Term auf der linken Seite, der die
Abhängigkeit der kinetischen Energie von den Koordinaten berücksichtigt, haben sie die gleiche
Form wie vorher die Gleichungen (11.29) in affinen Koordinaten. Und es gibt natürlich wieder
eine reelle Gleichung für jeden Freiheitsgrad des Systems.
Tatsächlich verschwindet der zusätzliche Term auf der linken Seite, wenn der Zusammenhang
zwischen q µ und q α affin und zeitunabhängig ist. Dann sind die neuen Geschwindigkeiten q̇ α
lineare Funktionen der alten Geschwindigkeiten q̇ µ , und somit hängt auch die kinetische Energie nur von q̇ α , aber nicht von q α ab. Die allgemeinere Form (11.44) gilt also auch für affine
Koordinatensysteme.
Um die Bewegungsgleichungen für ein spezielles mechanisches System auf diese Form zu
bringen, müssen wir nur zwei Dinge tun. Wir müssen die kinetische Energie T als Funktion der
verallgemeinerten Koordinaten und deren Zeitableitungen darstellen, und wir müssen dasselbe
mit der Kraft F tun. Bei der Kraft müssen wir zusätzlich beachten, dass es sich dabei um einen
dualen Vektor handelt. Wir müssen deshalb gemäß (11.43) den Index transformieren.
Um an unserem Beispiel von oben zu demonstrieren, dass die d’Alembertschen Gleichungen
tatsächlich die richtigen Bewegungsgleichungen sind, setzen wir für T die Funktion (11.37) ein.
Die Kraft soll der Einfachheit halber verschwinden, und wir setzen auch ω = 0. Das Zylinderkoordinatensystem soll also nicht rotieren. Dann ergeben sich nach einer kurzen Rechnung die
folgenden Bewegungsgleichungen
Wir wollen nun versuchen, die linke Seite der Gleichung (11.29) durch die krummlinigen Koordinaten auszudrücken. Als Ansatz bietet sich dazu an, die Zeitableitung von (11.38) zu bilden,
d ∂T ∂q µ d ∂T ∂q µ
∂T d ∂q µ d ∂T
.
α =
µ
α =
µ
α +
dt ∂ q̇
dt ∂ q̇ ∂q
dt ∂ q̇
∂q
∂ q̇ µ dt ∂q α
d ∂T
∂T
= Fα .
α −
dt ∂ q̇
∂q α
(11.42)
∂T
d
∂T
m ṙ − m r ϕ̇2 = 0,
−
=
∂ ṙ
∂r
dt
∂T
∂T
d
∂T
d
d ∂T
−
=
−
=
m r2 ϕ̇ = 0,
m ż = 0.
∂ ϕ̇
∂ϕ
dt
dt ∂ ż
∂z
dt
(11.45)
Das bemerkenswerte an diesem Beispiel ist, dass die beiden letzten Gleichungen ganz automatisch die entscheidenden Erhaltungssätze liefern, die wir benutzen können, um die Bewegungsgleichungen zu lösen. Es ist nämlich m ż = pz die Impulskomponente in z-Richtung, und
pϕ = m r2 ϕ̇ der Drehimpuls um die z-Achse. Beides sind natürlich für ein kräftefreies Teilchen
Erhaltungsgrößen.
Ebenfalls bemerkenswert ist, dass die Komponente pϕ = ∂T /∂ ϕ̇ des Impulses nach unserer neuen, allgemeinen Definition, wonach der Impuls die Ableitung der Energie nach der Geschwindigkeit ist, gerade der Drehimpuls ist, der einer Rotation in Richtung der Koordinaten ϕ
entspricht. Anscheinend passt sich der Begriff “Drehimpuls” sehr gut in dieses allgemeine Konzept ein. Darauf werden wir später aber noch im Detail eingehen.
Um das für die Bewegungsgleichung zu verwenden, multiplizieren wir diese mit der Übergangsmatrix ∂q µ /∂q α und setzen
∂q µ
Fα = α Fµ .
(11.43)
∂q
Die Größen Fα werden als verallgemeinerte Kräfte bezeichnet. Es sind die Komponenten des
Kraftvektors F ∈ T∗ Q, dargestellt in den krummlinigen Koordinaten. Die Gleichung (11.43)
beschreibt wieder das Transformationsverhalten eines dualen Vektors unter einer Koordinatentransformation.
34
Aufgabe 11.13 Man finde die allgemeine Lösung der Bewegungsgleichungen (11.45) und zeige,
dass sich in dem dargestellten Beispiel auch für ω 6= 0 aus den d’Alembertschen Gleichungen die
richtigen Bewegungsgleichungen für ein freies Teilchen ergeben.
Die d’Alembertschen Bewegungsgleichungen lauten jetzt
∂T
∂V
d ∂T
− α + α = 0.
dt ∂ q̇ α
∂q
∂q
Aufgabe 11.14 Welche physikalischen Dimensionen haben die verallgemeinerten Koordinaten
(r, ϕ, z) in dem gezeigten Beispiel? Welche physikalischen Dimensionen haben folglich die verallgemeinerten Impulse (pr , pϕ , pz ) und Kräfte (Fr , Fϕ , Fz ), wenn diese nicht gleich Null gesetzt
sind?
Da das Potenzial V nicht von der Geschwindigkeit abhängt, lässt sich das sogar noch einfacher
schreiben. Wir definieren eine Funktion
LagrangeFunktion
Aufgabe 11.15 Die kinetische Energie T sei eine homogene quadratische Funktion der verallgemeinerten Geschwindigkeiten q̇ α . Sie hänge nicht explizit von t, aber in irgendeiner Weise von
den verallgemeinerten Koordinaten q α ab. Man zeige, dass dann die zeitliche Änderung der kinetischen Energie durch die mechanische Leistung gegeben ist, die sich als Produkt von Kraft und
Geschwindigkeit ergibt,
dT
= F · q̇ = Fµ q̇ µ = Fα q̇ α .
(11.46)
dt
Warum kann die rechte Seite dieser Gleichung in jedem beliebigen Koordinatensystem ausgewertet werden?
Mit dieser Funktion können die d’Alembertschen Bewegungsgleichungen in einer sehr kompakten Form geschrieben werden, nämlich
LagrangeGleichung
d ∂L
∂L
− α = 0.
dt ∂ q̇ α
∂q
(11.51)
Die gesamte Dynamik eines mechanischen System wird somit durch eine einzige Funktion L
auf dem Konfigurationsraum beschrieben. Diese Funktion können wir in einem beliebigen Koordinatensystem darstellen, so dass die Lagrange-Gleichung (11.51) auch in jedem beliebigen
Koordinatensystem ausgewertet werden kann. Auch hier ergibt sich natürlich wieder eine reelle
Differenzialgleichung für jeden Freiheitsgrad, also für jeden Wert, den der Index α annehmen
kann.
Für die explizite Herleitung von Bewegungsgleichungen für mechanische System ist die
Lagrange-Funktion ein sehr effizientes Werkzeug. Wir wollen das am Beispiel des allgemeinen
Zentralkraftproblems demonstrieren. Ein Teilchen der Masse m befinde sich in einem Potenzial
V = V (r). Seine kinetische Energie, in Kugelkoordinaten ausgedrückt, ist
Die Lagrange-Funktion
Besonders einfach ist die Situation dann, wenn alle auftretenden Kräfte Potenzialkräfte sind. Dann
ist nämlich die Kraft der Gradient des Potenzials, und dann gilt natürlich in jedem Koordinatensystem, dass die Komponenten dieses dualen Vektors durch die partiellen Ableitungen nach den
Koordinaten gegeben sind. Explizit,
⇒
(11.50)
Die Lagrange-Funktion ist die Differenz von kinetischer und potenzieller Energie.
Die gerade durchgeführte Herleitung, bei der die Koordinaten q µ affin waren, ist also nur ein
Spezialfall von diesem allgemeinen Transformationsverhalten.
∂q µ
∂q µ ∂V
∂V
F α = α Fµ = − α
= − α.
∂q
∂q ∂q µ
∂q
L = T − V,
die auch wieder vom Ort, der Geschwindigkeit und eventuell explizit von der Zeit abhängt. Diese
Funktion heißt Lagrange-Funktion.
Aufgabe 11.16 Man zeige, dass sich die linke Seite der d’Alembertschen Gleichung wie ein dualer Vektor transformiert, und zwar beim Übergang von einem beliebigen krummlinigen Koordinatensystem zu einem beliebigen anderen. Man führe dazu einen zweiten Satz von krummlinigen
Koordinaten q µ ein, stelle diese als Funktionen von q α dar, und zeige
d ∂T
∂T
∂q µ d ∂T
∂T .
(11.47)
α −
α =
α
µ −
dt ∂ q̇
∂q
∂q
dt ∂ q̇
∂q µ
∂V
Fµ = − µ
∂q
(11.49)
T =
1
m ṙ2 + r2 ϑ̇2 + r2 sin2 ϑ ϕ̇2 .
2
(11.52)
Aufgabe 11.17 Wieso ergibt sich dieser Ausdruck unmittelbar aus der Darstellung (10.54) der
Euklidischen Metrik in Kugelkoordinaten?
(11.48)
Die Lagrange-Funktion für dieses System ist folglich
Das Potenzial kann dabei auch von t abhängen, und die Umrechnungsformel (11.48) gilt auch
dann, wenn die verallgemeinerten Koordinaten q α aus q µ durch eine zeitabhängige Transformation auseinander hervor gehen. In diesem Fall sind die Übergangsmatrizen ∂q µ /∂q α zwar
zeitabhängig, aber die Beziehung (11.48) gilt immer noch zu jedem Zeitpunkt.
L=T −V =
35
1
m ṙ2 + r2 ϑ̇2 + r2 sin2 ϑ ϕ̇2 − V (r).
2
(11.53)
L = L1 + L2 schreiben, wobei L1 nur von einem Teil der Koordinaten abhängt, und L2 nur
von den übrigen Koordinaten, so sind die beiden Sätze von Bewegungsgleichungen unabhängig
voneinander. Sie können unabhängig voneinander gelöst werden, so als würde es sich um zwei
voneinander getrennte mechanische System handeln.
Diese Funktion müssen wir jetzt nur noch in (11.51) einsetzen und die entsprechenden partiellen
Ableitungen bilden, um die Bewegungsgleichungen zu bekommen,
d
∂L ∂L
m ṙ − m r ϑ̇2 − m r sin2 ϑ ϕ̇2 + V 0 (r) = 0,
−
=
∂ ṙ
∂r
dt
d
∂L ∂L
=
m r2 ϑ̇ − m r2 sin ϑ cos ϑ ϕ̇2 = 0
−
∂ϑ
dt
∂ ϑ̇
d
d ∂L ∂L
m r2 sin2 ϑ ϕ̇ = 0.
−
=
dt ∂ ϕ̇ ∂ϕ
dt
d
dt
d
dt
Aufgabe 11.20 Man wende den Satz aus Aufgabe 11.19 auf ein System von zwei Teilchen an,
die sich frei im dreidimensionalen Raum bewegen und durch die Gravitationskraft anziehen. Welches sind hier die am besten geeigneten verallgemeinerten Koordinaten, in denen die LagrangeFunktion sogar in vier unabhängige Summanden zerfällt?
(11.54)
Kräfte und Potenziale
Aus der zweiten Gleichung entnehmen wir, dass diese für ϑ(t) = π/2 erfüllt ist. Es ist also
möglich, dass sich das Teilchen nur in der Äquatorebene aufhält. Tatsächlich genügt es dazu, die
Anfangsbedingungen ϑ(t0 ) = π/2 und ϑ̇(t0 ) = 0 zu wählen. Die erste und die dritte Gleichung
vereinfachen sich dann zu
d
m ṙ − m r ϕ̇2 + V 0 (r) = 0,
dt
d
m r2 ϕ̇ = 0.
dt
Die d’Alembertsche Formulierung der Bewegungsgleichungen können wir für jedes mechanische
System verwenden. Wir müssen nur, wenn wir ein krummliniges oder sogar zeitabhängiges Koordinatensystem verwenden, die Komponenten der Kräfte entsprechend in die verallgemeinerten
Kräfte umrechnen. Wir können dies tun, indem wir direkt die Teilchenkoordinaten r n,i bzw. die
Teilchenorte rn im dreidimensionalen Raum als Funktionen der krummlinigen Koordinaten q α
auf dem Konfigurationsraum darstellen, also
rn,i = rn,i {q α }, t
bzw. rn = rn {q α }, t .
(11.57)
(11.55)
Wir finden wieder die Drehimpulserhaltung pϕ = m r2 ϕ̇ = konst, und für die radiale Bewegungsgleichung können wir ein effektives Potenzial einführen,
m r̈ = −Ve 0 (r),
mit
pϕ2
Ve (r) = V (r) +
.
2 m r2
Hier ist n wieder der Teilchenindex, und i der Index für ein kartesisches Koordinatensystem im
dreidimensionalen Raum. Die verallgemeinerten Kräfte Fα ergeben sich dann aus der allgemeinen Formel (11.43), wobei wir die Summe über den Index µ aufspalten müssen in eine Summe
über die Teilchen n und eine Summe über die Vektorkomponenten i. Das ergibt
(11.56)
Was wir in Kapitel 8 erst durch mühsames Umrechnen der Koordinaten herleiten mussten, ergibt
sich hier ohne größeren Aufwand, indem wir einfach die Lagrange-Funktion in Kugelkoordinaten
darstellen.
Natürlich haben wir dafür schon ein wenig Vorarbeit geleistet, indem wir zum Beispiel die
Euklidische Metrik in Kugelkoordinaten dargestellt haben, so dass wir dies in (11.52) verwenden konnten. Trotzdem ist die Herleitung jetzt sehr viel einfacher. Denn wir haben hier nicht
nur, wie in Kapitel 8, die Bewegungsgleichungen für ein Teilchen in der Äquatorebene bekommen, sondern mit (11.54) auch die für ein Teilchen, das sich beliebig im Raum bewegt und eine
nicht verschwindende Geschwindigkeit ϑ̇ hat. Das wäre mit den Methoden in Kapitel 8 ungleich
schwieriger gewesen.
Fα =
X ∂rn,i
n
∂q
α
Fn,i =
X ∂rn
n
∂q α
· Fn .
(11.58)
Die Summe über den Vektorindex i können wir auch wieder als Skalarprodukt im Euklidischen
Raum schreiben. In dieser Form lassen sich die verallgemeinerten Kräfte oft am einfachsten berechnen.
Als Beispiel betrachten wir eine Reibungskraft als typisches Beispiel für eine Kraft, die sich
nicht aus einem Potenzial ableiten lässt. Das System bestehe aus nur einem Teilchen, und wir
benutzen Zylinderkoordinaten (r, ϕ, z). Der Ort des Teilchens ist dann
Aufgabe 11.18 Man zeige, dass der Ausdruck für pϕ = m r2 sin2 ϑ ϕ̇ in der letzten Gleichung
in (11.54) auch für ϑ 6= π/2 die z-Komponente des Drehimpulses des Teilchens ist.
r = o + r cos ϕ ex + +r sin ϕ ey , +z ez ,
(11.59)
wobei (ex , ey , ez ) eine Orthonormalbasis ist. Die kinetische Energie entnehmen wir aus (11.37),
indem wir dort ω = 0 setzen,
Aufgabe 11.19 Am Beispiel des gekoppelten harmonischen Oszillators von weiter oben, und
auch schon früher in Kapitel 6, hatten wir gesehen, dass eine nützlich Strategie zur Lösung
von Bewegungsgleichungen deren Entkoppelung ist. Man beweise folgenden allgemeinen Satz.
Lässt sich die Lagrange-Funktion eines mechanischen Systems als Summe von zwei Funktionen
T =
36
1
m (ṙ2 + r2 ϕ̇2 + ż 2 ).
2
(11.60)
Von der Kraft nehmen an, dass es sich um eine lineare Reibungskraft handelt. Sie soll proportional
zur Geschwindigkeit und ihr entgegengerichtet sein,
F = −η ṙ
Fα =
⇒
∂r
∂r
∂r ∂r
· F = −η α · ṙ = −η α · β q̇ β .
∂q α
∂q
∂q
∂q
Aufgabe 11.22 Man führe die gleiche Rechnung in Kugelkoordinaten aus. Welche verallgemeinerten Komponenten (Fr , Fϑ , Fϕ ) ergeben sich in diesem Fall für die die Reibungskraft?
Natürlich sind Zylinder- oder Kugelkoordinaten in diesem Fall nicht die am besten an das Problem
angepassten Koordinaten. Die Bewegungsgleichungen in kartesischen Koordinaten sind viel einfacher, da sie für eine lineare Reibungskraft unmittelbar entkoppeln. Wir können aber eine kleine
Variation an diesem Problem vornehmen, so dass das nicht mehr der Fall ist.
Das leicht veränderte Problem dient gleichzeitig als Beispiel für eine verallgemeinerte Form
der Bewegungsgleichungen, die sich als Kombination der d’Alembertschen und Lagrangeschen
Form ergibt. Da Kräfte additiv sind, können wir sie in konservative Kräfte und solche Kräfte
zerlegen, die sich nicht aus einem Potenzial ableiten lassen. Wir fassen dann alle konservativen Kräfte zu einem Potenzial V zusammen und definieren wie üblich eine Lagrange-Funktion
L = T − V. Dann müssen wir aber die nicht-konservativen Kräfte noch zusätzlich in die Bewegungsgleichungen aufnehmen, indem wir ihre verallgemeinerten Komponenten F α auf die rechte
Seite schreiben.
Als Kombination der Bewegungsgleichungen (11.44) und (11.51) ergibt sich dann
(11.61)
Die Summe über n in (11.58) ist hier trivial, da nur ein Teilchen vorhanden ist. Der letzte Ausdruck ergibt sich, indem wir die Geschwindigkeit ṙ mit Hilfe der Kettenregel als Funktion der
verallgemeinerten Geschwindigkeiten q̇ α ausdrücken. Die Skalarprodukte
gαβ =
∂r ∂r
∂ri ∂ri
∂ri ∂rj
·
= α β = α β δij
∂q α ∂q β
∂q ∂q
∂q ∂q
(11.62)
für α, β ∈ {r, ϕ, z} haben wir bereits einmal ausgerechnet. Das sind nämlich die Komponenten
der Metrik in Zylinderkoordinaten, die in kartesischen Koordinaten durch g ij = δij dargestellt
wird. Mit (10.49), um die Koordinate z ergänzt, ergibt sich
grr = 1,
gϕϕ = r2 ,
gzz = 1,
(11.63)
und alle anderen Komponenten sind gleich Null. Im Falle eines Ein-Teilchen-Systems wird
auf diese Weise natürlich auch auf dem Konfigurationsraum eine Metrik definiert, und diese
können wir in beliebigen krummlinigen Koordinatensystemen darstellen. Für die verallgemeinerten Kräfte ergibt sich daraus
Fα = −η gαβ q̇ β
⇒
Fr = −η ṙ,
Fϕ = −η r2 ϕ̇,
Fz = −η ż.
allgemeine
Bewegungsgleichung
L=T −V =
d
d
d
m ṙ = m r ϕ̇2 − η ṙ,
m r2 ϕ̇ = −η r2 ϕ̇,
m ż) = −η ż.
(11.65)
dt
dt
dt
Aufgabe 11.21 Man gebe die Lösung dieser Bewegungsgleichungen mit den Anfangsbedingungen
ṙ(0) = 0,
ϕ(0) = 0,
ϕ̇(0) = ω,
z(0) = 0,
ż(0) = v
(11.67)
Für V = 0 ist L = T , und es ergibt sich wieder die d’Alembertsche Formulierung. Für F α = 0
sind alle Kräfte konservativ, und es ergibt sich die Lagrangesche Formulierung.
Als Beispiel fügen wir zu unserem oben definierten Teilchen mit Reibungskraft ein Potenzial
V = V (r) hinzu, das nur vom Abstand von der z-Achse abhängen soll. In diesem Fall sind die
Zylinderkoordinaten etwas besser an das Problem angepasst, denn dann hängt das Potenzial nur
von einer Koordinate ab. Wir können uns als Realisierung eines solchen Systems ein elektrisch
geladenes Teilchen vorstellen, das sich in einem Medium, das eine Reibung verursacht, in der
Nähe eines geladenen Drahtes befindet.
Um die Bewegungsgleichungen in der Form (11.67) aufzuschreiben, müssen wir nur statt der
kinetischen Energie (11.60) die Lagrange-Funktion
(11.64)
Die verallgemeinerten Kräfte sind nicht einfach proportional zu den verallgemeinerten Geschwindigkeiten, sondern es tritt bei der ϕ-Komponente eine ortsabhängige Proportionalitätskonstante
auf. Dafür gibt es wieder eine einfache geometrische Erklärung. Die Kraft ist ein dualer Vektor, die Geschwindigkeit dagegen ein Vektor. Deshalb wird der Zusammenhang zwischen den
beiden durch die Metrik hergestellt, und deren Komponenten sind in krummlinigen Koordinaten
ortsabhängig.
Die linke Seite der d’Alembertschen Gleichung hatten wir bereits in (11.45) ausgerechnet. Auf
der rechten Seite steht jetzt die Kraft (11.64). Folglich ergeben sich für das Teilchen mit linearer
Reibung die Bewegungsgleichungen
r(0) = ρ,
d ∂L
∂L
= Fα .
α −
dt ∂ q̇
∂q α
1
m ṙ2 + r2 ϕ̇2 + ż 2 − V (r)
2
(11.68)
verwenden. Die Reibungskraft ist die gleiche wie vorher. Folglich ändert sich nur die Bewegungsgleichung für die Koordinate r, denn nur in sie geht die Ableitung des Potenzials ein. Es
genügt außerdem, nur die Bewegungsgleichungen für r und ϕ zu betrachten, da die Bewegung in
z-Richtung ohnehin entkoppelt,
(11.66)
d
m ṙ = m r ϕ̇2 − η ṙ − V 0 (r),
dt
an. Der Trick besteht auch hier darin, zuerst die Bewegungsgleichungen f ür den Drehimpuls
pϕ = m r2 ϕ̇ zu lösen. Es handelt sich zwar jetzt nicht mehr um eine Erhaltungsgr öße, aber
sie lässt sich dennoch lösen, und danach entkoppeln die übrigen Bewegungsgleichungen.
37
d
m r2 ϕ̇ = −η r2 ϕ̇.
dt
(11.69)
Aufgabe 11.23 Das Potenzial sei V (r) = κ r 2 /2, bewirke also eine lineare, rücktriebende Kraft.
Welche Lösung ergibt sich dann aus den Anfangsbedingungen (11.66)? Auch hier l ässt sie sich
wieder bestimmen, wenn man zuerst die unveränderte Bewegungsgleichung für den Drehimpuls
pϕ = m r2 ϕ̇ löst.
Alle drei Felder können zudem von der Zeit abhängen. Das ist offenbar die allgemeinste Funktion
L mit den verlangen Eigenschaften. Der spezielle Fall eines gewöhnlichen Teilchens der Masse m
in einem Potenzial V (r, t) ist darin enthalten. In diesem Fall müssen wir nur M ij (r, t) = m δij ,
Ai (r, t) = 0 und φ(r, t) = V (r, t) setzen.
Wie lauten nun die Bewegungsgleichungen, die sich aus (11.70) ergeben? Wir müssen dazu
nur die Gleichung (11.51) auswerten. Zunächst ist
Aufgabe 11.24 Es sei V (r) irgendeine monoton wachsende Funktion, so dass das Minimum des
Potenzials auf der z-Achse liegt. Man zeige, dass in diesem Fall jede Bewegung, unabh ängig von
den Anfangsbedingungen, früher oder später in der Nähe der z-Achse endet. Es gilt also r(t) → 0
für t → ∞.
∂L
= Mkj (r, t) ṙj + Ak (r, t).
∂ ṙk
Aufgabe 11.25 Man führe wieder die analogen Überlegungen in Kugelkoordinaten durch, wobei
das Potenzial in diesem Fall kugelsymmetrisch sein soll. Man zeige entsprechend, dass bei einem
monoton ansteigenden Potenzial V (r) das Teilchen stets in der N ähe des Ursprungs endet, also
auch hier r(t) → 0 für t → ∞ gilt.
Diese Größe müssen wir nach der Zeit ableiten, wobei wir jetzt beachten müssen, dass wir zuerst
für r eine Bahn r(t) einsetzen müssen, und dass wir zusätzlich die explizite Zeitabhängigkeit
der Felder Mij und Ai berücksichtigen müssen. Es genügt, den Ausdruck wie folgt teilweise mit
Hilfe der Kettenregel auszuwerten,
d
d ∂L
Mkj (r, t) ṙj + ∂i Ak (r, t) ṙi + ∂t Ak (r, t).
=
dt ∂ ṙk
dt
Die Lorentz-Kraft
Mit der Mischform (11.67) haben wir die allgemeinste Darstellung für die Bewegungsgleichungen eines mechanischen Systems in einem beliebigen krummlinigen Koordinatensystem angegeben. Wir wollen jetzt noch der Frage nachgehen, was das allgemeinste Kraftgesetz ist, das sich
allein aus einer Lagrange-Funktion ableiten lässt. Bisher hatten wir argumentiert, dass es dazu ein
Potenzial V geben muss, also eine Funktion des Ortes q ∈ Q, deren Gradient die Kraft ist.
Eine genauere Betrachtung zeigt jedoch, dass sich eine viel größere Klasse von Kräfte durch
eine Lagrange-Funktion beschreiben lässt. Interessanterweise sind es genau diejenigen Kräfte,
die wir als elektromagnetische Kräfte kennen. Das ist ein sehr bemerkenswerter Umstand, denn
es zeigt, dass es offenbar einen Zusammenhang zwischen der Lagrangeschen Formulierung der
Mechanik und anderen, fundamentalen physikalischen Theorien gibt.
Um herauszufinden, welche Arten von Kräften sich prinzipiell aus einer Lagrange-Funktion
ableiten lassen, betrachten wir irgendeine Funktion L, die ein Polynom vom Grad 2 in den Geschwindigkeiten ist, aber ansonsten beliebig vom Ort und der Zeit abhängt. Das ist natürlich noch
längst nicht die allgemeinste mögliche Lagrange-Funktion. Da aber für mechanische Systeme die
kinetische Energie immer eine quadratische Funktion der Geschwindigkeit ist, treten nur solche
Lagrange-Funktionen für physikalisch realistische Systeme auf.
Wir sind außerdem bescheiden und betrachten nur ein einzelnes Teilchen, also einen dreidimensionalen Konfigurationsraum, dessen Koordinaten wir mit ri bezeichnen. Dies seien die üblichen
kartesischen Koordinaten im Euklidischen Raum, so dass wir alle Indizes nach unten schreiben
können. Die Lagrange-Funktion lautet dann
L=
1
Mij (r, t) ṙi ṙj + Ai (r, t) ṙi − φ(r, t),
2
(11.71)
(11.72)
Als Abkürzungen haben wir hier ∂t für die partielle Ableitung ∂/∂t nach der Zeit verwendet, und
wie üblich ist ∂i die Ableitung ∂/∂ri nach den räumlichen Koordinaten.
Jetzt müssen wir noch den zweiten Term in der Bewegungsgleichung ausrechnen. Das ergibt
1
∂L
= ∂k Mij (r, t) ṙi ṙj + ∂k Ai (r, t) ṙi − ∂k φ(r, t).
∂rk
2
(11.73)
Wenn wir die Terme dann noch ein wenig ordnen, bekommen wir die Lagrange-Gleichung
1
d
Mkj ṙj − ∂k Mij ṙi ṙj = ∂k Ai − ∂i Ak ṙi − ∂k φ + ∂t Ak .
dt
2
(11.74)
Diese Gleichung können wir wie folgt interpretieren. Auf der linken Seite steht die Zeitableitung
des Impulses. Allerdings hängt der Impuls jetzt nicht mehr einfach nur linear mit der Geschwindigkeit zusammen, sondern über eine orts- und zeitabhängige Massenmatrix M ij .
Das ist etwas ungewöhnlich, aber zumindest im Prinzip können wir uns ja durchaus vorstellen, dass die Trägheit eines Teilchens keine feste Eigenschaft des Teilchen ist, sondern von Ort,
Zeit und sogar der Bewegungsrichtung im Raum abhängt. Genau dies wird durch die orts- und
zeitabhängige Massenmatrix Mij ausgedrückt, also durch den quadratischen Teil der LagrangeFunktion. Der zusätzliche Term auf der linken Seite ist derselbe, der sich auch in einem krummlinigen Koordinatensystem ergibt, wenn dort die Massenmatrix ortsabhängig ist.
Da die Kraft auf der rechten Seite der interessantere Aspekt der Bewegungsgleichung ist, setzen wir von nun an Mij = m δij , betrachten also ein “gewöhnliches” Teilchen mit der Masse m.
Auf der linken Seite der Bewegungsgleichung (11.74) steht dann m r̈ k , also Masse mal Beschleunigung. Die Kraft Fk auf der rechten Seite hängt aber immer noch vom Ort, der Geschwindigkeit
(11.70)
wobei Mij ein beliebiges symmetrisches Tensorfeld zweiter Stufe ist, Ai ein beliebiges Vektorfeld, und φ ein beliebiges skalares Feld, jeweils auf dem dreidimensionalen Euklidischen Raum.
38
Aufgabe 11.26 Aus der elementaren Elektrodynamik ist bekannt, dass sich die Felder E und B
nicht ändern, wenn wir die Potenziale φ und A wie folgt eichtransformieren,
und von der Zeit ab. Es ist also nicht einfach eine Potenzialkraft. Eine kurze Rechnung zeigt, dass
wir diese speziele Form einer Kraft bereits kennen. Definieren wir nämlich zwei neue Vektorfelder,
(11.75)
Bi = εijk ∂j Ak und Ei = ∂i φ + ∂t Ai ,
φ0 = φ −
dann gilt für die Kraft auf der rechten Seite von (11.74)
Fk = εkij ṙi Bj + Ek
oder F = ṙ × B + E.
q
1
m ṙ · ṙ + A(r, t) · ṙ − q φ(r, t)
2
c
(11.76)
L0 = L +
q
ṙ × B + q E,
c
mit B = ∇ × A,
E = −∇φ −
(11.77)
1
∂t A.
c
1
∂t B = 0,
c
∇ · B = 0.
q dΛ
c dt
(11.81)
Aufgabe 11.27 Man beweise folgenden allgemeinen Satz. Es sei L irgendeine LagrangeFunktion auf einem Konfigurationsraum Q, die nicht einmal quadratisch in den Geschwindigkeiten sein muss. Sie wird in einem beliebigen Koordinatensystem dargestellt als Funktion der
Ortskoordinaten q α , der Geschwindigkeiten q̇ α und der Zeit t. Eine zweite Lagrange-Funktion L0
sei definiert durch
dΛ
∂Λ
∂Λ
= L + α q̇ α +
,
(11.82)
L0 = L +
dt
∂q
∂t
(11.78)
Bemerkenswert an diesem Ergebnis ist nicht nur, dass die Lorentz-Kraft offenbar die allgemeinste Form einer Kraft ist, die sich für ein einzelnes Teilchen aus einer Lagrange-Funktion ableiten
lässt. Das eigentlich verblüffende ist, dass nur solche elektrische und magnetische Felder auftreten, die Lösungen der homogenen Maxwell-Gleichungen sind, für die also gilt
∇×E+
(11.80)
gegeben ist. Die Zeitableitung d/dt ist wie üblich so zu verstehen ist, dass wir die Funktion Λ erst
entlang einer Bahn auswerten, und das Ergebnis dann als Funktion von Ort und Geschwindigkeit
darstellen.
verwenden, um die Bewegungsgleichung mit den richtigen Konstanten zu bekommen, nämlich
m r̈ =
A0 = A + ∇Λ,
wobei Λ irgendeine Funktion von Ort und Zeit ist. Das ergibt sich auch durch Einsetzen unmittelbar aus (11.78). Die Lagrangefunktion L ändert sich jedoch, wenn wir diese Transformation
durchführen. Man zeige, dass die transformierte Funktion durch
Das ist die elektromagnetische Lorentz-Kraft. Nur die Ladungen und, je nach Wahl des Einheitensystems, die Lichtgeschwindigkeit fehlt in dieser Darstellung. Das lässt sich aber leicht beheben.
Hat das Teilchen eine Masse m und eine Ladung q, und verwenden wir das Gaußsche Maßsystem,
so müssen wir die Lagrange-Funktion
L=
1
∂t Λ,
c
wobei Λ irgendeine Funktion der Orte q α und der Zeit t ist. Dann ergeben sich aus L und L0
dieselben Bewegungsgleichungen (11.51). Verschiedene Lagrange-Funktionen L und L 0 führen
also auf die gleichen Bewegungsgleichungen, wenn sie sich nur um die totale Zeitableitung einer
Funktion Λ unterscheiden.
(11.79)
Denn genau diese Felder lassen sich durch ein elektrisches Potenzial φ und ein magnetisches
Vektorpotenzial A wie in (11.78) darstellen.
Es lassen sich also nicht nur Potenzialkräfte aus einer Lagrange-Funktion ableiten, sondern
auch geschwindigkeitsabhängige Kräfte, wenn sie die Form der Lorentz-Kraft haben. Dass dem
so ist, können wir an dieser Stelle nur feststellen. Dass es sich dabei um eine sehr tiefsinnige
Erkenntnis handelt, wird erst sehr viel später klar werden, wenn wir nämlich zeigen, dass sich
auch die Bewegungsgleichungen des elektromagnetischen Feldes, also die Maxwell-Gleichungen
aus einer Lagrange-Funktion ableiten lassen.
Dann wird sich diese Eigenschaft der Lorentz-Kraft nämlich als eine Konsistenzbedingung
ergeben, und es werden dabei auch die inhomogenen Maxwell-Gleichungen eine Rolle spielen.
Aber das geht natürlich zu weit über die klassische Mechanik hinaus, als das wir es an dieser
Stelle wirklich verstehen können. Wir werden uns im folgenden auf rein mechanische Systeme
beschränken, und im nächsten Kapitel den Umgang mit Lagrange-Funktion ausführlich üben.
39
12 Einfache mechanische Systeme
der äußeren Instanz vor, die die Länge einstellt. Zwangsbedingungen sind immer unabhängig
davon, welche Bewegungen ein System tatsächlich ausführt.
Wir bezeichnen eine solche Einschränkung der Bewegungsfreiheit eines mechanischen Systems als eine holonome Zwangsbedingung, was soviel wie “ganzheitliche” Zwangsbedingung
bedeutet. Es gibt noch andere Arten von Zwangsbedingungen, auf die wir später eingehen werden.
Eine besondere Stärke der d’Alembertschen oder Lagrangeschen Formulierung der Bewegungsgleichungen für mechanische Systeme liegt darin, dass sich Systeme mit Zwangsbedingungen
besonders elegant und einfach beschreiben lassen. Einige spezielle solche Systeme hatten wir
schon in Kapitel 5 diskutiert, dort jedoch mit den manchmal etwas schwerfälligen Newtonschen
Methoden.
Aufbauend auf den allgemeinen Überlegungen aus dem letzten Kapitel werden wir hier
zunächst eine Art Rezept für die Beschreibung von allgemeinen mechanischen Systemen entwickeln. Es besteht aus ein paar einfachen Grundregeln, nach denen wir im Prinzip für jedes
mechanische System in wenigen Schritten die Bewegungsgleichungen herleiten können. Um die
Effizienz dieses Verfahrens zu demonstrieren, werden wir es anschließend auf eine Reihe von
typischen mechanischen Systemen mit Zwangsbedingungen anwenden.
Bei den meisten derartigen Systemen geht es im wesentlichen darum, die richtige LagrangeFunktion zu bestimmen. Nach ein wenig Übung ist dies oft nur noch ein Ein- oder Zwei-ZeilenRechnung. Man entwickelt schließlich eine gewisse Intuition dafür, wie die Lagrange-Funktion
für ein gegebenes System aussehen muss, wenn dieses bestimmte physikalische Eigenschaften
hat. Später werden wir solche Eigenschaften noch etwas systematischer untersuchen. Dieses Kapitel soll hauptsächlich als Beispielsammlung dienen, auf die wir dann hin und wieder zurückgreifen können.
Eine holonome Zwangsbedingung wird durch eine skalare Funktion auf dem Konfigurationsraum eines mechanischen System definiert, die für alle physikalische m öglichen Konfigurationen verschwindet.
Ein System kann natürlich mehreren solcher Zwangsbedingungen unterliegen. Im allgemeinen
haben wir einen Satz von K ≥ 1 Zwangsbedingungen, die wir durch die Gleichungen
C k (q, t) = 0,
(12.2)
darstellen können. Die Systeme, die wir in Kapitel 5 studiert haben, zum Beispiel das Schienenfahrzeug, das Pendel oder die Hantel, waren alle von dieser Form. Dort waren die Zwangsbedingungen sogar immer unabhängig von der Zeit. Man kann sich aber leicht Verallgemeinerungen mit
zeitabhängigen Zwangsbedingungen vorstellen, wie etwa das Pendel mit veränderlicher Länge.
In einem mechanischen System mit Zwangsbedingungen treten Zwangskräfte auf, die dafür
sorgen, dass die gestellten Bedingungen auch tatsächlich erfüllt werden. Früher hatten wir argumentiert, dass diese Kräfte stets senkrecht zu den möglichen Bewegungsrichtungen wirken
müssen, da sie sonst das System quasi “von selbst” in Bewegung setzen könnten. Die Begründung
beruhte jedoch eher auf einer gewissen physikalischer Intuition als auf einem mathematischen
Beweis.
Einen solchen Beweis kann es natürlich auch nicht geben. Denn letztlich handelt es sich um
einen speziellen Aspekt einer physikalischen Theorie. Es ist eine Beobachtung, dass Zwangsbedingungen nicht dazu führen, dass sich ein Pendel von selbst in Bewegung setzt, oder dass ein
Schienenfahrzeug nur aufgrund der Tatsache, dass es ein solches ist, von selbst bergauf fährt. Wir
können diese spezielle Eigenschaft von Zwangskräften nicht beweisen. Aber wir können sie nun
ein wenig besser begründen.
Wir schreiben zunächst die d’Alembertschen Bewegungsgleichungen auf, wie sie für jedes
mechanische System gelten. Wir verwenden dazu beliebige, verallgemeinerte Koordinaten q µ
auf dem Konfigurationsraum. Allerdings spalten wir die Kräfte jetzt in Zwangskr äfte Zµ und
dynamische Kräfte Fµ auf, also
Holonome Zwangbedingungen
Wir wollen zunächst kurz wiederholen, was wir unter einer Zwangsbedingung und einer Zwangskraft verstehen. Auch dies lässt sich mit dem Konzept des Konfigurationsraumes besonders elegant darstellen.
Eine Zwangsbedingung ist eine Einschränkung der physikalisch möglichen Konfigurationen
eines mechanischen Systems. Ein typisches Beispiel dafür ist ein Pendel, bei dem sich ein Teilchen nur auf einer Kugeloberfläche mit einem vorgegebenen Radius bewegen kann. Eine solche
Bedingung wird durch eine Gleichung C(q, t) = 0 auf dem Konfigurationsraum dargestellt. Sie
kann auch explizit von der Zeit abhängen. So können wir zum Beispiel bei einem Pendel die
Länge ` der Pendelschnur “von außen” in einer vorgegebenen Art und Weise als Funktion der
Zeit ändern. In diesem Fall würde die Zwangsbedingung lauten
C(q, t) = x2 + y 2 + z 2 − `(t)2 = r2 − `(t)2 = 0.
mit k ∈ {1, . . . , K},
(12.1)
Hier haben wir dieselbe Funktion C(q, t) auf dem Konfigurationsraum einmal in kartesischen
Koordinaten (x, y, z) und einmal in Kugelkoordinaten (r, ϑ, ϕ) dargestellt.
Die Funktion `(t) ist in diesem Fall fest vorgegeben. Wir legen die Länge der Pendelschnur
unabhängig davon fest, welche Bewegungen das Pendel ausführt. Sonst würde es sich nicht um
eine Zwangsbedingung handeln, sondern es läge eine Wechselwirkung zwischen dem Pendel und
d ∂T
∂T
= Fµ + Zµ .
µ −
dt ∂ q̇
∂q µ
(12.3)
Unter den dynamischen Kräften Fµ verstehen wir diejenigen Kräfte, die wir als Funktionen der
Orte und Geschwindigkeiten der Teilchen explizit angeben können. Dies umfasst sowohl die
40
C in jede Richtung weg von der Nullstellenmenge linear ansteigt oder abfällt. Ohne diese Voraussetzung könnten wir die Zwangskraft nicht auf diese Weise darstellen.
Wechselwirkungen der Teilchen untereinander als auch die möglicherweise von außen einwirkenden Kräfte. Die Zwangskräfte Zµ sind dagegen diejenigen Kräfte, von denen wir nur wissen,
was sie bewirken, aber uns nicht damit auseinandersetzen wollen oder können, wie sie entstehen.
Das Ziel ist es, diese unbekannten Kräfte aus dem Gleichungssystem (12.3) zu eliminieren.
Betrachten wir zuerst den Fall, dass nur eine einzige Zwangsbedingung C(q, t) = 0 vorliegt.
Wir können in diesem Fall die Zwangskraft Zµ als Grenzfall einer Potenzialkraft ansehen. Wir
stellen uns vor, dass ein sehr hohes und steiles Potenzial das System daran hindert, sich von dem
Unterraum des Konfigurationsraumes zu entfernen, in dem C(q, t) = 0 ist. Ein solches Potenzial
ist durch
1
V(q, t) = Λ C(q, t)2
(12.4)
2
gegeben, wobei Λ eine große Zahl sein soll. Sie muss natürlich die richtige physikalische Dimension haben, damit V eine Energie ist. Das Potenzial bewirkt eine rücktreibende Kraft
Zµ (q, t) = −
∂V(q, t)
∂C(q, t)
= −Λ C(q, t)
.
µ
∂q
∂q µ
Aufgabe 12.1 Davon abgesehen haben wir bei der Formulierung der Zwangsbedingungen aber
eine gewisse Freiheit. Es seien C und C˜ zwei Funktionen auf Q, die dieselbe Nullstellenmenge haben, und deren Gradienten auf dieser Nullstellenmenge nirgendwo verschwinden. Man zeige, dass
dann die Gradienten beider Funktion zumindest auf der Nullstellenmenge in dieselbe Richtung
˜ µ ∝ ∂C/∂q µ überall dort, wo C = 0 und C˜ = 0 ist.
zeigen. Es gilt ∂ C/∂q
Das ganze lässt sich leicht auf ein System von mehreren Zwangsbedingungen erweitern. Wir betrachten dann einfach ein Potenzial, das das System zwingt, alle Zwangsbedingungen zu erfüllen,
zum Beispiel
V(q, t) =
(12.5)
1 X
Λkl C k (q, t) C l (q, t)
2
k,l
⇒
Zµ (q, t) = −
X
kl
Λkl C k (q, t)
∂C l (q, t)
. (12.6)
∂q µ
Hier ist Λkl irgendeine symmetrische, positive K×K-Matrix, deren Einträge wir so wählen, dass
alle Summanden die Dimension einer Energie haben. Das Potenzial V ist dann überall dort positiv,
wo mindestens eine Zwangsbedingung nicht Null ist, und Null genau dort, wo alle Zwangsbedingungen erfüllt sind.
Lassen wir nun die Einträge der Matrix Λkl , oder zumindest deren Eigenwerte gegen Unendlich
gehen, so wird das System wieder gezwungen, die Zwangsbedingungen zu erfüllen. Denn das
Potenzial bleibt nur dort endlich, wo alle Zwangsbedingungen erfüllt sind. Die dann wirkende
Zwangskraft ist eine Linearkombination der Gradienten ∂C k /∂q µ . Wir schreiben dafür
Sie zeigt in Richtung des Gradienten der Funktion C(q, t) im Konfigurationsraum. Die
Zeitabhängigkeit spielt dabei keine Rolle. Sie bewirkt nur, dass zu unterschiedlichen Zeiten am
selben Ort im Konfigurationsraum unterschiedliche Kräfte wirken.
Was passiert nun, wenn wir den Grenzwert Λ → ∞ bilden? Das Potenzial wird dann unendlich
hoch, außer dort, wo C(q, t) = 0 ist. Das System, das immer nur eine endliche Energie besitzt,
wird gezwungen, sich dort aufzuhalten. Die Zwangskraft stellt sich dabei so ein, dass sie endlich
bliebt, denn trotz der Zwangsbedingung erfahren die einzelnen Teilchen ja nur endliche Beschleunigungen. Während Λ wächst, geht der Faktor C(q, t) gegen Null, denn das System wird immer
stärker gezwungen, in der Nähe des erlaubten Unterraumes zu bleiben. Es bliebt schließlich im
Grenzfall ein Ausdruck für die Zwangskraft, dessen Betrag wir nicht kennen. Denn dieser ergibt
sich aus dem Grenzwert des Produktes Λ C(q, t), und der hängt von der tatsächlich realisierten
Bewegung ab. Aber wir kennen die Richtung dieser Kraft. Sie zeigt in Richtung des Gradienten
der Funktion C(q, t) im Konfigurationsraum.
Aus der realistischen Annahme, dass eine Zwangskraft in Wirklichkeit eine sehr starke Potenzialkraft ist, folgt also, dass sie stets in die Richtung des Gradienten der Zwangsbedingung
zeigt. Auch hier geht wieder die Eigenschaft ein, dass die Kraft ein dualer Vektor auf dem Konfigurationsraum ist. Denn sonst würde eine solche Aussage keinen Sinn ergeben. Nur bei einem Ein-Teilchen-System, dessen Konfigurationsraum mit dem dreidimensionalen Euklidischen
Raum identisch ist, ist sie äquivalent zu der Aussage, dass die Zwangskraft auf den möglichen
Bewegungsrichtungen senkrecht steht, denn nur dann steht uns immer eine Metrik zur Verfügung.
Eine wesentliche Voraussetzung bei dieser Überlegung ist, dass der Gradient ∂C/∂q µ überall
dort, wo C = 0 ist, nicht verschwindet. Das ist die Analogie zu der Eigenschaft einer gewöhnlichen reellen Funktion von einer Variablen, eine einfache Nullstelle zu haben, also eine Nullstelle,
an der nicht gleichzeitig ihre Ableitung verschwindet. Anschaulich heißt das, dass die Funktion
Zµ = −
X
k
λk
∂C k
.
∂q µ
(12.7)
Die unbekannten Koeffizienten λk werden Lagrange-Multiplikatoren genannt. Sie werden erst
durch die tatsächlich realisierte Bewegung des Systems bestimmt und hängen dann natürlich auch
von der Zeit ab.
Auch hier setzen wir wieder voraus, dass sich jede mögliche Zwangskraft so darstellen lässt.
Das ist genau dann der Fall, wenn die Gradienten X kµ = ∂C k /∂q µ einen Satz von K linear unabhängigen dualen Vektoren bilden, und zwar an jeder Stelle der gemeinsamen Nullstellenmenge
der Funktionen C k . Anschaulich heißt das wieder, dass in jede Richtung weg von der Nullstellenmenge mindestens eine der Zwangsbedingungen linear ansteigt. Nun unter dieser Voraussetzung
wird durch das Potenzial (12.6) in jede Richtung eine lineare rücktriebende Kraft erzeugt.
Wenn wir das hier beschriebene Verfahren anwenden wollen, müssen wir die Zwangsbedingungen also immer so formulieren, dass ihre Gradienten zumindest auf der Nullstellenmenge linear
unabhängig sind. Beim Pendel ist dies der Fall. Der Gradient Xµ = ∂C/∂q µ von (12.1) ist in kartesischen Koordinaten Xx = 2 x, Xy = 2 y und Xz = 2 z, oder in Kugelkoordinaten Xr = 2 r,
41
e
und natürlich ist die Zwangsbedingung ∂ L/∂λ
= x2 + y 2 + z 2 − `2 = 0 zu erfüllen. Wir müssen
also ein System von vier Gleichungen für die vier Funktionen x(t), y(t), z(t) und λ(t) lösen. Auf
diese Weise hatten wir die Bewegungen des Pendels in Kapitel 5 studiert.
Etwas einfacher geht es, wenn wir von Anfang an Kugelkoordinaten verwenden. In diesem Fall
ist die kinetische Energie durch den Ausdruck (11.52) gegeben, und für die erweitere LagrangeFunktion ergibt sich
Xϑ = 0 und Xϕ = 0. Auf der Nullstellenmenge, also für r = `, ist er nicht Null. Außerdem
sehen wir, dass der Gradient tatsächlich die Richtung der Zwangskraft angibt, die in diesem Fall
in radiale Richtung wirkt, und zwar unabhängig davon, ob die Pendellänge ` konstant ist oder
zeitlich variiert.
Um die Bahn des Systems zu bestimmen, müssen wir neben den 3 N Koordinatenfunktionen
q µ (t), die die eigentliche Bahn des Systems beschreiben, nun auch die Lagrange-Multiplikatoren
λk (t) bestimmen. Das sind K zusätzliche Funktionen der Zeit. Dafür haben wir aber auch K
zusätzliche Gleichungen, nämlich die Zwangsbedingungen. Tatsächlich ergibt sich aus diesen
und den d’Alembertschen Bewegungsgleichungen jetzt ein System von 3 N + K unabhängigen
Gleichungen für ebenso viele Funktionen. Sie lauten
X
d ∂T
∂C k
∂T
λk µ ,
µ −
µ = Fµ −
dt ∂ q̇
∂q
∂q
k
C k = 0.
m 2
ṙ + r2 ϑ̇2 + r2 sin2 ϑ ϕ̇2 + m g r cos ϑ − λ (r 2 − `2 ).
Le = T − V − λ C =
2
Analog zu (11.54) finden wir jetzt die Bewegungsgleichungen
d ∂ Le
−
dt ∂ ṙ
d ∂ Le
−
dt ∂ ϑ̇
d ∂ Le
−
dt ∂ ϕ̇
(12.8)
Wenn die dynamischen Kräfte Fµ = −∂V/∂q µ Potenzialkräfte sind, lassen sich auch diese
Gleichungen wieder besonders elegant schreiben. Wir definieren dazu eine erweiterte LagrangeFunktion, in die auch die Zwangsbedingungen eingehen, und zwar jeweils multipliziert mit ihren
Lagrange-Multiplikatoren. Das erklärt im übrigen auch die Bezeichnung “Multiplikator”. Wir
setzen also
X
λk C k .
(12.9)
Le = T − V −
Auch hier ist wieder die gesamte Dynamik des Systems in einer einzigen Funktion zusammengefasst. Die Bewegungsgleichungen (12.8) lauten nämlich nun
∂ Le
= 0.
∂λk
(12.10)
Zusätzlich zu den bereits bekannten Langrangeschen Bewegungsgleichungen müssen die partiellen Ableitungen von Le nach den Multiplikatoren verschwinden. Auf diese Weise werden dem
System die Zwangsbedingungen auferlegt.
Um eines der Standardbeispiele aus Kapitel 5 zu reproduzieren, betrachten wir das Pendel im
Schwerefeld. Die Pendellänge ` soll jetzt konstant sein. Die dynamischen Kräfte sind in diesem
Fall Potenzialkräfte. Zunächst verwenden wir kartesische Koordinaten (x, y, z). Dann ist die erweiterte Lagrange-Funktion durch
m 2
ẋ + ẏ 2 + ż 2 − m g z − λ x2 + y 2 + z 2 − `2
Le = T − V − λ C =
2
(12.11)
gegeben. Die Bewegungsgleichungen (12.10) lauten demnach
d
m ẋ + 2 λ x = 0,
dt
d
m ẏ + 2 λ y = 0,
dt
∂ Le
d
m ṙ − m r ϑ̇2 − m r sin2 ϑ ϕ̇2 − m g cos ϑ + 2 r λ = 0,
=
∂r
dt
∂ Le
d
m r2 ϑ̇ − m r2 sin ϑ cos ϑ ϕ̇2 + m g r sin ϑ = 0,
=
∂ϑ
dt
∂ Le
d
=
m r2 sin2 ϑ ϕ̇ = 0.
∂ϕ
dt
(12.14)
Auf den ersten Blick sieht das sehr viel komplizierter aus als (12.12). Betrachten wir aber die
einzelnen Gleichungen, so stellen wir fest, dass die Hilfsfunktion λ nur noch in der ersten Gleichung auftritt. Zudem können wir in alle drei Gleichungen unmittelbar die Lösung der vierten
e
Gleichung, also der Zwangsbedingung ∂ L/∂λ
= r2 − `2 = 0 einsetzen. Mit r(t) = ` lauten die Bewegungsgleichungen für die Winkelkoordinaten, wenn wir noch die Ableitungen d/dt
ausführen,
g
ϕ̈ + 2 cot ϑ ϑ̇ ϕ̇ = 0.
(12.15)
ϑ̈ − sin ϑ cos ϑ ϕ̇2 = − sin ϑ,
`
Das sind die Pendelgleichungen (5.45). Wir bekommen also dasselbe Ergebnis wie in Kapitel 5,
nachdem wir dort die Zwangskräfte aus den Bewegungsgleichungen eliminiert hatten. Die zusätzliche Bewegungsgleichung für die Koordinate r, also die erste Gleichung in (12.14), ist eigentlich
keine Bewegungsgleichung. Sie liefert nur die Hilfsgröße λ als Funktion der anderen Koordinaten
und deren Zeitableitungen. Sie ist nur dann von Interesse, wenn wir explizit wissen wollen, wie
stark die Zwangskraft ist, die auf das Pendel wirkt. Ihre einzige nicht verschwindende Komponente ist
∂C
= −2 r λ = −m `2 ϑ̇2 + sin2 ϑ ϕ̇2 − m g cos ϑ.
(12.16)
Zr = −λ
∂r
Auch diese Kraft hatten wir in Kapitel 5 bereits ausgerechnet. Sie setzt sich zusammen aus der
nach innen gerichteten Zentripetalkraft, die zum Quadrat der Geschwindigkeit proportional ist,
und der Komponente der Gravitationskraft in Richtung der Pendelstange, die durch die Zwangskraft ausgeglichen werden muss.
k
d ∂ Le
∂ Le
= 0,
µ −
dt ∂ q̇
∂q µ
(12.13)
d
m ż + 2 λ z + m g = 0, (12.12)
dt
42
q3
Aufgabe 12.2 Man führe die gleichen Überlegungen für die Hantel aus Abbildung 5.3(b) durch.
Was sind hier die geeigneten verallgemeinerten Koordinaten auf dem sechsdimensionalen Konfigurationsraum?
Q
q2
Fα
q1
Zµ
Der reduzierte Konfigurationsraum
Holonome Zwangsbedingungen lassen sich im Prinzip immer auf die gerade gezeigte Art und
Weise auflösen. Durch geschickte Wahl der Koordinaten kann die Zahl der zu lösenden Bewegungsgleichungen reduziert werden, wobei die Multiplikatoren in diesen Gleichungen gar nicht
mehr vorkommen.
Die Idee ist kurz gefasst die folgende. Da wir ohnehin schon wissen, dass sich das System
nur eingeschränkt bewegen kann, sollte es möglich sein, dies bereits beim Aufstellen der Bewegungsgleichungen zu berücksichtigen. Wir sollten von Anfang an überhaupt nur solche Bahnen
zulassen, die auch realisierbar sind, anstatt erst alle Bahnen im Konfigurationsraum zu betrachten,
um aus dieser, eigentlich viel zu großen Menge dann mit Hilfe der Bewegungsgleichungen die
tatsächlich realisierten Bahnen herauszusuchen.
In Abbildung 12.1(a) ist der Konfigurationsraum eines mechanischen Systems dargestellt, vere und nennen ihn den
sehen mit einem Koordinatensystem {q µ }. Wir bezeichnen ihn hier mit Q
erweiterten Konfigurationsraum, da er mehr Konfigurationen enthält als tatsächlich realisiert werden können. Die Zwangsbedingungen definieren zu jedem Zeitpunkt t einen Unterraum
(a)
χα (t)
χ2
χ1
(b)
Abbildung 12.1: Durch eine zeitunabhängige Zwangsbedingungen C = 0 wird ein Unterraum
Q des erweiterten Konfigurationsraumes Q definiert, der alle physikalische möglichen Konfigurationen enthält (a). Wirken auf das System dynamische Kräfte Fµ , so stellen sich die Zwangskräfte Zµ so ein, dass das System in Q verbleibt. Um die Bewegungsgleichungen aufzustellen,
genügt es, nur solche Bahnen zu betrachten, die ganz in Q liegen. Dazu führt man ein reduziertes Koordinatensystem {χα } auf Q ein (b). Man muss dann nur noch die Komponenten Fα der
dynamischen Kräfte kennen, um die Bewegungsgleichungen zu formulieren
C k (q, t) = 0 }.
Q
C=0
Fµ + Z µ
q µ (t)
Aufgabe 12.3 Was passiert, wenn wir in (12.11) die Zwangsbedingung C = x 2 + y 2 + z 2 − `2
durch C = (x2 +y 2 +z 2 −`2 )2 ersetzen? Sie hat offenbar die gleiche Nullstellenmenge, beschreibt
also die gleiche physikalische Einschränkung der möglichen Konfigurationen. Warum ergeben
sich trotzdem nicht die richtigen Bewegungsgleichungen?
e
Qt = { q ∈ Q,
ζ
Fµ
gekoppeltes System von Differenzialgleichungen für die Koordinaten q µ (t) und die LagrangeMultiplikatoren λk (t) bilden, löst man auf diese Weise quasi in einem Schritt sowohl die Zwangsbedingungen als auch die eigentlichen Bewegungsgleichungen, und man bekommt zudem noch
die Zwangskräfte geliefert.
Eine Alternative besteht nun darin, Schritt für Schritt vorzugehen. Man löst zuerst die Zwangsbedingungen, anschließend die Bewegungsgleichungen, und zuletzt verschafft man sich Informationen über die auftretenden Zwangskräfte, wenn dies erforderlich ist. In den meisten praktischen
Fällen, und insbesondere dann, wenn die genaue Kenntnis der Zwangskräfte nicht erforderlich
ist, ist dieses Vorgehen sehr viel effizienter.
Der Trick besteht im wesentlichen darin, ein an die Zwangsbedingungen angepasstes Koordinatensystem zu verwenden. Entscheidend ist dabei, dass die vorangegangenen Überlegungen für beliebige, also insbesondere für krummlinige und zeitabhängige Koordinatensysteme gelten. Sobald
wir ein speziell angepasstes Koordinatensystem definiert haben, zerfallen die d’Alembertschen
oder Lagrangeschen Gleichungen ganz von selbst in drei unabhängige Gleichungssysteme. Das
erste besteht aus den Zwangsbedingungen, die dann trivial sind. Das zweite Gleichungssystem
enthält die eigentlichen Bewegungsgleichungen. Und aus dem dritten Gleichungssystem ergeben
sich die Zwangskräfte.
Die Konstruktion des angepassten Koordinatensystems ist in Abbildung 12.1(b) skizziert. Sie
erfolgt analog zu den Kugelkoordinaten für das Pendel. Der erste Schritt besteht darin, ein Ko-
(12.17)
Dieser Unterraum enthält alle zur Zeit t realisierbaren Konfigurationen. Wir nennen ihn den physikalischen oder reduzierten Konfigurationsraum. In der Abbildung 12.1(a) ist der einfache Fall
darstellt, dass die Zwangsbedingungen zeitunabhängig sind. Dann hängt Q t = Q nicht von der
Zeit ab, und jede möglich Bahn des Systems liegt ganz in Q.
Handelt es sich um ein System von N Teilchen und liegen K Zwangsbedingungen vor, so hat
der reduzierte Konfigurationsraum die Dimension 3 N − K. Das System hat in Wirklichkeit nur
3 N − K Freiheitsgrade. Es kann sich von jedem Punkt des reduzierten Konfigurationsraumes nur
in 3 N − K Richtungen bewegen, weil die restlichen K Richtungen durch die Zwangsbedingungen eingeschränkt sind. Wirkt auf das System eine Kraft in irgendeine Richtung, so stellt sich die
Zwangskraft immer so ein, dass das System innerhalb von Qt verbleibt.
Das ist die anschauliche Beschreibung dessen, was den d’Alembertschen oder Langrangeschen Bewegungsgleichungen (12.8) bzw. (12.10) zu Grunde liegt. Da diese Gleichungen ein
43
ordinatensystem {χα } auf dem physikalischen Konfigurationsraum Qt einzuführen. Der Index
α läuft dabei von 1 bis 3 N − K, oder nimmt Werte aus irgendeiner Indexmenge mit 3 N − K
Elementen an. Beim Pendel sind dies die Winkelkoordinaten (ϑ, ϕ), mit denen wir jeden Punkt
auf der Kugeloberfläche identifizieren, also jede physikalisch mögliche Konfiguration des Pendels
erfassen können.
Wir finden solche Koordinaten, indem wir die Zwangsbedingungen “auflösen”. Die Zwangsbedingungen C k ({q µ }, t) = 0 sind K Gleichungen für 3 N Unbekannte, nämlich die ursprünglichen
Koordinaten q µ auf Q. Wenn wir annehmen, dass die Gleichungen genügend regulär sind, dann
lässt sich die Lösungsmenge zu jeder Zeit t durch 3 N − K Parameter darstellen. Diese Parameter bezeichnen wir mit χα , und wir betrachten sie als Koordinaten auf dem physikalischen
Konfigurationsraum Qt . Jede tatsächlich realisierbare Konfiguration wird dann durch die Angabe ihrer Koordinaten χα identifiziert, und folglich können wir jede realisierbare Bahn durch die
Koordinatenfunktion χα (t) vollständig beschreiben.
Da es sich im allgemeinen um krummlinige Koordinaten handelt, wird es jedoch nicht immer möglich sein, ein Koordinatensystem zu finden, das den ganzen physikalischen Konfigurationsraum abdeckt und jedem Punkt eindeutig einen Satz von Koordinaten zuordnet. Die für das
Pendel verwendeten Kugelkoordinaten sind zum Beispiel an den Polen, also den beiden Gleichgewichtslagen des Pendels nicht wohldefiniert. Es genügt aber für die folgenden Überlegungen,
dass zumindest ein Teil von Q durch ein solches Koordinatensystem abgedeckt wird. Wir beschränken uns dann zunächst auf Bewegungen, die in dieser Teilmenge stattfinden. Im nächsten
Kapitel werden wir uns ein wenig ausführlicher mit diesem Problem beschäftigen und zeigen, wir
man es umgehen kann.
In Abbildung 12.1(b) sind die Koordinatenlinien von χα auf dem Unterraum Q = Qt eingee ergänzen. Wir fügen noch
zeichnet. Wir können sie wie folgt zu einem Koordinatensystem von Q
K zusätzliche Koordinaten ζ l hinzu, so dass der reduzierte Konfigurationsraum Qt die Koordinatenfläche ζ l = 0 ist. Die Koordinatenlinien der zusätzlichen Koordinaten ζ l zeigen also aus dem
physikalischen Unterraum hinaus, in die K verbleibenden Richtungen. Zumindest in einer gewissen Umgebung von Qt bekommen wir auf diese Weise ein vollständiges Koordinatensystem
e wobei der Index α insgesamt 3 N − K Werte annimmt, und der Index l über
({χα }, {ζ l }) auf Q,
K Werte läuft.
In diesem Koordinatensystem haben die Zwangsbedingungen C k eine sehr einfache Darstellung. Wenn wir sie in der Nähe des reduzierten Konfigurationsraumes in eine Taylor-Reihe in den
Koordinaten ζ l entwickeln, dann fallen die konstanten Glieder weg, denn die Zwangsbedingungen C k sind ja genau dort gleich Null, wo auch die Koordinaten ζ l Null sind. Es gilt also
C k = X kl ζ l + O(ζ l )2
mit X kl =
∂C k .
∂ζ l ζ l =0
Die Matrix X kl ist sogar überall auf Qt invertierbar. Das folgt aus der Voraussetzung, dass die
Gradienten der Zwangsbedingungen linear unabhängig sind. Die Einträge der Matrix X kl sind
die einzigen nicht verschwindenden Komponenten dieser Gradienten in dem angepassten Koordinatensystem, denn die übrigen Komponenten X kα = ∂C k /∂χα sind überall auf Qt gleich Null,
weil dort die Zwangsbedingungen verschwinden, also insbesondere konstant sind. Die Einträge
der K×K-Matrix X kl bilden daher ein System von K linear unabhängigen Vektoren, also eine
invertierbare Matrix.
Beim Pendel können wir als eine zusätzliche Koordinate mit den verlangen Eigenschaften zum
Beispiel ζ = r − ` wählen. Die Zwangsbedingung lautet dann C = r 2 − `2 = ζ (2 ` + ζ) =
X ζ + O(ζ 2 ), und offenbar ist sie genau dann gleich Null, wenn ζ = 0 ist. Außerdem ist sie von
der Form (12.18), wobei die 1×1-Matrix X = 2 ` in diesem Fall konstant, und natürlich auch
invertierbar ist.
Nachdem wir ein solches angepasstes Koordinatensystem eingeführt haben, ergibt sich alles
andere fast von selbst. Wir müssen jetzt nur noch die d’Alembertschen Bewegungsgleichungen
aufschreiben. Da wir nun zwei Sätze von Koordinaten {χα } und {ζ l } haben, zerfallen auch die
Bewegungsgleichungen entsprechend. Betrachten wir zunächst die für die Koordinaten ζ l . Für sie
ergibt sich
X
X
d ∂T
∂C k
∂T
−
=
F
−
λ
= Fl −
λk X kl .
(12.19)
l
k
l
l
l
dt ∂ ζ̇
∂ζ
∂ζ
k
k
Hier haben wir benutzt, dass wir nur solche Bahnen q(t) betrachten müssen, die zu jedem Zeitpunkt t in Qt liegen. Wir können also, nachdem wir die Bewegungsgleichungen aufgestellt haben,
überall ζ l = 0 und natürlich auch ζ̇ l = 0 setzen. Auf der rechten Seite bedeutet das, dass wir die
Gradienten der Zwangsbedingungen durch die oben definierte Matrix X kl ausdrücken können.
Da diese Matrix wissen wir, dass sie invertierbar ist. Folglich lassen sich diese Gleichungen
immer nach λk auflösen. Es handelt sich nicht um Bewegungsgleichungen im eigentlichen Sinne. Diese Gleichungen bestimmen die Lagrange-Multiplikatoren und damit die Zwangskräfte.
Man sieht auch sofort, dass jede zusätzliche dynamische Kraftkomponente F l in eine “verbotene” Richtung, also in Richtung einer Koordinaten ζ l , automatisch eine entsprechende zusätzliche,
entgegengesetzt ausgerichtete Zwangskraft bewirkt.
Die eigentlichen Bewegungsgleichungen sind die für die Koordinaten χ α . Sie lauten
X
∂T
d ∂T
∂C k
λk
= Fα .
α −
α = Fα −
dt ∂ χ̇
∂χ
∂χα
(12.20)
k
Auch hier können wir ζ l = 0 und ζ̇ l = 0 setzen, nachdem wir die Gleichungen aufgestellt haben,
denn es kommen ja nur solche Bahnen in betracht. Die Zwangsbedingungen fallen dann ganz
weg, denn ihre Ableitungen in Richtung der Koordinaten χα verschwinden.
Das entscheidende ist nun, dass wir hier bereits ζ l = 0 und ζ̇ l = 0 setzen können, bevor wir
die partiellen Ableitungen von T auf der linken Seite berechnen. Es werden nämlich gar keine
Ableitungen in Richtung der Koordinaten ζ l oder der Geschwindigkeiten ζ̇ l gebildet. Um die
(12.18)
Die Koeffizienten X kl bilden eine K×K-Matrix, deren Einträge im allgemeinen noch von den
Koordinaten χα und der Zeit abhängen. Es handelt sich also um Funktionen auf dem reduzierten
Konfigurationsraum Qt .
44
eigentlichen Bewegungsgleichungen aufzustellen, genügt es daher völlig, die Funktion T nur als
Funktion der reduzierten Koordinaten χα , der zugehörigen Geschwindigkeiten χ̇α und der Zeit t
auf dem Unterraum Qt zu kennen. Die Koordinaten ζ l brauchen wir dazu überhaupt nicht.
Das gleiche gilt für die rechte Seite der Bewegungsgleichung (12.20). Um die Komponenten
Fα der dynamischen Kraft zu berechnen, benötigen wir die zusätzlichen Koordinaten ζ l außerhalb des physikalischen Unterraumes Qt nicht. Wenn wir die Kraft ursprünglich als Funktion der
affinen Koordinaten q µ durch ihre Komponenten Fµ dargestellt haben, so ergeben sich die Komponenten Fα aus dem üblichen Transformationsverhalten eines dualen Vektors. Das hatten wir
bereits in (11.43) aufgeschrieben, oder in der Form (11.58) für ein N -Teilchen-System. In dem
hier verwendeten speziellen Koordinatensystem ergeben sich daraus die Komponenten
Fα =
∂q µ
Fµ ,
∂χα
Fl =
∂q µ
Fµ .
∂ζ l
die Lagrange-Funktion unmittelbar als Funktion dieser Koordinaten und ihrer Zeitableitungen
ausdrücken, indem wir in (12.13) r = ` setzen. Das ergibt
L=T −V =
d ∂L
∂L
= Fα .
α −
dt ∂ χ̇
∂χα
(12.23)
Sie hängt jetzt nur noch von den Koordinaten (ϑ, ϕ) und den Geschwindigkeiten ( ϑ̇, ϕ̇) ab.
Der prinzipielle Unterschied zu der früheren Herleitung ist, dass wir jetzt nicht mehr zuerst die
kinetische und potenzielle Energie eines frei beweglichen Teilchens in Kugelkoordinaten ausrechnen müssen, um dann eine erweiterte Lagrange-Funktion zu definieren, indem wir die Zwangsbedingung mit einem Multiplikator addieren. Statt dessen müssen wir nur noch die Energien für
tatsächlich realisierbare Orte und Geschwindigkeiten bestimmen, also für Bahnen mit r(t) = `,
die im physikalischen Konfigurationsraum Qt liegen, der in diesem Fall zeitunabhängig ist.
(12.21)
Aufgabe 12.4 Man zeige, dass die Lagrange-Gleichungen (12.22) f ür die Funktion (12.23) und
mit Fα = 0 jetzt unmittelbar die Pendelgleichungen (12.15) liefern.
In die eigentlichen Bewegungsgleichungen (12.20) gehen nur die Komponenten F α ein.Es genügt
deshalb, die ursprünglichen Koordinaten q µ als Funktion der reduzierten Koordinaten χα zu kennen. Wir müssen nur eine explizite Darstellung der Lösungen der Zwangsbedingung kennen. Nur,
wenn wir die Zwangskräfte berechnen wollen, benötigen wir zur Berechnung von F l die zusätzlichen Koordinaten ζ l .
Besonders einfach ist die Situation wieder dann, wenn alle Kräfte Potenzialkräfte sind. In diesem Fall gilt statt (12.21) einfach Fα = −∂V/∂χα und Fl = −∂V/∂ζ l . Wir müssen dazu nur das
Potenzial als Funktion der angepassten Koordinaten {χα } und {ζ l } darstellen. Und auch hier gilt,
dass wir für die eigentlichen Bewegungsgleichungen die Funktion V nur auf Q t , also für ζ l = 0
kennen müssen. Denn zur Berechnung der Komponenten F α müssen wir nur die Ableitungen des
Potenzials nach den Koordinaten χα bilden.
In jedem Fall können wir die Bewegungsgleichungen wieder in der gemischten Form (11.67)
aufschreiben, die alle möglichen Fälle von konservativen und nicht konservativen Kräften umfasst. Auch die Lagrange-Funktion L = T − V müssen wir dazu nur auf Q t kennen, das heißt
als Funktion der reduzierten Koordinaten χα , der Geschwindigkeiten χ̇α und der Zeit t. Zusätzlich müssen wir dann nur noch diejenigen Kräfte, die sich nicht aus dem Potenzial V ableiten,
gemäß (12.21) in dem angepassten Koordinatensystem darstellen. Formal ergeben sich wieder
die gleichen Bewegungsgleichungen, nämlich
reduzierte
Bewegungsgleichung
1
m `2 ϑ̇2 + sin2 ϑ ϕ̇2 − m g ` cos ϑ.
2
Aufgabe 12.5 Was passiert, wenn der Pendelkörper zusätzlich eine Ladung q trägt, und sich
am Aufhängepunkt des Pendels eine Ladung Q befindet? Zum Gravitationspotenzial V G =
m g r cos ϑ kommt dann noch ein elektrisches Potenzial VE = Q q/r hinzu. Hat dies irgendeinen
Einfluss auf die Bewegungen des Pendels?
Einfache Beispiele
Wir wollen nun das gerade hergeleitete Verfahren anwenden und die Bewegungsgleichungen für
ein paar typische Systeme mit holonomen Zwangsbedingungen aufstellen. Es wird sich zeigen,
dass die praktische Anwendung im Einzelfall meist sehr viel einfacher ist als die allgemeine
Herleitung.
Zunächst betrachten wir nur konservative Systeme, deren Kräfte sich aus einem zeitunabhängigen Potenzial ableiten lassen. Für solche Systeme haben wir nun ein sehr einfaches Rezept zur
Herleitung der Bewegungsgleichungen. Man führt zunächst einen Satz von reduzierten Koordinaten χα ein, um die physikalisch möglichen Konfigurationen zu parametrisieren. Auf diese Weise
definiert man implizit den reduzierten Konfigurationsraum Q. Es ist gar nicht mehr nötig, diesen
zuerst mit Hilfe von Zwangsbedingungen als Teilmenge eines erweiterten Konfigurationsraumes
e zu definieren. Es genügt, die Lösungsmenge dieser Zwangsbedingungen zu beschreiben, was
Q
oft wesentlich einfacher ist.
Dann muss man nur noch die kinetische Energie T und die potenzielle Energie V des Systems
als Funktion der Koordinaten χα , der Geschwindigkeiten χ̇α und der Zeit t darstellen. Daraus
ergibt sich die Lagrange-Funktion L = T − V, und aus ihr können wir unmittelbar die Bewegungsgleichungen (12.22) ableiten. Bei einem konservativen System steht auf der rechten Seite
einfach Null.
In Abbildung 12.2 sind ein paar einfache mechanische Systeme dieser Art dargestellt. In der
Abbildung (a) bewegt sich ein Teilchen auf einer vorgegeben Kurve. Die Kurve soll sich in der
(12.22)
Unabhängig davon, welche Form der Bewegungsgleichungen wir verwenden, sind es jetzt nur
noch 3 N − K Differenzialgleichungen, die wir lösen müssen. Das sind genau so viele, wie das
System Freiheitsgrade besitzt. Besonders für Systeme mit sehr vielen Zwangsbedingungen bedeutet das eine erhebliche Reduktion der Zahl der Bewegungsgleichungen.
Dass das neue Verfahren sehr effizient ist, sieht man schon an dem einfachen Beispiel des Pendels. In diesem Fall sind die reduzierten Koordinaten die Winkelkoordinaten (ϑ, ϕ). Wir können
45
PSfrag replacements
r1
x-z-Ebene befinden, und es soll eine konstante Gravitationskraft wirken, wie üblich in Richtung
der negativen z-Achse. Um für dieses System, das offenbar nur einen Freiheitsgrad besitzt, die
Lagrange-Funktion anzugeben, müssen wir uns noch nicht einmal Gedanken darüber machen,
wie die Zwangsbedingungen genau zu formulieren sind. Es genügt, die Kurve, auf der sich das
Teilchen bewegt, durch zwei Funktionen x(s) und z(s) zu parametrisieren.
Wir können dann den Kurvenparameter s als verallgemeinerte Koordinate auf dem reduzierten,
eindimensionalen Konfigurationsraum Q verwenden. Wir beschreiben die Bahn das Teilchens
durch eine Funktion s(t), und wir können dann unmittelbar die kinetische und potenzielle Energie
als Funktion von s und ṡ angeben. Es gilt nämlich
T =
1
1
m ẋ2 + ż 2 = m x0 (s)2 + z 0 (s)2 ṡ2 ,
2
2
V = m g z(s).
s
`1
1
m ṡ2 − m g z(s).
2
α
(a)
s2
m1
s1
`2
s
(12.24)
m2
β
m2
(b)
Offenbar hängt die kinetische Energie von s und ṡ ab. Wir können aber die Parametrisierung
der Kurve so wählen, dass der Term in der Klammer konstant ist. Wir müssen dazu nur den
Kurvenparameter so einrichten, dass er die Länge der Kurve misst. Dann gilt nämlich x 0 (s)2 +
y 0 (s)2 = 1, und wir bekommen
L=T −V =
r2
m1
(c)
(d)
Abbildung 12.2: Einfache mechanische Systeme, deren Lagrange-Funktionen sich leicht angeben
lassen. Ein Teilchen, das sich auf einer vorgegebenen Bahn bewegt (a), eine über eine Tischkante
gleitende Kette (b), ein Doppelpendel (c), und zwei über eine Rolle verbundene Körper (d). Das
Doppelpendel hat zwei Freiheitsgrade, alle anderen Systeme haben jeweils einen Freiheitsgrad.
(12.25)
Aus dieser Darstellung der Lagrange-Funktion entnehmen wir sofort, dass sich ein Teilchen auf
einer solchen Bahn, auch wenn sie beliebig gebogen ist, genau wie ein Teilchen auf einer geraden
Bahn verhält, wenn es dort das Potenzial V(s) = m g z(s) spürt. Seine Bewegungsgleichung
lautet einfach m s̈ = −m g z 0 (s). Das hatten wir für das Schienenfahrzeug in Kapitel 5 auch
schon gezeigt, jedoch war die Herleitung dort wesentlich mühsamer.
Das System hat jedoch unabhängig von der Anzahl der Glieder nur genau einen Freiheitsgrad.
Wir können dafür wieder eine Koordinate s einführen, die zum Beispiel die Länge der über die
Kante nach unten hängenden Kette festlegt. Dann können wir die kinetische Energie leicht angeben. Bewegt sich nämlich das untere Ende der Kette mit der Geschwindigkeit ṡ, so bewegen
sich alle Kettenglieder mit derselben Geschwindigkeit. Da die kinetische Energie nicht von der
Richtung der Bewegung im Raum abhängt, spielt es dabei keine Rolle, wie viele Glieder sich auf
dem Tisch in horizontale Richtung bewegen, und wie viele sich in vertikale Richtung bewegen.
Es gilt immer T = m ṡ2 /2.
Die potenzielle Energie des Systems hängt davon ab, welcher Teil der Kette überhängt. Setzen
wir das Gravitationspotenzial auf der Tischebene gleich Null, so haben die oben liegenden Glieder
keine potenzielle Energie. Der überhängende Teil der Kette hat die Länge s und befindet sich in
einer Höhe zwischen 0 und −s, also im Mittel auf der Höhe −s/2. Die Masse dieses Teils der
Kette ist m s/`. Da das Gravitationspotenzial linear ist, ergibt sich daraus
Aufgabe 12.6 Ist die Bahn wie in Abbildung 12.2(a) geformt, so pendelt das Teilchen in der
Mulde hin und her. Wie muss diese Mulde genau geformt sind, damit sich das Teilchen wie ein
harmonischer Oszillator verhält, also unabhängig von der Amplitude stets mit der gleichen Periode oszilliert?
Aufgabe 12.7 Eine äußere Instanz bewege die Bahn in Abbildung 12.2(a) periodisch nach rechts
und links, bzw. nach oben und unten. Die Bewegung werde jeweils durch eine Kosinusfunktion mit
der Kreisfrequenz ω und Amplitude a beschieben. Wir sieht in diesem Fall die Lagrange-Funktion
für das Teilchen aus, und welche Bewegungsgleichungen ergeben sich?
Ein System, an dem die Effizienz des neuen Verfahrens noch einmal deutlich gemacht werden soll,
ist in Abbildung 12.2(b) dargestellt. Eine Kette der Masse m und Länge ` gleitet reibungsfrei über
eine Tischkante und fällt von dort aus senkrecht nach unten.
Die Kette ist ein System aus sehr vielen Teilchen. Man kann sich leicht vorstellen, dass es sehr
umständlich wäre, nun die einzelnen Kettenglieder zu betrachten und für diese die Bewegungsgleichungen aufzustellen. Wir müssten dann die Zwangskräfte berücksichtigen, die die Abstände
zwischen den Gliedern fixieren und die Kette in ihrer vorgegebenen Bahn halten.
T =
m 2
ṡ ,
2
V =−
mg 2
s
2`
⇒
L=
m 2 mg 2
ṡ +
s .
2
2`
(12.26)
Das sieht aus wie die Lagrange-Funktion eines harmonischen Oszillators, jedoch hat das Potenzial
das falsche Vorzeichen. Wir können sofort die Bewegungsgleichung angeben. Sie lautet
d ∂L ∂L
−
= m s̈ − ω 2 s = 0,
dt ∂ ṡ
∂s
46
mit ω 2 =
g
.
`
(12.27)
Die allgemeine Lösung ist
s(t) = b eω t + c e−ω t ,
Wie man leicht sehen kann, sind dies gerade die in Abbildung 12.2(c) eingezeichneten Auslenkwinkel α und β. Dies sind die Koordinaten auf dem reduzierten Konfigurationsraum Q. Wir
müssen nun die Energiefunktionen (12.29) als Funktionen von α und β und deren Zeitableitungen
darstellen.
(12.28)
wobei die Integrationskonstanten b und c den Anfangsbedingungen anzupassen sind. Die Kette
gleitet mit exponentiell ansteigender Geschwindigkeit über die Tischkante.
Aufgabe 12.10 Man verifiziere das Ergebnis
Aufgabe 12.8 Bei der Herleitung des Potenzials haben wir alle Effekte, die beim Ablaufen der
einzelnen Kettenglieder über die Tischkante auftreten, vernachlässigt. Das ist gerechtfertigt, wenn
die Kette aus sehr vielen kurzen Gliedern besteht. Man zeige, dass unter dieser Annahme die Form
der Tischkante nicht relevant ist. Es kann sich um eine beliebig abgerundete Kante handeln. Man
stelle sich dazu die Kette als kontinuierliches Objekt mit eine Masse pro L änge µ = m/` vor, und
bestimme die potenzielle Energie durch eine Integration.
T =
1
1
(m1 + m2 ) `12 α̇2 + m2 `22 β̇ 2 + m2 `1 `2 α̇ β̇ cos(α − β),
2
2
V = −g (m1 + m2 ) `1 cos α − g m2 `2 cos β,
und die daraus resultierenden Bewegungsgleichungen
Aufgabe 12.9 Wie sieht die Lagrange-Funktion für die Kette aus, wenn sie an der Tischkante
nicht nach unten sondern, durch eine geeignete Vorrichtung gef ührt, nach oben abknickt? Wie
sieht dann die allgemeine Lösung der Bewegungsgleichung aus?
d
(m1 + m2 ) `12 α̇ + m2 `1 `2 β̇ cos(α − β) +
dt
Ein weiteres interessantes System ist das Doppelpendel in Abbildung 12.2(c). Es besteht aus
einem Pendel der Länge `1 , an dem ein Körper der Masse m1 montiert ist. An diesem wiederum
hängt ein Körper der Masse m2 an einer Stange der Länge `2 . Der Einfachheit halber soll dieses
Pendel nur in einer Ebene schwingen.
Wie man sich leicht überlegt, hat dieses System zwei Freiheitsgrade, also einen zweidimensionalen reduzierten Konfigurationsraum. An diesem Beispiel lässt sich sehr schön zeigen, wie
die Berechnung der reduzierten Lagrange-Funktion im allgemeinen erfolgt. Wir gehen daher das
Verfahren aus dem letzten Abschnitt noch einmal Schritt für Schritt durch.
e für ein allgemeines ZweiZunächst betrachten wir den erweiterten Konfigurationsraum Q
Teilchen-System. Dies ist ein sechsdimensionaler Raum, auf dem wir die Koordinaten
(x1 , y1 , z2 , x1 , y2 , z2 ) einführen. Das sind die kartesischen Ortskoordinaten der beiden Teilchen.
Der Ursprung des Koordinatensystems soll sich im Aufhängepunkt des Pendels befinden, und die
Gravitationskraft wie immer in Richtung der negativen z-Achse zeigen. Für die kinetische und
potenzielle Energie gilt dann
d
m2 `22 β̇ + m2 `1 `2 α̇ cos(α − β) +
dt
T =
1
1
m1 ẋ12 + ẏ12 + ż12 + m2 ẋ22 + ẏ22 + ż22 ,
2
2
+ m2 `1 `2 α̇ β̇ sin(α − β) + g (m1 + m2 ) `1 sin α = 0,
+ m2 `1 `2 α̇ β̇ sin(β − α) + g m2 `2 sin β = 0.
y2 = 0,
x12 + z12 − `12 = 0,
Das ist ein recht kompliziertes gekoppeltes System von nichtlinearen Differenzialgleichungen.
Die allgemeine Lösung lässt sich nicht mehr explizit angeben.
Hier liegt bereits der allgemeine Fall vor, bei dem die kinetische Energie zwar eine quadratische Funktion der Geschwindigkeiten α̇ und β̇ ist. Aber weder ist die Massenmatrix diagonal,
noch sind ihre Einträge konstant. Es tritt ein Mischterm auf, der das Produkt α̇ β̇ enthält, und
dieser hängt zudem noch von α und β ab. Es ist nicht mehr möglich, die Massenmatrix durch
eine Koordinatentransformation zu diagonalisieren, und folglich ist es auch nicht möglich, die
Bewegungsgleichungen zu entkoppeln.
V = g (m1 z1 + m2 z2 ). (12.29)
(x2 − x1 )2 + (z2 − z1 )2 − `22 = 0.
Aufgabe 12.11 Man diskutiere den Fall m1 m2 , also den Grenzfall, in dem der obere Pendelkörper sehr viel schwerer ist als der untere. Man zeige, dass sich dann der obere Arm des
Doppelpendels wie ein einzelnes Pendel verhält, während sich der untere Arm wie ein angetriebenes Pendel verhält, wobei die Schwingungen des oberen Armes den äußeren Antrieb darstellen.
(12.30)
Aufgabe 12.12 In dem umgekehrten Grenzfall m1 m2 , in dem die Masse des oberen Pendelkörper verschwindend klein ist, lassen sich die Bewegungsgleichungen sogar explizit l ösen.
Man zeige dies durch eine geschickte Koordinatentransformation auf dem Konfigurationsraum.
Man findet diese Transformation, wenn man sich zunächst überlegt, welche Art von Bewegungen
das Pendel in diesem Fall ausführt.
Die Lösungen der letzten beiden Gleichungen lassen sich wie folgt durch zwei Parameter α und
β darstellen,
x2 = `1 sin α + `2 sin β,
x1 = `1 sin α,
z1 = −`1 cos α,
z2 = −`1 cos α − `2 cos β.
(12.33)
Lassen sich diese Gleichungen immer nach α̈ und β̈ auflösen?
Die Zwangsbedingungen lauten
y1 = 0,
(12.32)
(12.31)
47
Aufgabe 12.13 Für kleine Auslenkungwinkel α, β 1 lassen sich die Winkelfunktionen in
(12.32) in eine Taylor-Reihe entwickeln. Man vernachlässige alle Terme, die von vierter Ordnung
oder höher in α, β, α̇ oder β̇ sind. Man zeige, dass sich dann die Lagrange-Funktion für einen
gekoppelten harmonischen Oszillator ergibt. Welches sind die Eigenfrequenzen dieses Systems,
und wie sehen die Eigenmoden aus?
negativen z-Achse befindet, wenn der Drehwinkel gerade χ = 2π n/N ist. Die Nummerierung
können wir als periodisch betrachten, so dass die Indizes n und n + N dassselbe Teilchen bezeichnen.
Für die Geschwindigkeit des n-ten Teilchens ergibt sich
(12.35)
ṙn = R χ̇ cos χn ey + sin χn ez ,
Aufgabe 12.14 Um einen Eindruck von den Bewegungen des Doppelpendels zu bekommen, kann
man die Bewegungsgleichungen (12.33) numerisch integrieren. Man gibt als Anfangsbedingungen α(t0 ), β(t0 ), α̇(t0 ) und β̇(t0 ) vor, und berechnet anschließend die Funktionen α(t) und β(t)
mit einem geeigneten numerischen Verfahren. Solche sind in den g ängigen “intelligenten” Programmiersprachen wie Mathematica oder Maple vorprogrammiert, so dass man letztlich nur die
Differenzialgleichungen und die Anfangsbedingungen eingeben muss. Es ist sogar m öglich, das
Verfahren so weit zu automatisieren, dass man nur die Lagrange-Funktion eingeben muss.
denn die einzige zeitabhängige Größe ist der Drehwinkel χ, und die Winkelgeschwindigkeit ist
natürlich für alle Teilchen gleich, χ̇n = χ̇. Daraus können wir leicht die kinetische Energie berechnen. Jedes einzelne Teilchen hat eine Masse M/N . Es bewegt sich mit einer Geschwindigkeit
R χ̇, besitzt also die kinetische Energie M (R χ̇)2 /(2 N ). Die Summe über alle Teilchen ist
T =
Aufgabe 12.15 In Abbildung 12.2(d) ist ein weiteres mechanisches System mit nur einem Freiheitsgrad dargestellt. Zwei Körper sind über eine starre Rolle miteinander verbunden. Die Seile,
an denen die Körper hängen, sind jedoch auf verschiedenen Radien aufgewickelt. Als verallgemeinerte Koordinaten kann wahlweise der Drehwinkel der Rolle oder die L änge eines der beiden
herabhängenden Seile verwendet werden. Welche Beziehung besteht zwischen diesen Gr ößen?
Man finde die Lagrange-Funktion und löse die Bewegungsgleichungen. Die kinetische Energie
der Rolle kann entweder vernachlässigt werden, oder es kann der weiter unten hergeleitete Ausdruck (12.36) verwendet werden.
Ein etwas anspruchsvolleres mechanisches System ist in Abbildung 12.3 dargestellt. Es dient zur
Vorbereitung auf ein späteres Kapitel, in dem wir uns mit den Drehbewegungen eines starren
Körpers beschäftigen werden. In der hier gezeigten vereinfachten Version lässt es sich jedoch mit
den bereits zur Verfügung stehenden Mitteln beschreiben.
In der einfachsten Version von Abbildung 12.3(a) betrachten wir ein Rad, dessen Achse im
Raum fixiert ist. Es kann sich also nur um diese vorgegebene Achse drehen, und besitzt folglich nur einen Freiheitsgrad. Dies ist der Drehwinkel χ. Wir machen außerdem die vereinfachte
Annahme, dass sich die gesamte Masse M des Rades auf die Lauffläche konzentriert, also auf
einen Kreisring vom Radius R. Sie verteilt sich dort auf N Teilchen, die in gleichmäßigen Winkelabständen auf dem Kreis angeordnet sind.
Es sei rn , mit n ∈ {1, . . . , N }, der Ort des n-ten Teilchens, und das Koordinatensystem sei so
gewählt, dass die Achse des Rades in Richtung der x-Achse zeigt. Dann ist
mit χn = χ −
2π n
.
N
(12.36)
Auch hier ist es wieder unnötig, die Zwangsbedingungen explizit zu kennen. Es genügt, ihre
Lösungen zu parametrisieren, also die Orte (12.34) der einzelnen Teilchen als Funktion der reduzierten Koordinate χ darzustellen, um die kinetische Energie T als Funktion von χ und χ̇ zu
berechnen.
Wenn auf das Rad keine dynamischen Kräfte einwirken, haben wir damit auch schon die
Lagrange-Funktion gefunden, denn es ist L = T . Wir können unmittelbar die Bewegungsgleichung χ̈ = 0 ablesen. Das Rad dreht sich gleichmäßig mit konstanter Winkelgeschwindigkeit.
Das ist natürlich genau das, was wir erwartet haben.
Nun wollen wir feststellen, was passiert, wenn auf die Lauffläche des Rades eine Reibungskraft
wirkt. Eine solche Kraft kann nicht durch ein Potenzial beschrieben werden. Wir müssen also
die d’Alembertsche Form der Bewegungsgleichungen verwenden. Dazu müssen wir zunächst
die Kraftkomponente Fχ in Richtung der reduzierten Koordinate χ finden. Dafür hatten wir die
Formel (11.58) angegeben. Es gilt also
Das fixierte Rad
rn = o + R sin χn ey − cos χn ez ,
1
M R2 χ̇2 .
2
Fχ =
X ∂rn
n
∂χ
· Fn =
X
n
R cos χn ey + sin χn ez · Fn .
(12.37)
Hier ist Fn die dynamische Kraft, die auf das Teilchen mit der Nummer n wirkt. Die partielle
Ableitung ∂rn /∂χ haben wir aus (12.34) entnommen.
Es soll nun auf ein ganz bestimmtes Teilchen, und zwar das, welches sich gerade an unterster
Stelle befindet, eine Reibungskraft wirken, die proportional zu seiner Geschwindigkeit und ihr
entgegengerichtet ist. Damit modellieren wir die Situation, dass das Rad an einer Stelle durch
einen bremsenden Gegenstand berührt wird, zum Beispiel auf einer Standfläche aufliegt oder eine
Bremse an der Lauffläche angreift.
Für das Teilchen mit der Nummer n̄, welches sich zu einem bestimmten Zeitpunkt ganz unten
befindet, gilt χn̄ = 0, also n̄ = N χ/2π, oder genauer, n̄ ist die ganze Zahl, die dieser am
nächsten liegt. Für große N können wir aber den Fehler, den wir dabei machen, vernachlässigen.
(12.34)
Der Koordinatenursprung o ist natürlich der Mittelpunkt des Rades. Die Teilchen haben wir so
durchnummeriert, dass sich das Teilchen mit der Nummer n genau dann “unten”, also auf der
48
replacements
ϑ
(d)
χ
Aufgabe 12.16 Wie sieht die allgemeine Lösung der Bewegungsgleichung (12.40) aus?
Aufgabe 12.17 Welche Bewegungsgleichung ergibt sich, wenn wir f ür die Reibungskraft eine andere Abhängigkeit von der Geschwindigkeit annehmen? Man betrachte allgemein einen Zusammenhang der Form Fn̄ = −η |ṙn̄ |k−1 ṙn̄ , also ein Ansteigen der Reibungskraft mit der Potenz
k > 0. Kommt das Rad dann nach endlicher Zeit zum Stillstand oder nicht? Und wenn es nicht
nach endlicher Zeit zum Stillstand kommt, macht es dann insgesamt endlich viele oder unendlich
viele Umdrehungen?
ϕ
(b)
(a)
(c)
Abbildung 12.3: Ein Rad als mechanisches System mit einem, zwei bzw. drei Freiheitsgraden. Ist
die Achse fixiert (a), so ist der einzige Freiheitsgrad der Drehwinkel χ. Kann sich die Achse frei
in einer Ebene drehen (b), so ist die Ausrichtung ϕ der Achse ein zweiter Freiheitsgrad. Bewegt
sich das Rad völlig frei (c), so ist der dritte Freiheitsgrad der Kippwinkel ϑ.
Aufgabe 12.18 Wenn sich das Rad im Schwerefeld der Erde befindet, wirkt eigentlich noch die
Gravitationskraft auf jedes Teilchen. Man setze diese für Fn in (12.37) ein und zeige, dass sie nicht
zu Fχ beiträgt. Man begründe damit die intuitiv richtige Vorstellung, dass sich die Gravitationskräfte gegenseitig aufheben, weil sie das Rad in entgegengesetzte Richtungen zu beschleunigen
versuchen. Gilt das auch, wenn sich das Rad in einem inhomogenen Gravitationsfeld befindet?
Aufgabe 12.19 Man zeige, dass sich qualitativ dieselbe Lagrange-Funktion f ür das Rad auch
dann ergibt, wenn man nicht annimmt, dass alle Teilchen auf einem Kreisring mit Radius R angeordnet sind. Es genügt anzunehmen, dass die Massen gleichmäßig, also rotationssymmetrisch
angeordnet sind. Welche konkrete Form ergibt sich dann für L?
Wichtig ist nur, dass die Kraft auf genau ein Teilchen wirken soll, und dass für dieses gerade
χn̄ = 0 ist.
Die Geschwindigkeit dieses Teilchens ist dann laut (12.35) ṙn̄ = R χ̇ ey . Folglich ist die Reibungskraft, die auf dieses Teilchen wirkt,
Fn̄ = −η ṙn̄ = −η R χ̇ ey ,
Das hängende Rad
(12.38)
Nun wollen wir ein etwas komplizierteres System betrachten. Die Achse des Rades ist nicht
mehr vollständig fixiert, sondern kann sich, wie in Abbildung 12.3(b) gezeigt, in einer Ebene frei
drehen. Ein solches System lässt sich leicht realisieren, indem man etwa die Achse des Laufrades
eines Fahrrades an zwei Seilen aufhängt, so dass sich die Achse in einer horizontalen Ebene
drehen kann.
Das System hat jetzt zwei Freiheitsgrade, nämlich den Drehwinkel des Rades χ und die Ausrichtung der Achse, die wir ebenfalls durch eine Winkelkoordinate ϕ beschreiben können. Der
reduzierte Konfigurationsraum ist demnach ein zweidimensionaler Raum. Wir gehen wieder nach
dem gleichen Schema vor, um die kinetische Energie zu berechnen. Zuerst stellen wir die Orte r n
der Teilchen als Funktionen von χ und ϕ dar. Dazu ist es nützlich, die Einheitsvektoren
wobei η die Reibungskonstante ist. Setzen wir dies in (12.37) ein, so bleibt nur ein Term von
der Summe übrig, denn es soll ja nur auf dieses eine Teilchen eine Kraft wirken. Es ergibt sich,
wieder mit χn̄ = 0,
Fχ = −η R2 χ̇.
(12.39)
Die verallgemeinerte Reibungskraft Fχ ist ebenfalls proportional zur verallgemeinerten Geschwindigkeit χ̇ und ihr entgegengerichtet. Es tritt nur neben der Reibungskonstante η noch ein
Faktor R2 auf. Er sorgt unter anderem dafür, dass die verallgemeinerte Kraft die richtige physikalische Dimension hat. Sie ist nämlich eigentlich keine Kraft sondern ein Drehmoment, und χ̇ ist
keine Geschwindigkeit sondern eine Winkelgeschwindigkeit, wenn man die “richtigen” Bezeichnungen für die physikalischen Dimensionen verwendet.
Die Bewegungsgleichungen stellen sich nun wie folgt dar. Wir werten die linke Seite von
(11.44) für die gegebene Energiefunktion T aus, und setzen auf der rechten Seite die verallgemeinerte Kraft ein,
∂T
d ∂T
−
= Fχ
dt ∂ χ̇
∂χ
⇒
M R2 χ̈ = −η R2 χ̇.
e(ϕ) = cos ϕ ex + sin ϕ ey ,
e0 (ϕ) = − sin ϕ ex + cos ϕ ey
(12.41)
einzuführen. Der Vektor e(ϕ) gibt die Ausrichtung der Achse an, und e 0 (ϕ) steht dazu senkrecht.
Dabei ist e0 (ϕ) auch gleichzeitig die Ableitung von e(ϕ) nach ϕ, und es gilt e00 (ϕ) = −e(ϕ).
Die Darstellung (12.34) der Teilchenorte lässt sich dann unmittelbar verallgemeinern. Für das
gedrehte Rad müssen wir nur ey durch den gedrehten Einheitsvektor e0 (ϕ) ersetzen,
(12.40)
Offenbar hebt sich der Radius R des Rades aus dieser Gleichung heraus, so dass das Rad die
gleiche Bremswirkung erfährt wie ein Körper der Masse M , der sich geradlinig bewegt und dabei
eine Reibungskonstante η spürt.
rn = o + R sin χn e0 (ϕ) − cos χn ez ,
49
mit χn = χ −
2π n
.
N
(12.42)
Für die Geschwindigkeiten der Teilchen ergibt sich jetzt
ṙn = R χ̇ cos χn e0 (ϕ) + sin χn ez − R ϕ̇ sin χn e(ϕ).
Zeitpunkt auf ein bestimmtes Teilchen eine Kraft wirkt, die proportional zu seiner Geschwindigkeit und ihr entgegengerichtet ist. Das Resultat war, dass genau eine solche der Geschwindigkeit
entgegengerichtete Kraft auch auf dem reduzierten Konfigurationsraum auftrat. Das legt die Vermutung nahe, dass genau das gleiche für das Rad mit zwei Freiheitsgraden gilt. Das ist aber nicht
der Fall, wie wir jetzt zeigen werden.
Wir nehmen wieder an, dass auf das Teilchen, das sich gerade ganz unten auf der z-Achse
befindet, eine Reibungskraft wirkt, die der Geschwindigkeit dieses Teilchens entgegengerichtet
ist. Das Teilchen ist wieder das mit der Nummer n̄ = N χ/2π, denn für dieses Teilchen ist
χn̄ = 0 und somit rn̄ = o − ez . Für die Geschwindigkeit dieses Teilchens gilt nun laut (12.43)
ṙn̄ = R χ̇ e(ϕ). Folglich ist die Reibungskraft wieder durch den Ausdruck (12.38) gegeben, nur
dass wir dort ey durch e0 (ϕ) ersetzen müssen,
(12.43)
Die kinetische Energie des Teilchens mit der Nummer n ist demnach
1M
1 M 2 2 1 M 2 2
ṙn · ṙn =
R χ̇ +
R ϕ̇ sin2 χn .
2 N
2 N
2 N
(12.44)
Wenn wir über alle N Teilchen summieren, ergibt der erste Term wieder den Ausdruck
M R2 χ̇2 /2. Den zweiten Term können wir für große N durch ein Integral approximieren. Für
N → ∞ gilt mit x = n/N
1
Z
N
1 X 2
1
sin (χ − 2πn/N ) → dx sin2 (χ − 2π x) = .
N n=1
2
Fn̄ = −η ṙn̄ = −η R χ̇ e0 (ϕ).
(12.45)
(12.47)
Die verallgemeinerte Kraft auf dem zweidimensionalen reduzieren Konfigurationsraum hat jetzt
zwei Komponenten, nämlich Fχ und Fϕ . Wir benutzen wieder die allgemeine Formel (11.58),
0
Die linke Seite ist gerade die Summendarstellung für das Integral, wenn wir das Intervall von 0
bis 2π in N Teilintervalle aufteilen.
Die kinetische Energie des Systems, ausgedrückt als Funktion der Geschwindigkeiten χ̇ und
ϕ̇, ist folglich
1
1
(12.46)
T = M R2 χ̇2 + M R2 ϕ̇2 .
2
4
Offenbar steckt in einer Rotation des Rades um seine Achse mehr Energie als in einer Rotation
der Achse in der Ebene. Das liegt daran, dass sich bei einer Rotation des Rades um die Achse alle
Massen mit der gleichen Geschwindigkeit R χ̇ durch den Raum bewegen. Bei einer Drehung der
Achse bewegen sich jedoch Teile des Rades langsamer oder sogar gar nicht, wenn sie sich gerade
auf der z-Achse befinden.
Was sofort aus (12.46) hervor geht, ist, dass die beiden Drehungen unabhängig voneinander
stattfinden. Es gibt keine Kopplung zwischen den beiden Bewegungen, jedenfalls solange keine
dynamische Kraft auf das Rad wirkt. Dann ist die Lagrange-Funktion L = T , und die Bewegungsgleichungen sind χ̈ = 0 und ϕ̈ = 0. Wenn das Rad entsprechend angeworfen wird, dreht
es sich gleichmäßig um seine Achse, und gleichzeitig dreht sich die Achse gleichmäßig in der
Ebene.
Dass sich dieses Resultat auf diese sehr einfache Weise ergibt, ist tatsächlich ein Erfolg der Lagrangeschen bzw. d’Alembertschen Methode, und es belegt deutlich deren Effizienz. Man stelle
sich vor, man würde versuchen, dieses Ergebnis durch Berechnung der Zwangskräfte zu bekommen, die die Teilchen im Rad aneinander binden. Zwar würde man nach einigen Überlegungen
auch zu dem Resultat kommen, dass es nur zwei Freiheitsgrade gibt, und dass diese unabhängig
voneinander gleichförmige Bewegungen ausführen. Der Weg dahin wäre aber sehr mühsam.
Wir wollen auch hier noch einmal die Auswirkungen einer Reibungskraft auf das System berechnen, und zwar um zu demonstrieren, dass die Umrechnung der Kräfte in die reduzierten Koordinaten nicht immer ganz trivial ist. Weiter oben hatten wir den Ansatz gemacht, dass zu jedem
Fχ =
X ∂rn
n
Fϕ =
∂χ
X ∂rn
n
∂ϕ
· Fn =
X
n
· Fn = −
R cos χn e0 (ϕ) + sin χn ez · Fn ,
X
n
R sin χn e(ϕ) · Fn .
(12.48)
Setzen wir alle Fn gleich Null, nur für n = n̄ (12.47) ein, so ergibt sich wieder Fχ = −η R2 χ̇.
Jedoch ist Fϕ = 0, denn der Vektor Fn̄ steht auf e(ϕ) senkrecht, und außerdem ist sogar noch
sin χn̄ = 0. Es wirkt also im Konfigurationsraum keine Reibungskraft in Richtung der Koordinate
ϕ.
Wenn wir das wieder in die d’Alembertschen Bewegungsgleichungen einsetzen, bekommen
wir nach ein paar Vereinfachungen
M χ̈ = −η χ̇,
ϕ̈ = 0.
(12.49)
Die Rotation des Rades um seine Achse ist wieder gebremst, die Drehung der Achse in der Ebene
jedoch nicht. Das hat auch einen einfachen, physikalisch anschaulichen Grund. Wenn wir annehmen, dass die Reibung dadurch verursacht wird, dass das Rad an der untersten Stelle an einem
Punkt aufliegt, dann bewegt sich dieser Auflagepunkt zwar bei einer Rotation des Rades um seine
Achse, nicht jedoch bei einer Drehung der Achse in der Ebene. Deshalb tritt bei einer solchen
Bewegung auch keine Reibung auf.
Genau dies wird bei der Umrechnung der Kraft in die reduzierten Koordinaten berücksichtigt. Das, was wir abstrakt als Transformationsverhalten eines dualen Vektors im Konfigurationsraum hergeleitet haben, beschreibt in eine physikalische Sprache übersetzt die Richtung, in die
eine Kraft im reduzierten Konfigurationsraum des Systems wirkt, also auf welche der reduzierten
Koordinaten sie Einfluss nimmt.
50
PSfrag replacements
Aufgabe 12.20 Anstatt das Rad an der untersten Stelle abzubremsen, k önnen wir uns vorstellen,
dass es in der Ebene, die in Abbildung 12.3 schraffiert dargestellt ist, an einem festen Ring reibt.
Es wirkt dann an zwei Stellen eine Reibungskraft, nämlich jeweils auf die beiden Teilchen, die
sich gerade in der x-y-Ebene befinden. Auch hier machen wir den Ansatz, dass die Reibungskr äfte
proportional zu den Geschwindigkeiten dieser beiden Teilchen und ihren entgegengerichtet sind.
Welche der beiden Bewegungen des Rades wird jetzt schneller abgebremst, die Drehung um die
Achse, oder die Drehung der Achse in der Ebene?
ϕ
(c)
(d)
m
r
m
ω
c
Aufgabe 12.21 In Abbildung 12.3(c) ist die Achse des Rades gar nicht mehr fixiert. Sie kann
nun auch kippen. Für den dritten Freiheitsgrad führen wir die Koordinate ϑ ein, die den Winkel
zwischen der Achse des Rades und der z-Achse misst. Die Koordinate wird deshalb so gew ählt,
weil (ϑ, ϕ) dann die üblichen Kugelkoordinaten sind, die die Ausrichtung der Achse im Raum
festlegen, und χ wieder der Drehwinkel des Rades um die Achse ist. Man zeige zun ächst, dass der
Ort des Teilchens Nummer n jetzt wie folgt gegeben ist,
(12.50)
rn = o + R sin χn e0 (ϕ) + R cos χn cos ϑ e(ϕ) − sin ϑ ez .
(b)
(a)
Abbildung 12.4: Zwei einfache mechanische System mit zeitabhängigen Zwangsbedingungen.
Im ersten Beispiel gleitet der Körper auf einer Tischplatte und dabei an einem Seil nach innen
gezogen (a). Der einzige Freiheitsgrad ist die Winkelkoordinaten ϕ. Im zweiten Beispiel gleitet der Körper auf einer rotierenden Stange (b). Der einzige Freiheitsgrad ist jetzt die radiale
Koordinaten r.
Man bestimme daraus die Geschwindigkeiten der Teilchen und zeige, dass die kinetische Energie
durch die Funktion
T =
Θ 2 Θ 2 Θ
χ̇ + ϑ̇ + (1 + cos2 ϑ) ϕ̇2 + Θ cos ϑ χ̇ ϕ̇,
2
4
4
mit Θ = M R2 ,
stattfindet. Es ist in Abbildung 12.4(a) dargestellt. Ein Körper der Masse m befindet sich auf
einem Tisch. Er ist an einem Seil befestigt, das durch ein Loch im Tisch eingezogen wird. Die
Länge des Seiles ist ` zur Zeit t = 0, und sie soll sich mit einer konstanten Geschwindigkeit c
verkürzen.
Offenbar hat das System nur einen Freiheitsgrad. Die Länge des Seiles ist vorgegeben, so dass
als einzige unabhängige Koordinate der Winkel ϕ bleibt, der angibt, in welcher Richtung sich der
Körper, vom Loch aus gesehen, befindet. Wenn (x, y) kartesische Koordinaten in der Ebene sind,
wobei sich der Ursprung im Loch befindet, so gilt für den Ort des Körpers
(12.51)
gegeben ist. Aus ihr lassen sich die Lagrangeschen Bewegungsgleichungen ableiten. Aus denen
für die Koordinaten χ und ϕ ergibt sich, dass die Impulse pχ = ∂T /∂ χ̇ und und pϕ = ∂T /∂ ϕ̇
Erhaltungsgrößen sind, da die Ableitungen ∂T /∂ϕ und ∂T /∂χ verschwinden. Man benutze das,
um die Bewegungsgleichung für ϑ mit Hilfe eines effektives Potenzial darzustellen,
Θ
ϑ̈ = −Ve 0 (ϑ),
2
mit
pχ2 + pϕ2 − 2 pχ pϕ cos ϑ
.
Ve (ϑ) =
Θ sin2 ϑ
(12.52)
x = (` − c t) cos ϕ,
Man skizziere das effektive Potenzial und diskutiere qualitativ die möglichen Bewegungsformen
des Rades.
y = (` − c t) sin ϕ.
(12.53)
Daraus können wir wieder die kinetische Energie berechnen. Allerdings müssen wir jetzt die
explizite Zeitabhängigkeit der Koordinaten beachten. Es ist
Zeitabhängige Zwangsbedingungen
ẋ = −(` − c t) ϕ̇ sin ϕ − c cos ϕ,
Als nächstes wollen wir ein paar einfache Beispiele für Systeme mit zeitabhängigen Zwangsbedingungen diskutieren, um zu zeigen, dass auch solche Systeme sehr effizient mit Hilfe der
Lagrangeschen bzw. d’Alembertschen Bewegungsgleichungen beschrieben werden können. Der
reduzierte Konfigurationsraum Qt ist dann zu jedem Zeitpunkt t eine andere Teilmenge des ere und wir müssen zeitabhängige Koordinaten verwenden, um
weiterten Konfigurationsraumes Q,
die Zwangsbedingungen zu lösen.
Als erstes betrachten wir ein System, das dem Pendel mit variabler Länge sehr ähnlich ist. Es
ist allerdings einfacher, da keine Gravitationskraft wirkt und die Bewegung nur in einer Ebene
und daher
ẏ = (` − c t) ϕ̇ cos ϕ − c sin ϕ,
(12.54)
1
1
1
m ẋ2 + ẏ 2 = m (` − c t)2 ϕ̇2 + m c2 .
(12.55)
2
2
2
Das gleiche Resultat hätten wir natürlich auch aus der Darstellung (11.60) der kinetischen Energie
in Zylinderkoordinaten entnehmen können, indem wir dort r = ` − c t und z = 0 setzen.
Den konstanten Term m c2 /2 können wir vernachlässigen, da er in die Bewegungsgleichungen
T =L=
51
nicht eingeht. Nur der Term, der proportional zu ϕ̇2 ist, erscheint in der Bewegungsgleichung
d
d ∂L ∂L
−
=
m (` − c t)2 ϕ̇ = 0.
dt ∂ ϕ̇ ∂ϕ
dt
Aufgabe 12.22 Man berechne die Gesamtlänge des von dem Körper zurückgelegten Weges im
Zeitintervall 0 < t < `/c.
(12.56)
Aufgabe 12.23 Man diskutiere auch dieses Beispiel wieder mit einer zus ätzlichen Reibungskraft,
die proportional zur Geschwindigkeit des Körpers auf der Ebene ist.
Auch hier wird die Bewegungsgleichung wieder in einer Form geliefert, aus der wir sofort den
entscheidenden Erhaltungssatz ablesen können. In der Klammer steht natürlich wieder der Drehimpuls. Dass er erhalten ist, ergibt sich auch daraus, dass die Zwangskraft, die auf den Körper
wirkt, eine Zentralkraft ist. Als Lösung findet man
m (` − c t)2 ϕ̇ = pϕ
⇒
ϕ̇ =
pϕ
m (` − c t)2
⇒
ϕ(t) =
pϕ
.
c m (` − c t)
Das mechanische System in Abbildung 12.4(b) ist zu dem gerade diskutierten in einem gewissen
Sinne komplementär. Dort befindet sich ein Körper auf einer Stange, die mit einer Winkelgeschwindigkeit ω rotiert. Auch hier bewegt sich der Körper in einer Ebene, jedoch wird diesmal
statt der radialen Koordinate die Winkelkoordinate durch die Zwangsbedingung vorgegeben. Am
einfachsten gehen wir hier von der Darstellung (12.59) der Lagrange-Funktion für ein freies Teilchen in Polarkoordinaten aus, und setzen ϕ = ω t. Daraus ergibt sich
(12.57)
1
1
m ṙ2 + m ω 2 r2 .
(12.62)
2
2
Die einzige verbleibende Koordinate r auf dem reduzierten Konfigurationsraum gibt an, in welcher Entfernung vom Drehpunkt sich der Körper befindet. Sie kann hier auch negativ werden,
wenn sich die Stange in beide Richtungen erstreckt.
Diese Lagrange-Funktion kennen wir bereits. Es ist die gleiche Funktion (12.26), die wir auch
schon für die über die Tischkante gleitende Kette gefunden haben. Folglich ergeben sich auch
die gleichen Lösungen. Es handelt sich um zwei äquivalente mechanische Systeme. Da sie die
gleiche Lagrange-Funktion besitzen, besitzen sie auch die gleichen dynamischen Eigenschaften.
Der Körper auf der Stange “sieht” offenbar das Potenzial eines harmonischen Oszillators, allerdings wieder mit dem falschen Vorzeichen, V (r) = −m ω 2 r2 /2. Bei r = 0 befindet sich eine
instabile Gleichgewichtslage. Nach beiden Seiten fällt das Potenzial ab, so dass der Körper nach
außen beschleunigt wird. Die allgemeine Lösung der Bewegungsgleichung ist
Für t → `/c, wenn das Seil ganz eingezogen wird, wird der Körper offenbar immer schneller und
umläuft das Zentrum unendlich oft. Berechnen wir die kinetische Energie als Funktion der Zeit,
so ergibt sich
T −
1
pϕ2
1
m c2 = m (` − c t)2 ϕ̇2 =
→ ∞ für t → `/c.
2
2
2 m (` − c t)2
L=
(12.58)
Wo kommt diese Energie her? Sie muss offenbar als mechanische Leistung von der Zwangskraft
aufgebracht werden, also von der äußeren Instanz geliefert werden, die das Seil verkürzt. Um das
zu zeigen, berechnen wir für dieses Beispiel die Zwangskraft. Wir führen dazu auf dem Konfigurationsraum die zusätzliche Koordinate r ein und definieren die erweiterte Lagrange-Funktion
mit einem Multiplikator λ und der Zwangsbedingung C = r − ` + c t,
1
Le = m ṙ2 + r2 ϕ̇2 − λ (r − ` + c t).
2
(12.59)
r(t) = b eω t + c e−ω t .
Der Lagrange-Multiplikator ist dann bis auf das Vorzeichen die r-Komponente der Zwangskraft,
und die ϕ-Komponente der Zwangskraft verschwindet,
Zr = −λ
∂C
= −λ,
∂r
Zϕ = −λ
∂C
= 0.
∂ϕ
Die rotierende Stange ist eine Schleuder, auf der der Körper exponentiell nach außen beschleunigt
wird.
(12.60)
Aufgabe 12.24 Die rotierende Stange lässt sich wie folgt variieren. Die Rotationsachse muss
nicht zur Stange senkrecht stehen. Der Körper bewegt sich dann nicht in einer Ebene, sondern
auf einem Kegel. Nehmen wir an, die Stange rotiere mit einer Winkelgeschwindigkeit ω um die
z-Achse und bilde mit dieser einen Winkel α. Zusätzlich spürt der Körper die Gravitationskraft.
Wo befindet sich jetzt die Gleichgewichtslage? Handelt es sich um eine stabile oder instabile
Gleichgewichtslage?
Aus der Bewegungsgleichung für r ergibt sich
d ∂ Le ∂ Le
d
m ṙ − m r ϕ̇2 + λ
−
=
dt ∂ ṙ
∂r
dt
⇒
Zr = −λ = −
pϕ2
.
m (` − c t)3
(12.63)
(12.61)
Auch die Zwangskraft divergiert für t → `/c. Um das Seil ganz einzuziehen, wird schließlich
eine unendliche Kraft benötigt. Die einzige Ausnahme liegt vor, wenn p ϕ = 0 ist. Dann wird der
Körper einfach radial nach innen gezogen. In diesem Fall ist gar keine Zwangskraft erforderlich,
da sich der Körper ohnehin geradlinig und gleichförmig mit der Geschwindigkeit c auf das Loch
zu bewegen würde.
Das rotierende Pendel
Ein weiteres Beispiel für ein System mit zeitabhängigen Zwangsbedingungen ist das angetriebene
Pendel in Abbildung 12.5(a). Der Aufhängepunkt rotiert mit einer Winkelgeschwindigkeit ω auf
einem Kreis mit Radius a. Die Länge des Pendels sei `.
52
(a)
(b)
(c)
(d)
replacements
V
V
ϑ+
ω
−π
ϑ+
ω=0
`
(d)
ϑ
π
−π
π
ω < ω0
(b)
V
ϑ−
m
V
ϑ+
−π
ϑ−
(a)
ϑ−
π
ω = ω0
ϑ+
−π
π
ω > ω0
(c)
Abbildung 12.5: Der Aufhängepunkt des Pendels (a) rotiert mit einer Winkelgeschwindigkeit
ω und zwingt das Pendel, ebenfalls mit dieser Winkelgeschwindigkeit zu rotieren. Der einzige
Freiheitsgrad ist der Auslenkwinkel ϑ. Es ergibt sich eine stabile Gleichgewichtslage (b), bei der
das Pendel nach außen ausgelenkt ist, sowie bei hinreichend hoher Antriebsgeschwindigkeit eine
zweite stabile Gleichgewichtslage (c), bei der das Pendel nach innen ausgelenkt ist.
Abbildung 12.6: Das effektive Potenzial für das rotierende Pendel mit a = 0.2 `. Die Antriebsfrequenz ω nimmt von oben links nach unten rechts zu.
Bilden wir daraus die Lagrange-Funktion L = T − V, so hat diese wieder die übliche Form einer
Lagrange-Funktion für ein freies Teilchen in einem effektiven Potenzial,
Legen wir den Koordinatenursprung o in die Mitte dieses Kreises, so befindet sich der
Aufhängepunkt zur Zeit t am Ort o + a e(ω t), wobei e(ϕ) wieder der Einheitsvektor (12.41)
ist. In der einfachsten Version kann das Pendel nur in eine Richtung schwingen, und zwar in der
Ebene, die von ez und e(ω t) aufgespannt wird. Es wird also gezwungen, mit dem Antrieb mit zu
rotieren. Wir betrachten zuerst nur diese Version.
Als einzige reduzierte Koordinate haben wir dann den Auslenkwinkel ϑ. Der Pendelkörper
befindet sich am Ort
(12.64)
r = o + (a + ` sin ϑ) e(ω t) − ` cos ϑ ez .
L=
und anschließend das Betragsquadrat davon bilden. Daraus ergibt sich die kinetische Energie T ,
und für das Potenzial V setzen wir wie üblich das Gravitationspotenzial an,
1
1
m `2 ϑ̇2 + m ω 2 (a + ` sin ϑ)2 ,
2
2
V = −m g ` cos ϑ.
mit
1
Ve (ϑ) = −m g ` cos ϑ − m ω 2 (a + ` sin ϑ)2 .
2
(12.67)
Die Bewegungsgleichung für die Auslenkung ϑ ist folglich die für ein gewöhnliches Teilchen in
einem Potenzial Ve (ϑ), nur dass es sich hier um eine periodische Koordinate handelt, also ϑ und
ϑ + 2 π dieselbe Pendelstellung repräsentieren.
Die Form des effektiven Potenzials Ve hängt von den Parametern des Pendels ab. Entscheidend
sind zwei dimensionslose Größen, nämlich das Verhältnis des Radius a desp
Antriebs zur Pendellänge `, sowie das Verhältnis der Antriebsfrequenz ω zur Eigenfrequenz g/` des Pendels.
Für einige typische Fälle ist das Potenzial in Abbildung 12.6 dargestellt.
Für ω = 0 handelt es sich um ein gewöhnliches Pendel ohne Antrieb. Es gibt eine stabile
Gleichgewichtslage bei ϑ = 0 und eine instabile Gleichgewichtslage bei ϑ = ±π. Schaltet man
den Antrieb ein, so verschiebt sich die stabile Gleichgewichtslage nach außen. Das Pendel wird
durch die Drehung von der Rotationsachse weg ausgelenkt und kann um die neue stabile Gleichgewichtslage bei ϑ = ϑ+ > 0 schwingen. Abbildung 12.5(b) zeigt die “Ruhelage”, bei der das
Pendel starr mit dem Antrieb rotiert. Für ω → ∞ geht ϑ+ → π/2. Bei einem sehr schnellen
Antrieb steht das Pendel beinahe horizontal. Das ist natürlich genau das, was man erwartet.
Interessanterweise gibt es eine kritische Antriebsfrequenz ω = ω0 , bei der für ϑ = ϑ− < 0 eine zweite Gleichgewichtslage auftritt. Diese ist zunächst instabil, da es sich um einen Sattelpunkt
des Potenzials handelt. Für ω > ω0 spaltet sie jedoch in eine stabile und eine instabile Gleichge-
Ein positiver Winkel ϑ bedeutet, dass das Pendel “nach außen”, also in die Richtung ausgelenkt
ist, in die der Antrieb gerade zeigt. Für negatives ϑ ist das Pendel dagegen “nach innen”, also zur
der Rotationsachse hin ausgelenkt.
Wie üblich berechnen wir die kinetische Energie, indem wir erst die Geschwindigkeit bestimmen,
(12.65)
ṙ = (a + ` sin ϑ) ω e0 (ω t) + ` ϑ̇ cos ϑ e(ω t) + sin ϑ ez ,
T =
1
m `2 ϑ̇2 − Ve (ϑ),
2
(12.66)
53
wichtslage auf, so dass das Pendel nun auch um die neue stabile Gleichgewichtslage bei ϑ = ϑ −
schwingen kann. Die entsprechende “Ruhelage”, bei der das Pendel starr rotiert, ohne zu schwingen, ist in Abbildung 12.5(b) dargestellt. Es ist in dieser Lage nach innen, also zur Rotationsachse
hin ausgelenkt.
Aufgabe 12.25 Man zeige, dass der kritische Wert für die Antriebfrequenz bei
ω02 = g `2/3 − a2/3 −3/2
Anholonome Zwangsbedingungen
Die bis jetzt diskutierten mechanischen Systeme waren solche, deren Zwangsbedingungen sich
e definieren, und so
auflösen ließen. Wir konnten einen reduzierten Konfigurationsraum Q ⊂ Q
die Zwangsbedingungen und die zugehörigen Lagrange-Multiplikatoren aus den Bewegungsgleichungen eliminieren. Es gibt aber noch eine andere wichtige Klasse von Zwangsbedingungen, die
typischerweise bei mechanischen Systemen auftritt.
Eine Zwangsbedingung kann auch eine Einschränkung an die Bewegungsrichtungen eines Systems sein, ohne dass die Konfigurationen selbst eingeschränkt werden. Ein typisches Beispiel
dafür ist eine rollende Kugel auf einer Tischplatte. Jede Bewegung, die die Kugel auf dem Tisch
ausführt, bedingt eine gleichzeitige Drehung. Die Konfigurationen selbst sind aber, mit Ausnahme
der Forderung, dass die Kugel auf dem Tisch liegen soll, nicht eingeschränkt. Man kann die Kugel von jeder Stelle an jede andere bewegen, und dabei auch in jede beliebigen Richtung drehen,
wenn man nur einen geeigneten Weg nimmt.
Leider ist dieses sehr anschauliche Beispiel noch etwas zu anspruchsvoll. Um eine rollende
Kugel richtig zu beschreiben, müssen wir zuerst die Drehbewegung eines starren Körpers verstehen. Wir werden uns aber gleich ein ähnliches Beispiel anschauen, das auf dem Rad aus Abbildung 12.3 beruht. Zuerst wollen wir jedoch die grundsätzlichen Eigenschaften solcher anholonomer Zwangsbedingungen diskutieren.
Der Ausgangspunkt der folgenden Überlegungen ist ein Konfigurationsraum Q, der entweder
der ursprüngliche Konfigurationsraum eines N -Teilchen-Systems ist, oder der bereits reduzierte
Konfigurationsraum eines Systems, nachdem wir alle holonomen Zwangsbedingungen eliminiert
haben. Auf diesem Raum sei ein beliebiges Koordinatensystem {q µ } eingeführt. Falls es sich um
einen reduzierten Konfigurationsraum handelt, nennen wir die reduzierten Koordinaten jetzt also
wieder q µ , um eine einheitliche Notation zu bekommen.
Eine anholonome Zwangsbedingungen verbietet Bewegungen in bestimmte Richtungen. Sie
stellt keine Forderung an die Koordinaten q µ , schränkt aber die erlaubten Geschwindigkeiten q̇ µ
ein. Befindet sich das System zu einer Zeit t an einem Ort q ∈ Q, so ist seine Bewegungsfreiheit
auf einen Untervektorraum von TQ eingeschränkt. Dies kann an jeder Stelle q und zu jeder Zeit
t ein anderer Untervektorraum sein.
Die Abbildung 12.7(a) zeigt eine grafische Darstellung einer solchen Zwangsbedingung. An
jedem Punkt q ∈ Q spannen die erlaubten Bewegungsrichtungen einen Untervektorraum auf.
Diesen können wir durch einen Satz von K linearen Gleichungen beschreiben, die die Geschwindigkeit q̇ ∈ TQ zu erfüllen hat,
(12.68)
liegt, und dass die zweite stabile Gleichgewichtslage nur dann auftreten kann, wenn a < ` ist.
Gibt es dafür eine anschauliche Begründung? Warum ergibt sich für a = 0 für die kritische
Antriebsfrequenz genau die Eigenfrequenz ω0 2 = g/`?
Aufgabe 12.26 Eine anspruchsvollere Version des angetriebenen Pendels ergibt sich, wenn wir
nicht mehr verlangen, dass das Pendel nur in einer sich drehenden Ebene schwingt. Statt dessen lassen wir es jetzt wie ein freies Pendel im Raum schwingen. Ein solches Pendel wird von
der Gondel eines Kettenkarussells realisiert. Der Ort r des Pendelk örpers lässt sich durch zwei
Koordinaten (ϑ, ϕ) parametrisieren,
r = o + a e(ω t) + ` sin ϑ e(ϕ + ω t) − ` cos ϑ ez .
(12.69)
Hier ist ϑ wieder die Auslenkung, ϕ jedoch nicht wie üblich die Richtung der Auslenkung im
Raum, sondern die Abweichung der Auslenkrichtung von der momentanen Stellung des Antriebs.
Man zeige, dass sich daraus die zeitunabhängige Lagrange-Funktion
L=
1
m a2 ω 2 + `2 ϑ̇2 + `2 sin2 ϑ (ϕ̇ + ω)2 +
2
+ m a ω ` cos ϑ sin ϕ ϑ̇ + sin ϑ cos ϕ (ϕ̇ + ω) + m g ` cos ϑ
(12.70)
ergibt. Mit dem Satz aus Aufgabe 11.27 lässt sich diese vereinfachen. Man zeige, dass die alternative Lagrange-Funktion
L0 =
1
m `2 ϑ̇2 + sin2 ϑ (ϕ̇ + ω)2 + m a ω 2 ` sin ϑ cos ϕ + m g ` cos ϑ
2
(12.71)
dieselben Bewegungsgleichungen liefert. Wegen der speziellen Wahl der Koordinaten entspricht
eine Lösung ϑ(t) = konst und ϕ(t) = konst einer Bewegung, bei der das Pendel starr mit dem
Antrieb mitrotiert. Man zeige, dass dieses Pendel dieselben Gleichgewichtslagen hat wie zuvor
das eingeschränkte Pendel, dass davon jedoch nur noch eine stabil ist, n ämlich die mit ϑ = ϑ+
und ϕ = 0.
X kµ (q, t) q̇ µ = 0,
mit k ∈ {1, . . . , K}.
(12.72)
Als einfachstes, wenn auch etwas unrealistisches Beispiel können wir uns vorstellen, dass es
einem Teilchen nicht möglich ist, sich in eine bestimmte Raumrichtung zu bewegen, etwa in
x-Richtung. Dann lautet die Zwangsbedingung ganz einfach ẋ = 0, wenn x die entsprechende
Koordinate dieses Teilchens ist. Oder es ist zwei Teilchen nicht erlaubt, sich relativ zueinander zu
54
replacements
(c)
(d)
q3
q3
bewegen. Dann hätten wir drei solche Zwangsbedingungen, nämlich ẋ 1 − ẋ2 = 0, ẏ1 − ẏ2 = 0
und ż1 − ż2 = 0.
Auf dem Konfigurationsraum Q lassen sich solche Einschränkungen an die Bewegungsrichtungen immer als ein lineares Gleichungssystem darstellen, das die Komponenten der Geschwindigkeiten q̇ µ zu erfüllen haben. Die Koeffizienten in diesem Gleichungssystem sind die Größen
X kµ in (12.72), die im allgemeinen vom Ort q und von der Zeit t abhängen können. Wir können
sie als einen Satz von K dualen Vektorfeldern auf Q auffassen.
Dann ist der Wert der Funktion C entlang jedes erlaubten Weges konstant. Denn genau das besagt
die Gleichung Xµ q̇ µ = ∂C/∂q µ q̇ µ = 0. Das System darf sich nur in solche Richtungen bewegen,
in die die Funktion C konstant ist, also eine verschwindende Richtungsableitung hat. Wenn zwei
Konfigurationen q1 und q2 entlang eines erlaubten Weges miteinander verbunden werden können,
dann muss die Funktion C für beide denselben Wert haben.
Umgekehrt, wenn die Funktion C für die beiden Konfigurationen q 1 und q2 verschiedene Werte hat, dann können wir daraus unmittelbar schießen, dass sich das System niemals von q 1 nach
q2 bewegen kann. Es verbleibt immer in einem Unterraum mit C = konst. Liegt eine solche
“scheinbar” anholonome Zwangsbedingung vor, dann verhält sich das System wie bei einer entsprechenden holonomen Zwangsbedingung C − konst = 0, mit dem einzigen Unterschied, dass
die Konstante beliebig vorgegeben werden kann.
Wenn das Vektorfeld Xµ , das die Zwangsbedingung Xµ q̇ µ = 0 definiert, jedoch nicht der
Gradient irgendeiner skalaren Funktion zw ist, dann können wir dieses Argument nicht mehr
anwenden. Dann ist es im allgemeinen so, wie in Abbildung 12.7(b) gezeigt. Obwohl die zwei
Konfigurationen q1 und q2 nicht auf dem direkten Weg miteinander verbunden werden können,
gibt es einen Umweg, auf dem das System doch von q1 nach q2 gelangen kann. In diesem Fall ist
die Zwangsbedingung “echt” anholonom. Sie lässt ich nicht als Zeitableitung einer holonomen
Zwangsbedingung darstellen.
Wir werden für beide Fälle gleich ein Beispiel kennen lernen. Für die allgemeine Beschreibung von anholonomen Zwangsbedingungen spielt es zunächst keine Rolle, ob es sich um “echt”
oder “scheinbar” anholonome Bedingungen handelt. Entscheidend ist nur, dass der Konfigurationsraum selbst nicht eingeschränkt wird, sondern nur die möglichen Bewegungsrichtungen.
Um die Bewegungsgleichungen zu formulieren, gehen wir von der d’Alembertschen Form aus,
wobei wir die Kräfte wieder in dynamische Kräfte und Zwangskräfte aufteilen,
Eine anholonome Zwangsbedingung wird durch ein duales Vektorfeld auf dem Konfigurationsraum eines mechanischen System definiert. Sie verbietet Bewegungen in
ein bestimmte Richtung.
d ∂T
∂T
= Fµ + Zµ .
µ −
dt ∂ q̇
∂q µ
Um den Unterschied zwischen einer holonomen und einer anholonomen Zwangsbedingung
deutlich zu machen, betrachten wir noch einmal eine holonome Zwangsbedingung der Form
C(q, t) = 0. Eine solche Zwangsbedingung impliziert natürlich auch eine Einschränkung der
möglichen Bewegungsrichtungen. Leiten wir nämlich die gegebene Gleichung nach der Zeit ab,
so ergibt sich Xµ (q, t) q̇ µ = 0, mit Xµ = ∂C/∂q µ . Die Einschränkung der Bewegungsrichtung
ist also genau von der Form (12.72).
Es gibt aber einen wesentlichen Unterschied. Im allgemeinen muss das duale Vektorfeld X µ ,
das eine anholonome Zwangsbedingung Xµ q̇ µ = 0 definiert, nicht der Gradient irgendeiner skalaren Funktion C sein. Was das bedeutet, wird in Abbildung 12.7(b) veranschaulicht. Nehmen wir
an, wie befinden uns an einer Stelle q1 ∈ Q im Konfigurationsraum. Ein zweiter Zustand q2 ∈ Q
ist von dort aus auf dem direkten Weg unerreichbar, weil wir dazu in eine verbotene Richtung
gehen müssten.
Betrachten wir zuerst den Fall, dass Xµ = ∂C/∂q µ der Gradient einer skalaren Funktion ist.
Am Anfang dieses Kapitels hatten wir gezeigt, dass wir eine holonome Zwangsbedingung als
Grenzfall einer unendlich starken Potenzialkraft verstehen können. Analog gilt für eine anholonome Zwangsbedingung, dass sie als Grenzfall einer unendlich starken Reibungskraft betrachtet
werden kann. Eine Bewegung in eine verbotene Richtung würde eine unendliche Kraft erfordern,
um diese Reibung zu überwinden.
Wir wollen daher versuchen, die Zwangskraft Zµ erst als Reibungskraft darzustellen, um dann
einen geeigneten Grenzwert zu bilden. Der Einfachheit halber soll zunächst nur eine Zwangsbedingung Xν q̇ ν = 0 vorliegen. Solange sich das System frei bewegen kann, ist X ν q̇ ν gerade die
Geschwindigkeitskomponente in die eigentlich verbotene Richtung. Die Reibungskraft Z µ soll
daher proportional zu dieser Geschwindigkeit sein. Wir machen also für die Reibungskraft einen
linearen Ansatz.
Eine weitere Bedingung an die Reibung ist, dass sie keine mechanische Leistung erbringt, wenn
die Bewegung des Systems in eine erlaubte Richtung erfolgt. Aus X µ q̇ µ = 0 soll also Zµ q̇ µ = 0
q2
q2
q1
q1
1
Xµ q̇ µ = 0
2
(b)
(a)
Abbildung 12.7: Eine anholonome Zwangsbedingung schränkt die Geschwindigkeit ˙ ∈ TQ
an jeder Stelle ∈ Q im Konfigurationsraum auf einen Untervektorraum ein (a). Über einen
geeigneten Weg kann trotzdem jeder Punkt im Konfigurationsraum erreicht werden (b).
55
(12.73)
folgen. Das ist genau dann der Fall, wenn die dualen Vektoren Z µ und Xµ zueinander proportional
sind. Die Zwangsbedingung bestimmt also unmittelbar die Richtung der Zwangskraft. Beides
zusammen impliziert
(12.74)
Zµ = −Λ Xµ Xν q̇ ν ,
wegungsgleichungen
wobei Λ wieder irgendeine große positive Zahl ist. Sie hat in diesem Fall die Bedeutung einer Reibungskonstanten. Das Vorzeichen ergibt sich aus der Forderung, dass die von der Reibungskraft
erbrachte Leistung negativ sein muss, wenn sich das System in eine verbotene Richtung bewegt.
Das ist genau dann der Fall, wenn Λ > 0 ist, denn dann ist immer Z µ q̇ µ ≤ 0, und das Gleichheitszeichen gilt nur dann, wenn Xµ q̇ µ = 0 ist, die Bewegung also in eine erlaubte Richtung
erfolgt.
Liegen mehrere Zwangsbedingungen vor, so können wir analog den Ansatz machen, dass die
Reibungskraft irgendeine lineare Funktion der verbotenen Geschwindigkeiten X kµ q̇ µ ist. Außerdem muss sie eine Linearkombination der dualen Vektoren X kµ sein, denn nur dann verschwindet
die erbrachte Leistung für erlaubte Geschwindigkeiten. Das ergibt
X
Zµ = −
Λkl X kµ X lν q̇ ν .
(12.75)
Anders als im Falle der holonomen Zwangsbedingungen lassen sich diese Gleichungen allerdings
nicht aus einer erweiterten Lagrange-Funktion ableiten, auch wenn die dynamischen Kräfte F µ
Potenzialkräfte sind. Der Grund dafür ist, dass es sich bei den Zwangskräften um Reibungskräfte
handelt, und diese lassen sich nicht aus einer Lagrange-Funktion ableiten.
Zusammenfassend ergibt sich daraus die folgende allgemeine Strategie zum Aufstellen der
Bewegungsgleichungen für ein mechanisches System mit Zwangsbedingungen. Zuerst lösen wir
e zu eidie holonomen Zwangsbedingungen, indem wir vom erweiterten Konfigurationsraum Q
nem reduzierten Konfigurationsraum Q übergehen. Sind die holonomen Zwangsbedingungen
e Die Dimension
zeitabhängig, so ist dieser Raum zu jeder Zeit t ein anderer Unterraum Q t von Q.
dieses Raumes ist die Anzahl der Freiheitsgrade des System.
In jedem Fall können wir auf Q bzw. Qt ein Koordinatensystem {q µ } einführen, und die Energiefunktionen T und V, bzw. die Komponenten Fµ der dynamischen Kräfte als Funktionen der
Koordinaten q µ , der zugehörigen Geschwindigkeiten q̇ µ und der Zeit t darstellen. Dann müssen
wir nur noch die anholonomen Zwangsbedingung in die Bewegungsgleichungen einbauen, indem wir für jede solche Zwangsbedingung X k = X kµ q̇ µ = 0 einen Lagrange-Multiplikator λk
einführen, und eine entsprechende Zwangskraft λk X kµ zu den Bewegungsgleichungen (12.77)
hinzufügen.
Zusammen mit den Zwangsbedingungen selbst ergibt sich dann ein System von Differenzialgleichungen für die Funktionen q µ (t) und λk (t). Jedoch gehen die Multiplikatoren nur linear in
diese Gleichungen ein, so dass wir sie leicht eliminieren können, indem wir solche Linearkombinationen der Bewegungsgleichungen bilden, in denen sie verschwinden. Wir werden das gleich
an einem Beispiel zeigen. Solange wir nicht an den Zwangskräften interessiert sind, müssen wir
nur die Bewegungsgleichungen für die Koordinatenfunktionen q µ (t) lösen.
X
d ∂T
∂T
λk X kµ ,
µ −
µ = Fµ −
dt ∂ q̇
∂q
k
k,l
Die K×K-Matrix Λkl muss wieder positiv sein, damit die von der Reibungskraft erbrachte Leistung Zµ q̇ µ immer negativ ist, wenn eine Bewegung in eine verbotene Richtung erfolgt.
Der Rest des Argumentes ist genau dasselbe wie zuvor für die holonomen Zwangsbedingungen. Wir bilden jetzt den Grenzwert, in dem die Einträge der Matrix Λ kl , oder zumindest ihre
Eigenwerte unendlich groß werden. Dann wird das System gezwungen, nur noch Bewegungen in
erlaubte Richtungen auszuführen, weil Bewegungen in verbotene Richtungen unendlich schnell
exponentiell abgebremst werden. Der Ausdruck X lν q̇ ν in (12.75) geht dann gegen Null, und zwar
so, dass die Zwangskraft Zµ endlich bleibt.
Nach dem Grenzübergang wissen nur noch, dass Zµ eine Linearkombination der dualen Vektoren X kµ ist. Die Koeffizienten kennen aber nicht. Wir schreiben dafür wieder
X
Zµ = −
λk X kµ .
(12.76)
X kµ q̇ µ = 0.
(12.77)
Aufgabe 12.27 Ein N -Teilchen-System unterliege K holonomen und K 0 anholonomen Zwangsbedingungen. Man zeige, dass die Lösungen der Bewegungsgleichungen dann von 6 N −2 K −K 0
unabhängigen Parametern abhängen. Es müssen also 6 N − 2 K − K 0 Anfangsbedingungen festgelegt werden.
k
Die dualen Vektorfelder X kµ spielen hier offenbar dieselbe Rolle wie in (12.7) die Gradienten
∂C k /∂q µ der holonomen Zwangsbedingungen. Die Analogie hatten wir schon weiter oben hergestellt. Wenn X kµ die Gradienten von skalaren Funktionen C µ sind, dann sind die Zwangsbedingungen X kµ q̇ µ nur scheinbar anholonom, und das System verhält sich ansonsten wir eines
mit holonomen Zwangsbedingungen. Daher steht auch in (12.76) der bekannte Ausdruck für die
Zwangskraft.
Ebenfalls ganz analog zu den holonomen Zwangsbedingungen sind die LagrangeMultiplikatoren λk wieder unbekannte Funktionen der Zeit. Sie ergeben sich erst aus den Be-
Das rollende Rad
Als anschauliches Beispiel für ein System mit anholonomen Zwangsbedingungen betrachten wir
nun noch einmal das Rad aus Abbildung 12.3. Seine Achse soll jetzt aber nicht fixiert sein, sondern es soll auf einer ebenen Fläche rollen. Es könnte sich zum Beispiel um eine rollende Münze
auf einem Tisch handeln. Um das prinzipielle Vorgehen zuerst an einem sehr einfachen Fall zu
erläutern, soll die Achse des Rades zwar im Raum beweglich, aber fest ausgerichtet sein. Sie soll
wie in Abbildung 12.3(a) stets in Richtung der x-Achse zeigen.
56
Wieviele Freiheitsgrade hat dieses System? Wir haben natürlich wieder den Drehwinkel χ des
Rades. Außerdem können wir das Rad an eine beliebige Stelle auf dem Tisch platzieren. Das
sind noch einmal zwei Freiheitsgrade, denen wir die Koordinaten x und y zuordnen. Es sei also
o + x ex + y ey der Punkt, an dem das Rad auf der Fläche aufliegt. Insgesamt hat das System
dann drei Freiheitsgrade (x, y, χ), also einen dreidimensionalen reduzierten Konfigurationsraum
Q.
Der Mittelpunkt des Rades befindet sich, da es nur aufrecht stehen kann, an der Stelle o+x e x +
y ey + R ez . Wenn wir wieder annehmen, dass die Masse des Rades auf den Rand konzentriert
ist und aus N gleichen Teilchen besteht, können wir mit dem bereits bekannten Trick auch hier
die kinetische Energie bestimmen. Das Teilchen mit der Nummer n befindet sich am Ort
rn = o + x ex + y ey + R sin χn ey + (1 − cos χn ) ez ,
mit χn = χ −
Somit lauten die zusätzlich zu stellenden Zwangsbedingungen
X 1 = ẋ = 0,
2π n
. (12.78)
N
(12.79)
Wenn wir davon die Quadrate bilden und über alle Teilchen summieren, erhalten wir
T =
1
1
1
M R2 χ̇2 + M ẋ2 + M ẏ 2 .
2
2
2
d
dt
d
dt
(12.80)
Eine Bewegung des Rades in x- oder y-Richtung trägt also gerade so viel zur Energie bei wie die
Bewegung eines Körpers der Masse M , und die Rotationsenergie ist genau die, die wir auch für
das fixierte Rad gefunden hatten.
∂T
∂T
−
= λ1 X 1x + λ2 X 2x
∂ ẋ
∂x
∂T
∂T
−
= λ1 X 1y + λ2 X 2y
∂ ẏ
∂y
∂T
d ∂T
−
= λ1 X 1χ + λ2 X 2χ
dt ∂ χ̇
∂χ
Aufgabe 12.28 Man verifiziere das Ergebnis (12.80). Warum muss man dazu wieder annehmen,
dass die Massen gleichmäßig über den Radkreis verteilt sind?
⇒
M ẍ = λ1 ,
⇒
M ÿ = λ2 ,
⇒
M R2 χ̈ = R λ2 .
(12.83)
Die Koeffizienten X kµ für k ∈ {1, 2} und µ ∈ {x, y, χ} haben wir aus (12.82) entnommen. Es
sind die Koeffizienten in den Zwangsbedingungen X k = X kµ q̇ µ .
Wir müssen jetzt ein Gleichungssystem für fünf unbekannte Funktionen lösen, nämlich die
Ortskoordinaten x(t), y(t) und χ(t), und die beiden Lagrange-Multiplikatoren λ 1 (t) und λ2 (t).
Wir haben aber auch fünf Gleichungen, nämlich die Bewegungsgleichungen (12.83) und die
Zwangsbedingungen (12.82). Zum Glück sind sie sehr einfach. Wir können die Lösungen sofort
angeben.
Aus der ersten Zwangsbedingung und der ersten Bewegungsgleichung folgt ẋ = 0 und λ 1 = 0.
Es findet keine Bewegung in x-Richtung statt, und es wirkt auch keine Zwangskraft in diese Richtung. Teilen wir die dritte Bewegungsgleichung durch R und subtrahieren sie von der zweiten, so
bekommen wir ÿ − R χ̈ = 0. Leiten wir die zweite Zwangsbedingung noch einmal nach t ab, so
ergibt das ÿ + R χ̈ = 0. Beides zusammen impliziert ÿ = 0 und χ̈ = 0, und schließlich mit folgt
daraus auch λ2 = 0. Zusammengefasst ergibt sich die folgende allgemeine Lösung,
Aus (12.80) entnimmt man sofort, dass die Rotations- und Translationsbewegung des Rades entkoppeln, wenn keine dynamischen Kräfte wirken. Allerdings haben wir noch gar nicht berücksichtigt, dass noch eine weitere Zwangsbedingung vorliegt. Das Rad soll auf der Ebene rollen und
nicht rutschen. Es darf sich also nur in eine Richtung bewegen, die senkrecht zur Achse steht, und
muss dabei auch tatsächlich abrollen. Wenn es sich um einen Winkel α dreht, dann muss es dabei
eine Strecke R α zurücklegen.
Eine solche Zwangsbedingung stellt offenbar eine Einschränkung an die Geschwindigkeiten,
aber nicht an die Orte dar. Sie ist deshalb nicht holonom. Um sie explizit aufzuschreiben, betrachten wir wieder ein bestimmtes Teilchen auf der Lauffläche des Rades, und zwar das Teilchen, das
gerade auf dem Tisch aufliegt. Wenn das Rad nicht rutschen soll, dann darf sich dieses Teilchen
in dem Moment, in dem es den Tisch berührt, nicht bewegen.
Das Teilchen, dass gerade den Tisch berührt, hat natürlich wieder die Nummer n̄ = N χ/2π,
und für dieses Teilchen gilt χn̄ = 0. Die Geschwindigkeit dieses Teilchens ist laut (12.79)
ṙn̄ = ẋ ex + (ẏ + R χ̇) ey .
(12.82)
Das Rad kann sich nicht in x-Richtung bewegen, und es rollt in y-Richtung genau in der Art,
wie wir es gerade beschrieben haben. Eine Änderung des Winkels um α kann nur gleichzeitig
mit einer Bewegung um −R α in y-Richtung erfolgen. Dass hier noch ein Minuszeichen auftritt
liegt nur an der speziellen Ausrichtung des Koordinatensystems und der willkürlichen Wahl der
positiven Drehrichtung des Rades.
Die Zwangsbedingungen sind genau von der Form (12.72). Sie sind linear in den Geschwindigkeiten, das heißt die schränken die Bewegungsrichtungen im Konfigurationsraum ein, aber sonst
nichts. Von den drei möglichen Richtungen, in denen sich das System “rollendes Rad” bewegen
könnte, nämlich in x-, y- oder χ-Richtung, ist nur eine zulässig, nämlich eine Rollbewegung in
y-Richtung mit gleichzeitiger Drehung in χ-Richtung.
Um die Bewegungsgleichungen aufzustellen, müssen wir nun die erweiterten d’Alembertschen
Gleichungen (12.77) mit Zwangskräften verwenden. Da hier keine dynamischen Kräfte vorliegen,
ist Fµ = 0. Es muss also gelten
Die Geschwindigkeiten sind folglich
ṙn = ẋ ex + ẏ ey + R χ̇ cos χn ey + sin χn ez ,
X 2 = ẏ + R χ̇ = 0.
x(t) = x0 ,
(12.81)
57
y(t) = y0 − R ω t,
χ(t) = χ0 + ω t,
λ1 (t) = 0,
λ2 (t) = 0.
(12.84)
M ergibt, also
replacements
(d)
T =
(a)
(b)
1
1
1
1
M R2 χ̇2 + M R2 ϕ̇2 + M ẋ2 + M ẏ 2 .
2
4
2
2
(12.85)
Auf den ersten Blick sind die vier Bewegungsrichtungen wieder entkoppelt. Aber wir müssen
natürlich noch die Zwangsbedingungen berücksichtigen, die dafür sorgen, dass das Rad rollt und
nicht rutscht. Wir betrachten dazu wieder die Geschwindigkeit des Teilchens mit der Nummer
n̄ = N χ/2π, das gerade den Tisch berührt, und verlangen, dass diese verschwindet. Um die
neue Ausrichtung der Achse zu berücksichtigen, müssen wir wieder e y durch e0 (ϕ) ersetzen. Es
ist jetzt
(12.86)
ṙn̄ = ẋ ex + ẏ ey + R χ̇ e0 (ϕ).
(c)
Abbildung 12.8: Das Rad aus Abbildung 12.3 rollt auf einem Tisch. Je nach der Zahl der Freiheitsgrade kann es entweder nur geradeaus laufen, aufrecht um eine Kurve fahren, oder dabei
auch noch kippen.
Komponentenweise aufgeschrieben ergeben sich die Zwangsbedingungen
X 1 = ẋ − R sin ϕ χ̇ = 0,
Das Rad rollt geradlinig mit konstanter Geschwindigkeit in Richtung der y-Achse, und es treten nie irgendwelche Zwangskräfte auf. Das liegt daran, dass das Rad diese Bewegung ohnehin
ausführen würde, wenn man die Anfangsbedingungen entsprechend wählt. Es bewegt sich als
ganzes geradlinig und gleichförmig und dreht sich mit konstanter Winkelgeschwindigkeit.
Entscheidend ist jedoch, dass die allgemeine Lösung der Bewegungsgleichungen nur von vier
Parametern abhängt, nämlich x0 , y0 , χ0 und ω, obwohl der reduzierte Konfigurationsraum dreidimensional ist, so dass ohne zusätzliche Zwangsbedingungen sechs Anfangsbedingungen zu
wählen wären, nämlich drei Orte und drei Geschwindigkeiten. Anholonome Zwangsbedingungen schränken zwar die Orte nicht ein, aber die Geschwindigkeiten und somit auch die wählbaren
Anfangsbedingungen.
X 2 = ẏ + R cos ϕ χ̇ = 0.
(12.87)
Anschaulich interpretiert besagen diese Gleichungen, dass sich das Rad in der x-y-Ebene nur in
die Richtung bewegen darf, die senkrecht zur momentanen Ausrichtung ϕ der Achse steht, und
dass es dabei abrollt, also bei einem Drehwinkel α die Strecke R α zurücklegt.
Das Aufstellen der Bewegungsgleichungen erfolgt wie oben, nur dass wir jetzt eine mehr bekommen,
d
dt
d
dt
Aufgabe 12.29 Wie man leicht in (12.82) sieht, lassen sich diese beiden Zwangsbedingungen
als totale Zeitableitungen von zwei Funktionen schreiben, nämlich X 1 = dx/dt und X 2 =
d(y + R χ)/dt. Die Zwangsbedingungen sind also nur scheinbar anholonom. Worin besteht jedoch der wesentliche Unterschied zwischen den hier gestellten Bedingungen und der alternativen Beschreibung eines rollenden Rades durch holonome Zwangsbedingungen C 1 = x und
C 2 = y + R χ?
∂T
∂T
−
= λ1 X 1x + λ2 X 2x
∂ ẋ
∂x
∂T
∂T
−
= λ1 X 1y + λ2 X 2y
∂ ẏ
∂y
⇒
M ẍ = λ1 ,
⇒
M ÿ = λ2 ,
∂T
d ∂T
−
= λ1 X 1χ + λ2 X 2χ
dt ∂ χ̇
∂χ
⇒
M R2 χ̈ = R (λ2 cos ϕ − λ1 sin ϕ),
∂T
d ∂T
−
= λ1 X 1ϕ + λ2 X 2ϕ
dt ∂ ϕ̇
∂ϕ
⇒
M R2 ϕ̈ = 0.
(12.88)
Auch hier haben wir die Koeffizienten X kµ für k ∈ {1, 2} und µ ∈ {x, y, χ, ϕ} wieder aus der
expliziten Darstellung (12.87) der Zwangsbedingungen C k = X kµ q̇ µ abgelesen.
Die letzte Bewegungsgleichung für ϕ(t) können wir sofort lösen. Es ist
Nun war dieses System ein sehr einfaches, und das Ergebnis war auch genau das erwartete. Das
Rad rollt, wie in Abbildung 12.8(a) gezeigt, einfach geradeaus über den Tisch. Im nächsten Schritt
führen wir wieder einen zusätzlichen Freiheitsgrad ein und erlauben dem Rad, seine Achse zu
drehen, aber nicht zu kippen. Wie wir gleich sehen werden, führt ein solches Rad eine interessante
Bewegung aus, die man vielleicht nicht sofort erwartet.
Der reduzierte Konfigurationsraum des Systems ist jetzt vierdimensional und wird durch die
Koordinaten (x, y, ϕ, χ) beschrieben, wobei der Winkel ϕ wieder die Ausrichtung der Achse ist.
ϕ̈ = 0
⇒
ϕ(t) = ϕ0 + γ t,
(12.89)
wobei γ und ϕ0 Integrationskonstanten sind. Die Achse des Rades dreht sich gleichmäßig mit
einer beliebigen Winkelgeschwindigkeit γ. Die Konstante ϕ0 ist die Ausrichtung der Achse zur
Zeit t = 0. Wir können ohne Beschränkung der Allgemeinheit ϕ 0 = 0 setzen, wenn wir das
Koordinatensystem entsprechend anpassen.
Aufgabe 12.30 Die Herleitung der kinetischen Energie erfolgt wie oben. Man zeige, dass sich die
Summe aus der Rotationsenergie (12.46) und der Translationsenergie eines K örpers der Masse
58
Aus den restlichen Bewegungsgleichungen lassen sich die Multiplikatoren eliminieren. Wir
setzen dazu die ersten beiden Gleichungen in die dritte ein und erhalten
R χ̈ = ÿ cos(γ t) − ẍ sin(γ t).
Aufgabe 12.34 Zuletzt lassen sich auch noch Reibungskräfte einbeziehen. Man kann zwischen
Rollreibung, Drehreibung und Kippreibung unterscheiden, entsprechend den drei Richtungen, in
die das Rad rollt, sich dreht bzw. kippt. Man kann für diese Kräfte den linearen Ansatz
(12.90)
Fx = 0,
Andererseits folgt aus den Zwangsbedingungen, wenn wir die gefundene Lösung für ϕ einsetzen
und diese dann nach der Zeit ableiten,
ẍ = R γ cos(γ t) χ̇ + R sin(γ t) χ̈,
ÿ = R γ sin(γ t) χ̇ − R cos(γ t) χ̈.
⇒
χ(t) = χ0 + ω t.
(12.91)
(12.92)
Das Rad rotiert mit einer ebenfalls konstanten Winkelgeschwindigkeit ω um seine Achse. Da χ 0
wieder nur die Stellung des Rades zur Zeit t = 0 repräsentiert, können wir auch diese Integrationskonstante ohne Beschränkung der Allgemeinheit gleich Null setzen.
Damit ist schon anschaulich klar, wie sich das Rad bewegt. Es rollt mit konstanter Geschwindigkeit über die Ebene, jedoch nicht geradeaus, sondern im Kreis, denn es verändert kontinuierlich
die Richtung seiner Bewegung. Tatsächlich folgt das auch aus den Bewegungsgleichungen. Aus
den Zwangsbedingungen ergibt sich nämlich jetzt
ẋ = R ω sin(γ t),
⇒
x(t) = x0 +
ẏ = −R ω cos(γ t)
Rω
(1 − cos(γ t)),
γ
y(t) = y0 −
Rω
sin(γ t).
γ
Fχ = −ηroll χ̇,
Fϕ = −ηdreh ϕ̇,
Fϑ = −ηkipp ϑ̇
(12.94)
machen. In einer realistischen Situation, etwa einer rollenden M ünze auf einem Tisch, sind alle
drei Reibungskonstanten etwa gleich groß. Man füge die Reibungskräfte in die Bewegungsgleichungen ein, eliminiere die Multiplikatoren, und löse die Gleichungen dann nach den Beschleunigungen auf. In dieser Form lassen sie sich numerisch integrieren, wobei als Anfangsbedingungen
fünf Koordinaten (x, y, ϑ, ϕ, χ) und drei Geschwindigkeiten (ϑ̇, ϕ̇, χ̇) vorgegeben werden können.
Man studiere anhand der numerischen Lösungen das typische Verhalten einer rollenden Münze
auf einem Tisch.
Setzen wir das in die letzte Gleichung ein, so finden wir R χ̈ = −R χ̈, also
χ̈ = 0
Fy = 0,
(12.93)
Das Rad läuft auf einem Kreis mit dem Radius R ω/γ mit der Kreisfrequenz γ um, wobei es mit
der Winkelgeschwindigkeit ω rotiert. Der Anfangspunkt (x0 , y0 ) in der Ebene kann frei gewählt
werden. Der erste Teil dieser Bewegung ist in Abbildung 12.3(b) dargestellt.
Aufgabe 12.31 Man bestimme für die hier ermittelte Bewegung die Komponenten Zx , Zy , Zϕ
und Zχ der Zwangskraft und zeige, dass die Komponenten Zx und Zy gerade die Zentripetalkraft
ergeben, die benötigt wird, um einen Körper der Masse M auf die Kreisbahn zu zwingen.
Aufgabe 12.32 Man zeige, dass die Zwangsbedingungen jetzt echt anholonom sind. Die Funktionen X k in (12.87) lassen sich nicht als Zeitableitungen von holonomen Zwangsbedingungen
darstellen. Ist es möglich, jeden Punkt des Konfigurationsraumes mit jedem anderen auf einem
erlaubten Weg zu verbinden? Was bedeutet das anschaulich?
Aufgabe 12.33 Das rollende Rad in Abbildung 12.8(c) kann auch kippen. Es sei wieder (x, y)
der Auflagepunkt, und (ϑ, ϕ, χ) seien die Winkelkoordinaten, wie sie in Abbildung 12.3 definiert
sind. Man stelle die Orte der Teilchen als Funktion dieser fünf Koordinaten dar, berechne daraus
die Lagrange-Funktion und stelle die Bewegungsgleichungen auf. Wie lauten nun die Zwangsbedingungen, wenn das Rad wieder nur rollen, aber nicht rutschen soll?
59
PSfrag replacements
13 Mannigfaltigkeiten
(u(N) , v(N) )
(c)
(d)
Im letzten Kapitel haben wir gezeigt, dass sich mechanische System mit holonomen Zwangsbedingungen sehr leicht beschreiben lassen, wenn man den reduzierten Konfigurationraum einführt.
Es genügt, alle für die Dynamik relevanten Größen, also die kinetische und die potenzielle Energie
bzw. die nicht-konservativen Kräfte, nur auf diesem Unterraum zu kennen. Wir können daher den
reduzierten Konfigurationsraum auch als den eigentlichen Konfigurationsraum betrachten. Dass
es sich um eine Teilmenge eines größeren Raumes handelt, spielt für die Dynamik des Systems
gar keine Rolle.
Dabei tritt nur ein Problem auf. Der reduzierte Konfigurationsraum ist im allgemeinen kein affiner Raum. Der reduzierte Konfigurationsraum eines Pendels ist eine Kugeloberfläche. Beim Rad
aus Abbildung 12.3 oder 12.8 hängt die Struktur dieses Raumes davon ab, wieviel Bewegungsfreiheit das Rad hat. Es stellt sich daher die folgende Frage. Wenn wir nur noch den reduzierten
Konfigurationsraum als den Raum betrachten, in dem die Dynamik stattfindet, können wir dann
überhaupt noch die ganzen Methoden verwenden, die wir uns im Zusammenhang mit affinen
Räumen und Vektorräumen erarbeitet haben? Ist es dann überhaupt noch sinnvoll, über die Geschwindigkeit als Vektor, oder die Kraft als dualen Vektor zu sprechen?
Offenbar haben wir es irgendwie geschafft, die Bewegungsgleichungen so zu formulieren, dass
wir dazu nur noch die Koordinaten auf dem reduzierten Konfigurationsraum benötigen. Formal
sahen die d’Alembertschen oder Lagrangeschen Gleichung sogar genau so aus wie die ursprünglichen Gleichungen auf dem Konfigurationsraum eines N -Teilchen-Systems ohne Zwangsbedingungen, der ja immer ein affiner Raum ist. Wir wollen nun etwas genauer untersuchen, welche
mathematischen Strukturen hinter dieser Formulierung der Bewegungsgleichungen stehen.
(x, y, z)
(u, v)
(u(S) , v(S) )
(b)
(a)
Abbildung 13.1: Eine Karte der Sphäre einsteht, indem man sie stereografisch vom Nordpol
aus auf eine Ebene projiziert (a). Durch zwei solche Karten entsteht ein Atlas, der die gesamte
Sphäre abdeckt (b). Die Punkte in der Nähe des Äquators werden von beiden Karten erfasst, die
Polregionen nur von jeweils einer.
besteht. Wir definieren die Kugeloberfläche zunächst als Teilmenge des R 3 ,
S2 = { (x, y, z) ∈ R3 ,
x2 + y 2 + z 2 = 1 }.
(13.1)
Die übliche Bezeichnung S2 für die Kugeloberfläche leitet sich aus der allgemeineren Definition
einer N -dimensionalen Sphäre SN her, die entsprechend als Teilmenge des RN +1 dargestellt
werden kann,
Karten und Koordinaten
SN = { (x0 , . . . , xN ) ∈ RN +1 ,
Wie lässt sich eine Kugeloberfläche beschreiben, ohne sie in einen dreidimensionalen Raum einzubetten? Die Antwort auf diese Frage steht in vielen Bücherregalen und heißt Atlas. Ein Atlas ist
eine Sammlung von Karten, die jeweils einen Teil der Erdoberfläche auf ein zweidimensionales
Blatt Papier abbilden. Jeder Ort auf der Erdoberfläche ist mindestens in einer Karte dargestellt.
Manche Orte erscheinen auf mehreren Karten. Die Karten überlappen. Erst dadurch lässt sich die
Erdoberfläche als ganzes aus den einzelnen Karten rekonstruieren.
Warum lässt sich die Erdoberfläche auf diese Art und Weise beschreiben? Offenbar, weil kleine Stücke dieser Oberfläche so ähnlich aussehen wie Teilmengen des R 2 . Sie lassen sich auf
einer Buchseite mehr oder weniger treu darstellen. Als ganzes ist die Erdoberfläche aber keine
Teilmenge des R2 . Deshalb ist es nicht möglich, sie als ganzes mit nur einer Karte zu erfassen.
Wenn wir beliebige Verzerrungen, also nicht maßstabsgetreue Karten zulassen, dann benötigen
wir mindestens zwei Karten.
In Abbildung 13.1 wird ein Atlas der Kugeloberfläche konstruiert, der aus genau zwei Karten
x0 2 + · · · + xN 2 = 1 }.
(13.2)
Alle folgenden Überlegungen lassen sich auch für die N -dimensionale Sphäre durchführen. Der
Anschaulichkeit halber bleiben wir jedoch bei der vertrauten, zweidimensionalen Sphäre.
Um eine spezielle Karte zu konstruieren, betrachten wir die Ebene, die die Sphäre am S üdpol,
also am Punkt (0, 0, −1) ∈ S2 berührt. Wir stellen uns vor, dass diese Ebene eine Einbettung des
R2 in den R3 ist, die durch die Abbildung R2 → R3 : (u, v) 7→ (2 u, −2 v, −1) gegeben ist. Den
Faktor 2 und das Minuszeichen führen wir an dieser Stelle nur ein, um die späteren Rechnungen
ein wenig zu vereinfachen, und um den Koordinatensystemen die richtigen Orientierungen zu
geben. Es handelt sich um eine reine Konvention, die keine prinzipielle Bedeutung hat. Der Punkt
in der Ebene mit den Koordinaten (u, v) ∈ R2 soll im Raum an der Stelle (2 u, −2 v, −1) ∈ R3
liegen.
Verbinden wir nun einen Punkt (u, v) in der Ebene durch eine Gerade mit dem Nordpol (0, 0, 1) ∈ S2 , so schneidet die Gerade die Sphäre noch in genau einem anderen Punkt
(x, y, z) ∈ S2 . Auf diese Weise wird eine Abbildung von der Ebene auf die Sphäre definiert.
Die Umkehrung dieser Abbildung hießt stereografische Projektion der Sphäre auf die Ebene. Ei60
die jeweils etwas mehr als eine Halbkugel erfassen. Beide Karten haben die Eigenschaft, dass der
jeweilige Pol in der Mitte der Karte an der Stelle (u, v) = (0, 0) liegt, und der Äquator durch den
Einheitskreis u2 + v 2 = 1 dargestellt wird. Das ist der Grund für die oben gewählte Normierung
der Koordinaten. Außerdem sehen wir, dass beide Karten die gleiche Orientierung haben, also die
Erdteile so dargestellt werden, wie sie “von oben” aussehen. Dafür war das eine Minuszeichen in
(13.3) nötig.
Nun betrachten wir einen Ort in der Nähe des Äquators, der von beiden Karten erfasst wird.
Er erscheint natürlich in der einen Karte an einer anderen Stelle als in der anderen. In der NordKarte hat der Ort die Koordinaten (u(N) , v(N) ), in der Süd-Karte erscheint derselbe Ort an der
Stelle (u(S) , v(S) ). Welcher Zusammenhang besteht zwischen diesen Koordinaten? Er lässt sich
aus (13.3) und (13.4) durch Gleichsetzen und Auflösen nach (u (N) , v(N) ) bzw. (u(S) , v(S) ) ablesen.
Man findet
u(N)
v(N)
u(S) =
,
v(S) = −
,
(13.5)
u(N)2 + v(N)2
u(N)2 + v(N)2
replacements
(a)
(b)
(c)
(d)
oder umgekehrt
Abbildung 13.2: Ein einfacher Atlas der Erdoberfläche besteht aus zwei Karten, die jeweils etwas
mehr als eine Halbkugel überdecken. Die speziellen hier gezeigten Karten ergeben sich durch die
stereografischen Projektionen aus Abbildung 13.1. Die Pole befinden sich jeweils in der Kartenmitte, und der Äquator wird durch einen Kreis dargestellt. Die gestrichelte Linie begrenzt das
Überlappgebiet der beiden Karten.
u(N) =
R2 → S2 ,
(u, v)
7→
v(N) = −
v(S)
.
u(S)2 + v(S)2
(13.6)
Da die beiden Karten auf die gleiche Art und Weise hergestellt wurden, ist der Zusammenhang
zwischen (u(N) , v(N) ) und (u(S) , v(S) ) symmetrisch.
Mit den beiden Karten können wir uns nun ein Bild von der Kugeloberfläche machen, ohne sie
dafür in den dreidimensionalen Raum einbetten zu müssen. Wir wissen nämlich jetzt, wie wir die
beiden Karten zusammensetzen müssen, um die Sphäre als ganzes zu erfassen. Wir müssen dazu
die Orte in der Nähe des Äquators, die auf beiden Karten dargestellt sind, mit Hilfe der Übergangsfunktionen (13.5) bzw. (13.6) identifizieren. Ein Punkt, der in der Nord-Karte die Koordinaten (u(N) , v(N) ) hat, repräsentiert denselben Ort auf der Kugelkoberfläche wie ein Punkt, der in
der Süd-Karte die Koordinaten (u(S) , v(S) ) hat, wenn zwischen diesen Koordinaten der durch die
Übergangsfunktionen definierte Zusammenhang besteht.
Die Übergangsfunktionen sagen uns, anschaulich formuliert, wie wir die beiden flachen Karten zusammenkleben müssen, um einen Globus zu bekommen. Den können wir nicht mehr auf
ein flaches Blatt Papier zeichnen. Entscheidend ist jedoch, dass in der Übergangsfunktionen die
vollständige Bauanleitung für den Globus enthalten ist, also letztlich die Information, die wir
benötigen, um aus den lokalen Karten die globale Struktur der Kugeloberfläche zu rekonstruieren.
An dieser Stelle können wir die ursprüngliche Definition (13.1) der Sphäre S 2 als Teilmenge
des R3 vergessen. Die Sphäre ist ein zweidimensionales Objekt. Sie existiert unabhängig von
ihrer Einbettung in den dreidimensionalen Raum. Sie wird allein durch die beiden Karten und
die Übergangsfunktion (13.1) bereits vollständig beschrieben. Um die Struktur der Sphäre zu
verstehen, müssen wir nicht wissen, ob und wie diese in einen größeren Raum eingebettet ist.
Das ist die Idee, die hinter dem Konzept einer Mannigfaltigkeit steht, das wir gleich allgemein
einführen werden.
ne kurze Rechnung ergibt, dass die Abbildung wie folgt explizit dargestellt werden kann,
Σ(S) :
u(S)
,
u(S)2 + v(S)2
2u
2v
1 − u2 − v 2 . (13.3)
2
2, −
2
2, −
1+u +v
1+u +v
1 + u2 + v 2
Entscheidend ist nun nicht, wie diese Abbildung konstruiert wurde, sondern dass es sich um eine
Abbildung der Ebene R2 auf die Sphäre S2 handelt. Wir können mit der Abbildung Σ(S) eine
Karte anfertigen, die wir Süd-Karte nennen. Sie erfasst die gesamte Südhalbkugel und ein kleines Stück der Nordhalbkugel nördlich des Äquators. Tatsächlich könnten wir sogar die gesamte
Nordhalbkugel mit Ausnahme des Nordpols erfassen. Die Karte wäre dann unendlich groß. Das
ist aber gar nicht nötig. Es genügt, dass die Karte etwas über den Äquator hinaus reicht.
Eine zweite Karte stellen wir auf die gleiche Weise her, indem wir diesmal vom Südpol aus auf
eine Ebene projizieren, die die Kugel am Nordpol berührt. Die entsprechende Abbildung für die
Nord-Karte lautet
2u
2v
1 − u2 − v 2 Σ(N) : R2 → S2 , (u, v) 7→
. (13.4)
2
2,
2
2,
1 + u + v 1 + u + v 1 + u2 + v 2
Ist die Sphäre S2 die Erdoberfläche, so ergeben sich die in Abbildung 13.2 dargestellten Karten,
61
Aufgabe 13.1 Man zeige, dass die Umkehrungen der Abbildungen (13.3) und (13.4) wie folgt
dargestellt werden können,
x
y ,
,
Σ −1
S2 → R 2 ,
(x, y, z) 7→
(S) :
1−z z−1
x
y
Σ −1
S2 → R 2 ,
(x, y, z) 7→
.
(13.7)
,
(N) :
1+z z+1
Aufgabe 13.6 Man konstruiere mit Hilfe einer entsprechenden stereografischen Projektion zwei
Karten, die eine N -dimensionale Sphäre SN abdecken, und bestimme die zugehörige Übergangsfunktion.
Aufgabe 13.2 Wir führen komplexe Koordinaten w(N) = u(N) + i v(N) und w(S) = u(S) + i v(S)
ein. Welcher sehr einfache Zusammenhang zwischen w(N) und w(S) ergibt sich dann aus den
Übergangsfunktionen (13.5) und (13.6)?
Eine Mannigfaltigkeit ist eine Punktmenge, die durch einen Atlas beschrieben wird.
Ein Atlas besteht aus einer Sammlung von Karten und Übergangsfunktionen zwischen ihnen.
Aufgabe 13.3 Man zeige, dass der Rand der Nord-Karte in Abbildung 13.2 links in der S üd-Karte
rechts durch eine aus vier Halbkreisen zusammengesetzte Kurve dargestellt wird. Dazu gen ügt es
im wesentlichen, zu zeigen, dass eine Gerade u(N) = konst bzw. v(N) = konst in der Nord-Karte
durch einen Kreis in der Süd-Karte dargestellt wird, der durch den Südpol verläuft, und dessen
Mittelpunkt auf der v(S) - bzw. u(S) -Achse liegt.
Eine Punktmenge M ist einfach eine Menge, deren Elemente x, y, . . . ∈ M wir Punkte nennen.
Man setzt üblicherweise voraus, dass diese Menge bereits gewisse mathematische Strukturen hat.
Es soll sich sich um einen topologischen Raum handeln. Eine Punktmenge ist ein topologischer
Raum, wenn in ihr offene und abgeschlossene Teilmengen definiert sind, die im wesentlichen die
gleichen Eigenschaften haben wie die offenen und abgeschlossenen Teilmengen des R N . In einem
topologischen Raum kann man die Konvergenz von Folgen und die Stetigkeit von Abbildungen
definieren.
Allerdings ist diese Voraussetzung nicht wesentlich, so dass wir nicht weiter auf diese Details
eingehen werden. Entscheidend ist vielmehr, dass sich gewisse Teilmengen der Mannigfaltigkeit
bijektiv auf Teilmengen des RN abbilden lassen, was anschaulich in etwa bedeutet, dass die Mannigfaltigkeit lokal, also in der Umgebung jedes Punktes, so ähnlich aussieht wie der R N . Die Zahl
N = dim M nennt man dann die Dimension von M. Das ist die wesentliche Eigenschaft einer
Mannigfaltigkeit, die wir im folgenden genauer beschreiben werden.
Der entscheidende Begriff ist der einer Karte. Eine Karte besteht aus einer offenen Teilmenge
U(m) ⊂ RN und einer Koordinatenabbildung Σ(m) , die die Teilmenge U(m) ⊂ RN bijektiv auf
eine Teilmenge M(m) ⊂ M abbildet,
Differenzierbare Mannigfaltigkeiten
Die Idee, eine Sphäre unabhängig von ihrer Einbettung in einen höherdimensionalen Raum durch
geschicktes Zusammenkleben von einzelnen Karten zu beschreiben, lässt sich nun sehr leicht verallgemeinern. Dies führt auf das Konzept einer differenzierbaren oder glatten Mannigfaltigkeit.
Im Prinzip kennen wir bereits alle dafür nötigen Bausteine. Etwas verkürzt lässt sich die Definition wie folgt zusammenfassen:
Daraus lässt sich leicht ablesen, dass es sich tatsächlich um die in Abbildung 13.1 konstruierte
stereografische Projektion handelt, und es lassen sich schließlich auch die Übergangsfunktionen
(13.5) und (13.6) bestimmen.
Aufgabe 13.4 Natürlich gibt es noch viele andere Möglichkeiten, die Kugeloberfläche mit Karten
zu überdecken. Zum Beispiel könnte man jeweils eine Halbkugel orthogonal auf die Koordinatenebenen im R3 projizieren. Es ergeben sich dann sechs kreisrunde Karten, wobei eine Karte jeweils
mit vier anderen überlappt. Tatsächlich findet man solche Karten nicht selten in alten Atlanten.
Man bestimme hierfür die Übergangsfunktionen.
Aufgabe 13.5 Die üblichen Kugelkoordinaten (ϑ, ϕ) definieren ebenfalls eine Karte. Sie deckt
fast die gesamte Kugeloberfläche ab, mit Ausnahme der beiden Pole. Um einen kompletten Atlas zu bekommen, muss man noch zwei Karten hinzufügen, die jeweils die Polregionen abdecken.
Auch solche Darstellungen der Erdoberfläche findet man oft in Atlanten. Zusätzlich zu einer rechteckigen Karte, in der die Längen- und Breitengrade durch Geraden dargestellt werden, sind die
Polregionen in zwei kleineren, runden Karten dargestellt. Man kann dort die oben definierten
Koordinaten (u(N) , v(N) ) für das Nordpolargebiet und (u(S) , v(S) ) für das Südpolargebiet verwenden. Man zeige, dass dann die Übergangsfunktionen zu den Kugelkoordinaten wie folgt gegeben
sind. In der Nord-Karte gilt
u(N) = tan(ϑ/2) cos ϕ,
v(N) = tan(ϑ/2) sin ϕ,
(13.8)
v(S) = − cot(ϑ/2) sin ϕ.
(13.9)
Karte
U(m) ⊂ RN
→
M(m) ⊂ M,
{x(m)µ } 7→ x.
(13.10)
Innerhalb der Karte U(m) bzw. ihren Bild M(m) gibt es eine umkehrbar eindeutige Zuordnung
zwischen den Punkten x auf M und ihren Koordinaten {x(m)µ } im RN . Das ist völlig analog zu
einer Koordinatenabbildung (10.38) für ein krummliniges Koordinatensystem auf einem affinen
Raum zu verstehen. Eine Karte ist also im Prinzip nichts anderes als ein krummliniges Koordinatensystem, das im allgemeinen nur einen Teil des betrachteten Raumes abdeckt.
Wenn man voraussetzt, dass M bereits ein topologischer Raum ist, dann muss sowohl die
Koordinatenabbildung als auch deren Umkehrung stetig sein. Das Bild M (n) der Karte ist dann
und in der Süd-Karte
u(S) = cot(ϑ/2) cos ϕ,
Σ(m) :
62
PSfrag replacements
(a)
(b)
(c)
(d)
ebenfalls eine offene Teilmenge von M. Macht man diese Voraussetzung nicht, so kann man
die Koordinatenabbildung dazu benutzen, die Topologie von M zu definieren. Das sind aber
mathematische Spitzfindigkeiten, auf die wir hier nicht weiter eingehen werden.
Um die Mannigfaltigkeit als ganzes zu beschreiben, benötigen wir mehrere Karten. Ein Atlas
ist eine Sammlung von Karten U(m) mit den zugehörigen Koordinatenabbildungen Σ(m) , wobei
der Index (m) irgendeine Indexmenge durchläuft. Jeder Punkt in M muss von mindestens einer
Karte erfasst werden. Die Vereinigung aller Bilder M(m) ⊂ M ist folglich ganz M,
M=
[
(m)
M(m) .
U(m)
U(n)
U(n,m)
Σ(n)
M(n)
(13.11)
M(m)
M
Abbildung 13.3: Karten und Übergangsfunktionen auf einer Mannigfaltigkeit M. Jede Karte
deckt eine Teilmenge von M ab, indem sie eine Teilmenge des N bijektiv auf diese abbildet.
Das Überlappgebiet von zwei Karten wird von beiden Karten erfasst. Die Übergangsfunktion, die
die Koordinaten eines Punktes in der einen Karte auf die Koordinaten desselben Punktes in der
anderen Karte abbildet, ist eine beliebig oft differenzierbare Abbildung N → N .
U(n,m) = Σ −1
(n) M(m) ∩ M(n) .
−1
Σ (n) ◦ Σ(m)
Σ(m)
Wenn wir uns einen Atlas als Buch vorstellen, dann ist der Index (m) die Seitennummer, und die
Koordinaten {x(m)µ } ∈ RN eines Ortes x ∈ M(m) geben an, wo dieser Ort auf der Seite (m)
verzeichnet ist. Zur besseren Unterscheidung hängen wir auch den Koordinaten {x (m)µ } den Kartenindex (m) an. So können wir für alle Karten dieselben Koordinatenindizes µ, ν, . . . verwenden,
um die N einzelnen Koordinaten zu unterscheiden. Wir müssen uns nicht für jede Karte andere
Bezeichnungen und eine andere Indexmenge für die einzelnen Koordinaten ausdenken.
Für die zweidimensionale Sphäre sind wir genau so vorgegangen. Wir haben zwei Karten konstruiert, die wir durch die Indizes (N) und (S) unterschieden haben. In beiden Karten haben wir die
Koordinaten mit u und v bezeichnet, das heißt der Koordinatenindex µ nahm in diesem Fall die
Werte u und v an. Im deutlich zu machen, auf welche der beiden Karten wir uns beziehen, haben
wir die Koordinaten zusätzlich mit Kartenindizes versehen, also mit (u (N) , v(N) ) bzw. (u(S) , v(S) )
bezeichnet.
Überschneiden sich nun zwei Karten, so können wir einem Ort x ∈ M (m) ∩ M(n) in der
Schnittmenge zwei Sätze von Koordinaten zuordnen, nämlich die Koordinaten {x (m)µ } in der
Karte U(m) und die Koordinaten {x(n)µ } in der Karte U(n) . Derselbe Ort ist sowohl auf der Seite
(m) als auch auf der Seite (n) im Atlas verzeichnet. Die Abbildung, die den Koordinaten {x (m)µ }
in der einen Karte die Koordinaten {x(n)µ } in der anderen Karte zuordnet, heißt Übergangsfunktion. Die Übergangsfunktion beschreibt das Umrechnen von einem Koordinatensystem in ein
anderes im Überlappgebiet von zwei Karten.
Die Abbildung 13.3 zeigt die typische Situation. Unten ist die Mannigfaltigkeit M dargestellt,
oben zwei Karten, also zwei Teilmengen U(m) und U(n) des RN , die durch bijektive Abbildungen
Σ(m) bzw. Σ(n) auf die Teilmengen M(m) und M(n) von M abgebildet werden. Die Schnittmenge
M(m) ∩ M(n) wird von beiden Karten erfasst. In der Karte Σ(m) erscheint das Überlappgebiet als
Teilmenge U(m,n) ⊂ U(m) . In der Karte Σ(n) wird dasselbe Gebiet durch die Teilmenge U(n,m) ⊂
U(n) repräsentiert. Mit der üblichen Schreibweise für Mengen und Abbildungen ist
U(m,n) = Σ −1
(m) M(m) ∩ M(n) ,
U(m,n)
sich wie folgt aus den Koordinatenabbildungen zusammensetzen,
ÜbergangsFunktion
Σ −1
(n) ◦ Σ(m) :
U(m,n) → U(n,m) ,
{x(m)µ } 7→ {x(n)µ }.
(13.13)
Wir bilden zuerst die Koordinaten {x(m)µ } in der einen Karte auf den zugehörigen Punkt x ∈ M
ab, und diesen dann auf seine Koordinaten {x(n)µ } in der anderen Karte.
Der entscheidende Punkt ist nun, dass es sich bei den Übergangsfunktionen um Abbildungen
zwischen zwei offenen Teilmengen des RN handelt. Da nämlich die Schnittmenge M(m) ∩ M(n)
von zwei offenen Mengen wieder offen ist, und die Koordinatenabbildungen in beide Richtungen stetig sind, sind auch die beiden Urbilder der Schnittmenge M (m) ∩ M(n) , also U(m,n) und
U(m,n) offen. Wir können daher an die Übergangsfunktionen eine zusätzliche Forderung stellen.
Sie sollen beliebig oft differenzierbar sein. Wenn das der Fall ist, dann nennen wir M eine differenzierbare oder glatte Mannigfaltigkeit.
Eine Mannigfaltigkeit heißt glatt oder differenzierbar, wenn die Übergangsfunktionen beliebig oft differenzierbar sind.
(13.12)
Die zweidimensionale Sphäre S2 ist in diesem Sinne eine glatte Mannigfaltigkeit. Denn die Übergangsfunktionen (13.5) und (13.6) sind auf ihrem Definitionsbereich beliebig oft differenzierbare
Das sind die in der Abbildung 13.3 oben schattiert dargestellten Teilmengen der beiden Karten.
Die Übergangsfunktion ist eine Abbildung zwischen diesen beiden Teilmengen des R N . Sie lässt
63
Abbildungen R2 → R2 . Dar maximale Definitionsbereich dieser Abbildungen ist jeweils der ganze R2 mit Ausnahme des Nullpunktes. Wie groß der Definitionsbereich der Übergangsfunktionen
tatsächlich ist, hängt davon ab, wie groß wir die beiden Karten machen. In Abbildung 13.2 ist der
Definitionsbereich der Übergangsfunktionen jeweils der Bereich außerhalb der gestichelten, aus
vier Halbkreisen zusammengesetzten Linien.
Dass man von den Übergangsfunktionen verlangt, differenzierbar zu sein, hat folgenden Grund.
Nur, wenn das der Fall ist, kann man auf einer Mannigfaltigkeit von differenzierbaren Kurven und
Funktionen sprechen und deren Ableitungen bilden. Genau das benötigen wir, wenn wir auf dem
Konfigurationsraum eines mechanischen Systems von dessen Geschwindigkeit sprechen oder Bewegungsgleichungen aufstellen wollen. Was unter einer differenzierbaren Kurve bzw. eine differenzierbaren Funktion auf einer Mannigfaltigkeit zu verstehen ist, soll in den folgenden Aufgaben
erläutert werden.
Man stellt das Feld also innerhalb jeder Karte durch eine reelle Funktion von N = dim M
reellen Variablen dar, die sich aus dem eigentlichen Feld und der Koordinatenabbildung zusammensetzt. Man nennt das Feld k-mal differenzierbar, wenn die partiellen Ableitungen
∂φ(n)
,
∂x(n)µ
d2 λ(n)µ
,
ds2
...,
dk λ(n)µ
dsk
...,
∂x(n)µ
∂ k φ(n)
∂x(n)ν · · · ∂x(n)ρ
(13.17)
existieren. Warum ist es auch für diese Definition notwendig, dass die Übergangsfunktionen beliebig oft differenzierbar sind?
Aufgabe 13.10 Eine stetige Funktion auf der Sphäre S2 werde in Kugelkoordinaten durch
f (ϑ, ϕ) = sin(2 ϑ), eine andere durch g(ϑ, ϕ) = sin(2 ϑ) cos(3 ϕ) dargestellt. Beide lassen
sich zu einer an den Polen stetigen Funktion fortsetzen, wie man leicht durch Grenzwertbildung
ϑ → 0 bzw. ϑ → π sehen kann. Sind diese Funktionen dann auch differenzierbar?
Aufgabe 13.7 Es sei λ : R → M eine parametrisierte Kurve auf einer glatten Mannigfaltigkeit.
Wir betrachten ein endliches Stück der Kurve, also λ(s) mit s1 < s < s2 , das ganz im Bild einer
Karte M(n) ⊂ M liegt. Dieses Kurvenstück kann wie üblich durch seine Koordinatendarstellung
{λ(n)µ (s)}, also durch N = dim M reelle Funktionen beschrieben werden. Wir nennen die Kurve
k-mal differenzierbar, wenn die gewöhnlichen Ableitungen
dλ(n)µ
,
ds
∂ 2 φ(n)
,
∂x(n)µ ∂x(n)ν
Aufgabe 13.11 Warum ist jeder affine Raum auch eine glatte Mannigfaltigkeit?
Aufgabe 13.12 In Abbildung 13.4 sind zwei typische Mannigfaltigkeiten dargestellt, die zwar von
einer einzigen Karte überdeckt werden können, allerdings nur, wenn man zulässt, dass diese Karte
mit sich selbst überlappt. Das ist eigentlich nicht zulässig, da die Koordinatenabbildung dann
nicht bijektiv ist. Wie viele Karten braucht man für einen Zylinder bzw. einen Torus mindestens,
um einen “richtigen” Atlas zu definieren?
(13.14)
existieren. Warum ist diese Definition nur dann konsistent, wenn die Übergangsfunktionen ebenfalls mindestens k-mal differenzierbar sind? Um von einer beliebig oft differenzierbaren, also
einer glatten Kurve sprechen zu können, müssen demnach auch alle Übergangsfunktionen glatt
sein.
Aufgabe 13.13 Eine zweidimensionale Mannigfaltigkeit M werde wie folgt durch einen Atlas
beschrieben. Er besteht aus drei Karten, die jeweils ein Quadrat im R 2 beanspruchen,
Aufgabe 13.8 Für eine Kurve λ(s) mit −1 ≤ s ≤ 1 auf der Sphäre S2 gelte im Abdeckungsbereich der Kugelkoordinaten
−s
für
−1 ≤ s < 0,
α
für
−1 ≤ s < 0,
ϑ(s) =
ϕ(s) =
(13.15)
s
für
0 < s ≤ 1,
β
für
0 < s ≤ 1.
Die Karte U(1) überlappt mit der Karte U(2) so, dass die rechte Hälfte von U(1) durch die Übergangsfunktion
U(1) = U(2) = U(3) = { (x, y) ∈ R2 ,
Σ −1
(2) ◦ Σ(1) :
Σ −1
(3) ◦ Σ(2) :
Aufgabe 13.9 Es sei φ : M → R ein skalares Feld, also eine reelle Funktion auf einer glatten
Mannigfaltigkeit. Um ein solches Feld explizit darzustellen, beschreibt man es in jeder einzelnen
Karte durch seine Koordinatendarstellung
U(n) → R,
{x(n)µ } 7→ φ(x) = φ(n) ({x(n)µ }).
7→
−1 < y < 1 }.
(x(2) , y(2) ) = (x(1) − 1, −y(1) )
(13.18)
(13.19)
auf die linke Hälfte von U(2) abgebildet wird. Das gleiche gilt für die rechte Hälfte von U(2) , die
durch die Übergangsfunktion
Man zeige, dass sich diese Kurve bei s = 0 immer zu einer stetigen Kurve erg änzen lässt, dass
diese aber nur dann differenzierbar ist, wenn α − β = π + 2π n mit n ∈ Z gilt.
φ(n) = φ ◦ Σ(n) :
(x(1) , y(1) )
−1 < x < 1,
(x(2) , y(2) )
7→
(x(3) , y(3) ) = (x(2) − 1, −y(2) )
(13.20)
auf die linke Hälfte von U(3) abgebildet wird. Und schließlich wird die rechte Hälfte von U(3)
durch
Σ −1
(x(3) , y(3) ) 7→ (x(1) , y(1) ) = (x(3) − 1, −y(3) )
(13.21)
(1) ◦ Σ(3) :
auf die linke Hälfte von U(1) abgebildet. Unter welchem Namen ist diese Mannigfaltigkeit allgemein bekannt?
(13.16)
64
ϕ 7→ ϕ + 2π
α 7→ α + 2π
bilden. In einem affinen Raum sind dies die Komponenten des Tangentenvektors λ 0 (s), dargestellt
in der lokalen Koordinatenbasis am Punkt λ(s). Wir wollen zeigen, dass eine ähnliche Interpretation auch auf einer Mannigfaltigkeit möglich ist.
Wir betrachten dazu den Teil der Kurve, der im Überlappgebiet der Karte M(m) mit einer anderen Karte M(n) liegt. Dort wird dieselbe Kurve λ(s) durch die Koordinatenfunktionen λ (n)ν (s)
dargestellt. Für die Ableitungen dieser Funktionen gilt
β 7→ β + 2π
replacements
(c)
(d)
λ0(n)ν (s) =
S1 ×
(a)
S1 × S 1
dλ(n)ν
∂λ(n)ν dλ(m)µ
=
= Λ(n,m)νµ (λ(s)) λ0(m)µ (s).
ds
∂λ(m)µ ds
(13.23)
Das entspricht dem bekannten Transformationsverhalten eines Vektors beim Übergang von einem
krummlinigen Koordinatensystem zu einem anderen. Die Übergangsmatrix ist durch die partiellen Ableitungen der “neuen” Koordinaten x(n)ν nach den “alten” Koordinaten x(m)µ gegeben, und
sie hängt von dem Ort x ab, an dem wir diese Ableitungen bilden,
(b)
Abbildung 13.4: Der Zylinder (a) und der Torus (b) sind Beispiele für glatte Mannigfaltigkeiten,
die sich mit einer selbstüberlappenden Karte beschreiben lassen.
Λ(n,m)νµ (x) =
∂x(n)ν
.
∂x(m)µ
(13.24)
Der einzige Unterschied zur Notation in Kapitel 10 ist, dass wir die beiden Koordinatensysteme
{x(m)µ } und {x(n)ν } jetzt nicht durch verschiedene Indexmengen unterscheiden, sondern durch
einen zusätzlichen Kartenindex (m) bzw. (n), der entsprechend auch die Übergangsmatrix kennzeichnet.
Ansonsten ergeben sich aus der Kettenregel für die partiellen Ableitungen (13.24) die bekannten Eigenschaften von Übergangsmatrizen. Vertauscht man die Karten M(m) und M(n) , so ergibt
sich die inverse Übergangsmatrix, und im Überlappgebiet von drei Karten M(l) , M(m) und M(n)
können die Transformationen verkettet werden,
Kurven und Vektoren
Will man auf einer Mannigfaltigkeit mit Vektoren rechnen, so ergibt sich ein Problem. Es ist nicht
möglich, einem Paar von Punkten x, y ∈ M einen Abstandsvektor y − x zuzuordnen, um auf
diese Weise einen zugeordneten Vektorraum zu definieren.
Am Beispiel der Sphäre kann man sich das leicht klar machen. Es ist nicht möglich, jeweils
zwei Punkte auf der Sphäre so durch einen Vektor zu verbinden, dass die Menge aller dieser
Vektoren einen Vektorraum bildet und die üblichen Rechenregeln gelten. Die “üblichen Rechenregeln” wären dann nämlich die Axiome für einen affinen Raum, und die Sphäre ist ja gerade kein
affiner Raum.
Man kann jedoch statt dessen Tangentenvektoren von Kurven definieren und darauf aufbauend
Vektoren und Tensoren auf Mannigfaltigkeiten einführen, die sich im wesentlichen so verhalten
wie Vektoren und Tensoren auf affinen Räumen. Im Prinzip haben wir genau das bereits im letzten Kapitel verwendet, wenn wir dort von Geschwindigkeiten gesprochen haben. Allerdings gibt
es einen wichtigen Unterschied zwischen affinen Räumen und Mannigfaltigkeiten, den wir im
folgenden herausarbeiten wollen.
Es sei λ : R → M eine parametrierte Kurve auf einer glatten Mannigfaltigkeit. Sie soll im
Sinne der Aufgabe 13.7 differenzierbar sein. Wir können die Kurve λ(s) dann innerhalb einer
Karte M(m) durch einen Satz von N = dim M differenzierbaren Funktionen λ(m)µ (s) darstellen
und die Ableitungen
dλ(m)µ
λ0(m)µ (s) =
(13.22)
ds
Λ(n,m)νµ (x) Λ(m,n)µρ (x) = δ νρ ,
Λ(l,m)ρµ (x) Λ(m,n)µν (x) = Λ(l,n)ρµ (x).
(13.25)
Aufgrund dieser Beobachtung können wir nun wie folgt einen Vektorraum definieren. An jedem Punkt x ∈ M(m) innerhalb einer Karte führen wir zunächst ganz formal einen Satz von
N = dim M Vektoren e(m)µ (x) ein. Diese spannen einen Vektorraum auf, den wir mit Tx M
bezeichnen und Tangentenraum von M am Punkt x ∈ M nennen. Die Vektoren e (m)µ (x) bilden
also eine Basis von Tx M, die wir als lokale Koordinatenbasis bezeichnen.
Damit die Definition konsistent ist, müssen wir sagen, welche Beziehung zwischen der Koordinatenbasis e(m)µ (x) und der Koordinatenbasis e(n)ν (x) bestehen soll, wenn x im Überlappgebiet
von zwei Karten M(m) und M(n) liegt. Beides sind dann nämlich Basen desselben Vektorraumes
Tx M. Genau wie für die lokalen Koordinatenbasen von zwei krummlinigen Koordinatensystem
in einem affinen Raum soll in diesem Fall das Transformationsgesetz
e(n)ν (x) = e(m)µ (x) Λ(m,n)µν (x)
gelten, wobei die Übergangsmatrix Λ(m,n)µν (x) durch (13.24) gegeben ist.
65
(13.26)
(N)v
Aufgabe 13.14 Warum sind die Beziehungen (13.25) zwischen den Übergangsmatrizen notwendige Bedingungen dafür, dass die Forderung (13.26) an die Basisvektoren konsistent ist?
(N)u
T S2
(u(N) , v(N) )
ϕ
Nun haben wir in jedem Punkt x ∈ M einen anderen Vektorraum T x M definiert. Außer den Beziehungen (13.26) zwischen den lokalen Basisvektoren e (m)µ (x) und e(n)ν (x) am selben Punkt
x im Überlappgebiet der Karten M(m) und M(n) gibt es nämlich keinerlei Beziehungen zwischen den Basen e(m)µ (x) und e(m)µ (y) an verschiedenen Punkten x, y ∈ M(m) , selbst wenn
beide Punkte in derselben Karte liegen. Da genau das der wesentliche Unterschied zwischen einer
Mannigfaltigkeit und einem affinen Raum ist, fassen wir es noch einmal wie folgt zusammen:
0
(ϑ, ϕ)
(S)v
(u(S) , v(S) )
Eine glatte Mannigfaltigkeit M besitzt in jedem Punkt x ∈ M einen Tangentenraum Tx M, der innerhalb einer Karte M(m) von der lokalen Koordinatenbasis
e(m)µ (x) aufgespannt wird.
(s)
(s)
ϑ
(S)u
(a)
(b)
(c)
Abbildung 13.5: In jedem Punkt einer Mannigfaltigkeit spannen die lokalen Basisvektoren (a)
den Tangentenraum (b) auf. Der Tangentenvektor einer Kurve (c) liegt stets im Tangentenraum
an dem Punkt, den die Kurve gerade durchläuft.
Den Tangentenvektor einer Kurve λ(s) können wir dann wie üblich darstellen. Es gilt
λ0 (s) = λ0(m)µ (s) e(m)µ (λ(s)) = λ0(n)ν (s) e(n)ν (λ(s)),
(13.27)
wobei die Gleichheit der beiden Darstellungen aus dem Transformationsverhalten (13.23) für
die Koordinatenfunktionen und (13.26) für die Basisvektoren folgt. Die Darstellung des Tangentenvektors einer Kurve in der lokalen Koordinatenbasis ist formal mit der auf einem affinen
Raum identisch. Allerdings gibt es einen Unterschied. Der Tangentenvektor einer Kurve λ(s)
auf einer Mannigfaltigkeit liegt für jedes s in einem anderen Vektorraum, denn aus (13.27) folgt
λ0 (s) ∈ Tλ(s) M.
Warum das so ist, und warum eine Mannigfaltigkeit in jedem Punkt einen anderen Tangentenraum besitzt, können wir uns am Beispiel der Sphäre S2 anschaulich klar machen. In Abbildung 13.5(a) sind verschiedene Koordinatensysteme auf der Sphäre dargestellt. Oben links ein
Ausschnitt aus der Nord-Karte mit den Koordinaten (u(N) , v(N) ), unten ein Ausschnitt aus der
Süd-Karte mit den Koordinaten (u(S) , v(S) ), und rechts sind ein paar Längen- und Breitenkreise
dargestellt, also die Koordinatenlinien der Kugelkoordinaten (ϑ, ϕ).
An jedem Punkt im Abdeckungsbereich dieser Koordinatensysteme können wir eine lokale
Koordinatenbasis einführen. In der Nord-Karte besteht diese aus den Vektoren (e (N)u , e(N)v ),
die wir uns anschaulich als Vektoren vorstellen können, die in die Richtungen der jeweiligen
Koordinatenlinien zeigen. Entsprechend gibt es in der Süd-Karte an jedem Punkt zwei Vektoren
(e(S)u , e(S)v ), die dort die lokale Koordinatenbasis bilden. Und schließlich gilt dasselbe für die
Vektoren (eϑ , eϕ ) in Kugelkoordinaten.
Wenn wir uns diese Basisvektoren im Einbettungsraum vorstellen, in diesem Fall also im R 3 ,
so wird klar, dass es sich nicht nur in jedem Punkt auf der Sphäre um eine andere Basis handelt,
sondern dass sogar in jedem Punkt x ∈ S2 ein anderer Vektorraum Tx S2 aufgespannt wird.
Dies wird in Abbildung 13.5(b) deutlich. Die lokale Koordinatenbasis spannt in jedem Punkt eine
Ebene auf, die dort tangential an der Sphäre anliegt. Das ist für jeden Punkt auf der Sphäre ein
anderer zweidimensionaler Unterraum des dreidimensionalen Einbettungsraumes. Es gibt keine
Möglichkeit, alle diese Unterräume so miteinander zu identifizieren, dass man sie als Kopien ein
und desselben Vektorraumes betrachten könnte.
Das ist die bildliche Vorstellung, die man sich von dem Tangentenraum T x M einer Mannigfaltigkeit M an einem Punkt x ∈ M machen kann. Bettet man die Mannigfaltigkeit in einen
größeren affinen Raum ein, so ist der Tangentenraum an einem bestimmten Punkt derjenige Unterraum des Einbettungsraumes, der an diesem Punkt tangential an der eingebetteten Mannigfaltigkeit anliegt. Und das erklärt auch anschaulich, warum der Vektorräume T x M und Ty M für
x 6= y verschieden sind.
Wir können nun auch verstehen, warum der Tangentenvektor λ 0 (s) einer Kurve an der Stelle
s stets im Tangentenraum Tλ(s) M liegt. Betrachten wir nämlich die in Abbildung 13.5(c) dargestellte Kurve auf der eingebetteten Sphäre, so zeigt der Tangentenvektor dieser Kurve stets
tangential zu Sphäre. Er liegt an jeder Stelle der Kurve in demjenigen Unterraum des Einbettungsraumes, der an dieser Stelle zur Sphäre tangential ist.
Aus dieser Tatsache und dem Umstand, dass der Tangentenraum an jedem Punkt ein anderer
ist, folgt unter anderem, dass es auf einer Mannigfaltigkeit keine Geraden im üblichen Sinne gibt.
Eine Gerade in einem affinen Raum ist nämlich eine Kurve, deren Tangentenvektor, zumindest bis
auf eine Skalierung, entlang der Kurve konstant ist. Auf einer Mannigfaltigkeit ist jedoch schon
die Frage sinnlos, ob ein Vektor v ∈ Tx M mit einem Vektor w ∈ Ty M übereinstimmt oder
nicht. Und damit ist auch die Frage sinnlos, ob der Tangentenvektor einer Kurve konstant ist oder
nicht. Wir können gar nicht entscheiden, ob eine Kurve “geradeaus” läuft oder nicht.
Gewisse Eigenschaften von affinen Räumen existieren also auf Mannigfaltigkeiten nicht mehr.
So gibt es keine Abstandsvektoren und keine Geraden mehr, und folglich auch keine geradlinigen
Koordinatensystem. In diesem Sinne ist ein Koordinatensystem auf einer Mannigfaltigkeit immer
66
Die anschauliche Vorstellung, von der wir in Abbildung 13.1(a) ausgegangen sind, ergibt sich
demnach auch aus der formalen Definition des Tangentenraumes und der lokalen Koordinatenbasis.
krummlinig. Andere Eigenschaften bleiben jedoch erhalten. Wir können Ableitungen von Kurven
bilden und diese als Vektoren in einem Vektorraum betrachten, auch wenn wir dazu in jedem
Punkt einen anderen Vektorraum einführen müssen.
Um diese Eigenschaft von Vektoren deutlich zu machen, sagen wir, dass jeder Vektor auf einer
Mannigfaltigkeit einen Bezugspunkt hat. Ein Vektor v ∈ Tx M hat den Bezugspunkt x. Wenn wir
Vektoren miteinander verknüpfen, etwa indem wir sie addieren oder mit Skalaren multiplizieren,
müssen wir stets darauf achten, dass wir nur Vektoren mit dem gleichen Bezugspunkt verknüpfen
können. Das gleiche gilt für das Bilden von Tensoren, wie wir gleich zeigen werden.
Duale Vektoren und Tensoren
Nun betrachten wir statt einer Kurve λ : R → M ein skalares Feld φ : M → R, also eine
Abbildung in die umgekehrte Richtung. Es soll im Sinne der Aufgabe 13.9 differenzierbar sein.
Es wird in einer Karte M(m) als Funktion der Koordinaten {x(m)µ } dargestellt, und wir können
dort die partiellen Ableitungen
∂φ
∂µ φ(m) (x) =
(13.32)
∂x(m)µ
Aufgabe 13.15 Die Kurve in Abbildung 13.5(c) hat in Kugelkoordinaten die Darstellung
ϑ(s) = π s,
ϕ(s) = 4π s,
mit
0 < s < 1.
(13.28)
Sie läuft vom Nord- zum Südpol und umrundet die Sphäre dabei zweimal in West-Ost-Richtung.
Wie lautet die Darstellung des Tangentenvektors in Kugelkoordinaten, wie in der Nord-Karte und
wie in der Süd-Karte? Wenn man die Kurve stetig zu den Endpunkten fortsetzt, ist der Tangentenvektor dann bei s = 0 und bei s = 1 wohldefiniert? Welche Karten muss man verwenden, um ihn
dort zu berechnen?
bilden. Befinden wir uns im Überlappgebiet mit einer anderen Karte M(n) , so gilt entsprechend
∂ν φ(n) (x) =
wobei k > 0, a, b und s0 Konstanten sind. Für s → 0 nähert sich diese Kurve offenbar dem
Nordpol. Wir können die Kurve also stetig nach s = 0 fortsetzen. Ist sie dort dann noch differenzierbar? Mit anderen Worten, existiert der Tangentenvektor λ0 (s) für s = 0?
e(m)µ (x) · e(m)ν (x) = δ µν .
Aufgabe 13.17 Ein Vektorfeld auf einer Mannigfaltigkeit M ist eine Zuordnung F : x 7→
F (x) ∈ Tx M. Sie ordnet jedem Punkt x ∈ M einen Vektor im Tangentenraum bei x zu. Wie
sieht die Koordinatendarstellung eines solchen Feldes aus, und wie verh ält es sich beim Übergang
von einer Karte in eine andere?
Der Kotangentenraum T∗x M ist der zum Tangentenraum Tx M duale Vektorraum.
Er wird innerhalb einer Karte M(m) von einer dualen Koordinatenbasis e(m)µ (x)
aufgespannt.
(13.30)
Für die dualen Basisvektoren gilt das übliche Transformationsverhalten im Überlappgebiet von
zwei Karten, nämlich
gegeben. Wie sieht ihre Darstellung in der Nord- bzw. Süd-Karte aus? Lassen sie sich stetig und
differenzierbar an den Polen fortsetzen?
e(n)ν (x) = e(m)µ (x) Λ(m,n)µν (x)
Aufgabe 13.19 Man zeige, dass die lokale Koordinatenbasis auch auf einer Mannigfaltigkeit aus
den Tangentenvektoren der Koordinatenlinien besteht. Betrachtet man n ämlich den Punkt x als
Funktion der Koordinaten {x(m)µ }, so gilt
e(m)µ (x) =
∂x
.
∂x(m)µ
(13.34)
Der Punkt bezeichnet wie üblich das Produkt eines dualen Vektors mit einem Vektor. Der duale
Vektor ist eigentlich eine lineare Abbildung, die auf den Vektor angewandt wird.
Aufgabe 13.18 Auf der Sphäre S2 seien zwei Vektorfelder F und G in Kugelkoordinaten durch
G(ϑ, ϕ) = cot ϑ sin ϕ eϕ + cos ϕ eϑ
(13.33)
Da dies das bekannte Transformationsgesetz eines dualen Vektors ist, können die wir partiellen
Ableitungen als Komponenten eines dualen Vektors auffassen.
Wir definieren dazu an jedem Punkt x ∈ M einen Kotangentenraum T ∗x M, der zum Tangentenraum Tx M im üblichen Sinne dual ist. Dann existiert zu jeder Basis von Tx M eine duale
Basis von T∗x M. Insbesondere gibt es zu der lokalen Koordinatenbasis e(m)µ (x) ein duale Koordinatenbasis e(m)µ (x) mit der Eigenschaft
Aufgabe 13.16 Eine andere Kurve auf der Sphäre werde in Kugelkoordinaten wie folgt dargestellt,
0 < s < s0 ,
(13.29)
ϑ(s) = a sk , ϕ(s) = b/s,
F (ϑ, ϕ) = eϕ ,
∂φ
∂φ ∂x(m)µ
=
= ∂µ φ(m) (x) Λ(m,n)µν (x).
∂x(n)ν
∂x(m)µ ∂x(n)ν
⇒
e(n)ν (x) = Λ(n,m)νµ (x) e(m)µ (x).
(13.35)
Daraus und aus (13.33) ergibt sich, dass durch
∇φ(x) = ∂µ φ(m) (x) e(m)µ (x) = ∂ν φ(n) (x) e(n)ν (x)
(13.36)
ein dualer Vektor am Bezugspunkt x definiert wird, der vom verwendeten Koordinatensystem
unabhängig ist. Dieser duale Vektor ist der Gradient von φ an der Stelle x. Der Gradient eines
(13.31)
67
(m,n)
skalaren Feldes φ ist ein duales Vektorfeld ∇φ, das jedem Punkt x ∈ M einen dualen Vektor
∇φ(x) ∈ T∗x M zuordnet.
Um die Notation ein wenig zu vereinfachen, werden wir im folgenden den Kartenindex weglassen, wenn wir von den Koordinaten eines Punktes oder den Komponenten eines Vektors sprechen,
ohne uns dabei auf eine bestimmte Karte zu beziehen. Für die lokalen Basisvektoren schreiben
wir einfach eµ (x), bzw. für die dualen Basisvektoren eµ (x). Entsprechend gilt dann für den
Tangentenvektor einer Kurve bzw. den Gradienten eines skalaren Feldes
0
0µ
λ (s) = λ (s) eµ (λ(s)),
µ
∇φ(x) = ∂µ φ(x) e (x),
M zuordnet, also einen Tensor der Stufe (m, n) am Punkt
M einen Tensor F (x) ∈ Tx
x. Die Koordinatendarstellung eines solchen Tensorfeldes sieht dann genau wie die in einem
krummlinigen Koordinatensystem in einem affinen Raum aus,
F (x) = F µ ··· νρ ··· σ (x) eµ (x) ⊗ · · · ⊗ eν (x) ⊗ eρ (x) ⊗ · · · ⊗ eσ (x) .
{z
}
|
{z
} |
n
m
Die Komponenten F µ ··· νρ ··· σ des Tensorfeldes sind (dim M)m+n Funktionen der Koordinaten
xµ . Wir nennen ein Tensorfeld stetig, differenzierbar etc. wenn die Koordinatendarstellung diese
Eigenschaft hat.
Die einfachsten Tensorfelder sind skalare Felder der Stufe (0, 0), Vektorfelder der Stufe (1, 0),
wie sie bereits in der Aufgabe 13.18 definiert wurden, oder duale Vektorfelder der Stufe (0, 1),
die sich in natürlicher Weise als Gradienten von skalaren Feldern ergeben. Schließlich können
wir Tensoren in der üblichen Art und Weise addieren, multiplizieren und kontrahieren, um neue
Tensoren zu bilden. Wir wollen das am Beispiel einer Metrik demonstrieren.
Wir erinnern uns, dass ein metrischer affiner Raum dadurch charakterisiert ist, dass auf dem
zugeordneten Vektorraum ein Skalarprodukt existiert. Entsprechend ist eine metrische Mannigfaltigkeit eine glatte Mannigfaltigkeit M, mit der Eigenschaft, dass auf jedem Tangentenraum
Tx M ein Skalarprodukt definiert wird. Da ein Skalarprodukt auf einem Vektorraum durch einen
Tensor der Stufe (0, 2) dargestellt wird, ist eine Metrik auf einer Mannigfaltigkeit ein Tensorfeld
der Stufe (0, 2).
Man bezeichnet dieses Tensorfeld üblicherweise mit g(x), und folglich seine Komponenten
bezüglich der lokalen Koordinatenbasis mit gµν (x). Wie in jedem Vektorraum sind die Einträge
dieser symmetrischen, positiven Matrix gerade die Skalarprodukte der Basisvektoren, also
(13.37)
was der ursprünglichen Notation aus Kapitel 10 entspricht. Wir bringen damit zum Ausdruck,
dass die Gleichungen in dieser Form in jedem Koordinatensystem gelten.
Für Vektoren und duale Vektoren auf einer Mannigfaltigkeit gelten somit die gleichen Rechenregeln wie in krummlinigen Koordinatensystemen auf affinen Räumen. Insbesondere gelten dieselben Transformationsgesetze beim Übergang von einem Koordinatensystem zu einem anderen.
Wir müssen nur beachten, dass alle Vektoren und duale Vektoren auf einer Mannigfaltigkeit einen
Bezugspunkt haben müssen, und dass wir nur solche Objekte miteinander kombinieren dürfen,
die denselben Bezugspunkt haben.
Das gilt insbesondere für das Produkt eines dualen Vektors mit einem Vektor, wie es in (13.34)
auftritt. Ein typisches Beispiel dafür ist die Richtungsableitung einer Funktion, die auch auf einer
Mannigfaltigkeit definiert werden kann. Es sei φ : M → R wieder ein skalares Feld auf M und
λ : R → M eine Kurve. Dann wird durch s 7→ φ(λ(s)) eine Funktion R → R definiert. Ihre
Ableitung ist die Ableitung des Feldes entlang der Kurve,
dλµ ∂φ
dφ(λ(s))
= λ0µ (s) ∂µ φ(λ(s)) = λ0 (s) · ∇φ(λ(s)).
=
ds
ds ∂λµ
(13.40)
(13.38)
gµν (x) = eµ (x) · eν (x).
Entscheidend ist hier, dass das Produkt eines dualen Vektors ∇φ(λ(s)) mit einem Vektor λ 0 (s)
gebildet wird, die beide denselben Bezugspunkt haben. Sonst wäre das Produkt nicht definiert.
Um ganz allgemein die Richtungsableitung eines skalaren Feldes φ zu berechnen, müssen wir
einen Punkt x ∈ M und einen Vektor v ∈ Tx M vorgeben. Sind xµ die Koordinaten von x und
v µ die Komponenten von v bezüglich der lokalen Koordinatenbasis e µ (x), so ist die Richtungsableitung durch
(13.39)
v · ∇φ(x) = v µ ∂µ φ(x)
(13.41)
Wir können dann das Skalarprodukt von zwei Vektoren u, v ∈ T x M berechnen, indem wir
diese zuerst durch ihre Komponenten uµ bzw. v ν in der lokalen Koordinatenbasis darstellen und
anschließend mit der Metrik gµν kontrahieren,
u · v = gµν (x) uµ v ν ,
für u, v ∈ Tx M.
(13.42)
Auch hier ist es wieder entscheidend, dass beide Vektoren im selben Tangentenraum T x M liegen,
und dass wir die Metrik an diesem Punkt x verwenden, um das Skalarprodukt zu berechnen.
Ansonsten sind es aber dieselben Kombinationsregeln für Tensoren, aus denen sich ergibt, dass
das Ergebnis ein Skalar, also unabhängig von der verwendenten Basis bzw. von dem gewählten
Koordinatensystem ist, bezüglich dessen wir die Vektoren und die Metrik darstellen.
Mit Hilfe einer Metrik können wir auch die Länge einer Kurve λ(s) für a ≤ s ≤ b auf einer
Mannigfaltigkeit berechnen. Zuerst bestimmen wir den Betrag des Tangentenvektors,
gegeben. Auch hier ergibt sich formal der gleiche Ausdruck wie auf einem affinen Raum.
Aus Vektoren und dualen Vektoren können wir nun in der üblichen Art und Weise Tensoren bilden. Das einzig neue ist auch hier, dass jeder Tensor einen Bezugspunkt haben muss. Wir können
nicht einfach von einem Tensor A auf einer Mannigfaltigkeit M sprechen, sondern müssen immer zusätzlichen abgeben, an welchem Punkt x ∈ M der Tensor definiert ist.
Tensoren auf Mannigfaltigkeiten treten deshalb meistens als Tensorfelder auf. Ein Tensorfeld
F der Stufe (m, n) auf einer Mannigfaltigkeit M ist eine Zuordnung, die jedem Punkt x ∈
|λ0 (s)|2 = λ0 (s) · λ0 (s) = gµν (λ(s)) λ0µ (s) λ0ν (s),
68
(13.43)
den wir anschließend entlang der Kurve integrieren,
L(a, b) =
Z
b
ds
a
q
gµν (λ(s)) λ0µ (s) λ0ν (s).
Aufgabe 13.20 Um zu beweisen, dass durch (13.47) tatsächlich eine Metrik auf der ganzen
Sphäre definiert wird, muss man eigentlich noch zeigen, dass sich auch an den Polen ein wohldefiniertes Skalarprodukt in den dortigen Tangentenräumen ergibt. Man berechne dazu die Komponenten guu , guv , gvu und gvv desselben Tensors in der Nord- und Süd-Karte und zeige, dass sich
auch für (u, v) = (0, 0) ein symmetrische, positive Matrix ergibt.
(13.44)
Das Ergebnis ist die Länge der Kurve zwischen den Punkten λ(a) und λ(b). Der Ausdruck
(13.44) ist genau derselbe wie der für die Länge einer Kurve in einem affinen Raum, wenn wir
dort ein krummliniges Koordinatensystem verwenden.
Wie so eine Metrik aussieht, können wir uns am Beispiel der Sphäre wie folgt klar machen. Wir
stellen uns wieder vor, dass die Sphäre in einen dreidimensionalen Raum in der üblichen Art und
Weise eingebettet ist. Diesmal soll es sich um eine Kugeloberfläche mit dem Radius R handeln.
Die Einbettung wird in Kugelkoordinaten durch
x = R sin ϑ cos ϕ,
y = R sin ϑ sin ϕ,
z = R cos ϑ
Aufgabe 13.21 Betrachtet man die Erdkarten in Abbildung 13.2, so f ällt auf, dass die Erdteile
zwar im großen etwas verzerrt dargestellt sind, die Küstenlinien im kleinen aber recht treu wiedergegeben werden, und zwar unabhängig davon, ob wir uns in Polnähe oder in der Nähe des
Äquators befinden. Sowohl Grönland auf der Nord-Karte als auch Neu Guinea auf beiden Karten
werden recht wirklichkeitstreu dargestellt, wenn auch in verschiedenen Maßst äben. Der Grund
dafür ist, dass die Karten winkeltreu sind. Wenn sich zwei Kurven auf der Erdoberfl äche unter
einem Winkel α schneiden, so tun sie dies auch auf der Karte. Man benutze die Darstellung der
Metrik aus Abbildung 13.20, um das zu beweisen.
(13.45)
Aufgabe 13.22 Wie sieht der antisymmetrische Einheitstensor ω auf der Sph äre S2 aus, wenn die
Metrik durch (13.47) gegeben ist? Man bestimme seine Komponenten ω µν in Kugelkoordinaten,
sowie in den Koordinaten (u, v) der Nord- bzw. Süd-Karte.
beschrieben, wobei (x, y, z) ein kartesisches Koordinatensystem sein soll. Eine Kurve auf der
Sphäre, die dort durch die Koordinatenfunktionen (ϑ(s), ϕ(s)) beschrieben wird, definiert dann
eine entsprechende Kurve im dreidimensionalen Raum, die durch die Koordinatenfunktionen
(x(s), y(s), z(s)) beschrieben wird. Dort können wir die Länge der Kurve berechnen. Eine kurze
Rechnung ergibt
x0 (s)2 + y 0 (s)2 + z 0 (s)2 = R2 ϑ0 (s)2 + R2 sin2 (ϑ(s)) ϕ0 (s)2 .
Ableitungen
Formal gilt also auch für Tensorfelder, was wir schon speziell für Vektoren und duale Vektoren
gesagt haben. Es gelten dieselben Rechnenregeln wie in krummlinigen Koordinatensystemen auf
affinen Räumen. Tensoren lassen sich durch Addition, Tensormultiplikation und Kontraktion miteinander verknüpfen. Das Berechnen des Skalarproduktes von zwei Vektoren ist ein Beispiel für
eine solche Verknüpfung. Wir bilden zuerst das Tensorprodukt der Vektoren mit der Metrik, und
kontrahieren anschließend die Indizes paarweise, so dass sich ein Skalar ergibt.
Eine Operation haben wir jedoch noch nicht genauer betrachtet. Auf einem affinen Raum
können wir aus einem Tensorfeld der Stufe (m, n) durch Ableiten ein Tensorfeld der Stufe
(m, n + 1) bilden. So wird zum Beispiel aus einem Vektorfeld F µ (x) durch Ableiten der Komponenten nach den affinen Koordinaten xµ ein Tensorfeld ∂µ F µ (x) der Stufe (1, 1). Wenn wir
ein krummliniges Koordinatensystem verwenden, können wir diese Operation zwar immer noch
durchführen, aber wir müssen die kovariante Ableitung verwenden,
(13.46)
Die Kurvenlänge ist somit durch den Ausdruck (13.44) gegeben, wobei wir unter der Wurzel die
rechte Seite von (13.46) einsetzen müssen. Durch Koeffizientenvergleich entnehmen wir daraus,
dass die Komponenten der Metrik auf der Sphäre S2 in Kugelkoordinaten wie folgt gegeben sein
müssen, wenn sich die gleiche Kurvenlänge ergeben soll,
gϑϑ = R2 ,
gϑϕ = 0,
gϕϑ = 0,
gϕϕ = R2 sin2 ϑ.
(13.47)
An dieser Stelle können wir die Einbettung wieder vergessen. Durch das symmetrische Tensorfeld
(13.47) wird an jedem Punkt der Sphäre ein Skalarprodukt im dortigen Tangentenraum definiert.
Wir können also die Länge eines Vektors oder den Winkel zwischen zwei Vektoren, sofern sie den
gleichen Bezugspunkt haben, berechnen, ohne dafür die Sphäre in den dreidimensionalen Raum
einzubetten.
Aus der Tatsache, dass die Metrik in Kugelkoordinaten durch eine Diagonalmatrix beschreiben
wird, folgt zum Beispiel, dass sich die Koordinatenlinien überall im Abdeckungsbereich dieser
Karte im rechten Winkel schneiden. Die Basisvektoren eϑ und eϕ sind nämlich überall zueinander orthogonal. Das kennen wir bereits als Eigenschaft der Koordinatenlinien eines Kugelkoordinatensystems im dreidimensionalen Raum. Mit der Metrik (13.47) auf der Sphäre ist dies aber
nun eine Eigenschaft der Sphäre selbst, und nicht ihrer Einbettung.
∇µ F ν (x) = ∂µ F ν (x) + Γ νρµ (x) F ρ (x),
mit Γ νρµ (x) = eν (x) · ∂µ eρ (x).
(13.48)
Das Christoffel-Symbol Γ νµρ mussten wir einführen, um die Ortsabhängigkeit der lokalen Koordinatenbasis in einem krummlinigen Koordinatensystem beim Ableiten zu berücksichtigen.
Es stellt sich nun die Frage, wie es sich mit einer solchen Ableitung auf einer Mannigfaltigkeit
verhält, wo ja jedes Koordinatensystem krummlinig ist. Die Antwort ist recht einfach: Es gibt
eine solche Ableitung nicht. Betrachten wir nämlich die Definition des Christoffel-Symbols, so
kommt darin die Ableitung ∂µ eρ (x) vor, also die Ableitung der Basisvektoren eρ (x) nach den
69
Koordinaten xµ . Das ist aber nun ein sinnloser Ausdruck. Denn um diese Ableitung zu berechnen,
müssten wir zuerst die Differenzen dieser Vektoren an verschiedenen Punkten berechnen und
dann einen Grenzwert bilden. Wir können eine solche Differenz aber nicht berechnen, da die
Basisvektoren an verschiedene Punkt in verschiedenen Vektorräumen liegen.
Die Möglichkeiten, auf einer Mannigfaltigkeit Ableitungen von Tensorfeldern zu bilden, sind
also stark eingeschränkt. Wir können zwar die Ableitung eines skalaren Feldes bilden und bekommen ein duales Vektorfeld, aber das ist die einzige Ableitung eines Tensorfeldes nach den Koordinaten, die wir in einem krummlinigen Koordinatensystem bilden können, ohne das ChristoffelSymbol zu verwenden. Das hat auch wieder einen einfachen Grund. Wäre es möglich, die Ableitung eines Vektorfeldes auf einer Mannigfaltigkeit zu bilden, so könnten wir auch sagen, wann ein
Vektor konstant ist und wann nicht, und folglich gäbe es doch wieder so etwas wie eine Gerade,
und wir könnten doch wieder Vektoren in verschiedenen Tangentenräumen miteinander vergleichen.
Interessanterweise gibt es aber gewisse Kombinationen von Ableitungen, die Tensorfelder wieder auf Tensorfelder abbilden. Und genau dafür kennen wir schon ein Beispiel. Das ist die spezielle Ableitung, die in der Lagrangeschen Bewegungsgleichungen gebildet wird. Darauf werden wir im nächsten Abschnitt noch einmal kurz eingehen. Es gibt noch andere Beispiele für
solche Tensorableitungen, die auch auf Mannigfaltigkeiten wohldefiniert sind, und für die kein
Christoffel-Symbol benötigt wird. Es würde ein wenig zu weit führen, hier alle Möglichkeiten zu
diskutieren, aber wir wollen an einem Beispiel, das später noch eine gewisse Rolle spielen wird,
zumindest das Prinzip erklären.
Es sei F ein Vektorfeld und φ ein skalares Feld auf einer glatten Mannigfaltigkeit M. Dann
können wir an jeder Stelle x ∈ M die Richtungsableitung von φ(x) in Richtung des Vektors
F (x) bilden. Das ist wieder ein skalares Feld. Wir schreiben dafür
(F · ∇) φ = F (x) · ∇φ = F µ (x) ∂µ φ(x).
dann den Operator F · ∇ auf ein skalares Feld wirken. Das Ergebnis ist
(F · ∇) (G · ∇) φ = (F · ∇) Gν ∂ν φ = F µ ∂µ Gν ∂ν φ
= F µ ∂µ Gν φ + F µ Gν ∂µ ∂ν φ.
Man beachte, dass das Resultat wieder ein skalares Feld ist, obwohl die einzelnen Terme im letzten Ausdruck keine Tensoren sind. Weder die Ableitungen ∂ µ Gν noch die zweiten Ableitungen
∂µ ∂ν φ verhalten sich beim Übergang von eine Karte zu einer anderen wie die Komponenten eines
Tensors. Die Summe der beiden Ausdrücke ist aber ein Skalar, weil wir von der linken Seite der
Gleichung wissen, dass es sich um einen Skalar handelt.
Nun bilden wir die gleiche doppelte Ableitung noch einmal, nur in der anderen Reihenfolge.
Es wirkt also zuerst der Operator F · ∇ und dann der Operator G · ∇,
(G · ∇) (F · ∇) φ = Gµ ∂µ F ν φ + Gµ F ν ∂µ ∂ν φ.
(F · ∇) (G · ∇) φ − (G · ∇) (F · ∇) φ = (F µ ∂µ Gν − Gµ ∂µ F ν ) ∂ν φ.
(13.53)
Das ist wieder in Ausdruck der Form (13.49), und zwar
(H · ∇) φ mit H µ = F µ ∂µ Gν − Gµ ∂µ F ν .
(13.54)
Tatsächlich findet man, dass H wieder ein Vektorfeld ist. Es wird in einer speziellen Art und
Weise aus den Ableitungen der Felder F und G gebildet. Man nennt es den Kommutator von F
und G. Welche geometrische Bedeutung hinter dieser Struktur steckt, werden wir später erfahren,
wenn wir uns ausführlich mit den Symmetrien von mechanischen Systemen beschäftigen.
Hier soll dies nur als Beispiel dafür dienen, zu zeigen, dass man auf einer Mannigfaltigkeit
zwar Ableitungen von Tensorfeldern nach den Koordinaten bilden kann, dass aber nur bestimmte
Kombinationen solcher Ableitungen wieder Tensorfelder sind. Eine solche spezielle Kombination
ist die in (13.54) angegebene.
(13.49)
Aufgabe 13.23 Man zeige, dass sich der Operator F · ∇ tatsächlich wie ein Ableitungsoperator
verhält. Er ist linear, und es gilt die Produkt- und Kettenregel,
F · ∇(g ◦ φ) = (g 0 ◦ φ) (F · ∇φ).
(13.52)
Wenn wir jetzt die beiden Ausdrücke voneinander abziehen, so finden wir
Wir können F ·∇ als einen Ableitungsoperator auffassen, der auf die Funktion φ wirkt und daraus
eine andere skalare Funktion macht.
F · ∇(φ1 + φ2 ) = F · ∇φ1 + F · ∇φ1 ,
(13.51)
Aufgabe 13.24 Man zeige, dass durch H µ in (13.54) tatsächlich ein Vektorfeld definiert wird.
Man stelle dazu die rechte Seite der Gleichungen in zwei verschiedenen Koordinatensystemen
dar und zeige, dass sich das richtige Transformationsverhalten ergibt.
F · ∇(φ1 φ2 ) = (F · ∇φ1 ) φ2 + φ1 (F · ∇φ1 ),
(13.50)
Aufgabe 13.25 Eine andere Kombination von Ableitungen, die ein Tensorfeld wieder auf ein Tensorfeld abbildet, ist die folgende. Wenn Aµ ein duales Vektorfeld ist, so definieren wir die antisymmetrisierte Ableitung durch
(13.55)
Bµν = ∂µ Aν − ∂ν Aµ .
Man beachte, dass in der letzten Gleichung g : R → R eine gewöhnliche reelle Funktion ist.
Das ist noch nichts neues, denn bis jetzt haben wir nur den Gradient eines skalaren Feldes gebildet
und dieses duale Vektorfeld mit einem Vektorfeld multipliziert und kontrahiert. Nun betrachten
wir ein zweites Vektorfeld G und den zugehörigen Operator G · ∇. Wir lassen zuerst diesen und
Man zeige, dass Bµν ein Tensorfeld der Stufe (0, 2) ist.
70
Koordinatensystem auf T(Q), denn durch die Koordinaten {q µ } wird eindeutig ein Punkt q ∈ Q,
und durch die Geschwindigkeiten {q̇ µ } eindeutig ein Vektor q̇ ∈ Tq Q definiert.
In diesem Sinne ist das Tangentenbündel T(Q) der Zustandsraum des mechanischen Systems,
den wir in Kapitel 3 als denjenigen Raum eingeführt haben, in dem sich die Bewegungen eines dynamischen Systems abspielen. Wenn wir einen Punkt (q, q̇) ∈ T(Q) vorgeben und die
Lagrange-Funktion L kennen, die eine Funktion auf diesem Raum ist, dann können wir die Zeitentwicklung des Systems für alle Zeiten in der Zukunft und in der Vergangenheit berechnen.
Das Tangentenbündel des reduzierten Konfigurationsraumes eines mechanischen Systems hat
somit zwei physikalische Bedeutungen. Zum einen ist es der Raum aller Bewegungszustände,
so dass die Bewegungen des Systems festgelegt sind, sobald wir zu einem Zeitpunkt wissen, an
welcher Stelle im diesem Raum sich das System gerade befindet. Zum anderen ist es auch der
Definitionsbereich der Lagrange-Funktion, wenn dem System eine solche Funktion zugeordnet
werden kann.
Die Lagrange-Funktion
Abschließend wollen wir noch einmal auf die eigentliche Fragestellung zurück kommen, die uns
zur Definition einer Mannigfaltigkeit führte. Wie ordnet sich die Langrangesche Beschreibung
eines mechanischen Systems mit Zwangsbedingungen in dieses Konzept ein?
Wir hatten gezeigt, dass der reduzierte Konfigurationsraum Q eines Systems mit holonomen
e betrachtet werden
Zwangsbedingungen als Teilmenge eines erweiterten Konfigurationsraumes Q
kann, wobei die Teilmenge gerade die Lösungsmenge der Zwangsbedingungen ist. Der reduzierte Konfigurationsraum ist laut dieser Definition immer in einen höherdimensionalen, affinen
Raum eingebettet, zum Beispiel den 3 N -dimensionalen Konfigurationsraum eines N -TeilchenSystems.
Wir hatten dann aber gesehen, dass wir diese Einbettung gar nicht benötigen, um die Bewegungsgleichungen zu formulieren. Es genügt, die Bahn des Systems als Kurve q(t) im reduzierten
Konfigurationsraum Q zu beschreiben. Dieser Raum ist im allgemeinen eine glatte Mannigfaltigkeit. Die Bahn eines mechanischen System ist demnach eine parametrisierte Kurve auf einer
glatten Mannigfaltigkeit. Um die Dynamik des Systems zu beschreiben, müssen wir diese Mannigfaltigkeit nicht irgendwo einbetten. Allerdings müssen wir dann einige der in den Bewegungsgleichungen vorkommenden Größen neu interpretieren, wenn wir deren geometrische Bedeutung
verstehen wollen.
So ist zum Beispiel die Geschwindigkeit q̇(t) nicht mehr einfach ein Vektor, sondern ein Vektor im Tangentenraum Tq(t) Q, also an dem Ort im Konfigurationsraum, an der sich das System
gerade befindet. Folglich sollten wir auch noch einmal überdenken, wie eigentlich die LagrangeFunktion L definiert ist. Es ist eine Funktion des Ortes q, der Geschwindigkeit q̇, und möglicherweise der Zeit t. Nun ist es aber sinnlos, von einer Geschwindigkeit q̇ zu sprechen, ohne den
Bezugspunkt dieses Vektors festzulegen, also ohne gleichzeitig den Ort q anzugeben.
Was also ist der Definitionsbereich von L? Es ist die Menge aller Bewegungszust ände, wobei
ein Bewegungszustand durch ein Paar (q, q̇) gegeben ist, mit q ∈ Q und q̇ ∈ Tq M. Der Raum
aller dieser Bewegungszustände hat einen speziellen Namen. Es ist das Tangentenb ündel T(Q)
von Q. Wir können diesen Raum als die Vereinigung aller Tangentenräume betrachten,
[
T(Q) =
Tx M.
(13.56)
Die Lagrange-Funktion L eines mechanischen ist eine reelle Funktion auf dem Tangentenbündel T(Q) des Konfigurationsraumes Q.
In Kapitel 15 werden wir eine alternative Beschreibung dieses Raumes aller Bewegungszustände
präsentieren, die eine noch etwas elegantere Formulierung der Bewegungsgleichungen erlaubt.
Entscheidend ist jedoch, dass wir bereits an dieser Stelle eine sehr “geometrische” Formulierung
der klassischen Mechanik gefunden haben, die wir später als Ausgangspunkt zum Beweis von
einigen allgemeinen Sätzen, zum Beispiel über Symmetrien und Erhaltungssätze, benutzen werden.
Aufgabe 13.26 Der spezielle, aus partiellen und totalen Ableitungen gebildete Ausdruck
∂L
d ∂L
,
µ −
dt ∂ q̇
∂q µ
(13.57)
wie er auf der linken Seite der Lagrangeschen Bewegungsgleichungen steht, ist erst sinnvoll, wenn
wir für q eine Bahn q(t) einsetzen, denn erst dann ist definiert, was die totale Ableitung d/dt
bedeutet. Nehmen wir also an, wie hätten eine solche Bahn gegeben und L sei eine Funktion auf
dem Tangentenbündel T(Q). Dann ist der Ausdruck (13.57) eine Funktion der Zeit. Man zeige,
dass es sich zu jedem Zeitpunkt t um die Komponenten eines dualen Vektor aus T ∗q(t) M handelt.
Die beiden Summanden für sich sind jedoch nicht die Komponenten von dualen Vektoren. Sie
transformieren nicht in der richtigen Art und Weise unter Koordinatentransformationen. Daher ist
nur diese spezielle in den Bewegungsgleichungen auftretende Kombination eine sinnvolle Gr öße,
nicht aber die einzelnen Summanden.
x∈M
Die Bezeichung “Bündel” ergibt sich aus der anschaulichen Vorstellung, dass wir alle Tangentenräume einer Mannigfaltigkeit quasi zu einem Bündel zusammenschnüren. Für die Sphäre S 2
ist T(S2 ) die Vereinigung aller an die Sphäre angehefteten Ebenen. Drei davon sind in Abbildung 13.5(b) dargestellt. An jedem Punkt auf der zweidimensionalen Sphäre ist eine zweidimensionale Ebene angeheftet. Wenn wir diese Ebenen zusammenschnüren, ergibt sich ein vierdimensionaler Raum.
Tatsächlich ist das Tangentenbündel T(Q) einer Mannigfaltigkeit Q selbst wieder eine Mannigfaltigkeit, wobei dim T(Q) = 2 dim Q gilt. Ist {q µ } ein Koordinatensystem auf Q, so bilden
diese Koordinaten und die zugehörigen Geschwindigkeiten, also ({q µ }, {q̇ µ }), zusammen ein
71
14 Das Wirkungsprinzip
Extremal- und Variationsprobleme
Mit den d’Alembertschen bzw. Lagrangeschen Bewegungsgleichungen haben wir eine elegante
geometrische Formulierung der Bewegungsgleichungen für ein allgemeines mechanisches System gefunden. Im Prinzip handelt es sich aber immer noch um dieselben Newtonschen Gleichungen, mit denen wir im Teil I gearbeitet haben. Wir haben sie nur in eine etwas allgemeinere Form
gebracht und in eine geometrische Sprache übersetzt, aber inhaltlich hat sich an den Bewegungsgleichungen nichts geändert.
In diesem Kapitel wollen wir zeigen, dass sich die Bewegungen eines mechanischen Systeme
auch auf eine ganz andere Art und Weise beschreiben lassen. Man geht dabei nicht von Kräften
als Ursachen von Bewegungen aus, und von Massen als Eigenschaften von Teilchen. Statt dessen
stellt man ein Extremalprinzip auf. Die Behauptung ist, dass ein mechanisches System unter allen
denkbaren Bahnen gerade diejenige Bahn realisiert, für die eine bestimmte Funktion, die man
Wirkung nennen, ein Extremum annimmt.
Diese Zugangsweise zu den grundlegenden Gesetzen der Mechanik ist eine völlig andere, da
man mit ihr auch eine ganz andere Funktionsweise von Naturgesetzen verbindet. Die Bewegungen von einzelnen Teilchen werden nicht mehr, wie es Newtons Vorstellung entsprach, dadurch
gesteuert, dass Kräfte auf sie einwirken und jedes Teilchen sich mit seiner Trägheit den Einflüssen
der Kräfte entgegen stellt. Statt dessen besitzt ein mechanisches System als ganzes das Bestreben,
eine bestimmte Größe zu minimieren, etwa so wie ein Pendel im Ruhezustand das bestreben hat,
nach unten zu hängen, also sein Energie zu minimieren.
Im Rahmen der klassischen Mechanik ist diese Vorstellung zunächst etwas ungewöhnlich. Geht
man nämlich von der anschaulichen Vorstellung aus, dass sich einzelne Objekte im Raum bewegen und dabei durch Wechselwirkungen miteinander kommunizieren, so ist die Newtonsche
Beschreibung viel natürlicher. Dass sich ein mechanisches System als ganzes ausgerechnet so
verhält, dass eine bestimmte Funktion seiner Bewegungsgrößen minimal wird, erscheint zumindest sonderbar und führt fast zwangsläufig zu der Vorstellung, dass es wohl irgendeine höhere
Instanz geben muss, die eine Kontrolle über das System ausübt.
Tatsächlich liefert die klassische Mechanik selbst keine Erklärung dafür, warum es ein solches
Wirkungsprinzip gibt. Nicht jede in der Newtonschen Beschreibung mögliche Bewegungsgleichung lässt sich nämlich auf diese Weise herleiten. Man stellt aber fest, dass gerade für diejenigen
mechanischen Systeme ein Wirkungsprinzip existiert, die durch fundamentale Wechselwirkungen
beschrieben werden können, also zum Beispiel allein durch elektromagnetische und Gravitationskräfte. Es sind genau die, für die ein auch Lagrange-Funktion existiert.
Eine Erklärung für das Wirkungsprinzip findet man erst, wenn man zu einer noch fundamentaleren Beschreibung der Phänomene übergeht, nämlich zur Quantenmechanik. Im Rahmen dieser
Theorie lassen sich nämlich nur solche Wechselwirkungen beschreiben, die aus einem Wirkungsprinzip abgeleitet werden können. Wenn wir also annehmen, dass letztlich alle fundamentalen
physikalischen Theorien Quantentheorien sind, dann muss auch allen fundamentalen Wechselwirkungen ein Wirkungsprinzip zugrunde liegen.
Eine typische Aufgabe der Analysis ist es, die Extrema einer gegebenen Funktion zu finden.
Eine solche Aufgabe bezeichnet man als Extremalproblem. Anhand von einfachen Beispielen
wollen wir die wichtigsten Eigenschaften solcher Extremalprobleme zusammenstellen und ein
paar nützliche Begriffe einführen.
Der einfachste Fall liegt vor, wenn wir die Extrema einer differenzierbaren Funktion h : R → R
suchen. Eine notwendige Bedingung für das Vorliegen eines Extremums bei x 0 ∈ R ist h0 (x0 ) =
0. Gilt außerdem h00 (x0 ) > 0, so handelt es sich um ein lokales Minimum. Wenn f 00 (x0 ) < 0 ist,
liegt ein lokales Maximum vor. Für f 00 (x0 ) = 0 muss man höhere Ableitungen betrachten, um zu
entscheiden, ob es sich um einen Sattelpunkt oder ein Extremum handelt.
Etwas komplizierter wird es, wenn wir die Extrema einer Funktion h : M → R suchen, wobei
M eine beliebige glatte Mannigfaltigkeit ist. Ein typisches Beispiel dafür wäre die Suche nach
den stabilen Gleichgewichtslagen eines mechanischen System. Das sind die lokalen Minima des
Potenzials, also die einer reellen Funktion auf dem Konfigurationsraum des Systems. Wie wir aus
dem letzten Kapitel wissen, ist dies im allgemeinen eine glatte Mannigfaltigkeit.
Das Problem, die Extrema einer Funktion auf einer Mannigfaltigkeit M zu finden, lässt sich
wie folgt auf des einfachere Problem zurückführen, die Extrema von Funktionen auf R zu finden.
Wenn die Funktion x 7→ h(x) am Punkt x = x0 ein Maximum hat, so hat auch die Funktion
s 7→ h(λ(s)) an der Stelle s = 0 ein Maximum, wenn die Kurve λ(s) durch den Punkt λ(0) = x 0
läuft. Dasselbe gilt entsprechend für ein Minimum.
Daraus ergibt sich die folgende notwendige Bedingung für das Vorliegen eines Extremums
einer Funktion x 7→ h(x) an der Stelle x = x0 . Für jede Kurve λ(s) mit λ(0) = x0 muss
die Ableitung der Funktion s 7→ h(λ(s)) an der Stelle s = 0 verschwinden. Diese Ableitung
ist die Richtungsableitung von h(x) an der Stelle x0 = λ(0) in Richtung des Tangentenvektors
v0 = λ0 (0),
dh(λ(s)) = λ0 (0) · ∇h(λ(0)) = v0 · ∇h(x0 ) = 0.
(14.1)
ds
s=0
Dies muss für alle möglichen Kurven und damit auch für alle Vektoren v 0 ∈ Tx0 M gelten.
Folglich müssen alle Richtungsableitungen von h(x) an der Stelle x = x 0 verschwinden, oder
äquivalent dazu, es muss ∇h(x0 ) = 0 sein.
Wir sagen, dass eine Funktion h an der Stelle x0 stationär ist, wenn ∇h(x0 ) = 0 ist. Wir
verbinden damit die folgende anschauliche Vorstellung. Wir befinden uns am Ort x 0 ∈ M und
werten dort die Funktion h aus. Nun bewegen wir uns vom Ort x0 weg, in Richtung eines Vektors
v0 ∈ Tx0 M. Dann können wir uns fragen, wie sich der Wert der Funktion h ändert. Genau diese
Änderung wird durch die Richtungsableitung von h an der Stelle x 0 in Richtung des Vektors v0
beschrieben.
Eine Funktion h heißt also genau dann an einem Ort x0 ∈ M stationär, wenn sich der Funktionwert von h nicht ändert, wenn wir uns in irgendeine Richtung von x 0 weg bewegen. Das
ist folglich eine notwendige Bedingung dafür, dass die Funktion an der betreffenden Stelle ein
Extremum besitzt.
72
als seien die Koordinaten (ϑ, ϕ) Funktionen dieses Parameters. Das ergibt
Wenn eine Funktion h : M → R am Punkt x0 ∈ M ein Extremum besitzt, so ist sie
dort stationär.
δh(ϑ, ϕ) = δ (sin ϑ sin ϕ + cos ϑ) = δ (sin ϑ sin ϕ) + δ (cos ϑ)
Es ist nützlich, die folgende Schreibweise zu verwenden, wenn es darum geht, ein konkretes
Extremalproblem zu lösen. Wenn wir uns an einem Punkt x ∈ M befinden und dort die Richtungsableitung einer Funktion h(x) berechnen wollen, so bezeichnen wir den Richtungsvektor
mit δx ∈ Tx M und nennen ihn die Variation des Punktes x. Die resultierende Richtungsableitung schreiben wir als
∂h
Variation
δh(x) = δx · ∇h(x) = δxµ
,
(14.2)
∂xµ
= δ (sin ϑ) sin ϕ + sin ϑ δ (sin ϕ) + δ (cos ϑ)
= cos ϑ sin ϕ δϑ + sin ϑ cos ϕ δϕ − sin ϑ δϑ.
Wir haben hier jeden einzelnen Schritt der Rechnung ausgeschrieben, weil jede der drei definierenden Eigenschaften eines Ableitungsoperators mindestens einmal auftritt. Die Linearität in
der ersten Zeile, die Produktregel in der zweiter Zeile, und die Kettenregel in der dritten Zeile.
Durch den Vergleich mit der allgemeinen Formel (14.2) können wir die Komponenten ∂h/∂ϑ
und ∂h/∂ϕ des Gradienten ablesen.
Der interessiert uns aber gar nicht, sondern wir wollen wissen, wo die Funktion h stationär ist.
Dazu muss die rechte Seite von (14.4) für alle Variationen δϕ und alle δϑ verschwinden. Offenbar
ist das genau dann der Fall, wenn
und nennen sie die Variation von h(x). Mit anderen Worten, wie variieren zuerst den Punkt
x, indem wir ihn in Richtung eines Vektors δx verschieben, und fragen dann nach der daraus
resultierenden Variation δh(x) der Funktion h(x).
Ein Extremalproblem ist deshalb zunächst ein Variationsproblem. Gesucht sind diejenigen
Punkte x ∈ M, an denen eine gegebene Funktion h(x) stationär ist. Das ist genau dort der
Fall, wo die Variation δh(x) für alle Variationen δx verschwindet. Das ist natürlich wieder äquivalent zum Verschwinden des Gradienten ∇h(x). Im Grunde haben wir also nur ein paar neue
Begriffe eingeführt, um denselben Sachverhalt mit anderen Worten darzustellen.
Die neue Schreib- und Sprechweise hat aber mehrere sehr nützliche Vorteile. So müssen wir
zum Beispiel kein zusätzliches Symbol mehr verwenden, um den Vektor für die Richtungsableitung zu bezeichnen. Die Variation δx entspricht dem Vektor v für die Richtungsableitung. Außerdem verhält sich das Variationssymbol δ wie ein Ableitungsoperator, für den die Produkt- und
Kettenregel gilt. Der rechte Ausdruck in (14.2), also die Koordinatendarstellung der Richtungsableitung von h, ist letztlich nichts anderes als eine spezielle Schreibweise für die Kettenregel.
Wenn wir uns vorstellen, dass x und damit die Koordinaten xµ von einer Variablen s abhängen, so
können wir δ durch d/ds ersetzen und bekommen die übliche Ableitung einer Funktion entlang
einer Kurve.
Den Umgang mit dem Variationssymbol δ wollen wir an zwei einfachen Beispielen erläutern.
Als erstes betrachten wir eine Funktion h : S2 → R, die wir in Kugelkoordinaten durch
h(ϑ, ϕ) = sin ϑ sin ϕ + cos ϑ
(14.4)
cos ϑ sin ϕ = sin ϑ und
sin ϑ cos ϕ = 0
(14.5)
ist. Man sieht leicht, dass diese Gleichungen im Definitionsbereich der Kugelkoordinaten zwei
Lösungen haben, nämlich ϑ = π/4 und ϕ = π/2, oder ϑ = 3π/4 und ϕ = 3π/2. Das sind zwei
einander gegenüberliegende Punkte auf der Sphäre, wenn man sie in den dreidimensionalen Raum
einbettet, und zwar die Schnittpunkte der Kugeloberfläche mit der Winkelhalbierenden in der yz-Ebene. Tatsächlich liegen dort die Extrema der gegebenen Funktion, die sich auch in der Form
h(ϑ, ϕ) = y(ϑ, ϕ) + z(ϑ, ϕ) darstellen lässt, wobei (x, y, z) die üblichen Einbettungskoordinaten
in den dreidimensionalen Raum sind.
Das Beispiel ist zwar nicht sehr tiefsinnig, sollte aber deutlich machen, dass die Variationsschreibweise eine sehr kompakte Notation erlaubt, wenn es darum geht, konkret die Richtungsableitung einer Funktion zu berechnen. Die Rechnung lässt sich in der Form (14.4) meist etwas
übersichtlicher darstellen als die entsprechende Rechnung, bei der wir zuerst die Komponenten
des Gradienten ausrechnen und diese dann gleich Null setzen. Wir rechnen quasi alle Komponenten des Gradienten auf einmal aus, statt der Reihe nach alle partiellen Ableitungen nach den
Koordinaten.
Ein anderes Beispiel soll zeigen, dass die Variationrechnung auch ohne die Verwendung von
Koordinaten sehr schnell zum Ziel führen kann. Diesmal sei E ein metrischer affiner Raum beliebiger Dimension, a und b zwei ausgewählte Punkte in E und
(14.3)
darstellen. Man kann sich leicht davon überzeugen, dass es sich um eine überall differenzierbare
Funktion auf S2 handelt, indem man sie in die Nord- bzw. Süd-Karte umrechnet.
Wo befinden sich die Extrema dieser Funktion? Wir berechnen die Variation δh(ϑ, ϕ) der Funktion, die sich aus einer von Variation (δϑ, δϕ) der Koordinaten ergibt. Das Symbol δ verwenden
wir bei der Rechnung so, als wäre des die Ableitung d/ds nach einem Kurvenparameter s, und
h(x) = (x − a) · (x − b).
Für welchen Punkt x ist dieses Skalarprodukt minimal? Wir berechnen die Variation
δh(x) = δ (x − a) · (x − b) + (x − a) · δ (x − b)
= δx · (x − b) + δx · (x − a) = δx · (2 x − a − b),
73
(14.6)
(14.7)
die genau dann für alle δx verschwindet, wenn x = (a + b)/2 ist, also wenn der Punkt x genau
in der Mitte zwischen a und b liegt. Tatsächlich ist dort das Skalarprodukt der Abstandsvektoren
x − a und x − b minimal. Es gilt nämlich
a−b
a+b
a + b 2 a − b 2
2
−
≥−
=h
h(x) = x −
2
2
2
2
Funktionenräume und Funktionale
Die interessanten Variationsprobleme, die in der Physik auftreten, betreffen Funktionen, die von
unendlich vielen Variablen abhängen. Ein typisches Problem dieser Art ist, die kürzeste Verbindung zwischen zwei Punkten in einem metrischen Raum zu finden. Wir wollen dieses Beispiel
als Prototyp eines unendlich-dimensionalen Variationsproblems benutzen, um zu zeigen, wie die
gerade eingeführte Schreib- und Sprechweise verallgemeinert werden kann.
Zunächst formulieren wir das Problem in einer etwas vereinfachten Form. Es sei eine differenzierbare Funktion f : R → R gegeben. Ihr Graf definiert eine Kurve y = f (x) in der x-y-Ebene.
Es seien zwei Punkte (x1 , y1 ) und (x2 , y2 ) gegeben, mit x2 > x1 , und wir betrachten nur solche
Funktionen, deren Graf beide Punkte enthält, also f (x1 ) = y1 und f (x2 ) = y2 .
Dann können wir die Länge des Grafen zwischen den beiden Punkten wie folgt berechnen.
Wir zerlegen die Kurve, wie in Abbildung 14.1(a) gezeigt, in infinitesimal kleine Stücke, deren
Längen durch
(14.8)
Von dieser koordinatenfreien Schreibweise werden wir in den folgenden Abschnitten Gebrauch machen, wenn es darum geht, spezielle Variationsproblem zu lösen, die auf unendlichdimensionalen Räumen definiert sind. Dort existieren nämlich keine Koordinaten im üblichen
Sinne, wohl aber Richtungsableitungen und somit auch das Konzept, das hinter dem Begriff einer
Variation steht.
Aufgabe 14.1 Man stelle die Funktion (14.3) in den Nord-Koordinaten (u (N) , v(N) ) dar, berechne
die Variation δh als Funktion von (δu(N) , δv(N) ) und zeige, dass sich dieselben Punkte ergeben,
an denen die Funktion stationär ist.
d`2 = dx2 + dy 2 = dx2 +
Aufgabe 14.2 Die Punkte a, b, c bilden ein nicht entartetes Dreieck im dreidimensionalen Euklidischen Raum. Die Funktion h(x) sei das Volumen des Tetraeders mit den Ecken a, b, c und x,
also
1
(14.9)
h(x) = (x − a) · (x − b) × (x − c) .
6
Man berechne die Variation δh(x) unter einer Variation δx. Man zeige, dass der Gradient ∇h(x)
konstant ist und seine Richtung durch den Normalenvektor des Dreiecks gegeben ist. Dies l ässt
sich ganz ohne die Verwendung von Koordinaten zeigen.
∂ 2 φ = Bµν .
∂xµ ∂xν x=x0
dy
2
dx2 = (1 + f 0 (x)2 ) dx2
(14.11)
gegeben sind. Anschließend integrieren wir diese Längenelemente, und erhalten so den folgenden
Ausdruck für die Länge des Grafen zwischen den Punkten (x 1 , y1 ) und (x2 , y2 ),
L[f ] =
2
Z xq
1 + f 0 (x)2 dx.
(14.12)
x1
Nun betrachten wir dies als eine Abbildung L : f 7→ L[f ]. Sie ordnet jeder Funktion f , die auf
dem Intervall x1 ≤ x ≤ x2 differenzierbar ist und die Randwerte f (x1 ) = y1 und f (x2 ) = y2
annimmt, eine reelle Zahl L[f ] zu.
Eine solche Abbildung, deren Argument selbst eine Funktion ist, wird als Funktional bezeichnet, wobei man das Argument in eine eckige Klammer schreibt. Das ist aber nur eine sprachliche
Vereinbarung, da es manchmal ein wenig verwirrend ist, wenn man von einer Funktion spricht,
deren Argument wieder eine Funktion ist. Ein Funktional ist nur ein neues Wort, aber kein neues
Konzept. Es handelt sich um eine Abbildung eines Funktionenraumes in die reellen Zahlen.
Aufgabe 14.3 Für eine Funktion φ : M → R bestimmen wir an der Stelle x0 ∈ M innerhalb des Abdeckungsbereiches eines Koordinatensystems {x µ } die ersten und zweiten partiellen
Ableitungen und finden
∂φ = 0,
∂xµ x=x0
dx (14.10)
Die Funktion φ(x) ist folglich an der Stelle x = x0 stationär. Man zeige, dass dann Bµν die Darstellung eines Tensors B ∈ Tx(0,2) M ist. Aus welcher hinreichenden Bedingung an die Matrix
Bµν folgt, dass φ(x) an der Stelle x = x0 ein Minimum hat?
Aufgabe 14.5 Wie muss man den Abstandsvektor zwischen zwei Funktionen f 1 und f2 definieren,
damit der Raum der Funktionen, auf dem die Abbildung L definiert ist, zu einem affinen Raum
wird? Was ist dann der zugeordnete Vektorraum?
Aufgabe 14.4 Der Konfigurationsraum Q des Doppelpendels aus Abbildung 12.2 ist ein Torus,
der durch ein periodisches Koordinatensystem (α, β) mit α ≡ α + 2π und β ≡ β + 2π erfasst
werden kann. Man betrachte die potenzielle Energie des Pendels als Funktion V : Q → R. Wo
liegen die Extrema dieser Funktion? Handelt es sich dabei um Minima oder Maxima?
Wenn wir nun die Frage stellen, welches die kürzeste Verbindung zwischen den beiden Punkten
ist, so ist dies gleichbedeutend mit der Frage, an welcher Stelle, also für welche Funktion f das
Funktional L[f ] minimal wird. Es handelt sich um ein Variationsproblem im Sinne des letzten
Abschnitts. Wir müssen diejenigen Stellen im Raum aller zulässigen Funktionen f finden, an
denen eine skalare Funktion, oder genauer ein Funktional stationär ist.
74
(d)
y
y
y
f + g
y2
d`
anderer Graf, der folglich auch eine andere Länge hat, nämlich
y2
dy
dx
f
y1
x
(a)
x1
x2
L[f + g] =
y1
x
(b)
x1
x2
g(x1 ) = 0,
g(x2 ) = 0.
2
Z xq
x1
Z x2 0
(f (x) + g 0 (x)) g 0 (x)
p
1 + (f (x) + g (x)) dx =
dx.
1 + (f 0 (x) + g 0 (x))2
0
0
2
(14.16)
x1
Jetzt müssen wir nur noch = 0 setzen, und bekommen für die gesuchte Richtungsableitung
Das Problem ist nun, dass dieser Raum eine unendliche Dimension hat. Funktionenräume sind
im allgemeinen keine endlich-dimensionalen Räume. Wir können daher kein Koordinatensystem
im üblichen Sinne einführen und die partiellen Ableitungen nach den Koordinaten berechnen. Wir
können aber immer noch eine Richtungsableitung definieren, ohne dass wir dafür Koordinaten
benötigen.
Wir stellen uns wieder vor, dass wir uns an einer bestimmten “Ort” im Funktionenraum befinden, also bei einer Funktion f . Wenn wir von dort aus in eine bestimmte “Richtung” gehen,
so bedeutet das, dass wir zu der Funktion f eine andere Funktion g addieren. Wir führen einen
Parameter ein, der angibt, wie weit wir schon gegangen sind. Wir betrachten also die Funktion
f (x2 ) = y2 ,
(14.14)
Jetzt können wir wie üblich die Richtungsableitung berechnen. Wir betrachten den Ausdruck
(14.14) als gewöhnliche reelle Funktion von einer reellen Variablen , und bilden die Ableitung
an der Stelle = 0,
L[f + g] − L[f ]
dL[f + g] = lim
.
(14.15)
→0
d
=0
Diese Ableitung können wir leicht berechnen. Da die Integralgrenzen nicht von abhängen, wirkt
die Ableitung nur auf den Integranden. Es ist
d
d
mit f (x1 ) = y1 ,
1 + (f 0 (x) + g 0 (x))2 dx.
x1
x
(c)
Abbildung 14.1: Die Kurvenlänge eines Grafen (a) ergibt sich durch Integration der Linienelemente d`. Um festzustellen, ob die Kurvenlänge eines bestimmten Grafen extremal ist, betrachtet
man eine Schar von Funktionen (b), die sich von der gegebenen Funktion f um das Vielfache einer Funktion g unterscheiden. Unter allen Kurven, die zwei feste Punkte miteinander verbinden,
findet man schließlich die Gerade (c) als die kürzeste.
f (x) + g(x),
2
Z xq
Z x2 0
dL[f + g] f (x) g 0 (x)
p
=
dx.
d
=0
1 + f 0 (x)2
(14.17)
x1
Dieses Integral gibt an, wie sich die Länge eines Grafen verändert, wenn wir die Funktion f in
die Richtung der Funktion g verändern.
Aufgabe 14.6 In welchem Sinne definiert der Ausdruck auf der rechten Seite in (14.17) den “Gradienten” von L an der Stelle f ? Man bedenke, dass der Gradient ein dualer Vektor ist, also eine
lineare Abbildung. Um welchen Vektorraum handelt es sich hier, und auf welchen Vektor wirkt die
lineare Abbildung?
(14.13)
Die ersten beiden Bedingungen sind diejenigen, die den Funktionenraum definieren, in dem die
Funktion f liegen soll. Die Bedingungen an g, an den Rändern des Intervalls zu verschwinden,
ergibt sich aus der Forderung, dass wir innerhalb der Funktionenraumes bleiben müssen, wenn
wir die Funktion verändern. Auch die Funktion f + g muss, für alle , die gestellten Randbedingungen erfüllen, da wir uns sonst nicht innerhalb des Funktionenraumes bewegen, auf dem das
Funktional L definiert ist.
Nun können wir uns fragen, wie sich die Länge des Grafen verändert, wenn wir uns von der
Funktion f aus in die Richtung der Funktion g bewegen. In diesem Sinne ist f der Ort, an dem
wir uns befinden, und g ist der Vektor, der abgibt, in welche Richtung wir uns im Funktionenraum
bewegen. Die typische Situation ist in Abbildung 14.1(b) dargestellt. Für jedes ergibt sich ein
Jetzt können wir uns der Frage zuwenden, für welche Funktionen f das Funktional L[f ] stationär ist. Das ist genau dann der Fall, wenn die Richtungsableitung von L[f ] in alle Richtungen
verschwindet. Mit anderen Worten, die rechte Seite von (14.17) muss für alle Funktionen g Null
ergeben.
Um daraus eine Bedingung an die Funktion f abzuleiten, entfernen wir zunächst die Ableitung
g 0 (x), die unter dem Integral steht, durch eine partielle Integration. Es gilt
Z x2 0
h f 0 (x) g(x) ix=x2 Z x2 d f (x) g 0 (x)
f 0 (x)
p
p
dx = p
−
g(x) dx.
dx
1 + f 0 (x)2
1 + f 0 (x)2 x=x1
1 + f 0 (x)2
x1
75
x1
(14.18)
Der erste Term verschwindet, denn nach Voraussetzung ist g(x) an den Rändern des Intervalls
gleich Null. Es muss also der zweite Ausdruck für alle möglichen Funktionen g verschwinden.
Da der Funktionswert von g an jeder Stelle innerhalb des Intervalls beliebig ist, kann das nur dann
der Fall sein, wenn der Rest des Integranden gleich Null ist. Die Bedingung lautet also
f 0 (x)
d
p
=0
dx
1 + f 0 (x)2
⇔
p
f 0 (x)
1+
f 0 (x)2
= konst
⇔
f 0 (x) = konst.
die auf einem Intervall x1 ≤ x ≤ x2 definiert ist. Sie soll hinreichend oft differenzierbar sein,
damit alle Ausdrücke, die im folgenden auftreten, wohldefiniert sind.
Es zeigt sich, dass ein sehr große Klasse von Extremalproblemen auf die folgende allgemeine
Form gebracht werden kann. Das Funktional, das extremal werden soll, ist als Integral über x
gegeben, wobei der Integrand von f (x), den ersten n Ableitungen f 0 (x), f 00 (x), . . ., f (n) (x),
sowie von x selbst abhängt, also
(14.19)
Z x2
S[f ] = L f (x), f 0 (x), f 00 (x), . . . , f (n) (x), x dx.
Das Funktional L[f ] ist genau dann an der Stelle f stationär, wenn die Funktion f linear ist. Es
gibt genau eine lineare Funktion, die die gestellten Randbedingungen erfüllt, nämlich
f (x) =
y2 (x − x1 ) + y1 (x2 − x)
.
x2 − x 1
Hierbei ist L(y0 , y1 , . . . , yn , x) eine gewöhnliche reelle Funktion mit n + 2 Argumenten wobei
für diese die gesuchte Funktion und ihren ersten n Ableitungen an der Stelle x, sowie x selbst
einzusetzen sind. Anschließend ist dieser Ausdruck über x zu integrieren.
Um herauszufinden, für welche Funktionen f dieses Funktional stationär ist, bilden wir die
Richtungsableitung von S[f ] in die Richtung einer Funktion g. Wir betrachten also die Ableitung
(14.20)
Tatsächlich liegt an dieser Stelle ein Minimum des Funktionals L[f ] vor. Die Gerade ist die
kürzeste Verbindung von zwei Punkten. Es ist die einzige Stelle im Funktionenraum, an der alle
Richtungsableitungen von L verschwinden.
Z x2
d
d
=
L y0 + z0 , y1 + z1 , . . . , yn + zn , x dx ,
S[f + g]
d
d
=0
=0
Aufgabe 14.7 Man löse folgendes, leicht verändertes Extremalproblem. Die Funktionswerte von
f an den Rändern des Intervalls seien nicht festgelegt. Das heißt, f ist irgendeine differenzierbare
Funktion auf dem Intervall x1 ≤ x ≤ x2 . Welche zusätzliche Bedingung ergibt sich nun für
die Funktion f , wenn L[f ] stationär sein soll? Welches ist jetzt die Funktion mit dem kürzesten
Grafen? Ist sie eindeutig? Ist das Ergebnis das, was man erwartet?
L[f ] =
f (ϕ)2 + f 0 (ϕ)2 dϕ
(14.23)
x1
wobei wir yk = f (k) (x) und zk = g (k) (x) als Abkürzungen für die Werte der Funktionen und
ihrer Ableitungen an der Stelle x verwendet haben. Diese hängen natürlich nicht von ab, so
dass wir sie bei der Ableitung nach als Konstanten betrachten können. Das gleiche gilt für die
Integralgrenzen, so dass wir die Ableitung nach auf den Integranden wirken lassen können. Das
ergibt
2
Z x
n
X
d
∂L
S[f + g]
y0 , y1 , . . . , yn , x zk dx.
(14.24)
=
d
∂yk
=0
Aufgabe 14.8 Eine Kurve in der Euklidischen Ebene werde in Polarkoordinaten (r, ϕ) durch
eine Funktion r = f (ϕ) beschrieben. Auf diese Weise hatten wir zum Beispiel die Keplerschen
Ellipsen in Kapitel 8 beschrieben. Man zeige, dass die Länge der Kurve zwischen zwei Punkten
(r1 , ϕ1 ) und (r2 , ϕ2 ) mit ϕ2 > ϕ1 durch
2
Z ϕp
(14.22)
x1
x1
(14.21)
k=0
Diese Richtungsableitung können wir auch als Variation des Funktionals S[f ] darstellen. Dazu
schreiben wir f (x) + δf (x) statt f (x) + g(x), wobei δf (x) die Variation der Funktion f (x)
ist. Die anschauliche Vorstellung ist die, dass wir an der Funktion f (x) ein wenig “wackeln”, so
dass sich eine veränderte Funktion f (x) + δf (x) ergibt. Die Variation δf (x) ist dann auch eine
Funktion auf dem Intervall x1 ≤ x ≤ x2 . Gegebenenfalls muss sie gewissen Randbedingungen
genügen, wenn entsprechende Randbedingungen an die Funktion f (x) gestellt sind.
Wenn wir die Funktion f (x) verändern, ändert sich auch ihre Ableitung. Da das Ableiten eine
lineare Operation ist, ist die Variation der Ableitung f 0 (x) gleich der Ableitung der Variation
δf (x) nach x. Wir schreiben dafür δf 0 (x), wobei es unerheblich ist, ob hier quasi zuerst der
Strich und dann das Delta wirkt, oder umgekehrt erst das Delta und dann der Strich. Es spielt
keine Rolle, ob wir eine Funktion erst ableiten und dann variieren oder erst variieren und dann
ableiten. Das gleiche gilt natürlich auch für alle höheren Ableitungen.
ϕ1
gegeben ist, wobei die Funktion f die Randbedingungen f (ϕ 1 ) = r1 und f (ϕ2 ) = r2 erfüllt.
Man bestimme die Funktion f , für die dieses Funktional stationär wird, und zeige anschließend,
dass es sich um die Darstellung einer geraden Strecke in Polarkoordinaten handelt. Welche Einschränkung muss man an ϕ1 und ϕ2 machen, damit dieses Variationsproblem überhaupt eine
Lösung hat? Welche geometrische Begründung gibt es dafür?
Die Eulersche Gleichung
Wir wollen das Verfahren, das wir soeben verwendet haben, um ein bestimmtes Extremalproblem
zu lösen, nun ein wenig systematischer analysieren. Wir betrachten wieder eine Funktion f (x),
76
Statt (14.24) können wir nun auch schreiben
x2
δS[f ] =
Z X
n
∂L
k=0
x1
∂f (k)
f (x), f 0 (x), . . . , f (n) (x), x δf (k) (x) dx,
Das ist natürlich nur eine notwendige Bedingung, denn die Randterme in (14.26) müssen auch
verschwinden, damit das Funktional wirklich stationär ist. In dem Beispiel aus dem letzten Abschnitt hatten wir allerdings gesehen, dass diese Randterme schon wegen der an die Funktion f
gestellten Randbedingungen gleich Null waren.
Tatsächlich hängen die Randterme von den gestellten Randbedingungen an die Funktion f ab,
also davon, wie der Funktionenraum, auf dem das Funktional definiert ist, an den Rändern des
Intervalls aussieht. In den meisten praktischen Fällen verschwinden die Randterme automatisch.
Wir werden dies im folgenden stets annehmen, wenn wir Variationsprobleme allgemein diskutieren. Natürlich müssen wir dann im Einzelfall stets zeigen, dass dem auch so ist, wenn wir ein
spezielles Problem lösen wollen.
Mit Hilfe der Eulerschen Gleichung lässt sich das Ergebnis des letzten Abschnitts leicht reproduzieren. Um das Funktional (14.12) für die Länge des Grafen der Funktion f zu bekommen,
müssen wir n = 1 und
p
(14.28)
L f, f 0 , x = 1 + f 02
(14.25)
(k)
die partielle Ableitung nach dem entsprechenden Argument der Funktion L
wobei ∂L/∂f
bezeichnet.
Der Vorteil dieser Schreibweise ist, dass wir das nicht explizit ausschreiben müssen und für
die Richtung, in die wir ableiten, keine zusätzliche Bezeichnung einführen müssen. Inhaltlich
sind die Aussagen von (14.24) und (14.25) aber identisch.
Wenn das Funktional S[f ] an der Stelle f stationär sein soll, dann müssen dort alle Richtungsableitungen verschwinden, oder äquivalent dazu, es muss die Variation δS[f ] für alle Variationen
δf verschwinden. Um das in eine Bedingung an f zu übersetzen, müssen wir auch hier wieder
die Ableitungen loswerden, die noch auf die Variation δf wirken.
Dazu führen wir mehrere partielle Integrationen durch. Und zwar integrieren wir den Term,
der δf (k) (x) enthält, k mal partiell. Das produziert ein Vorzeichen (−1)k und einen Satz von
Randtermen, die uns im Moment nicht interessieren. Das Ergebnis ist
δS[f ] =
h Rand- i
terme
+
2
Z x
n
X
x1
k=0
(−1)k
k
d
∂L
f (x), f 0 (x), . . . , f (n) (x), x
k
dx ∂f (k)
setzen. Daraus folgt
∂L
f, f 0 , x = 0,
∂f
δf (x) dx.
und die Eulersche Gleichung lautet
d ∂L
∂L
d
f 0 (x)
0
p
f (x), f 0 (x), x −
= 0.
0 f (x), f (x), x = −
∂f
dx ∂f
dx 1 − f 0 (x)2
(14.26)
Wenn das für alle δf gleich Null sein soll, dann muss der Ausdruck in der Klammer für alle x
verschwinden, denn δf (x) kann für alle x innerhalb des Intervalls beliebig gewählt werden. Als
notwendige Bedingung dafür, dass das Funktional S[f ] an der Stelle f stationär ist, bekommen
wir die Gleichung
Eulersche
Gleichung
n
X
k=0
(−1)k
dk ∂L
f (x), f 0 (x), . . . , f (n) (x), x = 0.
k
(k)
dx ∂f
∂L
f0
0
,
0 f, f , x = p
∂f
1 − f 02
(14.29)
(14.30)
Das ist wieder die Gleichung (14.19), die genau dann erfüllt ist, wenn f (x) eine lineare Funktion
ist.
Aufgabe 14.9 Welche höchste Ordnung kann die Differenzialgleichung (14.27) für die gesuchte
Funktion f (x) haben?
(14.27)
Aufgabe 14.10 Man berechne die Randterme in (14.26) für n = 2.
Dies ist eine Differenzialgleichung für die Funktion f (x). Sie wird als Eulersche Gleichung für
das gegebene Variationsproblem bezeichnet. Zu beachten ist dabei, dass die Ableitungen d/dx,
die auf die einzelnen Ausdrücke wirken, jeweils auf alle Argumente der Funktion L wirken,
nämlich explizit auf das letzte Argument x, und implizit auf alle anderen Argumente, weil diese
wiederum über f , f 0 , f 00 etc. von x abhängen.
Die entsprechende Überlegung für die Richtungsableitung (14.24) führt natürlich zum selben
Ergebnis. Damit die Richtungsableitungen verschwinden, muss die Differenzialgleichung (14.27)
erfüllt sein.
Aufgabe 14.11 Wenn die Randterme in (14.26) nicht verschwinden, ergeben sich zus ätzliche Bedingungen an f . Die Eulersche Gleichung (14.27) als notwendige Bedingung f ür das Vorliegen
eines Extremums wird durch die Randterme jedoch nicht modifiziert. Warum nicht?
Das Brachistochronenproblem
Ein nicht ganz triviales Variationsproblem ergibt sich aus der folgenden Aufgabe, die wir als
anschauliches Beispiel diskutieren wollen. Es soll eine Rutschbahn gebaut werden, auf der Gegenstände möglichst schnell von einem vorgegeben Ort zu einem anderen transportiert werden
sollen, indem man sie einfach in die Rutschbahn fallen lässt. Sie bewegen sich dort nur unter dem
Damit ein Funktional S[f ], das als Integral einer Funktion von f (x), f 0 (x), . . .,
f (n) (x) und x gegeben ist, stationär wird, muss die Funktion f die zugehörige Eulersche Gleichung erfüllen.
77
(c)
(d)
u
v
z
d
x
z
z = 0 gleich Null, so gilt
x
ϕ
ϕ
ϕ
h
E=
Abbildung 14.2: Beim Brachistochronenproblem (a) geht es darum, eine Rutschbahn zu konstruieren, auf der ein Gegenstand allein unter dem Einfluss der Schwerkraft möglichst schnell von
einem vorgegebenen Punkt zu einem anderen gelangt. Die Lösungskurve ist eine Zykloide (b),
die einsteht, wenn ein Rad auf einer Geraden abrollt.
Daraus ergibt sich durch Integration die Laufzeit für den Gegenstand,
2
ZT
Z xs
1 + f 0 (x)2
dx.
T [f ] = dt =
2 g f (x)
0
mit f (0) = 0,
f (d) = h,
(14.34)
x1
Die Aufgabe besteht nun darin, das Funktional T [f ] zu minimieren. Es handelt sich um ein Variationsproblem der allgemeinen Form, wie wir es gerade diskutiert haben. Wir müssen die Eulersche
Gleichung
s
Einfluss der Schwerkraft, und die Reibung soll vernachlässigt werden. Welches ist die günstigste
Form der Rutschbahn?
Die Bezeichung Brachistochronenproblem für dieses Extremalproblem leitet sich aus den griechischen Wörtern brachis für ‘kurz’ und chonos für ‘Zeit’ ab. Gesucht ist diejenige Kurve, der die
kürzesten Laufzeit entspricht. Solche physikalisch motivierten Extremalprobleme wurden bereits
im 17. Jahrhundert von Newton und den Brüdern Bernoulli gestellt und diskutiert. Erst durch
das von Euler im 18. Jahrhundert entwickelte Verfahren, das wir im letzten Abschnitt hergeleitet
haben, gelingt jedoch eine elegante Lösung.
Das Problem ist in Abbildung 14.2(a) dargestellt. Es handelt sich um ein zweidimensionales
Problem, da es sicher am günstigsten ist, wenn die Rutschbahn, von oben gesehen, die beiden
Punkte auf einer geraden Strecke verbindet. Wir verwenden die Koordinaten (x, z), wobei die
z-Achse wie üblich nach oben zeigen soll. Der Anfangspunkt der Rutschbahn befinde sich am
Koordinatenursprung bei (x, z) = (0, 0), der Endpunkt bei (x, z) = (d, −h), wobei sowohl die
horizontale Strecke d als auch die Fallhöhe h positiv sein sollen.
Die Rutschbahn kann dann durch die Gleichung
z = −f (x),
(14.32)
Durch Auflösen nach der Geschwindigkeit ergibt sich eine Differenzialgleichung erster Ordnung,
s
dx 2
g
f
(x)
1 + f 0 (x)2
2
=
⇒ dt =
dx.
(14.33)
0
2
dt
2 g f (x)
1 + f (x)
(b)
(a)
dx m
m 2
2
(ẋ + ż 2 ) + m g z =
(1 + f 0 (x)2 )
− m g f (x) = 0.
2
2
dt
d ∂L
∂L
−
= 0 mit L(f, f 0 ) =
∂f
dx ∂f 0
1 + f 02
2gf
(14.35)
lösen. Explizit ausgewertet ergibt sich daraus eine Differenzialgleichung zweiter Ordnung für die
gesuchte Funktion f (x).
Mit einem kleinen Trick, der sich später als Spezialfall eines ganz wichtigen Satzes herausstellen wird, formen wir sie in eine Differenzialgleichung erster Ordnung mit einem freien Parameter
um. Da die Funktion L nicht explizit, sondern nur über die Funktion f und ihre Ableitung f 0 von
der Integrationsvariable x abhängt, gilt folgende Identität. Es ist
d ∂L
∂L
d 0 ∂L
00 ∂L
0 ∂L
f
+ f 00
−
L
= f0
0
0 +f
0 −f
dx
dx ∂f
∂f
∂f
∂f
∂f 0
d ∂L
∂L = f0
.
(14.36)
0 −
dx ∂f
∂f
(14.31)
Unter der Voraussetzung f 0 6= 0 ist somit die Eulersche Gleichung äquivalent zu der Differenzialgleichung erster Ordnung
∂L
− L = konst.
(14.37)
f0
∂f 0
Die linke Seite dieser Gleichung lässt sich für die spezielle Funktion L (14.35) leicht auswerten.
Es ergibt sich
∂L
1
−L= q
(14.38)
f0
.
∂f 0
2 g f 1 + f 02
dargestellt werden. Bewegt sich ein Gegenstand auf der Rutschbahn, so können wir seine Bahn
durch die Funktionen x(t) und z(t) = −f (x(t)) beschreiben. Um die Laufzeit zu berechnen,
benutzen wir die in Teil I entwickelte Methode, die auf dem Energieerhaltungssatz beruht. Dann
müssen wir die Bewegungsgleichungen nämlich gar nicht explizit lösen.
Die Energie des rutschenden Körpers setzt sich aus der kinetischen und der potenziellen Energie zusammen. Da der Gegenstand am Anfang einfach fallen gelassen werden soll, ergibt sich
ihr Wert aus dem Gravitationspotenzial an dieser Stelle. Setzen wir das Gravitationspotenzial bei
78
Aus diesem Gleichungssystem lässt sich die Konstante a und der Wert von ϕ am Endpunkt der
Bahn numerisch bestimmen.
Damit haben wir die gesuchte Bahn gefunden, auf der Körper am schnellsten sein Ziel erreicht.
Die optimale Bahn ist eine Zykloide. Sie ergibt sich, wenn man ein Rad, wie in Abbildung 14.2(b)
gezeigt, auf der x-Achse abrollt und dabei einen vorgegebenen Punkt auf dem Umfang verfolgt.
Der Mittelpunkt des Rades befindet sich am Punkt (a ϕ, −a) unterhalb der x-Achse un bewegt
sich gleichmäßig nach rechts. Die Speiche, also der Vektor, der vom Mittelpunkt zu dem vorgegeben Punkt auf dem Umfang zeigt, hat die Komponenten (−a sin ϕ, a cos ϕ) und dreht sich
gleichmäßig gegen den Uhrzeigersinn. Der Radius a des Rades ist so zu bestimmen, dass der
Punkt auf dem Umfang, der am Anfangspunkt der Kurve gerade die x-Achse berührt, später
durch den vorgegebenen Endpunkt der Kurve hindurch läuft.
Die zu lösende Differenzialgleichung lautet also
f (x) (1 + f 0 (x)2 ) = 2 a
⇔
f 0 (x)2 =
2 a − f (x)
,
f (x)
(14.39)
wobei a eine Konstante ist. Den Faktor 2 haben wir an dieser Stelle nur eingeführt, damit die
Lösung später eine einfache Form annimmt.
Aufgabe 14.12 Gibt es eine anschauliche physikalische Erklärung dafür, dass letztlich weder die
Masse m des Gegenstandes, noch die Erdbeschleunigung g f ür die gesuchte Form der Rutschbahn
eine Rolle spielt?
Die Differenzialgleichung (14.39) lässt sich durch folgende Substitution lösen. Wir setzen
f 0 (x) = a sin(ϕ(x)) ϕ0 (x).
(14.40)
1 + cos(ϕ(x))
a + a cos(ϕ(x))
=
.
a − a cos(ϕ(x))
1 − cos(ϕ(x))
(14.41)
f (x) = a − a cos(ϕ(x))
⇒
Aufgabe 14.13 Man zeige, dass das Gleichungssystem (14.46) f ür d > 0 und h > 0 genau eine
Lösung mit a > 0 und 0 < ϕ < 2π besitzt. Das Brachistochronenproblem ist also eindeutig
lösbar.
Setzen wir das in (14.39) ein, so ergibt sich
a2 sin2 (ϕ(x)) ϕ0 (x)2 =
Aufgabe 14.14 Wie man in Abbildung 14.2(a) erkennt, erreicht die optimale Rutschbahn ihr Ziel
von unten, das heißt die Bahn verläuft teilweise unterhalb des Zielpunktes. Offenbar lässt sich
dadurch Zeit gewinnen, denn der Körper ist auf diesem Teilstück noch schneller als bei seiner
Ankunft. Für welche Werte der horizontalen Wegstrecke d und Fallhöhe h hat die optimale Bahn
diese Eigenschaft?
Erweitert man den Bruch mit 1 − cos(ϕ(x)), so findet man
sin2 (ϕ(x))
1 + cos(ϕ(x))
,
=
1 − cos(ϕ(x))
( 1 − cos(ϕ(x)) )2
(14.42)
Aufgabe 14.15 Man zeige, dass die Bahn so durchlaufen wird, dass der Kurvenparameter ϕ eine
lineare Funktion der Zeit ist. Wie lang ist die benötigte Zeit T auf der optimalen Bahn? Welche
Laufzeit ergibt sich speziell für zwei Punkte, die auf gleicher Höhe liegen?
was schließlich auf die Differenzialgleichung
ϕ0 (x) =
1
a − a cos(ϕ(x))
(14.43)
Aufgabe 14.16 In Abbildung 14.2(a) sind zwei alternative Bahnen eingezeichnet. Die erste
verläuft entlang einer Geraden. Auf der zweiten fällt der Gegenstand zuerst senkrecht nach unten,
wird dann scharf umgelenkt und bewegt sich mit konstanter Geschwindigkeit zum Ziel. Man zeige,
dass die Laufzeit in beiden Fällen größer ist als die auf der optimalen Bahn.
führt. Sie lässt sich nicht explizit lösen. Wenn wir jedoch die Umkehrfunktion x(ϕ) betrachten,
so gilt für diese
x0 (ϕ) = a (1 − cos ϕ)
⇒
x(ϕ) = a (ϕ − sin ϕ) + b,
(14.44)
Aufgabe 14.17 Wie sollte die Rutschbahn angelegt werden, wenn der K örper möglichst lange
unterwegs sein soll? Gibt es dafür auch eine optimale Bahn?
wobei b eine zweite Integrationskonstante ist. Da die Koordinate z = −f (x) bereits als Funktion
von ϕ(x) dargestellt ist, bekommen wir folgende Parameterdarstellung der gesuchten Kurve,
x(ϕ) = a (ϕ − sin ϕ) + b,
z(ϕ) = a (cos ϕ − 1).
Aufgabe 14.18 Ein anderes Variationsproblem, das sich auf ähnliche Weise lösen lässt, ist das in
Abbildung 14.3 dargestellte Minimalflächenproblem. Zwei parallele Ringe mit Radius r werden
in einem Abstand d aufgestellt. Zwischen ihnen ist eine Rotationsfl äche aufgespannt, die durch
die Gleichung y 2 + z 2 = f (x)2 beschrieben werden kann, mit −d/2 ≤ x ≤ d/2 und f (−d/2) =
f (d/2) = r. Gesucht ist die kleinste solche Fläche. Man beweise die in der Abbildung gemachten
Angaben und bestimme den kritischen Wert für das Verhältnis d/r numerisch. Man betrachte
speziell die Situation (b). Ist die dargestellte äußere Fläche tatsächlich die kleinste mögliche
Fläche, die von den Ringen begrenzt wird?
(14.45)
Die Konstanten a und b müssen wir so bestimmen, dass die Kurve durch die Punkte (0, 0) und
(d, −h) läuft. Die erste Bedingung ist für b = 0 erfüllt. Der Anfangspunkt der Rutschbahn entspricht dann dem Kurvenparameter ϕ = 0. Damit die Kurve durch den vorgegebenen Endpunkt
verläuft, muss es ein ϕ geben mit
a (ϕ − sin ϕ) = d,
a (1 − cos ϕ) = h.
(14.46)
79
δf 0 (x) und δg 0 (x) zu eliminieren. Außerdem nehmen wir an, dass an beide Funktionen feste
Randbedingungen f (x1,2 ) = f1,2 und g(x1,2 ) = g1,2 gestellt sind. Dann verschwinden die beim
partiellen Integrieren auftretenden Randterme, denn es muss δf (x 1,2 ) = 0 und δg(x1,2 ) = 0 sein.
Wir bekommen schließlich
replacements
δS[f, g] =
(d)
Z x2h
x1
d = 1.0 r
d = 1.3 r
(a)
(b)
d = 1.4 r
∂L
i
∂L
d ∂L d ∂L δf
(x)
+
δg(x)
dx
−
−
∂f
dx ∂f 0
∂g
dx ∂g 0
Damit das Funktional stationär ist, muss das Integral für alle δf und alle δg verschwinden. Offenbar ist das genau dann der Fall, wenn für f und g die Differenzialgleichungen
(c)
d ∂L
∂L
= 0,
−
∂f
dx ∂f 0
Abbildung 14.3: Zwischen zwei gleich großen, parallel zueinander ausgerichteten Ringen bilden
sich zwei Extremalflächen aus (a). Nur die äußere ist eine Minimalfläche. Zieht man die Ringe weiter auseinander, so nähern sich die beiden Extremalflächen einander an (b). Übersteigt
das Verhältnis aus Abstand und Radius einen kritischen Wert, so gibt es nur noch die entartete
Minimalfläche, die aus zwei Kreisscheiben besteht.
n
X
Das allgemeine, durch (14.22) definierte Variationsproblem lässt sich leicht auf Funktionale verallgemeinern, die von mehreren Argumenten, also von mehreren Funktionen abhängen. Als Beispiel betrachten wir ein Funktional S[f, g], das von zwei Funktionen f (x) und g(x) abhängt.
Beide sollen auf dem Intervall x1 ≤ x ≤ x2 definiert sein, und das Funktional soll wieder durch
ein Integral gegeben sein, dessen Integrand jetzt aber von den beiden Funktion und ihren Ableitungen abhängt.
Der Einfachheit halber beschränken wir uns an dieser Stelle auf die Funktionen und ihre ersten
Ableitungen. Es sei also
k=1
(14.47)
Die übliche Rechnung ergibt dann den folgenden Ausdruck für die Variation des Funktionals,
δS[f, g] =
x1
∂L
∂L
∂L 0
∂L
δf (x) +
δg(x) + 0 δg 0 (x) dx.
0 δf (x) +
∂f
∂g
∂f
∂g
(14.50)
(−1)
dk ∂L
= 0,
dxk ∂fα(k)
(14.51)
und es gibt eine solche Gleichung für jeden Index α, also genau so viele wie Funktionen f α (x).
Wir wollen auch dafür ein einfaches Beispiel diskutieren, das zudem eine andere typische Eigenschaft von Variationsproblemen deutlich macht. Wir suchen wieder die kürzeste Verbindung
zwischen zwei Punkten, diesmal aber in einem metrischen affinen Raum beliebiger Dimension.
Die Kurve werde durch eine Funktion λ(s) beschrieben, wobei s der Kurvenparameter ist. Als
Randwerte geben wir λ(s1 ) = p1 und λ(s2 ) = p2 , wobei p1 und p2 zwei beliebige Punkte sind
und s2 > s1 .
Wenn wir die Kurve durch kartesische Koordinaten λi (s) darstellen, können wir die Länge wie
folgt berechnen,
2
2
Z sq
Z sq
0
0
L[λ] =
λ (s) · λ (s) ds =
λ0i (s) λ0i (s) ds.
(14.52)
x1
2
Z x
∂L
d ∂L
=0
−
∂g
dx ∂g 0
erfüllt sind. Es muss also für jede Funktion jeweils eine Eulersche Gleichung erfüllt sein. Es ergibt
sich ein gekoppeltes System von Differenzialgleichungen, da die Funktion L und ihre Ableitungen im allgemeinen von beiden Funktionen abhängen.
Es ist mehr oder weniger offensichtlich, wie sich diese Aussage auf Funktionale von endlich
vielen Funktionen verallgemeinern lässt, sowie auf Funktionale, die von beliebig vielen Ableitungen abhängen. Hängt der Integrand L von endlich vielen Funktionen f α (x) und ihren Ableitungen
fα0 (x) bis fα(n) (x) ab, so lauten die Eulerschen Gleichungen
Funktionale mit mehreren Argumenten
Z x2
S[f, g] = L(f (x), f 0 (x), g(x), g 0 (x), x) dx.
(14.49)
s1
s1
Das Funktional hängt von insgesamt N Funktionen ab, wenn N die Dimension des Raumes ist.
Die unter dem Integral auftretende Funktion ist
q
L(λ0 (s)) = λ0i (s) λ0i (s).
(14.53)
(14.48)
Auch hier führen wir wieder partielle Integrationen durch, um die Ableitungen der Variationen
80
gesuchten Funktionen fα (t) durch die Koordinatenfunktionen q µ (t) auf dem Konfigurationsraum
ersetzen, und für den Integranden des Funktionals die Lagrange-Funktion L des mechanischen
Systems einsetzen.
Natürlich besteht diese Beziehung nur dann, wenn dem mechanischen System eine LagrangeFunktion zugeordnet werden kann. Wir nehmen daher im folgenden an, dass es sich um ein solches System handelt. Es dürfen also nur Kräfte auftreten, die entweder aus einem Potenzial abgeleitet werden können oder, etwas allgemeiner, von der Art der Lorentz-Kraft sind. Von dieser
hatten wir am Ende von Kapitel 11 gezeigt, dass auch sie aus eine Lagrange-Funktion abgeleitet
werden kann, wenn die zugehörigen Felder die Maxwell-Gleichungen erfüllen.
Auf die spezielle Form der Lagrange-Funktion kommt es hier nicht an. Wichtig ist nur, dass es
sich um eine Funktion der Koordinaten q µ auf dem Konfigurationsraum und ihrer Zeitableitungen
q̇ µ handelt. Außerdem kann sie noch explizit von der Zeit abhängen. Die Bewegungsgleichungen
lassen sich dann in der Form
∂L
d ∂L
− µ =0
(14.57)
dt ∂ q̇ µ
∂q
Sie hängt nur von den ersten Ableitungen der gesuchten Funktionen λ i (s) ab. Die Eulerschen
Gleichungen haben daher nur einen Term, und zwar
λ0i (s)
d d ∂L
q
=
= 0.
(14.54)
ds ∂λ0i
ds
λ0j (s) λ0j (s)
Die Gleichungen für die einzelnen Koordinatenfunktionen können wir wieder zu einer Vektorgleichung zusammenfassen. Die Bedingung lautet
λ0 (s)
d λ0 (s)
p
=0 ⇒ p
= konst.
(14.55)
ds
λ0 (s) · λ0 (s)
λ0 (s) · λ0 (s)
Die Eulerschen Gleichungen verlangen, dass der normierte Tangentenvektor der Kurve entlang
der Kurve konstant ist. Der normierte Tangentenvektor an der Stelle s ist der Einheitsvektor, der
anzeigt, in welche Richtung die Kurve an der Stelle s verläuft. Dieser Vektor ist genau dann
konstant, wenn die Kurve eine Gerade ist.
Das bedeutet aber nicht, dass die Funktion λ(s) durch die Eulerschen Gleichungen zusammen
mit den Randbedingungen eindeutig festgelegt ist. In den bisherigen Beispielen war das immer
der Fall. Hier finden wir jedoch eine unendliche Menge von Funktionen, für die das Funktional stationär ist, nämlich alle möglichen Parametrisierungen der Geraden von p 1 nach p2 . Jede
Funktion der Form
(14.56)
λ(s) = p1 + u(s) (p2 − p1 )
aufschreiben. Wir wollen diese Bewegungsgleichungen nun als die Eulerschen Gleichungen interpretieren, die sich aus einem speziellen Variationsproblem ergeben. Sie werden deshalb auch als
Euler-Lagrange-Gleichungen bezeichnet, wobei der Name Euler, so wie wir ihn bisher gebraucht
haben, die Tatsache zum Ausdruck bringt, dass sich die Gleichungen aus einem Variationsproblem
ableiten lassen, während der Name Lagrange für die physikalische Bedeutung der Gleichungen
steht.
Das zugehörige Variationsproblem können wir wie folgt formulieren. Wir betrachten zunächst
eine beliebige Bahn q(t) im Konfigurationsraum Q des mechanischen Systems, dargestellt durch
die Koordinatenfunktionen q µ (t), und zwar für ein endliches Zeitintervall t1 ≤ t ≤ t2 . Außerdem stellen wir die folgenden Randbedingungen. Zur Zeit t1 soll das System die Konfiguration
q(t1 ) = q1 annehmen, und zur Zeit t2 die Konfiguration q(t2 ) = q2 .
Über den Verlauf der Bahn machen wir sonst keine Aussage, außer dass sie differenzierbar sein
soll. Insbesondere nehmen wir nicht an, dass es sich um eine Lösung der Bewegungsgleichung
handelt. Es ist einfach irgendeine denkbare Bahn, die zur Zeit t 1 bei q1 startet und zur Zeit t2 bei
q2 ankommt. Jeder solchen Bahn ordnen wir eine reelle Zahl zu, nämlich
erfüllt die Differenzialgleichung (14.55) und die gestellten Randbedingungen, sofern u(s) eine
monoton steigende reelle Funktion mit u(s1 ) = 0 und u(s2 ) = 1 ist.
Wir sehen also, dass das Minimum eines Funktionals nicht immer an einem einzelnen Punkt im
Funktionenraum, also für eine bestimmte Funktion angenommen wird. Es ist durchaus möglich,
dass es eine Teilmenge von Funktionen gibt, für die das Funktional den gleichen minimalen Wert
annimmt. Hier haben natürlich alle parametrisierten Kurve (14.56) dieselbe Länge, nämlich |p 2 −
p1 |, wie man durch Einsetzen leicht nachrechnen kann.
Aufgabe 14.19 Man überzeuge sich davon, dass bei der partiellen Integration, die zur Herleitung
der Eulerschen Gleichungen notwendig ist, auch in diesem Fall keine Randterme auftreten. Man
zeige allgemein, dass die Randterme verschwinden, wenn der Integrand, also die Funktion L,
nur von den Funktionen fα (x) und ihren ersten Ableitungen fα0 (x) abhängen, und wenn die
Funktionswerte fα (x1 ) und fα (x2 ) an den Rändern des Intervalls fixiert sind.
Wirkung
Z t2
S[q] = L q(t), q̇(t), t dt.
(14.58)
t1
Wir nennen diese Größe die Wirkung der gegebenen Bahn. Die Wirkung S ist ein Funktional der
Bahn q(t). Sie hat die physikalische Dimension Energie mal Zeit.
Lagrange-Funktion und Wirkung
Auch wenn wir es bisher nicht explizit erwähnt haben, sollte an dieser Stelle bereits klar sein, wie
das allgemeine Variationsproblem mit den Bewegungsgleichungen der klassischen Mechanik zusammenhängt. Die Eulerschen Gleichungen sind genau die Lagrangeschen Bewegungsgleichungen für ein mechanisches System, wenn die für die Integrationsvariable x die Zeit t einsetzen, die
Die Wirkung einer Bahn ist das Zeitintegral der Lagrange-Funktion.
Wir können nun die Frage stellen, für welche Bahnen diese Wirkung extremal wird. Die Antwort können wir sofort geben. Es sind diejenigen Bahnen, die die Lagrange-Gleichungen (14.57)
81
erfüllen. Denn für die Variation der Wirkung gilt
δS[q] =
Z t2
t1
h ∂L
it=t2
∂L µ ∂L µ µ
dt
=
δq
+
δ
q̇
δq
+
∂q µ
∂ q̇ µ
∂ q̇ µ
t=t1
Z t2
t1
Typische mechanische Systeme, bei denen dies nicht der Fall ist, sind solche, in denen Reibungskräfte auftreten. Reibungskräfte sind aber niemals “fundamental”. Es handelt sich vielmehr
nur um eine effektive Beschreibung sehr komplizierter, mikroskopischer Wechselwirkungen, deren Details für die Beschreibung eines makroskopischen mechanischen Systems nicht von Bedeutung sind. Würde man diese Details vollständig in die Beschreibung mit aufnehmen, könnte
man die Bewegungsgleichungen wieder aus einer Lagrange-Funktion ableiten.
In der Beschreibung von grundlegenden Naturgesetzen kommt dem Wirkungsprinzip daher eine sehr wichtige Bedeutung zu. Auch die Formulierungen von anderen grundlegenden Theorien
wie der Quantenphysik bauen auf diesem Prinzip auf. Tatsächlich stellt das Wirkungsfunktional in einer bestimmten Art und Weise das Bindeglied zwischen der klassischen Physik und der
Quantenphysik her. Auf einige dieser Aspekte werden wir in den nächsten Kapiteln eingehen.
∂L d ∂L µ
δq dt. (14.59)
−
∂q µ dt ∂ q̇ µ
Die Randterme verschwinden, da wir nur solche Bahnen q(t) betrachten, die zu den Zeiten t 1 und
t2 die Werte q1 bzw. q2 annehmen. Folglich betrachten wir auch nur solche Variationen δq(t),
die bei t = t1 und t = t2 verschwinden. Ansonsten sind die Variationen δq µ (t) der Koordinatenfunktionen aber beliebig. Deshalb muss der Ausdruck in der Klammer zu jedem Zeitpunkt t
zwischen t1 und t2 verschwinden, das heißt die Bewegungsgleichungen (14.57) müssen erfüllt
sein.
Daraus ziehen wir den folgenden Schluss. Bewegt sich ein System von einer Konfigurationen
q1 zur Zeit t1 zu einer Konfiguration q2 zur Zeit t2 , so nimmt es dabei genau diejenige Bahn, für
die die Wirkung extremal wird. Diese Formulierung der Bewegungsgleichungen wird Prinzip der
stationären Wirkung oder kurz Wirkungsprinzip genannt.
Aufgabe 14.20 Um eine anschauliche Vorstellung davon zu bekommen, was das Wirkungsprinzip eigentlich genau besagt, betrachten wir folgende Situation. Ein Teilchen bewege sich im
dreidimensionalen Raum mit kartesischen Koordinaten (x, y, z) in einem Gravitationspotenzial
V = m g z. Es befinde sich zur Zeit t1 am Koordinatenursprung und zur Zeit t2 wieder dort. Wir
betrachten nur eine ganz kleine Teilmenge der möglichen Bahnen, die das Teilchen in der Zwischenzeit zurück gelegt haben könnte, nämlich diejenigen Bahnen, die durch eine quadratische
Funktion von t wie folgt dargestellt werden können,
Die physikalischen Bahnen sind die Bahnen mit stationärer Wirkung.
Unter den physikalischen Bahnen eines mechanischen Systems verstehen wir dabei diejenigen
Bahnen, die tatsächlich von dem System realisiert werden, im Gegensatz zu allen denkbaren
Bahnen im Konfigurationsraum.
Damit haben wir eine sehr bedeutende Feststellung gemacht. Ursprünglich hatten wir die
Lagrange-Gleichungen aus den Newtonschen Bewegungsgleichungen abgeleitet, indem wir diese einfach in einer neuen Form dargestellt haben. Das hatte ein paar technische Vorteile, etwa
bei der Handhabung von krummlinigen Koordinatensystemen oder der Beschreibung von Systemen mit Zwangsbedingungen. Es handelte sich aber nur um eine neue Schreibweise derselben
Differenzialgleichungen.
Nun haben wir ein neues Prinzip definiert, das wir als eine Art übergeordnetes Naturprinzip betrachten können. Offenbar verhalten sich bestimmte mechanische Systeme so, dass die Bahnen,
die sie realisieren, nicht nur einfach durch einen Satz von mehr oder weniger willkürlichen Differenzialgleichungen bestimmt werden. Sie folgen vielmehr einen “höheren” Prinzip, nach dem sie
eine bestimmte Funktion, oder genauer ein bestimmtes Funktional extremal machen.
Ein Begründung dafür gibt es zunächst nicht. Es ist nur eine Beobachtung, die man beim Studium von mechanischen System macht. Es zeigt sich aber, dass sich ähnliche Variationsprinzipien
auch in anderen Bereichen der Physik formulieren lassen, und zwar insbesondere für alle bekannten fundamentalen Theorien von Teilchen und ihren Wechselwirkungen. Tatsächlich hatten wir ja
bereits gesehen, dass sich genau diejenigen Kräfte auf ein einzelnes Teilchen aus einer LagrangeFunktion ableiten lassen, die die Form der elektromagnetischen Lorentz-Kraft haben. Auch die
Gravitationskraft kann aus einem Potenzial und damit aus einer Lagrange-Funktion abgeleitet
werden.
x(t) = a (t − t1 ) (t2 − t),
y(t) = b (t − t1 ) (t2 − t),
z(t) = c (t − t1 ) (t2 − t).
(14.60)
Statt des unendlich-dimensionalen Raumes aller möglicher Bahnen betrachten wir also nur einen
dreidimensionalen Unterraum, der durch drei Zahlen a, b und c parametrisiert wird. Alle diese
Bahnen haben die verlangte Eigenschaft, dass sich das Teilchen zu den Zeiten t 1 und t2 jeweils
am Ursprung befindet. Es ist natürlich nicht klar, ob die tatsächlich realisierte Bahn in dieser
“zufälligen” Auswahl von Bahnen dabei ist. Trotzdem können wir für jede solche Bahn die Wirkung berechnen und diese als Funktion S(a, b, c) darstellen. Wenn die tats ächlich realisierte Bahn
dabei ist, muss es diejenige sein, für die diese Funktion von drei Variablen extremal wird. Gibt
es ein solches Extremum? Wenn ja, ist es ein Minimum, ein Maximum oder ein Sattelpunkt, und
entspricht es der tatsächlich realisierten Bahn?
Aufgabe 14.21 Das folgende Beispiel soll klar machen, wie das Wirkungsprinzip benutzt werden
kann, um physikalische Bahnen zu approximieren. Wieder betrachten wir ein Teilchen in einem
homogenen Gravitationsfeld. Diesmal soll sich das Teilchen zu Zeit t 1 an einem Ort r1 befinden,
und Zeit t2 am Ort r2 . Wir erlauben aber nur solche Bahnen, auf denen sich das Teilchen zuerst
mit konstanter Geschwindigkeit von r1 nach r bewegt, wo es zur Zeit t mit t1 < t < t2 ankommt,
um dann von dort aus wieder mit konstanter Geschwindigkeit zum Ort r 2 zu gelangen. Für jede
solche Bahn ergibt sich eine Wirkung, die als Funktion S(r, t) des “Umkehrpunktes” r und der
“Umkehrzeit” t dargestellt werden kann. Man zeige, dass das Extremum dieser Funktion zwar
nicht die tatsächlich realisierte Bahn liefert, aber zumindest eine Bahn, die im Rahmen dieser
sehr primitiven Näherung der physikalischen Bahn am nächsten kommt.
82
PSfrag replacements
Aufgabe 14.22 Für einen eindimensionalen harmonischen Oszillator gilt
h( )
h( )
m 2 κ 2
L(q, q̇) =
q̇ − q .
2
2
(c)
(d)
(14.61)
Der Oszillator befinde sich zum Zeitpunkt t = 0 an der Stelle q(0) = 0 und zum Zeitpunkt t = T
bei q(T ) = Q. Für die Bahn machen wir den Potenzreihenansatz
q(t) = a (t/T ) + b (t/T )3 + c (t/T )5 ,
mit a + b + c = Q.
x2
(14.62)
t1
x1
(b)
Nun verändern wir das gestellte Problem ein wenig. Wir lassen die Funktion h(x) unverändert,
schränken die Suche nach den Extrema aber auf eine Teilmenge von E ein, die durch eine Gleichung c(x) = 0 beschrieben wird. Eine solche Gleichung bezeichnen wir als Nebenbedingung.
In Abbildung 14.4(a) wird durch sie eine Kreislinie beschrieben. Gesucht sind jetzt diejenigen
Punkte, an denen die Funktion h(x) innerhalb der Teilmenge extremal wird. Wie man in der
Abbildung erkennt, ergibt sich in diesem Fall ein Minimum und ein Maximum.
Es gibt zwei Möglichkeiten, dieses Problem zu lösen. Wenn es uns gelingt, die Gleichung
c(x) = 0 zu lösen, indem wir auf der Lösungsmenge ein reduziertes Koordinatensystem {y α }
einführen, so besteht das Problem nur noch darin, die Extrema der Funktion h(y) zu finden,
wobei y ein Punkt auf der Lösungsmenge der Gleichung c(x) = 0 ist. Im allgemeinen ist diese Lösungsmenge eine glatte Mannigfaltigkeit M, die in E eingebettet ist, so dass es sich um
ein Variationsproblem auf einer Mannigfaltigkeit handelt, wie wir es am Anfang dieses Kapitels
beschreiben haben. Ist zum Beispiel
(14.63)
betrachten. Warum das so ist, können wir nun mit Hilfe des Wirkungsprinzips sehr leicht verstehen. Welcher Zusammenhang besteht nämlich zwischen den Wirkungsfunktionalen
Z t2
Z t2
0
S[q] = L q(t), q̇(t), t dt und S [q] = L0 q(t), q̇(t), t dt,
(a)
Abbildung 14.4: ...
Aufgabe 14.23 In Aufgabe 11.27 hatten wir festgestellt, dass sich die Bewegungsgleichungen
nicht ändern, wenn wir zu einer Lagrange-Funktion L(q, q̇, t) die totale Zeitableitung irgendeiner
Funktion Λ(q, t) addieren, also die alternative Lagrange-Funktion
d
Λ(q, t)
dt
c( ) = 0
x1
Die Zahlen a, b, c sind so zu bestimmen, dass die Wirkung der Bahn extremal wird. Auf diese
Weise erhält man eine Näherung für die tatsächlich realisierte Bahn. Man stellt fest, dass es
einen bestimmten Wert für T gibt, bei dem kein solches Extremum mehr existiert. Woran liegt
das? Man bestimme diesen kritischen
p Wert für T numerisch und zeige, dass es sich um eine gute
Näherung für die halbe Periode π m/κ handelt.
L0 (q, q̇, t) = L(q, q̇, t) +
x2
(14.64)
t1
wenn q(t) eine Bahn mit festgelegten Anfangs- und Endpunkten q(t 1 ) = q1 und q(t2 ) = q2 ist?
Warum führen beide auf dasselbe Variationsproblem?
h(x, y) = x + y
Variation mit Nebenbedingungen
und c(x, y) = x2 + y 2 − 1,
(14.65)
so können wir die Lösung der Nebenbedingung in der Form x = cos ϕ und y = sin ϕ darstellen.
Gesucht sind dann die Extrema der Funktion h(ϕ) = cos ϕ+sin ϕ, die bei ϕ = π/4 ein Maximum
und bei ϕ = 5π/4 ein Minimum annimmt.
Eine alternative Methode lässt sich auch dann noch anwenden, wenn es nicht möglich oder sehr
kompliziert ist, die Nebenbedingung aufzulösen. Wir betrachten dazu die erweiterte Funktion
Nun wollen wir noch zeigen, dass das Wirkungsprinzip auch für Systeme mit holonomen Zwangsbedingungen gilt. Zur Vorbereitung betrachten wir ein Variationsproblem, bei dem eine bestimmte Funktion extremal werden soll, wobei die Argumente dieser Funktion jedoch gewissen Einschränkung unterliegen. Ein solches Problem bezeichnet man als Variationsproblem mit Nebenbedingungen.
Gesucht sind zunächst die Extrema einer Funktion h(x) auf einem affinen Raum E. In der
Abbildung 14.4(a) ist der Graf einer Funktion auf einem zweidimensionalen affinen Raum E als
Fläche über einer Ebene aufgetragen. Als Koordinaten haben wir dort ein affines Koordinatensystem (x1 , x2 ) verwendet. Die dargestellte Funktion besitzt genau ein Maximum an der Stelle, an
der der Gradient ∇h(x) verschwindet.
h̃(x, λ) = h(x) − λ c(x),
(14.66)
wobei λ eine reelle Variable ist. Wir wollen zeigen, dass diese Funktion genau dort stationär ist,
wo die Funktion h(x) auf der Teilmenge c(x) = 0 extremal ist. Wir berechnen dazu die Variation
83
y
von h̃(x, λ). Es ist
δ h̃(x, λ) = δx · ∇h(x) − λ δx · ∇c(x) − δλ c(x).
(14.67)
PSfrag replacements
Damit diese Variation für alle δλ und alle δx verschwindet, muss c(x) = 0 sein, das heißt die
Nebenbedingung muss erfüllt sein, und die Richtungsableitung von h(x) muss proportional zur
Richtungsableitung von c(x) sein,
(c)
δx · ∇h(x) = λ δx · ∇c(x).
y
ds
dF
x
x
(a)
(b)
(d)
(14.68)
Nun betrachten wir solche Variationen δx, die mit der Nebenbedingung verträglich sind, also
Variationen des Punktes x innerhalb der Teilmenge, auf der das eigentlichen Extremalproblem
gestellt ist. Da die Funktion c(x) auf dieser Teilmenge konstant ist, sind das genau diejenigen
Variationen, für die δc(x) = δx · ∇c(x) = 0. Für solche Variationen verschwindet dann laut
(14.68) auch δh(x).
Mit anderen Worten, wenn die Gleichung (14.68) erfüllt ist, dann ist die Funktion h(x) stationär unter allen Variationen δx innerhalb der durch die Nebenbedingung definierten Teilmenge.
Und das ist genau die notwendige Bedingung dafür, dass ein Extremum von h(x) innerhalb der
Teilmenge vorliegt.
Das Extremalproblem lässt sich also lösen, ohne dass wir die zuerst Nebenbedingung lösen
müssen. Wir demonstrieren das an dem Beispiel von oben. Aus (14.65) ergibt sich
Abbildung 14.5: Die von einer Kurve umschlossene Fläche ergibt sich durch Summation über
infinitesimale Dreiecke oder Kreissegmente (a). Unter allen Kurven gleicher Länge umschließt
ein Kreis die größte Fläche (b).
h̃(x, y, λ) = x + y − λ (x2 + y 2 − 1),
(14.69)
Aufgabe 14.24 Eine Fläche im dreidimensionalen Euklidischen Raum werde in kartesischen
Koordinaten (x, y, z) durch die Gleichung
δ h̃(x, y, λ) = δx (1 − 2 λ x) + δy (1 − 2 λ y) + δλ (x2 + y 2 − 1).
(14.70)
und daraus
(b2 − a2 + x2 + y 2 + 2z 2 )2 = 4b2 (x2 + y 2 + z 2 )
(14.72)
definiert. Gesucht ist die minimale Entfernung dieser Fläche vom Koordinatenursprung.
2
Die erweiterte Funktion h̃(x, y, λ) ist somit genau
dann stationär, wenn
√
√ x = y = 1/(2 λ) und x +
2
y = 1 ist, was unmittelbar auf x = y = 1/ 2 oder x = y = −1/ 2 führt, in Übereinstimmung
mit dem Ergebnis von oben.
Obwohl das Beispiel sehr einfach ist, macht es deutlich, dass die Lösung des Variationsproblems mit Hilfe eines Lagrange-Multiplikators einfacher sein kann als die Zugangsweise, bei der
man zuerst die Nebenbedingung auflöst. Hier mussten wir nämlich nur eine quadratische Gleichung lösen, während wir bei der zuerst angewandten Methode mit trigonometrischen Funktionen
arbeiten mussten.
Das Verfahren lässt sich leicht verallgemeinern. Liegen mehrere Nebenbedingungen c k (x) =
0 vor, wobei k wie üblich irgendeine Indexmenge durchläuft, so definieren wir eine erweiterte
Funktion
X
λk ck (x),
(14.71)
h̃(x, {λk }) = h(x) −
Das Maximalflächenproblem
Ein interessantes Variationsproblem mit Nebenbedingung, bei dem die zu maximierende Funktion ein Funktional ist, also von unendlichen vielen Variablen abhängt, ist das folgenden Maximalflächenproblem. Unter allen geschlossenen Kurven gleicher Länge in der Euklidischen Ebene ist
diejenige Kurve gesucht, die die größte Fläche umschließt.
Wenn (x, y) ein kartesisches Koordinatensystem ist, dann kann eine geschlossene Kurve durch
die Koordinatenfunktionen x(s) und y(s) beschreiben werden, wobei s ein periodischer Kurvenparameter ist, so dass x(s + 2π) = x(s) und y(s + 2π) = y(s) gilt. Wir können dieselbe Kurve auch in Polarkoordinaten durch die Funktionen r(s) und ϕ(s) darstellen, wobei dann
r(s + 2π) = r(s) und ϕ(s + 2π) = ϕ(s) + 2π z ist. Die ganze Zahl z ∈ Z gibt an, wie oft die
Kurve den Ursprung gegen den Uhrzeigersinn umläuft.
In Polarkoordinaten lässt sich die von der Kurve umschlossene Fläche besonders leicht berechnen. In Abbildung 14.5(a) ist ein infinitesimales Kurvenstück ds dargestellt. Von diesem
k
und verlangen, dass die Variation dieser Funktion für alle Variationen δx und δλ k verschwindet.
Die Lösungen dieses Variationsproblems entsprechen den Punkten x, an denen die Funktion h(x)
innerhalb der durch die Nebenbedingungen ck (x) = 0 definierten Teilmenge stationär ist.
84
Kurvenstück und dem Ursprung wird eine Fläche dF aufgespannt. Das Flächenstück kann näherungsweise als ein Kreissegment mit dem Radius r(s) und dem Winkel dϕ = ϕ 0 (s) ds betrachtet
werden. Folglich hat es den Flächeninhalt
dF =
1
1
x(s) y 0 (s) − y(s) x0 (s) ds.
r(s) ϕ0 (s) ds =
2
2
Damit haben wir ein Variationsproblem mit Nebenbedingungen formuliert. Gesucht ist das Maximum des Funktionals F [x, y] auf dem Raum aller periodischen Funktionen x(s) und y(s), wobei
diese jedoch die Nebenbedingung (14.75) erfüllen müssen. Es handelt sich genau genommen um
einen Satz von unendlich vielen Nebenbedingungen, denn die angegebene Gleichung muss f ür
alle s gelten.
Folglich benötigen wir auch unendlich viele Multiplikatoren, um diese Nebenbedingungen in
einem erweiterten Funktional zu berücksichtigen. Für jedes s benötigen wir einen Multiplikator
λ(s), den wir mit der entsprechenden Nebenbedingung (14.75) multiplizieren und zu F [x, y]
addieren. Das ergibt
(14.73)
Aufgabe 14.25 Man zeige, dass sich der angegebene Ausdruck in kartesischen Koordinaten ergibt, wenn man x = r cos ϕ und y = r sin ϕ einsetzt.
Das Vorzeichen von dF ist positiv, wenn ϕ0 (s) positiv ist. Wenn die Kurve den Ursprung genau
einmal gegen den Uhrzeigersinn umläuft, ergibt sich die Gesamtfläche als Summe aller dieser
Flächenstücke. Sie ist folglich durch das Integral
1
F [x, y] =
2
Z 2π
x(s) y 0 (s) − y(s) x0 (s) ds
1
F̃ [x, y, λ] =
2
0
(14.74)
(14.76)
0
Die Summe über alle Nebenbedingungen in (14.71) wird hier zu einem Integral, wobei die einzelnen Nebenbedingung durch einen kontinuierlichen Parameter s indiziert werden. Das erweiterte
Funktional F̃ hängt also von drei Funktionen x(s), y(s) und λ(s) ab. Es lässt sich wie üblich als
Integral über eine “Lagrange-Funktion” schreiben,
0
als Funktional der Funktionen x(s) und y(s) gegeben.
Falls der Ursprung nicht von der Kurve umschlossen wird, oder ϕ 0 (s) nicht überall positiv ist,
so kann man sich leicht überlegen, dass der Ausdruck (14.74) trotzdem den richtigen Flächeninhalt liefert. Teile der umschlossenen Fläche werden dann mehrfach überstrichen. Die Vorzeichen
der Beiträge sind aber immer so eingerichtet, dass sich insgesamt genau einmal die Gesamtfläche
ergibt. Die einzige Voraussetzung ist, dass sich die Kurve nicht selbst schneidet und gegen den
Uhrzeigersinn umläuft.
Z 2π
F̃ [x, y, λ] = L x(s), x0 (s), y(s), y 0 (s), λ(s) ds,
(14.77)
L(x, x0 , y, y 0 , λ) = x y 0 − y x0 − λ (x0 2 + y 02 − 1).
(14.78)
0
mit
Aufgabe 14.26 Was liefert der Ausdruck (14.74), wenn die Kurve im Uhrzeigersinn uml äuft, und
was ergibt sich als “Flächeninhalt”, wenn sich die Kurve überscheidet?
Damit dieses Funktional stationär ist, müssen die Eulerschen Gleichungen für die Funktionen
x(s), y(s) und λ(s) erfüllt sind.
Der einzige Unterschied zu den bisher diskutierten Variationsproblemen sind die leicht
veränderten Randbedingungen an die Funktionen x(s), y(s) und λ(s). Es sind nicht die Werte
dieser Funktionen an den Rändern eines Intervalls festgelegt, sondern es wird verlangt, dass die
Funktionen periodisch sind, da s und s + 2π denselben Punkt auf der Kurve bezeichnen. Man
kann sich aber leicht klar machen, dass dies keinen Unterschied macht.
Die Aufgabe besteht nun darin, das Maximum des Funktionals (14.74) zu finden. Allerdings
dürfen wir die Funktionen x(s) und y(s) nicht beliebig wählen. Sonst könnten wir die umschlossene Fläche natürlich beliebig groß machen. Wir müssen die Suche auf solche Kurven
einschränken, die eine bestimmte Länge haben. Der Einfachheit halber soll die Gesamtlänge der
Kurve gleich 2π sein, also der Periode des Kurvenparameters s entsprechen.
Das können wir wie folgt berücksichtigen. Da wir außerdem noch die Freiheit haben, die Kurve
beliebig zu parametrisieren, wählen wir den Kurvenparameter s so, dass
x0 (s)2 + y 0 (s)2 = 1
Z 2π
Z 2π
0
0
x(s) y (s) − y(s) x (s) ds − λ(s) x0 (s)2 + y 0 (s)2 − 1 ds
Aufgabe 14.28 Man berechne die Variation δ F̃ des Funktionals F̃ für beliebige Variationen
δx(s), δy(s) und δλ(s). Diese müssen natürlich auch periodisch sein. Man zeige, dass dann alle
beim partiellen Integrieren auftretenden Randterme wegfallen und die Variation des Funktionals
genau dann verschwindet, wenn die Eulerschen Gleichungen f ür die Funktionen x, y und λ erfüllt
sind.
(14.75)
ist. Dann ist s ein Maß für die Kurvenlänge, und da s ein Periode von 2π hat ergibt sich automatisch eine Gesamtlänge der Kurve von 2π.
Die Eulersche Gleichung für λ ist ∂L/∂λ = 0, was unmittelbar auf die Nebenbedingung (14.75)
Aufgabe 14.27 Wodurch ist die Gleichung (14.75) zu ersetzen, wenn die Kurve eine Gesamtl änge
` haben soll?
85
führt. Die anderen beiden Eulerschen Gleichungen lauten
∂L
d
−
∂x
ds
d
∂L
−
∂y
ds
d
∂L
0
− y − 2 λ x0 = 2 y 0 + 2 λ0 x0 + 2 λ x00 = 0,
0 =y −
ds
∂x
∂L
d
0
x − 2 λ x0 = −2 x0 + 2 λ0 y 0 + 2 λ y 00 = 0.
0 = −x −
∂y
ds
0
PSfrag replacements
(14.79)
(c)
(d)
0
Multiplizieren wir die erste Gleichung mit x /2 und die zweite mit y /2 und bilden anschließend
die Summe, so ergibt sich
λ0 (x02 + y 02 ) + λ (x0 x00 + y 0 y 00 ) = 0
⇒
λ0 = 0,
x0 = λ0 y 00 .
(14.81)
Die allgemeine Lösung ist
x(s) = x0 + a0 cos(λ0 (s − s0 )),
y(s) = y0 + a0 sin(λ0 (s − s0 )),
Aufgabe 14.30 Das in Abbildung 14.6(a) dargestellte Extremalproblem l ässt sich im wesentlichen mit der gleichen Methode lösen. Man muss nur ein anderes Funktional F einsetzen. Eine
Kette der Länge 2 ` mit einer konstanten Masse pro Länge wird an zwei gleich hohen Punkten
im Abstand 2 a < 2 ` in einem homogenen Gravitationsfeld aufgeh ängt. In der stabilen Gleichgewichtslage ist die potenzielle Energie der Kette minimal. Die Kurve, die die Kette in dieser
Lage beschreibt, heißt Kettenlinie. Man zeige, dass die Kettenlinie in der x-z-Ebene durch die
Gleichung
ω z = cosh(ω a) − cosh(ω x) mit sinh(ω a) = ω `
(14.84)
(14.82)
wobei x0 , y0 , a0 und s0 vier weitere Integrationskonstanten sind. Ohne Beschränkung der Allgemeinheit können wir s0 = 0 setzen und a0 > 0 annehmen, was wir jederzeit durch eine
Verschiebung des Kurvenparameters s 7→ s + s0 bzw. s 7→ s + π/λ0 erreichen können.
Nun müssen wir aber noch zwei Bedingungen erfüllen. Erstens muss der Kurvenparameter s
eine Periode von 2π haben. Das ist genau dann der Fall, wenn λ 0 = ±1 ist. Zweitens muss die
Nebenbedingung (14.75) erfüllt sein, was nur für λ0 a0 = ±1, also a0 = 1 der Fall ist. Die
allgemeine Lösung der Variationsproblems lautet somit
x(s) = x0 + cos(±s),
y(s) = y0 + sin(±s),
(b)
Abbildung 14.6: Hängt man eine Kette in einem homogenen Gravitationsfeld an zwei Punkten
auf, so nimmt sie einen Gleichgewichtszustand minimaler potenzieller Energie an, der durch
eine charakteristische Kettenlinie beschrieben wird (a). Fixiert man die Enden eines biegsamen
Stabes, so nimmt dieser ebenfalls einen Zustand minimaler Energie an (b). Die Krümmung des
Stabes ist in der Mitte am größten und verschwindet an der Enden.
(14.80)
denn aus der Nebenbedingung (14.75) und ihrer Ableitung nach s folgt, dass die erste Klammer
gleich Eins und die zweite Klammer gleich Null ist. Also ist λ(s) = λ0 eine Konstante, und die
zu lösenden Gleichungen für x(s) und y(s) lauten
y 0 = −λ0 x00 ,
(a)
λ(s) = ±1.
beschrieben wird, wenn sich die Endpunkte bei x = ±a und z = 0 befinden. Die Konstante ω > 0
wird eindeutig durch die Parameter ` und a festgelegt.
(14.83)
Aufgabe 14.31 Für die nächste Aufgabe benötigen wir den Begriff der Krümmung einer Kurve
λ(s) in einem metrischen affinen Raum. Ist die Kurve so parametrisiert, dass s die Kurvenl änge
misst, also |λ0 (s)| = 1, so ist die Krümmung K(s) an der Stelle s der Betrag der zweiten Ableitung K(s) = |λ00 (s)|. Man zeige, dass die Krümmung einer Kreislinie der inverse Radius des
Kreises ist. Wie lässt sich K(s) berechnen, wenn die Parameter s nicht die die Länge misst?
Je nach dem Vorzeichen ist dies entweder ein gegen den Uhrzeigersinn oder im Uhrzeigersinn
parametrisierter Kreis mit Radius 1 und Mittelpunkt bei (x0 , y0 ). Berechnet man mit (14.74) die
Fläche, so findet man F = ±π. Wir haben also gezeigt, dass die von der Kurve umschlossene
Fläche genau dann Extremal ist, wenn es sich um einen Kreis handelt. Die Fläche im Sinne von
(14.74) ist mit F = π maximal, wenn der Kreis ein positive Orientierung hat, und mit F = −π
minimal, wenn der Kreis negativ orientiert ist.
Aufgabe 14.32 Ein etwas anspruchsvolleres Variationsproblem mit Nebenbedingung ist in Abbildung 14.6(b) dargestellt. Ein elastischer Stab der Länge 2 ` wird durch eine Kurve λ(s) mit
|λ0 (s)| = 1 und −` ≤ s ≤ ` beschrieben. Die potenzielle Energie des Stabes ist eine Funktion
seiner Krümmung, integriert über die Länge. Wir nehmen an, dass die Energie proportional zum
Aufgabe 14.29 Man kann auch die umgekehrte Frage stellen. Welches ist, unter allen Fl ächen
mit dem gleichen Inhalt, diejenige mit dem kleinsten Umfang? Wie sieht das zugeh örige Variationsproblem aus? Was ist die Lösung?
86
Offenbar sind dies die Eulerschen Gleichungen, die zu dem aus L̃ gebildeten Wirkungsfunktional
gehören,
Z t2
X
e
L(q, q̇, t) −
λk C k (q) dt
(14.89)
S[q, {λk }] =
Quadrat der Krümmung ist, also
κ
E[λ] =
2
Z
`
λ00 (s) · λ00 (s) ds,
(14.85)
−`
k
t1
wobei κ eine Konstante ist. Fixiert man die Enden des Stabes im Abstand 2 a < 2 `, zum Beispiel
an den Punkten λ(±`) = o ± a ex , so nimmt der Stab einen Zustand kleinster Energie an. Man
zeige, dass dieser durch die Differenzialgleichung
λ000 (s) = c − λ00 (s) · λ00 (s) + c · λ0 (s) λ0 (s)
(14.86)
Die erweiterte Wirkung Se hängt von einer Bahn q(t) und den Multiplikator-Funktionen λk (t) ab,
und das Wirkungsprinzip besagt in diesem Fall, dass das Funktional Se für die tatsächlich realisierte Bahn q(t) stationär ist. Als Randbedingungen müssen wir dazu wieder die Konfigurationen
q(t1 ) = q1 und q(t2 ) = q2 vorgeben.
Wichtig ist an dieser Stelle, dass die Bahnen q(t), die wir in (14.89) einsetzen können, beliebige Bahnen im erweiterten Konfigurationsraum sind, also auch solche, die mit den Zwangsbedingungen nicht verträglich sind. Die physikalische realisierte Bahn ist jedoch immer mit ihnen
verträglich, denn das Funktional ist nur dann stationär, wenn die Gleichungen (14.88) erfüllt sind.
Eine andere Möglichkeit, sich die Bewegungsgleichungen zu verschaffen, besteht darin, erst
die Zwangsbedingungen zu lösen, zu einem reduzierten Konfigurationsraum überzugehen, und
dort dann nur noch die reduzierte Lagrange-Funktion
Aufgabe 14.33 Beim Geodätenproblem geht es darum, die k ürzeste Verbindung zwischen zwei
Punkten auf einer vorgegebenen Fläche zu finden, die in einen metrischen Raum eingebettet ist.
Man zeige, dass die kürzeste Verbindung zwischen zwei Punkten auf einer Kugeloberfl äche ein
Großkreis ist, also ein Kurve, die sich als Schnittmenge der Kugeloberfl äche mit einer Ebene
durch ihren Mittelpunkt ergibt.
L = L(q, q̇, t)
beschrieben wird, wobei c ein konstanter Vektor ist. Dies ist eine Differenzialgleichung dritter
Ordnung, so dass wir drei Randbedingungen benötigen, um eine eindeutige Lösung zu bekommen,
und eine zusätzliche Randbedingung, um die Konstante c zu bestimmen. Man zeige, dass sich
neben den bereits gestellten Randbedingungen λ(±`) = o ± a e x aus der Forderung, dass die
Energie stationär sein soll, die zusätzlichen Randbedingungen λ00 (±`) = 0 ergeben. Im Zustand
kleinster Energie verschwindet die Krümmung an den Enden des Stabes.
zu betrachten, wobei q ∈ Q jetzt ein Ort im reduzierten Konfigurationsraum ist, und entsprechend q̇ ∈ Tq Q ein Geschwindigkeitsvektor im zugehörigen Tangentenraum. Nun lauten die
Bewegungsgleichungen nur noch
d ∂L
∂L
− α = 0,
dt ∂ q̇ α
∂q
Zwangsbedingungen
S[q] =
Die Langrangeschen Gleichungen für die Multiplikatoren λk sorgen dann dafür, dass die Zwangsbedingungen C k = 0 zu jedem Zeitpunkt erfüllt sind, und die entsprechenden Gleichungen für
die Koordinaten q µ bestimmen die eigentliche Bewegung sowie die Zwangskräfte. Explizit lauten
die Bewegungsgleichungen
k
Z t2
L(q, q̇, t) dt.
(14.92)
t1
Die Bahn q(t) ist jetzt eine Bahn, die ganz im reduzierten Konfigurationsraum Q liegt, die also
zu jedem Zeitpunkt die Zwangsbedingungen erfüllt.
Wir verstehen nun auch, warum die beiden Formulierungen der Bewegungsgleichungen äquivalent sind. Das Wirkungsprinzip ist nämlich in beiden Fällen dasselbe. Gesucht ist diejenige
Bahn, die unter allen mit den Zwangsbedingungen verträglichen Bahnen die Wirkung extremal
macht. Dieses Problem können wir auf zwei unterschiedliche Arten angehen, nämlich entweder
indem wir die Zwangsbedingungen zuerst lösen und dann verlangen, dass die Wirkung stationär
wird, oder indem wir die Methode der Lagrangeschen Multiplikatoren verwenden und das Wirkungsprinzip als Variationsproblem mit Nebenbedingungen formulieren.
k
∂ Le
= C k = 0.
∂λk
(14.91)
wobei q α die reduzierten Koordinaten eines Punktes q ∈ Q und q̇ α die entsprechenden Geschwindigkeiten sind. Auch diese Bewegungsgleichungen können wir aus einem Wirkungsprinzip ableiten. Die entsprechende reduzierte Wirkung ist
Offenbar entsprechen die beiden Zugangsweisen zu einem Variationsproblem mit Nebenbedingungen gerade den zwei möglichen Beschreibungen eines mechanischen Systems mit holonomen
Zwangsbedingungen, die wir im Kapitel 12 kennen gelernt haben.
Wir können ein solches System durch eine erweiterte Lagrange-Funktion L̃ auf dem erweitere beschreiben, die dann zusätzlich zum Ort q und der Geschwindigkeit
ten Konfigurationsraum Q
q̇ von einem Satz von Lagrange-Multiplikatoren λk abhängt,
X
Le = L(q, q̇, t) −
λk C k (q).
(14.87)
X
d ∂ Le
∂C k
∂ Le
d ∂L
∂L
λk µ = 0,
µ −
µ =
µ −
µ +
dt ∂ q̇
∂q
dt ∂ q̇
∂q
∂q
(14.90)
(14.88)
87
15 Hamiltonsche Mechanik
gibt. Betrachten wir noch einmal die jeweils im zweiten Schritt auftretenden, zu minimierenden
Funktionen x 7→ h(x, ymin (x)) bzw. y 7→ h(xmin (y), y). Beides sind Funktion, die von jeweils
einer reellen Variablen abhängen. Es sind jedoch im allgemeinen völlig andere Funktionen, denen
man unter Umständen gar nicht mehr ansieht, dass sie sich auf die dargestellte Art und Weise aus
einer Funktion h(x, y) ableiten lassen. Trotzdem sind die beiden durch diese Funktionen definierten Extremalprobleme in einem gewissen Sinne äquivalent. Beide lösen dasselbe, ursprünglich
gestellte Extremalproblem, das von zwei Variablen abhing.
Nehmen wir nun an, der Ausgangspunkt sei gar nicht dieses Problem, sondern das Extremalproblem für die Funktion x 7→ h(x, ymin (x)). Dann können wir dieses Extremalproblem auf ein
äquivalentes Problem abbilden, nämlich auf das für die Funktion y 7→ h(x min (y), y), indem wir
gewissermaßen einen “Umweg” über das Extremalproblem für (x, y) 7→ h(x, y) machen. Unter
Umständen kann dieser Umweg nützlich sein, etwa wenn das äquivalente Extremalproblem eine
sehr viel einfachere Lösung besitzt.
Auf dieser Idee beruht im wesentlichen die Hamiltonsche Formulierung der Bewegungsgleichungen eines mechanisches Systems, die wir im folgenden herleiten wollen. Man geht von dem
bekannten Wirkungsprinzip aus, und ersetzt dieses durch ein anderes, äquivalentes Wirkungsprinzip, aus dem man schließlich eine neue, etwas einfachere Darstellung der Bewegungsgleichungen
erhält.
Es sei also ein mechanisches System gegeben mit einem Konfigurationsraum Q und einer
Lagrange-Funktion L(q, v, t), mit q ∈ Q und v ∈ Tq Q. Die Wirkung einer Bahn q(t) mit
den Randbedingungen q(t1 ) = q1 und q(t2 ) = q2 ist dann
Wie bereits an anderer Stelle kurz erwähnt, stellt das Wirkungsprinzip so etwas wie das Bindeglied zwischen der klassischen Physik und der Quantenphysik her. Wenn man für ein bestimmtes
mechanisches System ein Wirkungsprinzip angeben kann, dann lässt sich dasselbe System auch
im Rahmen der Quantenmechanik konsistent beschreiben.
Wie dieser Übergang von der klassischen zur Quantenmechanik aussieht, ist natürlich nicht
Inhalt dieser Vorlesung. Man kann den Übergang jedoch bereits im Rahmen der klassischen Physik vorbereiten und ihn damit sowohl technisch als auch konzeptuell erleichtern. Wir formulieren
dazu das Wirkungsprinzip aus dem letzten Kapitel ein wenig um, und gelangen so zur Hamiltonschen Formulierung der Bewegungsgleichungen für ein mechanisches System.
Unabhängig von ihrer Bedeutung für die Quantenmechanik haben die Bewegungsgleichungen
in dieser Form auch in der klassischen Mechanik einige sehr nützliche Eigenschaften. So können
wir zum Beispiel die Zeitentwicklung eines Systems in einer geometrisch sehr anschaulichen Art
und Weise darstellen. Darüber hinaus können wir einige Sätze über Erhaltungsgrößen beweisen,
die das Auffinden von Lösungen erleichtern.
Die Wirkung erster Ordnung
Ein Extremalproblem, das von mehreren Variablen abhängt, kann man schrittweise lösen. Ist zum
Beispiel das Minimum einer Funktion (x, y) 7→ h(x, y) gesucht, so können wir zuerst x als
Konstante betrachten und das Minimum der Funktion y 7→ h(x, y) suchen. Nehmen wir an,
diese Funktion hätte ein Minimum bei y = ymin (x), wobei der Wert von ymin im allgemeinen
von x abhängen wird. Im zweiten Schritt betrachten wir dann die Funktion x 7→ h(x, y min (x)).
Wenn diese Funktion bei x = x0 ein Minimum hat, so liegt das gesuchte Minimum der Funktion
(x, y) 7→ h(x, y) bei x = x0 und y = ymin(x0 ).
Wir können auch umgekehrt vorgehen, also zuerst y als Konstante betrachten und die Funktion
x 7→ h(x, y) minimieren. Nehmen wir wieder an, das Minimum dieser Funktion befinde sich bei
x = xmin (y). Dann müssen wir nur noch die Funktion y 7→ h(xmin (y), y) minimieren, um das
gestellte Extremalproblem zu lösen. Wenn das Minimum dieser Funktion bei y = y 0 liegt, so
finden wir das Minimum der Funktion h(x, y) diesmal bei x = xmin (y0 ) und y = y0 . Da das
Ergebnis in beiden Fällen dasselbe sein muss, gilt natürlich x0 = xmin (y0 ) bzw. y0 = ymin (x0 ).
Ein typisches Beispiel für ein Extremalproblem dieser Art ist, die kürzeste Verbindung zwischen zwei Teilmengen eines metrischen Raumes zu finden. Ist x ein Punkt in der ersten Teilmenge, y ein Punkt in der zweiten Teilmenge, so ist der Abstand dieser Punkte eine Funktion
d(x, y) der beiden Punkte. Man findet den minimalen Abstand der beiden Teilmengen, indem
man zuerst für jeden Punkt x in der einen Teilmenge den nächsten Punkt y in der zweiten Teilmenge sucht, und anschließend denjenigen Punkt x auswählt, für den dieser minimale Abstand
wiederum minimal wird.
Eigentlich ist es aber nicht diese Lösungsstrategie für spezielle Extremalprobleme, die uns an
dieser Stelle interessiert, sondern ein ganz anderer Aspekt, der sich aus diesen Überlegungen er-
Z t2
S[q] = L q(t), q̇(t), t dt,
(15.1)
t1
und das Wirkungsprinzip verlangt, dass dieses Funktional für die physikalische Bahn stationär
wird.
Da wir im folgenden zwischen der Geschwindigkeit als Argument der Lagrange-Funktion und
der Geschwindigkeit als Ableitung einer Bahn nach der Zeit unterscheiden müssen, verwenden
wir für das Argument der Lagrange-Funktion ein anderes Symbol. Wir schreiben also L(q, v, t),
um deutlich zu machen, dass die Lagrange-Funktion von einem Punkt q ∈ Q im Konfigurationsraum und von einem Vektor v ∈ Tq Q im Tangentenraum abhängt. Zwischen diesen Argumenten
besteht zunächst kein Zusammenhang.
Erst, wenn wir die Lagrange-Funktion entlang einer Bahn q(t) auswerten, so wie dies in (15.1)
geschieht, ist es sinnvoll, für q den Punkt q(t) und für v die Zeitableitung q̇(t) einzusetzen.
Diesen Umstand haben wir bisher durch eine etwas verkürzte Notation verschleiert. Es sollte aber
klar sein, dass es erst dann einen Sinn hat, von einer Geschwindigkeit als Zeitableitung des Ortes
zu sprechen, wenn dieser eine Funktion der Zeit ist.
Man kann nun dieses “Einsetzen” der Bahn in die Lagrange-Funktion und das anschließende
Berechnen der Wirkung noch auf eine andere Art und Weise beschreiben. Wir betrachten dazu das
88
erweiterte Wirkungsfunktional, das sich ergibt, wenn wir die Funktionen q(t) und v(t) als voneinander unabhängig betrachten. Wir verlangen also nicht, dass v(t) = q̇(t) ist. Wir bekommen
dann ein Funktional, dass von zwei Funktionen abhängt, nämlich
Z t2
S[q, v] = L q(t), v(t), t dt.
Als nächstes betrachten wir eine Variation der Funktion v(t). Für diese gilt
Z t2
∂L
q(t),
v(t),
t
−
p
(t)
dt.
δS[q, v, p] = δv µ (t)
µ
∂v µ
t1
(15.2)
Dieser Ausdruck verschwindet genau dann für alle δv µ (t), wenn
t1
Das Wirkungsprinzip besagt nun, dass die physikalisch realisierte Bahn dieses Funktional stationär macht, allerdings nicht um Raum aller Funktionen q(t) und v(t), sondern in einem Teilraum
davon, nämlich in demjenigen Unterraum, der durch die Beziehung v(t) = q̇(t) bestimmt wird.
Das ist eine an die Argumente des Funktionals gestellte Nebenbedingung, die wir mit Hilfe von
Lagrange-Multiplikatoren berücksichtigen können. Die Gleichung v(t) = q̇(t) muss zu jedem
Zeitpunkt erfüllt sein, und sie setzt sich als Vektorgleichung aus dim Q Komponenten v µ (t) =
q̇ µ (t) zusammen. Wir brauchen deshalb für jeden Zeitpunkt t und für jeden Wert des Index µ einen
Multiplikator. Wir bezeichnen diese Multiplikatoren mit pµ (t) und fassen die Komponenten zu
einem dualen Vektor p(t) zusammen, der selbst wieder zu einer Funktion der Zeit wird.
Dann lässt sich das Wirkungsprinzip wie folgt formulieren. Wir betrachten alle möglichen Bahnen q(t) von q(t1 ) = q1 nach q(t2 ) = q2 , sowie alle glatten Funktionen v(t) und p(t) für
t1 ≤ t ≤ t2 , an die wir keine weiteren Randbedingungen stellen müssen. Als Funktional davon
definieren wir die erweiterte Wirkung
t2
S[q, v, p] =
Z t1
L q(t), v(t), t + pµ (t) q̇ µ (t) − v µ (t) dt.
pµ (t) =
Z t2
δpµ (t) q̇ µ (t) − v µ (t) dt.
(15.7)
Der Impuls eines mechanischen Systems ist die Ableitung der Lagrange-Funktion
nach der Geschwindigkeit.
(15.3)
Das erklärt auch, warum es sinnvoll war, die Multiplikatoren pµ (t) zu einem dualen Vektor
p(t) zusammenzufassen. Da L ein Skalar ist und v µ die Komponenten eines Vektors sind, sind
pµ = ∂L/∂v µ die Komponenten eines dualen Vektors. Der in (15.3) unter dem Integral gebildete
Ausdruck ist das Produkt des dualen Vektors p(t) mit dem Vektor v(t) − q̇(t), also wieder ein
Skalar. Die erweiterte Wirkung ist somit unabhängig davon, in welchem Koordinatensystem wir
sie ausrechnen, wenn wir alle dort auftretenden Größen entsprechend transformieren.
Nun müssen wir noch zeigen, dass die erweiterte Wirkung auch tatsächlich die richtigen Bewegungsgleichungen liefert. Wir müssen dazu noch eine Variation der Bahn q(t) betrachten. Das
ergibt
Z t2
∂L
δq µ (t) µ q(t), v(t), t + δ q̇ µ (t) pµ (t) dt.
(15.8)
δS[q, v, p] =
∂q
(15.4)
t1
t1
Im Gegensatz zu den beiden vorherigen Variationen müssen wir hier eine partielle Integration
durchführen, um die Zeitableitung von der Variation δ q̇ µ (t) zu entfernen. Es tritt also ein Randterm auf,
Die Wirkung ist genau dann bei einer beliebigen Variation δpµ (t) der Lagrange-Multiplikatoren
pµ (t) stationär, wenn die Geschwindigkeiten v µ (t) die Zeitableitungen der Koordinatenfunktionen q µ (t) sind. Das ist natürlich nicht weiter überraschend, denn genau das hatten wir als Nebenbedingung gefordert, und dafür die Funktionen pµ (t) als Lagrange-Multiplikatoren eingeführt.
Aus dem erweiterten Wirkungsprinzip folgt also
v µ (t) = q̇ µ (t).
∂L
q(t), v(t), t
∂v µ
ist. Wenn L, wie es üblicherweise für ein mechanisches System der Fall ist, durch T − V gegeben
ist, und wenn nur die kinetische Energie T von der Geschwindigkeit abhängt, so stehen auf der
rechten Seite dieser Gleichung die verallgemeinerten Impulse, die wir ursprünglich als Ableitungen der kinetischen Energie nach den Komponenten der Geschwindigkeit definiert hatten.
Es liegt deshalb nahe, diese Definition noch weiter zu verallgemeinern, und die Größen p µ (t)
auch dann als Impulse zu bezeichnen, wenn die Lagrange-Funktion nicht von der speziellen Form
L = T − V ist. Wir ändern unsere Definition aus Kapitel 11 ab, indem wir den Impuls nicht mehr
als Ableitung der kinetischen Energie nach der Geschwindigkeit definieren, sondern statt dessen
von der Lagrange-Funktion ausgehen.
Schließlich verlangen wir, dass die physikalische Bahn diejenige ist, für die dieses Funktional
stationär wird, und zwar bei einer gleichzeitigen Variation aller Argumente, also der Funktionen
q(t), v(t) und p(t).
Obwohl es sich eigentlich aus der Konstruktion ergibt, wollen wir zeigen, dass aus diesem
Wirkungsprinzip tatsächlich wieder auf die ursprünglichen Bewegungsgleichungen folgen. Wir
variieren zuerst die Funktion p(t). Das ergibt unmittelbar
δS[q, v, p] =
(15.6)
h
µ
δS[q, v, p] = δq (t) pµ (t)
(15.5)
89
i t2
t1
Z t2
∂L
+ δq µ (t)
µ q(t), v(t), t − ṗµ (t) dt.
∂q
t1
(15.9)
Der Randterm verschwindet jedoch, da wir an die Bahn q(t) die üblichen Randbedingungen
stellen, also die Anfangs- und Endkonfiguration festgelegen. Daher verschwindet δq µ (t) bei t =
t1 und t = t2 . Es bleibt schließlich die Gleichung
ṗµ (t) =
∂L
µ q(t), v(t), t .
∂q
v(t), während wir die Funktionen q(t) und p(t) festhalten. Wie wir gesehen haben, führt dies auf
die Gleichung
∂L
(15.13)
pµ (t) =
µ q(t), v(t), t .
∂v
Sie stellt eine Beziehung zwischen den Größen p(t), v(t) und q(t) her, die zu jedem Zeitpunkt t
gelten muss. Es treten dabei keine Zeitableitungen auf, so dass die Gleichung zu jedem Zeitpunkt
unabhängig von den Gleichungen zu allen anderen Zeitpunkten ist.
Wir nehmen nun an, dass diese Gleichung nach v(t) auflösbar ist. Mit anderen Worten, wir
können v(t) als Funktion von q(t) und p(t) darstellen. Für typische mechanische Systeme, wie
wir sie bisher kennen gelernt haben, ist dies immer der Fall. Die Geschwindigkeit ist immer
eindeutig durch den Impuls bestimmt, wobei der Zusammenhang aber vom Ort abhängen kann,
zum Beispiel wenn wir ein krummliniges Koordinatensystem benutzen oder Zwangsbedingungen
vorliegen. Für Systeme mit zeitabhängigen Zwangsbedingungen kann der Zusammenhang auch
zeitabhängig sein.
Wenn diese Voraussetzung erfüllt ist, können wir die Geschwindigkeit v(t) immer so bestimmen, dass das Funktional S[q, v, p] bezüglich einer Variation von v(t) stationär ist. Es bleibt
dann noch ein reduziertes Funktional
(15.10)
Fassen wir das Ergebnis noch einmal wie folgt zusammen. Die erweiterte Wirkung (15.3) ist
genau dann stationär, wenn die Funktionen q(t), v(t) und p(t) den Gleichungen
v µ (t) = q̇ µ (t),
pµ (t) =
∂L
µ q(t), v(t), t ,
∂v
ṗµ (t) =
∂L
µ q(t), v(t), t
∂q
(15.11)
genügen. Dass diese Gleichungen zu den ursprünglichen Bewegungsgleichungen äquivalent sind,
sieht man nun sehr leicht. Man muss nur die Funktionen v(t) und p(t) eliminieren, indem man
die ersten beiden Gleichungen in die dritte Gleichung einsetzt. Das führt unmittelbar auf die
Euler-Lagrange-Gleichung
∂L
d ∂L
q(t), q̇(t), t − µ q(t), q̇(t), t = 0.
dt ∂ q̇ µ
∂q
(15.12)
S[q, p] =
Aufgabe 15.1 Man wiederhole die einzelnen Schritte in diesem Kapitel f ür den speziellen Fall
eines mechanisches Systems mit einem Freiheitsgrad mit L(q, v) = m v 2 /2 − V (q).
Z t2
t1
h
i
pµ (t) q̇ µ (t) − pµ (t) v µ (t) − L q(t), v(t), t
v=v(q,p,t)
dt,
(15.14)
das nur noch von den Funktionen q(t) und p(t) abhängt, und dessen Variation bezüglich dieser
Funktionen für die physikalischen Bahnen verschwinden muss.
In der eckigen Klammer müssen wir für v(t) die in (15.13) gefundene Lösung einsetzen, was
durch die etwas verkürzte Notation v = v(q, p, t) angedeutet werden soll. Wir wollen uns diesen
Ausdruck etwas genauer ansehen. Es handelt sich um eine Funktion, die nur von q(t), p(t) und t
abhängt, nicht aber von den Ableitungen dieser Größen oder ihren Werten zu anderen Zeitpunkten. Das folgt aus der Tatsache, dass die Gleichung (15.13), die v(t) als Funktion von q(t) und
p(t) bestimmt, zwar im allgemeinen von der Zeit t abhängen kann, aber keine Zeitableitungen
enthält und alle drei Größen nur zu einem Zeitpunkt eingehen.
Man nennt den Ausdruck in der eckigen Klammer die Hamilton-Funktion des mechanischen
Systems. Eine sehr elegante Art und Weise, die Hamilton-Funktion darzustellen, ist
Aufgabe 15.2 Bei der Herleitung der Bewegungsgleichungen aus der erweiterten Wirkung sind
wir schrittweise vorgegangen, indem wir zuerst nur die Funktion p(t) variiert haben, dann nur die
Funktion v(t), und schließlich nur die Funktion q(t). Das Wirkungsprinzip verlangt jedoch, dass
die Wirkung unter einer gleichzeitigen Variation aller Argumente station är ist. Genau genommen
haben wir aber nur sehr spezielle Richtungsableitungen des Funktionals (15.3) berechnet und von
diesen verlangt, dass sie Null sind. Warum führt dieses Vorgehen trotzdem zum richtigen Resultat?
Die Hamilton-Funktion
Was haben wir mit diesem nochmaligen Umschreiben der Bewegungsgleichungen nun eigentlich gewonnen? Sind die neuen Gleichungen (15.11) nicht viel komplizierter als die alten EulerLagrange-Gleichungen (15.12)? In einem gewissen Sinne schon, da sie von mehr Funktionen
abhängen, aber in einem anderen Sinne sind sie auch einfacher. Sie bilden nämlich ein System
von Differenzialgleichungen erster Ordnung. Es kommen nur noch die ersten Ableitungen der
gesuchten Funktionen nach der Zeit vor, und die Gleichungen sind sogar nach diesen aufgelöst.
Die mittlere der drei Bewegungsgleichungen ist darüber hinaus noch nicht einmal eine echte Differenzialgleichung. Wir werden dies jetzt benutzen, um eine der beiden Hilfsfunktionen
wieder zu eliminieren. Dazu benutzen wir die am Anfang beschriebene Methode. Ein Variationsproblem können wir schrittweise lösen. Wir betrachten zuerst nur eine Variation der Funktion
HamiltonFunktion
H(q, p, t) = Ext pµ v µ − L(q, v, t) ,
v
(15.15)
wobei Extv für das Extremum im Raum aller Geschwindigkeiten v steht. Wie wir gleich sehen werden, handelt es sich typischerweise um ein Maximum, aber darauf kommt es nicht
an. Tatsächlich liefert das Extremum des Ausdrucks (15.15) bis auf ein Vorzeichen genau die
eckige Klammer in (15.14). Das Extremum liegt nämlich bei der Geschwindigkeit v, für die
pµ = ∂L/∂v µ ist.
90
Am besten machen wir uns dies an ein paar Beispielen klar. Zunächst betrachten wir ein Teilchen in einer Raumrichtung, das sich in einem Potenzial bewegt. Seine Lagrange-Funktion ist
L(q, v) = m v 2 /2 − V (q). Sie hängt nicht explizit von der Zeit ab, so dass auch die HamiltonFunktion nicht zeitabhängig ist. Man findet
m 2
p2
H(q, p) = Ext p v −
v + V (q) =
+ V (q).
v
2
2m
Die Hamilton-Funktion repräsentiert die Gesamtenergie eines mechanischen Systems als Funktion von Ort und Impuls.
Warum das sinnvoll ist, werden wir in den nächsten Abschnitten sehen. Unter bestimmten Voraussetzungen ist nämlich die Hamilton-Funktion eine Erhaltungsgr öße, und zwar unabhängig davon,
ob L = T − V und somit H = T + V ist oder nicht. Dies führt auf eine Verallgemeinerung des
Energieerhaltungsatzes, wenn man den Begriff der Energie entsprechend verallgemeinert.
Fassen wir an dieser Stelle noch einmal kurz zusammen, was wir bisher getan haben. Ausgehend von der Lagrange-Funktion und dem daraus abgeleiteten Wirkungsprinzip (15.1) sind wir
zu einer alternativen, aber äquivalenten Formulierung übergegangen, bei dem die Wirkung durch
(15.14) oder
Z t2
pµ (t) q̇ µ (t) − H q(t), p(t), t dt
(15.20)
S[q, p] =
(15.16)
Hier haben wir verwendet, dass der Ausdruck in der Klammer sein Extremum bei v = p/m
annimmt und dies dann für v eingesetzt. Wie man leicht sieht, ist die Hamilton-Funktion in diesem
Fall gerade die Gesamtenergie des Teilchens, ausgedrückt als Funktion von Ort und Impuls.
Das gilt sogar ganz allgemein. Wenn nämlich L = T − V ist, und T eine quadratische Funktion der Geschwindigkeit ist, die wir durch eine symmetrische Massenmatrix darstellen können,
während V nur vom Ort abhängt, so findet man
L(q, v) =
1
Mµν (q) v µ v ν − V (q)
2
⇒
pµ =
∂L
= Mµν (q) v ν .
∂v µ
t1
als Funktional der Funktionen q(t) und p(t) gegeben ist. Die Hamilton-Funktion H(q, p, t) ergibt sich dabei durch (15.15) aus der Lagrange-Funktion L(q, v, t). Jetzt müssen wir nur noch
verlangen, dass diese Wirkung stationär wird, um die physikalischen Bahnen zu finden.
(15.17)
Für mechanische Systeme ist die kinetische Energie immer positiv, also ist die Massenmatrix invertierbar. Wie bezeichnen die inverse Matrix mit M µν (q), und können dann die Geschwindigkeit
als Funktion des Ortes und des Impulses darstellen,
M µν (q) Mνρ (q) = δ µρ
⇒
v µ = M µν (q) pν .
Nun können wir die Hamilton-Funktion berechnen. Es ist
1
1
H(q, p) = Ext pµ v µ − Mµν (q) v µ v µ + V (q) = M µν (q) pµ pν + V (q).
v
2
2
Aufgabe 15.3 Der Übergang von der Lagrange- zur Hamilton-Funktion wird in der Mathematik
als Legendre-Transformation bezeichnet. Sie ist, ähnlich wie die Fourier-Transformation, eine
Abbildung zwischen Funktionen, die von verschiedenen Argumenten abh ängen. Man zeige, dass
die Umkehrung der Legendre-Transformation wieder eine solche Transformation ist. Man kann
also aus der Hamilton-Funktion H(q, p, t) wieder die Lagrange-Funktion L(q, v, t) bestimmen,
indem man das Extremum
(15.21)
L(q, v, t) = Ext pµ v µ − H(q, p, t)
(15.18)
(15.19)
p
bildet. Die Transformation L(q, v) ↔ H(q, p) ist in diesem Sinne symmetrisch. Man verifiziere
dies explizit am Beispiel eines Teilchens im Potenzial in einer Raumdimension.
Der erste Summand ist, wie man sich leicht überzeugt, wieder die kinetische Energie, jetzt allerdings dargestellt als Funktion des Ortes q und des Impulses p. Und der zweite Summand ist
natürlich die potenzielle Energie.
Der Übergang von der Lagrange-Funktion, die eine Funktion von Ort und Geschwindigkeit
ist, zur Hamilton-Funktion als Funktion von Ort und Impuls, bewirkt in diesem Fall, dass sich
das relative Vorzeichen von kinetischer und potenzieller Energie umkehrt. Allerdings gilt dieser
Zusammenhang nur dann, wenn sich die Lagrange-Funktion in der Form L = T − V darstellen lässt, und T quadratisch von der Geschwindigkeit abhängt. Dann ist H = T + V, also die
Gesamtenergie.
Wenn die Lagrange-Funktion nicht von dieser speziellen Form ist, ist es trotzdem sinnvoll, die
Hamilton-Funktion mit der Energie des Systems zu identifizieren. In diesem Fall ist nämlich die
Größe Energie noch gar nicht definiert. Die einzige Stelle, an der wir diesen Begriff bisher im Rahmen der Lagrangeschen Mechanik verwendet haben, war die Definition der Lagrange-Funktion
als Differenz von kinetischer und potenzieller Energie. Wir nehmen uns daher die Freiheit, den
Begriff Energie auf diese Weise zu verallgemeinern.
Aufgabe 15.4 Wenn der Konfigurationsraum Q des mechanischen Systems eine glatte Mannigfaltigkeit ist, so hatten wir am Ende von Kapitel 13 gezeigt, dass die Lagrange-Funktion L eine
reelle Funktion, also ein skalares Feld auf dem Tangentenbündel T(Q) ist. Auf welchem Raum
ist in diesem Fall die Hamilton-Funktion H eine reelle Funktion? Warum ist sie unabh ängig von
dem in der Definition (15.15) verwendeten Koordinatensystem?
Aufgabe 15.5 Bekanntlich ist die Lagrange-Funktion eines geladenen Teilchens im elektromagnetischen Feld durch den Ausdruck (11.77) gegeben,
q
1
(15.22)
L(r, v) = m v · v + A(r, t) · v − q φ(r, t),
2
c
wobei A(r, t) das magnetische Vektorpotenzial und φ(r, t) das elektrische Potenzial sind. Wie
sieht die Hamilton-Funktion aus? Welcher Zusammenhang besteht zwischen dem Impuls p und
der Geschwindigkeit v?
91
Wenn der Konfigurationsraum Q kein affiner Raum ist, sondern nur eine glatte Mannigfaltigkeit, so müssen wir zusätzlich beachten, dass der duale Vektor p ein Vektor am Bezugspunkt q
ist, also im Kotangentenraum Tq∗ Q. Der Phasenraum ist dann die Menge aller Paare (q, p) mit
q ∈ Q und p ∈ Tq∗ Q. Das ist das Kotangentenbündel P = T∗ (Q) des Konfigurationsraum, also
der zu dem am Ende von Kapitel 13 eingeführten Tangentenbündel T(Q) duale Raum.
Auf jeden Fall ist der Phasenraum ein 2 N -dimensionaler Raum, wenn das System N Freiheitsgrade besitzt. Zu jedem Koordinatensystem {q µ } auf Q gehört ein Satz von verallgemeinerten
Impulsen {pµ }, die die Komponenten eines dualen Vektors bilden. Man bezeichnet die Größen
{pµ } in der Hamiltonschen Mechanik auch als die den Koordinaten {q µ } zugeordneten kanonisch
konjugierten Impulse.
Gemeinsam bilden die Ortskoordinaten und die konjugierten Impulse ein kanonisches Koordinatensystem ({q µ }, {pµ }) auf dem Phasenraum P. Jeder Bewegungszustand wird auf diese Weise
eindeutig durch eine Satz von 2 N reelle Zahlen festgelegt.
Bewegungsgleichungen und Phasenraum
Nun kommen wir zurück zu den eigentlichen Bewegungsgleichungen des mechanischen Systems.
Wie wir gerade gezeigt haben, ergeben sie sich aus dem Wirkungsprinzip (15.20), das heißt das
dort definierte Funktional muss für physikalische Bahnen stationär sein. Als Randbedingungen
geben wir wieder die Konfigurationen q(t1 ) = q1 am Anfang und q(t2 ) = q2 am Ende des
Zeitintervalls vor. An die Impulse p(t1 ) und p( t2 ) müssen wir keine Einschränkungen machen.
Die Bewegungsgleichungen, die sich daraus ergeben, haben eine sehr einfache Form. Variieren
wir zuerst wieder die Funktion p(t), so finden wir
Z t2
∂H
δS[q, p] = δpµ (t) q̇ µ (t) −
q(t), p(t), t dt.
∂pµ
(15.23)
t1
Entsprechend ergibt eine Variation von q(t), nachdem wir die übliche partielle Integration durchgeführt haben,
Z t2
∂H
δS[q, p] = − δq µ (t) ṗµ (t) + µ q(t), p(t), t dt.
∂q
Ein kanonisches Koordinatensystem auf dem Phasenraum P eines mechanischen
Systems besteht aus den Ortskoordinaten {q µ } auf dem Konfigurationsraum Q und
den konjugierten Impulsen {pµ }, die die Komponenten eines dualen Vektors bilden.
(15.24)
Wenn wir zu einem anderen Koordinatensystem {q µ } auf dem Konfigurationsraum übergehen, so
müssen wir auch die Impulskomponenten {pµ } und die Hamilton-Funktion entsprechend transformieren. Verwenden wir die Notation aus Kapitel 13 und bezeichnen das “alte” Koordinatensystem mit {q(m)µ } und das “neue” mit {q(n)ν }, so besteht zwischen den “alten” Impulsen {p(m)µ }
und den “neuen” Impulsen {p(n)ν } der Zusammenhang
t1
Damit die Wirkung stationär ist, müssen die folgenden Bewegungsgleichungen erfüllt sind.
Hamiltonsche
Bewegungsgleichungen
q̇ µ =
∂H
,
∂pµ
ṗµ = −
∂H
.
∂q µ
(15.25)
p(n)ν =
Dies ist ein System von Differenzialgleichungen erster Ordnung, die bereits nach den Ableitungen
der Funktionen q(t) und p(t) aufgelöst sind. Einfacher lassen sich die Bewegungsgleichungen für
ein mechanisches System eigentlich nicht mehr darstellen.
Viele typische Eigenschaften von mechanischen Systemen können wir aus diesen Hamiltonschen Bewegungsgleichungen sofort ablesen. So zum Beispiel die Eigenschaft, dass die Zeitentwicklung eines Systems eindeutig festgelegt ist, wenn wir zu irgendeinem Zeitpunkt t 0 sowohl
den Ort q(t0 ) = q0 als auch den Impuls p(t0 ) = p0 kennen. In diesem Sinne ist der Zustandsraum des Systems, also die Menge aller Bewegungszustände, die das System annehmen kann und
die die Zeitentwicklung eindeutig festlegen, nun der Raum aller Orte q und Impulse p. Man nennt
diesen Raum den Phasenraum.
∂q(m)µ
p(m)µ
∂q(n)ν
⇔
p(m)µ =
∂q(n)ν
p(n)ν .
∂q(m)µ
(15.26)
Es treten die üblichen Übergangsmatrizen bei der Transformation eines dualen Vektors auf. Für
die Zeitableitung der Koordinaten entlang einer Bahn gilt natürlich wieder die Kettenregel,
q̇(n)ν =
∂q(n)ν
q̇(m)µ
∂q(m)µ
⇔
q̇(m)µ =
∂q(m)µ
q̇(n)ν .
∂q(n)ν
(15.27)
Daraus folgt, dass die Wirkung (15.20) in jedem Koordinatensystem durch den gleichen Ausdruck
dargestellt wird. Wir können sie auch ganz koordinatenfrei in der Form
Der Phasenraum P eines mechanischen Systems ist der Menge aller Bewegungszustände, dargestellt durch den Ort q ∈ Q und den Impuls p ∈ Tq Q.
S[q, p] =
Ist der Konfigurationsraum Q des System ein affiner Raum, so ist der Ort q ∈ Q ein Punkt
in diesem Raum und der Impuls ein dualer Vektor p ∈ T∗ Q. Folglich ist der Phasenraum der
Produktraum P = Q × T∗ Q. Dies ist wieder ein affiner Raum, wobei dim P = 2 dim Q ist. Der
Phasenraum hat also für jeden Freiheitsgrad zwei Dimensionen.
Z t2
t1
p(t) · q̇(t) − H q(t), p(t), t
dt
(15.28)
darstellen, um deutlich zu machen, dass der Integrand ein Skalar ist. Der Punkt bezeichnet wieder
wie üblich das Produkt eines dualen Vektors mit einem Vektor.
92
Aus dieser Überlegung folgt sofort, dass auch die Hamiltonschen Bewegungsgleichungen in
jedem kanonischen Koordinatensystem die Form (15.25) annehmen. Denn sie ergeben sich aus
der Forderung, dass die Wirkung (15.28) für die physikalische Bahn stationär sein muss. Und
wenn diese Wirkung, wie gerade gezeigt, von der Wahl des Koordinatensystems unabhängig ist,
dann sind es natürlich auch die Bewegungsgleichungen.
Genau wie die Lagrangeschen oder d’Alembertschen Bewegungsgleichungen beschreiben auch
die Hamiltonschen Bewegungsgleichungen die Dynamik des Systems in einer “geometrischen”
Sprache, die vom Koordinatensystem unabhängig ist. Tatsächlich wird sich später herausstellen,
dass wir sogar noch sehr viel allgemeinere Koordinatentransformationen zulassen können als die
hier betrachteten, unter denen die Hamiltonschen Bewegungsgleichungen ihre Form beibehalten.
In diesem Sinne ist die Hamiltonsche Formulierung der Bewegungsgleichen noch allgemeiner als
die Lagrangesche Form.
Außerdem sind die Hamiltonschen Bewegungsgleichungen in ihrer Struktur sehr viel einfacher als die Lagrangeschen Gleichungen. Es sind, wie wir bereits betont haben, Differenzialgleichungen erster Ordnung, die zudem schon nach den Ableitungen aufgelöst sind, während die
Euler-Lagrange-Gleichungen Differenzialgleichungen zweiter Ordnung sind, in denen die Zeitableitungen zudem noch etwas verschachtelt sind.
Es stellt sich daher die Frage, warum wir eigentlich nicht gleich diese Form der Bewegungsgleichungen verwendet haben, um mechanische Systeme im allgemeinen zu beschreiben. Die
Antwort ist recht einfach. Es lassen sich nur ganz spezielle Systeme mit einer Hamilton-Funktion
beschreiben. In der Herleitung haben wir zwei Annahmen gemacht, die nicht für alle mechanischen Systeme erfüllt sind.
Zum einen sind wir davon ausgegangen, dass es überhaupt eine Lagrange-Funktion für das
System gibt. Es dürfen also keine Reibungs- oder anderen Kräfte auftreten, die sich nicht aus
einer Lagrange-Funktion ableiten lassen. Auch dürfen keine anholonomen Zwangsbedingungen
vorliegen, die ja im wesentlichen auch Reibungskräfte sind. Der Konfigurationsraum Q kann der
reduzierte Konfigurationsraum eines Systems mit holonomen Zwangsbedingungen sein, aber es
dürfen keine weiteren Einschränkungen an die Bewegungsfreiheit vorliegen.
Zum anderen geht ganz entscheidend in die Herleitung ein, dass sich die Gleichung (15.13)
nach der Geschwindigkeit v als Funktion von q und p auflösen lässt. Oder äquivalent dazu, das
Extremum in (15.15) muss existieren existiert und es muss eindeutig sein. Nur dann existiert
überhaupt eine Hamilton-Funktion. Systeme, die diese Bedingung erfüllen, heißen Hamiltonsche
oder kanonische mechanische Systeme. Im wesentlichen kann man sagen, dass alle mechanischen
Systeme kanonisch sind, in denen keine Reibungskräfte und keine anholonomen Zwangsbedingungen auftreten.
Die zweite Forderung bedeutet für typische mechanische Systeme keine Einschränkung, solange die kinetische Energie in der Geschwindigkeit quadratisch und positiv ist. Auf sie kann
man im Prinzip sogar verzichten, was auf eine verallgemeinerte Version der Hamiltonschen Mechanik führt. Darauf werden wir allerdings nicht weiter eingehen. Wir gehen hier stets davon aus,
dass der Konfigurationsraum Q der reduzierte Konfigurationsraum des Systems ist, also alle holo-
nomen Zwangsbedingungen bereits eliminiert wurden, und die Geschwindigkeit eine eindeutige
Funktion des Impulses ist.
Aufgabe 15.6 Die Hamiltonschen Bewegungsgleichungen lassen sich auch ohne Umweg über
das Variationsprinzip direkt aus den Lagrangeschen Bewegungsgleichungen herleiten. Man geht
von den Gleichungen
∂L
d ∂L
− µ =0
(15.29)
dt ∂ q̇ µ
∂q
für die Koordinaten q µ (t) aus. Um dieses System von Differenzialgleichungen zweiter Ordnung in
ein System erster Ordnung zu verwandeln, führt man die kanonischen Impulse als Hilfsfunktionen
ein, indem man
∂L
pµ = µ
(15.30)
∂ q̇
setzt. Die Hamilton-Funktion definiert man durch
H(q, p, t) = pµ q̇ µ − L(q, q̇, t),
(15.31)
wobei man für q̇ µ auf der rechten Seite die Lösung von (15.30) einsetzt, so dass die Geschwindigkeit eine Funktion von Ort und Impuls wird. Man zeige, dass sich so auch die Hamiltonschen
Bewegungsgleichungen (15.25) ergeben, und dass sie zu den Lagrangeschen Gleichungen äquivalent sind.
Aufgabe 15.7 Für welche mechanischen Systeme aus den Abbildungen in Kapitel 12 existiert eine Hamilton-Funktion, für welche nicht? Man bestimme die Hamilton-Funktionen für diejenigen
Systeme, die dies zulassen, leite daraus die Bewegungsgleichungen ab und zeige, dass sie zu den
Lagrangeschen Bewegungsgleichungen äquivalent sind.
Einfache Beispiele
Wir beginnen mit dem einfachsten denkbaren mechanischen System, einem freien Teilchen im
einer Raumdimension. Es sei q die Ortskoordinate, v die Geschwindigkeit und p der Impuls.
Dann ist
m 2
p2
m 2
v
v =
.
(15.32)
⇒ H(q, p) = Ext p v −
L(q, v) =
v
2
2
2m
Daraus lassen sich unmittelbar die Hamiltonschen Bewegungsgleichungen ablesen. Sie lauten
q̇ =
p
∂H
= ,
∂p
m
ṗ = −
∂H
= 0.
∂q
(15.33)
Also ist p(t) = p0 konstant und q(t) = q0 + p0 t/m beschreibt eine gleichförmige Bewegung.
Wir sehen außerdem, dass H wieder die Energie des Teilchens ist, die in diesem Fall allein aus
der kinetischen Energie besteht.
93
Ein anderes, ebenfalls sehr einfaches Beispiel ist der harmonischer Oszillator. Er wird uns
später noch eine Weile verfolgen, denn an ihm lassen sich sehr viele wichtige Eigenschaften der
Hamiltonschen Mechanik einfach und klar darstellen. Die Lagrange-Funktion ist in diesem Fall
L(q, v) =
m 2 κ 2
v − q .
2
2
Um die Hamilton-Funktion zu bestimmen, gehen wir wieder von der Lagrange-Funktion aus.
Die kinetische Energie ist weiterhin T = m v 2 /2, wobei v = q̇ die Zeitableitung der Auslenkung
ist. Für die potenzielle Energie müssen wir V = −m g ` cos(q/`) setzen, wenn der Ruhepunkt
bei q = 0 liegen soll. Dann ist L = T − V, und T ist in v quadratisch. Also gilt H = T + V.
Um die kinetische Energie als Funktion des Impulses p darzustellen, benötigen wir nur noch die
übliche Beziehung p = ∂L/∂v = m v. Wir bekommen dann die Hamilton-Funktion
(15.34)
Die es sich um eine Funktion der Form L = T − V handelt, und die kinetische Energie in der
Geschwindigkeit quadratisch ist, ergibt sich die Hamilton-Funktion zu H = T + V. Allerdings
müssen wir sie als Funktion von q und p darstellen, wobei p = ∂L/∂v = m v wieder der gewöhnliche Impuls ist. Es gilt daher
H(q, p) = Ext p v −
v
2
H(q, p) =
(15.35)
Für die Hamiltonschen Bewegungsgleichungen ergibt sich
q̇ =
p
∂H
= ,
∂p
m
ṗ = −
∂H
= −κ q.
∂q
(15.36)
Aufgabe 15.8 Wie sieht die Hamilton-Funktion für das Pendel aus, wenn man als Ortskoordinate
statt der Auslenkung q den Auslenkwinkel ϑ = q/` verwendet? Was ist dann der konjugierte
Impuls, und welche Bewegungsgleichungen ergeben sich?
Die zweite Gleichung ist nichts anderes als die Newtonsche Bewegungsgleichung, wonach die
Zeitableitung des Impulses die Kraft ist, und diese wiederum als Ableitung des Potenzials gegeben ist. Und die erste Gleichung ist eigentlich redundant, da sie nur noch einmal die bereits
bekannte Beziehung zwischen Impuls und Geschwindigkeit herstellt.
Wir sehen also, dass wir immer noch “dieselbe Mechanik” betreiben. Nur unsere Begriffe haben sich etwas verändert. Die Lösungen der Bewegungsgleichungen sind natürlich immer noch
die gleichen. Die allgemeinen Lösungen von (15.36) lassen sich sofort angeben. Es gilt
q(t) = a sin(ω t + ϕ),
p(t) = m ω a cos(ω t + ϕ),
(15.38)
Bis auf eine Konstante, die sich auf die Bewegungsgleichungen nicht auswirkt, stimmt sie für
kleine Auslenkungen näherungsweise mit der Hamilton-Funktion eines harmonischen Oszillators
überein. Wir müssen nur für die Federkonstante κ = m g/` setzen, so dass sich für die Eigenfrequenz der bekannte Ausdruck ω 2 = κ/m = g/` ergibt. Die Bewegungsgleichungen lauten
schließlich
∂H
p
∂H
mgq
q̇ =
= ,
ṗ = −
= −m g sin(q/`) ≈ −
.
(15.39)
∂p
m
∂q
`
2
m 2 κ 2
p
κq
v + q =
+
.
2
2
2m
2
p2
m g q2
p2
− m g ` cos(q/`) ≈
+
− m g.
2m
2m
2`
Koordinatentransformationen
Als nächstes betrachten wir ein System mit zwei Freiheitsgraden, um zu zeigen, was bei einer Koordinatentransformation geschieht, und wie sich dabei die Hamiltonschen Bewegungsgleichungen transformieren. Das einfachste System mit zwei Freiheitsgraden ist ein Teilchen in einer Ebene. Es soll sich dort in einem zeitunabhängigen Potenzial bewegen, für das wir der Einfachheit
halber wieder das eines harmonischen Oszillators einsetzen. Ist (x, y) ein kartesischen Koordinatensystem in der Ebene, so ist die Lagrange-Funktion
κ 2
m
(v x )2 + (v y )2 −
x + y 2 ).
(15.40)
L(x, y, v x , v y ) =
2
2
(15.37)
wobei a und ϕ Integrationskonstanten sind, die durch die Anfangsbedingung festgelegt werden,
und ω 2 = κ/m die Eigenfrequenz des Oszillators ist.
Um die Dynamik eines ebenen Pendels zu beschreiben, können wir ganz ähnlich vorgehen.
Wir benutzen als Ortskoordinate q die Auslenkung des Pendels, also die Stecke, die das Pendel
vom Ruhepunkt aus zurückgelegt hat. Da sich ein Pendel auf einem Kreis bewegt, ist dies eine
periodische Koordinate. Bei einer Pendellänge ` gilt q ≡ q + 2π `. Der Konfigurationsraum ist
die Mannigfaltigkeit Q = S1 , also eine eindimensionale Sphäre.
Wie sieht dann der Phasenraum aus? Da der Konfigurationsraum eindimensional ist, ist sein
Kotangentenraum an jeder Stelle q ∈ Q ein eindimensionaler Vektorraum T q∗ Q. Der Impuls
wird folglich durch eine reelle Zahl p dargestellt. Der Phasenraum ist die Vereinigung aller dieser
Vektorräume, also das Kotangentenbündel T∗ (S1 ). Wenn wir an jeden Punkt auf der Kreislinie
einen eindimensionalen Vektorraum anheften, so bekommen wir einen Zylinder. Der Phasenraum
eines Pendels ist folglich ein Zylinder. Die Ortskoordinate q ist periodisch, und der konjugierte
Impuls p dient als zweite, nicht periodisch Koordinate.
Der Zusammenhang zwischen den Geschwindigkeiten (vx , vy ) und den konjugierten Impulsen
(px , py ) ist wieder der übliche,
px =
∂L
= m vx,
∂v x
py =
∂L
= m vy .
∂v y
(15.41)
Da die Lagrange-Funktion wieder von der Form L = T −V ist, und T eine quadratische Funktion
der Geschwindigkeiten ist, gilt für die Hamilton-Funktion H = T + V, wobei wir die kinetische
Energie als Funktion der Impulse schreiben müssen. Das ergibt
H(x, y, px , py ) =
94
py 2
κ x2
κ y2
px 2
+
+
+
.
2m 2m
2
2
(15.42)
Die Hamiltonschen Bewegungsgleichungen lauten
Aufgabe 15.9 Man finde die allgemeine Lösung von (15.43). Welche spezielle Lösung ergibt sich
für die Anfangsbedingungen x(0) = a, y(0) = 0, px (0) = 0, py (0) = b?
setzen. Dann müssen wir auch die Impulse transformieren, und zwar wie die Komponenten eines
dualen Vektors,
∂x
∂y
px +
py = cos ϕ px + sin ϕ py ,
pr =
∂r
∂r
∂x
∂y
(15.48)
px +
py = −r sin ϕ px + r cos ϕ py .
pϕ =
∂ϕ
∂ϕ
Die neuen Koordinaten (r, ϕ, pr , pϕ ) bilden dann ebenfalls ein kanonisches Koordinatensystem
auf P. Um die Hamilton-Funktion in diesen Koordinaten darzustellen, müssen wir nur die Beziehungen (15.47) und (15.48) in (15.42) einsetzen. Das Ergebnis ist natürlich wieder (15.46). Wir
müssen also nur dieselbe Funktion H in den neuen Koordinaten darstellen.
Die Bewegungsgleichungen können wir nun ebenso gut in diesem Koordinatensystem bestimmen. Es gilt
Nun wollen wir dieselben Bewegungsgleichungen in einem anderen Koordinatensystem darstellen. Der Konfigurationsraum Q des Teilchens ist eine Euklidische Ebene. Wie führen dort ein
Polarkoordinatensystem (r, ϕ) ein, so dass wie üblich x = r cos ϕ und y = r sin ϕ gilt. Es gibt
dann mehrere Stellen in der gerade durchgeführten Herleitung, an der wir diese Koordinatentransformation einsetzen können. Wir können zum Beispiel ganz von vorne beginnen, und zuerst die
Lagrange-Funktion umrechnen. Das ergibt
κ
m
(v r )2 + r2 (v ϕ )2 − r2 ,
(15.44)
L(r, ϕ, v r , v ϕ ) =
2
2
∂H
= 0.
∂ϕ
(15.49)
In der Bewegungsgleichung für pr tritt nun ein effektives Potenzial auf, das wir auch schon aus
anderen Herleitungen von Bewegungsgleichungen in Polarkoordinaten kennen.
Man kann sich leicht davon überzeugen, dass diese Bewegungsgleichungen zu (15.43) äquivalent sind. Sie sind zwar nun miteinander gekoppelt. Wir sehen daher nicht mehr sofort, dass die
es sich um zwei unabhängige Oszillatoren handelt. Aber wir können statt dessen aus der letzten
Gleichung sofort ablesen, dass der Drehimpuls pϕ eine Erhaltungsgröße ist. Damit lässt sich auch
dieses Gleichungssystem leicht auflösen.
ẋ =
∂H
px
=
,
∂px
m
ẏ =
py
∂H
= ,
∂py
m
ṗx = −
∂H
= −κ x,
∂x
ṗy = −
∂H
= −κ y.
∂y
(15.43)
Es handelt sich einfach um zwei voneinander unabhängige harmonische Oszillatoren mit der Eigenfrequenz ω 2 = κ/m. Dass die Bewegungen in die beiden Richtungen unabhängig ablaufen,
ergibt sich auch daraus, dass die Lagrange-Funktion als Summe von zwei Funktionen dargestellt
werden kann, wobei die eine nur von x und v x , die andere nur von y und v y abhängt. Offenbar gilt in diesem Fall dasselbe für die Hamilton-Funktion, die ebenfalls eine Summe von zwei
Funktionen ist. Hier hängt der eine Summand nur von x und p x ab,. der andere nur von y und py .
ṙ =
wobei (v r , v ϕ ) die Komponenten der Geschwindigkeit in Polarkoordinaten sind, also die radiale
und die Winkelgeschwindigkeit. Diesen Ausdruck für die Lagrange-Funktion hatten wir schon
mehrmals benutzt, so dass wir ihn hier nicht mehr herleiten müssen. Die konjugierten Impulse
sind nun
∂L
∂L
pr = r = m v r ,
pϕ =
= m r2 v ϕ .
(15.45)
∂v
∂v ϕ
Der zur Koordinate r kanonisch konjugierte Impuls pr ist die Komponente des Impulses in radiale Richtung, und der zur Koordinate ϕ kanonisch konjugierte Impuls p ϕ ist der Drehimpuls,
oder genauer dessen z-Komponente, wenn wir uns die Ebene im Raum eingebettet denken. Da
weiterhin L = T − V ist, gilt für die Hamiltonfunktion auch hier H = T + V, also
pr2
κ r2
pϕ2
+
+
.
H(r, ϕ, pr , pϕ ) =
2 m 2 m r2
2
y = r sin ϕ
ϕ̇ =
pϕ
∂H
=
,
∂pϕ
m r2
ṗr = −
∂H
pϕ2
− κ r,
=
∂r
m r3
ṗϕ = −
Aufgabe 15.10 Man finde die allgemeine Lösung von (15.49). Wie stellt sich die Anfangsbedingung aus Aufgabe 15.9 in Polarkoordinaten dar, und welche spezielle L ösung ergibt sich daraus?
Aufgabe 15.11 Für ein N -Teilchen-System im dreidimensionalen Euklidischen Raum bezeichnen
wir die Orte der Teilchen wie üblich mit rα , α ∈ {1, . . . , N }, und ihre Koordinaten mit rα,i ,
i ∈ {x, y, z}. Entsprechend sind vα bzw. vα,i die Geschwindigkeiten. Liegt eine paarweise, nur
vom Abstand abhängige Wechselwirkung der Teilchen vor, so hat die Lagrange-Funktion die Form
1X
1X
L {rα }, {vα } =
mα vα2 −
Vα,β (|rα − rβ |)
(15.50)
2 α
2
α6=β
(15.46)
Die kanonischen Impulse werden mit pα , bzw. ihre Komponenten mit pα,i bezeichnet. Man bestimme die Beziehungen zwischen den Impulsen und den Geschwindigkeiten, die Hamilton-Funktion
H({rα }, {pα }), und die daraus resultierenden Bewegungsgleichungen.
Eine andere Möglichkeit, sich diese Hamilton-Funktion zu verschaffen, geht direkt von der Darstellung (15.42) aus. Der Phasenraum P des Teilchens ist ein vierdimensionaler Raum, auf dem
durch (x, y, px , py ) ein kanonisches Koordinatensystem definiert wird. Nun führen wir eine Koordinatentransformation durch, indem wir
x = r cos ϕ,
pr
∂H
= ,
∂pr
m
Aufgabe 15.12 Ein Teilchen im dreidimensionalen Raum bewege sich in einem kugelsymmetrischen Potenzial V = V (r). Die Lagrange-Funktion in Kugelkoordinaten ist folglich
m
(15.51)
(v r )2 + r2 (v ϑ )2 + r2 sin2 ϑ (v ϕ )2 − V (r).
L(r, ϑ, ϕ, v r , v ϑ , v ϕ ) =
2
(15.47)
95
Welche Hamilton-Funktion H(r, ϑ, ϕ, pr , pϑ , pϕ ) ergibt sich daraus?
In diesem Sinne ist H nicht die Größe, die wir üblicherweise als Gesamtenergie bezeichnen
würden. Das steht ein wenig mit der Definition im Widerspruch, die wir weiter oben für die physikalische Interpretation von H gegebenen haben. Die Hamilton-Funktion liefert hier einen anderen Ausdruck für die Gesamtenergie des Systems als die Summe aus potenzieller und kinetischer
Energie. Waren wir also zu voreilig, als wir die Hamilton-Funktion als eine Verallgemeinerung
des Begriffes “Energie” definiert haben? Was ist hier die “richtige” Definition von Energie?
Wir müssen uns entweder für die “physikalisch intuitive” Definition E = T + V entscheiden,
oder für die “formale” Definition E = H. Im Grunde ist es aber völlig egal, welche Größe wir in
diesem Fall Energie nennen. Wir können mit ihr nämlich gar nichts weiter anfangen. Da es sich
um ein System mit zeitabhängigen Zwangsbedingungen handelt, leisten diese Arbeit am System,
so dass die Energie, wie auch immer definiert, keine Erhaltungsgröße ist. Wir können sie nicht
wie sonst üblich zur Lösung der Bewegungsgleichungen verwenden.
Aus diesem Grund können wir gut mit dem Umstand zurecht kommen, dass die Energie eines
Systems, die sich aus der Hamilton-Funktion ergibt, nicht immer mit dem übereinstimmt, was wir
uns intuitiv unter Energie vorstellen. Wichtiger als die Frage, welche Größe wir Energie nennen,
ist die Frage nach Erhaltungsgrößen, die uns helfen, die Bewegungsgleichungen zu lösen. Damit
werden wir uns gleich näher befassen und sehen, dass es stets die Hamilton-Funktion, also die
formale Definition der Energie ist, die zu einer solchen Erhaltungsgröße führt.
Unabhängig von der Frage nach der Bedeutung des Begriffes Energie können wir jedoch aus
(15.38) die Bewegungsgleichungen ableiten. Da ϑ nun die Ortskoordinate und l der kanonisch
konjugierte Impuls ist, bekommen wir
Zeitabhängige Systeme
Um zu zeigen, dass die Hamiltonsche Methode auch dann noch funktioniert, wenn die LagrangeFunktion, und damit auf die Hamilton-Funktion explizit zeitabhängig ist, betrachten wir als drittes
Beispiel ein ebenes Pendel mit veränderlicher Länge. Es handelt sich um ein System mit holonomen, aber zeitabhängigen Zwangsbedingungen. Wir verwenden als reduzierte Koordinate eine
Winkelkoordinate ϑ, so dass sich das Pendel in der x-z-Ebene an der Stelle x = ` sin ϑ und
z = −` cos ϑ befindet, wobei die Pendellänge ` = `(t) als Funktion der Zeit vorgegeben ist.
Die Lagrange-Funktion bestimmen wir wie üblich, indem wir die kinetische und potenzielle
Energie berechnen. Das ergibt
T =
m 2 2 m 2
m 2
ẋ + ż 2 =
` ϑ̇ +
`˙ ,
2
2
2
V = m g z = −m g ` cos ϕ.
(15.52)
Bezeichnen wir die Winkelgeschwindigkeit ϑ̇ mit ω, so ist
L(ϑ, ω, t) =
˙ 2
m `(t)2 2 m `(t)
ω +
+ m g `(t) cos ϑ.
2
2
(15.53)
˙ hängt die Lagrange-Funktion also
Über die vorgegebene Funktion `(t) und deren Ableitung `(t)
explizit von der Zeit ab. Um die Hamilton-Funktion zu finden, bestimmen wir erst den Zusammenhang zwischen der Winkelgeschwindigkeit ω und dem zugehörigen Impuls, von dem wir ja
bereits wissen, dass es der Drehimpuls ist. Wir bezeichnen ihn daher mit
l=
∂L
= m `(t)2 ω.
∂ω
ϑ̇ =
ω
˙ 2
l2
m `(t)
− m g `(t) cos ϑ,
−
2
2 m `(t)2
∂H
l˙ = −
= −m g `(t) sin ϑ.
∂ϑ
(15.56)
Der fragliche Term mit dem falschen Vorzeichen geht in die Bewegungsgleichungen gar nicht
ein, da er weder von ϑ noch von l abhängt. Wie immer ergibt sich ein Satz von Differenzialglei˙
chungen erster Ordnung, aufgelöst nach den Ableitungen ϑ̇(t) und l(t).
Das einzig neue ist, dass
nun die Koeffizienten dieser Gleichungen explizit von t abhängen, über die vorgegebene Funktion
`(t).
(15.54)
Der Zusammenhang zwischen ω und l ist ebenfalls explizit von der Zeit abhängig. Das ändert
aber nichts an der Definition der Hamilton-Funktion die sich aus (15.15) ergibt. Es gilt
H(ϑ, l, t) = Ext l ω − L(ϑ, ω, t) =
l
∂H
,
=
∂l
m `(t)2
Aufgabe 15.13 Man löse die Bewegungsgleichungen (15.56) des Pendels für g = 0, also im
schwerelosen Raum.
(15.55)
Der Hamiltonsche Fluss
wobei wir das Extremum gefunden haben, indem wir für ω die Lösung der Gleichung (15.54)
eingesetzt haben.
˙ explizit von der Zeit ab. Außerdem
Auch die Hamilton-Funktion hängt nun über `(t) und `(t)
können wir noch die folgende wichtige Feststellung machen. Sie ist nicht von der Form H = T +
˙ 2 proportional ist, hat das falsche Vorzeichen. Das liegt daran, dass
V, denn der Term, der zu `(t)
dieser Term in der Lagrange-Funktion (15.53) einen Anteil der kinetischen Energie repräsentiert,
aber keine quadratische Funktion der Geschwindigkeit ω ist.
Wir wollen uns nun die Hamiltonschen Bewegungsgleichungen (15.25) etwas genauer ansehen.
Wie bereits erwähnt, wird durch die Vorgabe eines Anfangszustandes q(0) = q 0 und p(0) = p0
die Zeitentwicklung des Systems eindeutig festgelegt. Wir kennen also die Funktionen q(t) und
p(t), sobald wir ihre Werte zu einem bestimmten Zeitpunkt, zum Beispiel t = 0, kennen.
Eine Kurve (q(t), p(t)) im Phasenraum, die auf diese Weise bestimmt wird, nennt man eine
Trajektorie. Eine Trajektorie im Phasenraum ist das Analogon zu einer Bahn q(t) im Konfigurationsraum. Beide beschreiben die zeitliche Entwicklung des Systems als parametrisierte Kurve.
96
p
p
hängen auch die Bewegungsgleichungen nicht explizit von der Zeit ab. Folglich ist mit t 7→
(q(t), p(t)) auch jede in der Zeit verschobene Kurve t 7→ (q(t − t0 ), q(t − t0 )) eine Trajektorie.
Es spielt keine Rolle, zu welchem Zeitpunkt wir das System in den gegeben Anfangszustand
versetzen. Es wird immer die gleiche Trajektorie durchlaufen, nur eben zu einer früheren oder
späteren Zeit.
Die zweite Eigenschaft ergibt sich aus der Tatsache, dass die Bewegungsgleichungen die Zeitentwicklung eindeutig festlegen. Daher geht durch jeden Punkt im Phasenraum genau eine Trajektorie. Die Trajektorien bilden eine Schar von Kurven, die den Phasenraum vollständig ausfüllen,
sich dabei aber niemals schneiden. Denn durch den Schnittpunkt würden dann mehrere Trajektorien verlaufen.
Beim harmonischen Oszillator können wir uns das recht einfach klar machen. Egal, welchen
Anfangszustand wir vorgeben, das System kehrt immer nach einer Periode T = 2π/ω in diesen
Zustand zurück. Die Trajektorien sind geschlossen Kurven, die alle die gleiche Periode T haben.
Es sind Ellipsen, die den Ursprung, also den Ruhepunkt des Oszillators bei q = 0 und p = 0
im Uhrzeigersinn umlaufen. Es gibt nur eine spezielle, “entartete” Trajektorie, die nur aus einem
Punkt besteht. Sie beschreibt den in der Gleichgewichtslage ruhenden Oszillator.
Ein etwas anderes Bild ergibt sich, wenn wir statt eines harmonischen Oszillators ein ebenes
Pendel betrachten. Wie wir bereits gezeigt haben, ist der Phasenraum in diesem Fall ein Zylinder. Die Pendellänge sei wieder `. Als kanonische Koordinaten verwenden wir die periodische
Ortskoordinate q ≡ q + 2π `, also die Auslenkung, und den konjugierten Impuls p. Die HamiltonFunktion nimmt dann die Form (15.38) an. In Abbildung 15.1(b) ist dieser Phasenraum grafisch
dargestellt. Wir müssen uns die Abbildung zu einem Zylinder aufgerollt denken, so dass die gestrichelte Linie am rechten Rand bei q = π ` mit der am linken Rand bei q = −π ` identifiziert
wird.
Als Anfangszustand wählen wir wieder einen Punkt auf der positiven p-Achse. Natürlich gilt
auch hier, dass von jedem Punkt genau eine Trajektorie ausgeht, die wir durch Lösen der Bewegungsgleichen (15.39) berechnen können. Wohin diese Trajektorie läuft, hängt nun jedoch vom
Wert des Anfangsimpulses ab. Für kleine Impulse oszilliert das Pendel um die Ruhelage und
verhält sich dabei näherungsweise wie der harmonische Oszillator. In der Nähe des Koordinatenursprungs ergibt sich in den Abbildungen 15.1(a) und (b) ein sehr ähnliches Bild. Jede Trajektorie kehrt nach einer gewissen Zeit, die für kleine Auslenkungen der Eigenperiode T = 2π/ω
entspricht, in den Ausgangszustand zurück.
Für große Impulse überschlägt sich das Pendel. Es kehrt dann auch nach einer gewissen Zeit
zum Anfangszustand zurück, jedoch wickelt sich die Trajektorie dabei um den Zylinder, statt den
Koordinatenursprung zu umrunden. Als Grenzfall zwischen diesen beiden Klassen von Trajektorien gibt es die Kriechbahn, bei der das Pendel nach unendlicher langer Zeit den oberen, instabilen
Gleichgewichtspunkt erreicht. Diese spezielle Lösung der Bewegungsgleichungen wurde bereits
in Aufgabe 5.16 diskutiert. Schließlich gibt es noch zwei spezielle Trajektorien, die jeweils nur
aus einem Punkt bestehen, nämlich die stabile Gleichgewichtslage bei q = 0 und p = 0, sowie
die instabile Gleichgewichtslage bei q = ±π ` und p = 0.
replacements
q
q
(a)
(b)
(c)
(d)
Abbildung 15.1: Der Hamiltonsche Fluss eines harmonischen Oszillators (a) und eines Pendels (b). Die Trajektorien des harmonischen Oszillators sind Ellipsen, die alle mit der gleichen
Kreisfrequenz ω durchlaufen werden. Beim Pendel gibt es oszillierende und sich überschlagende
Trajektorien. Die gestrichelten Linien sind die Niveaulinien der Hamilton-Funktion.
Während die Bahn jedoch zu jedem Zeitpunkt nur den Ort des Systems im Konfigurationsraum
festlegt, können wir auf der Trajektorie im Phasenraum gleichzeitig den Ort und den Impuls ablesen.
Eine Trajektorie ist eine Bahn (q(t), p(t)) im Phasenraum, die den Hamiltonschen
Bewegungsgleichungen genügt.
Für zwei sehr einfache mechanische Systeme sind in Abbildung 15.1 ein paar Trajektorien dargestellt. Die Abbildung (a) zeigt den Phasenraum eines harmonischen Oszillators, aufgespannt
durch die kanonischen Koordinaten (q, p). Wir wählen als Anfangszustand einen Punkt auf der
positiven p-Achse. Das System soll sich zum Zeitpunkt t = 0 am Ruhepunkt q 0 = 0 befinden
und einen Impuls p0 > 0 haben. Die zugehörige Lösung entnehmen wir aus (15.37),
p0
p(t) = p0 cos(ω t), mit a0 =
.
(15.57)
q(t) = a0 sin(ω t),
mω
Im Phasenraum ergibt sich eine Ellipse mit den Halbachsen p0 und a0 , wobei p0 der Anfangsimpuls und a0 die daraus resultierende Amplitude der Schwingung ist. Der Oszillator schlägt zuerst
in die positive q-Richtung aus, so dass die Ellipse im Uhrzeigersinn durchlaufen wird, wenn man
die Darstellung so wie in der Abbildung wählt, also q nach rechts und p nach oben aufträgt. Für
einige ausgewählte Werte von p0 sind die entsprechenden Trajektorien, jeweils für ein bestimmtes
Zeitintervall 0 ≤ t ≤ τ , in Abbildung 15.1(a) eingezeichnet.
Die Trajektorien im Phasenraum haben zwei wichtige Eigenschaften. Die erste beruht auf der
Tatsache, dass die Hamilton-Funktion in diesem Fall nicht explizit von der Zeit abhängt. Damit
97
relativ leicht explizit angeben. Gibt man als Anfangszustand (q 0 , p0 ) vor, so ist die eindeutige
Lösung der Bewegungsgleichung
Wir werden nun dieses Verhalten von Trajektorien im Phasenraum etwas allgemeiner beschreiben. Der Einfachheit halber nehmen wir dazu an, dass die Hamilton-Funktion, so wie in den
beiden gerade diskutierten Beispielen, nicht explizit von der Zeit abhängt. Dann können wir wie
folgt eine Abbildung des Phasenraumes auf sich selbst definieren. Wir geben irgendeinen Anfangszustand (q0 , p0 ) vor. Wir versetzen das System in diesen Zustand und warten eine Zeitspanne τ . Dann ist das System in einem Zustand (qτ , pτ ). Für jedes τ wird auf dieser Weise eine
Abbildung
χH (τ ) : P → P,
(q0 , p0 ) 7→ (qτ , pτ ).
(15.58)
q(t) = q0 cos(ω t) +
p(t) = p0 cos(ω t) − m ω q0 sin(ω t).
(15.60)
Die Abbildung (15.58) sieht also explizit wie folgt aus,
p
χH (τ ) : (q, p) 7→
q cos(ω τ ) +
sin(ω τ ) , p cos(ω t) − m ω q sin(ω t) . (15.61)
mω
definiert. Man nennt diese Schar von Abbildung den Hamiltonschen Fluss. Er gibt für jedes τ ∈ R
an, wie sich das System innerhalb einer Zeitspanne τ entwickelt. Jedem Anfangszustand wird ein
Endzustand zugeordnet.
Der Hamiltonsche Fluss ist für jedes τ ∈ R eine bijektive Abbildung des Phasenraumes auf
sich selbst. Das ergibt sich aus der Tatsache, dass wir die Bewegungsgleichungen natürlich auch
benutzen können, um die Trajektorie in die Vergangenheit fortzusetzen. Da die Bewegungsgleichungen nicht explizit von der Zeit abhängen sollen, gilt sogar ganz allgemein die Beziehung
χH (τ1 ) ◦ χH (τ2 ) = χH (τ1 + τ2 ).
p0
sin(ω t),
mω
Man kann sich leicht davon überzeugen, dass diese Schar von Abbildungen die Eigenschaft
(15.59) hat. Beim Pendel sieht der Fluss ein wenig komplizierter aus und lässt sich nicht mehr
in geschlossener Form angeben. Wir können aber weiterhin das Bild einer strömenden Flüssigkeit verwenden. Auf dem zylinderförmigen Phasenraum, der in Abbildung 15.1(b) dargestellt ist,
verläuft die Strömung im oberen Bereich nach rechts um den Zylinder herum, und im unteren Bereich nach links um den Zylinder herum. Dies entspricht dem Pendel, das sich entweder rechtsoder linksrum überschlägt. In der Mitte um den Koordinatenursprung bildet sich ein Wirbel, in
dem das Pendel um die Ruhelage oszilliert.
(15.59)
Aufgabe 15.14 Wie sieht der Hamiltonsche Fluss für ein freies Teilchen im dreidimensionalen
Raum aus?
Wenn sich das System erst über eine Zeitspanne τ1 entwickelt und dann über eine Zeitspanne τ2 ,
dann ist das Ergebnis das gleiche als würde es sich gleich über eine Zeitspanne τ 1 +τ2 entwickeln.
Setzen wir in (15.59) τ2 = 0, so ergibt sich χH (0) = id, was auch anschaulich klar ist. Wenn
wir dem System gar keine Zeit geben, sich zu entwickeln, so ist der Endzustand gleich dem Anfangszustand. Setzen wir schließlich τ1 = τ und τ2 = −τ , so finden wir χH (τ )−1 = χH (−τ ).
Die inverse Abbildung bekommen wir, indem wir das System in die jeweils umgekehrte Zeitrichtung entwickeln lassen.
Eine Schar von bijektiven Abbildungen eines Raumes auch sich selbst, die durch eine reelle
Zahl parametrisiert werden, und die zudem die Eigenschaft (15.59) haben, nennt man im allgemeinen einen Fluss. Dahinter steckt die anschauliche Vorstellung von einer strömenden Flüssigkeit. Verfolgt man die einzelnen Teilchen in einer strömenden Flüssigkeit über ein bestimmte
Zeitspanne, so wird auch dadurch eine Abbildung des Raumes, in dem die Strömung stattfindet,
auf sich selbst definiert. Wenn die Strömung stationär ist, als zeitunabhängig, so gilt für diese
Abbildungen die Gleichung (15.59).
Wir können uns den Hamiltonschen Fluss im Phasenraum, also die Zeitentwicklung eines mechanischen Systems, in diesem Sinne wie die Strömung einer Flüssigkeit vorstellen. Die in Abbildung 15.1 gezeigten Trajektorien ergeben sich, wenn man einzelne Teilchen in dieser Flüssigkeit
markiert und dann ihren Weg verfolgt.
Aufgabe 15.15 Kann man den Hamiltonschen Fluss auch dann noch definieren, wenn die
Hamilton-Funktion explizit von der Zeit abhängt?
Die Poisson-Klammer
Wir werden von nun an stets die Annahme machen, dass die Hamilton-Funktion nicht explizit
von der Zeit abhängt. Wir betrachten also nur solche mechanischen Systeme, die nicht “von außen” über zeitabhängige Zwangsbedingungen gesteuert werden. Über solche autonomen Systeme
macht die Hamiltonsche Formulierung der Bewegungsgleichungen einige sehr interessante Aussagen. Zwar lassen sich viele dieser Aussagen verallgemeinern, so dass sie auch für Systeme mit
zeitabhängiger Dynamik gelten. Dies führt aber nicht zu sehr viel tieferen Erkenntnissen.
Eine der wichtigsten Eigenschaften der Hamiltonschen Mechanik ist, dass sie eine sehr elegante Antwort auf die Frage gibt, ob ein System Erhaltungsgrößen besitzt und welche Größen
das gegebenenfalls sind. Unter einer Erhaltungsgröße verstehen wir dabei eine Funktion des Bewegungszustands, deren Wert sich zeitlich nicht ändert. Beispiele für solche Größen kennen wir
bereits aus der Newtonschen Mechanik von Punktteilchen, etwa den Gesamtimpuls oder den Gesamtdrehimpuls eines N -Teilchen-System. Diese Größen sind zeitlich konstant, wenn die Wechselwirkungen zwischen Teilchen bestimmte Eigenschaften haben. Diesen Zusammenhang wollen
wir nun systematisch untersuchen.
In der Hamiltonschen Formulierung ist der Bewegungszustand ein Paar (q, p), also ein Punkt
im Phasenraum P. Folglich wird eine Erhaltungsgröße durch eine Phasenraumfunktion A : P →
Die Zeitentwicklung eines mechanischen System wird durch einen Fluss im Phasenraum beschrieben.
Beim harmonischen Oszillator bildet der Fluss einen einzigen großen Wirbel um den Koordinatenursprung. Alles strömt gleichmäßig auf elliptischen Kurven. Wir können den Fluss sogar
98
R dargestellt, die jedem Bewegungszustand (q, p) eine reelle Zahl A(q, p) zuordnet. Als Beispiel für eine Phasenraumfunktion kennen wir bereits die Hamilton-Funktion H. Wenn sie nicht
explizit von der Zeit abhängt, handelt es sich um eine Abbildung H : P → R. Wir kennen auch
schon ihre physikalische Interpretation. Es ist die Gesamtenergie des Systems.
Wir wollen uns nun ganz allgemein fragen, wie sich der Wert einer Phasenraumfunktion mit
der Zeit ändert, wenn das System sich gemäß seinen Bewegungsgleichungen entwickelt. Dazu
müssen wir den Wert der Funktion A entlang einer Trajektorie (q(t), p(t)) auswerten. Das ergibt
eine Funktion A(t) = A(q(t), p(t)). Sie beschreibt die zeitliche Entwicklung der Größe A aus
der Sicht des Systems, das sich entlang der Trajektorie bewegt. Für die Ableitung dieser Größe
nach der Zeit gilt
dA
∂A
∂A
.
(15.62)
= q̇ µ µ + ṗµ
Ȧ =
dt
∂q
∂pµ
Die Funktion C heißt Poisson-Klammer von A und B. Man bezeichnet sie üblicherweise mit
einer geschweiften Klammer, in die man die beiden Funktionen A und B als Argumente einträgt.
Die Poisson-Klammer ordnet jedem Paar von Phasenraumfunktionen A und B eine
neue Phasenraumfunktion {A, B} zu.
Mit Hilfe dieser Notation können wir für die Zeitentwicklung einer beliebigen Phasenraumfunktion ganz einfach als
Ȧ = {H, A}
(15.66)
schreiben. Zu beachten ist hierbei nur, dass die Gleichung erst dann sinnvoll zu interpretieren ist,
wenn wir sowohl die Phasenraumfunktion A links als auch Phasenraumfunktion {H, A} rechts
entlang einer Trajektorie auswerten. Denn erst dann ist der Punkt, also die totale Zeitableitung,
ein sinnvolle Operation.
Nehmen wir nun an, die Phasenraumfunktion A sei eine Erhaltungsgröße. Dann gilt auf jeder
Trajektorie Ȧ = 0. Folglich hat auf die Funktion auf der rechten Seite von (15.66) auf jeder
Trajektorie den Wert Null. Da durch jeden Punkt im Phasenraum genau eine Trajektorie geht,
verschwindet also die Funktion {H, A} identisch.
Umgekehrt, wenn die Phasenraumfunktion {H, A} identisch verschwindet, dann folgt aus
(15.66), dass auf jeder Trajektorie Ȧ = 0 ist, also ist A eine Erhaltungsgröße. Wir haben damit den folgenden Satz bewiesen:
Wie üblich steht der Punkt bzw. d/dt für die totale Zeitableitung, also die Ableitung der Funktion t 7→ H(q(t), p(t)), während mit ∂/∂q µ bzw. ∂/∂pµ die partiellen Ableitungen nach den
Phasenraumkoordinaten bezeichnet werden, die in diesem Fall selbst wieder Funktionen der Zeit
sind.
Nun setzen wir in (15.62) die Hamiltonschen Bewegungsgleichungen ein. Das ergibt
∂H ∂A
∂H ∂A
dA
.
=
µ −
dt
∂pµ ∂q
∂q µ ∂pµ
(15.63)
Eine Phasenraumfunktion A ist genau dann eine Erhaltungsgröße, wenn {H, A} =
0 ist.
Wenn man sich den Ausdruck auf der rechten Seite genauer anschaut, stellt man fest, dass es sich
wieder um eine Phasenraumfunktion handelt. Sie wird in einer speziellen Art und Weise aus den
partiellen Ableitungen von A und H gebildet. Während auf der linken Seite die Ableitung entlang
einer Trajektorie steht, steht also auf der rechten Seite wieder eine Phasenraumfunktion.
Das hat folgenden einfachen Grund. Wenn wir wissen, in welchem Bewegungszustand sich das
System zu einem Zeitpunkt befindet, dann wissen wir auch, in welche Richtung es sich von dort
aus im Phasenraum bewegen wird. Folglich wissen wir auch, wie sich eine gegebene Funktion
A(q, p) zeitlich entwickeln wird, ohne die Trajektorie selbst kennen zu müssen.
Wir können nun ein sehr einfaches Kriterium dafür angeben, wann eine Phasenraumfunktion
eine Erhaltungsgröße ist, ohne dass wir uns dazu die Bewegungsgleichungen näher anschauen
müssen. Eine Funktion A(q, p) ist genau dann eine Erhaltungsgröße, wenn
∂H ∂A
∂H ∂A
=0
µ −
∂pµ ∂q
∂q µ ∂pµ
Die Gleichung {H, A} = 0 ist ein System von partiellen Differenzialgleichungen für die Koordinatendarstellung A({q µ }, {pµ }) der Phasenraumfunktion A. Wir haben also die Suche nach
Erhaltungsgrößen auf das Lösen dieser Differenzialgleichungen zurückgeführt. Allerdings wäre
es sehr mühsam, dies für ein gegebenes System explizit durchzuführen, um alle möglichen Erhaltungsgrößen zu finden. Wir werden daher zunächst ein paar Sätze über die Poisson-Klammer
beweisen, die diese Suche nach Erhaltungsgrößen erheblich vereinfachen.
Aufgabe 15.16 Auch die Ortskoordinaten q µ und die konjugierten Impulse pµ sind reellwertige
Phasenraumfunktionen. Man zeige, dass sich für sie die folgenden Poisson-Klammern ergeben,
{q µ , q ν } = 0,
(15.64)
C = {A, B} =
∂A ∂B
∂A ∂B
− µ
∂pµ ∂q µ
∂q ∂pµ
{pµ , q ν } = δµ ν ,
{pµ , pν } = 0.
(15.67)
Die Poisson-Klammern dieser speziellen Funktionen sind also sehr einfache Phasenraumfunktionen, nämlich konstante Funktionen mit dem Werten 0, 1 oder −1.
ist. Da solche Ausdrücke im folgenden öfters auftreten, ist es nützlich, dafür eine spezielle
Schreibweise einzuführen. Es seien A, B : P → R zwei Phasenraumfunktionen. Dann ordnen
wir ihnen eine dritte Phasenraumfunktion C : P → R zu, die wie folgt definiert ist
PoissonKlammer
{q µ , pν } = −δ µν ,
Aufgabe 15.17 Wir fassen die Phasenraumkoordinaten q µ und pµ zu einem einzigen Satz von
Koordinaten xm zusammen, wobei der Index m 2 N Werte annimmt, wenn das System N Freiheitsgrade hat. Man zeige, dass die Bewegungsgleichungen des Systems dann wie folgt geschrieben werden können,
ẋm = {H, xm }.
(15.68)
(15.65)
99
In dieser Form gelten die Bewegungsgleichungen auch dann noch, wenn x m beliebige krummlinige Koordinaten auf dem Phasenraum sind, also irgendwelche Funktionen von q µ und pµ ,
die einen Zustand eindeutig festlegen. Wie kann man das beweisen, ohne eine l ängere Rechnung
durchführen zu müssen?
Aufgabe 15.18 Es seien (x, y, z) die Ortskoordinaten eines Teilchens im dreidimensionalen
Raum und (px , py , pz ) die kanonisch konjugierten Impulse. Auf dem sechsdimensionalen Phasenraum P, der durch die Koordinaten (x, y, z, px , py , pz ) aufgespannt wird, betrachten wird die
Funktionen
A = p x 2 + py 2 + z 2 ,
B = p y 2 + p z 2 + x2 ,
C = p z 2 + px 2 + y 2 .
(15.69)
Man berechne die Poisson-Klammern {A, B}, {B, C} und {C, A}.
Aufgabe 15.19 Man beweise die folgende Kettenregel für Poisson-Klammern. Sind Ak (q, p), mit
k ∈ {1, . . . , K}, irgendwelche differenzierbaren Phasenraumfunktion, und ist F (a 1 , . . . , aK )
eine Funktion mit K reellen Argumenten, so ist F (q, p) = F (A1 (q, p), . . . , Ak (q, p)) wieder
eine Phasenraumfunktion. Für die Poisson-Klammer dieser Funktion mit einer anderen gilt
X ∂F
{F (A1 , . . . , Ak ), B} =
{Ak , B}.
(15.70)
∂Ak
k
Dieser Regel ist völlig analog zur Kettenregel für partielle Ableitungen und gilt natürlich auch im
zweiten Argument der Poisson-Klammer.
Die Poisson-Algebra
Die Poisson-Klammer definiert ein Produkt auf dem Raum aller beliebig oft differenzierbaren
Phasenraumfunktionen. Bezeichen wir diesen Raum wie in der Mathematik üblich mit C ∞ (P),
so wird das Produkt durch die Abbildung
{, } :
C ∞ (P) × C ∞ (P) → C ∞ (P),
(A, B)
7→ {A, B}
{A + B, C} = {A, C} + {B, C},
{u A, B} = u {A, B}.
{A, B} = −{B, A}.
{A, {B, C}} + {B, {C, A}} + {C, {A, B}} = 0.
(15.74)
Diese werden wir im folgenden einige Male benutzen, um Sätze über Erhaltungsgrößen zu beweisen.
Ein Produkt mit diesen drei Eigenschaften nennt man Lie-Produkt, und ein Vektorraum, auf
dem ein Lie-Produkt definiert ist, heißt Lie-Algebra. Der Vektorraum C ∞ (P) wird also durch die
Poisson-Klammer zu einer Lie-Algebra.
Nun gibt es auf diesem Raum aber noch ein zweites Produkt, nämlich das gewöhnliche, punktweise definierte Produkt von zwei Funktionen (A, B) 7→ A B. Setzen wir ein solches Produkt
von zwei Funktionen in die Poisson-Klammer ein, so finden wir nach einer kurzen Rechnung,
dass für je drei Funktionen A, B, C ∈ C ∞ (P) die Leibniz- oder Produktregel gilt,
LeibnizRegel
{A B, C} = {A, C} B + A {B, C}.
(15.75)
Das ist im wesentlichen die Produktregel für Ableitungen. Die Poisson-Klammer wirkt auf jedes
ihrer Argumente wie ein Ableitungsoperator. Es gelten formal die gleichen Rechenregeln wie für
das Ableiten von Funktionen.
Auf dem Vektorraum C ∞ (P) sind folglich zwei Produkte definiert, die gewöhnliche, punktweise Multiplikation von zwei Funktionen, und die Poisson-Klammer. Sie sind im Sinne der LeibnizRegel miteinander verträglich. Man kann das Bilden der Poisson-Klammer mit der gewöhnlichen
Multiplikation in der Reihenfolge vertauschen, wenn man Leibniz-Regel beachtet. Ein Vektorraum, auf dem in dieser Art und Weise zwei Produkte definiert sind, heißt Poisson-Algebra.
Der Funktionenraum C ∞ (P) aller beliebig oft differenzierbaren Phasenraumfunktionen ist eine Poisson-Algebra.
Aufgabe 15.20 Man beweise die Jacobi-Identität und die Leibniz-Regel durch Einsetzen der Definition der Poisson-Klammer und direktes Nachrechnen.
(15.72)
Dasselbe gilt natürlich für das zweite Argument, was sich auch unmittelbar aus der folgenden
Eigenschaft ergibt. Die Poisson-Klammer ist antisymmetrisch, das heißt für alle A, B ∈ C ∞ (P)
gilt
Antisymmetrie
JacobiIdentität
(15.71)
definiert. Die Bezeichnung “Produkt” ist deshalb gerechtfertigt, weil die Poisson-Klammer die
üblichen Eigenschaften eines Produktes hat, nämlich linear in beiden Argumenten zu sein. Der
Raum C ∞ (P) ist ein Vektorraum, das heißt wir können Phasenraumfunktionen addieren und mit
reellen Zahlen multiplizieren. Es gilt dann für alle A, B, C ∈ C ∞ (P) und alle u ∈ R
Linearität
Diese beiden Eigenschaften der Poisson-Klammer lassen sich sehr leicht aus der Definition
(15.65) ablesen. Die folgende Eigenschaft ist nicht sofort offensichtlich, lässt sich aber durch
explizites Nachrechnen überprüfen. Für drei Phasenraumfunktionen A, B, C ∈ C ∞ (P) gilt die
Jacobi-Identität
Aufgabe 15.21 Wir kennen bereits ein ganz anderes Lie-Produkt, n ämlich das Kreuzprodukt
auf einem dreidimensionalen metrischen Vektorraum. Man überzeuge sich davon, dass dadurch
tatsächlich eine Lie-Algebra definiert wird. Warum handelt es sich nicht um eine PoissonAlgebra?
Aufgabe 15.22 Auf dem zweidimensionalen Phasenraum eines mechanischen Systems mit einen
Freiheitsgrad seien die folgenden drei Funktionen definiert,
(15.73)
100
A1 = p 2 + q 2 ,
A2 = 2 p q,
A 3 = p2 − q 2 ,
(15.76)
wobei (q, p) ein kanonisches Koordinatensystem ist. Man berechne die Poisson Klammern dieser
Funktionen untereinander und verifiziere die Jacobi-Identit ät.
Aufgabe 15.23 Für ein Teilchen im dreidimensionalen Euklidischen Raum seien ri die Ortskoordinaten und pi die konjugierten Impulse. Die Komponenten des Drehimpulses sind dann
li = εijk rj pk .
(15.77)
Man berechne ihre Poisson-Klammern und zeige
{li , lj } = −εijk lk .
(15.78)
Wenn das Teilchen in freies Teilchen ist, dann gilt H = pi pi /(2 m). Man zeige, dass der Drehimpuls dann eine Erhaltungsgröße ist.
Aufgabe 15.24 Man beweise folgenden Satz. Sind A und B zwei Erhaltungsgr ößen eines mechanischen Systems, so ist auch C = {A, B} eine Erhaltungsgröße.
Der Energieerhaltungsatz
Was können wir nun mit der Poisson-Klammer und ihren Eigenschaften konkret anfangen? Wie
bereits gezeigt, haben wir mit der Poisson-Klammer ein zumindest prinzipiell sehr einfaches Verfahren zur Hand, mit dem wir testen können, ob eine gegebene Phasenraumfunktion A eine Erhaltungsgröße ist oder nicht. Wir müssen nur die Poisson-Klammer {H, A} ausrechnen. Wenn
sie identisch verschwindet, dann ist A eine Erhaltungsgröße, sonst nicht.
Eine ganz spezielle Erhaltungsgröße können wir sofort angeben. Es ist die Hamilton-Funktion
selbst. Wegen der Antisymmetrie gilt nämlich immer {H, H} = 0. Die einzige Voraussetzung, die
wir bei der ganzen Überlegung gemacht haben, ist, dass das System autonom ist, seine HamiltonFunktion also nicht explizit von der Zeit abhängt.
Ist die Hamilton-Funktion eines mechanischen System nicht explizit zeitabhängig,
so ist sie eine Erhaltungsgröße.
Das ist der Energieerhaltungsatz in der Hamiltonschen Mechanik. Er ergibt sich aus einer bestimmten Symmetrie des betrachteten Systems, nämlich der Symmetrie unter einer Zeitverschiebung. Ein System ist symmetrisch unter Zeitverschiebung, wenn es unabhängig davon, wann wir
einen bestimmten Anfangszustand herstellen, stets die gleiche Trajektorie durchläuft. Genau das
wird durch die Zeitunabhängigkeit der Hamilton-Funktion zum Ausdruck gebracht.
Wir hatten diese Tatsache bereits anhand der Beispiele in Abbildung 15.1 diskutiert. Wir betrachten nun die dort eingezeichneten Trajektorien noch einmal etwas genauer. Der Energieerhaltungsatz besagt, dass der Wert der Funktion H auf jeder Trajektorie konstant ist. Also folgen
die Trajektorien den Niveaulinien von H, die in der Abbildung als gestichelte Linien eingezeichnet sind. Für den harmonischen Oszillator sind dies Ellipsen, für das Pendel ergeben sich etwas
komplizierte Linien. In beiden Fällen folgen die Trajektorien dem Verlauf dieser Linien.
Für ein System mit nur einem Freiheitsgrad, dessen zweidimensionaler Phasenraum durch die
kanonischen Koordinaten (q, p) aufgespannt wird, hat dies eine interessante Konsequenz. Wir
können nämlich allein aus dem Verlauf der Niveaulinien von H bereits auf die möglichen Bewegungsformen des System schließen. Tatsächlich haben wir eine ganz ähnlich Diskussion bereits
in Kapitel 7 im Rahmen der Newtonschen Mechanik durchgeführt, um die Bewegungen eines
Systems mit nur einem Freiheitsgrad qualitativ zu beschreiben. Auch dort beruhte das Vorgehen
auf dem Energieerhaltungsatz.
Betrachten wir zum Beispiel den Phasenraum des Pendels in Abbildung 15.1(b), so erkennen wir, dass es im wesentlichen zwei Typen von Niveaulinien gibt, nämlich solche, die sich
um den Zylinder wickeln, und solche, die der Ursprung umrunden. Folglich gibt es auch zwei
Bewegungsformen des Pendels, nämlich das sich überschlagende und das oszillierende Pendel.
Dazwischen liegt die Kriechbahn als Grenzfall. Sie entspricht der speziellen Niveaulinien, die die
beiden Bereiche des Phasenraumes voneinander trennt.
An den zwei Gleichgewichtslagen bei q = 0 und p = 0 unten, sowie bei q = ±π` und p = 0
oben, weisen die Niveaulinien jeweils eine Besonderheit auf. Am stabilen Gleichgewichtspunkt
unten bilden sie kleine Kreise, oder genauer Ellipsen. Wie man sich leicht überzeugt, besitzt die
Hamilton-Funktion des Pendels dort ein lokales Minimum. Es ist sogar das absolute Minimum.
Insbesondere verschwindet dort auch der Gradient von H. Tatsächlich ist genau das das Kriterium für das Vorliegen eines Gleichgewichtspunktes im Phasenraum. Verschwindet nämlich der
Gradient der Funktion H(q, p), so folgt daraus
q̇ µ =
∂H
= 0,
∂pµ
ṗµ = −
∂H
= 0.
∂q µ
(15.79)
Das System verbleibt also für immer in diesem Zustand, wenn man ihn als Anfangszustand wählt.
Ob ein solcher Gleichgewichtszustand stabil oder instabil ist, können wir ebenfalls aus den
Niveaulinien ablesen. Bilden die Niveaulinien in der Nähe des Gleichgewichstpunktes geschlossene Kurven, so ist das Gleichgewicht stabil. Denn dann würde ein kleine Störung dazu führen,
dass das System in der Nähe des Gleichgewichts oszilliert. Das ist immer dann der Fall, wenn die
Hamilton-Funktion am Gleichgewichtspunkt ein lokales Minimum oder Maximum hat. Laufen
die Niveaulinien jedoch vom Gleichgewichtspunkt weg, so liegt ein Sattelpunkt des HamiltonFunktion vor. In diesem Fall ist das Gleichgewicht instabil, da sich das System bei einer kleinen
Störung auf einer solchen Niveaulinie weit vom Anfangspunkt entfernt.
Für ein System mit nur einem Freiheitsgrad lassen sich auf diese Weise allein aus der HamiltonFunktion und deren Niveaulinien bereits sehr viele Schlüsse über die Dynamik des Systems ziehen. Ausgangspunkt ist dabei der Energieerhaltungssatz und die geometrische Interpretation der
Bewegung als Trajektorie im Phasenraum. Für Systeme mit mehreren Freiheitsgraden ist dies
nicht mehr so einfach. Dann gilt zwar immer noch der Energieerhaltungsatz, aber die HamiltonFunktion hat keine Niveaulinien mehr, sondern höherdimensionale Niveauflächen. Zwar bewegt
sich das System dann immer noch auf einer solchen Niveaufläche, aber daraus allein können wir
noch nicht auf den Verlauf der Trajektorie schließen. Das Ziel ist es deshalb, weitete Erhaltungsgrößen zu finden.
101
Aufgabe 15.25 Man zeige, dass der Energieerhaltungssatz in der Lagrangeschen Mechanik wie
folgt formuliert werden kann. Hängt die Lagrange-Funktion nicht explizit von der Zeit ab, so ist
die Größe
∂L
(15.80)
E = q̇ µ µ − L
∂ q̇
eine Erhaltungsgröße. Ihr Wert auf einer physikalischen Bahn entspricht dem Wert der HamiltonFunktion auf der entsprechenden Trajektorie.
Aufgabe 15.26 Es gibt noch eine andere Situation, in der wir aus einer gegebenen Hamiltonfunktion sofort auf eine Erhaltungsgröße schließen können. Das hatten wir sogar schon an der
einer oder anderen Stelle verwendet. Nehmen wir an, die Funktion H h ängt von einer bestimmten
Ortskoordinate ϕ nicht ab. Das gilt zum Beispiel für die Hamilton-Funktion (15.46) des zweidimensionalen harmonischen Oszillators, dargestellt in Polarkoordinaten. Man zeige, dass dann
der kanonisch konjugierte Impuls pϕ eine Erhaltungsgröße ist. Man wende diesen Satz auf ein
freies Teilchen im dreidimensionalen Raum an. Welche Erhaltungsgr ößen findet man?
102
16 Symmetrien
Das Ziel dieses Abschnittes ist es, eines der wichtigsten Theoreme der theoretischen Physik zu
beweisen, das erstmals von Emmy Noether im Jahre 1905 formuliert wurde. Es stellt eine Beziehung her zwischen den Symmetrien eines Systems und seinen Erhaltungsgrößen. Ein sehr spezielles Beispiel für eine solche Beziehung kennen wir schon. Für ein Hamiltonsches mechanisches
System, dessen Bewegungsgleichungen zeitunabhängig, also symmetrisch unter Zeitverschiebungen sind, ist die Energie eine Erhaltungsgröße.
Es gibt verschiedene Versionen dieses Theorems in der klassischen Mechanik, die auf den
verschiedenen Formulierungen der Bewegungsgleichungen beruhen. Im Hamiltonschen Formalismus lässt sich das Noether-Theorem besonders elegant auf eine geometrische Art und Weise
aufschreiben und beweisen. Außerdem wird in es genau der gleichen Form später in der Quantenmechanik wieder auftauchen. Wir werden uns deshalb auf die Hamiltonsche Darstellung beschränken.
Sie ist zugleich auch die allgemeinste, denn anders als die oft in Mechanik-Lehrbüchern dargestellt Lagrangesche Formulierung sind hier keine komplizierten Fallunterscheidungen nötig,
um wirklich alle möglichen Symmetrien und damit alle Erhaltungsgrößen eines mechanischen
Systems zu erfassen. Allerdings erfordert das ein wenig Vorarbeit. Wir benötigen ein paar zusätzliche Begriffe, insbesondere den eines Flusses, sowie die geometrische Darstellung der PoissonKlammer durch eine symplektische Form als Tensorfeld. Beides werden wir in diesem Kapitel
einführen.
Nachdem wir diese Konzepte definiert und ihre Eigenschaften studiert haben, wird sich der
Beweis der Noether-Theorems in wenigen Zeilen erledigen lassen. Auch das ist ein Vorteil der
Hamiltonschen Formulierung. Nachdem man die mathematischen Strukturen eines Phasenraumes
erst einmal verstanden hat, ist das Noether-Theorem eigentlich etwas völlig selbstverständliches.
Dass sich dahinter eine tiefe mathematische Einsicht in die Struktur von mechanischen, und später
ganz allgemeinen Hamiltonschen Systemen verbirgt, fällt gar nicht mehr auf.
Allgemeine Phasenraumkoordinaten
Im letzten Kapitel haben wir den Hamiltonschen Fluss als eine geometrische Beschreibung der
Zeitentwicklung eines mechanischen System kennen gelernt. Außerdem haben wir die PoissonKlammer eingeführt, die je zwei Phasenraumfunktionen eine dritte zurordnet. Auch diese Zuordnung kann man geometrisch verstehen. Damit, und mit dem Zusammenhang zwischen diesen
beiden Strukturen, wollen wir uns nun näher befassen.
Der erste Schritt zu einer geometrischen Darstellung der Poisson-Klammer ist die Einführung
eines verallgemeinerten Koordinatensystems im Phasenraum P. Wir fassen dazu das Paar
(q, p) ∈ P zu einem Punkt x ∈ P zusammen, wobei wir P als affinen Raum oder als glatte
Mannigfaltigkeit auffassen, je nachdem, welches mechanische System wir gerade betrachten.
Anschließend führen wir auf dem Raum P ein Koordinatensystem {x m } ein. Der Index m
läuft über 2 N Werte, wenn N die Zahl der Freiheitsgrade, also die Dimension des Konfigurati-
onsraumes ist. Das Koordinatensystem {xm } kann völlig beliebig sein. Beliebig heißt nicht nur
krummlinig, sondern auch, dass wir in keiner Weise mehr zwischen “Orten” und “Impulsen”
unterscheiden müssen. Entscheidend ist nur, dass jeder Satz von 2 N reellen Zahlen {x m } genau einen Zustand x ∈ P festlegt und umgekehrt. Jedenfalls soll dies im Rahmen der üblichen
Einschränkungen gelten, die wir bei krummlinigen Koordinatensystemen, oder allgemeiner bei
Karten auf einer Mannigfaltigkeit machen müssen.
Wenn wir ein solches Koordinatensystem einführen, können wir die Hamilton-Funktion, genau
wie jede andere Phasenraumfunktion, als Funktion der Koordinaten {x m } darstellen. Aber reicht
das, um die Bewegungsgleichungen in diesen Koordinaten aufzustellen? Offenbar nicht, denn
wie sollen wir diese Koordinaten in die Hamiltonschen Bewegungsgleichungen (15.25) einsetzen,
wenn wir nicht wissen, welche Koordinaten Orte und welche Impulse sind?
Vielleicht hilft es, die folgende alternative Darstellung der Bewegungsgleichungen zu benutzen. Wir hatten gezeigt, dass wir die Zeitableitung jeder Phasenraumfunktion entlang einer Trajektorie durch die Poisson-Klammer (15.66) ausdrücken können, also
Ȧ = {H, A}.
(16.1)
Die neuen Phasenraumkoordinaten sind Funktionen in diesem Sinne. Jede einzelne Koordinate
xm ist eine reelle Funktion auf dem Phasenraum. Für die Zeitentwicklung der Koordinaten gelten
also die Gleichungen
ẋm = {H, xm }.
(16.2)
Dies ist tatsächlich ein vollständiger Satz von Bewegungsgleichungen. Wir geben als Anfangsbedingungen die Werte xm (0) = x0m vor, also den Anfangszustand x(0) = x0 , und können
dann die Gleichungen (16.2) integrieren. Wir erhalten eine Trajektorie x(t), dargestellt durch die
Koordinatenfunktionen xm (t).
Allerdings gibt es ein kleines Problem. Wie berechnen wir die Poisson-Klammer eigentlich?
Um die Definition (15.65) zu verwenden, benötigen wir auch wieder Orte und Impulse. Anscheinend wird durch die ursprünglich vorhandene Unterscheidung zwischen Orten q µ und Impulsen
pµ eine mathematische Struktur auf dem Phasenraum P definiert, die wir nicht mehr sehen, wenn
wir allgemeine Koordinaten xm verwenden. Ohne diese Struktur ist es offenbar nicht möglich, die
Bewegungsgleichungen aufzustellen. Die Kenntnis der Hamilton-Funktion allein genügt nicht.
Um herauszufinden, was für eine zusätzliche Struktur das ist, müssen wir noch einmal auf
ein kanonischen Koordinatensystem zurückgreifen, also eines, das zwischen Orten q µ und Impulsen pµ unterscheidet. Zwischen den beiden Koordinatensystemen vermittelt dann eine Übergangsfunktion, das heißt wir können wahlweise die “neuen” Koordinaten x m als Funktionen der
”alten” Koordinaten q µ und pµ darstellen, oder umgekehrt die alten Koordinaten q µ und pµ als
Funktionen der neuen Koordinaten xm .
Entsprechend können wir eine Phasenraumfunktion A : P → R wahlweise als Funktion der
neuen Koordinaten A(x) oder als Funktion der alten Koordinaten A(q, p) darstellen. Haben wir
103
Die Koordinate J hat also die Dimension Wirkung, und die Winkelvariable φ ist natürlich dimensionslos. Der Grund, warum man ein Polarkoordinatensystem im Phasenraum eines harmonischen Oszillators gerade so wählt, ergibt sich aus der folgenden sehr einfachen Darstellung der
Hamilton-Funktion. Man findet nämlich
zwei solche Funktionen gegeben, können wir wie folgt ihre Poisson-Klammer berechnen,
∂A ∂B
∂A ∂B
∂A ∂xm ∂xn
=
µ −
µ
∂pµ ∂q
∂q ∂pµ
∂xm ∂pµ ∂q µ
∂A ∂xm ∂xn
∂xm ∂xn ∂B
=
−
=
∂xm ∂pµ ∂q µ
∂q µ ∂pµ ∂xn
{A, B} =
∂A ∂xm ∂xn ∂B
∂B
n −
∂x
∂xm ∂q µ ∂pµ ∂xn
∂A
m
n ∂B
.
m {x , x }
∂x
∂xn
Hier haben wir A und B zuerst als Funktionen von q und p betrachtet, die Definition der PoissonKlammer eingesetzt, und anschließend, wie immer mit Hilfe der Kettenregel, die partiellen Ableitungen in das neue Koordinatensystem umgerechnet. Dazu haben wir A und B als Funktionen
von x aufgefasst.
Aus dem Ergebnis schließen wir, dass wir jede Poisson-Klammer von zwei Funktionen A(x)
und B(x) ausrechnen können, sobald wir die Poisson-Klammern {x m , xn } der Koordinaten miteinander kennen. Dann können wir auch die Klammern (16.2) ausrechnen und die Bewegungsgleichungen aufstellen. Die fundamentalen Klammern {xm , xn } können wir uns allerdings nur
verschaffen, indem wir auf ein kanonisches, also aus Orten und Impulsen bestehendes Koordinatensystem Bezug nehmen.
Da das alles bis jetzt sehr abstrakt ist, wollen wir die wesentlichen Schritte an einem einfachen
Beispiel noch einmal wiederholen. Der Phasenraum P sei der eines eindimensionalen harmonischen Oszillators. Das ist ein zweidimensionaler Raum, in dem ein Punkt, also ein Zustand durch
ein Paar (q, p) dargestellt wird. Genauer gesagt, (q, p) ist ein kanonisches Koordinatensystem auf
P, wobei q der Ort und p der konjugierte Impuls ist. Die Hamilton-Funktion soll wie üblich durch
m ω2 q2
p2
+
H(q, p) =
2m
2
H(J, φ) = ω J.
(16.3)
Da ω eine inverse Zeit ist, ergibt sich für H die Dimension Energie, wie es natürlich auch sein
muss. Die radiale Koordinate J ist also im wesentlichen die Energie des Oszillators und hat
damit auch eine physikalische Bedeutung, so wie bei einem Polarkoordinatensystem in den Euklidischen Ebene die radiale Koordinate der metrische Abstand vom Ursprung ist.
Allein mit der Feststellung, dass die Hamilton-Funktion in dem neuen Koordinatensystem diese einfache Form annimmt, können wir allerdings noch recht wenig anfangen. Um die Bewegungsgleichungen aufzustellen, müssen wir auch die Poisson-Klammern der neuen Koordinaten
kennen, und diese müssen wir uns aus der Koordinatentransformation (16.5) verschaffen. Da wir
zwei Koordinaten haben, benötigen wir vier Klammern. Allerdings sind zwei davon wegen der
Antisymmetrie gleich Null, und die anderen beiden sind bis aufs Vorzeichen gleich,
{J, J} = 0,
Die Definition weicht ein wenig von der sonst üblichen ab, insbesondere wegen der Wurzel und
dem Auftreten der Parameter m und ω. Wir müssen diese Parameter aber schon aus Dimensionsgründen verwenden. Da q und p unterschiedliche physikalische Dimensionen haben, können wir
nicht einfach p = R cos φ und q = R sin φ setzen, wobei R irgendeine radiale Koordinate ist.
Aufgabe 16.1 Man zeige, dass q genau dann die Dimension L änge und p die Dimension Impuls
hat, wenn J die Dimension Wirkung, also Energie mal Zeit oder Länge mal Impuls hat.
{φ, φ} = 0,
{J, φ} = −{φ, J}.
(16.7)
Wir müssen also nur eine einzige Klammer wirklich ausrechnen.
Aufgabe 16.2 Man löse die Koordinatentransformation (16.5) nach J und φ auf und zeige
{J, φ} =
(16.4)
gegeben sein. Die Federkonstante κ = m ω 2 haben wir durch die Masse und die Eigenfrequenz
ausgedrückt.
Wir führen nun ein spezielles Polarkoordinatensystem (J, φ) auf P ein, wobei J die radiale
Koordinate und φ die Winkelkoordinate mit der Periode 2π ist. Die Beziehung zu den kanonischen
Koordinaten (q, p) lautet
r
q
2J
sin φ,
p = 2 m ω J cos φ.
(16.5)
q=
ωm
(16.6)
∂J ∂φ ∂J ∂φ
−
= 1.
∂p ∂q
∂q ∂p
(16.8)
Die Klammern der neuen Koordinaten (J, φ) untereinander sind also genauso einfach wie die für
die alten Koordinaten (q, p). Die Bewegungsgleichungen sind sogar noch einfacher,
J˙ = {H, J} = {ω J, J} = ω {J, J} = 0,
φ̇ = {H, φ} = {ω J, φ} = ω {J, φ} = ω.
(16.9)
Die allgemeine Lösung ist
J(t) = J0 ,
φ(t) = φ0 + ω t,
(16.10)
mit zwei Integrationskonstanten J0 ≥ 0 und φ0 . Dass es sich dabei tatsächlich um die bekannten
Schwingungen des harmonischen Oszillators handelt, sieht man am besten, wenn man sich die
Situation anhand der Darstellung in Abbildung 16.1 anschaut.
Das Polarkoordinatensystem (J, φ) im Phasenraum ist so gewählt, dass die Kurven mit konstantem J die Niveaulinien der Hamilton-Funktion sind. Also läuft der Zustand auf einer Trajektorie mit J = konst um den Koordinatenursprung herum. Die Umlaufperiode ist 2π/ω, also ist
die “Winkelgeschwindigkeit” des Umlaufs gerade ω. Die Integrationskonstante J 0 bestimmt die
104
p
J
replacements
(c)
(d)
Indem wir die Koordinaten entsprechend anordnen, können wir sie immer auf die Form


0 ··· 0 1 ··· 0
 ..
.. .. . . .. 
 .
. . 
. .



0 ··· 0 0 ··· 1 

εmn = 
(16.12)
 −1 · · · 0 0 · · · 0 


 .. . .
. .
.. 
 .
. .. ..
. 
φ
p
0
(a)
(b)
Abbildung 16.1: Der Phasenraum eines harmonischen Oszillators, dargestellt in Orts- und Impulskoordinaten (a), sowie in einem speziell an die Dynamik angepassten Polarkoordinatensystem (b). Es ist jeweils dieselbe Trajektorie dargestellt, die in (b) den Koordinatenlinien
J = konst folgt.
Energie und damit die Amplitude der Schwingung, und φ0 ist die Phase, die angibt, in welchem
Zustand sich das System zur Zeit t = 0 befindet.
Wir sehen also, dass sich die Bewegungsgleichungen in diesem Fall durch die Wahl eines
bestimmten Koordinatensystems noch weiter vereinfachen lassen. Allerdings ist es jetzt nicht
mehr sinnvoll, von Orts- und Impulskoordinaten zu sprechen. Die Koordinaten (J, φ) haben keine unmittelbar anschauliche physikalische Interpretation im Sinne von messbaren Größen. Sie
beschreiben nicht des Ausschlag des Oszillators oder seine Geschwindigkeit oder dergleichen.
Statt dessen sind die neuen Koordinaten an die Dynamik des Systems angepasst. Damit ist
gemeint, dass eine der Koordinaten im wesentlichen die Hamilton-Funktion ist, und die PoissonKlammer wieder die kanonische Form hat, also die Klammern der Koordinaten miteinander gleich
Eins ist. Die Koordinaten J und φ verhalten sich wie eine Ortskoordinate und der konjugierte Impuls, jedenfalls wenn man von ihrer physikalischen Interpretation absieht und davon, dass es sich
um ein krummliniges Koordinatensystem mit den üblichen Einschränkungen an die Wertebereiche der Koordinaten handelt.
Lassen sich die Koordinaten xm eines ausgewählten Koordinatensystem genau wie zuvor die
Orte q µ und die Impulse pµ zu Paaren ordnen, so dass ihre Poisson-Klammern die Form (15.67)
haben, so nennt man das Koordinatensystem kanonisch. Für ein kanonisches Koordinatensystem
gilt also
(16.11)
{xm , xn } = −εmn ,
wobei εmn eine antisymmetrische (2 N )×(2 N )-Matrix ist, deren Einträge Null oder Eins sind.
· · · −1 0 · · · 0
bringen. Oben rechts steht eine N ×N -Einheitsmatrix, und unten links die negative N ×N Einheitsmatrix. Diese Matrix ergibt sich auch dann aus den Poisson-Klammern, wenn wir für
die Koordinaten xµ die ursprünglichen Orte q µ und Impulse pµ einsetzen. Für einen zweidimensionalen Phasenraum ist εmn nichts anderes als das Levi-Civita-Symbol.
Im Falle des harmonischen Oszillators sind sowohl das ursprüngliche Koordinatensystem (q, p)
als auch das neue Koordinatensystem (J, φ) kanonisch. Damit das Vorzeichen der Klammern
stimmt, müssen wir J als Impuls- und φ als Ortskoordinate auffassen, das heißt wir sollten eigentlich besser (φ, J) schreiben, wenn wir das Koordinatensystem kanonisch nennen wollen. Das
ist aber wegen der fehlenden physikalischen Interpretation als Ort und Impuls eine willkürliche
Festlegung. Würden wir φ durch −φ ersetzen, wäre J der Ort und φ der konjugierte Impuls.
Der Begriff eines kanonischen Koordinatensystems ist also sehr viel allgemeiner als der, den
wir im letzten Kapitel eingeführt haben. Entscheidend sind allein die Poisson-Klammern der
Koordinaten, nicht deren physikalische Interpretation als Orte und Impulse.
Darüber hinaus gibt es sogar einen Satz, den so genannten Gl ättungssatz, der besagt, dass
es unter bestimmten Bedingungen immer ein kanonisches Koordinatensystem gibt, in dem eine
der Koordinaten die Hamilton-Funktion ist. In diesem Koordinatensystem ist die Dynamik dann
besonders einfach. Alle bis auf eine Koordinate, nämlich die, die zu der Hamilton-Funktion kanonisch konjugiert ist, sind konstant, und diese eine Koordinaten ist eine lineare Funktion der
Zeit. Die Trajektorien sind also spezielle Koordinatenlinien, und in letzter Konsequenz bedeutet das, dass alle Phasenräume von mechanischen Systemen mit gleich vielen Freiheitsgraden im
wesentlichen die gleiche Struktur haben.
Der Beweise dieses Satzes erfordert allerdings Methoden aus der Theorie der differenzierbaren Mannigfaltigkeiten, die hier ein wenig zu weit führen würden. Oft hilft der Satz auch wenig,
wenn es darum geht, die Bewegungsgleichungen eines gegebenen Systems zu lösen, denn um
die Koordinaten zu konstruieren, muss man im wesentlichen genau das tun. Außerdem macht
er nur eine lokale Aussage über ein krummliniges Koordinatensystem. Über das globale Verhalten von Trajektorien macht er keine Aussagen. Wir begnügen uns daher, was die Konstruktion
von speziellen, an die Dynamik angepassten Koordinatensystem betrifft, mit dem Beispiel des
harmonischen Oszillators.
Aufgabe 16.3 Man betrachte denselben harmonischen Oszillator und f ühre eine lineare Koordi-
105
natentransformation von (q, p) nach (q̃, p̃) durch, mit
q = a q̃ + b p̃,
p = c q̃ + d p̃.
(16.13)
Man stelle die Hamiltonfunktion als Funktion von (q̃, p̃) dar, und berechne die Poisson-Klammer
{p̃, q̃}. Welche Bedingung muss man an die Konstanten a, b, c, d stellen, damit {p̃, q̃} = 1 ist?
Welche Bedingungen ergeben sich aus der Forderung, dass die transformierte Hamilton-Funktion
wieder die Darstellung
p̃2
m̃ ω̃ 2 q 2
H(p̃, q̃) =
+
(16.14)
2 m̃
2
hat? Wenn beide Bedingungen erfüllt sind, dann sind die Bewegungsgleichungen für (q̃, p̃) mit
denen für (q, p) identisch. Gibt es solche Koordinaten?
Aufgabe 16.4 Wenn man die Koordinaten auf dem Phasenraum beliebig w ählen kann, dann kann
man statt der Impulse auch die Geschwindigkeiten der Teilchen als Koordinaten verwenden. Wir
betrachten dazu ein einzelnes freies Teilchen im dreidimensionalen Raum. Seine Ortskoordinaten
sind ri , mit i ∈ {x, y, z}, und die dazu konjugierten Impulse sind pi , so dass für die HamiltonFunktion und die Poisson-Klammern
H=
pi pi
,
2m
{pi , rj } = δij
(16.15)
gilt. Man ersetze die Impulse pi durch die Geschwindigkeiten vi als Phasenraumkoordinaten. Wie
sieht dann die Hamilton-Funktion aus? Welche Poisson-Klammern ergeben sich f ür die Koordinaten untereinander? Welche Bewegungsgleichungen ergeben sich?
Die symplektische Struktur
Wir wollen nun etwas näher untersuchen, welche zusätzliche geometrische Struktur durch die
Poisson-Klammer auf dem Phasenraum definiert wird. Wir hatten bereits gezeigt, dass die Kenntnis der Klammern {xm , xn } der Koordinaten untereinander genügt, um alle anderen zu berechnen. In einem kanonischen Koordinatensystem sind diese Klammern gleich Null oder Eins. Nun
betrachten wir jedoch ein beliebiges Koordinatensystem. Dann sind die Klammern {x m , xn } wieder irgendwelche Phasenraumfunktionen. Bei 2 N Koordinaten gibt es (2 N ) 2 von diesen Klammern. Wir fassen sie zu einer (2 N )×(2 N )-matrixwertigen Funktion zusammen, die wir mit
Ω mn = {xm , xn }
(16.16)
bezeichnen. Einige Eigenschaften dieser Matrix folgen unmittelbar aus den entsprechenden Eigenschaften der Poisson-Klammer. Sie ist zum Beispiel antisymmetrisch
Ω mn = −Ω nm .
(16.17)
Zwei weitere nützliche Eigenschaften sind nicht sofort erkennbar. Wir werden sie aber gleich
beweisen. Die Matrix Ω mn ist invertierbar. Es gibt eine inverse Matrix Ωmn mit
Ω mn Ωnk = δ mk .
(16.18)
Die inverse Matrix ist dann natürlich ebenfalls antisymmetrisch,
Ωmn = −Ωnm .
(16.19)
Schließlich hat die Ableitung der Matrix Ω mn nach den Koordinaten, oder genauer die der inverse
Matrix Ωmn noch ein spezielle Eigenschaft. Die folgende zyklische Ableitung verschwindet,
∂m Ωnk + ∂k Ωmn + ∂n Ωkm = 0.
(16.20)
Bevor wir diese Eigenschaften allgemein beweisen, stellen wir zunächst fest, dass sie in einem
kanonischen Koordinatensystem erfüllt sind. Dann ist nämlich Ω mn = −εmn , mit der Matrix
aus (16.12). Diese Matrix ist offenbar invertierbar. Die inverse Matrix ist Ω mn = εmn , wobei
εmn dieselbe Matrix ist, die in zwei Dimensionalen wieder mit dem entsprechenden Levi-CivitaSymbol übereinstimmt. Man sieht sofort, dass dann die Eigenschaften (16.17–16.20) vorliegen.
In der letzten Gleichung verschwinden sogar alle drei Terme jeweils für sich.
Nun ist aber nicht jedes Koordinatensystem kanonisch. Man kann aber zeigen, dass sich die
Matrizen Ω mn und Ωmn beim Übergang von einem Koordinatensystem zu einem anderen wie
Tensoren zweiter Stufe transformieren. Etwas genauer, Ω mn ist ein Tensor der Stufe (2, 0), und
Ωmn ist ein Tensor der Stufe (0, 2).
Der Beweis ergibt sich unmittelbar aus den Eigenschaften der Poisson-Klammer. Weiter oben
haben wir gezeigt, wie man die Poisson-Klammer zweier beliebiger Funktionen berechnet, wenn
man die Klammern {xm , xn } der Koordinaten kennt. Die Gleichung (16.3) können wir jetzt wie
folgt schreiben. Für zwei Funktionen A(x) und B(x) gilt
{A, B} = Ω mn
∂A ∂B
= Ω mn ∂m A ∂n B.
∂xm ∂xn
(16.21)
Es sei nun {xa } ein anderes Koordinatensystem, das wir von dem Koordinatensystem {x m } durch
eine andere Indexmenge unterscheiden. Keines von beiden muss kanonisch sein. Dann können wir
die Koordinaten xa als Funktionen der Koordinaten xm auffassen und ihre Poisson-Klammern
berechnen. Das ergibt
∂xa ∂xb
(16.22)
Ω ab = {xa , xb } = Ω mn m
∂x ∂xn
Das ist das Transformationsverhalten eines Tensors der Stufe (2, 0) beim Übergang von einem
Koordinatensystem zum anderen.
Wir haben also gezeigt, dass durch die Poisson-Klammern der Koordinaten miteinander ein
Tensor Ω mn der Stufe (2, 0) definiert wird. Wie wir bereits in Kapitel 9 für eine Metrik gezeigt
106
haben, folgt dann aus der Invertierbarkeit der Matrixdarstellung dieses Tensors seine Invertierbarkeit in jedem Koordinatensystem, wobei die inverse Matrix Ωmn wie ein Tensor der Stufe (0, 2)
transformiert.
Es bleibt jetzt nur noch zu zeigen, dass auch die Gleichung (16.20) in jedem Koordinatensystem
gilt. Dazu muss man zeigen, dass die linke Seite wie ein Tensor der Stufe (0, 3) transformiert. Wir
erinnern uns, dass die Ableitungen eines Tensors nach den Koordinaten in einem krummlinigen
Koordinatensystem im allgemeinen keinen Tensor liefert. Die einzelnen Terme werden also im
allgemeinen nicht verschwinden. Die zyklische Kombination der Ableitungen ist jedoch wieder
ein Tensor. Also gilt die Gleichung (16.20) in jedem Koordinatensystem.
Aufgabe 16.5 Es sei Amn ein antisymmetrisches Tensorfeld der Stufe (0, 2) auf einer Mannigfaltigkeit oder einem affinen Raum. Man zeige, dass dann
Bkmn = ∂k Amn + ∂m Ank + ∂n Akm
Einen Tensor Ωmn mit den oben beschriebenen Eigenschaften nennt man symplektische Form,
und den inversen Tensor Ω mn bezeichnet man als inverse symplektische Form. Einen Raum,
auf dem ein solcher Tensor definiert ist, ist ein symplektischer Raum. Das ist das geometrische
Äquivalent zu einer Poisson-Klammer.
Der Phasenraum eines mechanischen Systems ist ein symplektischer Raum.
Eine symplektische Form ist so etwas wie eine “antisymmetrische Metrik”. Genau wie eine Metrik können wir die symplektische Form invertieren, und wir können mit ihr Vektoren auf dualen
Vektoren abbilden und umgekehrt. Oder anders ausgedrückt, wir können mit Hilfe der symplektischen Form Indizes hoch und runter ziehen.
Tatsächlich spielt genau diese Tensoroperation eine Rolle, wenn wir die Bewegungsgleichungen mit Hilfe der symplektischen Form formulieren. Die Hamiltonschen Bewegungsgleichungen
(16.2) lassen sich jetzt nämlich wie folgt aufschreiben,
∂H ∂xk
= Ω mn ∂m H δ kn = Ω mk ∂m H.
∂xm ∂xn
Aufgabe 16.6 Es sei eine Mannigfaltigkeit M gegeben, auf der eine symplektische Form definiert
ist, also ein invertierbarer Tensor Ωmn mit den Eigenschaften (16.17–16.20). Durch (16.21) werde eine Poisson-Klammer definiert. Man zeige, dass die sie Eigenschaften (15.72–15.75) hat. Die
Definition einer symplektischen Form ist also zur Definition einer Poisson-Klammer äquivalent.
(16.23)
ein Tensor der Stufe (0, 3) ist. Man verallgemeinere diese Aussage f ür einen total antisymmetrischen Tensor Am ··· n der Stufe (0, l) mit l ≥ 0. Welche bereits bekannten Aussagen ergeben sich
für l = 0 und l = 1?
ẋk = {H, xk } = Ω mn
als eine wesentliche Struktur des Phasenraumes in die Bewegungsgleichung eingeht. Erst beide
Strukturen gemeinsam, also die Hamilton-Funktion und die symplektische Form, bestimmen die
Dynamik des Systems eindeutig.
Ansonsten gelten natürlich weiterhin die bereits früher gemachten Aussagen über Trajektorien,
also über die Lösungen der Bewegungsgleichungen (16.24). Durch jeden Punkt x ∈ P geht
genau eine Trajektorie, der Phasenraum wird vollständig von ihnen ausgefüllt, und sie können
sich niemals schneiden. All das folgt aus der speziellen Form der Bewegungsgleichung (16.24),
die die Zeitentwicklung x(t) festlegt, sobald der Anfangszustand x(0) = x 0 gegeben ist.
(16.24)
Die Zeitableitung des Zustandes ist ein Vektor mit den Komponenten ẋ k . Diesen bekommen wir,
indem wir den Gradient der Hamilton-Funktion ∂m H bilden, und diesem dualen Vektor mit Hilfe
der symplektischen Struktur Ω mn auf einen Vektor abbilden.
In diesem Form gilt die Bewegungsgleichung in jedem beliebigen Koordinatensystem. Sie hat
damit eine geometrische bekommen. Außerdem wird deutlich, dass es nicht aller ein HamiltonFunktion ist, die die Dynamik des Systems bestimmt, sondern dass auch die symplektische Form
Aufgabe 16.7 Warum kann eine symplektische Form nur auf einem Raum mit gerader Dimension
existieren?
Vektorfelder und Flüsse
Die symplektische Struktur des Phasenraumes ist die Grundlage zur Beschreibung der Symmetrien eines mechanischen Systems. Darüber hinaus benötigen wir noch den Begriff eines Flusses
eines Vektorfeldes. Da ist eine Verallgemeinerung des Hamiltonschen Flusses, den wir im vorigen
Kapitel zur Beschreibung der Zeitentwicklung eines Systems benutzt haben.
Wir betrachten zunächst irgendeinen affinen Raum oder eine Mannigfaltigkeit. Das spielt keine Rolle, da wir im folgenden keine Abstandsvektoren benutzen, sondern nur solche Operationen durchführen, die auch auf Mannigfaltigkeiten erlaubt sind. Den Raum bezeichnen wir
mit M. Das einzige, was wir benötigen, ist ein Vektorfeld ξ auf M, also eine Zuordnung
x ∈ M 7→ ξ(x) ∈ Tx M. Wenn dieses Vektorfeld hinreichend glatt ist, dann können wir die
“Bewegungsgleichungen”
λ̇(τ ) = ξ(λ(τ ))
(16.25)
aufstellen. Darin übernimmt τ ∈ R die Rolle der “Zeit”, der Punkt bezeichnet die Ableitung
nach τ , und λ(τ ) ist eine parametrisierte Kurve, die wir “Trajektorie” nennen können. Formal ist
die Situation genau dieselbe wie im Falle der Hamiltonschen Bewegungsgleichungen im Phasenraum.
Wenn wir die Gleichung (16.25) in Koordinaten ausschreiben, also ein Koordinatensystem
{xm } auf M einführen und das Vektorfeld in seine Komponenten ξ m (x) zerlegen, so bekommen wir ein System von gekoppelten Differenzialgleichungen erster Ordnung für die Koordinatenfunktionen λm (τ ),
λ̇m (τ ) = ξ m (λ(τ )).
(16.26)
Dieses Gleichungsystem hat eine eindeutige Lösung, sobald wir die Anfangsbedingung λ(0) = x
festlegen.
107
Analog zum Hamiltonschen Fluss definieren wir jetzt einen Fluss χ, der von dem Vektorfeld ξ
erzeugt wird. Der Fluss ist eine Abbildung
PSfrag replacements
Fluss
χ:
M × R → M,
(x, τ )
7→
χ(x, τ ),
χ̇(x, τ ) = ξ(χ(x, τ )),
χ(x, 0) = x.
χm (x, 0) = xm .
χ(x, τ1 + τ2 ) = χ(χ(x, τ1 ), τ2 ).
(16.30)
Sie ergibt sich, wie man sich leicht überlegt, aus der Differenzialgleichung (16.28). Wir hatten
uns das bereits für den Hamiltonschen Fluss überlegt. Wenn sich das System zuerst über eine
Zeitspanne τ1 von einem Zustand x in einen Zustand χ(x, τ1 ) entwickelt, und anschließend von
diesem Zustand über eine Zeitspanne τ2 in den Zustand χ(χ(x, τ1 ), τ2 ), so ist das Ergebnis dasselbe wie das einer Zeitentwicklung von x über eine Zeitspanne von τ 1 + τ2 , was den Endzustand
χ(x, τ1 + τ2 ) ergibt.
Aufgabe 16.8 Man beweise die Gleichung (16.30) formal mit Hilfe der Differenzialgleichung
(16.28).
Die Umkehrung dieses Satzes gilt auch. Man muss nur zusätzlich fordern, dass die Zuordnungen
x 7→ χ(x, τ ) für jedes τ bijektiv sind. Wenn eine solche Schar von Abbildungen χ : M × R →
M die Verkettungsregel (16.30) erfüllt, dann handelt es sich um einen Fluss, der von einem
Vektorfeld erzeugt wird. Der Beweis ist ganz einfach. Wir leiten die Gleichung (16.30) nach τ 2
ab und setzen anschließend τ1 = τ und τ2 = 0. Das ergibt
χ̇(x, τ ) = χ̇(χ(x, τ ), 0).
(16.31)
u
u
u
(a)
(b)
(c)
Abbildung 16.2: Das Vektorfeld (a) erzeugt eine Verschiebung, das Vektorfeld (b) eine Drehung,
und das Vektorfeld (c) eine hyperbolische Verzerrung.
Nun definieren wir ein Vektorfeld ξ(x) = χ̇(x, 0). Dann gilt offenbar
χ̇(x, τ ) = ξ(χ(x, τ )).
(16.29)
Der Punkt bezeichnet hier wie im folgenden immer die Ableitung nach dem Flussparameter τ ,
den wir uns als eine Art verallgemeinerte Zeit vorstellen können.
Eine wesentliche Eigenschaft jedes Flusses ist die Verkettungsregel
Verkettungsregel
v
(d)
(16.28)
Das ist dasselbe wie (16.25), nur dass wie hier quasi die Anfangsbedingung als Argument der
Funktion χ “mitschleppen”, so dass sich nicht nur eine Trajektorie τ 7→ λ(τ ), sondern eine
ganze Schar von Trajektorien τ 7→ χ(x, τ ) ergibt, nämlich eine für jeden Punkt x ∈ M.
Die Flussgleichung (16.25) können wir natürlich auch wieder in Komponenten zerlegen. In
einem Koordinatensystem {xm } wird der Fluss durch die Koordinatenfunktionen χm (x, τ ) dargestellt. Für sie gilt
χ̇m (x, τ ) = ξ m (χ(x, τ )),
v
(16.27)
mit der Eigenschaft, dass bei festgehaltenem x die Funktion λ(τ ) = χ(x, τ ) eine Lösung der
Bewegungsgleichung (16.25) ist, und zwar die zu der Anfangsbedingung λ(0) = x. Es gilt also
Flussgleichung I
v
(16.32)
Außerdem folgt aus der Verkettungsregel, wenn man τ1 = 0 setzt, χ(x, 0) = x. Dafür braucht
man die Bijektivität. Also ist χ der Fluss des Vektorfeldes ξ.
Definieren wir einen Fluss allgemein als eine Schar von bijektiven Abbildungen χ : M × R →
M, für die die Verkettungsregel erfüllt ist, dann gilt folgender Satz:
Jedes Vektorfeld erzeugt einen Fluss, und jeder Fluss wird von einem Vektorfeld erzeugt.
Das einfachste Beispiel für ein Vektorfeld ist ein konstantes Vektorfeld in einem affinen Raum. Sei
also E ein affiner Raum und ξ(x) = v ein konstantes Vektorfeld. Dann lautet die Flussgleichung
χ̇(x, τ ) = v,
χ(x, 0) = x,
(16.33)
die offenbar den Fluss
χ(x, τ ) = x + τ v
(16.34)
als eindeutige Lösung hat. Der zu einem konstanten Vektorfeld gehörende Fluss ist eine Verschiebung. Eine solche kann es natürlich nur auf einem affinen Raum geben. Auf einer glatten
Mannigfaltigkeit gibt es im allgemeinen keine konstanten Vektorfelder und auch keine Verschiebungen.
Weniger trivial ist das folgende Beispiel. Wir betrachten den dreidimensionalen Euklidischen
Raum. Es sei ein Koordinatenursprung o gegeben, und ein Einheitsvektor n. Dann definieren wir
ein Vektorfeld
ξ(r) = n × (r − o).
(16.35)
108
Der Fluss dieses Vektorfeldes ist eine Drehung des Raumes um die durch n aufgespannte Achse.
Das kann man sich leicht klar machen. Am Ort r zeigt das Vektorfeld ξ(r) in eine Richtung
senkrecht zu n und zum Ortsvektor r − o, und zwar so, dass es mit diesen ein Rechtssystem
bildet. Es verschwindet, wenn r auf der durch n aufgespannten Achse liegt, und steigt linear mit
dem Abstand von dieser Achse an.
Aufgabe 16.9 Um zu zeigen, dass der zugehörige Fluss tatsächlich eine Drehung ist, löse man
die Flussgleichung und zeige, dass die Lösung wie folgt dargestellt werden kann,
χ(x, τ ) = o + rk + cos τ r⊥ + sin τ n × r⊥ ,
(16.36)
wobei rk und r⊥ die Anteile die Anteile des Ortsvektors r − o parallel und senkrecht zu n sind,
r = o + r k + r⊥ ,
rk ∝ n,
r⊥ ⊥ n.
ξ u (u, v) = 2,
u
A(χ(x, −τ ), τ ) = A(χ(χ(x, −τ ), τ )) = A(x).
(16.37)
Aufgabe 16.10 In der Abbildung 16.2 sind drei Vektorfelder in einem zweidimensionalen Raum
mit den Koordinaten (u, v) dargestellt, und zwar
(a):
Das ist die um den Vektor −τ v verschobene Funktion. Der Fluss eines konstanten Vektorfeldes
auf einem affinen Raum bewirkt also eine Verschiebung der Funktion A in die dem Vektorfeld
entgegengesetzte Richtung.
Entsprechendes gilt für einen Fluss, der eine Drehung erzeugt. Das fließen einer Funktion unter
einem gegeben Fluss ist also nichts anderes als eine Verallgemeinerung dessen, was wir üblicherweise unter einer Verschiebung oder Drehung einer Funktion im Raum verstehen.
Um die Wirkung eines Flusses auf eine Funktion zu berechnen, müssen wir den Fluss selbst
gar nicht kennen. Es genügt, das erzeugende Vektorfeld zu kennen. Um das möglichst einfach
zu zeigen, benutzen wir folgenden Trick. Wir schreiben die Gleichung (16.39) um, indem wir x
durch χ(x, −τ ) ersetzen. Dann lautet sie
ξ v (u, v) = 1,
Nun leiten wir beide Seiten nach τ ab, wobei sich rechts Null ergibt, da A(x) nicht von τ abhängt.
Links müssen wir einmal nach dem Argument τ von A ableiten, und einmal nach dem Argument
−τ von χ. Das ergibt
Ȧ(χ(x, −τ ), τ ) − χ̇m (x, −τ ) ∂m A(χ(x, −τ ), τ ) = 0.
v
(b):
ξ (u, v) = −v,
ξ (u, v) = u,
(c):
ξ u (u, v) = v,
ξ v (u, v) = u.
(16.38)
Man bestimmen jeweils den von dem Vektorfeld erzeugten Fluss.
Aufgabe 16.11 Es sei Q der 3 N -dimensionale Konfigurationsraum eines N -Teilchen-Systems.
Durch die kartesischen Koordinaten rα,i mit α ∈ {1, . . . , N } und i ∈ {x, y, z} wird ein Koordinatensystem auf Q definiert. Wie sieht das Vektorfeld ξ mit den Komponenten ξ α,i aus, welches
als Fluss eine simultane Rotation aller Teilchen um einen Vektor n im Raum erzeugt?
Ȧ(χ(x, −τ ), τ ) − ξ m (χ(x, −τ )) ∂m A(χ(x, −τ ), τ ) = 0.
(16.39)
Wir können diese Abbildung als eine Schar von Funktionen M → R auffassen, mit einem Flussparameter τ . Die Funktion x 7→ A(x, τ ) geht aus der Funktion x 7→ A(x) durch eine von dem
Fluss erzeugte Transformation hervor.
Das einfachste Beispiel ist wieder die Verschiebung in einem affinen Raum. Setzen wir für den
Fluss (16.34) ein, so ist
A(x, τ ) = A(x + τ v).
(16.40)
(16.43)
Zum Schluss ersetzen wir χ(x, −τ ) wieder überall durch x, oder äquivalent dazu x durch
χ(x, τ ). Dann bekommen wir
Flussgleichung II
A(x, τ ) = A(χ(x, τ )).
(16.42)
Mit Ȧ(x, τ ) bezeichnen wir hier die Funktion, die sich durch Ableiten nach dem zweiten Argument ergibt, und mit ∂m Aτ (x, τ ) bezeichnen wir wie üblich die Ableitung nach den Koordinaten
des Punktes im ersten Argument der Funktion. Nun setzen wir für die Ableitung des Flusses das
Vektorfeld ein,
Invariante Funktionen
Wir betrachten nun eine Funktion A : M → R, also ein skalares Feld auf dem Raum M. Wenn
auf M ein Fluss χ : M × R → M definiert ist, so können wir diesen mit der Funktion A
verketten und auf diese Weise ein Funktion A : M × R → R definieren,
(16.41)
Ȧ(x, τ ) = ξ m (x) ∂m A(x, τ ) = ξ(x) · ∇A(x, τ ).
(16.44)
Diese Gleichung sagt uns, wie die Funktion A(x, τ ) unter dem Vektorfeld ξ fließt. Wenn wir noch
die Anfangsbedingung A(x, 0) = A(x) hinzunehmen, wird die transformierte Funktion A(x, τ )
durch diese Differenzialgleichung für alle τ ∈ R eindeutig bestimmt.
Es gibt also zwei Methoden, die Transformation einer Funktion A unter dem Fluss eines Vektorfeldes ξ zu berechnen. Man kann entweder zuerst den Fluss χ des Vektorfeldes bestimmen,
und dann diesen in die Funktion einsetzen, oder direkt die Flussgleichung (16.44) für die Funktion selbst lösen. Dies ist eine partielle Differentialgleichung für die Funktion A(x, τ ), die von den
Koordinaten {xµ } des Punktes x und von dem Flussparameter τ abhängt. Sie besagt, dass die
Ableitung nach dem Flussparameter gleich der Richtungsableitung in Richtung des erzeugenden
Vektorfeldes ist.
109
Ein wichtiges Konzept in diesem Zusammenhang ist das einer invarianten Funktion. Eine
Funktion ist unter dem Fluss eines Vektorfeldes invariant, wenn die transformierte Funktion, unabhängig vom Flussparameter, mit der ursprünglichen Funktion übereinstimmt. Wie man aus der
Flussgleichung (16.44) entnimmt, ist das genau dann der Fall, wenn die Richtungsableitung von
A(x) in Richtung des erzeugenden Vektorfeldes ξ(x) für alle x verschwindet,
ξ(x) · ∇A(x) = 0
⇔
A(x, τ ) = A(x).
(16.45)
Genau dann verschwindet nämlich die Ableitung Ȧ(x, τ ) für alle x und alle τ .
Eine Funktion A ist genau dann unter dem Fluss eines Vektorfeldes ξ invariant, wenn
die Richtungableitung ξ · ∇A überall verschwindet.
Als Beispiele betrachten wir noch einmal die Verschiebungen und Drehungen im dreidimensionalen Euklidischen Raum, den wir uns als den Konfigurationsraum eines Teilchens vorstellen
können. Es sei A(r) eine Funktion des Ortes r, und ξ(r) = v ein konstantes Vektorfeld. Dann ist
die Funktion A genau dann unter dem Fluss dieses Vektorfeldes invariant, wenn für alle τ ∈ R
A(r + τ v) = A(r)
(16.46)
gilt, oder äquivalent dazu, wenn die Richtungsableitung von A in Richtung von v überall verschwindet,
v · ∇A(r) = 0.
(16.47)
Ist zum Beispiel v = ex , so darf A nicht von der Koordinaten rx abhängen.
An diesem Beispiel sehen wir, dass die Invarianz einer Funktion unter dem Fluss eines Vektorfeldes etwas mit den Symmetrien dieser Funktion zu tun hat. Wenn eine Funktion A(r) nicht
von der Koordinate rx abhängt, dann ist sie symmetrisch unter Verschiebungen in x-Richtung. Ist
eine Funktion unter allen Verschiebungen invariant, so ist sie konstant und somit auch in einem
gewissen Sinne sehr symmetrisch.
Für Drehungen lässt sich ähnliches sagen. Betrachten wir das erzeugende Vektorfeld ξ einer
Drehung im Ortsraum (16.35) und verlangen, dass die Funktion A(r) invariant ist, so ergibt sich
die Gleichung
(n × (r − o)) · ∇A(r) = 0,
(16.48)
oder in Koordinaten ausgedrückt
εijk ni rj ∂k A(r) = 0.
(16.49)
Betrachten wir als Spezialfall n = ez , so ergibt sich die Forderung rx ∂y A − ry ∂x Ay = 0, die
genau dann erfüllt ist, wenn A eine Funktion von rz und ρ2 = rx 2 +ry 2 ist. Das bedeutet natürlich
nichts anderes als dass die Funktion rotationssymmetrisch um die z-Achse ist. Verlangt man, dass
die Gleichung (16.49) für alle Richtungen n der Drehachse erfüllt ist, so darf die Funktion A nur
von r2 = rx2 + ry2 + rz2 abhängen. Sie ist dann bezüglich jeder Achse rotationssymmetrisch,
also kugelsymmetrisch.
Aufgabe 16.12 Es sei Q der Konfigurationsraum eines N -Teilchen-Systems, r α,i die Ortskoordinaten der einzelnen Teilchen, und V eine skalare Funktion auf Q, zum Beispiel das Wechselwirkungspotenzial der Teilchen. Ein Vektorfeld ξ sei durch die Komponenten ξ α,i = ni definiert,
wobei ni ein Einheitsvektor im dreidimensionalen Raum ist. Welchen Fluss erzeugt dieses Vektorfeld? Welche Bedingung muss das Potenzial V erfüllen, damit es unter dem Fluss invariant
ist?
Aufgabe 16.13 Es sei Q der Konfigurationsraum eines N -Teilchen-Systems, r α,i die Ortskoordinaten der einzelnen Teilchen, und V eine skalare Funktion auf Q, zum Beispiel das Wechselwirkungspotenzial der Teilchen. Ein Vektorfeld ξ sei durch die Komponenten ξ α,i = εijk nj rα,k definiert, wobei ni ein Einheitsvektor im dreidimensionalen Raum ist. Welchen Fluss erzeugt dieses
Vektorfeld? Welche Bedingung muss das Potenzial V erfüllen, damit es unter dem Fluss invariant
ist?
Hamiltonsche Flüsse
Die bisher gemachten Aussagen über Vektorfelder und Flüsse gelten auf beliebigen affinen Räumen oder Mannigfaltigkeiten. Nun betrachten wir speziell den Phasenraum P eines mechanischen
Systems, auf dem als eine wichtige Struktur die symplektische Form Ω mn bzw. die inverse symplektische Form Ω mn definiert ist.
Man kann die inverse symplektische Form verwenden, um jeder Phasenraumfunktion F (x) ein
Vektorfeld ξF (x) zuzuordnen. Und zwar setzt man
Hamiltonsches
Vektorfeld
ξFn (x) = Ω mn (x) ∂m F (x).
(16.50)
Dieses Vektorfeld ist das der Funktion F zugeordnete Hamiltonsche Vektorfeld. Der zugehörige
Fluss χF heißt Hamiltonscher oder kanonischer Fluss von F . Für ihn gilt die Flussgleichung
χ̇Fn (x, τ ) = ξFn (χ(x, τ )) = Ω mn (χ(x, τ )) ∂m F (χ(x, τ )).
(16.51)
Wenn wir für die Funktion F die Hamilton-Funktion H einsetzen, so ist das Hamiltonsche Vektorfeld ξH (x) gerade die rechte Seite der Bewegungsgleichung (16.24), und der zugehörige Hamiltonsche Fluss gerade die Zeitentwicklung des Systems.
Man kann daher mit dem Hamiltonschen Fluss einer beliebigen Phasenraumfunktion F folgende anschauliche Vorstellung verbinden. Man stellt sich ein hypothetisches mechanisches System
vor, dessen Phasenraum der Raum P mit derselben symplektischen Form ist, dessen HamiltonFunktion jedoch F ist. Der zu F gehörende Hamiltonschen Fluss beschreibt dann die Zeitentwicklung dieses hypothetischen Systems.
Wir machen uns das an einem einfachen Beispiel klar. Es sei P der zweidimensionale Phasenraum eines mechanischen Systems mit einem Freiheitsgrad, und (q, p) ein kanonisches Koordinatensystem auf diesem Raum. Es gilt also {p, q} = −{q, p} = 1, oder äquivalent dazu
Ω pq = −Ω qp = 1. Die Hamilton-Funktion H dieses System ist im folgenden nicht von Belang.
110
Statt dessen betrachten wir die Funktion F (q, p) = p und stellen uns vor, dies sei die HamiltonFunktion eines anderen hypothetischen Systems mit einem Freiheitsgrad. Das zugehörige Hamiltonsche Vektorfeld ist
ξ q = Ω qq ∂q F + Ω pq ∂p F = 1,
ξ p = Ω qp ∂q F + Ω pp ∂p F = 0.
(16.52)
Offenbar erzeugt dieses konstante Vektorfeld einen Fluss in Richtung der positiven q-Achse. Die
Trajektorien dies hypothetischen Systems, dessen Hamilton-Funktion die Funktion F (q, p) = p
ist, sind Geraden in Richtung der q-Achse.
Wir können auch die Funktion F (q, p) = q betrachten und fragen, welchen Hamiltonschen
Fluss diese Funktion erzeugt. In diesem Fall gilt für das Vektorfeld
ξ q = Ω qq ∂q F + Ω pq ∂p F = 0,
ξ p = Ω qp ∂q F + Ω pp ∂p F = −1.
(16.53)
Der zugehörige Fluss ist eine Verschiebung in Richtung der negativen p-Achse. Ein hypothetisches System, dessen Hamilton-Funktion und damit dessen Energie durch F (q, p) = q gegeben
wäre, würde sich also auf Trajektorien bewegen, auf denen der Ort q konstant ist und der Impuls
p linear mit der Zeit abnimmt.
Ein solches mechanisches System ist natürlich nicht sehr realistisch. Aber darauf kommt es
bei dieser Betrachtung nicht an. Es geht nur darum, sich eine anschauliche Vorstellung davon
zu machen, was ein Hamiltonschen Fluss ist. Der im letzten Kapitel eingeführte, durch die reale Hamilton-Funktion H erzeugte Fluss, der die tatsächliche Zeitentwicklung des Systems beschreibt, ist nur ein Spezialfall eines solchen Flusses.
Man kann sich leicht überlegen, dass nicht jeder Fluss auf einem Phasenraum P ein Hamiltonscher Fluss sein kann. Es gibt nämlich sehr viel mehr Vektorfelder als skalare Funktionen auf P,
weil ein Vektorfeld durch mehrere reelle Koordinatenfunktionen dargestellt wird. Man kann also
nicht jedes Vektorfeld in der Form (16.50) darstellen. Hamiltonsche Flüsse haben aber eine sehr
spezielle Eigenschaft, die bei der Definition von Symmetrien eine wichtige Rolle spielt.
Wir betrachten dazu eine andere Phasenraumfunktion A(x) und die durch den Fluss des Vektorfeldes ξF erzeugte Transformation dieser Funktion, also die Funktion A(x, τ ), die durch die
Flussgleichung
Ȧ(x, τ ) = ξ n (x) ∂n A(x, τ ) = Ω mn (x) ∂m F (x) ∂n A(x, τ )
α
(16.55)
wobei wir A auf der linken Seite nach dem Flussparameter τ ableiten, während wir es rechts als
Funktion der Phasenraumkoordinaten auffassen, um die Poisson-Klammer zu bilden. Ein kanonischer Fluss wird lässt sich also durch die Poisson-Klammer beschreiben, ohne dass man zunächst
α
Nun sei A({rα }, {pα }, τ ) eine Phasenraumfunktion, die zusätzlich von einem Flussparameter τ
abhängt. Um den von der Funktion n · P erzeugten Fluss zu bestimmen, bilden wir die PoissonKlammer
X
X ∂(n · P ) ∂A
∂A
∂A ∂(n · P )
−
=
ni
.
(16.57)
Ȧ = {n · P , A} =
∂pα,i ∂rα,i
∂pα,i ∂rα,i
∂rα,i
α
α
Die Lösung dieser Gleichung lässt sich leicht angeben. Es ist
A({rα }, {pα }, τ ) = A({rα + τ n}, {pα }).
(16.58)
Offenbar ist dies eine Transformation, bei der gleichzeitig alle Orte der Teilchen um einen Vektor
τ n im Raum verschoben werden. Ein hypothetisches System, dessen Hamilton-Funktion n ·
P wäre, würde folgende Bewegung ausführen. Die Impulse der Teilchen wären konstant und
hätten keinen Einfluss auf die Bewegung im Ortsraum. Dort würden sich alle Teilchen mit der
Geschwindigkeit Eins in Richtung des Vektors n bewegen. Ihre relativen Positionen blieben dabei
erhalten.
Es ist offensichtlich, dass dies ein sehr unrealistisches physikalisches System ist. Aber man
kann sich so sehr gut den von der Funktion n · P erzeugten Fluss veranschaulichen. Man drückt
diesen Sachverhalt oft etwas verkürzt wie folgt aus:
Der Gesamtimpuls eines mechanischen System ist der Erzeuger einer Verschiebung
im Ortsraum.
(16.54)
bestimmt wird und vom Flussparameter τ abhängt. Offenbar können wir die rechte Seite dieser
Gleichung als eine Poisson-Klammer schreiben. Es gilt
Ȧ = {F, A},
ein erzeugendes Vektorfeld einführen muss. Wenn wir wieder das Bild eines hypothetischen mechanischen Systems mit der Hamilton-Funktion F verwenden, ist die Gleichung (16.55) völlig
analog zur Bewegungsgleichung (15.66) zu lesen.
Um zu zeigen, dass wir mit dieser Methode sehr leicht den Hamiltonschen Fluss zu einer
gegebenen Phasenraumfunktion bestimmen können, betrachten wir als etwas anspruchsvolleres
Beispiel den Phasenraum P eines N -Teilchen-Systems im Euklidischen Raum, mit kartesischen
Ortskoordinaten rα,i und den dazu konjugierten Impulsen pα,i . Die Phasenraumfunktion sei die
Komponente des Gesamtimpulses P in Richtung eines Einheitsvektors n,
X
X
n·P =
n · pα =
ni pα,i .
(16.56)
Analog zu Aufgabe 16.12 kann man feststellen, dass eine Phasenraumfunktion A genau dann
unter dem Hamiltonschen Fluss von n · P für alle Richtungen n invariant ist, wenn sie nur
von den Impulsen pα und den relativen Positionen rα − rβ der Teilchen abhängt. Hat die reale
Hamilton-Funktion H diese Eigenschaft, so hängt die Energie des N -Teilchen-Systems nur von
diesen Größen ab. Das ist typischerweise für Systeme ohne äußere Kräfte der Fall.
Aufgabe 16.14 Man zeige entsprechend, dass durch die Phasenraumfunktion
X
X
n·L=
n · (rα × pα ) =
εijk ni rα,j pα,k ,
111
α
α
(16.59)
Für das oben dargestellte Beispiel eines N -Teilchen-Systems bedeutet das, dass die PoissonKlammern von Funktionen unter Drehungen und Verschiebungen invariant sind. Darin drückt
sich eine wesentliche Symmetrie von mechanischen Systemen von Punktteilchen aus, die mit der
eigentlichen Dynamik noch gar nichts zu tun hat. Denn wir haben die Hamilton-Funktion bisher
noch gar nicht in die Betrachtungen einbezogen.
also durch die Komponente des Gesamtdrehimpulses, eine simultane Rotation aller Teilchen um
den Ursprung erzeugt wird, wobei die Drehachse durch den Vektor n vorgegeben ist. Wie sieht
hier die hypothetische Bewegung der Teilchen aus? Warum ändern sich dabei auch die Impulse?
Auch dies lässt sich wieder in einem Satz zusammenfassen:
Der Gesamtdrehimpuls eines mechanischen System ist der Erzeuger einer Drehung
im Ortsraum.
Invarianz der Poisson-Klammer
Die typischen Symmetrien von mechanischen Systemen, die aus N frei im Raum beweglichen
Teilchen bestehen, und die wir schon in Kapitel 3 ausführlich untersucht haben, lassen sich also
im Rahmen der Hamiltonschen Mechanik als Flüsse auf dem Phasenraum darstellen, die von
speziellen Funktionen erzeugt werden.
Etwas allgemeiner formuliert sehen wir, dass die kanonischen Flüsse, die von von bestimmten
Phasenraumfunktionen erzeugt werden, etwas mit den Symmetrien eines System zu tun haben.
Das hat auch einen Grund. Die kanonischen oder Hamiltonschen Flüsse haben nämlich eine spezielle Eigenschaft, die Flüsse im allgemeinen nicht haben.
Diese spezielle Eigenschaft von Hamiltonschen Flüssen ist, dass die Poisson-Klammer unter
solchen Flüssen invariant ist. Damit ist folgendes gemeint. Es seien A, B und C drei Phasenraumfunktionen, so dass {A, B} = C gilt. Nun transformieren wir diese Funktionen unter dem Fluss
einer Funktion F . Dann hängen A, B und C von einem Flussparameter τ ab, und es gilt
Ȧ = {F, A},
Ḃ = {F, B},
Ċ = {F, C},
(16.61)
Nun setzen wir G + {A, B} für C ein, und benutzen die Antisymmetrie und die Jacobi-Identität
(15.74) für die Poisson-Klammer. Das ergibt
Ġ = {F, G} + {F, {A, B}} + {B, {F, A}} + {A, {B, F }} = {F, G}.
C(x) = Ω mn (x) ∂m A(x) ∂n B(x).
(16.62)
Nun ist aber nach Voraussetzung G = 0 für τ = 0 und damit wird diese Flussgleichung durch
G = 0 für alle τ ∈ R eindeutig gelöst. Also gilt für alle τ ∈ R die Beziehung {A, B} = C.
Unter einem Hamiltonschen Fluss ist die Poisson-Klammer invariant.
Auch das ist wieder eine etwas verkürzte Formulierung, die man genauer interpretieren muss.
Gemeint ist damit, dass jeder Beziehung zwischen Phasenraumfunktionen, die man mit Hilfe der
Poisson-Klammer ausdrücken kann, unter einem Hamiltonschen Fluss erhalten bleibt.
(16.63)
Nun lassen wir diese Funktionen fließen, das heißt wir betrachten die Funktionen A(x, τ ),
B(x, τ ) und C(x, τ ), definiert durch die Flussgleichungen
Ȧ(x, τ ) = ξ k (x) ∂k A(x, τ ),
(16.60)
wobei sich für τ = 0 die ursprünglichen Funktionen ergeben. Wir wollen zeigen, dass die Beziehung {A, B} = C dann für alle τ gilt, das heißt zwischen den transformierten Funktionen gilt
die gleiche Beziehung wie zwischen den ursprünglichen Funktionen für τ = 0.
Um den Beweis zu führen, definieren wir eine Funktion G = C − {A, B}, die dann ebenfalls
von τ abhängt, und berechnen deren Ableitung nach τ . Es ist
Ġ = Ċ − {Ȧ, B} − {A, Ḃ} = {F, C} − {{F, A}, B} − {A, {F, B}}.
Wir wollen nun zeigen, dass auch die Umkehrung des letzten Satzes gilt. Wenn die PoissonKlammer unter einem gegebenen Fluss invariant ist, dann handelt es sich um den Hamiltonschen
Fluss einer Phasenraumfunktion. Dieser Beweis ist ein wenig komplizierter und trickreicher. Wir
müssen dazu auf das erzeugende Vektorfeld und die symplektische Struktur zurückgreifen.
Es sei also ξ m die Darstellung eines Vektorfeld auf einem Phasenraum P, und Ω mn bzw. Ω mn
die Darstellung der symplektischen Form in einem Koordinatensystem {x m }. Wie oben betrachten wir drei Funktionen A(x), B(x) und C(x) mit {A, B} = C, also
Ḃ(x, τ ) = ξ k (x) ∂k B(x, τ ),
Ċ(x, τ ) = ξ k (x) ∂k C(x, τ ).
(16.64)
Wir verlangen nun, dass auch für diese Funktionen die Beziehung {A, B} = C gilt. Daraus leiten
wir eine Bedingung an das Vektorfeld ξ µ ab. Es soll also für alle τ ∈ R gelten
C(x, τ ) = Ω mn (x) ∂m A(x, τ ) ∂n B(x, τ ).
(16.65)
Wir leiten beide Seiten nach τ ab und setzen (16.64) ein. Das ergibt
ξ k ∂k C = Ω mn ∂m ξ k ∂k A ∂n B + Ω mn ∂m A ∂n ξ k ∂k B .
(16.66)
Die rechte Seite der Gleichung (16.66) lässt sich wie folgt umformen,
Ω mn ∂m ξ k ∂k A ∂n B + ∂n ξ k ∂m A ∂k B + Ω mn ξ k ∂k ∂m A ∂n B .
(16.68)
Um die Darstellung ein wenig abzukürzen, lassen wir die Argumente x und τ weg. Wir müssen
jedoch beachten, dass alle vorkommenden Größen von x abhängen, und A, B und C zusätzlich
von τ .
Wir werten nun die linke Seite der Gleichung (16.66) aus, indem wir für C wieder (16.65)
einsetzen. Das ergibt
(16.67)
ξ k ∂k Ω mn ∂m A ∂n B = ξ k ∂k Ω mn ∂m A ∂n B + Ω mn ξ k ∂k ∂m A ∂n B .
112
Durch Umbenennen von Indizes, über die summiert wird, können wir das auch wie folgt schreiben,
(16.69)
Ω kn ∂k ξ m ∂m A ∂n B + Ω mk ∂k ξ n ∂m A ∂n B + Ω mn ξ k ∂k ∂m A ∂n B .
Nun verlangen wir, dass (16.67) und (16.69) gleich sind, und zwar für alle Funktionen A und
B. Genau dann ist nämlich die Poisson-Klammer unter dem Fluss des Vektorfeldes ξ m invariant.
Das führt auf die Bedingung
ξ k ∂k Ω mn − Ω kn ∂k ξ m − Ω mk ∂k ξ n = 0,
(16.70)
die als Forderung an das Vektorfeld ξ m zu verstehen ist. Das ist zunächst eine unübersichtliche
Kombination von partiellen Ableitungen. Sie lässt sich jedoch noch vereinfachen. Wir multiplizieren die Gleichung dazu mit Ωpm uns Ωnq und bekommen die äquivalente Bedingung
ξ k Ωpm ∂k Ω mn Ωnq − Ωpm ∂q ξ m − Ω nq ∂p ξ n = 0
(16.71)
skalaren Funktion. Um den Beweis zu motivieren, erinnern wir uns an eine schon vor langer
Zeit im Zusammenhang mit Vektorfeldern im dreidimensionalen Raum gestellte Frage. Wann ist
ein Vektorfeld, oder hier sollten wir besser sagen ein duales Vektorfeld, der Gradient eines skalaren Feldes? Die Antwort in Kapitel 7 war: genau dann, wenn die Rotation des Vektorfeldes
verschwindet.
Tatsächlich ist die antisymmetrisierte Ableitung ∂m ζn − ∂n ζm eines dualen Vektorfeldes ζm
eine Verallgemeinerung der Rotation. Man kann diese Ableitung auf jeder Mannigfaltigkeit bilden, ohne dafür eine Metrik oder einen antisymmetrischen Einheitstensor zu benötigen. Das wurde sogar in Aufgabe 13.25 schon gezeigt. Im Gegensatz zu den einzelnen Summanden ist die
antisymmetrische Kombination der Ableitungen wieder ein Tensor.
Dass die antisymmetrisierte Ableitung verschwindet, wenn ζm = ∂m F ist, ist sofort offensichtlich. Wir müssen aber die Umkehrung dieser Aussage beweisen. Der Beweis ist völlig analog zu
dem in Kapitel 7. Wir legen zunächst irgendeinen Punkt x0 ∈ P fest. Dann betrachten wir eine
Kurve λ(s) ∈ P, mit 0 ≤ s ≤ 1. Den Anfangspunkt der Kurve legen wir bei λ(0) = x 0 fest, und
der Endpunkt λ(1) = x sei variabel. Dann bilden wir das Wegintegral
Dabei haben wir benutzt, dass Ωpm bzw. Ωnq jeweils zu Ω mn inverse Matrizen sind. Daraus folgt
auch
Ωpm ∂k Ω mn Ωnq = ∂k (Ωpm Ω mn ) Ωnq − ∂k Ωpm Ω mn Ωnq = ∂k Ωpq .
0
(16.72)
Durch nochmaliges Umbenennen von Indizes lautet die an das Vektorfeld ξ m zu stellende Bedingung nun
(16.73)
ξ m ∂m Ωpq − Ωpm ∂q ξ m − Ω nq ∂p ξ n = 0
Nun verwenden wir noch die Identität (16.20), also das Verschwinden der zyklischen Ableitung
von der symplektischen Form. Damit lässt sich die Bedingung schließlich wie folgt schreiben,
∂q (Ωpm ξ m ) − ∂p (Ωqm ξ m ) = 0.
F [λ] =
(16.74)
Nach dieser etwas mühsameren Rechnung sehen wir, dass diese Bedingung für Hamiltonsche
Vektorfelder tatsächlich erfüllt ist. Setzen wir nämlich ξ m = Ω km ∂k F für eine beliebige Funktion F , so ist Ωpm ξ m = −∂p F und entsprechend Ωqm ξ m = ∂q F , und folglich ∂q ∂p F −∂p ∂q F =
0.
Nun müssen wir aber umgekehrt zeigen, dass jedes Vektorfeld ξ m , das die Gleichung (16.74)
erfüllt, ein Hamiltonsches Vektorfeld ist. Wir betrachten dazu das duale Vektorfeld ζ m = ξ n Ωnm ,
das offenbar die Eigenschaft
(16.75)
∂ m ζn − ∂ n ζm = 0
Z
1
ds λ0 (s) · ζ(λ(s)).
(16.76)
Wir bilden das Produkt des Tangentenvektors der Kurve mit dem dualen Vektorfeld ζ, ausgewertet
entlang der Kurve, und integrieren über die Kurve. Das Ergebnis betrachten wir als Funktional
der Kurve λ.
Was wir nun zeigen werden ist, dass das Funktional F gar nicht von der Kurve abhängt, sondern nur von ihrem Endpunkt x. Mit anderen Worten, das Funktional ändert seinen Wert nicht,
wenn wir die Kurve beliebig verformen oder reparametrisieren, solange wir nur die Endpunkte
festhalten. Oder noch ein wenig anderes formuliert, die Variation δF [λ] des Funktionals F [λ]
verschwindet für alle Variationen δλ der Kurve, solange wir die Endpunkte festhalten. Es ist
überall im Raum aller Kurven stationär.
Den Beweis können wir mit den uns nun zur Verfügung stehenden Mitteln aus der Variationsrechnung leicht führen. Wir schreiben den Integranden zunächst in Komponenten aus,
F [λ] =
Z
1
ds λ0n (s) ζn (λ(s)),
(16.77)
0
und führen dann eine Variation aus,
hat. Wenn wir zeigen können, dass es eine Phasenraumfunktion F gibt mit ∂ m F = ζm , dann sind
wir fertig. Es gilt dann nämlich Ω mn ∂m F = ζm Ω mn = ξ p Ωpm Ω mn = ξ n .
Wir müssen also folgenden allgemeinen Satz beweisen. Wenn die antisymmetrisierte Ableitung eines dualen Vektorfeldes verschwindet, dass ist das duale Vektorfeld der Gradient eines
113
δF [λ] =
Z
0
1
ds δλ0n (s) ζn (λ(s)) + λ0n (s) δζn (λ(s)) .
(16.78)
Den ersten Summanden formen wir durch eine partielle Integration um, für den zweiten benutzen
wie die Kettenregel, wonach
δζn (λ(s)) = δλm (s) ∂m ζn (λ(s))
(16.79)
ζq = −1,
gilt. Unter Berücksichtigung der entsprechenden Randterme ergibt sich
h
i1
δF [λ] = δλn (s)ζn (λ(s)) −
0
−
Z
0
1
ds δλn (s) λ0m (s) ∂m ζn (λ(s)) − λ0n (s) δλm (s) ∂m ζn (λ(s)) .
(16.80)
Wenn man nun die Indizes noch umbenennt und die Terme ein wenig sortiert, und außerdem den
Anfangspunkt λ(0) = x0 festhält, bekommt man
n
δF [λ] = δx ζn (x) −
Z
0
1
ds δλn (s) λ0m ∂m ζn (λ(s)) + ∂n ζm (λ(s)) .
erzeugten Fluss, also eine Verschiebung in Richtung der p-Achse. Die Poisson-Klammer ist unter
diesem Fluss invariant, wie man leicht durch Nachrechnen bestätigt. Mit der symplektischen Form
Ωqp = 1 und Ωpq ergibt sich für das oben definierte duale Vektorfeld
(16.81)
Ist der Phasenraum einfach zusammenhängend, so wird jeder Fluss, unter dem die
Poisson-Klammer invariant ist, von einer Phasenraumfunktion erzeugt.
(16.82)
wobei x = λ(1) der Endpunkt der Kurve ist. Daraus ziehen wir zwei Schlussfolgerungen. Erstens
hängt der Wert des Funktionals F [λ] nur vom Endpunkt x ab, es definiert also eine gewöhnliche
Funktionen F (x). Zweitens ist ∇F = ζ, denn genau das ist die Aussage der Gleichung (16.82).
Also haben wir eine skalare Funktion F (x) gefunden, deren Gradient das gegebene Vektorfeld ζ ist. Und damit haben wir auch die Aussage bewiesen, wonach jeder Fluss, unter dem die
Poisson-Klammer invariant ist, ein Hamiltonscher Fluss ist, der von einer Phasenraumfunktion
erzeugt wird. Da wir den Anfangspunkt der betrachteten Kurven beliebig wählen können, ist
diese Funktion nur bis auf eine Konstante bestimmt. Das ist auch klar, denn die Addition einer
Konstanten zu einer Phasenraumfunktion ändert den von ihr erzeugten Fluss nicht.
Allerdings gibt es im Beweis eine kleine Lücke. Wir haben nämlich nur gezeigt, dass sich der
Wert des Wegintegrals nicht ändert, wenn wir die Kurve verformen. Aber was passiert, wenn es
mehrere Kurven gibt, die den Vorgegeben Anfangspunkt x 0 mit dem Endpunkt verbinden, diese
aber nicht durch eine Verformung ineinander überführbar sind? Eine solche Situation ist sehr
leicht vorstellbar, und wir kennen sogar schon ein Beispiel für einen Phasenraum, in dem genau
das passiert.
Das ist der zylinderförmige Phasenraum eines Pendels, bei dem die Auslenkung q eine periodische Koordinaten mit q ≡ q + 2π` ist, während der konjugierte Impuls p eine gewöhnliche reelle
Koordinate ist. Betrachten wir als Beispiel den durch das Vektorfeld
ξ q = 0,
ξp = 1
(16.84)
Offenbar gilt hier ∂m ζn −∂n ζm = 0. Aber ist ζm = ∂m F der Gradient einer skalaren Funktionen.
Anscheinend schon, wenn wir F = −q setzen. Das ist aber gar keine wohldefinierte Funktion auf
dem Phasenraum, denn die Koordinate q ist periodisch und somit als Funktion nicht wohldefiniert.
Wie man sich leicht überlegt, ergibt sich dieses Problem aus der Tatsache, dass sich zwei Kurven auf einem Zylinder, die den gleichen Anfangs- und Endpunkt haben, nicht immer stetig ineinander deformieren lassen. Daher funktioniert der Beweis in diesem Fall nicht. Er ist nur dann
richtig, wenn der Phasenraum P einfach zusammenhängend ist. Das bedeutet, dass jede Kurve in
jede andere stetig deformiert werden kann, wenn Anfangs- und Endpunkt übereinstimmen. Auf
einem Zylinder ist das nicht der Fall, wohl aber zum Beispiel auf jedem affinen Raum.
Die Schlussfolgerung, die wir über Hamiltonschen Flüsse ziehen können, muss also etwas
eingeschränkt lauten:
Nach Voraussetzung verschwindet aber die antisymmetrisierte Ableitung, das heißt es bliebt nur
δF [λ] = δx · ζ(x),
ζp = 0.
(16.83)
Aufgabe 16.15 Das bedeutet natürlich nicht, dass der Satz auf einem nicht einfach zusammenhängenden Phasenraum gänzlich falsch wäre. Es ist nur so, dass nicht zu jedem entsprechenden Fluss eine Phasenraumfunktion gefunden werden kann. Betrachtet man statt dessen eine
Verschiebung in Richtung q als Fluss auf dem Phasenraum des Pendels, so findet man sehr wohl
eine Phasenraumfunktion, die diesen Fluss erzeugt. Welche ist das?
Aufgabe 16.16 Es sei ζm ein dualen Vektorfeld auf einer Mannigfaltigkeit und es gelte ∂m ζn −
∂n ζm = 0. Man zeige, dass ζm = ∂m F genau dann der Gradient einer skalaren Funktion F ist,
wenn für jede geschlossene Kurve das Wegintegral von ζm entlang der Kurve verschwindet, und
dass es genügt, dies für endlich viele Kurven zu überprüfen.
Das Noether-Theorem
Zum Abschluss dieser ganzen Vorüberlegungen beweisen wir nun das Noether-Theorem. Wie
schon eingangs erwähnt, handelt es sich um eine der wichtigesten und allgemeinsten Aussagen
über Hamiltonsche Systeme. Seine Bedeutung geht weit über die klassische Mechanik hinaus.
Verallgemeinerte Versionen dieses Satzes gelten auch in der Quantenmechanik, in der klassischen
Feldtheorie, etwa der Maxwellschen Elektrodynamik, und in der Quantenfeldtheorie, also der
Theorie der Elementarteilchen. Dort spielen Symmetrien eine sehr bedeutende Rolle, und zwar
im wesentlichen wegen der Gültigkeit des Noether-Theorems.
Die Aussage des Theorems lässt sich sehr knapp zusammenfassen:
114
Zu jeder Symmetrie eines Hamiltonschen Systems gehört eine Erhaltungsgr öße.
Zuerst müssen wir erklären, was wir unter einer Symmetrie verstehen. Zum Teil haben wir dies
schon getan. So hatten wir zum Beispiel festgestellt, dass eine Funktion unter dem Fluss eines
Vektorfeldes invariant ist, wenn ihre Richtungsableitung in Richtung des Vektorfeldes überall
verschwindet. In dieser Tatsache drückt sich eine bestimmte Symmetrie der Funktion aus, etwa
eine Rotationssymmetrie, wenn der Fluss eine Drehung beschreibt.
Darüber hinaus haben wir im letzten Abschnitt gezeigt, dass es auf einem Phasenraum spezielle
Flüsse gibt, unter denen die Poisson-Klammer invariant ist. Auch die Poisson-Klammer als eine
geometrische Struktur auf dem Phasenraum hat also bestimmte Symmetrien. Sie ist unter allen
Transformationen invariant, die sich als Hamiltonsche Flüsse darstellen lassen.
Um zu erklären, was eine Symmetrie eines mechanischen Systems ist, müssen wir diese beiden Begriffe nur noch miteinander kombinieren. Die Dynamik eines mechanischen Systems wird
durch seine Hamilton-Funktion H und die Poisson-Klammer {, }, oder äquivalent dazu die symplektische Form beschrieben. Beides sind geometrische Strukturen auf dem Phasenraum P. Ein
Symmetrie des Systems ist ein Fluss χ : P × R → P, der beide Strukturen invariant lässt.
Hängt zum Beispiel die Hamilton-Funktion eines N -Teilchen-Systems nur von den relativen
Positionen der Teilchen ab, so ist sowohl die Poisson-Klammer unter Verschiebungen im Raum
invariant, wie wir weiter ober allgemein gezeigt haben, als auch die Hamilton-Funktion. Denn
sie hängt in diesem Fall nur von den Impulsen und den relativen Positionen der Teilchen ab, und
diese ändern sich bei einer Verschiebung nicht.
Entsprechend sind sowohl die Poisson-Klammer also auch die Hamilton-Funktion unter Drehungen des Raumes invariant, wenn die Wechselwirkungspotenziale der Teilchen nur von deren
Abständen abhängen. Denn die kinetischen Energien der einzelnen Teilchen hängen nur von den
Beträgen der Impulse ab, die sich bei einer Drehung nicht ändern, und die Abstände der Teilchen
voneinander sind bei einer Drehung natürlich auch invariant. In den beiden beschriebenen Fällen
sind die Verschiebungen bzw. Drehungen also Symmetrien des Phasenraumes.
Doch kommen wir nun zum Beweis des Noether-Theorems. Wir nehmen also an, dass wir
einen Fluss χ : P × R → P gegeben haben, unter dem sowohl die Poisson-Klammer als auch die
Hamilton-Funktion invariant ist. Aus der ersten Voraussetzung folgt, wie wir weiter oben gezeigt
haben, dass es sich um einen Hamiltonschen Fluss handelt. Er wird von einer Phasenraumfunktion
F erzeugt, und das erzeugende Vektorfeld ist durch
ξ n = Ω mn ∂m F
(16.85)
gegeben. Wir nehmen dabei der Einfachheit halber an, dass der Phasenraum einfach zusammenhängend ist. Ansonsten ist die Funktion F möglicherweise nicht überall wohldefiniert.
Die zweite Voraussetzung besagt, dass die Hamilton-Funktion unter dem Fluss dieses Vektorfeldes invariant ist, also ihre Richtungsableitung verschwindet,
ξ n ∂n H = Ω mn ∂m F ∂n H = {F, H} = 0.
(16.86)
Damit haben wir den Beweis bereits erbracht. Die Poisson-Klammer von F mit H ist Null, also
ist F eine Erhaltungsgröße. Sie ist durch die Symmetrie, die sie als Fluss erzeugt, bis auf eine
Konstante bestimmt.
Dass der Beweis so einfach ist, beruht auf den umfangreichen Vorarbeiten, und auf einer speziellen Dualität der Hamiltonschen Bewegungsgleichungen. Betrachten wir nämlich die im vorigen
Kapitel hergeleitete Bedingung, dass eine Phasenraumfunktion F genau dann eine Erhaltungsgröße ist, wenn {H, F } = 0 ist, so fällt auf, dass diese Bedingung in einer speziellen Art und
Weise in H und F “symmetrisch” ist. Wir können die Rollen der beiden Funktionen H und F
vertauschen, ohne den Inhalt der Aussage zu verändern.
Es ist genau diese, auf den ersten Blick etwas merkwürdige Beobachtung, die in einem gewissen Sinne eine tiefere Begründung des Noether-Theorems liefert. Um uns das klar zu machen,
schreiben wir statt F H0 , und denken uns diese Funktion als die Hamilton-Funktionen eines anderen, hypothetischen mechanischen Systems. Es kommt nicht darauf an, ob sich ein solches System
tatsächlich realisieren lässt. Entscheidend ist nur, dass es denselben Phasenraum besitzt wie das
reale System, dessen Bewegungen durch die Hamilton-Funktion H beschrieben werden.
Zunächst sei H0 irgendeine Phasenraumfunktion. Dann können wir die dadurch erzeugten Bewegungsgleichungen des hypothetischen Systems betrachten. Nehmen wir an, dass die daraus abgeleiteten Trajektorien die Eigenschaft haben, dass die Funktion H auf ihnen konstant ist. Dann
würden wir sagen, dass H eine Erhaltungsgröße des hypothetischen Systems ist.
Wir können diese Aussage aber auch anders interpretieren. Wir können die Zeitentwicklung
des hypothetischen Systems als einen Fluss auf den Phasenraum betrachten, der die HamiltonFunktion H des realen Systems invariant lässt. Es handelt sich also um eine Symmetrie des realen
Systems. Zu jeder Symmetrie des realen Systems gehört daher ein hypothetisches Systems, beschreiben durch eine hypothetische Hamilton-Funktion H 0 , so dass H für dieses hypothetische
System eine Erhaltungsgröße ist.
Das Noether-Theorem beruht nun auf der Tatsache, dass die Funktion H genau dann eine Erhaltungsgröße des hypothetischen Systems ist, wenn die Funktion H 0 eine Erhaltungsgröße des realen Systems ist, denn in beiden Fällen lautet die Forderung {H, H 0 } = 0. Das Noether-Theorem
beruht also auf einer sehr eigentümlichen Struktur des Phasenraumes, die sich letztlich aus der
Tatsache ergibt, dass die Hamilton-Funktion, die die Zeitentwicklung erzeugt, nur eine unter vielen möglichen Phasenraumfunktionen ist.
Aufgabe 16.17 Folgende Aussage ist nun leicht als Spezialfall des Noether-Theorems zu beweisen. Es sei P der Phasenraum eines N -Teilchen-Systems im dreidimensionalen, Euklidischen
Raum. Die Hamilton-Funktion H hänge nur von den Impulsen und den relativen Positionen der
Teilchen ab. Dann ist der Gesamtimpuls P eine Erhaltungsgröße.
Aufgabe 16.18 In Kapitel 3 hatten wir für ein N -Teilchen-System im dreidimensionalen Raum
drei verschiedene Definitionen des Drehimpulses eingeführt. Den Gesamtdrehimpuls
X
L=
(rα − o) × pα ,
(16.87)
α
115
replacements
y
y
y
(d)
x
(a)
x
(b)
x
(c)
Abbildung 16.3: Verschiedene Versionen des Drehimpulses erzeugen verschiedenen Flüsse. Der
Gesamtdrehimpuls erzeugt eine Drehung des Systems als ganzes um den Ursprung (a). Der
Schwerpunktdrehimpuls rotiert den Schwerpunkt um den Ursprung, verändert aber nicht die
relativen Positionen der Teilchen (b). Der innere Drehimpuls erzeugt eine Drehung der Teilchen um den Schwerpunkt.
hatten wir bereits weiter oben als den Erzeuger von Drehungen um den Ursprung o des Koordinatensystems ausgemacht. der Schwerpunktdrehimpuls war durch
.X
X
X
J = (R − o) × P , mit P =
pα , R =
mα r α
mα ,
(16.88)
α
α
α
als der Drehimpuls eines hypothetischen Teilchens im Schwerpunkt des Systems definiert. Beide
hängen vom gewählten Koordinatenursprung o ab. Der innere Drehimpuls
S =L−J
(16.89)
ist dagegen vom Koordinatenursprung unabhängig. Man bestimme die von diesen Phasenraumfunktionen erzeugten Flüsse, die in Abbildung 16.3 schematisch dargestellt sind. Welche Bedingungen muss die Hamilton-Funktion erfüllen, damit es sich um Erhaltungsgrößen handelt?
116
(c)
(d)
17 Der starre Körper
z
1
3
z
Unter einem starren Körper verstehen wir ein ausgedehntes Objekt, das sich frei im Raum bewegen und drehen kann, seine Form dabei aber nicht verändert. Etwas genauer formuliert, die
Verteilung der Masse im Innern des Körpers soll sich zeitlich nicht verändern. Von der Mechanik
der Punktteilchen ausgehend, können wir uns vorstellen, dass es sich dabei um ein System von
vielen Teilchen handelt, deren Abstände zueinander durch Zwangskräfte festgehalten werden.
Als einfachstes Beispiel für einen solchen idealisierten starren Körper kennen wir bereits die
Hantel aus Abbildung 5.3. Wir können uns also vorstellen, dass die einzelnen Teilchen durch ‘virtuelle Stangen’ zusammengehalten werden, die den Abstand von jeweils zwei Teilchen fixieren.
Die einzigen verbleibenden Bewegungen sind dann eine Verschiebung des ganzen Körpers im
Raum, oder die Drehung des Körpers um eine Achse.
Das Ziel dieses Kapitels ist es, die Bewegungsgleichungen für einen starren Körper aufzustellen und seine wichtigsten mechanischen Eigenschaften zu verstehen.
z
y
˙1
˙3
y
˙2
2
y
x
x
x
(a)
(b)
Abbildung 17.1: Die Lage eines starren Körpers im Raum wird durch die Angabe einer Orthonormalbasis a definiert, die fest mit dem Körper verbunden ist (a). Rotiert der Körper, so ist
deren Zeitableitung ˙ a durch das Kreuzprodukt mit der Winkelgeschwindigkeit gegeben (b).
Geschwindigkeit und Winkelgeschwindigkeit
Für die Vektorindizes a, b, c, . . . gelten die üblichen Regeln. Über doppelt vorkommende Indizes
ist jeweils zu summieren, mit δab wird das Kronecker-Symbol bezeichnet, und mit εabc das LeviCivita-Symbol, dessen Vorzeichen durch ε123 = 1 festgelegt ist.
Wenn sich der Körper bewegt, so sind im allgemeinen auch die Vektoren n a Funktionen der
Zeit. Umgekehrt bestimmen diese Vektoren die Lage des Körpers eindeutig, so dass wir aus den
Funktionen na (t) die Rotationsbewegung des Körpers ablesen können. Daraus ergibt sich die
folgende Beschreibung der Bewegung eines starren Körpers im Raum:
Die Bahn eines starren Körpers wird durch die Angabe des Ortes r(t) des körperfesten Bezugspunktes sowie der körperfesten Basis na (t) zu jedem Zeitpunkt beschrieben.
Damit haben wir ein Beschreibung des Konfigurationsraumes eines starren Körpers angegeben. Um die Bewegungsgleichungen aufzustellen, müssen wir die zeitlichen Änderungen dieser
Um den Ort festzulegen, an dem sich ein starrer Körpers im Raum befindet, denken wir uns
einen speziell ausgewählten Punkt in dem Körper als Bezugspunkt markiert. Wie wir gleich sehen
werden, vereinfachen sich die meisten Gleichungen erheblich, wenn wir den Schwerpunkt als
Bezugspunkt verwenden. Wir legen uns aber an dieser Stelle noch nicht fest. Den Ort, an dem
sich der Bezugspunkt zur Zeit t im Raum befindet, bezeichnen wir mit r(t).
Zusätzlich müssen wir noch die genaue Lage des Körpers im Raum festlegen. Dazu denken wir
uns zusätzlich zum Bezugspunkt noch drei orthogonale Einheitsvektoren an den Körper angeheftet. Wie in Abbildung 17.1(a) gezeigt, bezeichnen wir diese Vektoren mit n a , wobei der Index a
die Werte {1, 2, 3} annimmt. Sie sollen eine positiv orientierte Orthonormalbasis bilden. Es gilt
also
na · nb = δab ,
na × nb = εabc nc .
(17.1)
Größen betrachten. Unter der Geschwindigkeit v(t) des Körpers verstehen wir einfach die Zeitableitung von r(t), also die Geschwindigkeit des Bezugspunktes,
v(t) = ṙ(t).
(17.2)
Um die Ableitung der Basis na nach der Zeit zu berechnen, müssen wir beachten, dass es sich
zu jeden Zeitpunkt um eine Orthonormalbasis handelt. Die Gleichung (17.1) gilt zu jeder Zeit t.
Folglich gilt für die Ableitungen der Basisvektoren na nach der Zeit
na · ṅb + ṅa · nb = 0.
(17.3)
Das ergibt sich unmittelbar aus (17.1), wenn man beide Seiten nach der Zeit ableitet. Wir wollen
zeigen, dass es einen eindeutig bestimmten Vektor ω gibt, mit der Eigenschaft
ṅa = ω × na .
(17.4)
Der Vektor ω, der im allgemeinen natürlich auch von der Zeit abhängt, wird als Winkelgeschwindigkeit bezeichnet. Die Zeitableitungen ṅa der Basisvektoren stehen senkrecht zu den jeweiligen
Basisvektoren und zur Winkelgeschwindigkeit. Wie man in Abbildung 17.1(b) erkennen kann,
führt der Körper eine Rechtsdrehung um eine Achse aus, die in die Richtung von ω zeigt.
117
Wir beweisen zuerst, dass der Vektor ω durch (17.4) eindeutig bestimmt ist. Dazu multiplizieren wir diese Gleichung skalar mit εabc nb , wobei dann über a und b zu summieren ist. Das
ergibt
εabc ṅa · nb = εabc (ω × na ) · nb = εabc (na × nb ) · ω
= εabc εabd nd · ω = εabc εabd ωd = 2 ωc .
(17.5)
Hier haben wir zuerst die zyklische Eigenschaft des Spatproduktes verwendet, dann das Kreuzprodukt der Basisvektoren ausgewertet, und schließlich haben wir benutzt, dass die Vektoren n a
eine Orthonormalbasis bilden, und den Vektor ω bezüglich dieser Basis in seine Komponenten
zerlegt. Es folgt somit aus (17.4)
ω = ω a na ,
mit ωa = ω · na =
1
εabc ṅb · nc .
2
(17.6)
Nun müssen wir noch zeigen, dass dieser Vektor auch tatsächlich die Gleichung (17.4) erfüllt.
Einsetzen ergibt
1
1
εabc (ṅb · nc ) na × nd = εabc εade (ṅb · nc ) ne
2
2
1
1
= (δbd δce − δbe δcd ) (ṅb · nc ) ne = (ṅd · ne − ṅe · nd ) ne .
2
2
ω × n d = ω a na × n d =
Das körperfeste Koordinatensystem
Im folgenden ist es nützlich, sich den starren Körper als ein System von Punktteilchen vorzustellen. Die Teilchen sollen durch Zwangskräfte so aneinander gebunden sein, dass sich der Körper
als ganzes frei bewegen, aber seine Form dabei nicht verändern kann. Konkret können wir uns
vorstellen, dass zwischen jeweils zwei Teilchen eine Zwangskraft wirkt, die den Abstand der
beiden Teilchen fixiert. Als einfachstes Beispiel für einen solchen idealisierten starren Körper
hatten bereits die Hantel in Abbildung 5.3 kennen gelernt. Ein etwas anspruchsvolleres Beispiel
war das Rad aus Kapitel 12. Nun wollen wir eine ganz allgemeine Anordnung von Punktteilchen
betrachten.
Aufgabe 17.2 Man stelle sich den Körper aus N Teilchen aufgebaut vor, die durch virtuelle Stangen miteinander verbunden sind. Wieviele solcher Stangen sind mindestens erforderlich, um den
Körper vollständig starr zu machen?
Wie üblich nummerieren wir die Teilchen mit einem Index α durch, und bezeichnen den Ort
des Teilchens α zur Zeit t mit rα (t). Jedes Teilchen nimmt dann einen festen Ort innerhalb
des Körpers ein. Wenn wir den Abstandsvektor uα = rα − r des Teilchens vom Bezugspunkt
bezüglich der körperfesten Basis na in seine Komponenten zerlegen, so sind diese Komponenten
zeitlich konstant. Es gilt also
(17.7)
rα (t) = r(t) + uα (t) = r(t) + uα,a na (t),
Addieren wir zu dem Ausdruck in der Klammer die Hälfte der linken Seite von (17.3), so ergibt
sich
(17.8)
ω × nd = (ṅd · ne ) ne = ṅd .
wobei die körperfesten Koordinaten uα,a des Teilchens nicht von der Zeit abhängen. Wir können
dabei den Bezugspunkt als Ursprung, und die Vektoren n a als die Basis eines kartesischen Koordinatensystems betrachten.
Die letzte Gleichung folgt wieder aus der Tatsache, dass die Vektoren n e eine Orthonormalbasis
bilden. Das Ergebnis fassen wir wie folgt zusammen:
Der Bewegungszustand eines starren Körpers wird durch den Ort r und die Geschwindigkeit v des Bezugspunktes, sowie die Orthonormalbasis na und die Winkelgeschwindigkeit ω festgelegt.
Wie wir aus der Mechanik der Punktteilchen wissen, legen die Bewegungsgleichung die zeitliche
Entwicklung eines Systems fest, sobald wir den Bewegungszustand, also die Orte und Geschwindigkeiten aller Teilchen, zu einem Zeitpunkt kennen. Wir werden jetzt zeigen, dass es sich bei den
angegebenen Größen um die entsprechenden Bewegungsgrößen eines starren Körpers handelt.
Aufgabe 17.1 Wieviele unabhängige reelle Zahlen muss man festlegen, um den Bewegungszustand eines starren Körpers eindeutig zu bestimmen?
(17.9)
Durch den Bezugspunkt r und die Basis na wird ein körperfestes Koordinatensystem definiert, in dem die Position jedes Teilchen innerhalb des Körpers durch zeitunabhängige Koordinaten festgelegt ist.
Dieser Sachverhalt ist in Abbildung 17.2(a) dargestellt. Das Teilchen befindet sich am Ort r α
innerhalb des Körpers. Der Vektor uα ist der Ortsvektor des Teilchens relativ zum Bezugspunkt
r. Seine Komponenten uα,a bezüglich der Basis na ergeben sich als die Projektionen auf die
mit {1, 2, 3} bezeichneten Koordinatenachsen. Da sich sowohl der Bezugspunkt als auch diese
Koordinatenachsen mit dem Körper mitbewegen, sind die Koordinaten u α,a des Teilchens zeitlich
unveränderlich.
Nun können wir leicht zeigen, dass wir den Bewegungszustand jedes einzelnen Teilchens aus
den oben definierten Bewegungsgrößen des starren Körpers bestimmen können. Der Ort ist durch
(17.9) gegeben, und die Geschwindigkeit des Teilchens ergibt sich zu
vα (t) = ṙα (t) = ṙ(t) + uα,a ṅa (t) = v(t) + uα,a ω(t) × na (t).
118
(17.10)
(c)
(d)
1
α
3
α
×
Dasselbe gilt für die Basisvektoren na . Sie lassen sich als Linearkombination der Basisvektoren
ei schreiben, wobei die Koeffizienten zeitabhängig sind. Da es sich um zwei Orthonormalbasen
handelt, bilden die Koeffizienten zu jedem Zeitpunkt eine orthogonale Matrix. Es gilt also
α
3
α
α
α
z
α
1
na (t) = Λai (t) ei ,
y
mit Λai (t) Λbi (t) = δab .
(17.12)
Diese Beziehung lässt sich auch umgekehrt schreiben, indem man die raumfesten Basisvektoren
als Linearkombination der körperfesten darstellt,
2
2
(a)
(b)
x
ei = Λai (t) na (t),
mit Λai (t) Λaj (t) = δij .
(17.13)
In einer expliziten Darstellung der Bewegung eines starren Körpers sind es also nicht drei Vektoren, die als Variable auftreten, sondern genau genommen eine orthogonale Transformation, die
die raumfeste Basis ei auf die körperfeste Basis na abbildet und dadurch die Lage des Körpers
festlegt. Wenn sich der Körper dreht, hängt diese Transformation natürlich von der Zeit ab.
Schließlich können wir auch noch die Winkelgeschwindigkeit in ihre Komponenten zerlegen,
und zwar wahlweise bezüglich der raumfesten oder der körperfesten Basis,
Abbildung 17.2: Die körperfesten und damit zeitunabhängigen Koordinaten uα,a des Teilchens α
sind die Komponenten des Abstandsvektors = α − vom Bezugspunkt, dargestellt bezüglich
der körperfesten Basis a (a). Jedes Teilchen trägt mit seinem Impuls α zu Gesamtimpuls bei
und mit dem Kreuzprodukt α × α zum inneren Drehimpuls (b).
ω(t) = ωi (t) ei = ωa (t) na (t).
Die Geschwindigkeiten der einzelnen Teilchen lassen sich folglich durch die Geschwindigkeit v
und die Winkelgeschwindigkeit ω des Körpers ausdrücken, die im allgemeinen ebenfalls Funktionen der Zeit sind. Die Kenntnis der Bewegungsgrößen r, n a , v und ω reicht somit aus, um den
Bewegungszustand jedes Teilchens zu bestimmen, sobald wir die körperfesten Koordinaten u α,a
des Teilchens kennen.
In diesem Sinne legen die Koordinaten uα,a der Teilchen den inneren Aufbau des Körpers fest,
während die Bewegungsgrößen seine Bewegung im Raum beschreiben. Wie wir gleich sehen
werden, gehören zum inneren Aufbau das Körpers noch andere Daten, wie zum Beispiel die
Massen mα der einzelnen Teilchen, oder deren Ladungen qα , wenn es sich um einen geladen
Körper handelt. Entscheidend ist, dass diese Größen zeitlich unveränderlich sind.
Nur die Bewegungsgrößen hängen von der Zeit ab. Für sie müssen wir die Bewegungsgleichungen aufstellen, wenn die die Bewegungen eines starren Körpers berechnen wollen. Bevor wir dies
tun, wollen wir uns noch kurz überlegen, wie wir eine solche Bewegung explizit, also letztlich
numerisch beschreiben können. Dazu müssen wir zusätzlich ein raumfestes Koordinatensystem
einführen, auf welches wir die Darstellung der Bahn beziehen.
Wie üblich bezeichnen wir den Ursprung dieses Koordinatensystems mit o, und die Basis mit
ei , wobei der Index i die Werte {x, y, z} annimmt. Ort und Geschwindigkeit des Bezugspunktes
lassen sich dann durch ihre Koordinaten bzw. Komponenten bezüglich dieses Koordinatensystems
ausdrücken,
(17.11)
r(t) = o + ri (t) ei , v(t) = vi (t) ei , mit vi (t) = ṙi (t).
(17.14)
Weiter oben hatten wir bereits die Komponenten ωa benutzt, um die Existenz einer Winkelgeschwindigkeit zu beweisen. Welche der beiden Darstellungen nützlicher ist, die körperfeste oder
die raumfeste, hängt oft von dem jeweils gestellten Problem ab. Wir können sie jederzeit ineinander umrechnen, denn aus (17.12) und (17.13) folgt die entsprechende Umrechnungsformel für
die Komponenten,
ωa (t) = Λai (t) ωi (t)
bzw. ωi (t) = Λai (t) ωa (t).
(17.15)
Aufgabe 17.3 Man zeige, dass sich die Zeitableitungen der Übergangsmatrizen wie folgt durch
die Komponenten der Winkelgeschwindigkeit ausdrücken lassen,
Λ̇ai = εijk ωj Λak = εabc Λbi ωc ,
(17.16)
und dass sich daraus umgekehrt die folgenden Ausdrücke für die Komponenten der Winkelgeschwindigkeit ergeben,
ωa =??εabc Λbi Λ̇ci ,
ωi =??εijk Λ̇aj Λak ,
(17.17)
Masse, Impuls und Kraft
Zur Herleitung der Bewegungsgleichungen für den starren Körper sind zwei Größen von zentraler
Bedeutung, nämlich der Gesamtimpuls und der innere Drehimpuls des Körpers. Für ein System
von einzelnen Teilchen hatten diese Größen bereits in Kapitel 3 eingeführt, und wir hatten gezeigt,
dass es sich dabei unter gewissen Voraussetzungen um Erhaltungsgrößen handelt.
119
Berechnen wir zunächst den Gesamtimpuls des Körpers. Für jedes einzelne Teilchen können
wir den Impuls aus (17.10) berechnen. Wenn mα die Masse des Teilchen ist, dann gilt
pα (t) = mα vα (t) = mα v(t) + mα uα,a ω(t) × na (t).
(17.18)
Der Gesamtimpuls des Körpers ergibt sich durch Summation über alle Teilchen,
X
X
X
P (t) =
pα (t) =
mα v(t) +
mα uα,a ω(t) × na (t).
(17.19)
Der Ausdruck in der ersten Klammer ist offenbar die Gesamtmasse des Körpers,
X
M=
mα .
(17.20)
α
α
M ṙ(t) = P (t),
Ṗ (t) = F (t)
α
α
Der erste Beitrag zum Gesamtimpuls ist folglich von der Form “Masse man Geschwindigkeit”.
Der zweite Beitrag, der zur Winkelgeschwindigkeit proportional ist, lässt sich durch geschickte
Wahl des Bezugspunktes eliminieren. Dazu berechnen wir den Schwerpunkt R des Körpers. Für
ihn gilt
R=
denn für die Zwangskräfte Zα gilt das dritte Newtonsche Gesetz. Sie heben sich gegenseitig als
Wechselwirkungskräfte auf, so dass die Summe über alle Teilchen verschwindet. Die zeitliche
Änderung des Gesamtimpulses P ist folglich durch die Gesamtkraft F gegeben, die sich wiederum als Summe aller auf die einzelnen Teilchen wirkenden Kräfte ergibt.
Aus (17.22) und (17.24) ergibt sich somit das folgende System von Gleichung für die Bewegung des Schwerpunktes des Körpers,
1 X
1 X
1 X
mα r α =
mα (r + uα,a na ) = r +
mα uα,a na .
M α
M α
M
α
(17.21)
Offenbar verschwindet sie Summe in der Klammer genau dann, wenn wir als Bezugspunkt r
den Schwerpunkt wählen, und genau in diesem Fall ist der Gesamtimpuls des Körpers durch den
einfachen Ausdruck
P (t) = M v(t) = M ṙ(t)
(17.22)
gegeben. Da dies, wie schon eingangs erwähnt, die folgenden Rechnungen erheblich vereinfacht,
wollen wir von nun an diese spezielle Wahl treffen.
Aus der Definition des Impulses lässt sich nun leicht die erste Bewegungsgleichung ableiten.
Auch dazu betrachten wir zuerst wieder die einzelnen Teilchen. Auf jedes Teilchen wirkt eine
äußere Kraft Fα und eine Zwangskraft Zα , die dafür sorgt, dass die Abstände des Teilchens zu
den anderen Teilchen unverändert bleiben. Beide Kräfte hängen im allgemeinen von der Zeit ab.
Somit gilt für jedes einzelne Teilchen die Bewegungsgleichung
ṗα (t) = Fα (t) + Zα (t).
(17.23)
Die einzelnen Zwangskräfte kennen wir nicht, aber wir müssen sie auch nicht kennen, um die Bewegungsgleichung für den starren Körper als ganzes zu bestimmen. Wir summieren dazu einfach
über alle Teilchen. Das ergibt
X
Fα (t),
(17.24)
Ṗ (t) = F (t) =
⇒
M r̈(t) = F (t).
(17.25)
Das sind formal die Bewegungsgleichung für ein punktförmiges Teilchen. Offenbar haben wir
damit gezeigt, dass sich ein ausgedehnter Körper, wenn wir von seiner Rotationsbewegung absehen, tatsächlich wie ein punktförmiges, in seinem Schwerpunkt befindliches Teilchen verhält.
Die Bewegung des Bezugspunktes, also des Schwerpunktes, entkoppelt anscheinend von der Rotationsbewegung.
Das ist aber nicht ganz richtig. Es kommt nämlich entscheidend darauf an, wovon die Kraft F
abhängt. Da es sich um die Summe über alle auf die einzelnen Teilchen wirkenden Kräfte handelt,
hängt diese Kraft im allgemeinen auch von den Orten und Geschwindigkeiten aller dieser Teilchen
ab, und somit auch von der räumlichen Lage und der Winkelgeschwindigkeit des Körpers. Wir
wollen uns das an ein paar einfachen Beispielen klar machen.
Aufgabe 17.4 Zunächst befinde sich der Körper entweder in einem homogenen Gravitationsfeld
g oder einem homogenen elektrischen Feld E, wobei die Teilchen dann zus ätzlich noch Ladungen
qα tragen sollen. Man zeige, dass in diesem Fall die Gesamtkraft durch
F =Mg
bzw. F = Q E
(17.26)
gegeben ist, wobei M die Gesamtmasse und Q die Gesamtladung des K örpers ist.
In einem homogenen elektrischen Feld bzw. einem homogenen Gravitationsfeld verhält sich ein
ausgedehnter Körper also tatsächlich wie ein Punktteilchen. Das gilt in guter Näherung auch
dann noch, wenn das Feld zwar inhomogen ist, aber auf einer Skala, die sehr viel größer ist als
die Ausdehnung des Körpers.
Als ein typisches Beispiel dafür hatten wir die Bewegung eines Planeten im Gravitationsfeld
der Sonne diskutiert. Innerhalb des Planeten kann das Gravitationsfeld der Sonne als homogen
angenommen werden, so dass die Gesamtkraft F tatsächlich nur vom Ort r des Schwerpunktes
des Planeten abhängt. Wir können nun sogar abschätzen, wie groß der Fehler ist, den wir dabei
machen.
Aufgabe 17.5 Bewegt sich der Körper in einem inhomogenen Gravitationsfeld g, so wirkt auf ein
Teilchen am Ort rα die Kraft
α
120
Fα = mα g(rα ) = mα g(r + uα,a na ).
(17.27)
Man entwickle diesen Ausdruck bis zur zweiten Ordnung in den Koordinaten u α,a in eine TaylorReihe und berechne daraus näherungsweise die Gesamtkraft. Man zeige, dass der Term erster
Ordnung verschwindet. Eine Abweichung von der Punkteilchen-N äherung, bei der man F =
g(r) setzt, tritt also erst dann auf, wenn die zweite Ableitung des Gravitationsfeldes von Null
verschieden ist.
Den Schwerpunktdrehimpuls hatten wir als den Drehimpuls eines fiktiven, im Schwerpunkt des
Systems lokalisierten Teilchens definiert, dessen Impuls der Gesamtimpuls des Systems ist. Für
den starren Körper lässt sich dieser unmittelbar aus den bereits eingeführten Bewegungsgrößen
berechnen,
X
J = (r − o) × P =
(r − o) × pα .
(17.32)
α
Aufgabe 17.6 Man zeige, dass der relative Fehler, den man bei der Berechnung der Kraft macht,
wenn man die Erde im Gravitationsfeld der Sonne als punktförmig betrachtet, von der Größenordnung Erdradius geteilt durch Bahnradius hoch zwei ist, also etwa 10 −9 .
Wie dieses Beispiel zeigt, gilt die Punktteilchen-Näherung nur dann, wenn der Körper so klein
ist, dass er die Inhomogenität eines Feldes nicht spürt. Geschwindigkeitsabhängige Kräfte führen
ebenfalls dazu, dass die Rotationsbewegung nicht mehr von der Schwerpunktbewegung entkoppelt, und somit der Körper nicht mehr als Punktteilchen betrachtet werden kann.
Aufgabe 17.7 Der Körper bewege sich in einem homogenen Magnetfeld B. Man zeige, dass auf
ihn die Gesamtkraft
(17.28)
F = Q v × B + χa (ω × na ) × B
wirkt, wobei Q wieder die Gesamtladung und χa die körperfesten Komponenten des elektrischen
Dipolvektors sind,
X
X
Q=
qα ,
χa =
qα uα,a .
(17.29)
α
α
Die Formel für die Lorentzkraft auf ein Punktteilchen, das sich im Schwerpunkt befindet, gilt also
nur dann, wenn der Dipolvektor des Körpers verschwindet. Das ist zum Beispiel dann der Fall,
wenn die Ladungsverteilung der Massenverteilung entspricht, also f ür alle Teilchen qα /mα =
q/m gilt.
Trägheitstensor, Drehimpuls und Drehmoment
Nun wollen wir die Bewegungsgleichungen für die Rotationsbewegung aufstellen. Die entscheidende Größe, die wir dazu benötigen, ist der innere Drehimpuls S. Wir erinnern uns, dass es für
ein System von Punktteilchen verschiedene Möglichkeiten gibt, einen Drehimpuls zu definieren.
Der Drehimpuls eines einzelnen Teilchens bezüglich eines raumfesten Bezugspunktes o ist durch
lα = (rα − o) × pα
(17.30)
gegeben, also durch das Kreuzprodukt des Ortsvektors mit dem Impuls, wobei der Ortsvektor
der Abstandsvektor zum Bezugspunkt o ist. Summieren wir über alle Teilchen, so ergibt sich der
Gesamtdrehimpuls zu
X
X
L=
lα =
(rα − o) × pα .
(17.31)
α
α
Für einen starren Körper bezeichnet man dieser Größe auch als Bahndrehimpuls. Sowohl der
Gesamtdrehimpuls als auch der Bahndrehimpuls hängen von der Wahl des Bezugspunktes o ab.
Ersetzen wir ihn durch einen anderen Bezugspunkt o0 , so hatten wir in Kapitel 3 gezeigt, dass
dann
L0 = J − (o0 − o) × P und J 0 = J − (o0 − o) × P
(17.33)
gilt. Beide Größen transformieren in der gleichen Art und Weise unter einer Verschiebung des
Bezugspunktes. Der innere Drehimpuls ist die Differenz S = L − J. Er ist folglich unabhängig
vom Bezugspunkt und eignet sich zur Beschreibung der Rotationsbewegung eines starren Körpers
daher besser als der Gesamtdrehimpuls.
Für einen starren Körper lässt sich der innere Drehimpuls leicht berechnen. Wir bilden einfach
die Differenz der Gleichungen (17.31) und (17.32),
X
X
(rα − r) × pα =
uα × p α
(17.34)
S =L−J =
α
α
Wie in Abbildung 17.2(b) gezeigt, trägt jedes Teilchen mit einem Beitrag zum inneren Drehimpuls bei, der sich aus dem Kreuzprodukt des Abstandsvektors vom Schwerpunkt mit dem Impuls
ergibt. In diesem Sinne ist der innere Drehimpuls, wie wir bereits in Abbildung 3 gesehen hatten,
so etwas wie der Gesamtdrehimpuls des System, wobei als Bezugspunkt aber nicht der Koordinatenursprung, sondern der Schwerpunkt gewählt wird.
Wie der Impuls lässt sich auch der Drehimpuls durch die Bewegungsgrößen des starren Körpers
ausdrücken. Wenn wir (17.18) in (17.34) einsetzen, ergibt sich
X
X
uα × p α =
mα uα,a na × (v + uα,b ω × nb )
S=
α
=
X
α
α
mα uα,a na × v +
X
α
mα uα,a uα,b na × (ω × nb ).
(17.35)
Der erste Term verschwindet, denn es handelt sich wieder um die Summe aus (17.21). Für das
doppelte Kreuzprodukt gilt
na × (ω × nb ) = (na · nb ) ω − (na · ω) nb = (δab ωc − δbc ωa ) nc .
(17.36)
Wenn wir nun noch ein paar Indizes umbenennen, lässt sich der innere Drehimpuls schließlich
wie folgt ausdrücken,
X
S=
mα (uα,c uα,c ωa − uα,a uα,b ωb ) na .
(17.37)
121
α
Noch einfacher wird dieser Ausdruck, wenn wir die Komponenten von S bezüglich der Basis n a
angeben. Dann ist
X
mα (uα,c uα,c δab − uα,a uα,b ).
(17.38)
S = Sa na , mit Sa = Θab ωb , Θab =
α
Die 3 × 3-Matrix Θab heißt Trägheitstensor. Es handelt sich offenbar um die zeitlich konstanten
Komponenten eines symmetrischen Tensors Θ zweiter Stufe bezüglich des körperfesten Koordinatensystems. Aufgefasst als lineare Abbildung bildet der Trägheitstensor die Winkelgeschwindigkeit auf den Drehimpuls ab. Mit der Notation aus (9) können wir dafür auch schreiben
denn die Zwangskräfte, die dafür sorgen, dass die Abstände der Teilchen konstant bleiben, sind
Zentralkräfte. Damit haben wir noch einmal gezeigt, dass Zentralkräfte den Gesamtdrehimpuls
eines Systems nicht verändern. Seine Zeitableitung hängt nur von den äußeren Kräften ab,
X
(rα − o) × Fα .
(17.44)
L̇ =
α
Für die Zeitableitung des Bahndrehimpulses ergibt sich aus (17.24)
X
(r − o) × Fα .
J˙ = (r − o) × Ṗ = (r − o) × F =
(17.45)
α
S = Θ(ω),
mit Θ = Θab na ⊗ nb .
(17.39)
Diese Beziehung ist analog zur Beziehung P = M v zu verstehen, die eine lineare Beziehung
zwischen Impuls und Geschwindigkeit herstellt. Zu beachten ist allerdings, dass der Trägheitstensor Θ, im Gegensatz zur Masse M des Körpers, von seiner Lage im Raum abhängt. Diese geht
also implizit in die lineare Beziehung (17.39) ein. Wie wir gleich sehen werden, lässt sich aber
auch diese Beziehung eindeutig umkehren, so dass aus dem Drehimpuls auf die Winkelgeschwindigkeit und damit die Rotationsbewegung des Körpers geschlossen werden kann.
Zuvor wollen wir jedoch die eigentliche Bewegungsgleichung aufstellen. Dazu müssen wir
die Zeitableitung des Drehimpulses berechnen. Wir gehen wieder von der Bewegungsgleichung
(17.23) für das Teilchen α aus. Für den Gesamtdrehimpuls folgt daraus
X
X
(rα − o) × ṗα =
(rα − o) × (Fα + Zα ).
(17.40)
L̇ =
α
β
α
(rα − o) × Zα =
X
α,β
(rα − o) × Zα,β = −
X
(rβ − o) × Zα,β .
(17.42)
α,β
Die letzte Gleichung ergibt sich, indem wie zuerst die Indizes α und β vertauschen, und anschließend benutzen, dass Zα,β = −Zβ,α ist. Addieren wir die beiden letzten Ausdrücke, so ergibt
sich
X
X
(rα − o) × Zα =
(rα − rβ ) × Zα,β = 0,
(17.43)
2
α
α
α
Der Vektor M wird als Drehmoment bezeichnet. Es setzt sich wieder aus Beiträgen der einzelnen
Teilchen zusammen, wobei jeweils das Kreuzprodukt des Abstandsvektors vom Bezugspunkt mit
der Kraft zu bilden ist. Das Bild ist das gleiche wie in Abbildung 17.2(b), wobei der Impuls p α
durch die Kraft Fα zu ersetzen ist.
Die Bewegungsgleichungen des starren Körpers lassen sich damit wie folgt kompakt zusammenfassen. Sie bilden ein System von Differenzialgleichungen erster Ordnung. Impuls und Drehimpuls sind als lineare Funktionen der Geschwindigkeit und Winkelgeschwindigkeit gegeben,
die wiederum durch die zeitlichen Ableitungen des Ortes und der Lage des Körpers gegeben sind,
α
Hier haben wir bereits verwendet, dass die Geschwindigkeit ṙα des Teilchens proportional zu pα
ist, so dass wir diesen Term nicht berücksichtigen müssen. In der Summe heben sich außerdem
die Zwangskräfte wieder gegenseitig auf. Wir schreiben sie dazu als Summe über Wechselwirkungskräfte zwischen je zwei Teilchen, für die das dritte Newtonsche Gesetz gilt,
X
Zα,β , mit Zα,β = −Zβ,α , Zα,α = 0.
(17.41)
Zα =
Daraus folgt
X
Bilden wir wieder die Differenz, so finden wir schließlich die Bewegungsgleichung für S,
X
X
(rα − r) × Fα =
uα × F α .
(17.46)
Ṡ = M , mit M =
α
P = M v,
S = Θ(ω),
mit v = ṙ,
ω=
1
εabc (ṅa · nb ) nc .
2
(17.47)
Die zeitlichen Änderungen von Impuls und Drehimpuls ergeben sich aus der Kraft und dem Drehmoment, die sich wiederum aus den Kräfte auf die einzelnen Teilchen zusammensetzen,
X
X
Fα ,
Ṡ = M =
uα × F α .
(17.48)
Ṗ = F =
α
α
Insbesondere folgt aus den Bewegungsgleichungen, dass P und S Erhaltungsgrößen sind, wenn
auf den Körper keine äußeren Kräfte einwirken. Mit diesem Fall eines “freien” starren Körpers
werden wir und gleich ausführlich beschäftigen.
Aufgabe 17.8 Man zeige, dass auf einen starren Körper in einem homogenen Gravitationsfeld
kein Drehmoment wirkt.
Aufgabe 17.9 Man berechne das Drehmoment auf einen geladenen K örper in einem homogenen
elektrischen Feld und drücke das Ergebnis durch die Feldstärke E und den Dipolvektor χ =
χa na aus Aufgabe 17.7 aus.
122
Aufgabe 17.10 Man berechne die kinetische Energie eines starren K örpers und zeige, dass diese
sich wie folgt aus einer “Bewegungsenergie” und einer “Rotationsenergie” zusammensetzt,
T =
1
1
1
1
M v · v + Θ(ω, ω) = M vi vi + Θab ωa ωb .
2
2
2
2
(17.49)
Aufgabe 17.11 Man bestimme das Trägheitmoment der Hantel aus Abbildung 5.3(b). Wie groß
sind laut (17.49) Bewegungs- und Rotationsenergie, wenn die Hantel mit einer Winkelgeschwindigkeit ω um eine zur Stange senkrechte Achse rotiert und sich mit der Geschwindigkeit v durch
den Raum bewegt?
Kontinuierliche Körper
Die Vorstellung von einem aus einzelnen Teilchen aufgebauten Körper ist zwar sehr nützlich, um
das Konzept eines starren Körpers auf der Basis der Mechanik von Punktteilchen zu verstehen.
In der Praxis ist dieses Konzept aber unbrauchbar, da es unmöglich ist, einen makroskopischen
Körper durch die Gesamtheit seiner atomaren Teilchen zu beschreiben. Außerdem verhalten sich
diese Teilchen ja in Wirklichkeit nicht wie klassische Punkteilchen, sondern müssten genau genommen quantenmechanisch beschrieben werden.
Wir wollen daher zeigen, dass wir über den genauen Aufbau eines starren Körpers eigentlich
gar nicht viel wissen müssen, um seine Bewegungsgleichungen aufzustellen. Es ist nicht nötig,
die Koordinaten uα,a aller Teilchen kennen, und wir müssen auch nicht alle Massen m α oder alle
Ladungen qα der Teilchen kennen. Es genügt, gewisse Verteilungsfunktionen dieser Größen zu
kennen.
In die Beziehungen (17.47) zwischen Impuls und Geschwindigkeit bzw. Drehimpuls und Winkelgeschwindigkeit gehen zum Beispiel nur zwei solche Größen ein, nämlich die Gesamtmasse
M und der Trägheitstensor Θ. Welche Größen konkret in die Kraftgleichungen (17.48) eingehen,
hängt zwar davon ab, welche Art von Kräften auftreten. Aber auch hier ist es im allgemeinen so,
dass wir nur ganz spezielle Funktionen der Teilchenorte, Massen, Ladungen etc. kennen müssen,
um die Kraft bzw. das Drehmoment zu bestimmen.
Am Beispiel der Größen M und Θ wollen wir zeigen, wie sich diese Größen für einen
aus kontinuierlicher Materie bestehenden Körper berechnen lassen. Alles, was wir dazu wissen
müssen, ist, wie die Masse innerhalb des Körpers verteilt ist. Dies wird durch eine Massendichte µ(r) beschrieben. In einem Volumenelement dω(r) am Ort r befindet sich dann eine Masse
dµ(r) = µ(r) dω(r).
Das Problem bei der Beschreibung eines sich bewegenden starren Körpers ist nun, dass diese Massendichte von der Zeit abhängt, und zwar in einer sehr speziellen Art und Weise. Die
Zeitabhängigkeit der Massendichte µ(r) kommt dadurch zustande, dass sich der Körper als ganzes zwar bewegt, nicht jedoch durch eine Verformung des Körpers. Dieses Problem können wir
dadurch lösen, dass wir zur Beschreibung der Massendichte das k örperfeste Koordinatensystem
verwenden.
Wir betrachten die Massendichte daher nicht als Funktion des Ortes, sondern als Funktion µ(u)
des in Abbildung 17.2 definierten Vektors u, und stellen sie explizit als Funktion der körperfesten
Koordinaten dar, also letztlich als Funktion µ({ua }) von drei reellen Zahlen. Diese Funktion ist
dann zeitlich konstant, das heißt wir können mit ihnen rechnen wie mit einer zeitlich konstanten
Massenverteilung.
So können wir zum Beispiel die Gesamtmasse des Körpers berechnen, indem wir die Massendichte integrieren,
Z
Z
Z
M = dµ(u) = dω(u) µ(u) = du1 du2 du3 µ(u).
(17.50)
Die Integration erfolgt formal immer über den ganzen Raum, wobei wir aber annehmen, dass der
Körper nur eine endliche Ausdehnung hat, so dass effektiv nur über einen endlichen Raumbereich
zu integrieren ist. Da durch die körperfesten Koordinaten ua ein kartesisches Koordinatensystem
definiert wird, ist das Volumenelement einfach durch dω(u) = du1 du2 du3 gegeben, wobei alle
Koordinaten über ganz R laufen.
Die Massendichte µ(u) ist nicht ganz beliebig, denn auch für einen kontinuierlichen Körper
gilt, dass der Bezugspunkt mit dem Schwerpunkt übereinstimmen muss. Wie wir gesehen haben,
ist dies für einen aus Teilchen aufgebauten Körper genau dann der Fall, wenn die Summe in
(17.21) verschwindet, also
X
mα uα,a = 0.
(17.51)
α
Ersetzen wir hier die Summe durch ein Integral, und die Massen mα der Teilchen durch das
Massenelement dµ(u) am Ort u, so ergibt sich die entsprechende Bedingung für einen kontinuierlichen Körper zu
Z
Z
dµ(u) ua =
dω(u) µ(u) ua = 0
(17.52)
Man beachte, dass dies eine Vektorgleichung ist, die sich aus drei Komponenten zusammensetzt.
An einem einfachen Beispiel lässt sich zeigen, dass dadurch die Lage des Bezugspunktes eindeutig festgelegt wird.
Aufgabe 17.12 Ein gleichmäßig mit Masse gefüllter Quader werde durch die folgende Massendichte beschrieben,
falls a1 < u1 < b1 , a2 < u2 < b2 , a3 < u3 < b3 ,
µ0
(17.53)
µ(u1 , u2 , u3 ) =
0
sonst.
Man bestimme die Gesamtmasse und zeige, dass die Schwerpunktbedingung (17.52) genau dann
erfüllt ist, wenn a1 + b1 = a2 + b2 = a3 + b3 = 0 ist. In diesem Fall befindet sich der Mittelpunkt
des Quaders genau am Ort mit den Koordinaten u1 = u2 = u3 = 0.
123
Aufgabe 17.13 Es sei eine Massedichte µ(u) vorgegeben, die die Bedingung (17.52) nicht erf üllt.
Man zeige, dass man dann zu einer verschobenen Massedichte µ̃(u) = µ(u − a) übergehen
kann, wobei a ein fester Vektor ist, so dass die neue Massendichte µ̃(u) die Bedingung erf üllt.
Dies entspricht einer Verschiebung des Bezugspunktes so, dass der neue Bezugspunkt mit dem
Schwerpunkt übereinstimmt.
Nun können wir auch den Trägheitstensor eines kontinuierlichen Körpers berechnen. Wir gehen
von der Darstellung (17.38) für Punktteilchen aus,
X
Θab =
mα (uα,c uα,c δab − uα,a uα,b ),
(17.54)
α
und ersetzen die Summe wieder durch ein Integral. Das ergibt
Z
Θab = dω(u) µ(u) (uc uc δab − ua ub ).
(17.55)
Aufgabe 17.14 Man berechne dieses Integral für den Quader aus Aufgabe 17.12, wobei der
Schwerpunkt jetzt mit dem Bezugspunkt übereinstimmen soll. Es ist dann −a1 = b1 = `1 /2,
−a2 = b2 = `2 /2, −a3 = b3 = `3 /2, wobei `1 , `2 , `3 die Kantenlängen des Quaders sind. Man
zeige, dass sich der Trägheitstensor schließlich wie folgt als Matrix darstellen lässt,
 2



0
0
`2 + ` 3 2
Θ11 Θ12 Θ13
M

.
Θab =  Θ21 Θ32 Θ23  =
(17.56)
0
`3 2 + `1 2
0
12
2
2
Θ31 Θ32 Θ33
0
0
` 1 + `2
2
Für einen Würfel der Kantenlänge ` ergibt sich daraus Θab = M ` δab /6, das heißt der
Trägheitstensor eines Würfels ist proportional zur Einheitsmatrix.
Wir verwenden diese Abbildung zunächst dazu, im Integral (17.55) eine Substitution durchzuführen, indem wir die Integrationsvariable u durch ũ = D · u ersetzen. Zunächst zeigt man
leicht, dass für den Ausdruck in der Klammer
(ũe ũe δab − ũa ũb ) = Dac Dbd (ue ue δcd − uc ud )
gilt. Ferner ist unter einer orthogonalen Transformation das Volumenelement invariant,
dω(ũ) = dω(D(u)) = dω(u).
(17.59)
Eingesetzt in (17.55) ergibt sich somit
Z
Z
Θab = dω(ũ) µ(ũ) (ũe ũe δab − ũa ũb ) = Dac Dbd dω(u) µ(D(u)) (ue ue δab − ua ub )
(17.60)
Beides sind Eigenschaften von orthogonalen Transformationen, die wir in Kapitel 9 bewiesen
haben.
Nun betrachten wir den speziellen Fall, dass es sich bei der Abbildung u 7→ D · u um eine
Symmetrie des Körper handelt. In diesem Fall ist
µ(D(u)) = µ(u),
(17.61)
denn die Massendichte ist vor und nach der Anwendung der Abbildung die gleiche. Offenbar
ergibt sich dann aus (17.60)
(17.62)
Θab = Dac Dbd Θcd .
Den Ausdruck auf der rechten Seite kennen bereits als das Verhalten eines Tensors zweiter Stufe
unter einer linearen Abbildung. Die Aussage ist also, dass der Trägheitstensor unter jeder orthogonalen Abbildung invariant ist, die den Körper in sich überführt.
Der Trägheitstensor ist mindestens so symmetrisch wie der Körper, zu dem er
gehört.
Symmetrien des Trägheitstensors
Um den Trägheitstensor eines gegebenen Körpers explizit zu berechnen, können wir auch andere
als kartesische Koordinatensystem verwenden, wenn diese besser an die Geometrie des Körpers
angepasst sind. Oft helfen dabei auch Symmetrieüberlegungen. Hat der Körper bestimmte Symmetrien, so hat auch der Trägheitstensor diese Symmetrien, und damit lässt sich seine Berechnung
oft erheblich vereinfachen.
Was bedeutet in diesem Fall Symmetrie? Wir nennen einen Körper symmetrisch, wenn er unter einer bestimmten Transformation in sich übergeht. Da eine solche Transformation stets den
Schwerpunkt auf sich selbst abbilden muss, kann es sich nur um eine Rotation oder eine Spiegelung handeln, also um eine orthogonale Transformation. Eine solche Abbildung wird durch eine
orthogonale Matrix dargestellt,
u 7→ ũ = D(u),
(17.58)
ua 7→ ũa = Dab ub ,
mit Dab Dac = δab .
Als spezielles Beispiel hatten wir bereits den Trägheitstensor eines Quaders berechnet und gesehen, dass es sich um eine Diagonalmatrix handelt, wenn wir die Koordinatenachsen in die
Richtungen der Kanten legen. Tatsächlich ist dies eine Konsequenz der Symmetrien. Der Quader
ist symmetrisch bezüglich der Spiegelungen an der Koordinatenebenen. So wird zum Beispiel die
Spiegelung an der 1-2-Ebene durch die Matrix


1 0
0
0 
Dab =  0 1
(17.63)
0 0 −1
dargestellt. Wie man leicht sieht, ergibt sich aus (17.62) zum Beispiel
(17.57)
124
Θ23 = D2c D3d Θcd = −Θ23
⇒
Θ23 = 0.
(17.64)
Entsprechend lässt sich das Verschwinden von allen anderen nichtdiagonalen Einträge von Θ ab
zeigen, indem man jeweils eine der drei möglichen Spiegelungen auswählt und die Gleichung
(17.62) für die entsprechende Komponente aufschreibt.
Wir haben also gezeigt, dass der Trägheitstensor diagonal ist, wenn der Körper symmetrisch
unter Spiegelungen an den Koordinatenachsen ist. Oft ist der Trägheitstensor sogar noch symmetrischer als der Körper selbst. Ein Beispiel dafür ist der Würfel. In diesem Fall ist, wie wir
in Aufgabe 17.14 gesehen haben, Θab = M `2 δab /6. Dieser Tensor ist unter allen orthogonalen
Transformationen invariant, denn er ist proportional zum Einheitstensor, und somit ist (17.62) für
alle orthogonalen Matrizen erfüllt. Aber natürlich geht der Würfel nicht unter allen orthogonalen
Abbildung in sich über.
Umgekehrt können wir die Symmetrien eines Körpers nun auch benutzen, um den Trägheitstensor zu berechnen. Der symmetrischste denkbare Körper ist eine Kugel. Wir wollen also den
Trägheitstensor einer Kugel mit Radius R, Massendichte µ0 , und folglich der Masse M =
4π µ0 R3 /3 berechnen. Da der Einheitstensor δab der einzige Tensor zweiter Stufe ist, der unter
allen orthogonalen Abbildungen invariant ist, muss der Trägheitstensor der Kugel proportional
dazu sein. Wir machen also den Ansatz
Θab = θ δab
(17.65)
Um die skalare Größe θ zu berechnen, bilden wir die Spur dieses Tensors. Es ist Θ aa = 3 θ und
folglich
Z
Z
1
1
2
θ = Θaa =
(17.66)
dω(u) µ(u) (uc uc δaa − ua ua ) =
dω(u) µ(u) ua ua .
3
3
3
Das Integral lässt sich nun am leichtesten in Kugelkoordinaten auswerten. Wir ersetzen die kartesischen Koordinaten (u1 , u2 , u3 ) durch (r, ϑ, ϕ), wobei r 2 = ua ua ist, und die Massendichte
nur von r abhängt. Mit dem bekannten Volumenelement in Kugelkoordinaten finden wir
2
θ=
3
Z
8π
µ(r) r sin ϑ dr dϑ dϕ =
µ0
3
4
Z
R
r4 dr =
8π
2
µ0 R 5 = M R 2 .
15
5
(17.67)
Um ein nicht ganz so einfaches Beispiel vorzuführen, berechnen wir noch den Trägheitstensor
eines Zylinders. Er soll den Radius R, die Länge `, und die Massendichte µ 0 haben. Für die Masse
ergibt sich daraus M = π µ0 ` R2 . Die Koordinatenachsen legen wir so, dass die Rotationsachse
des Zylinders die 3-Achse ist, und der Querschnitt eine Kreisscheibe in der 1-2-Ebene liegt.
Der Trägheitstensor ist dann wieder diagonal, denn der Zylinder ist symmetrisch unter Spiegelungen an allen drei Koordinatenebenen. Es gilt also


Θ11 0
0
Θab =  0 Θ22 0  .
(17.69)
0
0 Θ33
Darüber hinaus gilt sogar Θ11 = Θ22 , aufgrund der Rotationssymmetrie um die 3-Achse. Das
ist anschaulich mehr oder weniger offensichtlich, denn wir können die Richtungen den 1- und
2-Achse beliebig wählen und somit die beiden Achsen auch vertauschen. Formal können wir den
Beweis wie folgt führen. Der Zylinder ist symmetrisch unter einer Spiegelung an der Winkelhalbierenden in der 1-2-Ebene. Diese wird durch die Matrix


0 1 0
Dab =  1 0 0 
(17.70)
0 0 1
dargestellt. Aus der Symmetrieforderung (17.62) an den Trägheitstensor ergibt sich daraus
Θ11 = D1c D1d Θcd = D12 D12 Θ22 = Θ22 .
Wir müssen also nur zwei Größen berechnen, nämlich Θ11 = Θ22 und Θ33 . Beginnen wir mit
Z
Θ33 = dω(u) µ(u) (u1 2 + u2 2 ).
(17.72)
Um dieses Integral auszuwerten, verwenden wir Zylinderkoordinaten, das heißt wir setzen
u1 = r cos ϕ,
0
Damit finden wir für den Trägheitstensor einer Kugel
Θab =
2
M R2 δab .
5
(17.71)
u2 = r sin ϕ,
u3 = z
⇒
dω(u) = r dr dϕ dz.
(17.73)
Für die Massendichte gilt
(17.68)
Aufgabe 17.15 Wie bewegt sich eine Kugel, wenn auf sie keine äußeren Kräfte wirken? Wie bewegt sich ein Würfel ohne äußeren Kräfte?
Aufgabe 17.16 Eine Kugel und ein Würfel rotieren mit der gleichen Winkelgeschwindigkeit. Beide haben dieselbe Masse und bestehen aus dem gleichen Stoff. Welcher der K örper besitzt eine
größere Rotationsenergie?
µ(r, z) =
µ0
0
falls r < R,
sonst.
−`/2 < z < `/2,
(17.74)
Mit den entsprechenden Integrationsgrenzen und nach Ausführung der ϕ-Integration ergibt sich
daraus
Z R Z `/2
π
1
(17.75)
Θ33 = 2π µ0 dr dz r3 = µ0 ` R4 = M R2 .
2
2
125
0
−`/2
Für die Komponenten Θ11 und Θ22 gilt
Z
Θ11 = dω(u) µ(u) (u2 2 + u3 2 ),
Θ22 =
Z
dω(u) µ(u) (u1 2 + u3 2 ).
(17.76)
Da wir bereits wissen, dass sie gleich sind, berechnen wir die Summe und drücken das Integral
wieder in Zylinderkoordinaten aus,
Θ11 + Θ22 =
Z
2
2
2
dω(u) µ(u) (u1 + u2 + 2 u3 ) = 2π µ0
Z
0
Z `/2
dr dz r (r2 + 2 z 2 ). (17.77)
R
−`/2
Auch dieses Integral kann leicht ausgewertet werden. Man findet schließlich
Θ11 = Θ22 =
π µ0 ` 3 R 2
M
π µ0 ` R 4
+
=
(3 R2 + `2 ).
4
12
12
(17.78)
Für einen zylindrischen Körper sind also stets zwei diagonale Komponenten des Trägheitstensors
gleich, nämlich die in der Rotationsebene des Zylinders, während die dritte Komponente größer
oder kleiner sein kann, je nachdem, ob der Zylinder eher flach oder lang ist.
Wenn zwischen Radius und Länge die Beziehung `2 = 3 R2 gilt, so sind alle Komponenten
gleich. In diesem Fall ist der Trägheitstensor proportional zur Einheitsmatrix, hat also die gleichen
Symmetrien wir der eines Würfels oder einer Kugel. Gilt dagegen ` 2 > 3 R2 , zum Beispiel im
Fall einer langen Stange, so ist die Komponenten des Trägheitstensors entlang der Drehachse
des Zylinders kleiner als die anderen. Ein Drehung um diese Symmetrieachse hat eine kleinere
Rotationsenergie als eine Drehung um eine dazu senkrechte Achse. Ist der Zylinder dagegen flach
wie ein Münze, so ist `2 < 3 R3 . In diesem Fall hat eine Rotation um die Symmetrieachse ein
höhere Energie als eine Rotation um eine dazu senkrechte Achse.
Aufgabe 17.17 Wie sieht der Trägheitstensor für das Rad aus Abbildung 12.3 aus?
126
18 Der Kreisel
Einen nicht verschwinden Vektor n = ni ei nennen wir Eigenvektor von Θ, wenn er auf ein
Vielfaches von sich selbst abgebildet wird, wenn also gilt
Nachdem wir im letzten Kapitel die wesentlichen physikalischen Eigenschaften des starren
Körpers beschrieben haben, wollen wir nun seine Bewegungen studieren. Schon für einen freien
Kreisel, also für einen starren Körper, der keinen äußeren Kräften ausgesetzt ist, sind diese Gleichungen nicht ganz einfach. Sie lassen sich zwar durch eine geschickte Wahl des körperfesten
Koordinatensystems auf eine relativ einfache Form bringen. Jedoch können nur für sehr spezielle
Ausnahmefälle exakte Lösungen angegebene werden.
EigenwertGleichung
V ×V →R:
(x, y) 7→ Θ(x, y),
(18.1)
die ebenfalls symmetrisch ist,
Θ(x, y) = Θ(y, x).
(18.2)
Es sei nun ei eine Orthonormalbasis, x = xi ei und y = yi ei . Dann ist
Θ(x, y) = Θij xi yj ,
Θij = Θji .
x 7→ Θ(x),
Es gibt also Einheitsvektoren na , mit a ∈ {1, . . . , N }, mit der Eigenschaft
Θ(na ) = λa na ,
auffassen. In Komponenten ausgedrückt schreibt sich diese Abbildung als
x = x i ei
7→
y = y i ei ,
mit yi = Θij xj .
(18.5)
Wir können Θ also Wahlweise als Funktion mit einem Argument auffassen, wobei Θ(x) dann
wieder ein Vektor ist, oder als Funktion mit zwei Argumenten, wobei Θ(x, y) eine reelle Zahl
ist. Wie man leicht sieht, gilt
Θ(x, y) = x · Θ(y) = y · Θ(x) = Θ(y, x).
na · nb = δab .
(18.8)
Man beachte, dass auf der rechten Seite der ersten Gleichung über den Index a nicht zu summieren
ist. Die Gleichung würde dann auch gar keinen Sinn ergeben. Es handelt sich an dieser Stelle also
nicht um einen Vektorindex im üblichen Sinne. Es ist einfach nur ein laufender Index, der die
Eigenvektoren durchnummeriert. Für die im folgenden auftretenden Indizes a, b, . . . gilt daher bis
auf weiteres keine Summenkonvention.
Der Beweis des Satzes erfolgt durch vollständige Induktion über die Dimension N des Vektorraums. Für N = 1 ist der Satz trivial. In einem eindimensionalen Vektorraum ist jeder Vektor
Eigenvektor einer linearen Abbildung, also auch jeder Einheitsvektoren, von denen es in diesem
Fall genau zwei gibt.
Es sei also N > 1, und wir nehmen an, dass der Satz für jeden Vektorraum kleinerer Dimension
bereits bewiesen ist. Als erstes zeigen wir, dass es in V immer mindestens einen Eigenvektor von
Θ gibt. Dazu betrachten wir die quadratische Funktion
(18.3)
(18.4)
(18.7)
Auf einem N -dimensionalen metrischen Vektorraum existieren zu jedem symmetrischen Tensor zweiter Stufe insgesamt N zueinander senkrechte, normierte Eigenvektoren.
L(n) =
Alternativ können wir den Tensor Θ auch als eine lineare Abbildung
V →V :
bzw. Θij nj = λ ni .
Die Zahl λ ∈ R ist der zugehörige Eigenwert. Über die Eigenwerte und Eigenvektoren lässt sich
dann folgender Satz beweisen.
Eigenwerte und Eigenvektoren
Bevor wir versuchen, die Bewegungsgleichungen zu lösen, werden wir sie auf eine möglichst
einfache Form bringen. Dazu müssen wir das körperfeste Koordinatensystem in einer speziellen
Art und Weise wählen. Wie wir bereits im letzten Kapitel gesehen haben, wird der Trägheitstensor durch eine Diagonalmatrix dargestellt, wenn der Körper besonders symmetrisch ist und das
körperfeste Koordinatensystem an diese Symmetrie angepasst wird.
Wir werden nun zeigen, dass es unabhängig von der Symmetrie des Körpers immer möglich
ist, das körperfeste Koordinatensystem so zu wählen, dass der Trägheitstensor durch eine Diagonalmatrix dargestellt wird. Wir benötigen dafür einen Satz aus der linearen Algebra, den wir kurz
beweisen werden, weil der Beweis auf einer sehr schönen Anwendung des Variationsprinzips mit
Nebenbedingungen beruht.
Es sei ein N -dimensionaler, metrischer Vektorraum V gegeben, sowie ein symmetrischer Tensor zweiter Stufe Θ. Durch einen solchen Tensor wird eine bilineare Abbildung definiert,
Θ(n) = λ n,
1
Θ(n, n)
2
(18.9)
als Funktion auf der Einheitskugel, also der Menge aller Einheitsvektoren n in V. Das ist eine kompakte Menge, und die Funktion L ist stetig und differenzierbar, also nimmt die Funktion
irgendwo ihr Maximum an. Wir werden zeigen, dass der Vektor n 0 , an dem das Maximum angenommen wird, ein Eigenvektor von Θ ist. Den zugehörigen Eigenwert nennen wir λ 0 .
Wenn die Funktion L(n) an der Stelle n0 maximal ist, dann ist sie dort natürlich auch stationär. Wir betrachten daher das folgende Variationsproblem mit Nebenbedingung. Gesucht sind
diejenigen Vektoren n ∈ V und Zahlen λ ∈ R, für die die Funktion
(18.6)
127
L(n, λ) =
1
1
Θ(n, n) − λ (n · n − 1)
2
2
(18.10)
stationär ist. Wie wir in Kapitel 14 gezeigt haben, ist diese Funktion genau an den Stellen stationär, die als Kandidaten für die Extrema der Funktion (18.9) in Frage kommen. Tatsächlich liefert
die Variation
1
(18.11)
δL(n, λ) = δn · (Θ(n) − λ n) − δλ (n · n − 1).
2
Damit dieser Ausdruck für alle δλ und alle δn verschwindet, müssen die Gleichungen
n · n = 1 und Θ(n) = λ n
(18.12)
erfüllt sein. Mit anderen Worten, n muss ein Einheitsvektor sein, der gleichzeitig ein Eigenvektor
von Θ zum Eigenwert λ ist. Wir haben gezeigt damit, dass der Vektor n 0 , an dem die Funktion
L(n) auf der Einheitskugel ihr Maximum annimmt, ein Eigenvektor von Θ ist.
Tatsächlich können wir auf diese Weise alle Eigenvektoren von Θ finden, denn offenbar sind
die Eigenvektoren n und die zugehörigen Eigenwerte λ genau diejenigen Vektoren, für die Funktion (18.10) stationär ist. Es geht aber hier zunächst nur darum, zu beweisen, dass es stets N
zueinander senkrechte solche Vektoren gibt.
Wir zeigen nun, dass ein Vektor x, der zu n0 senkrecht steht, durch Θ auf einen Vektor y =
Θ(x) abgebildet wird, der ebenfalls zu n0 senkrecht steht. Das folgt aus der Symmetrie des
Tensors Θ. Es ist nämlich
n0 · y = n0 · Θ(x) = Θ(n0 , x) = Θ(n0 ) · x = λ0 n0 · x.
wird von der Abbildung Θ auf sich abgebildet. Es existiert also eine lineare Abbildung
x 7→ Θ(x),
Was bedeutet das nun für das physikalische Problem der Beschreibung eines rotierenden Körpers?
Ein Satz von N zueinander senkrechten Einheitsvektoren in einem N -dimensionalen Vektorraum
ist natürlich eine Orthonormalbasis. Es existiert also eine Orthonormalbasis, die aus Eigenvektoren besteht.
Wir haben damit gezeigt, dass wir das körperfeste Koordinatensystem eines starren Körpers
stets so wählen können, dass die Basisvektoren (n1 , n2 , n3 ) Eigenvektoren des Trägheitstensors sind. Die Koordinatenachsen, die dadurch definiert werden, heißen Haupttr ägheitsachsen
des Körpers, oder kurz Hauptachsen. Die zugehörigen Eigenwerte sind die Tr ägheitsmomente
des Körpers. Wir bezeichnen sie im folgenden mit (θ1 , θ2 , θ3 ). Es gilt also
Hauptachsen
(18.15)
die die gleichen Eigenschaften hat wie die Abbildung (18.4) auf V. Sie wird durch einen Tensor
zweiter Stufe auf V⊥ dargestellt, der ebenfalls symmetrisch ist, denn die Gleichung (18.2) gilt
natürlich auch für alle Vektoren aus V⊥ . Ferner ist V⊥ natürlich auch ein metrischer Vektorraum.
Allerdings mit einer kleineren Dimension, das heißt wir können annehmen, dass der Satz dort
bereits gilt.
Es gibt also einen Satz von Einheitsvektoren na aus V⊥ , mit a ∈ {1, . . . , N − 1}, und mit den
Eigenschaften (18.8). Setzen wir nun nN = n0 , so sehen wir leicht, dass diese Eigenschaften
auch für alle N Vektoren gelten, denn nN ist ein Eigenvektor von Θ, ein Einheitsvektor, und er
steht senkrecht zu allen anderen Vektoren. Damit ist der Satz bewiesen.
Aufgabe 18.1 An welchen beiden Stellen geht in den Beweis ein, dass der Tensor Θ symmetrisch
ist, und warum ist das wesentlich?
Θ(n1 ) = θ1 n1 ,
Θ(n2 ) = θ2 n2 ,
Θ(n3 ) = θ3 n3 .
(18.16)
Wenn wir das Koordinatensystem auf diese Weise festlegen, dann ist die Darstellung des
Trägheitstensors in dieser Basis, also die Matrix Θab , eine Diagonalmatrix ist. Sei nämlich ω
irgendein Vektor, typischerweise eine Winkelgeschwindigkeit, und S = Θ(ω) der zugehörige
Drehimpuls, dann gilt
ω = ω 1 n1 + ω 2 n2 + ω 3 n3
(18.13)
Aus x · n0 = 0 folgt also y · n0 = 0. Wir können das auch wie folgt formulieren. Der Orthogonalraum
V⊥ = { x ∈ V, x · n0 = 0 }
(18.14)
V⊥ → V ⊥ :
Hauptachsen
⇒
S = Θ(ω) = θ1 ω1 n1 + θ2 ω2 n2 + θ3 ω3 n3 (18.17)
Anderseits gilt natürlich in jedem körperfesten Koordinatensystem, jetzt wieder mit der Summenkonvention,
(18.18)
Sa = Θab ωb ⇒ S = Θab ωb na .
Durch Koeffizientenvergleich stellen wir fest, dass die Matrix Θab diagonal ist,


θ1 0 0
Θab =  0 θ2 0 
0 0 θ3
(18.19)
Die Aussage des Satzes von oben, angewandt auf die spezielle physikalisch Situation, lautet somit
wie folgt:
Jeder starre Körper besitzt ein System von drei Hauptachsen. Wählt man diese als
Achsen des körperfesten Koordinatensystems, so ist der Trägheitstensor eine Diagonalmatrix.
Die Hauptachsen sind nicht immer eindeutig bestimmt. Sind nämlich zwei der drei Eigenwerte,
oder sogar alle drei gleich, so können wir zu beliebigen Linearkombinationen der entsprechenden
Eigenvektoren übergehen und bekommen wieder Eigenvektoren zu den gleichen Eigenwerten.
Dieser Fall liegt vor, wenn der Körper rotationssymmetrisch um eine Achse ist, wie etwa der
Zylinder, dessen Trägheitstensor wir im letzten Kapitel berechnet hatten. In diesem Fall gibt es
128
keine bevorzugte Wahl der beiden zur Zylinderachse senkrecht stehenden Hauptachsen. Und bei
einer Kugel gibt es natürlich gar keine bevorzugte Wahl der Hauptachsen, denn jeder Vektor ist
eine Eigenvektor des Trägheitstensors, der in diesem Fall proportional zum Einheitstensor ist.
Aber auch, wenn der Körper selbst nicht symmetrisch ist, können gleiche Eigenwerte auftreten. Ein Beispiel hierfür ist ein Quader mit quadratischer Grundfläche. Dann sind zwei der drei
Eigenwerte in (17.56) gleich. Durch den Trägheitstensor wird dann nur eine der Hauptachsen festgelegt, nämlich diejenige, die zur quadratischen Grundfläche senkrecht steht. Die anderen beiden
Achsen können beliebig gewählt werde. Und schließlich hat ein Würfel, was den Trägheitstensor
betrifft, die gleichen Symmetrien wie eine Kugel, also gar keine ausgezeichneten Hauptachsen.
Wie wir später sehen werden, entsprechen die drei verschiedenen Möglichkeiten, nämlich
paarweise verschiedene, zwei gleiche, oder drei gleiche Eigenwerte, drei verschiedenen Schwierigkeitsgraden bei der Lösung der Bewegungsgleichungen. Je symmetrischer der Körper, umso leichter lassen sich die Bewegungsgleichungen lösen. Bei drei gleichen Eigenwerten ist die
Lösung trivial. Bei zwei gleichen Eigenwerten lässt sie sich relativ leicht angeben. Bei drei verschiedenen Eigenwerten ist sie nicht mehr elementar darstellbar.
In den folgenden Aufgaben werden noch ein paar nützliche Eigenschaften der Eigenwerte des
Trägheitstensors zusammenstellen, die wir bei der Lösung der Bewegungsgleichungen benötigen
werden.
Aufgabe 18.2 Bis auf einen sehr speziellen Fall sind die Trägheitsmomente immer positiv,
θ1 , θ2 , θ3 > 0.
(18.20)
Ausgangspunkt sind die allgemeinen Bewegungsgleichungen (17.47) und (17.48), wobei wir
dort alle Kräfte gleich Null setzen und somit die Erhaltungssätze für den Impuls und den Drehimpuls folgen,
Ṗ (t) = 0,
Ṡ(t) = 0.
(18.22)
Aus der ersten Gleichung ergibt sich unmittelbar, dass die Geschwindigkeit des Körpers konstant
ist, der Schwerpunkt des Körpers also eine geradlinig gleichförmig Bewegung ausführt. Diese ist
völlig uninteressant, so dass wir im folgenden annehmen können, dass der Schwerpunkt ruht.
Aufgabe 18.4 Um die folgenden Aussagen experimentell zu überprüfen, ohne dafür große Geldsummen auszugeben, wird man in der Regel so vorgehen, dass man einen K örper im Gravitationsfeld der Erde frei fallen lässt. Genau genommen handelt es sich also nicht um einen kr äftefreien
Körper. Warum entkoppelt die Bewegung des Schwerpunktes trotzdem von der Rotationsbewegung?
Um die Rotationsbewegung zu beschreiben, müssen wir die Gleichung Ṡ = 0 näher untersuchen.
Wir schreiben zunächst den Drehimpuls in Komponenten bezüglich der körperfesten Basis auf,
wobei wir wieder genau beachten, welche Größen zeitabhängig sind und welche nicht. Es gilt
S(t) = Sa (t) na (t) = Θab ωb (t) na (t).
Wir verwenden an dieser Stelle noch nicht, dass der Trägheitstensor diagonal ist, das heißt noch
gelten alle Gleichungen in beliebigen körperfesten Koordinatensystemen. Wir berechnen die Ableitung des Drehimpulses und finden unter Verwendung von (17.4)
Ṡ(t) = Θab ω̇b (t) na (t) + Θab ωb (t) ṅa (t)
Daraus folgt unter anderem, dass die Matrix Θab invertierbar ist, so dass die Winkelgeschwindigkeit eine eindeutige Funktion des Drehimpulses ist. Man beweise das und zeige, dass der spezielle
Fall genau dann vorliegt, wenn der Körper zu einer unendlich dünnen Stange entartet ist. Dann
ist eines der Trägheitsmomente Null, und die anderen beiden sind gleich. Warum ist in diesem
Fall die Beziehung zwischen Winkelgeschwindigkeit und Drehimpuls nicht umkehrbar?
Aufgabe 18.3 Man zeige, dass für die Eigenwerte des Trägheitstensors die Dreiecksungleichungen
θ2 + θ 3 ≥ θ 1 ,
θ3 + θ 1 ≥ θ 2
(18.21)
θ1 + θ 2 ≥ θ 3 ,
gelten. Diese Ungleichungen gelten sogar ganz allgemein f ür die Diagonalelemente Θ11 , Θ22
und Θ33 bezüglich jeder Basis. Bei welcher Geometrie des Körpers gilt in einer der drei Ungleichungen das Gleichheitszeichen?
Der freie Kreisel
Nach diesen Vorbereitungen können wir jetzt die Bewegungsgleichungen für den freien starren
Körper aufstellen. Frei bedeutet wie üblich, dass auf den Körper keine äußeren Kräfte einwirken
sollen.
(18.23)
= Θab ω̇b (t) na (t) + Θab ωb (t) ω(t) × na (t)
= Θab ω̇b (t) na (t) + Θab ωb (t) ωc (t) nc (t) × na (t)
= Θab ω̇b (t) na (t) + Θab ωb (t) ωc (t) εcad nd (t)
= Θdb ω̇b (t) + Θab ωb (t) ωc (t) εcad nd (t)
(18.24)
Θab ω̇b (t) = εabc Θbd ωc (t) ωd (t).
(18.25)
Überraschenderweise ist die Gleichung Ṡ = 0 nicht in der Winkelgeschwindigkeit linear, sondern
quadratisch. Das liegt daran, dass die Beziehung zwischen ω und S zu jedem Zeitpunkt zwar
linear ist, diese lineare Abbildung aber von der Zeit abhängt und ihre Zeitableitung wiederum
von der Winkelgeschwindigkeit abhängt.
Da es sich bei (18.24) um eine Vektorgleichung handelt, spielt es keine Rolle, in welcher Basis
wir sie darstellen, und ob diese Basis zeitabhängig ist oder nicht. Zu jedem Zeitpunkt müssen alle
Komponenten des Vektors verschwinden. Also ergibt sich ein Satz von Bewegungsgleichungen,
in denen nur noch die Komponenten ωa der Winkelgeschwindigkeit im körperfesten Koordinatensystem auftreten. Wenn wir wieder ein paar Indizes umbenennen, lauten sie
129
Wir können zunächst unabhängig von der räumlichen Lage des Körpers diese Bewegungsgleichungen für die Winkelgeschwindigkeit lösen. Dazu müssen wir Anfangswerte ω a (t0 ) vorgeben. Dann ist die Lösung eindeutig bestimmt. Wie wir gerade gezeigt haben, ist die Matrix Θ ab
nämlich invertierbar. Die Bewegungsgleichungen können also nach den Zeitableitungen ω̇ a (t)
aufgelöst werden. Wir werden das gleich explizit tun.
Um anschließend die tatsächliche Bewegung des Körpers zu bestimmen, müssen wir noch die
Anfangsbedingungen für die Lage vorgeben, also die Vektoren n a (t0 ). Ihre Zeitableitungen sind
dann durch die Bewegungsgleichungen
ṅa (t) = ω(t) × na (t) = −εabc ωb (t) nc (t)
(18.26)
eindeutig bestimmt. Wir können daraus die Bewegung der körperfesten Basis n a (t) bestimmen,
sobald wir die Funktionen ωa (t) kennen. Wenn wir dazu noch die unabhängige Bewegung des
Schwerpunktes hinzunehmen, kennen wir die Bewegung des Körpers vollständig.
Wir schauen uns nun die gekoppelten Differenzialgleichungen (18.25) für die Winkelgeschwindigkeit genauer an. Sie vereinfachen sich etwas, wenn wir das Koordinatensystem an die Hauptachsen des Körpers anpassen. Wir führen dazu die Summen explizit aus, und benutzen die diagonale Darstellung (18.19) des Trägheitstensors. Daraus ergeben sich die folgenden drei Gleichungen,
θ1 ω̇1 (t) = (θ2 − θ3 ) ω2 (t) ω3 (t),
θ2 ω̇2 (t) = (θ3 − θ1 ) ω3 (t) ω1 (t),
θ3 ω̇3 (t) = (θ1 − θ2 ) ω1 (t) ω2 (t).
(18.27)
Diese Gleichungen werden als freie Kreisgleichungen, manchmal auch als Eulersche Kreiselgleichungen bezeichnet. Sie sind in den Indizes {1, 2, 3} zyklisch, jedoch handelt es sich immer noch
um nichtlineare, gekoppelte Differenzialgleichungen, die sich nicht geschlossen lösen lassen. Wir
werden deshalb im folgenden versuchen, möglichst viele qualitative Aussagen über ihre Lösungen und damit die möglichen Bewegungen eines starren Körpers zu machen.
Aufgabe 18.5 Für den speziellen Fall eines Kugelkreisels werden die Kreiselgleichungen trivial.
Man gebe die allgemeine Lösung an, und löse anschließend auch die Bewegungsgleichungen für
die körperfesten Basisvektoren (18.26). Warum kann dabei ohne Beschr änkung der Allgemeinheit
angenommen werden, dass nur eine der drei Komponenten ω a von Null verschieden ist?
Der unsymmetrische Kreisel
Wir betrachten zuerst den Fall, dass alle drei Trägheitsmomente verschieden sind, und natürlich
nicht verschwinden. Ein Körper mit dieser Eigenschaft heißt unsymmetrischer Kreisel. Wir nummerieren die Eigenwerte des Trägheitstensors so, dass sie absteigende Werte haben, also
θ1 > θ2 > θ3 > 0.
(18.28)
Dann lassen sich die Gleichungen (18.27) nicht mehr weiter vereinfachen. Es gibt aber drei spezielle Lösungen dieser Gleichungen, die wir unmittelbar ablesen können. Setzen wir nämlich zwei
der drei Funktionen ωa (t) gleich Null, so sind zwei der drei Gleichungen identisch erfüllt, und
die dritte Gleichung verlangt, dass die dritte Funktion konstant ist. So ist zum Beispiel
ω1 (t) = ω0 ,
ω2 (t) = 0,
ω3 (t) = 0,
(18.29)
mit einer beliebigen Konstanten ω0 eine Lösung. Das gleiche gilt bei zyklisch vertauschten Indizes.
Wie sieht in diesem Fall die Bewegung des Körper aus? Im körperfesten System zeigt die Winkelgeschwindigkeit konstant in die Richtung einer der Hauptachsen, in diesem Fall in Richtung
von n1 . Die Gleichungen (18.27) lassen sich dann ebenfalls leicht lösen. Man findet
ṅ1 (t) = 0,
ṅ2 (t) = n3 (t),
ṅ3 (t) = −n2 (t).
(18.30)
Als Anfangsbedingung geben wir der Einfachheit halber n1 (0) = ex , n2 (0) = ey und n3 (0) =
ez vor. Wir wählen einfach das raumfeste Bezugsystem so, dass es zum Zeitpunkt t = 0 mit dem
körperfesten Bezugsystem übereinstimmt. Dann lautet die eindeutige Lösung von (18.30)
n1 (t) = ex ,
n2 (t) =
cos(ω0 t) ey + sin(ω0 t) ez ,
n3 (t) = − sin(ω0 t) ey + cos(ω0 t) ez .
(18.31)
Der Körper rotiert gleichmäßig mit der Winkelgeschwindigkeit ω0 um die x-Achse, die mit der
ersten Hauptachse übereinstimmt. Die anderen drei Lösungen beschreiben entsprechend eine
gleichmäßige Rotation um die anderen Hauptachsen.
Aufgabe 18.6 Es sei ω0 > 0. Man verifiziere mit der Rechten-Hand-Regel, dass die Rotation
tatsächlich rechtsherum erfolgt, also in die Richtungen der Finger in der rechten Faust, wenn der
Daumen in Richtung der Vektors ω zeigt.
Mit einem geeigneten Testkörper müsste sich die Existenz dieser Lösungen bestätigen lassen.
Ein geeigneter Körper für solche Experimente ist ein Buch. Es ist starr genug, wenn man es so
verpackt, dass es sich nicht von selbst öffnen kann. Es kann leicht in Rotation versetzt werden,
und es richtet keinen größeren Schaden an, wenn die Schwerpunktbewegung einmal nicht so
verläuft wie geplant. Außerdem sind seine drei Trägheitsmomente paarweise verschieden, wenn
das Papierformat nicht zufällig quadratisch ist.
Aufgabe 18.7 In welchem Verhältnis stehen die Trägheitsmomente zueinander, wenn sich die
Kanten des Buches wie 1 : 7 : 10 verhalten? Das entspricht einem typischen Buch im DINFormat.
Um das Experiment durchzuführen, versetzt man das Buch so in Rotation, dass es sich um eine der
Hauptachsen dreht. Die Rotationsachse verläuft also parallel zu den Kanten. Wirft man das Buch
130
die vorgegebene Achse, die in diesem Fall senkrecht zum Buchrücken verläuft, einen solchen
Seitenwechsel eigentlich gar nicht verursachen sollte. Wie also kommt der Buchrücken von einer
Seite auf die andere?
Aufgabe 18.8 Man führe die Experimente mit einem geeigneten Gegenstand durch und beobachte dabei insbesondere den “Seitenwechsel” im Fall (b).
Stabile und instabile Achsen
Das beobachtete Phänomen beruht offenbar darauf, dass wir im Experiment die Anfangsbedingungen nicht so vorgeben können, dass wir genau eine der drei bekannten, speziellen Lösungen der Kreiselgleichungen treffen. Dass trotzdem eine stabile Drehung um die 1- bzw. 3-Achse
möglich ist, liegt wohl daran, dass es “in der Nähe” dieser speziellen Lösungen noch andere
Lösungen gibt, die so ähnlich aussehen. Die Drehachse ist also nicht wirklich konstant, aber zumindest näherungsweise.
Für den Fall einer Drehung um die 2-Achse scheint es solche “ähnlichen” Lösungen dagegen
nicht zu geben. Der Körper durchläuft eine völlig andere Bewegung, wenn wir diese Lösung nicht
genau treffen. Wir wollen versuchen, das anhand der Kreiselgleichungen qualitativ zu verstehen.
Es zeigt sich, dass der Schlüssel zum Verständnis dieses Verhaltens in den Erhaltungsgrößen liegt,
die wir bereits kennen.
Es ist nützlich, die Kreiselgleichungen (18.27) als Bewegungsgleichungen für die Komponenten des Drehimpulses im körperfesten System umzuschreiben. Im Hauptachsensystem besteht
zwischen den Komponenten der Winkelgeschwindigkeit und denen des Drehimpulses der einfache Zusammenhang
replacements
(d)
(a)
(b)
(c)
Abbildung 18.1: Die Rotation eines unsymmetrischen Kreisels um die Hauptachse mit dem
größten (a) bzw. kleinsten (c) Trägheitsmoment ist stabil. Die Rotation um die Hauptachse mit
dem mittleren (b) Trägheitsmoment ist instabil.
zusätzlich nach oben, so fällt es für eine kurze Zeit frei im Gravitationsfeld der Erde. Wie wir
bereits gezeigt haben, entsteht dadurch kein Drehmoment, so dass der Fall auf die Drehbewegung
keinen Einfluss hat.
Das Ergebnis dieses Experiments ist in Abbildung 18.1 dargestellt. Wählt man wie in (a) die
Achse n1 mit dem größten Trägheitsmoment θ1 , so rotiert der Körper sehr stabil um diese Achse.
Ähnlich sieht es aus, wenn man wie in (c) dargestellt die Achse n3 mit dem kleinsten Trägheitsmoment θ3 wählt. Der Körper führt eine gleichmäßige Drehung um diese Achse aus.
Ganz anders sieht das Ergebnis in Abbildung 18.1 (b) aus. Hier dreht sich der Körper zunächst
um die Hauptachse n2 mit dem mittleren Trägheitmoment θ2 . Nach einer kurzen Flugstrecke
beginnt der Körper allerdings zu taumeln. Die Rotation ist alles andere als gleichmäßig. Eine
konstante Rotationsachse ist nicht mehr erkennbar. Es geschieht sogar noch etwas merkwürdiges.
Hält man das Buch beim Werfen so, dass zum Beispiel der Buchrücken in der rechten Hand liegt,
so kann man mit etwas Übung das Buch so wieder auffangen, dass der Rücken jetzt in der linken
Hand liegt.
In der Abbildung 18.1(b) ist diese Umklappbewegung an dem dunklen Band erkennbar, das
sich beim Abwurf rechts befand. Nach der taumelnden Bewegung im Zenit der Bahn befindet sich
das Band aber plötzlich auf der linken Seite. Das ist deswegen verblüffend, weil eine Rotation um
S1 = θ 1 ω1 ,
S2 = θ 2 ω2 ,
S3 = θ 3 ω3 .
(18.32)
Da die Trägheitsmomente zeitlich konstant sind, ergeben sich aus (18.27) für die Komponenten
des Drehimpulses die ähnlich aussehenden Differenzialgleichungen
Ṡ1 (t) =
θ2 − θ 3
S2 (t) S3 (t),
θ2 θ3
Ṡ2 (t) =
θ3 − θ 1
S3 (t) S1 (t),
θ3 θ1
Ṡ3 (t) =
θ1 − θ 2
S1 (t) S2 (t).
θ1 θ2
(18.33)
Auch diese können wir nicht explizit lösen. Aber wir können ein paar wichtige Aussagen über die
Lösungen machen. Wir wissen nämlich, dass der Drehimpuls eine Erhaltungsgröße, also zeitlich
konstant ist. Dass die Drehimpulskomponenten Sa zeitabhängig sind, liegt also nur daran, dass
die Basis na , bezüglich der diese Komponenten definiert sind, zeitabhängig ist.
131
3
Was können wir daraus schließen? Wenn der Drehimpuls konstant ist, dann ist insbesondere
sein Betrag konstant. Den können wir aber auch im körperfesten Bezugsystem ausrechen. Es ist
natürlich
(18.34)
|S|2 = S1 2 + S2 2 + S3 2 .
3
2
2
Wir wissen also, dass sich die Funktionen Sa (t) so verhalten, dass der Betrag dieses
PSfrag
Vektors
replacements
konstant bliebt. Im körperfesten Bezugsystem bewegt sich der Drehimpulsvektor auf einer Kugel
mit dem Radius ρ0 = |S|.
(c)
(d)
Aufgabe 18.9 Man zeige, dass aus den Bewegungsgleichungen (18.33) tats ächlich die Erhaltung
der rechten Seite von (18.34) folgt.
Eine zweite Erhaltungsgröße, die wir bereits einmal berechnet haben, ist die Energie. Hier ist
allein die Rotationsenergie von Belang. Für sie hatten wir den Ausdruck
Erot =
1
1
1
Θ(ω, ω) = Θab ωa ωb = (θ1 ω1 2 + θ2 ω2 2 + θ3 ω3 2 )
2
2
2
Aufgabe 18.10 Man bestätige auch diesen Erhaltungssatz durch explizites Einsetzen in die Bewegungsgleichungen (18.33).
Durch die Energiegleichung (18.36) wird im körperfesten Koordinatensystem ein Ellipsoid definiert. Seine Halbachsen entlang der Koordinatenachsen sind
p
p
p
ρ1 = 2 Erot θ1 ,
ρ2 = 2 Erot θ2 ,
ρ3 = 2 Erot θ3 .
(18.37)
Wir können daraus den Schluss ziehen, dass sich der Drehimpuls im körperfesten Koordinatensystem auf einer Bahn bewegt, die sowohl auf einer Kugel mit Radius ρ 0 , als auch auf einem
Ellipsoid mit den Halbachsen (ρ1 , ρ2 , ρ3 ) mit ρ1 > ρ2 > ρ3 liegt.
Die Schnittkurven dieser beiden geometrischen Objekte im dreidimensionalen Raum lassen
sich bestimmen. Sie sind in Abbildung 18.2(a) dargestellt. Gezeigt ist ein Ellipsoid im körperfesten Koordinatensystem, das zu einer festen Energie gehört. Die Halbachse ρ 1 in 1-Richtung ist
die größte, die Halbachse ρ3 in 3-Richtung die kleinste, und die Halbachse ρ2 in 2-Richtung hat
eine mittlere Länge.
Die Linien darauf sind die Schnittkurven mit Kugeln verschiedener Radien ρ 0 . Offenbar muss
ρ3 ≤ ρ0 ≤ ρ1 sein, damit es überhaupt eine Schnittmenge gibt. In physikalischen Größen ausgedrückt heißt das
|S|2
θ3 ≤
≤ θ1 .
(18.38)
2 Erot
(a)
1
(b)
Abbildung 18.2: Beim unsymmetrischen Kreisel (a) läuft der Drehimpulsvektor im körperfesten
System auf einer Schnittlinie von einer Kugel und einem Ellipsoid um. Aus der Geometrie dieser
Schnittkurven entnimmt man, dass eine Rotation um die 1- oder 3-Achse stabil ist, während eine
Rotation um die 2-Achse instabil ist. Beim symmetrischen Kreisel (b) sind alle Schnittkurven
Kreise.
(18.35)
gefunden. Auch diese Erhaltungsgröße können wir durch die Komponenten des Drehimpulses
ausdrücken. Es ist
1 S1 2
S2 2
S3 2 +
+
.
(18.36)
Erot =
2 θ1
θ2
θ3
1
An den Rändern dieses Intervalls besteht die Schnittmenge jeweils nur aus zwei Punkten. Dies
entspricht den bereits bekannten speziellen Lösungen der Kreiselgleichungen, nämlich den Rotationen um die Hauptachsen n1 und n3 , wobei die Rotation in positive oder negative Richtung
erfolgen kann.
Die Schnittkurven in der Nähe dieser Punkte sehen wie kleine Kreise aus. Wenn wir einen
Anfangszustand vorgeben, bei dem zum Beispiel ω ≈ ω1 n1 ist, dann ist S ≈ ω1 θ1 n1 . Der Drehimpuls im körperfesten System ist dann zwar nicht konstant, sondern läuft auf einer bestimmten
Schnittlinie von Ellipsoid und Kugel um. Aber auf dieser Linie kann er nicht “weit weg” laufen.
Er bleibt in der Nähe des Ausgangspunktes, so dass für alle Zeiten S ≈ ω 1 θ1 n1 und somit auch
ω ≈ ω1 n1 gilt.
Aufgabe 18.11 Das lässt sich auch quantitativ zeigen. Es sei als Anfangsbedingung ω 1 (t0 ) ω2 (t0 ), ω3 (t0 ) vorgegeben, das heißt die Komponente ω1 soll zur Zeit t = t0 viel größer als
die beiden anderen sein. Man zeige mit Hilfe der Kreisgleichungen (18.27), dass dies dann
auch so bleibt. Die Komponente ω1 (t) bleibt annähernd gleich, während die anderen Komponenten eine periodische Bewegung mit kleiner Amplitude ausführen. Dasselbe gilt für ω3 (t0 ) ω1 (t0 ), ω2 (t0 ).
Je mehr wir uns von der 1- bzw. 3-Achse entfernen, desto länger werden die Schnittlinien, die
vom Drehimpuls durchlaufen werden können. Wie man sich leicht überlegt, werden die Linien
immer als ganzes periodisch durchlaufen, und zwar in die durch die Pfeile an den Achsen angedeuteten Richtungen. Es gibt nämlich nirgendwo außer an den Schnittpunkten mit den Achsen
132
Fixpunkte, also Punkte, an denen die Zeitableitungen aller drei Komponenten des Drehimpulses
verschwinden.
Betrachten wir nun die diejenige Schnittkurve von Ellipsoid und Kugel, die sich für ρ 0 = ρ2
ergibt, also für den Fall, dass Energie und Drehimpuls so eingestellt sind wie bei einer Rotation
um die 2-Achse. Die entsprechende Schnittlinie besteht, wie man in der Abbildung erkennt, aus
vier Segmenten, die jeweils die positive mit der negativen 2-Achse verbinden.
Wenn wir nun einen Anfangszustand vorgeben, für den ω ≈ ω 2 n2 ist, und folglich S ≈
ω2 θ2 n2 , so werden wir in einem realen Experiment den Schnittpunkt mit der Achse nicht genau
treffen. Also läuft der Drehimpuls wieder auf einer durch den seinen Betrag und die Energie
bestimmten Schnittlinie um. Diesmal sieht diese Schnittlinie aber ganz anders aus. Sie bleibt
nicht in der Nähe des Ausgangspunktes, sondern läuft um das ganze Ellipsoid herum.
Wenn wir in der Nähe der positiven 2-Achse starten, dann werden wir nach einer gewissen
Zeit in der Nähe der negativen 2-Achse ankommen, und schließlich zwischen diesen Punkten
periodisch hin und her pendeln. Mit welcher Frequenz dieses Pendeln erfolgt, und auf welchem
der vier möglichen Wege der Drehimpuls über das Ellipsoid wandert, hängt sehr kritisch von
den Anfangsbedingungen ab. Nur, wenn wir eine der vier Schnittlinien genau treffen würden,
würde sich der Zustand für große Zeiten einem der beiden Achsen asymptotisch nähern und dort
verbleiben. Aber das ist im realen Experiment natürlich auch ausgeschlossen.
Aus einem Anfangszustand mit S ≈ S2 n2 entwickelt sich also nach einer gewissen Zeit ein
Zustand mit S ≈ −S2 n2 . Nun ist aber in Wirklichkeit nicht der Vektor S zeitabhängig, sondern
der körperfeste Basisvektor n2 . Vom raumfesten Bezugssystem aus gesehen kippt also nicht der
Drehimpuls um, sondern die Körperachse n2 . Das ist genau das merkwürdige Phänomen, dass wir
im Experiment in Abbildung 18.1 beobachtet haben. Es wird also durch die Kreiselgleichungen
erklärt.
Aufgabe 18.12 Auch hier kann eine quantitative Analyse genauere Informationen liefern. Es sei
als Anfangsbedingung ω2 (t0 ) ω1 (t0 ), ω3 (t0 ) vorgegeben. Man zeige, dass sich in diesem Fall
aus den Kreiselgleichungen keine Umlaufbewegung von ω 1 (t) und ω3 (t) ergibt, sondern ein exponentieller Anstieg. Diese Komponenten blieben nicht klein, sondern laufen innerhalb einer charakteristischen Zeitskala τ davon. Man zeige, dass die charakteristische Zeit τ , in der sich der
Drehimpuls um einen Faktor e weiter von der 2-Achse entfernt, durch
τ2 =
θ1 θ3
1
(θ1 − θ2 ) (θ2 − θ3 ) ω2 2
Der symmetrische Kreisel
Unter seinem symmetrischen Kreisel versteht man einen starren Körper, der zwei gleiche
Trägheitsmomente besitzt. Typische solche Körper sind Zylinder oder Quader mit quadratischer
Grundfläche. Da ein symmetrischer Kreisel meist ein Körper ist, der eine Rotationssymmetrie
um eine Achse besitzt, bezeichnet man diese Achse auch als Figurenachse. Dies sei im folgenden die 3-Achse im körperfesten Koordinatensystem. Die Ausrichtungen der anderen beiden, zur
Figurenachse senkrecht stehenden Hauptachsen muss man willkürlich festlegen.
Für die Trägheitsmomente gilt dann θ1 = θ2 = θ0 , wobei wir θ0 als Bezeichnung verwenden,
damit die folgenden Formeln etwas “symmetrischer” aussehen. Es ist nützlich, die folgenden drei
Fälle zu unterscheiden,
θ0 > θ 3 ,
θ0 = θ 3 ,
θ0 < θ 3 .
(18.40)
Der erste Fall liegt dann vor, wenn der Körper eher die Form einer Zigarre hat. Dann ist das
Trägheitsmoment um die Figurenachse kleiner als die beiden anderen. Der zweite Fall entspricht
einem kugelsymmetrischen Kreisel, dessen Bewegungsgleichungen schon in Aufgabe 18.5 gelöst
wurden. Wir werden diesen Fall hier nicht weiter betrachten. Im dritten Fall hat der Körper eher
die Form eines Tellers. Hier ist das Trägheitsmoment um die Figurenachse das größte.
Aufgabe 18.13 Welcher Fall liegt beim Rad aus Abbildung 12.3 vor und welche Werte haben dort
θ0 und θ3 ?
Setzen wir in die Kreiselgleichungen (18.27) die Trägheitsmomente θ 1 = θ2 = θ0 und θ3 ein, so
vereinfachen sich diese zu
θ0 ω̇1 (t) = (θ0 − θ3 ) ω2 (t) ω3 (t),
θ0 ω̇2 (t) = (θ3 − θ0 ) ω3 (t) ω1 (t),
(18.41)
Die Komponente der Winkelgeschwindigkeit in Richtung der Figurenachse ist somit konstant.
Damit können wir leicht die allgemeine Lösung der Kreiselgleichungen angeben. Es ist
ω1 (t) = σ0 cos(γ t + ϕ0 ),
ω2 (t) = σ0 sin(γ t + ϕ0 ),
mit
(18.39)
gegeben ist. Zur Abschätzung der Größenordnungen machen wir die realistische Annahme θ1 :
θ2 : θ3 = 4 : 3 : 2, und dass es uns gelingt, die 2-Achse bis auf 5◦ genau zu treffen. Man
zeige, dass dann die Taumelbewegung bereits nach etwa einer Umdrehung einsetzt. Wie genau
muss man die Achse treffen, wenn das Taumeln erst nach etwa zehn Umdrehungen des K örpers
einsetzen soll?
θ3 ω̇3 (t) = 0.
γ=
ω3 (t) = σ3 ,
θ3 − θ 0
σ3 .
θ0
(18.42)
(18.43)
Als Integrationskonstanten treten σ0 , σ3 und ϕ0 auf. Sie sind aus den Anfangsbedingungen zu
bestimmen. Die Winkelgeschwindigkeit läuft in körperfesten Koordinatensystem auf einem Kreis
um die Figurenachse um. Die Umlauffrequenz ist γ und hängt vom Verhältnis θ 0 : θ3 ab.
Wir können auch die Komponenten des Drehimpulses angeben. Sie sind
S1 (t) = θ0 σ0 cos(γ t + ϕ0 ),
133
S2 (t) = θ0 σ0 sin(γ t + ϕ0 ),
S3 (t) = θ3 σ3 .
(18.44)
replacements
(c)
(d)
3
3
z
PSfrag replacements
z
θ0
(θ3 − θ0 ) σ3
3
3
(θ3 − θ0 ) σ3
3
3
3
θ0
(c)
(d)
3
θ0 > θ 3
θ0 < θ 3
1
1
1
1
(b)
(a)
(18.45)
S2 (t) = θ0 σ0 sin(γ t),
S3 (t) = θ3 σ3 .
(18.46)
Wir schauen uns die Situation zum Zeitpunkt t = 0 in der 1-3-Ebene an, die in Abbildung 18.3
dargestellt ist. Wie man leicht sieht, gilt sogar zu jedem Zeitpunkt
S = θ0 ω + (θ3 − θ0 ) σ3 n3 .
(18.47)
ω3 (t) = σ3 ,
und für den Drehimpuls
S1 (t) = θ0 σ0 cos(γ t),
(a)
Auch der Drehimpuls läuft auf einem Kreis um die Figurenachse. Das sehen wir auch in Abbildung 18.2(b). Sind zwei der drei Trägheitsmomente gleich, so ist das Ellipsoid, das einer bestimmten Energie entspricht, rotationssymmetrisch um die Figurenachse. Folglich sind die Schnittlinien
mit einer Kugel Kreise, deren Mittelpunkt auf der Figurenachse liegen.
Durch eine geeignete Wahl dieses Koordinatensystems können wir die Integrationskonstanten
auch noch weiter einschränken. Wir schließen den trivialen Fall σ 3 = 0 aus. In diesem Fall rotiert
der Körper einfach gleichmäßig um eine zur Figurenachse senkrecht Hauptachse. Da wir dann
noch die Freiheit haben, die Richtung der Figurenachse n3 zu wählen, also gegebenenfalls n3
durch −n3 zu ersetzen, können wir stets erreichen, dass σ3 > 0 ist. ferner können wir durch
Drehen der beiden anderen Hauptachsen erreichen, dass zum Zeitpunkt t = 0 die Winkelgeschwindigkeit in der positiven 1-3-Ebene liegt, was äquivalent zu ϕ 0 = 0 und σ0 > 0 ist.
Damit fällt eine Integrationskonstante weg. Es bleiben nur die Parameter σ 0 > 0 und σ3 > 0,
und die daraus abgeleitete Größe γ. Es gilt für die Winkelgeschwindigkeit
ω2 (t) = σ0 sin(γ t),
x
(b)
Abbildung 18.4: Drehimpuls , Winkelgeschwindigkeit und Figurenachse 3 eines symmetrischen Kreisels im raumfesten Koordinatensystem. Alle drei Vektoren liegen stets in einer Ebene,
die sich um den konstanten Drehimpulsvektor dreht. Legt man um den Drehimpuls einen raumfesten Spurkegel, und um die Figurenachse einen körperfesten Polkegel so, dass sich diese beiden
Kegel auf einer Geraden schneiden, die in Richtung der Winkelgeschwindigkeit zeigt, so rollt der
Polkegel um den Spurkegel ab.
Abbildung 18.3: Winkelgeschwindigkeit und Drehimpuls eines symmetrischen Kreisels im
körperfesten Koordinatensystem. Für einen zigarrenförmigen Kreisel (a) liegt zwischen und
zwischen und 3 .
3 , für einen tellerförmigen Kreisel liegt
ω1 (t) = σ0 cos(γ t),
x
Die Vektoren n3 , ω und S liegen also stets in einer Ebene, und zwar sogar in einem Quadranten
der Ebene. Ihre Lage zueinander hängt jedoch vom Vorzeichen von θ 3 − θ0 ab.
Im Prinzip ist es nun möglich, auch die Bewegungsgleichungen für die Vektoren n a (t) zu
lösen, um so letztlich die Bewegungen des Körpers zu beschreiben. Aus den expliziten Lösungen
lässt sich aber nur wenig ablesen. Wir wollen daher versuchen, die Lösung grafisch zu bestimmen, um einen anschauliche Vorstellung von den Bewegungen eines symmetrischen Kreisels zu
bekommen.
Wir wechseln dazu vom körperfesten Bezugsystem in des raumfeste Bezugsystem. Das wählen
wir so, dass die Vektoren n3 , ω und S zum Zeitpunkt t = 0 in der x-z-Ebene liegen. Außerdem
soll der Drehimpuls S in Richtung der z-Achse zeigen. Da dieser Vektor zeitlich konstant ist,
wird er dann immer in diese Richtung zeigen. Schließlich soll sich der Schwerpunkt des Körpers
im Ursprung befinden und nicht bewegen.
Wir unterscheiden außerdem wieder zwischen einem zigarrenförmigen Körper und einem tellerförmigen Körper. Die beiden Fälle sind in Abbildung 18.4 entsprechend der Unterscheidung
in Abbildung 18.3 dargestellt. Betrachten wir zuerst den zigarrenförmigen Kreisel in Abbildung 18.4(a). In diesem Fall liegen alle drei Vektor im positiven x-z-Quadranten, wobei ω zwischen S und n3 liegt.
Wie sieht die Zeitentwicklung dieser Vektoren aus? Alle drei Vektoren liegen stets in einer
Ebene. Außerdem ist S konstant, und wie man leicht aus der oben angegebenen Lösung im
134
z
ϑ
z
0
3
2
3
χ
00
1
y
ϕ
00
2
ϕ
y
ϑ
x
x
0
1
0
2
y
x
(b)
(a)
Aufgabe 18.15 Die Erde ist in guter Näherung ein leicht tellerförmiger, symmetrischer Kreisel
mit θ3 ≈ 1.003θ0. Die Winkelgeschwindigkeit zeigt jedoch nicht genau in Richtung der Figurenachse. Würde man am Nordpol die Punkte markieren, an denen die Figurenachse, der Drehimpuls
und die Winkelgeschwindigkeit die Oberfläche durchstoßen, so würde man eine Abweichung von
einigen Metern sehen, und die Punkte würden sich langsam umkreisen. Wie sind die Punkte an-
00
3
Aufgabe 18.14 Man berechne für die oben angegebene Lösung der Kreiselgleichungen mit den
Integrationskonstanten σ0 und σ3 die Präzessionsfrequenz. Diese lässt sich durch eine einfache
geometrische Überlegung anhand der Abbildung 18.4 bestimmen. Entscheidend sind dabei die
Öffnungswinkel der beiden Kegel. Warum ist die Kreisfrequenz γ nicht dasselbe wie die Pr äzessionsfrequenz?
z
körperfesten System entnimmt, sind die Winkel zwischen den drei Vektoren ebenfalls zeitlich
konstant. Also bleibt als einzig mögliche Bewegung eine gemeinsame Drehung von n 1 und ω
um die z-Achse, also um den Drehimpuls.
Dieses Phänomen heißt Präzession. Dreht sich ein symmetrischer Kreisel so, dass sein Drehimpuls nicht genau in die Richtung der Figurenachse oder in eine dazu senkrechte Richtung,
dann läuft die Figurenachse periodisch um den Drehimpuls um. Die Kreisfrequenz, mit der das
geschieht, nennt man Präzessionsfrequenz. Um sie zu berechnen, müssen wir uns zunächst überlegen, wie sich eigentlich der Körper selbst bewegt.
Um das herauszufinden, genügt es zu wissen, dass zu jedem Zeitpunkt diejenigen Punkte des
Körpers in Ruhe sind, die sich gerade auf der momentanen Drehachse befinden. Das ist die Achse,
die durch die Winkelgeschwindigkeit festgelegt wird. Die Winkelgeschwindigkeit läuft auf einem
Kegel um die z-Achse um, den wir als Spurkegel bezeichnen. Der Öffnungswinkel dieses Kegels
ist der Winkel zwischen S und ω. Wir stellen uns diesen Kegel als im Raum fixiert vor.
Nun konstruieren wir einen zweiten Kegel. Die Achse dieses Kegels ist die Figurenachse n 3 ,
und sein Öffnungswinkel ist der Winkel zwischen n3 und ω. Diesen Kegel nennen wir Polkegel
und stellen uns vor, dass er fest mit dem rotierenden Körper verbunden ist. Die beiden Kegel sind
so gemacht, dass sie sich entlang einer Halbgeraden berühren. Das ist genau die Halbgerade, die
von der Winkelgeschwindigkeit ω aufgespannt wird.
Was passiert nun, wenn der Körper sich bewegt? Da alle Punkt auf der Schnittlinie der beiben
Kegel in Ruhe sein müssen, ist die einzig mögliche Bewegung des Polkegels ein abrollen auf
dem Spurkegel. Wie man sich leicht überlegt, bleiben dabei die drei Vektoren tatsächlich stets in
einer Ebene, und es sind immer genau die Punkte des Körpers in Ruhe, die sich gerade auf der
Schnittlinie der beiden Kegel befinden.
Die Schlussfolgerung ist, dass die Bewegungen eines zigarrenförmigen symmetrischen Kreisels durch das Abrollen eines Kegels auf einem anderen Kegel beschrieben werden können. Der
eine Kegel steht fest im Raum, der andere ist fest mit dem Körper verbunden. Für einen tellerförmigen Kreisel sieht es ganz ähnlich aus. Der einzige Unterschied ist, wie man in Abbildung 18.4(b) sieht, dass hier der Polkegel mit seiner Innenseite am Spurkegel abrollt, weil die
Anordnung der drei Vektoren verschieden ist.
1
(c)
χ
Abbildung 18.5: Die Eulerschen Winkel zu Bestimmung der Lage eines starren Körpers im
Raum. Der Körper liegt zuerst so, dass seine Hauptachsen mit den Koordinatenachsen übereinstimmen. Dann erfolgt eine Drehung um die 3-Achse um den Winkel ϕ = −40◦ (a), anschließend eine Drehung um die 2-Achse um den Winkel ϑ = 50◦ (b), und schließlich wieder eine
Drehung um die 3-Achse um den Winkel χ = 70◦ (c).
geordnet? Welcher Punkt ist ortsfest, und mit welcher Periode und in welche Richtung umkreisen
ihn die anderen beiden Punkte?
Der Konfigurationsraum und die Drehgruppe
Der freie Kreisel kann natürlich auch im Rahmen der Lagrangeschen oder Hamiltonschen Mechanik beschrieben werden. Dazu müssen wir aber zuerst auf dem Konfigurationsraum Q geeignete
Koordinaten einführen, denn bis jetzt haben wir nur eine implizite Beschreibung dieses Raumes.
Um eine Konfiguration festzulegen, müssen wir den Bezugsort r und die körperfeste Basis n a
angeben. Das sind insgesamt 12 reelle Zahlen, nämlich die Komponenten r i und die Übergangsmatrizen Λai aus (17.12).
Der Körper hat aber nur 6 Freiheitsgrade, denn diese 12 reellen Größen sind nicht unabhängig.
Die Übergangsmatrizen Λai sind nämlich orthogonal, was auf 6 unabhängige Beziehungen zwischen den Einträgen führt. Ein Möglichkeit diese Einschränkungen zu berücksichtigen wäre, sie
als Zwangsbedingungen zu betrachten. Es ist aber einfacher, sie durch Einführung von geeigneten
reduzierten Koordinaten zu eliminieren.
Wir müssen dazu die Lage des Körpers im Raum durch drei unabhängige Koordinaten festlegen. Man verwendet dazu die Eulerschen Winkel, die wir aus einem anderen Zusammenhang
bereits kennen. Wir haben sie nämlich benutzt, um den Konfigurationsraum des Rades aus Abbildung 12.3 zu beschreiben. Dies war bereits ein einfaches Beispiel für einen starren Körper.
In Abbildung 18.5 ist die Definition dieser Winkel noch einmal in einer etwas anderen Form
dargestellt. Wir beginnen mit einem Körper, dessen Hauptachsen entlang der drei Koordinaten-
135
achsen ausgerichtet sind, also die 1-Achse entlang der x-Achse, die 2-Achse entlang der y-Achse
und die 3-Achse entlang der z-Achse. Nun drehen wir den Körper wie in der Abbildung (a) gezeigt um einen Winkel ϕ um die 3-Achse des Körpers, die bis jetzt noch mit der z-Achse identisch
ist. Die gedrehten Körperachsen sind dann
n001 = cos ϕ ex + sin ϕ ey ,
n002 = − sin ϕ ex + cos ϕ ey ,
n003 = ez .
(18.48)
Im zweiten Schritt drehen wir den Körper um die neue 2-Achse um einen Winkel ϑ. Das Ergebnis
ist in der Abbildung (b) dargestellt. Die Körperachsen sind jetzt
n01 = cos ϑ n001 − sin ϑ n003 ,
n02 = n002 ,
n03 = sin ϑ n001 + cos ϑ n003 .
(18.49)
Schließlich drehen wir den Körper noch einmal um die 3-Achse, und zwar um einen Winkel χ.
Die resultierenden Körperachsen in der Abbildung (c) sind
n1 = cos χ
n01
+ sin χ
n02 ,
n2 = − sin χ
n01
+ cos χ
n02 ,
n3 =
n03 .
darstellen. Es ist aber nicht einfach ein sechsdimensionaler affiner Raum, denn die Koordinate
ϑ läuft ja nur von 0 bis π, und die anderen Winkelkoordinaten sind periodisch. Wir betrachten
die Stellen ϑ = 0 und ϑ = π im Konfigurationsraum etwas genauer. Für ϑ = 0 ergibt sich aus
(18.52)
n1 = cos(χ + ϕ) ex + sin(χ + ϕ) ey ,
n2 = − sin(χ + ϕ) ex + cos(χ + ϕ) ey ,
n3 = e z .
(18.54)
Das ergibt sich auch aus der Darstellung in Abbildung 18.5. Wenn die mittlere Drehung wegfällt,
addieren sich die Drehwinkel ϕ und χ. Der Körper wird nur um die z-Achse gedreht. Offenbar
ist für ϑ = 0 eine der beiden anderen Koordinaten redundant. Nur die Summe χ + ϕ ist für die
Lage des Körpers relevant.
Ganz ähnlich sieht es für ϑ = π aus. Dann gilt nämlich
n1 = − cos(χ − ϕ) ex + sin(χ − ϕ) ey ,
(18.50)
n2 = sin(χ − ϕ) ex + cos(χ − ϕ) ey ,
Um zu zeigen, dass wir auf diese Weise tatsächlich jede mögliche Lage des Körpers im Raum
erfassen, betrachten wir zuerst den Vektor n3 . Wenn wir die Drehungen ineinander einsetzen,
finden wir
n3 = −ez
(18.55)
Hier ist nur die Differenz χ − ϕ relevant. Auch das lässt sich in der Abbildung 18.5 erkennen. Die
mittlere Drehung ist in diesem Fall eine Drehung um 180◦, bei der die z-Achse umgekippt wird.
Dadurch kommt es zu ein paar veränderten Vorzeichen der Winkelfunktionen, und die Drehwinkel
(18.51) ϕ und χ sind voneinander abzuziehen.
n3 = n03 = sin ϑ n001 + cos ϑ n003 = sin ϑ cos ϕ ex + sin ϑ sin ϕ ey + cos ϑ ez .
Daraus ergibt sich die folgende Möglichkeit, den Konfigurationsraum zu beschreiben. Für 0 <
Das ist der bekannte radiale Einheitsvektor in Kugelkoordinaten. Wir können also die 3-Achse ϑ < ϕ sind die Koordinaten ϕ und χ jeweils periodisch mit einer Periode von 2π, aber ansonsten
des Körpers in jede beliebige Richtung des Raumes ausrichten. Den Wertebereich von ϑ können treten keine Redundanzen auf. Wir können uns daher eine Schar von Tori vorstellen, einen für
wir dabei auf 0 ≤ ϑ ≤ π einschränken, und ϕ ist wie üblich periodisch, ϕ ≡ ϕ + 2π. Da die jedes ϑ, und uns auf diesen Tori jeweils die Koordinatenlinien von ϕ und χ als umlaufende Kreise
letzte Drehung auf die 3-Achse keinen Einfluss mehr hat, können wir den Körper anschließend vorstellen. An den Rändern dieses Intervalls schrumpft der Torus dann jeweils zu einem Ring
noch in jede mögliche Lage drehen, nachdem wir die 3-Achse fixiert haben. Natürlich ist dann zusammen, denn dort ist nur noch eine der beiden Koordinaten relevant.
auch χ eine periodische Koordinate mit χ = χ + 2π.
Sehr anschaulich ist diese Vorstellung aber noch nicht. Überraschenderweise gibt es noch eine
einfachere Darstellung. Der Konfigurationsraumes ist nämlich eine dreidimensionale Sph äre, oder
Aufgabe 18.16 Man bestätige durch Einsetzen die folgenden Ausdrücke für die beiden anderen
genauer um eine projektive Sphäre. Wir definieren zunächst, was das ist, und zeigen dann, das der
Basisvektoren. Es gilt
Konfigurationsraum des starren Körpers tatsächlich so aussieht.
4
n1 = (cos ϑ cos ϕ cos χ − sin ϕ sin χ) ex + (cos ϑ sin ϕ cos ϑ + cos ϕ sin χ) ey − cos χ sin ϕ ez , Die dreidimensionale Sphäre definieren wir als Teilmenge des R ,
n2 = −(cos ϑ cos ϕ sin χ + sin ϕ cos χ) ex − (cos ϑ sin ϕ sin ϑ − cos ϕ cos χ) ey + sin χ sin ϕ ez ,
n3 = sin ϑ cos ϕ ex + sin ϑ sin ϕ ey + cos ϑ ez .
(18.52)
Wie sieht nun der Konfigurationsraum Q aus? Können wir ihn in irgendeiner Form anschaulich
beschreiben? Zunächst können wir sechs Koordinaten (x, y, z, ϑ, ϕ, χ) einführen, wenn wir den
Ort des Bezugspunktes in durch
r = o + x e x + y ey + z ez
(18.53)
S3 = { (u1 , u2 , u3 , u4 ) ∈ R4 ,
u12 + u22 + u32 + u42 = 1 }.
(18.56)
Natürlich könnten wir die Sphäre S3 auch als Mannigfaltigkeit ohne eine solche Einbettung definieren. Aber in dieser Form ist die folgende Herleitung ein wenig einfacher. Die projektive Sph äre,
oder der projektive dreidimensionale Raum RP3 ergibt sich daraus, indem man die antipodischen
Punkte der Sphäre miteinander identifiziert. Man führt eine Äquivalenzrelation ∼ ein, mit
(u1 , u2 , u3 , u4 ) ∼ (−u1 , −u2 , −u3 , −u4 ),
und definiert RP3 = S3 /∼ als Quotientenraum.
136
(18.57)
Aufgabe 18.17 Eine alternative Definition des dreidimensionalen projektiven Raumes geht
von der Menge R4 − (0, 0, 0, 0) aus und definiert die Äquivalenzrelation (u1 , u2 , u3 , u4 ) ∼
(k u1 , k u2 , k u3 , k u4 ) für alle k ∈ R − {0}. Dann setzt man RP3 = (R4 − (0, 0, 0, 0))/∼.
Der projektive dreidimensionale Raum ist in diesem Sinne die Menge aller Geraden durch den
Ursprung im R4 . Man zeige, dass diese Definition zu der obigen äquivalent ist.
Nun definieren wir eine Abbildung vom Konfigurationsraum des starren Körpers in die Mannigfaltigkeit S3 /∼. Dazu setzen wir
ϑ
ϑ χ−ϕ
χ−ϕ
u1 = sin
cos
,
u2 = sin
sin
,
2
2
2
2
ϑ
ϑ χ+ϕ
χ+ϕ
cos
,
u4 = cos
sin
.
(18.58)
u3 = cos
2
2
2
2
Zunächst überzeugen wir uns davon, dass die Abbildung wohldefiniert ist. Man sieht leicht, dass
die Summe der Quadrate dieser Ausdrücke gleich Eins ist, so dass die Abbildung tatsächlich in
die Sphäre erfolgt. Aber ist sie auch eindeutig?
Wenn ϑ von 0 bis π läuft, läuft sin(ϑ/2) von 0 bis 1 und cos(ϑ/2) von 1 bis 0. Die ersten
Faktoren sind also stets positiv, wobei u1 und u2 bei ϑ = 0 verschwinden, während u3 und u4
bei ϑ = π verschwinden. Gleichzeitig sehen wir, dass an diesen Stellen die beiden verbleibenden Koordinaten nur von χ + ϕ bzw. χ − ϕ abhängen. Die Abbildung hat also genau dieselben
Redundanzen wie die Eulerschen Winkel bei der Darstellung der Lage des Körpers in Raum. Dasselbe gilt für die Periodizität von ϕ und χ. Addieren wir 2π zu einer dieser beiden Koordinaten,
so ändern sich jeweils die Vorzeichen aller vier u’s. Da wir antipodische Punkte auf der Sphäre
identifiziert haben, sind das aber dieselben Punkte in S3 /∼.
Ebenso leicht lässt sich zeigen, dass die Abbildung umkehrbar und somit bijektiv ist. Zunächst
bestimmen wir ϑ eindeutig durch die Gleichung
ϑ u2+u2
1
2
= 2
.
(18.59)
tan2
2
u3 + u42
raumfesten Basis ei durch eine orthogonale Transformation dargestellt. Da wir den Körper dabei
nicht spiegeln können, muss dies eine Transformation mit der Determinante +1 sein, die durch
ein Element aus der Gruppe SO(3) dargestellt wird.
Wir haben also auch eine anschauliches Beschreibung der Drehgruppe SO(3) als Mannigfaltigkeit gefunden, und wir haben sogar ein Koordinatensystem auf dieser Gruppe eingeführt.
Die Gruppe SO(3) ist eine dreidimensionale Sphäre, auf der gegenüberliegende Punkten identifiziert sind, und die Eulerschen Winkel stellen ein Koordinatensystem auf dieser Mannigfaltigkeit
dar. Allerdings mit ein paar Einschränkungen, die denen eines Kugelkoordinatensystems auf der
Sphäre S2 entsprechen. Die Koordinaten sind teilweise redundant.
Aufgabe 18.18 Die Gruppe SU(2) ist die Menge aller unitären komplexen 2×2-Matrizen, also
Matrizen der Form
a b
U=
(18.60)
mit a, b, c, d ∈ C, U U † = I,
c d
wobei U † die hermitesch konjugierte Matrix ist, die sich durch Transposition und komplexe Konjugation ergibt, also
∗ ∗ a c
a b
†
.
(18.61)
U=
⇒ U =
b∗ d ∗
c d
Man beweise die folgenden Aussagen. Die Gruppe SU(2) ist dreidimensional und l ässt sich
durch eine einfache Darstellung der Einträge a, b, c, d als Funktionen von vier reellen Zahlen
u1 , u2 , u3 , u4 bijektiv auf die Sphäre S3 ⊂ R4 abbilden. Die Sphäre S3 ist also selbst eine
Gruppe, nämlich die Matrixgruppe SU(2). Die Gruppe SO(3) ergibt sich als Quotientengruppe SU(2)/∼ wobei U ∼ U 0 genau dann gilt, wenn U 0 = −U ist. Jedem Element der Drehgruppe
SO(3) entsprechen folglich genau zwei Elemente der Gruppe SU(2), die sich durch das Vorzeichen der Matrizen unterscheiden. Dieser Umstand wird in der Quantenmechanik eine zentrale
Rolle spielen.
Anschließend ergeben sich die Winkel χ − ϕ und χ + ϕ wie üblich in einem ebenen Polarkoordinatensystem aus den Größen (u1 , u2 ) bzw. (u3 , u4 ), wobei wieder die bekannte Redundanz
auftritt, wenn u1 = u2 = 0 bzw. u3 = u4 = 0 ist.
Auch wenn die Zuordnung (18.58) zwischen den Lagen eines Körpers im Raum zu den Punkten
auf der projektiven Sphäre S3 /∼ keine unmittelbare geometrische Interpretation hat, können wir
uns nun zumindest ein anschauliches Bild von dem Konfigurationsraum Q eines starren Körpers
machen. Wenn wir von der Bewegung des Bezugspunktes absehen und nur die Drehbewegung
betrachten, so ist es eine dreidimensionalen Sphäre, bei der gegenüberliegende Punkte identifiziert
wurden.
Diese Beobachtung ist deshalb von einem gewissen Interesse, weil dieser Konfigurationsraum
nichts anderes ist als die spezielle orthogonale Gruppe SO(3). Wie wir bereits an anderer Stelle bemerkt haben, wird nämlich die Beziehung zwischen der körperfesten Basis n a und einer
137
Herunterladen