Statistische Physik

Werbung
Statistische Physik
Barbara Drossel, Technische Universität Darmstadt
Sommersemester 2011
Inhaltsverzeichnis
1 Wahrscheinlichkeiten
1.1 Einführung . . . . . . . . . . . . . . . . . . . .
1.2 Hintergründe . . . . . . . . . . . . . . . . . . .
1.3 Interpretationen von Wahrscheinlichkeiten . . .
1.4 Mathematische Formulierung . . . . . . . . . .
1.5 Einige wichtige Wahrscheinlichkeitsverteilungen
1.5.1 Die Binomialverteilung . . . . . . . . . .
1.5.2 Gauß-Verteilung . . . . . . . . . . . . .
1.5.3 Poissonverteilung . . . . . . . . . . . . .
1.6 Zentraler Grenzwertsatz . . . . . . . . . . . . .
1.7 Information . . . . . . . . . . . . . . . . . . . .
1.8 Das Prinzip der maximalen Ignoranz . . . . . .
1.9 Zusammenhang mit dem Entropiesatz . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4
4
5
6
7
8
8
10
12
13
15
16
18
2 Von
2.1
2.2
2.3
2.4
2.5
2.6
der klassischen Mechanik zur statistischen Mechanik
Die Aufgabe . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Die Liouville-Gleichung . . . . . . . . . . . . . . . . . . . . .
Langzeitverhalten und Ergodizität . . . . . . . . . . . . . . .
Irreversibilität . . . . . . . . . . . . . . . . . . . . . . . . . . .
Die Boltzmann-Gleichung . . . . . . . . . . . . . . . . . . . .
Wo die klassische Mechanik außerdem noch an Grenzen stößt
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
21
21
21
23
24
26
28
3 Von
3.1
3.2
3.3
3.4
der Quantenmechanik zur statistischen Mechanik
Schrödingergleichung für N Teilchen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Fermionen und Bosonen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Beschreibung eines Gases als isoliertes quantenmechanisches N -Teilchensystem . . . . . .
Beschreibung eines Gases als mit der Umgebung über ein Potenzial wechselwirkendes quantenmechanisches N -Teilchensystem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Beschreibung durch den Dichteoperator . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Explizite Modellierung des Wärmebads: Das Phänomen der Dekohärenz . . . . . . . . . .
3.6.1 Ein einfaches Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.6.2 Diskussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Schlussbemerkungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.5
3.6
3.7
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4 Gleichgewichtsensembles
4.1 Das mikrokanonische Ensemble . . . . . . . . . . . . . . . . . . . .
4.2 Das kanonische Ensemble . . . . . . . . . . . . . . . . . . . . . . .
4.2.1 Systeme in thermischem Kontakt . . . . . . . . . . . . . . .
4.2.2 Die kanonische Zustandssumme und der Boltzmann-Faktor
4.2.3 Bezug zur Thermodynamik . . . . . . . . . . . . . . . . . .
1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
32
32
33
35
35
37
39
41
41
42
45
45
46
46
47
49
4.2.4
4.3
4.4
Äquipartitionstheorem, Energiefluktuationen und Äquivalenz der statistischen
sembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2.5 Vom Nutzen der Zustandssumme . . . . . . . . . . . . . . . . . . . . . . . . .
Das großkanonische Ensemble . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3.1 Systeme mit Teilchenaustausch . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3.2 Bezug zur Thermodynamik . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Der Druck . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.4.1 Systeme, die miteinander Arbeit austauschen können . . . . . . . . . . . . . .
4.4.2 Gibbs-Duhem-Relation in homogenen Systemen . . . . . . . . . . . . . . . . .
5 Ideale Quantengase
5.1 Fermi-Dirac und Bose-Einstein-Verteilung . . .
5.1.1 Fermi-Dirac-Verteilung . . . . . . . . . .
5.1.2 Bose-Einstein-Verteilung . . . . . . . . .
5.1.3 Klassischer Grenzfall . . . . . . . . . . .
5.2 Fermi-Gas bei tiefen Temperaturen . . . . . . .
5.3 Bose-Einstein-Kondensation . . . . . . . . . . .
5.4 Photonengas und Planck-Verteilung . . . . . .
5.5 Debye-Gesetz und Phononen in Festkörpern . .
5.5.1 Phononen als harmonische Oszillatoren
5.5.2 Die Debye-Näherung . . . . . . . . . . .
5.5.3 Thermodynamische Größen . . . . . . .
En. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
50
51
52
52
54
55
55
57
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
59
59
59
60
61
62
64
66
68
68
69
69
6 Reale Gase, Flüssigkeiten und Lösungen
6.1 Virialentwicklung und van der Waals-Gas . . . . . . . . .
6.2 Verdünnte Lösungen . . . . . . . . . . . . . . . . . . . . .
6.2.1 Zustandssumme, Druck und chemisches Potenzial .
6.2.2 Der osmotische Druck . . . . . . . . . . . . . . . .
6.2.3 Gefrierpunktserniedrigung . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
72
72
75
75
77
77
7 Phasenübergänge
7.1 Phasengleichgewichte . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.1.1 Extremalbedingungen . . . . . . . . . . . . . . . . . . . . . .
7.1.2 Phasengrenzkurven . . . . . . . . . . . . . . . . . . . . . . . .
7.1.3 Clausius-Clapeyron-Gleichung . . . . . . . . . . . . . . . . . .
7.1.4 Gibbs-Phasenregel und Phasengleichgewicht . . . . . . . . . .
7.2 Einführung in Phasenübergänge . . . . . . . . . . . . . . . . . . . . .
7.3 Mean-Field-Theorie . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.3.1 Landau-Theorie für Phasenübergänge . . . . . . . . . . . . .
7.3.2 Kritische Exponenten . . . . . . . . . . . . . . . . . . . . . .
7.4 Das eindimensionale Ising-Modell und die Transfer-Matrix-Methode
7.5 Das zweidimensionale Isingmodell und die Ortsraumrenormierung . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
80
80
80
80
81
82
84
86
87
89
90
93
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Quellenangaben und Danksagung
Die folgenden Lehrbücher wurden bei der Erstellung des Skripts zu Rate gezogen:
• C. Kittel, Thermal Physics
• F. Schwabl, Statistische Mechanik
• F. Reif, Statistical and Thermal Physics
• L. Reichl, A Modern Course in Statistical Physics
• M. Kardar, Statistical Physics of Particles
Weitere Anregungen kamen aus den hilfreichen Vorlesungsskripten von Heinz Horner (www.tphys.uniheidelberg.de/∼horner/Stat.Mech.pdf) und Friederike Schmid
(www.physik.uni-bielefeld.de/∼schmid/Lehre/Thermo WS03/script.html).
Ein herzlicher Dank geht an alle, die Korrekturen zum Skript vorgeschlagen haben: Eva Gehrmann,
Michael Harrach, Lotta Heckmann, Timm Plefka, Sebastian Plitzko, Simon Quittek, Yixian Song, Felix
Wissel.
Einführung
Statistische Physik befasst sich mit Systemen, die aus sehr vielen Teil(ch)en bestehen. Beispiele sind
Gase, Flüssigkeiten, Magnete, Sandhaufen, Pudding, Zivilisationen, Verkehr, die Wirtschaft, etc. Das
Ziel der statistischen Physik ist es, die makroskopischen Eigenschaften des Systems aus den Eigenschaften seiner Teile und ihrer Wechselwirkungen abzuleiten. Diese mikroskopischen Eigenschaften einzelner
Teilchen sind oft recht einfach und im Prinzip verstanden. Die Bewegungen von Atomen und Molekülen
und ihre Wechselwirkungen untereinander werden durch die Quantenmechanik beschrieben. Daraus die
Eigenschaften eines Gases (Druck, Temperatur, Kondensation zu einer Flüssigkeit) abzuleiten, ist jedoch
eine höchst nichttriviale Aufgabe. Dies liegt zum einen daran, dass die Teilchenzahl so groß ist, dass
man selbst mit dem modernsten Computer unmöglich die Bewegungsgleichungen für das gesamte System
auswerten kann. Zum anderen liegt es daran, dass auf der makroskopischen Ebene qualitativ neue Eigenschaften zu Tage treten, die selbst bei genauer Kenntnis der Wechselwirkungen der einzelnen Teilchen
nur schwer zu verstehen sind. Beispiele sind Phasenübergänge, die elektrische Leitfähigkeit eines Materials, die viskoelastischen Eigenschaften gewisser Kunststoffe, das Auftreten eines Verkehrsstaus oder
eines Börsenkrachs. Systeme, die nicht im thermodynamischen Gleichgewicht sind, hängen außerdem oft
empfindlich von ihren Randbedingungen ab. Das Verhalten solcher Systeme wird also nicht nur durch
ihre Bestandteile bestimmt, sondern zusätzlich auch durch ihre Umgebung. Diese Vorlesung befasst sich
aber hauptsächlich mit Gleichgewichtssystemen.
In der statistischen Physik spielen Wahrscheinlichkeiten eine zentrale Rolle. Dies liegt an der Unvorhersagbarkeit der detaillierten zeitlichen Entwicklung eines Systems aus vielen Teilchen. Wir beginnen
deshalb die Vorlesung mit einer Behandlung von Wahrscheinlichkeiten, Wahrscheinlichkeitsverteilungen
und Information. Da die durch die statistische Physik beschriebenen Systeme sich auf mikroskopischer
Ebene im Prinzip durch die klassische Mechanik oder die Quantenmechanik beschreiben lassen, befassen
wir uns als nächstes mit der Frage, wie die statistische Physik mit diesen beiden anderen Gebieten zusammenhängt. Wir werden sehen, dass sie nicht vollständig aus ihnen ableitbar ist. Um die statistische
Physik zu begründen, ist eine neue Grundannahme nötig, nämlich dass alle Zustände gleicher Energie im Gleichgewicht gleich wahrscheinlich sind. Die statistische Physik hat ihre eigene Naturkonstante,
nämlich die Boltzmann-Konstante kB . Auch dies weist darauf hin, dass sich die statistische Physik nicht
vollständig auf die klassische Mechanik oder die Quantenmechanik reduzieren lässt. Nach diesem grundlegenden Teil kommen wir zu verschiedenen Anwendungen der Statistischen Physik. Dies ist zunächst die
statistische Physik von Gleichgewichtssystemen, im Rahmen derer die aus der Thermodynamik bekannten Größen und Beziehungen abgeleitet werden. Dann werden Quantengase behandelt, und wir werden
die spezifische Wärme von Metallen und Festkörpern, die Bose-Einstein-Kondensation und das Plancksche Strahlungsgesetz herleiten. Das van-der-Waals-Gas und die Theorie von Lösungen sind das Thema
des nächsten Kapitels. Am Schluss des Semesters gibt es eine Einführung in Phasengleichgewichte und
Phasenübergänge.
3
Kapitel 1
Wahrscheinlichkeiten
1.1
Einführung
In der Praxis arbeitet man in der Physik immer dann mit Wahrscheinlichkeiten, wenn man Ereignisse
nicht mit Sicherheit vorhersagen kann, aber trotzdem quantitative Aussagen treffen will. Als Erstes muss
man den Raum der möglichen Ereignisse festlegen, um die es geht. Beim Münzwurf sind dies “Kopf” und
“Zahl”, beim Würfeln die Zahlen 1 bis 6, beim Fußball “Gewinnen”, “Verlieren” und “Unentschieden”
(oder das genaue Torverhältnis), bei der Klausur am Ende dieses Semesters die Noten 1.0, 1.3, 1.7, etc.
Es gibt mehrere Möglichkeiten, diesen Wahrscheinlichkeiten Werte zuzuweisen.
1. Wenn man die Prozesse, die zum Ergebnis führen, oder die Prinzipien, die hinter den Wahrscheinlichkeiten stecken (wie z.B. Symmetrien und Invarianzen) genügend gut versteht, kann man aufgrund
dieser Kenntnis Wahrscheinlichkeiten zuweisen. Bei einem Würfel sind alle sechs Seiten gleichberechtigt (wenn der Würfel gut hergestellt ist), und deshalb weiß man, dass die Wahrscheinlichkeit
für jede Zahl 1/6 beträgt. Bei der Messung der z-Komponente des Spins eines Spin-1/2-Teilchens,
das man vorher in x-Richtung polarisiert hat, weiß man aus den Gesetzen der Quantenmechanik,
dass jedes der beiden Ergebnisse die Wahrscheinlichkeit 1/2 hat.
2. Wenn man eine genügend gute Statistik hat, kann man aus dieser Statistik Wahrscheinlichkeiten
ableiten, indem man die gemessenen Häufigkeiten mit den zugrunde liegenden Wahrscheinlichkeiten
identifiziert. Davon leben die Versicherungen. Sie wissen nicht, wessen Haus als nächstes Feuer fängt,
aber sie wissen, wie häufig im Durchschnitt Brände auftreten und können auf dieser Basis die
Versicherungsprämie berechnen. Um aus Statistiken Wahrscheinlichkeiten abzuleiten, müssen zwei
Voraussetzungen erfüllt sein. Zum ersten muss das Ensemble, für das die Statistik erhoben wird, klar
definiert werden. So ist zum Beispiel die Häufigkeit von Krebserkrankungen verschieden für Raucher
und Nichtraucher, für Personen unter und über 50 Jahren, für Personen, die Sport treiben und für
Couchpotatoes. Entsprechend gelten die aus der Statistik abgeleiteten Wahrscheinlichkeitsaussagen
unter der Voraussetzung, dass man über die Person, deren Krebsrisiko man angeben will, nicht
mehr Information berücksichtigt als die Zugehörigkeit zum gewählten Ensemble. Zweitens muss
die aus der Statistik resultierende Häufigkeitsverteilung immer genauer werden, je größer man die
Stichprobe wählt. Nur dann sind die aus der Häufigkeitsverteilung abgeleiteten Wahrscheinlichkeiten
zuverlässig. Deshalb schließen übrigens Versicherungen die ganz seltenen katastrophalen Ereignisse
wie Krieg, Erdbeben, etc. als Versicherungsfälle aus, da diese die Häufigkeitsverteilung von einem
Moment auf den anderen total verändern.
3. Für theoretische und mathematische Überlegungen werden die Wahrscheinlichkeiten oft einfach
postuliert. Man schafft ein fiktives oder modellhaftes Szenario, für das man dann seine Überlegungen anstellt. Ein Beispiel hierfür sind mathematische Modelle für biologische Evolution, in denen
Wahrscheinlichkeiten für Mutationen oder für das Überleben eine wichtige Rolle spielen. Diese
4
Wahrscheinlichkeiten sind variable Modellparameter, und man untersucht das Verhalten des Modells in Abhängigkeit von den Werten dieser Parameter, wobei man für die tatsächlichen Werte
dieser Parameter nur grobe Anhaltspunkte hat.
4. Bei einmaligen Zufallsereignissen kann man deren Wahrscheinlichkeit nur schätzen. Solche Wahrscheinlichkeiten sind subjektiv und hängen sehr von der Erfahrung und dem Wissen, aber auch
von Vorurteilen oder Wunschdenken ab. Beispiele hierfür sind die Wahrscheinlichkeit, dass die Renovierung des großen Physikhörsaals tatsächlich zum WS 2011 abgeschlossen sein wird, oder die
Wahrscheinlichkeit, dass Borussia Dortmund dieses Jahr Deutscher Meister werden wird.
Um mit Wahrscheinlichkeiten naturwissenschaftlich zu arbeiten, benötigt man Wahrscheinlichkeiten
der ersten drei dieser vier Sorten. Nur mit den ersten beiden lassen sich zusätzlich quantitative Aussagen
über die Realität machen. Allerdings versuchen auch Wissenschaftler manchmal, Wahrscheinlichkeitsaussagen ohne diese Voraussetzungen zu machen. Ich möchte hier zwei Beispiele nennen. Das erste ist die
Feinabstimmung der physikalischen Konstanten. Wenn ihre Werte nur minimal anders wären, könnten
sich keine Sterne und Planeten formen, keine schweren Elemente und kein Leben bilden. Aus dieser Beobachtung wird oft gefolgert, dass es sehr unwahrscheinlich ist, dass ein Universum genau diese Werte
der Naturkonstanten besitzt. Also, meinen manche, ist unser Universum nur eines von vielen, ist Teil eines “Multiversums”. Jedes dieser vielen Universen habe einen zufällig gewählten Satz von physikalischen
Konstanten, und folglich gibt es auch irgendwann ein Universum, dass die für Leben richtigen Voraussetzungen erfüllt. Derartige Aussagen haben keine solide Grundlage. Wir kennen weder die Prozesse, durch
die einem Universum bei seiner Entstehung die Werte der Naturkonstanten zugewiesen werden, noch
verfügen wir über eine gute Statistik über die Häufigkeitsverteilung dieser Konstanten in den Universen.
Die unausgesprochene Annahme hinter diesen Überlegungen ist, dass einem Universum bei seiner Entstehung die Werte der Naturkonstanten aus einem größeren Intervall möglicher Werte zufällig zugewiesen
werden. Dies ist aber reine Spekulation.
Das zweite Beispiel ist die Entstehung des Lebens. Hier ist die Situation zur Zeit noch ähnlich wie bei
der Feinabstimmung der Naturkonstanten. Es fehlen bisher wichtige Informationen, die nötig wären, um
die Wahrscheinlichkeit für die Entstehung von Leben auf der Erde abzuschätzen. Wir haben weder eine
gute Statistik auf der Basis vieler erdähnlicher Planeten, noch verstehen wir bisher die Prozesse, die die
ersten Zellen hervorgebracht haben.
1.2
Hintergründe
Wenn wir ein Ereignis nicht vorhersagen können und deshalb mit Wahrscheinlichkeiten operieren müssen,
gibt es zwei mögliche Erklärungen dafür: Entweder wissen wir einfach nicht genügend über die Ursachen
des Ereignisses oder über die Faktoren, die bei seinem Zustandekommen mitwirken. In diesem Fall liegt
im Prinzip der Ausgang des Ereignisses aufgrund der Naturgesetze im Voraus schon fest, aber wir kennen
ihn aufgrund unserer mangelnden Einsicht nicht.
Oder der Ausgang des Ereignisses liegt tatsächlich vorher nicht fest. In diesem Fall hilft selbst eine
vollständige Kenntnis der Ausgangssituation nicht, da sie das Ereignis nicht eindeutig festlegt. In diesem
Fall ist die Zukunft nicht vollständig in der Gegenwart enthalten.
In einer deterministischen Weltsicht liegt grundsätzlich immer die erste Situation vor. Diese Sichtweise
führt allerdings auf eine Reihe von Problemen, da dann immer die Ausgangssituation verbunden mit den
Naturgesetzen vollständig die zeitliche Entwicklung eines Systems bestimmen würde. Dies würde zum
Beispiel bedeuten, dass der Zustand des Universums kurz nach dem Urknall alle Information darüber
enthalten hätte, was sich später im Universum ereignet hat, einschließlich der Tatsache, dass Sie jetzt
gerade diese Zeilen lesen....
Wir diskutieren das Zusammenwirken von deterministischen und nicht deterministischen Faktoren am
Beispiel eines Münzwurfs. Sobald die Münze die Hand verlassen hat, wirken die Gesetze der Mechanik:
Die Münze hat eine bestimmte Geschwindigkeit und Richtung, sie dreht sich mit einer bestimmten Rotationsgeschwindigkeit, und sie spürt den Luftwiderstand und die Schwerkraft. Wenn man die Flug- und
5
Rotationsgeschwindigkeit schnell und genau genug messen könnte, könnte man im Prinzip ausrechnen,
wie die Münze am Boden aufkommt und ob Kopf oder Zahl das Ergebnis sein wird. – Ist das wirklich so?
Was ist, wenn die Münze mit ihrem Rand auf dem Boden aufkommt und dann eine leichte Vibration des
Bodens durch den draußen vorbeifahrenden Verkehr oder kaum wahrnehmbare kleine Luftbewegungen
entscheidet, wie die Münze endgültig landet? Was ist, wenn ich die Flug- und Rotationsgeschwindigkeit
nur auf 6 Stellen hinter dem Komma genau bestimmen kann, aber bei manchen Münzwürfen erst die siebte Stelle hinter dem Komma entscheidet, wie die Münze endgültig landen wird? Immer dann, wenn eine
winzige Änderung der Anfangbedingungen oder eine winzige äußere Störung den Ausgang des Münzwurfs
ändern kann, ist dieser Ausgang nicht mehr mit Sicherheit aus der Kenntnis der Anfangsbedingungen
vorhersagbar. Die Aussage, dass sich der Ausgang eines Münzwurfs “im Prinzip” berechnen lässt, müssen
wir daher vorsichtiger formulieren: Viele Münzwürfe sind so, dass sich ihr Ausgang im Prinzip mit Sicherheit vorhersagen lässt (weil eine kleine Störung am Ausgang nichts ändern würde), der Ausgang
anderer Münzwürfe lässt sich zwar nicht sicher, aber mit großer Wahrscheinlichkeit vorhersagen (wenn
es eine kleine Störung gerade so schaffen könnte, die Münze beim Aufkommen in die andere Richtung zu
kippen), und bei manchen Münzwürfen ist der Ausgang ganz unsicher, so dass die Wahrscheinlichkeit für
Kopf oder Zahl jeweils ungefähr 50 Prozent beträgt. Dieses Beispiel zeigt, dass eine genauere Kenntnis
der Anfangssituation und der Naturgesetze die Unvorhersagbarkeit reduzieren kann, doch sie kann sie im
Allgemeinen nicht auf Null reduzieren. Wo die Grenzen der Vorhersagbarkeit liegen, werden wir in den
nächsten beiden Kapiteln diskutieren.
Bisher haben wir noch nicht gefragt, was passiert, bevor die Münze die Hand verlässt. Wovon hängt
es ab, welche Anfangsgeschwindigkeit etc. die Münze hat? Das Gehirn, die Nerven und die Muskeln des
Werfenden sind am Werfen der Münze beteiligt. Nur wenn man den Anfangszustand des Werfenden
vor dem Wurf genügend genau beschreiben und daraus das Auslösen des Münzwurfs vorherberechnen
könnte, könnte man auch schon vor dem Wurf sagen, wie die Münze landen wird. Dies ist aber bisher
völlig unmöglich, und es gibt gute Gründe anzunehmen, dass dies prinzipiell unmöglich ist.
1.3
Interpretationen von Wahrscheinlichkeiten
1. Wahrscheinlichkeiten als Tendenzen: Die Interpretation von Wahrscheinlichkeiten als Tendenzen
wurde zum Beispiel von Karl Popper vertreten. In dieser Sichtweise hat das betrachtete System
eine Tendenz (englisch “propensity”) zu jedem der möglichen Resultate, quantifiziert durch die
Wahrscheinlichkeiten dieser Resultate. Quantenmechanische Wahrscheinlichkeiten sind ein gutes
Beispiel für solche Tendenzen. Diese Interpretation setzt voraus, dass der Ausgang des betrachteten Prozesses nicht im Voraus festliegt. Bei einer exakten Wiederholung der Ausgangssituation
würden dann die möglichen Ergebnisse mit den entsprechenden Wahrscheinlichkeiten auftreten.
Durch häufiges Wiederholen derselben Situation kann man diese Wahrscheinlichkeiten in Form von
Häufigkeiten messen.
2. Wahrscheinlichkeiten als Häufigkeiten: In dieser Interpretation sind Wahrscheinlichkeiten der Grenzwert, dem die Häufigkeiten zustreben, wenn man die Zahl der Wiederholungen derselben Ausgangssituation oder die Stichprobengröße gegen unendlich streben lässt. Vertreter dieser Interpretation
nennt man “Frequentisten”. Diese Interpretation ist eine pragmatische, da sie im Wesentlichen eine
Messvorschrift für Wahrscheinlichkeiten angibt, ohne Aussagen über die Hintergründe zu machen.
3. Wahrscheinlichkeiten aufgrund von fehlendem Wissen: Wer eine deterministische Weltsicht vertritt,
betrachtet alle Wahrscheinlichkeiten als subjektiv: Nur weil der Betrachter keine vollständige Information über die Ausgangssituation oder die Abläufe hat, kann er das Ergebnis nicht mit Sicherheit
vorhersagen. Die Wahrscheinlichkeit, die der Beobachter einem Ereignis zuweist, ist dann ein Maß
für seine Überzeugung, dass dieses Ereignis eintreten wird. Über sinnvolle und konsistente Vorgehensweisen, derartige Wahrscheinlichkeiten (auch “Bayessche Wahrscheinlichkeiten” genannt) zu
ermitteln, wurde viel nachgedacht. Der Physiker Edwin Thompson Jaynes hat mit seinem Buch
6
“Probability Theory” die beste Abhandlung über die Ermittlung von Bayesschen Wahrscheinlichkeiten verfasst.
1.4
Mathematische Formulierung
Der russische Mathematiker Andrey Kolmogorov baute die Wahrscheinlichkeitstheorie ausgehend von
Axiomen auf. Im folgenden werden einige wichtige Eigenschaften von Wahrscheinlichkeiten und einige
wichtige Definitionen aufgezählt.
Sei x eine Zufallsvariable, die die möglichen Werte S ≡ {x1 , x2 , . . .} annehmen kann. Die Werte können
diskret sein, so wie beim Würfeln, S = {1, 2, 3, 4, 5, 6}, oder kontinuierlich, wie z.B. die Geschwindigkeiten
der Moleküle in einem Gas, S = {−∞ < vx , vy , vz < ∞}. In dem letzten Beispiel ist die Zufallsvariable
ein Vektor aus drei Komponenten. Ein Ereignis ist eine Teilmenge E ⊂ S, und ihr wird eine Wahrscheinlichkeit p(E) zugewiesen. Beim Würfeln ist z.B. p({2, 5}) = 1/3. Wahrscheinlichkeiten erfüllen die
folgenden Bedingungen und Rechenregeln:
1. Positivität: p(E) ≥ 0
2. Normierung: p(S) = 1
3. Wahrscheinlichkeit für A oder B: p(A ∪ B) = p(A) + p(B) − p(A ∩ B)
4. Bedingte Wahrscheinlichkeit für A, wenn man weiß, dass B eintritt: p(A|B) =
p(A∩B)
p(B)
Für kontinuierliche Zufallsvariablen benötigt man die Wahrscheinlichkeitsdichte P (x). Wenn die Werte
von x reelle Zahlen sind, dann ist
P (x)dx = prob(E ⊂ [x, x + dx])
(1.1)
Ein Beispiel aus der Quantenmechanik für eine Wahrscheinlichkeitsdichte ist das Betragsquadrat der Wellenfunktion |ψ(x)|2 , das die Wahrscheinlichkeitsdichte dafür angibt, bei einer Ortsmessung das Teilchen
an der Position x zu finden. Wir werden im Folgenden Wahrscheinlichkeitsdichten mit dem großen Buchstaben P und Wahrscheinlichkeiten mit dem kleinen Buchstaben p notieren. Integriert man P (x) über
ein Intervall [a, b], erhält man die Wahrscheinlichkeit dafür, dass die Zufallsvariable in diesem Intervall
liegt. Man kann auch für diskrete Zufallsvariablen eine Wahrscheinlichkeitsdichte formulieren. Wenn die
Werte xi der Zufallsvariablen reell sind, ist
X
p(xi )δ(x − xi ) .
(1.2)
P (x) =
i
Wir bleiben zunächst bei reellen Zufallsvariablen und definieren bzw. wiederholen einige viel verwendete
Größen:
1. Kumulative Verteilungsfunktion: Sie ist die Wahrscheinlichkeit dafür, dass die Zufallsvariable y
nicht größer als ein Wert x ist:
Z x
F (x) =
P (y)dy
(1.3)
−∞
2. Erwartungswert einer Funktion f (x) der Zufallsvariable:
Z ∞
f (x)P (x)dx
hf (x)i =
(1.4)
−∞
3. Momente hxn i der Wahrscheinlichkeitsverteilung P (x):
Z
hxn i = xn P (x)dx
7
(1.5)
4. Varianz der Zufallsvariable x:
σx2 = h(x − hxi)2 i = hx2 i − hxi2
(1.6)
5. Charakteristische Funktion: Sie ist die Fouriertransformierte der Wahrscheinlichkeitsdichte:
Z
X (−ik)n
χ(k) = dxe−ikx P (x) = he−ikx i =
hxn i
n!
n
Umgekehrt ist
P (x) =
dk ikx
e χ(k) .
2π
Z
(1.7)
(1.8)
Für mehrdimensionale Verteilungen gelten analoge Beziehungen. Ein Beispiel ist die Geschwindigkeitsverteilung P (~v ) = P (vx , vy , vz ) der Moleküle eines Gases. Mehrdimensionale Verteilungen faktorisieren
nur dann, wenn die verschiedenen Variablen voneinander unabhängig sind. Dies ist normalerweise für
das Beispiel der Geschwindigkeitsverteilung der Fall, so dass gilt P (vx , vy , vz ) = P1 (vx )P2 (vy )P3 (vz ).
Außerdem gilt
Z Z
P1 (vx ) =
dydzP (vx , vy , vz ) .
(1.9)
Für mehrdimensionale Verteilungen werden noch zwei wichtige Größen definiert, die wir hier für zwei
Zufallsvariablen x und y formulieren: Die Kovarianz von x und y ist
Cov(x, y) = h(x − hxi)(y − hyi)i = hxyi − hxihyi ;
(1.10)
Wenn man die Kovarianz durch die beiden Standardabweichungen teilt, bekommt man die Korrelationsfunktion
h(x − hxi)(y − hyi)i
Cov(x, y)
=
.
(1.11)
Cor(x, y) =
σx σy
σx σy
Sie gibt an, inwieweit x und y voneinander abhängig sind und liegt zwischen −1 und 1.
1.5
1.5.1
Einige wichtige Wahrscheinlichkeitsverteilungen
Die Binomialverteilung
Beginnen wir mit einem Beispiel: N verschiedene Elementarmagnete, nummeriert mit dem Index i, sind an
N festen Positionen längs einer Linie angeordnet. Jeder Elementarmagnet hat ein magnetisches Moment
mi vom Betrag 1, das nur nach oben oder unten zeigen kann. Wenn es nach oben zeigt, habe es den Wert
+1, wenn es nach unten zeigt, den Wert −1. (Siehe Abb. 1.1)
i=1
2
3
4
5
6
7
Abbildung 1.1: Das Modellsystem aus magnetischen Momenten.
Dieses System hat insgesamt 2N verschiedene mikroskopische Zustände. Ein makroskopischer Zustand
ist durch den Wert des gesamten magnetischen Momentes
M=
N
X
i=1
8
mi
mit mi = ±1 gegeben. Wir gehen davon aus, dass die Elementarmagnete voneinander unabhängig sind
und fragen, wieviele mikroskopische Zustände es gibt, die dem selben makroskopischen Zustand entsprechen.
Die möglichen Werte von M sind
M = N, (N − 2), (N − 4), . . . , −N.
Wenn das gesamte magnetische Moment M ist, zeigen N +M
magnetische Momente nach oben und N −M
2
2
magnetische Momente nach unten. Es gibt also
N!
N
Ω(N, M ) = N +M = N +M N −M (1.12)
!
!
2
2
2
verschiedene mikroskopische Konfigurationen, die ein Gesamtmoment M haben. Das Maximum von
Ω(N, M ) ist bei M = 0. Da zeigen je die Hälfte der magnetischen Momente nach oben und nach unten.
Als Nächstes wollen wir Wahrscheinlichkeiten für die verschiedenen Werte des Gesamtmoments bestimmen. Dazu müssen wir wissen, mit welchen Wahrscheinlichkeiten die verschiedenen Werte der einzelnen Momente auftreten. Wir betrachten den Fall, dass die einzelnen Momente voneinander unabhängig
sind und dass sie alle dasselbe Magnetfeld und dieselbe Temperatur sehen. Also hat jedes magnetische
Moment unabhängig von den anderen Momenten mit der Wahrscheinlichkeit w den Wert +1 und mit
der Wahrscheinlichkeit q = 1 − w den Wert −1. (Wie w vom Magnetfeld und der Temperatur abhängt,
interessiert uns an dieser Stelle nicht.) Die Wahrscheinlichkeit, dass das Gesamtmoment den Wert M hat,
ist folglich
N +M
N −M
N
p(M ) = N +M w 2 q 2 .
2
Dies ist eine Binomialverteilung
B( N +M
2 , N ).
Eine Binomialverteilung ist allgemein durch die Formel
N
B(n, N ) =
wn (1 − w)N −n
(1.13)
n
definiert. Sie tritt immer dann auf, wenn jedes von N unabhängigen Elementen einen von zwei möglichen
Werten annehmen kann. Sie gibt die Wahrscheinlichkeit dafür an, dass genau n Elemente den einen Wert
und N − n Elemente den anderen Wert haben. Ein anderes Beispiel ist das Werfen einer Münze, wobei
die Elemente die einzelnen Würfe sind und die beiden Werte “Kopf” und “Zahl”. Ein weiteres Beispiel
ist ein Zufallsweg, bei dem jeder Schritt unabhängig vom vorhergehenden Schritt mit Wahrscheinlichkeit
w nach rechts und mit Wahrscheinlichkeit 1 − w nach links geht. Für w = q = 12 vereinfacht sich die
Binomialverteilung zu
1 N
B(n, N ) = N
.
(1.14)
2
n
Der Mittelwert und die Standardabweichung des Gesamtmoments lassen sich aufgrund der Unabhängigkeit der einzelnen magnetischen Momente durch eine einfache Berechnung bestimmen, ohne auf die Binomialverteilung zurückzugreifen.
Der Mittelwert des Gesamtmoments ist durch
+
*N
X
X
mi
hM i =
p(M )M =
i=1
M
gegeben. Da die einzelnen magnetischen Momente voneinander unabhängig sind, ist dies identisch mit
hM i =
N
X
i=1
hmi i = N (w − q) = N (2w − 1).
9
(1.15)
Die Varianz des Gesamtmoments ist
+
!2 + *
* N
X
X
2
(mi − hmi i)(mj − hmj i)
(mi − hmi i)
=
=
(M − hM i)
i,j
i=1
=
X
i,j
=
h(mi − hmi i)(mj − hmj i)i =
2
N
X
(mi − hmi i)2
i=1
N w[1 − (2w − 1)] + q[−1 − (2w − 1)]2 = 4N wq.
(1.16)
Hierbei haben wir wieder die Unabhängigkeit der einzelnen Momente berücksichtigt, also hmi mj i =
hmi i hmj i für i 6= j. Damit ergibt sich für die Standardabweichung des Gesamtmoments
q
p
∆M = hM 2 i − hM i2 = 4N wq .
Wir haben damit gezeigt, dass der Mittelwert und die Varianz des Gesamtmoments wegen der Unabhängigkeit der Einzelmomente mit der Summe der Mittelwerte und der Varianzen der Einzelmomente
identisch sind. Da die Einzelmomente identischen Bedingungen ausgesetzt sind (also dasselbe w haben),
sind alle Mittelwerte und alle Varianzen jeweils gleich. Also ist der Mittelwert des Gesamtmoments N
mal der einzelne Mittelwert und die Varianz des Gesamtmoments N mal die einzelne Varianz.
Das Verhältnis zwischen Standardabweichung und Mittelwert ist (für w 6= q)
s
4wq
∆M
.
=
hM i
N (w − q)2
Für diejenige Sorte von Systemen, um die es in dieser Vorlesung meistens geht, sind typische Werte von
N von der Größenordnung 1023 , so dass dieses Verhältnis von der Größenordnung 10−11 , also winzig ist.
Aus diesem Grund kann man in vielen Fällen eine Größe durch ihren Mittelwert ersetzen, was wir im
Laufe der Vorlesung öfters tun werden.
Schließlich wollen wir noch die Energie des Systems in einem äußeren Magnetfeld ~h angeben, da wir
sie später benötigen. Wenn das Feld nach oben gerichtet ist, ergibt sich
E=−
N
X
i=1
hmi = −M h .
(1.17)
Jedem Wert von M entspricht also ein Wert von E, den man durch Multiplikation mit −h erhält.
1.5.2
Gauß-Verteilung
Die Gauß-Verteilung ist eine kontinuierliche Wahrscheinlichkeitsverteilung. Aufgrund des zentralen Grenzwertsatzes (siehe 1.5) tritt sie immer dann auf, wenn die betrachtete Zufallsvariable die Summe vieler
voneinander unabhängiger und identisch verteilter Zufallsvariablen ist. So ergibt sie sich auch aus der
Binomialverteilung im Grenzfall großer Teilchenzahlen N . Im folgenden zeigen wir explizit, wie die GaußVerteilung aus der Binomialverteilung abgeleitet werden kann. Wir können die Ausdrücke für Ω(N, M )
und p(M ) mit Hilfe der Stirling-Formel
√
N ! ≃ N N e−N 2πN
für große N und N − |M | vereinfachen. Für Ω(N, M ) ergibt sich
Ω(N, M )
=
N +M
2
N!
N −M !
!
2
10
s
NN
2N
N −M
N +M N +M
π(N − M )(N + M )
2
2
( N −M
(
)
)
2
2
r
1
2
q
= 2N
2
πN (1 − M ) N −M
M N +M
2
2
1− M
(1
+
)
N
N
N2
r
M
2
(1 − 2 M
2
N
N)
q
≃ 2
N
2
πN (1 − M ) 2 1 − M 2
≃
N2
N2
r
2 N2 M22 − M 2M M 22
e N e 2 N e 2N
πN
r
2 − M2
≃ 2N
e 2N .
πN
≃ 2N
(1.18)
Hier haben wir angenommen, dass M
N klein ist (weil Ω eine schmale, um Null zentrierte Verteilung ist) und
in führender Ordnung
in
dieser
Größe
entwickelt. Wir haben also eine Gaußverteilung mit dem Mittelwert
√
Null und der Breite N erhalten. Für große N ist das Maximum dieser Verteilung sehr scharf verglichen
mit der Gesamtbreite der möglichen M -Werte.
Zur näherungsweisen Berechnung von p(M ) verwenden wir ebenfalls die Stirling-Formel. Im Anschluss
M
daran entwickeln wir aber nicht in M
N , da der Bereich kleiner N viel weniger interessant ist als die
Umgebung des Mittelwertes hM i = N (2w − 1). (Nur für w = q = 21 ist der Mittelwert bei M = 0 und
kann die obige Rechnung übernommen werden.) Wir schreiben δM = M − hM i und entwickeln in δM
N ,
wobei wir am Schluss nur den ersten nichtverschwindenden Term in der Exponenzialfunktion behalten,
nämlich den Term proportional zu (δM )2 /N . Wir erhalten also (indem wir mit der dritten Zeile von
δM
δM
und y = 2wN
benützen)
(1.18) beginnen und die Abkürzung x = 2qN
p(M ) =
≃
N +M
=
2N
=
r
≃
≃
N −M
Ω(N, M ) w 2 q 2
! N −M
r
2
q
2
N
2
πN 1 − M
N
r
r
2
πN
1
2πN wq
wq
2
1− M
N2
! N2
w
1+ M
N
w(1 − M
N)
M
q(1 + N )
1
1 − x + y − xy
2
2
1
x−y+ x +y
2
e
2πN wq
r
(δM )2
1
e− 8wqN .
2πN wq
! N +M
2
N
2
N2+1
e
! M2
1
q
1−
1
q
1−
M2
1−x
1+y
M2
N2
M2
N2
2
2
M
−x−y+ y −x
2
2
Dies ist eine Gauß-Verteilung um den Mittelwert hM i = N (2w − 1) mit der Breite ∆M =
ist (wie es für eine Wahrscheinlichkeit sein muss) auf 1 normiert:
Z
X
1
1X
p(M )δM ≃
p(M )dM = 1 .
p(M ) =
2
2
M
(1.19)
√
4N wq. Sie
(1.20)
M
Der Faktor 21 kommt daher, dass der Abstand zwischen zwei aufeinander folgenden M -Werten δM = 2
beträgt. Die Näherung der Summe durch ein Integral wird im Limes N → ∞ exakt. Abbildung 1.2 auf
der nächsten Seite zeigt den exakten und genäherten Ausdruck für Ω(N, M ) für N = 30.
11
8
2×10
8
10
Ω(30,Μ)
6
10
8
1×10
4
10
2
10
0
10 -30
-20
-10
0
M
10
20
30
0
-30
-20
-10
0
M
10
20
30
Abbildung 1.2: Der exakte Ausdruck für Ω(N, M ) (durchgezogene Linie) und der genäherte Ausdruck
(gestrichelte Linie) für N = 30, einmal mit logarithmischer und einmal mit linearer Achsenskalierung.
1.5.3
Poissonverteilung
Die Poissonverteilung ist ein Grenzfall der Binomialverteilung, wenn die Gesamtzahl der Ereignisse, N ,
sehr groß ist, aber die Zahl der ”Treffer”, k (sie wurde vorher mit n bezeichnet), relativ klein. Hier sind
ein paar Beispiele:
• Es hat angefangen zu regnen, und man betrachtet die Regentropfenflecken auf den Fliesen der
Veranda. Sei N die Gesamtzahl der Regentropfen, die bisher in der Umgebung des Hauses gefallen
sind, und k die Zahl der Tropfen auf einer bestimmten Fliese. Wenn wir davon ausgehen dürfen,
dass jeder Tropfen mit derselben Wahrscheinlichkeit auf jedem Flächenelement von der Größe einer
Fliese landet, ist die Wahrscheinlichkeitsverteilung für k eine Poisson-Verteilung.
• Wenn eine menschliche Zelle sich teilt, müssen 6 Milliarden DNA-Buchstaben kopiert werden. Bei
jedem dieser Buchstaben werde in einer gewissen Zellkultur mit einer Wahrscheinlichkeit 10−9 ein
Kopierfehler gemacht. Die Zahl der daraus resultierenden Punktmutationen k in einer Zelle ist
Poisson-verteilt.
• In Deutschland sterben jedes Jahr 60000 Personen am Herzinfarkt, das ist einer von 1300. Die Zahl
der Personen, die in einem Ort mit 5000 Einwohnern in einem Jahr an einem Herzinfarkt sterben,
ist Poisson-verteilt. (Wenn wir davon ausgehen dürfen, dass das Risiko unabhängig vom Wohnort
ist.)
• Gegeben seien N Atome eines radioaktiven Materials, z.B. Uran-238. Die Halbwertszeit dieser Atome beträgt 4,5 Milliarden Jahre. Die Zahl der Atome, die in einer Probe aus 1018 Atomen in einer
Sekunde zerfallen, ist durchschnittlich 5 (wenn ich mich nicht verrechnet habe), und sie folgt einer
Poissonverteilung.
Ein wichtiger Parameter der Poisson-Verteilung ist der Mittelwert k̄ von k. Er hängt mit der Trefferwahrscheinlichkeit p (wurde vorher w genannt) zusammen über p = k̄/N . Damit beträgt die Wahrscheinlichkeit, genau k Treffer zu haben
N k
pk̄ (k) =
p (1 − p)N −k
k
N −k
N (N − 1)(N − 2) . . . (N − k + 1) k̄ k
k̄
k̄
=
1−
1−
k!
Nk
N
N
12
−k
k̄
1−
N
−k
N (N − 1)(N − 2) . . . (N − k + 1)
k̄
1−
Nk
N
N (N − 1)(N − 2) . . . (N − k + 1)
Nk
=
≃
k̄ k
k!
N
k̄
1−
N
k̄ k −k̄
e
k!
k̄ k −k̄
e
k!
≃
(1.21)
N
k̄
= e−k̄ verwendet, und im letzten Schritt haben
Im vorletzten Schritt haben wir wieder limN →∞ 1 − N
wir die ersten beiden Faktoren durch ihren Grenzwert 1 ersetzt, den sie im Limes N → ∞ annehmen.
Abbildung 1.3 zeigt eine Poissonverteilung für k̄ = 7.
0
0,15
10
-3
10
P(k)
0,10
-6
10
0,05
-9
10
-12
10
0
5
10
15 20
k
25
0,00
30
0
10
k
5
15
20
Abbildung 1.3: Poissonverteilung P (k) für k̄ = 7.
Der Mittelwert von k beträgt
hki =
X
kpk̄ (k) = k̄
∞
X
k̄ k−1 −k̄
e = k̄
(k − 1)!
k=1
k
und der Mittelwert von k 2 ist
hk 2 i =
=
X
k 2 pk̄ (k) =
k
k̄ 2
X
k
k(k − 1)pk̄ (k) +
∞
X
k̄ k−2 −k̄
e + k̄ = k̄ 2 + k̄ .
(k − 2)!
X
kpk̄ (k)
k
k=2
Damit beträgt die Varianz von k
hk 2 i − hki2 = k̄ ,
√
und die Standardabweichung ist k̄.
Für große k̄ lässt sich pk̄ (k) so wie in der Rechnung (1.18) durch eine Gauß-Funktion nähern:
2
pk̄ (k) ≃
1.6
e−(k−k̄) /2k̄
√
2π k̄
Zentraler Grenzwertsatz
Das Ergebnis (1.19) für p(M ) des vorletzten Teilkapitels ist ein Beispiel des zentralen Grenzwertsatzes.
Er lautet in seiner für diese Vorlesung relevanten Form folgendermaßen: Gegeben seien N voneinander
13
unabhängige, identisch verteilte Zufallsvariablen xi (i = 1, . . . , N ), von denen jede den Mittelwert hxi
Pund
die Standardabweichung σx > 0 hat. Dann ist die Wahrscheinlichkeit, dass sich die Summe X = i xi
im Intervall [X, X + dX] befindet, gegeben durch
2
hxi)
1
− (X−N
2
2N σx
P (X)dX = p
e
dX .
2πN σx2
P (X) ist eine Wahrscheinlichkeitsdichte. Im Beispiel mit den Elementarmagneten ist die Zufallsgröße das
einzelne magnetische Moment, und die Größe X das gesamte magnetische Moment.
Für den Beweis führen wir die Variable
X
√
(xi − hxi)/ N
(1.22)
Z=
i
ein und notieren die Wahrscheinlichkeitsdichten für die einzelnen Zufallsvariablen xi mit P1 (xi ). Die
Wahrscheinlichkeitsdichte für Z ergibt sich dann zu
Z
x1 + . . . + xN √
√
+ N hxi
PZ (Z) =
dx1 . . . dxN P1 (x1 ) . . . P1 (xN )δ Z −
N
Z
Z
√
−ik(x1 +...xN )
dk ikZ
√
+ik N hxi
N
e
dx1 . . . dxN P1 (x1 ) . . . P1 (xN )e
=
2π
N
Z
k
dk ikZ+ik√Nhxi
χ √
e
=
2π
N
Z
dk ikZ+ik√Nhxi+N ln χ(k/√N )
,
(1.23)
=
e
2π
√
wobei χ(q)
√die charakteristische Funktion zu P1 (x) ist. Wenn wir im Exponenten die Funktion ln χ(k/ N )
in q = k/ N Taylor-entwickeln, werden in Verbindung mit dem Faktor N davor alle Terme jenseits des
quadratischen Terms in Limes N → ∞ gegen Null gehen. Die Koeffizienten, die in dieser Taylorentwicklung auftreten, nennt man die Kumulanten Cn , also
ln χ(q) =
∞
X
(−iq)n
Cn
n!
n=1
(1.24)
Die Kumulanten hängen eng mit den Momenten zusammen, und durch Einsetzen der Momentenentwicklung aus (1.7) auf der linken Seite von (1.24) erhalten wir die folgenden Ausdrücke für die ersten drei
Kumulanten:
C1
=
C2
C3
=
=
So erhalten wir schließlich
hxi
hx2 i − hxi2 = σx2
hx3 i − 3hx2 ihxi + 2hxi3
(1.25)
dk ikZ− 1 k2 σx2 +iC3 k3 /6√N+...
2
.
(1.26)
e
2π
Im Limes N → ∞ bleiben nur die ersten beiden Terme im Exponenten übrig, und Ausführen des Integrals
ergibt
2
1
−Z
(1.27)
PZ (Z) = p
e 2σx2 .
2πσx2
PZ (Z) =
Z
Wenn wir von der Variable Z zur Variable X wechseln und dabei berücksichtigen, dass PZ (Z)dZ =
P (X)dX sein muss, erhalten wir
2
hxi)
1
− (X−N
2N
2σx
P (X) = p
.
e
2πN σx2
14
(1.28)
Dies ist der√zentrale Grenzwertsatz. Das Gleichheitszeichen in der letzten Gleichung gilt für festes Z =
(X − hXi)/√ N im Limes N → ∞. Es gilt darüber hinaus aber auch für Abstände (X − hXi), die mit N
stärker als N anwachsen, solange der größte vernachlässigte Term immer noch gegen 0 geht. Um seine
Größenordnung abzuschätzen, formen wir den vernachlässigten Faktor um,
√
√
3
eiC3 k /6 N ≃ 1 + iC3 k 3 /6 N ,
(1.29)
und wir berücksichtigen, dass der Hauptbeitrag zu dem Integral (1.23) von k-Werten der Größenordnung
2iZ/σx2 kommt (weil dort der Exponent Null wird). Also wird der vernachlässigte Faktor zu
1+
4C3 (X − hXi)3
4Z 3 C3
√ =1+
.
3N 2 σx6
3σx6 N
Dieser Faktor darf in der Tat vernachlässigt werden, wenn |X − hXi| sich in einem Intervall befindet, das
mit wachsendem N langsamer als N 2/3 ansteigt. Im Grenzfall N → ∞ geht dieser Faktor dann gegen
1/3
Null. Für Werte |X − hXi|, die die Größenordnung N 2/3 σx2 /C3 übersteigen, gilt also die Gaußsche
Näherung nicht mehr, und diese Abweichung im Schwanz der Verteilung sieht man sehr schön in Abb.1.2.
Dort ist N nur 30, und 302/3 ≃ 10. Also werden die Abweichungen sichtbar, wenn M die Größenordnung
10 erreicht. (Da bei dieser Überlegung konstante Faktoren weggelassen wurden, ist es überhaupt kein
Problem, dass die Abweichung erst jenseits von 15 gesehen werden kann.)
Als weiteres Anwendungsbeispiel des Zentralen Grenzwertsatzes betrachten wir noch einmal das System aus unabhängigen Elementarmagneten und fragen nach der Wahrscheinlichkeit dafür, dass der Anteil
γ aller Elementarmagnete den Wert +1 hat. Wir nennen N+ = γN die Zahl der Magnete, die den Wert +1
haben. Also ist p(γ) = B(N+ , N ). Dies ist ein Beispiel, für das der zentrale Grenzwertsatz vewendet werden kann: Jeder Elementarmagnet trägt mit Wahrscheinlichkeit w mit einem Summanden 1 zu N+ bei und
mit Wahrscheinlichkeit 1 − w mit dem Summanden 0. Also trägt jeder Elementarmagnet im Durchschnitt
einen Summanden w zu N+ bei. Die Varianz jedes Einzelbeitrags ist w(1 − w)2 + qw2 = w(1 − w) = wq.
Also gilt nach dem zentralen Grenzwertsatz
P (N+ ) = √
(N+ −wN )2
1
e− 2wqN = p(N+ ) .
2πN wq
(1.30)
Weil der Abstand zweier benachbarter N+ -Werte 1 ist, tritt beim Wechsel von P zu p kein weiterer Faktor
auf. Für P (γ) ergibt sich
s
P (γ) =
2
N − (γ−w)
e 2wq/N .
2πwq
Dieses letzte Ergebnis kann man auf zwei Arten begründen: Erstens dadurch, dass jeder Elementarmagnet
wq
w
im Durchschnitt einen Summanden N
zu γ und einen Summanden N
2 zu seiner Varianz beiträgt, und
zweitens dadurch, dass man in (1.30) einen Variablenwechsel N+ = N γ macht und dafür sorgt, dass die
neue Verteilung wieder richtig normiert ist. (Es muss gelten P (γ)dγ = P (N+ )dN+ .)
1.7
Information
Der in der Thermodynamik eingeführte und in späteren Kapiteln wichtige Begriff der Entropie hängt
eng mit dem Begriff der Information zusammen. Entropie ist ein Maß für unsere Unkenntnis des genauen
mikroskopischen Zustands, in dem das System sich befindet, wenn wir nur die makroskopischen Variablen
kennen. Information ist ein Maß für unseren Kenntnisgewinn, wenn wir erfahren, in welchem mikroskopischen Zustand sich das System befindet. Dieser entspricht natürlich dem Ausmaß der Unkenntnis, die
wir vorher hatten.
Allerdings ist “Information” ein Konzept, das viel breiter angewandt wird als nur in der statistischen
Mechanik. Allgemein ist Information ein Maß für unseren durchschnittlichen Kenntnisgewinn, wenn wir
erfahren, welches Ereignis aus einer Menge von möglichen Ereignissen tatsächlich eingetreten ist. Sei x
15
eine Zufallsvariable, die die Werte xi jeweils mit der Wahrscheinlichkeit pi annimmt, wobei
Die mit dieser Wahrscheinlichkeitsverteilung verbundene Information ist
X
pi log2 pi .
I({pi }) = −
P
i
pi = 1.
(1.31)
i
Um diese Definition zu verstehen, betrachten wir zunächst den Fall dass die pi = 2−n sind. Dann ist
I({pi }) = n. Das ist die Zahl von Ja/Nein-Fragen, die man benötigt, um herauszufinden, welches Ereignis
eingetreten ist. Anders formuliert ist es die Zahl von Bits, die man benötigt, um das Ereignis eindeutig zu
spezifizieren. Wenn die Ereignisse verschiedene Wahrscheinlichkeiten haben, ist der Informationsgewinn
niedrig, wenn ein Ereignis eintritt, dessen Wahrscheinlichkeit hoch ist, und hoch, wenn ein Ereignis
eintritt, dessen Wahrscheinlichkeit niedrig ist. Wenn ein Ereignis eintritt, das die Wahrscheinlichkeit pi
hat, ist unser Informationsgewinn − log2 pi , unabhängig davon, wie sich der Rest der Wahrscheinlichkeit
auf die übrigen Ereignisse aufteilt. Wenn wir diesen Informationsgewinn über alle Ereignisse mitteln
(dabei müssen sie jeweils mit ihrer Wahrscheinlichkeit gewichtet werden), erhalten wir die Definition
(1.31).
Ursprünglich wurde das Konzept der Information von Shannon im Zusammenhang mit der Datenübertragung eingeführt. Wir betrachten einen Datensatz, der aus den Zeichen {xi } aufgebaut ist,
die jeweils die Häufigkeit pi haben. Dieser Datensatz soll binär kodiert werden. Die kürzeste Kodierung
bekommt man, wenn man für häufige Zeichen wenig Bits und für seltene Zeichen mehr Bits verwendet,
also für ein Zeichen der Häufigkeit pi eine AnzahlPvon − log2 pi Bits. Um eine Botschaft aus N Zeichen
zu kodieren, benötigt man also mindestens −N i pi log2 pi Bits. Dies ist der Informationsgehalt der
Botschaft.
Wie oben erwähnt, hängen Entropie und Information eng miteinander zusammen. Die beiden Formeln
sind proportional zueinander. In der Formel für die Entropie steht statt dem log2 ein kB ln, wobei kB die
Boltzmann-Konstante ist.
1.8
Das Prinzip der maximalen Ignoranz
In der statistischen Physik ist es oft nicht möglich, die Wahrscheinlichkeiten der verschiedenen mikroskopischen Zustände dadurch zu bestimmen, dass man die Häufigkeit ihres Auftretens misst. Also müssen
die Werte für diese Wahrscheinlichkeiten zunächst postuliert werden. Anschließend kann man testen, ob
die aus diesen postulierten Werten resultierenden Eigenschaften des Systems mit der Beobachtung übereinstimmen. Wenn sie es nicht tun, hat man bei den Überlegungen eine wichtige Eigenschaft der Systeme
nicht berücksichtigt. Die Regel für das Postulieren der Werte der Wahrscheinlichkeiten ist folgende: man
geht davon aus, dass es zusätzlich zu dem, was man schon weiß, nichts gibt, was sich auf die Werte
der Wahrscheinlichkeiten auswirkt. Diese Art von Zugang zur statistischen Physik wurde sehr schön von
E.T. Jaynes im Jahr 1957 ausgearbeitet (Phys. Rev. 106, 620-630 und Phys. Rev. 108, 171-190). Wir
betrachten 3 Fälle, die später bei der Behandlung der statistischen Ensembles wichtig werden.
Wenn wir keinen Grund wissen, einen Zustand gegenüber einem anderen zu bevorzugen, postulieren
wir gleiche Wahrscheinlichkeiten pi = 1/N für alle Zustände. Dies können wir aus dem Prinzip der maximalen Ignoranz formal herleiten. Dieses Prinzip besagt, dass die “Ignoranz”, also die für die Spezifizierung
eines Mikrozustandes
benötigte Information I({pi }) maximal sein soll, unter Verwendung der NebenbeP
dingung i pi = 1 und eventuell weiterer bekannter Nebenbedingungen. In dem hier betrachteten Fall
gibt es keine weiteren Nebenbedingungen. Formal wird eine Maximierung mit Nebenbedingungen mit
Hilfe von Lagrange-Multiplikatoren durchgeführt. Es ist also der Ausdruck
!
X
X
pi − 1
pi log2 pi − λ
−
i
i
zu maximieren bezüglich der Wahl der pi und von λ, d.h. die Ableitung dieses Ausdrucks nach all diesen
Größen muss verschwinden. Damit gewährleisten wir gleichzeitig, dass die Nebenbedingung erfüllt ist und
16
dass I({pi }) den größten mit der Nebenbedingung verträglichen Wert annimmt. Ableitung nach pi gibt
die Bedingung
−1 − ln pi − λ ln 2 = 0
oder
pi = e−1−λ ln 2 .
Alle pi sind also gleich, und ihr Wert (bzw. der von λ) ist durch die Normierungsbedingung festgelegt.
Wir betrachten als nächstes die Situation, dass sich die Mikrozustände des Systems in den Werten
einer Variable x unterscheiden können. Sie nimmt im Zustand Nummer i (mit i = 1, . . . N ) den Wert xi
an. Es sei der Mittelwert hxi der Variable gegeben, was eine zweite Nebenbedingung an die pi ist. Dann
benötigt man zwei Lagrange-Parameter, und es ist der Ausdruck
!
!
X
X
X
pi xi − hxi
pi − 1 − µ
pi log2 pi − λ
−
i
i
i
zu maximieren bezüglich der Wahl der pi und von λ und µ. Ableitung nach pi gibt die Bedingung
−1 − ln pi − λ ln 2 − xi µ ln 2 ≡ −1 − ln pi − λ̃ − µ̃xi = 0
oder
pi = e−1−λ̃−µ̃xi .
Die Werte von λ und µ sind so zu wählen, dass die beiden Nebenbedingungen erfüllt sind. Der Wert von
λ wird durch die Normierung der Wahrscheinlichkeiten festgelegt. Mit der Umformung e1+λ̃ = Z erhalten
wir
e−µ̃xi
pi =
(1.32)
Z
woraus
X
(1.33)
e−µ̃xi
Z=
i
folgt. Der Wert von µ ist so festzulegen, dass der Mittelwert von x den vorgegebenen Wert hxi hat. Der
Zusammenhang zwischen µ und hxi ist
d ln Z
.
(1.34)
hxi = −
dµ̃
Wenn es zwei Zufallsvariablen x und y gibt, die im Zustand Nummer i die Werte xi bzw. yi annehmen,
und wenn die Mittelwerte von beiden vorgegeben sind, ist der Ausdruck
!
!
!
X
X
X
X
pi yi − hyi
pi xi − hxi − ν
pi − 1 − µ
pi log2 pi − λ
−
i
i
i
i
zu maximieren. Der Index i zählt jetzt alle möglichen Kombinationen der Werte von x und y durch, und
xi bzw. yi bezeichnen den Wert von x und y im Zustand i. Es ergibt sich
pi =
mit
Z=
e−µ̃xi −ν̃yi
Z
X
e−µ̃xi −ν̃yi
(1.35)
(1.36)
i
und ν̃ = ν ln 2. Der Wert von µ ergibt sich aus der Bedingung
hxi = −
d ln Z
,
dµ̃
(1.37)
d ln Z
.
dν̃
(1.38)
und der Wert von ν ergibt sich aus der Bedingung
hyi = −
17
1.9
Zusammenhang mit dem Entropiesatz
Aus dem Prinzip der maximalen Ignoranz folgt der Entropiesatz. Das Prinzip der maximalen Ignoranz
besagt, dass in einem abgeschlossenen System alle durch die Dynamik erreichbaren Zustände gleich wahrscheinlich sind. Wir können die verschiedenen Zustände des Systems in Gruppen zusammenfassen, die
jeweils mit denselben makroskopischen Eigenschaften einhergehen. Für unser Beispiel mit den Elementarmagneten ist diese makroskopische Eigenschaft das gesamte magnetische Moment. Es gibt also zu
jedem “Makrozustand” viele “Mikrozustände”. Aus dem Prinzip der maximalen Ignoranz folgt, dass die
Wahrscheinlichkeit, im System einen bestimmten Makrozustand zu beobachten, gleich dem Anteil der
Mikrozustände ist, die zu diesem Wert der makroskopischen Beobachtungsgröße gehören. In Systemen
aus ca. 1023 Teilchen unterscheiden sich diese Wahrscheinlichkeiten normalerweise so krass, dass fast alle
Mikrozustände in einem schmalen Bereich um den wahrscheinlichsten Wert der Beobachtungsgröße liegen.
Die Zahl der Mikrozustände, die zu anderen Werten der Beobachtungsgröße gehören, ist deutlich geringer. Im Gleichgewicht wird also derjenige Makrozustand angenommen, der die meisten Mikrozustände
hat, also die größte Entropie. Wenn das System in einem anderen Makrozustand initialisiert wird, wird
die Entropie also zunehmen, bis sie ihren Maximalwert erreicht, also bis die Beobachtungsgröße ihren
wahrscheinlichsten Wert annimmt.
Die Wahrscheinlichkeit, dass ein System den Mikrozustand Nummer i annimmt, sei pi . Die Entropie
ist dann definiert als
X
pi ln pi
(1.39)
S = −kB
i
−23
mit der Boltzmannkonstanten kB = 1, 38 × 10 J/K. Wenn alle pi identisch sind, vereinfacht sich diese
Formel zu
S = kB ln Ω ,
(1.40)
wobei Ω = 1/pi die Zahl der Mikrozustände ist.
Wir konkretisieren die obige Überlegungzum Entropiesatz am Beispiel des Systems aus Elementarmagneten. In unserem Modellsystem aus magnetischen Momenten (Abschnitt 1.4.1.) sind die Mikrozustände
die verschiedenen Kombinationen von Spineinstellungen. Wir betrachten die Situation, dass kein Magnetfeld angelegt wurde. Dann haben alle 2N Konfigurationen dieselbe Energie. Das Prinzip der maximalen
Ignoranz besagt nun, dass wir keinen Grund haben, einen dieser Mikrozustände zu bevorzugen, und
dass deshalb alle Mikrozustände gleich wahrscheinlich sind. Wir können nun fragen, welchen Wert der
Gesamtmagnetisierung wir beobachten werden. Es gibt Ω(N, M ) Mikrozustände mit derselben Gesamtmagnetisierung M/N . Die Wahrscheinlichkeit, die Magnetisierung M/N zu beobachten, beträgt für große
N
r
2 − M2
N
e 2N .
Ω(N, M )/2 ≃
(1.41)
πN
Dies ist eine sehr
√ scharf um Null zentrierte Gaußverteilung. Die Standardabweichung ∆M/N ist
proportional zu 1/ N . Für einen makroskopischen Festkörper ist N von der Größenordnung 1023 und
die Standardabweichung der Magnetisierung ist daher von der Größenordnung 10−11 , also winzig.
Nun ordnen wir den Zuständen mit der verschiedenen Magnetisierung eine Entropie zu. Sie beträgt
S(M, N ) = kB ln Ω(N, M ) .
(1.42)
Sie hat also ihr Maximum dort, wo Ω(N, M ) sein Maximum hat, und das ist bei M = 0. Wenn wir am
Anfang unser System so präparieren, dass alle Elementarmagneten in dieselbe Richtung zeigen, haben wir
einen Anfangszustand mit Entropie S = 0. Durch die Dynamik in dem System werden nun alle Spins hinund herflippen, so dass über längere Zeit alle Spinkonfigurationen gleich häufig sind. M wird abnehmen
und schließlich den Wert Null erreichen.
Wir betrachten noch ein zweites Beispiel, das für die Überlegungen der nächsten beiden Kapitel wichtig
ist. In einer Kammer seien N Atome eines idealen Gases. Diese Atome können sich nicht durchdringen
und führen miteinander elastische Stöße aus. Es gibt sonst keine Wechselwirkung zwischen den Atomen.
In einem abgeschlossenen System ist dann die Gesamtenergie durch die gesamte kinetische Energie der
18
Atome gegeben. Das Prinzip der maximalen Ignoranz besagt nun wieder, dass alle Zustände zur gleichen
Energie gleich wahrscheinlich sind. Da die Position eines Atoms keinen Einfluss auf seine Energie hat,
sind also auch alle Positionen eines Atoms gleich wahrscheinlich (wir gehen davon aus, dass die Atome
nur einen sehr kleinen Anteil des Gesamtvolumens einnehmen, so dass ein Überlapp unwahrscheinlich ist,
wenn wir die Positionen zufällig wählen). Wir unterteilen das Volumen in n gleich große Teilvolumina,
und unsere Beobachtungsgröße, also unser Makrozustand, sei die Atomdichte in diesen Teilvolumina.
Jedes Atom ist mit gleicher Wahrscheinlichkeit in jedem dieser Teilvolumina. Die mittlere Anteil von
Atomen in einem Teilvolumen ist 1/n, und die Varianz dieses Anteils ist ungefähr 1/N n. Diese Varianz
berechnet man folgendermaßen: Wir verteilen die Atome zufällig auf die Teilvolumina, indem wir jedes
Atom mit derselben Wahrscheinlichkeit in jedes der n Teilvolumina setzen. Wir betrachten ein bestimmtes
Teilvolumen. Die Wahrscheinlichkeit, dass ein gegebenes Atom in diesem Teilvolumen landet, beträgt
1/n. Wenn es dort landet, macht es einen Beitrag 1/N zu unserer Messgröße (Anteil der Atome in diesem
Teilvolumen), im anderen Fall macht es den Beitrag Null. Die Varianz dieses Beitrags ist
1
n
1
1
−
N
nN
2
2
1
1
1
+ 1−
≃
.
n
nN
nN 2
Im letzten Schritt haben wir angenommen, dass n viel größer als 1 ist. Nach dem zentralen Grenzwertsatz
ist die gesamte Varianz N mal die Varianz eines Teilchens, also 1/nN . Wenn N von der Größenordnung
1023 ist, ist die Schwankung um die mittlere Dichte extrem klein.
Im Gleichgewicht ist also die Atomdichte in jedem Teil des Volumens gleich. Wenn wir das System mit
einer ungleichen Verteilung starten, wird die Entropie solange zunehmen, bis die gleichmäßige Verteilung
erreicht ist.
Übungsaufgaben zu Kapitel 1
1. In einem Gefängnis sitzen drei zum Tode verurteilte Gefangene: Anton, Brigitte und Clemens. Genau
einer von ihnen soll begnadigt werden. Dazu wird ein Los gezogen, das allen die gleiche Chance gibt,
begnadigt zu werden. Der Gefangene Anton, der also eine Überlebenswahrscheinlichkeit von 1/3
hat, bittet den Wärter, der das Ergebnis des Losentscheids kennt, ihm einen seiner Leidensgenossen
Brigitte oder Clemens zu nennen, der oder die sterben muss. Der Wärter antwortet “Brigitte”. Wie
hoch ist nun Antons Überlebenswahrscheinlichkeit? Wie hoch ist nun die Überlebenswahrscheinlichkeit von Clemens? (Lösung auf http://de.wikipedia.org/wiki/Gefangenenparadoxon)
2. Im Folgenden ist ein Argument von Gegnern der Evolutionstheorie wiedergegeben. Finden Sie dieses
Wahrscheinlichkeitsargument überzeugend? Consider the alpha chain of human hemoglobin - a key
component of blood which serves as a transfer agent for oxygen. The alpha hemoglobin molecule is a
protein chain based on a sequence of 141 amino acids, and the hemoglobin of virtually every human
has the same sequence. There are 20 different amino acids common in living systems. Thus the
number of different chains (141 amino acids long) is 20141 , or roughly 10183 . If 5 billion years ago,
as many as 1040 amino-acid molecule generators, each producing a different randomly chosen 141
amino-acid sequence one billion times per second, began generating sequences, then at the present
point in time only about 1066 sequences would have been generated. Thus the probability that human
alpha hemoglobin would have been produced is about 1066 /10183 = 10−117 , a fantastically small
number. Thus no conventional theory of molecular evolution can account for the origin of human
alpha hemoglobin.
3. Random Walk: Ein Besoffener hat völlig die Orientierung verloren und überlegt nach jedem Schritt
neu, in welcher Richtung der nächste Schritt gehen soll. Er entscheidet sich jedes Mal mit Wahrscheinlichkeit 1/2 für einen Schritt nach rechts und mit Wahrscheinlichkeit 1/2 für einen Schritt
nach links. Wenn die Schrittgröße einen Meter beträgt, was ist dann die Abstandverteilung vom
Ausgangsort nach N Schritten? Was ergibt sich nach dem zentralen Grenzwertsatz für große N ?
Mit welcher Potenz von N wächst demnach die mittlere Entfernung vom Ausgangsort?
19
4. Punktmutationen, die beim Duplizieren der DNA entstehen, werden durch ausgeklügelte Korrekturmechanismen so gut korrigiert, dass pro Generation nur eine Punktmutation in 50 Millionen
Basenpaaren entsteht. Das Chromosom Nummer 10 des Menschen hat 135 Millionen Basenpaare. Was sind die Wahrscheinlichkeiten dafür, dass ein Chromosom 10 des Kindes keine, eine, zwei
Punktmutationen gegenüber dem elterlichen Chromosom 10 bekommt?
5. Auf einer Single-Party sind 64 Männer und 128 Frauen. Am Ende der Party ist jeder Mann mit
einer der Frauen befreundet. Das ist die einzige Information, die ich bis jetzt von der Party habe.
Was ist mein Informationsgewinn (in Bit), wenn ich erfahre, dass Silke seit der Party mit Erwin
befreundet ist? Was ist mein Informationsgewinn (in Bit), wenn ich nur erfahre, dass Silke auf der
Party einen Freund gefunden hat?
6. Von einer Zufallsvariable x ist nur bekannt, dass ihr Mittelwert x̄ ist und die Varianz σ 2 . Leiten
Sie mit Hilfe des Prinzips der maximalen Ignoranz die Wahrscheinlichkeitsverteilung p(xi ) ab. Berechnen Sie explizit die Werte der Lagrange-Parameter für den Fall, dass die möglichen Werte von
x äquidistant den Bereich von −∞ bis ∞ abdecken. Nehmen Sie dabei an, dass der Abstand benachbarter xi -Werte sehr viel kleiner als σ ist, so dass Sie die auftretenden Summen durch Integrale
ersetzen können.
20
Kapitel 2
Von der klassischen Mechanik zur
statistischen Mechanik
2.1
Die Aufgabe
Bevor es die Quantenmechanik gab, versuchte man, die statistische Mechanik auf die klassische Mechanik
zurückzuführen. Man stellte sich zum Beispiel ein ideales Gas als viele kleine harte Kügelchen vor, die
den Newtonschen Gesetzen folgen und miteinander und mit den Wänden elastische Stöße ausführen. Da
jeder dieser Stöße reversibel ist und auch die Bewegung zwischen den Stößen reversibel ist, stellt sich
die Frage, woher die Irreversibilität der Thermodynamik kommt, die sich zum Beispiel im Entropiesatz
manifestiert. Da die klassische Mechanik deterministisch ist, stellt sich weiterhin die Frage, wo der Zufall
ins Spiel kommt, der in der statistischen Mechanik eine so wichtige Rolle spielt. Um diesen Fragen nachzugehen, beschreiben wir zunächst die Dynamik des “Gases” aus harten Kugeln durch die Hamiltonschen
Bewegungsgleichungen und gehen in den Phasenraum. Wir werden dann überlegen, wie ein Ensemble von
anfangs sehr ähnlichen Systemen sich mit der Zeit entwickelt.
2.2
Die Liouville-Gleichung
Wir betrachten ein “Gas” aus N Teilchen, das in eine Kammer eingesperrt ist. Der Bewegungszustand
jedes der N Teilchen wird durch drei Ortskoordinaten und drei Impulskomponenten festgelegt. Wir nummerieren die 3N Ortskoordinaten qi und die 3N Impulskoordinaten pi entsprechend von 1 bis 3N . Sie
genügen den Hamiltonschen Bewegungsgleichungen
∂H
∂qi
∂H
,
∂pi
ṗi
= −
q̇i
=
(2.1)
wobei H die Hamiltonfunktion ist. Die Dynamik des gesamten Teilchengases lässt sich also durch die
Trajektorie eines Punktes im 6N -dimensionalen Phasenraum darstellen. Wir schreiben
~x = (p1 , . . . , p3N , q1 , . . . , q3N ) .
(2.2)
Die Bewegungsgleichungen (2.1) lassen sich also zusammenfassen als
ẋi = fi (~x)
mit der durch die rechte Seite von (2.1) gegebenen Funktion f~.
21
(2.3)
Um die Brücke zwischen der klassischen Mechanik und der statistischen Mechanik zu bauen, betrachtet man nun nicht ein einzelnes System, sondern ein ganzes Ensemble von solchen Systemen. Da man
die Anfangsbedingung sowieso nicht mit beliebiger Genauigkeit angeben kann, betrachtet man das Ensemble von Systemen, deren Anfangszustand im Rahmen einer gewählten Genauigkeit übereinstimmt.
Im Phasenraum füllen all diese Anfangszustände des Ensembles ein kleines endliches Volumen aus. Wir
wählen das Ensemble so, dass die Dichte der Systeme in diesem kleinen Volumen einen konstanten Wert
̺0 hat und außerhalb verschwindet. Nun betrachtet man die zeitliche Entwicklung all dieser Systeme
gleichzeitig im Phasenraum. Jeder Punkt des anfänglich gewählten Volumenelements bewegt sich gemäß
Gleichung (2.3). Das Volumenelement bewegt sich also und deformiert sich dabei. Wir zeigen zunächst,
dass sich das Gesamtvolumen dabei nicht ändert. Hierzu machen wir den Ansatz V = l1 l2 . . . l6N (mit
infinitesimalen li ), wir gehen also davon aus, dass das Volumenelement ein 6N -dimensionaler “Quader”
(i)
(i)
ist, dessen Kanten sich in jeder der 6N Dimensionen von xa bis xe erstrecken. Durch Taylorentwicklung
(1)
(1)
erhalten wir l˙1 = ẋe − ẋa ≃ l1 ∂f1 /∂x(1) . Damit folgt
V̇
= l˙1 l2 . . . l6N + l˙2 l1 l3 . . . l6N + . . .
∂f1
∂f2
=
l1 l2 . . . l6N + (2) l2 l1 l3 . . . l6N + . . .
(1)
∂x
∂x
X ∂fi
=
l1 l2 . . . l6N
∂x(i)
i
~ · f~ .
= V∇
(2.4)
Die Divergenz der Funktion f~ entscheidet also, wie sich das Phasenraumvolumen unter der Dynamik
ändert. Für unsere Hamiltonschen Bewegungsgleichungen gilt
~ · f~ =
∇
3N X
∂ ∂H
∂ ∂H
−
= 0.
+
∂pi ∂qi
∂qi ∂pi
i=1
(2.5)
Das Phasenraumvolumen ändert sich also nicht, sondern deformiert sich nur.
Wir bezeichnen mit ̺(~x, t) die Dichte der Zustände unseres Ensembles im Phasenraum. Sie ist am
Anfang ̺0 innerhalb des gewählten Volumenelements, und außerhalb ist sie 0. Wir haben eben gezeigt,
dass sich das Phasenraumvolumenelement unter der Hamiltonschen Dynamik deformiert, aber dass es
nicht sein Volumen ändert. Also gibt es auch zu späteren Zeiten nur Bereiche mit Dichte ̺0 und 0, die
aber immer feiner verwoben werden. Die Bewegungsgleichung, der die Dichte ̺(~x, t) genügt, nennt man
Liouville-Gleichung. Sie gilt natürlich nicht nur für den von uns betrachteten Fall, dass alle Dichtewerte
̺0 oder 0 sind, sondern auch für allgemeine Dichtewerte. Wir betrachten im Folgenden daher allgemeine
Funktionen ̺(~x, t). Wir leiten die Liouville-Gleichung aus den Hamiltonschen Gleichungen her, indem
wir mit der Kontinuitätsgleichung starten und die rechte Seite mit Hilfe der Hamiltonschen Gleichungen
umformen:
∂̺
~ ̺~x˙
= −∇
∂t
X ∂ ∂H ∂
∂H
̺
−
̺
=
∂pi
∂qi
∂qi
∂pi
i
X ∂H ∂
∂H ∂
=
̺
−
∂qi ∂pi
∂pi ∂qi
i
∂̺
∂t
=
{H, ̺} .
(2.6)
Die geschweifte Klammer in der letzten Zeile ist eine verkürzte Notation des Ausdrucks in der Zeile
darüber. Man nennt ihn die Poisson-Klammer. Die Liouville-Gleichung besagt also, dass die zeitliche
Änderung der Phasenraumdichte ̺ durch die Poisson-Klammer der Hamiltonfunktion mit ̺ gegeben ist.
22
2.3
Langzeitverhalten und Ergodizität
Die Liouville-Gleichung beschreibt die zeitliche Änderung der Phasenraumdichte. Wir können uns die
Phasenraumdichte zur Zeit t dadurch veranschaulichen, dass wir ein Ensemble von sehr vielen (eigentlich
unendlich vielen) Systemen vorstellen, von denen der Anteil ̺(~x, t)d6N x sich in dem Phasenraumvolumenelement der Größe d6N x am Phasenraumpunkt ~x befindet. Da jedes dieser Systeme sich gemäß der
Hamiltonschen Bewegungsgleichungen entwickelt, ändern sich die Anteile der Systeme in den verschiedenen Phasenraumvolumenelementen, und damit ändert sich die Funktion ̺(~x, t). Nun gilt für jedes System
dieses Ensembles die Energieerhaltung. Die Phasenraumtrajektorie eines Systems der Energie E bewegt
sich daher auf einer Energieschale im Phasenraum, also in demjenigen Unterraum, der die Energie E
hat. Das gesamte Phasenraumvolumen, das zum Energieintervall [E, E + dE] gehört, bezeichen wir mit
Σ(E)dE. Das Phasenraumvolumen, das zu allen Energiewerten ≤ E gehört, bezeichnen wir mit Ω̄kl (E).
Es gilt
Z
Z
dΩ̄kl
dAE
Σ(E) =
dSE .
(2.7)
≡
=
~ H=E
dE
SE
SE |∇H|
Das Integral wird über alle Punkte der Energie E des Phasenraumvolumens genommen. dAE ist das
~ H=E ist die Dicke der Energieschale. Die Ener(6N −1)-dimensionale Hyperflächenelement, und dE/|∇H|
~ H=E klein
gieschale ist dicker, wenn sich die Energie in Normalenrichtung wenig ändert (also wenn |∇H|
ist). dSE ist das infinitesimale Energieschalenelement, das an verschiedenen Stellen verschieden dick sein
kann.
Man stellt sich vor, dass ein anfänglich kompaktes Phasenraumvolumenelement sich aufgrund der
Dynamik dieses N -Teilchensystems wie ein immer länger und dünner werdender Faden über alle Bereiche der Energieschale erstreckt und so im Laufe der Zeit jedem beliebigen Punkt der Energieschale
beliebig nahe kommt. Wie ein Milchtröpfchen, das man in Kaffee gibt, verteilt sich das anfänglich scharf
lokalisierte Phasenraumvolumen über die gesamte Energieschale. Man nennt ein derartiges Verhalten in
Anlehnung an die Analogie mit einem Flüssigkeitströpfchen mischendes Verhalten. Dies ist nicht identisch
mit chaotischem Verhalten. Zu chaotischem Verhalten gehört ein exponenziell schnelles Auseinanderlaufen benachbarter Trajektorien, was für mischendes Verhalten nicht zwingend nötig ist. Umgekehrt kann
es bei chaotischem Verhalten reguläre “Inseln” im Phasenraum geben, die nicht von einer chaotischen
Trajektorie besucht werden können. Bisher konnte man erst für wenige Modellsysteme mischendes Verhalten explizit theoretisch nachweisen. Allerdings ist mischendes Verhalten für Vielteilchensysteme mit
chaotischer Dynamik sehr plausibel und ist eine wichtige Grundannahme der statistischen Physik. Die
aus dieser Annahme abgeleiteten Eigenschaften passen exzellent mit dem empirischen Befund zusammen.
Eine wichtige Voraussetzung für mischendes Verhalten ist, dass es außer der Energie keine weitere Erhaltungsgröße gibt, denn das würde die Trajektorien innerhalb der Energieschale auf einen Unterraum
einschränken, in dem diese Erhaltungsgröße einen konstanten Wert hat.
Mischende Systeme sind ergodisch. Man findet in der Literatur verschiedene Definitionen für Ergodizität, die für mischende Systeme äquivalent sind:
• Ein ergodisches System hat (zu gegebener Energie) eine einzige stationäre Lösung der LiouvilleGleichung, und diese ist eine Konstante über der Energieschale. Dass eine konstante Funktion die
Gleichung ̺˙ = 0 löst, kann man direkt aus der Liouville-Gleichung (2.6) ablesen. Für ergodische
Systeme ist die Konstante die einzige stationäre Lösung.
• Eine “typische” Trajektorie im Phasenraum kommt im Laufe der Zeit jedem Punkt auf der Energieschale beliebig nahe. “Typische” Trajektorien sind alle Trajektorien bis auf einige wenige spezielle
Trajektorien, die zu Anfangswerten gehören, die das Maß Null in der Energieschale haben. Solche
speziellen Trajektorien sind zum Beispiel instabile periodische Bahnen.
• Das Langzeitmittel einer Funktion f (~x) ist identisch mit dem Mittel über die Energieschale,
1
T →∞ T
hf (~x(t))iT = lim
Z
0
T
f (~x(t))dt = hf (~x)iS =
23
1
Σ(E)
Z
SE
f (~x)dSE ,
(2.8)
wobei das infinitesimale Energieschalenelement dSE in Gl. (2.7) definiert wurde. Diese Bedingung
nennt man oft kurz “Zeitmittel = Scharmittel”. Statt die Funktion f in einem System über lange
Zeit zu mitteln, kann man diesen Mittelwert alternativ dadurch berechnen, dass man den Mittelwert
nur zu einer Zeit, aber über eine “Schar”, also ein Ensemble von Systemen nimmt, die alle dieselbe
Energie haben und die gleichmäßig über die Energieschale verteilt sind.
2.4
Irreversibilität
Nach all diesen Vorüberlegungen kommen wir zur Kernfrage: wie kann man die Irreversibilität der statistischen Mechanik erklären angesichts der Reversibilität der Newtonschen Bewegungsgleichungen, die
dem harte-Kugel-Gas zugrunde liegen?
Bisher haben wir darüber geredet, dass in mischenden Systemen ein anfänglich kompaktes Phasenraumvolumenelement sich mit der Zeit über die gesamte Energieschale ausbreitet, so dass jedes kleine
Phasenraumvolumenelement auf der Energieschale nach genügend langer Zeit einen Teil des anfänglichen
Volumens enthält. Wenn wir zum Beispiel einen Anfangszustand wählen, bei dem alle Teilchen des Gases
in einer Ecke des Raums sind (das entspricht einer speziellen Position des anfänglichen Phasenraumvolumenelements), dann wird die überwältigende Mehrheit der Systeme unseres Ensembles nach gewisser Zeit
ein gleichmäßig über den Raum verteiltes Gas enthalten, denn der allergrößte Teil der Energieschale im
Phasenraum entspricht Zuständen, bei denen das Gas gleichmäßig verteilt ist (weil das die mit Abstand
wahrscheinlichste Aufteilung der Gasteilchen auf den Raum ist).
Diese Überlegung lässt sich in der Zeit umkehren. In den Newtonschen Bewegungsgleichung bedeutet
eine Zeitumkehr die Umkehr aller Geschwindigkeiten. Wenn man also nach langer Zeit die Geschwindigkeit aller Gasteilchen umkehrt, läuft der gesamte Prozess rückwärts ab, da die Bewegungsgleichungen der
klassischen Mechanik und folglich auch die Liouville-Gleichung reversibel sind. Das verteilte Tröpfchen
zieht sich immer mehr zusammen, bis es wieder die ursprüngliche Form hat. Wenn man die Zeit danach
noch weiter rückwärts laufen lässt, streckt es sich wieder aus und kommt in jeden Teil der Energieschale.
Manche meinen nun, dass die in der Natur beobachtete Irreversibilität nur scheinbar ist, hervorgerufen
durch ganz spezielle Anfangszustände. Wenn man nur genügend lange warten würde, würde das Gas
auch irgendwann wieder einen Zustand erreichen, bei dem alle Kügelchen in demselben kleinen Volumenelement sind. Dies ist in der Ergodizität enthalten, da ja das System jedem beliebigen Punkt im
Phasenraumvolumen beliebig nahe kommt. In einem Gas aus 1023 Teilchen ist diese Wiederkehrzeit aber
so lang, dass selbst die Lebensdauer des Universums bei weitem nicht ausreicht, eine solche Wiederkehr
zu beobachten. Wenn dieses Argument stimmt, dann ist die mit dem Entropiesatz verbundene Irreversibilität nur eine Illusion, hervorgerufen durch spezielle Anfangsbedingungen und unsere Unfähigkeit, aus
speziellen Anfangsbedingungen resultierende Zustände als besondere Zustände zu erkennen, da sie wie
(fast) jeder beliebige andere Zustand der Energieschale aussehen. Dieses Argument ist meines Erachtens
aus mehreren Gründen nicht stichhaltig.
• Erstens (und jetzt kommt ein philosophisches Argument) steht es im Gegensatz zu unserer fundamentalen Erfahrung, dass es eine eindeutige Zeitrichtung gibt. Fast alle Prozesse in der Natur sind
irreversibel. Wenn man eine Filmaufnahme von ihnen machen würde und den Film rückwärts laufen
lassen würde, würde der Film ganz anders, und zwar total unrealistisch aussehen. Irreversibilität
und der damit verbundene Zeitpfeil scheint also eine fundamentale Eigenschaft der Natur zu sein.
Sie als Illusion abzutun, wird diesem Sachverhalt nicht gerecht.
• Zweitens macht dieses Argument eine unausgesprochene Annahme, die nicht Teil der klassischen
Mechanik ist: Man nimmt zwar wie gesagt an, dass die Anfangszustände speziell sind (zum Beispiel
dass alle Teilchen des Gases in einer Ecke sind), aber gleichzeitig nimmt man auch an, dass sie in
anderer Hinsicht nicht speziell sind. Man postuliert nämlich, dass alle mit den Anfangsbedingungen
verträglichen zukünftigen Zeitentwicklungen gleich wahrscheinlich sind. In anderen Worten: die
zukünftige Zeitentwicklung ist eine “typische” Trajektorie aus all den Trajektorien, die in dem
durch die Anfangsbedingungen gegebenen kleinen Phasenraumvolumenelement starten. Und weil
24
die “typischen” Trajektorien im Laufe der Zeit zu Zuständen laufen, die einem gleichmäßig über das
Volumen verteilten Gas entsprechen, beobachtet man immer ein solches Verhalten. Dies ist uns durch
die Erfahrung so selbstverständlich, dass wir uns nicht bewusst machen, dass dies eine unbewiesene
Annahme ist. Die Trajektorie, die wir durch die oben erwähnte Umkehr aller Geschwindigkeiten
bekommen, ist zum Beispiel nicht eine “typische” Trajektorie. Sie ist eine Trajektorie, die die
Information über den Anfangszustand enthält, und nach Umkehr der Geschwindigkeiten wird diese
zu einer Information über den Zielzustand. Die Newtonsche Mechanik würde nicht in Widerspruch
stehen mit einer zielgerichteten Zeitentwicklung, die auf ganz spezielle Endzustände läuft, denn jedes
kleine Anfangsvolumen im Phasenraum enthält Anfangswerte von Trajektorien, die nach relativ
kurzer Zeit auf einen vorgegebenen Zielzustand laufen können (nämlich nach der Zeit, die das
Anfangsvolumen braucht, um jeden Bereich der Energieschale mit der gewünschten Genauigkeit zu
erreichen).
• Das anfängliche Phasenraumvolumen verteilt sich nicht wirklich gleichmäßig über die Energieschale.
Man hat also keine wirkliche Irreversibilität, da das über die gesamte Energieschale gestreckte Anfangsvolumen immer noch alle Information über den Anfangszustand enthält und genauso einmalig
und speziell ist wie der Ausgangszustand. Nur bei einer grobkörnigen Betrachtung des Phasenraums
entsteht der Eindruck von Irreversibilität und einer gleichförmigen Verteilung über den Phasenraum.
Wenn man den Phasenraum mit einem Gitter von einer bestimmten Maschengröße überzieht, hat
jede Zelle dieses Gitters nach genügend langer Zeit einen Teil des anfänglichen Phaseraumvolumenelements. Aber wenn man genauer hineinzoomt, sieht man, dass es nach wie vor Bereiche gibt, in
denen ̺ den konstanten Anfangswert ̺0 hat und solche, in denen ̺ = 0 ist. Dies ist nicht die stationäre Verteilung, die durch eine echt irreversible Zeitentwicklung hin zum Gleichgewicht impliziert
ist. Man macht also die (oft unausgesprochene) Annahme, dass die Information, die man nur beim
Zoomen noch wahrnehmen kann, eigentlich irrelevant ist und dass eine grobkörnige Betrachtung
des Phasenraums ausreicht.
Man kann also die Irreversibilität aus der klassischen Mechanik nicht ohne Zusatzannahmen erklären.
In den obigen Überlegungen wurde deutlich, dass man zwei Annahmen machen muss, die eng miteinander
verwandt sind:
• Alle mit den Anfangsbedingungen verträglichen zukünftigen Zeitentwicklungen sind gleich wahrscheinlich.
• Eine grobkörnige Betrachtung des Phasenraums enthält alle relevanten Informationen.
Beide Annahmen bedeuten im Grunde, dass ein Punkt im Phasenraum nur mit begrenzter Genauigkeit
definierbar ist. Die klassische Mechanik, bei der die Position und Geschwindigkeit eines Objekts im Prinzip mit beliebiger Genauigkeit definiert sind, stößt hier an ihre Grenzen. Es macht einfach keinen Sinn,
eine im Prinzip unendliche Genauigkeit zu postulieren, da diese grundsätzlich nicht nachgeprüft werden
kann und da die Annahme einer begrenzten Genauigkeit notwendig ist, um zur statistischen Physik zu
gelangen. Eine unendliche Genauigkeit würde außerdem zur Folge haben, dass der Anfangszustand, verbunden mit den Bewegungsgleichungen der Physik, die Zeitentwicklung für alle Zukunft beinhaltet. Ich
habe im vorigen Kapitel schon angedeutet, dass dies letztendlich zu absurden Schlussfolgerungen führen
würde wie derjenigen, dass im Zustand des Universums kurz nach dem Urknall schon alles, was wir heute tun, enthalten war. Die Unschärferelation der Quantenmechanik besagt genau dies, dass Punkte im
Phasenraum nicht beliebig genau definierbar sind. Wenn man die Energieniveaus quantenmechanischer
Teilchen im Potenzialtopf berechnet, stellt man ebenfalls fest, dass es in einem endlichen Phasenraumvolumen tatsächlich nur endlich viele verschiedene Zustände gibt, nämlich einen pro Phasenraumvolumen
h3N , wobei h das Plancksche Wirkungsquantum ist.
Herleitung: Dieses Ergebnis erhält man am schnellsten für ein Teilchen in einem eindimensionalen Potenzialtopf
der Länge L. Die Wellenzahlen in einem solchen Potenzialtopf sind kn = 2πn/L (periodische Randbedingungen, damit man ebene Wellen als Lösung erhält). Der Abstand zweier aufeinanderfolgender Impulswerte ist also
~2π/L = h/L. Der Ort des Teilchens ist völlig unscharf und ist mit gleicher Wahrscheinlichkeit an jeder Position
25
zwischen 0 und L. Also haben wir einen Zustand pro Phasenraumvolumen h. Für N Teilchen in einem dreidimensionalen Potenzialtopf erhalten wir für jeden der 3N Freiheitsgrade einen solchen Faktor h.
Dass es nur endlich viele verschiedene Zustände in einem endlichen Phasenraumvolumenelement geben
kann, wird auch durch der Existenz der Zustandsgröße Entropie nahegelegt. Sie ist ja proportional zur
Zahl der Zustände bzw. zur Information, die nötig ist, den Zustand des Systems eindeutig festzulegen.
Wenn ein Zustand erst durch die Angabe von unendlich vielen Nachkommastellen fürt Ort und Impuls
jedes Teilchens spezifiziert wäre, wäre das Konzept der Entropie nicht sinnvoll, da jeder Zustand unendlich
viel Information enthalten würde.
Die Konsequenzen aus diesen Überlegungen sind gewaltig, werden aber selten deutlich ausgesprochen: Sie bedeuten, dass selbst in einem abgeschlossenen System (nur solche betrachten wir bei diesen
Überlegungen) die Gegenwart nicht die zukünftige Zeitentwicklung über einen gewissen Zeithorizont hinaus enthält. Dieser Zeithorizont ist durch diejenige Zeit gegeben, die ein Phasenraumvolumenelement
h3N benötigt, um durch die mischende Dynamik des Systems jede “Gitterzelle” des Volumens h3N in
der Energieschale zu erreichen. Nach dieser Zeit ist natürlich dann auch jede Information über den Anfangszustand verlorengegangen, und eine Umkehr aller Geschwindigkeiten würde auch nicht mehr zum
ursprünglichen Anfangszustand zurückführen.
Kehren wir noch einmal zur Liouville-Gleichung zurück. Ein anfänglich kompaktes Phasenraumvolumenelement wird sich im Lauf der Zeit zwar immer feiner über die Energieschale verteilen, wird aber
nie die stationäre Verteilung ̺ = ̺eq ∝ 1/Σ(E)dE erreichen (wenn wir alles vergessen, was wir über
die Grobkörnigkeit des Phasenraums gesagt haben). Es gibt interessante theoretische Ansätze, anhand
von Modellsystemen zu zeigen, dass man im Rahmen der Liouville-Gleichung auch qualitativ ganz andere
Zeitentwicklungen haben kann (z.B. in dem Lehrbuch von L. Reichl). Es gibt nämlich Funktionen ̺λ (~x, t),
die der Eigenwertgleichung
− {H, ̺λ } = λ̺λ
(2.9)
genügen, was bedeutet, dass ̺λ exponenziell zerfällt,
̺λ (~x, t) = ̺λ (~x, 0)e−λt .
(2.10)
Diese Eigenfunktionen ̺λ (~x, t) sind für einen Teil der ~x-Werte negativ und können daher nicht als Dichte
im Phasenraum interpretiert werden. Aber man kann eine Linearkombination dieser Eigenfunktionen zur
stationären Dichte addieren, so dass die Summe überall positiv ist. Die Zeitentwicklung einer solchen
Dichte wäre dann
X
̺(~x, t) = ̺eq +
(2.11)
cν e−λν ̺λν (~x, 0) ,
ν
und sie würde mit der Zeit gegen die stationäre Dichte gehen. Wenn man also die Anfangsdichte ̺ im
Rahmen der durch die Grobkörnigkeit des Phasenraums gegebenen Genauigkeit durch eine Linearkombination solcher exponentiell zerfallenden Eigenfunktionen ausdrücken könnte, würde man sich sogar im
Rahmen des Formalismus der klassischen Mechanik im Laufe der Zeit der stationären gleichförmigen
Verteilung annähern. Für ein System aus vielen Teilchen kann man freilich derartige Rechnungen bisher
nicht explizit durchführen. Auch in diesem Ansatz zur Herleitung der Irreversibilität aus der klassischen
Mechanik stecken natürlich Annahmen, die nicht Teil der klassischen Mechanik sind. Man muss nämlich
annehmen, dass von allen mit der Anfangsverteilung ̺(~x, 0) im Rahmen der Messgenauigkeit verträglichen
Zerlegungen mit qualitativ verschiedener Zeitentwicklung eine Zerlegung der Form (2.11) die physikalisch
gültige ist.
2.5
Die Boltzmann-Gleichung
Die Boltzmann-Gleichung ist eine Gleichung für die zeitliche Entwicklung eines Teilchengases, die die
Irreversibilität schon enthält. Da diese Gleichung extrem plausibel ist, kann man auf den ersten Blick
übersehen, dass beim Aufstellen dieser Gleichung Annahmen gemacht werden müssen, die ähnlich sind
26
wie die im vorigen Teilkapitel erwähnten Annahmen. Man kann die Bolzmanngleichung aus den Hamiltonschen Bewegungsgleichungen mit Hilfe einiger Vereinfachungen herleiten. Wir wollen diesen Weg hier
nicht gehen, sondern schreiben diese Gleichung direkt hin und diskutieren ihre Bedeutung und die aus
ihr resultierenden Konsequenzen. Die zentrale Größe in der Boltzmann-Gleichung ist die Verteilungdichte f (~
p, ~q, t) der Teilchen im 6-dimensionalen Phasenraum. Im Gegensatz zur Liouville-Gleichung, die die
Zeitentwicklung einer Wahrscheinlichkeitsverteilung im Phasenraum des gesamten N -Teilchensystems beschreibt, beschreibt die Boltzmann-Gleichung die Zeitentwicklung der Dichte von Teilchen im EinteilchenPhasenraum. Diese Zeitentwicklung wird durch die paarweisen Stöße zwischen den Teilchen und durch
eine freie Bewegung zwischen den Stößen bestimmt. Wir nehmen also an, dass es kein äußeres Potenzial
gibt. Die Boltzmann-Gleichung lautet für diesen Fall
Z
Z
Z
∂f (~
p, ~q, t) ˙ ∂f (~
p, ~
q , t)
3
3
+~q·
= d p2 d p3 d3 p4 W (~
p, ~p2 ; ~p3 , ~p4 ) [f (~
p3 , ~q, t)f (~
p4 , ~q, t) − f (~
p, ~q, t)f (~
p2 , ~q, t)] .
∂t
∂~q
(2.12)
Wenn keine Stöße stattfinden würden, wäre die rechte Seite Null, und man hätte die Kontinuitätsgleichung für f (~
p, ~
q , t). Der Term auf der rechten Seite kommt also durch die Stöße. Hier bedeutet
W (~
p, p~2 ; p~3 , p~4 )d3 p3 d3 p4 die Wahrscheinlichkeit pro Zeiteinheit und Einheitsvolumen, dass ein bestimmtes
Teilchen mit Impuls p~2 und ein bestimmtes Teilchen mit Impuls ~p, die sich beide in diesem Einheitsvolumen befinden, zusammenstoßen und nach dem Stoß die Impulswerte p~3 und p~4 (jeweils mit der Genauigkeit
d3 p3 bzw. d3 p4 ) haben. Die Zahl der Teilchenpaare mit den beiden Impulsen ~p und ~p2 (jeweils mit der
Genauigkeit d3 p bzw. d3 p2 ) ist dann durch das Produkt f (~
p, ~q, t)f (~
p2 , ~q, t) gegeben. Diese Überlegung
erklärt den zweiten (den negativen) Summanden auf der rechten Seite. Der positive Summand auf der
rechten Seite beinhaltet die Stöße, bei denen zwei Teilchen mit Impulsen ~p3 und ~p4 zusammenstoßen und
dabei einen Impuls ~
p erzeugen. Da diese beiden Prozesse durch Zeitumkehr ineinander übergehen und da
die Newtonsche Mechanik invariant unter Zeitumkehr ist, haben beide Summanden denselben Gewichtsfaktor W (~
p, p~2 ; p~3 , p~4 ). Man kann W (~
p, ~
p2 ; p
~3 , ~p4 ) durch den Wirkungsquerschnitt von Teilchenstößen
ausdrücken und z.B. die für harte Kugeln korrekte Form des Wirkungsquerschnitts wählen. Aber für
unsere Zwecke reicht die hier gegebene allgemeine Formulierung. Dass dies keine exakte Gleichung für die
Zeitentwicklung des Teilchengases sein kann, erkennt man z.B. daran, dass Korrelationen zwischen Geschwindigkeiten ignoriert werden. Die Boltzmann-Gleichung geht davon aus, dass die Wahrscheinlichkeit
dafür, dass in einem kleinen Volumenelement gleichzeitig ein Teilchen des Impulses ~p und ein Teilchen des
Impulses p~2 ist, als Produkt der Einteilchenwahrscheinlichkeiten geschrieben werden kann. Diese Annahme hat eine gewisse Verwandtschaft mit den Annahmen, die wir im letzten Teilkapitel erwähnt haben.
Wenn man Korrelationen vernachlässigt, geht man nämlich davon aus, dass es nicht nötig ist, eine detaillierte Erinnerung an die Vergangenheit einzubeziehen. Wir werden gleich sehen, dass dieser Ansatz
dazu führt, dass die Boltzmanngleichung nicht invariant unter Zeitumkehr ist. Wir betrachten dazu die
zeitliche Änderung der Eta-Funktion
Z
Z
H(t) = d3 p d3 qf (~
p, ~q, t) ln f (~
p, ~q, t) ,
(2.13)
die gegeben ist durch
∂H
=
∂t
Z
d3 p
Z
d3 q
∂f
(ln f + 1) .
∂t
(2.14)
Wenn wir auf der rechten Seite die Zeitableitung von f durch die Boltzmann-Gleichung (2.12) ausdrücken,
bekommen wir zwei Beiträge, die wir nacheinander betrachten. Der eine Beitrag ist
Z
Z
Z
Z
~
∂f ln f
∂f
3 p
3
3 ˙
=− d p
.
d3 q
− d p d q~
q · (ln f + 1)
∂~q
m
∂~q
Das Integral über den Ortsraum können wir mit Hilfe des Gaußschen Satzes in ein Oberflächenintegral
umwandeln, und dieses ergibt Null. (Da wir kein Wandpotenzial eingeführt haben, sollten wir hier periodische Randbedingungen verwenden. Der Integrand ist dann auf gegenüberliegenden Wänden identisch,
27
aber die Flächennormale hat die umgekehrte Richtung, so dass die Oberflächenintegrale über gegenüberliegende Wände sich jeweils aufheben.) Es bleibt also
Z
Z
Z
Z
Z
∂H
3
3
3
3
=
d q d p d p2 d p3 d3 p4
∂t
W (~
p, p~2 ; ~
p3 , ~
p4 ) [f (~
p3 , ~
q , t)f (~
p4 , ~q, t) − f (~
p, ~q, t)f (~
p2 , ~q, t)] (ln f (~
p, ~q, t) + 1)
Z
Z
Z
Z
Z
1
d3 q d3 p d3 p2 d3 p3 d3 p4
=
4
f (~
p, ~q, t)f (~
p2 , ~q, t)
W (~
p, p~2 ; ~
p3 , ~
p4 ) [f (~
p3 , ~
q , t)f (~
p4 , ~q, t) − f (~
p, ~q, t)f (~
p2 , ~q, t)] ln
f (~
p3 , ~q, t)f (~
p4 , ~q, t)
≤ 0.
(2.15)
Beim Schritt von der ersten zur zweiten Zeile haben wir ausgenützt, dass W sich nicht ändert, wenn
man p~ mit ~p2 vertauscht oder das Paar (~
p, ~
p2 ) mit dem Paar (~
p3 , ~p4 ). Die Ungleichung im letzten Schritt
folgt daraus, dass eine Funktion der Form (y − x) ln x/y nie positiv ist. Wir haben also eine Größe H
gefunden, die mit der Zeit immer kleiner wird, bis sie irgendwann ihren kleinstmöglichen Wert erreicht
hat. Dies zeigt, dass die Boltzmann-Gleichung nicht invariant unter Zeitumkehr ist. Außerdem erkennt
man die Verwandtschaft der Funktion H mit einer Entropie. Wir können die Teilchendichte f als die
Wahrscheinlichkeitsdichte dafür interpretieren, dass wir ein bestimmtes Teilchen am Punkt (~
p, ~q) im
Phasenraum finden. Dann ist −H proportional zum Informationsgewinn, den wir erzielen, wenn wir
erfahren, wo ein bestimmtes Teilchen ist. Dass H nach langer Zeit, also im Gleichgewicht, sein Minimum
annimmt, bedeutet, dass im Gleichgewicht das Prinzip der maximalen Ignoranz erfüllt ist. Das Minimum
von H ist dann erreicht, wenn die Ungleichung zur Gleichung wird, also wenn
f (~
p, ~
q , t)f (~
p2 , ~q, t) = f (~
p3 , ~q, t)f (~
p4 , ~q, t)
für alle Stöße ist. Dies bedeutet, dass Stöße zu gegebenen Impulsen p~, p~2 , p~3 , ~p4 in beiden Richtungen gleich
oft ablaufen. Man nennt diese Art von Gleichgewicht detailliertes Gleichgewicht, und eine Filmaufnahme
des Gases stoßender Teilchen würde im Gleichgewicht vorwärts und rückwärts gleich realistisch aussehen.
Da die Gleichgewichtsbedingung nicht explizit vom Ort ~q abhängt, ist f im Gleichgewicht nur noch von
p~ abhängig. Wir können aus diesem Wissen die Wahrscheinlichkeitsverteilung der Impulse bestimmen.
Hierzu benötigen wir nur die Information, dass der mittlere Impuls Null sein soll (das Gefäß, in dem das
Gas ist, ruht also) und dass die Gesamtenergie und damit hp2 i gegeben ist. Das Prinzip der maximalen
Ignoranz ergibt für diesen Fall
2
feq (~
p) ∝ e−a~p
mit einer Konstanten a.
Die aus der Boltzmanngleichung abgeleiteten Eigenschaften von Gasen stimmen sehr gut mit der Beobachtung überein. Dies bedeutet, dass die Vernachlässigung der Korrelationen und damit des Gedächtnisses
an vergangene Stöße eine sehr gute Näherung ist.
2.6
Wo die klassische Mechanik außerdem noch an Grenzen
stößt
Wir haben gesehen, dass die klassische Mechanik Gültigkeitsgrenzen hat. Die Annahme, dass man Punkte im Phasenraum mit beliebiger Genauigkeit festlegen kann, steht im Widerspruch zur Grobkörnigkeit
des Phasenraums, die in den Grundannahmen der statistischen Physik steckt. Folgerichtig hat die Quantenmechanik dann gezeigt, dass es in einer Energieschale im Phasenraum nur endlich viele verschiedene
Zustände geben kann.
Die statistische Physik weist noch auf weitere Grenzen der klassischen Mechanik hin. Hierzu betrachten
wir die Entropie eines idealen Gases. In der Thermodynamik haben wir gelernt, dass die Entropie eine
extensive Größe ist. Wenn wir zwei gleich große Kammern, die mit derselben Menge desselben Gases
28
gefüllt sind, miteinander verbinden, ist die Gesamtentropie folglich die Summe der beiden Einzelentropien,
also das Doppelte der Entropie einer Kammer.
Wir versuchen nun, dies mit mikroskopischen Überlegungen über den Informationsgehalt des Systems
in Verbindung zu bringen. Bevor wir die Trennwand zwischen den beiden Kammern entfernen, wissen wir,
dass Teilchen 1 bis N/2 sich in der linken Kammer befinden und Teilchen N/2 + 1 bis N in der rechten
Kammer. Nach Entfernen der Trennwand ist diese Information verlorengegangen. Der Informationsverlust
beträgt ein Bit pro Teilchen, also N Bit insgesamt. Dies entspricht einer Entropiezunahme um N kB ln 2.
Dies ist aber in Konflikt zur vorher gemachten Annahme, dass die Gesamtentropie sich beim Verbinden
der beiden Kammern nicht ändert. Wir können diesen Konflikt auflösen, indem wir sagen, dass für
praktische Zwecke nur die Information relevant ist, wieviele Teilchen auf welcher Seite sind, aber nicht
die Information, welche Teilchen auf welcher Seite sind. Dann gibt es keine Änderung der Information,
wenn man die beiden Kammern verbindet.
Es stellt sich nun ähnlich wie bei der durch die Mechanik postulierten unendlichen Genauigkeit von
Phasenraumpunkten auch hier die Frage, ob man an etwas festhalten soll, was man grundsätzlich nicht
nachweisen kann und das für alle beobachtbaren Effekte keine Rolle spielt. Es geht jetzt um die Unterscheidbarkeit identischer Teilchen. Auch hier hat die Quantenmechanik den Wissenschaftlern nachgeholfen. Sie hat zu der Erkenntnis geführt, dass identische Teilchen tatsächlich und grundsätzlich nicht
unterschieden werden können, mit allen Implikationen, die dies für die Statistik mit sich bringt. Das
bedeutet, dass wir den Zustand, bei dem Teilchen 1 bis N/2 links und Teilchen N/2 + 1 bis N rechts sind
und Zustände, bei denen eine andere Auswahl von N/2 Teilchen links und der Rest rechts ist, nicht als
verschiedene Zustände zählen dürfen.
Eine weitere Aufgabe aus der statistischen Physik, bei der die klassische Physik (hier ist es mehr
die Elektrodynamik als die Mechanik) an ihre Grenzen stößt, ist die Schwarzkörperstrahlung oder Hohlraumstrahlung. Hier geht es darum zu berechnen, wie sich die in dem Hohlraum enthaltene Energie auf
die verschiedenen elektromagnetischen Schwingungsmoden verteilt. Diese Schwingungsmoden sind stehende Wellen im Hohlraum. Wenn der Hohlraum ein Würfel der Kantenlänge L ist, haben diese Schwinπ
gungsmoden die Wellenvektoren ~k = L
(nx , ny , nz ) mit natürlichen Zahlen nx , ny , nz . Die Anzahl der
Schwingungsmoden im Intervall [|~k|, |~k| + dk] ist folglich proportional zu k 2 dk. Das Prinzip der maximalen Ignoranz würde nun nahelegen, dass in jeder Schwingungsmode gleich viel Energie steckt, da dies die
gleichförmigste Energieverteilung auf die Moden ist, also diejenige mit der größten Entropie. Dies würde
bedeuten, dass in den Moden mit größerem |~k| mehr Energie steckt als in den Moden mit niedrigerem |~k|,
da erstere viel zahlreicher sind. Dies bringt zum einen das Problem mit sich, dass sich die Verteilung der
Energie auf die Moden nicht normieren lässt, da es unendlich viele Moden gibt, zum anderen ist dies auch
im Gegensatz zum experimentellen Befund, dass die Energie, die in den Schwingungsmoden im Intervall
[|~k|, |~k| + dk] steckt, proportional zu k 3 /(eak − 1) ist, mit einer von der Temperatur abhängigen Konstanten a. Max Planck konnte die gemessene Kurve durch eine theoretische Rechnung reproduzieren, indem
er von der Annahme ausging, dass die Energie in einer Mode der Frequenz ω = c|~k| nur in Paketen der
Größe ~ω vorliegen kann. Es ist sofort anschaulich klar, dass das Prinzip der maximalen Ignoranz dann
zu einer Bevorzugung der Moden mit kleineren k führt, da die Energie dort in kleinere Pakete aufgeteilt
werden kann und es dort somit mehr Aufteilungsmöglichkeiten gibt.
Wir werden im Folgenden zeigen, dass die Plancksche Annahme, dass die Energie nur in Paketen ~ω
in Moden der Frequenz ω gegeben werden kann, in der Tat auf die experimentell beobachtete Energieverteilung auf Intervalle von Moden führt. Wie vorher besagt das Prinzip der maximalen Ignoranz auch
in diesem Fall, dass jede Aufteilung der Energie auf die Moden gleich wahrscheinlich ist. Unsere Aufgabe
besteht nun darin herauszufinden, was dies für die Aufteilung der Energie auf kleine Energieintervalle bedeutet, von denen jedes sehr viele Moden enthält. Denn die experimentelle “makroskopische” Messgröße
ist die Verteilung der Energie auf Energieintervalle. Wir werden diejenige Verteilung beobachten, die
die meisten (mikroskopischen) Realisierungsmöglichkeiten hat. Davon deutlich abweichende Verteilungen
haben soviel weniger Realisierungsmöglichkeiten, dass sie so selten sind, dass nie beobachtet werden.
Wir suchen deshalb diejenige Aufteilung der Gesamtenergie auf die Intervalle von Moden, [|~k|, |~k|+dk],
die am meisten Realisierungsmöglichkeiten bietet. Wir nummerieren die Intervalle mit dem Index i durch.
Wir notieren die Zahl der Pakete (Quanten) im Intervall i mit qi , und die Zahl der Moden in diesem
29
Intervall mit ni . Es ist ni ∝ ki2 . Die Zahl der Möglichkeiten, qi Quanten auf ni Moden zu verteilen,
beträgt
ni + qi − 1
mi =
.
ni − 1
Dies ist die Zahl der Möglichkeiten, ni − 1 Trennwände zwischen qi Quanten zu setzen und damit ni
Schubladen (die Moden) mit insgesamt qi ununterscheidbaren Quanten zu füllen. (Noch anders formuliert:
Dies ist die Zahl der Möglichkeiten, ni − 1 Trennwände und qi Quanten auf ni − 1 + qi Positionen zu
verteilen.) Um diejenige Aufteilung der Quanten auf die Energieintervalle zu Q
finden, die
Pdie größte Zahl
m
=
an Realisierungsmöglichkeiten,
also
die
größte
Entropie
hat,
müssen
wir
ln
i
i ln mi mit der
i
P
Nebenbedingung i qi ki = const maximieren. Die Nebenbedingung legt die Gesamtenergie fest. (Wir
nehmen den Logarithmus nur aus pragmatischen Gründen, weil man dann besser mit den auftretenden
großen Zahlen umgehen kann.) Wir gehen davon aus, dass die Intervalle dk so groß sind, dass sehr viele
Moden und sehr viele Quanten darin sind. Dann können wir die Stirling-Formel anwenden und ln mi
nähern durch
ln mi ≃ (ni + qi − 1) ln(ni + qi − 1) − (ni − 1) ln(ni − 1) − qi ln qi .
(2.16)
P
P
Maximierung von
ln mi − λ( i qi ki − C) bzgl. der Wahl der qi gibt dann
ln(ni + qi − 1) − ln qi − λki = 0
(2.17)
und schließlich
ni
ni − 1
≃ λki
.
(2.18)
eλki − 1
e −1
Die Zahl der Quanten in einem Intervall ist also die Zahl der Moden in diesem Intervall, geteilt durch
(eλki − 1). Der Langrange-Parameter λ legt die Energie des Systems fest. Wenn wir nun ni ∝ ki2 einsetzen und die Größe der Energiepakete ∝ ki , erhalten wir das Ergebnis, dass im Intervall i eine Energie
proportional zu ki3 /(eλki − 1) steckt, in Übereinstimmung mit dem experimentellen Befund.
Die Überlegungen dieses Kapitels haben gezeigt, dass alle Annahmen, die von der klassischen Mechanik
abweichen und die zur Begründung der Statistischen Physik nötig sind (Grobkörnigkeit des Phasenraums,
Ununterscheidbarkeit identischer Teilchen, endliche Portionierung von Energiepaketen) in der Quantenmechanik korrekt enthalten sind. Bedeutet dies, dass die Statistische Mechanik ohne Schwierigkeiten aus
der Quantenmechanik abgeleitet werden kann? Dieser Frage wenden wir uns im nächsten Kapitel zu.
qi =
Übungsaufgaben zu Kapitel 2
1. (Diese Aufgabe ist ähnlich wie Beispiel 6.1. auf Seite 292 aus Reichl. Sie dient der Wiederholung
der klassischen Mechanik und hat die Lösung der Liouville-Gleichung für ein einfaches Beispiel zum
Ziel.) Ein Teilchen hüpft unter dem Einfluss der Gravitationskraft senkrecht nach oben und unten
und wird am Boden jeweils elastisch reflektiert.
(a) Schreiben Sie die Hamiltonschen Bewegungsgleichungen auf.
(b) Zur Zeit t = 0 sei das Teilchen am Boden (Position z = 0) und habe einen nach oben gerichteten Impuls p = p0 . Bestimmen Sie die Lösung der Hamiltonschen Bewegungsgleichung für diese
Anfangsbedingung.
(c) Stellen Sie die Liouville-Gleichung für das System auf.
(d) Gehen Sie von den Variablen z und p zu Wirkungs- und Winkelvariablen J und θ über und ermitteln Sie die Hamiltonfunktion, die Bewegungsgleichungen und die Liouville-Gleichung in diesen
Variablen.
(e) Lösen Sie die Liouville-Gleichung, indem Sie ̺(J, θ, t), indem Sie eine Fourierreihe ansetzen und
die Gleichung für jede Fouriermode separat lösen.
2. (Der erste Teil dieser Aufgabe ist ähnlich wie Beispiel 6.3. auf Seite 299 aus Reichl.) Gegeben ist
ein Gas aus N nicht miteinander wechselwirkenden Teilchen, die in einem Volumen V eingesperrt
sind.
30
(a) Berechnen Sie das Phasenraumvolumen Ω̄kl (E), das zu allen Energiewerten ≤ E gehört.
(b) Berechnen Sie daraus die Zahl Ω̄(E) der verschiedenen Zustände, die das System insgesamt für
Energien ≤ E hat. (Hierzu ist die Ununterscheidbarkeit der Teilchen zu berücksichtigen und dass
es pro Phasenraumvolumen h3N nur einen Zustand geben kann.)
3. In einer Kammer befinden sich N Heliumatome, in einer gleich großen zweiten Kammer befinden sich
N Neonatome mit derselben Gesamtenergie. Um wieviel ändert sich die Entropie des gesamten, aus
beiden Kammern bestehenden Systems, wenn man die Trennwand zwischen den beiden Kammern
entfernt?
31
Kapitel 3
Von der Quantenmechanik zur
statistischen Mechanik
3.1
Schrödingergleichung für N Teilchen
Im Kontext der klassischen Mechanik hatten wir uns ein ideales Gas als ein System aus N harten Kügelchen vorgestellt, die elastisch miteinander und mit den Wänden zusammenstoßen. Im Rahmen der Quantenmechanik wird ein solches System durch eine N -Teilchen-Schrödingergleichung beschrieben, ebenso
wie jedes andere nichtrelativistische System aus N (stabilen) Teilchen.
Zur Wiederholung zählen wir zunächst die wesentlichen Elemente der nichtrelativistischen Quantenmechanik auf (wie z.B. im Lehrbuch von Schwabl aufgelistet):
1. Der Zustand eines Systems wird beschrieben durch einen Zustandsvektor |Ψi.
2. Die Observablen werden durch hermitesche Operatoren  dargestellt, wobei Funktionen von Observablen durch die entsprechenden Funktionen der Operatoren dargestellt werden.
3. Die Mittelwerte der Observablen sind gegeben durch hAi = hΨ|Â|Ψi.
4. Die Zeitentwicklung wird durch die Schrödingergleichung bestimmt
i~
∂
|Ψ, ti = Ĥ|Ψ, ti .
∂t
(3.1)
5. Bei Messung von  geht das System über in einen Eigenzustand |ni von Â. Der gemessene Wert
ist der zugehörige Eigenwert an . Befindet sich ein System im Zustand
X
|Ψi =
cn |ni mit cn = hn|Ψi ,
(3.2)
n
so beträgt die Wahrscheinlichkeit, an zu messen, |cn |2 .
Für stationäre Zustände
|n, ti = e−iEn t/~ |ni
(3.3)
Ĥ|ni = En |ni .
(3.4)
ergibt sich die die zeitunabhängige Schrödingergleichung
Wenn der Zustand zur Zeit t = 0 durch |Ψi gegeben ist, so ist er zur Zeit t > 0
X
|Ψ, ti = e−iĤt/~ |Ψ, 0i =
hn|Ψie−iEn t/~ |ni .
n
32
(3.5)
Dies ist eine deterministische Zeitentwicklung. Wenn man den Zustand |Ψ, t0 i zu einem Anfangszeitpunkt
kennt, liegt damit |Ψ, ti für alle anderen Zeiten fest. Wenn man in der Schrödingergleichung die Zeitrichtung umkehrt (also t durch −t ersetzt), wird sie durch die komplex konjugierte Wellenfunktion gelöst.
Die Observablen ändern sich dadurch nicht, da sie nicht auf die Phase der Wellenfunktion ansprechen.
Für Systeme aus vielen Teilchen enthält der Hamiltonoperator die kinetische Energie aller Teilchen, ein
äußeres Potenzial U und ein Wechselwirkungspotenzial V für die paarweisen Wechselwirkungen zwischen
den Teilchen,
2
X ˆ
X
pα
~
1X
Ĥ =
+
U (~xα ) +
V (~xα , ~xβ ) .
(3.6)
2mα
2
α
α
α6=β
Außerdem kann es noch Beiträge geben, die vom Spin abhängen.
3.2
Fermionen und Bosonen
Weil identische Teilchen ununterscheidbar sind, müssen alle Erwartungswerte unverändert bleiben, wenn
man Teilchen vertauscht. Dies bedeutet, dass die Wellenfunktion abgesehen von der Phase unverändert
bleibt, wenn man Teilchen vertauscht. Auch der Hamilton-Operator Ĥ ist invariant, wenn man Teilchen
vertauscht.
Wir schreiben für den Hamiltonoperator (3.6) eines Systems aus N identischen Teilchen abgekürzt
Ĥ = Ĥ(1, 2, . . . , N ) ,
und für die Wellenfunktion
ψ(1, 2, . . . , N ) ,
wobei die Ziffer 1 für die Koordinaten und (falls vorhanden) den Spin des ersten Teilchens steht, etc. Für
identische Teilchen sind natürlich alle Massen mα in (3.6) gleich.
Die zeitunabhängige Schrödingergleichung für das N -Teilchensystem lässt sich im allgemeinen nicht
explizit lösen. Ein wichtiger Spezialfall ist die Situation V (~xα , ~xβ ) = 0, in der die Teilchen nicht miteinander wechselwirken. Dann hat die Eigenwertgleichung
!
X ˆp~2
α
Ĥψ(1, 2, . . . , N ) ≡
+ U (~xα ) ψ(1, 2, . . . , N ) = Eψ(1, 2, . . . , N )
(3.7)
2m
α
die Lösungen
ψ(1, 2, . . . , N ) =
Y
α
|iiα ,
wobei die |iiα die Eigenzustände der Einteilchengleichung
!
ˆp~2
α
+ U (~xα ) |iiα = ǫiα |iiα
2m
(3.8)
(3.9)
P
sind. Die Energie ist die Summe der Einteilchenenergien, E = α ǫiα . Die {|ii} bilden also ein vollständiges Orthonormalsystem für ein Teilchen. Damit bilden die Produktzustände {|i1 i1 |i2 i2 . . . |iN iN } ein
vollständiges Orthonormalsystem für das N -Teilchensystem. Wir notieren vereinfacht {|i1 , i2 , . . . , iN i}.
Wenn eine Wechselwirkung zwischen den Teilchen dazu kommt, sind die Produktzustände zwar nicht mehr
Eigenfunktionen des Hamiltonoperators, aber sie bilden weiterhin ein vollständiges Orthonormalsystem,
bezüglich dessen die Eigenzustände des Hamiltonoperators entwickelt werden können.
Wenn die N Teilchen ununterscheidbar sind, müssen allerdings die Wellenfunktionen invariant sein
(bis auf die Phase), wenn man zwei Teilchen miteinander vertauscht. Produkte von Einteilchenzuständen
sind aber nicht invariant, wenn Teilchen miteinander vertauscht werden (außer wenn alle Teilchen in
demselben Zustand sind). Um identische Teilchen zu beschreiben, müssen wir also die Produktzustände
33
miteinander so linear kombinieren, dass die gewünschte Invarianz resultiert. Zu diesem Zweck führen wir
den Permutationsoperator ein.
Der Permutationsoperator P̂αβ vertauscht die beiden Teilchen α und β:
P̂αβ ψ(. . . , α, . . . , β, . . .) = ψ(. . . , β, . . . , α, . . .) .
(3.10)
Er hat die Eigenschaft
2
P̂αβ
= 1,
und folglich hat er die beiden Eigenwerte ±1.
Wenn man mehrere paarweise Vertauschungen hintereinander ausführt, erhält man eine allgemeine
Permutation der N Teilchen. Im Folgenden schreiben wir P̂ (ohne Indizes) für einen allgemeinen Permutationsoperator. Man unterscheidet zwischen geraden und ungeraden Permutationen, die einer geraden
bzw. ungeraden Anzahl von paarweisen Vertauschungen entsprechen. Der Operator P̂ hat folgende Eigenschaften:
• [P̂ , Ĥ] = 0, d.h. die Symmetrie des Systems unter Permutationen ist zeitlich erhalten.
• hP̂ ϕ|P̂ ψi = hϕ|ψi. Dies zeigt man, indem man das Skalarprodukt durch ein Integral über die
Teilchenkoordinaten ausdrückt und die Integrationsvariablen vertauscht. Es folgt
P̂ † P̂ = P̂ P̂ † = 1 .
• Sei Ô eine Observable. Da sie sich nicht ändert, wenn Teilchen vertauscht werden, ist
hψ|Ô|ψi = hP̂ ψ|Ô|P̂ ψi = hψ|P̂ † ÔP̂ |ψi .
Es folgt
P̂ † Ô P̂ = Ô bzw. P̂ Ô = ÔP̂ bzw. [Ô, P̂ ] = 0 .
(3.11)
Die Wellenfunktionen von Fermionen und Bosonen unterscheiden sich durch ihre Symmetrie. Die
Wellenfunktion eines Systems aus Bosonen ist völlig symmetrisch unter paarweiser Vertauschung von
Teilchen, d.h. P̂ ψB = ψB für alle P̂ . Außerdem haben Bosonen einen ganzzahligen Spin S = 0, 1, . . .. Die
Wellenfunktion eines Systems aus Fermionen ist völlig antisymmetrisch unter paarweiser Vertauschung
von Teilchen, d.h. P̂ ψF = (−1)P ψF , wobei (−1)P = 1 für gerade Permutationen und (−1)P = −1 für
ungerade Permutationen. Außerdem haben Fermionen einen halbzahligen Spin, S = 1/2, 3/2, . . .. Aus
der Antisymmetrie der Wellenfunktion folgt sofort, dass keine zwei Teilchen in demselben Zustand sein
können. Vertauscht man zwei Teilchen, die in demselben Zustand sind, ändert sich die Wellenfunktion
nicht. Aber gleichzeitig muss sich ihr Vorzeichen ändern, weil sie ja antisymmetrisch sein muss. Die einzige
Lösung dieses Widerspruchs besteht darin, dass die Wellenfunktion verschwindet, wenn zwei Teilchen in
demselben Zustand sind. Daraus resultiert das Pauli-Prinzip, dass keine zwei Fermionen sich in demselben
quantenmechanischen Zustand befinden dürfen.
Ein vollständiges Orthonormalsystem für Fermionen sind die antisymmetrisierten und normierten
Produktzustände
|i1 i1 |i1 i2 · · · |i1 iN X
1 1
..
..
√
(−1)P P̂ |i1 , i2 , . . . , iN i = √ ...
.
.
N! P
N! |iN i1 |iN i2 · · · |iN iN Ein vollständiges Orthonormalsystem für Bosonen sind die symmetrisierten und normierten Produktzustände
X
1
√
P̂ |i1 , i2 , . . . , iN i ,
N !n1 !n2 ! . . . P
34
wobei ni die Zahl der Teilchen im Zustand i bezeichnet. Wenn man nur über tatsächlich verschiedene
Permutationen summiert, erhält man
r
X
n1 !n2 ! . . .
P̂ |i1 , i2 , . . . , iN i .
N!
P versch.
Wie sich dies auf die Statistik mehrerer Teilchen auswirkt, studieren wir in den Übungen.
3.3
Beschreibung eines Gases als isoliertes quantenmechanisches
N -Teilchensystem
Wir wollen nun der Frage nachgehen, inwiefern sich die statistische Physik aus der Quantenmechanik ergibt. Hierzu betrachten wir zunächst ein Gas als ein System aus N Teilchen, die in einem unendlich hohen
Potenzialtopf eingesperrt sind. Dieses System wird durch den Hamiltonoperator (3.6) beschrieben, wobei
das Wechselwirkungspotenzial eine kurzreichweitige abstoßende Wechselwirkung zwischen den Teilchen
macht und das äußere Potenzial U im inneren des Potenzialtopfes verschwindet und außerhalb unendlich
ist.
Wir präparieren das N -Teilchen System in einem Anfangszustand ψ(1, 2, . . . , N ), der symmetrisch
oder antisymmetrisch ist, je nachdem, ob das Gas aus Fermionen oder Bosonen besteht. Die zeitliche
Entwicklung dieses Zustands ist dann durch die Schrödingergleichung gegeben. Doch hier stellt sich wieder das uns inzwischen schon vertraute Problem: Genau wie die klassische Mechanik ist auch die durch die
Schrödingergleichung beschriebene Physik deterministisch und invariant unter Zeitumkehr. Aber ähnlich
wie in der klassischen Mechanik können wir zumindest argumentieren, dass auch bei einer deterministischen Zeitentwicklung sich die Teilchen über das gesamte Volumen verteilen. Wir betrachten zu diesem
Zweck einen Anfangszustand, bei dem alle N Teilchen innerhalb eines kleinen Volumens lokalisiert sind,
also ist die N -Teilchen-Wellenfunktion ψ(1, 2, . . . , N ) anfangs nur dann von Null verschieden, wenn alle
Ortsvektoren (~x1 , . . . ~xN ) in dem betrachteten Volumenelement liegen. Man erwartet, dass eine solche
Wellenfunktion auseinanderläuft und dass nach einer Weile in jedem Volumenelement Teilchen zu finden
sind. Die Theorie des Quantenchaos befasst sich mit derartigen Fragen, denn sie untersucht das quantenmechanische Verhalten von Systemen, die in der klassischen Physik chaotisch sind. Man hat für spezielle
Systeme explizit gezeigt, dass die Wellenfunktion chaotischer Systeme nach genügend langer Zeit wie eine
Zufallsfunktion aussieht. Doch dies bedeutet keineswegs, dass wir damit einen echten Gleichgewichtszustand erreicht haben. Wir haben zwar einen Zustand erreicht, bei dem die Teilchen gleichmäßig über
das Volumen verteilt sind, aber die zugehörige Wellenfunktion hat eine extrem feine und komplizierte
Struktur, die im Prinzip alle Information über den Anfangszustand enthält.
Ähnlich wie in der klassischen Mechanik können wir aber jetzt argumentieren, dass ein Zustand
nicht unendlich viel Information enthalten kann und dass die Genauigkeit, mit der eine Wellenfunktion
festgelegt werden kann, irgendwo ihre Grenze haben muss. Doch damit gehen wir über die Beschreibung
der Welt durch eine Schrödingergleichung hinaus....
3.4
Beschreibung eines Gases als mit der Umgebung über ein
Potenzial wechselwirkendes quantenmechanisches N -Teilchensystem
Als nächstes versuchen wir eine realistischere Beschreibung des Gases. Wir berücksichtigen die Wechselwirkung des N -Teilchensystems mit seiner Umgebung. Eine perfekte Isolation vom Rest der Welt ist
unmöglich, den es gibt immer eine gewisse Wechselwirkung mit der Umgebung über die Wände und
über das Strahlungsfeld. Diese Wechselwirkungen sorgen dafür, dass das N -Teilchensystem grundsätzlich
nicht in einem Eigenzustand seines Hamiltonoperators bleiben kann, sondern alle möglichen Zustände
35
durchläuft, deren Energie innerhalb eines kleinen Intervalls [E, E + dE] liegt. Dieses Intervall soll klein
sein, da wir davon ausgehen, dass das System im Prinzip abgeschlossen ist und durch die Wechselwirkung
mit der Umgebung nur sehr kleine Energiefluktuationen erfährt. Wir betrachten das einfachste Modell,
das diesen Sachverhalt erfasst. Es geht auf Felix Bloch zurück. Die Wechselwirkung mit den Wandatomen wird hierbei durch ein Wechselwirkungspotenzial V beschrieben. Wir bezeichnen den internen
Hamiltonoperator des N -Teilchensystems mit Ĥ0 , und seine Eigenzustände mit {|ni}. Der insgesamt auf
den N -Teilchenzustand
wirkende Hamiltonoperator ist Ĥ = Ĥ0 + V . Wir beginnen mit einem AnfangsP
zustand |Ψ, 0i = n cn |ni. Zu jeder späteren Zeit lässt sich der Zustand ebenfalls als Linearkombination
der Eigenzustände von Ĥ0 darstellen,
X
|Ψ, ti =
cn (t)e−iEn t/~ |ni
(3.12)
n
Wir gehen davon aus, dass die Wechselwirkung mit der Wand die Energie des Systems (fast) nicht ändert,
so dass alle Energieeigenwerte En innerhalb eines sehr kleinen Intervalls liegen. Die Zeitentwicklung der
cn erhält man über die Schrödingergleichung,
i~
X
∂|Ψi
= (Ĥ0 + V )|Ψi =
(En + V )cn e−iEn t/~ |ni .
∂t
n
(3.13)
Wenn man auf der linken Seite ebenfalls den Ausdruck (3.12) einsetzt und nach der Zeit ableitet, kürzt
sich auf beiden Seiten der Summand proportional zu En , und es bleibt die Gleichung
i~
X ∂cn
n
∂t
e−iEn t/~ |ni =
X
n
V cn e−iEn t/~ |ni .
(3.14)
Multipikation beider Seiten von links mit hm| ergibt
i~
∂cm X
=
Vmn (t)cn (t)
∂t
n
(3.15)
mit
Vnm (t) = hm|V |ni e−i(En −Em )t/~ .
(3.16)
P
Diese Gleichung beschreibt die zeitliche Änderung des Vektors ~c. Da er auf 1 normiert ist ( n |cn |2 = 1),
wandert die Spitze dieses Vektors auf der Einheitskugel entlang. Wenn dieses quantenmechanische System
in einem geeigneten Sinn ergodisch ist, kommt die Spitze im Lauf der Zeit jedem Punkt auf der Einheitskugel beliebig nahe. Wenn wir nun wie in der klassischen Mechanik ein ganzes Ensemble von solchen
Systemen betrachten, können wir als Ausgangssituation ein kleines Flächenelement auf der Einheitskugel
betrachten. Wenn das System mischend ist, wird sich dieses Flächenelement mit der Zeit deformieren
und immer feiner über die Oberfläche der Einheitskugel verteilen. Aufgrund der unitären Zeitentwicklung
enthält das Flächenelement aber für alle Zeiten die Information über die Anfangsverteilung. Wir können
nun genau wie in der klassischen Mechanik eine grobkörnige Betrachtung der Kugeloberfläche wählen.
Der Vektor ~c(t) eines einzelnen Systems des Ensembles wird dann im Laufe der Zeit jede Zelle der Kugeloberfläche gleich oft besuchen, und dies bedeutet, dass im Langzeitmittel alle h|cn |2 it gleich groß sind.
Wenn wir das ganze Ensemble betrachten, verteilt sich das betrachtete Oberflächenelement gleichmäßig
über alle Zellen. Nach genügend langer Zeit ist also derselbe Teil des Ensembles in jeder Zelle zu finden.
Dies bedeutet, dass wir die Relaxation eines quantenmechanischen Vielteilchensystems ins Gleichgewicht nur unter der Annahme bekommen, dass eine Wellenfunktion nicht beliebig scharf definiert ist,
sondern dass eine grobkörnige Beschreibung des Raums, in dem die ~c liegen, die Physik des Systems
vollständig erfasst. Wir kommen also wieder an denselben Punkt wie im vorigen Abschnitt.
36
3.5
Beschreibung durch den Dichteoperator
Im vorigen Kapitel haben wir nicht nur ein einzelnes System betrachtet, sondern ein ganzes Ensemble von
Systemen, das durch eine Phasenraumdichte ̺ beschrieben wird. Solche Ensembles beschreibt man in der
Quantenmechanik durch den Dichteoperator. Man nennt ihn auch die Dichtematrix oder den statistischen
Operator.
Er ist definiert als
X
ρ=
pn |Ψn ihΨn |
(3.17)
n
wobei pn der Anteil der Systeme des Ensembles im Zustand |Ψn i ist.
Ein einzelnes System ist durch einen “reinen” Zustand |Ψi gegeben. Eine Observable A hat in diesem
Zustand den Mittelwert
hÂi = hΨ|Â|Ψi .
(3.18)
Mit Hilfe der Dichtematrix
̺ = |ΨihΨ|
(3.19)
hÂi = Sp(̺Â) .
(3.20)
X
(3.21)
lässt sich dieser Mittelwert auch schreiben als
Die Spur (Sp) ist definiert als
SpX =
n
hn|X|ni ,
wobei {|ni} ein beliebiges Orthonormalsystem ist. Wie wir aus der linearen Algebra wissen, ist die Spur
unabhängig von der Wahl der Basis. Man überprüft leicht folgende weitere Eigenschaften von ̺ für reine
Zustände:
Sp ̺ = 1 ,
(3.22)
̺2 = ̺ ,
†
̺ = ̺.
(3.23)
(3.24)
In der statistischen Physik arbeiten wir mit gemischten Ensembles. Gemischte Ensembles treten auch
beim Messprozess auf. Wenn wir Aussagen über den Ausgang einer Messung am Zustand |Ψi machen
wollen, können wir uns ein ganzes Ensemble von (unendlich vielen) Systemen denken, die vor der Messung
alle im Zustand |Ψi sind. Wenn {|ni} die Eigenfunktionen des Operators  sind und {an } die zugehörigen
Eigenwerte, dann ist die Wahrscheinlichkeit, bei einer Messung von  den Eigenwert an zu erhalten,
gegeben durch
|cn |2 = |hn|Ψi|2 .
In dem Ensemble werden wir also im Anteil |cn |2 der Systeme das Messergebnis an bekommen. Das vor
dem Messprozess vorliegende reine Ensemble im Zustand |Ψi wird nach der Messung von  ein gemischtes
Ensemble, in dem der Zustand |ni mit der Häufigkeit pn = |cn |2 auftritt.
In den folgenden Kapiteln betrachten wir eine Reihe weiterer Ensembles, bei denen verschiedene
Systeme in veschiedenen Zuständen sein können. Dann ist pn der Anteil der Systeme im Zustand |Ψn i.
(Im Allgemeinen müssen die |Ψn i kein Orthonormalsystem bilden. Es können beliebige Zustände sein.)
Der Mittelwert von  in einem gemischten Ensemble ist
X
hÂi =
pn hΨn |Â|Ψn i = Sp ̺Â .
(3.25)
n
Im gemischten Ensemble gelten weiterhin die folgenden Beziehungen:
Sp ̺ = 1 ,
37
(3.26)
Sp ̺2 < 1 ,
†
̺ = ̺.
(3.27)
(3.28)
Der Unterschied zwischen reinen und gemischten Ensembles wird am anschaulichsten, wenn wir ̺ diagonalisieren. Ein reines Ensemble hat dann nur ein von Null verschiedenes Element auf der Diagonalen, ein
gemischtes Ensemble hat mindestens zwei von Null verschiedene Elemente auf der Diagonalen.
Die zeitliche Entwicklung der Dichtematrix ist durch die quantenmechanische Liouville-Gleichung
gegeben
∂ρ X
=
pn (|ĤΨn ihΨn | − |Ψn ihĤΨn |) = [Ĥ, ̺] ,
(3.29)
i~
∂t
n
wobei die eckigen Klammern den Kommutator bedeuten. Man kann leicht nachprüfen, dass ein reiner
Zustand unter der Zeitentwicklung ein reiner Zustand bleibt, und dass ein gemischtes Ensemble ein
gemischtes Ensemble bleibt.
Wir überlegen nun, wie der Dichteoperator im thermischen Gleichgewicht aussieht: Aus der Grundannahme der statistischen Physik folgt, dass in einem abgeschlossenen System im Gleichgewicht alle
Zustände gleicher Energie gleich wahrscheinlich sind. Also ist der die Dichtematrix im Gleichgewicht
diagonal, mit lauter identischen Einträgen auf der Diagonalen.
Nun vergleichen wir dies mit den Ergebnissen der vorigen beiden Unterkapitel: Wenn wir ein Gas
als isoliertes quantenmechanisches System beschreiben, ist es in einem reinen Zustand und bleibt für
alle Zeiten in einem reinen Zustand. Die entsprechende Dichtematrix ist also nicht die GleichgewichtsDiagonalmatrix. Wenn wir das Gas als über ein Potenzial mit der Umgebung wechselwirkendes System
beschreiben und ein ganzes Ensemble betrachten, so wie im vorigen Teilkapitel beschrieben, wird dieses
Ensemble durch ein Oberflächenelement auf der durch die Eigenvektoren des Hamiltonoperators aufgespannten Einheitskugel beschrieben und verteilt sich mit der Zeit immer feiner über die Kugeloberfläche.
Und nun folgt eine ganz wichtige Überlegung: die Dichtematrix enthält weniger Information als ein
genügend fein verteiltes Oberflächenelement! Sie ist nämlich durch weniger als Ω̄2 relle Zahlen festgelegt (wobei Ω̄ die Zahl der Eigenzustände des Systems und damit der Zeilen und Spalten der Matrix
ist), während die zur Beschreibung des Oberflächenelements benötigte Verteilungsfunktion mit der Zeit
beliebig fein wird. Wir werden in den Übungen für ein einfaches Beispiel explizit zeigen, dass es viele verschiedene Ensembles gibt, die alle durch dieselbe Dichtematrix beschrieben werden. Wenn das betrachtete
Ensemble in einem geeigneten Sinn ergodisch ist, können wir annehmen, dass die Außerdiagonalelemente
der Dichtematrix tatsächlich im Laufe der Zeit immer kleiner werden. (Um dies explizit zu zeigen, müssten
wir ein konkretes Modell durchrechnen oder ermitteln, welche Eigenschaften der Hamiltonoperator und
die Kopplung erfüllen müssen. Weiter unten werden wir eine ähnliche Rechnung für ein System machen, das an ein quantenmechanisch modelliertes Wärmebad gekoppelt ist.) Wir wir im weiteren Verlauf
der Vorlesung sehen werden, ist die Dichtematrix die einzige Systeminformation, die wir benötigen, um
alle bekannten physikalischen Eigenschaften thermodynamischer Systeme herzuleiten. Wir folgern also
hieraus, dass alle über die Dichtematrix hinausgehende Information irrelevant oder nichtexistent ist.
Zum Abschluss dieses Teilkapitels betrachten wir noch eine Situation, die für die späteren Überlegungen wichtig wird. Das System möge aus zwei Teilsystemen 1, 2 bestehen, mit orthonormalen Zuständen
{|1ni} und {|2mi}. Ein reiner Zustand lässt sich schreiben als
X
|Ψi =
cnm |1ni|2mi
(3.30)
n,m
mit der dazugehörigen Dichtematrix
̺ = |ΨihΨ| =
X X
n,m n′ ,m′
cnm c∗n′ m′ |1ni|2mih1n′ |h2m′ | .
(3.31)
Wenn wir eine Observable messen, die nur das System 1 betrifft, wenn also der Operator  nur auf die
Zustände |1ni wirkt, dann ist
h
i
(3.32)
hÂi = Sp1 Sp2 ̺Â = Sp1 Sp2 ̺Â .
38
Hier bedeutet Spi die Spurbildung über das Teilsystem i. Für die Berechnung des Erwartungswertes eines
Operators, der nur auf das System 1 wirkt, ist also die über das System 2 gemittelte Dichtematrix
XXX
̺ˆ = Sp2 ̺ =
cnm c∗n′ m |1nih1n′ |
(3.33)
n
n′
m
maßgeblich. Sie ist nur dann die Dichtematrix eines reinen Zustandes, wenn wir schreiben können
X
cnm c∗n′ m = bn b∗n′
m
mit n |bn |2 = 1. Dies ist genau dann der Fall, wenn cnm sich als Produkt bn am schreiben lässt, also
wenn |Ψi ein direktes Produkt aus zwei reinen Zuständen der Unterräume 1 und 2 ist. Ansonsten haben
wir die Dichtematrix eines gemischten Zustandes erhalten.
Als einfachen Spezialfall betrachten
wir die Situation, dass im Ausdruck für |Ψi zu jedem m nur ein
P
einziges n auftritt, also |Ψi = n cn,m(n) |1ni|2mi. Dann ist
P
̺ˆ =
X
n
|cn,m(n) |2 |1nih1n| ,
(3.34)
d.h. wir haben eine diagonale Dichtematrix, und im Ensemble treten die Zustände |1ni jeweils mit Wahrscheinlichkeit |cn,m(n) |2 auf. Wenn mehr als ein Diagonalelement von Null verschieden ist, sieht dieses
System für einen Betrachter, der nur das Teilsystem 1 wahrnimmt, wie ein gemischter Zustand aus,
obwohl sich das Gesamtsystem in einem reinen Zustand befindet.
3.6
Explizite Modellierung des Wärmebads: Das Phänomen der
Dekohärenz
Neben den beiden schon beschriebenen Methoden, ein Gas auf Basis der Schrödingergleichung zu modellieren (isoliertes System; über ein Potenzial mit der Umgebung wechselwirkendes System), gibt es auch
die Möglichkeit, die Umgebung, mit der das Gas im thermischen Kontakt ist, explizit als Wärmebad mit
vielen Freiheitsgraden zu modellieren. Weil die Modellierung eines Gases aus vielen Teilchen und eines
Wärmebads aus noch mehr Teilchen schnell unübersichtlich wird, behandeln wir im folgenden ein anderes
System, das zwar auch ein Wärmebad aus vielen Freiheitsgraden hat, das aber nur an wenige Freiheitsgrade koppelt. Dieses System ist der Messprozess der Quantenmechanik. Der hat nämlich genau wie die
statistische Mechanik die Eigenschaft, dass er irreversibel und stochastisch ist. Es passiert ein “Kollaps
der Wellenfunktion” auf einen Eigenzustand der gemessenen Observable. Genau wie in der statistischen
Mechanik hängt diese Irreversibilität und Stochastizität damit zusammen, dass wir es mit makroskopisch
vielen Freiheitsgraden zu tun haben. Das Messgerät ist nämlich ein makroskopisches Objekt, das viele
innere Freiheitsgrade hat, die wir nicht explizit beobachten können.
Wir wählen zur Illustration die Messung der z-Komponente des Spins eines Spin-1/2-Teilchens. Das
Teilchen sei vor der Messung im Zustand
|Φi i = α| ↑i + β| ↓i .
Die Dichtematrix ist also
|Φi ihΦi | =
|α|2
α∗ β
αβ ∗
|β|2
(3.35)
(3.36)
Nach der Messung ist das Teilchen mit Wahrscheinlichkeit |α|2 im Zustand | ↑i und mit Wahrscheinlichkeit
|β|2 im Zustand | ↓i. Die Dichtematrix eines Ensembles von solchen Teilchen ist dann
|α|2
0
(3.37)
0
|β|2
39
Es hat also ein Übergang von einem reinen in einen gemischten Zustand stattgefunden, der sich nicht
aus einer unitären Zeitentwicklung, die aus der Schrödingergleichung resultiert, ergeben kann. Allerdings
haben wir bei dieser Betrachtung versäumt, das Messgerät mit in die Rechnung einzubeziehen. Wir denken
uns ein Messgerät, das einen Zeiger enthält, der vor der Messung auf 0 steht und nach der Messung auf
+1 oder −1, je nach Messergebnis. Die diesen drei Einstellungen des Messgeräts entsprechenden Zustände
bezeichnen wir mit |0i, |+i und |−i. Betrachten wir nun das kombinierte System aus Spin-1/2-Teilchen
und Messgerät. Vor der Messung haben wir den Gesamtzustand
|Φi i = (α| ↑i + β| ↓i)|0i ,
(3.38)
der unter der Zeitentwicklung der Schrödingergleichung übergeht zu
|Φc i = α| ↑i|+i + β| ↓i|−i .
(3.39)
Der erste Summand ist der Zustand, der sich ergibt, wenn der Anfangszustand | ↑i|0i ist, und der zweite
Summand ist der Zustand, der sich ergibt, wenn der Anfangszustand | ↓i|0i ist. Da die Schrödingergleichung linear ist, entwickelt sich eine Linearkombination der beiden Anfangszustände in eine Linearkombination der beiden Endzustände. Dies ist immer noch ein reiner Zustand, und seine Dichtematrix
ist
ρc
=
|α|2 | ↑ih↑ ||+ih+| + αβ ∗ | ↑ih↓ ||+ih−|
+α∗ β| ↓ih↑ ||−ih+| + |β|2 | ↓ih↓ ||−ih−| .
(3.40)
Das Teilchen und der Detektor sind miteinander verschränkt. Was wir aber tatsächlich beobachten, ist
ein gemischter Zustand, bei dem die beiden mittleren Terme (die Außerdiagonalterme der Dichtematrix)
nicht mehr vorhanden sind. Es bleibt also immer noch der Übergang von einem reinen in einen gemischten
Zustand zu erklären. Deshalb berücksichtigen wir nun, dass der Detektor ja ein makroskopisches Objekt
mit vielen inneren Freiheitsgraden ist. Der quantenmechanische Zustand des Detektors ist durch die
Zeigerstellung allein gar nicht richtig beschrieben, sondern wir müssen alle anderen Freiheitsgrade mit
berücksichtigen. Wir nennen diese anderen Freiheitsgrade die “Umgebung”, |Ei. Die richtige Beschreibung
des Zustands, bevor das Teilchen den Messapparat trifft, ist also
|Φi i = (α| ↑i + β| ↓i)|0i|E 0 i ,
(3.41)
und nach dem Durchgang durch den Messaparat ist der Zustand dann
|Φc i = α| ↑i|+i|E + i + β| ↓i|−i|E − i ,
(3.42)
wobei |E + i und |E − i die Zustände der Umgebung sind, die bei dem Messergebnis |+i bzw. bei dem
Messergebnis |−i auftreten. Auch dies ist natürlich wieder ein reiner Zustand. Aber nun kommt der entscheidende Schritt: Die Größe, die wir betrachten, ist der Zeigerausschlag, und die inneren Freiheitsgrade
des Messgeräts nehmen wir gar nicht wahr. Die Dichtematrix, die für unsere Observablen relevant ist, ist
also diejenige, die wir erhalten, wenn wir die Spur über die inneren Freiheitsgrade bilden. Nun können wir
die Ergebnisse des Schlussteils des letzten Teilkapitels verwenden. Wie wir gleich argumentieren werden,
stehen die zu positiver Zeigerstellung gehörenden Zustände |E + i orthogonal auf die zu negativer Zeigerstellung gehörenden Zustände |E − i. Dann führt die Spurbildung über die inneren Freiheitsgrade auf die
reduzierte Dichtematrix
̺ˆc = |α|2 | ↑ih↑ ||+ih+| + |β|2 | ↓ih↓ ||−ih−| .
(3.43)
Dies ist nun ein gemischter Zustand, in Übereinstimmung mit dem, was wir beobachten. Die Dekohärenz
besteht darin, dass Zustände der Umgebung, die verschiedenen Messergebnissen entsprechen, zueinander orthogonal werden. Hierbei ist wichtig, dass die Umgebung sehr viele Freiheitsgrade enthält. Dann
liegen nämlich die Energieniveaus der Umgebung sehr eng beieinander. Die genaue Energie, die an die
Umgebung abgegeben wird, hängt dann davon ab, in welcher Richtung sich der Zeiger bewegt, da kein
Messgerät bis in jedes mikroskopische Details hinein symmetrisch ist. Daher entsprechen die verschiedenen Messausgänge verschiedenen Endenergien der Umgebung. Zustände verschiedener Energie sind aber
zueinander orthogonal.
40
3.6.1
Ein einfaches Beispiel
Um explizit zu sehen, wie die reduzierte Dichtematrix diagonal werden kann, betrachten wir ein einfaches
Beispiel für ein System aus vielen Freiheitsgraden, die an den Spin eines Teilchens koppeln. Das System
bestehe aus lauter “Atomen”, die zwei innere Zustände haben, |+ik und |−ik , wobei der Index k die
“Atome” durchzählt. Der Spin des Teilchens sei unsere zu messende Observable, und die vielen “Atome”
seien das Messgerät mit seinen inneren Freiheitsgraden. Die Energie der Atome und des Spins sei jeweils
0, solange keine Wechselwirkung zwischen ihnen stattfindet. Wenn der Spin auf das Messgerät trifft,
wechselwirkt er mit den Atomen, und der Hamiltonoperator sei dann
X
Ĥint = −~
gk σz σzk
(3.44)
k
mit Kopplungskonstanten gk . In dieser Notation ist σz eine Pauli-Spinmatrix mit dem Eigenwert +1 für
den Spinzustand | ↑i und dem Eigenwert −1 für den Spinzustand | ↓i. Der Operator σzk wirkt auf das
k-te Atom und hat den Eigenwert +1 für den Zustand |+ik und den Eigenwert −1 für den Zustand |−ik .
Wir beginnen mit dem Anfangszustand zur Zeit t = 0
|Ψ, 0i = (α| ↑i + β| ↓i)
N
Y
(ak |+ik + bk |−ik ) .
(3.45)
k=1
Wenn der Hamiltonoperator Ĥint eine Zeit t eingewirkt hat, ist der Zustand des Systems
Y
|Ψ, ti = e−iĤint t/~ |Ψ, 0i = α| ↑i (ak eigk t |+ik + bk e−igk t |−ik )
k
Y
+β| ↓i (ak e−igk t |+ik + bk e+igk t |−ik ) .
(3.46)
k
Wenn wir in der Dichtematrix ̺ = |Ψ, tihΨ, t| die Spur über die Zustände der Atome bilden, erhalten wir
̺ˆ = |α|2 | ↑ih↑ | + |β|2 | ↓ih↓ | + z(t)αβ ∗ | ↑ih↓ | + z ∗ (t)α∗ β| ↓ih↑ |
mit
z(t) =
Y
cos(2gk t) + i(|ak |2 − |bk |2 ) sin(2gk t) .
(3.47)
(3.48)
k
Der Wert von z(t) bestimmt, wie groß die nichtdiagonalen Elemente der Dichtematrix sind. Wir machen
nun die realistische Annahme, dass die ak und bk statistisch zufällig sind, so dass ihr Produkt für die meisten Atome von Null verschieden ist. Außerdem seien die Kopplungen gk verschieden, so dass nur wenige
Faktoren des Produkts für Zeiten größer als Null gleichzeitig 1 werden. Dann sind außer zur Zeit t = 0
fast alle Faktoren des Produkts betragsmäßig kleiner als 1. Solch ein Produkt aus sehr vielen Faktoren,
die kleiner als 1 sind, ist aber sehr klein, wenn N groß ist. |z(t)| nimmt also exponentiell ab mit zunehmendem N . Entsprechend nimmt die Zeitdauer, bis |z(t)| einen vorgegebenen kleinen Wert erreicht hat,
exponentiell ab mit zunehmendem N . Wenn N nur groß genug ist, werden die Außerdiagonalelemente der
Dichtematrix sehr schnell so klein, dass sie vernachlässigbar sind, und die Dekohärenz hat stattgefunden.
3.6.2
Diskussion
Wir fassen zunächst das bisher Gesagte zusammen: Wir haben ein Teilchen betrachtet, dessen zu messende Größe (zum Beispiel der Spin) an ein makroskopisches Messgerät koppelt, so dass an diesem Messgerät
ein Zeigerausschlag zu beobachten ist, der Auskunft über das Messergebnis gibt. Außerdem hat das Messgerät natürlich sehr viele weitere Freiheitsgrade, die aber nicht von uns beobachtet werden, so dass wir
in der Dichtematrix die Spur über diese Freiheitsgrade bilden. Die zu verschiedenen Messergebnissen
gehörenden Zustände der inneren Freiheitsgrade werden sehr schnell zueinander orthogonal. Die verbleibende reduzierte Dichtematrix ist daher diagonal.
41
Wir wollen nun die Frage diskutieren, ob hiermit der Messprozess eine Erklärung gefunden hat. Die
Meinungen hierzu sind verschieden, und im Folgenden wird argumentiert, dass der Weg von der Dekohärenz zu einem wirklichen Verstehen des Messprozesses noch weit ist.
1. Zunächst stellen wir die Frage, inwiefern eine einem gemischten Ensemble entsprechende diagonale
Dichtematrix den Endzustand einer Messung beschreibt. Wenn wir ein ganzes Ensemble von Systemen betrachten, die zu Beginn alle in exakt demselben Zustand sind, haben wir nach der Messung
in der Tat ein Ensemble, das durch eine diagonale Dichtematrix mit einem Eintrag pro möglichem
Messergebnis beschrieben wird. Aber wenn wir die Messung nur einmal machen, haben wir kein
Ensemble, sondern wir haben ein System, das nur eines der möglichen Messergebnisse geliefert
hat. Mit dem Verschwinden der Nichtdiagonalelemente der Dichtematrix haben wir noch keine
Erklärung für den eindeutigen, aber im Einzelfall unvorhersagbaren Ausgang einer Einzelmessung
erhalten! Dabei ist doch die Zeitentwicklung eines Einzelsystems das, was durch die Schrödingergleichung beschrieben werden soll - oder? Es gibt Wissenschaftler, die an dieser Stelle sagen, dass die
Quantenmechanik doch nicht als Beschreibung einzelner Systeme zu verstehen ist, sondern als eine
statistische Theorie, aus der man für ein Einzelereignis nur Wahrscheinlichkeitsaussagen bekommt.
Wieder andere Wissenschaftler suchen einen Ausweg in der “Viele-Welten-Theorie”. Diese Theorie
besagt, dass bei jeder Messung das Universum sich in mehrere Universen verzweigt, zu jedem Messergebnis eines. Unser Bewusstsein folgt aber nur einem dieser Zweige. Dies ist nicht gerade eine
sparsame Erklärung...
2. Ein weiteres Problem in der Theorie der Dekohärenz besteht darin, dass die diagonale Dichtematrix um den Preis erkauft wurde, dass wir die vielen inneren Freiheitsgrade des Messgeräts nicht
betrachten. Die beobachtete Irreversibilität der Vorgänge beim Messprozess ist also nur auf unsere
Ignoranz der mikroskopischen Details des Messapparats zurückzuführen - ansonsten würden wir
eine unitäre, reversible Zeitentwicklung sehen, bei der eine Vorzugsrichtung der Zeit höchstens noch
dadurch gegeben ist, dass der Anfangszustand nicht verschränkt war. Wenn wir alle mikroskopischen Details einbeziehen würden in die Charakterisierung des Gesamtsystems nach der Messung,
wären die Nichtdiagonalelemente da, und das Teilchen wäre mit den inneren Freiheitsgraden des
Messapparats verschränkt. Schlimmer noch: mit jedem weiteren Messprozess (also mit jeder weiteren Wechselwirkung eines quantenmechanischen Teilchens mit einem makroskopischen Objekt)
passieren weitere Verschränkungen. In den inneren Freiheitsgraden makroskopischer Objekte wäre
also im Prinzip die gesamte Information über die Vergangenheit enthalten, und wir hätten ein riesiges Ausmaß an Verschränkungen im Universum auch zwischen jetzt weit voneinander entfernten
Systemen. Dies ist eine schwer zu glaubende Annahme, die zudem prinzipiell nicht überprüfbar ist.
Wenn wir die Ergebnisse dieses Unterkapitels nun auf das Gas übertragen, das mit sein Wänden des
Behälters im thermischen Gleichgewicht ist, folgern wir, dass die Dichtematrix des Gases, wenn wir die
Spur über die Freiheitsgrade des Wärmebads bilden, innerhalb kurzer Zeit diagonal wird. Wenn wir das
Gesamtsystem durch eine Vielteilchenschrödingergleichung beschreiben, erhalten wir ein Gas, das mit
dem Wärmebad verschränkt ist, mit einer Wellenfunktion, die sehr kompliziert ist und im Prinzip die
vollständige Erinnerung an den Ausgangszustand enthält. Das vollständige System ist in dieser Darstellung also die ganze Zeit in einem reinen Zustand. Im Gegensatz dazu ist die Beschreibung des Systems im
Rahmen der statistischen Physik sehr viel sparsamer. Sie beinhaltet nur die Dichtematrix des Systems,
und diese ist die eines gemischten Zustands und wird mit dem Prinzip der maximalen Ignoranz ermittelt.
3.7
Schlussbemerkungen
Wir haben in den letzten beiden Kapiteln gesehen, dass die klassische Mechanik und die Quantenmechanik
nicht als alleinige Grundlage für die statistische Physik dienen können. Die Newtonschen Gesetze der klassischen Mechanik und die Schrödingergleichung der Quantenmechanik sind deterministisch und invariant
unter Zeitumkehr. Die statistische Physik ist probabilistisch und ist nicht invariant unter Zeitumkehr, und
42
sie weist damit darauf hin, dass die klassische Mechanik und die Quantenmechanik Gültigkeitsgrenzen
haben. Die Grenze der klassischen Mechanik besteht darin, dass der Phasenraum eigentlich “grobkörnig”
ist, also dass ein Phasenraumpunkt aufgrund der Unschärferelation nicht beliebig scharf definiert werden
darf. Die Grenze der Quantenmechanik ist analog dazu und besteht darin, dass eine Wellenfunktion für
makroskopisch viele Teilchen, die zudem noch mit ihrer Umgebung wechselwirken, keine beliebig gute
Beschreibung des Systems liefert.
Genau wie die klassische Mechanik und die Quantenmechanik ihre Grundgleichungen haben, aus
denen alles Weitere abgeleitet werden kann, so hat auch die statistische Physik ihre Grundannahme.
Diese Grundannahme lautet:
Alle Zustände gleicher Energie sind in einem abgeschlossenen System im Gleichgewicht gleich wahrscheinlich.
Wir haben im ersten Kapitel gesehen, dass aus dieser Grundannahme der Entropiesatz und das Plancksche Strahlungsgesetz abgeleitet werden können. Diese Grundannahme ist äquivalent zum Prinzip maximaler Ignoranz, das wir im ersten Kapitel eingeführt haben. Die statistische Physik berücksichtigt, dass
die Welt im Kern probabilistisch ist, und dass abgeschlossene makroskopische Vielteilchensysteme nach
genügend langer Zeit ihre Anfangskonfiguration vergessen und ins Gleichgewicht übergehen, wenn ihre
Dynamik mischend ist. Alles, was in den folgenden Kapiteln kommt, lässt sich aus der Grundannahme
der statistischen Physik ableiten.
Übungsaufgaben zu Kapitel 3
1. In einem Stern-Gerlach Experiment spaltet sich ein Strom von Spin 1 Teilchen in die Zustände
|1 >, |0 > und | − 1 > . Die Zustände | − 1 > werden durch einen Absorber herausgefiltert. Durch
welche Dichtematrix ̺ werden die Teilchen danach beschrieben?
2. Drücken Sie die Dichtematrix eines s = 1/2 Spin Systems durch die Spinoperatoren und die Erwartungswerte der Spinkomponenten aus.
3. Eine Apparatur zur Messung der z-Komponente an einem s = 1/2 Spin ist räumlich schlecht justiert
und ist um die x -Achse um einen unbekannten Winkel α verdreht (|α| ≤ αmax ). Eine Messung
des Spins mit dem Messapparat ergibt den Wert ~/2. Man bestimme die Dichtematrix ̺ und die
Erwartungswerte hsx i , hsy i und hsz i nach der Messung. Was ergibt sich für die Streuungen?
4. Zeigen Sie, dass alle Eigenwerte r der Dichtematrix die Bedingung 0 ≤ r ≤ 1 erfüllen und dass Sp
ρ = 1 und Sp ρ2 ≤ 1 gilt. Was folgt, falls Sp ρ2 = 1 gilt ?
5. Gegeben sei die folgende Dichtematrix eines Spin-1/2-Systems:
2/3 1/10
1/10 1/3
Geben Sie mindestens zwei verschiedene Ensembles an, die diese Dichtematrix haben.
6. Die Entropie S einer beliebigen Dichtematrix ̺ ist durch S = −khln ̺i ≡ −k Sp (̺ ln ̺) gegeben,
wobei der Logarithmus über seine Potenzreihenentwicklung definiert ist.
a) Was ergibt sich für S, falls ein reiner Zustand vorliegt?
b) Diskutieren Sie die Entropie grafisch, falls ̺ nur zwei von Null verschiedene Eigenwerte r1 und
r2 hat.
c) Diskutiere Sie die Entropie grafisch, falls ̺ drei von Null verschiedene Eigenwerte r1 , r2 und r3 hat.
7. Ein System habe 4 Einteilchenzustände mit derselben Energie, und keine weiteren Zustände. Wir
geben in dieses System 4 Teilchen hinein, die nicht miteinander wechselwirken. Nach dem Prinzip
der maximalen Ignoranz ist jede Möglichkeit, die 4 Teilchen auf die 4 Zustände zu verteilen gleich
43
wahrscheinlich. Was ist die Wahrscheinlichkeit, dass jedes dieser Teilchen in einem anderen Zustand ist, wenn (a) die Teilchen unterscheidbar sind (b) die Teilchen Bosonen sind (c) die Teilchen
Fermionen sind?
8. Ein System habe 2 Einteilchenzustände mit derselben Energie. Wir geben 20 Teilchen in dieses
System. Was ist die Wahrscheinlichkeit, dass alle Teilchen in demselben Zustand sind (a) wenn sie
unterscheidbar sind (b) wenn sie Bosonen sind? Warum gibt es hier keine Frage (c)?
44
Kapitel 4
Gleichgewichtsensembles
In diesem und den folgenden Kapiteln bauen wir auf der Grundannahme der statistischen Physik auf,
die besagt, dass alle Zustände, die ein isoliertes System annehmen kann, im Gleichgewicht gleich wahrscheinlich sind. Bei den Überlegungen der letzten beiden Kapitel haben wir daher meist isolierte Systeme
betrachtet. Man spricht auch von abgeschlossenen Systemen. In vielen wichtigen physikalischen Situationen haben wir es aber nicht mit isolierten Systemen zu tun, sondern mit Systemen, die mit ihrer Umwelt
Wärme oder Teilchen oder Arbeit austauschen. Um eine statistische Physik derartiger Systeme zu entwickeln, betrachtet man das System samt seiner Umgebung als ein großes isoliertes System. Dann lässt
sich wieder die Grundannahme der Statistischen Physik anwenden. Wir werden im folgenden alle diese
Arten von Systemen betrachten. Wie schon in den vorigen Kapiteln erweist es sich als praktisch, nicht
einzelne Systeme, sondern ganze Ensembles von gleichartigen Systemen zu betrachten. Boltzmann und
Gibbs führten den Begriff des Ensembles ein, um physikalische Größen eleganter zu berechnen. Statt dass
der zeitliche Mittelwert über ein bestimmtes System berechnet wird, wird der Mittelwert zu einer festen
Zeit über viele gleichwertige Systeme genommen. Dieses Ensemble ist eine gedankliche Hilfskonstruktion.
Jedes System des Ensembles ist eine Realisierung des betrachteten Systems zu einem anderen Zeitpunkt.
Das erste dieser Ensembles ist das mikrokanonische Ensemble, das isolierte Systeme beschreibt. Systeme,
die mit ihrer Umgebung Wärme austauschen, werden durch das kanonische Ensemble beschrieben. Systeme, die Wärme und Teilchen mit ihrer Umgebung austauschen, bilden ein großkanonisches Ensemble.
Systeme, die mit ihrer Umgebung Arbeit austauschen, haben keinen eigenen Namen.
4.1
Das mikrokanonische Ensemble
Ein isoliertes System hat eine feste Energie E, ein festes Volumen V und eine feste Teilchenzahl N .
Die Zahl der mikroskopischen Zustände, die das System annehmen kann, bezeichnen wir mit Ω(E, V, N ),
wobei wir nicht immer alle drei Argumente aufführen und nicht immer dieselbe Reihenfolge der Argumente
verwenden. Man nennt Ω die Zustandssumme im mikrokanonischen Ensemble. Wir gehen im Folgenden
immer von einer quantenmechanischen Betrachtung des Systems aus. Dann sind die Zustände diskret
und lassen sich mit einem Index n durchnummerieren. Die mikrokanonische Zustandssumme ist dann
identisch mit der Zahl der Zustände in der betrachteten Energieschale.
Wir haben in Kapitel 1 die Zahl der Zustände Ω(N, M ) für ein System aus unabhängigen Elementarmagneten berechnet. Wenn wir an dieses System ein Magnetfeld anlegen, gibt es einen direkten Zusammenhang zwischen M und E, denn E = −HM , und wir können dann die Zahl der Zustände zu einer
bestimmten Energie angeben, Ω(N, E).
Als weiteres Beispiel hatten wir in den Übungen die Zahl der Zustände für N nicht miteinander
wechselwirkende Teilchen in einer Kammer (ideales Gas) bestimmt, die in der Energieschale [E, E + dE]
45
liegen,
Ω(E, V, N ) =
V
N
N 4πmE
3h2 N
3N
2
e
5N
2
√
3
√
dE .
8πE
(4.1)
(Wir gehen davon aus, dass das Volumen bzw. die Energie hoch genug sind, so dass es sehr unwahrscheinlich ist, dass zwei Teilchen exakt denselben quantenmechanischen Zustand haben. Sonst
Q wäre der Faktor
N !, der aufgrund der Ununterscheidbarkeit der Teilchen eingeführt wurde, durch N !/ i n~ni ! zu ersetzen,
wobei der Index i die Zustände durchzählt).
Die Entropie eines Systems im mikrokanonischen Ensemble beträgt
S = kB ln Ω(E, N, V ) .
(4.2)
Sie ist proportional zum natürlichen Logarithmus der Zahl der Mikrozustände, die einem gegebenen
Makrozustand der Energie E entsprechen. kB ist die Boltzmann-Konstante kB = 1, 38 × 10−23 J/K. Die
Formel (4.2) geht auf Boltzmann zurück und steht sogar (in anderer Notation) auf seinem Grabstein.
Die Entropie ist additiv: Das bedeutet, dass die Gesamtentropie zweier unabhängiger Systeme die
Summe der Einzelentropien ist:
S(1, 2) = kB ln(Ω1 Ω2 ) = kB ln Ω1 + kB ln Ω2 = S1 + S2 .
Dies bedeutet auch, dass die Entropie proportional zur Systemgröße ist, wenn das Verhältnis E/V festgehalten wird. Sie ist also eine extensive Größe.
Für das ideale Gas ergibt sich aus (4.1) die sogenannte Sackur-Tetrode-Gleichung
" 3 #
V 4πmE 2 5
S = N kB ln
(4.3)
e2 .
N 3N h2
√
√
Wir haben hier den additiven Term kB ln 3dE/ 8πE weggelassen, da er nur logarithmisch in der
Teilchenzahl ist und gegenüber dem extensiven Term verschwindend klein wird.
4.2
4.2.1
Das kanonische Ensemble
Systeme in thermischem Kontakt
Das kanonische Ensemble beschreibt Systeme, die mit ihrer Umgebung Wärme austauschen können. Aus
der Thermodynamik wissen wir, dass zwei Systeme, die miteinander in thermischem Kontakt sind, ihre
Temperatur angleichen. Dies können wir aus der Grundannahme der statistischen Physik ableiten.
Wir betrachten die in der folgenden Abbildung dargestellte Situation: Die beiden Systeme können
z.B. über eine dünne Wand Energie austauschen, aber sie können keine Teilchen austauschen. Das Volumen beider Systeme sei fixiert, und sie seien vom Rest der Welt isoliert. Zusammen bilden sie also ein
abgeschlossenes System der Gesamtenergie E.
Die Gesamtzahl der Zustände des gekoppelten Systems ist
X
Ω(N, E) =
Ω1 (N1 , E1 )Ω2 (N2 , E − E1 ) .
E1
Die Wahrscheinlichkeit, dass das erste System die Energie E1 und das zweite System die Energie E − E1
hat, ist folglich
Ω1 (N1 , E1 )Ω2 (N2 , E − E1 )
.
Ω(N, E)
46
1111111111111111111111111111
0000000000000000000000000000
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
N2
0000000000000000000000000000
1111111111111111111111111111
N1
0000000000000000000000000000
1111111111111111111111111111
V
0000000000000000000000000000
1111111111111111111111111111
1
V2
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
Abbildung 4.1: Zwei Systeme mit den Volumina V1 und V2 und den Teilchenzahlen N1 und N2 in thermischem Kontakt. Durch die Wand kann Energie ausgetauscht werden, aber keine Teilchen. Das Gesamtsystem ist nach außen isoliert.
Wie wir gesehen haben, haben Wahrscheinlichkeitsverteilungen von Gleichgewichtssystemen aus vielen
Teilchen ein sehr scharfes Maximum, so dass wir erwarten können, dass E1 sehr nah an seinem wahrscheinlichsten Wert ist. Diesen Wert erhalten wir durch Differenziation nach E1 :
∂(Ω1 (N1 , E1 )Ω2 (N2 , E − E1 ))
∂E1
∂Ω1 (N1 , E1 )
Ω2 (N2 , E − E1 )
∂E1
∂ ln Ω1 (N1 , E1 )
∂E1
= 0;
∂Ω2 (N2 , E2 )
;
∂E2
E2 =E−E1
∂ ln Ω2 (N2 , E2 )
=
∂E2
E2 =E−E1
= Ω1 (N1 , E1 )
(4.4)
Für zwei Systeme in thermischem Kontakt gibt es also eine Größe, die im Gleichgewicht in beiden Systemen gleich ist. Dies ist die Temperatur. Sie ist definiert durch die Beziehung
T =
∂E
∂E
=
.
∂kB ln Ω(N, E)
∂S
(4.5)
Wir haben damit eine aus der Thermodynamik bekannte Beziehung mit Hilfe der statistischen Physik
hergeleitet.
Während sich die Temperatur der beiden Systeme angleicht, wächst die Gesamtentropie, denn die
Energie verteilt sich so auf die beiden Systeme, dass die Zahl der Mikrozustände, die der Energieaufteilung
(E1 , E2 ) entspricht, maximiert wird.
4.2.2
Die kanonische Zustandssumme und der Boltzmann-Faktor
Wir betrachten nun ein kleines System, das in Kontakt mit einem sehr großen System (“Wärmebad”)
ist, siehe Abb. 4.2 auf der nächsten Seite. Wenn das kleine System nur aus wenigen Teilchen besteht, hat
seine Energie große Fluktuationen, und wir berechnen zunächst die Wahrscheinlichkeit dafür, dass es die
Energie E1 hat. Die Zahl der Zustände des Gesamtsystems ist
X
Ω(N, E) =
Ω1 (N1 , E1 )Ω2 (N2 , E − E1 )
E1
und die Wahrscheinlichkeit, dass das kleine System die Energie E1 hat, ist somit
p1 (E1 )
=
Ω1 (N1 , E1 )Ω2 (N2 , E − E1 )
Ω(N, E)
47
1111111111111111111111111111
0000000000000000000000000000
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
N2 V2
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
N1 V1
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
0000000000000000000000000000
1111111111111111111111111111
Abbildung 4.2: Kleines System (N1 , V1 ) im Wärmebad (großes System, N2 , V2 ). Über die Wand wird
Energie ausgetauscht. Das Gesamtsystem ist nach außen hin isoliert.
=
≃
=
=
≡
Ω1 (N1 , E1 )
exp{ln Ω2 (N2 , E − E1 )}
Ω(N, E)
Ω1 (N1 , E1 )
∂ ln Ω2 (N2 , E)
exp ln Ω2 (N2 , E) − E1
Ω(N, E)
∂E
Ω1 (N1 , E1 )
E1
exp ln Ω2 (N2 , E) −
Ω(N, E)
kB T
E
Ω2 (N2 , E)
− 1
Ω1 (N1 , E1 ) e kB T
Ω(N, E)
E
1
− 1
Ω1 (N1 , E1 ) e kB T .
Z1
(4.6)
Z1 ist die kanonische Zustandsumme für das System 1 und tritt als Normierungsfaktor im Nenner bei
der Berechnung der Wahrscheinlichkeit für das Auftreten der Energie E1 auf. Man kann den Ausdruck
für die kanonische Zustandssumme eines Systems noch umschreiben via
X
− E
Z =
Ω(N, E) e kB T
E
=
X
e
− kEnT
=
B
n
X
n
= Sp e
− k ĤT
hn|e
− k ĤT
B
|ni
,
B
(4.7)
wobei n die Quantenzustände des Systems durchzählt und Ĥ der Hamiltonoperator des Systems ist.
Außer der Wahrscheinlichkeit dafür, dass ein System, das im thermischen Kontakt mit einem Wärmebad ist, die Energie E hat, kann man auch die Wahrscheinlichkeit dafür angeben, dass das System im
Quantenzustand |ni ist. Da für jeden Quantenzustand der Energie E im thermischen Gleichgewicht die
Wahrscheinlichkeit gleich ist, beträgt sie
− En
e kB T
pn =
.
(4.8)
Z
−
En
Den Faktor e kB T nennt man auch den Boltzmann-Faktor.
Der Dichteoperator des kanonischen Ensembles ist somit
̺K = Z −1
X
n
e
− kEnT
B
|nihn| = Z −1 e
48
− k ĤT
B
.
(4.9)
Ein Ensemble aus äquivalenten Systemen, von denen jedes in Kontakt mit einem Wärmebad derselben
Temperatur ist, nennt man ein kanonisches Ensemble. Die Wahrscheinlichkeit, dass ein System die Energie
E hat, hängt (neben den Eigenschaften des Systems selbst) nur von der Temperatur des Wärmebads
ab, aber nicht von den anderen Eigenschaften des Wärmebads. Wir können daher jede genügend große
Umgebung eines Systems, mit der sich das System im thermischen Gleichgewicht befindet, als Wärmebad
betrachten.
Den Ausdruck (4.8) für die Wahrscheinlichkeit, dass das System im Zustand n ist, kann man alternativ aus dem Prinzip der maximalen Ignoranz ableiten. Er hat genau dieselbe Form wie (1.32), wobei
die Zufallsvariable nun En ist. Das Ergebnis (4.8) bedeutet also, dass ein System im Wärmebad diejenige Energieverteilung annimmt, die die Entropie bei vorgegebener mittlerer Energie maximiert. Die
Festsetzung einer Temperatur entspricht also der Festsetzung einer mittleren Energie.
4.2.3
Bezug zur Thermodynamik
Wir zeigen im Folgenden, dass die aus der Thermodynamik bekannten Beziehungen und Größen für ein
System mit Wärmeaustausch aus den obigen Berechnungen resultieren.
Wenn man dem System etwas Wärme zuführt (zum Beispiel durch eine leichte Temperaturerhöhung
des Bades), ändert sich die Energie um einen Betrag dE, der gegeben ist durch
X
X
dhEi =
En dpn =
(−kB T ln Z − kB T ln pn )dpn
n
n
= −kB T ln Z
= −kB T
X
n
X
n
dpn − kB T
X
ln pn dpn = −kB T
X
= −kB T d(
pn ln pn ) .
ln pn dpn
n
X
d(pn ln pn )
n
(4.10)
n
P
Hier haben wir im Schritt von der zweiten zur dritten Zeile verwendet, dass wegen n pn = 1 auch
P
n dpn = 0 gilt. Vergleich von (4.10) mit der aus der Thermodynamik bekannten Beziehung dE = T dS
(bei festem N und V ) gibt (bis auf eine Konstante)
X
S = −kB
pn ln pn
(4.11)
n
Dies entspricht der Definition der Entropie aus dem ersten Kapitel. Somit ist gezeigt, dass die mikroskopische Definition der Entropie mit derjenigen aus der Thermodynamik übereinstimmt. Der Ausdruck
(4.11) geht auf Gibbs zurück. Wir führen ab jetzt die häufig verwendete Bezeichnung β = 1/kB T ein.
Einsetzen von pn = Z1 e−βEn in (4.11) gibt
S = −kB
X
n
pn (−βEn − ln Z) =
hEi
+ kB ln Z .
T
(4.12)
Dies können wir umstellen zu
hEi − T S = −kB T ln Z .
(4.13)
Somit haben wir die aus der Thermodynamik bekannte Freie Energie F = E − T S mit den Wahrscheinlichkeiten {pn } in Verbindung gebracht, denn es gilt
F = −kB T ln Z .
(4.14)
Bei dieser Schlussfolgerung haben wir den Mittelwert der Energie durch die Energie selbst ersetzt. Dies
dürfen wir machen, wenn die Fluktuationen der Energie vernachlässigbar sind. Wir werden im folgenden
Abschnitt zeigen, dass dies immer dann der Fall ist, wenn die Zahl der Teilchen makroskopisch groß ist.
49
4.2.4
Äquipartitionstheorem, Energiefluktuationen und Äquivalenz der statistischen Ensembles
Wir gehen nun der Frage nach, wie sich bei fester Temperatur die Energie auf die verschiedenen Freiheitsgrade des Systems verteilt, und wie groß die Energieschwankungen sind.
Wenn sich die Energie E des Systems aus unabhängigen Einzelbeiträgen zusammensetzt, können wir
schreiben
X
ǫ(i) .
(4.15)
E=
i
In einem idealen Gas sind diese Einzelbeiträge die Terme 12 m(v i )2 , wobei der Index i die drei Raumkoordinaten aller Teilchen durchzählt. In dem System aus unabhängigen Elementarmagneten ist E die
Summe der Energien, die die einzelnen Magnete im Magnetfeld haben. Jeder Freiheitsgrad ergibt einen
Beitrag zur Gesamtenergie des Systems.
Wir berechnen im Folgenden die Wahrscheinlichkeit dafür, dass der i-te Freiheitsgrad die Energie
(i)
ǫni hat. Der Index ni zählt hierbei die möglichen Energiewerte des i-ten Freiheitsgrads durch. Ohne
Beschränkung der Allgemeinheit wählen wir i = 1. Es ist
p(ǫ(1)
n1 )
=P
P
n2 ,n3 ,... e
(1)
n1
e−ǫn1 /kB T
P
−
P
i
(i)
ǫn
/kB T
i
n2 ,n3 ,... e
−
P
(1)
(i)
i
ǫni /kB T
= P
e−ǫn1 /kB T
(4.16)
(1)
n1
e−ǫn1 /kB T
(i)
Die Wahrscheinlichkeit, dass im Freiheitsgrad Nummer i bei der Temperatur T die Energie ǫni steckt, ist
also völlig unabhängig von den anderen Energiebeiträgen und ist durch einen normierten Boltzmannfaktor
gegeben. Der i-te Freiheitsgrad kann formal genauso behandelt werden, als sei er das kleine System, das
in Verbindung mit einen Wärmebad der Temperatur T steht. Dies geht zunächst gegen die Intuition, da
man diesem Freiheitsgrad eventuell kein Volumen und keine Teilchenzahl zuordnen kann, aber es ist ein
sehr nützliches Ergebnis, mit dem man sich viele Rechnungen vereinfachen kann.
Wir benützen dieses Ergebnis nun, um die mittlere Energie zu berechnen, die in der x-Komponente
der Geschwindigkeit eines Teilchens steckt. In einem idealen einatomigen Gas ist dies einer von 3N
gleichberechtigten Freiheitsgraden, und wir erhalten am Ende die mittlere Energie des Gesamtsystems,
indem wir das Ergebnis mit 3N multiplizieren.
Da die Geschwindigkeit eine kontinuierliche Variable ist, müssen wir für diese Berechnung die Summen
durch Integrale ersetzen. Es ist
R 1
R 2 −x2
2
2 − 21 mvx
/kB T
dvx
x e
dx
1
2 mvx e
(4.17)
= kB T R −x2
= kB T .
hǫvx i =
R − 1 mv2 /k T
2
e
dx
e 2 x B dvx
In jedem Freiheitsgrad steckt also die Energie 21 kB T . Dies ist das sogenannte Äquipartitionstheorem.
Es besagt allgemeiner, dass in jedem Freiheitsgrad, der quadratisch in die Energie eingeht und eine
kontinuierliche Variable ist, die Energie 21 kB T steckt. Wenn die Temperatur hoch genug ist, gilt dies
also auch für die beiden Rotationsfreiheitsgrade eines zweiatomigen Moleküls (da die Energie quadratisch
im Drehimpuls ist und da die Energieniveaus bei hohen Temperaturen quasi als Kontinuum betrachtet
werden können). In den Übungen werden wir berechnen, dass sich für einen harmonischen Oszillator bei
hohen Temperaturen der Energiebeitrag kB T ergibt. Da die Energie des harmonischen Oszillators als
Summe der kinetischen und der potentiellen Energie geschrieben werden kann, die quadratisch im Ort
bzw. im Impuls sind, haben wir hier also zwei Freiheitsgrade, die jeweils mit 12 kB T beitragen.
Als nächstes schätzen wir ab, wie groß die Energiefluktuation in einem System aus N identischen Teilchen ist. Wenn die Teilchen unabhängig voneinander sind, sind die Wahrscheinlichkeitsverteilungen ihrer
Energien ebenfalls unabhängig. Der Zentrale Grenzwertsatz besagt dann, dass die Varianz der Gesamtenergie N mal die
√ Varianz der einzelnen Energien ist. Also ist die Standardabweichung ∆E√ der Energie
proportional zu N , und die relative Standardardabweichung ∆E/E ist proportional zu 1/ N . Für eine
makrosopisch große Teilchenzahl (∼ 1023 ) ist dies verschwindend gering. Für Systeme aus makroskopisch
50
vielen Teilchen, die in Kontakt mit einem Wärmebad sind, ist also die Energie so scharf, dass ihre Fluktuationen vernachlässigt werden können. Wir können also den Mittelwert der Energie durch die Energie
selbst ersetzen und erhalten dann, wie oben gezeigt, die aus der Thermodynamik bekannte Beziehung
E −T S = F . Es ist also für makroskopische Systeme völlig gleichgültig, ob man einen thermodynamischen
Erwartungswert im mikrokanonischen oder im kanonischen Ensemble berechnet.
Es gibt noch eine elegantere Abschätzung der Größe der Energiefluktuationen in einem makroskopischen System, die auch dann gilt, wenn die verschiedenen Teilchen nicht unabhängig voneinander sind.
Wir besorgen uns zunächst ein paar nützliche Beziehungen für den Mittelwert und die Varianz der Energie. Wir notieren wieder β = 1/kB T und erhalten
P
−βEn
∂ ln Z
n En e
hEi = P
=−
.
(4.18)
−βE
n
e
∂β
n
Durch nochmaliges Ableiten nach −β erhalten wir
(∆E)2 = hE 2 i − hEi2 =
∂ 2 ln Z
.
∂β 2
(4.19)
Nun benötigen wir das aus der Thermodynamik bekannte Konzept extensiver und intensiver Größen.
ln Z ist proportional zur Freien Energie und ist somit eine extensive Größe. Extensive Größen sind proportional zur Ausdehnung des Systems, also zu N und V , wenn man das System unter Beibehaltung
aller Eigenschaften vergrößert. Die Temperatur und damit β ist eine intensive Größe. Sie ändert sich
nicht, wenn wir das System vergrößern durch Hinzufügen gleicher Einheiten. Die Ableitung von einer
extensiven Größe nach einer intensiven Größe ist wieder eine extensive Größe. Daraus folgt, dass sowohl
hEi als auch√(∆E)2 extensive Größen sind. Insbesondere sind sie proportional zu N . Daraus folgt wieder
∆E/hEi ∝ N . Wenn wir ein System unter Beibehaltung aller Eigenschaften immer weiter vergrößern
√
durch Hinzufügen identischer Teilsysteme, ist die relative Energiefluktuation proportional zu 1/ N .
4.2.5
Vom Nutzen der Zustandssumme
Die Zustandssumme enthält alle wichtigen Informationen über das makroskopische Verhalten des Systems.
Wenn man sie berechnet hat, kann man alles andere daraus ableiten. Denn aus der Zustandssumme erhält
man die Freie Energie (über die Beziehung F = −kB T ln Z), und aus dem totalen Differenzial der Freien
Energie (dF = −SdT − pdV + µdN ) die nicht in der Zustandssumme explizit enthaltenen Größen S, p
und µ als Funktion der drei natürlichen Variablen der Freien Energie.
Wir demonstrieren dies am Beispiel des idealen Gases. Wir haben für das ideale Gas weiter vorne die
mikrokanonische Zustandssumme Ω ausgewertet, indem wir über den Phasenraum integriert haben. Man
könnte ganz analog nun auch die kanonische Zustandssumme ausrechnen. Aber es gibt einen schnelleren
Weg, die kanonische Zustandssumme zu ermitteln, indem wir von Anfang an das System als quantemechanisches System betrachten. Das Gas sei in einer würfelförmigen Kammer der Kantenlänge L und des
Volumens V = L3 eingesperrt. Die Wellenvektoren ~k der Gasteilchen können also nur diskrete Werte
annehmen. Wir verwenden die bei Theoretikern besonders beliebten periodischen Randbedingungen. Wir
tun also so, als hätten wir unendlich viele dieser Kammern periodisch angeordnet, und wir verlangen,
dass die Wellenfunktion in jeder Kammer gleich aussieht. Dies bedeutet, dass der Wellenvektor ~k in jeder
Komponente ein ganzzahliges Vielfaches von 2π/L sein muss, ki = 2πni /L. Der Vorteil der periodischen
Randbedingungen ist, dass die Wellenfuktionen ebene Wellen sind, mit denen man leicht rechnen kann,
und nicht der unhandlichere Sinus, den man im unendlich hohen Potentialtopf bekommt. Die Zahl der
quantenmechanischen Zustände, die es bei jeder Energie gibt, ist in beiden Modellen dieselbe, so dass
die Ergebnisse am Ende gleich
P sind. Unser System aus N Teilchen hat 3N unabhängige Freiheitsgrade, so dass wir wieder E = i ǫ(i) schreiben können. Die möglichen Werte von ǫ(i) bezeichnen wir mit
ǫni = ~2 kn2 i /2m mit kni = 2πni /L. Wir ignorieren zunächst die Ununterscheidbarkeit der Teilchen und
51
erhalten dann für die Zustandssumme aus N Teilchen das Ergebnis
ZN =
X
n
e−βEn =
X
e−β
P
i
ǫn i
=
Y X
i
{ni }
e−βǫni
ni
!
3N
≡ Z1/3
≡ Z1N .
(4.20)
Die Zustandssumme eines Systems aus unabhängigen Freiheitsgraden ist das Produkt der Zustandssummen der einzelnen Freiheitsgrade. Wir brauchen also nur die Zustandssumme Z1/3 eines Freiheitsgrads
zu berechnen:
Z
2
X
Lp
L
− (2πn~)
Z1/3 =
e−ǫn /kB T ≃ dne L2 2mkB T =
2πmkB T ≡
(4.21)
h
λ
n
√
mit der sogenannten thermischen Wellenlänge λ = h/ 2πmkB T . Wenn wir daraus Z berechnen, müssen
wir berücksichtigen, dass wir bei N Teilchen in unserer Rechnung jeden Zustand N ! mal gezählt haben.
Wegen der Ununterscheidbarkeit der Teilchen sind Zustände, bei denen Teilchen 1 den Wellenvektor ~k1
und Teilchen 2 den Wellenvektor ~k2 hat und Zustände, bei denen dies umgekehrt ist, identisch. Wir
benötigen also noch einen Faktor 1/N !. (Wir gehen davon aus, dass das Volumen bzw. die Temperatur
hoch genug sind, so dass es sehr unwahrscheinlich
ist, dass zwei Teilchen exakt denselben Wellenvektor
Q
haben. Sonst wäre der Faktor N ! durch N !/ i n~ni ! zu ersetzen). Wir erhalten also
ZN
1
=
N!
V
λ3
N
.
(4.22)
Wir berechnen daraus zunächst die Energie:
E=−
3 ∂ ln λ2
3
∂ ln Z
=− N
= N kB T .
∂β
2
∂β
2
(4.23)
Dies ist die kalorische Zustandsgleichung, die wir auch schon durch direkte Auswertung der Energie pro
Freiheitsgrad erhalten hatten.
Den Druck bekommen wir so:
P =−
∂ ln Z
∂F
= kB T
= N kB T /V .
∂V
∂V
(4.24)
Dies ist die bekannte Beziehung P V = N kB T . Weitere Grössen lassen sich auf analoge Weise berechnen.
4.3
4.3.1
Das großkanonische Ensemble
Systeme mit Teilchenaustausch
Im vorigen Abschnitt haben wir Systeme betrachtet, die miteinander in thermischem Kontakt sind. Nun
betrachten wir Systeme, die zusätzlich auch Teilchen austauschen können. Wir können uns das zum
Beispiel so vorstellen, dass die Wand in Abbildung 4.1 auf Seite 47 Löcher hat. Die Gesamtteilchenzahl
N ist fest, aber die Verteilung der Teilchen auf die beiden Teilsysteme ist nicht fixiert.
Die Gesamtzahl der Zustände des gekoppelten Systems ist nun
X
Ω(N, E) =
Ω1 (N1 , E1 )Ω2 (N − N1 , E − E1 ) .
N1 ,E1
Die Wahrscheinlichkeit, dass das erste System die Energie E1 und die Teilchenzahl N1 und das zweite
System die Energie E2 = E − E1 und die Teilchenzahl N2 = N − N1 hat, ist folglich
Ω1 (N1 , E1 )Ω2 (N2 , E2 )
.
Ω(N, E)
52
Wir können nun die Überlegungen und Rechnungen des vorigen Abschnittes direkt vom Energieaustausch auf den Teilchenaustausch ausweiten. Die wahrscheinlichste Verteilung der Teilchen auf die beiden
Teilsysteme ergibt sich aus der Bedingung
∂(Ω1 (N1 , E1 )Ω2 (N − N1 , E2 ))
=
∂N1
∂Ω1 (N1 , E1 )
Ω2 (N2 , E2 ) =
∂N1
∂ ln Ω1 (N1 , E1 )
∂N1
0;
∂Ω2 (N2 , E2 )
Ω1 (N1 , E1 )
;
∂N2
N2 =N −N1
∂ ln Ω2 (N2 , E2 )
∂N2
N2 =N −N1
=
(4.25)
Für zwei Systeme in thermischem und diffusem Kontakt gibt es also neben der Temperatur eine weitere
Größe, die in beiden Systemen gleich ist. Dies ist das chemische Potenzial µ. Es ist definiert durch die
Beziehung
∂ ln Ω(N, E)
∂S
µ = −kB T
(4.26)
= −T
∂N
∂N E,V
Wir betrachten nun ein kleines System in thermischem und diffusem Kontakt mit einem sehr großen
Reservoir (Wärme- und Teilchenbad). Die Wahrscheinlichkeit, dass das kleine System die Teilchenzahl
N1 und die Energie E1 hat, ist somit
p1 (N1 , E1 )
=
=
≃
=
=
≡
Ω1 (N1 , E1 )Ω2 (N − N1 , E − E1 )
Ω(N, E)
Ω1 (N1 , E1 )
exp{ln Ω2 (N − N1 , E − E1 )}
Ω(N, E)
Ω1 (N1 , E1 )
∂ ln Ω2 (N, E)
∂ ln Ω2 (N, E)
exp ln Ω2 (N, E) − E1
− N1
Ω(N, E)
∂E
∂N
Ω1 (N1 , E1 )
E1
µN1
exp ln Ω2 (N, E) −
+
Ω(N, E)
kB T
kB T
E1 −µN1
Ω2 (N, E)
−
Ω1 (N1 , E1 ) e kB T
Ω(N, E)
E −µN1
1
− 1
Ω1 (N1 , E1 ) e kB T .
Z1
(4.27)
Z1 ist die großkanonische Zustandsumme für das System 1 und tritt als Normierungsfaktor im Nenner
bei der Berechnung der Wahrscheinlichkeit für das simultane Auftreten der Energie E1 und Teilchenzahl
N1 auf. Man kann den Ausdruck für die großkanonische Zustandssumme eines Systems noch umschreiben
via
X
µN
Z =
ZN e kB T
N
=
X
Ω(N, E) e
− E−µN
k T
B
N,E
=
X
e
−
En −µN
N
kB T
=
N,nN
N,nN
=
Sp e
X
N̂
− Ĥ−µ
k T
B
hnN |e
,
− Ĥ−µN
k T
B
|nN i
(4.28)
wobei nN die Quantenzustände des Systems für die Teilchenzahl N durchzählt und Ĥ der Hamilton− E−µN
operator und N̂ der Teilchenzahloperator des Systems ist. Den Faktor e kB T nennt man auch den
Gibbs-Faktor. Die Dichtematrix eines großkanonischen Ensembles ist
ρG = Z−1 e
− k ĤT + kµN̂T
53
B
B
.
(4.29)
Ein Ensemble aus äquivalenten Systemen, von denen jedes in Kontakt mit einem Reservoir mit derselben
Temperatur und demselben chemischen Potenzial ist, nennt man ein großkanonisches Ensemble.
Die Wahrscheinlichkeit dafür, dass das System N Teilchen enthält und im Quantenzustand nN ist,
beträgt also
e
−
En −µN
N
kB T
.
(4.30)
Z
Man kann sie alternativ aus dem Prinzip der maximalen Ignoranz ableiten. Sie hat genau dieselbe Form
wie (1.35), wobei die Zufallsvariablen nun N und EnN sind. Das Ergebnis (4.30) bedeutet also, dass
ein System im Wärme- und Teilchenbad diejenige Energie- und Teilchenzahlverteilung annimmt, die die
Entropie bei vorgegebener mittlerer Energie und mittlerer Teilchenzahl maximiert. Die Festsetzung eines
chemischen Potenzials entspricht also der Festsetzung einer mittleren Teilchenzahl.
pN,nN =
4.3.2
Bezug zur Thermodynamik
Genau wie im kanonischen Ensemble können wir auch im großkanonischen Ensemble einige aus der
Thermodynamik bekannte Beziehungen herleiten.
Die Entropie im großkanonischen Ensemble ist
X
S = −kB
pN,nN ln pN,nN
N,nN
=
=
−kB
X e−
N,nN
En −µN
N
kB T
Z
En
µN
− N +
− ln Z
kB T
kB T
hEi µhN i
−
+ kB ln Z .
T
T
(4.31)
In einem makroskopischen System sind die Energie und die Teilchenzahl sehr scharf, so dass wir die
eckigen Klammern weglassen können, und wir erhalten
−kB T ln Z = E − T S − µN .
(4.32)
Dies ist ein thermodynamisches Potenzial, so wie E und F . Man bezeichnet es oft mit Φ und nennt es das
großkanonische Potenzial. Es ergibt sich aus der großkanonischen Zustandssumme durch die Beziehung
Φ = −kB T ln Z .
(4.33)
Man erhält es in der Thermodynamik, wenn man von der Energie eine Legendre-Transformation bezüglich
der Variablen S und N macht. Seine natürlichen Variablen sind T, V, µ, und sein totales Differenzial ist
dΦ = −SdT − P dV − N dµ .
(4.34)
Folglich ist
S=−
∂Φ
∂T
P =−
∂Φ
∂V
,
N =−
∂Φ
∂µ
.
,
V,µ
T,µ
T,V
Zum Abschluss besorgen wir uns aus der großkanonischen Zustandssumme noch einen Ausdruck für die
mittlere Energie und die mittlere Teilchenzahl. Die mittlere Teilchenzahl eines großkanonischen Ensembles
ist
En −µN
P
− kN T
B
∂ ln Z
N,nN N e
hN i =
= kB T
,
(4.35)
Z
∂µ
54
was mit der vorigen Gleichung übereinstimmt.
Die mittlere Energie ist
hEi =
P
N,nN
EnN e
−
En −µN
N
kB T
=−
Z
∂ ln Z
+ µhN i .
∂β
(4.36)
Als Anwendung betrachten wir wieder das ideale Gas. Aus der ersten Zeile von (4.27) bekommen wir
unter Verwendung von (4.22)
µN
Z=
X
ZN e
µN
kB T
N
=
X V N e kB T
N
λ3N N !
= exp
eµ/kB T V
λ3
(4.37)
Das großkanonische Potenzial für das ideale Gas ist somit
Φ = −kB T ln Z = −
kB T V µ/kB T
e
.
λ3
(4.38)
Aus P = −∂Φ/∂V erhalten wir sofort den aus der Thermodynamik (Gibbs-Duhem-Beziehung) bekannten
Ausdruck Φ = −P V , und aus N = −∂Φ/∂µ erhalten wir
N=
V µ/kB T
e
.
λ3
(4.39)
Ein Vergleich mit der Beziehung für den Druck P ergibt wieder die Zustandsgleichung des idealen Gases,
P V = N kB T .
4.4
4.4.1
Der Druck
Systeme, die miteinander Arbeit austauschen können
Schließlich betrachten wir noch den Fall, dass zwei Systeme aneinander Arbeit verrichten können. Diese
Situation erhält man, wenn man die Trennwand in Abb. 4.1 auf Seite 47 beweglich macht.
Die Trenwand wird sich dann so einstellen, dass die Zahl der Zustände des Gesamtsystems maximiert
wird. Dies führt auf die Beziehung
∂ ln Ω1 (E1 , V1 )
∂ ln Ω2 (E2 , V2 )
=
.
∂V1
∂V2
V2 =V −V1
Diese Beziehung wird genauso hergeleitet wie (4.25), wobei die Teilchenzahl durch das Volumen zu ersetzen ist. Einsetzen der Entropie ergibt
∂S2
∂S1
=
.
(4.40)
∂V1
∂V2 V2 =V −V1
Aus der Thermodynamik wissen wir, dass
P
=
T
∂S
∂V
E,N
ist. Die Größe, die in den beiden Teilsystemen gleich wird, ist also der Druck.
55
(4.41)
Anwendung: Gummielastizität
Wir modellieren ein Gummiband als ein Polymer in 1 Dimension. Das Polymer besteht aus N Segmenten
der Länge a, die entweder in positiver oder negativer Richtung orientiert sind. Die Orientierung verschiedener Segmente sei unabhängig voneinander. Das eine Ende des Polymers ist an der Position x = 0
festgehalten. Das andere Ende befindet sich dann an der Position x = (N+ − N− )a, wobei N+ und N− die
Anzahl der in positiver bzw. negativer Richtung orientierten Segmente ist. Wenn das Band vollständig
gestreckt ist, befindet sich das Ende an der Position L = N a. Wir bezeichnen den End-zu-Endabstand
(N+ − N− )a mit l und schreiben n = N+ − N− = 2N+ − N , so dass l = na ist.
Nun lassen wir am Ende des Gummibands eine Kraft Fext wirken, die es in positiver x-Richtung
dehnt. Die Umgebung habe die Temperatur T . Wir wollen berechnen, wie die Länge l von der Kraft
und der Temperatur abhängt. Wir nehmen dabei an, dass N sehr groß ist, so dass die Fluktuationen
in l vernachlässigbar sind. Für diese eindimensionale Aufgabe müssen wir den üblichen Ausdruck P dV
für die Arbeit durch den Ausdruck F dl ersetzen, wobei F die vom Gummiband ausgeübte Kraft ist. Sie
beträgt F = −Fext , da sie mit der externen Kraft im Gleichgewicht ist. Die Beziehung (4.41) wird für
unser Gummiband zu
F
dS
=
.
(4.42)
T
dl
Um die Länge l zu bestimmen, müssen wir die Entropie S als Funktion von l berechnen und können dann
die Beziehung (4.42) nach l auflösen. Wir erhalten
S
=
≃
=
=
=
≡
N!
N+ !N− !
kB (N ln N − N+ ln N+ − N− ln N− )
N+
N−
kB N ln N −
ln N+ −
ln N−
N
N
N+ + N−
N+
N−
kB N
ln N −
ln N+ −
ln N−
N
N
N
N− N−
N+ N+
ln
−
ln
−kB N
N
N
N
N
−kB N (x ln x + (1 − x) ln(1 − x))
kB ln Ω = kB ln
Die letzte Zeile besagt, dass die Entropie des Gummis die Summe der Entropien seiner einzelnen Segmente
ist, von denen jedes mit Wahrscheinlichkeit x eine positive Orientierung und mit Wahrscheinlichkeit 1 − x
eine negative Orientierung hat.
Der Zusammenhang zwischen x und l ist l = (2x − 1)L. Wir erhalten also
dS
dl
dS dx
dS 1
N kB
=
=−
(1 + ln x − 1 − ln(1 − x))
dx dl
dx 2L
2L
N kB L + l
F
N kB N+
=−
ln
ln
= .
= −
2L
N−
2L
L−l
T
=
(4.43)
Auflösen nach l ergibt schließlich
e2LFext /N kB T − 1
LFext
l
= 2LF /N k T
.
= tanh
ext
B
L
N kB T
e
+1
(4.44)
Für T → 0 erhalten wir l → L. Für hohe T erhalten wir in erster Ordnung Taylorentwicklung l ∝ Fext ,
also das Hookesche Gesetz. Für T → ∞ ergibt sich l/L → 0. (Wir haben hier vernachlässigt, dass
die Segmente ein gewisses Volumen haben und dass die Kette eine gewisse Steifheit hat. In einem echten
Gummi wird der End-zu-End-Abstand nicht Null.) Das Gummi wird kürzer, wenn die Temperatur erhöht
wird, da dann seine Entropie größer ist.
56
4.4.2
Gibbs-Duhem-Relation in homogenen Systemen
Wir haben gesehen, dass wir für Systeme, die mit ihrer Umgebung Wärme oder Wärme und Teilchen
austauschen, jeweils eine Zustandssumme und ein thermodynamisches Potenzial (F bzw. Φ) bekommen.
Man kann nun fragen, warum man dies nicht auch für Systeme macht, die mit ihrer Umgebung Wärme,
Teilchen und Arbeit austauschen. Das entsprechende thermodynamische Potenzial würde man aus E
durch eine Legendretransformation bzgl. S, V und N bekommen, es wäre also E − T S + P V − µN . Seine
natürlichen Variablen wären T , µ und P . Wir zeigen im Folgenden, dass es ein solches Potenzial nicht
gibt, da es identisch mit Null ist.
Hierzu wiederholen wir zunächst das Konzept extensiver und intensiver Größen. Ein thermodynamisches System heißt homogen, wenn es in allen Raumbereichen die gleichen Eigenschaften hat. Inhomogen
sind zum Beispiel Systeme in einem ortsabhängigen Potenzial oder Systeme, die aus mehreren Phasen
bestehen. In homogenen Systemen sind die Energie, die Entropie und die Teilchenzahl proportional zum
Volumen. Größen, die in homogenen Systemen proportional zum Volumen sind, nennt man extensiv.
Die thermodynamischen Potenziale sind alle extensiv, und das Volumen ist es trivialer Weise auch. T , p
und µ heißen dagegen intensiv, da sie nicht vom Volumen abhängen. Für homogene Systeme lässt sich
ein expliziter Ausdruck für die Energie angeben. Um ihn herzuleiten, benützen wir die Extensivität der
Entropie und ändern das Volumen des Systems um einen Faktor α:
S(αE, αV, αN ) = αS(E, V, N ) .
Differenzieren nach α gibt
(4.45)
∂S
∂S
∂S
E+
V +
N =S
∂αE
∂αV
∂αN
oder (mit α = 1)
PV
Nµ
E
+
−
= 0.
T
T
T
Aufgelöst nach E gibt dies die Gibbs-Duhem-Relation
−S +
E = T S − P V + µN .
(4.46)
Zusammen mit dE = T dS − P dV + µdN folgt daraus die differenzielle Gibbs-Duhem-Relation
SdT − V dP + N dµ = 0 .
(4.47)
In einem homogenen System können also T , P und µ nicht unabhängig voneinander variiert werden.
Nur zwei dieser drei Variablen sind also voneinander unabhängig. Dies ist eigentlich auch ohne Rechnung
plausibel: in der Thermodynamik genügen drei Variablen, um den Zustand des Systems eindeutig festzulegen. Nun ist eine wichtige Information über den Zustand die, wie groß das System überhaupt ist. Diese
Information steckt aber in keiner der intensiven Varialen, sondern in den extensiven Variablen. Also muss
mindestens eine der drei Variablen extensiv sein.
Aus der Gibbs-Duhem-Relation folgt
G(T, P, N ) = µ(T, P )N
und
Φ(T, V, µ) = −P (T, µ)V .
Übungsaufgaben zu Kapitel 4
1. Wie ändert sich der Ausdruck (4.3) für die Entropie eines idealen Gases, wenn jeweils die Hälfte der
Teilchen eine andere Atomsorte sind? Verwenden Sie das Ergebnis, um einen zweiten Lösungsweg
für Aufgabe 3 aus Kapitel 2 zu ermitteln.
57
2. Betrachten Sie ein System, das nur drei Zustände hat. Ihre Energien seien E1 = −1eV , E2 = 0eV ,
und E3 = 1eV . Die Temperatur des Wärmebads sei kB T = 1eV . Was ist die Wahrscheinlichkeit
dafür, dass das System im Zustand der Energie E1 ist? Was ist die Entropie des Systems?
3. Zeigen Sie, dass die mittlere Energie eines harmonischen Oszillators, der an ein Wärmebad der
Temperatur T gekoppelt ist, den Wert
!
1
1
(4.48)
+
hEi = ~ω
2 e k~ω
BT − 1
hat. Zur Erinnerung: Die Energieniveaus des harmonischen Oszillators sind En = ~ω(n + 21 ) mit
n = 0, 1, 2, . . .. Zeigen Sie, dass daraus folgt, dass die mittlere Zahl der Energiequanten hni den
Wert
1
(4.49)
hni = ~ω
e kB T − 1
hat. Gegen welchen Grenzwert strebt diese Energie für T → 0? Wie ist die Temperaturabhängigkeit
für hohe Temperaturen? Bringen Sie das Ergebnis in Verbindung mit dem Äquipartitionstheorem.
P
4. Zeigen Sie, dass die Gibbs-Entropie −kB i pi ln pi additiv ist, d.h. dass die Gesamtentropie zweier
unabhängiger Systeme gleich der Summe ihrer Entropien ist.
5. Zeigen Sie, dass
(∆N )2 ≡ hN 2 i − hN i2 = (kB T )2
∂ 2 ln Z
∂hN i
= kB T
∂µ2
∂µ
(4.50)
6. Gehen Sie aus von der großkanonischen Zustandssumme (4.37) für das ideale Gas und berechnen
Sie hN i und hN 2 i. Zeigen Sie daraus, dass P V = hN ikB T ist und dass
1
h(∆N )2 i
=
.
hN i2
hN i
7. Leiten Sie aus der großkanonischen Zustandssumme (4.37) des idealen Gases die kalorische Zustandsgleichung E = 23 hN ikB T her.
58
Kapitel 5
Ideale Quantengase
5.1
Fermi-Dirac und Bose-Einstein-Verteilung
In diesem Kapitel verwenden wir das großkanonische Ensemble, um die Eigenschaften von Fermi-, Bose-,
Phononen- und Photonengasen zu berechnen. Wir betrachten die idealisierte Situation, dass diese Teilchen
nicht miteinander wechselwirken, so dass die Gesamtenergie als die Summe der Energien der einzelnen
Teilchen geschrieben werden kann. Im Gegensatz zu den Berechnungen für das klassische ideale Gas, die
wir im vorigen Kapitel durchgeführt haben, können wir jetzt nicht mehr die Beziehung ZN = Z1N /N !
benützen, da wir jetzt auch den Fall hoher Dichten und niedriger Temperaturen einschließen möchten. Hier
zeigen sich neben der Ununterscheidbarkeit der Teilchen noch das Pauli-Prinzip (für Fermionen) bzw. die
durch Mehrfachbesetzung desselben Zustands veränderte Statistik von Bosonen. Wir nummerieren die
Energieeigenwerte für ein Teilchen mit dem Index i. Also ist ni die Zahl der Teilchen im Zustand i,
und ǫi die Energie dieses Zustands. Für Bosonen kann ni jeden ganzzahligen Wert ≥ 0 einnehmen, für
Fermionen ist ni = 0 oder ni = 1. Wir berechnen die großkanonische Zustandssumme und die mittlere
Besetzungszahl des i-ten Zustands als Funktion der Temperatur und des chemischen Potenzials. Da die
Teilchen nicht miteinander wechselwirken, ist die Zustandssumme das Produkt der Zustandssummen der
einzelnen Zustände.
5.1.1
Fermi-Dirac-Verteilung
Die großkanonische Zustandssumme für nicht miteinander wechselwirkende Fermionen ist
!
Y
Y X
X
P
−βni (ǫi −µ)
−β i ni (ǫi −µ)
1 + e−β(ǫi −µ) .
e
=
=
e
Z=
{ni }
i
ni =0,1
(5.1)
i
Das großkanonische Potenzial ist folglich (siehe (4.33))
X ln 1 + e−β(ǫi −µ) .
Φ = −kB T
(5.2)
i
Die mittlere Teilchenzahl ist deshalb
N =−
∂Φ
∂µ
mit
hni i =
=
T
X
i
1
eβ(ǫi −µ)
59
+1
hni i
.
(5.3)
Man nennt die Funktion (5.3) die Fermi-Dirac-Verteilung. Man kann sie auch schneller herleiten, indem
man von Anfang an nur den Zustand i betrachtet. Seine Zustandssumme ist
zi = 1 + e−β(ǫi −µ)
und seine mittlere Besetzungszahl
0·
e0
e−β(ǫi −µ)
+1·
,
zi
zi
was mit (5.3) identisch ist.
Bei T = 0 ist hni i = 1 für ǫ < µ und hni i = 0 für ǫ > µ. Außerdem wissen wir, das alle Zustände bis
zur Fermi-Energie ǫF besetzt sind (das ist die Definition der Fermi-Energie). Folglich ist µ(T = 0) = ǫF .
Mit zunehmender Temperatur muss µ immer weiter sinken. Dies können wir aus (5.3) ablesen: wenn β
kleiner wird, wird das Energieintervall größer, für das hni i oberhalb einer Schwelle (sagen wir 0.1) liegt.
Wenn das System eine vorgegebene mittlere Teilchenzahl haben soll, dürfen in diesem Energieintervall
mit zunehmendem T nicht immer mehr Zustände liegen. Dies geht nur, wenn µ mit zunehmendem T
immer mehr abnimmt und weit unter den niedrigsten Wert ǫi sinkt.
Für große T ist hni i ≃ 1/2 für alle Energien, die von µ weniger als einen kleinen Teil von kB T (z.B.
0.1kB T ) entfernt sind. In diesem Abstand von µ darf es daher nicht mehr als 2N Zustände geben, weil
es insgesamt nur N Teilchen im System gibt. Das geht aber nur, wenn µ mit wachsendem kB T immer
weiter unter den niedrigsten Wert von ǫi sinkt.
Die mittlere Energie ist
X
X
ǫi
ǫi hni i =
E=
.
(5.4)
β(ǫ
−µ)
i
e
+1
i
i
5.1.2
Bose-Einstein-Verteilung
Die großkanonische Zustandssumme für Bosonen ist
Z=
X
e
−β
P
i ni (ǫi −µ)
=
∞
X
Y
ni =0
i
{ni }
e
−βni (ǫi −µ)
!
=
Y
i
1
1 − e−β(ǫi −µ)
.
(5.5)
Das großkanonische Potenzial ist folglich
Φ = kB T
X
i
ln 1 − e−β(ǫi −µ) .
(5.6)
Die mittlere Teilchenzahl ist deshalb
N =−
mit
hni i =
∂Φ
∂µ
T
=
X
i
hni i
1
.
eβ(ǫi −µ) − 1
(5.7)
Man nennt die Funktion (5.7) die Bose-Einstein-Verteilung. Man kann sie auch schneller herleiten, indem
man von Anfang an nur den Zustand i betrachtet. Seine Zustandssumme ist
zi =
1
1 − e−β(ǫi −µ)
und seine mittlere Besetzungszahl
X e−βn(ǫi −µ)
n
,
zi
n
60
was mit (5.7) identisch ist.
Damit alle hni i ≥ 0 sind, muss µ kleiner als die kleinste Energie sein.
Die mittlere Energie ist
X
X
ǫi
ǫi hni i =
.
E=
β(ǫi −µ) − 1
e
i
i
5.1.3
(5.8)
Klassischer Grenzfall
Bei hohen Temperaturen, wenn die Besetzungszahlen der meisten Zustände sehr klein sind, also wenn
e−β(ǫi −µ) sehr klein ist, verschwindet der Unterschied zwischen Bosonen und Fermionen, und das großkanonische Potenzial ist für Fermionen und Bosonen gleich, nämlich
X
X
(5.9)
e−βǫi .
e−β(ǫi −µ) = −kB T eβµ
Φ ≃ −kB T
i
i
Wenn wir freie Teilchen betrachten, die in einem Volumen V eingesperrt sind, können wir dies weiter
auswerten. Wie wir es früher für das ideale Gas gemacht haben, ersetzen wir die Summe durch ein Integral.
Da wir dies noch öfters machen werden, ist es zweckmäßig, an dieser Stelle die Zustandsdichte D(ǫ) zu
definieren. Die Zahl der Zustände mit einer Energie zwischen ǫ und ǫ + dǫ ist dann
D(ǫ)dǫ .
Für freie Teilchen mit Spin S, die im Volumen V eingesperrt sind, berechnen wir zunächst das Integral
der Zustandsdichte und differenzieren am Schluss:
Z ǫ
Z
V
D(ǫ′ )dǫ′ = (2S + 1) 3
d3 p
h
2
0
p /2m≤ǫ
Z √2mǫ
4πV
4πV (2mǫ)3/2
.
(5.10)
= (2S + 1) 3
p2 dp = (2S + 1) 3
h
h
3
0
Für ǫ = ǫF ist das Integral der Zustandsdichte die Gesamtteilchenzahl (da bei T = 0 alle Zustände bis
ǫF besetzt sind). Also ist
32
h2
3N
ǫF =
.
(5.11)
2m (2S + 1)4πV
Differenzieren von (5.10) ergibt
D(ǫ) = (2S + 1)
2πV
(2m)3/2 ǫ1/2 .
h3
(5.12)
Wir erhalten also für Teilchen mit S = 0
Φ
≃
=
=
=
=
−kB T eβµ
Z
∞
D(ǫ)e−βǫ dǫ
Z ∞
√ −βǫ
3/2
βµ 2πV
(2m)
−kB T e
ǫe dǫ
3
h
0
Z ∞
√ −x
2πV
−kB T eβµ 3 (2mkB T )3/2
xe dx
h
0
3
2πmkB T 2
−kB T eβµ V
h2
µ/kB T e
V
≡ −kB T ln Z .
−kB T ln exp
λ3
0
(5.13)
h
Wir haben wie früher die Notation λ = √2πmk
eingeführt. Die großkanonische Zustandssumme, die in
BT
den eckigen Klammern steht, ist identisch mit der des idealen Gases, Gleichung (4.37). Wenn der Spin
der Teilchen von Null verschieden ist, gibt es noch einen zusätzlichen Faktor (2S + 1).
61
5.2
Fermi-Gas bei tiefen Temperaturen
Elektronen in Metallen und einige andere fermionische Systeme haben bei Raumtemperatur eine FermiDirac-Verteilung, die nur wenig von derjenigen für T = 0 abweicht, weil ihre Fermitemperatur TF ≡ ǫF /k
ungefähr bei 50000K liegt. (Abbildung 5.1.) Aus diesem Grund, und weil der Unterschied zwischen der
Fermi-Dirac- und der Bose-Einstein-Verteilung bei tiefen Temperaturen am größten ist, untersuchen wir
im Folgenden das Fermi-Gas bei tiefen Temperaturen. Das wichtigste Ergebnis, das wir herleiten werden,
ist, dass die spezifische Wärme eines Fermi-Gases bei tiefen Temperaturen proportional zu T ist.
Abbildung 5.1: Fermi-Dirac-Verteilungsfunktion für ein Elektronengas in Metallen, für 6 verschiedene
Werte der Temperatur. Bei Zimmertemperatur weicht die Verteilung nur wenig von einer Stufenfunktion
ab. (Aus: Kittel, Thermal Physics.)
Wir beginnen mit dem Fall T = 0, in dem alle Zustände unterhalb der Fermi-Energie ǫF besetzt sind
und alle anderen leer. Für die Teilchenzahl gilt dann
Z ∞
Z ǫF
D(ǫ)dǫ
N=
D(ǫ)n(ǫ)dǫ =
0
0
und für die Energie
E=
Z
0
∞
D(ǫ)ǫn(ǫ)dǫ =
Z
ǫF
ǫD(ǫ)dǫ .
0
Wir haben oben schon erwähnt, dass µ(T = 0) = ǫF ist, und dass µ mit zunehmender Temperatur sinkt.
Um die spezifische Wärme bei tiefen Temperaturen zu erhalten, berechnen wir zunächst die Energie und differenzieren dann nach T . Es ist lehrreich, statt der Energie die Differenz der Energie zur
Grundzustandsenergie zu berechnen:
Z ǫF
Z ∞
D(ǫ)ǫ dǫ
D(ǫ)n(ǫ)ǫ dǫ −
∆E = E(T ) − E(0) =
0
0
Z ǫF
Z ∞
D(ǫ)(ǫ − ǫF )dǫ
D(ǫ)n(ǫ)(ǫ − ǫF )dǫ −
=
0
0
Z ǫF
Z ∞
D(ǫ)(ǫF − ǫ)(1 − n(ǫ))dǫ .
(5.14)
D(ǫ)n(ǫ)(ǫ − ǫF )dǫ +
=
0
ǫF
Beide Terme sind klein bei niedrigen Temperaturen, da die Fermi-Dirac-Verteilung für ǫ < ǫF nur in der
Nähe von ǫF von 1 abweicht, und für ǫ > ǫF nur in der Nähe von ǫF von 0 abweicht. Die Breite dieses
Bereich ist von der Größenordnung kB T .
62
Zur Berechnung der Wärmekapazität differenzieren wir die vorletzte Zeile von (5.14) nach T und
bekommen
Z ∞
dE
dn(ǫ)
Cel =
=
D(ǫ)
(ǫ − ǫF )dǫ
dT
dT
0
Z ∞
dn(ǫ)
(ǫ − ǫF )dǫ
≃ D(ǫF )
dT
0
Z ∞
d
1
= D(ǫF )
(ǫ − ǫF )
dǫ
(ǫ−ǫ
F )/kB T
dT 1 + e
0
Z ∞
(ǫ − ǫF )2
e(ǫ−ǫF )/kB T
= D(ǫF )
2 dǫ
2
kB T
0
1 + e(ǫ−ǫF )/kB T
Z ∞
ex
2
dx x2
= kB
T D(ǫF )
(1 + ex )2
−ǫF /kB T
Z ∞
ex
2
≃ kB
T D(ǫF )
dx x2
(1 + ex )2
−∞
=
π2
2
D(ǫF )kB
T.
3
(5.15)
Für ein freies Elektronengas erhält man aus (5.10)
D(ǫF ) =
und damit
Cel =
3N
3N
≡
2ǫF
2kB TF
1 2
kB T
1
T
= π 2 N kB
.
π N kB
2
ǫF
2
TF
(5.16)
Die Wärmekapazität wächst also für tiefe Temperaturen linear mit der Temperatur an. Für hohe Temperaturen erreicht sie den konstanten Wert 32 N kB des idealen Gases.
Das lineare Anwachsen der Wärmekapazität lässt sich auch durch ein einfaches Argument herleiten.
Wir schätzen dazu ab, wie viele Elektronen bei der Temperatur T über die Fermienergie angeregt werden.
Dies sind diejenigen Elektronen, die in einem Abstand von der Größenordnung kB T von der Fermienergie
sitzen, also größenordnungsmäßig N kǫBFT Elektronen. Ihre Energieerhöhung beträgt insgesamt
∆E ≃ N
(kB T )2
,
ǫF
und die Wärmekapazität ist somit von der Größenordnung
Cel =
2
N kB
T
d∆E
.
≃
dT
ǫF
2
Bis auf den nichttrivialen Faktor π2 erhalten wir durch diese einfache Abschätzung also das richtige
Ergebnis.
Experimente zeigen, dass die Wärmekapazität vieler Metalle die Form
CV = γT + AT 3
mit zwei materialspezifischen Konstanten γ und A hat. Der zweite Term kommt, wie wir später sehen
werden, von den Gitterschwingungen (Phononen) des Metalls.
Das Verhalten der anderen Zustandsgrößen bei tiefen Temperaturen lässt sich auch berechen. Wir
berechnen im Folgenden noch das Verhalten des chemischen Potenzials bei tiefen Temperaturen bei fester
Teilchenzahl N . Zu diesem Zweck formen wir den Ausdruck für N so lange um, bis er µ in einer einfachen
63
Form enthält, so dass wir die resultierende Gleichung nach µ auflösen können. Dazu machen wir einige
Näherungen, die für genügend tiefe Temperaturen beliebig genau werden.
Z ∞
Z µ
Z ∞
N =
n(ǫ)D(ǫ)dǫ =
D(ǫ)dǫ +
[n(ǫ) − θ(µ − ǫ)] D(ǫ)dǫ
0
0
0
Z ∞
Z µ
[n(ǫ) − θ(µ − ǫ)] dǫ
D(ǫ)dǫ + D(µ)
≃
0
0
Z ∞
+D′ (µ)
[n(ǫ) − θ(µ − ǫ)] (ǫ − µ)dǫ
0
Z µ
Z ∞ 1
=
D(ǫ)dǫ + D(µ)kB T
− θ(−x) dx
1 + ex
0
− k µT
B
Z ∞ 1
′
2
+D (µ)(kB T )
− θ(−x) xdx
1 + ex
− k µT
B
Z µ
Z ∞
1
−
θ(−x)
dx
≃
D(ǫ)dǫ + D(µ)kB T
1 + ex
0
−∞
Z ∞ 1
+D′ (µ)(kB T )2
−
θ(−x)
xdx
1 + ex
−∞
Z µ
Z ∞
1
′
2
=
D(ǫ)dǫ + D (µ)(kB T )
− θ(−x) xdx
1 + ex
0
−∞
Z µ
A π2
π2
2A 3
D(ǫ)dǫ + D′ (µ)(kB T )2
=
=
µ 2 + (kB T )2 √
6
3
µ 12
0
(5.17)
3/2
mit A = (2S + 1) 2πV
, da wir wieder ein freies Gas betrachten. Mit dem Ansatz µ = ǫF (1 + δ)
h3 (2m)
mit einem kleinen δ, in dem wir entwickeln, erhalten wir schließlich δ ≃ − (kBǫ2T )
F
µ ≃ ǫF −
(kB T )2 π 2
.
ǫF 12
2
π2
12
und
(5.18)
Neben Metallen werden auch einige andere Systeme recht gut durch ein freies Fermigas bei tiefen
Temperaturen beschrieben. Dazu gehören Atomkerne, die ja aus Protonen und Neutronen bestehen, und
weiße Zwerge, deren Dichte so hoch ist, dass die Elektronen sich von den Kernen lösen.
5.3
Bose-Einstein-Kondensation
In einem Gas aus nicht wechselwirkenden Bosonen ist unterhalb einer bestimmten Temperatur der Grundzustand mit einem endlichen Teil aller Teilchen besetzt. Dies ist im Prinzip zu erwarten, da bei T = 0 ja
alle Teilchen im Grundzustand sind. Eine makroskopische Besetzung des Grundzustands ist verantwortlich für die Superfluidität von He4 und die Supraleitung. Für ein freies Bosegas wurde die Kondensation
in den Grundzustand schon von Einstein berechnet. Das überraschende Ergebnis dabei ist, dass sie bei
Werten von kB T auftritt, die viel größer sind als der Energieabstand der niedrigsten Zustände. Der Grund
hierfür ist die Ununterscheidbarkeit der Teilchen. Wie wir in den Übungen gesehen haben, ist die Wahrscheinlichkeit dafür, dass alle Teilchen in demselben Zustand sind, für ununterscheidbare Teilchen viel
größer als für unterscheidbare Teilchen (wenn die Teilchenzahl groß wird). Wir berechnen zunächst das
chemische Potenzial bei tiefen Temperaturen. Wir wählen die Energieskala der Zustände so, dass der
Grundzustand bei ǫ = 0 ist. Damit wissen wir, dass das chemische Potenzial negativ ist. Bei T = 0 sind
alle Teilchen im Grundzustand, woraus
N = lim
T →0
1
e
− k µT
B
64
−1
≃−
kB T
µ
folgt. Also ist
µ
1
1
kB T
− µ
und e kB T ≃ 1 +
bzw. e kB T ≃ 1 −
.
N
N
N
Das chemische Potenzial ist also sehr nahe bei Null und wird in der folgenden Rechnung an einer geeigneten Stelle gleich Null gesetzt. Die Zahl der Teilchen im Grundzustand ist
µ≃−
1
N0 (T ) =
e
− k µT
B
−1
und die Zahl der Teilchen in allen anderen Zuständen ist
Z ∞
1
Ne (T ) ≃
dǫD(ǫ) ǫ−µ
k
T
0
e B −1
√
Z ∞
ǫ
2πV
3/2
=
(2m)
dǫ ǫ−µ
3
h
0
e kB T − 1
√
Z ∞
ǫ
2πV
3/2
≃
(2m)
dǫ
ǫ
kB T
h3
e
−1
0
√
Z ∞
x
2πV
3/2
(2mkB T )
dx x
=
h3
e
−
1
0
3/2
2πmkB T
V
≃ 2.612V
≡ 2.612
.
2
h
VQ
(5.19)
Die Bose-Einstein-Kondensation geschieht bei derjenigen Temperatur TC , bei der dieses Ergebnis unter
die Gesamtteilchenzahl N sinkt. Also ist
2/3
h2
N
.
(5.20)
TC =
2.612V
2mπkB
Der Anteil der angeregten Teilchen ist somit
Ne
=
N
T
TC
3/2
,
und die Zahl der Teilchen im Grundzustand beträgt
"
N0 = N − Ne = N 1 −
T
TC
3/2 #
.
Das Ergebnis für die kritische Temperatur TC ist demjenigen für die Fermi-Temperatur TF ≡ ǫf /kB
erstaunlich ähnlich:
23
h2
3N
TF =
,
(5.11)
2mkB (2S + 1)4πV
was bis auf ein paar numerische Faktoren mit (5.20) identisch ist. Bei gleicher Teilchenmasse haben
die Fermi-Temperatur und die kritische Temperatur der Bose-Einstein-Kondensation dieselbe Größenordnung. Für He4 berechnet sich die Temperatur der Bose-Einstein-Kondensation bei der am LambdaPunkt vorliegenden Dichte zu 3.14K. Da die Atome aber miteinander wechselwirken, kann man sie nicht
als ideales Bose-Gas betrachten, und die Übergangstemperatur für die Superfluidität ist bei 2.18K. Diese
Wechselwirkung ist auch dafür verantwortlich, dass die spezifische Wärme von He4 ganz anders aussieht
als die eines idealen Bose-Gases. Abbildung 5.2 auf der nächsten Seite zeigt beide. Die Anregungen der
niedrigsten Energie in He4 haben einen endlichen Energieunterschied zum Grundzustand, während es im
idealen Bosegas keine solche Energielücke gibt.
65
Abbildung 5.2: Der Verlauf der spezifischen Wärme eines idealen Bose-Gases (links) und von He4 (rechts).
Die spezifischen Wärme eines idealen Bose-Gases hat eine Spitze, während die von He4 eine Divergenz
hat (“λ-Anomalie”). (Aus Kittel, Thermal Physics.)
Der Verlauf der Wärmekapazität im idealen Bosegas unterhalb der Kondensationstemperatur lässt
sich leicht berechnen: Die Gesamtenergie ist
Z
Z
2πV (2m)3/2 (kB T )5/2 ∞
D(ǫ)
x3/2
≃
E = dǫǫ ǫ−µ
.
dx
h3
ex − 1
0
e kB T − 1
Differenzieren nach T gibt
5πV (2m)3/2 (kB T )3/2
C
≃
kB
h3
Z
0
∞
dx
x3/2
∝ T 3/2 .
ex − 1
(5.21)
Die Bose-Einstein-Kondensation wurde 70 Jahre nach ihrer Berechnung endlich experimentell nachgewiesen. Die experimentelle Schwierigkeit besteht darin, bei niedrigen Temperaturen einen gasförmigen
Zustand hinreichender Dichte für genügend lange Zeit zu halten. Die Entwicklung der Technik zur Laserkühlung von Atomen war hierbei ein wichtiger Schritt. 1995 gelang es der Arbeitsgruppe von Eric Cornell und Carl Wieman in Boulder mit Rubidiumatomen, und der Arbeitsgruppe von Wolfgang Ketterle
am MIT mit Natriumatomen, die Bose-Einsteinkondensation zu beobachten. Diese drei Wissenschaftler
bekamen dafür im Jahr 2001 den Nobelpreis für Physik.
5.4
Photonengas und Planck-Verteilung
Als nächstes betrachten wir ein ideales Gas aus Photonen. Unser Hauptziel ist es, die Plancksche Formel
für den schwarzen Strahler, die wir im zweiten Kapitel direkt aus dem Prinzip der maximalen Ignoranz
ermittelt haben, nun auf konventionellem Weg und mit allen Vorfaktoren herzuleiten. Planck befasste
sich mit der Wärmestrahlung, also mit elektromagnetischen Wellen im thermischen Gleichgewicht mit
den Wänden eines Hohlraums. Gesucht war eine Formel für die Verteilung der Strahlungsenergie auf die
verschiedenen Frequenzen. Die möglichen Frequenzen sind solche, die stehenden Wellen in dem Hohlraum
entsprechen.
Photonen haben den Spin 1, sind also Bosonen. Da sie aber keine Masse haben und sich mit Lichtgeschwindigkeit bewegen, kann ihr Spin nur zwei Werte haben, die rechts und links zirkular polarisierten
Wellen entsprechen. Um die Bose-Einstein-Verteilung auf Photonen anzuwenden, müssen wir zunächst
das chemische Potenzial bestimmen. Da die Zahl der Photonen in dem Hohlraum nicht festgehalten werden kann, stellt sie sich nach den Gesetzen der Thermodynamik auf demjenigen Wert ein, der die freie
Energie minimiert, also der die Beziehung
∂F
=0
∂N T,V
66
erfüllt, woraus folgt, dass µ = 0 ist. Also ist die mittlere Zahl der Photonen in einer Mode der Energie
ǫi = ~ωi durch
1
hni i = βǫi
(5.22)
e −1
gegeben. Dieses Ergebnis ist identisch mit demjenigen für die mittlere Zahl der Energiequanten in einem
harmonischen Oszillator (4.49). In der Tat wird in der Quantenelektrodynamik das Strahlungsfeld durch
harmonische Oszillatoren modelliert. Die mittlere Energie einer Mode der Kreisfrequenz ω ergibt sich
aus (5.22) zu ǫi hni i, d.h. es fehlt im Vergleich zu (4.48) die Nullpunktsenergie. Für alle Berechnungen in
diesem Abschnitt ist sie aber irrelevant, da wir thermodynamische Größen auswerten, also die Energie
bzw. die freie Energie nach den Parametern des Systems (V , T , N ) ableiten, und diese Größen sind von
der Nullpunktsenergie unabhängig. Gleichung (5.22) ist die sogenannte Planck-Verteilung.
Für die weiteren Berechnungen benötigen wir die Zustandsdichte D(ǫ) der Schwingungsmoden des
Hohlraums. Im Gegensatz zu den klassischen Gasen und den Quantengasen, die wir bisher betrachtet
haben, haben wir es nun mit relativistischen Teilchen zu tun, für die die Beziehung zwischen der Energie
und dem Impuls ǫ = pc ist. Statt (5.10) haben wir also
Z
Z ǫ
V
d3 p
D(ǫ′ )dǫ′ = 2 3
h p≤ǫ/c
0
Z ǫ/c
8πV ǫ3
4πV
,
(5.23)
p2 dp =
= 2 3
h
3c3 h3
0
und statt (5.12)
8πV ǫ2
.
(5.24)
c3 h 3
Das Plancksche Strahlungsgesetz ist ein Ausdruck für die spektrale Energiedichte u(ω). Wenn man sie
mit dω multipliziert, gibt sie die Energie an, die in dem Frequenzintervall [ω, ω + dω] steckt,
D(ǫ) =
~ω
u(ω)dω =
e
~ω
kB T
−1
ω3
V~
dω .
~ω
π 2 c3 e kB T − 1
D(~ω)d(~ω) =
Die gesamte Energie im Hohlraum ist folglich
Z ∞
Z
V (kB T )4 ∞
V (kB T )4 π 2
x3
E=
u(ω)dω =
∝ T4 .
=
dx
π 2 ~3 c3 0
ex − 1
15~3 c3
0
(5.25)
(5.26)
Dies ist das sogenannte Stefan-Boltzmann-Strahlungsgesetz. Die Wärmekapazität ist somit
4 2
∂E
4V kB
π 3
=
T .
∂T
15c3 ~3
∂S
erhält man daraus
Unter Benutzung der Beziehung CV = T ∂T
V
CV =
S=
4 2
4V kB
π 3
T .
45c3 ~3
Der Druck des Photonengases ist
P =−
∂(E − T S)
∂V
=
T
(kB T )4 π 2
.
45c3 ~3
Es ist also
E = 3P V .
67
(5.27)
5.5
5.5.1
Debye-Gesetz und Phononen in Festkörpern
Phononen als harmonische Oszillatoren
Wir betrachten in diesem Abschnitt Phononen, also Schwingungsmoden der Atome, in einem Kristall. In
einem Kristall sind die Atome periodisch angeordnet. Um zu veranschaulichen, wie aus einer periodischen
Anordnung für kleine Auslenkungen harmonische Schwingungsmoden resultieren, betrachten wir zunächst
ein eindimensionales System, also eine Kette aus N Atomen der Masse m, die alle voneinander in der
Ruhelage den Abstand a haben. Wir haben in der Quantenmechanik gesehen, dass die Bindungskräfte
zwischen Atomen für kleine Auslenkungen aus der Gleichgewichtslage eine Rückstellkraft proportional
zur Auslenkung hervorrufen. Dies können wir durch elastische Federn zwischen benachbarten Atomen
veranschaulichen, die alle dieselbe Federkonstante f haben. Wir bezeichnen mit un die Auslenkung des
Teilchens n aus seiner Gleichgewichtslage und erhalten die Hamilton-Funktion für eine solche Kette aus
N Atomen:
Xm
f
(5.28)
u̇2n + (un − un−1 )2 .
H = W0 +
2
2
n
W0 ist die potenzielle Energie der Kette in der Gleichgewichtslage. Durch die Transformation
r
m X −ikan
1 X ikan
e
Qk ,
mu̇n =
un = √
e
Pk
N
Nm
k
k
wird H in eine Summe von ungekoppelten harmonischen Oszillatoren verwandelt
H = W0 +
X1
k
2
(Pk P−k + ωk2 Qk Q−k ) ,
(5.29)
wobei die Frequenzen mit der Wellenzahl k über
ωk = 2
r
ka
f
sin
m
2
zusammenhängen. Für kleine Wellenzahlen ist diese Beziehung linear,
r
f
ω≃
ka ,
m
woraus sich die Ausbreitungsgeschwindigkeit
ω
c= =
k
r
f
a
m
(5.30)
ergibt. Man bezeichnet Qk als Normalkoordinaten und die Pk als Normalimpulse. In der quantenmechanischen Beschreibung des Systems ist
[un , mu̇l ] = i~δnl
[un , ul ] = [mu̇n , mu̇l ] = 0
woraus
[Qk , Pl ] = i~δkl
folgt, während die übrigen Kommutatoren verschwinden. Gleichung (5.29) ist also in der quantenmechanischen Beschreibung der Hamiltonoperator
einer Summe vonq
harmonischen Oszillatoren und lässt sich
q
mit den Substitutionen Qk =
Form
~
2ωk (âk
+ â+
−k ) und Pk = −i
Ĥ = W0 +
X
k
~ωk
2 (â−k
1
~ωk n̂k +
2
68
+
− â+
k ) und n̂k = âk âk auf die
bringen, wobei der Besetzungszahloperator n̂k ganzzahlige Eigenwerte 0, 1, 2, . . . hat (wegen der Vertau′
schungsrelation [ak , a+
k′ ] = δkk ).
Wir verallgemeinern dieses Ergebnis nun auf drei Dimensionen. Wir gehen weiterhin davon aus, dass
jede Einheitszelle nur ein Atom hat. Zu gegebenem Wellenvektor ~k gibt es nun drei mögliche Polarisationsrichtungen, zwei transversale und eine longitudinale, die wir mit dem Index λ durchnummerieren.
Also ist der Hamiltonoperator in drei Dimensionen
X
1
.
Ĥ = W0 (V ) +
~ω~k,λ n̂~k,λ +
2
~
k,λ
5.5.2
Die Debye-Näherung
Die Debye-Näherung besteht darin, die lineare Dispersionsrelation (5.30), die für longitudinale und transversale Phononen bei kleiner Frequenz gilt, auf den gesamten Frequenzbereich auszudehnen, um die
Rechnungen zu vereinfachen. Bei tiefen Temperaturen sind bevorzugt Phononen mit niedriger Frequenz
angeregt, und dort ist diese Näherung gut. Für die weiteren Rechnungen benötigen wir die Zustandsdichte
der Phononen. Ganz analog zu den Photonen finden wir
1
4πV ǫ2 2
,
(5.31)
+
D(ǫ) =
h3
c3t
c3l
wobei ct die Geschwindigkeit der transversalen Phononen und cl die der longitudinalen Phononen ist.
(Für die longitudinalen Phononen gab es bei den Photonen kein Äquivalent.) Man kann die beiden
Geschwindigkeiten über die Definition
2
1
3
+ 3 = 3
3
ct
cl
cef f
zu einer effektiven Geschwindigkeit zusammenfassen. Die Gesamtzahl der Phononen muss genauso groß
sein wie die Zahl der Freiheitsgrade des Systems. Wenn es aus N Atomen besteht, hat es 3N Freiheitsgrade, so dass wir eine maximal mögliche Frequenz ωD einführen müssen, für die gilt
Z ~ωD
V
3
D(ǫ)dǫ =
ωD
.
3N =
2 c3
2π
0
ef f
ωD ist die sogenannte Debye-Frequenz,
ωD =
5.5.3
6π 2 N c3ef f
V
! 13
.
(5.32)
Thermodynamische Größen
Nun können wir die verschiedenen thermodynamischen Größen berechnen. Die mittlere Besetzungszahl
eines Schwingungszustandes ~k, λ ist diejenige eines harmonischen Oszillators,
hn~k,λ i =
1
e
~ω~k,λ /kB T
−1
(4.49)
und hängt nur vom Wert der Energie ab. Wir erhalten damit für die Energie des Systems
E=
Z
0
∞
9N (kB T )4
dǫǫD(ǫ)hn(ǫ)i =
(~ωD )3
Z
0
~ωD /kB T
dx
3π 4 N kB T 4
x3
.
≃
ex − 1
5θ3
(5.33)
Im letzen Schritt haben wir die obere Integrationsgrenze nach Unendlich geschoben (weil wir uns für tiefe
Temperaturen interessieren) und die Debye-Temperatur θ = ~ωD /kB eingeführt. Die Energie wächst also
69
für tiefe Temperaturen mit der vierten Potenz der Temperatur, und folglich wächst die Wärmekapazität
mit der dritten Potenz der Temperatur,
3
12π 4 N kB T
.
CV =
5
θ
Dies ist das sogenannte Debyesche Gesetz.
Für hohe Temperaturen ergibt sich
Z ∞
Z
E=
dǫǫD(ǫ)hn(ǫ)i ≃
0
∞
dǫǫD(ǫ)
0
kB T
= kB T
ǫ
Z
dǫD(ǫ) = 3N kB T ,
(5.34)
was man auch aus dem Äquipartitionstheorem erhält. Also ist die Wärmekapazität konstant,
CV ≃ 3N kB .
Dies ist das sogenannte Dulong-Petit-Gesetz.
Das Debye-Gesetz beschreibt zum Beispiel die Wärmekapazität eines Isolators bei tiefen Temperaturen. Ein Metall hat zusätzlich zum Beitrag der Phononen noch den Beitrag der Elektronen, von dem wir
gezeigt haben, dass er linear mit T anwächst.
Übungsaufgaben zu Kapitel 5
1. Betrachten Sie ein ideales Fermi- oder Bose-Gas, bei dem die Quantenzustände diejenigen eines
freien Teilchens im Volumen V sind. Zeigen Sie, dass
P V = −Φ =
2
E
3
ist, genau wie im klassischen idealen Gas. Hinweis: Drücken Sie sowohl die mittlere Energie als auch
Φ durch ein Integral über den Impuls aus. Ohne das Integral auszuführen, wechseln Sie die Variable
vom Impuls zur Einteilchenenergie. Durch eine partielle Integration im Ausdruck für Φ entsteht ein
Integral, das identisch ist mit dem Integral im Ausdruck für E.
2. Bestimmen Sie die Entropie S als Funktion der mittleren Besetzungszahlen hni i für das ideale
Fermi- und für das ideale Bose-Gas. Diskutieren Sie den klassischen Grenzfall und den Fall T → 0.
3. N freie Elektronen befinden sich bei der Temperatur T = 0 K in einem Volumen V unter dem
Einfluss eines schwachen Magnetfeldes B, so dass der Hamiltonoperator durch
X p2
2
i
H=
− µB BSi
2m ~
i
gegeben ist (µB ist das Bohrsche Magneton). Das chemische Potential muss auch bei Anwesenheit
des Feldes für alle Elektronen
gleich sein. Benutzen Sie diese Tatsache, um den Erwartungswert der
P
Magnetisierung ~2 µB i Si zu bestimmen.
4. Drücken Sie für Fermionen und für Bosonen (∆N )2 ≡ hN 2 i − hN i2 durch die mittleren Besetzungszahlen hni i aus. Diskutieren Sie die N –Abhängigkeit der relative Schwankung ∆N/N für den
klassischen Grenzfall und für den Fall T → 0.
5. Behandeln Sie das freie Photonengas als kanonisches Ensemble und berechnen Sie die Zustandssumme. Berechnen Sie aus der Zustandssumme die freie Energie, und aus der freien Energie die
Entropie, die Wärmekapazität und den Druck. Benützen Sie die Beziehung
Z ∞
π4
x3
=
.
dx x
e −1
15
0
70
6. Gehen Sie von der Beziehung (5.27) für einen elektromagnetischen Strahlungshohlraum aus.
(a) Leiten Sie die Beziehung
∂E
∂V
+P =T
T
∂P
∂T
V
her und zeigen Sie damit, dass für die Energiedichte u(T ) =
Strahlungsgesetz u(T ) = a T 4 gilt.
E(T,V )
V
das Stefan-Boltzmann-
(b) Berechnen und diskutieren Sie für einen Festkörper die Entropie S als Funktion der Temperatur
T im Rahmen der Debyeschen Näherung.
71
Kapitel 6
Reale Gase, Flüssigkeiten und
Lösungen
6.1
Virialentwicklung und van der Waals-Gas
Wir haben in dieser Vorlesung an mehreren Stellen das ideale Gas erwähnt. In einem idealen Gas haben
die Teilchen nur kinetische Energie und haben keine Wechselwirkung untereinander. In einem realen Gas
gibt es natürlich eine anziehende Kraft zwischen den Atomen, die bei genügend niedrigen Temperaturen zur Kondensation führt. Es ist unser Ziel, die Kondensation eines Gases aufgrund der anziehenden
Wechselwirkung zwischen den Atomen herzuleiten. Da sich die Zustandssumme für diese kompliziertere
Situation nicht exakt berechnen lässt, müssen wir Näherungen einführen. Wir machen im Folgenden eine
Näherung, die dann gut ist, wenn die Wechselwirkung zwischen den Teilchen schwach ist verglichen mit
ihrer kinetischen Energie, also wenn die Dichte gering oder die Temperatur hoch ist.
Wir beginnen mit der großkanonischen Zustandssumme (4.28) und zerlegen sie in ihre Beiträge für
0,1,2,. . . Teilchen:
X
µ
2µ
µN
(6.1)
Z=
ZN e kB T = 1 + Z1 e kB T + Z2 e kB T + . . . .
N
µ
Für nicht wechselwirkende Teilchen ist ZN = N1 ! Z1N , so dass Z = exp{Z1 e kB T } ist, und das großkaµ
nonische Potenzial durch Φ = −kB T ln Z = −kB T Z1 e kB T gegeben ist. Für wechselwirkende Teilchen
erhält man unter Verwendung der Taylor-Reihe für den Logarithmus den folgenden Ausdruck für das
großkanonische Potenzial:
2µ
µ
Z2
(6.2)
Φ = −kB T ln Z = −kB T Z1 e kB T + Z2 − 1 e kB T + . . . .
2
Differenzieren nach µ gibt die mittlere Teilchenzahl
2µ
µ
∂Φ
Z2
hN i = −
= Z1 e kB T + 2 Z2 − 1 e kB T + . . . .
∂µ T,V
2
Damit lässt sich das großkanonische Potenzial auch durch hN i ausdrücken:
2µ
Z12
kB T
e
+ ...
Φ = −kB T hN i − Z2 −
2
hN i2
Z12
+ ... .
= −kB T hN i − Z2 −
2
Z12
72
(6.3)
(6.4)
h
), d.h. dass Z1 proportional zum Volumen ist. Gleichung
Aus (4.22) folgt Z1 = λV3 (mit λ = √2πmk
BT
(6.4) stellt also die ersten Terme einer Entwicklung in der Dichte ρ = hN i/V dar, die sogenannte Virialentwicklung. Durch Anwendung der Gibbs-Duhem-Relation Φ = −P V gelangt man daraus auf die
Zustandsgleichung
P = kB T ρ 1 + B(T )ρ + C(T )ρ2 + . . . .
(6.5)
Der Koeffizient von ρn in der eckigen Klammer heißt (n + 1)-ter Virialkoeffizient. Die führende Korrektur
zur Zustandsgleichung des idealen Gases wird durch den zweiten Virialkoeffizienten
1 2 V
B = − Z2 − Z1
2
Z12
bestimmt. Ihn wollen wir nun für ein Gas aus miteinander wechselwirkenden Teilchen ausrechnen. Unser
Ziel ist es, die van-der-Waals-Gleichung zu erhalten. Wenn wir die Zweiteilchenwechselwirkung mit w(~x1 −
~x2 ) notieren, ist
Z2
=
=
=
=
2 2
Z
p1 +p2
x1 −~
x2 )
−β
1
2m +w(~
3
3
3
3
d x1 d x2 d p1 d p2 e
2h6
Z
Z
p2 +p2
1
3
3
−β( 12m 2 )
d
p
d
p
e
d3 x1 d3 x2 e−βw(~x1 −~x2 )
1
2
2h6
Z
1
d3 x1 d3 x2 e−βw(~x1 −~x2 )
2λ6
Z
V
d3 ye−βw(~y) .
2λ6
(6.6)
Also ist der zweite Virialkoeffizient
B(T ) = −
1
2
Z
d3 y e−βw(~y) − 1 .
(6.7)
Für die weitere Rechnung benötigen wir einen Ausdruck für das Zweiteilchenpotenzial w(~y ). Da die Atome
sich nicht durchdringen können, machen wir den Ansatz w(~y ) = ∞ für y < σ. Außerdem nehmen wir
an, dass für y > σ die Anziehungskraft zwischen den Atomen schwach ist, also |βw(~y )| ≪ 1. Damit wird
(6.7) zu
Z ∞
1
4π
a
B(T ) ≃ − − σ 3 + 4π
drr2 (−βw(r)) ≡ b −
.
(6.8)
2
3
kB T
σ
Damit wird die Zustandgleichung (6.5) zu
aρ
P = kB T ρ 1 + bρ −
kB T
oder (mit der Notation v = 1/ρ für das Volumen pro Teilchen)
P v 2 = kB T v + kB T b − a ,
woraus sich durch Umformung die van-der-Waals-Gleichung ergibt:
P+
a
v2
=
=
≃
kB T (v + b)
v2
b
kB T
1+
v
v
kB T
kB T
=
.
v(1 − b/v)
v−b
73
(6.9)
In der letzten Zeile haben wir wie vorher berücksichtigt, dass die Dichte klein ist und damit auch b/v. Die
anschauliche Bedeutung der van der Waals-Gleichung ist die folgende: Gegenüber der idealen Gasgleichung
ist das für die Teilchen verfügbare Volumen reduziert um das durch die Undurchdringlichkeit der Atome
verbotene Volumen. Der Druck ist gegenüber der idealen Gasgleichung aufgrund der Anziehungskraft
zwischen den Teilchen reduziert um a/v 2 . Van der Waals hat diese Gleichung 1873 durch gute Intuition
hergeleitet. Wir haben sie hier formal aus der Virialentwicklung hergeleitet. (Bemerkung: Die letzte
Umformung in Gleichung (6.9) hat aus der Virialentwicklung, die wir nur bis zur Ordung ρ2 durchgeführt
haben, eine Beziehung gemacht, die auch einen ρ3 -Term enthält (siehe die nächste Gleichung). Dieser
Term ist essenziell, um eine auch für größere Dichten qualitativ richtige Beziehung zwischen P und ρ zu
bekommen. Eine Virialentwicklung bis zur Ordnung ρ3 wäre da noch besser.)
Im Folgenden untersuchen wir die Eigenschaften der van der Waals-Gleichung in der Nähe des kritischen Punktes. Ausgedrückt durch die Dichte hat sie die Form
ρ2
ρ(kB T + bP )
P
+
−
= 0.
(6.10)
b
ab
ab
Dies ist eine Gleichung dritter Ordnung, die je nach den Werten von Druck und Temperatur eine oder
drei Lösungen für die Dichte hat. Die Lösung dieser Gleichung in der P -ρ-Ebene ist für verschiedene
Temperaturen in Abbildung 6.1 gezeigt. Der Bereich negativer Kompressibilität ist unphysikalisch, und
ρ3 −
T=TC
T>TC
T<TC
p
ρ
Abbildung 6.1: Lösung der Gleichung (6.10) für vier verschiedene Temperaturen. Die gepunktete Linie in
den unteren beiden Kurven ist die Maxwell-Konstruktion.
man ersetzt die Kurven in diesem Bereich durch einen waagrechten Abschnitt, wie durch die punktierten
Linien angedeutet. Das ist die sog. Maxwellkonstruktion. Ihre physikalische Interpretation ist die folgende:
in dem waagrechten Bereich liegt eine Koexistenz der beiden Phasen flüssig und gasförmig vor, so dass
man bei konstantem Druck die Gesamtdichte erhöhen kann, indem man Gas verflüssigt. Die vertikale
Position der waagrechten Linie wird durch die Bedingung bestimmt, dass die freie Energie minimiert
wird. Dies ist genau dann der Fall, wenn das Integral über die durchgezogene und die gestrichelte Kurve
im P −V -Diagramm (nicht im hier gezeigten p−̺-Diagramm) identisch ist. Die resultierende freie Energie
ist niedriger als die zu der unphysikalischen Lösung gehörende.
Am kritischen Punkt Pc , Tc fallen die drei Lösungen der Gleichung (6.10) zusammen. Sie muss also
die folgende Form haben:
(ρ − ρc )3 = 0 .
Durch Vergleich mit Gleichung (6.10) erhält man daraus die kritischen Werte ρc = 1/3b, Pc = a/27b2 ,
kB Tc = 8a/27b. In den dimensionslosen Variablen
p̂ = (P − Pc )/Pc , t = (T − Tc )/Tc , ρ̂ = (ρ − ρc )/ρc wird Gleichung (6.10) zu
3ρ̂3 + p̂ρ̂ − 2p̂ + 8(ρ̂ + 1)t = 0.
74
(6.11)
Diese Gleichung hängt nicht von den Werten der mikroskopischen Parameter a und b ab.
Wir bestimmen zunächst die Koexistenzkurve p̂(t), längs derer die beiden Phasen zusammen existieren. Wir lösen Gleichung (6.11) nach p̂ auf und entwickeln in ρ̂. Dies gibt
p̂ =
3 3
3
ρ̂ + 4t( ρ̂ + 1) + O(ρ̂4 , tρ̂2 ) .
2
2
Die Funktion p̂(ρ̂) (für festes t) ist punktsymmetrisch um (ρ̂ = 0, p̂ = 4t), und deshalb liegt der aus der
Maxwellkonstruktion resultierende flache Kurvenabschnitt√bei p̂ = 4t (für negatives p̂ und t). Die beiden
Dichtewerte auf der Koexistenzkurve p̂ = 4t sind ρ̂ = ±2 −t. Die Differenz der beiden Dichten ist der
sogenannte Ordnungsparameter, der oberhalb des kritischen Punktes verschwindet und unterhalb dem
Potenzgesetz ∆ρ = 4ρc (−t)β genügt. β hat den Wert 1/2 und ist ein sogenannter kritischer Exponent.
Die Kompressibilität berechnet sich aus
∂P
∂ p̂
9 2
−1
(κT ) = ρ
≃ Pc
≃ Pc
ρ̂ + 6t .
∂ρ T
∂ ρ̂ t
2
Für t > 0 und ρ̂ = 0 ist (κT )−1 ≃ 6tPc . Für t < 0 ist (κT )−1 ≃ 12|t|Pc . Wir haben also ein weiteres
Potenzgesetz κT ∝ |t|−γ mit γ = 1 gefunden, wobei der Vorfaktor der Divergenz für T < Tc halb so groß
ist wie für T > Tc . Der Zusammenhang zwischen p̂ und ρ̂ für t = 0 ist ebenfalls ein Potenzgesetz mit dem
Exponenten δ = 3.
Zum Schluss wollen wir die freie Energie und die spezifische Wärme berechnen. Mit den Beziehungen
F = Φ + µN und (6.3) ergibt sich nach Entwicklung in ρ
aρ
+ kB N T ln(ρλ3 ) .
F = kB T N −1 + bρ −
kB T
Die Wärmekapazität ist folglich
CV = −T
∂2F
∂T 2
V
=
3
N kB .
2
Im Allgemeinen folgt die Wärmekapazität in der Nähe eines kritischen Punktes einem Potenzgesetz der
Form CV ∝ |T − Tc |−α . Im van der Waals Gas ist also α = 0. Für T < Tc haben wir eine Koexistenz der
beiden Phasen. Die Rechnung für diesen Fall findet sich z.B. in dem Buch von F. Schwabl. Es ergibt sich
CV = 6N kB . Die Wärmekapazität macht also einen Sprung bei Tc .
Die kritischen Exponenten, die wir hier im Rahmen der van der Waals-Theorie hergeleitet haben, sind
von den exakten Exponenten verschieden. Der Grund hierfür liegt darin, dass wir angenommen haben,
dass jedes Teilchen dieselbe Anziehung von den anderen Teilchen erfährt. Fluktuationen in der Dichte
sind also vernachlässigt. Diese Fluktuationen sind aber dafür verantwortlich, dass die wahren kritischen
Exponenten von den hier hergeleiteten verschieden sind.
6.2
Verdünnte Lösungen
Zum Abschluss dieses Kapitels betrachten wir Lösungen, z.B. von Salz in Wasser. Wir werden zunächst
einen Ausdruck für die Änderung des Drucks und des chemischen Potenzials des Lösungsmittels aufgrund
der gelösten Substanz herleiten. Dann werden wir zwei Anwendungen, den osmotischen Druck und die
Gefrierpunktserniedrigung daraus ableiten.
6.2.1
Zustandssumme, Druck und chemisches Potenzial
Wir gehen davon aus, dass die Konzentration der gelösten Substanz sehr gering ist. Dann gibt es keine
Wechselwirkung zwischen den gelösten Teilchen, und wir können uns ähnlich wie bei der Virialentwicklung
auf die führenden Terme in der Dichte der gelösten Substanz beschränken.
75
Die großkanonische Zustandssumme ist
Z = Z0 (T, V, µ) + e
µ′ /kB T Z1 (T, V, µ)
+ ... .
Z1 (T, V, µ) + . . . = Z0 (T, V, µ) 1 + e
Z0 (T, V, µ)
µ′ /kB T
(6.12)
Hier ist µ das chemische Potenzial der Lösungsmittelteilchen und µ′ das chemische Potenzial der gelösten
Teilchen. ZN ′ (T, V, µ) ist die Zustandssumme bei festgehaltener Teilchenzahl N ′ der gelösten Substanz.
′
Wenn die gelöste Substanz eine geringe Konzentration hat, ist eµ /kB T klein, und die Entwicklung kann
nach den oben angegebenen ersten beiden Termen abgebrochen werden.
Das großkanonische Potenzial ist somit
Φ
′
=
−kB T ln Z = −kB T ln Z0 (T, V, µ) − kB T eµ /kB T
≡
V φ0 (T, µ) + V eµ /kB T φ1 (T, µ)
=
Z1 (T, V, µ)
+ ...
Z0 (T, V, µ)
′
−P V .
(6.13)
Das Potenzial φ0 (T, µ) ist das großkanonischen Potenzial ohne gelöste Teilchen, geteilt durch das Volumen
des Systems. Die mittlere Zahl von Lösungsmittelteilchen N und die mittlere Zahl von gelösten Teilchen
N ′ hängen mit diesen Potenzialen zusammen über die Beziehungen
′
∂Φ
∂φ0 (T, µ)
= −V
+ O(eµ /kB T )
∂µ
∂µ
(6.14)
′
V µ′ /kB T
e
φ1 (T, µ) + O(e2µ /kB T ) .
kB T
(6.15)
N =−
und
N′ = −
Wir berechnen als nächstes einen Ausdruck für den Druck: Aus (6.13) folgt
′
−P = φ0 (T, µ) + eµ /kB T φ1 (T, µ) = −P0 −
N′
kB T + . . . ,
V
wobei P0 (T, µ) der Druck des reinen Lösungsmittels (bei der Temperatur T und dem chemischen Potenzial
′
V
µ) ist. Wenn wir noch die Konzentration c = N
N der gelösten Teilchen und das spezifischen Volumen v = N
des Lösungsmittels einführen, erhalten wir den Ausdruck
c
P = P0 (T, µ) + kB T + O(c2 ) .
v
(6.16)
Dieses Ergebnis formen wir nun um in einen Ausdruck für das chemische Potenzial, wobei wir das
chemische Potenzial in Abwesenheit der gelösten Substanz µ0 nennen (bei demselben Druck P ):
P
c
= P0 (T, µ0 + (µ − µ0 (T, P )) + kB T + . . .
v
∂P0
c
= P0 (T, µ0 ) + (µ − µ0 (T, P ))
+ kB T + . . .
∂µ µ0 ,T v
∂P0
c
= P + (µ − µ0 (T, P ))
+ kB T + . . .
∂µ µ0 ,T v
c
1
= P + (µ − µ0 (T, P )) + kB T + . . . .
v v
(6.17)
Den letzten Schritt kann man mit der Gibbs-Duhem Beziehung in der Form −V dP0 + SdT + N dµ0 = 0
ausführen. Aus (6.17) folgt schließlich
µ = µ0 − kB T c .
(6.18)
76
6.2.2
Der osmotische Druck
Zwei Lösungen aus denselben Substanzen (z.B. Salz in Wasser) seien durch eine semipermeable Wand
getrennt. Ein Beispiel hierfür ist die Zellwand. Die semipermeable Wand sei nur für das Lösungsmittel
durchlässig. Im Gleichgewicht sind die chemischen Potenziale des Lösungsmittels auf beiden Seiten der
Wand gleich, aber nicht die der gelösten Substanz. Da der Druck gemäß (6.17) mit der Konzentration
der gelösten Substanz zusammenhängt, beträgt die Druckdifferenz
∆P = P1 − P2 =
c1 − c2
kB T .
v
Wenn auf der einen Seite das reine Lösungsmittel vorliegt und auf der anderen Seite N ′ Moleküle im
Volumen V gelöst sind, wird dies zu
∆P =
c
N′
kB T =
kB T .
v
V
(6.19)
Dies ist die sogenannte van’t Hoff-Formel, die der Zustandgleichung des idealen Gases sehr ähnlich ist. Die
gelösten Teilchen machen einen Beitrag zum Druck, der mit dem eines idealen Gases derselben Teilchenzahl identisch ist. Dies ist nicht verwunderlich, da wir sowohl bei der Herleitung der Zustandsgleichung
des idealen Gases als auch bei der Herleitung in diesem Kapitel angenommen haben, dass die Teilchen
nicht miteinander wechselwirken.
6.2.3
Gefrierpunktserniedrigung
Zum Abschluss dieses Kapitels leiten wir noch die Gefrierpunktserniedrigung her. Anschaulich lässt sie
sich folgender Maßen begründen: Wenn eine Substanz zu einem Lösungsmittel hinzugefügt wird, erhöht
sich die Entropie, da ja die gelösten Teilchen ebenfalls einen Beitrag zur Entropie leisten. Damit erniedrigt
sich die freie Enthalpie G = E − T S + P V . Aus der Thermodynamik weiß man, dass bei festem Druck
und fester Temperatur die freie Enthalpie minimiert wird. Also wird das System diejenige Phase wählen,
die die niedrigere freie Enthalpie hat.
Dass die Freie Enthalpie minimiert wird, zeigt man ausgehend vom zweiten Hauptsatz dS ≥ δQ
= T1 (dE + P dV ) .
T
Man betrachtet ein System, in dem der Druck und die Temperatur vorgegeben sind, und ersetzt dE durch
d(G + T S − P V ) = dG + T dS + SdT − P dV − V dP , mit dem Ergebnis
dG ≤ −SdT + V dP .
Daraus folgt, dass in einem System mit fester Temperatur und festem Druck die freie Enthalpie abnimmt, bis sie
im Gleichgewicht ihr Minimum erreicht.
Wenn die flüssige Phase nun durch die gelöste Substanz eine erniedrigte freie Enthalpie hat, wird sie
über einen größeren Temperaturbereich als vorher eine niedrigere Enthalpie als die feste oder gasförmige
Phase haben. Also erniedrigt sich der Gefrierpunkt und erhöht sich der Siedepunkt. (Dieses Argument gilt,
wenn in der festen und gasförmigen Phase die gelöste Substanz nicht oder nur in geringerer Konzentration
als in der Flüssigkeit vorliegt.)
Wir beginnen mit Gleichung (6.18), angewandt auf die flüssige und die feste Phase:
µfl = µfl0 (P, T ) − kB T cfl
und
µfest = µfest
0 (P, T ) − kB T cfest .
Im Gleichgewicht müssen die beiden chemischen Potenziale gleich sein, woraus folgt
µfl0 (P, T ) − kB T cfl = µfest
0 (P, T ) − kB T cfest .
(6.20)
Für das reine Lösungsmittel erhält man den Zusammenhang von Schmelzdruck P0 und Schmelztemperatur T0 aus
µfl0 (P0 , T0 ) = µfest
0 (P0 , T0 ) .
77
Durch die gelöste Substanz sind P0 und T0 um einen kleinen Wert ∆P und ∆T verschoben. Entwickeln
von Gleichung (6.20) in ∆P und ∆T ergibt
fl fest fest fl ∂µ0
∂µ0
∂µ0
∂µ0
∆P +
∆T −kB T cfl =
∆P +
∆T −kB T cfest . (6.21)
∂P P0 ,T0
∂T P0 ,T0
∂P
∂T
P0 ,T0
P0 ,T0
Aus dG = −SdT + V dP + µdN und G = µN folgt
∂G
∂µ
S=−
=−
N
∂T P,N
∂T P
und
V =
∂G
∂P
=
T,N
∂µ
∂P
(6.22)
N.
(6.23)
T
Aus Gleichung (6.22) folgt
∂µ
∂T
P,N
=−
S
≡ −s
N
und aus (6.23)
∂µ
∂P
=
T,N
V
≡ v.
N
Damit wird Gleichung (6.21) zu
−(sfest − sfl )∆T + (vfest − vfl )∆P = (cfest − cfl )kB T .
Ausgedrückt durch die Schmelzwärme q = T (sfl − sfest ) wird dies zu
q
∆T + (vfest − vfl )∆P = (cfest − cfl )kB T .
T
Die Änderung der Übergangstemperatur bei vorgegebenem Druck erhalten wir, indem wir ∆P = 0 setzen:
∆T =
kB T 2
kB T 2
(cfest − cfl ) ≃ −
cfl < 0 .
q
q
(6.24)
Im letzten Schritt sind wir davon ausgegangen, dass cfest ≪ cfl ist, also dass die feste Phase praktisch
keine gelösten Teilchen enthält. Da beim Schmelzen Wärme aufgenommen wird, ist q > 0, und damit ist
∆T < 0. Der Schmelzpunkt der Flüssigkeit wird durch das Lösen einer Substanz in ihr erniedrigt.
Übungsaufgaben zu Kapitel 6
∂ F
1. Zeigen Sie, dass allgemein die Beziehung E = −T 2 ∂T
T V,N gilt und berechnen Sie mit Hilfe dieser
Beziehung einen Ausdruck für die Energie des van der Waals-Gases. Berechnen Sie die Entropie des
van der Waals-Gases.
2. N Teilchen, die sich in einer Dimension bewegen können und einer internen Wechselwirkung W
unterliegen, befinden sich in einem Kasten“ der Länge L. Die Hamiltonfunktion des Systems lautet:
”
N
X p2
1X
α
H=
+ U (xα ) +
W (|xα − xβ |),
2m
2
α=1
α6=β
U (x) =
U0 : 0 < x < L
,
∞ : sonst
W (x) =
∞
0
: x<b
: sonst
Berechnen Sie den Druck als Funktion von (T, N, L) in klassischer Näherung.
78
3. In Rahmen der Molekularfeld- Näherung für reale Gase ersetzt man die Wechselwirkung zwischen
den Teilchen durch ein effektives gemitteltes Potential
U=
n∞
−aN/V
: in einem Teilvolumen bN
: sonst
.
( a, b positive Konstanten). Berechnen Sie in klassischer Näherung (d.h. nur mit dem Faktor 1/N !
für die Ununterscheidbarkeit der Teilchen) mit diesem Ansatz die freie Energie F und daraus den
Druck P (T, V, N ).
79
Kapitel 7
Phasenübergänge
7.1
7.1.1
Phasengleichgewichte
Extremalbedingungen
Der zweite Hauptsatz besagt, dass in einem isolierten System die Entropie im Gleichgewicht maximal ist.
Wir leiten nun daraus Extremaleigenschaften der thermodynamischen Potenziale her. Aus diesen kann
man dann Gleichgewichtsbedingungen für multikomponentige Systeme in verschiedenen Phasen herleiten.
Wir betrachten in diesem Abschnitt Systeme aus mehreren Teilchensorten und Systeme aus mehreren
Phasen, wie zum Beispiel Wasser und Dampf. Wir setzen voraus, dass kein Teilchenaustausch mit der
Umgebung stattfindet, aber wir lassen Teilchenaustausch zwischen den verschiedenen Phasen zu. Wir
nehmen an, dass im System der Druck und die Temperatur wohl definiert sind, aber dass die Teilchenkonzentrationen oder die Anteile der verschiedenen Phasen anfangs nicht im Gleichgewicht sind.
Wir beginnen mit dem zweiten Hauptsatz
1
δQ
= (dE + P dV ) .
(7.1)
T
T
Für festes E und V (also ein isoliertes System) strebt S also einem Maximum zu. Das Gleichheitszeichen
gilt nur im Gleichgewicht, für das wir ja die Beziehung dE = T dS − P dV hergeleitet haben. Solange
das System nicht im Gleichgewicht ist, kann die Entropieänderung größer sein als (dE + P dV )/T . Nun
betrachten wir ein System in thermischem Kontakt mit einem Bad. Wir ersetzen dE in (7.1) durch
d(F + T S) = dF + T dS + SdT und erhalten
dS ≥
dF ≤ −SdT − P dV .
(7.2)
Für festes T und V ist die Änderung der freien Energie also ≤ 0. Die freie Energie nimmt folglich ab,
bis sie ihr Minimum erreicht hat. Im Gleichgewicht ist die freie Energie eines Systems in thermischem
Kontakt mit einem Bad daher minimal.
In der Chemie sind oft Druck und Temperatur vorgegeben. Daher betrachten wir noch die freie
Enthalpie G = E − T S + P V . Ganz analog zur vorigen Rechnung erhalten wir
dG ≤ −SdT + V dP
(7.3)
und schließen daraus, dass in einem System mit fester Temperatur und festem Druck die freie Enthalpie
abnimmt, bis sie im Gleichgewicht ihr Minimum erreicht.
7.1.2
Phasengrenzkurven
Die verschiedenen chemischen Substanzen eines Systems nennt man Komponenten. Bei einer einheitlichen
chemischen Substanz spricht man demgemäß von einem einkomponentigen System oder einem Einstoffsystem. Die Komponenten eines Systems können in verschiedenen physikalischen Erscheinungsformen, die
80
man als Phasen bezeichnet, auftreten. Dies sind die feste, die flüssige und die gasförmige Phase. Die feste
und die flüssige Phase können noch in weitere Phasen mit unterschiedlichen physikalischen Eigenschaften
aufspalten. Wenn zwei Phasen nebeneinander im Gleichgewicht vorliegen, müssen T , P und µ gleich sein.
Seien µ1 (P, T ) und µ2 (P, T ) die chemischen Potenziale der ersten und zweiten Phase. Aus
µ1 (P, T ) = µ2 (P, T )
ergibt sich durch Auflösen nach P die Phasengrenzkurve
P = P0 (T ) .
Die Koexistenz zweier Phasen ist also längs einer Linie im P -T -Diagramm möglich. Beispiele für Phasengrenzkurven sind die Schmelzkurve (flüssig-fest), die Dampfdruckkurve (flüssig-gasförmig) und die
Sublimationskurve (fest-gasförmig). Abbildung 7.1 zeigt ein für die meisten einfachen Substanzen typisches Phasendiagramm. Der Punkt, an dem die drei Linien sich treffen, heißt der Tripelpunkt. Die
P
flüssig
fest
gasförmig
T
Abbildung 7.1: Phasen einer einfachen Substanz im P -T -Diagramm.
Phasengrenze zwischen der flüssigen und gasförmigen Phase endet im sogenannten kritischen Punkt. Die
Schmelzkurve kann sowohl nach rechts als auch nach links geneigt sein, je nachdem, ob sich die Substanz
beim Schmelzen ausdehnt oder zusammenzieht. Abbildung 7.2 auf der nächsten Seite zeigt die flüssige
und gasförmige Phase und den Koexistenzbereich im V -T -Diagramm. Die gepunktete Linie ist ein Weg,
den das System nimmt, wenn man bei festem Druck die Flüssigkeit erhitzt. Wenn die zu diesem Druck
gehörende Temperatur auf der Dampfdruckkurve erreicht ist, fängt die Flüssigkeit an zu verdampfen,
wobei das Volumen sich weiter erhöht. Während des Verdampfens bleibt die Temperatur konstant, da
alle zugeführte Wärme zum Umwandeln von Flüssigkeit in Gas verwendet wird. Wenn alle Füssigkeit
verdampft ist, haben wir ein Gas, das sich bei Erwärmen weiter ausdehnt.
7.1.3
Clausius-Clapeyron-Gleichung
Beim Übergang von einer Phase in die andere ändert sich die Entropie und das Volumen. Diese beiden Änderungen stehen in einer Beziehung zur Dampfdruckkurve, die wir im Folgenden herleiten. Wir
beginnen mit
µ1 (P0 (T ), T ) = µ2 (P0 (T ), T )
und differenzieren nach T , wobei wir verlangen, dass das System auf der Dampfdruckkurve P0 (T ) bleibt:
∂µ1
dP0
dP0
∂µ2
∂µ1
∂µ2
=
.
(7.4)
+
+
∂P T dT
∂T P
∂P T dT
∂T P
81
T
Tc
flüssig
gasförmig
flüssig und
gasförmig
V
Abbildung 7.2: Die flüssige und gasförmige Phase und der Koexistenzbereich im V -T -Diagramm.
In jeder der beiden Phasen gilt außerdem dG = −SdT + V dP + µdN und G = µN und damit
∂G
∂µ
S=−
=−
N
∂T P,N
∂T P
und
V =
∂G
∂P
=
T,N
∂µ
∂P
N.
(7.5)
(7.6)
T
Eingesetzt in (7.4) führt das mit der Notation vi = Vi /Ni und si = Si /Ni auf
v1
dP0
dP0
− s1 = v2
− s2 ,
dT
dT
oder (mit ∆s = s2 − s1 und ∆v = v2 − v1 )
dP0
∆s
QL
=
≡
dT
∆v
T ∆v
(7.7)
Dies ist die Clausius-Clapeyron-Gleichung. Sie drückt die Steigung der Phasengrenzkurve durch das
Verhältnis der Entropie- und Volumenänderung beim Phasenübergang aus. QL = T ∆s ist die Wärmemenge, die pro Teilchen benötigt wird, um die Substanz aus der Phase 1 in die Phase 2 überzuführen.
7.1.4
Gibbs-Phasenregel und Phasengleichgewicht
Wir betrachten nun Systeme, die mehrere Komponenten enthalten. Ein solches System kann in mehr Phasen vorliegen als ein einkomponentiges System, da die verschiedenen Phasen verschiedene Komponenten
enthalten können.
Innerhalb einer Phase haben wir eine homogene Mischung der Komponenten. Wir verallgemeinern
zunächst die thermodynamischen Potenziale auf solche homogenen Gemische von n Komponenten. Die
Teilchenzahl N muss durch n verschiedene Teilchenzahlen Ni , i = 1, . . . , n ersetzt werden. Folglich gibt
es n verschiedene chemische Potenziale
∂S
.
µi = −T
∂Ni E,V,Nk6=i
Der erste Hauptsatz lautet dann
dE = T dS − P dV +
82
n
X
i=1
µi dNi ,
(7.8)
und die Gibbs-Duhem-Beziehung wird zu
E = TS − PV +
n
X
µi N i ,
(7.9)
i=1
und auch die Verallgemeinerung der anderen Beziehungen enthält jeweils die Summe über alle i.
Nun betrachten wir verschiedene Phasen dieser n Komponenten. Im Gleichgewicht müssen in allen
Phasen die Temperatur, der Druck und alle n chemischen Potenziale übereinstimmen. Wir wollen berechnen, wieviele verschiedene Phasen koexistieren können. Die Zahl der Phasen sei r. Wir zählen nun
ab, wieviele Variablen das System hat, und wieviele durch die Gleichgewichtsbedingung voneinander
abhängig sind. Die verbleibende Zahl unabhängiger Variablen ist die Zahl der Freiheitsgrade, f . Wir
haben T , P und µ1 . . . µn als Variablen, also 2 + n Variablen. Innerhalb jeder Phase gilt außerdem die
Gibbs-Duhem-Beziehung. Wie wir gezeigt haben, folgt aus der Gibbs-Duhem-Beziehung, dass T , P , und
die µi nicht unabhängig voneinander sind. (Viele Lehrbücher erwähnen statt der Gibbs-Duhem Beziehung
P N (ν)
die Bedingung, dass die Summe aller Teilchenkonzentrationen i Ni(ν) in Phase ν Eins sein muss.)
Also bleiben
f =2+n−r
(7.10)
Freiheitsgrade. Beziehung (7.10) ist die Gibbssche Phasenregel.
Betrachten wir ein paar Beispiele.
• Einkomponentiges System: n = 1, f = 3 − r. Es ist r = 1, 2, oder 3 möglich. Für r = 1 ist f = 2,
und wir können T und P frei wählen. Im T -P -Diagramm (z.B. Abb 7.1 auf Seite 81) belegt jede
Phase folglich eine Fläche. Für r = 2 ist f = 1, und P und T können nicht unabhängig variiert
werden. Zwei Phasen können folglich längs einer Linie im P -T -Diagramm koexistieren. Für r = 3
ist f = 0, und wir haben keine Wahlmöglichkeit für die Variablen. Die Koexistenz von drei Phasen
ist nur an einem Punkt möglich.
• Zweikomponentiges System: Mischung von Salmiak und Wasser, NH4 Cl+H2 O. Es gibt vier mögliche
Phasen: Wasserdampf, eine flüssige Mischung, Eis (mit nur wenig Salz) und Salz (mit etwas Wasser).
Wenn beide Komponenten vertreten sind, gibt es vier mögliche Kombinationen von Phasen:
– r = 1: eine flüssige Phase mit f = 3: Druck, Temperatur und das Mischungsverhältnis sind
unabhängige Freiheitsgrade.
– r = 2: eine flüssige Phase zusammen mit Wasserdampf, f = 2. Wenn P und T festgelegt sind,
gibt es keine Wahlmöglichkeit für die Konzentration.
– r = 3 Flüssige Phase + Wasserdampf + eine der beiden festen Phasen, f = 1: Nur eine
Variable, z.B. die Temperatur, ist frei wählbar.
– r = 4 Flüssige Phase + Wasserdampf + Eis + Salz: f = 0, also ist dies nur an einem Punkt,
dem sogenannten eutektischen Punkt möglich.
Abbildung 7.3 auf der nächsten Seite zeigt das Phasendiagramm der flüssigen und festen Phasen.
Wenn wir die Existenz einer Wasserdampfphase fordern oder in Abwesenheit von Dampf den Druck
festlegen, bleiben zwei Variablen, nämlich die Salmiakkonzentration c und die Temperatur. Bei
c = 0 ist der Schmelzpunkt von reinem Eis zu sehen, und bei c = 1 der von reinem Salz. Man sieht,
dass die Lösung einen niedrigeren Gefrierpunkt hat als die reinen Flüssigkeiten. Das werden wir
später in der Vorlesung noch begründen. Wenn die Konzentration des NH4 Cl im Eis höher wird
als im Phasendiagramm erlaubt, wird Salz (bei niedriger Temperatur) oder Flüssigkeit (bei höherer
Temperatur) abgeschieden. Wenn die Konzentration des NH4 Cl in der Flüssigkeit höher wird als
im Phasendiagramm erlaubt, wird ebenfalls Salz abgeschieden. Wenn sie zu niedrig wird, wird Eis
abgeschieden. Eutektische Mischungen treten immer dann auf, wenn zwischen den beiden festen
Phasen eine Mischbarkeitslücke besteht und die freie Energie der Flüssigkeitsmischung niedriger ist
als die der beiden festen Phasen.
83
T
Flüssigkeit
Salz
und Fl.
Eis und
Eis Flüssigkeit
Salz
Eis und Salz
1c
0
Abbildung 7.3: Phasendiagramm eines Gemisches aus Salmiak und Wasser.
Kältemischungen nützen die speziellen Eigenschaften eutektischer Systeme aus. Die eutektische
Temperatur von NaCl und Wasser ist bei -21o C, also weit unterhalb des Gefrierpunktes von Wasser. Wenn man NaCl und Eis bei einer Temperatur von 0o C zusammenbringt, sind sie nicht im
Gleichgewicht. Es wird Eis schmelzen, und in dem Eis löst sich Salz. Die Konzentration ist allerdings viel zu hoch, um mit dem Eis im Gleichgewicht zu sein, und es schmilzt noch mehr Eis. Dabei
wird Wärme verbraucht, und die Temperatur erniedrigt sich. Dieser Prozess setzt sich so lange
fort, bis die Temperatur des eutektischen Punkts erreicht ist. Dann sind Eis, hydriertes Salz und
die Flüssigkeit im Gleichgewicht. Diese Kältemischung bleibt selbst bei Wärmezufuhr konstant auf
-21oC, da die Wärmezufuhr zu dem Schmelzen von weiterem Eis führt.
7.2
Einführung in Phasenübergänge
An einem Phasenübergang hat die freie Energie oder eine ihrer Ableitungen eine Singularität. Die Singularität kann ein Sprung sein, ein Knick, oder eine Divergenz ins Unendliche. Man beobachtet dort meist
einen scharfen Übergang in den Eigenschaften einer Substanz. Ein Beispiel ist der Flüssig-Gas-Übergang,
der in Abbildung 7.4 im Phasendiagramm des Wassers zu sehen ist. Längs der Grenzlinien findet ein
Abbildung 7.4: Phasendiagramm des Wassers, schematisch.
Phasenübergang erster Ordnung statt, d.h. ein Phasenübergang, bei dem eine erste Ableitung der freien
84
Energie unstetig ist. In unserem Beispiel hat die Entropie
∂G
S=−
∂T P
einen Sprung, und folglich wird bei der Kondensation oder beim Frieren die latente Wärme ∆Q = T ∆S
frei. Das Hauptinteresse dieses Kapitels gilt dem kritischen Punkt, an dem der Flüssig-Gas-Phasenübergang verschwindet. An diesem Punkt findet ein kontinuierlicher Phasenübergang (d.h. ein Phasenübergang zweiter oder höherer Ordnung) statt, und jenseits dieses Punktes gibt es nur noch eine Phase, die
man als sehr dichtes Gas oder eine sehr energiehaltige Flüssigkeit verstehen kann.
Ein weiteres bekanntes Beispiel für einen Phasenübergang ist der Ferromagnet. Sein Phasendiagramm
ist in Abbildung 7.5 gezeigt. Die beiden Phasen, zwischen denen der Phasenübergang erster Ordnung
stattfindet, sind diejenigen mit positiver und mit negativer Magnetisierung. Oberhalb der kritischen
Temperatur (der Curie-Temperatur) gibt es diesen Phasenübergang nicht mehr.
Abbildung 7.5: Phasendiagramm eines einfachen Ferromagneten.
Weitere Beispiele für Phasenübergänge sind der Übergang zwischen Normalleiter und Supraleiter, der
Übergang zum Antiferromagneten, die Entmischung von binären Flüssigkeiten, Ordnungs-Unordnungsübergänge in Kristallen, die Phasenübergänge von Flüssigkristallen und von Lipidmolekülen in Wasser
und die Mikrophasenseparation von Diblock-Copolymeren. Die Abbildungen 7.6 bis 7.9 illustrieren einige
dieser Beispiele.
Im Allgemeinen wächst der Grad der Ordnung unterhalb des kritischen Punktes. Die Ursache hierfür
ist die Konkurrenz zwischen der Entropie und der Energie. Meist bedeutet mehr Ordnung niedrigere
Entropie und niedrigere Energie. Aus der Beziehung F = E − T S erkennt man, dass bei tieferen Temperaturen die freie Energie weniger stark von der Entropie abhängt, so dass die geordnete Phase mit der
niedrigeren Energie auch die niedrigere freie Energie hat. Der Übergang zu höherer Ordnung bedeutet
das Brechen einer Symmetrie. Beim Ferromagneten ist dies die Symmetrie zwischen den verschiedenen
Orientierungen der Magnetisierung.
Phasenübergänge haben gewöhnlich einen Ordnungsparameter, der unterhalb der kritischen Temperatur von Null verschieden ist und oberhalb verschwindet. Für den Flüssig-Gas-Übergang ist dies die
Dichtedifferenz zwischen den beiden Phasen, und für den Ferromagneten ist dies die Magnetisierung.
Oft gibt es ein “Feld”, das einen Übergang zwischen den verschiedenen möglichen Tieftemperaturphasen
veranlasst. Im Ferromagneten ist dies das Magnetfeld, im Flüssig-Gas-System der Druck. Oberhalb der
kritischen Temperatur ruft das Feld ebenfalls eine Symmetriebrechung hervor (sofern der Phasenübergang mit einer Symmetriebrechung verbunden ist). In vielen Systemen kann man das “Feld” theoretisch
definieren, aber oft lässt es sich nicht auf einfache Weise experimentell realisieren. Man denke z.B. an
den Ordnungsübergang in β-Messing, wo das “Feld” die Zinkatome auf das eine Untergitter und die
Kupferatome auf das andere Untergitter ziehen müsste.
85
Zn
Cu
Abbildung 7.6: Links: Die beiden möglichen Orientierungen des NH+
4 -Tetraeders in Ammoniumchlorid
(NH4 Cl). Die Chloratome auf dem kubischen Gitter sind durch leere Kreise dargestellt, der Stickstoff und
Wasserstoff durch größere und kleinere schwarze Punkte. Unterhalb der kritischen Temperatur bevorzugen
die Tetraeder, die im Zentrum der Chlorwürfel sitzen, eine gleiche Orientierung aller Tetraeder. Rechts:
β-Messing unterhalb (oben) und oberhalb (unten) von Tc = 738 K. Die Atome sitzen auf den Plätzen
zweier einander durchdringender kubischer Gitter. Unterhalb von Tc bevorzugen die Zinnatome das eine
Untergitter und die Kupferatome das andere Untergitter. Oberhalb von Tc verteilen sich die beiden
Atomsorten gleichmäßig auf die beiden Untergitter.
Abbildung 7.7: Schematische Anordnung der Flüssigkristallmoleküle in den verschiedenen Phasen eines
Flüssigkristalls.
7.3
Mean-Field-Theorie
Eine Mean-Field-Theorie, auf Deutsch auch oft Molekularfeldtheorie genannt, ist i.A. die einfachste Theorie, die man zu Phasenübergängen machen kann. Die grundlegende Annahme hierbei ist, dass jedes Teilchen nur einen gemittelten Effekt der anderen Teilchen spürt, so dass räumliche Fluktuationen ignoriert
werden können. Dies ist eine Näherung, die meist nicht zu exakten Ergebnissen führt, aber oft die Phänomenologie des Phasenübergangs richtig erfasst. Bekannte Beispiele sind die van-der-Waals-Theorie für
Gase und die Weiss’sche Theorie für Magnetismus. Die van-der-Waals-Theorie wurde im vorigen Kapitel
ausführlich diskutiert. In diesem Teilkapitel werden wir die Landau-Theorie für Phasenübergänge behandeln, die die “Normalform” für einen Phasenübergang mit symmetrischem Ordnungsparameter darstellt.
Bis ca 1960 waren Mean-Field-Theorien (MFT) die vorherrschenden Theorien für Phasenübergänge. Da
die experimentell bestimmten Werte der kritischen Exponenten von denen der MFT abwichen, wurden
im folgenden Jahrzehnt weitergehende Theorien etwickelt und auch Computersimulationen durchgeführt.
Diese Theorien beruhten zum einen auf störungstheoretischen Berechnungen, bei denen in einer kleinen
Größe systematisch entwickelt wurde, zum anderen wurden Skalentheorien eingeführt, die die Idee, dass
ein kritisches System selbstähnlich ist, implementierten. Diese Entwicklungen gipfelten in der Renormierungsgruppentheorie, die 1971 von K.G. Wilson vorgestellt wurde, und für die er 1982 den Nobelpreis
erhielt.
86
Abbildung 7.8: Schematische Darstellung der Struktur von in Wasser gelösten Lipidmolekülen. Von links
oben nach rechts unten wächst die Molekülkonzentration.
7.3.1
Landau-Theorie für Phasenübergänge
Eine einfache und elegante phänomenologische Theorie für die Umgebung des kritischen Punktes wurde
1937 von Landau vorgestellt. Er nahm an, dass die freie Energie sich in der Nähe des Phasenübergangs
allein als Funktion des Ordnungsparameters m schreiben lässt, wobei die Koeffizienten von den Kontrollparametern des Systems abhängen. Wir betrachten den Fall, dass der Ordnungsparameter eine skalare
Größe ist, und dass eine Symmetrie bzgl. des Vorzeichens des Ordnungsparameters vorliegt. Eine solche
Situation ist z.B. für einen Ferromagneten mit einer Vorzugsachse gegeben, oder für den Flüssig-GasÜbergang. In der Nähe des kritischen Punktes ist der Ordnungsparameter klein, und eine Entwicklung
in m ergibt als erste Terme
F
= f0 + rm2 + um4 .
(7.11)
kB T N
Die ungeraden Potenzen treten nicht auf, da die freie Energie nicht vom Vorzeichen von m abhängt.
Damit die freie Energie nach unten beschränkt ist, muss u > 0 sein. Die freie Energie hat also die in
Abbildung 7.10 gezeigte Form.
In einem System mit festem Volumen und fester Teilchenzahl, das auf konstanter Temperatur gehalten
wird, nimmt die Freie Energie im thermischen Gleichgewicht ihr Minimum an.
Man erkennt sofort, dass für r > 0 die freie Energie ihr Minimum bei m = 0 hat, so dass wir dort in
der Hochtemperaturphase sind. Es ist also r = a(T − Tc ) mit einem konstanten Koeffizienten a und der
kritischen Temperatur Tc . Für r < 0 gibt es die beiden Lösungen
r
−r
.
m=±
2u
Wir sehen also, dass der Ordnungsparameter in der Nähe des kritischen Punktes mit der Temperatur
über ein Potenzgesetz der Form
m ∝ |T − Tc |β
(7.12)
verbunden ist, wobei der Wert des Exponenten β = 1/2 ist.
Als nächstes führen wir ein Feld h ein und addieren den Term −mh zu (7.11),
F
= f0 + rm2 + um4 − mh .
kB T N
87
(7.13)
Abbildung 7.9: Das Phasendiagramm für Diblock-Copolymere. Auf der x-Achse ist das Mischungsverhältnis aufgetragen, auf der y-Achse die Stärke der für die Entmischung verantwortlichen Wechselwirkung.
Minimieren der Freien Energie ergibt jetzt
2rm + 4um3 − h = 0 .
Für T = Tc (also r = 0) finden wir
h ∝ mδ
(7.14)
mit δ = 3. Wir haben also ein weiteres Potenzgesetz gefunden. Für die Suszeptibilität erhalten wir
1
1
∂m
2r für r > 0
=
=
1
2
∂h T
2r + 12um
4|r| für r < 0
Es gilt also
χ ∝ |T − Tc |−γ
(7.15)
mit γ = 1.
Schließlich berechnen wir noch die Wärmekapazität, die ja ebenfalls als zweite Ableitung der freien
Energie geschrieben werden kann. Wir erhalten sie, wenn wir in (7.11) den Wert des Ordnungsparameters
am Minimum einsetzen (also m = 0 oder m2 = −r/2u) und −T ∂ 2 F /∂T 2 berechnen. Zum Einen gibt
es den Beitrag, der aus f0 resultiert, und den wir im Folgenden ignorieren, da er bei Tc regulär ist. Der
zweite Beitrag resultiert aus den vom Ordnungsparameter abhängigen Termen. Für T > Tc ist er 0, und
für T < Tc ist er
a2 N kB T
[T + 2(T − Tc )].
2u
Damit liegt ein Sprung in der Wärmekapazität vor. Wenn wir einen Exponenten für das Verhalten von
CH bei Annäherung an Tc von links oder rechts einführen wollten, so hätte dieser den Wert α = 0.
88
r=0
r<0
r>0
F(m)
m
Abbildung 7.10: Die freie Energie als Funktion des Ordnungsparameters in der Landau-Theorie für verschiedene r. Die Kurven für r < 0 haben zwei Minima.
7.3.2
Kritische Exponenten
Wir haben am Beispiel der Landau-Theorie gesehen, dass sich in der Nähe des kritischen Punktes eine
Reihe von kritischen Exponenten definieren lassen. Dies gilt nicht nur in Mean-Field-Theorie, sondern
allgemein, wobei die Werte der Exponenten i.A. allerdings von denen der Mean-Field-Theorie abweichen.
Der Grund für all diese Potenzgesetze ist, dass es am kritischen Punkt große, langlebige Fluktuationen
des Ordnungsparameters gibt. Eine Flüssigkeit am kritischen Punkt sieht milchig aus, weil die Dichtefluktuationen sogar auf Längenskalen so groß wie die Lichtwellenlänge auftreten. Diese Länge beträgt
ungefähr 4000 Å, also das 4000fache des Teilchenabstands! Da in diesen Potenzgesetzen oft der Abstand
von der kritischen Temperatur als Parameter auftritt, definiert man die dimensionslose Größe
t=
T − Tc
.
Tc
(7.16)
Die folgende Tabelle listet einige Potenzgesetze für den kritischen Punkt des Flüssig-Gas-Übergangs und
des einfachen Ferromagneten auf.
Größe
Ordungsparameter
Wärmekapazität
Suszeptibilität
Feld
Korrelationslänge
Korrelationsfunktion
G(~x − ~x1 )
Gas
ρf l − ρgas ∼ (−t)β
CV ∼ |t|−α
κT ∼ |t|−γ
|p − pc | ∼ |ρf l − ρgas |δ
ξ ∼ |t|−ν
hρ(~x)ρ(~x1 )i − hρ(~x)i2
∼ |~x − ~x1 |−d+2−η
Magnet
M ∼ (−t)β
CH ∼ |t|−α
χT ∼ |t|−γ
|H| ∼ |M |δ
ξ ∼ |t|−ν
hm(~x)m(~x1 )i − hm(~x)i2
∼ |~x − ~x1 |−d+2−η
Die Korrelationslänge ist ein Maß für die Ausdehnung der größten Fluktuationen. Auf genügend
großen Längen fällt die Korrelationsfunktion exponentiell mit der Entfernung ab,
G(~x − ~x1 ) ≃ Ce−|~x−~x1 |/ξ .
Das Zeichen ∼ liest man “skaliert wie”. Ein Ausdruck der Form
F (t) ∼ |t|λ
bedeutet
λ = lim
t→0
ln |F (t)|
.
ln |t|
89
(7.17)
Die Beziehung (7.17) steht also nicht nur für einfache Potenzgesetze F = A|t|λ , sondern auch für kompliziertere Ausdrücke der Form
F (t) = A|t|λ (1 + btλ1 + . . .)
mit einem positiven λ1 . Genügend nah an t = 0 dominiert der führende Term, aber weiter entfernt gibt
es i.A. Korrekturen zu dem einfachen Potenzgesetz.
In Experimenten zeigte sich, dass total verschiedene Systeme dieselben kritischen Exponenten haben. So haben z.B. der Ferromagnet YFeO3 (hat eine Vorzugsachse), die Flüssigkeiten CO2 und Xe, der
Antiferromagnet FeF2 , der Ordnungs-Unordnungsübergang in β-Messing und in NH4 Cl und das dreidimensionale Isingmodell dieselben Werte der Exponenten, α ≃ 0.11, β ≃ 0.33, γ ≃ 1.24, δ ≃ 4.8, ν ≃ 0.63,
η ≃ 0.03. Man sagt daher, dass diese Systeme zu derselben Universaltitätsklasse gehören. Eine weitere Universalitätsklasse beinhaltet das superfluide Helium, magnetische Systeme mit einer Vorzugsebene
und den nematisch-smektischA-Übergang in Flüssigkristallen. Dort haben die Exponenten die Werte
α ≃ −0.008, β ≃ 0.35, γ ≃ 1.32, δ ≃ 4.8, ν ≃ 0.67, η ≃ 0.03.
Experimente zeigen auch, dass die kritischen Exponenten bei Annäherung von unten und oben an
Tc denselben Wert haben. Die Werte der kritischen Exponenten sind nicht alle unabhängig, sondern es
gelten die Skalenrelationen γ = −β(1 − δ), α = 2 − 2β − γ, γ = ν(2 − η) und 2 − α = dν. Diese und
andere Eigenschaften kritischer Systeme kann man aus einer “Renormierungsrechnung” herleiten. Eine
entscheidende Annahme hierbei ist, dass für das kritische Verhalten mikroskopische Details des Systems
unwichtig sind, und dass nur diejenigen Eigenschaften des Systems relevant sind, die sich auch noch auf
großen Längenskalen auswirken. Anders lässt sich auch die Universalität der kritischen Exponenten nicht
erklären. Ihre Werte hängen von folgenden Eigenschaften des Systems ab:
• Die räumliche Dimension
• Die Zahl der Komponenten und die Symmetrie des Ordnungsparameters
• Die An- oder Abwesenheit von langreichweitigen Wechselwirkungen
• Die Erhaltungsgrößen, an die der Ordungsparameter koppelt
Der letzte Punkt ist für die dynamischen kritischen Eigenschaften relevant, die aber hier nicht behandelt
werden. Der wichtigste Effekt der räumlichen Dimension ist, dass in höheren Dimensionen Fluktuationen
um die Mittelwerte weniger wichtig sind. Wir werden das später explizit zeigen. Daraus folgt, dass es i.A.
eine untere kritische Dimension gibt, unterhalb derer der Phasenübergang überhaupt nicht mehr auftreten kann, weil die Tieftemperaturphase selbst bei sehr niedrigen Temperaturen durch Fluktuationen
zerstört wird. Für das Isingmodell ist dies die Dimension 1. Außerdem gibt es eine obere kritische Dimension, oberhalb derer die Fluktuationen nur kleine Störungen sind, so dass die in der Mean-Field-Theorie
berechneten Exponenten gültig sind.
7.4
Das eindimensionale Ising-Modell und die Transfer-MatrixMethode
Die Transfer-Matrix-Methode ist nützlich zur Lösung eindimensionaler klassischer Spinmodelle. Die Zustandssumme wird durch eine Matrix ausgedrückt, und die thermodynamischen Eigenschaften des Systems lassen sich aus den Eigenwerten der Matrix berechnen. Wir werden diese Methode am eindimensionalen Isingmodell demonstrieren. Die Spins sind in diesem Modell angeordnet wie in unserem Beispielsystem aus Kapitel 1, Abb. 1.1. Jeder Spin kann zwei Einstellungen haben. Im Gegesatz zu der Situation,
die wir in Kapitel 1 betrachtet haben, gibt es jetzt eine Wechselwirkung zwischen benachbarten Spins. In
zwei und drei Dimensionen sitzen die Spins auf den Plätzen eines quadratischen bzw kubischen Gitters.
Onsager benützte die Transfer-Matrix-Methode in den 40er Jahren, um das zweidimensionale Isingmodell
zu lösen und seine kritischen Exponenten zu berechnen.
90
Die Ergebnisse unserer Rechnung werden zeigen, dass das Ising-Modell in einer Dimension für alle
T > 0 paramagnetisch ist, und dass seine Korrelationslänge bei T = 0 divergiert. Wir beginnen mit der
Hamiltonfunktion
N
−1
N
−1
X
X
σi ,
σi σi+1 − H
HN = −J
i=0
i=0
mit den Spins σi = ±1 und mit periodischen Randbedingungen σN ≡ σ0 . Die Wahl der Randbedingungen
ist im thermodynamischen Limes N → ∞ irrelevant. Die Zustandssumme beträgt
X
eJ(σ0 σ1 +σ1 σ2 +...+σN −1 σ0 )/kB T +H(σ0 +σ1 +...+σN −1 )/kB T ,
ZN =
{σi }
wobei die Summe über alle Einstellungen aller Spins zu nehmen ist. Die Exponenzialfunktion lässt sich
als Produkt von Termen schreiben, die alle nur von Spinpaaren abhängen
X
eJσ0 σ1 /kB T +H(σ0 +σ1 )/2kB T . . . eJσN −1 σ0 /kB T +H(σN −1 +σ0 )/2kB T
ZN =
{σi }
≡
X
{σi }
T0,1 T1,2 · . . . · TN −1,0 ,
wobei
Ti,i+1 = eJσi σi+1 /kB T +H(σi +σi+1 )/2kB T
die Elemente einer Matrix T sind, deren Zeilen sich durch den Wert von σi unterscheiden, und die Spalten
durch den Wert von σi+1 . Also
(J+H)/k T
B
e
e−J/kB T
T=
e−J/kB T
e(J−H)/kB T
Die Spurbildung (d.h. heißt die Summation über die Werte der Spins) bedeutet nun einfach ein Multiplizieren der Matrizen, so dass wir
ZN = Sp TN
erhalten, wobei nur noch die Spurbildung über den letzten Spin σ0 übrig geblieben ist, die durch Summation der Diagonalelemente ausgeführt wird. Diese Summe lässt sich durch die Eigenwerte von T ausdrücken:
X
λN
ZN =
i .
i
(Im eindimensionalen Isingmodell gibt es nur zwei Eigenwerte, aber im Allgemeinen kann die Transfermatrix natürlich mehr als zwei Zeilen und Spalten haben.) Wir nummerieren die Eigenwerte in der
Reihenfolge ihrer Größe: λ0 > λ1 > . . .. Die freie Energie pro Spin ist im thermodynamischen Limes
!#
"
X λi N
1
N
F/N = −kB T lim
ln λ0 1 +
N →∞ N
λ0
i
=
−kB T ln λ0 .
Sie wird also allein durch den größten Eigenwert der Transfermatrix bestimmt, der sich i.A. leichter
berechnen lässt als das gesamte Spektrum von Eigenwerten. Für das Isingmodell erhalten wir
q
λ0 = eJ/kB T cosh H/kB T + e2J/kB T sinh2 H/kB T + e−2J/kB T .
Als nächstes werten wir die Korrelationsfunktion aus,
G(R) = hσ0 σR i − hσ0 ihσR i .
91
Wir berechnen zuerst
hσ0 σR iN
=
1 X
σ0 σR e−HN /kB T
ZN
{σi }
=
1 X
σ0 T0,1 . . . TR−1,R σR TR,R+1 . . . TN −1,0
ZN
{σi }
=
1 X
σ0 (TR )0,R σR (TN −R )R,0
ZN σ σ
0
=
=
=
R
1
Sp S0 TR SR TN −R
ZN
1 X
−R
h~uj |S0 |~ui iλR
ui |SR |~uj iλN
i h~
j
ZN i,j
N −R
R
P
λ
h~ui |SR |~uj i λ0j
uj |S0 |~ui i λλ0i
i,j h~
P N
k
λk
λ0
Wir haben die Matrix Si eingeführt, die in der Diagonalen die möglichen Werte von σi hat (also 1 und
−1 für das Isingmodell) und sonst lauter Nullen. Außerdem haben wir die mit den Eigenvektoren {~ui }
der Transfermatrix gebildete Identität
X
|~ui ih~ui |
1=
i
eingefügt. Im thermodynamischen Limes N → ∞ überleben nur die Beiträge mit j = 0 und k = 0, und
wir erhalten
X λi R
hσ0 σR i =
h~u0 |S0 |~ui ih~ui |SR |~u0 i
λ0
i
X λi R
h~u0 |S0 |~ui ih~ui |SR |~u0 i
= hσ0 ihσR i +
λ0
i6=0
Im letzten Schritt haben wir
hσi i = h~u0 |Si |~u0 i
benutzt, was sich mit einer Rechnung analog zu der hier für hσ0 σR i ausgeführten zeigen lässt. Die Korrelationslänge berechnet sich wegen G(R) ∼ e−R/ξ zu
1
ξ −1 = lim − ln |hσ0 σR i − hσ0 ihσR i|
R→∞
R
( )
R
1
λ1
= lim − ln
h~u0 |S0 |~u1 ih~u1 |SR |~u0 i
R→∞
R
λ0
= − ln(λ1 /λ0 ) .
Die Korrelationslänge wird also durch die beiden größten Eigenwerte der Transfermatrix bestimmt. Für
das Isingmodell beträgt sie
q


 eJ/kB T cosh H/kB T − e2J/kB T sinh2 H/kB T + e−2J/kB T 
q
ξ −1 = − ln
.
 J/kB T

e
cosh H/kB T + e2J/kB T sinh2 H/kB T + e−2J/kB T
92
Wenn das Magnetfeld H verschwindet, vereinfacht sich dies zu
ξ = 1/ ln tanh(J/kB T ) .
Wenn die Temperatur gegen Null geht, divergiert die Korrelationslänge. Die Korrelationslänge ist proportional zur typischen Ausdehnung von Blöcken parallel ausgerichteter Spins. Mit sinkender Temperatur
werden diese Blöcke immer größer, aber die Magnetisierung des Systems bleibt Null, da im thermodynamischen Limes N → ∞ der Anteil der nach oben und unten orientierten Spins gleich ist.
Wenn das Feld H nicht verschwindet, ist der Anteil der Spins, die parallel zum Feld orientiert sind,
größer als der Anteil, der in der entgegengesetzte Richtung orientiert ist. Der Mittelwert hσi i ist also von
Null verschieden. Wenn man jetzt die Temperatur gegen Null gehen lässt, geht auch die Korrelationslänge
gegen Null, da die Größe derjenigen Blöcke gegen Null geht, die von der Orientierung in Richtung Feld
abweichen.
7.5
Das zweidimensionale Isingmodell und die Ortsraumrenormierung
Eine sehr leistungsfähige Methode in der Analyse kritischer Systeme ist die Renormierung. Sie beruht auf
der Annahme, dass kritische Systeme skaleninvariant sind, dass sie also auf verschiedenen Längenskalen
gleich aussehen. Für diese Annahme gibt es eine Reihe von Hinweisen:
• In der Umgebung des kritischen Punktes gelten Potenzgesetze, die erst jenseits der Korrelationslänge
zusammenbrechen. Potenzgesetze bedeuten aber Skaleninvarianz.
• Die Werte der kritischen Exponenten werden durch makroskopische Eigenschaften des Systems
bestimmt und hängen nicht von mikroskopischen Details ab. Das bedeutet, dass auf verschiedenen
Längenskalen dieselben Mechanismen für die kritischen Eigenschaften des Systems verantwortlich
sind.
Bei der Renormierungsmethode, die in diesem Abschnitt vorgestellt wird, der Ortsraumrenormierung,
wird die Längenskala des Systems geändert. Skaleninvarianz bedeutet, dass das daraus resultierende
System im Wesentlichen identisch mit dem ursprünglichen ist. Diese Bedingung liefert Fixpunkte der
Renormierungstransformation, die kritische Punkte sind oder ganz homogene Systeme. Wir werden dies
nun am Beispiel des zweidimensionalen Isingmodells vorführen.
Wir beginnen mit dem in Abbildung 7.11 gezeigten quadratischen Gitter.
Die Zustandssumme ist
P
P
X
X
e(J/kB T ) <ij> σi σj ≡ eK <ij> σi σj ,
e−H/kB T =
Z≡
{σi }
{σi }
wobei die Summe in der Exponentialfunktion über nächste-Nachbar-Paare < ij > genommen wird. Wir
ändern die Längenskala des Systems, indem wir die Spur über die Spins auf den hell gezeichneten Gitterplätzen nehmen. Es entsteht eine Zustandssumme mit einer neuen Hamiltonfunktion, die nur noch von
den
√ verbleibenden Spins abhängt. Das verbleibende Gitter hat eine Gitterkonstante, die um den Faktor
2 größer ist. Skaleninvarianz bedeutet, dass nach wiederholter Anwendung dieser Transformation (nachdem die mikroskopischen Details eliminiert sind) die im Exponenten von Z stehende Hamiltonfunktion
sich nicht weiter ändert.
Wir greifen einen Spin, σ0 , heraus und untersuchen explizit, welche Terme durch seine Elimination
entstehen: Der Beitrag zu Z, der σ0 enthält, ist der Faktor
eKσ0 (σ1 +σ2 +σ3 +σ4 ) .
Spurbildung über die beiden Einstellungen dieses Spins liefert
A ≡ eK(σ1 +σ2 +σ3 +σ4 ) + e−K(σ1 +σ2 +σ3 +σ4 ) = 2 cosh(K(σ1 + σ2 + σ3 + σ4 )) .
93
σ2
σ1
σ3
σ0
σ4
Abbildung 7.11: Dezimierung auf dem Quadratgitter. Über die Spins auf den hell gezeichneten Plätzen
√
wird die Spur gebildet. Das neue, gestrichelte Gitter hat eine Gitterkonstante, die um den Faktor 2
größer ist als die des alten Gitters.
Dieser Ausdruck kann nur drei verschiedene Werte annehmen:
(i) A1 ≡ e4K + e−4K = 2 cosh 4K ,
wenn alle vier Spins dasselbe Vorzeichen haben;
(ii) A2 ≡ e2K + e−2K = 2 cosh 2K ,
wenn drei Spins dasselbe Vorzeichen haben und der vierte Spin das andere;
(iii) A3 ≡ 2 ,
wenn zwei Spins das eine Vorzeichen haben und zwei das andere.
Wir wollen A nun so umschreiben, dass man die Beiträge zur neuen Hamiltonfunktion ablesen kann,
also dass es die Form
B = ea+b(σ1 σ2 +σ1 σ3 +σ1 σ4 +σ2 σ3 +σ2 σ4 +σ3 σ4 )+cσ1 σ2 σ3 σ4
hat. Die im Exponenten auftretenden Beiträge sind unter allen möglichen diejenigen, die mit den bestehenden Symmetrien in A vereinbar sind. A ist invariant, wenn alle Spins geflippt werden oder wenn zwei
Spins vertauscht werden, und dasselbe muss folglich für B gelten. Die drei Gleichungen zur Bestimmung
von a, b und c sind die folgenden:
A1 = ea+6b+c ,
A2 = ea−c ,
A3 = ea−2b+c .
Die Division A1 /A3 liefert
b=
A1 A33 A2−4 liefert
c=
1
ln cosh 4K .
8
1
(ln cosh 4K − 4 ln cosh 2K) .
8
94
A1 A33 A42 liefert
1
(ln cosh 4K + 4 ln cosh 2K + ln 128) .
8
Elimination der Spins auf den hell gezeichneten Gitterplätzen erzeugt also nicht nur Kopplungen zwischen
nächsten Nachbarn (wie σ1 und σ2 auf dem neuen Gitter, sondern auch zwischen übernächsten Nachbarn
(wie σ1 und σ3 ), und Vierspinprodukte. Man kann sich vorstellen, dass beim nächsten Eliminationsschritt
noch mehr neue Kopplungen und noch höhere Spinprodukte erzeugt werden. In einer exakten Rechnung
müssten all diese Kopplungen berücksichtigt werden. An dieser Stelle wird nun eine Näherung gemacht.
Im Folgenden beschränken wir uns auf die Zweispinkopplungen zwischen nächsten und übernächsten
Nachbarn und vernachlässigen alle höheren Kopplungen. In unserem Beispiel kann man nachrechnen, dass
der erzeugte Beitrag c zur Vierspinkopplung am kritischen Punkt viel kleiner ist als die Zweispinkopplung
b, so dass ihre Vernachlässigung gerechtfertigt werden kann. Durch diese Näherung erhalten wir auch nur
genäherte Werte für den kritischen Punkt und die kritischen Exponenten. Wir schreiben also
X
X
H/kB T = −K
σi σj − L
σi σj
a=
NN
uN N
für die Hamiltonfunktion vor dem Eliminierungsschritt und
X
X
H′ /kB T = −K ′
σi σj − L′
σi σj
NN
uN N
für die Hamiltonfunktion nach dem Eliminierungsschritt. N N steht für nächste-Nachbar-Paare auf dem
betrachteten Gitter, und uN N für übernächste-Nachbar-Paare. Im Prinzip müssen wir nun die obige
Rechnung unter Berücksichtigung der Kopplung L wiederholen und nach der Elimination sämtlicher
Spins auf den hellen Gitterplätzen den Wert von K ′ und L′ ablesen. Aber auch diese Rechnung ist noch
recht kompliziert, und wir machen zwei weitere Vereinfachungen: Erstens entwickeln wir in K, so dass in
führender Ordnung b = K 2 ist. Zweitens lesen wir direkt aus Abbildung 7.11 ab, welches die wichtigsten
Beiträge zu K ′ und L′ sind: Jede Kopplung K ′ bekommt zweimal einen Beitrag b, da ja auf beiden
Seiten ein Nachbar eliminiert wird. Außerdem gibt es noch einen Beitrag L, da die übernächste-NachbarKopplung nach der Elimination zur nächsten-Nachbar-Kopplung geworden ist. Also ist
K′
L′
≃ 2K 2 + L
≃ K2 .
(7.18)
Diese Transformation hat drei Fixpunkte (K ∗ , L∗ ):
1. K ∗ = L∗ = 0: Dieser Fixpunkt beschreibt ein System aus ungekoppelten Spins. Solch ein System
liegt bei unendlicher Temperatur vor.
2. K ∗ = L∗ = ∞: Dies bedeutet T = 0. Die Kopplungen sind so stark, dass alle Spins parallel sind.
3. K ∗ ≡ Kc∗ = 1/3, L∗ ≡ L∗c = 1/9: Dies ist der kritische Punkt.
In Abbildung 7.12 ist das aus (7.18) resultierende Flussdiagramm dargestellt. Ein Pfeil verbindet einen
Punkt (K, L) mit dem sich nach zwei Iterationen ergebenden Punkt. (Punkte nach jeder Iteration zu
zeichnen, würde das Diagramm unübersichtlich machen, da aufgrund eines negativen Eigenwertes (s.u.)
Oszillationen auftreten.) Man kann in diesem Diagramm alle drei Fixpunkte erkennen. Man sieht auch,
dass die beiden trivialen Fixpunkte attraktiv sind, d.h. dass die Iteration die Kopplungen immer näher
zu diesem Fixpunkten bringt. Der kritische Punkt ist instabil, denn selbst wenn die Kopplungen anfangs
in seiner Nähe sind, laufen sie irgendwann weg von ihm. Dieses Ergebnis macht Sinn: Je mehr Iterationen
wir machen, auf desto größeren Längenskalen betrachten wir das System. Wenn das System nicht genau
am kritischen Punkt ist, hat es eine endliche Korrelationslänge, und auf genügend großen Skalen ist das
System nicht mehr kritisch. Befindet man sich in der Hochtemperaturphase, sind auf genügend großen
95
Abbildung 7.12: Das aus (7.18) resultierende Flussdiagramm.
Abständen die Spinorientierungen unabhängig voneinander, und man ist folglich am Hochtemperaturfixpunkt K = L = 0. Befindet man sich in der Tieftemperaturphase, sind auch auf großen Abständen
die Spinorientierungen gekoppelt. Dass die Kopplungsstärke unter der Iteration (7.18) gegen Unendlich
geht bedeutet, dass Abweichungen von der Vorzugsspinorientierung nur auf kurzen Skalen (in Form von
kleinen “Tröpfchen” der falschen Orientierung) auftreten und man sie folglich auf genügend großen Skalen
nicht mehr sieht.
Um die kritischen Exponenten zu erhalten, linearisieren wir die Rekursionsrelationen (7.18) in der
Umgebung des kritischen Punktes, K = Kc∗ + δK, L = L∗c + δL, und erhalten
δK ′
4Kc∗ 1
δK
4/3 1
δK
=
=
δL′
2Kc∗ 0
δL
2/3 0
δL
Die Eigenwerte der Transformationsmatrix sind
λ1 =
√
1
(2 + 10) ≃ 1.7208
3
und
√
1
λ2 = (2 − 10) ≃ −0.3874 ,
3
√
√
und die Eigenvektoren sind ~v1 = (1, ( 10 − 2)/3) und ~v2 = (1, (− 10 − 2)/3). Da |λ2 | < 1 ist, wird nach
einigen Iterationen der Vektor (δK, δL) parallel zu ~v1 . Wir haben dann
(δK ′ , δL′ ) = λ1 (δK, δL) .
Den Exponenten
√
√ ν erhalten wir, wenn wir uns bewusst machen, dass eine Iteration die Korrelationslänge
ξ auf ξ ′ = ξ/ 2 verkürzt, und dass δK ≃ −J(T − Tc )/kB Tc2 ist. Also ist (δK ′ )−ν = (δK)−ν / 2, und
ν = ln 2/2 ln λ1 ≃ 0.638 .
Zum Vergleich: der exakte Wert von ν ist 1.
96
Betrachten wir noch P
den Effekt eines endlichen Magnetfeldes auf die Ortsraumrenormierung, und
addieren einen Term −h i σi zu H/kB T . Eine genäherte Rekursionsrelation kann wieder intuitiv aufgestellt werden. Auf die verbleibenden Spins wirkt direkt das Feld h und durch die orientierende Wirkung
des Feldes auf die eliminierten Nachbarspins ein Zusatzfeld Kh, also insgesamt
h′ = h + Kh .
Die Fixpunktwerte dieser Rekursionsrelation sind h∗ = 0 und und h∗ = ∞. In der Umgebung des
kritischen Punktes ergibt sich
4
h′ = (1 + Kc∗ )h = h .
3
Wir haben also einen weiteren Eigenwert λh = 4/3 der linearisierten Rekursionsrelationen. Da λh > 1
ist, wächst ein anfänglich kleines Feld an unter Renormierung, ebenso wie das mit |T − Tc | passiert.
Auch wenn man auf kleinen Längenskalen ein schwaches Magnetfeld kaum wahrnimmt, sieht man auf
größeren Skalen, dass die Spins eine Vorzugsrichtung haben. Aus λ1 und λh kann man durch allgemeine
Überlegungen die kritischen Exponenten und die Skalenrelationen zwischen ihnen bestimmen kann.
Die in diesem Abschnitt vorgerechnete Ortsraumrenormierung ist nur eine von vielen möglichen. Andere Ortsraumrenormierungen führen Blockspins ein, d.h. sie fassen eine Gruppe von Spins zusammen
und ersetzen sie durch einen neuen Spin, der die Orientierung der Mehrzahl der Spins in der Gruppe hat.
Die neuen Kopplungen zwischen den neuen Spins werden näherungsweise berechnet. Wieder andere Renormierungen vermeiden das Erzeugen der höheren Kopplungen, indem sie zuerst Verbindungen zwischen
Spins parallel verschieben so dass jeder zu eliminierende Spin nur noch zwei Nachbarn hat, und dann
die Spur über die zu eliminierenden Spins bilden. Alle diese Renormierungsverfahren sind um so besser,
je kleiner die Terme sind, die von ihnen vernachlässigt werden. Da aber in vielen Fällen die Größe der
vernachlässigten Terme schwer abzuschätzen ist, ist die Ortsraumrenormierung oft unkontrolliert. Eine
alternative Methode, die Impulsraumrenormierung, wird daher meist bevorzugt.
Übungsaufgaben zu Kapitel 7
1. Betrachten Sie Abb. 7.1 auf Seite 81. Zieht sich die dieser Abbildung zugrunde liegende Substanz
beim Schmelzen zusammen oder dehnt sie sich aus? Verwende zur Beantwortung die ClausiusClapeyron-Gleichung.
2. Für ein Gemisch von k idealen Gasen gilt:
E=
k
X
Ni ciV T
i=1
S=
k
X
Ni (ciV ln T + R ln
i=1
V
)
Ni
Berechnen Sie die chemischen Potentiale µi (T, V, N1 , . . . , Nk ).
3. Proteine können gleichzeitig mehrere kleinere Moleküle (Liganden) an sich binden. Gegeben sei ein
Protein, an das sich bis zu n dieser Moleküle an verschiedenen Bindungsplätzen anlagern können.
Ein Protein lässt sich also durch die Konfiguration {α}= (ein Vektor aus n Elementen 1 und 0)
charakterisieren, wobei eine 1 an der i-ten Stelle bedeutet, dass am i-ten Bindungsplatz ein Ligand
gebunden ist, während eine Null bedeutet, dass dort kein Ligand gebunden ist. Die Gesamtzahl
der Einsen, also der an das Protein gebundenen Liganden sei ν. Betrachte nun dieses Protein und
den Liganden in einer wässrigen Lösung. Sei µ1 das chemische Potenzial der Liganden, und µ{α}
das chemische Potenzial der Proteine, die im Zustand {α} sind. Die Zahl der nicht gebundenen
97
Liganden sei N1 und die der Proteine im Zustand {α} sei N{α} . Zeigen Sie durch Minimieren der
freien Enthalpie, dass im Gleichgewicht für alle Paare {α′ }, {α} die Bedingung
µ{α′ } − ν ′ µ1 = µ{α} − νµ1
gilt.
4. Was ist der Ordnungsparameter für die in der Vorlesung erwähnten Ordnungs-Unordnungsübergänge?
Für einen Antiferromagneten? Für Supraleiter?
98
Herunterladen