Grundlagen der Quantenmechanik und Statistik

Werbung
Grundlagen der
Quantenmechanik und Statistik
Teil II: Thermodynamik und Statistik
Vorlesungen an der Ruhruniversität Bochum
K.–U. Riemann
Inhaltsverzeichnis
1. Einführung
1.1 Temperatur und Zustandsgrößen
- Extensive und intensive Größen
- Thermodynamisches Gleichgewicht
1
1.2 Thermodynamik und Statistik
2
1.3 Ideales Gas und elementare Statistik
- Verteilungsfunktionen im µ–Raum, Mittelwerte
- Definition der Temperatur T und des Drucks
- Thermische und kalorische Zustandsgleichung des idealen Gases
3
1.4 Die Maxwell-Boltzmannverteilung
5
2. Thermodynamik
2.1 Zustandsgrößen und totale Differentiale
- Der nullte Hauptsatz: Zustandsgröße Temperatur
8
2.2 Der erste Hauptsatz
- Arbeit und Wärme, Energiesatz
- Verbot des perpetuum mobile erster Art
9
2.3 Der zweite Hauptsatz
- Die Entropie als Zustandsgröße beim idealen Gas
- Der Carnotsche Kreisprozeß
- Verbot des perpetuum mobile zweiter Art
- Die Entropie als universelle Zustandsgröße
- Entropie und Gleichgewicht, Zeitrichtung
11
2.4 Die thermodynamischen Potentiale
- Legendretransformationen
- Freie Energie, Enthalpie und Gibbssches Potential
Maxwellrelationen
- Extremaleigenschaften des thermodynamischen Gleichgewichts
17
2.5 Variable Teilchenzahl
- Das chemische Potential µ
- Das Potential J(T, V, µ) = −pV
- Die Entropie des idealen Gases
- Mischungsentropie und Gibbssches Paradoxon
20
i
2.6 Anwendungen: Reaktionsgleichgewichte
- Gleichgewicht bei Stoffumwandlungen
- Dampfdruck und Clausius–Clapeyron–Gleichung
- Chemische Reaktionen und Massenwirkungsgesetz
22
2.7 Das Nernstsche Theorem
25
3. Die Grundlagen der Statistik
3.1 Shannons Informationsentropie
- Der Informationsgehalt einer unkorrelierten Zeichenkette
- Korrelationen
27
3.2 Die physikalische Entropie
- Makro– und Mikrozustände
30
3.3 Ideales Gas und µ–Raum–Statistik
- Das Boltzmannsche H–Funktional
- Maxwellverteilung und maximale Unkenntnis
- Zerlegung des µ–Raums in Zellen h3
- Ununterscheidbarkeit und korrigierte Abzählung
- Die Sackur–Tetrode–Formel
31
3.4 Die statistischen Gesamtheiten
- Mikro– und Makro–Nebenbedingungen
- Die Maximierung der Entropie
- Lagrangeparameter und intensive Zustandsgrößen
35
3.5 Die mikrokanonische Gesamtheit
38
3.6 Die kanonische Gesamtheit
39
3.7 Die großkanonische Gesamtheit
41
3.8 Die Äquivalenz der Gesamtheiten
- Energieschwankungen in der kanonischen Gesamtheit
- Dichteschwankungen in der großkanonischen Gesamtheit
- Phasenübergänge
43
3.9 Klassische Γ–Raum–Statistik
- Phasenraumdichte und Gesamtheiten
- Die klassische und halbklassische Zustandssumme
45
4. Anwendungen
4.1 Der Gleichverteilungs–Satz
49
ii
4.2 Das klassische ideale Gas
- Rotationsfreiheitsgrade des mehratomogen Gases
50
4.3 Der ideale Festkörper
- Das Dulong–Petitsche Gesetz
- Das Einstein–Modell
53
4.4 Eingefrorene Freiheitsgrade
- Vibrations– und Rotationstemperatur
56
4.5 Das Problem idealer Quantengase
- Der Fehler bei korrigierter Boltzmannabzählung
- Zustände und Besetzungszahlen
- Die Zustandssumme und das Problem der Nebenbedingung
- Der halbklassische Grenzfall
57
4.6 Fermi–Dirac– und Bose–Einstein–Statistik
- Die Separation der großkanonische Zustandssumme
- Besetzungszahlen bei Fermionen und Bosonen
- Fermi–, Bose– und Boltzmann–Verteilung
- Die Thermodynamik der Quantengase
61
4.7 Quantengase geringer Dichte
- Druckänderung und Entartungsgrad
65
4.8 Das hochentartete Fermigas
- Fermisee, Fermikante und Fermitemperatur
- Nullpunktsenergie und Nullpunktsdruck
- Metallelelektronen
- Weiße Zwerge
67
4.9 Das entartete Bosegas
- Die Bose–Einstein–Kondensation
- Der λ–Punkt des 4 He
70
4.10 Das Photonengas
- Strahlung als hochrelativistisches Bosegas
- Das Stefan–Boltzmann–Gesetz
- Das Plancksche und Rayleigh–Jeanssche Strahlungsgesetz
73
5. Probleme der Statistik
5.1 Meß–, Zeit– und Scharmittel
- Das Problem der a priori–Wahrscheinlichkeiten
- Mikrozustände und Ergode
- Mesung und Zeitmittelwert
iii
75
- Die Reproduzierbarkeit von Meßergebnissen
- Zeitmittel und Scharmittel
5.2 Die Ergoden– und die Quasi–Ergoden–Hypothese
77
5.3 Der Poincarésche Wiederkehreinwand
78
5.4 Irreversibilität und Zeitumkehr
- µ–Raum und Boltzmanns H–Theorem
- Γ–Raum und Liouvillesatz
- Entropie und effektives Phasenraumvolumen
- Die Zeit als Ordnungsparameter
- Das Problem der Zeitrichtung
79
Literaturhinweise
82
iv
1
Einführung
1.1
Temperatur und Zustandsgrößen
Das ausgehende 18. Jahrhundert ahnte noch nichts von den grundlegenden Umwälzungen, die hundert Jahre später das mechanistische Weltbild erschütterten. Die
analytische Mechanik galt im wesentlichen als abgeschlossen, die Lehre von der Elektrizität machte beeindruckende Fortschritte, und die ersten Wärmekraftmaschinen
wurden entwickelt. Wie die Elektrizität so wurde auch die “Wärme” als ein zusätzliches akzidentelles Attribut der Materie angesehen: So wie eine Metallkugel eine
elektrische Ladung tragen kann, so kann sie auch eine oder bestimmte “Wärmemenge” aufnehmen. Zum generellen Stand der wissenschaftlichen Erkenntnis merken wir
an, daß 1775 — zehn Jahre nach dem Bau der ersten “modernen” Dampfmaschine
durch J. Watt — die französische Akademie beschloß, keine Konstruktionsvorschläge für ein perpetuum mobile mehr zur Prüfung anzunehmen.
Sowohl der Wunsch, den Wirkungsgrad der Wärmekraftmaschinen zu verbessern,
als auch Bedürfnisse der aufblühenden Chemie führten dann im 19. Jahrhundert zur
systematischen Entwicklung der Thermodynamik, einer makroskopisch–phänomenologischen Theorie der Wärme. Ziel der Thermodynamik ist es, Gesetzmäßigkeiten
zwischen den Zustandsgrößen eines Systems aufzufinden. Unter den Zustandsgrößen versteht man makroskopische Parameter (z. B. Druck p und Volumen V ),
die den thermodynamischen Zustand des Systems eindeutig festlegen. Ein Teil der
Aufgabe ist daher, zu ermitteln, welche Parameter und Meßgrößen überhaupt zu
den Zustandsgrößen gehören. Daß diese Frage keineswegs trivial ist, mag man daran sehen, daß gerade der “Wärmeinhalt” (etwa einer Wärmeflasche) nicht zu den
Zustandsgrößen gehört.
Es zeigt sich, daß der Zustand eines thermodynamischen Systems nur dann eindeutig durch wenige makroskopische Parameter — also Zustandsgrößen — beschrieben
werden kann, wenn sich das System im thermodynamischen Gleichgewicht befindet. Das “Gleichgewicht” können wir im Augenblick noch nicht präzise definieren;
notwendige Voraussetzung ist in jedem Fall die (Quasi–)Stationarität. Einen ersten
Schritt weiter kommen wir, wenn wir extensive und intensive Zustandsgrößen unterscheiden. Extensiv sind solche Zustandsgrößen, (z. B. Energie E und Volumen V ),
die sich bei der Zusammensetzung des Systems aus Teilsystemen additiv verhalten1 .
Intensive Zustandsgrößen (z. B. der Druck p) ändern sich dagegen nicht, wenn man
das System verdoppelt. Eine wichtige Gleichgewichtsbedingung ist nun, daß intensive
Größen in allen Teilsystemen gleich sind.
1
In dieser Annahme liegt eine Idealisierung “großer” Systeme, in denen Oberflächeneffekte gegenüber Volumeneffekten vernachläßigt werden können.
1
Zu den intensiven Zustandsgrößen gehört insbesondere die Temperatur, ein Parameter, der zunächst der alltäglichen Erfahrung (kalt, warm, heiß) entnommen ist,
und der innerhalb der Thermodynamik axiomatisch eingeführt und definiert wird.
1.2
Thermodynamik und Statistik
Der axiomatische Aufbau der Thermodynamik arbeitet mit nur wenigen Begriffen,
die sich als leistungsfähig und universell anwendbar erwiesen haben. Daher ist die
mathematische Formulierung der Thermodynamik auch äußerst knapp und elegant.
Wenn die Thermodynamik trotzdem häufig als schwierigstes Teilgebiet der theoretischen Physik empfunden wird, so liegt das daran, daß die Theorie sehr abstrakt und
der Anschauung wenig zugänglich ist. Es gab daher von Anfang an Bemühungen,
die Thermodynamik aus elementaren Grundprinzipien der übrigen physikalischen
Disziplinen herzuleiten und zu verstehen.
Hintergrund solcher Bemühungen war eine frühe Vermutung über den Zusammenhang zwischen der Temperatur und der (mittleren) Teilchenenergie einer atomistischen Beschreibung der Materie, welche die gleichzeitig sich entwickelnde Chemie
mit sich brachte. (Die “Atomhypothese” blieb allerdings bis in die Anfänge des 20.
Jahrhunderts umstritten!)
Die alternative mikroskopische Theorie, welche die Axiome der Thermodynamik
begründet, ihre abstrakten Begriffe mit konkreten Inhalten füllt und last not least
die thermodynamischen Materialeigenschaften explizit zu berechnen erlaubt, ist die
statistische Mechanik.
Wie in der Quantenmechanik werden wir also auch in diesem Teil der Vorlesung
statistische Betrachtungen durchführen und mangelnde Detailkenntnis durch Wahrscheinlichkeitsaussagen ersetzen — aber aus einem andern Grund als in der Quantenmechanik: Dort war uns die Statistik von der prinzipiellen Unmöglichkeit, den
Ort und Impuls eines Teilchens — und damit seine Bahn — genau anzugeben, aufgezwungen worden. Formales Kennzeichen dieser prinzipiellen Unmöglichkeit war
die Naturkonstante h̄, die unsere mögliche Kenntnis über ein Teilchen begrenzt. In
der Wärmelehre betreiben wir Statistik aus der praktischen2 Unmöglichkeit, ∼ 1023
Teilchenkordinaten und –impulse zu berechnen. Das können wir nicht und wollen
wir nicht: Ein einziger Koordinatensatz für L = 6 · 1023 Teilchen würde 1022 Seiten,
also 1019 Bücher, also 1014 Universitätsbibliotheken füllen!
Stattdessen wollen wir die “verborgenen Parameter”, nämlich die individuellen Koordinaten und Impulse des Vielteilchen–Systems statistisch beschreiben und die makroskopischen Zustandsgrößen aus mikroskopischen Teilcheneigenschaften über Gesetzmäßigkeiten großer Zahlen konstruieren.
2
Die prinzipielle Unmöglichkeit der Quantenmechanik mag hinzukommen: Wir betreiben dann
Quantenstatistik.
2
Mehr oder weniger trivial ist das für die extensiven Zustandsgrößen: Sie setzen sich ja
additiv aus den entsprechenden Größen von Teilsystemen zusammen und lassen sich
damit letztlich direkt auf die mikroskopischen Teilcheneigenschaften zurückführen.
Die erste Aufgabe einer elementaren Statistik besteht also darin, intensive Größen
wie Druck oder Temperatur zu erklären und zu berechnen.
1.3
Ideales Gas und elementare Statistik
Wir greifen diese erste Aufgabe der elementaren Statistik auf, ehe wir im nächsten
Kapitel das Gerüst der Thermodynamik aufbauen und im dritten Kapitel eine systematische Statistik betreiben. Dazu betrachten wir das Modell des klassischen idealen
Gases.
Die mikroskopischen Bausteine des idealen Gases sind Massenpunkte, die keinen
Raum beanspruchen und keine Kräfte aufeinander ausüben. Viele reale Gase —
insbesondere leichte Edelgase (He) bei hoher Temperatur und niedriger Dichte —
kommen diesem Ideal recht nahe.
Entsprechend unserem Vorhaben, das ideale Gas statistisch zu beschreiben, fragen
wir nicht nach den einzelnen Teilchenorten und –geschwindigkeiten, sondern nach
der Wahrscheinlichkeit, am Ort r ein oder mehrere Teilchen der Geschwindigkeit v
anzutreffen. Genauer fragen wir nach der Verteilungsfunktion f (r, v, t), welche
die Dichte der Teilchen im sogenannten µ–Raum mit den Koordinaten r und v
repräsentiert. Wir erwarten also, im sechs–dimensionalen Volumenelement dτµ =
d3 rd3 v bei (r, v)
dN = f (r, v, t)d3 rd3 v
(1)
Teilchen zu finden. Eine Integration über alle Geschwindigkeiten liefert die Dichte
n(r, t) =
Z
f (r, v, t)d3 v
(2)
im Konfigurationsraum. Integrieren wir schließlich noch über die Ortskoordinaten,
so erhalten wir die gesamte Teilchenzahl
N=
Z
n(r, t)d3 r =
Z
f (r, v, t)d3 rd3 v
(3)
unseres Systems.
Die Wahrscheinlichkeit, daß die Geschwindigkeit eines beliebig herausgegriffenen
Teilchens im Volumenelement d3 v bei v liegt, ist also durch
1
f (r, v, t)d3 v
n
3
gegeben. Daraus ergeben sich die Mittelwerte
hAi =
1
n
Z
A(v)f (r, v, t)d3v
(4)
beliebiger Funktionen A(v) der Teilchengeschwindigkeiten. Als besonders wichtiges
Beispiel für solche Mittelwerte nennen wir die mittlere kinetische Energie hεkin i der
Gasmoleküle. Diese mittlere Teilchenenergie benutzen wir, um die Temperatur T
zu definieren:
3
m 2
hv i = kT .
2
2
hεkin i =
(5)
T ist dabei die absolute Temperatur. Sie wird in K (Kelvin) gemessen und unterscheidet sich von der bürgerlichen Temperatur in Celsiusgraden lediglich durch
eine additive Konstante: Der Schmelzpunkt des Eises liegt bei T0 = 273.2 K. Zur
Anpassung an diese historische Temperaturskala wird in der energetischen Temperaturdefinition der Gl. (5) die Boltzmannkonstante k = 1.38 · 1023 Ws/K benutzt.
(k ist also eine Maßsystemskonstante und keine Naturkonstante.)
Nach der Definition der Temperatur wollen wir auch den Druck des idealen Gases
bestimmen. Unter dem Druck verstehen wir die Kraft, die das ideale Gas auf jede
Einheitsfläche der Gefäßwand ausübt. Wir gehen von der Vorstellung aus, daß diese
Kraft auf dem mittleren Impulsübertrag der Gasmoleküle, die an der Gefäßwand
reflektiert werden, beruht. Ein Flächenelement dA – etwa in z–Richtung – wird je
Zeiteinheit von
Z
dN = dA
vz f (v)d3 v
vz >0
Molekülen getroffen. Dabei bezeichnet f wieder die Verteilungsfunktion der Moleküle. Ein einzelnes Molekül mit der Geschwindigkeitskomponente vz überträgt den
Impuls 2mvz . Der gesamte Impulsübertrag je Zeiteinheit, also die Kraft, ist daher
durch
Z
Z
2
3
dK = 2dA
mvz f (v)d v = dA mvz2 f (v)d3 v
vz >0
gegeben. Für das Integral gilt bei isotroper Verteilungsfunktion offenbar aus Symmetriegründen [vgl. Gl. (5)]
Z
mvz2 f (v)d3 v
1
=
3
Z
1
mv2 f (v)d3 v = n3kT .
3
Da der Druck durch p = dK/dA definiert ist, folgt so die thermische Zustandsgleichung des idealen Gases
p = nkT
oder pV = N kT .
4
(6)
Unter einer thermischen Zustandsgleichung verstehen wir allgemein eine Beziehung
zwischen der Temperatur und den übrigen Zustandsgrößen (hier Druck p und Volumen V oder Dichte n = N/V ), welche die Systemeigenschaften charakterisieren.
Neben der thermischen Zustandsgleichung benutzt man noch eine kalorische Zustandsgleichung, welche den gesamten Energieinhalt U des Systems angibt. Wegen
der Definition der Gl. (5) folgt für das (einatomige) ideale Gas die einfache kalorische
Zustandsgleichung
3
U = N hεkin i = N kT .
2
(7)
Wir betrachten abschließend ein ideales Gas in einem äußeren Kraftfeld −∇Φ(r)
(z. B. im Schwerefeld, Φ = mgz). Anhand eines quaderförmigen infinitesimalen
Volumenelements überlegt man sich dazu leicht, daß der Gradient ∇p eine Volumenkraft
dKp = −∇p d3 r
beschreibt. Diese Volumenkraft muß im Gleichgewicht die äußere Volumenkraft
dKΦ = −n ∇Φ d3 r
kompensieren. Daraus folgt
1
kT
∇Φ = − ∇p = − ∇n .
n
n
Im Gleichgewicht darf die Temperatur nicht vom Ort abhängen. Daher können wir
integrieren und erhalten Φ = −kT ln n+const oder
Φ
n = n0 e− kT .
(8)
Das Verhältnis n/n0 nach Gl. (8) wird als Boltzmannfaktor bezeichnet. Speziell
im homogenen Schwerefeld erhält man daraus die barometrische Höhenformel
n(z) = n0 e−
mgz
kT
bzw. p(z) = p0 e−
mgz
kT
,
(9)
welche (bei konstanter Temperatur, wir sind im Gleichgewicht!) die Dichte nz bzw.
den Druck pz in der Höhe z mit der Dichte n0 bzw. dem Druck p0 am Erdboden in
Beziehung bringt.
1.4
Die Maxwellverteilung
Im vorigen Abschnitt haben wir die Verteiungsfunktion zur Formulierung wichtiger
Mittelwerte benutzt. Sie enthält darüber hinaus die gesamte physikalisch relevante Information über ein System. Ihre Berechnung unter allgemeinen Bedingungen
5
ist Aufgabe der Kinetik, einer Verallgemeinerung der Statistik, die wir in dieser
Vorlesung nicht behandeln. In der Statistik fragen wir nur nach der Gleichgewichts–
Verteilung.
Daß wir für das ideale Gas überhaupt eine bestimmte Gleichgewichtsverteilung erwarten können, bedarf einer Erläuterung. Die Verteilungsfunktion eines homogenen
Systems wechselwirkungsfreier Teilchen zeigt nämlich keine Tendenz zu irgendeiner
“Relaxation”. Wir setzen beim idealen Gas also doch einen Rest an Wechselwirkung der Gasmoleküle untereinander (und/oder mit den Gefäßwänden) voraus, der
ausreicht, jeden beliebigen speziellen Ausgangszustand bald in ein völliges “Chaos”,
eben das thermodynamische Gleichgewicht, zu überführen.
Die Gleichgewichtsverteilung fM des idealen Gases wurde 1860 von Maxwell angegeben und wird daher als Maxwellverteilung bezeichnet. Sie darf natürlich nicht
von der Zeit abhängen. Für ein homogenes System ohne äußere Kräfte gilt also
fM (v) = ng(v) .
(10)
Die Funktion g bestimmte Maxwell durch eine genial einfache Überlegung:
1. g muß isotrop sein, also
g(v) = g(vx2 + vy2 + vz2 ) .
2. Die Wahrscheinlichkeiten der einzelnen Geschwindigkeitskomponenten vx , vy
und vz müssen unkorreliert sein, d.h,
g(v) = h(vx2 )h(vy2 )h(vz2 ) .
Es gilt also (mit x = vx2 , y = vy2 und z = vz2 ) die Funktionalgleichung
g(x + y + z) = h(x)h(y)h(z) ,
und durch logarithmisches Differenzieren nach x folgt
h0 (x)
g 0 (x + y + z)
=
.
g(x + y + z)
h(x)
Nun hängt die rechte Seite dieser Gleichung aber gar nicht von y und z ab; also ist
die linke Seite konstant:
g 0 (x)
= −α d.h. g(x) = Ce−αx
g(x)
Mit dem Integral
Z∞
e
−αx2
dx =
−∞
6
2
oder g(v) = Ce−αv .
r
π
α
und der Normierung
Z
π
gd v = C
α
3
3/2
=1
folgt daher
α
fM (v) = n
π
3/2
2
e−αv .
Im Gleichtgewicht sind die Geschwindigkeiten also Gauss–verteilt. Die Konstante
α repräsentiert die Breite der Verteilung oder das mittlere Geschwindigkeitsquadrat:
1Z 2
v fM (v)d3 v
hv i =
n
3/2
Z
α
d
2
= −
e−αv d3 v
π
dα
3
d
, also
= −α3/2 α−3/2 =
dα
2α
3
α =
.
2hv2 i
2
Mit der Temperaturdefinition in Gl. (10) erhalten wir α = m/2kT und
m
fM (v) = n
2πkT
3/2
mv2
e− 2kT .
(11)
Entsprechend ihrer sehr allgemein gehaltenen Herleitung ist die Maxwellverteilung von fundamentaler Bedeutung für unzählige Anwendungen (nicht nur beim
idealen Gas). Sie enthält bereits in komprimierter Form die gesamte Information
der klassischen Thermodynamik und Statistik des idealen Gases. Um so erstaunlicher ist die Tatsache, daß sie in der Quantenstatistik ihre Gültigkeit verliert. Das
muß uns im Moment um so mehr überraschen, als wir bei ihrer Herleitung nirgendwo
von den Bewegungsgleichungen der klassischen Mechanik Gebrauch gemacht haben.
Wir werden auf dieses Problem im Abschnitt 4.5 zurückkommen.
Faßt man den Boltzmannfaktor (9) mit der Maxwellverteilung (11) zusammen, so
erhält man die Maxwell–Boltzmann–Verteilung
fM B (r, v) = n0
m
2πkT
3/2
e−
Φ+mv2 /2
kT
.
(12)
Sie zeigt, daß die Dichte fM B im µ–Raum exponentiell mit der Gesamtenergie ε =
Φ + mv2 /2 der Gasmoleküle fällt. Wir hätten diesen Zusammenhang auch aus der
Wechselwirkungsfreiheit und dem Boltzmannfaktor erahnen können.
7
2
2.1
Thermodynamik
Zustandsgrößen und totale Differentiale
Wie bereits in der Einführung angedeutet, geben wir nun einen kurzen Abriß der
Thermodynamik, bei dem es wesentlich um die Definition bestimmter Zustandsgrößen im Gleichgewicht geht. Nehmen wir an, der makroskopische Gleichgewichtszustand sei durch die Variablen x1 , x2 , . . . , xn eindeutig charakterisiert. Dann ist jede
Funktion
y = f (x1 , x2 , . . . , xn )
(13)
eine Zustandsfunktion und kann selbst als eine Zustandsgröße benutzt werden. Häufig
ist eine interessierende Größe y nicht explizit, sondern durch eine Differentialform
(Pfaffsche Form)
δy =
X
ai (x1 , x2 , . . . , xn ) dxi
(14)
i
gegeben, und es stellt sich die Frage, ob Gl. (14) eine Zustandsgröße y definiert. Wir
benutzen darum das Differential–Symbol δ an Stelle von d, um auszudrücken, daß
sich durch Gl. (14) nicht notwendigerweise eine Zustandsfunktion (13) definieren
läßt. Notwendige (und hinreichende) Voraussetzung ist vielmehr, daß
ai =
∂f
∂xi
und folglich
∂ai
∂aj =
=
∂xj
∂xi
∂2f
∂xi ∂xj
(15)
gilt. Eine Differentialform (14), welche die Bedingung (15) erfüllt, heißt total. Eine
totale Differentialform ist integrabel und definiert eine Zustandsfunktion y. Für
totale Differentiale ersetzen wir das Symbol δ wieder durch das vertraute d und
schreiben
dy =
X
ai (x1 , x2 , . . . , xn ) dxi .
i
Als Zustandsvariable benutzen wir (immer)
8
(16)
— den Druck p und das Volumen V
sowie (je nach Bedarf) verschiedene makroskopische Parameter wie
— das Magnetfeld H und die Magnetisierung M
— die Spannung U und die Ladung q
— die Federkraft K und die Auslenkung x usw.
Wer glaubt, daß solche weiteren Parameter nichts in einer Theorie der Wärme zu
suchen haben, der sei an die Curietemperatur, an den thermoelektrischen Effekt, an
eine Autobatterie im Winter oder an die thermischen Spannungen in Bauelementen
erinnert.
Die Teilchenzahl N betrachten wir, wenn nichts anderes gesagt wird, als fest vorgegeben. Ist sie variabel (offenes System, chemische Reaktionen), gehört auch sie
zu den Zustandsvariablen. Und schließlich gibt es eine Zustandsgröße, die ganz im
Zentrum der Thermodynamik steht. Ihrer zentralen Bedeutung entsprechend führt
man sie oft axiomatisch durch einen Hauptsatz ein:
• Nullter Hauptsatz der Thermodynamik:
Es gibt eine Zustandsgröße Temperatur. Die Temperatur T charakterisiert
die Klasse aller Systeme, die miteinander im Gleichgewicht stehen.
Wir werden hier nicht den abstrakten Weg gehen, den Temperaturbegriff von dieser
axiomatischen Definition ausgehend schrittweise mit physikalischem Inhalt zu füllen,
sondern wir werden unter Bezug auf Abschnitt 1.3 die Temperatur als wohldefinierte
Größe betrachten.
In den obigen Beispielen haben wir jeweils zwei Zustandsvariablen zu Paaren (Y, X)
zusammengefaßt. Das erste Element Y eines Paares repräsentiert dabei eine intensive und das zweite Element X “die konjugierte” extensive Zustandsvariable. Das
R
Produkt konjugierter Zustandsvariablen (genauer: das Integral Y dX) stellt jeweils
eine Energie dar. Tatsächlich liegt im Energiesatz der Ausgangspunkt, aus dem die
formale Theorie entwickelt wird. Für die Zustandsvariablen Temperatur und Teilchenzahl fehlen uns noch die konjugierten Größen. Ihre Definition ist ein Kernpunkt
des abstrakten Formalismus.
2.2
Der erste Hauptsatz
Wir greifen die Bemerkung zum Energiesatz am Ende des vorigen Abschnitts auf
und notieren die Energieänderung unseres Systems in der Form
9
δU = δQ + δA .
(17)
Gl. (17) soll zunächst ausdrücken, daß die Energieänderung nicht allein durch die
am System geleistete Arbeit
δA = −pdV
"
+
X
#
Yi dXi ,
i
(18)
sondern außerdem durch eine “Wärmezufuhr” δQ beschrieben wird.
Bei der Arbeitsleistung δA berücksichtigen wir grundsätzlich die Druckarbeit −pdV
und je nach Bedarf zusätzliche Terme Yi dXi (s. o.), die verschiedene Formen mechanischer, elektromagnetischer oder auch chemischer Energie repräsentieren können.
Die eckigen Klammern sollen andeuten, daß wir diese zusätzlichen Terme meistens
weglassen, da wir nicht mit ihnen arbeiten.
Bezüglich der Wärmezufuhr δQ verlassen wir uns zunächst auf unsere naive Erfahrung und denken an einen Tauchsieder oder an einen Eiswürfel. Häufig werden
wir die Wärmezufuhr in der Form δQ = cdT beschreiben können, wobei c eine
“Wärmekapazität” bedeutet.
In unserer rein formalen Anschrift der Energiezufuhr haben wir bewußt das Symbol
δ für die Differentiale δU , δA und δQ benutzt. Dagegen besagt das Symbol d in
dV , dXi und dT , daß wir V , Xi und T als Zustandsgrößen betrachten und daß die
Differentiale deshalb total sind. Der erste Hauptsatz behauptet nun, daß dU ebenfalls
ein totales Differential ist. Wir können das axiomatisch fordern (s. u.), ziehen aber
vor, von der physikalischen Formulierung auszugehen:
• Erster Hauptsatz (physikalisch):
Es gibt kein perpetuum mobile erster Art.
Ein perpetuum mobile ist dabei eine Maschine, die “aus nichts” Energie erzeugt.
Nach hinreichend vielen Frustrationen ist die Menschheit nämlich zu dem Schluß
gekommen, daß die Energie (wobei wir das relativistische mc2 einschließen) eine
universelle Erhaltungsgröße ist, die weder aus dem Nichts geschaffen werden noch zu
nichts vergehen kann. Und wenn ich in der Mechanik durch Reibung Energie verliere,
so tritt eben diese Energie als “Wärmeenergie” wieder in Erscheinung. Mit einer
thermodynamischen Maschine, die einen Zyklus C durchläuft, kann ich demnach
weder Energie gewinnen noch verlieren:
I
C
δU = 0 .
Aus der Wegunabhängigkeit des Integrals folgt aber unmittelbar, daß sich U eindeutig als Zustandsfunktion definieren läßt oder daß das Differential dU total ist:
10
• Erster Hauptsatz (axiomatisch):
Die innere Energie U ist eine (extensive) Zustandsgröße mit dem Differential
dU = δQ + δA .
2.3
(19)
Der zweite Hauptsatz
Nachdem U als Zustandsgröße ausgewiesen ist, greifen wir die naheliegende Frage
nach einem “Wärmestoff” auf und fragen, ob auch Q eine Zustandsgröße und damit
δQ = dU − δA
ein totales Differential ist. Wir können diese Frage für ein spezielles System, bei dem
wir bereits über alle Information verfügen, rein rechnerisch entscheiden: Das ideale
Gas.
Aus den Zustandsgleichungen
3
U = N kT
2
und pV = N kT
folgt sofort
3
dU = N k dT
2
und
δA = −pdV = −
N kT
dV .
V
Damit erhalten wir das Differential
δQ = N k
3
T
dT + dV
2
V
.
(20)
Ist dieses Differential total? Wir fassen Q als Funktion von T und V auf und rechnen
∂ 3
= 0 und
∂V 2
∂ T 1
6= 0 .
=
∂T V V
V
δQ ist also kein totales Differential, es gibt daher keine Zustandsgröße Q und —
entgegen der vermeintlichen Alltagserfahrung mit der Wärmeflasche — keinen wohldefinierten “Wärmeinhalt” oder “Wärmestoff”!
11
Dagegen fällt uns förmlich ins Auge, daß wir Gl. (20) durch einen einfachen “integrierenden Faktor” integrabel machen können: Die Differentialform
δQ
dV
3 dT
dS =
= Nk
+
T
2 T
V
!
(21)
ist offenbar total und läßt sich sofort zu der eigenartigen Zustandsfunktion
S = Nk
3
ln T + ln V + C(N ) ,
2
(22)
die den Namen Entropie trägt, integrieren. Dabei ist C eine Integrationskonstante.
Da wir die Teilchenzahl N konstant gehalten haben, müssen wir damit rechnen, daß
in C noch eine Abhängigkeit von N “versteckt” ist.
Die Entropie — die unserer direkten Anschauung kaum zugänglich ist und deren
allgemeine Bedeutung wir bisher noch keineswegs postuliert haben — kontrolliert
den Wirkungsgrad einer einfachen Wärmekraftmaschine, die mit dem idealen Gas
arbeitet: der Carnot–Maschine.
Diese idealisierte Maschine arbeitet zwischen zwei Temperaturniveaus T0 und T1 mit
einem Zyklus, dessen Weg in der p–V –Ebene unten skizziert ist. Der Zyklus werde
in der Reihenfolge (1)–(2)–(3)–(4)–(1)– . . . periodisch durchlaufen, die Wege (1)–(2)
und (3)–(4) sind Isothermen, also Kurven konstanter Temperatur, und die Wege
(2)–(3) und (4)–(1) Adiabaten, also Wege ohne Wärmezu– oder –abfuhr (δQ = 0).
1
p
T1
2
4
T0
3
V
Während eines Zyklus wird auf dem Weg (1)–(2) die Wärme Q12 aus dem “Wärmebad” der Temperatur T1 aufgenommen und auf dem Weg (3)–(4) die Wärme −Q34
an das Wärmebad der Temperatur T0 < T1 abgegeben. Der Überschuß
∆Q = Q12 + Q34 = −∆A
12
wird von der Maschine in mechanische Arbeit |∆A| = −∆A umgesetzt. (Denn U ist
Zustandsgröße!)
Während als kühlendes Wärmebad (T0 ) die natürliche Umgebung gewählt werden
kann, muß die Temperatur T1 > T0 durch eine Heizung aufrecht erhalten werden.
Q12 ist also die Primärenergie, die je Zyklus von außen in die Maschine “investiert”
werden muß. Diese Primärenergie wird mit dem Wirkungsgrad
ηC =
|∆A|
Q12 + Q34
=
Q12
Q12
in mechanische Arbeit umgesetzt. Und nun kommt die Entropie ins Spiel: Aus
I
dS =
I
Q12 Q34
δQ
=
+
=0
T
T1
T0
folgt ohne jede Rechnung Q34 = −Q12 T0 /T1 und
ηC = 1 −
T0
.
T1
(23)
Ehe wir die physikalischen Konsequenzen besprechen, machen wir uns bewußt, daß
wir das Ergebnis praktisch ohne Rechnung erhalten haben. Wir haben keine Wärmekapazitäten (cp , cV , Übungen!) berechnet, brauchten keine “Adiabatengleichung”
(Übungen!) herzuleiten und haben kein Integral
∆A =
I
pdV
ausgewertet. Wir haben den Carnotschen Wirkungsgrad ηC einzig und allein aus der
Kenntnis, daß U und S Zustandsgrößen sind, erhalten.
Und nun zur Physik: Der Wirkungsgrad der Carnotschen Maschine hängt vom
Verhältnis der Temperaturen ab und ist immer kleiner als eins. Für den Besitzer einer Carnot–Maschine ist Wärmeenergie also nicht so wertvoll wie mechanische oder elektrische Energie, die vollständig in Arbeit umgesetzt werden kann.
Die Wärmeenergie ist um so wertvoller, je höher das obere Temperaturniveau T1
bei der Umsetzung gewählt werden kann. Erst für T1 = ∞ oder T0 = 0 wird die
Wärmeenergie — bezogen auf die Carnotmaschine — “vollwertig”.
Dem Besitzer einer Carnotmaschine steht nicht nur eine Wärmekraftmaschine zur
Verfügung, sondern auch eine Klimaanlage, mit der er im Sommer kühlen und im
Winter heizen kann. Durchläuft man den Zyklus nämlich in umgekehrter Richtung,
so erhält man eine ”Wärmepumpe”, die von außen Arbeitsleistung aufnimmt, um
Wärme von dem niedrigeren Temperaturniveau T0 in das höhere Temperaturniveau
13
T1 zu “pumpen”. Da aus dem niedrigen Niveau noch Wärme aufgenommen wird,
ist der “Heiz–Wirkungsgrad”
η̄C =
−Q12
1
=
∆A
ηC
(24)
der Wärmepumpe größer als eins.
Der Besitzer zweier Carnotmaschinen CM und CM0 kann nun folgendes amüsante
Spiel treiben: Er schafft sich zwei gemeinsame Wärmebäder (T0 und T1 ) für seine
beiden Maschinen und läßt CM0 als Wärmekraftmaschine laufen. Mit der gewonnen Arbeitleistung treibt er CM als Wärmepumpe an und pumpt die von CM0
“verbrauchte” Wärme ins obere Wärmebad zurück. Dieses Spiel ist besonders ökologisch, denn als Gesamtwirkung für die Umwelt passiert — rein gar nichts: Es wird
effektiv weder Arbeit geleistet noch verbraucht und den Temperaturniveaus wird
effektiv weder Wärme entzogen noch zugeführt.
Nachdem sich obiger Maschinenbesitzer lange genug an seinem Spiel erfreut hat,
kommt ihm ein genialer Gedanke: Ich ersetze, so überlegt er, die Carnotsche
Wärmekraftmaschine CM0 durch eine Hightech–Wärmekraftmaschine HM mit einem Wirkungsgrad
ηH > η C .
Nun kann ich meinen Maschinenpark ständig laufen lassen, ohne das obere Wärmebad effektiv zu belasten, und gleichzeitig ständig eine Nettoarbeitsleistung entnehmen. Die Energie entnehme ich dabei der unerschöpflichen Umwelt (Atmosphäre,
Meer, . . . ) als Wärmebad T0 .
Leider haben sich an dieser und an ähnlichen genialen Ideen schon viele Genies frustriert, so viele, daß die Menschheit daraus gelernt und den folgenden Satz formuliert
hat:
• Zweiter Hauptsatz (physikalisch):
Es gibt kein perpetuum mobile zweiter Art.
Dabei versteht man unter einem perpetuum mobile zweiter Art eine periodisch arbeitende Maschine, die nichts weiter bewirkt, als einem Temperaturbad T0 Wärme
zu entziehen und in Arbeit umzuwandeln.
Eine solche Maschine würde zwar den Energiesatz nicht verletzen, sie wäre wegen der
universellen Verfügbarkeit eines Temperaturbades aber einem “echten” perpetuum
mobile de facto gleichwertig. Eine äquivalente Formulierung des Hauptsatzes lautet
• Es gibt keine periodisch arbeitende Maschine, die nichts weiter bewirkt, als
Wärme von einem niedrigen Temperaturniveau T0 in ein höheres Temperaturniveau T1 zu transportieren (Clausius).
14
Damit ist klar, daß die Hightech–Maschine keinen höheren Wirkungsgrad haben
kann als die Carnotsche. Falls sie ebenfalls reversibel arbeitet, kann sie aber auch
keinen niedrigeren haben. Denn dann brauchte ich die Rolle der Maschinen CM
und HM ja nur zu vertauschen, um ein perpetuum mobile zweiter Art zu bauen. Als
unmittelbare Folge des zweiten Hauptsatzes gilt also der Satz
• Alle reversibel arbeitenden Wärmekraftmaschinen haben denselben Wirkungsgrad
T0
.
(25)
η = ηC = 1 −
T1
Damit sind unsere obigen Feststellungen über mehr oder weniger wertvolle Formen
der Wärmeenergie also nicht mehr auf die Carnotsche Maschine oder das ideale
Gas als Arbeitssubstanz beschränkt, sondern gelten universell. Das aber heißt —
wenn wir uns an die Herleitung der Formel für ηC zurückbesinnen und infinitesimale
Zyklen untersuchen — daß auch die Eigenschaft der Entropie, eine Zustandsgröße
zu sein, universell ist. Damit kommen wir zu der axiomatischen Formulierung des
zweiten Hauptsatzes:
• Zweiter Hauptsatz (axiomatisch):
Die Entropie S ist eine (extensive) Zustandsgröße mit dem Differential
dS =
δQrev
.
T
(26)
Mit dem Index rev wollen wir dabei an eine ganz wichtige Voraussetzung unserer
Argumentation erinnern: Die reversible Prozeßführung. Mit “dissipativen” Prozessen
(z. B. Reibung) kann man nämlich auf irreversible Weise Wärme erzeugen. Eine
Maschine mit Dissipation arbeitet irreversibel und hat einen kleineren Wirkungsgrad
als die Carnotsche. Durchläuft eine solche Maschine einen vollen Zyklus, so bleibt
die Entropie nicht erhalten. Die Berechnung der Entropie nach der Formel dS =
δQ/T setzt also reversible Prozeßführung voraus.
Und was ist, wenn der Prozeß nicht reversibel geführt wird? Dann bleibt die Feststellung, daß eine andere Maschine keinen höheren Wirkungsgrad haben kann als
die (reversibel arbeitende!) Carnotsche, weiterhin gültig, läßt sich aber nicht mehr
durch Vertauschung der Maschinen umkehren. Statt Gl. (25) haben wir also allgemein
η ≤ ηC = 1 −
T0
,
T1
Wenn wir die Rechnung rückwärts verfolgen, finden wir daraus
15
(27)
Q12 Q34
+
≤ 0.
T1
T0
Dieses Ergebnis läßt sich (z. B. über gekoppelte infinitesimale Kreisprozesse) zur
Clausiusschen Ungleichung
I
δQ
≤0
T
(28)
verallgemeinern. Wir wollen diese Beziehung auf einen beliebigen Weg von A nach B
anwenden. Um zu einem vollen Umlauf zu kommen, schließen wir die Kurve durch
einen reversiblen Rückweg. Damit können wir die Clausiussche Ungleichung auch
in der Form
SB − S A ≥
ZB
A
δQ
.
T
(29)
schreiben. Fassen wir nun Subsysteme, in denen irreversible Prozesse ablaufen dürfen,
zu einem thermisch abgeschlossenen Gesamtsystem (δQ = 0) zusammen, so gilt offenbar
SB ≥ S A ,
in Worten :
• Die Entropie eines thermisch abgeschlossenen Systems kann nur zunehmen.
Dieser Satz, der auch als zweiter Teil des zweiten Hauptsatzes3 bezeichnet wird, prägt
der Physik erstmals eine Zeitrichtung auf. Dieser Umstand hat im 19. Jahrhundert
maßgeblich dazu beitragen, daß der Begründung der Thermodynamik durch die
Statistik lange mit großer Skepsis begegnet wurde.
In einem abgeschlossenen System wird die Entropie also ständig zunehmen — bis
sie schließlich ihren maximalen Wert annimmt: Das Gleichgewicht ist erreicht. Dies
ist denn auch der Ausgangspunkt, das Gleichgewicht, von dem nun schon so oft
die Rede war, in aller Strenge zu definieren. Auf dieses Gleichgewicht und auf die
reversiblen Prozesse, die von einem Gleichgewichtszustand zu einem anderen Gleichgewichtszustand führen, beschränkt sich die “eigentliche” Thermodynamik, die wir
hier behandeln.
3
Der erste Teil postuliert S als Zustandsgröße.
16
2.4
Die thermodynamischen Potentiale
Wir beschränken uns im folgenden wieder grundsätzlich auf reversible Prozesse, ohne
durch eine Kennzeichnung explizit daran zu erinnern. Dann gilt δQ = T dS und wir
können den ersten und zweiten Hauptsatz in der Form
dU = T dS − p dV [+
P
i
Yi dXi ]
(30)
zusammenfassen, in der nur noch Zustandsgrößen und totale Differentiale vorkommen. Die innere Energie U erscheint hier als Funktion der “natürlichen Variablen” S,
V und (je nach Bedarf) Xi und wird ein thermodynamisches Potential genannt:
U = U (S, V, [Xi ]) .
(31)
Die natürliche Variable S ist häufig unbequem: Die Entropie haben wir längst noch
nicht “verstanden”, und einer Messung ist sie auch nicht leicht zugänglich. Da ein
Thermometer schön einfach und handlich ist, möchten wir S gern durch die “konjugierte” Temperatur
∂U
∂S
T =
!
(32)
V
ersetzen. Umformungen solcher Art sind uns von der Mechanik vertraut: Dort haben
wir die die generalisierten Geschwindigkeiten q̇k durch die kanonischen Impulse
pk =
∂L
∂ q̇k
ersetzt, indem wir von der Lagrangefunktion L(qk , q̇k ) zur Hamiltonfunktion
H(qk , pk ) = −L +
X
pk q̇k
k
übergegangen sind. Eine solche Legendretransformation führen wir nun auch in der
Thermodynamik durch, indem wir ausgehend von der inneren Energie U (S, V, [Xi ])
die freie Energie
F (T, V, [Xi ]) = U − T S
(33)
bilden. Die freie Energie ist ebenfalls ein thermodynamisches Potential. Daß dieses
Potential tatsächlich von den natürlichen Variablen T , V [und Xi ] abhängt, erkennt
man, wenn man unter Beachtung von (30) und (32) das Differential
17
dF = −S dT − p dV [+
P
i
Yi dXi ]
(34)
bildet. Dieses Differential macht auch den Namen verständlich: Wir können daraus
nämlich ablesen, daß die freie Energie diejenige Energie beschreibt, die bei konstanter
Temperatur in Arbeitsleistung umgesetzt werden kann. Energien wie die elektrische
Feldenergie oder die mechanische Energie einer gespannten Feder (usw.) sind in
diesem Sinne als freie Energien zu betrachten!
In ganz analoger Weise kann man auch die Variable V durch die konjugierte Variable
p ersetzen und erhält als neues Potential die Enthalpie
H(S, p, [Xi ]) = U + pV
(35)
mit dem Differential
dH = T dS + V dp [+
Yi dXi ] .
P
i
(36)
Dieses Potential eignet sich besonders zur Beschreibung adiabatischer Prozesse bei
konstantem Druck.
Schließlich und endlich können wir sowohl S als auch V ersetzen und erhalten das
Gibbssche Potential oder die freie Enthalpie
G(T, p, [Xi ]) = U − T S + pV
(37)
mit dem Differential
dG = −S dT + V dp [+
P
i
Yi dXi ] .
(38)
Dieses Potential bleibt konstant, wenn man Vorgänge bei konstanter Temperatur
und konstantem Druck untersucht. Es ist daher das Lieblingspotential der Chemiker.
Grundsätzlich ist jedoch zu beachten, daß alle thermodynamischen Potentiale äquivalent sind: Besitzt man irgendein thermodynamisches Potential als Funktion seiner
natürlichen Variablen4 , so besitzt man die gesamte thermodynamische Information.
Denn alle Zustandsgrößen lassen sich daraus durch bloßes Differenzieren berechnen. Beispielsweise erhält man sofort die thermische Zustandsgleichung p = p(T, V ),
wenn man die freie Energie nach V differenziert. Die Wahl des einen oder anderen
Potentials ist also allein eine Frage der Bequemlichkeit.
Wir können unsere vier Potentiale U , F , H und G mit ihren wechselnden natürlichen
Variablen S, T , V und p in der folgenden kleinen Tabelle zusammenfassen:
4
Vgl. L(q, q̇) und H(q, p) in der Mechanik.
18
S
H
p
U V
&
% F
G T
In der Mitte der Seiten dieses Quadrats steht jeweils eins der thermodynamischen
Potentiale, und an den benachbarten Ecken findet man die zugehörigen natürlichen
Variablen. Die Reihenfolge der Symbole kann man sich mit dem Merkspruch
Schöne Und Vornehme Frauen Tragen Große prächtige Hüte
ins Gedächtnis rufen (vorausgesetzt, man behält, welche Attribute durch “und”
verbunden sind). Das Pfeilkreuz in der Mitte soll die Vorzeichen der partiellen Ableitungen andeuten. Beispielsweise gilt
∂F
∂T
!
= −S ,
V
“weil” man sich bei der Anschrift dieser Gleichung gegen die Pfeilrichtung bewegt.
Aus dem Diagramm lassen sich nach dem Schema
∂ 2f
∂ 2f
=
∂x∂y
∂y∂x
auch ein paar nützliche Beziehungen ablesen, die als Maxwellrelationen bezeichnet
werden. Als Beispiel notieren wir
∂S
∂V
!
=
T
∂p
∂T
!
V
"
∂2F
=−
∂T ∂V
#
,
(39)
gehen aber nicht weiter auf die Bedeutung5 der Maxwellrelationen ein. Die Effizienz
der thermodynamischen Potentialen bei der Lösung konkreter Probleme demonstrieren wir im Abschnitt 2.7.
Wir beenden diesen Abschnitt mit einem ergänzenden Hinweis zum thermischen
Gleichgewicht. Im vorigen Abschnitt hatten wir aus der Clausiussche Ungleichung [vgl. Gln. (28) und (29)]
dS ≥
5
δQ
T
Vgl. aber die Analogie zwischen Gl. (39) und der Clausius–Clapeyron–Beziehung (50).
19
gefolgert, daß das Gleichgewicht eines abgeschlossenen Systems durch eine maximale
Entropie ausgezeichnet ist. Betrachten wir statt eines abgeschlossenen Systems nun
ein System im Wärmebad (konstante Temperatur T und konstantes Volumen V ), so
wird
dF = dU −T dS ≤ dU −δQ = δA = 0 .
Der Gleichgewichtszustand eines isothermen und isochoren Systems ist also durch
ein Minimum der freien Energie ausgezeichnet. In ähnlicher Weise läßt sich für
andere Nebenbedingungen zeigen, daß im Gleichgewicht jeweils dasjenige thermodynamische Potential minimal wird, dessen natürliche Variable konstant gehalten
werden:
- S, V [, Xi ] fest =⇒
U minimal,
- T , V [, Xi ] fest =⇒
F minimal,
- T , p [, Xi ] fest =⇒
G minimal,
- S, p [, Xi ] fest =⇒
H minimal.
2.5
Variable Teilchenzahl
Bisher haben wir die Teilchenzahl N konstant gehalten und als Variable ignoriert. In offenen Systemen und in Systemen mit chemischen Reaktionen werden die
Teilchenzahlen Nk aber selbst zu interessanten Zustandsgrößen. Eine “versteckte”
Abhängigkeit der Entropie von der Teilchenzahl haben wir im Zusammenhang mit
der Entropieformel (22) des idealen Gases bereits angedeutet. Wollen wir eine solche
Abhängigkeit berücksichtigen, so müssen wir die bisherige Definition
δQ
dU + pdV [−
dS =
=
T
T
P
i
Yi dXi ]
durch
dU + pdV [−
dS =
T
P
i
Yi dXi ]
+
X
k
∂S
∂Nk
!
dNk
U,V,Xi
verallgemeinern. Damit erhält der kombinierte erste und zweite Hauptsatz die Form
dU = T dS − p dV +
X
k
20
µk dNk [+
P
i
Yi dXi ]
(40)
wobei die chemischen Potentiale µk durch die partiellen Ableitungen
∂S
∂Nk
!
U,V,Xi
=−
µk
T
(41)
definiert sind. Der Zusatzterm
+
X
µk dNk
k
tritt dann unverändert auch in den Differentialen der thermodynamischen Potentiale
F , H und G hinzu. Die chemischen Potentiale treten also formal als die konjugierten
Variablen zu den Teilchenzahlen auf.
Um ihre Bedeutung und die Namensgebung wenigstens zu erahnen, betrachten wir
wie gewohnt ein homogenes System, in dem sich bei einer Halbierung des Systems
auch die thermodynamischen Potentiale halbieren6 , also extensiv sind. Wir haben
dann insbesondere
G(T, p, λNk ) = λG(T, p, Nk ) .
Differenziert man nach λ und setzt λ = 1, so erhält man wegen (∂G/∂Nk )T,p = µk
die Gibbs–Duhem–Relation
G(T, p, Nk ) =
X
N k µk .
(42)
k
Die chemischen Potentiale geben also an, welchen Beitrag ein einzelnes Teilchen (bei
konstanter Temperatur und konstantem Druck) zum Gibbschen Potential G liefert.
Wir würden auf diese formalen und wenig anschaulichen Betrachtungen ja gern
verzichten, aber leider benötigen wir die chemischen Potentiale zur Definition eines
weiteren thermodynamischen Potentials
J(T, V, µk ) = F −
X
k
Nk µk = F − G = −pV
(43)
mit dem Differential
dJ = −S dT − p dV −
6
X
Nk dµk .
k
Wir schließen damit insbesondere Oberflächeneffekte aus.
21
(44)
Dieses Potential ohne feste Teilchenzahl ist nämlich unverzichtbar für eine elegante
Formulierung der Quantenstatistik.
Damit wollen wir den abstrakten Formalismus abschließen und uns explizit mit der
Entropie des idealen Gases befassen. Wir betrachten wieder die Gl. (22) und überlegen, wie die Integrationskonstante C(N ) von N abhängen muß. Die Entropie wird
nur dann wie gefordert extensiv, wenn die Klammer [. . . ] in Gl. (22) eine intensive
Größe beschreibt, die sich bei einer Verdoppelung des Systems nicht ändert. Mit
einer Entropiekonstante σ0 folgt daher C(N ) = σ0 − ln N und
S = Nk
3
V
ln T + ln + σ0 .
2
N
(45)
Im nächsten Abschnitt werden wir hieraus das chemische Potential des idealen Gases
berechnen. Hier wollen wir auf eine viel interessantere Folgerung hinaus:
Wir betrachten zwei verschiedene ideale Gase A und B gleicher Dichte und gleicher
Temperatur (⇒ gleicher Druck!) in zwei getrennten Teilvolumina VA und VB . Diese
beiden Gase haben eine Gesamtentropie
3
VA
VB
3
S0 = NA k ln T + ln
+ σA + NB k ln T + ln
+ σB .
2
NA
2
NB
Wenn wir nun die Trennwand zwischen den beiden Teilvolumina entfernen, steht
beiden Gasen das gesamte Volumen V = VA + VB zur Verfügung und wir erhalten
die größere Entropie
S1 = N A k
V
V
3
3
ln T + ln
+ σA + NB k ln T + ln
+ σB .
2
NA
2
NB
Die Differenz
V
V
+ NB ln
∆S = S1 − S0 = k NA ln
VA
VB
(46)
wird als Mischungsentropie bezeichnet. Die Entropie ändert sich also nicht nur bei
Wärmezufuhr, sondern auch bei einer Mischung verschiedener Komponenten. Und
hieran schließt sich sofort das Gibbssche Paradoxon an: Was wird aus der Entropie,
wenn ich immer ähnlichere und schließlich nicht mehr unterscheidbare Gase mische?
2.6
Anwendungen: Reaktionsgleichgewichte
In unserer “abgespeckten” Thermodynamik können wir uns den üblichen Katalog
von Anwendungen nicht leisten und wollen nur exemplarisch demonstrieren, wie man
22
mit dem abstrakten Formalismus konkrete Probleme löst. Dazu betrachten wir ein
System aus verschiedenen Komponenten Ak , die gemäß einer “Reaktiongleichung”
X
νk Ak = 0
(47)
k
ineinander umgewandelt werden können. Dabei denken wir sowohl an chemische
Reaktionen wie
2H2 + O2 − 2H2 O = 0
(also νH2 = 2, νO2 = 1 und νH2 O = −2) als auch an Phasenübergänge. So werden
wir das Gleichgewicht zwischen einer Flüssigkeit F und ihrem Dampf D durch die
Reaktionsgleichung
F−D=0
(also νF = 1 und νD = −1 beschreiben.
Wir betrachten unser System nun bei vorgegebener Temperatur T und vorgegebenem Druck p. Dann ist das Gleichgewicht durch ein Minimum des Gibbsschen
Potentials ausgezeichnet. Da T und p nicht verändert werden, gilt im Gleichgewicht
also
dG =
X
k
∂G
∂Nk
!
dNk =
T,p
X
µk dNk = 0 .
Entsprechend der Reaktionsgleichung (47) verhalten sich die Änderungen der Teilchenzahlen wie die νk :
dNk ∼ νk .
Damit erhalten wir die allgemeine Gleichgewichtsbeziehung (T , p fest!)
X
νk µk (T, p) = 0 ,
(48)
k
die noch einmal besonders deutlich macht, wie die chemischen Potentiale zu ihrem
Namen kommen.
Wir wollen sie aber zunächst auf das Gleichgewicht zwischen Flüssigkeit und Dampf
anwenden. Um in der abstrakten Formulierung
23
µD (T, p) = µF (T, p)
(49)
die Dampfdruckkurve p = pD (T ) zu erkennen, gehen wir von den Gibbs–Duhem–
Relationen
µk =
Gk
= gk (T, p) ,
Nk
k = D, F
des Dampfes und der Flüssigkeit aus7 und bilden die Differentiale
dµk = dgk = −sk dT + vk dp .
Dabei bezeichnet sk = Sk /Nk die spezifische Entropie und vk = Vk /Nk das spezifische
Volumen. Aus Gl. (49) folgt damit die Differentialgleichung
(sD − sF )dT = (vD − vF )dp .
Berücksichtigen wir schließlich noch, daß die Entropieänderung beim Übergang vom
flüssigen zum dampfförmigen Zustand durch
sD − s F =
qD
T
mit der spezifischen Verdampfungswärme qD verknüpft ist, so erhalten wir die berühmte Clausius–Clapeyron–Beziehung8
qD
dpD
=
dT
T (vD − vF )
(50)
für die Änderung des Dampfdrucks pD mit der Temperatur T .
Wir kehren nun zu Gl. (48) zurück und werten sie für chemische Reaktionen zwischen
idealen Gasen aus. Um aus Gln. (41) und (45) das chemische Potential µk eines
idealen Gases zu berechnen, bilden wir am einfachsten (warum?) zunächst die freie
Energie9
Nk
3
− σk
Fk = Uk − T Sk = Nk kT (1 − ln T ) + ln
2
V
7
Genau hier verlieren wir Aussagen über den Dampfdruck kleiner Tröpfchen.
Vgl. hierzu auch die Maxwellrelation (39)!
9
Unsere Formulierung ist eigentlich nur für einatomige Gase gültig; die generelle Form bleibt
aber auch bei Molekülgasen erhalten.
8
24
und erhalten
µk =
∂Fk
∂Nk
!
T,V
3
Nk
− σk .
= kT + kT (1 − ln T ) + ln
2
V
Ersetzen wir Nk durch den Partialdruck
pk =
Nk kT
,
V
so folgt
µk = kT ln pk − ck (T ) ,
wobei wir uns die genaue Spezifizierung von ck (T ) schenken. Damit erhält Gl. (48)
die Form
X
νk ln pk =
X
ck (T ) .
k
k
Gehen wir vom Logarithmus zum Numerus über, so erhalten wir das Massenwirkungsgesetz
Y
pνkk = C(T ) .
(51)
k
2.7
Das Nernstsche Theorem
Unsere Thermodynamik ist im wesentlichen “abgeschlossen” und wir brauchen keine
neue Zustandsgröße mehr einzuführen. Ein gewisser Mangel der bisherigen Theorie
liegt aber darin, daß die Entropie nur differentiell definiert ist. Es gibt nämlich Fälle,
in denen zwei verschiedene Zustände nicht durch einen reversiblen Weg verbunden
werden können. In solchen Fällen kann das Ergebnis einer thermodynamischen Rechnung von der richtigen Wahl der Entropiekonstanten abhängen. Zur Behebung dieses
Mangels formulierte Nernst 1905 im Einklang mit der Erfahrung sein berühmtes
Theorem
• Die Entropie eines Systems am absoluten Nullpunkt ist eine von allen Zustandsgrößen unabhängige Konstante, die man zu Null wählen darf.
25
Dieses Theorem wurde später auch als dritter Hauptsatz der Thermodynamik
bezeichnet.
Die wichtigste Konsequenz dieses Satzes ist, daß sämtliche spezifischen Wärmen für
T → 0 verschwinden. Hiermit kommen wir jedoch (u. a.) in ernsthafte Schwierigkeiten mit dem idealen Gas, für das wir unabhängig von der Temperatur
cV =
∂U
∂T
!
V
3
= N k 6= 0
2
finden. Auch die Entropieformel (41) strebt nicht gegen eine universelle Konstante,
sondern divergiert für T → 0. Daß es in der Natur keinen Stoff gibt, der für T → 0 als
ideales Gas angesehen werden kann, ist nur ein schwacher Trost für das prinzipielle
Versagen des Modells. Außerdem treten ganz analoge Diskrepanzen auch bei der
spezifischen Wärme des Festkörpers auf.
Wir stehen mit diesen Problemen wieder am Beginn des 20. Jahrhunderts und
müssen die Diskrepanzen zum Nernstschen Theorem mit den “schwarzen Wolken”
aus Teil I der Vorlesung in Verbindung bringen: Der dritte Hauptsatz formuliert
einen makroskopischen Quanteneffekt!
Was aber haben wir in der Maxwell–Boltzmann–Statistik des Abschnitts 1.3
falsch gemacht? Wo ist überhaupt spezifiziert worden, ob unsere Gasteilchen den
Newtonschen Gesetzen oder der Schrödingergleichung folgen? Es ist an der
Zeit, daß wir eine systematische Statistik entwickeln, in der wir klassische Teilchen
und Quantenzustände sauber unterscheiden können.
26
3
3.1
Die Grundlagen der Statistik
Shannons Informationsentropie
Im ersten Kapitel hatten wir erläutert, daß es nicht nur unmöglich, sondern auch
nicht wünschenswert ist, die detaillierte mikroskopische Information eines makroskopischen Systems festzulegen: Die Informationsmenge wäre einfach zu groß. Stattdessen haben wir uns entschlossen, uns mit der Verteilungsfunktion zu begnügen. Wie
detailliert ist die verbleibende Information? Brauchen wir immer noch Bibliotheken, um sie zu notieren? Und wodurch zeichnet sich die Gleichgewichtsverteilung
aus? Wir hatten den Übergang zum Gleichgewicht bereits intuitiv mit einem totalen “Chaos” in Verbindung gebracht. Wird bei diesem Übergang alle Information
zerstört?
Wenn wir diese Frage beantworten wollen, stehen wir vor dem Problem, ein Maß für
Information zu definieren. Mit genau dem Problem hat man sich jedoch außerhalb
der Physik in der Nachrichtentechnik und in der Datenverarbeitung befaßt: Welchen
Speicherplatz benötige ich, um ein Bild zu speichern? Wie hängt die Auflösung des
Fernsehbildes von der Breite des Übertragungskanals ab? Wieviel Information kann
ich noch aus einem “verrauschten” Signal retten? . . .
Wenn wir die Information messen wollen, gehen wir naiv von der Länge des Textes
oder der Zahl der Zeichen aus. Da ein Zeichen einer Bilderschrift sicherlich “informativer” ist als ein Zeichen des lateinischen Alphabets, wollen wir die Zeichen universell
codieren und benutzen dazu “binäre Digits” oder “bit”s. Zur Codierung eines Zeichens einer modernen Schreibmaschine benutzt man 8 bit oder ein “byte”. Für einen
Text von 1000 Zeichen (ca. 12 Seite) benötigt man also eine Speicherkapazität von
8000 bit oder 1k (kilobyte). Dabei ist der Text aber nicht optimal gespeichert, er läßt
sich “komprimieren”. Denn die einzelnen Zeichen zi (i = 1, . . . , n) des Alphabets haben eine verschiedene a priori – Wahrscheinlichkeit pi . Da ein ‘e’ in deutschen Texten
wesentlich häufiger vorkommt als ein ‘y’, ist es ökonomisch, das ‘e’ mit weniger bit
zu codieren als das ‘y’ (vgl. das Morsealphabet!).
Zu einer wesentlich besseren Codierung kommen wir (vereinfachend), wenn wir die
Zeichen zi unter Ausnutzung der Normierung
n
X
pi = 1
i=1
durch Teilintervalle Zi der Länge pi des Grundintervalls I = (0, 1) repräsentieren:
Z1
Z2
Z3
...
Zn−1
Zn
1
0
27
Das Grundintervall I teilen wir in die Teilintervalle I0 = (0, 12 ) und I1 = ( 21 , 1),
die Teilintervalle Iν weiter in Iν,0 und Iν,1 , usw. Bei der fortgesetzten Halbierung
notieren wir jeweils, ob Zi (mehr) in der linken (0) oder rechten (1) Hälfte von Iν1 ,...
liegt. Nach m Schritten erhalten wir ein Teilintervall Iν1 ,...,νm der Länge 2−m , welches
das Zeichen zi eindeutig festlegt, wenn
2−m ≤ pi
oder m ≥ −log2 pi
gilt. Zur Übermittlung des Zeichens zi ≡ {ν1 , . . . νm } benötigen wir also
σi = − log2 pi
(52)
bit, und es bietet sich an, diese bit–Zahl σi als Informationsmaß des Zeichens zi zu
definieren.
Der Nachricht z1 , z2 , . . . zN entspricht demnach dem Informationsgehalt σ1 + σ2 +
. . . + σN . In vielen Fällen wird die genaue Zeichenfolge einer Nachricht aber nicht
bekannt sein oder soll variabel sein. Beispielsweise möchte man wissen, welche Information verloren geht, wenn etwa jedes zehnte Zeichen verrauscht, und bei der
Festlegung der Breite von Fernsehkanälen wird man sich nicht an einem bestimmten
Bild, sondern an typischen Bildern orientieren wollen. Darum interessiert sich der
Nachrichtentechniker für den mittleren Informationsgehalt σ eines Zeichens oder ΣN
einer Nachricht von N Zeichen. Da die einzelnen Zeichen zi mit der Wahrscheinlichkeit (also der relativen Häufigkeit) pi in den Nachrichten vorkommen, gilt
σ = hσi i = −
n
X
pi log2 pi
und ΣN = N σ .
(53)
i=1
σ bzw. ΣN wird als die Shannon–Entropie bezeichnet. Diese Shannon–Entropie mißt also
— den mittleren Informationsgehalt einer Nachricht von N Zeichen oder
— die Unkenntnis, die ich im Mittel habe, wenn ich nicht weiß, welche N Zeichen
übermittelt werden (oder verloren gehen).
So ganz optimal ist unsere Codierung noch nicht, wenn wir nur die Wahrscheinlichkeiten der einzelnen Zeichen berücksichtigen. Tritt beispielsweise in einem deutschen
Text das Zeichen ‘q’ auf, so wird das Zeichen ‘u’ nahezu mit Sicherheit und nicht mit
der geringen Wahrscheinlichkeit pu ≈ 0.032 folgen. Die generelle Bedeutung solcher
Korrelationen demonstrieren wir an den vier Zufallstexten im folgenden Kasten,
bei denen Zweierkorrelationen berücksichtigt wurden, die jeweils einem deutschen,
einem englischen, einem griechischen und einem lateinischer Mustertext entnommen
wurden.
28
Zufallstexte mit deutschen, englischen, griechischen und lateinischen Zweierkorrelationen
la epekalierses es matasin kai gar sphilon gyn
lon en the anthron allai olyto theon toi os
ypephroys er o dethos oi otimon thlontestelgemin agon os mylien popioikopolla thai de
rhyron o kai zen allagchthosthygai eripon ai
lio thygarnes bron er on ede neseta men moterioi diayto gar on toi alai ai oron ai elgeipersesoi oysko tiathe epeessethreitai esin olos
ike ithioi allos nostar thaliesechthioys thytar
alla alion de alyta emin agamoronden lon dedenaas polytayran ei sphelge estheoy agchon
os bes dysoion kai mnaio ide amphe enon de
ekio pan ieion ein kaieses patai atha pso ois mon
kai ampimoron ai alge de pto gathrotimenia on
aparnes pos ektaon kra kaipotioon o te o oieripyn
brie zuvon benfliedas mich altesst weil so er
wenken nauess schlagefunsen bein fues suesst
gekommen recht ueher benfliesseisch aer ihr
zert gelie tigel das guter fuch niecht glutztesstenst gaehlein gen warachen uer ben du
im ense nur zu er fund krit ge kommen fuchaechein und kann rech dantescht und gekommen wir winauchreiehle nichein bachlatter eifer gutesch aerge sch kankt so eren gan win
daralt leist willein nundem naugel weilt so
isch in warag der bedarf siedas in dem brie zwen
fuesst mag war fuchs gelent der ein der gel gutes ich mich weichrie vor schatt ein ver alt in
ich alte zer und icht glum was scht maenseheinbaues sch alle nicht er better alten wein was
gluten dir so ein das fueheie kann walden du
esst eiden nich danz mage kanz maetten ues ihm
eist uns so ergelen nur weier ben im beisst und
int un nacher den den was genkt wollenkt gant
gesch win dant ge wier kuesch weillt und sehrisch aldeifeit leinachant mit und kuesst und
lust die zu mit weim nich dem nocharter dant
en scherem uesch dant leit gel sprauescht es
gann wart leine was gutes guten wir
ultinguae atentus aquavit eos prae ate atriona
ditinciaes quod suitaeper gibusculibus etii cumi
spe mo pra se omnissimos rhen aus ex imincitano
proximo prattine rhelvet apis rhelgars los mos
belgallia eos mi inessi prattiea celvetiissimone
aus rhodanisse aque ex persuliae flum pelvetur
pelliae flum prattiam fergit imus etitium pelvetiniur pelvet aus manimuscum is etiontut suntentertermanobtinibuscultini estare contianis
eanis etinissimus eost quod alliquitallum pertium pratii a colum no pe a imuscum qui sunt
attiuminen sequit imperfaciae culinibuscu los
facitiontercaus belvetia dia his fluntessequitisperuntu a eos essi torio providiffemanobtiae
eos los eos mo qui sequi attios
of the of hout bithe yeader had the bed day
sculler a stild mis sfly of bern hiche rom barringe ande lande last gone drown thery gonevold dream the whishe of his the ande facrown
theame waswit beed was quilligs las com offelvedrown dooness animajes quilled prfn th a
maked ant inge a losess to
Aber auch die Zweierkorrelationen sind noch nicht der Weisheit letzter Schluß. Wenn
in einer deutschen Zeichenfolge die Sequenz ‘sc’ vorkommt, wird vermutlich ein ‘h’
folgen, und in dem Wort ‘Wur?el’ wird höchst wahrscheinlich das sonst sehr wenig
wahrscheinliche ‘z’ (pz ≈ 0.014) fehlen. Das heißt aber, daß im allgemeinen neben
den Zweier– auch Dreier–, gelegentlich Sechser– und unter Umständen sogar noch
höhere Korrelationen berücksichtigt werden müssen.
Zu einer Zeichenfolge von N Zeichen müssen wir also genau genommen die Wahrscheinlichkeiten p{iN } sämtlicher Sequenzen
{iN } ≡ (zi1 , zi2 , . . . , ziN )
bestimmen und ihr die Shannon–Entropie
ΣN = −
X
{iN }
p{iN } log2 p{iN }
(54)
zuordnen. Wegen der ungeheuren Zahl möglicher Zeichenketten wird das aber im allgemeinen kaum möglich sein, und man wird sich mit Näherungen begnügen müssen,
in denen alle Korrelationen ab der Ordnung k vernachlässigt sind. Gl. (53) repräsentiert in dem Sinne die Näherung, die man erhält, wenn man bereits die Korrelationen
der Ordnung k = 2 (also alle Korrelationen) vernachlässigt.
29
3.2
Die physikalische Entropie
Das Reizwort “Entropie” ist gefallen und macht uns neugierig, was denn wohl die
Thermodynamik mit der Informatik zu tun hat. Ein makroskopisches System der
Thermodynamik (bzw. Statistik) ist ein komplexes Vielteilchensystem, das eine ungeheuer große Anzahl verschiedener mikroskopischer Zustände (i) einnehmen kann,
die mit der makroskopischen Festlegung weniger Parameter (p, V , T , . . . ) oder auch
der Vorgabe der Verteilungsfunktion verträglich sind. Hat der i–te Mikrozustand
dabei die Wahrscheinlichkeit pi , so ist
Σ=−
X
pi log2 pi
i
die Informationsentropie oder das Shannonsche Maß für die Unbestimmtheit des
Makrozustands: Diese Entropie ist nichts anderes als die Zahl der bits, die im
Mittel benötigt wird, um anzugeben, durch welchen der vielen Mikrozustände der
eine betrachtete Makrozustand gerade realisiert wird. Die “Nachricht” über den
betrachteten Zustand eines idealen Gases könnte also etwa so aussehen:
• Makrozustand:
N = 6 · 1023 V = 0.027 m3
T = 300 K .
• Mikrozustand: (Teilchennummer, x,y,z,vx ,vy ,vz in m bzw. in m/s):
– 1, 0.271459, 0.142877, 0.093945, -327.753, 108.693, -197.782
– 2, 0.176783, 0.264834, 0.112216, 156.658, -217.983, 403.334
..
.
(1014 Bibliotheken)
..
.
– 6 · 1023 , 0.135791, 0.246802, 0.257913, -398.765, 0, 123.456 .
Die Informationsentropie Σ, also die Zahl der bits in den 1014 Bibliotheken, ist
natürlich unbequem groß. Es ist daher praktisch, Σ mit einer kleinen Zahl c, etwa c =
k ln 2 (k = Boltzmannkonstante) zu multiplizieren und die physikalische Entropie
eines Makrozustands durch die Shannonformel
S = k ln2 Σ = −k
X
pi ln pi
(55)
i
zu definieren10 . Die Summe läuft dabei über die ungeheure(!) Anzahl sämtlicher
Mikrozustände des gesamten Vielteilchensystems.
10
Mit dieser Definition sind wir nicht auf das Gleichgewicht beschränkt. Die Shannonformel
gibt uns vielmehr die Möglichkeit, S auch außerhalb der reversiblen Thermodynamik eindeutig zu
definieren!
30
Was hat die so definierte physikalische Shannonentropie nun mit der Entropie zu
tun, die wir in der Thermodynamik kennengelernt haben? Wir wollen diese Frage
zunächst an unserem Standard–Versuchsmodell, dem idealen Gas, untersuchen.
3.3
Ideales Gas und µ–Raum–Statistik
Das ideale Gas bestehe aus N unkorrelierten Teilchen. Wie bei der Nachricht mit
unkorrelierten Zeichen [vgl. Gl. (53)] können wir die Shannonentropie daher nach
dem Muster
S = N s mit s = −k
X
pi ln pi
i
bilden, wobei sich die pi im Gegensatz zu Gl. (55) nun nur auf die Zustände eines
Teilchens im µ–Raum (6 Koordinaten r und v) beziehen. Dabei bietet es sich an,
durch die Interpretation
pi → f (r, v, t)
d3 rd3 v
N
von der Summe zum Integral über zu gehen, also
S = −k
Z
f ln pi d3 rd3 v
zu definieren. Hierbei stehen wir allerdings vor einem kleinen Problem: Während die
Ersetzung pi → f d3 rd3 v/N die Summe problemlos in das Integral überführt, müssen
wir uns bei der Festlegung von pi im Logarithmus fragen, welche Mikrozustände
wir überhaupt unterscheiden wollen. Im Augenblick begnügen wir uns damit, das
Phasenvolumen in typische “Zellen” der Größe ∆µ zu zerlegen und setzen
pi ∼
∆µ
f (r, v, t) .
N
Damit erhalten wir
S = −k
Z
f ln
∆µ
f d3 rd3 v = kH + const ,
N
(56)
wobei H (eigentlich griech. “H” = groß “Eta” für “Entropie”) das Boltzmannsche
Funktional
H=−
Z
f ln f d3 rd3 v
31
(57)
bezeichnet. Mit den Gln. (56) bzw. (57) haben wir die Entropie für beliebige Verteilungsfunktionen unahängig vom Gleichgewicht definiert. Was soll das Gleichgewicht
auszeichnen? In der Thermodynamik hatten wir das Gleichgewicht bei vorgegebenen
U , V und N durch eine maximale Entropie charakterisiert. Fragen wir uns also, für
welches f die Funtion H maximal wird und bilden die Variation
δH = −
Z
(1 + ln f )δf d3 rd3 v .
Wenn wir dabei über ein festes Volumen V integrieren, müssen wir noch die beiden
Nebenbedingungen
δN =
Z
δU =
m
2
δf d3 rd3 v = 0 und
Z
v 2 δf d3 rd3 v = 0
berücksichtigen. Mit zwei Lagrangeparametern α und β erhalten wir also
δH = −
Z
[ln f + α + βv 2 ] δf d3 rd3 v .
Da nun δf frei gewählt werden kann, folgt als Bedingung für ein maximales H, daß
die Klammer [ ] verschwinden muß oder
f = exp(−α − βv 2 ) .
Im Einklang mit der völlig verschiedenen Argumentation im Abschnitt 1.3 finden
wir als Gleichgewichtsbedingung also wieder die Maxwellverteilung. Mit den alten
Bezeichnungen setzen wir deshalb
m
2πkT
3/2
2πkT
V
ln
+ ln
N
m
!3/2
f (v) =
N
V
mv 2
e− 2kT
in Gl. (57) ein und erhalten
H =
Z

V
2πkT
= N ln + N ln
N
m

2πkT
V
= N ln + ln
N
m
32

mv 2 
+
f d3 rd3 v
2kT
!3/2
!3/2
+
N mhv 2 i
kT 2

3
+ .
2
Für die Gleichgewichtsentropie folgt also aus Gl. (56)
3
V
ln T + ln + σ0
S = Nk
2
N
2πk
mit σ0 = ln
m
!3/2
+ ln
(58)
N
3
+ .
∆µ 2
Erfreuen wir uns zunächst an dem schönen Erfolg, den wir hiermit erzielt haben:
Gl. (58) stimmt nämlich in der Form genau mit Gl. (45) überein. Unsere Informationsentropie ist also für das ideale Gas im Gleichgewicht identisch mit der thermodynamischen Entropie. Unsere Rechnung hat weiter gezeigt, daß die Entropie der
Gleichgewichtsverteilung maximal wird.
Gl. (58) liefert uns schließlich sogar die Konstante σ0 , die wir mit den Mitteln der
Thermodynamik nicht festlegen konnten. Gerade hierin zeigen sich aber noch zwei
gravierende Mängel: σ0 hängt nämlich erstens von der willkürlichen Zellgröße ∆µ
und zweitens — was eindeutig falsch ist! — von der Teilchenzahl N ab.
Bezüglich des ersten Mangels könnten wir die Wahl von ∆µ an unsere Meßgenauigkeit anpassen. Damit erhielte die Entropie aber einen “subjektiven” Beitrag, der
vom Beobachter abhängt und das Geschick des Experimentators, und nicht das
System beschreibt. Diese Überlegung ruft natürlich Erinnerungen wach, und wir
denken daran, daß es auch eine objektive, prinzipielle Begrenzung der Meßgenauigkeit bei der Festlegung der µ–Raum–Koordinaten gibt: Aus der Heisenbergschen
Unschärferelation
∆x∆px = m∆x∆vx ≥ h
bietet es sich zwanglos an,
∆µ = h3 /m3
als universelle Zellgröße zu wählen. Etwas überraschend ist allerdings, daß die quantenmechanische Konstante h nun in die Formel für die Entropie des klassischen
idealen Gases eingeht.
Die Quantenmechanik steckt auch hinter dem zweiten Mangel: Entgegen unserer
Rechnung darf σ0 nicht von N abhängen, da S extensiv sein soll. Unser Fehler beruht
darauf, daß wir falsch “gezählt” haben. Wir haben die Entropie des N –Teilchen–
Systems nämlich nach dem selben Schema wie die Entropie einer Nachricht aus N
Zeichen gebildet. Die Information der Nachricht hängt natürlich von der Reihenfolge
der Zeichen ab; der physikalische Mikrozustand unseres idealen Gases ändert sich
aber nicht, wenn wir Teilchen vertauschen. Die Quantenmechanik sagt uns nämlich,
33
daß identische Teilchen prinzipiell ununterscheidbar sind. Darum erhalten wir keinen
neuen Mikrozustand, wenn wir zwei Teilchen vertauschen oder wenn wir sämtliche
Teilchen irgendwie permutieren.
Die Zahl der Mikrozustände ist daher um den Faktor N ! kleiner als wir angenommen haben, und darum brauchen wir log2 N ! weniger bits, um anzugeben, durch
welchen Mikrozustand der betrachtete Makrozustand gerade realisiert wird. Oder
anders ausgedrückt: Unsere Unkenntnis über den Systemzustand, die nach der Festlegung der makroskopischen Parameter bleibt, ist um log2 N ! bits kleiner als in der
Rechnung angesetzt. Den Ansatz S = N s für die Entropie des idealen Gases müssen
wir also durch den “korrigierten” Ansatz
S = N s − k ln N !
(59)
ersetzen. Mit der Stirlingformel11
ln N ! → N (ln N − 1) (N → ∞)
folgt schließlich die universelle Konstante
2πmk
σ0 = ln
h2
!3/2
+
5
.
2
Setzen wir diese Konstante in Gl. (58) ein, erhalten wir die Sackur–Tetrode–
Formel

V
S = N k ln 
N
2πmkT
h2
!3/2
e

5/2 
e5/2
= N k ln
nλ3T
"
#
(60)
für die Entropie des einatomigen12 idealen Gases. Dabei bezeichnet n die Dichte und
λT = √
h
2πmkT
(61)
die “thermische de Broglie–Wellenlänge”.
Haben wir mit der Festlegung ∆µ = h3 /m3 und der “korrigierten Boltzmannabzählung” (Faktor 1/N !) nun endlich die Quantenmechanik gebührend berücksichtigt?
RN
P
ln N ! = N
ln n ≈ 0 ln x dx = (x ln x − x)|N
Formel mit
0 = N ln N − N . (Eine verbesserte
n=1
√
R ∞ N −x
der Korrektur ln 2πN erhält man mit der Sattelpunktsmethode aus N ! = 0 x e dx.)
12
Bei mehratomigen Gasen gibt Gl. (60) den Translationsanteil und muß durch die Beiträge der
Rotation und ggf. Vibration ergänzt werden.
11
34
Leider nein! Denn Gl. (60) divergiert weiterhin für T → 0 und verletzt den dritten
Hauptsatz. Es sieht also so aus, als müssten wir von der unkorrelierten µ–Raum–
Statistik Abschied nehmen und die Grundgleichung (55) unter Berücksichtigung von
Korrelationen auswerten. Das wird sicherlich ohnehin nötig sein, wenn wir die gegenseitige Wechselwirkung der Teilchen berücksichtigen wollen. Woher kommt aber
eine Korrelation beim idealen Quantengas?
3.4
Die statistischen Gesamtheiten
Im vorigen Abschnitt konnten wir aus der Bedingung, daß S maximal werden sollte,
die korrelationsfreie µ–Raum–Verteilung fM bestimmen. Nun soll die Korrelation —
zumindest im Prinzip — berücksichtigt werden. Wir werden daher von Gl. (55) ausgehen und versuchen, die Wahrscheinlichkeiten pi aller Mikrozustände des Systems
so zu bestimmen, daß die Entropie maximal wird. Den betrachteten Makrozustand
berücksichtigen wir durch Nebenbedingungen. Wir unterscheiden dabei die folgenden
Möglichkeiten:
1. Wir realisieren die Repräsentation des gewünschten Makrozustands, indem
wir sogleich adaptierte Mikrozustände auswählen. Beispielsweise können wir
die Energie U vorschreiben und dann ausschließlich Mikrozustände der gleicher
Energie Ei = U betrachten. Wir sagen dann, daß die einzelnen Mikrozustände
einer Mikro–Nebenbedingung genügen.
2. Wir realisieren den gewünschten Makrozustand, indem wir die Mittelwerte
bestimmter Parameter vorschreiben. Im obigen Beispiel würden wir also lediglich hEi i = U verlangen. In solchen Fällen sagen wir, daß die Gesamtheit der
Mikrozustände eine Makro–Nebenbedingung erfüllt.
Offenbar beziehen sich Mikro–Nebenbedingungen auf extensive Größen, die sich für
jeden Mikrozustand definieren lassen (z. B. die Energie Ei = U ). Durch die entsprechende Makro–Nebenbedingung wird dagegen die konjugierte intensive Größe (z. B.
hEi i → T ) festgelegt. (Wir werden das noch im Detail sehen.) Natürlich können für
verschiedene Größen Mikro– und Makro–Nebenbedingungen parallel benutzt werden. Dabei wollen wir wie folgt vorgehen:
1. Wir berücksichtigen alle Mikrozustände (i), die mit den Mikro–Nebenbedingungen verträglich sind. Mit dieser Auswahl sind die Mikro–Nebenbedingungen
bereits erfüllt, sie gehen also nicht weiter in die Rechnung ein.
2. Wir variieren die Wahrscheinlichkeiten pi und bestimmen pi so, daß die Variation δS verschwindet. Bei der Variation berücksichtigen wir die Makro–
Nebenbedingungen durch Lagrangeparameter.
35
Wir werden sehen, daß die Lagrangeparameter im wesentlichen die oben erwähnten intensiven Größen repräsentieren. Mit der Wahl der Mikro– bzw. Makro–Nebenbedingungen legen wir also bereits den verwendeten Variablensatz fest. Der Anschluß
an die Thermodynamik erfolgt dann, indem wir aus der Entropie das zu diesem Variablensatz passende thermodynamische Potential berechnen. Bevor wir dies konkret
durchführen und diskutieren, wollen wir die formale Variationsrechnung abhandeln.
Diese ist im wesentlichen identisch mit der Berechnung der Maxwellverteilung im
vorigen Abschnitt.
Aus der allgemeinen Formel (55)
X
S = −k
pi ln pi
i
für die Entropie bilden wir die Variation
δS = −k
X
(ln pi + 1)δpi .
(62)
i
Eine Nebenbedingung (mathematischer Natur) haben wir immer zu erfüllen: Die
Normierung der pi , also
g=
X
i
pi − 1 = 0 oder
X
δg =
δpi = 0 .
(63)
i
Die (physikalischen) Makro–Nebenbedingungen schreiben wir in der Form
hxν i = Xν
oder fν =
X
i
pi xνi − Xν = 0 ,
ν = 1, 2, . . . .
Bei der Variation muß also
δfν =
X
xνi δpi = 0
(64)
i
beachtet werden. Wir berücksichtigen (63) nun durch einen Lagrangeparameter
−kα und (64) durch Lagrangeparameter −kβν und setzen dies in Gl. (62) ein:
X
[ln pi + α + β1 x1i + β2 x2i + . . .]δpi = 0 .
i
Da die pi nun frei variiert werden dürfen, müssen alle Klammern [ ] einzeln verschwinden, es gilt also
36
ln pi = −α − β1 x1i − β2 x2i − . . .
oder
pi = e−α e−β1 x1i −β2 x2i −... .
Aus der Normierung
P
pi = 1 folgt weiter, daß eα oder die Zustandssumme durch
Z = eα =
X
e−β1 x1i −β2 x2i −...
(65)
i
gegeben ist. Damit haben wir schließlich
pi =
1 −β1 x1i −β2 x2i −...
e
.
Z
(66)
Die durch Makro–Nebenbedingungen kontrollierten extensiven Größen (x1i , x2i usw.)
sind in der Gleichgewichtsverteilung also durch unabhängige Exponentialverteilungen der Mikrozustände repräsentiert. Der Boltzmannfaktor stellt nur einen Spezialfall dieser allgemeinen Aussage dar, und wir sehen, wie die statistische Unabhängigkeit generell mit der maximalen Entropie zusammmenhängt.
Aus den Gleichungen (55) und (66) folgt für die Entropie
S = −k
X
pi ln pi = k
pi (ln Z + β1 x1i + β2 x2i + . . .) .
i
i
Berücksichtigen wir noch
X
P
pi = 1 und
P
pi xνi = Xν , so erhalten wir schließlich
S = k [ln Z + β1 X1 + β2 X2 + . . .] .
(67)
Hier zeigt sich nun auch, daß die βν tatsächlich intensive Zustandsgrößen repräsentieren. Es handelt sich nämlich um Parameter, welche durch Makro–Nebenbedingungen
definierte Systemeigenschaften charakterisieren. Und da sowohl S als auch die Xν
extensiv sind, müssen die βν intensiv sein.
In den Gln. (65), (66) und (67) ist das gesamte Grundgerüst der Statistik in komprimierter Form zusammengefaßt. Wir beenden damit die allgemeine Darstellung und
wenden uns den drei gebräuchlichsten speziellen “Gesamtheiten” zu: Der mikrokanonischen, der kanonischen und der groß– oder makrokanonischen Gesamtheit.
37
3.5
Die mikrokanonische Gesamtheit (M)
Für die mikrokanonische Gesamtheit spezifizieren wir
• die Energie U , das Volumen V und die Teilchenzahl N
durch Mikro–Nebenbedingungen und stellen keine Makro–Nebenbedingungen. Damit beschreibt die Zustandssumme
ZM =
X
1=W
(68)
i
nichts anderes als die Zahl aller Mikrozustände zu einem Makrozustand, der durch
die extensiven Variablen U , V und N charakterisiert ist. Man erhält also die mikrokanonische Zustandssumme W , indem man alle mikroskopischen Realisierungsmöglichkeiten des Makrozustands (U, V, N ) “abzählt”. Diese auf Boltzmann zurückgehende Statistik wird daher auch Abzählmethode genannt. Boltzmann selbst bezeichnete W als “thermodynamische Wahrscheinlichkeit” des Makrozustandes13 . Diese
Bezeichnung ist etwas unglücklich und irreführend, die Zahl W der Mikrozustände
repräsentiert präziser den Grad der mikroskopischen Unbestimmtheit eines durch
U , V und N festgelegten Makrozustands. Eine “echte” Wahrscheinlichkeit ist nur
die Wahrscheinlichkeit
pi =
1
W
(69)
der Mikrozustände zu gegebenem U , V und N . Alle Mikrozustände in M sind also
gleichwahrscheinlich14 . Als quantitatives Shannon–Maß der Unbestimmtheit erhält
man Boltzmanns berühmte Formel
S(U, V, N ) = k ln W (U, V, N )
(70)
für die Entropie. Die Zustandsgrößen T , p und µ folgen daraus durch Differentiation,
wenn man mit dem ersten Hauptsatz in der Form
dS =
p
µ
1
dU + dV − dN
T
T
T
vergleicht:
13
Ein Makrozustand mit vielen Realisierungsmöglichkeiten wird also als wahrscheinlich angesehen.
14
Dieses mit der Ergodenhypothese verwandte Postulat tritt hier also scheinbar (!) als Resultat
einer beweiskräftigen Rechnung auf.
38
1
∂
S(U, V, N ) =
∂U
T
∂
p
S(U, V, N ) =
∂V
T
∂
µ
S(U, V, N ) = − .
∂N
T
3.6
(71)
Die kanonische Gesamtheit (K)
In der kanonischen Gesamtheit geben wir weiterhin
• das Volumen V und die Teilchenzahl N
durch Mikro–Nebenbedingungen vor. Statt eines energetisch abgeschlossenen Systems mit fest vorgegebener Energie U interessieren wir uns nun aber für ein System im Wärmebad, das mit seiner Umgebung Energie austauschen kann. Dieses
System werden wir also durch die Temperatur (s. u.) oder durch die mittlere Energie charakterisieren. Neben den beiden Mikro–Nebenbedingungen benutzen wir die
Makro–Nebenbedingung
hEi = U .
(72)
Dem entsprechen gemäß (65) und (66) die Zustandssumme
Z(K) =
X
e−βEi
(73)
i
und die Wahrscheinlichkeiten
pi =
e−βEi
.
Z(K)
(74)
Den Index (K) haben wir in Klammern gesetzt, da man unter dem Begriff “Zustandssumme” ohne nähere Kennzeichnung immer die kanonische Zustandssumme
versteht. In der exponentiellen Energieverteilung der Mikrozustände der kanonischen
Gesamtheit erkennen wir sofort den Bolzmannfaktor.
Nach Gl. (67) gehört zur kanonischen Gesamtheit die Entropie
S = k ln Z + kβU .
39
(75)
Vom Lagrangeparameter β erwarten wir, daß er eine intensive Größe, welche die
mittlere Energie charakterisiert, also die Temperatur T , repräsentiert. Den vermuteten Zusammenhang erhalten wir explizit aus [vgl. Gl. (71)]
∂S
∂U
!
= kβ =
V,N
1
,
T
also
β=
1
.
kT
(76)
Damit folgt aus Gl. (75)
T S = kT ln Z + U
oder
F (T, V, N ) = U − T S = −kT ln Z .
(77)
Mit Z kennen wir also die freie Energie F als Funktion ihrer natürlichen Variablen
T , V und N . Daraus lassen sich alle Zustandsgrößen durch Differentiation gewinnen,
insbesondere folgt aus
p(T, V, N ) =
∂F
∂V
!
T,N
= −kT
∂
ln Z
∂V
(78)
die thermische Zustandsgleichung. Für die innere Energie U (T, V, N ) (kalorische Zustandsgleichung) erhalten wir aus
U = F + TS = F − T
∂F
∂T
und Gl. (77) oder direkt aus
U = hEi =
X
pi Ei =
1X
Ei e−βEi
Z
[vgl. Gln. (72)–(74)] die nützliche Formel
U (T, V, N ) = −
∂
1 ∂Z
=−
ln Z.
Z ∂β
∂β
40
(79)
3.7
Die großkanonische Gesamtheit (G)
Wir betrachten nun ein offenes System, bei dem nur noch
• das Volumen V
durch eine Mikro–Nebenbedingung festgelegt ist. Außer der Energie
U = hEi
(80)
N̄ = hN i
(81)
wird nun also auch die Teilchenzahl
nur noch im Mittel durch eine Makro–Nebenbedingung vorgegeben. Aus den Gleichungen (65) und (66) lesen wir dazu die Zustandssumme
ZG =
e−βEi −γNi
(82)
1 −βEi −γNi
e
ZG
(83)
X
i
und die Wahrscheinlichkeiten
pi =
ab. Aus der Entropie [vgl. Gl. (67)]
S = k ln ZG + kβU + kγ N̄
(84)
folgt wie bei der kanonischen Gesamtheit
∂S
1
= = kβ
∂U
T
oder
β=
1
.
kT
Entsprechend erhalten wir
41
(85)
µ
∂S
= − = kγ
∂ N̄
T
oder
γ=−
µ
.
kT
(86)
Der zweite Lagrangeparameter γ repräsentiert also das chemische Potential µ,
also die zur Teilchenzahl N̄ konjugierte intensive Zustandsvariable. Damit können
wir Gl. (84) in der Form
−kT ln ZG = U − T S − µN̄ = F − µN̄
schreiben. Ein Vergleich mit Gl. (43) zeigt, daß ZG das thermodynamische Potential
J(T, V, µ) = −pV = −kT ln ZG
(87)
als Funktion seiner natürlichen Variablen bestimmt. Die übrigen Zustandsgrößen
lassen sich ohne Schwierigkeit aus dem Differential [vgl. Gl. (44)]
dJ = −SdT − pdV − µdN̄
und/oder aus den Gln. (82)–(86) ablesen. So gilt analog zu der kanonischen Rechnung
p(T, V, µ) = −kT
∂
ln ZG ,
∂V
(88)
(89)
und
1 ∂ZG U (T, V, µ) = −
.
ZG ∂β γ=−βµ
Bei der letzten Differention ist allerdings zu beachten, daß µ/kT konstant gehalten
werden muß. Generell sind die großkanonischen Beziehungen etwas weniger anschaulich als die kanonischen, da die Teilchenzahl durch das chemische Potential ersetzt
ist. Den Zusammenhang mit der Teilchenzahl erhält man durch
1 ∂ZG N̄ = −
ZG ∂γ β
42
(90)
3.8
Die Äquivalenz der Gesamtheiten
Wir rufen uns die drei Gesamtheiten, die durch das Attribut “kanonisch” als besonders bedeutsam gekennzeichnet sind, noch einmal durch eine Tabelle vor Augen:
U
•
1
β = kT
1
β = kT
Mikrokanonische Gesamtheit (M)
Kanonische Gesamtheit (K)
Großkanonische Gesamtheit (G)
V
•
•
•
N
•
•
µ
γ = − kT
Dabei haben wir Mikro–Nebenbedingungen durch das Zeichen • und Makro–Nebenbedingungen durch den zugeordneten Lagrangeparameter gekennzeichnet.
Entsprechend der verschiedenen Spezifikation müßten wir die Indices M, K bzw. G
eigentlich auch benutzen, um die entsprechenden Entropien und die übrigen Zustandsgrößen zu unterscheiden. Wir tun das nicht, weil alle (nicht nur die drei oben
spezifizierten) Gesamtheiten im “thermodynamischen Limes” großer Teilchenzahlen
äquivalent sind. Wir wollen dies exemplarisch für die mikrokanonische Gesamtheit
M und die kanonische Gesamtheit K nachweisen.
Dazu müssen wir zeigen, daß im Limes N → ∞ “fast alle” in K erfaßten Mikrozustände (i) zur selben Energie Ei = U gehören, daß das Ensemble also kaum
eine Streuung zeigt. Das erscheint zunächst überraschend, da die kanonischen Wahrscheinlichkeiten
pi =
1 −βEi
e
Z
zunächst scheinbar implizieren, daß niedrige Energien in K besonders zahlreich vertreten sind. Dieser naheliegende Schluß ist jedoch falsch, da die Zahl W (E) der
Mikrozustände mit Ei = E ungeheuer steil mit E anwächst.
p̃(E) = W (E)
e−βE
Z
hat daher ein scharfes Maximum, das nach Konstruktion bei E = U liegt.
Zum formalen Beweis notieren wir zunächst noch einmal den Mittelwert
U = hEi =
1X
1 ∂Z
Ei e−βEi = −
Z i
Z ∂β
und fragen nach der Streuung um diesen Wert. Dazu berechnen wir nach dem selben
Muster
43
hE 2 i =
1 ∂
1 ∂ X
1 X 2 −βEi
( Ei e−βEi ) = −
(ZU )
Ei e
=−
Z i
Z ∂β i
Z ∂β
= −U
∂U
∂U
1 ∂Z
−
= U2 −
Z ∂β
∂β
∂β
oder
hE 2 i − U 2 = −
∂U
.
∂β
(91)
Nun sind U und E proportional zur Teilchenzahl N . Damit geht die relative Enegieschwankung
∆E
=
U
q
hE 2 i − U 2
U
1
=
U
s
−
∂U
∂β
(92)
√
für N → ∞ wie 1/ N gegen Null15 .
Wir können uns von diesem allgemeinen Schluß im speziellen Fall des idealen Gases
explizit überzeugen. Dann haben wir nämlich
3N
3
U = N kT =
2
2β
und
−
∂U
U
=
= U kT
∂β
β
s
2
.
3N
und erhalten
∆E
=
U
s
kT
=
U
Die selben Rechenschritte lassen sich auf jede beliebige Makro–Nebenbedingung übertragen. So erhält man beispielsweise die Formel
hNi2 i − N̄ 2 = −
∂ N̄
∂γ
(93)
für die Dichteschwankungen der großkanonischen Gesamtheit, und allgemein folgt
aus einer Makro–Nebenbedingung
hxν i = Xν
15
Man beachte außerdem, daß ∂U/∂T im Gleichgewicht notwendigerweise positiv ist.
44
die Streuung
∂Xν
.
(94)
∂βν
√
Alle relativen Schwankungen gehen also mit 1/ N gegen Null — vorausgesetzt, die
partiellen Ableitungen ∂Xν /∂βν zeigen keine Singularitäten. Solche Singularitäten
können aber tatsächlich auftreten und kennzeichnen Phasenübergänge.
hx2ν i − Xν2 = −
Wenn etwa eine Flüssigkeit am Siedepunkt verdampft, ändert sich ihre Teilchenzahl
N (bezogen auf das feste Volumen V ), nicht aber das chemische Potential µ und
die Temperatur T . Also gilt hier ∂N/∂γ = ∞. Die großkanonische Gesamtheit zeigt
dann also große Dichteschwankungen. Diese Dichteschwankungen weisen aber nicht
auf einen Mangel der Theorie, sondern auf eine physikalische Mehrdeutigkeit des
Gleichgewichtszustandes: Wir können nicht eindeutig sagen, welche Dichte Wasser
bei p = 1.013 · 105 Pa und T = 373.2 K hat. Die großen Dichteschwankungen
lassen sich anschaulich als Tröpfchenbildung im Dampf oder Blasenbildung in der
Flüssigkeit interpretieren.
3.9
Klassische Γ–Raum–Statistik
Um den abstrakten Formalismus zumindest ein wenig mit Anschauung zu begleiten,
greifen wir nun explizit auf die Vorstellungen der klassischen Mechanik zurück. Dann
sind Mikrozustände eines N –Teilchen–Systems durch die Angabe sämtlicher Orts–
und Impulskoordinaten
r 1 , . . . , r N , p1 , . . . , pN
(95)
aller Teilchen gekennzeichnet. Der durch die Koordinaten (95) aufgespannte 6N –
dimensionale Phasenraum wird Γ–Raum genannt. Er ist unbedingt vom 6–dimensionalen µ–Raum der Koordinaten (r, p) eines Teilchens zu unterscheiden.
Ein Mikrozustand enspricht also genau einem Punkt im Γ–Raum:
Γ
Mikrozustand
p
x
x
45
Ein Makrozustand wird dagegen durch sämtliche Mikrozustände, die mit der makroskopischen Charakterisierung des Systems verträglich sind, repräsentiert. Dem
Makrozustand entspricht daher ein Ensemble von Punkten im Γ–Raum:
Γ
Makrozustand,
Ensemble
p
. . ..
. .. .... ..... ..
.... ... .
. ........................ .
. .. ... . .
.
x
Nun können die Koordinaten des Γ–Raums kontinuierliche Werte annehmen. Wir
werden daher von den Wahrscheinlichkeiten pi der Mikrozustände zu einer Wahrscheinlichkeitsdichte
pi
−→
%(r1 , . . . , rN , p1 , . . . , pN )d3 r1 . . . d3 rN d3 p1 . . . d3 pN
(96)
von Punkten im Γ–Raum übergehen und Summen durch Integrale ersetzen. Von den
analogen Überlegungen im µ–Raum (Abschnitt 3.3) wissen wir, daß wir trotz der
klassischen Rechnung auf eine Zerlegung des Phasenraums in Zellen der Größe h3N
zurückgreifen müssen, die dem quantenmechanischen Unschärfeprodukt Rechnung
trägt. Wir drücken das symbolisch durch die Ersetzungsvorschrift
X
i
−→
1
h3N
Z
1
d r1 . . . d rN d p1 . . . d pN = 3N
h
3
3
3
3
Z
dωΓ
(97)
aus.
Bei fester Teilchenzahl und vorgegebenem Volumen umfaßt die mikrokanonische
Gesamtheit alle Systeme gleicher Energie
H(r1 , . . . , rN , . . . , pN ) = U
(98)
und wird im Γ-Raum durch die Dichteverteilung
%M
N (r1 , . . . , rN , p1 , . . . , pN ) =
46
δ(H − U )
Ω(U )
(99)
repräsentiert. Dabei ist Ω eine Normierungskonstante, die eng mit der mikrokanonischen Zustandssumme zusammenhängt. Das Bild H = U der mikrokanonischen
Gesamtheit ist eine geschlossene Fläche im Γ-Raum
p
H(x,p)=U
x
Die mikrokanonische Gesamtheit bietet vielleicht von der Mechanik aus den unmittelbarsten Zugang zur Thermodynamik. Wegen der “starren” Beschränkung (Mikro–
Nebenbedingung) (98) ist sie jedoch schwerfällig zu handhaben und führt zu umständlichen Rechnungen. Wir wollen daher die mikrokanonische Gesamtheit nicht weiter
betrachten und wenden uns der kanonischen Gesamtheit oder dem Gibbsschen Ensemble [vgl. Gl. (74)]
%N (r1 , . . . , rN , pN , . . . , pN ) =
e−βH
Z∗
(100)
zu. Dabei ist [vgl. (76)]
β=
1
kT
(101)
der zur Makro–Nebenbedingung
1
hHi = ∗
Z
Z
He−βH dωΓ = U
(102)
korrespondierende Lagrangeparameter. Der Vorteil der kanonischen Rechnung
liegt auf der Hand: Wir müssen zwar weiterhin
H(r1 , . . . , rN , pN , . . . , pN )
bestimmen und Integrale über exp(−βH) auswerten, ersparen uns aber die Auflösung
von Gl. (98) nach den Γ–Raum–Koordinaten.
47
Die Normierungskonstante
Z ∗ (β, V, N ) =
Z
e−βH dωΓ
(103)
ist natürlich im wesentlichen die Zustandssumme (73) und wird auch gelegentlich
als “klassische” Zustandssumme bezeichnet. Ihren offensichtlichen Mangel, daß sie
nicht dimensionslos ist, beseitigen wir durch die Vorschrift (97) und definieren die
Zustandssumme
ZNu =
1
Z∗
=
h3N
h3N
Z
e−βH dωΓ .
(104)
Dabei haben wir mit dem Index u angedeutet, daß wir die Teilchen in der klassischen
Theorie als unterscheidbar betrachten. Wir haben jedoch im Abschnitt 3.3 überlegt,
daß wir keinen neuen Zustand erhalten, wenn wir identische Teilchen vertauschen.
Die Zahl der “wahren” Mikrozustände ist also bei N identischen Teilchen um einen
Faktor N ! kleiner als in der klassischen Theorie berechnet. Darum müssen wir für
nicht unterscheidbare Teilchen die Zustandssumme
ZNn =
Z∗
1
= 3N
3N
h N!
h N!
Z
e−βH dωΓ
(105)
benutzen. ZNn wird auch als “halbklassische” Zustandssumme bezeichnet.
Die großkanonische Gesamtheit können wir wegen der variablen Teilchenzahl nicht
ohne weiteres durch eine Dichteverteilung im Γ-Raum charakterisieren. Wir können
sie aber [vgl. Gln. (82) und (83)] gemäß
%G =
ZG =
∞
X
N =1
∞
X
N =1
−γ
ζ = e
%N ζ N
und
ZN ζ N
mit
(106)
µ
= e kT
aus kanonischen Gesamtheiten aufbauen. Die kanonischen Größen %N und ZN erscheinen dabei also formal als Koeffizienten einer Taylorreihe in der wenig anschaulichen Größe ζ, die auch “Fugazität” genannt wird.
48
4
4.1
Anwendungen
Der Gleichverteilungs–Satz
Wir gehen von der klassischen kanonischen Phasenraumdichte (100)
1 −βH
e
Z∗
%N =
aus und bilden die Mittelwerte
*
∂H
ξν
∂ξν
+
=
1
Z∗
Z
ξν
∂H −βH
e
dωΓ .
∂ξν
Dabei bezeichne ξν irgendeine der 6N Orts– oder Impulskoordinaten des Γ–Raums.
Wegen
∂ −βH
∂H −βH
e
= −β
e
∂ξν
∂ξν
und β =
1
kT
gilt
*
∂H
ξν
∂ξν
+
−kT
=
Z∗
Z
ξν
∂ −βH
e
dωΓ .
∂ξν
Nun können wir partiell integrieren und erhalten
*
∂H
ξν
∂ξν
+
= kT .
(107)
Dieses allgemeine Ergebnis ist von besonderem Interesse für solche Koordinaten ξν ,
von denen die Hamiltonfunktion nur über einen additiven quadratischen Beitrag
Hν = aν ξν2
(108)
H = Hν + Ĥ(. . . /ξ ν . . .) .
(109)
abhängt:
Solche Koordianten finden wir auf jeden Fall in den Impulsen pν (mit aν = mν /2);
wir sprechen dabei auch von “Freiheitsgraden”. Wegen
49
∂Hν
Hν
∂H
=
= 2aν ξν = 2
∂ξν
∂ξν
ξν
gilt hierfür also
1
ε̄ν = hHν i = kT ,
2
(110)
in Worten
• Auf jeden Freiheitsgrad (also auf jede Koordinate, die einen additiven quadratischen Beitrag zur Hamiltonfunktion liefert) entfällt im Gleichgewicht die
gleiche Energie kT /2.
Dieser Satz wird als Gleichverteilungssatz oder Äquipartitionsgesetz bezeichnet.
4.2
Das klassische ideale Gas
Wir behandeln noch einmal abschließend das klassische ideale Gas und gehen dazu
von der kanonischen Zustandssumme (105) nicht unterscheidbarer Teilchen
ZNn =
1
3N
h N!
Z
e−βH dωΓ
aus. Mit der wechselwirkungsfreien Hamiltonfunktion
H=
3N
X
p2ν
ν=1 2m
erhält man sofort
ZNn =
VN
h3N N !
Z
∞
−∞
e
−βp2
2m
dp
3N
.
Dabei ist die Ortsintegration durch den Faktor V N berücksichtigt. Mit
Z
∞
−∞
e
−αp2
dp = α
−1/2
folgt
50
Z
∞
−∞
e
−x2
dx =
r
π
α
ZNn
VN
=
N!
2πm
h2 β
!3N/2
=
VN
,
N !λ3N
T
(111)
wobei
h2 β
2πm
λT =
!1/2
=√
h
2πmkT
wieder die thermische de Broglie–Wellenlänge (61) bezeichnet. Mit der Stirlingformel [vgl. die Rechnung nach (59)]
ln N ! ≈ N (ln N − 1)
ergibt sich daraus gemäß (77) die freie Energie
F (T, V, N ) = −kT
ln ZNn
N
= N kT ln + 3 ln λT − 1
V
(112)
als Funktion ihrer natürlichen Variablen. Damit sind bereits alle Zustandsgrößen
bestimmt. Insbesondere erhalten wir die Zustandsgleichung
p=−
∂F
N kT
=
.
∂V
V
(113)
Durch Ableitung nach T läßt sich die Entropie S und damit weiter die innere Energie
U bestimmen. Noch bequemer finden wir U über die Formel (79) direkt aus (111):
U =−
3N
3
1 ∂ZNn
=
= N kT .
n
ZN ∂β
2β
2
(114)
Dieses Ergebnis bestätigt den Gleichverteilungssatz: Jede der 3N Impulskoordinaten
liefert einen additiven quadratischen Beitrag zur Hamiltonfunktion und damit einen
Beitrag kT /2 zur inneren Energie.
Aus den Gln. (112) und (114) (oder gemäß S = −∂F/∂T ) können wir auch sofort
die Entropie des idealen Gases berechnen:
U −F
V
5
S=
= N k ln − 3 ln λT +
T
N
2
e5/2
S = N k ln
nλ3T
"
51
#
.
oder
(115)
Hierin erkennen wir die Sackur–Tetrode–Formel (60) und würdigen den eleganten — wenn auch abstrakten — Zugang zur Thermodynamik, den uns die kanonische
Gesamtheit ermöglicht.
Alle bis hier durchgeführten Betrachtungen gelten für das einatomige ideale Gas,
dessen Teilchen als Massenpunkte angesehen werden können. Bei mehratomigen Gasen müssen wir außerdem die Rotation der Moleküle berücksichtigen. Auch hierauf
entfallen Freiheitsgrade, die additiv und quadratisch16 zur Hamiltonfunktion beitragen. Da jeder Freiheitsgrad der Moleküle den Beitrag N kT /2 zur inneren Energie
leistet, können wir (114) durch
U=
f
N kT
2
(116)
verallgemeinern. Dabei gilt
— f = 3 für einatomige Gase
— f = 5 für zweiatomige Gase und
— f = 6 für drei- und mehratomige Gase.
f entspricht der Zahl der Freiheitsgrade eines starren Körpers aus einem, zwei oder
mindestens drei Massenpunkten. In diesen Freiheitsgraden sind zunächst die drei
Freiheitsgrade der Translation enthalten. Beim drei- oder mehratomigen Gas kommen drei Freiheitsgrade der Rotation hinzu. Beim zweiatomigen Molekül fehlt ein
Freiheitsgrad, der der Rotation die Verbindungslinie der beiden Atome entspricht.
Da die Rotation der Moleküle nicht zum Druck beiträgt, bleibt die thermische Zustandsgleichung (113) unverändert. Das mehratomige ideale Gas ist also durch die
beiden Gleichungen (113) und (116) charakterisiert. Daraus können wir auf rein
thermodynamischem Wege [vgl. die Herleitung der Gln. (22) und (41)] die Entropieformel
S = N kT
(
f
V
ln T + ln + σ0
2
N
)
(117)
(ohne σ0 anzugeben) herleiten. Wir ziehen diesen Weg vor, da eine systematische
Behandlung der Rotation schwierig ist16 .
Wir haben die zusätzlichen Freiheitsgrade des mehratomigen Gases mit pauschalen Argumenten eingeführt. Warum kann aber ein Atom, das ja auch ein endliches
(wenn auch sehr kleines) Trägheitsmoment besitzt, nicht rotieren? Unsere Theorie
16
Eine saubere Begründung ist nicht ganz einfach, da die Komponenten der Winkelgeschwindigkeit ω keine generalisierten Koordinaten oder Impulse sind. Vgl. Sommerfeld Bd. V S. 195 f.
52
ist offenbar noch nicht befriedigend. Ein weiteres Defizit müssen wir in der Annahme
starrer Moleküle sehen: Können die mehratomigen Moleküle nicht auch schwingen?
Müssen wir also bei der Angabe von f nicht auch Vibrationsfreiheitsgrade berücksichtigen? Und schließlich sei an das weiterhin ungelöste Problem der Verletzung des
dritten Hauptsatzes erinnert.
Wir stoßen hier wieder auf Kelvinsche Wolken, deren Analyse wir im nächsten
Abschnitt mit der vereinfachten Beschreibung eines Festkörpers vorbereiten wollen.
4.3
Der ideale Festkörper
Wir definieren den idealen Festkörper als ein System unabhängiger ortsfester linearer
Oszillatoren mit der Hamiltonfunktion
3N
X
H=
ν=1
"
p2ν
mω 2 x2ν
+
2m
2
#
.
(118)
(Dabei sind wir uns bewußt, daß unser Festkörper durch diese Definition über idealisiert
ist: Er ist auf der makroskopischen Skala völlig starr und erlaubt weder eine Ausbreitung von Schallwellen noch eine thermische Ausdehnung; vgl. die Schußbemerkungen
dieses Abschnitts.) Durch die feste Anbindung an unterscheidbare Ruhelagen sind
die Atome unseres Festkörpers unterscheidbar, und wir müssen von der Zustandssumme (104)
1
= 3N
h
ZNu
Z
e−βH dωΓ = z 3N
(119)
mit
1
z=
h
ausgehen. Mit
R∞
−∞
2
e−αx dx =
Z∞
e
β 2
− 2m
p
dp
π
α
e−
βmω 2 2
x
2
dx
−∞
−∞
q
Z∞
wird
z=
2π
kT
=
hβω
h̄ω
(120)
!3N
(121)
oder
ZNu
=
kT
h̄ω
= (βh̄ω)−3N .
53
Daraus erhalten wir die innere Energie [vgl. (79)]
U =−
3N
1 ∂ZNu
=
= 3N kT
u
ZN ∂β
β
(122)
in Übereinstimmung mit dem Gleichverteilungssatz: Die Hamiltonfunktion des Systems hängt quadratisch homogen von 3N Impuls– und 3N Lagekoordianten ab, und
jeder dieser 6N Freiheitsgrade trägt mit kT /2 zur inneren Energie bei.
Nach Gleichung (122) hat der ideale Festkörper eine konstante spezifische Wärme
c=
∂U
= 3N k .
∂T
(123)
Diese als Dulong–Petitsches Gesetz (1818) bekannte Gesetzmäßigkeit ist für viele
Kristalle bei Zimmertemperatur recht gut erfüllt, gilt bei anderen (z. B. Diamant)
aber erst bei hohen Temperaturen von mehr als tausend Grad und versagt immer bei
niedrigen Temperaturen. Das zeigt sich auch an der Verletzung des dritten Hauptsatzes, der
c → 0 f ür T → 0
verlangt. Der Grund läßt sich schon aus dem Parameter z aus Gl. (120) erahnen: z
gibt das Verhältnis der mittleren thermischen Energie eines eindimensionalen harmonischen Oszillators (2 Freiheitsgrade =⇒ kT ) zur “Anregungsenergie” h̄ω an. Unser
Fehler liegt offenbar darin, daß wir über alle p und x und damit über alle Schwingungsamplituden integriert haben, während die Quantenmechanik nur diskrete Anregungszustände kennt. Ist insbesondere kT < h̄ω, so reicht die mittlere thermische
Energie nicht mehr aus, den Oszillator überhaupt anzuregen: Seine beiden Freiheitsgrade “frieren ein”. Die Schwingung trägt dann nicht mehr zur spezifischen Wärme
bei und c geht gegen Null, wie der dritte Hauptsatz es verlangt.
Zur analytischen Bestätigung dieser qualitativen Vorstellung gehen wir mit Einstein (1907) von der exakten Zustandssumme
ZN =
X
e−βEi =
e−β(εν1 +...+εν3N )
ν1 ,...,ν3N
i
=
X
"
∞
X
ν=0
e
−βεν
#3N
= σ 3N
(124)
unseres Modellsystems aus 3N ungekoppelten identischen Oszillatoren aus. Die “Ein–
Oszillator–Zustandssumme” σ übernimmt dabei also die Rolle des Parameters z der
klassischen Rechnung. Zu ihrer Berechnung notieren wir die Energieniveaus
54
1
εν = (ν + )h̄ω
2
(125)
des harmonischen Oszillators und erhalten
σ=e
− 12 βh̄ω
∞
X
1
e
−νβh̄ω
ν=0
e− 2 βh̄ω
.
=
1 − e−βh̄ω
(126)
Speziell für hohe Temperaturen (βh̄ω 1) findet man in
σ→
1 − 12 βh̄ω
1
→
=z
1 − 1 + βh̄ω
βh̄ω
die klassische Näherung wieder. Allgemein finden wir aus
ZN = σ 3N
und U = −
1 ∂ZN
ZN ∂β
die innere Energie
U = −3N
∂
h̄ω
h̄ωe−βh̄ω
ln σ = 3N
+ 3N
∂β
2
1 − e−βh̄ω
oder
1
1
U = 3N h̄ω
+ βh̄ω
2 e
−1
(127)
und
"
∂U
βh̄ω
∂U
= −kβ 2
= 3N keβh̄ω βh̄ω
c=
∂T
∂β
e
−1
#2
.
(128)
Die klassische Näherung finden wir wieder durch die Entwicklung in βh̄ω 1 (hohe
Temperatur). In Übereinstimmung mit (122) und (123) erhalten wir
U→
3N h̄ω
= 3N kT
βh̄ω
und c → 3N k .
Dabei wird der Verlust aller Quanteneffekte deutlich durch den Wegfall der Konstanten h̄ herausgestellt.
55
Bei niedrigen Temperaturen (βh̄ω 1) kommt dagegen die Quantisierung voll ins
Spiel. Wir erhalten
U → 3N h̄ω
1
+ e−βh̄ω
2
(129)
und
c → 3N (βh̄ω)2 e−βh̄ω .
(130)
Bis auf einen Rest, der exponentiell gegen Null geht, enthält U also nur noch die
konstante Nullpunktsenergie (Unschärfe!) der Oszillatoren und c geht in Übereinstimmung mit dem dritten Hauptsatz (exponentiell) gegen Null.
Dieses Ergebnis der Einsteinschen Theorie steht allerding quantitativ nicht ganz
im Einklang mit der Erfahrung. Experimentell findet man nämlich, daß c für T → 0
annähernd wie T 3 gegen Null geht. Der experimentelle Befund wird von der Debyeschen Theorie des Festkörpers korrekt wiedergegeben. In dieser Theorie wird die
oben angesprochene Überidealisierung des Festkörpermodells aufgegben und (pauschal) berücksichtigt, daß die Oszillatoren über das Gitter des Festkörpers gekoppelt
sind. Die Statistik erstreckt sich dabei nicht mehr über unabhängige Oszillatoren
sondern über alle möglichen Schwingungsmoden des Festkörpers.
Spezifische Wärme c des Festkörpers nach
Einstein [vgl. Gl. (128)] und Debye. Die
charakteristisch Temperatur Tc = h̄ω/k
repräsentiert bei Einstein die feste Oszillatorfrequenz ω. Im Debyeschen Modell
bedeutet ω eine obere Grenzfrequenz, die
sich aus der Schallgeschwindigkeit und der
Gitterkonstantanten berechnet. Durch die
Moden niedrigerer Frequenzen wird der
Effekt des Einfrierens gemildert.
4.4
Eingefrorene Freiheitsgrade
Gl. (126) ist auch geeignet, den Beitrag der Schwingungsfreiheitsgrade zur Zustandssumme mehratomiger Gase zu beschreiben17 . Für die meisten Gase liegt die “Vibra17
Bei symmetrischen Molekülen wie N2 und O2 gibt es allerdings noch Modifikationen durch die
Austauschentartung.
56
tionstemperatur”
Θvib =
h̄ω
k
(131)
allerdings weit oberhalb der Zimmertemperatur (z. B. 2279 K für O2 und 3380 K
für N2 ), so daß die Schwingungsfreiheitsgrade eingefroren sind und nicht zur inneren
Energie beitragen.
Aus dem selben Grund trägt die Rotation nicht zur inneren Energie einatomiger
Gase bei: Berücksichtigt man die Quantelung der Drehimpulse, so findet man, daß
die Rotationsenergie
εrot =
h̄2
L2
= l(l + 1)
2I
2I
erst oberhalb der “Rotationstemperatur”
Θrot =
h̄
2kI
(132)
an der Äquipartition beteiligt ist. Dabei ist I das Trägheitsmoment des Moleküls.
Für Atome liegt Θrot wegen des kleineren Trägheitsmoments oberhalb 100 000 K.
Aber auch bei mehratomigen Gasen frieren die Rotationsfreiheitsgrade bei tiefen
Temperaturen ein. Für das leichte H2 –Molekül liegt Θrot beispielsweise bei 80 K.
Mit dem Einfrieren für T → 0 leisten die Vibrations– und Rotationsfreiheitsgrade
also ihren Tribut an den 3. Hauptsatz.
4.5
Das Problem idealer Quantengase
In den letzten beiden Abschnitten sind wir dem Verständnis von Quanteneffekten
und ihrer Bedeutung für den 3. Hauptsatz ein gutes Stück näher gekommen. Nach
wie vor stehen wir aber vor dem Problem der Divergenz der Entropie des idealen Gases [vgl. Gln. (115) und (117)] für T → 0. Dabei haben wir in unsere “halbklassische”
Theorie bereits zwei Quanteneffekte eingearbeitet:
1. Mit der Einteilung des Phasenraums in “Zellen” der Größe h3N [vgl. Gl. (104)]
haben wir die diskrete Natur der Quantenzustände berücksichtigt.
2. Mit der Division durch die Zahl N! aller Permutationen [vgl. Gl. (105)] haben
wir der Ununterscheidbarkeit identischer Teilchen Rechnung getragen.
57
Was also haben wir noch falsch gemacht? Haben wir einen dritten Quanteneffekt
vergessen?
Nein, es fehlt kein dritter Quanteneffekt, und die beiden Quanteneffekte haben wir
im Prinzip auch richtig erkannt. Unser Fehler liegt in der Kombination der beiden
Quanteneffekte. Der Faktor N! beschreibt das Verhältnis der Zahl klassischer und
quantenmechanischer Mikrozustände nämlich nur dann richtig, wenn jede Vertauschung klassisch tatsächlich zu einem anderen Mikrozustand führt. Und das stimmt
nur, wenn wir Mikrozustände tatsächlich als Punkte im Γ–Raum betrachten. Es gilt
nicht mehr für Mikrozustände, die endliche Phasenraumzellen repräsentieren. Um
das einzusehen, brauchen wir nur zum Extrem zu gehen und den gesamten Phasenraum in eine einzige Zelle zu legen: Dann gibt es klassisch wie quantenmechanisch
genau einen Mikrozustand und eine Teilchenvertauschung ändert gar nichts. Und
mit genau diesem Extrem sind wir bei T = 0 konfrontiert.
Um diesen Umstand genauer zu erfassen, nutzen wir aus, daß wir ideale Gase betrachten. Wegen der Wechselwirkungsfreiheit können wir den Effekt von Vertauschungen dann nämlich im viel leichter überschaubaren µ–Raum beschreiben. Ein
klassischer Mikrozustand ist dann festgelegt, wenn wir allen Teilchen die Nummer
einer µ–Raum–Zelle (Größe h3 ) oder eines (Ein-Teilchen–) Zustands zuordnen.
Zelle
(Zustand)
..
.
3
2
1
0
Teilchen
×
×
1
2
×
×
3
4
...
...
×
...
...
N
Offenbar ändern wir dieses Schema nicht, wenn wir zwei Teilchen vertauschen, die
in der selben µ–Raum–Zelle liegen (im obigen Beispiel etwa die Teilchen 3 und 4).
Innerhalb der N ! Permutationen sind also Untergruppen von
N0 ! N1 ! . . .
“blinden” Permutationen innerhalb der Zellen, die bei klassischer Zählung nicht
zu anderen Mikrozuständen führen. Dabei bezeichnet Nν die Besetzungszahl der
ν–ten Zelle (des ν–ten Zustandes). Bei festgehaltenem Besetzungsschema {Nν } =
{N1 , N2 , . . .} müssen wir den “Korrekturfaktor” N ! darum durch die Permutabilität18
18
D. h. die Zahl der Möglichkeiten, N Teilchen auf die Zellen (0),(1), . . . zu verteilen.
58
N!
N0 !N1 ! . . .
(133)
ersetzen. Kehren wir nun zum Γ-Raum zurück und sehen uns zunächst die klassische
Zustandssumme
ZNu
=
X
e
−β(εν1 +...+ενN )
=
ν1 ,...,νN
"
X
e
−βεν
ν
#N
= zN
(134)
unterscheidbarer Teilchen an, die in ein Produkt identischer Ein–Teilchen–Zustandssummen
z=
X
mit xν = e−βεν
xν
ν
separiert. Werten wir ZNu = z N mit dem Polynomialsatz aus, so erhalten wir
ZNu = (x0 + x1 + . . .)N =
=
N!
0 N1
xN
0 x1 . . .
N
!N
!
.
.
.
0
1
{Nν }
X
P
N!
e−β ν Nν εν ,
N0 !N1 ! . . .
{Nν }
X
(135)
wobei über alle Besetzungsschemata {Nν } = {N0 , N1 , . . .} unter der Mikro-Nebenbedingung
X
Nν = N
(136)
ν
zu summieren ist. In Gl. (135) fällt uns die Permutabilität (133) sofort ins Auge und
läßt sich wie folgt interpretieren: Jedem Besetzungsschema {Nν } entspricht eine
Energie
E{Nν } =
X
Nν εν ,
(137)
ν
und aus den Energiezuständen E{Nν } bilden wir die Zustandssumme
ZN =
X
{Nν }
g{Nν } e−βE{Nν } ,
(138)
wobei g{Nν } die “Multiplizität” des Zustands {Nν } bezeichnet. Gl. (135) sagt dann,
daß die Zustände {Nν } unterscheidbarer Teilchen die Multiplizität
59
u
g{N
=
ν}
N!
N0 !N1 ! . . .
(139)
besitzen. Diese Multiplizität ist nichts anderes als die Zahl verschiedener Mikrozustände, die zum gleichen Besetzungsschema gehören.
Und nun ist der Übergang zur Quantenstatistik ganz einfach: Identische Teilchen
sind grundsätzlich nicht unterscheidbar und Teilchenvertauschungen führen nicht zu
verschiedenen Mikrozuständen. Der Mikrozustand ist also bereits durch das Besetzungsschema {Nν } eindeutig festgelegt. Für nicht unterscheidbare Teilchen müssen
wir Gl. (139) also durch
n
g{N
=1
ν}
(140)
ersetzen und finden damit den Korrekturfaktor (133) bestätigt. Statt (135) erhalten
wir nun die Zustandssumme
ZNn =
X
0 N1
xN
0 x1 . . . =
{Nν }
X
{Nν }
e−β
P
ν
Nν ε ν
.
(141)
Diese Zustandssumme erscheint auf den ersten Blick sogar einfacher als die klassische
Zustandssumme (135). Dieser erste Blick täuscht aber gewaltig: ZNn ist nicht mehr in
Ein–Teilchen–Zustandssummen separierbar, und damit wird es schwierig, die Mikro–
Nebenbedingung (136) zu gewährleisten.
Bevor wir dieses Problem im nächsten Abschnitt lösen, wollen wir uns noch einmal
mit dem “klassischen Grenzfall” befassen. Wir erwarten ja doch (ja, wir müssen es
verlangen!), daß die Quantenstatistik unter “normalen” Bedingungen (hinreichend
hohe Temperaturen bei hinreichend niedrigen Dichten) die Ergebnisse der klassischen Statistik mit korrigierter Boltzmannabzählung (Faktor N !) bestätigt. Der unterschiedliche Faktor
N0 !N1 ! . . .
zwischen der Permutabilität (133) und N ! sieht zunächst erschreckend aus. Tatsächlich
kommen unter “normalen” Bedingungen aber praktisch nur die Besetzungszahlen
0 und 1 vor. Die mittleren Besetzungszahlen “vernünftiger” Zellen (∆x ∼ λT ,
∆p ∼ h/λT ) lassen sich nämlich durch
hNν i < nλ3T
abschätzen. Für Luft (m ≈ 30mp ) unter Normalbedingungen erhält man daraus
hNν i < 1.9 10−7 ,
so daß unter 5 Millionen Elementarzellen höchstens eine besetzt ist!
60
Außer bei extrem tiefen Temperaturen können wir also getrost
N0 !N1 ! . . . ≈ 1
setzen und bestätigen so die halbklassische Näherung
ZNn ≈
zN
1 u
ZN =
,
N!
N!
in der die Zustandssumme separiert.
4.6
Fermi–Dirac– und Bose–Einstein–Statistik
Wir haben bereits erwähnt, vor welchem Problem wir stehen: Die Zustandssumme
(141) separiert nicht, und es wird schwierig, die Mikro–Nebenbedingungen (136)
zu berücksichtigen. Wegen analoger Schwierigkeiten bei der Energie hatten wir die
kanonische Gesamtheit der mikrokanonischen vorgezogen (Abschnitt 3.9). Damit
bietet es sich an, Gl. (136) nun durch die Makro–Nebenbedingung
D
N̄ = N{Nν }
E
(142)
zu ersetzen und die Quantengase groß kanonisch zu beschreiben. Wir setzen also
N{Nν } =
X
ν
Nν
und E{Nν } =
X
Nν εν
(143)
ν
in (82) und (83) ein und erhalten
ZG =
X
{Nν }
p{Nν } =
e−
P
ν
Nν (βεν +γ)
=
X
{Nν }
e−β
P
ν
Nν (εν −µ)
und
1 − P Nν (βεν +γ)
1 −β P Nν (εν −µ)
ν
ν
e
e
=
.
ZG
ZG
(144)
Der entscheidende Vorteil dieser Ausgangsbasis liegt darin, daß die Nν nun von
der Nebenbedingung befreit sind und unabhängig voneinander alle möglichen Werte
durchlaufen. Für diesen Vorteil müssen wir allerdings einen Preis zahlen: Die großkanonische Statistik verwendet statt der leicht interpretierbaren Variablen N den
weniger anschaulichen Lagrangeparameter γ oder das chemische Potential19
µ = −kT γ.
19
µ muß nachträglich über die Makro–Nebenbedingung (142) bestimmt werden.
61
Die Gln. (144) lassen sich offenbar in die Beiträge der einzelnen Zellen oder Zustände
(nicht dagegen der einzelnen Teilchen!) separieren. Wir erhalten nämlich mit den
Abkürzungen
yν = e−β(εν −µ)
und σν =
X
yνN
(145)
N
die große Zustandssumme
ZG =
X
y0N0 y1N1 . . . =
X
y0N0
N0
{Nν }
=
YX
ν
yνN =
Y
X
y1N1 . . .
N1
σν
(146)
ν
N
und die Wahrscheinlichkeiten
p{Nν } =
Y
1 N0 N1
pν (Nν )
y0 y1 . . . =
ZG
ν
mit pν (N ) =
yνN
.
σν
(147)
p{Nν } zerfällt also in das Produkt unabhängiger Wahrscheinlichkeiten pν (Nν ) dafür,
daß der ν–te Zustand (die ν–te Zelle) mit Nν Teilchen besetzt ist. Der Nenner
σν spielt also die Rolle einer “Ein–Zustands–Teilchensumme”, welche die “Ein–
Teilchen–Zustandssumme” der klassischen Statistik ersetzt. Wir sehen hier deutlich, wie das Konzept unterscheidbarer klassischer Teilchen durch das Konzept unterscheidbarer quantenmechanischer Zustände ersetzt wird. Die Summe, die in der
klassischen Statistik über die möglichen Zustände einzelner Teilchen lief, läuft in der
Quantenstatistik über die möglichen Besetzungszahlen der einzelnen Zustände.
Bei den möglichen Besetzungszahlen müssen wir nun Fermionen und Bosonen unterscheiden (vgl. Teil I des Skriptums, Abschnitt 4.2). Die entsprechende Auswertung
der Gln. (146) und (147) wird als Fermi–Dirac– bzw. Bose–Einstein–Statistik
bezeichnet.
• Bei Fermionen sind nach dem Pauli–Prinzip nur die Besetzungszahlen 0 und
1 möglich und wir erhalten
σνF D = 1 + yν = 1 + e−β(εν −µ) .
(148)
• Bei Bosonen unterliegen die Besetzungszahlen keinen Einschränkungen, und
wir erhalten
∞
X
1
1
=
.
(149)
σνBE =
yνN =
1 − yν
1 − e−β(εν −µ)
N =0
62
Mit Gl. (147) finden wir daraus die mittleren Besetzungszahlen
hNν i =
X
N pν (N ) =
N
FD
d
yν
1 X
N yνN = yν
ln σν =
,
σν N
dyν
1 ± yν BE
also
hNν i =
1
eβ(εν −µ) ± 1
FD
.
BE
(150)
Die mittlere Verteilung der Teilchen auf die Energieniveaus20 εν wird Fermi– bzw.
Bose–Verteilung genannt. Die beiden Verteilungen unterscheiden sich nur durch
das Vorzeichen der “Quantenkorrektur” 1 im Nenner. Diese Korrektur kann für
hinreichend große Energien (ε − µ kT ) vernachlässigt werden, so daß hNν iF D und
hNν iBE in die Maxwell–Boltzmann–Verteilung
hNν iM B = e−β(εν −µ)
übergehen:
Die weitere Auswertung geht aus von [vgl. (146), (148, (149)]
ln ZG =
X
ν
ln σν = ±
X
ν
h
ln 1 ± e
−βεν −γ
i F D
BE
.
(151)
Zur Bestimmung der Zustandsgrößen notieren wir uns die Beziehungen [vgl. (87,89)]
pV = kT ln ZG
20
und
Beim Bezug auf Energiezustände ist die Spinentartung zu berücksichtigen.
63
(152)
U =−
∂
ln ZG |γ .
∂β
(153)
Außerdem muß schließlich noch γ = −µ/kT aus der Gleichung [vgl. (90) bzw. (150)]
X
N̄ =
ν
hNν i = −
∂
ln ZG |β
∂γ
(154)
bestimmt werden.
Bevor wir dieses Programm für verschiedene Spezialfälle ausführen, wollen wir ausnutzen, daß wir ein ideales Gas in einem großen Volumen behandeln. Wir ersetzen
daher
εν → ε(p) und
X
ν
g
→ 3
h
Z
g
d rd p . . . = 3 V
h
3
3
Z∞
4πp2 dp . . .
(155)
0
Dabei bezeichnet p den Impulsbetrag der Teilchen und g = 2s + 1 berücksichtigt die
Spinentartung der Energieniveaus. Damit erhalten wir aus Gl. (151)
4πgV
ln ZG = ± 3
h
Z∞
0
h
ln 1 ± e
−βε(p)−γ
i
2
p dp
FD
.
BE
(156)
Eine Beziehung können wir von hier aus in größter Allgemeinheit auswerten: Für
die innere Energie erhalten wir nach Gl. (153) mit ∂(βε)/∂β = ε/β ∂(βε)/∂ε
U =∓
4πgV
h3
Z
4πgV
ε ∂
ln[. . .]p2 dp = ∓ 3
β ∂ε
h
Z
ε ∂
ln[. . .]p2 dp ,
0
βε ∂p
wobei ε0 = dε/dp bedeutet. Wir setzen nun speziell
ε(p) = apα
oder ε0 (p) =
α
ε(p)
p
ein21 und erhalten
U = ∓
4πgV 1
h3 αβ
4πgV 1
= ∓ 3
h αβ
Z
Z∞
0
∂
ln[. . .]p3 dp
∂p
∂
4πgV 3
{ln[. . .]p3 }dp ±
∂p
h3 αβ
21
Z∞
ln[ ]p2 dp .
0
Neben dem vertrautem Zusammenhang ε = p2 /2m erfassen wir damit auch den hochrelativistischen Grenzfall ε = pc
64
Das erste Integral verschwindet wegen der Grenzen, und das zweite ist identisch mit
dem Integral in Gl. (156). Zusammen mit Gl. (152) ergibt sich daraus der Zusammenhang
3
pV .
α
U=
(157)
Mit ε = p2 /2m oder α = 2 wird die vertraute Beziehung
3
U = pV
2
(158)
also auch für die Quantengase bestätigt! Darüber hinaus erhalten wir sozusagen
gratis die Beziehung
U = 3pV
(159)
für hochrelativistische Teilchen (Photonen!) mit ε = pc, also α = 1.
4.7
Quantengase geringer Dichte
Wir untersuchen zunächst den Fall geringer Dichte oder hoher Temperatur. Dazu
nehmen wir [s.u. (162)] e−γ 1 an und entwickeln den Logarithmus
h
ln 1 ± e
−βε−γ
i
= ±e
−βε−γ
1
FD
− e−2βε−2γ
.
BE
2
Wenn wir uns wieder auf den nicht–relativistischen Fall beschränken, folgt aus (156)
gV
ln ZG = 3 e−γ
h
Z
2
e
− βp
2m
1 −γ Z − βp2 3
e m dp .
d p∓ e
2
3
Integrale dieser Form haben wir schon mehrfach ausgewertet, z. B. im Abschnitt 4.2
[vgl. Gl. (111)]. Wir erhalten

 2πm
gV
ln ZG = 3 e−γ

h
β
!3/2
1
∓ e−γ
2
gV
e−γ 1
= 3 e−γ 1 ∓
λT
2 23/2
(
)
πm
β
!3/2 


.
e−γ (bzw. das chemische Potential µ = −γkT ) ist durch Gl. (154), also durch
65
(160)
1
gV
N̄ = 3 e−γ 1 ∓ √ e−γ
λT
2 2
!
(161)
bestimmt. In erster Näherung erhält man daraus
e−γ ≈
1
1 N λ3T
= nλ3T .
g V
g
(162)
Setzen wir (161) in (160) ein, so folgt
ln ZG = N̄
1∓
1∓
1
√
e−γ
4 2
1
√
e−γ
2 2
1
≈ N̄ 1 ± √ e−γ
4 2
!
.
Verwenden wir im Korrekturterm schließlich noch die Näherung (162), so erhalten
wir aus Gl. (152) die Zustandsgleichung
nλ3
pV = N̄ kT 1 ± √ T
4 2g
!
FD
.
BE
(163)
Wir erkennen — wie erwartet — in niedrigster Ordnung die ideale Gasgleichung
pV = N̄ kT . Die Korrektur ist proportional zur Zahl nλ3T der Teilchen je Elementarzelle. Das Verhältnis des mittleren Teilchenabstands
r0 = n−1/3
(164)
zur thermischen De Broglie–Wellenlänge λT bestimmt also, ob Quanteneffekte
auftreten:
• Für r0 λT ist die (halb–)klassische Statistik gültig, das Gas erfüllt die ideale
Gasgleichung.
• Für r0 ≤ λT müssen die Besonderheiten der Quantenstatistik berücksichtigt
werden. Das Gas zeigt “Entartungserscheinungen”.
Als erste Entartungserscheinung finden wir also eine Druckänderung bei gegebenem
n und T . Im entarteten Fermigas ist der Druck höher als im idealen Gas gleicher
Temperatur und Dichte: Fermionen “mögen sich nicht”. Man mag diese “Abstoßung”
als Konkurrenz der Fermionen um freie Plätze deuten, da jeder Zustand höchstens
einfach besetzt werden kann.
Dagegen sind Bosonen “gesellige” Teilchen, denn der Druck im Bosegas ist niedriger
als im idealen Gas gleicher Temperatur und Dichte. Eine anschauliche Deutung
66
für diese “Anziehung” ist allerdings schwierig, da Bosonenzustände beliebig besetzt
werden können.
Wir sollten solche anschaulichen Bilder ohnehin mit Vorsicht genießen. Nach Gl.
(158) steht der Druck nämlich immer im klassischen Zusammenhang mit der Energiedichte – genau so, wie er sich aus dem Impulsübertrag wechselwirkungsfreier
Teilchen ergibt (vgl. Abschnitt 1.3). Die quantenstatistische “Anomalie” liegt also
nicht im Zusammenhang zwischen Druck und Energie U , sondern im Zusammenhang zwischen Energie U und Temperatur T . Die Temperatur darf nämlich nicht –
wie wir das im Abschnitt 1.3 getan haben – als Maß für die mittlere Teilchenenergie
definiert werden, sondern ist die Ableitung der inneren Energie nach der Entropie!
Und die Entropie hängt direkt mit der Zahl der Mikrozustände zusammen.
4.8
Das hochentartete Fermigas
Im Grenzfall großer Dichte oder niedriger Temperatur (kT µ, also βµ 1) strebt
die Fermiverteilung [vgl. (150)]
hN (ε)i =
1
eβ(ε−µ)
(165)
+1
gegen eine Stufenfunktion:
< N(ε)<
1
< N(ε)<
kT
1
>
0
µ
0
ε
µ0
ε
Alle Zustände mit einer Energie unterhalb der “Fermikante” εF = µ0 sind einfach
besetzt, alle oberhalb leer. Genau das ist nach dem Pauliprinzip für T = 0 zu
erwarten: Die Teilchen “fallen” zunächst in die untersten Zustände; sind sie belegt,
werden die nächsthöheren angefüllt. Da sich der Vergleich mit einer inkompressiblen
Flüssigkeit in einer Senke aufdrängt, wird der beschränkte Bereich ε < µ0 auch als
“Fermisee” bezeichnet.
Die physikalischen Eigenschaften des hochentarteten Fermigases finden wir bequemer direkt aus der Stufenverteilung
67
hN (ε)i = Θ(µ0 − ε)
(166)
als aus der Zustandssumme22 . Mit
p2
= ε und
2m
p2max
= µ0
2m
erhalten wir gemäß Gl. (155) und (166)
4πgV
N̄ =
h3
Z
4πgV
hN (ε)ip dp =
h3
2
pZmax
0
4πgV p3max
.
p dp =
h3
3
2
Daraus ergibt sich die Fermikante
3h3 N̄
4πgV
1
µ0 =
2m
!2/3
h2
=
2m
3n
4πg
!2/3
.
(167)
Entsprechend berechnen wir
4πgV
U0 =
h3
Z
4πgV
εhN (ε)ip dp =
2mh3
2
pZmax
p4 dp =
0
4πgV p5max
.
2mh3 5
Mit
4πgV 3
p
= 3N̄
h3 max
und
p2max
= µ0
2m
folgt daraus
3
U0 = N̄ µ0 .
5
(168)
Die mittlere Teilchenenergie ist also das 0.6–fache der Grenzenergie µ0 . Aus der
endlichen Energie U0 bei T = 0 folgt nach Gl. (158) ein endlicher Druck
22
Man erhält in derselben Näherung
4πgV
ln ZG = − 3 β
h
pZmax
8πgV
(ε − µ0 )p dp =
15
2
0
68
2m
βh2
3/2
(−γ)5/2 .
h2
2
p0 = nµ0 =
5
5m
3
4πg
!2/3
n5/3 .
(169)
Das wichtigste Beispiel für ein hochentartetes Fermigas finden wir in den freien
Metallelektronen. Mit g = 2 (Spin 21 ) und einer typischen Festkörperdichte n ≈
1029 m−3 finden wir eine Fermienergie
µ0 ≈ 8 eV
bzw. die entsprechende “Fermitemperatur”
µ0
TF =
≈ 90 000 K .
k
Die Bedingung βµ0 = TF /T 1 für den hohen Entartungsgrad ist also immer
erfüllt. Speziell für Cu ergibt sich ein Nullpunkts–Druck p0 ≈ 4 · 105 Bar. Dieser
ungeheure Druck wird von der elektrostatischen Anziehung der Cu–Ionen aufgebracht23 .
Ein weiteres Anwendungsgebiet der Fermi–Dirac–Statistik liegt in der Astrophysik. Der Nullpunktsdruck p0 des Fermigases hält nämlich in weißen Zwergen der
Gravitation die Waage. Weiße Zwerge bestehen aus Heliumkernen und quasifreien
Elektronen. Das Elektronengas ist trotz seiner Temperatur T ≈ 107 K voll entartet. Denn seiner Dichte von über 1036 m−3 entspricht eine Fermienergie im MeV–
Bereich24 oder eine Fermitemperatur TF ≈ 1011 K.
Zum Abschluß wollen wir uns noch von Gültigkeit des 3. Hauptsatzes überzeugen.
Um die Temperaturabhängigkeit der inneren Energie zu berechnen, muß man die Fermikante genauer auflösen. Denn nur die Teilchen im Bereich ±kT um die Fermikante
können Energie aufnehmen. Schätzen wir ihre Anzahl mit δN ∼ (kT /µ0 )N̄ ab, so
ergibt sich eine temperaturabhängige Korrektur δU ∼ kT δN ∼ N̄ (kT )2 /µ0 zu U0 .
Die systematische Rechnung liefert den zuerst von Sommerfeld angegebenen Wert
U = N̄
(
3
π 2 (kT )2
µ0 +
5
4 µ0
)
.
(170)
Die spezifische Wärme
cv =
∂U
π2
kT
= N̄ k
∂T
2
µ0
geht also am absoluten Nullpunkt mit T → 0 und erfüllt so die Forderung des dritten
Hauptsatzes.
23
Es ist kein Zufall, daß µ0 von der selben Größenordnung ist wie die Ionisierungsenergie der
Metallatome und die Austrittsarbeitder Elektronen aus dem Metall.
24
Die Elektronen müssen daher relativistisch beschrieben werden, es gilt also nicht Gl. (169).
69
4.9
Das entartete Bosegas
Im Gegensatz zu den Fermionen bieten uns die kalten Bosonen keine bequeme
Möglichkeit, die Auswertung der Zustandssumme [vgl. Gl. (156)]
4πgV
ln ZG = − 3
h
Z∞
0
i
h
ln 1 − e−βε−γ p2 dp
(171)
zu vermeiden. Darüber hinaus versagt auch die Näherung des Abschnitts 4.7. Der
Lagrangeparameter γ = −βµ in Gl. (171) hängt über [vgl. Gl. (154)]
∂
4πgV
N̄1 = −
ln ZG =
∂γ
h3
von der Teilchenzahl N̄1 ab25 . Mit p =
√
Z∞
0
e−βε−γ
p2 dp
1 − e−βε−γ
2mε folgt
Z∞
ε1/2 dε
4πgV √ 3/2
2πgV
N̄1 =
2m
=
h3
eβε+γ − 1
h3
0
2m
β
!3/2 Z∞
0
x1/2 dx
ex+γ − 1
oder mit λT = (βh2 /2πm)1/2
2
V
N̄1 = g 3 ψ(γ) mit ψ(γ) = √
λT
π
Z∞
0
x1/2 dx
.
ex+γ − 1
Das Integral ψ(γ) ist nicht elementar und muß numerisch berechnet werden:
25
Zum Index
1
an N̄ siehe weiter unten.
70
(172)
Für große Werte von γ (eγ 1) erhält man ψ(γ) ≈ e−γ , so daß Gl. (172) in Gl. (162)
übergeht. Daß wir uns bei der Berechnung auf γ ≥ 0 (also e−γ ≤ 1) beschränken
müssen, ist nicht überraschend: Das Argument des Logarithmus in Gl. (171) weist ja
deutlich darauf hin, daß das chemische Potential µ = −kT γ des idealen Bosegases
nicht positiv werden darf. An der Grenze γ = 0 endet darum der Graph ψ(γ)
mit einer Singularität26 . Die Überraschung liegt darin, daß ψ(γ) beschränkt ist: Mit
ψ(γ) ≤ ψ(0) = 2.612 . . . erhalten wir bei gegebener Temperatur eine prinzipielle
Begrenzung
N̄1 ≤ 2.612
V
λ3T
(173)
der Teilchenzahl. Passen etwa nicht mehr Teilchen in die einzelnen Phasenraumzellen? Im Gegenteil: Wir haben es mit Bosonen zu tun und jede Phasenraumzelle kann
beliebig viele Teilchen aufnehmen.
Und genau da steckt unser Fehler: Beim Übergang (155) von der Summe (151)
zum Integral (156) haben wir nämlich eine Phasenraumzelle “vergessen”: Wegen
des Faktors p2 trägt das Energieniveau ε = 0 nicht zur Zustandssumme bei. Wir
müssen Gl. (171) also durch das entsprechende Summenglied ergänzen:
ln ZG = − ln(1 − e
−γ
4πgV
)−
h3
Z
... .
Daraus erhalten wir durch Differentiation nach γ wie oben [vgl. Gl. (172)]
∂
ln ZG = N̄0 + N̄1
∂γ
1
.
mit
N̄0 = γ
e −1
N̄ = −
(174)
(175)
Wenn wir nun γ → 0 streben lassen, bleibt zwar N̄1 durch (173) beschränkt, aber
N̄0 kann beliebig groß werden und die Welt ist wieder in Ordnung.
Aber seltsam ist es doch, und auch ein wenig beunruhigend, daß eine einzige Phasenraumzelle so wichtig werden soll. Die Merkwürdigkeit offenbart sich auch darin, daß
N̄0 im Gegensatz zu N̄1 gar keine extensive Größe ist, denn β und µ sind intensiv!
Halten wir also die Temperatur T und das chemische Potential µ < 0 (beliebig!) fest,
so ist der Beitrag N̄0 im thermodynamischen Limes N̄ , V̄ → ∞ zu vernachlässigen27 !
Unsere Teilchenzahl wird bei genügend großem Volumen also doch allein durch
26
∂ N̄/∂γ → ∞ deutet nach Abschnitt 3.8 [vgl. Gl. (93)] auf einen Phasenübergang!
Hier liegt auch der Grund dafür, daß wir neben dem Integral keine weiteren Summenglieder
berücksichtigen müssen.
27
71
N̄
g
= 3 ψ(γ)
V
λT
(176)
beschrieben. Senken wir bei konstanter Dichte n = N̄ /V die Temperatur, so wird
γ → 0 und ψ(γ) → 2.612 streben. Aber bei hinreichend großem Volumen wird
immer noch (176) gelten, vorausgesetzt, es gilt
2.612
g
> n.
λ3T
Diese Bedingung definiert eine von der Dichte abhängige Grenztemperatur [vgl.
Gl. (61)]
h2
T0 =
2πmk
n
2.612 g
!2/3
,
(177)
die — abgesehen von den Zahlenfaktoren — mit der Fermitemperatur TF = µ0 /k
[vgl. Gl. (167)] übereinstimmt. Senken wir die Temperatur unter diesen Wert, so
muß N̄0 einen wesentlichen Beitrag leisten. Denn
T
g N̄
gV
N̄1 = 2.612 3 = 2.612 3 = N̄
λT
nλT
T0
3/2
wird nun kleiner als N̄ . Wir haben also
N̄1 = N̄
T
N̄1 = N̄
T0
3/2
und N̄0 = 0 f ür T > T0
"
T
und N̄0 = N̄ 1 −
T0
3/2 #
und
f ür T ≤ T0 .
(178)
(179)
Diese Ansammlumg eines endlichen Bruchteils aller Teilchen im Energiezustand ε =
0 wird als Bose–Einstein Kondensation bezeichnet. Das “Kondensat” bei ε = 0
trägt weder zur inneren Energie [vgl. Rechnung (171) → (172), γ → 0]
U =−
2
∂
gV
ln ZG |γ = 3 kT √
∂β
λT
π
Z∞
0
x3/2 dx
∼ T 5/2 V
x
e −1
(180)
noch zum Druck [vgl. Gl. (158)]
p=
2U
∼ T 5/2
3V
72
(181)
bei. Man kann es als Flüssigkeit mit dem Dampfdruck (181) auffassen.
Die Interpretation der Bose–Einstein–Kondensation als Verflüssigung hat aber
auch ihre Grenzen. So machen verschiedene Lehrbücher darauf aufmerksam, daß es
sich um eine Kondensation im Impulsraum und nicht im Ortsraum handelt. Und
tatsächlich verlangt auch die Unschärferelation, daß die Aufenthaltswahrscheinlichkeit der “Teilchen” im untersten Energieniveau über das gesamte Volumen “ausgeschmiert” ist. Durch ein überlagertes Schwerfeld kann man jedoch auch zu einer
(gewissen) räumlichen Trennung der “Phasen” kommen. Wir verweisen dazu auf die
ausführliche Diskussion im Lehrbuch von R. Becker (§54).
Da die Teilchen des Kondensats nicht an der thermischen Bewegung teilnehmen,
erfahren sie auch keine innere Reibung. Es liegt daher nahe, die seltsamen Eigenschaften, die das “superfluide” 4 He unterhalb der “λ−Temperatur” Tλ = 2.19 K
zeigt, mit der Bose–Kondensation in Verbindung zu bringen. Die Grenztemperatur
T0 = 3.13 K, die man für flüssiges Helium aus Gl. (177) berechnet, stimmt auch
recht gut mit Tλ überein. Allerdings ist anzumerken, daß es bei so niedrigen Temperaturen kein ideales Gas gibt: Die Tatsache der “normalen” Verflüssigung macht
schon deutlich, daß die Van Der Waals–Wechselwirkung dominiert lange bevor
quantenmechanische Entartungseffekte eine Rolle spielen.
4.10
Das Photonengas
Wir haben bereits bei der allgemeinen Diskussion der Quantenstatistik [Abschnitt
4.6, Gl. (159)] festgestellt, daß für alle hochrelativistischen Teilchen
1
pV = U
3
(182)
gilt. Wir haben also nur noch die innere Energie
∞
h
i
∂
4πgV ∂ Z
−βε−γ
ln ZG |γ =
U =−
ln
1
−
e
p2 dp
∂β
h3 ∂β
0
4πgV
=
h3
Z∞
0
εp2 dp
eβε+γ − 1
[vgl. (153) und (171)] für Photonen auszuwerten. Das heißt im Einzelnen:
1. Wir berücksichtigen mit dem Faktor g = 2 die beiden möglichen Polarisationszustände der Photonen28 .
28
Die Formel g = 2s + 1 gilt nur für massive Teilchen, die sich nicht mit Lichtgeschwindigkeit
bewegen. Die Spinkomponente 0 würde longitudinalen Photonen entsprechen.
73
2. Wir setzen ε(p) = pc ein.
3. Für Photonen ist die Teilchenzahl keine Erhaltungsgröße. Die Makro–Nebenbedingung hNi i = N̄ und der zugehörige Lagrangeparameter γ entfallen
deshalb: Das chemische Potential der Photonen ist Null.
Daraus folgt
8πV
U= 3 3
hc
Z∞
0
8πV −4
ε3 dε
=
β
eβε − 1
h3 c 3
Z∞
0
x3 dx
.
ex − 1
(183)
Das Integral ist gleich π 4 /15. Damit erhalten wir für die Energiedichte das Stefan–
Boltzmann–Gesetz
u(T ) =
U
8π 5 k 4
= 3 3 T4 .
V
h c
(184)
Aus Gl. (183) können wir auch die spektrale Verteilung der Energiedichte ablesen.
Denn der Integrand liefert uns die Beiträge der einzelnen Energieniveaus hν = ε =
kT x. Schreiben wir
U =V
Z
u(ν, T )dν
und vergleichen mit Gl. (183), so erhalten wir das Plancksche Strahlungsgesetz
u(ν, T ) =
8πh ν 3
.
hν
c3 e kT
−1
(185)
Für hν 1 fällt die Quanten–Konstante h heraus und man erhält das Rayleigh–
Jeanssche Strahlungsgesetz
u(ν, T ) →
8πkT 2
ν .
c3
(186)
Seine “Ultraviolettkatastrophe” war eine der Kelvinschen “schwarzen Wolken”, die
am Ende des 19. Jahrhunderts das physikalische Weltbild erschütterten.
74
5
Probleme der Statistik
Mit der Maximierung der Shannon–Entropie haben wir einen sehr eleganten Weg
zu den statistischen Gesamtheiten gewält, der wie eine schlüssige “Herleitung” der
Thermodynamik erscheint. In Wirklichkeit verschleiert dieser allzu glatte Zugang
jedoch ein wenig die Probleme und unbewiesenen Postulate der Ausgangsposition.
Wir können solche Probleme in diesem Schlußkapitel nur skizzenhaft andeuten.
5.1
Meß-, Zeit- und Scharmittelwert
Unser erstes Problem liegt darin, daß wir überhaupt keine Rechtfertigung haben,
die a priori–Wahrscheinlichkeiten pi der Mikrozustände eines Systems aus einem
Extremalprinzip (oder wie auch immer) zu postulieren. Die “Shannon–Entropie
eines Würfelbechers” wird maximal, wenn die verschieden Augenzahlen bei allen
Würfeln gleichwahrscheinlich sind. Aber wenn die Würfel entsprechend präpariert
sind, sind die Wahrscheinlichkeiten eben nicht gleich. Im Grunde sind die a priori–
Wahrscheinlichkeiten also Systemeigenschaften, die wir aus einer Analyse des speziellen Systems bestimmen müßten.
Ja, es kommt noch schlimmer: Wie sollen wir überhaupt a priori–Wahrscheinlichkeiten von Mikrozuständen eines Systems definieren? Was sind die günstigen und die
möglichen Fälle, deren Verhältnis durch pi angegeben ist? Welchen “Ereignisraum”
sollen wir zu Grunde legen?
Wir interessieren uns ja für ein bestimmtes physikalisches System mit einem wohldefinierten Makrozustand. Der Mikrozustand ist nicht nur unbekannt, sondern ändert
sich ungeheuer rasch.
Beispiel: Ideales Gas im Volumen V
Makrozustand
Mikrozustand
V
1
p,T
7
5
8
Wenige Zustandsgrößen (p, T )
75
10
2
3
(
4
9
6
3N Koordinaten xi (t)
3N Impulse pi (t)
µ
Der Mikrozustand beschreibt eine Bahn im Γ–Raum, die Ergode29 .
p
Γ
t0
x
x
t1
x t
2
x
Könnten wir beliebig schnell und beliebig exakt messen, so könnten wir die verschiedenen Mikrozustände — also die verschiedenen Punkte auf der Ergode an Fluktuationen unserer makroskopischen Parameter unterscheiden. Die Meßkurve für die
Druckkraft würde etwa so aussehen:
K/A
p
t
K verschwindet, wenn gerade kein Molekül auf die Wand tritt und wird groß, wenn
ein gerade besonders schnelles Molekül reflektiert wird. Im Mittel messen wir K =
pA.
Unsere Meßwerte, die makroskopische Größen festlegen, sind also Zeit–Mittelwerte.
Entsprechend wären als pi die relativen Verweildauern auf geeignet gewählten Abschnitten der Ergode zu wählen. Dazu aber müßten wir die Ergode — die von den
speziellen mikroskopischen Anfangsbedingungen abhängt — genau kennen, und gerade das können und wollen wir nicht. Vielmehr verlangen wir von einer Messung
reproduzierbare Ergebnisse: Eine Messung soll
• heute, morgen, Weihnachten und Ostern sowie in
• Bochum, San Francisco, Tokyo und Dortmund
unter gleichen Voraussetzungen dasselbe Resultat liefern und eben nicht von den
speziellen Anfangsbedingungen — die völlig unüberschaubar sind — abhängen. Wir
erwarten und verlangen also eine Unabhängigkeit von der speziell herausgegriffenen
Ergode (linke Skizze):
29
Kunstwort aus griech. εργoν (ergon) = Werk, Arbeit (für Energie) und oδoς (hodos) = Weg.
76
p
1
Γ
3
Γ
p
2
x
x
Dieser Gedanke führt fast zwangsläufig zu der Idee, den Zeitmittelwert durch den
Mittelwert über ein Ensemble vieler Punkte im Γ–Raum zu ersetzen und auch die pi
auf das Ensemble zu beziehen (Skizze rechts). Diese Punkte im Γ–Raum repräsentieren also gedachte Kopien desselben (makroskopisch!) Systems (beispielsweise zu
anderen Zeiten oder an anderen Orten). Damit geht die Statistik von dem Grundpostulat
• Zeitmittel = Schar– (Ensemble–)Mittel
aus, das eng mit der sogenannten Ergodenhypothese zusammenhängt.
5.2
Die Ergodenhypothese
Aus der unstrittigen Forderung nach Reproduzierbarkeit geht noch nicht hervor,
wie ein geeignetes Ensemble (= Gesamtheit) zu wählen ist — oder: Welche Punkte
des Γ–Raums “gleichwertige” Kopien des Ausgangssystems darstellen. Zur Lösung
dieser Frage formulierte Boltzmann 1887 die berühmte
• Ergodenhypothese:
Die Ergode eines abgeschloßenen Systems (E = const) durchläuft jeden Punkt
der Hyperfläche H = E des Γ–Raums.
Wenn diese Hypothese gilt, so folgt, daß alle Zustände gleicher Energie als gleichwahrscheinlich anzusehen sind. Hierin liegt die eigentliche Begründung für die Mikrokanonische Gesamtheit (und wegen der Äquivalenz auch für die anderen Gesamtheiten).
Die Hypothese kann jedoch gar nicht streng gelten, denn die eindimensionale Bahn
kann — so komplex und verschlungen sie auch sein mag — nicht die (6N − 1)–
dimensionale Hyperfläche H = E überdecken! Darum ersetzte sie Ehrenfest 1911
durch die
• Quasi–Ergodenhypothese:
Die Ergode eines abgeschlossenen Systems(E = const) kommt (fast) jedem
Punkt der Hyperfläche H = E des Γ–Raums beliebig nahe.
77
Diese schwächere Formulierung reicht zur Begründung des Grundpostulats Zeitmittel = Scharmittel für die mikrokanonische Gesamtheit (und die ihr äquivalenten
Gesamtheiten), was man ja auch wegen der endlichen Meßgenauigkeit erwarten muß.
Mit der Formulierung “fast” werden singuläre Fälle, die durch die kleinste Störung
wieder in “herrlichste Unordnung” (Becker S. 97) übergehen, berücksichtigt. Aber
auch mit diesen Einschränkungen ist die Hypothese nicht allgemein beweisbar. Und
daß Fälle, in denen die Hypothese de facto nicht erfüllt ist, sogar eine praktische Bedeutung haben, zeigt uns die Existenz “metastabiler Gleichgewichte” (z. B. Knallgas
H2 +O2 unterhalb der Zündtemperatur).
5.3
Der Poincarésche Wiederkehreinwand
Wenn die Ergode eines abgeschlossenen Systems (fast) jedem Punkt beliebig nahe kommt, dann auch (fast) jedem Ausgangspunkt. Und wenn die Quasi–Ergoden–
Hypothese nicht gültig ist, stimmt diese Aussage ebenfalls. Denn in jedem Fall ist
die Ergode eines abgeschlossenen Systems auf ein endliches Phasenraumvolumen
beschränkt, das von einer Umgebung der Ergode überdeckt wird (formaler Beweis:
Siehe Huang, Abschnitt 4.5).
Ein physikalisches System wird also — wenn man nur lange genug wartet — seinem Ausgangszustand wieder beliebig nahe kommen: Die verbrannte Zigarette wird
aus der Asche neu entstehen, die Scherben einer zerbrochenen Tasse werden sich
wieder von selber zusammenfügen und die gemischten Gase werden sich wieder entmischen. Dieser Poincarésche Wiederkehreinwand, der offenbar aller Erfahrung
widerspricht, war am Ende des neunzehnten Jahrhunderts eine schwere Hürde für
die Anerkennung der jungen statistischen Mechanik.
Die Auflösung dieses Widerspruchs liegt in der langen “Wiederkehrzeit”, die den
Rahmen alles bekannten Geschehens sprengt. Nehmen wir an, wir wählen als Ausgangszustand ein ideales Gas von N ≈ 3 · 1022 Teilchen, das auf eine Hälfte des
Volumens V ≈ 1 l beschränkt ist. (Bei t = 0 platzt beispielweise eine Membran.)
Dann werden sich die Gasatome bald unabhängig voneinander im gesamten Volumen
V aufhalten. Zu jedem späteren Zeitpunkt besteht also eine Wahrscheinlichkeit
22
w = 2−N = 23·10 ≈ 10−10
22
daß — wie im Anfangszustand — nur in der einen Volumenhälfte Teilchen anzutreffen sind. Nehmen wir an, daß die Zustände eine typische Lebensdauer τ haben.
Dann wird man eine Zeit
τ
22
(187)
T ≈ ≈ 1010 τ
w
auf den außergewöhnlichen Zustand warten müssen. Wir können es uns schenken,
die Lebensdauer τ abzuschätzen, denn es gilt ganz sicher
78
t0 < τ < t ∞
wobei t0 =
r0
c
=
10−15 m
3·108 m/s
≈ 3 · 10−24 s
die “Elementarzeit”, die Licht braucht, um einen Atomkern zu durchqueren, bezeichnet und
t∞ ≈ 1010 a ≈ 3 · 1017 s
das Alter der Welt bedeutet. Daraus folgt die grobe Abschätzung
−23.5 < log
τ
< 17.5 .
s
Im Rahmen einer expliziten Rechnung können wir also die Addition 1022 + log(τ /s)
in Gl. (187) gar nicht ausführen. Das heißt mit anderen Worten: T ist so ungeheuer
groß, daß wir nicht einmal unterscheiden können, ob wir in Elementarzeiten t0 oder in
Weltaltern t∞ messen: Bei der unvorstellbaren Zahl der Dezimalstellen von T kommt
es auf die 41 Zehnerpotenzen zwischen t0 und t∞ nicht mehr an. Unsere physikalische
Erfahrung, die auf höchstens Weltalter beschränkt ist, wird mit diesem Ereignis also
sicherlich nicht konfrontiert werden.
Damit ist der Poincarésche Wiederkehreinwand ausgeräumt. Auf der anderen Seite zeigen die langen Wartezeiten aber auch, wie irrelevant die Frage ist, ob die
Ergode tatsächlich (fast) jedem Punkt der Hyperfläche H = E irgendwann nahekommt. Damit bricht die Begründung der mikrokanonischen Gesamtheit mit der
Quasi–Ergodenhypothese schon wieder zusammen.
5.4
Irreversibilität und Zeitumkehr
Ludwig Boltzmann, der vielleicht bedeutendste Pionier einer atomistischen Theorie der Wärme, stellte vor über einem Jahrhundert eine “Transportgleichung”
∂f
+ C(f ) = S(f )
∂t
(188)
auf, welche die zeitliche Veränderung der Verteilungsfunktion f (r, v,t) eines Gases
im µ–Raum durch einen “Konvektionsterm” C(f ) und einen “Stoßterm” S(f ) beschreibt. Diese “Boltzmanngleichung” ist seitdem die wichtigste Grundgleichung
jeder kinetischen Theorie verdünnter Systeme.
Bezüglich der Zeit ist die Boltzmanngleichung ist eine Differentialgleichung erster Ordnung. Da der Stoßstrom S (im Gegensatz zum Konvektionsterm C) sein
Vorzeichen bei einer Zeitumkehr (v → −v) nicht ändert, ist Gl. (188) nicht zeitumkehrvariant. Im Gegenteil: Boltzmann selbst wies nach, daß aus Gl. (188)
79
dH
≥0
dt
(189)
folgt, wobei H das in Gl. (57) definierte Funktional bedeutet (Boltzmannsches H–
Theorem). Das Gleichheitszeichen gilt genau dann, wenn f die Maxwellverteilung
ist (also H seinen maximalen Wert annimmt, vgl. Abschnitt 3.3). So überzeugend Gl.
(189) das zeitliche Anwachsen der Entropie und damit die Relaxation zum Gleichgewicht beschreibt, so wenig überzeugte damals Boltzmanns Begründung aus der
Mechanik. Denn die Grundgleichungen der Mechanik sind ohne Zweifel zeitumkehrvariant.
Tatsächlich wird die Zeitumkehrvarianz in Boltzmanns halbempirischer Begründung durch ein ad hoc–Postulat aufgehoben: Zur Berechnung der Stoßwahrscheinlichkeit nimmt Boltzmann an, daß Teilchen vor einem Stoß unkorreliert sind. Entsprechende Annahmen einer korrelationsfreien Vergangenheit benötigen auch andere
“kinetische Gleichungen” (wie die Fokker–Planck–Gleichung). So einleuchtend
diese Annahme der Intuition auch erscheinen mögen: Wie sollen sie aus einer zeitumkehrvarianten Mechanik begründet werden?
Das Dilemma des Zeitumkehreinwandes wird im Γ–Raum vielleicht noch deutlicher:
Es läßt sich nämlich zeigen, daß die Zahl W aller Mikrozustände der mikrokanonischen Gesamtheit im wesentlichen mit dem eingeschlossenem Phasenraumvolumen
Σ(U ) identisch ist30 . Wegen des Zusammenhangs [vgl. Gl. (70)]
S = k ln Σ
mit der Entropie erwarten wir thermodynamisch also ein zeitliches Anwachsen des
Phasenraumvolumens. Aus der Mechanik folgt dagegen der fundamentale Satz von
Liouville, der besagt, daß das Phasenraumvolumen immer konstant bleibt!
Wie soll dann aber die Entropie je anwachsen können? Und wie soll sich das kleine
Phasenraumvolumen, das die Umgebung eines speziellen Ausgangpunktes im Γ–
Raum (Mikrozustand) beschreibt, über die ganze mikrokanonische Gesamtheit ausbreiten können? Beruht die Quasi–Ergoden–Hypothese von vornherein auf einem
groben Fehler?
Die Lösung — oder ein Teil der Lösung — liegt in dem chaotischen Verhalten der
mechanischen Vielteilchensysteme. Nach dem Satz von Liouville bewegt sich das
Phasenraumvolumen wie eine inkompressible Flüssigkeit, die stets dasselbe Volumen
einnimmt. Der Satz behauptet aber nicht, daß benachbarte Flüssigkeitelemente auch
benachbart bleiben. Vielmehr wird das Phasenraumvolumen durch die Dynamik des
Systems wie Zuckerwatte in einen immer dünneren Faden auseinandergezogen, der
sich chaotisch — also in einer der deterministischen Analyse nicht mehr zugänglichen
30
Σ hängt eng mit der Normierungskonstante Ω in Gl. (99) zusammen: Ω = ∂Σ/∂U .
80
Weise — über die gesamte mikrokanonische Gesamtheit “verspinnt”. Für unsere
Unkenntnis des Systemzustandes ist aber das “effektive Phasenraumvolumen” —
das Volumen der Watte, nicht das des Zuckers — entscheidend. Dieses Volumen,
das mit der Informationsentropie verknüpft ist, wächst mit der Zeit, ohne den Satz
von Liouville zu verletzen.
Die Zeit tritt hierbei als reiner Ordnungsparameter auf, der Zeitschritt ist einem
Iterationsschritt im Rechner vergleichbar. Je nach sprachlicher Präferenz können
wir einen Ausgangszustand durch
— genaue Kenntnis
— geringe Entropie oder
— hohe Ordnung
charakterisieren. Aus der chaotischen Systemdynamik folgt dann, daß wir von Schritt
zu Schritt
— einen Kenntnisverlust
— ein Anwachsen der Entropie oder
— eine wachsende Unordnung
beobachten, bis wir schließlich die totale Unordnung, das Gleichgewicht, erreicht
haben.
Und damit haben wir wieder erreicht, daß uns die zeitliche Zunahme der Entropie intuitiv einleuchtend erscheint. Es ist eben wahrscheinlicher, daß eine Vase zu
Scherben wird, als daß Scherben zu einer Vase werden. Warum aber tritt in der uns
bekannten Welt immer t und nie −t als Ordnungsparameter auf? Kein bekanntes Naturgesetz31 würde das verbieten! Gibt es neben unserer Welt eine Antiwelt (vielleicht
aus Antimaterie), in der −t der Ordnungsparameter ist? Gibt es überhaupt mehrere
isolierte32 Welten, in denen zufällig t oder −t als Ordnungsparameter dient? Oder
ist die Auswahl von t für unsere eine Welt eine (vielleicht zufällige) “kosmologische
Randbedingung”?
Wir wissen es nicht.
31
Damit werten wir die Verletzung der Zeitsymmetrie bei der Konstruktion der retardierten
Potentiale und bei der Reduktion des Zustandsvektors nicht als Naturgesetz.
32
Eine Wechselwirkung von Welt–Teilen mit entgegengesetzter Zeitrichtung würde zu chaotischen
Konsequenzen führen!
81
Literaturhinweise
Bei der Ausarbeitung dieser Vorlesung habe ich insbesondere die folgenden Bücher
zu Rate gezogen:
a) A. Sommerfeld: Vorlesungen über Theoretische Physik, Bd. V (Thermodynamik und Statistik), VAG Leipzig, Teubner
b) R. Becker: Theorie der Wärme, Springer
c) K. Huang: Statistische Mechanik I und II, B I 68 und 69
d) G. Adam & O. Hittmair: Wärmetheorie, Vieweg
Diese Aufstellung der Quellen ist nicht als spezielle Empfehlung zu verstehen. Je
nach persönlichem Geschmack eignen sich alle üblichen Lehrbücher der Thermodynamik und Statistik, einzelne Probleme nachzulesen oder zu vertiefen. Dabei gehen
sie natürlich im Umfang wesentlich über den Inhalt dieser Vorlesung hinaus.
Die Darstellungen von a) Sommerfeld und b) Becker (b) vermitteln ein tiefes Verständnis des physikalischen Hintergrundes, sie eignen sich wegen der Gliederung und
Schwerpunktsetzung aber weniger zur dierekten Begleitung der Vorlesung. Methodisch habe ich mich am ehesten an d) (Adam & Hittmair) orientiert. Das erste
Bändchen von Huang c) bietet eine gründliche Diskussion von Problemen, die mit
der Irreversibilität zusammenhängen (H–Theorem, Anfangschaos, Wiederkehreinwand etc.), kommt dabei aber zu einigen fraglichen Interpretationen.
Daneben empfehle ich, zur Vertiefung des Verständnisses einzelne Kapitel in den
berühmten Feynman Lectures
Feynman/Leighton/Sands: Vorlesungen über Physik, Bd. 1 und 2, R. Oldenbourg
Verlag München
nachzulesen. Dabei ist allerdings zu beachten, daß diese ausgezeichnete Darstellung
der gesamten Physik stark von der üblichen Gliederung in Teilgebiete abweicht.
82
Herunterladen