Statistische Mechanik

Werbung
Statistische Mechanik
Wintersemester 2011/12
Unvollständiges Skript - Nicht zur Verbreitung bestimmt
c Michael Lässig
18. Januar 2012
2
Inhaltsverzeichnis
Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
I
Thermodynamik des Gleichgewichts
1
2
3
4
5
6
7
8
9
10
II
Thermodynamische Systeme und Prozesse . . . . . .
Thermodynamisches Gleichgewicht und quasistatische
Fundamentalpostulat der Thermodynamik . . . . . .
Gleichgewicht in geschlossenen Systemen . . . . . . .
Gleichgewicht in offenen Systemen . . . . . . . . . . .
Thermodynamische Maschinen . . . . . . . . . . . . .
Thermodynamische Antwort und Stabilität . . . . . .
Phasenübergänge erster Ordnung . . . . . . . . . . .
Phasenübergänge zweiter Ordnung . . . . . . . . . .
Zusammenfassung: Struktur der Thermodynamik . .
5
. . . . .
Prozesse
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Statistische Mechanik des Gleichgewichts
11
12
13
14
15
16
17
18
Wahrscheinlichkeit und Unsicherheit . . . . . . . . . . .
Fundamentalpostulat der Statistischen Mechanik . . . . .
Gleichgewichts-Ensembles . . . . . . . . . . . . . . . . .
Zweiter Hauptsatz und Begründung der Thermodynamik
Gleichgewichts-Statistik wechselwirkungsfreier Systeme .
Wechselwirkende Systeme und Mittelfeld-Näherung . . .
Fluktuationen und Korrelationen im Gleichgewicht . . .
Zusammenfassung . . . . . . . . . . . . . . . . . . . . . .
3
4
7
7
7
9
10
13
14
14
14
15
17
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
19
24
28
31
34
41
44
48
4
INHALTSVERZEICHNIS
Einleitung
Stellung und Aufgaben der Statistischen Mechanik.
Probabilistische und deterministische Naturbeschreibung.
Beispiel: Ideales Gas.
Gliederung der Vorlesung.
Teil I
Thermodynamik des Gleichgewichts
5
1. THERMODYNAMISCHE SYSTEME UND PROZESSE
1
7
Thermodynamische Systeme und Prozesse
Arbeit.
Wärme.
Innere Energie.
Erster Hauptsatz der Thermodynamik. .
2
Thermodynamisches Gleichgewicht und quasistatische Prozesse
Gleichgewichts-Zustände.
Quasistatische Prozesse. Für quasistatische Prozesse sind Wärme und Arbeit EinsFormen auf dem Zustandsraum,
Q = T dS,
W =
n
X
ξi dX i .
(2.1)
i=1
Die Summe von Wärme und Arbeit ist die Änderung der inneren Energie,
dU = W + Q
(1. Hauptsatz).
(2.2)
Diese ist ein vollständiges Differential, während Wärme und Arbeit sind im allgemeinen nicht
geschlossene Formen sind,
I
I
I
dU = 0,
Q 6= 0,
W 6= 0.
(2.3)
3
Fundamentalpostulat der Thermodynamik
Entropie. Die Entropie eines thermodynamischen Systems Σ ist eine Zustandsgrösse, d.h.,
eine Funktion der extensiven Variablen X = (X 0 = U, X 1 , . . . , X n ),
S = S(X).
(3.1)
8
Die Entropie eines zusammengesetzten Systems (ΣI , ΣII ) im gehemmten oder ungehemmten
Gleichgewicht ist die Summe der Entropien der Teilsysteme,
S(XI , XII ) = S(XI ) + S(XII ).
(3.2)
Das Fundamentalpostulat der Thermodynamik bestimmt den ungehemmten Gleichgewichtszustand, d.h. den Endzustand eines thermodynamischen Prozesses:
Der ungehemmte Gleichgewichtszustand hat die grösste Entropie unter allen möglichen Zuständen des Systems,
S(XI,e , XII,e ) = max[SI (XI + SII (XII )]XI +XII =X .
(3.3)
Bemerkungen zum Fundamentalpostulat.
Zweiter Hauptsatz der Thermodynamik.
Energiedarstellung des Fundamentalpostulats. Thermodynamische Zustände in Energiedarstellung werden durch die Variablen X̂ = (X̂ 0 , X̂ 1 , . . . , X̂ n ) ≡ (S, X 1 , . . . , X n ) beschrieben, dass heisst, die Entropie S ist eine unabhängige Variable und die Energie eine abhängige
Variable, U = U (X̂). In Energiedarstellung lautet das Fundamentalpostulat:
Der ungehemmte Gleichgewichtszustand hat die geringste Energie unter allen möglichen Zuständen des Systems mit gleicher Entropie,
U (X̂I,e ), X̂II,e ) = min[UI (XI ) + UII (X̂II )]X̂I +X̂II =X̂ .
(3.4)
Gibbssche Fundamentalform. Bei quasistatischen Prozessen in Entropiedarstellung ist
die Entropieänderung ein vollständiges Differential,
dS = βdU +
n
X
i
ζi dX ≡
i=1
n
X
ζi dX i
(3.5)
i=0
mit den Komponenten
β ≡ ζ0 ≡
∂
S(U, X 1 , . . . , X n ),
∂U
ζi ≡
∂
S(U, X 1 , . . . , X n ).
i
∂X
(3.6)
Analog erhalten wir in Energiedarstellung ein vollständiges Differential
dU = T dS +
n
X
i=1
i
ξi dX ≡
n
X
i=0
ξi dX̂ i
(3.7)
4. GLEICHGEWICHT IN GESCHLOSSENEN SYSTEMEN
9
mit den Komponenten
T ≡ ξ0 ≡
∂
U (S, X 1 , . . . , X n ),
∂S
ξi ≡
∂
U (S, X 1 , . . . , X n ).
i
∂X
(3.8)
Beziehungen zwischen den Komponenten in Entropie- und Energiedarstellung:
β=
1
,
T
ζi = −
ξi
(i = 1, . . . , n).
T
(3.9)
Beispiel einfache Flüssigkeit: Entropiedarstellung: S = S(U, V, N ),
dS = βdU + p̃dV + µ̃dN.
(3.10)
Energiedarstellung: U = U (S, V, N ),
dU = T dS + (−p)dV + µdN.
(3.11)
Beziehungen zwischen den Komponenten: β = 1/T , p̃ = −(−p)/T , µ̃ = −µ/T .
4
Gleichgewicht in geschlossenen Systemen
Bedingungen für thermodynamisches Gleichgewicht. Ein thermodynamischer Prozess, bei dem die Hemmungen bezüglich der Parameter X 0 = U, X 1 , . . . , X k−1 (mit 0 ≤
k < n) aufgehoben werden, führt in Entropiedarstellung auf einen Gleichgewichtszustand
X = (XI , XII mit
j ∂S(XI , XII )
∂SI (XI )
∂SII (XII ) ∂XII 0 =
=
+
j
j
∂XI
∂XI
∂XIIj ∂XIj XI +XII =X
= ζj (XI ) − ζj (XII )
(j = 0, . . . , k − 1).
(4.1)
Das heisst: Nach Relaxation der Parameter X 0 , . . . , X k−1 ins ungehemmte Gleichgewicht sind
die zugehörigen konjugierten Parameter ζ0 , . . . , ζk−1 in beiden Teilsystemen gleich.
In Energiedarstellung gilt analog
0 = ξj (X̂I ) − ξj (X̂II )
Thermisches Gleichgewicht.
Thermisch-mechanisches Gleichgewicht.
(j = 0, . . . , k − 1).
(4.2)
10
Thermisch-materielles Gleichgewicht.
5
Gleichgewicht in offenen Systemen
Thermodynamische Potentiale. Für ein thermodynamisches System in Entropiedarstellung, bei dem die Variablen X 0 = U, . . . , X k−1 (mit 0 ≤ k < n) mit einem Reservoir
ausgetauscht werden, definieren wir das thermodynamische Potential S (k)
#
"
k−1
X
(k)
k
n
0
n
i
(5.1)
S (ζ0 , . . . , ζk−1 , X , . . . , X ) = max
S(X , . . . , X ) −
ζi X
X 0 ,...,X k−1
i=0
als Legendre-Transformierte der Entropie, die von den durch das Reservoir kontrollierten
intensiven Variablen ζ0 ≡ β, ζ1 , . . . , ζk−1 abhängt.
In Energiedarstellung definieren wir analog das thermodynamische Potential
"
#
k−1
X
U (k) (ξ0 , . . . , ξk−1 , X̂ k , . . . , X̂ n ) = min
U (X̂ 0 , . . . , X̂ n ) −
ξi X̂ i
(5.2)
X̂ 0 ,...,X̂ k−1
i=0
als Legendre-Transformierte der Energie, die von den durch das Reservoir kontrollierten intensiven Variablen ξ0 ≡ T, ξ1 , . . . , ξk−1 abhängt.
Zwischen den intensiven Parametern in Entropie- und Energiedarstellung gelten die Beziehungen (??). Damit lassen sich entsprechende Potentiale in Energie- und Entropiedarstellung
durcheinander ausdrücken,
U (k) (T, ξ1 , . . . , ξk−1 , X̂ k , . . . , X̂ n ) = −T S (k) (1/T, −ξ1 /T, . . . , −ξk−1 /T, X k , . . . , X n )
(5.3)
Wir betrachten im folgenden eine Reihe spezifischer, häufig gebrauchter thermodynamischer Potentiale. Wir verwenden die Notation einer einfachen Füssigkeit mit den extensiven
Variablen U, V, N in Entropiedarstellung bzw. S, V, N in Energiedarstellung, aber alle Aussagen gelten für allgemeinere Zustände. Die folgenden Systeme unterscheiden sich lediglich
darin, welche Variablen durch Austausch mit einem Reservoir kontrolliert werden:
Abgeschlossenes System. In Entropiedarstellung ergeben sich aus dem Potential
S(U, V, N )
(5.4)
die Zustandsgleichungen
β(U, V, N ) =
∂S(U, V, N )
∂S(U, V, N )
∂S(U, V, N )
, p̃(U, V, N ) =
, µ̃(U, V, N ) =
. (5.5)
∂U
∂V
∂N
5. GLEICHGEWICHT IN OFFENEN SYSTEMEN
11
In Energiedarstellung ergeben sich aus dem Potential
U (S, V, N )
(5.6)
die Zustandsgleichungen
T (S, V, N ) =
∂U (S, V, N )
∂U (S, V, N )
, −p(U, V, N ) =
,
∂S
∂V
µ(U, V, N ) =
∂U (S, V, N )
.
∂N
(5.7)
System im Kontakt mit einem Wärmereservoir. In Entropiedarstellung ist das Potential die Helmholtzsche freie Entropie
F(β, V, N ) = max[S(U, V, N ) − βU ];
U
(5.8)
die Zustandsgleichungen sind
U (β, V, N ) = −
∂F(β, V, N )
F(β, V, N )
∂F(β, V, N )
, p̃(β, V, N ) =
, µ̃(β, V, N ) =
. (5.9)
∂β
∂V
∂N
In Energiedarstellung ist das Potential die Helmholtzsche freie Energie
F (T, V, N ) = min[U (S, V, N ) − T S] = −T F(1/T, V, N ),
S
(5.10)
d.h. β = 1/T . Die Zustandsgleichungen sind
U (T, V, N ) = −
∂F (T, V, N )
∂F (T, V, N )
, −p(T, V, N ) =
,
∂T
∂V
µ(T, V, N ) =
System im Kontakt mit einem Wärme- und Volumenreservoir.
stellung ist das Potential die Gibbsssche freie Entropie
G(β, p̃, N ) = max[S(U, V, N ) − βU − p̃V ];
U,V
∂F (T, V, N )
.
∂N
(5.11)
In Entropiedar-
(5.12)
die Zustandsgleichungen sind
U (β, p̃, N ) = −
∂G(β, p̃, N )
,
∂β
V (β, p̃, N ) = −
∂G(β, p̃, N )
G(β, p̃, N )
, µ̃(β, p̃, N ) =
.
∂ p̃
∂N
(5.13)
12
In Energiedarstellung ist das Potential die Gibbssche freie Energie
G(T, p, N ) = min[U (S, V, N ) − T S + pV ] = −T G(1/T, p/T, N );
S,V
(5.14)
d.h. p̃ = p/T . Die Zustandsgleichungen sind
U (T, p, N ) = −
∂G(T, p, N )
,
∂T
V (T, p, N ) =
∂G(T, p, N )
,
∂p
µ(T, p, N ) =
∂G(T, p, N )
.
∂N
(5.15)
System im Kontakt mit einem Wärme- und Teilchenreservoir. In Entropiedarstellung ist das Potential die grosskanonische freie Entropie
J (β, V, µ̃) = max[S(U, V, N ) − βU − µ̃N ];
(5.16)
U,N
die Zustandsgleichungen sind
U (β, V, µ̃) = −
∂J (β, V, µ̃)
∂F(β, V, µ̃)
, p̃(β, V, µ̃) =
,
∂β
∂V
N (β, V, µ̃) = −
G(β, V, µ̃)
. (5.17)
∂ µ̃
In Energiedarstellung ist das Potential die grosskanonische freie Energie
J(T, V, µ) = min[U (S, V, N ) − T S − µN ] = −T J (1/T, V, −µ/T );
S,N
(5.18)
d.h. µ̃ = −µ/T . Die Zustandsgleichungen sind
U (T, V, µ) = −
∂J(T, V, µ)
∂J(T, V, µ)
, −p(T, V, µ) =
,
∂T
∂V
N (T, V, µ) = −
∂J(T, V, µ)
.
∂µ
(5.19)
Homogeneität der Potentiale und Konsequenzen Nach ihrer Definition sind die thermodynamischen Potentiale homogene Funktionen ersten Grades der extensiven Variablen,
S (k) (ζ0 , . . . , ζk−1 , λX k , . . . , λX n ) = λS (k) (ζ0 , . . . , ζk−1 , X k , . . . , X n )
U (k) (ξ0 , . . . , ξk−1 , λX̂ k , . . . , λX̂ n ) = λU (k) (ξ0 , . . . , ξk−1 , X̂ k , . . . , X̂ n ).
(5.20)
Daraus ergeben sich eine Reihe alternativer Darstellungen der Potentiale und Beziehungen
zwischen thermodynamischen Parametern (hier in Entropiedarstellung; alle Relationen gelten
6. THERMODYNAMISCHE MASCHINEN
13
analog in Energiedarstellung).
(i) Euler-Relation
S (k) = S −
k−1
X
ζi X i =
n
X
i=0
ζi X i .
(5.21)
i=k
(ii) Die Potentiale sind Funktionen von (n − 1) unabhängigen Variablen; eine Variable kann
eliminiert werden. Zum Beispiel führt die Wahl λ = 1/X n in (5.20) auf
S(X 0 , . . . , X n−1 , X n ) = X n S((X 0 /X n , . . . , X n−1 /X n , 1) ≡ X n s(x1 , . . . , xn−1 )
(5.22)
mit xi ≡ X i /X n (für i = 0, . . . , n − 1). Beispiel einkomponentige Flüssigkeit:
G(β, p̃, N ) = S − βU − p̃V = N µ̃(β, p̃)
J (β, V, µ̃) = S − βU − µ̃N = V p̃(β, µ̃).
(5.23)
(5.24)
Damit sind die Dichten µ̃(β, p̃) ≡ G(β, p̃, N )/N und p̃(β, µ̃) ≡ J (β, V, µ̃)/V Formen der Fundamentalrelation, d.h. sie enthalten die gesamte thermodynamische Information.
(iii) Aus dem vollständigen Differential der Euler-Relation und der Gibbsschen Fundamentalform ergibt sich die Gibbs-Duhem-Relation
n
X
X i dζi = 0.
i=0
6
Thermodynamische Maschinen
Begriff einer thermodynamischen Maschine.
Theorem maximaler Arbeit.
Effizienz reversibler Prozesse.
Beispiel: Carnot-Prozess.
Prozesse bei konstanter Temperatur.
Irreversible Prozesse, dissipierte Arbeit.
(5.25)
14
7
Thermodynamische Antwort und Stabilität
Antwortparameter und Maxwell-Relationen.
Thermodynamische Stabilität.
8
Phasenübergänge erster Ordnung
Phasenkoexistenz.
Latente Wärme.
Form der Koexistenzkurve.
Mehrkomponentige Systeme, Gibbssche Phasenregel.
Spontane Symmetriebrechung.
9
Phasenübergänge zweiter Ordnung
Kritischer Punkt.
Gibbssche freie Energie in der Nähe des kritischen Punktes.
Thermodynamische Singularitäten.
10. ZUSAMMENFASSUNG: STRUKTUR DER THERMODYNAMIK
10
Zusammenfassung: Struktur der Thermodynamik
Mathematische Methoden 1: Differentialformen
Kurven.
Differential einer skalaren Funktion.
Allgemeine Differentialformen.
Mathematische Methoden 2: Legendre-Transformation
Definition der Legendre-Transformation.
Geometrische Interpretation.
Umkehr-Transformation.
Legendre-Transformation als Grenzfall der Laplace-Transformation.
15
16
Teil II
Statistische Mechanik des
Gleichgewichts
17
11. WAHRSCHEINLICHKEIT UND UNSICHERHEIT
19
Aus den genannten Unvollständigkeiten der Thermodynamik ergeben sich die Aufgaben
der Statistischen Mechanik. Erstens soll diese Theorie einen konzeptionellen Rahmen für
die Physik von Vielteilchensystemen auf makroskopischer Skala liefern, insbesondere eine
Begündung der Thermodynamik und ihres zentralen Begriffes der Entropie. Zweitens soll die
Statistische Mechanik Methoden liefern, mit denen thermodynamische Potentiale bestimmter
Systeme aus der Kenntnis der mikroskopischen Dynamik berechnet werden können. Und
drittens soll sie den Blick auf ein orts- und zeitaufgelöstes Bild von Vielteilchensystemen
erweitern, dass heisst, von thermodynamischen Mittelwerten zu Korrelationsfunktionen und
vom Gleichgewicht zum Nichtgleichgewicht.
Die statistische Mechanik ist eine probabilistische Theorie: sie beschreibt den Zustand
eines Systems durch eine Wahrscheinlichkeitsverteilung über Mikrozustände (etwa die Koordinaten und Impulse aller Teilchen oder die Richtung aller Spins). Der Kern dieses Konzepts ist eine Reduktion der Anzahl der Variablen des Systems: von der enormen Zahl von
Mikrozuständen (dem Definitionsbereich der Verteilung) zu wenigen Grössen auf mesoskopischer Ebene (Erwartungswerten geeigneter Observablen in der Verteilung). Denn nur solche
Grössen sind experimentell präparierbar und beobachtbar – und damit für Vorhersagen der
Theorie von Interesse. Wir müssen insbesondere erklären, wie wir von einer probabilistischen
Theorie zu bestimmten, d.h. deterministischen Aussagen über Systemeigenschaften auf grossen Skalen kommen.
In diesem Kapitel beschränken wir uns auf die Statistische Mechanik des Gleichgewichts,
da sie besser verstanden ist als die des Nichtgleichgewichts und einen einfacheren ersten
Zugang zu zentralen Konzepten ermöglicht. Wir beginnen mit den informationstheoretischen
Grundlagen dieser Theorie.
11
Wahrscheinlichkeit und Unsicherheit
Definition und Schätzung von Wahrscheinlichkeiten. Wir beschreiben ein unsicheres
Experiment durch eine Zufallsvariable x, deren Werte die möglichen Ergebnisse charakterisieren, x ∈ Ω = {x1 , . . . , xN }. Wir führen eine Reihe von k unabhängigen Wiederholungen
des Experiments durch. Nach der Intuition soll die Wahrscheinlichkeit pν eines Ergebnisses
xν ein vernünftiger Schätzwert für die Anzahl kν der Fälle mit Ergebnis xν sein,
pν ≈ kν /k.
(11.1)
Dies legt nahe, Wahrscheinlichkeiten als Grenzwerte relativer Häufigkeiten zu definieren, pi =
“limk→∞ ” kν /k, und experimentell bestimmte relative Häufigkeiten kν /k zur Schätzung der
Wahrscheinlichkeiten pi zu benutzen. Beides ist unbefriedigend: Mathematisch existiert der
20
Grenzwert von kν /k nicht, und die Schätzung von pν durch kν /k erfordert oft eine sehr hohe
Zahl von Wiederholungen, insbesondere für seltene Ereignisse.
Die moderne Theorie trennt daher die Aufgaben der Definition und die der Schätzung von
Wahrscheinlichkeiten. Mathematisch ist ist eine Wahrscheinlichkeitsverteilung als eine
Abbildung
PNP : Ω → [0, 1] definiert, die jedem Ergebnis xν eine Zahl P (xν ) ≡ pν zuordnet,
so dass ν=1 pν = 1 gilt. Grundbegriffe der Wahrscheinlichkeitstheorie sind in Box 2 zusammengefasst. Um Wahrscheinlichkeitsverteilungen aus Daten schätzen zu können, wollen wir
zunächst eine Bewertung des “Informationsgehalts” einer Verteilung entwickeln.
Unsicherheit einer Wahrscheinlichkeitsverteilung. Gegeben sei eine Wahrscheinlichkeitsverteilung P für die möglichen Ergebnisse eines Experiments. Wir suchen ein quantitatives Mass S(P ), dass die Unsicherheit über den Ausgang des Experiments beschreibt. An
Abbildung
dieses Mass stellen wir drei Forderungen:
(i) S(p1 , . . . , pN ) hängt stetig von den pν ab.
(ii) Die Entropie einer Gleichverteilung, S(p1 = N1 , . . . , pN = N1 ) ist eine monoton wachsende
Funktion von N .
(iii) Für jede Klasseneinteilung der Ergebnismenge Ω = {x1 , . . . , xn } in Untermengen Ωµ
(κ
P = 1, . . . , K) mit der zugehörigen Vergröberung der Wahrscheinlichkeitsverteilung, qκ =
xν ∈Ωκ pκ , gilt die Kompositionsregel
S(p1 , . . . , pN ) = S(q1 , . . . , qK ) +
K
X
qα S({pν /qκ |xν ∈ Ωκ }).
(11.2)
κ=1
Bemerkenswerterweise ergibt sich aus diesen Bedingungen ein bis auf einen Massstabsfaktor
eindeutiges Mass S, die sogenannte Shannon-Entropie einer Wahrscheinlichkeitsverteilung
(Shannon, 1948),
N
X
S(P ) = −K
pν log pν
(K > 0)
(11.3)
ν=1
(im folgenden verwenden wir K = 1). Die Bedeutung dieses Masses liegt darin, dass es eine
objektivierbaren Vergleich des Informationsgehalts von Verteilungen ermöglicht und, wie wir
im folgenden diskutieren werden, eine Lösung des Schätzproblems liefert.
11. WAHRSCHEINLICHKEIT UND UNSICHERHEIT
21
Relative Information und Verbundinformation. Zwei weitere Informationsmasse auf
Verteilungen werden im folgenden wichtig. Für Paare von Verteilungen P und Q mit derselben
Ergebnismenge Ω definieren wir die relative Information
I(Q|P ) ≡
N
X
ν=1
qν log
qν
pν
.
(11.4)
Die relative Information ist (wie die Shannon-Entropie) nicht-negativ, I(Q|P ) ≥ 0, und verschwindet genau dann, wenn Q = P gilt. Durch Einsetzen der Ungleichung
P log x ≥ 1 − 1/x
für die Quotienten qν /pν folgt dies direkt aus der Definition: I(Q|P ) ≥ qν (1 − pν /qν ) = 0.
Die relative Information misst Unterschiede zwischen einer Verteilung Q und einer Referenzverteilung P . Zum Beispiel kann man zeigen, dass die Unterschiede zwischen im Experiment
beobachteten relativen Häufigkeiten qν ≡ kν /k und erwarteten Wahrscheinlichkeiten pν statistisch signifikant sind, wenn kI(Q|P ) ≥ 1 gilt. Die relative Information I(Q|P ) wird auch als
Kullback-Leibler-Distanz oder relative Entropie bezeichnet – letzteres ist missverständlich,
da die Entropie S einen Mangel an Information misst (man beachte das unterschiedliche
Vorzeichen in den Definitionen von I und S).
Ein Spezialfall der relativen Information ist die Verbundinformation für zwei Zufallsvariable x und y mit Verbundverteilung Q und Marginalverteilungen Px , Py ,
X
q(xν , yµ )
.
(11.5)
M (Q) ≡ I(Q|Px Py ) ≡
q(xν , yµ ) log
p
(x
)p
(y
)
x
ν
y
µ
ν,µ
Die Verbundinformation misst die Information, die in der Korrelation der Zufallsvariablen
enthalten ist; I(Q|Px Py ) verschwindet genau dann, wenn x und y statistisch unabhängig sind.
Verteilungen maximaler Unsicherheit. Wie wir intuitiv erwarten (Fig. xx), hat die
Gleichverteilung P̄ : xν → p̄ν = 1/N (i = 1, . . . , N ) die maximale Shannon-Entropie unter
allen Verteilungen P mit gleicher Ergebnismenge Ω = {x1 , . . . , xN },
S(P̄ ) ≡ S(p̄1 , . . . , p̄N ) = max S(p1 , . . . , pN ) = log N.
(11.6)
Dies ergibt sich direkt daraus, dass die Entropiedifferenz zwischen der Gleichverteilung P̄
und jeder anderen Verteilung P mit der gleichen Ergebnismenge als relative Information
geschrieben werden kann:
X
log N − S(P ) =
pν log(pν /p̄N ) = I(P |P̄ ).
(11.7)
ν
22
Maximale Unsicherheit unter Nebenbedingungen. Wir legen nun zusätzlich den Erwartungswert einer beliebigen auf der Ergebnismenge Ω definierten Funktion A fest,
N
X
hAi ≡
pν A(xν ) = X .
(11.8)
ν=1
Wir definieren eine Wahrscheinlichkeitsverteilung P̄ durch
p̄ν =
1
exp[−ζA(xν )]
Z(ζ)
mit Z(ζ) =
N
X
exp[−ζA(xν )].
(11.9)
ν=1
Den Parameter ζ legen wir durch die Nebenbedingung fest,
N
X
p̄ν A(xν ) = −
ν=1
∂
log Z(ζ) = X .
∂ζ
(11.10)
Dann gilt: Die Verteilung P̄ hat die maximale Shannon-Entropie unter allen Verteilungen P
mit gleicher Ergebnismenge Ω = {x1 , . . . , xN } und gleichem Erwartungswert hAi = X ,
S(P̄ ) ≡ S(p̄1 , . . . , p̄N ) = −
X
pν [−ζA(xν ) − log Z(ζ)] = ζX + log Z(ζ)
ν
= max S(p1 , . . . , pN ) P
ν
pν A(xν )=X
.
(11.11)
Dieses Ergebnis kann durch direkte Rechnung bewiesenPwerden. Wir suchen
ein Maximum
P
der Funktion S(p1 , . . . , pN ) mit den Nebenbedingungen ν pν = 1 und ν pν A(xν ) = X , die
durch Lagrange-Parameter berücksichtigt werden. Die Bedingung für dieses Maximum ist
#
" N
N
N
X
X
X
∂
pν log pν − λ
pν − ζ
pν A(xν )
= 0,
(11.12)
−
∂pµ
ν=1
ν=1
ν=1
P =P̄
d.h. − log p̄ν − 1 − λ − ζA(xν ) = 0, und daraus folgt direkt die exponentielle Form, p̄ν =
exp[−1 − λ − ζA(xi )]. Die Lagrange-Parameter bestimmen sich aus den Nebenbedingungen,
1 = exp(−1 − λ)Z(ζ) und X = −(∂/∂ζ)Z(ζ).
Die Maximierung der Unsicherheit lässt sich direkt auf mehrere Nebenbedingungen
i
hA i ≡
N
X
ν=1
pν Ai (xν ) = X i
für i = 0, . . . , n
(11.13)
11. WAHRSCHEINLICHKEIT UND UNSICHERHEIT
23
verallgemeinern: Die durch
" n
#
X
1
p̄ν =
exp −
ζi Ai (xν )
Z(ζ0 , . . . , ζn )
i=0
(11.14)
definierte Verteilung P̄ hat die maximale Shannon-Entropie unter allen Verteilungen P mit
gleicher Ergebnismenge Ω = {x1 , . . . , xN } und gleichen Erwartungswerten X 0 , . . . , X n ,
S(P̄ ) ≡ S(p̄1 , . . . , p̄N ) =
n
X
ζi X i + log Z(ζ1 , . . . , ζn )
i=0
= max S(p1 , . . . , pN ) P
ν
pν Ai (xν )=X i (i=0,...,n)
.
(11.15)
Die Erwartungswerte sind wieder aus der Zustandssumme berechenbar,
Xi = −
∂
log Z(ζ1 , . . . , ζn ).
∂ζi
(11.16)
Wir können diese Extremaleigenschaft noch allgemeiner fassen: Die durch
P (11.14) definierte Verteilung P̄ maximiert das Funktional S (k) (P |ζ0 , . . . , ζn ) ≡ S(P ) − ni=0 ζi hAi i, unter
allen Verteilungen mit gleicher Ergebnismenge, dass heisst
S (k) (P̄ |ζ0 , . . . , ζn ) = max S (k) (P |ζ0 , . . . , ζn ).
P
(11.17)
Dieses Maximalprinzip
offensichtlich die Maximierung der Entropie S(P ) unter den
P schliesst
i
Nebenbedingungen ν pν A (xν ) = X i (i = 0, . . . , n) gemäss Gl. (11.15) ein. Die allgemeinere Form (11.17) ist sogar noch einfacher zu beweisen: Für die Extremalverteilung gilt
S (k) (P̄ |ζ0 , . . . , ζn ) = log Z(ζ0 , . . . , ζn ) nach Gl. (11.15), und die Differenz zu einer beliebigen
anderen Verteilung als lässt sich als relative Entropie schreiben,
S (k) (P̄ |ζ0 , . . . , ζn ) − S (k) (P |ζ0 , . . . , ζn )
N
n
X
X
= −S(P ) +
pν
ζi Ai (xν ) + log Z(ζ0 , . . . , ζn )
ν=1
=
K
X
ν=1
pν log pν −
i=0
K
X
pν log p̄ν = I(P |P̄ ) ≥ 0.
(11.18)
ν=1
Maximale Unsicherheit einer Verbundverteilung. Für zwei Zufallsvariable x und y
gilt mit Verbundverteilung P und Marginalverteilungen Px , Py gilt: Die Produktverteilung
24
Px Py : (xi , yj ) → px (xi )py (yj ) hat die maximale Shannon-Entropie unter allen Verbundverteilungen P mit gleichen Marginalverteilungen Px und Py . Dies entspricht der Intuition:
die Unsicherheit der Verbundverteilung ist genau dann maximal, wenn die Variablen x und
y statistisch unabhängig sind, d.h. wenn x keinerlei Information über y enthält und umgekehrt. Mathematisch folgt dieses Ergebnis daraus, dass sich die Shannon-Entropie einer
Verbundverteilung in der Form
S(P ) = S(Px ) + S(Py ) − M (P )
(11.19)
schreiben lässt, wobei M (P ) die Verbundinformation (11.5) ist. Wie oben gezeigt, ist M (P )
nicht-negativ und verschwindet genau dann, wenn P = Px Py gilt.
Maximierung der Unsicherheit als Schätzprinzip. Wir nehmen an, das unsere teilweise Kenntnis gegebener Kenntnis über eine Wahrscheinlichkeitsverteilung aus der Ergebnismenge Ω und den Erwartungswerten X i einer Reihe von Observablen besteht (und aus nichts
sonst). Dann erhalten wir durch die Maximierung der Shannon-Entropie unter der Nebenbedingung unserer Kenntnis einen expliziten Ausdruck für die unterliegende Verteilung durch
Formel (11.14) gegeben ist. Diese Schätzung ist am “ausgewogensten” in dem Sinne, dass jede
andere Verteilung ein Vorurteil über die unbekannten Erwartungswerte anderer Observabler
enthält. Das Schätzprinzip maximaler Entropie ist objektivierbar, da die Entropiefunktion
eine eindeutige mathematische Form hat1 .
12
Fundamentalpostulat der Statistischen Mechanik
Wir wenden das Prinzip maximaler Entropie nun auf das Grundproblem der Statistischen
Mechanik an: die Inferenz einer Wahrscheinlichkeitsverteilung über Mikrozustände aus der
Kenntnis weniger Messwerte auf mesoskopischer Skala. Das Prinzip selbst ist nicht deduktiv,
dass heisst, es beruht auf keinerlei Gesetzmässigkeiten der unterliegenden mikroskopischen
Physik. Es geht daher in die Statistische Mechanik als Postulat ein.
Mikrozustände. Wir betrachten ein Vielteilchensystem, das auf mikroskopischer Ebene sei das System durch Zustände x vollständing charakterisiert sei. Beispiele für Mikrozustände sind die Phasenraumkoordinaten (r1 , p1 , . . . , rN , pN ) eines klassischen Gases, die
1
Bezüglich der Eindeutigkeit ist eine gewisse Einschränkung
bei Verteilungen kontinuierlicher ZufallsR
variablen zu machen: Die Shannon-Entropie S(P ) = − dx P (x) log P (x), und damit die Verteilung maximaler
Entropie, ändert sich bei einem Variablenwechsel x = x(y). Die relative Information I(P |P0 ) =
R
p(x) log[p(x)/p0 (x)] ist invariant unter Variablentransformationen, hängt aber von einer a-priori-Verteilung
p0 (x) ab.
12. FUNDAMENTALPOSTULAT DER STATISTISCHEN MECHANIK
25
Spinkonfigurationen (s1 , . . . , sN ) eines klassischen Ising-Ferromagneten, oder Eigenzustände
|E0 i, |E1 i, |E2 i, . . . des Hamiltonoperators in einem quantenmechanischen System.
Mesozustände. Auf mesoskopischer Ebene beschreiben wir das System durch Zustandsvektoren X = (X 0 , . . . , X n ), deren Komponenten X i die Erwartungswerte von thermodynamischen Observablen Ai sind. Diese können auf zwei verschiedene Arten gegeben sein:
(i) Der Erwartungswert einer Erhaltungsgrösse Ai (z.B. der Energie, des Volumens oder der
Teilchenzahl) kann durch eine Einschränkung des mikroskopischen Zustandsraums gegeben
sein. In diesem Fall nimmt die Observable Ai einen im Rahmen der Messgenauigkeit festen,
zeitunabhängigen Wert X i an.
(ii) Andernfalls fluktuieren die Messwerte der Observablen zu verschiedenen Zeiten um den
Mittelwert X i (dort, wo wir die Unterscheidung zu festen Messwerten hervorheben wollen,
bezeichnen wir die Mittelwerte fluktuierender Observabler mit kursiven Buchstaben X i ). Für
Erhaltungsgrössen treten solche Fluktuationen nur dann auf, wenn das System in Kontakt zu
einem Reservoir steht, so dass Austauschprozesse (z.B. von Energie, Volumen, Teilchenzahl)
stattfinden können. Fluktuationen und ihre Abhängigkeit von der Systemgrösse werden wir
in Abschnitt 6 genauer betrachten; dies wird definieren, was wir mit mesoskopisch meinen.
Wir nehmen an, dass der Zuständsvektor zusammen mit der Spezifikation der fluktuierender und der festen Observablen das System im statistischen Gleichgewicht vollständig
charakterisieren. Das heisst, Systeme mit den gleichen Erwartungswerten X i der fluktuierenden Observablen und den gleichen Werten X i der festen Oservablen stimmen in allen auf
mesoskopischer Ebene beobachtbaren Eigenschaften überein.
Gleichgewichtsverteilung. Im statistischen Gleichgewicht wollen wir den Mesozustand
des Systems durch eine zeitunabhängige Wahrscheinlichkeitsverteilung Pe über Mikrozustände beschreiben. Der Zustandsvektor X bestimmt Erwartungswerte in dieser Verteilung,
Z
i
i
X = hA ie ≡ dxAi (x)Pe (x)
(i = 0, . . . , n).
(12.1)
Dabei nehmen wir ohne Einschränkung an, dass die Observablen A0 , . . . , Ak−1 um ihre Erwartungswerte fluktuieren und Ak , . . . , An durch Erhaltungssätze fixiert sind, d.h., es gilt
Ai (x) = X i
(i = k, . . . , n)
(12.2)
für alle Mikrozustände mit nichtverschwindender Wahrscheinlichkeit. Die Erwartungswerte
(12.1, 12.2) beschreiben unsere vollständige Kenntnis des Mesozustands im Gleichgewicht.
Das Fundamentalpostulat legt aus dieser Kenntnis die vollständige Verteilung Pe fest
und definiert die physikalische Entropie:
26
R
Die Gleichgewichtsverteilung Pe maximiert die Unsicherheit S(P ) = − dxP (x) log P (x) unter den Randbedingungen (12.1, 12.2). Den Maximalwert von S nennen wir die physikalische
Gleichgewichts-Entropie eines Mesozustands,
S(X) ≡ S(Pe ) = max S(P )|hA0 i=X 0 ,...,hAk−1 i=X k−1 , Ak =X k ,...,An =X n .
(12.3)
Physikalisch heisst hier, dass wir die Grösse S mit den Messwerten X 0 , . . . , X n auf mesoskopischer Skala in Verbindung bringen können. Das Fundamentalpostulat enthält eine wichtige Einschränkung: Während die Shannon-Entropie S für jede Wahrscheinlichkeitsverteilung
existiert, definiert das Fundamentalpostulat eine physikalische Entropie S ausschliesslich für
mesoskopische Gleichgewichtszustände. Ein Grund hierfür wird in Abschnitt 2.7 deutlich
werden. In Teil III der Vorlesung werden wir die Definition der Entropie auf Nichtgleichgewichtszustände verallgemeinern.
Nach den Überlegungen des vorigen Abschnitts hat die Gleichgewichtsverteilung die Form
" k−1
# n
X
Y
1
ζi Ai (x)
δ Ai (x) − X i
(12.4)
Pe (x) = exp −
Z
i=0
i=k
Der Normierungsfaktor ist die sogenannte Zustandssumme des Systems,
" k−1
#
Z
X
Z(ζ0 , . . . , ζk−1 , X k , . . . , X n ) = dx exp −
ζi Ai (x) δ Ai (x) − X i
(12.5)
i=0
Dabei sind die Erwartungswerte X 0 , . . . , X k−1 der fluktuierenden Observablen durch die
Lagrange-Parameter ζ0 , . . . , ζk−1 bestimmt, die wir im folgenden als unabhängige Variable
verwenden.
Statistisches Potential, freie Entropie. Der Logarithmus der Zustandssumme lässt sich
nach Gl. (??) einfach durch die Entropie und die Mittelwerte der fluktuierenden Observablen
ausdrücken,
Φ(ζ0 , . . . , ζk−1 , X k , . . . , X n ) ≡ log Z(ζ0 , . . . , ζk−1 , X k , . . . , X n )
k−1
X
0
k−1
k
n
= S(ζ , . . . , ζ , X , . . . , X ) −
ζi X i .
(12.6)
i=0
Diese Funktion bezeichnen wir als statistisches Potential oder freie Entropie. Sie bestimmt die
Statistik des Gleichgewichts-Ensembles vollständig. Insbesondere lassen sich die Erwartungswerte der fluktuierenden Observablen lassen sich nach Gl. (11.16) als partielle Ableitungen
12. FUNDAMENTALPOSTULAT DER STATISTISCHEN MECHANIK
27
des Potentials schreiben,
X i = hAi ie = −
∂
Φ(ζ 0 , . . . , ζ k−1 , X k , . . . , X n )
∂ζi
(i = 0, . . . , k − 1),
(12.7)
und damit als abhängige Variable ausdrücken, X i (ζ0 , . . . , ζk−1 , X k , . . . , X n ). Analog definieren wir für die fixierten Observablen Ak , . . . , An die Parameter
ζi ≡
∂
Φ(ζ 0 , . . . , ζ k , X k , . . . , X n )
∂X i
(i = k, . . . , n).
(12.8)
Wir nennen X i und ζi statistisch konjugierte Parameter. Schliesslich ergibt sich aus (11.17)
eine alternative, zu (12.3) aequivalente Form des Fundamentalpostulats:
Die
Pe maximiert das Funktional S (k) (P |ζ0 , . . . , ζn ) ≡ S(P ) −
Pn Gleichgewichtsverteilung
i
(k)
ist die freie Entropie eines Mesozustands,
i=0 ζi hA i. Der Maximalwert von S
Φ(ζ0 , . . . , ζk−1 , X k , . . . , X n ) = S (k) (Pe ) = max S (k) (P ).
P
(12.9)
Subjektive und objektive Aspekte der Theorie. Der zentrale Begriff einer Wahrscheinlichkeitsverteilung über Mikrozustände wurde in der Gibbs’schen Ensembletheorie begründet. Die durch das Fundamentalpostulat gegebene Gleichgewichtsverteilung Pe beansprucht keine objektive Realität, sondern hängt von unserer Kenntnis des Systems ab, die
aus den Mittelwerten X i besteht. Ändert sich diese Kenntnis, so ändert sich auch die Verteilung Pe . Diese teilweise subjektive Interpretation der statistischen Mechanik wurde durch
E.T. Jaynes (1958) begründet; das Fundamentalpostulat nennt man auch Jaynes’sches
Prinzip.
Ein subjektiver Aspekt der Theorie existiert notwendigerweise, denn die Gleichgewichtsverteilung Pe ist nicht messbar. Dies liegt an der astronomisch hohen Zahl möglicher Mikrozustände. Ein Ising-Ferromagnet mit N Spins hat zum Beispiel 2N Spinzustände. Selbst wenn
wir – etwa in einem Computerexperiment – den Mikrozustand des Systems zu jedem Zeitpunkt kennen, deckt eine realistische Zahl von Messungen immer nur einen kleinen Teil der
Mikrozusände ab, dass heisst, eine auch nur annähernde Bestimmung relativer Häufigkeiten
von Mikrozuständen ist unmöglich. Jede Theorie, die Pe beinhaltet, muss diese Verteilung
also durch ein Postulat aus messbaren Daten bestimmen.
Worin besteht dann der objektive Gehalt der mesoskopischen Theorie, und damit ihre
Vorhersagekraft und Falsifizierbarkeit? Bei gegebener Hamiltonfunktion H gibt es im Gleichgewicht nur eine beschränkte Anzahl von Erwartungswerten X i , die voneinander unabhängige
Werte annehmen können; diese Anzahl ist höchstens gleich der Anzahl der Kopplungskonstanten von H. Sind diese Werte durch Messungen bestimmt, dann sagt die Verteilung Pe
28
eine grosse Anzahl weiterer mesoskopischR beobachtbarer Systemeigenschaften voraus, zum
Beispiel Korrelationsfunktionen GA (q) ∼ dr hA(r)A(r + q)ie (siehe Abschnitt 6). Die Verteilung Pe ist also ein rechnerischer Zwischenschritt, der gemessene und vorhergesagte Eigenschaften des Mesozustands verknüpft.
Damit erfüllt die statistische Gleichgewichtsentropie im thermodynamischen Limes das
Fundamentalpostulat der Thermodynamik. Erst an dieser Stelle haben wir die Voraussetzung
benutzt, dass die während des Prozesses ausgetauschten Variablen Erhaltungsgrössen sind
(so dass XI,e + XII,e = XI,in + XII,in gilt). Wir haben ansonsten keinerlei Gebrauch von den
Bewegungsgleichungen gemacht, und die Entropie ist ausserhalb des Gleichgewichts noch
nicht definiert. Wir können also noch keine Aussage darüber machen, wie sich die Entropie
während des thermodynamischen Prozesses verhält.
13
Gleichgewichts-Ensembles
Als Beispiele für die Anwendung des Fundamentalpostulats betrachten wir im folgenden eine
Reihe spezifischer, häufig gebrauchte Verteilungen. In allen Fällen bestimmen wir die Gleichgewichtsverteilung, das statistische Potential und die Entropie in gleicher Weise aus den
allgemeinen Formeln des vorigen Abschnitts. Wir verwenden die Notation einer einkomponentigen Flüssigkeit mit Parametern X = (U, V, N ), aber alle Aussagen gelten für allgemeine
Zustände X = (X 0 = U, X 1 , . . . , X n ). Die Herleitung der statistischen Potentiale verläuft
parallel zur Diskussion der thermodynamischen Potentiale in Abschnitt 1.7.
Abgeschlossenes System. Die Gleichgewichtsverteilung eines abgeschlossenen Systems
ist die sogenannte mikrokanonische Verteilung. Die Gesamtenergie hat einen bis auf die
Messunschärfe ∆ bestimmten Wert U ; das heisst, die Mikrozustände x = (r1 , p1 , . . . , rN , pN )
des Systems liegen auf der Energieschale [U − ∆, U ] mit ∆ U . Die mikrokanonische
Verteilung ist eine Gleichverteilung auf der Energieschale,
P∆ (x) =
1
δ∆ (HV,N (x) − U )
Z∆
(13.1)
mit der Zustandssumme
Z
Z∆ (U, V, N ) =
dx δ∆ (HV,N (x) − U ),
(13.2)
wobei δ∆ (H − U ) ≡ 1 im Intervall U − ∆ < H < U und δ∆ (H − U ) ≡ 0 ausserhalb. Das
statistische Potential der mikrokanonischen Verteilung ist die Entropie
S(U, V, N ) = log Z∆ (U, V, N ).
(13.3)
13. GLEICHGEWICHTS-ENSEMBLES
29
Die partielle Ableitung der Entropie nach einem Parameter X i liefert den statistisch konjugierten Parameter ζi . Insbesondere definieren wir die mikrokanonische inverse Temperatur,
β∆ ≡ ∂S(U, V, N )/∂U.
(13.4)
Die aus dem Fundamentalpostulat hergeleitete mikrokanonische Verteilung stimmt mit der
Boltzmannschen statistischen Mechanik überein. Diese leitet die Gleichverteilung auf der
Energieschale aus Ergodizitätseigenschaften der Dynamik her, was allerdings oft schwierig
ist. In unserem Zugang ist Ergodizität lediglich die vorurteilsfreieste Annahme über das
System.
System im Kontakt mit einem Wärmereservoir. Die Energie fluktuiert um den Mittelwert U bei festen Parametern V, N . Dies definiert die kanonische Gleichgewichtsverteilung im Helmholtz-Ensemble,
PK (x) =
1
exp[−βHV,N (x)]
ZK
(13.5)
mit der Zustandssumme
Z
ZK (β, V, N ) =
dx exp[−βHV,N (x)].
(13.6)
Der Gewichtsfaktor exp[−βH] jedes Mikrozustands bezeichnet man als Boltzmannfaktor.
Die Zustandssumme bestimmt das kanonische Potential, die freie Entropie F(β, V, N ) =
log Z(β, V, N ). Den Lagrange-Parameter ζ0 ≡ β nennen wir die kanonische inverse Temperatur des Systems. Diese ist konjugiert zum Erwartungswert der Energie,
U(β, V, N ) ≡ hHV,N i(β, V, N ) = −
∂
ΦK (β, V, N ).
∂β
(13.7)
Die Entropie hat die Form
S(β, V, N ) = F(β, V, N ) + βU(β, V, N ).
(13.8)
System im Kontakt mit einem Wärme- und Volumenreservoir. Energie und Volumen fluktieren um ihre Mittelwerte U und V. Dies definiert die kanonische Gleichgewichtsverteilung im Gibbs-Ensemble,
PG (x) =
1
exp[−β(HV,N (x) + pV )]
ZG
(13.9)
30
mit der Zustandssumme
Z
ZG (β, p̃, N ) =
dV exp[−p̃V ]ZK (β, V, N )
(13.10)
und der freien Entropie G(β, p̃, N ) = log ZG (β, p̃, N ). Dieses Ensemble hat einen zweiten
Lagrange-Parameter ζ1 ≡ p̃, den wir als Produkt der inversen Temperatur und des Druckes
schreiben, p̃ = βp (vgl. Abschnitt 1.7). Die Erwartungswerte von Energie und Volumen sind
U(β, p̃, N ) ≡ hHN,V i(β, p̃, N ) = −
V(β, p̃, N ) ≡ hV i(β, p̃, N ) = −
∂
G(β, p̃, N ),
∂β
∂
G(β, p̃, N ).
∂ p̃
(13.11)
(13.12)
Die Entropie hat die Form
S(β, p̃, N ) = G(β, p̃, N ) + βU(β, p̃, N ) + p̃ V(β, p̃, N ).
(13.13)
System in Kontakt mit einem Wärme- und einem Teilchenreservoir. Energie und
Teilchenzahl fluktuieren um ihre Mittelwerte U und N bei festem Volumen V . Dies definiert
die grosskanonische Gleichgewichtsverteilung
PGK (x) =
1
ZGK
exp[−β(HV,N (x) − µN )]
(13.14)
für Mikrozustände x = (r1 , p1 , . . . , rN , pN ) mit belieber Teilchenzahl N . Die Zustandssumme
hat die Form
∞
X
ZGK (β, V, µ̃) =
exp[−µ̃N ]ZK (β, V, N ).
(13.15)
N =0
und bestimmt das grosskanonische Potential J (β, V, µ̃) = log ZGK (β, V, µ̃). Den zweiten
Lagrange-Parameter drücken wir durch die inverse Temperatur und das chemische Potential
aus, ζ2 ≡ µ̃ = −βµ (vgl. Abschnitt 1.7). Die Erwartungswerte von Energie und Teilchenzahl
sind
U(β, V, µ̃) ≡ hHN,V i(β, V, µ̃) = −
N (β, V, µ̃) ≡ hN i(β, V, µ̃) = −
∂
J (β, V, µ̃),
∂β
∂
J (β, V, µ̃).
∂ µ̃
(13.16)
(13.17)
Die grosskanonische Entropie hat die Form
SGK (β, V, µ̃) = J (β, V, µ̃) + βU(β, V, µ̃) + µ̃ N (β, V, µ̃).
(13.18)
14. ZWEITER HAUPTSATZ UND BEGRÜNDUNG DER THERMODYNAMIK
31
Beziehungen zwischen Gleichgewichts-Ensembles. Auf mesoskopischer Ebene haben
wir für einunddasselbe physikalische System verschiedene statistische Ensembles betrachtet,
je nachdem, ob eine Observable Ai auf ihren Erwartungswert X i fixiert ist oder um diesen
fluktuiert. Die Zustandssummen dieser Ensembles sind mathematisch einfach miteinander
verknüpft. Als Beispiel betrachten wir den Zusammenhang zwischen der mikrokanonischen
und der kanonischen Zustandssumme, d.h. zwischen einem System mit fester Energie X 0 = U
und einem System mit Energiefluktuationen bei gegebener inverser Temperatur ζ0 = β. Aus
(13.2) und (13.6) folgt eine Beziehung zwischen den Zustandssummen,
Z
1
n
ZK (β, X , . . . , X ) = dU Z∆ (U, X 1 , . . . , X n ) exp[−βU ].
(13.19)
Das heisst, ZK ist die Laplace-Transformierte von Z∆ ; Umkehrung der Laplace-Transformation
liefert Z∆ aus ZK . Wir können (13.19) auch als Beziehung zwischen den statistischen Potentialen schreiben,
Z
1
n
exp[F(β, X , . . . , X )] = dU exp[S(U, X 1 , . . . , X n ) − βU ].
(13.20)
Eine analoge Beziehung besteht für jedes statistisch konjugierte Paar von Parametern,
Z
Z(. . . , ζi , . . . ) = dX i Z(. . . , X i , . . . ) exp[−ζi X i ].
(13.21)
Hierbei bedeuten die Punkte, dass jede der anderen Observablen Aj entweder durch ihren
festen Wert X j oder ihren Lagrange-Parameter ζj gegeben ist. Diese Ensembles beschreiben unterschiedliche experimentelle Randbedingungen an das System, die zu unterschiedlichen physikalischen Eigenschaften der Gleichgewichtszustände führen. Zum Beispiel hängt
die durch (13.4) bzw (13.7) gegebene funktionale Abhängigkeit der inversen Temperatur vom
Erwartungswert der Energie vom Ensemble ab,
β∆ (U ) 6= β(U ),
(13.22)
Derartige Unterschiede sind in Nanosystemen beobachtbar. In grossen Systemen werden sie
unwichtig, was wir im nächsten Abschnitt zeigen.
14
Zweiter Hauptsatz und Begründung der Thermodynamik
Entropietheorem für mesoskopische Systeme. Wir betrachten einen thermodynamischen Prozess in einem abgeschlossenen System. Dabei geht das System von einem Anfangszustand im gehemmten Gleichgewicht in einen Endzustand im ungehemmten Gleichgewicht
32
über. Anfangs- und Endzustand sind eine Verteilungen P (xI , xII ) über Mikrozustände in zwei
Teilsystemen. Diese sind durch die Zustandsvektoren
0
n
0
n
(XI,in , XII,in ) = ((XI,in
, . . . , XI,in
), (XII,in
, . . . , XII,in
))
(14.1)
charakterisiert, deren Komponenten die Erwartungswerte von Observablen A0 , . . . , An in
beiden Teilsystemen sind. Wir nehmen an, dass die Observablen A0 , . . . , An durch Erhal1
k
n
n
tungssätze auf die Werte XI,in
, XII,in
, . . . , XI,in
, XII,in
fixiert sind. Die Entropie des Anfangszustands Pin (xI , xII ) ist nach dem Fundamentalpostulat ein Maximum über Verteilungen
P (xI , xII ) unter Nebenbedingungen,
S(XI,in , XII,in ) = max S(P )A0 =X 0 ,A0 =X 0 ,...,An =X n ,An =X n .
(14.2)
I
I,in
II
II,in
I
I,in
II
II,in
Während des Prozesses tauschen die Teilsysteme eine Reihe von Erhaltungsgrössen wie z.B.
Energie, Volumen, oder Teilchenzahl aus. Im Endzustand fluktuieren daher die Messwerte
dieser Observablen in den Teilsystemen, aber die Summe über beide Teilsysteme ist durch
den Anfangszustand festgelegt,
i
i
i
i
Aie = XI,e
+ XII,e
= X i ≡ XI,in
+ XII,in
(i = 0, . . . , n).
Die Entropie des Endzustands ist daher wieder nach dem Fundamentalpostulat
S(XI,e , XII,e ) = max S(P )A0 =X 0 ,...,An =X n .
(14.3)
(14.4)
Aus dem Vergleich von (14.2) und (14.4) zusammen mit den Erhaltungssätzen (14.3) folgt
unmittelbar, dass die Entropie des Gesamtsystems monoton wächst,
S(XI,e , XII,e ) ≥ S(XI,in , XII,in ).
(14.5)
Bei dieser Herleitung des “zweiten Hauptsatzes” thermodynamische Prozesse in mesoskopischen Systemen haben wir lediglich die Voraussetzung benutzt, dass die während des Prozesses ausgetauschten Variablen Erhaltungsgrössen sind – und diese Voraussetzung geht erst
an dieser Stelle in die Theorie ein. Wir haben ansonsten keinerlei Gebrauch von den Bewegungsgleichungen gemacht, und die Entropie ist ausserhalb des Gleichgewichts noch nicht
definiert. Wir können also noch keine Aussage darüber machen, wie sich die Entropie während
des thermodynamischen Prozesses verhält.
Thermodynamischer Limes. Wir betrachten nun die Statistik von Gleichgewichts-Zuständen und thermodynamischen Prozessen für makroskopische Systeme, das heisst, für Systeme mit einer sehr grossen Zahl von Freiheitsgraden N = X n . Wir stellen zunächst fest, dass
14. ZWEITER HAUPTSATZ UND BEGRÜNDUNG DER THERMODYNAMIK
33
die durch das Fundamentalpostulat definierte Gleichgewichtsentropie eine extensive Grösse
ist, dass heisst, S(X) hat die Form
S(U, X 1 , . . . , X n−1 , N ) ' N s(u, x1 , . . . , xn−1 ),
(14.6)
wobei die Dichten (u ≡ U/N, x1 ≡ X 1 /N, . . . , xn−1 ≡ X n−1 /N ) sowie die Funktion asymptotisch unabhängig von der durch N parametrisierten Systemgrösse sind. Denn die lokalen
Dichten xi (r) und xi (r2 ) sind für Distanzen |r2 − r1 |, die wesentlich grösser als die Korrelationslänge des Systems sind, nahezu statistisch unabhängig, und damit wird die ShannonEntropie S der Verbundverteilung additiv2 . Einsetzen dieser Asymptotik in (13.19) liefert
Z
F ' log du exp[N (s(u, x1 , . . . , xn−1 ) − βu)].
(14.7)
Asymptotisch ist dieses Integral durch das Maximum des Integranden dominiert, das heisst
F ' N max[s(u, . . . ) − βu] = max[S(U, . . . ) − βU ]
u
U
(N 1).
(14.8)
Damit haben wir gezeigt:
(i) Im thermodynamischen Limes vereinfacht sich die Beziehung zwischen der mikrokanonischen Entropie S(U, X 1 , . . . , X n ) und der kanonischen freien Entropie F(β, X 1 , . . . , X n ) zu
einer Legendretransformation.
(ii) Auch in der kanonischen Verteilung nimmt die Energiedichte einen festen Wert an, der
durch die Extemalbedingung
d
(s − βu) = 0
(14.9)
du
gegeben ist.
(iii) Mit ds∆ /du ≡ β∆ lautet die Bedingung für das Maximum β∆ = β, d.h. die Unterschiede
zwischen mikrokanonischer und kanonischer inverser Temperatur verschwinden.
Entsprechende Aussagen gelten für alle Komponenten des Zustandsvektors X. Daher werden im thermodynamischen Limes Dichten der thermodynamischen Grössen, ai ≡ Ai /N , zu
deterministischen Variablen (eine genauere Diskussion des Verschwindens von Fluktuationen
im thermodynamischen Limes erfolgt in Abschnitt 6). Diese Konvergenz folgt im wesentlichen
aus der asymptotischen statistischen Unabhängigkeit für grosse Distanzen und dem zentralen
Grenzwertsatz.
2
Dies ist konsistent mit dem Fundamentalpostulat, da statistisch unabhängige Variable auch das Maximum von S liefern, d.h. Korrelationen können keine schneller als extensiv wachsende Entropie erzeugen.
Allerdings dürfen wir das Fundamentalpostulat nicht zur Inferenz statistischer Unabhängigkeit verwenden,
da die Korrelationen des Systems aus der Gleichgewichtsverteilung (12.4) folgen, die ihrerseits bereits durch
die Hamiltonfunktion und die Mittelwerte X i bzw. die konjugierten Grössen ζi bestimmt ist.
34
Thermodynamische Potentiale. Analog zu (14.8) wird für jedes Paar konjugierter Variablen X i , ζi die Laplacetransformation zwischen den statistischen Potentialen Φ(. . . , X i , . . . )
und Φ(. . . , ζi , . . . ) im thermodynamischen Limes zu einer Legendretransformation. Das heisst,
der mesoskopische Zustandsraum wird isomorph zum thermodynamischen Zustandsraum,
und wir können die statistischen Potentiale umkehrbar eindeutig mit den thermodynamischen Potentialen in Entropiedarstellung identifizieren,
Φ(ζ0 , . . . , ζk−1 , X k , . . . , X n ) ' S (k) (ζ0 , . . . , ζk−1 , X k , . . . , X n )
(N 1).
(14.10)
Fundamentalpostulat der Thermodynamik. Um die Begründung der Thermodynamik
aus der statistischen Mechanik zu vervollständigen, müssen uns überzeugen, dass die durch
(12.3) definierte statistische Gleichgewichtsentropie S(X) im Limes N → ∞ dem Fundamentalpostulat der Thermodynamik genügt. Nach ihrer Definition ist S(X) eine Zustandsgrösse,
und nach den Überlegungen des vorigen Abschnitts ist sie extensiv. Das heisst, die Entropie
eines Systems, das aus zwei makroskopischen Teilsystemen besteht, ist asymptotisch additiv,
S(XI , XII ) ' S(XI ) + S(XII )
(N 1),
(14.11)
Das Fundamentalpostulat der Thermodynamik ist daher eine unmittelbare Konsequenz des
Fundamentalpostulats der Statistischen Mechanik,
S(XI,e , XII,e ) = max S(XI , XII )X +X
I
II =XI,e +XII,e
.
(14.12)
Insbesondere gilt für jeden thermodyamischen Prozess in einem abgeschlossenen System, bei
dem zwei Teilsysteme eine Reihe von Erhaltungsgrössen austauschen, der zweite Hauptsatz
der Thermodynamik,
S(XI,e , XII,e ) ≥ S(XI,in , XII,in ).
(14.13)
15
Gleichgewichts-Statistik wechselwirkungsfreier Systeme
Nach der allgemeinen Theorie bestimmt das statistische Potential, d.h. der Logarithmus der
Zustandssumme, die gesamte Statistik eines Systems im Gleichgewicht. In Systemen mit
wechselwirkungsfreier Hamiltonfunktion lässt sich die Zustandssumme exakt berechnen. Das
einfachste Beispiel ist ein ideales Gas, das heisst, ein System wechselwirkungsfreier, klassischer
oder quantaler Punktteilchen.
15. GLEICHGEWICHTS-STATISTIK WECHSELWIRKUNGSFREIER SYSTEME
35
Klassisches ideales Gas. Wir betrachten zunächst ein ideales Gas als abgeschlossenes
System, d.h. im mikrokanonischen Ensemble. Ein System nichtrelativistischer, wechselwirkungsfreier Punktteilchen hat die Hamiltonfunktion
N 2
X
pν
H(r1 , p1 , . . . , rN , pN ) =
+ HW (rν ) ,
(15.1)
2m
ν=1
wobei HW elastische Stösse der Teilchen an der Wand beschreibt. Die klassische Zustandssumme hat die Form
!
Z
Z
N
X
p2ν
Z∆ (U, V, N ) = C dr1 . . . drN dp1 . . . dpN δ∆ U −
2m
Λ
ν=1
h
i
= CN V N ωN (2mU )3N/2 − (2m(U − ∆))3N/2
h
i
= CN V N ωN (2mU )3N/2 1 − O(e−(3N/2)(∆/U ) ) ,
(15.2)
wobei Λ das Raumgebiet des Systems , cN = π 3N/2 /(3N/2)! das Volumen der Einheitskugel in
3N Dimensionen, und C eine noch zu bestimmende Konstante ist. Das heisst: Auf Grund der
hohen Dimension des Impulsraums liegen fast genauso viele Zustände in der Schale [U −∆, U ]
wie in der gesamten Bereich [0, U ], selbst für ∆/U 1. Verwendung der Stirling-Formel
k! ' ek log k liefert S(U, V, N ) = log Z∆ (U, V, N ) = N log[V (2πmU/N )3/2 ] + log CN + . . . . Die
rein klassische Rechnung (mit CN = 1) enthält eine Inkonsistenz: die Entropie wächst bei
konstanter Teilchendichte N/V schneller als linear in N . Die klassische Annahme der Unterscheidbarkeit der Teilchen führt zu einer Überzählung der Zustände. Es ist bemerkenswert,
dass die Statistische Mechanik selbst des einfachsten Vielteilchensystems nicht ohne Quantenmechanik auskommt. Diese beschreibt die Teilchen korrekt als ununterscheidbar und liefert
ein dimensionsloses Volumenmass drdp/h3 pro Teilchen im Phasenraum. Damit erhalten wir
CN = 1/(N !h3N ) ' exp[N log(N −1 h−3 )] und die extensive Entropie

!3 
√
2πmu 
+ ...
(15.3)
S(U, V, N ) = N log v
h
mit der mittleren Energie pro Teilchen, u = U/N , und dem Volumen pro Teilchen, v ≡ V /N .
Dieses Potential beschreibt die klassische Maxwell-Boltzmann Statistik eines idealen Gases.
Die resultierenden Zustandsgleichungen sind
1
T
∂S(U, V, N )
3
=
,
∂U
2u
∂S(U, V, N )
1
p̃ ≡ βp =
= .
∂V
v
β≡
=
(15.4)
(15.5)
36
Für ein ideales Gas in Kontakt mit einem Wärmereservoir erhalten wir die kanonische
Zustandssumme
Z
Z
1
p2ν
ZK (β, V, N ) =
dr1 . . . drN dp1 . . . dpN exp −β
N !hN Λ
2m
3N/2
N
V
2πm
=
(15.6)
N !hN
β
und damit die Helmholtzsche freie Entropie

F(β, V, N ) = log ZK (β, V, N ) = N log v
!3 
p
2πm/β 
+ ... .
h
(15.7)
Die Rechnung im kanonischen Ensemble ist wesentlich einfacher als im mikrokanonischen
Ensemble. Der Grund ist, dass die kanonische Zustandssumme (zumindest für dieses wechselwirkungsfreie System) in die Beiträge der einzelnen Teilchen faktorisiert, während bei
fester Energie die Integrale durch die globale Randbedingung δ∆ (U − H) gekoppelt sind. Die
kanonischen Zustandsgleichungen
3
1 ∂F(β, V, N )
=
,
N
∂β
2β
1
∂F(β, V, N )
=
p̃ =
∂V
v
u = −
(15.8)
(15.9)
sind identisch zu (15.4) und (15.5). Dies zeigt, dass im thermodyamischen Limes die harte
Randbedingung des mikrokanonischen Ensembles durch den Boltzmannfaktor des kanonischen Ensembles ersetzt werden kann.
Schliesslich können wir die Zustandssumme für ein System in Kontakt mit einem Wärmeund Teilchenreservoir berechnen. Mit dem korrekten quantenmechanischen Symmetriefaktor
1/N ! für N -Teilchen-Zustände ist die Reihe (13.15) leicht summierbar,
ZGK (β, V, µ̃) =
∞
X
e−µ̃N ZK (β, V, N )
N =0
"
"
3/2 #N
3/2 #
∞
X
1 e−µ̃ V 2πm
e−µ̃ V 2πm
'
= exp
. (15.10)
3
3
N
!
h
β
h
β
N =0
Daraus ergibt sich die grosskanonische freie Entropie
3/2
Z
e−µ̃ V 2πm
V dp
p2
−µ̃
J (β, V, µ̃) = βV p(β, V, µ̃) =
=e
exp −β
h3
β
h3
2m
(15.11)
15. GLEICHGEWICHTS-STATISTIK WECHSELWIRKUNGSFREIER SYSTEME
37
und die Zustandsgleichungen
∂F(β, V, N )
= βV p,
∂ µ̃
∂J (β, V, µ)
3
U = −
=
βV p,
∂β
2β
N = −
(15.12)
(15.13)
die wieder auf (15.4) und (15.5) führen.
Die Zustandsgleichung (15.4) bestimmt die mittlere Energie pro Impuls-Freiheitsgrad eines Teilchens u/3 = T /2 (bzw. kB T /2 in gewöhnlichen Temperatureinheiten). Allgemeiner
gilt der Gleichverteilungssatz: Jeder Freiheitsgrad eines klassischen Systems, der quadratisch in die Hamiltonfunktion eingeht, trägt kB T /2 zur inneren Energie des Systems bei. Der
Beweis ist analog zu obiger Rechnung.
Ideale Quantengase. Die quantalen Zustände |αi eines Gasteilchens in einem Kasten mit
Kantenlänge L seien durch den Impuls p und die Spinkomponente σz beschrieben,
|αi = |p = Lh n, σz i,
mit n = (nx , ny , nz ) ∈ Z 3 und σz = −s, −s + 1, . . . , +s.
(15.14)
Die Mikrozustände eines quantalen Vielteilchen-Systems sind symmetrisierte oder antisymmetrisierte Produkte von Einteilchen-Zuständen, je nachdem, ob der Spin s der Teilchen
ganzzahlig oder halbzahlig ist (diese Teilchensorten nennt man Bosonen bzw. Fermionen).
Die kompakteste Beschreibung dieser Zustände ist die sogenannte Besetzungszahldarstellung: Ein Vielteilchen-Zustand ist durch die Anzahl Nα von Teilchen beschrieben, die sich
in jedem Einteilchen-Zustand α befinden. Damit hat die kanonische Zustandssumme eines
wechselwirkungsfreien Gases die Form
YX
P
P
ZK (β, V, N ) =
δ N − α Nα exp − β α Nα α .
(15.15)
α
Nα
mit α = p2α /2m für nichtrelativistische Teilchen und α = cpα für masselose Teilchen.
Nach dem Spin-Statistik-Theorem können die Teilchenzahlen für Bosonen beliebige Werte
annehmen, Nα = 0, 1, 2, . . . , für Fermionen dagegen nur die Werte Nα P
= 0, 1; dies ist das
Pauli-Prinzip. Die Randbedingung für die Gesamt-Teilchenzahl, δ(N − α Nα ), führt hier
zu ähnlichen Schwierigkeiten wie die Randbedingung δ∆ (H − U ) für die Gesamtenergie im
mikrokanonischen Ensemble. Wir berechnen statt dessen die grosskanonische Zustandssumme,
ZGK (β, V, µ̃) =
∞
X
n=0
exp[−µ̃N ] ZK (β, V, N ) =
YX
α
Nα
P
exp − β α Nα (α − µ)
(15.16)
38
mit µ̃ = −βµ, dass heisst, wir ersetzen die harte Randbedingung des kanonischen Ensembles
durch einen zusätzlichen Beitrag zum Boltzmannfaktor, exp[βµN ]. Das kanonische Ensemble
ist nur dann physikalisch sinnvoll, wenn für die Teilchenzahl ein Erhaltungssatz gilt. Das grosskanonische Ensemble ist allgemeiner: es beschreibt auch Systeme mit variabler Teilchenzahl,
z.B. Photonen, die ständig durch elekromagnetische Wechselwirkungen des Systems mit der
Umgebung erzeugt und vernichtet werden. In diesem Fall gilt µ = 0: dies liefert die Verteilung
maximaler Entropie ohne Nebenbedingung an die Teilchenzahl.
Diese grosskanonische Zustandssumme faktorisiert in den Einteilchen-Zuständen und ist
daher leicht berechenbar:
Y
ZGK (β, V, µ̃) =
[1 + e−µ̃−βα ]
für Fermionen,
(15.17)
α
ZGK (β, V, µ̃) =
Y
[1 + e−µ̃−βα + e−2µ̃−2βα + . . . ]
(15.18)
α
=
Y −1
1 − e−µ̃−βα
mit µ̃ > −0 für Bosonen.
(15.19)
α
Die Bedingung µ̃ > −0 sichert die Konvergenz der geometrischen Reihe (15.18) für Bosonen, wobei 0 die Grundzustandsenergie der Einteilchen-Hamiltonfunktion beschreibt. Der
Logarithmus der Zustandssumme ist die grosskanonische freie Entropie
X
J (β, V, µ̃) = βV p(β, V, µ̃) =
± log 1 ± e−µ̃−βα .
α
= (2s + 1)
X
(±) log 1 ± e−µ̃−βp ,
(15.20)
p
wobei das obere Vorzeichen für Fermionen und das untere für Bosonen gilt. Jeder Einteilchenzustand hat eine mittlere Besetzungszahl
Nα = −
1
∂
(±) log 1 ± e−µ̃−βp =
,
∂ µ̃
1 ± e µ̃+βp
(15.21)
den sogenannten Fermi-Dirac- bzw. Bose-Einstein-Faktor, der in Abb. xx dargestellt ist. Die
Teilchen, die diesen Zustand besetzen, tragen einen Anteil Uα = Nα α zur Gesamtenergie
bei. Die grosskanonischen Zustandsgleichungen sind
N (β, V, µ̃) = −
X
∂J (β, V, µ̃) X
1
=
Nα = (2s + 1)
,
∂ µ̃
1 ± e µ̃+βp
α
p
(15.22)
U (β, V, µ̃) = −
X
∂J (β, V, µ̃) X
p
=
Uα = (2s + 1)
.
µ̃+βp
∂β
1
±
e
α
p
(15.23)
15. GLEICHGEWICHTS-STATISTIK WECHSELWIRKUNGSFREIER SYSTEME
39
Die kanonischen Zustandsgleichungen erhalten wir, indem wir die Variable µ̃ aus diesen Gleichungen eliminieren.
Fugazitätsentwicklung und klassischer Grenzfall. Wir können die freie Entropie und
die Teilchendichte nach Potenzen der sogenannten Fugazität e−µ̃ entwickeln,
Z
V dp −βp 1 −2µ̃ V dp −2βp
−3µ
e
∓ e
e
+ O(e ) ,(15.24)
J (β, V, µ̃) = (2s + 1) e
h3
2
h3
Z
Z
V dp −2βp
V dp −βp
−2µ̃
−3µ
−µ̃
N (β, V, µ̃) = (2s + 1) e
e
∓e
e
+ O(e ) , (15.25)
h3
h3
−µ̃
Z
wobei wir die Summen über diskrete Impuls-Zusẗande durch Integrale mit der korrekten
Zustandsdichte ersetzt haben; siehe Gl. (15.14). Der führende Term dieser Entwicklungen ist
für Fermionen und Bosonen gleich. Wie Vergleich mit (15.11) zeigt, reproduziert dieser Term
bis auf den Spin-Faktor (2s + 1) die klassische Maxwell-Boltzmann-Statistik eines idealen
Gases (die der klassischen Statistik entsprechende Besetzungszahl ist als gestrichelte Linie in
Abb. xx eingezeichnet). Die Bedingung für klassisches Verhalten, e−µ 1, können wir mit
(15.25) durch die Teilchenzahl ausdrücken.
Z
N (2s + 1)
V
V dp −βp
e
= (2s + 1) 3
3
h
h
2m
β
3/2
.
(15.26)
Bei der Auswertung des Integrals haben wir p = p2 /2m benutzt, wie in (15.11). Wir interpretieren dieses Integral als die Anzahl der bei Temperatur β −1 effektiv zugänglichen Zustände
(deren Boltzmann-Faktor e−βp von der gleichen Grössenordnung wie der des Grundzustands
ist). Ein ideales Quantengas folgt also der klassischen Statistik, wenn die Anzahl der Teilchen
wesentlich kleiner als die Anzahl der zugänglichen Zustände ist, das heisst, für genügend hohe Temperaturen bzw. für genügend kleine Dichten. Denn dann ist die Besetzungszahl jedes
Einteilchen-Zustands klein, so dass das Spin-Statistik-Theorem keine Rolle spielt.
40
Quanteneffekte bei niedrigen Temperaturen. Einsetzen von (15.25) in (15.24) liefert
die führende Quantenkorrektur zur Statistik idealer Gase,
Z
2s + 1 −2µ̃ V dp −2βp
J = βpV = N ±
e
e
+ O(e−3µ ).
(15.27)
2
h3
Demnach hat ein Fermionengas bei gleicher Temperatur, gleichem Volumen und gleicher
Teilchenzahl einen höheren Druck, ein Bosonengas dagegen einen niedrigeren Druck als ein
klassisches Gas. Die Fermistatistik führt zu einer effektiven Abstossung, die Bosestatistik zu
einer effektiven Anziehung der Teilchen. Bei höheren Temperaturen sind diese Quanteneffekte in realen Gasen in der Regel durch Wechselwirkungen zwischen den Teilchen überlagert. Bei sehr niedrigen Temperaturen werden Quanteneffekte dominant. In Bosonengasen
ist ein makroskopischer Anteil der Teilchen im Grundzustand; man nennt dies Bose-EinsteinKondensation. Fermionen besetzen dagegegen die N Zustände niedrigster Energie, d.h. die
Zustände unterhalb des Fermi-Impulses
1/3 1/3
N
3
h.
(15.28)
pF =
4π(2s + 1)
V
Diese wichtigen Phänomene sind in der Literatur sehr gut beschrieben (siehe z.B. LandauLifshitz, Reif).
Systeme harmonischer Oszillatoren. Ähnlich wie ein für ein ideales Gas lässt sich die
Zustandssumme eines Vielteilchensystems in einem harmonischen Potential, d.h. mit der
Hamiltonfunktion
N 2
X
κ 2
pν
+ r ,
(15.29)
H(r1 , p1 , . . . , rN , pN ) =
2m 2 ν
ν=1
berechnen. In einem klassischen System trägt nach dem Gleichverteilungssatz jedes Teilchen
einen Betrag 3kB T zur inneren Energie des Systems bei.
Unabhängige Spins im Magnetfeld. Wir betrachten Konfigurationen s von N magnetischen Momenten s(r) = ±1, die einem äusseren Magnetfeld unterworfen sind, aber nicht
miteinander wechselwirken. Die Hamiltonfunktion dieses Systems,
X
s(r0 ),
(15.30)
H0 (s) = −h
r
separiert wieder in den einzelnen Freiheitsgraden. Dies liefert die Zustandssumme
Y X
Y
Z0 =
eβhs(r) =
eβh + e−βh = (2 cosh βh)N
r s(r)=±1
r
(15.31)
16. WECHSELWIRKENDE SYSTEME UND MITTELFELD-NÄHERUNG
41
und damit die Gibbssche freie Entropie
G0 (β, h) = N log(2 cosh βh)
(15.32)
und die Magnetisierungsdichte
m0 (β, h) = −
16
1 ∂G0 (β, h, N )
= tanh βh.
N
∂h
(15.33)
Wechselwirkende Systeme und Mittelfeld-Näherung
Die Gleichgewichts-Statistik wechselwirkender Systeme ist im allgemeinen nicht exakt berechenbar, da die Zustandssumme in keinem der Ensembles in die Beiträge einzelner Freiheitsgrade faktorisiert. Wir betrachten als Beispiel das Ising-Modell eines Ferromagneten. Wir
berechnen die Zustandssumme in der sogenannten Mittelfeld-Näherung (engl. mean field approximation, auch Molekularfeld-Näherung). Dieses wichtige Verfahren besteht darin, dass
die Hamiltonfunktion des Systems selbstkonsistent durch eine wechselwirkungsfreie Hamiltonfunktion approximiert wird. Die genäherte Zustandssumme faktorisiert in den (Spin-)
Freiheitsgraden und ist damit einfach zu berechnen.
Ising-Modell. Dieses Modell wechselwirkender Spins hat die Hamiltonfunktion
H(s) = −
X
1X
s(r0 ).
J(r − r0 )s(r)s(r0 ) − h
2 r,r0
r
(16.1)
Die kanonische Zustandssumme erstreckt sich über alle 2N verschiedenen Spin-Konfigurationen
s des Systems,
X
(16.2)
Z=
e−βH(s) .
s
Im Unterschied zu (15.31) faktorisiert diese Zustandssumme nicht mehr in den einzelnen
Freiheitsgraden. Durch die Wechselwirkung J(r − r0 ) hängt der Spin am Punkt r von den
Spins benachbarter Punkte r0 ab, die wiederum von den Spins ihrer Nachbarpunkte abhängen,
und so weiter. Im Prinzip beeinflusst jeder Spin jeden anderen durch direkte oder indirekte
Wechselwirkungen. Wir sind daher zur Berechnung der Zustandssumme auf Näherungen
angewiesen.
42
Approximation der Hamiltonfunktion. Der Mittelfeld-Ansatz besteht darin, dass wir
die lokale Spin-Variable s(r) als Summe der Magnetisierungsdichte und der lokalen Fluktuation schreiben,
s(r) = m + [s(r) − m],
(16.3)
und im Wechselwirkungterm für jedes einzelne Spin-Paar den quadratischen Fluktuationsterm weglassen,
s(r)s(r0 ) = [m + (s(r) − m)][m + (s(r0 ) − m)] ≈ −m2 + m[s(r) + s(r0 )].
(16.4)
Damit erhalten wir eine genäherte Hamiltonfunktion, die linear in den Spin-Freiheitsgraden
ist,
X
1X
J(r − r0 )[−m2 + m(s(r) + s(r0 ))] − h
s(r)
2 r,r0
r
X
N
=
J0 m2 − (J0 m + h)
s(r)
2
r
HMF (s) = −
(16.5)
P
mit der effektiven Wechselwirkung J0 ≡ r J(r). Der spin-abhängige Term hat eine einfache
Interpretation: jeder Spin ist nicht nur dem äusseren Magnetfeld h unterworfen, sondern auch
einem effektiven Feld J0 m, das durch die Spins in der Umgebung erzeugt wird.
Mittelfeld-Näherung für freie Energie und Ordnungsparameter. Die genäherte Hamiltonfunktion separiert in den Freiheitsgraden und lässt sich analog zu (15.31) berechnen,
ZMF = e−N βJ0 m
2 /2
[2 cosh β(J0 m + h)]N ,
(16.6)
N
βJ0 m2 + N log[2 cosh β(J0 m + h)].
2
(16.7)
und daraus ergibt sich die freie Entropie
GMF (m, β, h) = −
Eine selbstkonsistente Näherung erhalten wir durch Maximierung bezüglich des Parameters
m,
N
2
GMF (β, h) = max GMF (m, β, h) = max − βJ0 m + N log(2 cosh β(J0 m + h)) . (16.8)
m
m
2
Die Maximierung der rechten Seite führt auf die Bedingung
m(β, h) = −
1 ∂
log[2 cosh β(J0 m + h)] = tanh[β(J0 m + h)],
βJ ∂m
(16.9)
16. WECHSELWIRKENDE SYSTEME UND MITTELFELD-NÄHERUNG
43
aus der sich die Magnetisierungsdichte als Funktion der inversen Temperatur und des Magnetfelds berechnen lässt. Vergleich mit dem entsprechenden Ausdruck (15.33) für unabhängige
Spins im Magnetfeld zeigt die Selbstkonsistenz dieser Näherung: die kanonische Magnetisierungsdichte hs(r)i = m hat genau den Wert, der auch in das effektive Feld J0 m eingeht.
Eine wichtige Vereinfachung der Mittelfeld-Näherung ergibt sich in der Nähe des kritischen
Punktes. Taylor-Entwicklung der freien Entropie (16.7) für kleine Werte von m und h ergibt
(βJ0 )4 4
βJ0
2
(1 − βJ0 )m +
m − βhm + . . .
GMF (m, β, h) = −N log 2 +
2
12
1 4
τ 2
(16.10)
= −N log 2 + m + m − βc hm + . . . .
2
12
Die Nullstelle der Terme zweiter Ordnung betimmt den kritischen Punkt (βc J0 = 1, h = 0). In
der zweiten Zeile haben wir alle temperaturabhängigen Koeffizienten in führender Ordnung
um die kritischen Punkt entwickelt und die reduzierte Temperatur
τ ≡ 1 − βJ =
T − Tc
Tc
(16.11)
definiert haben. Dies ist genau die Form der freien Entropie, die wir bereits in Kapitel 9 aus
der Analytizitätsannahme erhalten haben. Diese Form hat eine einfache Interpretation: Die
freie Entropie ist die Differenz der Entropie und der reduzierten Energie,
1 4
1 2
1
2
GMF (m, β, h) = S(m) − β UMF (m, h) = N log 2 − m + m − βN − J0 m − hm .
2
12
2
(16.12)
Der Entropieterm ergibt sich durch Taylor-Entwicklung der Shannon-Entropie N unabhängiger Spins mit Erwartungswert m,
X
1+m
1+m
1−m
1−m
S(m) = −N
p(s) log p(s) = −N
log
+
log
.
2
2
2
2
s=±1
(16.13)
Der Erwartungswert der Energie dieser Spins,
1
2
(16.14)
UMF (m, h) = N − J0 m − hm ,
2
folgt direkt aus (16.5).
Die Mittelfeld-Näherung ist über das betrachtete Beispiel hinaus von überragender Wichtigkeit für eine Vielzahl von Systemen. Sie ist oft ohne mathematische Schwierigkeiten anwendbar und liefert eine qualitativ richtige Beschreibung der Thermodynamik, einschliesslich
44
des kritischen Verhaltens. Über die Mittelfeld-Methode hinaus gibt es eine Reihe weitergehender Verfahren zur Berechnung von Zustandssummen wechselwirkender Systeme, z.B. Hochund Niedrigtemperaturentwicklung, Renormierungsgruppe, sowie numerische Verfahren. Deren systematische Behandlung ist Teil einer weiterführenden Vorlesung. Alle diese Verfahren
beruhen auf der Erweiterung der statistischen Mechanik auf ortsabhängige Observable, die
wir im folgenden Abschnitt behandeln.
17
Fluktuationen und Korrelationen im Gleichgewicht
In der Mittelfeld-Näherung wird die Statistik des Systems durch eine Verteilung über Mikrozustände beschrieben, die ein Produkt von Verteilungen einzelner Freiheitsgraden ist. Diese
Näherung vernachlässigt eine wesentliche Eigenschaft: Wechselwirkungen erzeugen Korrelationen. Zum Beispiel fluktuiert Ising-Modell der Wert eines lokalen Spins s(r) bei jeder
endlichen Temperatur um den Mittelwert m; dabei ist die Wahrscheinlichkeit des Zustands
s(r) = +1 umso höher, je mehr Spins in der Umgebung den Wert s(r0 ) = +1 haben. Indirekte
Wechselwirkungen können Korrelationen zwischen Spin-Clustern auf mesoskopischen Skalen
erzeugen, die zum Beispiel durch Streuexperimente messbar sind.
Lokale Observablen und Korrelationen. Um solche Korrelationen zu beschreiben, schreiben wir jede thermodynamische Variable Ai als das Integral einer lokalen Dichte Ai (r),
i
A =
Z
dr Ai (r).
(17.1)
Zum Beispiel gehört zur Energie H die lokale Energiedichte (r), zur Magnetisierung M die
lokale Spindichte s(r), und zur Teilchenzahl die lokale Teilchendichte n(r). (Beim Übergang
von diskreten zu kontinuierlichen Raumkoordinaten tritt jeweils ein Faktor bd auf, wobei b
die Gitterkonstante ist.) Diese Observablen definieren die lokalen Erwartungswerte
X i (r) = hAi (r)i
und die Korrelationsfunktionen
Z
1
i
dr1 (Ai (r1 ) − X i (r1 )) (Ai (r1 + q) − X i (r1 + q)) ,
C (q) ≡
V
zwischen Observablen an Punkten mit Abstandsvektor q = r2 − r1 .
(17.2)
(17.3)
17. FLUKTUATIONEN UND KORRELATIONEN IM GLEICHGEWICHT
45
Fluktuationen thermodynamischer Grössen. Indem wir das statistische Potential als
Funktion der lokalen Observablen schreiben,
"
Z
Φ(ζ0 , . . . , ζk−1 ) = log
dx exp −
k−1
X
Z
ζi
#
dr Ai (r, x) ,
(17.4)
i=0
können wir leicht eine Beziehung zwischen den lokalen Grössen (17.2), (17.3) und den entsprechenden thermodynamischen Grössen herleiten. Das Integral über die lokale Dichte (17.2)
bestimmt den Erwartungswert der extensiven thermodynamischen Variablen Ai ,
D
∂
X =−
Φ(ζ0 , . . . , ζk−1 ) =
∂ζi
i
Z
i
E
dr A (r) =
Z
dr X i (r).
(17.5)
Ebenso bestimmt das Integral über die Korrelationsfunktion (17.3) die entsprechende intensive thermodynamischen Antwortgrösse,
r
ii
1 ∂2
1 ∂X i
=
Φ(ζ0 , . . . , ζk−1 )
≡ −
V ∂ζi
V ∂ζi2
Z
D
E D Z
E2 Z
0 i
i 0
i
=
drdr A (r)A (r ) −
dr A (r)
= dq C i (q).
(17.6)
Die rechte Seite dieser Identität beschreibt zufällige Fluktuationen des Systems bei gegebenen thermodynamischen Parametern ζ0 , . . . , ζk−1 , die linke Seite beschreibt die systematische Änderung eines Erwartungswertes bei Änderung des konjugierten Parameters. Gl. (17.6)
verknüpft diese Systemeigenschaften miteinander; derartige Identitäten bezeichnet man als
Fluktuations-Dissipations-Relationen. Zum Beispiel ist im Ising-Modell die magnetische Suszeptibilität durch das Integral der Spin-Korrelationsfunktion und die spezifische Wärme durch
das Integral der Energiedichte-Korrelationsfunktion gegeben,
Z
1
1 ∂M
=
dr1 dq hs(r1 )s(r1 + q)i,
χ(β, h) =
V ∂h
V
Z
1 U
1
c(β, h) =
=
dr1 dq h(r1 )(r1 + q)i.
−1
V ∂β
V
(17.7)
(17.8)
Für generische thermodynamische Zustände sind die Integrale über den Abstandsvektor q
und damit die Antwortgrössen endlich, da alle Korrelationsfunktionen Gi (q) für Abstände
|q|, die grösser als die Korrelationslänge des Systems sind, exponentiell abfallen. An einem
kritischen Punkt ist diese Eigenschaft verletzt; dies werden wir an einem Beispiel im nächsten
46
Abschnitt explizit sehen. Damit bestimmt (17.6) auch die Fluktuationen
der extensiven VaR
i
i
i
i
riablen A und der (molaren) Dichten a ≡ A /N = (V0 /V ) dr A (r),
(ai − xi )2
V02 i
i 2
(A
−
X
)
V2 Z
rii
V02
=
dr1 dr2 (Ai (r1 ) − X i (r1 )) (Ai (r2 ) − X i (r2 )) ∼ .
2
V
V
=
(17.9)
Aus dieser integrierten Fluktuations-Dissipations-Relation ergeben sich zwei wichtige Konsequenzen: Erstens ist die linke Seite manifest positiv, und daraus folgt die Positivität der
thermodynamischen Antwortgrössen rii , eine notwendige Bedingung für die Stabilität des
thermodynamischen Zustands (siehe Kapitel 7). Zweitens sind in grossen Systemen sind die
Varianzen der extensiven Variablen proportional zu V , die Varianzen der Dichten fallen proportional zu V −1 ab: die Dichten werden im thermodynamischen Limes deterministische
Grössen (siehe Kapitel 14). Diese Skalierung beruht auf der asymptotischen Unabhängigkeit
von Freiheitsgraden für Distanzen, die grösser als die Korrelationslänge ξ sind.
Spin-Korrelationsfunktion im Ising-Modell. Als Beispiel für Korrelationen in einem
wechselwirkenden System berechnen wir die Spin-Korrelationsfunktion eines Ising-Ferromagneten. Zunächst ist diese Aufgabe zu präzisieren: wir wollen Korrelationen berechnen, die auf
mesoskopischer Ebene beobachtbar sind. Dazu gehören nicht die Korrelationen zwischen einzelnen benachbarten Spins; diese sind Teil der Mikro-Statistik. Aber indirekte Wechselwirkungen können Korrelationen zwischen Spin-Clustern auf mesoskopischen Skalen erzeugen, die
zum Beispiel durch Streuexperimente messbar sind. Um derartige Korrelationen
beschreiR 0 zu
0
ben, definieren wir eine lokal gemittelte Magnetisierungsdichte m(r) ≡ dr s(r )fρ (r − r0 ),
wobei fρ (r − r0 für Distanzen |r − r0 | > ρ schnell abfällt. Die Konfigurationen m dieser gemittelten Dichte variieren auf mikroskopischer Skala langsamer als die der Einzelspin-Variablen
s(r), aber für Distanzen |q| ρ stimmen die Korrelationsfunktionen (17.3) der gemittelten
und die der Einzelspin-Variablen überein.
Zur Berechnung dieser Korrelationen verallgemeinern wir die Mittelfeld-Näherung (16.12)
für die freie Entropie G(β, h, m, N ) von Konfigurationen konstanter Magnetisierung m auf
Konfigurationen m mit langsam veränderlicher Magnetisierung m(r). Diese haben eine in
17. FLUKTUATIONEN UND KORRELATIONEN IM GLEICHGEWICHT
47
führender Ordnung einer Gradientenentwicklung gegenüber (16.14) modifizierte Energie,
Z
Z
1
U (m, h) = −
drdq m(r)J(q)m(r + q) − h dr m(r)
2
Z
Z
1 2 2
1
drdq m(r)J(q)[m(r) + q∇m(r) + q ∇ m(r) + . . . ] − h dr m(r)
= −
2
2
Z
J0 2
J2
2
'
dr − m (r) − m(r)∇ m(r) − hm(r)
2
2
Z
J0 2
J2
2
=
dr − m (r) + (∇m(r)) − hm(r) ,
(17.10)
2
2
R
wobei
J
≡
dq J(q) die Kopplungskonstante der Mittelfeld-Näherung (16.5) ist und J2 ≡
0
R
dq q2 J(q) ≡ r02 J0 . Das Verhältnis dieser Konstanten, J2 /J0 ≡ r02 ist ein Mass für die
Reichweite der Wechselwirkung. Die Entropie ist analog zu (16.13)
Z
1 2
1 4
S(m) = dr − m (r) + m (r) ,
(17.11)
2
12
wobei wir die unwichtige Konstante N log 2 weggelassen haben. Damit erhalten wir die freie
Entropie einer Konfiguration m,
2
Z
τ 2
1 4
r0
2
G(m, β, h) = S(m) − βU (m, h) = dr
(∇m(r)) + m (r) + m (r) − βc hm(r) .
2
2
12
(17.12)
wobei wir im zweiten Ausdruck wieder alle temperaturabhängigen Koeffizienten in führender Ordnung um die kritischen Punkt βc J0 = 1 entwickelt haben. Dies ist die gesuchte
Verallgemeinerung der freien Entropie (16.12) in Mittelfeld-Näherung. Der zusätzliche Term
(r02 /2)(∇m(r))2 beschreibt, wie der Mittelwert der lokalen Magnetisierung m(r0 ) über alle
Punkte r0 in einem Abstand r0 typischer Spin-Wechselwirkungen von m(r) abweicht.
Das Exponential des Funktionals (17.12) betrachten wir als das statistische Gewicht der
Konfiguration m,
Z
2
1
r0
τ 2
1 4
2
P (m) = exp − dr
(∇m(r)) + m (r) + m (r) − βc hm(r) .
(17.13)
Z
2
2
12
Wir beschränken uns auf die paramagnetische Phase (T > Tc , h = 0) und vernachlässigen
R
den m4 -Term. Dann faktorisiert dieses Gewicht in den Fourier-Moden m̃(k) = dr m(r) eik·r ,
Z
2
1
r0
τ 2
2
exp − dr
(∇m(r)) + m (r)
P (m, β, h) ≈
Z
2
2
2
Y
r0
2
−2
=
exp −
k +ξ
m̃(k)m̃(−k) ,
(17.14)
2
k
48
wobei wir in der zweiten Zeile die neue, temperaturabhängige Längenskala
ξ = r0 τ −1/2
(17.15)
eingeführt haben, die sogenannte Korrelationslänge des Systems. Diese Länge wird in der
Nähe des kritischen Punktes gross, auch wenn die Spin-Wechselwirkung nur eine mikroskopische Reichweite hat. Die Fourier-Transformierte der Korrelationsfunktion ist die Varianz der
Mode m̃(k),
r0−2
C̃(k) ≡ m̃(k)m̃(−k) = 2
,
(17.16)
k + ξ −2
und Rücktransformation in den Positionsraum liefert
Z
C(q) ≈ dk C̃(k) e−ik·q ∼ |q|2−d exp(−|q|/ξ),
(17.17)
wobei wir die Summe über diskrete Wellenzahlen in einem endlichen System durch ein Integral angenähert haben. Damit haben wir gezeigt: Bei Annäherung an den kritischen Punkt
bauen sich langreichweitige Korrelationen auf, was durch das singuläre Anwachsen der Korrelationslänge ξ gemäss Gl. (17.15) beschrieben wird. Dies ist der Grund für die thermodynamischen Singularitäten eines Phasenübergangs zweiter Ordnung, die wir in Kapitel 9
kennengelernt haben (siehe Übungen).
Phasengrenzschichten im Ising-Modell. Die freie Entropie (17.12) bestimmt also die
Konfigurationen einer Phasengrenzschicht für T < Tc ; siehe Kapitel 9.
18
Zusammenfassung
Gleichgewichts-Zustände. Probabilistische Beschreibung: Verteilung über Mikrozustände,
P (x). Nicht beobachtbar, liefert aber ein Rechenschema, aus dem sich thermodynamische
Mittelwerte und Korrelationen von lokalen Observablen ergeben.
Bestimmt durch Fundamentalpostulat: Maximierung der Shannon-Entropie S unter den
Nebenbedingungen gegebener Erwartungswerte X i . Maximalwert der Shannon-Entropie definiert
Alternativ: Maximierung des Funktionals S (k) ≡ S −
Pn diei physikalische Entropie S. (k)
ist die physikalische freie Entropie. Diese Eigenschafi=0 ζi hA i. Der Maximalwert von S
ten des Gleichgewichts sind unabhängig von Erhaltungssätzen.
Mikroskopische und mesoskopische Fluktuationen. Zentrale Einsicht der statistischen Mechanik: Es gibt kooperative Phenomäne vieler Freiheitsgrade, die nicht auf mikroskopischer Ebene erkennbar sind.
18. ZUSAMMENFASSUNG
49
Thermodynamische Prozesse. Abgeschlossenes System: Erhaltungssätze, Wachstum der
Entropie. Offenes System: Wachstum der freien Entropie (relatives Mass), aber es können
Energie, Volumen, Teilchenzahl verlorengehen und damit die Entropie sinken. Fehlt: Beschreibung der Dynamik zwischen Gleichgewichts-Zuständen, Definition der Entropie im Nichtgleichgewicht.
Mathematische Methoden 3: Grundbegriffe der Wahrscheinlichkeitstheorie
Wahrscheinlichkeitsverteilung.
Verteilungsfunktion und Wahrscheinlichkeitsdichte.
Mittelwert und Varianz.
Häufig auftetende Wahrscheinlichkeitsverteilungen .
Binomialverteilung.
Gaussverteilung.
Poissonverteilung.
Verbundverteilung und Korrelation.
Bedingte Wahrscheinlichkeit und Bayes-Theorem.
Zentraler Grenzwertsatz.
Herunterladen