Grundlagen der Quantenmechanik und Statistik Teil II: Thermodynamik und Statistik Vorlesungen an der Ruhruniversität Bochum K.–U. Riemann Inhaltsverzeichnis 1. Einführung 1.1 Temperatur und Zustandsgrößen - Extensive und intensive Größen - Thermodynamisches Gleichgewicht 1 1.2 Thermodynamik und Statistik 2 1.3 Ideales Gas und elementare Statistik - Verteilungsfunktionen im µ–Raum, Mittelwerte - Definition der Temperatur T und des Drucks - Thermische und kalorische Zustandsgleichung des idealen Gases 3 1.4 Die Maxwell-Boltzmannverteilung 5 2. Thermodynamik 2.1 Zustandsgrößen und totale Differentiale - Der nullte Hauptsatz: Zustandsgröße Temperatur 8 2.2 Der erste Hauptsatz - Arbeit und Wärme, Energiesatz - Verbot des perpetuum mobile erster Art 9 2.3 Der zweite Hauptsatz - Die Entropie als Zustandsgröße beim idealen Gas - Der Carnotsche Kreisprozeß - Verbot des perpetuum mobile zweiter Art - Die Entropie als universelle Zustandsgröße - Entropie und Gleichgewicht, Zeitrichtung 11 2.4 Die thermodynamischen Potentiale - Legendretransformationen - Freie Energie, Enthalpie und Gibbssches Potential Maxwellrelationen - Extremaleigenschaften des thermodynamischen Gleichgewichts 17 2.5 Variable Teilchenzahl - Das chemische Potential µ - Das Potential J(T, V, µ) = −pV - Die Entropie des idealen Gases - Mischungsentropie und Gibbssches Paradoxon 20 i 2.6 Anwendungen: Reaktionsgleichgewichte - Gleichgewicht bei Stoffumwandlungen - Dampfdruck und Clausius–Clapeyron–Gleichung - Chemische Reaktionen und Massenwirkungsgesetz 22 2.7 Das Nernstsche Theorem 25 3. Die Grundlagen der Statistik 3.1 Shannons Informationsentropie - Der Informationsgehalt einer unkorrelierten Zeichenkette - Korrelationen 27 3.2 Die physikalische Entropie - Makro– und Mikrozustände 30 3.3 Ideales Gas und µ–Raum–Statistik - Das Boltzmannsche H–Funktional - Maxwellverteilung und maximale Unkenntnis - Zerlegung des µ–Raums in Zellen h3 - Ununterscheidbarkeit und korrigierte Abzählung - Die Sackur–Tetrode–Formel 31 3.4 Die statistischen Gesamtheiten - Mikro– und Makro–Nebenbedingungen - Die Maximierung der Entropie - Lagrangeparameter und intensive Zustandsgrößen 35 3.5 Die mikrokanonische Gesamtheit 38 3.6 Die kanonische Gesamtheit 39 3.7 Die großkanonische Gesamtheit 41 3.8 Die Äquivalenz der Gesamtheiten - Energieschwankungen in der kanonischen Gesamtheit - Dichteschwankungen in der großkanonischen Gesamtheit - Phasenübergänge 43 3.9 Klassische Γ–Raum–Statistik - Phasenraumdichte und Gesamtheiten - Die klassische und halbklassische Zustandssumme 45 4. Anwendungen 4.1 Der Gleichverteilungs–Satz 49 ii 4.2 Das klassische ideale Gas - Rotationsfreiheitsgrade des mehratomogen Gases 50 4.3 Der ideale Festkörper - Das Dulong–Petitsche Gesetz - Das Einstein–Modell 53 4.4 Eingefrorene Freiheitsgrade - Vibrations– und Rotationstemperatur 56 4.5 Das Problem idealer Quantengase - Der Fehler bei korrigierter Boltzmannabzählung - Zustände und Besetzungszahlen - Die Zustandssumme und das Problem der Nebenbedingung - Der halbklassische Grenzfall 57 4.6 Fermi–Dirac– und Bose–Einstein–Statistik - Die Separation der großkanonische Zustandssumme - Besetzungszahlen bei Fermionen und Bosonen - Fermi–, Bose– und Boltzmann–Verteilung - Die Thermodynamik der Quantengase 61 4.7 Quantengase geringer Dichte - Druckänderung und Entartungsgrad 65 4.8 Das hochentartete Fermigas - Fermisee, Fermikante und Fermitemperatur - Nullpunktsenergie und Nullpunktsdruck - Metallelelektronen - Weiße Zwerge 67 4.9 Das entartete Bosegas - Die Bose–Einstein–Kondensation - Der λ–Punkt des 4 He 70 4.10 Das Photonengas - Strahlung als hochrelativistisches Bosegas - Das Stefan–Boltzmann–Gesetz - Das Plancksche und Rayleigh–Jeanssche Strahlungsgesetz 73 5. Probleme der Statistik 5.1 Meß–, Zeit– und Scharmittel - Das Problem der a priori–Wahrscheinlichkeiten - Mikrozustände und Ergode - Mesung und Zeitmittelwert iii 75 - Die Reproduzierbarkeit von Meßergebnissen - Zeitmittel und Scharmittel 5.2 Die Ergoden– und die Quasi–Ergoden–Hypothese 77 5.3 Der Poincarésche Wiederkehreinwand 78 5.4 Irreversibilität und Zeitumkehr - µ–Raum und Boltzmanns H–Theorem - Γ–Raum und Liouvillesatz - Entropie und effektives Phasenraumvolumen - Die Zeit als Ordnungsparameter - Das Problem der Zeitrichtung 79 Literaturhinweise 82 iv 1 Einführung 1.1 Temperatur und Zustandsgrößen Das ausgehende 18. Jahrhundert ahnte noch nichts von den grundlegenden Umwälzungen, die hundert Jahre später das mechanistische Weltbild erschütterten. Die analytische Mechanik galt im wesentlichen als abgeschlossen, die Lehre von der Elektrizität machte beeindruckende Fortschritte, und die ersten Wärmekraftmaschinen wurden entwickelt. Wie die Elektrizität so wurde auch die “Wärme” als ein zusätzliches akzidentelles Attribut der Materie angesehen: So wie eine Metallkugel eine elektrische Ladung tragen kann, so kann sie auch eine oder bestimmte “Wärmemenge” aufnehmen. Zum generellen Stand der wissenschaftlichen Erkenntnis merken wir an, daß 1775 — zehn Jahre nach dem Bau der ersten “modernen” Dampfmaschine durch J. Watt — die französische Akademie beschloß, keine Konstruktionsvorschläge für ein perpetuum mobile mehr zur Prüfung anzunehmen. Sowohl der Wunsch, den Wirkungsgrad der Wärmekraftmaschinen zu verbessern, als auch Bedürfnisse der aufblühenden Chemie führten dann im 19. Jahrhundert zur systematischen Entwicklung der Thermodynamik, einer makroskopisch–phänomenologischen Theorie der Wärme. Ziel der Thermodynamik ist es, Gesetzmäßigkeiten zwischen den Zustandsgrößen eines Systems aufzufinden. Unter den Zustandsgrößen versteht man makroskopische Parameter (z. B. Druck p und Volumen V ), die den thermodynamischen Zustand des Systems eindeutig festlegen. Ein Teil der Aufgabe ist daher, zu ermitteln, welche Parameter und Meßgrößen überhaupt zu den Zustandsgrößen gehören. Daß diese Frage keineswegs trivial ist, mag man daran sehen, daß gerade der “Wärmeinhalt” (etwa einer Wärmeflasche) nicht zu den Zustandsgrößen gehört. Es zeigt sich, daß der Zustand eines thermodynamischen Systems nur dann eindeutig durch wenige makroskopische Parameter — also Zustandsgrößen — beschrieben werden kann, wenn sich das System im thermodynamischen Gleichgewicht befindet. Das “Gleichgewicht” können wir im Augenblick noch nicht präzise definieren; notwendige Voraussetzung ist in jedem Fall die (Quasi–)Stationarität. Einen ersten Schritt weiter kommen wir, wenn wir extensive und intensive Zustandsgrößen unterscheiden. Extensiv sind solche Zustandsgrößen, (z. B. Energie E und Volumen V ), die sich bei der Zusammensetzung des Systems aus Teilsystemen additiv verhalten1 . Intensive Zustandsgrößen (z. B. der Druck p) ändern sich dagegen nicht, wenn man das System verdoppelt. Eine wichtige Gleichgewichtsbedingung ist nun, daß intensive Größen in allen Teilsystemen gleich sind. 1 In dieser Annahme liegt eine Idealisierung “großer” Systeme, in denen Oberflächeneffekte gegenüber Volumeneffekten vernachläßigt werden können. 1 Zu den intensiven Zustandsgrößen gehört insbesondere die Temperatur, ein Parameter, der zunächst der alltäglichen Erfahrung (kalt, warm, heiß) entnommen ist, und der innerhalb der Thermodynamik axiomatisch eingeführt und definiert wird. 1.2 Thermodynamik und Statistik Der axiomatische Aufbau der Thermodynamik arbeitet mit nur wenigen Begriffen, die sich als leistungsfähig und universell anwendbar erwiesen haben. Daher ist die mathematische Formulierung der Thermodynamik auch äußerst knapp und elegant. Wenn die Thermodynamik trotzdem häufig als schwierigstes Teilgebiet der theoretischen Physik empfunden wird, so liegt das daran, daß die Theorie sehr abstrakt und der Anschauung wenig zugänglich ist. Es gab daher von Anfang an Bemühungen, die Thermodynamik aus elementaren Grundprinzipien der übrigen physikalischen Disziplinen herzuleiten und zu verstehen. Hintergrund solcher Bemühungen war eine frühe Vermutung über den Zusammenhang zwischen der Temperatur und der (mittleren) Teilchenenergie einer atomistischen Beschreibung der Materie, welche die gleichzeitig sich entwickelnde Chemie mit sich brachte. (Die “Atomhypothese” blieb allerdings bis in die Anfänge des 20. Jahrhunderts umstritten!) Die alternative mikroskopische Theorie, welche die Axiome der Thermodynamik begründet, ihre abstrakten Begriffe mit konkreten Inhalten füllt und last not least die thermodynamischen Materialeigenschaften explizit zu berechnen erlaubt, ist die statistische Mechanik. Wie in der Quantenmechanik werden wir also auch in diesem Teil der Vorlesung statistische Betrachtungen durchführen und mangelnde Detailkenntnis durch Wahrscheinlichkeitsaussagen ersetzen — aber aus einem andern Grund als in der Quantenmechanik: Dort war uns die Statistik von der prinzipiellen Unmöglichkeit, den Ort und Impuls eines Teilchens — und damit seine Bahn — genau anzugeben, aufgezwungen worden. Formales Kennzeichen dieser prinzipiellen Unmöglichkeit war die Naturkonstante h̄, die unsere mögliche Kenntnis über ein Teilchen begrenzt. In der Wärmelehre betreiben wir Statistik aus der praktischen2 Unmöglichkeit, ∼ 1023 Teilchenkordinaten und –impulse zu berechnen. Das können wir nicht und wollen wir nicht: Ein einziger Koordinatensatz für L = 6 · 1023 Teilchen würde 1022 Seiten, also 1019 Bücher, also 1014 Universitätsbibliotheken füllen! Stattdessen wollen wir die “verborgenen Parameter”, nämlich die individuellen Koordinaten und Impulse des Vielteilchen–Systems statistisch beschreiben und die makroskopischen Zustandsgrößen aus mikroskopischen Teilcheneigenschaften über Gesetzmäßigkeiten großer Zahlen konstruieren. 2 Die prinzipielle Unmöglichkeit der Quantenmechanik mag hinzukommen: Wir betreiben dann Quantenstatistik. 2 Mehr oder weniger trivial ist das für die extensiven Zustandsgrößen: Sie setzen sich ja additiv aus den entsprechenden Größen von Teilsystemen zusammen und lassen sich damit letztlich direkt auf die mikroskopischen Teilcheneigenschaften zurückführen. Die erste Aufgabe einer elementaren Statistik besteht also darin, intensive Größen wie Druck oder Temperatur zu erklären und zu berechnen. 1.3 Ideales Gas und elementare Statistik Wir greifen diese erste Aufgabe der elementaren Statistik auf, ehe wir im nächsten Kapitel das Gerüst der Thermodynamik aufbauen und im dritten Kapitel eine systematische Statistik betreiben. Dazu betrachten wir das Modell des klassischen idealen Gases. Die mikroskopischen Bausteine des idealen Gases sind Massenpunkte, die keinen Raum beanspruchen und keine Kräfte aufeinander ausüben. Viele reale Gase — insbesondere leichte Edelgase (He) bei hoher Temperatur und niedriger Dichte — kommen diesem Ideal recht nahe. Entsprechend unserem Vorhaben, das ideale Gas statistisch zu beschreiben, fragen wir nicht nach den einzelnen Teilchenorten und –geschwindigkeiten, sondern nach der Wahrscheinlichkeit, am Ort r ein oder mehrere Teilchen der Geschwindigkeit v anzutreffen. Genauer fragen wir nach der Verteilungsfunktion f (r, v, t), welche die Dichte der Teilchen im sogenannten µ–Raum mit den Koordinaten r und v repräsentiert. Wir erwarten also, im sechs–dimensionalen Volumenelement dτµ = d3 rd3 v bei (r, v) dN = f (r, v, t)d3 rd3 v (1) Teilchen zu finden. Eine Integration über alle Geschwindigkeiten liefert die Dichte n(r, t) = Z f (r, v, t)d3 v (2) im Konfigurationsraum. Integrieren wir schließlich noch über die Ortskoordinaten, so erhalten wir die gesamte Teilchenzahl N= Z n(r, t)d3 r = Z f (r, v, t)d3 rd3 v (3) unseres Systems. Die Wahrscheinlichkeit, daß die Geschwindigkeit eines beliebig herausgegriffenen Teilchens im Volumenelement d3 v bei v liegt, ist also durch 1 f (r, v, t)d3 v n 3 gegeben. Daraus ergeben sich die Mittelwerte hAi = 1 n Z A(v)f (r, v, t)d3v (4) beliebiger Funktionen A(v) der Teilchengeschwindigkeiten. Als besonders wichtiges Beispiel für solche Mittelwerte nennen wir die mittlere kinetische Energie hεkin i der Gasmoleküle. Diese mittlere Teilchenenergie benutzen wir, um die Temperatur T zu definieren: 3 m 2 hv i = kT . 2 2 hεkin i = (5) T ist dabei die absolute Temperatur. Sie wird in K (Kelvin) gemessen und unterscheidet sich von der bürgerlichen Temperatur in Celsiusgraden lediglich durch eine additive Konstante: Der Schmelzpunkt des Eises liegt bei T0 = 273.2 K. Zur Anpassung an diese historische Temperaturskala wird in der energetischen Temperaturdefinition der Gl. (5) die Boltzmannkonstante k = 1.38 · 1023 Ws/K benutzt. (k ist also eine Maßsystemskonstante und keine Naturkonstante.) Nach der Definition der Temperatur wollen wir auch den Druck des idealen Gases bestimmen. Unter dem Druck verstehen wir die Kraft, die das ideale Gas auf jede Einheitsfläche der Gefäßwand ausübt. Wir gehen von der Vorstellung aus, daß diese Kraft auf dem mittleren Impulsübertrag der Gasmoleküle, die an der Gefäßwand reflektiert werden, beruht. Ein Flächenelement dA – etwa in z–Richtung – wird je Zeiteinheit von Z dN = dA vz f (v)d3 v vz >0 Molekülen getroffen. Dabei bezeichnet f wieder die Verteilungsfunktion der Moleküle. Ein einzelnes Molekül mit der Geschwindigkeitskomponente vz überträgt den Impuls 2mvz . Der gesamte Impulsübertrag je Zeiteinheit, also die Kraft, ist daher durch Z Z 2 3 dK = 2dA mvz f (v)d v = dA mvz2 f (v)d3 v vz >0 gegeben. Für das Integral gilt bei isotroper Verteilungsfunktion offenbar aus Symmetriegründen [vgl. Gl. (5)] Z mvz2 f (v)d3 v 1 = 3 Z 1 mv2 f (v)d3 v = n3kT . 3 Da der Druck durch p = dK/dA definiert ist, folgt so die thermische Zustandsgleichung des idealen Gases p = nkT oder pV = N kT . 4 (6) Unter einer thermischen Zustandsgleichung verstehen wir allgemein eine Beziehung zwischen der Temperatur und den übrigen Zustandsgrößen (hier Druck p und Volumen V oder Dichte n = N/V ), welche die Systemeigenschaften charakterisieren. Neben der thermischen Zustandsgleichung benutzt man noch eine kalorische Zustandsgleichung, welche den gesamten Energieinhalt U des Systems angibt. Wegen der Definition der Gl. (5) folgt für das (einatomige) ideale Gas die einfache kalorische Zustandsgleichung 3 U = N hεkin i = N kT . 2 (7) Wir betrachten abschließend ein ideales Gas in einem äußeren Kraftfeld −∇Φ(r) (z. B. im Schwerefeld, Φ = mgz). Anhand eines quaderförmigen infinitesimalen Volumenelements überlegt man sich dazu leicht, daß der Gradient ∇p eine Volumenkraft dKp = −∇p d3 r beschreibt. Diese Volumenkraft muß im Gleichgewicht die äußere Volumenkraft dKΦ = −n ∇Φ d3 r kompensieren. Daraus folgt 1 kT ∇Φ = − ∇p = − ∇n . n n Im Gleichgewicht darf die Temperatur nicht vom Ort abhängen. Daher können wir integrieren und erhalten Φ = −kT ln n+const oder Φ n = n0 e− kT . (8) Das Verhältnis n/n0 nach Gl. (8) wird als Boltzmannfaktor bezeichnet. Speziell im homogenen Schwerefeld erhält man daraus die barometrische Höhenformel n(z) = n0 e− mgz kT bzw. p(z) = p0 e− mgz kT , (9) welche (bei konstanter Temperatur, wir sind im Gleichgewicht!) die Dichte nz bzw. den Druck pz in der Höhe z mit der Dichte n0 bzw. dem Druck p0 am Erdboden in Beziehung bringt. 1.4 Die Maxwellverteilung Im vorigen Abschnitt haben wir die Verteiungsfunktion zur Formulierung wichtiger Mittelwerte benutzt. Sie enthält darüber hinaus die gesamte physikalisch relevante Information über ein System. Ihre Berechnung unter allgemeinen Bedingungen 5 ist Aufgabe der Kinetik, einer Verallgemeinerung der Statistik, die wir in dieser Vorlesung nicht behandeln. In der Statistik fragen wir nur nach der Gleichgewichts– Verteilung. Daß wir für das ideale Gas überhaupt eine bestimmte Gleichgewichtsverteilung erwarten können, bedarf einer Erläuterung. Die Verteilungsfunktion eines homogenen Systems wechselwirkungsfreier Teilchen zeigt nämlich keine Tendenz zu irgendeiner “Relaxation”. Wir setzen beim idealen Gas also doch einen Rest an Wechselwirkung der Gasmoleküle untereinander (und/oder mit den Gefäßwänden) voraus, der ausreicht, jeden beliebigen speziellen Ausgangszustand bald in ein völliges “Chaos”, eben das thermodynamische Gleichgewicht, zu überführen. Die Gleichgewichtsverteilung fM des idealen Gases wurde 1860 von Maxwell angegeben und wird daher als Maxwellverteilung bezeichnet. Sie darf natürlich nicht von der Zeit abhängen. Für ein homogenes System ohne äußere Kräfte gilt also fM (v) = ng(v) . (10) Die Funktion g bestimmte Maxwell durch eine genial einfache Überlegung: 1. g muß isotrop sein, also g(v) = g(vx2 + vy2 + vz2 ) . 2. Die Wahrscheinlichkeiten der einzelnen Geschwindigkeitskomponenten vx , vy und vz müssen unkorreliert sein, d.h, g(v) = h(vx2 )h(vy2 )h(vz2 ) . Es gilt also (mit x = vx2 , y = vy2 und z = vz2 ) die Funktionalgleichung g(x + y + z) = h(x)h(y)h(z) , und durch logarithmisches Differenzieren nach x folgt h0 (x) g 0 (x + y + z) = . g(x + y + z) h(x) Nun hängt die rechte Seite dieser Gleichung aber gar nicht von y und z ab; also ist die linke Seite konstant: g 0 (x) = −α d.h. g(x) = Ce−αx g(x) Mit dem Integral Z∞ e −αx2 dx = −∞ 6 2 oder g(v) = Ce−αv . r π α und der Normierung Z π gd v = C α 3 3/2 =1 folgt daher α fM (v) = n π 3/2 2 e−αv . Im Gleichtgewicht sind die Geschwindigkeiten also Gauss–verteilt. Die Konstante α repräsentiert die Breite der Verteilung oder das mittlere Geschwindigkeitsquadrat: 1Z 2 v fM (v)d3 v hv i = n 3/2 Z α d 2 = − e−αv d3 v π dα 3 d , also = −α3/2 α−3/2 = dα 2α 3 α = . 2hv2 i 2 Mit der Temperaturdefinition in Gl. (10) erhalten wir α = m/2kT und m fM (v) = n 2πkT 3/2 mv2 e− 2kT . (11) Entsprechend ihrer sehr allgemein gehaltenen Herleitung ist die Maxwellverteilung von fundamentaler Bedeutung für unzählige Anwendungen (nicht nur beim idealen Gas). Sie enthält bereits in komprimierter Form die gesamte Information der klassischen Thermodynamik und Statistik des idealen Gases. Um so erstaunlicher ist die Tatsache, daß sie in der Quantenstatistik ihre Gültigkeit verliert. Das muß uns im Moment um so mehr überraschen, als wir bei ihrer Herleitung nirgendwo von den Bewegungsgleichungen der klassischen Mechanik Gebrauch gemacht haben. Wir werden auf dieses Problem im Abschnitt 4.5 zurückkommen. Faßt man den Boltzmannfaktor (9) mit der Maxwellverteilung (11) zusammen, so erhält man die Maxwell–Boltzmann–Verteilung fM B (r, v) = n0 m 2πkT 3/2 e− Φ+mv2 /2 kT . (12) Sie zeigt, daß die Dichte fM B im µ–Raum exponentiell mit der Gesamtenergie ε = Φ + mv2 /2 der Gasmoleküle fällt. Wir hätten diesen Zusammenhang auch aus der Wechselwirkungsfreiheit und dem Boltzmannfaktor erahnen können. 7 2 2.1 Thermodynamik Zustandsgrößen und totale Differentiale Wie bereits in der Einführung angedeutet, geben wir nun einen kurzen Abriß der Thermodynamik, bei dem es wesentlich um die Definition bestimmter Zustandsgrößen im Gleichgewicht geht. Nehmen wir an, der makroskopische Gleichgewichtszustand sei durch die Variablen x1 , x2 , . . . , xn eindeutig charakterisiert. Dann ist jede Funktion y = f (x1 , x2 , . . . , xn ) (13) eine Zustandsfunktion und kann selbst als eine Zustandsgröße benutzt werden. Häufig ist eine interessierende Größe y nicht explizit, sondern durch eine Differentialform (Pfaffsche Form) δy = X ai (x1 , x2 , . . . , xn ) dxi (14) i gegeben, und es stellt sich die Frage, ob Gl. (14) eine Zustandsgröße y definiert. Wir benutzen darum das Differential–Symbol δ an Stelle von d, um auszudrücken, daß sich durch Gl. (14) nicht notwendigerweise eine Zustandsfunktion (13) definieren läßt. Notwendige (und hinreichende) Voraussetzung ist vielmehr, daß ai = ∂f ∂xi und folglich ∂ai ∂aj = = ∂xj ∂xi ∂2f ∂xi ∂xj (15) gilt. Eine Differentialform (14), welche die Bedingung (15) erfüllt, heißt total. Eine totale Differentialform ist integrabel und definiert eine Zustandsfunktion y. Für totale Differentiale ersetzen wir das Symbol δ wieder durch das vertraute d und schreiben dy = X ai (x1 , x2 , . . . , xn ) dxi . i Als Zustandsvariable benutzen wir (immer) 8 (16) — den Druck p und das Volumen V sowie (je nach Bedarf) verschiedene makroskopische Parameter wie — das Magnetfeld H und die Magnetisierung M — die Spannung U und die Ladung q — die Federkraft K und die Auslenkung x usw. Wer glaubt, daß solche weiteren Parameter nichts in einer Theorie der Wärme zu suchen haben, der sei an die Curietemperatur, an den thermoelektrischen Effekt, an eine Autobatterie im Winter oder an die thermischen Spannungen in Bauelementen erinnert. Die Teilchenzahl N betrachten wir, wenn nichts anderes gesagt wird, als fest vorgegeben. Ist sie variabel (offenes System, chemische Reaktionen), gehört auch sie zu den Zustandsvariablen. Und schließlich gibt es eine Zustandsgröße, die ganz im Zentrum der Thermodynamik steht. Ihrer zentralen Bedeutung entsprechend führt man sie oft axiomatisch durch einen Hauptsatz ein: • Nullter Hauptsatz der Thermodynamik: Es gibt eine Zustandsgröße Temperatur. Die Temperatur T charakterisiert die Klasse aller Systeme, die miteinander im Gleichgewicht stehen. Wir werden hier nicht den abstrakten Weg gehen, den Temperaturbegriff von dieser axiomatischen Definition ausgehend schrittweise mit physikalischem Inhalt zu füllen, sondern wir werden unter Bezug auf Abschnitt 1.3 die Temperatur als wohldefinierte Größe betrachten. In den obigen Beispielen haben wir jeweils zwei Zustandsvariablen zu Paaren (Y, X) zusammengefaßt. Das erste Element Y eines Paares repräsentiert dabei eine intensive und das zweite Element X “die konjugierte” extensive Zustandsvariable. Das R Produkt konjugierter Zustandsvariablen (genauer: das Integral Y dX) stellt jeweils eine Energie dar. Tatsächlich liegt im Energiesatz der Ausgangspunkt, aus dem die formale Theorie entwickelt wird. Für die Zustandsvariablen Temperatur und Teilchenzahl fehlen uns noch die konjugierten Größen. Ihre Definition ist ein Kernpunkt des abstrakten Formalismus. 2.2 Der erste Hauptsatz Wir greifen die Bemerkung zum Energiesatz am Ende des vorigen Abschnitts auf und notieren die Energieänderung unseres Systems in der Form 9 δU = δQ + δA . (17) Gl. (17) soll zunächst ausdrücken, daß die Energieänderung nicht allein durch die am System geleistete Arbeit δA = −pdV " + X # Yi dXi , i (18) sondern außerdem durch eine “Wärmezufuhr” δQ beschrieben wird. Bei der Arbeitsleistung δA berücksichtigen wir grundsätzlich die Druckarbeit −pdV und je nach Bedarf zusätzliche Terme Yi dXi (s. o.), die verschiedene Formen mechanischer, elektromagnetischer oder auch chemischer Energie repräsentieren können. Die eckigen Klammern sollen andeuten, daß wir diese zusätzlichen Terme meistens weglassen, da wir nicht mit ihnen arbeiten. Bezüglich der Wärmezufuhr δQ verlassen wir uns zunächst auf unsere naive Erfahrung und denken an einen Tauchsieder oder an einen Eiswürfel. Häufig werden wir die Wärmezufuhr in der Form δQ = cdT beschreiben können, wobei c eine “Wärmekapazität” bedeutet. In unserer rein formalen Anschrift der Energiezufuhr haben wir bewußt das Symbol δ für die Differentiale δU , δA und δQ benutzt. Dagegen besagt das Symbol d in dV , dXi und dT , daß wir V , Xi und T als Zustandsgrößen betrachten und daß die Differentiale deshalb total sind. Der erste Hauptsatz behauptet nun, daß dU ebenfalls ein totales Differential ist. Wir können das axiomatisch fordern (s. u.), ziehen aber vor, von der physikalischen Formulierung auszugehen: • Erster Hauptsatz (physikalisch): Es gibt kein perpetuum mobile erster Art. Ein perpetuum mobile ist dabei eine Maschine, die “aus nichts” Energie erzeugt. Nach hinreichend vielen Frustrationen ist die Menschheit nämlich zu dem Schluß gekommen, daß die Energie (wobei wir das relativistische mc2 einschließen) eine universelle Erhaltungsgröße ist, die weder aus dem Nichts geschaffen werden noch zu nichts vergehen kann. Und wenn ich in der Mechanik durch Reibung Energie verliere, so tritt eben diese Energie als “Wärmeenergie” wieder in Erscheinung. Mit einer thermodynamischen Maschine, die einen Zyklus C durchläuft, kann ich demnach weder Energie gewinnen noch verlieren: I C δU = 0 . Aus der Wegunabhängigkeit des Integrals folgt aber unmittelbar, daß sich U eindeutig als Zustandsfunktion definieren läßt oder daß das Differential dU total ist: 10 • Erster Hauptsatz (axiomatisch): Die innere Energie U ist eine (extensive) Zustandsgröße mit dem Differential dU = δQ + δA . 2.3 (19) Der zweite Hauptsatz Nachdem U als Zustandsgröße ausgewiesen ist, greifen wir die naheliegende Frage nach einem “Wärmestoff” auf und fragen, ob auch Q eine Zustandsgröße und damit δQ = dU − δA ein totales Differential ist. Wir können diese Frage für ein spezielles System, bei dem wir bereits über alle Information verfügen, rein rechnerisch entscheiden: Das ideale Gas. Aus den Zustandsgleichungen 3 U = N kT 2 und pV = N kT folgt sofort 3 dU = N k dT 2 und δA = −pdV = − N kT dV . V Damit erhalten wir das Differential δQ = N k 3 T dT + dV 2 V . (20) Ist dieses Differential total? Wir fassen Q als Funktion von T und V auf und rechnen ∂ 3 = 0 und ∂V 2 ∂ T 1 6= 0 . = ∂T V V V δQ ist also kein totales Differential, es gibt daher keine Zustandsgröße Q und — entgegen der vermeintlichen Alltagserfahrung mit der Wärmeflasche — keinen wohldefinierten “Wärmeinhalt” oder “Wärmestoff”! 11 Dagegen fällt uns förmlich ins Auge, daß wir Gl. (20) durch einen einfachen “integrierenden Faktor” integrabel machen können: Die Differentialform δQ dV 3 dT dS = = Nk + T 2 T V ! (21) ist offenbar total und läßt sich sofort zu der eigenartigen Zustandsfunktion S = Nk 3 ln T + ln V + C(N ) , 2 (22) die den Namen Entropie trägt, integrieren. Dabei ist C eine Integrationskonstante. Da wir die Teilchenzahl N konstant gehalten haben, müssen wir damit rechnen, daß in C noch eine Abhängigkeit von N “versteckt” ist. Die Entropie — die unserer direkten Anschauung kaum zugänglich ist und deren allgemeine Bedeutung wir bisher noch keineswegs postuliert haben — kontrolliert den Wirkungsgrad einer einfachen Wärmekraftmaschine, die mit dem idealen Gas arbeitet: der Carnot–Maschine. Diese idealisierte Maschine arbeitet zwischen zwei Temperaturniveaus T0 und T1 mit einem Zyklus, dessen Weg in der p–V –Ebene unten skizziert ist. Der Zyklus werde in der Reihenfolge (1)–(2)–(3)–(4)–(1)– . . . periodisch durchlaufen, die Wege (1)–(2) und (3)–(4) sind Isothermen, also Kurven konstanter Temperatur, und die Wege (2)–(3) und (4)–(1) Adiabaten, also Wege ohne Wärmezu– oder –abfuhr (δQ = 0). 1 p T1 2 4 T0 3 V Während eines Zyklus wird auf dem Weg (1)–(2) die Wärme Q12 aus dem “Wärmebad” der Temperatur T1 aufgenommen und auf dem Weg (3)–(4) die Wärme −Q34 an das Wärmebad der Temperatur T0 < T1 abgegeben. Der Überschuß ∆Q = Q12 + Q34 = −∆A 12 wird von der Maschine in mechanische Arbeit |∆A| = −∆A umgesetzt. (Denn U ist Zustandsgröße!) Während als kühlendes Wärmebad (T0 ) die natürliche Umgebung gewählt werden kann, muß die Temperatur T1 > T0 durch eine Heizung aufrecht erhalten werden. Q12 ist also die Primärenergie, die je Zyklus von außen in die Maschine “investiert” werden muß. Diese Primärenergie wird mit dem Wirkungsgrad ηC = |∆A| Q12 + Q34 = Q12 Q12 in mechanische Arbeit umgesetzt. Und nun kommt die Entropie ins Spiel: Aus I dS = I Q12 Q34 δQ = + =0 T T1 T0 folgt ohne jede Rechnung Q34 = −Q12 T0 /T1 und ηC = 1 − T0 . T1 (23) Ehe wir die physikalischen Konsequenzen besprechen, machen wir uns bewußt, daß wir das Ergebnis praktisch ohne Rechnung erhalten haben. Wir haben keine Wärmekapazitäten (cp , cV , Übungen!) berechnet, brauchten keine “Adiabatengleichung” (Übungen!) herzuleiten und haben kein Integral ∆A = I pdV ausgewertet. Wir haben den Carnotschen Wirkungsgrad ηC einzig und allein aus der Kenntnis, daß U und S Zustandsgrößen sind, erhalten. Und nun zur Physik: Der Wirkungsgrad der Carnotschen Maschine hängt vom Verhältnis der Temperaturen ab und ist immer kleiner als eins. Für den Besitzer einer Carnot–Maschine ist Wärmeenergie also nicht so wertvoll wie mechanische oder elektrische Energie, die vollständig in Arbeit umgesetzt werden kann. Die Wärmeenergie ist um so wertvoller, je höher das obere Temperaturniveau T1 bei der Umsetzung gewählt werden kann. Erst für T1 = ∞ oder T0 = 0 wird die Wärmeenergie — bezogen auf die Carnotmaschine — “vollwertig”. Dem Besitzer einer Carnotmaschine steht nicht nur eine Wärmekraftmaschine zur Verfügung, sondern auch eine Klimaanlage, mit der er im Sommer kühlen und im Winter heizen kann. Durchläuft man den Zyklus nämlich in umgekehrter Richtung, so erhält man eine ”Wärmepumpe”, die von außen Arbeitsleistung aufnimmt, um Wärme von dem niedrigeren Temperaturniveau T0 in das höhere Temperaturniveau 13 T1 zu “pumpen”. Da aus dem niedrigen Niveau noch Wärme aufgenommen wird, ist der “Heiz–Wirkungsgrad” η̄C = −Q12 1 = ∆A ηC (24) der Wärmepumpe größer als eins. Der Besitzer zweier Carnotmaschinen CM und CM0 kann nun folgendes amüsante Spiel treiben: Er schafft sich zwei gemeinsame Wärmebäder (T0 und T1 ) für seine beiden Maschinen und läßt CM0 als Wärmekraftmaschine laufen. Mit der gewonnen Arbeitleistung treibt er CM als Wärmepumpe an und pumpt die von CM0 “verbrauchte” Wärme ins obere Wärmebad zurück. Dieses Spiel ist besonders ökologisch, denn als Gesamtwirkung für die Umwelt passiert — rein gar nichts: Es wird effektiv weder Arbeit geleistet noch verbraucht und den Temperaturniveaus wird effektiv weder Wärme entzogen noch zugeführt. Nachdem sich obiger Maschinenbesitzer lange genug an seinem Spiel erfreut hat, kommt ihm ein genialer Gedanke: Ich ersetze, so überlegt er, die Carnotsche Wärmekraftmaschine CM0 durch eine Hightech–Wärmekraftmaschine HM mit einem Wirkungsgrad ηH > η C . Nun kann ich meinen Maschinenpark ständig laufen lassen, ohne das obere Wärmebad effektiv zu belasten, und gleichzeitig ständig eine Nettoarbeitsleistung entnehmen. Die Energie entnehme ich dabei der unerschöpflichen Umwelt (Atmosphäre, Meer, . . . ) als Wärmebad T0 . Leider haben sich an dieser und an ähnlichen genialen Ideen schon viele Genies frustriert, so viele, daß die Menschheit daraus gelernt und den folgenden Satz formuliert hat: • Zweiter Hauptsatz (physikalisch): Es gibt kein perpetuum mobile zweiter Art. Dabei versteht man unter einem perpetuum mobile zweiter Art eine periodisch arbeitende Maschine, die nichts weiter bewirkt, als einem Temperaturbad T0 Wärme zu entziehen und in Arbeit umzuwandeln. Eine solche Maschine würde zwar den Energiesatz nicht verletzen, sie wäre wegen der universellen Verfügbarkeit eines Temperaturbades aber einem “echten” perpetuum mobile de facto gleichwertig. Eine äquivalente Formulierung des Hauptsatzes lautet • Es gibt keine periodisch arbeitende Maschine, die nichts weiter bewirkt, als Wärme von einem niedrigen Temperaturniveau T0 in ein höheres Temperaturniveau T1 zu transportieren (Clausius). 14 Damit ist klar, daß die Hightech–Maschine keinen höheren Wirkungsgrad haben kann als die Carnotsche. Falls sie ebenfalls reversibel arbeitet, kann sie aber auch keinen niedrigeren haben. Denn dann brauchte ich die Rolle der Maschinen CM und HM ja nur zu vertauschen, um ein perpetuum mobile zweiter Art zu bauen. Als unmittelbare Folge des zweiten Hauptsatzes gilt also der Satz • Alle reversibel arbeitenden Wärmekraftmaschinen haben denselben Wirkungsgrad T0 . (25) η = ηC = 1 − T1 Damit sind unsere obigen Feststellungen über mehr oder weniger wertvolle Formen der Wärmeenergie also nicht mehr auf die Carnotsche Maschine oder das ideale Gas als Arbeitssubstanz beschränkt, sondern gelten universell. Das aber heißt — wenn wir uns an die Herleitung der Formel für ηC zurückbesinnen und infinitesimale Zyklen untersuchen — daß auch die Eigenschaft der Entropie, eine Zustandsgröße zu sein, universell ist. Damit kommen wir zu der axiomatischen Formulierung des zweiten Hauptsatzes: • Zweiter Hauptsatz (axiomatisch): Die Entropie S ist eine (extensive) Zustandsgröße mit dem Differential dS = δQrev . T (26) Mit dem Index rev wollen wir dabei an eine ganz wichtige Voraussetzung unserer Argumentation erinnern: Die reversible Prozeßführung. Mit “dissipativen” Prozessen (z. B. Reibung) kann man nämlich auf irreversible Weise Wärme erzeugen. Eine Maschine mit Dissipation arbeitet irreversibel und hat einen kleineren Wirkungsgrad als die Carnotsche. Durchläuft eine solche Maschine einen vollen Zyklus, so bleibt die Entropie nicht erhalten. Die Berechnung der Entropie nach der Formel dS = δQ/T setzt also reversible Prozeßführung voraus. Und was ist, wenn der Prozeß nicht reversibel geführt wird? Dann bleibt die Feststellung, daß eine andere Maschine keinen höheren Wirkungsgrad haben kann als die (reversibel arbeitende!) Carnotsche, weiterhin gültig, läßt sich aber nicht mehr durch Vertauschung der Maschinen umkehren. Statt Gl. (25) haben wir also allgemein η ≤ ηC = 1 − T0 , T1 Wenn wir die Rechnung rückwärts verfolgen, finden wir daraus 15 (27) Q12 Q34 + ≤ 0. T1 T0 Dieses Ergebnis läßt sich (z. B. über gekoppelte infinitesimale Kreisprozesse) zur Clausiusschen Ungleichung I δQ ≤0 T (28) verallgemeinern. Wir wollen diese Beziehung auf einen beliebigen Weg von A nach B anwenden. Um zu einem vollen Umlauf zu kommen, schließen wir die Kurve durch einen reversiblen Rückweg. Damit können wir die Clausiussche Ungleichung auch in der Form SB − S A ≥ ZB A δQ . T (29) schreiben. Fassen wir nun Subsysteme, in denen irreversible Prozesse ablaufen dürfen, zu einem thermisch abgeschlossenen Gesamtsystem (δQ = 0) zusammen, so gilt offenbar SB ≥ S A , in Worten : • Die Entropie eines thermisch abgeschlossenen Systems kann nur zunehmen. Dieser Satz, der auch als zweiter Teil des zweiten Hauptsatzes3 bezeichnet wird, prägt der Physik erstmals eine Zeitrichtung auf. Dieser Umstand hat im 19. Jahrhundert maßgeblich dazu beitragen, daß der Begründung der Thermodynamik durch die Statistik lange mit großer Skepsis begegnet wurde. In einem abgeschlossenen System wird die Entropie also ständig zunehmen — bis sie schließlich ihren maximalen Wert annimmt: Das Gleichgewicht ist erreicht. Dies ist denn auch der Ausgangspunkt, das Gleichgewicht, von dem nun schon so oft die Rede war, in aller Strenge zu definieren. Auf dieses Gleichgewicht und auf die reversiblen Prozesse, die von einem Gleichgewichtszustand zu einem anderen Gleichgewichtszustand führen, beschränkt sich die “eigentliche” Thermodynamik, die wir hier behandeln. 3 Der erste Teil postuliert S als Zustandsgröße. 16 2.4 Die thermodynamischen Potentiale Wir beschränken uns im folgenden wieder grundsätzlich auf reversible Prozesse, ohne durch eine Kennzeichnung explizit daran zu erinnern. Dann gilt δQ = T dS und wir können den ersten und zweiten Hauptsatz in der Form dU = T dS − p dV [+ P i Yi dXi ] (30) zusammenfassen, in der nur noch Zustandsgrößen und totale Differentiale vorkommen. Die innere Energie U erscheint hier als Funktion der “natürlichen Variablen” S, V und (je nach Bedarf) Xi und wird ein thermodynamisches Potential genannt: U = U (S, V, [Xi ]) . (31) Die natürliche Variable S ist häufig unbequem: Die Entropie haben wir längst noch nicht “verstanden”, und einer Messung ist sie auch nicht leicht zugänglich. Da ein Thermometer schön einfach und handlich ist, möchten wir S gern durch die “konjugierte” Temperatur ∂U ∂S T = ! (32) V ersetzen. Umformungen solcher Art sind uns von der Mechanik vertraut: Dort haben wir die die generalisierten Geschwindigkeiten q̇k durch die kanonischen Impulse pk = ∂L ∂ q̇k ersetzt, indem wir von der Lagrangefunktion L(qk , q̇k ) zur Hamiltonfunktion H(qk , pk ) = −L + X pk q̇k k übergegangen sind. Eine solche Legendretransformation führen wir nun auch in der Thermodynamik durch, indem wir ausgehend von der inneren Energie U (S, V, [Xi ]) die freie Energie F (T, V, [Xi ]) = U − T S (33) bilden. Die freie Energie ist ebenfalls ein thermodynamisches Potential. Daß dieses Potential tatsächlich von den natürlichen Variablen T , V [und Xi ] abhängt, erkennt man, wenn man unter Beachtung von (30) und (32) das Differential 17 dF = −S dT − p dV [+ P i Yi dXi ] (34) bildet. Dieses Differential macht auch den Namen verständlich: Wir können daraus nämlich ablesen, daß die freie Energie diejenige Energie beschreibt, die bei konstanter Temperatur in Arbeitsleistung umgesetzt werden kann. Energien wie die elektrische Feldenergie oder die mechanische Energie einer gespannten Feder (usw.) sind in diesem Sinne als freie Energien zu betrachten! In ganz analoger Weise kann man auch die Variable V durch die konjugierte Variable p ersetzen und erhält als neues Potential die Enthalpie H(S, p, [Xi ]) = U + pV (35) mit dem Differential dH = T dS + V dp [+ Yi dXi ] . P i (36) Dieses Potential eignet sich besonders zur Beschreibung adiabatischer Prozesse bei konstantem Druck. Schließlich und endlich können wir sowohl S als auch V ersetzen und erhalten das Gibbssche Potential oder die freie Enthalpie G(T, p, [Xi ]) = U − T S + pV (37) mit dem Differential dG = −S dT + V dp [+ P i Yi dXi ] . (38) Dieses Potential bleibt konstant, wenn man Vorgänge bei konstanter Temperatur und konstantem Druck untersucht. Es ist daher das Lieblingspotential der Chemiker. Grundsätzlich ist jedoch zu beachten, daß alle thermodynamischen Potentiale äquivalent sind: Besitzt man irgendein thermodynamisches Potential als Funktion seiner natürlichen Variablen4 , so besitzt man die gesamte thermodynamische Information. Denn alle Zustandsgrößen lassen sich daraus durch bloßes Differenzieren berechnen. Beispielsweise erhält man sofort die thermische Zustandsgleichung p = p(T, V ), wenn man die freie Energie nach V differenziert. Die Wahl des einen oder anderen Potentials ist also allein eine Frage der Bequemlichkeit. Wir können unsere vier Potentiale U , F , H und G mit ihren wechselnden natürlichen Variablen S, T , V und p in der folgenden kleinen Tabelle zusammenfassen: 4 Vgl. L(q, q̇) und H(q, p) in der Mechanik. 18 S H p U V & % F G T In der Mitte der Seiten dieses Quadrats steht jeweils eins der thermodynamischen Potentiale, und an den benachbarten Ecken findet man die zugehörigen natürlichen Variablen. Die Reihenfolge der Symbole kann man sich mit dem Merkspruch Schöne Und Vornehme Frauen Tragen Große prächtige Hüte ins Gedächtnis rufen (vorausgesetzt, man behält, welche Attribute durch “und” verbunden sind). Das Pfeilkreuz in der Mitte soll die Vorzeichen der partiellen Ableitungen andeuten. Beispielsweise gilt ∂F ∂T ! = −S , V “weil” man sich bei der Anschrift dieser Gleichung gegen die Pfeilrichtung bewegt. Aus dem Diagramm lassen sich nach dem Schema ∂ 2f ∂ 2f = ∂x∂y ∂y∂x auch ein paar nützliche Beziehungen ablesen, die als Maxwellrelationen bezeichnet werden. Als Beispiel notieren wir ∂S ∂V ! = T ∂p ∂T ! V " ∂2F =− ∂T ∂V # , (39) gehen aber nicht weiter auf die Bedeutung5 der Maxwellrelationen ein. Die Effizienz der thermodynamischen Potentialen bei der Lösung konkreter Probleme demonstrieren wir im Abschnitt 2.7. Wir beenden diesen Abschnitt mit einem ergänzenden Hinweis zum thermischen Gleichgewicht. Im vorigen Abschnitt hatten wir aus der Clausiussche Ungleichung [vgl. Gln. (28) und (29)] dS ≥ 5 δQ T Vgl. aber die Analogie zwischen Gl. (39) und der Clausius–Clapeyron–Beziehung (50). 19 gefolgert, daß das Gleichgewicht eines abgeschlossenen Systems durch eine maximale Entropie ausgezeichnet ist. Betrachten wir statt eines abgeschlossenen Systems nun ein System im Wärmebad (konstante Temperatur T und konstantes Volumen V ), so wird dF = dU −T dS ≤ dU −δQ = δA = 0 . Der Gleichgewichtszustand eines isothermen und isochoren Systems ist also durch ein Minimum der freien Energie ausgezeichnet. In ähnlicher Weise läßt sich für andere Nebenbedingungen zeigen, daß im Gleichgewicht jeweils dasjenige thermodynamische Potential minimal wird, dessen natürliche Variable konstant gehalten werden: - S, V [, Xi ] fest =⇒ U minimal, - T , V [, Xi ] fest =⇒ F minimal, - T , p [, Xi ] fest =⇒ G minimal, - S, p [, Xi ] fest =⇒ H minimal. 2.5 Variable Teilchenzahl Bisher haben wir die Teilchenzahl N konstant gehalten und als Variable ignoriert. In offenen Systemen und in Systemen mit chemischen Reaktionen werden die Teilchenzahlen Nk aber selbst zu interessanten Zustandsgrößen. Eine “versteckte” Abhängigkeit der Entropie von der Teilchenzahl haben wir im Zusammenhang mit der Entropieformel (22) des idealen Gases bereits angedeutet. Wollen wir eine solche Abhängigkeit berücksichtigen, so müssen wir die bisherige Definition δQ dU + pdV [− dS = = T T P i Yi dXi ] durch dU + pdV [− dS = T P i Yi dXi ] + X k ∂S ∂Nk ! dNk U,V,Xi verallgemeinern. Damit erhält der kombinierte erste und zweite Hauptsatz die Form dU = T dS − p dV + X k 20 µk dNk [+ P i Yi dXi ] (40) wobei die chemischen Potentiale µk durch die partiellen Ableitungen ∂S ∂Nk ! U,V,Xi =− µk T (41) definiert sind. Der Zusatzterm + X µk dNk k tritt dann unverändert auch in den Differentialen der thermodynamischen Potentiale F , H und G hinzu. Die chemischen Potentiale treten also formal als die konjugierten Variablen zu den Teilchenzahlen auf. Um ihre Bedeutung und die Namensgebung wenigstens zu erahnen, betrachten wir wie gewohnt ein homogenes System, in dem sich bei einer Halbierung des Systems auch die thermodynamischen Potentiale halbieren6 , also extensiv sind. Wir haben dann insbesondere G(T, p, λNk ) = λG(T, p, Nk ) . Differenziert man nach λ und setzt λ = 1, so erhält man wegen (∂G/∂Nk )T,p = µk die Gibbs–Duhem–Relation G(T, p, Nk ) = X N k µk . (42) k Die chemischen Potentiale geben also an, welchen Beitrag ein einzelnes Teilchen (bei konstanter Temperatur und konstantem Druck) zum Gibbschen Potential G liefert. Wir würden auf diese formalen und wenig anschaulichen Betrachtungen ja gern verzichten, aber leider benötigen wir die chemischen Potentiale zur Definition eines weiteren thermodynamischen Potentials J(T, V, µk ) = F − X k Nk µk = F − G = −pV (43) mit dem Differential dJ = −S dT − p dV − 6 X Nk dµk . k Wir schließen damit insbesondere Oberflächeneffekte aus. 21 (44) Dieses Potential ohne feste Teilchenzahl ist nämlich unverzichtbar für eine elegante Formulierung der Quantenstatistik. Damit wollen wir den abstrakten Formalismus abschließen und uns explizit mit der Entropie des idealen Gases befassen. Wir betrachten wieder die Gl. (22) und überlegen, wie die Integrationskonstante C(N ) von N abhängen muß. Die Entropie wird nur dann wie gefordert extensiv, wenn die Klammer [. . . ] in Gl. (22) eine intensive Größe beschreibt, die sich bei einer Verdoppelung des Systems nicht ändert. Mit einer Entropiekonstante σ0 folgt daher C(N ) = σ0 − ln N und S = Nk 3 V ln T + ln + σ0 . 2 N (45) Im nächsten Abschnitt werden wir hieraus das chemische Potential des idealen Gases berechnen. Hier wollen wir auf eine viel interessantere Folgerung hinaus: Wir betrachten zwei verschiedene ideale Gase A und B gleicher Dichte und gleicher Temperatur (⇒ gleicher Druck!) in zwei getrennten Teilvolumina VA und VB . Diese beiden Gase haben eine Gesamtentropie 3 VA VB 3 S0 = NA k ln T + ln + σA + NB k ln T + ln + σB . 2 NA 2 NB Wenn wir nun die Trennwand zwischen den beiden Teilvolumina entfernen, steht beiden Gasen das gesamte Volumen V = VA + VB zur Verfügung und wir erhalten die größere Entropie S1 = N A k V V 3 3 ln T + ln + σA + NB k ln T + ln + σB . 2 NA 2 NB Die Differenz V V + NB ln ∆S = S1 − S0 = k NA ln VA VB (46) wird als Mischungsentropie bezeichnet. Die Entropie ändert sich also nicht nur bei Wärmezufuhr, sondern auch bei einer Mischung verschiedener Komponenten. Und hieran schließt sich sofort das Gibbssche Paradoxon an: Was wird aus der Entropie, wenn ich immer ähnlichere und schließlich nicht mehr unterscheidbare Gase mische? 2.6 Anwendungen: Reaktionsgleichgewichte In unserer “abgespeckten” Thermodynamik können wir uns den üblichen Katalog von Anwendungen nicht leisten und wollen nur exemplarisch demonstrieren, wie man 22 mit dem abstrakten Formalismus konkrete Probleme löst. Dazu betrachten wir ein System aus verschiedenen Komponenten Ak , die gemäß einer “Reaktiongleichung” X νk Ak = 0 (47) k ineinander umgewandelt werden können. Dabei denken wir sowohl an chemische Reaktionen wie 2H2 + O2 − 2H2 O = 0 (also νH2 = 2, νO2 = 1 und νH2 O = −2) als auch an Phasenübergänge. So werden wir das Gleichgewicht zwischen einer Flüssigkeit F und ihrem Dampf D durch die Reaktionsgleichung F−D=0 (also νF = 1 und νD = −1 beschreiben. Wir betrachten unser System nun bei vorgegebener Temperatur T und vorgegebenem Druck p. Dann ist das Gleichgewicht durch ein Minimum des Gibbsschen Potentials ausgezeichnet. Da T und p nicht verändert werden, gilt im Gleichgewicht also dG = X k ∂G ∂Nk ! dNk = T,p X µk dNk = 0 . Entsprechend der Reaktionsgleichung (47) verhalten sich die Änderungen der Teilchenzahlen wie die νk : dNk ∼ νk . Damit erhalten wir die allgemeine Gleichgewichtsbeziehung (T , p fest!) X νk µk (T, p) = 0 , (48) k die noch einmal besonders deutlich macht, wie die chemischen Potentiale zu ihrem Namen kommen. Wir wollen sie aber zunächst auf das Gleichgewicht zwischen Flüssigkeit und Dampf anwenden. Um in der abstrakten Formulierung 23 µD (T, p) = µF (T, p) (49) die Dampfdruckkurve p = pD (T ) zu erkennen, gehen wir von den Gibbs–Duhem– Relationen µk = Gk = gk (T, p) , Nk k = D, F des Dampfes und der Flüssigkeit aus7 und bilden die Differentiale dµk = dgk = −sk dT + vk dp . Dabei bezeichnet sk = Sk /Nk die spezifische Entropie und vk = Vk /Nk das spezifische Volumen. Aus Gl. (49) folgt damit die Differentialgleichung (sD − sF )dT = (vD − vF )dp . Berücksichtigen wir schließlich noch, daß die Entropieänderung beim Übergang vom flüssigen zum dampfförmigen Zustand durch sD − s F = qD T mit der spezifischen Verdampfungswärme qD verknüpft ist, so erhalten wir die berühmte Clausius–Clapeyron–Beziehung8 qD dpD = dT T (vD − vF ) (50) für die Änderung des Dampfdrucks pD mit der Temperatur T . Wir kehren nun zu Gl. (48) zurück und werten sie für chemische Reaktionen zwischen idealen Gasen aus. Um aus Gln. (41) und (45) das chemische Potential µk eines idealen Gases zu berechnen, bilden wir am einfachsten (warum?) zunächst die freie Energie9 Nk 3 − σk Fk = Uk − T Sk = Nk kT (1 − ln T ) + ln 2 V 7 Genau hier verlieren wir Aussagen über den Dampfdruck kleiner Tröpfchen. Vgl. hierzu auch die Maxwellrelation (39)! 9 Unsere Formulierung ist eigentlich nur für einatomige Gase gültig; die generelle Form bleibt aber auch bei Molekülgasen erhalten. 8 24 und erhalten µk = ∂Fk ∂Nk ! T,V 3 Nk − σk . = kT + kT (1 − ln T ) + ln 2 V Ersetzen wir Nk durch den Partialdruck pk = Nk kT , V so folgt µk = kT ln pk − ck (T ) , wobei wir uns die genaue Spezifizierung von ck (T ) schenken. Damit erhält Gl. (48) die Form X νk ln pk = X ck (T ) . k k Gehen wir vom Logarithmus zum Numerus über, so erhalten wir das Massenwirkungsgesetz Y pνkk = C(T ) . (51) k 2.7 Das Nernstsche Theorem Unsere Thermodynamik ist im wesentlichen “abgeschlossen” und wir brauchen keine neue Zustandsgröße mehr einzuführen. Ein gewisser Mangel der bisherigen Theorie liegt aber darin, daß die Entropie nur differentiell definiert ist. Es gibt nämlich Fälle, in denen zwei verschiedene Zustände nicht durch einen reversiblen Weg verbunden werden können. In solchen Fällen kann das Ergebnis einer thermodynamischen Rechnung von der richtigen Wahl der Entropiekonstanten abhängen. Zur Behebung dieses Mangels formulierte Nernst 1905 im Einklang mit der Erfahrung sein berühmtes Theorem • Die Entropie eines Systems am absoluten Nullpunkt ist eine von allen Zustandsgrößen unabhängige Konstante, die man zu Null wählen darf. 25 Dieses Theorem wurde später auch als dritter Hauptsatz der Thermodynamik bezeichnet. Die wichtigste Konsequenz dieses Satzes ist, daß sämtliche spezifischen Wärmen für T → 0 verschwinden. Hiermit kommen wir jedoch (u. a.) in ernsthafte Schwierigkeiten mit dem idealen Gas, für das wir unabhängig von der Temperatur cV = ∂U ∂T ! V 3 = N k 6= 0 2 finden. Auch die Entropieformel (41) strebt nicht gegen eine universelle Konstante, sondern divergiert für T → 0. Daß es in der Natur keinen Stoff gibt, der für T → 0 als ideales Gas angesehen werden kann, ist nur ein schwacher Trost für das prinzipielle Versagen des Modells. Außerdem treten ganz analoge Diskrepanzen auch bei der spezifischen Wärme des Festkörpers auf. Wir stehen mit diesen Problemen wieder am Beginn des 20. Jahrhunderts und müssen die Diskrepanzen zum Nernstschen Theorem mit den “schwarzen Wolken” aus Teil I der Vorlesung in Verbindung bringen: Der dritte Hauptsatz formuliert einen makroskopischen Quanteneffekt! Was aber haben wir in der Maxwell–Boltzmann–Statistik des Abschnitts 1.3 falsch gemacht? Wo ist überhaupt spezifiziert worden, ob unsere Gasteilchen den Newtonschen Gesetzen oder der Schrödingergleichung folgen? Es ist an der Zeit, daß wir eine systematische Statistik entwickeln, in der wir klassische Teilchen und Quantenzustände sauber unterscheiden können. 26 3 3.1 Die Grundlagen der Statistik Shannons Informationsentropie Im ersten Kapitel hatten wir erläutert, daß es nicht nur unmöglich, sondern auch nicht wünschenswert ist, die detaillierte mikroskopische Information eines makroskopischen Systems festzulegen: Die Informationsmenge wäre einfach zu groß. Stattdessen haben wir uns entschlossen, uns mit der Verteilungsfunktion zu begnügen. Wie detailliert ist die verbleibende Information? Brauchen wir immer noch Bibliotheken, um sie zu notieren? Und wodurch zeichnet sich die Gleichgewichtsverteilung aus? Wir hatten den Übergang zum Gleichgewicht bereits intuitiv mit einem totalen “Chaos” in Verbindung gebracht. Wird bei diesem Übergang alle Information zerstört? Wenn wir diese Frage beantworten wollen, stehen wir vor dem Problem, ein Maß für Information zu definieren. Mit genau dem Problem hat man sich jedoch außerhalb der Physik in der Nachrichtentechnik und in der Datenverarbeitung befaßt: Welchen Speicherplatz benötige ich, um ein Bild zu speichern? Wie hängt die Auflösung des Fernsehbildes von der Breite des Übertragungskanals ab? Wieviel Information kann ich noch aus einem “verrauschten” Signal retten? . . . Wenn wir die Information messen wollen, gehen wir naiv von der Länge des Textes oder der Zahl der Zeichen aus. Da ein Zeichen einer Bilderschrift sicherlich “informativer” ist als ein Zeichen des lateinischen Alphabets, wollen wir die Zeichen universell codieren und benutzen dazu “binäre Digits” oder “bit”s. Zur Codierung eines Zeichens einer modernen Schreibmaschine benutzt man 8 bit oder ein “byte”. Für einen Text von 1000 Zeichen (ca. 12 Seite) benötigt man also eine Speicherkapazität von 8000 bit oder 1k (kilobyte). Dabei ist der Text aber nicht optimal gespeichert, er läßt sich “komprimieren”. Denn die einzelnen Zeichen zi (i = 1, . . . , n) des Alphabets haben eine verschiedene a priori – Wahrscheinlichkeit pi . Da ein ‘e’ in deutschen Texten wesentlich häufiger vorkommt als ein ‘y’, ist es ökonomisch, das ‘e’ mit weniger bit zu codieren als das ‘y’ (vgl. das Morsealphabet!). Zu einer wesentlich besseren Codierung kommen wir (vereinfachend), wenn wir die Zeichen zi unter Ausnutzung der Normierung n X pi = 1 i=1 durch Teilintervalle Zi der Länge pi des Grundintervalls I = (0, 1) repräsentieren: Z1 Z2 Z3 ... Zn−1 Zn 1 0 27 Das Grundintervall I teilen wir in die Teilintervalle I0 = (0, 12 ) und I1 = ( 21 , 1), die Teilintervalle Iν weiter in Iν,0 und Iν,1 , usw. Bei der fortgesetzten Halbierung notieren wir jeweils, ob Zi (mehr) in der linken (0) oder rechten (1) Hälfte von Iν1 ,... liegt. Nach m Schritten erhalten wir ein Teilintervall Iν1 ,...,νm der Länge 2−m , welches das Zeichen zi eindeutig festlegt, wenn 2−m ≤ pi oder m ≥ −log2 pi gilt. Zur Übermittlung des Zeichens zi ≡ {ν1 , . . . νm } benötigen wir also σi = − log2 pi (52) bit, und es bietet sich an, diese bit–Zahl σi als Informationsmaß des Zeichens zi zu definieren. Der Nachricht z1 , z2 , . . . zN entspricht demnach dem Informationsgehalt σ1 + σ2 + . . . + σN . In vielen Fällen wird die genaue Zeichenfolge einer Nachricht aber nicht bekannt sein oder soll variabel sein. Beispielsweise möchte man wissen, welche Information verloren geht, wenn etwa jedes zehnte Zeichen verrauscht, und bei der Festlegung der Breite von Fernsehkanälen wird man sich nicht an einem bestimmten Bild, sondern an typischen Bildern orientieren wollen. Darum interessiert sich der Nachrichtentechniker für den mittleren Informationsgehalt σ eines Zeichens oder ΣN einer Nachricht von N Zeichen. Da die einzelnen Zeichen zi mit der Wahrscheinlichkeit (also der relativen Häufigkeit) pi in den Nachrichten vorkommen, gilt σ = hσi i = − n X pi log2 pi und ΣN = N σ . (53) i=1 σ bzw. ΣN wird als die Shannon–Entropie bezeichnet. Diese Shannon–Entropie mißt also — den mittleren Informationsgehalt einer Nachricht von N Zeichen oder — die Unkenntnis, die ich im Mittel habe, wenn ich nicht weiß, welche N Zeichen übermittelt werden (oder verloren gehen). So ganz optimal ist unsere Codierung noch nicht, wenn wir nur die Wahrscheinlichkeiten der einzelnen Zeichen berücksichtigen. Tritt beispielsweise in einem deutschen Text das Zeichen ‘q’ auf, so wird das Zeichen ‘u’ nahezu mit Sicherheit und nicht mit der geringen Wahrscheinlichkeit pu ≈ 0.032 folgen. Die generelle Bedeutung solcher Korrelationen demonstrieren wir an den vier Zufallstexten im folgenden Kasten, bei denen Zweierkorrelationen berücksichtigt wurden, die jeweils einem deutschen, einem englischen, einem griechischen und einem lateinischer Mustertext entnommen wurden. 28 Zufallstexte mit deutschen, englischen, griechischen und lateinischen Zweierkorrelationen la epekalierses es matasin kai gar sphilon gyn lon en the anthron allai olyto theon toi os ypephroys er o dethos oi otimon thlontestelgemin agon os mylien popioikopolla thai de rhyron o kai zen allagchthosthygai eripon ai lio thygarnes bron er on ede neseta men moterioi diayto gar on toi alai ai oron ai elgeipersesoi oysko tiathe epeessethreitai esin olos ike ithioi allos nostar thaliesechthioys thytar alla alion de alyta emin agamoronden lon dedenaas polytayran ei sphelge estheoy agchon os bes dysoion kai mnaio ide amphe enon de ekio pan ieion ein kaieses patai atha pso ois mon kai ampimoron ai alge de pto gathrotimenia on aparnes pos ektaon kra kaipotioon o te o oieripyn brie zuvon benfliedas mich altesst weil so er wenken nauess schlagefunsen bein fues suesst gekommen recht ueher benfliesseisch aer ihr zert gelie tigel das guter fuch niecht glutztesstenst gaehlein gen warachen uer ben du im ense nur zu er fund krit ge kommen fuchaechein und kann rech dantescht und gekommen wir winauchreiehle nichein bachlatter eifer gutesch aerge sch kankt so eren gan win daralt leist willein nundem naugel weilt so isch in warag der bedarf siedas in dem brie zwen fuesst mag war fuchs gelent der ein der gel gutes ich mich weichrie vor schatt ein ver alt in ich alte zer und icht glum was scht maenseheinbaues sch alle nicht er better alten wein was gluten dir so ein das fueheie kann walden du esst eiden nich danz mage kanz maetten ues ihm eist uns so ergelen nur weier ben im beisst und int un nacher den den was genkt wollenkt gant gesch win dant ge wier kuesch weillt und sehrisch aldeifeit leinachant mit und kuesst und lust die zu mit weim nich dem nocharter dant en scherem uesch dant leit gel sprauescht es gann wart leine was gutes guten wir ultinguae atentus aquavit eos prae ate atriona ditinciaes quod suitaeper gibusculibus etii cumi spe mo pra se omnissimos rhen aus ex imincitano proximo prattine rhelvet apis rhelgars los mos belgallia eos mi inessi prattiea celvetiissimone aus rhodanisse aque ex persuliae flum pelvetur pelliae flum prattiam fergit imus etitium pelvetiniur pelvet aus manimuscum is etiontut suntentertermanobtinibuscultini estare contianis eanis etinissimus eost quod alliquitallum pertium pratii a colum no pe a imuscum qui sunt attiuminen sequit imperfaciae culinibuscu los facitiontercaus belvetia dia his fluntessequitisperuntu a eos essi torio providiffemanobtiae eos los eos mo qui sequi attios of the of hout bithe yeader had the bed day sculler a stild mis sfly of bern hiche rom barringe ande lande last gone drown thery gonevold dream the whishe of his the ande facrown theame waswit beed was quilligs las com offelvedrown dooness animajes quilled prfn th a maked ant inge a losess to Aber auch die Zweierkorrelationen sind noch nicht der Weisheit letzter Schluß. Wenn in einer deutschen Zeichenfolge die Sequenz ‘sc’ vorkommt, wird vermutlich ein ‘h’ folgen, und in dem Wort ‘Wur?el’ wird höchst wahrscheinlich das sonst sehr wenig wahrscheinliche ‘z’ (pz ≈ 0.014) fehlen. Das heißt aber, daß im allgemeinen neben den Zweier– auch Dreier–, gelegentlich Sechser– und unter Umständen sogar noch höhere Korrelationen berücksichtigt werden müssen. Zu einer Zeichenfolge von N Zeichen müssen wir also genau genommen die Wahrscheinlichkeiten p{iN } sämtlicher Sequenzen {iN } ≡ (zi1 , zi2 , . . . , ziN ) bestimmen und ihr die Shannon–Entropie ΣN = − X {iN } p{iN } log2 p{iN } (54) zuordnen. Wegen der ungeheuren Zahl möglicher Zeichenketten wird das aber im allgemeinen kaum möglich sein, und man wird sich mit Näherungen begnügen müssen, in denen alle Korrelationen ab der Ordnung k vernachlässigt sind. Gl. (53) repräsentiert in dem Sinne die Näherung, die man erhält, wenn man bereits die Korrelationen der Ordnung k = 2 (also alle Korrelationen) vernachlässigt. 29 3.2 Die physikalische Entropie Das Reizwort “Entropie” ist gefallen und macht uns neugierig, was denn wohl die Thermodynamik mit der Informatik zu tun hat. Ein makroskopisches System der Thermodynamik (bzw. Statistik) ist ein komplexes Vielteilchensystem, das eine ungeheuer große Anzahl verschiedener mikroskopischer Zustände (i) einnehmen kann, die mit der makroskopischen Festlegung weniger Parameter (p, V , T , . . . ) oder auch der Vorgabe der Verteilungsfunktion verträglich sind. Hat der i–te Mikrozustand dabei die Wahrscheinlichkeit pi , so ist Σ=− X pi log2 pi i die Informationsentropie oder das Shannonsche Maß für die Unbestimmtheit des Makrozustands: Diese Entropie ist nichts anderes als die Zahl der bits, die im Mittel benötigt wird, um anzugeben, durch welchen der vielen Mikrozustände der eine betrachtete Makrozustand gerade realisiert wird. Die “Nachricht” über den betrachteten Zustand eines idealen Gases könnte also etwa so aussehen: • Makrozustand: N = 6 · 1023 V = 0.027 m3 T = 300 K . • Mikrozustand: (Teilchennummer, x,y,z,vx ,vy ,vz in m bzw. in m/s): – 1, 0.271459, 0.142877, 0.093945, -327.753, 108.693, -197.782 – 2, 0.176783, 0.264834, 0.112216, 156.658, -217.983, 403.334 .. . (1014 Bibliotheken) .. . – 6 · 1023 , 0.135791, 0.246802, 0.257913, -398.765, 0, 123.456 . Die Informationsentropie Σ, also die Zahl der bits in den 1014 Bibliotheken, ist natürlich unbequem groß. Es ist daher praktisch, Σ mit einer kleinen Zahl c, etwa c = k ln 2 (k = Boltzmannkonstante) zu multiplizieren und die physikalische Entropie eines Makrozustands durch die Shannonformel S = k ln2 Σ = −k X pi ln pi (55) i zu definieren10 . Die Summe läuft dabei über die ungeheure(!) Anzahl sämtlicher Mikrozustände des gesamten Vielteilchensystems. 10 Mit dieser Definition sind wir nicht auf das Gleichgewicht beschränkt. Die Shannonformel gibt uns vielmehr die Möglichkeit, S auch außerhalb der reversiblen Thermodynamik eindeutig zu definieren! 30 Was hat die so definierte physikalische Shannonentropie nun mit der Entropie zu tun, die wir in der Thermodynamik kennengelernt haben? Wir wollen diese Frage zunächst an unserem Standard–Versuchsmodell, dem idealen Gas, untersuchen. 3.3 Ideales Gas und µ–Raum–Statistik Das ideale Gas bestehe aus N unkorrelierten Teilchen. Wie bei der Nachricht mit unkorrelierten Zeichen [vgl. Gl. (53)] können wir die Shannonentropie daher nach dem Muster S = N s mit s = −k X pi ln pi i bilden, wobei sich die pi im Gegensatz zu Gl. (55) nun nur auf die Zustände eines Teilchens im µ–Raum (6 Koordinaten r und v) beziehen. Dabei bietet es sich an, durch die Interpretation pi → f (r, v, t) d3 rd3 v N von der Summe zum Integral über zu gehen, also S = −k Z f ln pi d3 rd3 v zu definieren. Hierbei stehen wir allerdings vor einem kleinen Problem: Während die Ersetzung pi → f d3 rd3 v/N die Summe problemlos in das Integral überführt, müssen wir uns bei der Festlegung von pi im Logarithmus fragen, welche Mikrozustände wir überhaupt unterscheiden wollen. Im Augenblick begnügen wir uns damit, das Phasenvolumen in typische “Zellen” der Größe ∆µ zu zerlegen und setzen pi ∼ ∆µ f (r, v, t) . N Damit erhalten wir S = −k Z f ln ∆µ f d3 rd3 v = kH + const , N (56) wobei H (eigentlich griech. “H” = groß “Eta” für “Entropie”) das Boltzmannsche Funktional H=− Z f ln f d3 rd3 v 31 (57) bezeichnet. Mit den Gln. (56) bzw. (57) haben wir die Entropie für beliebige Verteilungsfunktionen unahängig vom Gleichgewicht definiert. Was soll das Gleichgewicht auszeichnen? In der Thermodynamik hatten wir das Gleichgewicht bei vorgegebenen U , V und N durch eine maximale Entropie charakterisiert. Fragen wir uns also, für welches f die Funtion H maximal wird und bilden die Variation δH = − Z (1 + ln f )δf d3 rd3 v . Wenn wir dabei über ein festes Volumen V integrieren, müssen wir noch die beiden Nebenbedingungen δN = Z δU = m 2 δf d3 rd3 v = 0 und Z v 2 δf d3 rd3 v = 0 berücksichtigen. Mit zwei Lagrangeparametern α und β erhalten wir also δH = − Z [ln f + α + βv 2 ] δf d3 rd3 v . Da nun δf frei gewählt werden kann, folgt als Bedingung für ein maximales H, daß die Klammer [ ] verschwinden muß oder f = exp(−α − βv 2 ) . Im Einklang mit der völlig verschiedenen Argumentation im Abschnitt 1.3 finden wir als Gleichgewichtsbedingung also wieder die Maxwellverteilung. Mit den alten Bezeichnungen setzen wir deshalb m 2πkT 3/2 2πkT V ln + ln N m !3/2 f (v) = N V mv 2 e− 2kT in Gl. (57) ein und erhalten H = Z V 2πkT = N ln + N ln N m 2πkT V = N ln + ln N m 32 mv 2 + f d3 rd3 v 2kT !3/2 !3/2 + N mhv 2 i kT 2 3 + . 2 Für die Gleichgewichtsentropie folgt also aus Gl. (56) 3 V ln T + ln + σ0 S = Nk 2 N 2πk mit σ0 = ln m !3/2 + ln (58) N 3 + . ∆µ 2 Erfreuen wir uns zunächst an dem schönen Erfolg, den wir hiermit erzielt haben: Gl. (58) stimmt nämlich in der Form genau mit Gl. (45) überein. Unsere Informationsentropie ist also für das ideale Gas im Gleichgewicht identisch mit der thermodynamischen Entropie. Unsere Rechnung hat weiter gezeigt, daß die Entropie der Gleichgewichtsverteilung maximal wird. Gl. (58) liefert uns schließlich sogar die Konstante σ0 , die wir mit den Mitteln der Thermodynamik nicht festlegen konnten. Gerade hierin zeigen sich aber noch zwei gravierende Mängel: σ0 hängt nämlich erstens von der willkürlichen Zellgröße ∆µ und zweitens — was eindeutig falsch ist! — von der Teilchenzahl N ab. Bezüglich des ersten Mangels könnten wir die Wahl von ∆µ an unsere Meßgenauigkeit anpassen. Damit erhielte die Entropie aber einen “subjektiven” Beitrag, der vom Beobachter abhängt und das Geschick des Experimentators, und nicht das System beschreibt. Diese Überlegung ruft natürlich Erinnerungen wach, und wir denken daran, daß es auch eine objektive, prinzipielle Begrenzung der Meßgenauigkeit bei der Festlegung der µ–Raum–Koordinaten gibt: Aus der Heisenbergschen Unschärferelation ∆x∆px = m∆x∆vx ≥ h bietet es sich zwanglos an, ∆µ = h3 /m3 als universelle Zellgröße zu wählen. Etwas überraschend ist allerdings, daß die quantenmechanische Konstante h nun in die Formel für die Entropie des klassischen idealen Gases eingeht. Die Quantenmechanik steckt auch hinter dem zweiten Mangel: Entgegen unserer Rechnung darf σ0 nicht von N abhängen, da S extensiv sein soll. Unser Fehler beruht darauf, daß wir falsch “gezählt” haben. Wir haben die Entropie des N –Teilchen– Systems nämlich nach dem selben Schema wie die Entropie einer Nachricht aus N Zeichen gebildet. Die Information der Nachricht hängt natürlich von der Reihenfolge der Zeichen ab; der physikalische Mikrozustand unseres idealen Gases ändert sich aber nicht, wenn wir Teilchen vertauschen. Die Quantenmechanik sagt uns nämlich, 33 daß identische Teilchen prinzipiell ununterscheidbar sind. Darum erhalten wir keinen neuen Mikrozustand, wenn wir zwei Teilchen vertauschen oder wenn wir sämtliche Teilchen irgendwie permutieren. Die Zahl der Mikrozustände ist daher um den Faktor N ! kleiner als wir angenommen haben, und darum brauchen wir log2 N ! weniger bits, um anzugeben, durch welchen Mikrozustand der betrachtete Makrozustand gerade realisiert wird. Oder anders ausgedrückt: Unsere Unkenntnis über den Systemzustand, die nach der Festlegung der makroskopischen Parameter bleibt, ist um log2 N ! bits kleiner als in der Rechnung angesetzt. Den Ansatz S = N s für die Entropie des idealen Gases müssen wir also durch den “korrigierten” Ansatz S = N s − k ln N ! (59) ersetzen. Mit der Stirlingformel11 ln N ! → N (ln N − 1) (N → ∞) folgt schließlich die universelle Konstante 2πmk σ0 = ln h2 !3/2 + 5 . 2 Setzen wir diese Konstante in Gl. (58) ein, erhalten wir die Sackur–Tetrode– Formel V S = N k ln N 2πmkT h2 !3/2 e 5/2 e5/2 = N k ln nλ3T " # (60) für die Entropie des einatomigen12 idealen Gases. Dabei bezeichnet n die Dichte und λT = √ h 2πmkT (61) die “thermische de Broglie–Wellenlänge”. Haben wir mit der Festlegung ∆µ = h3 /m3 und der “korrigierten Boltzmannabzählung” (Faktor 1/N !) nun endlich die Quantenmechanik gebührend berücksichtigt? RN P ln N ! = N ln n ≈ 0 ln x dx = (x ln x − x)|N Formel mit 0 = N ln N − N . (Eine verbesserte n=1 √ R ∞ N −x der Korrektur ln 2πN erhält man mit der Sattelpunktsmethode aus N ! = 0 x e dx.) 12 Bei mehratomigen Gasen gibt Gl. (60) den Translationsanteil und muß durch die Beiträge der Rotation und ggf. Vibration ergänzt werden. 11 34 Leider nein! Denn Gl. (60) divergiert weiterhin für T → 0 und verletzt den dritten Hauptsatz. Es sieht also so aus, als müssten wir von der unkorrelierten µ–Raum– Statistik Abschied nehmen und die Grundgleichung (55) unter Berücksichtigung von Korrelationen auswerten. Das wird sicherlich ohnehin nötig sein, wenn wir die gegenseitige Wechselwirkung der Teilchen berücksichtigen wollen. Woher kommt aber eine Korrelation beim idealen Quantengas? 3.4 Die statistischen Gesamtheiten Im vorigen Abschnitt konnten wir aus der Bedingung, daß S maximal werden sollte, die korrelationsfreie µ–Raum–Verteilung fM bestimmen. Nun soll die Korrelation — zumindest im Prinzip — berücksichtigt werden. Wir werden daher von Gl. (55) ausgehen und versuchen, die Wahrscheinlichkeiten pi aller Mikrozustände des Systems so zu bestimmen, daß die Entropie maximal wird. Den betrachteten Makrozustand berücksichtigen wir durch Nebenbedingungen. Wir unterscheiden dabei die folgenden Möglichkeiten: 1. Wir realisieren die Repräsentation des gewünschten Makrozustands, indem wir sogleich adaptierte Mikrozustände auswählen. Beispielsweise können wir die Energie U vorschreiben und dann ausschließlich Mikrozustände der gleicher Energie Ei = U betrachten. Wir sagen dann, daß die einzelnen Mikrozustände einer Mikro–Nebenbedingung genügen. 2. Wir realisieren den gewünschten Makrozustand, indem wir die Mittelwerte bestimmter Parameter vorschreiben. Im obigen Beispiel würden wir also lediglich hEi i = U verlangen. In solchen Fällen sagen wir, daß die Gesamtheit der Mikrozustände eine Makro–Nebenbedingung erfüllt. Offenbar beziehen sich Mikro–Nebenbedingungen auf extensive Größen, die sich für jeden Mikrozustand definieren lassen (z. B. die Energie Ei = U ). Durch die entsprechende Makro–Nebenbedingung wird dagegen die konjugierte intensive Größe (z. B. hEi i → T ) festgelegt. (Wir werden das noch im Detail sehen.) Natürlich können für verschiedene Größen Mikro– und Makro–Nebenbedingungen parallel benutzt werden. Dabei wollen wir wie folgt vorgehen: 1. Wir berücksichtigen alle Mikrozustände (i), die mit den Mikro–Nebenbedingungen verträglich sind. Mit dieser Auswahl sind die Mikro–Nebenbedingungen bereits erfüllt, sie gehen also nicht weiter in die Rechnung ein. 2. Wir variieren die Wahrscheinlichkeiten pi und bestimmen pi so, daß die Variation δS verschwindet. Bei der Variation berücksichtigen wir die Makro– Nebenbedingungen durch Lagrangeparameter. 35 Wir werden sehen, daß die Lagrangeparameter im wesentlichen die oben erwähnten intensiven Größen repräsentieren. Mit der Wahl der Mikro– bzw. Makro–Nebenbedingungen legen wir also bereits den verwendeten Variablensatz fest. Der Anschluß an die Thermodynamik erfolgt dann, indem wir aus der Entropie das zu diesem Variablensatz passende thermodynamische Potential berechnen. Bevor wir dies konkret durchführen und diskutieren, wollen wir die formale Variationsrechnung abhandeln. Diese ist im wesentlichen identisch mit der Berechnung der Maxwellverteilung im vorigen Abschnitt. Aus der allgemeinen Formel (55) X S = −k pi ln pi i für die Entropie bilden wir die Variation δS = −k X (ln pi + 1)δpi . (62) i Eine Nebenbedingung (mathematischer Natur) haben wir immer zu erfüllen: Die Normierung der pi , also g= X i pi − 1 = 0 oder X δg = δpi = 0 . (63) i Die (physikalischen) Makro–Nebenbedingungen schreiben wir in der Form hxν i = Xν oder fν = X i pi xνi − Xν = 0 , ν = 1, 2, . . . . Bei der Variation muß also δfν = X xνi δpi = 0 (64) i beachtet werden. Wir berücksichtigen (63) nun durch einen Lagrangeparameter −kα und (64) durch Lagrangeparameter −kβν und setzen dies in Gl. (62) ein: X [ln pi + α + β1 x1i + β2 x2i + . . .]δpi = 0 . i Da die pi nun frei variiert werden dürfen, müssen alle Klammern [ ] einzeln verschwinden, es gilt also 36 ln pi = −α − β1 x1i − β2 x2i − . . . oder pi = e−α e−β1 x1i −β2 x2i −... . Aus der Normierung P pi = 1 folgt weiter, daß eα oder die Zustandssumme durch Z = eα = X e−β1 x1i −β2 x2i −... (65) i gegeben ist. Damit haben wir schließlich pi = 1 −β1 x1i −β2 x2i −... e . Z (66) Die durch Makro–Nebenbedingungen kontrollierten extensiven Größen (x1i , x2i usw.) sind in der Gleichgewichtsverteilung also durch unabhängige Exponentialverteilungen der Mikrozustände repräsentiert. Der Boltzmannfaktor stellt nur einen Spezialfall dieser allgemeinen Aussage dar, und wir sehen, wie die statistische Unabhängigkeit generell mit der maximalen Entropie zusammmenhängt. Aus den Gleichungen (55) und (66) folgt für die Entropie S = −k X pi ln pi = k pi (ln Z + β1 x1i + β2 x2i + . . .) . i i Berücksichtigen wir noch X P pi = 1 und P pi xνi = Xν , so erhalten wir schließlich S = k [ln Z + β1 X1 + β2 X2 + . . .] . (67) Hier zeigt sich nun auch, daß die βν tatsächlich intensive Zustandsgrößen repräsentieren. Es handelt sich nämlich um Parameter, welche durch Makro–Nebenbedingungen definierte Systemeigenschaften charakterisieren. Und da sowohl S als auch die Xν extensiv sind, müssen die βν intensiv sein. In den Gln. (65), (66) und (67) ist das gesamte Grundgerüst der Statistik in komprimierter Form zusammengefaßt. Wir beenden damit die allgemeine Darstellung und wenden uns den drei gebräuchlichsten speziellen “Gesamtheiten” zu: Der mikrokanonischen, der kanonischen und der groß– oder makrokanonischen Gesamtheit. 37 3.5 Die mikrokanonische Gesamtheit (M) Für die mikrokanonische Gesamtheit spezifizieren wir • die Energie U , das Volumen V und die Teilchenzahl N durch Mikro–Nebenbedingungen und stellen keine Makro–Nebenbedingungen. Damit beschreibt die Zustandssumme ZM = X 1=W (68) i nichts anderes als die Zahl aller Mikrozustände zu einem Makrozustand, der durch die extensiven Variablen U , V und N charakterisiert ist. Man erhält also die mikrokanonische Zustandssumme W , indem man alle mikroskopischen Realisierungsmöglichkeiten des Makrozustands (U, V, N ) “abzählt”. Diese auf Boltzmann zurückgehende Statistik wird daher auch Abzählmethode genannt. Boltzmann selbst bezeichnete W als “thermodynamische Wahrscheinlichkeit” des Makrozustandes13 . Diese Bezeichnung ist etwas unglücklich und irreführend, die Zahl W der Mikrozustände repräsentiert präziser den Grad der mikroskopischen Unbestimmtheit eines durch U , V und N festgelegten Makrozustands. Eine “echte” Wahrscheinlichkeit ist nur die Wahrscheinlichkeit pi = 1 W (69) der Mikrozustände zu gegebenem U , V und N . Alle Mikrozustände in M sind also gleichwahrscheinlich14 . Als quantitatives Shannon–Maß der Unbestimmtheit erhält man Boltzmanns berühmte Formel S(U, V, N ) = k ln W (U, V, N ) (70) für die Entropie. Die Zustandsgrößen T , p und µ folgen daraus durch Differentiation, wenn man mit dem ersten Hauptsatz in der Form dS = p µ 1 dU + dV − dN T T T vergleicht: 13 Ein Makrozustand mit vielen Realisierungsmöglichkeiten wird also als wahrscheinlich angesehen. 14 Dieses mit der Ergodenhypothese verwandte Postulat tritt hier also scheinbar (!) als Resultat einer beweiskräftigen Rechnung auf. 38 1 ∂ S(U, V, N ) = ∂U T ∂ p S(U, V, N ) = ∂V T ∂ µ S(U, V, N ) = − . ∂N T 3.6 (71) Die kanonische Gesamtheit (K) In der kanonischen Gesamtheit geben wir weiterhin • das Volumen V und die Teilchenzahl N durch Mikro–Nebenbedingungen vor. Statt eines energetisch abgeschlossenen Systems mit fest vorgegebener Energie U interessieren wir uns nun aber für ein System im Wärmebad, das mit seiner Umgebung Energie austauschen kann. Dieses System werden wir also durch die Temperatur (s. u.) oder durch die mittlere Energie charakterisieren. Neben den beiden Mikro–Nebenbedingungen benutzen wir die Makro–Nebenbedingung hEi = U . (72) Dem entsprechen gemäß (65) und (66) die Zustandssumme Z(K) = X e−βEi (73) i und die Wahrscheinlichkeiten pi = e−βEi . Z(K) (74) Den Index (K) haben wir in Klammern gesetzt, da man unter dem Begriff “Zustandssumme” ohne nähere Kennzeichnung immer die kanonische Zustandssumme versteht. In der exponentiellen Energieverteilung der Mikrozustände der kanonischen Gesamtheit erkennen wir sofort den Bolzmannfaktor. Nach Gl. (67) gehört zur kanonischen Gesamtheit die Entropie S = k ln Z + kβU . 39 (75) Vom Lagrangeparameter β erwarten wir, daß er eine intensive Größe, welche die mittlere Energie charakterisiert, also die Temperatur T , repräsentiert. Den vermuteten Zusammenhang erhalten wir explizit aus [vgl. Gl. (71)] ∂S ∂U ! = kβ = V,N 1 , T also β= 1 . kT (76) Damit folgt aus Gl. (75) T S = kT ln Z + U oder F (T, V, N ) = U − T S = −kT ln Z . (77) Mit Z kennen wir also die freie Energie F als Funktion ihrer natürlichen Variablen T , V und N . Daraus lassen sich alle Zustandsgrößen durch Differentiation gewinnen, insbesondere folgt aus p(T, V, N ) = ∂F ∂V ! T,N = −kT ∂ ln Z ∂V (78) die thermische Zustandsgleichung. Für die innere Energie U (T, V, N ) (kalorische Zustandsgleichung) erhalten wir aus U = F + TS = F − T ∂F ∂T und Gl. (77) oder direkt aus U = hEi = X pi Ei = 1X Ei e−βEi Z [vgl. Gln. (72)–(74)] die nützliche Formel U (T, V, N ) = − ∂ 1 ∂Z =− ln Z. Z ∂β ∂β 40 (79) 3.7 Die großkanonische Gesamtheit (G) Wir betrachten nun ein offenes System, bei dem nur noch • das Volumen V durch eine Mikro–Nebenbedingung festgelegt ist. Außer der Energie U = hEi (80) N̄ = hN i (81) wird nun also auch die Teilchenzahl nur noch im Mittel durch eine Makro–Nebenbedingung vorgegeben. Aus den Gleichungen (65) und (66) lesen wir dazu die Zustandssumme ZG = e−βEi −γNi (82) 1 −βEi −γNi e ZG (83) X i und die Wahrscheinlichkeiten pi = ab. Aus der Entropie [vgl. Gl. (67)] S = k ln ZG + kβU + kγ N̄ (84) folgt wie bei der kanonischen Gesamtheit ∂S 1 = = kβ ∂U T oder β= 1 . kT Entsprechend erhalten wir 41 (85) µ ∂S = − = kγ ∂ N̄ T oder γ=− µ . kT (86) Der zweite Lagrangeparameter γ repräsentiert also das chemische Potential µ, also die zur Teilchenzahl N̄ konjugierte intensive Zustandsvariable. Damit können wir Gl. (84) in der Form −kT ln ZG = U − T S − µN̄ = F − µN̄ schreiben. Ein Vergleich mit Gl. (43) zeigt, daß ZG das thermodynamische Potential J(T, V, µ) = −pV = −kT ln ZG (87) als Funktion seiner natürlichen Variablen bestimmt. Die übrigen Zustandsgrößen lassen sich ohne Schwierigkeit aus dem Differential [vgl. Gl. (44)] dJ = −SdT − pdV − µdN̄ und/oder aus den Gln. (82)–(86) ablesen. So gilt analog zu der kanonischen Rechnung p(T, V, µ) = −kT ∂ ln ZG , ∂V (88) (89) und 1 ∂ZG U (T, V, µ) = − . ZG ∂β γ=−βµ Bei der letzten Differention ist allerdings zu beachten, daß µ/kT konstant gehalten werden muß. Generell sind die großkanonischen Beziehungen etwas weniger anschaulich als die kanonischen, da die Teilchenzahl durch das chemische Potential ersetzt ist. Den Zusammenhang mit der Teilchenzahl erhält man durch 1 ∂ZG N̄ = − ZG ∂γ β 42 (90) 3.8 Die Äquivalenz der Gesamtheiten Wir rufen uns die drei Gesamtheiten, die durch das Attribut “kanonisch” als besonders bedeutsam gekennzeichnet sind, noch einmal durch eine Tabelle vor Augen: U • 1 β = kT 1 β = kT Mikrokanonische Gesamtheit (M) Kanonische Gesamtheit (K) Großkanonische Gesamtheit (G) V • • • N • • µ γ = − kT Dabei haben wir Mikro–Nebenbedingungen durch das Zeichen • und Makro–Nebenbedingungen durch den zugeordneten Lagrangeparameter gekennzeichnet. Entsprechend der verschiedenen Spezifikation müßten wir die Indices M, K bzw. G eigentlich auch benutzen, um die entsprechenden Entropien und die übrigen Zustandsgrößen zu unterscheiden. Wir tun das nicht, weil alle (nicht nur die drei oben spezifizierten) Gesamtheiten im “thermodynamischen Limes” großer Teilchenzahlen äquivalent sind. Wir wollen dies exemplarisch für die mikrokanonische Gesamtheit M und die kanonische Gesamtheit K nachweisen. Dazu müssen wir zeigen, daß im Limes N → ∞ “fast alle” in K erfaßten Mikrozustände (i) zur selben Energie Ei = U gehören, daß das Ensemble also kaum eine Streuung zeigt. Das erscheint zunächst überraschend, da die kanonischen Wahrscheinlichkeiten pi = 1 −βEi e Z zunächst scheinbar implizieren, daß niedrige Energien in K besonders zahlreich vertreten sind. Dieser naheliegende Schluß ist jedoch falsch, da die Zahl W (E) der Mikrozustände mit Ei = E ungeheuer steil mit E anwächst. p̃(E) = W (E) e−βE Z hat daher ein scharfes Maximum, das nach Konstruktion bei E = U liegt. Zum formalen Beweis notieren wir zunächst noch einmal den Mittelwert U = hEi = 1X 1 ∂Z Ei e−βEi = − Z i Z ∂β und fragen nach der Streuung um diesen Wert. Dazu berechnen wir nach dem selben Muster 43 hE 2 i = 1 ∂ 1 ∂ X 1 X 2 −βEi ( Ei e−βEi ) = − (ZU ) Ei e =− Z i Z ∂β i Z ∂β = −U ∂U ∂U 1 ∂Z − = U2 − Z ∂β ∂β ∂β oder hE 2 i − U 2 = − ∂U . ∂β (91) Nun sind U und E proportional zur Teilchenzahl N . Damit geht die relative Enegieschwankung ∆E = U q hE 2 i − U 2 U 1 = U s − ∂U ∂β (92) √ für N → ∞ wie 1/ N gegen Null15 . Wir können uns von diesem allgemeinen Schluß im speziellen Fall des idealen Gases explizit überzeugen. Dann haben wir nämlich 3N 3 U = N kT = 2 2β und − ∂U U = = U kT ∂β β s 2 . 3N und erhalten ∆E = U s kT = U Die selben Rechenschritte lassen sich auf jede beliebige Makro–Nebenbedingung übertragen. So erhält man beispielsweise die Formel hNi2 i − N̄ 2 = − ∂ N̄ ∂γ (93) für die Dichteschwankungen der großkanonischen Gesamtheit, und allgemein folgt aus einer Makro–Nebenbedingung hxν i = Xν 15 Man beachte außerdem, daß ∂U/∂T im Gleichgewicht notwendigerweise positiv ist. 44 die Streuung ∂Xν . (94) ∂βν √ Alle relativen Schwankungen gehen also mit 1/ N gegen Null — vorausgesetzt, die partiellen Ableitungen ∂Xν /∂βν zeigen keine Singularitäten. Solche Singularitäten können aber tatsächlich auftreten und kennzeichnen Phasenübergänge. hx2ν i − Xν2 = − Wenn etwa eine Flüssigkeit am Siedepunkt verdampft, ändert sich ihre Teilchenzahl N (bezogen auf das feste Volumen V ), nicht aber das chemische Potential µ und die Temperatur T . Also gilt hier ∂N/∂γ = ∞. Die großkanonische Gesamtheit zeigt dann also große Dichteschwankungen. Diese Dichteschwankungen weisen aber nicht auf einen Mangel der Theorie, sondern auf eine physikalische Mehrdeutigkeit des Gleichgewichtszustandes: Wir können nicht eindeutig sagen, welche Dichte Wasser bei p = 1.013 · 105 Pa und T = 373.2 K hat. Die großen Dichteschwankungen lassen sich anschaulich als Tröpfchenbildung im Dampf oder Blasenbildung in der Flüssigkeit interpretieren. 3.9 Klassische Γ–Raum–Statistik Um den abstrakten Formalismus zumindest ein wenig mit Anschauung zu begleiten, greifen wir nun explizit auf die Vorstellungen der klassischen Mechanik zurück. Dann sind Mikrozustände eines N –Teilchen–Systems durch die Angabe sämtlicher Orts– und Impulskoordinaten r 1 , . . . , r N , p1 , . . . , pN (95) aller Teilchen gekennzeichnet. Der durch die Koordinaten (95) aufgespannte 6N – dimensionale Phasenraum wird Γ–Raum genannt. Er ist unbedingt vom 6–dimensionalen µ–Raum der Koordinaten (r, p) eines Teilchens zu unterscheiden. Ein Mikrozustand enspricht also genau einem Punkt im Γ–Raum: Γ Mikrozustand p x x 45 Ein Makrozustand wird dagegen durch sämtliche Mikrozustände, die mit der makroskopischen Charakterisierung des Systems verträglich sind, repräsentiert. Dem Makrozustand entspricht daher ein Ensemble von Punkten im Γ–Raum: Γ Makrozustand, Ensemble p . . .. . .. .... ..... .. .... ... . . ........................ . . .. ... . . . x Nun können die Koordinaten des Γ–Raums kontinuierliche Werte annehmen. Wir werden daher von den Wahrscheinlichkeiten pi der Mikrozustände zu einer Wahrscheinlichkeitsdichte pi −→ %(r1 , . . . , rN , p1 , . . . , pN )d3 r1 . . . d3 rN d3 p1 . . . d3 pN (96) von Punkten im Γ–Raum übergehen und Summen durch Integrale ersetzen. Von den analogen Überlegungen im µ–Raum (Abschnitt 3.3) wissen wir, daß wir trotz der klassischen Rechnung auf eine Zerlegung des Phasenraums in Zellen der Größe h3N zurückgreifen müssen, die dem quantenmechanischen Unschärfeprodukt Rechnung trägt. Wir drücken das symbolisch durch die Ersetzungsvorschrift X i −→ 1 h3N Z 1 d r1 . . . d rN d p1 . . . d pN = 3N h 3 3 3 3 Z dωΓ (97) aus. Bei fester Teilchenzahl und vorgegebenem Volumen umfaßt die mikrokanonische Gesamtheit alle Systeme gleicher Energie H(r1 , . . . , rN , . . . , pN ) = U (98) und wird im Γ-Raum durch die Dichteverteilung %M N (r1 , . . . , rN , p1 , . . . , pN ) = 46 δ(H − U ) Ω(U ) (99) repräsentiert. Dabei ist Ω eine Normierungskonstante, die eng mit der mikrokanonischen Zustandssumme zusammenhängt. Das Bild H = U der mikrokanonischen Gesamtheit ist eine geschlossene Fläche im Γ-Raum p H(x,p)=U x Die mikrokanonische Gesamtheit bietet vielleicht von der Mechanik aus den unmittelbarsten Zugang zur Thermodynamik. Wegen der “starren” Beschränkung (Mikro– Nebenbedingung) (98) ist sie jedoch schwerfällig zu handhaben und führt zu umständlichen Rechnungen. Wir wollen daher die mikrokanonische Gesamtheit nicht weiter betrachten und wenden uns der kanonischen Gesamtheit oder dem Gibbsschen Ensemble [vgl. Gl. (74)] %N (r1 , . . . , rN , pN , . . . , pN ) = e−βH Z∗ (100) zu. Dabei ist [vgl. (76)] β= 1 kT (101) der zur Makro–Nebenbedingung 1 hHi = ∗ Z Z He−βH dωΓ = U (102) korrespondierende Lagrangeparameter. Der Vorteil der kanonischen Rechnung liegt auf der Hand: Wir müssen zwar weiterhin H(r1 , . . . , rN , pN , . . . , pN ) bestimmen und Integrale über exp(−βH) auswerten, ersparen uns aber die Auflösung von Gl. (98) nach den Γ–Raum–Koordinaten. 47 Die Normierungskonstante Z ∗ (β, V, N ) = Z e−βH dωΓ (103) ist natürlich im wesentlichen die Zustandssumme (73) und wird auch gelegentlich als “klassische” Zustandssumme bezeichnet. Ihren offensichtlichen Mangel, daß sie nicht dimensionslos ist, beseitigen wir durch die Vorschrift (97) und definieren die Zustandssumme ZNu = 1 Z∗ = h3N h3N Z e−βH dωΓ . (104) Dabei haben wir mit dem Index u angedeutet, daß wir die Teilchen in der klassischen Theorie als unterscheidbar betrachten. Wir haben jedoch im Abschnitt 3.3 überlegt, daß wir keinen neuen Zustand erhalten, wenn wir identische Teilchen vertauschen. Die Zahl der “wahren” Mikrozustände ist also bei N identischen Teilchen um einen Faktor N ! kleiner als in der klassischen Theorie berechnet. Darum müssen wir für nicht unterscheidbare Teilchen die Zustandssumme ZNn = Z∗ 1 = 3N 3N h N! h N! Z e−βH dωΓ (105) benutzen. ZNn wird auch als “halbklassische” Zustandssumme bezeichnet. Die großkanonische Gesamtheit können wir wegen der variablen Teilchenzahl nicht ohne weiteres durch eine Dichteverteilung im Γ-Raum charakterisieren. Wir können sie aber [vgl. Gln. (82) und (83)] gemäß %G = ZG = ∞ X N =1 ∞ X N =1 −γ ζ = e %N ζ N und ZN ζ N mit (106) µ = e kT aus kanonischen Gesamtheiten aufbauen. Die kanonischen Größen %N und ZN erscheinen dabei also formal als Koeffizienten einer Taylorreihe in der wenig anschaulichen Größe ζ, die auch “Fugazität” genannt wird. 48 4 4.1 Anwendungen Der Gleichverteilungs–Satz Wir gehen von der klassischen kanonischen Phasenraumdichte (100) 1 −βH e Z∗ %N = aus und bilden die Mittelwerte * ∂H ξν ∂ξν + = 1 Z∗ Z ξν ∂H −βH e dωΓ . ∂ξν Dabei bezeichne ξν irgendeine der 6N Orts– oder Impulskoordinaten des Γ–Raums. Wegen ∂ −βH ∂H −βH e = −β e ∂ξν ∂ξν und β = 1 kT gilt * ∂H ξν ∂ξν + −kT = Z∗ Z ξν ∂ −βH e dωΓ . ∂ξν Nun können wir partiell integrieren und erhalten * ∂H ξν ∂ξν + = kT . (107) Dieses allgemeine Ergebnis ist von besonderem Interesse für solche Koordinaten ξν , von denen die Hamiltonfunktion nur über einen additiven quadratischen Beitrag Hν = aν ξν2 (108) H = Hν + Ĥ(. . . /ξ ν . . .) . (109) abhängt: Solche Koordianten finden wir auf jeden Fall in den Impulsen pν (mit aν = mν /2); wir sprechen dabei auch von “Freiheitsgraden”. Wegen 49 ∂Hν Hν ∂H = = 2aν ξν = 2 ∂ξν ∂ξν ξν gilt hierfür also 1 ε̄ν = hHν i = kT , 2 (110) in Worten • Auf jeden Freiheitsgrad (also auf jede Koordinate, die einen additiven quadratischen Beitrag zur Hamiltonfunktion liefert) entfällt im Gleichgewicht die gleiche Energie kT /2. Dieser Satz wird als Gleichverteilungssatz oder Äquipartitionsgesetz bezeichnet. 4.2 Das klassische ideale Gas Wir behandeln noch einmal abschließend das klassische ideale Gas und gehen dazu von der kanonischen Zustandssumme (105) nicht unterscheidbarer Teilchen ZNn = 1 3N h N! Z e−βH dωΓ aus. Mit der wechselwirkungsfreien Hamiltonfunktion H= 3N X p2ν ν=1 2m erhält man sofort ZNn = VN h3N N ! Z ∞ −∞ e −βp2 2m dp 3N . Dabei ist die Ortsintegration durch den Faktor V N berücksichtigt. Mit Z ∞ −∞ e −αp2 dp = α −1/2 folgt 50 Z ∞ −∞ e −x2 dx = r π α ZNn VN = N! 2πm h2 β !3N/2 = VN , N !λ3N T (111) wobei h2 β 2πm λT = !1/2 =√ h 2πmkT wieder die thermische de Broglie–Wellenlänge (61) bezeichnet. Mit der Stirlingformel [vgl. die Rechnung nach (59)] ln N ! ≈ N (ln N − 1) ergibt sich daraus gemäß (77) die freie Energie F (T, V, N ) = −kT ln ZNn N = N kT ln + 3 ln λT − 1 V (112) als Funktion ihrer natürlichen Variablen. Damit sind bereits alle Zustandsgrößen bestimmt. Insbesondere erhalten wir die Zustandsgleichung p=− ∂F N kT = . ∂V V (113) Durch Ableitung nach T läßt sich die Entropie S und damit weiter die innere Energie U bestimmen. Noch bequemer finden wir U über die Formel (79) direkt aus (111): U =− 3N 3 1 ∂ZNn = = N kT . n ZN ∂β 2β 2 (114) Dieses Ergebnis bestätigt den Gleichverteilungssatz: Jede der 3N Impulskoordinaten liefert einen additiven quadratischen Beitrag zur Hamiltonfunktion und damit einen Beitrag kT /2 zur inneren Energie. Aus den Gln. (112) und (114) (oder gemäß S = −∂F/∂T ) können wir auch sofort die Entropie des idealen Gases berechnen: U −F V 5 S= = N k ln − 3 ln λT + T N 2 e5/2 S = N k ln nλ3T " 51 # . oder (115) Hierin erkennen wir die Sackur–Tetrode–Formel (60) und würdigen den eleganten — wenn auch abstrakten — Zugang zur Thermodynamik, den uns die kanonische Gesamtheit ermöglicht. Alle bis hier durchgeführten Betrachtungen gelten für das einatomige ideale Gas, dessen Teilchen als Massenpunkte angesehen werden können. Bei mehratomigen Gasen müssen wir außerdem die Rotation der Moleküle berücksichtigen. Auch hierauf entfallen Freiheitsgrade, die additiv und quadratisch16 zur Hamiltonfunktion beitragen. Da jeder Freiheitsgrad der Moleküle den Beitrag N kT /2 zur inneren Energie leistet, können wir (114) durch U= f N kT 2 (116) verallgemeinern. Dabei gilt — f = 3 für einatomige Gase — f = 5 für zweiatomige Gase und — f = 6 für drei- und mehratomige Gase. f entspricht der Zahl der Freiheitsgrade eines starren Körpers aus einem, zwei oder mindestens drei Massenpunkten. In diesen Freiheitsgraden sind zunächst die drei Freiheitsgrade der Translation enthalten. Beim drei- oder mehratomigen Gas kommen drei Freiheitsgrade der Rotation hinzu. Beim zweiatomigen Molekül fehlt ein Freiheitsgrad, der der Rotation die Verbindungslinie der beiden Atome entspricht. Da die Rotation der Moleküle nicht zum Druck beiträgt, bleibt die thermische Zustandsgleichung (113) unverändert. Das mehratomige ideale Gas ist also durch die beiden Gleichungen (113) und (116) charakterisiert. Daraus können wir auf rein thermodynamischem Wege [vgl. die Herleitung der Gln. (22) und (41)] die Entropieformel S = N kT ( f V ln T + ln + σ0 2 N ) (117) (ohne σ0 anzugeben) herleiten. Wir ziehen diesen Weg vor, da eine systematische Behandlung der Rotation schwierig ist16 . Wir haben die zusätzlichen Freiheitsgrade des mehratomigen Gases mit pauschalen Argumenten eingeführt. Warum kann aber ein Atom, das ja auch ein endliches (wenn auch sehr kleines) Trägheitsmoment besitzt, nicht rotieren? Unsere Theorie 16 Eine saubere Begründung ist nicht ganz einfach, da die Komponenten der Winkelgeschwindigkeit ω keine generalisierten Koordinaten oder Impulse sind. Vgl. Sommerfeld Bd. V S. 195 f. 52 ist offenbar noch nicht befriedigend. Ein weiteres Defizit müssen wir in der Annahme starrer Moleküle sehen: Können die mehratomigen Moleküle nicht auch schwingen? Müssen wir also bei der Angabe von f nicht auch Vibrationsfreiheitsgrade berücksichtigen? Und schließlich sei an das weiterhin ungelöste Problem der Verletzung des dritten Hauptsatzes erinnert. Wir stoßen hier wieder auf Kelvinsche Wolken, deren Analyse wir im nächsten Abschnitt mit der vereinfachten Beschreibung eines Festkörpers vorbereiten wollen. 4.3 Der ideale Festkörper Wir definieren den idealen Festkörper als ein System unabhängiger ortsfester linearer Oszillatoren mit der Hamiltonfunktion 3N X H= ν=1 " p2ν mω 2 x2ν + 2m 2 # . (118) (Dabei sind wir uns bewußt, daß unser Festkörper durch diese Definition über idealisiert ist: Er ist auf der makroskopischen Skala völlig starr und erlaubt weder eine Ausbreitung von Schallwellen noch eine thermische Ausdehnung; vgl. die Schußbemerkungen dieses Abschnitts.) Durch die feste Anbindung an unterscheidbare Ruhelagen sind die Atome unseres Festkörpers unterscheidbar, und wir müssen von der Zustandssumme (104) 1 = 3N h ZNu Z e−βH dωΓ = z 3N (119) mit 1 z= h ausgehen. Mit R∞ −∞ 2 e−αx dx = Z∞ e β 2 − 2m p dp π α e− βmω 2 2 x 2 dx −∞ −∞ q Z∞ wird z= 2π kT = hβω h̄ω (120) !3N (121) oder ZNu = kT h̄ω = (βh̄ω)−3N . 53 Daraus erhalten wir die innere Energie [vgl. (79)] U =− 3N 1 ∂ZNu = = 3N kT u ZN ∂β β (122) in Übereinstimmung mit dem Gleichverteilungssatz: Die Hamiltonfunktion des Systems hängt quadratisch homogen von 3N Impuls– und 3N Lagekoordianten ab, und jeder dieser 6N Freiheitsgrade trägt mit kT /2 zur inneren Energie bei. Nach Gleichung (122) hat der ideale Festkörper eine konstante spezifische Wärme c= ∂U = 3N k . ∂T (123) Diese als Dulong–Petitsches Gesetz (1818) bekannte Gesetzmäßigkeit ist für viele Kristalle bei Zimmertemperatur recht gut erfüllt, gilt bei anderen (z. B. Diamant) aber erst bei hohen Temperaturen von mehr als tausend Grad und versagt immer bei niedrigen Temperaturen. Das zeigt sich auch an der Verletzung des dritten Hauptsatzes, der c → 0 f ür T → 0 verlangt. Der Grund läßt sich schon aus dem Parameter z aus Gl. (120) erahnen: z gibt das Verhältnis der mittleren thermischen Energie eines eindimensionalen harmonischen Oszillators (2 Freiheitsgrade =⇒ kT ) zur “Anregungsenergie” h̄ω an. Unser Fehler liegt offenbar darin, daß wir über alle p und x und damit über alle Schwingungsamplituden integriert haben, während die Quantenmechanik nur diskrete Anregungszustände kennt. Ist insbesondere kT < h̄ω, so reicht die mittlere thermische Energie nicht mehr aus, den Oszillator überhaupt anzuregen: Seine beiden Freiheitsgrade “frieren ein”. Die Schwingung trägt dann nicht mehr zur spezifischen Wärme bei und c geht gegen Null, wie der dritte Hauptsatz es verlangt. Zur analytischen Bestätigung dieser qualitativen Vorstellung gehen wir mit Einstein (1907) von der exakten Zustandssumme ZN = X e−βEi = e−β(εν1 +...+εν3N ) ν1 ,...,ν3N i = X " ∞ X ν=0 e −βεν #3N = σ 3N (124) unseres Modellsystems aus 3N ungekoppelten identischen Oszillatoren aus. Die “Ein– Oszillator–Zustandssumme” σ übernimmt dabei also die Rolle des Parameters z der klassischen Rechnung. Zu ihrer Berechnung notieren wir die Energieniveaus 54 1 εν = (ν + )h̄ω 2 (125) des harmonischen Oszillators und erhalten σ=e − 12 βh̄ω ∞ X 1 e −νβh̄ω ν=0 e− 2 βh̄ω . = 1 − e−βh̄ω (126) Speziell für hohe Temperaturen (βh̄ω 1) findet man in σ→ 1 − 12 βh̄ω 1 → =z 1 − 1 + βh̄ω βh̄ω die klassische Näherung wieder. Allgemein finden wir aus ZN = σ 3N und U = − 1 ∂ZN ZN ∂β die innere Energie U = −3N ∂ h̄ω h̄ωe−βh̄ω ln σ = 3N + 3N ∂β 2 1 − e−βh̄ω oder 1 1 U = 3N h̄ω + βh̄ω 2 e −1 (127) und " ∂U βh̄ω ∂U = −kβ 2 = 3N keβh̄ω βh̄ω c= ∂T ∂β e −1 #2 . (128) Die klassische Näherung finden wir wieder durch die Entwicklung in βh̄ω 1 (hohe Temperatur). In Übereinstimmung mit (122) und (123) erhalten wir U→ 3N h̄ω = 3N kT βh̄ω und c → 3N k . Dabei wird der Verlust aller Quanteneffekte deutlich durch den Wegfall der Konstanten h̄ herausgestellt. 55 Bei niedrigen Temperaturen (βh̄ω 1) kommt dagegen die Quantisierung voll ins Spiel. Wir erhalten U → 3N h̄ω 1 + e−βh̄ω 2 (129) und c → 3N (βh̄ω)2 e−βh̄ω . (130) Bis auf einen Rest, der exponentiell gegen Null geht, enthält U also nur noch die konstante Nullpunktsenergie (Unschärfe!) der Oszillatoren und c geht in Übereinstimmung mit dem dritten Hauptsatz (exponentiell) gegen Null. Dieses Ergebnis der Einsteinschen Theorie steht allerding quantitativ nicht ganz im Einklang mit der Erfahrung. Experimentell findet man nämlich, daß c für T → 0 annähernd wie T 3 gegen Null geht. Der experimentelle Befund wird von der Debyeschen Theorie des Festkörpers korrekt wiedergegeben. In dieser Theorie wird die oben angesprochene Überidealisierung des Festkörpermodells aufgegben und (pauschal) berücksichtigt, daß die Oszillatoren über das Gitter des Festkörpers gekoppelt sind. Die Statistik erstreckt sich dabei nicht mehr über unabhängige Oszillatoren sondern über alle möglichen Schwingungsmoden des Festkörpers. Spezifische Wärme c des Festkörpers nach Einstein [vgl. Gl. (128)] und Debye. Die charakteristisch Temperatur Tc = h̄ω/k repräsentiert bei Einstein die feste Oszillatorfrequenz ω. Im Debyeschen Modell bedeutet ω eine obere Grenzfrequenz, die sich aus der Schallgeschwindigkeit und der Gitterkonstantanten berechnet. Durch die Moden niedrigerer Frequenzen wird der Effekt des Einfrierens gemildert. 4.4 Eingefrorene Freiheitsgrade Gl. (126) ist auch geeignet, den Beitrag der Schwingungsfreiheitsgrade zur Zustandssumme mehratomiger Gase zu beschreiben17 . Für die meisten Gase liegt die “Vibra17 Bei symmetrischen Molekülen wie N2 und O2 gibt es allerdings noch Modifikationen durch die Austauschentartung. 56 tionstemperatur” Θvib = h̄ω k (131) allerdings weit oberhalb der Zimmertemperatur (z. B. 2279 K für O2 und 3380 K für N2 ), so daß die Schwingungsfreiheitsgrade eingefroren sind und nicht zur inneren Energie beitragen. Aus dem selben Grund trägt die Rotation nicht zur inneren Energie einatomiger Gase bei: Berücksichtigt man die Quantelung der Drehimpulse, so findet man, daß die Rotationsenergie εrot = h̄2 L2 = l(l + 1) 2I 2I erst oberhalb der “Rotationstemperatur” Θrot = h̄ 2kI (132) an der Äquipartition beteiligt ist. Dabei ist I das Trägheitsmoment des Moleküls. Für Atome liegt Θrot wegen des kleineren Trägheitsmoments oberhalb 100 000 K. Aber auch bei mehratomigen Gasen frieren die Rotationsfreiheitsgrade bei tiefen Temperaturen ein. Für das leichte H2 –Molekül liegt Θrot beispielsweise bei 80 K. Mit dem Einfrieren für T → 0 leisten die Vibrations– und Rotationsfreiheitsgrade also ihren Tribut an den 3. Hauptsatz. 4.5 Das Problem idealer Quantengase In den letzten beiden Abschnitten sind wir dem Verständnis von Quanteneffekten und ihrer Bedeutung für den 3. Hauptsatz ein gutes Stück näher gekommen. Nach wie vor stehen wir aber vor dem Problem der Divergenz der Entropie des idealen Gases [vgl. Gln. (115) und (117)] für T → 0. Dabei haben wir in unsere “halbklassische” Theorie bereits zwei Quanteneffekte eingearbeitet: 1. Mit der Einteilung des Phasenraums in “Zellen” der Größe h3N [vgl. Gl. (104)] haben wir die diskrete Natur der Quantenzustände berücksichtigt. 2. Mit der Division durch die Zahl N! aller Permutationen [vgl. Gl. (105)] haben wir der Ununterscheidbarkeit identischer Teilchen Rechnung getragen. 57 Was also haben wir noch falsch gemacht? Haben wir einen dritten Quanteneffekt vergessen? Nein, es fehlt kein dritter Quanteneffekt, und die beiden Quanteneffekte haben wir im Prinzip auch richtig erkannt. Unser Fehler liegt in der Kombination der beiden Quanteneffekte. Der Faktor N! beschreibt das Verhältnis der Zahl klassischer und quantenmechanischer Mikrozustände nämlich nur dann richtig, wenn jede Vertauschung klassisch tatsächlich zu einem anderen Mikrozustand führt. Und das stimmt nur, wenn wir Mikrozustände tatsächlich als Punkte im Γ–Raum betrachten. Es gilt nicht mehr für Mikrozustände, die endliche Phasenraumzellen repräsentieren. Um das einzusehen, brauchen wir nur zum Extrem zu gehen und den gesamten Phasenraum in eine einzige Zelle zu legen: Dann gibt es klassisch wie quantenmechanisch genau einen Mikrozustand und eine Teilchenvertauschung ändert gar nichts. Und mit genau diesem Extrem sind wir bei T = 0 konfrontiert. Um diesen Umstand genauer zu erfassen, nutzen wir aus, daß wir ideale Gase betrachten. Wegen der Wechselwirkungsfreiheit können wir den Effekt von Vertauschungen dann nämlich im viel leichter überschaubaren µ–Raum beschreiben. Ein klassischer Mikrozustand ist dann festgelegt, wenn wir allen Teilchen die Nummer einer µ–Raum–Zelle (Größe h3 ) oder eines (Ein-Teilchen–) Zustands zuordnen. Zelle (Zustand) .. . 3 2 1 0 Teilchen × × 1 2 × × 3 4 ... ... × ... ... N Offenbar ändern wir dieses Schema nicht, wenn wir zwei Teilchen vertauschen, die in der selben µ–Raum–Zelle liegen (im obigen Beispiel etwa die Teilchen 3 und 4). Innerhalb der N ! Permutationen sind also Untergruppen von N0 ! N1 ! . . . “blinden” Permutationen innerhalb der Zellen, die bei klassischer Zählung nicht zu anderen Mikrozuständen führen. Dabei bezeichnet Nν die Besetzungszahl der ν–ten Zelle (des ν–ten Zustandes). Bei festgehaltenem Besetzungsschema {Nν } = {N1 , N2 , . . .} müssen wir den “Korrekturfaktor” N ! darum durch die Permutabilität18 18 D. h. die Zahl der Möglichkeiten, N Teilchen auf die Zellen (0),(1), . . . zu verteilen. 58 N! N0 !N1 ! . . . (133) ersetzen. Kehren wir nun zum Γ-Raum zurück und sehen uns zunächst die klassische Zustandssumme ZNu = X e −β(εν1 +...+ενN ) = ν1 ,...,νN " X e −βεν ν #N = zN (134) unterscheidbarer Teilchen an, die in ein Produkt identischer Ein–Teilchen–Zustandssummen z= X mit xν = e−βεν xν ν separiert. Werten wir ZNu = z N mit dem Polynomialsatz aus, so erhalten wir ZNu = (x0 + x1 + . . .)N = = N! 0 N1 xN 0 x1 . . . N !N ! . . . 0 1 {Nν } X P N! e−β ν Nν εν , N0 !N1 ! . . . {Nν } X (135) wobei über alle Besetzungsschemata {Nν } = {N0 , N1 , . . .} unter der Mikro-Nebenbedingung X Nν = N (136) ν zu summieren ist. In Gl. (135) fällt uns die Permutabilität (133) sofort ins Auge und läßt sich wie folgt interpretieren: Jedem Besetzungsschema {Nν } entspricht eine Energie E{Nν } = X Nν εν , (137) ν und aus den Energiezuständen E{Nν } bilden wir die Zustandssumme ZN = X {Nν } g{Nν } e−βE{Nν } , (138) wobei g{Nν } die “Multiplizität” des Zustands {Nν } bezeichnet. Gl. (135) sagt dann, daß die Zustände {Nν } unterscheidbarer Teilchen die Multiplizität 59 u g{N = ν} N! N0 !N1 ! . . . (139) besitzen. Diese Multiplizität ist nichts anderes als die Zahl verschiedener Mikrozustände, die zum gleichen Besetzungsschema gehören. Und nun ist der Übergang zur Quantenstatistik ganz einfach: Identische Teilchen sind grundsätzlich nicht unterscheidbar und Teilchenvertauschungen führen nicht zu verschiedenen Mikrozuständen. Der Mikrozustand ist also bereits durch das Besetzungsschema {Nν } eindeutig festgelegt. Für nicht unterscheidbare Teilchen müssen wir Gl. (139) also durch n g{N =1 ν} (140) ersetzen und finden damit den Korrekturfaktor (133) bestätigt. Statt (135) erhalten wir nun die Zustandssumme ZNn = X 0 N1 xN 0 x1 . . . = {Nν } X {Nν } e−β P ν Nν ε ν . (141) Diese Zustandssumme erscheint auf den ersten Blick sogar einfacher als die klassische Zustandssumme (135). Dieser erste Blick täuscht aber gewaltig: ZNn ist nicht mehr in Ein–Teilchen–Zustandssummen separierbar, und damit wird es schwierig, die Mikro– Nebenbedingung (136) zu gewährleisten. Bevor wir dieses Problem im nächsten Abschnitt lösen, wollen wir uns noch einmal mit dem “klassischen Grenzfall” befassen. Wir erwarten ja doch (ja, wir müssen es verlangen!), daß die Quantenstatistik unter “normalen” Bedingungen (hinreichend hohe Temperaturen bei hinreichend niedrigen Dichten) die Ergebnisse der klassischen Statistik mit korrigierter Boltzmannabzählung (Faktor N !) bestätigt. Der unterschiedliche Faktor N0 !N1 ! . . . zwischen der Permutabilität (133) und N ! sieht zunächst erschreckend aus. Tatsächlich kommen unter “normalen” Bedingungen aber praktisch nur die Besetzungszahlen 0 und 1 vor. Die mittleren Besetzungszahlen “vernünftiger” Zellen (∆x ∼ λT , ∆p ∼ h/λT ) lassen sich nämlich durch hNν i < nλ3T abschätzen. Für Luft (m ≈ 30mp ) unter Normalbedingungen erhält man daraus hNν i < 1.9 10−7 , so daß unter 5 Millionen Elementarzellen höchstens eine besetzt ist! 60 Außer bei extrem tiefen Temperaturen können wir also getrost N0 !N1 ! . . . ≈ 1 setzen und bestätigen so die halbklassische Näherung ZNn ≈ zN 1 u ZN = , N! N! in der die Zustandssumme separiert. 4.6 Fermi–Dirac– und Bose–Einstein–Statistik Wir haben bereits erwähnt, vor welchem Problem wir stehen: Die Zustandssumme (141) separiert nicht, und es wird schwierig, die Mikro–Nebenbedingungen (136) zu berücksichtigen. Wegen analoger Schwierigkeiten bei der Energie hatten wir die kanonische Gesamtheit der mikrokanonischen vorgezogen (Abschnitt 3.9). Damit bietet es sich an, Gl. (136) nun durch die Makro–Nebenbedingung D N̄ = N{Nν } E (142) zu ersetzen und die Quantengase groß kanonisch zu beschreiben. Wir setzen also N{Nν } = X ν Nν und E{Nν } = X Nν εν (143) ν in (82) und (83) ein und erhalten ZG = X {Nν } p{Nν } = e− P ν Nν (βεν +γ) = X {Nν } e−β P ν Nν (εν −µ) und 1 − P Nν (βεν +γ) 1 −β P Nν (εν −µ) ν ν e e = . ZG ZG (144) Der entscheidende Vorteil dieser Ausgangsbasis liegt darin, daß die Nν nun von der Nebenbedingung befreit sind und unabhängig voneinander alle möglichen Werte durchlaufen. Für diesen Vorteil müssen wir allerdings einen Preis zahlen: Die großkanonische Statistik verwendet statt der leicht interpretierbaren Variablen N den weniger anschaulichen Lagrangeparameter γ oder das chemische Potential19 µ = −kT γ. 19 µ muß nachträglich über die Makro–Nebenbedingung (142) bestimmt werden. 61 Die Gln. (144) lassen sich offenbar in die Beiträge der einzelnen Zellen oder Zustände (nicht dagegen der einzelnen Teilchen!) separieren. Wir erhalten nämlich mit den Abkürzungen yν = e−β(εν −µ) und σν = X yνN (145) N die große Zustandssumme ZG = X y0N0 y1N1 . . . = X y0N0 N0 {Nν } = YX ν yνN = Y X y1N1 . . . N1 σν (146) ν N und die Wahrscheinlichkeiten p{Nν } = Y 1 N0 N1 pν (Nν ) y0 y1 . . . = ZG ν mit pν (N ) = yνN . σν (147) p{Nν } zerfällt also in das Produkt unabhängiger Wahrscheinlichkeiten pν (Nν ) dafür, daß der ν–te Zustand (die ν–te Zelle) mit Nν Teilchen besetzt ist. Der Nenner σν spielt also die Rolle einer “Ein–Zustands–Teilchensumme”, welche die “Ein– Teilchen–Zustandssumme” der klassischen Statistik ersetzt. Wir sehen hier deutlich, wie das Konzept unterscheidbarer klassischer Teilchen durch das Konzept unterscheidbarer quantenmechanischer Zustände ersetzt wird. Die Summe, die in der klassischen Statistik über die möglichen Zustände einzelner Teilchen lief, läuft in der Quantenstatistik über die möglichen Besetzungszahlen der einzelnen Zustände. Bei den möglichen Besetzungszahlen müssen wir nun Fermionen und Bosonen unterscheiden (vgl. Teil I des Skriptums, Abschnitt 4.2). Die entsprechende Auswertung der Gln. (146) und (147) wird als Fermi–Dirac– bzw. Bose–Einstein–Statistik bezeichnet. • Bei Fermionen sind nach dem Pauli–Prinzip nur die Besetzungszahlen 0 und 1 möglich und wir erhalten σνF D = 1 + yν = 1 + e−β(εν −µ) . (148) • Bei Bosonen unterliegen die Besetzungszahlen keinen Einschränkungen, und wir erhalten ∞ X 1 1 = . (149) σνBE = yνN = 1 − yν 1 − e−β(εν −µ) N =0 62 Mit Gl. (147) finden wir daraus die mittleren Besetzungszahlen hNν i = X N pν (N ) = N FD d yν 1 X N yνN = yν ln σν = , σν N dyν 1 ± yν BE also hNν i = 1 eβ(εν −µ) ± 1 FD . BE (150) Die mittlere Verteilung der Teilchen auf die Energieniveaus20 εν wird Fermi– bzw. Bose–Verteilung genannt. Die beiden Verteilungen unterscheiden sich nur durch das Vorzeichen der “Quantenkorrektur” 1 im Nenner. Diese Korrektur kann für hinreichend große Energien (ε − µ kT ) vernachlässigt werden, so daß hNν iF D und hNν iBE in die Maxwell–Boltzmann–Verteilung hNν iM B = e−β(εν −µ) übergehen: Die weitere Auswertung geht aus von [vgl. (146), (148, (149)] ln ZG = X ν ln σν = ± X ν h ln 1 ± e −βεν −γ i F D BE . (151) Zur Bestimmung der Zustandsgrößen notieren wir uns die Beziehungen [vgl. (87,89)] pV = kT ln ZG 20 und Beim Bezug auf Energiezustände ist die Spinentartung zu berücksichtigen. 63 (152) U =− ∂ ln ZG |γ . ∂β (153) Außerdem muß schließlich noch γ = −µ/kT aus der Gleichung [vgl. (90) bzw. (150)] X N̄ = ν hNν i = − ∂ ln ZG |β ∂γ (154) bestimmt werden. Bevor wir dieses Programm für verschiedene Spezialfälle ausführen, wollen wir ausnutzen, daß wir ein ideales Gas in einem großen Volumen behandeln. Wir ersetzen daher εν → ε(p) und X ν g → 3 h Z g d rd p . . . = 3 V h 3 3 Z∞ 4πp2 dp . . . (155) 0 Dabei bezeichnet p den Impulsbetrag der Teilchen und g = 2s + 1 berücksichtigt die Spinentartung der Energieniveaus. Damit erhalten wir aus Gl. (151) 4πgV ln ZG = ± 3 h Z∞ 0 h ln 1 ± e −βε(p)−γ i 2 p dp FD . BE (156) Eine Beziehung können wir von hier aus in größter Allgemeinheit auswerten: Für die innere Energie erhalten wir nach Gl. (153) mit ∂(βε)/∂β = ε/β ∂(βε)/∂ε U =∓ 4πgV h3 Z 4πgV ε ∂ ln[. . .]p2 dp = ∓ 3 β ∂ε h Z ε ∂ ln[. . .]p2 dp , 0 βε ∂p wobei ε0 = dε/dp bedeutet. Wir setzen nun speziell ε(p) = apα oder ε0 (p) = α ε(p) p ein21 und erhalten U = ∓ 4πgV 1 h3 αβ 4πgV 1 = ∓ 3 h αβ Z Z∞ 0 ∂ ln[. . .]p3 dp ∂p ∂ 4πgV 3 {ln[. . .]p3 }dp ± ∂p h3 αβ 21 Z∞ ln[ ]p2 dp . 0 Neben dem vertrautem Zusammenhang ε = p2 /2m erfassen wir damit auch den hochrelativistischen Grenzfall ε = pc 64 Das erste Integral verschwindet wegen der Grenzen, und das zweite ist identisch mit dem Integral in Gl. (156). Zusammen mit Gl. (152) ergibt sich daraus der Zusammenhang 3 pV . α U= (157) Mit ε = p2 /2m oder α = 2 wird die vertraute Beziehung 3 U = pV 2 (158) also auch für die Quantengase bestätigt! Darüber hinaus erhalten wir sozusagen gratis die Beziehung U = 3pV (159) für hochrelativistische Teilchen (Photonen!) mit ε = pc, also α = 1. 4.7 Quantengase geringer Dichte Wir untersuchen zunächst den Fall geringer Dichte oder hoher Temperatur. Dazu nehmen wir [s.u. (162)] e−γ 1 an und entwickeln den Logarithmus h ln 1 ± e −βε−γ i = ±e −βε−γ 1 FD − e−2βε−2γ . BE 2 Wenn wir uns wieder auf den nicht–relativistischen Fall beschränken, folgt aus (156) gV ln ZG = 3 e−γ h Z 2 e − βp 2m 1 −γ Z − βp2 3 e m dp . d p∓ e 2 3 Integrale dieser Form haben wir schon mehrfach ausgewertet, z. B. im Abschnitt 4.2 [vgl. Gl. (111)]. Wir erhalten 2πm gV ln ZG = 3 e−γ h β !3/2 1 ∓ e−γ 2 gV e−γ 1 = 3 e−γ 1 ∓ λT 2 23/2 ( ) πm β !3/2 . e−γ (bzw. das chemische Potential µ = −γkT ) ist durch Gl. (154), also durch 65 (160) 1 gV N̄ = 3 e−γ 1 ∓ √ e−γ λT 2 2 ! (161) bestimmt. In erster Näherung erhält man daraus e−γ ≈ 1 1 N λ3T = nλ3T . g V g (162) Setzen wir (161) in (160) ein, so folgt ln ZG = N̄ 1∓ 1∓ 1 √ e−γ 4 2 1 √ e−γ 2 2 1 ≈ N̄ 1 ± √ e−γ 4 2 ! . Verwenden wir im Korrekturterm schließlich noch die Näherung (162), so erhalten wir aus Gl. (152) die Zustandsgleichung nλ3 pV = N̄ kT 1 ± √ T 4 2g ! FD . BE (163) Wir erkennen — wie erwartet — in niedrigster Ordnung die ideale Gasgleichung pV = N̄ kT . Die Korrektur ist proportional zur Zahl nλ3T der Teilchen je Elementarzelle. Das Verhältnis des mittleren Teilchenabstands r0 = n−1/3 (164) zur thermischen De Broglie–Wellenlänge λT bestimmt also, ob Quanteneffekte auftreten: • Für r0 λT ist die (halb–)klassische Statistik gültig, das Gas erfüllt die ideale Gasgleichung. • Für r0 ≤ λT müssen die Besonderheiten der Quantenstatistik berücksichtigt werden. Das Gas zeigt “Entartungserscheinungen”. Als erste Entartungserscheinung finden wir also eine Druckänderung bei gegebenem n und T . Im entarteten Fermigas ist der Druck höher als im idealen Gas gleicher Temperatur und Dichte: Fermionen “mögen sich nicht”. Man mag diese “Abstoßung” als Konkurrenz der Fermionen um freie Plätze deuten, da jeder Zustand höchstens einfach besetzt werden kann. Dagegen sind Bosonen “gesellige” Teilchen, denn der Druck im Bosegas ist niedriger als im idealen Gas gleicher Temperatur und Dichte. Eine anschauliche Deutung 66 für diese “Anziehung” ist allerdings schwierig, da Bosonenzustände beliebig besetzt werden können. Wir sollten solche anschaulichen Bilder ohnehin mit Vorsicht genießen. Nach Gl. (158) steht der Druck nämlich immer im klassischen Zusammenhang mit der Energiedichte – genau so, wie er sich aus dem Impulsübertrag wechselwirkungsfreier Teilchen ergibt (vgl. Abschnitt 1.3). Die quantenstatistische “Anomalie” liegt also nicht im Zusammenhang zwischen Druck und Energie U , sondern im Zusammenhang zwischen Energie U und Temperatur T . Die Temperatur darf nämlich nicht – wie wir das im Abschnitt 1.3 getan haben – als Maß für die mittlere Teilchenenergie definiert werden, sondern ist die Ableitung der inneren Energie nach der Entropie! Und die Entropie hängt direkt mit der Zahl der Mikrozustände zusammen. 4.8 Das hochentartete Fermigas Im Grenzfall großer Dichte oder niedriger Temperatur (kT µ, also βµ 1) strebt die Fermiverteilung [vgl. (150)] hN (ε)i = 1 eβ(ε−µ) (165) +1 gegen eine Stufenfunktion: < N(ε)< 1 < N(ε)< kT 1 > 0 µ 0 ε µ0 ε Alle Zustände mit einer Energie unterhalb der “Fermikante” εF = µ0 sind einfach besetzt, alle oberhalb leer. Genau das ist nach dem Pauliprinzip für T = 0 zu erwarten: Die Teilchen “fallen” zunächst in die untersten Zustände; sind sie belegt, werden die nächsthöheren angefüllt. Da sich der Vergleich mit einer inkompressiblen Flüssigkeit in einer Senke aufdrängt, wird der beschränkte Bereich ε < µ0 auch als “Fermisee” bezeichnet. Die physikalischen Eigenschaften des hochentarteten Fermigases finden wir bequemer direkt aus der Stufenverteilung 67 hN (ε)i = Θ(µ0 − ε) (166) als aus der Zustandssumme22 . Mit p2 = ε und 2m p2max = µ0 2m erhalten wir gemäß Gl. (155) und (166) 4πgV N̄ = h3 Z 4πgV hN (ε)ip dp = h3 2 pZmax 0 4πgV p3max . p dp = h3 3 2 Daraus ergibt sich die Fermikante 3h3 N̄ 4πgV 1 µ0 = 2m !2/3 h2 = 2m 3n 4πg !2/3 . (167) Entsprechend berechnen wir 4πgV U0 = h3 Z 4πgV εhN (ε)ip dp = 2mh3 2 pZmax p4 dp = 0 4πgV p5max . 2mh3 5 Mit 4πgV 3 p = 3N̄ h3 max und p2max = µ0 2m folgt daraus 3 U0 = N̄ µ0 . 5 (168) Die mittlere Teilchenenergie ist also das 0.6–fache der Grenzenergie µ0 . Aus der endlichen Energie U0 bei T = 0 folgt nach Gl. (158) ein endlicher Druck 22 Man erhält in derselben Näherung 4πgV ln ZG = − 3 β h pZmax 8πgV (ε − µ0 )p dp = 15 2 0 68 2m βh2 3/2 (−γ)5/2 . h2 2 p0 = nµ0 = 5 5m 3 4πg !2/3 n5/3 . (169) Das wichtigste Beispiel für ein hochentartetes Fermigas finden wir in den freien Metallelektronen. Mit g = 2 (Spin 21 ) und einer typischen Festkörperdichte n ≈ 1029 m−3 finden wir eine Fermienergie µ0 ≈ 8 eV bzw. die entsprechende “Fermitemperatur” µ0 TF = ≈ 90 000 K . k Die Bedingung βµ0 = TF /T 1 für den hohen Entartungsgrad ist also immer erfüllt. Speziell für Cu ergibt sich ein Nullpunkts–Druck p0 ≈ 4 · 105 Bar. Dieser ungeheure Druck wird von der elektrostatischen Anziehung der Cu–Ionen aufgebracht23 . Ein weiteres Anwendungsgebiet der Fermi–Dirac–Statistik liegt in der Astrophysik. Der Nullpunktsdruck p0 des Fermigases hält nämlich in weißen Zwergen der Gravitation die Waage. Weiße Zwerge bestehen aus Heliumkernen und quasifreien Elektronen. Das Elektronengas ist trotz seiner Temperatur T ≈ 107 K voll entartet. Denn seiner Dichte von über 1036 m−3 entspricht eine Fermienergie im MeV– Bereich24 oder eine Fermitemperatur TF ≈ 1011 K. Zum Abschluß wollen wir uns noch von Gültigkeit des 3. Hauptsatzes überzeugen. Um die Temperaturabhängigkeit der inneren Energie zu berechnen, muß man die Fermikante genauer auflösen. Denn nur die Teilchen im Bereich ±kT um die Fermikante können Energie aufnehmen. Schätzen wir ihre Anzahl mit δN ∼ (kT /µ0 )N̄ ab, so ergibt sich eine temperaturabhängige Korrektur δU ∼ kT δN ∼ N̄ (kT )2 /µ0 zu U0 . Die systematische Rechnung liefert den zuerst von Sommerfeld angegebenen Wert U = N̄ ( 3 π 2 (kT )2 µ0 + 5 4 µ0 ) . (170) Die spezifische Wärme cv = ∂U π2 kT = N̄ k ∂T 2 µ0 geht also am absoluten Nullpunkt mit T → 0 und erfüllt so die Forderung des dritten Hauptsatzes. 23 Es ist kein Zufall, daß µ0 von der selben Größenordnung ist wie die Ionisierungsenergie der Metallatome und die Austrittsarbeitder Elektronen aus dem Metall. 24 Die Elektronen müssen daher relativistisch beschrieben werden, es gilt also nicht Gl. (169). 69 4.9 Das entartete Bosegas Im Gegensatz zu den Fermionen bieten uns die kalten Bosonen keine bequeme Möglichkeit, die Auswertung der Zustandssumme [vgl. Gl. (156)] 4πgV ln ZG = − 3 h Z∞ 0 i h ln 1 − e−βε−γ p2 dp (171) zu vermeiden. Darüber hinaus versagt auch die Näherung des Abschnitts 4.7. Der Lagrangeparameter γ = −βµ in Gl. (171) hängt über [vgl. Gl. (154)] ∂ 4πgV N̄1 = − ln ZG = ∂γ h3 von der Teilchenzahl N̄1 ab25 . Mit p = √ Z∞ 0 e−βε−γ p2 dp 1 − e−βε−γ 2mε folgt Z∞ ε1/2 dε 4πgV √ 3/2 2πgV N̄1 = 2m = h3 eβε+γ − 1 h3 0 2m β !3/2 Z∞ 0 x1/2 dx ex+γ − 1 oder mit λT = (βh2 /2πm)1/2 2 V N̄1 = g 3 ψ(γ) mit ψ(γ) = √ λT π Z∞ 0 x1/2 dx . ex+γ − 1 Das Integral ψ(γ) ist nicht elementar und muß numerisch berechnet werden: 25 Zum Index 1 an N̄ siehe weiter unten. 70 (172) Für große Werte von γ (eγ 1) erhält man ψ(γ) ≈ e−γ , so daß Gl. (172) in Gl. (162) übergeht. Daß wir uns bei der Berechnung auf γ ≥ 0 (also e−γ ≤ 1) beschränken müssen, ist nicht überraschend: Das Argument des Logarithmus in Gl. (171) weist ja deutlich darauf hin, daß das chemische Potential µ = −kT γ des idealen Bosegases nicht positiv werden darf. An der Grenze γ = 0 endet darum der Graph ψ(γ) mit einer Singularität26 . Die Überraschung liegt darin, daß ψ(γ) beschränkt ist: Mit ψ(γ) ≤ ψ(0) = 2.612 . . . erhalten wir bei gegebener Temperatur eine prinzipielle Begrenzung N̄1 ≤ 2.612 V λ3T (173) der Teilchenzahl. Passen etwa nicht mehr Teilchen in die einzelnen Phasenraumzellen? Im Gegenteil: Wir haben es mit Bosonen zu tun und jede Phasenraumzelle kann beliebig viele Teilchen aufnehmen. Und genau da steckt unser Fehler: Beim Übergang (155) von der Summe (151) zum Integral (156) haben wir nämlich eine Phasenraumzelle “vergessen”: Wegen des Faktors p2 trägt das Energieniveau ε = 0 nicht zur Zustandssumme bei. Wir müssen Gl. (171) also durch das entsprechende Summenglied ergänzen: ln ZG = − ln(1 − e −γ 4πgV )− h3 Z ... . Daraus erhalten wir durch Differentiation nach γ wie oben [vgl. Gl. (172)] ∂ ln ZG = N̄0 + N̄1 ∂γ 1 . mit N̄0 = γ e −1 N̄ = − (174) (175) Wenn wir nun γ → 0 streben lassen, bleibt zwar N̄1 durch (173) beschränkt, aber N̄0 kann beliebig groß werden und die Welt ist wieder in Ordnung. Aber seltsam ist es doch, und auch ein wenig beunruhigend, daß eine einzige Phasenraumzelle so wichtig werden soll. Die Merkwürdigkeit offenbart sich auch darin, daß N̄0 im Gegensatz zu N̄1 gar keine extensive Größe ist, denn β und µ sind intensiv! Halten wir also die Temperatur T und das chemische Potential µ < 0 (beliebig!) fest, so ist der Beitrag N̄0 im thermodynamischen Limes N̄ , V̄ → ∞ zu vernachlässigen27 ! Unsere Teilchenzahl wird bei genügend großem Volumen also doch allein durch 26 ∂ N̄/∂γ → ∞ deutet nach Abschnitt 3.8 [vgl. Gl. (93)] auf einen Phasenübergang! Hier liegt auch der Grund dafür, daß wir neben dem Integral keine weiteren Summenglieder berücksichtigen müssen. 27 71 N̄ g = 3 ψ(γ) V λT (176) beschrieben. Senken wir bei konstanter Dichte n = N̄ /V die Temperatur, so wird γ → 0 und ψ(γ) → 2.612 streben. Aber bei hinreichend großem Volumen wird immer noch (176) gelten, vorausgesetzt, es gilt 2.612 g > n. λ3T Diese Bedingung definiert eine von der Dichte abhängige Grenztemperatur [vgl. Gl. (61)] h2 T0 = 2πmk n 2.612 g !2/3 , (177) die — abgesehen von den Zahlenfaktoren — mit der Fermitemperatur TF = µ0 /k [vgl. Gl. (167)] übereinstimmt. Senken wir die Temperatur unter diesen Wert, so muß N̄0 einen wesentlichen Beitrag leisten. Denn T g N̄ gV N̄1 = 2.612 3 = 2.612 3 = N̄ λT nλT T0 3/2 wird nun kleiner als N̄ . Wir haben also N̄1 = N̄ T N̄1 = N̄ T0 3/2 und N̄0 = 0 f ür T > T0 " T und N̄0 = N̄ 1 − T0 3/2 # und f ür T ≤ T0 . (178) (179) Diese Ansammlumg eines endlichen Bruchteils aller Teilchen im Energiezustand ε = 0 wird als Bose–Einstein Kondensation bezeichnet. Das “Kondensat” bei ε = 0 trägt weder zur inneren Energie [vgl. Rechnung (171) → (172), γ → 0] U =− 2 ∂ gV ln ZG |γ = 3 kT √ ∂β λT π Z∞ 0 x3/2 dx ∼ T 5/2 V x e −1 (180) noch zum Druck [vgl. Gl. (158)] p= 2U ∼ T 5/2 3V 72 (181) bei. Man kann es als Flüssigkeit mit dem Dampfdruck (181) auffassen. Die Interpretation der Bose–Einstein–Kondensation als Verflüssigung hat aber auch ihre Grenzen. So machen verschiedene Lehrbücher darauf aufmerksam, daß es sich um eine Kondensation im Impulsraum und nicht im Ortsraum handelt. Und tatsächlich verlangt auch die Unschärferelation, daß die Aufenthaltswahrscheinlichkeit der “Teilchen” im untersten Energieniveau über das gesamte Volumen “ausgeschmiert” ist. Durch ein überlagertes Schwerfeld kann man jedoch auch zu einer (gewissen) räumlichen Trennung der “Phasen” kommen. Wir verweisen dazu auf die ausführliche Diskussion im Lehrbuch von R. Becker (§54). Da die Teilchen des Kondensats nicht an der thermischen Bewegung teilnehmen, erfahren sie auch keine innere Reibung. Es liegt daher nahe, die seltsamen Eigenschaften, die das “superfluide” 4 He unterhalb der “λ−Temperatur” Tλ = 2.19 K zeigt, mit der Bose–Kondensation in Verbindung zu bringen. Die Grenztemperatur T0 = 3.13 K, die man für flüssiges Helium aus Gl. (177) berechnet, stimmt auch recht gut mit Tλ überein. Allerdings ist anzumerken, daß es bei so niedrigen Temperaturen kein ideales Gas gibt: Die Tatsache der “normalen” Verflüssigung macht schon deutlich, daß die Van Der Waals–Wechselwirkung dominiert lange bevor quantenmechanische Entartungseffekte eine Rolle spielen. 4.10 Das Photonengas Wir haben bereits bei der allgemeinen Diskussion der Quantenstatistik [Abschnitt 4.6, Gl. (159)] festgestellt, daß für alle hochrelativistischen Teilchen 1 pV = U 3 (182) gilt. Wir haben also nur noch die innere Energie ∞ h i ∂ 4πgV ∂ Z −βε−γ ln ZG |γ = U =− ln 1 − e p2 dp ∂β h3 ∂β 0 4πgV = h3 Z∞ 0 εp2 dp eβε+γ − 1 [vgl. (153) und (171)] für Photonen auszuwerten. Das heißt im Einzelnen: 1. Wir berücksichtigen mit dem Faktor g = 2 die beiden möglichen Polarisationszustände der Photonen28 . 28 Die Formel g = 2s + 1 gilt nur für massive Teilchen, die sich nicht mit Lichtgeschwindigkeit bewegen. Die Spinkomponente 0 würde longitudinalen Photonen entsprechen. 73 2. Wir setzen ε(p) = pc ein. 3. Für Photonen ist die Teilchenzahl keine Erhaltungsgröße. Die Makro–Nebenbedingung hNi i = N̄ und der zugehörige Lagrangeparameter γ entfallen deshalb: Das chemische Potential der Photonen ist Null. Daraus folgt 8πV U= 3 3 hc Z∞ 0 8πV −4 ε3 dε = β eβε − 1 h3 c 3 Z∞ 0 x3 dx . ex − 1 (183) Das Integral ist gleich π 4 /15. Damit erhalten wir für die Energiedichte das Stefan– Boltzmann–Gesetz u(T ) = U 8π 5 k 4 = 3 3 T4 . V h c (184) Aus Gl. (183) können wir auch die spektrale Verteilung der Energiedichte ablesen. Denn der Integrand liefert uns die Beiträge der einzelnen Energieniveaus hν = ε = kT x. Schreiben wir U =V Z u(ν, T )dν und vergleichen mit Gl. (183), so erhalten wir das Plancksche Strahlungsgesetz u(ν, T ) = 8πh ν 3 . hν c3 e kT −1 (185) Für hν 1 fällt die Quanten–Konstante h heraus und man erhält das Rayleigh– Jeanssche Strahlungsgesetz u(ν, T ) → 8πkT 2 ν . c3 (186) Seine “Ultraviolettkatastrophe” war eine der Kelvinschen “schwarzen Wolken”, die am Ende des 19. Jahrhunderts das physikalische Weltbild erschütterten. 74 5 Probleme der Statistik Mit der Maximierung der Shannon–Entropie haben wir einen sehr eleganten Weg zu den statistischen Gesamtheiten gewält, der wie eine schlüssige “Herleitung” der Thermodynamik erscheint. In Wirklichkeit verschleiert dieser allzu glatte Zugang jedoch ein wenig die Probleme und unbewiesenen Postulate der Ausgangsposition. Wir können solche Probleme in diesem Schlußkapitel nur skizzenhaft andeuten. 5.1 Meß-, Zeit- und Scharmittelwert Unser erstes Problem liegt darin, daß wir überhaupt keine Rechtfertigung haben, die a priori–Wahrscheinlichkeiten pi der Mikrozustände eines Systems aus einem Extremalprinzip (oder wie auch immer) zu postulieren. Die “Shannon–Entropie eines Würfelbechers” wird maximal, wenn die verschieden Augenzahlen bei allen Würfeln gleichwahrscheinlich sind. Aber wenn die Würfel entsprechend präpariert sind, sind die Wahrscheinlichkeiten eben nicht gleich. Im Grunde sind die a priori– Wahrscheinlichkeiten also Systemeigenschaften, die wir aus einer Analyse des speziellen Systems bestimmen müßten. Ja, es kommt noch schlimmer: Wie sollen wir überhaupt a priori–Wahrscheinlichkeiten von Mikrozuständen eines Systems definieren? Was sind die günstigen und die möglichen Fälle, deren Verhältnis durch pi angegeben ist? Welchen “Ereignisraum” sollen wir zu Grunde legen? Wir interessieren uns ja für ein bestimmtes physikalisches System mit einem wohldefinierten Makrozustand. Der Mikrozustand ist nicht nur unbekannt, sondern ändert sich ungeheuer rasch. Beispiel: Ideales Gas im Volumen V Makrozustand Mikrozustand V 1 p,T 7 5 8 Wenige Zustandsgrößen (p, T ) 75 10 2 3 ( 4 9 6 3N Koordinaten xi (t) 3N Impulse pi (t) µ Der Mikrozustand beschreibt eine Bahn im Γ–Raum, die Ergode29 . p Γ t0 x x t1 x t 2 x Könnten wir beliebig schnell und beliebig exakt messen, so könnten wir die verschiedenen Mikrozustände — also die verschiedenen Punkte auf der Ergode an Fluktuationen unserer makroskopischen Parameter unterscheiden. Die Meßkurve für die Druckkraft würde etwa so aussehen: K/A p t K verschwindet, wenn gerade kein Molekül auf die Wand tritt und wird groß, wenn ein gerade besonders schnelles Molekül reflektiert wird. Im Mittel messen wir K = pA. Unsere Meßwerte, die makroskopische Größen festlegen, sind also Zeit–Mittelwerte. Entsprechend wären als pi die relativen Verweildauern auf geeignet gewählten Abschnitten der Ergode zu wählen. Dazu aber müßten wir die Ergode — die von den speziellen mikroskopischen Anfangsbedingungen abhängt — genau kennen, und gerade das können und wollen wir nicht. Vielmehr verlangen wir von einer Messung reproduzierbare Ergebnisse: Eine Messung soll • heute, morgen, Weihnachten und Ostern sowie in • Bochum, San Francisco, Tokyo und Dortmund unter gleichen Voraussetzungen dasselbe Resultat liefern und eben nicht von den speziellen Anfangsbedingungen — die völlig unüberschaubar sind — abhängen. Wir erwarten und verlangen also eine Unabhängigkeit von der speziell herausgegriffenen Ergode (linke Skizze): 29 Kunstwort aus griech. εργoν (ergon) = Werk, Arbeit (für Energie) und oδoς (hodos) = Weg. 76 p 1 Γ 3 Γ p 2 x x Dieser Gedanke führt fast zwangsläufig zu der Idee, den Zeitmittelwert durch den Mittelwert über ein Ensemble vieler Punkte im Γ–Raum zu ersetzen und auch die pi auf das Ensemble zu beziehen (Skizze rechts). Diese Punkte im Γ–Raum repräsentieren also gedachte Kopien desselben (makroskopisch!) Systems (beispielsweise zu anderen Zeiten oder an anderen Orten). Damit geht die Statistik von dem Grundpostulat • Zeitmittel = Schar– (Ensemble–)Mittel aus, das eng mit der sogenannten Ergodenhypothese zusammenhängt. 5.2 Die Ergodenhypothese Aus der unstrittigen Forderung nach Reproduzierbarkeit geht noch nicht hervor, wie ein geeignetes Ensemble (= Gesamtheit) zu wählen ist — oder: Welche Punkte des Γ–Raums “gleichwertige” Kopien des Ausgangssystems darstellen. Zur Lösung dieser Frage formulierte Boltzmann 1887 die berühmte • Ergodenhypothese: Die Ergode eines abgeschloßenen Systems (E = const) durchläuft jeden Punkt der Hyperfläche H = E des Γ–Raums. Wenn diese Hypothese gilt, so folgt, daß alle Zustände gleicher Energie als gleichwahrscheinlich anzusehen sind. Hierin liegt die eigentliche Begründung für die Mikrokanonische Gesamtheit (und wegen der Äquivalenz auch für die anderen Gesamtheiten). Die Hypothese kann jedoch gar nicht streng gelten, denn die eindimensionale Bahn kann — so komplex und verschlungen sie auch sein mag — nicht die (6N − 1)– dimensionale Hyperfläche H = E überdecken! Darum ersetzte sie Ehrenfest 1911 durch die • Quasi–Ergodenhypothese: Die Ergode eines abgeschlossenen Systems(E = const) kommt (fast) jedem Punkt der Hyperfläche H = E des Γ–Raums beliebig nahe. 77 Diese schwächere Formulierung reicht zur Begründung des Grundpostulats Zeitmittel = Scharmittel für die mikrokanonische Gesamtheit (und die ihr äquivalenten Gesamtheiten), was man ja auch wegen der endlichen Meßgenauigkeit erwarten muß. Mit der Formulierung “fast” werden singuläre Fälle, die durch die kleinste Störung wieder in “herrlichste Unordnung” (Becker S. 97) übergehen, berücksichtigt. Aber auch mit diesen Einschränkungen ist die Hypothese nicht allgemein beweisbar. Und daß Fälle, in denen die Hypothese de facto nicht erfüllt ist, sogar eine praktische Bedeutung haben, zeigt uns die Existenz “metastabiler Gleichgewichte” (z. B. Knallgas H2 +O2 unterhalb der Zündtemperatur). 5.3 Der Poincarésche Wiederkehreinwand Wenn die Ergode eines abgeschlossenen Systems (fast) jedem Punkt beliebig nahe kommt, dann auch (fast) jedem Ausgangspunkt. Und wenn die Quasi–Ergoden– Hypothese nicht gültig ist, stimmt diese Aussage ebenfalls. Denn in jedem Fall ist die Ergode eines abgeschlossenen Systems auf ein endliches Phasenraumvolumen beschränkt, das von einer Umgebung der Ergode überdeckt wird (formaler Beweis: Siehe Huang, Abschnitt 4.5). Ein physikalisches System wird also — wenn man nur lange genug wartet — seinem Ausgangszustand wieder beliebig nahe kommen: Die verbrannte Zigarette wird aus der Asche neu entstehen, die Scherben einer zerbrochenen Tasse werden sich wieder von selber zusammenfügen und die gemischten Gase werden sich wieder entmischen. Dieser Poincarésche Wiederkehreinwand, der offenbar aller Erfahrung widerspricht, war am Ende des neunzehnten Jahrhunderts eine schwere Hürde für die Anerkennung der jungen statistischen Mechanik. Die Auflösung dieses Widerspruchs liegt in der langen “Wiederkehrzeit”, die den Rahmen alles bekannten Geschehens sprengt. Nehmen wir an, wir wählen als Ausgangszustand ein ideales Gas von N ≈ 3 · 1022 Teilchen, das auf eine Hälfte des Volumens V ≈ 1 l beschränkt ist. (Bei t = 0 platzt beispielweise eine Membran.) Dann werden sich die Gasatome bald unabhängig voneinander im gesamten Volumen V aufhalten. Zu jedem späteren Zeitpunkt besteht also eine Wahrscheinlichkeit 22 w = 2−N = 23·10 ≈ 10−10 22 daß — wie im Anfangszustand — nur in der einen Volumenhälfte Teilchen anzutreffen sind. Nehmen wir an, daß die Zustände eine typische Lebensdauer τ haben. Dann wird man eine Zeit τ 22 (187) T ≈ ≈ 1010 τ w auf den außergewöhnlichen Zustand warten müssen. Wir können es uns schenken, die Lebensdauer τ abzuschätzen, denn es gilt ganz sicher 78 t0 < τ < t ∞ wobei t0 = r0 c = 10−15 m 3·108 m/s ≈ 3 · 10−24 s die “Elementarzeit”, die Licht braucht, um einen Atomkern zu durchqueren, bezeichnet und t∞ ≈ 1010 a ≈ 3 · 1017 s das Alter der Welt bedeutet. Daraus folgt die grobe Abschätzung −23.5 < log τ < 17.5 . s Im Rahmen einer expliziten Rechnung können wir also die Addition 1022 + log(τ /s) in Gl. (187) gar nicht ausführen. Das heißt mit anderen Worten: T ist so ungeheuer groß, daß wir nicht einmal unterscheiden können, ob wir in Elementarzeiten t0 oder in Weltaltern t∞ messen: Bei der unvorstellbaren Zahl der Dezimalstellen von T kommt es auf die 41 Zehnerpotenzen zwischen t0 und t∞ nicht mehr an. Unsere physikalische Erfahrung, die auf höchstens Weltalter beschränkt ist, wird mit diesem Ereignis also sicherlich nicht konfrontiert werden. Damit ist der Poincarésche Wiederkehreinwand ausgeräumt. Auf der anderen Seite zeigen die langen Wartezeiten aber auch, wie irrelevant die Frage ist, ob die Ergode tatsächlich (fast) jedem Punkt der Hyperfläche H = E irgendwann nahekommt. Damit bricht die Begründung der mikrokanonischen Gesamtheit mit der Quasi–Ergodenhypothese schon wieder zusammen. 5.4 Irreversibilität und Zeitumkehr Ludwig Boltzmann, der vielleicht bedeutendste Pionier einer atomistischen Theorie der Wärme, stellte vor über einem Jahrhundert eine “Transportgleichung” ∂f + C(f ) = S(f ) ∂t (188) auf, welche die zeitliche Veränderung der Verteilungsfunktion f (r, v,t) eines Gases im µ–Raum durch einen “Konvektionsterm” C(f ) und einen “Stoßterm” S(f ) beschreibt. Diese “Boltzmanngleichung” ist seitdem die wichtigste Grundgleichung jeder kinetischen Theorie verdünnter Systeme. Bezüglich der Zeit ist die Boltzmanngleichung ist eine Differentialgleichung erster Ordnung. Da der Stoßstrom S (im Gegensatz zum Konvektionsterm C) sein Vorzeichen bei einer Zeitumkehr (v → −v) nicht ändert, ist Gl. (188) nicht zeitumkehrvariant. Im Gegenteil: Boltzmann selbst wies nach, daß aus Gl. (188) 79 dH ≥0 dt (189) folgt, wobei H das in Gl. (57) definierte Funktional bedeutet (Boltzmannsches H– Theorem). Das Gleichheitszeichen gilt genau dann, wenn f die Maxwellverteilung ist (also H seinen maximalen Wert annimmt, vgl. Abschnitt 3.3). So überzeugend Gl. (189) das zeitliche Anwachsen der Entropie und damit die Relaxation zum Gleichgewicht beschreibt, so wenig überzeugte damals Boltzmanns Begründung aus der Mechanik. Denn die Grundgleichungen der Mechanik sind ohne Zweifel zeitumkehrvariant. Tatsächlich wird die Zeitumkehrvarianz in Boltzmanns halbempirischer Begründung durch ein ad hoc–Postulat aufgehoben: Zur Berechnung der Stoßwahrscheinlichkeit nimmt Boltzmann an, daß Teilchen vor einem Stoß unkorreliert sind. Entsprechende Annahmen einer korrelationsfreien Vergangenheit benötigen auch andere “kinetische Gleichungen” (wie die Fokker–Planck–Gleichung). So einleuchtend diese Annahme der Intuition auch erscheinen mögen: Wie sollen sie aus einer zeitumkehrvarianten Mechanik begründet werden? Das Dilemma des Zeitumkehreinwandes wird im Γ–Raum vielleicht noch deutlicher: Es läßt sich nämlich zeigen, daß die Zahl W aller Mikrozustände der mikrokanonischen Gesamtheit im wesentlichen mit dem eingeschlossenem Phasenraumvolumen Σ(U ) identisch ist30 . Wegen des Zusammenhangs [vgl. Gl. (70)] S = k ln Σ mit der Entropie erwarten wir thermodynamisch also ein zeitliches Anwachsen des Phasenraumvolumens. Aus der Mechanik folgt dagegen der fundamentale Satz von Liouville, der besagt, daß das Phasenraumvolumen immer konstant bleibt! Wie soll dann aber die Entropie je anwachsen können? Und wie soll sich das kleine Phasenraumvolumen, das die Umgebung eines speziellen Ausgangpunktes im Γ– Raum (Mikrozustand) beschreibt, über die ganze mikrokanonische Gesamtheit ausbreiten können? Beruht die Quasi–Ergoden–Hypothese von vornherein auf einem groben Fehler? Die Lösung — oder ein Teil der Lösung — liegt in dem chaotischen Verhalten der mechanischen Vielteilchensysteme. Nach dem Satz von Liouville bewegt sich das Phasenraumvolumen wie eine inkompressible Flüssigkeit, die stets dasselbe Volumen einnimmt. Der Satz behauptet aber nicht, daß benachbarte Flüssigkeitelemente auch benachbart bleiben. Vielmehr wird das Phasenraumvolumen durch die Dynamik des Systems wie Zuckerwatte in einen immer dünneren Faden auseinandergezogen, der sich chaotisch — also in einer der deterministischen Analyse nicht mehr zugänglichen 30 Σ hängt eng mit der Normierungskonstante Ω in Gl. (99) zusammen: Ω = ∂Σ/∂U . 80 Weise — über die gesamte mikrokanonische Gesamtheit “verspinnt”. Für unsere Unkenntnis des Systemzustandes ist aber das “effektive Phasenraumvolumen” — das Volumen der Watte, nicht das des Zuckers — entscheidend. Dieses Volumen, das mit der Informationsentropie verknüpft ist, wächst mit der Zeit, ohne den Satz von Liouville zu verletzen. Die Zeit tritt hierbei als reiner Ordnungsparameter auf, der Zeitschritt ist einem Iterationsschritt im Rechner vergleichbar. Je nach sprachlicher Präferenz können wir einen Ausgangszustand durch — genaue Kenntnis — geringe Entropie oder — hohe Ordnung charakterisieren. Aus der chaotischen Systemdynamik folgt dann, daß wir von Schritt zu Schritt — einen Kenntnisverlust — ein Anwachsen der Entropie oder — eine wachsende Unordnung beobachten, bis wir schließlich die totale Unordnung, das Gleichgewicht, erreicht haben. Und damit haben wir wieder erreicht, daß uns die zeitliche Zunahme der Entropie intuitiv einleuchtend erscheint. Es ist eben wahrscheinlicher, daß eine Vase zu Scherben wird, als daß Scherben zu einer Vase werden. Warum aber tritt in der uns bekannten Welt immer t und nie −t als Ordnungsparameter auf? Kein bekanntes Naturgesetz31 würde das verbieten! Gibt es neben unserer Welt eine Antiwelt (vielleicht aus Antimaterie), in der −t der Ordnungsparameter ist? Gibt es überhaupt mehrere isolierte32 Welten, in denen zufällig t oder −t als Ordnungsparameter dient? Oder ist die Auswahl von t für unsere eine Welt eine (vielleicht zufällige) “kosmologische Randbedingung”? Wir wissen es nicht. 31 Damit werten wir die Verletzung der Zeitsymmetrie bei der Konstruktion der retardierten Potentiale und bei der Reduktion des Zustandsvektors nicht als Naturgesetz. 32 Eine Wechselwirkung von Welt–Teilen mit entgegengesetzter Zeitrichtung würde zu chaotischen Konsequenzen führen! 81 Literaturhinweise Bei der Ausarbeitung dieser Vorlesung habe ich insbesondere die folgenden Bücher zu Rate gezogen: a) A. Sommerfeld: Vorlesungen über Theoretische Physik, Bd. V (Thermodynamik und Statistik), VAG Leipzig, Teubner b) R. Becker: Theorie der Wärme, Springer c) K. Huang: Statistische Mechanik I und II, B I 68 und 69 d) G. Adam & O. Hittmair: Wärmetheorie, Vieweg Diese Aufstellung der Quellen ist nicht als spezielle Empfehlung zu verstehen. Je nach persönlichem Geschmack eignen sich alle üblichen Lehrbücher der Thermodynamik und Statistik, einzelne Probleme nachzulesen oder zu vertiefen. Dabei gehen sie natürlich im Umfang wesentlich über den Inhalt dieser Vorlesung hinaus. Die Darstellungen von a) Sommerfeld und b) Becker (b) vermitteln ein tiefes Verständnis des physikalischen Hintergrundes, sie eignen sich wegen der Gliederung und Schwerpunktsetzung aber weniger zur dierekten Begleitung der Vorlesung. Methodisch habe ich mich am ehesten an d) (Adam & Hittmair) orientiert. Das erste Bändchen von Huang c) bietet eine gründliche Diskussion von Problemen, die mit der Irreversibilität zusammenhängen (H–Theorem, Anfangschaos, Wiederkehreinwand etc.), kommt dabei aber zu einigen fraglichen Interpretationen. Daneben empfehle ich, zur Vertiefung des Verständnisses einzelne Kapitel in den berühmten Feynman Lectures Feynman/Leighton/Sands: Vorlesungen über Physik, Bd. 1 und 2, R. Oldenbourg Verlag München nachzulesen. Dabei ist allerdings zu beachten, daß diese ausgezeichnete Darstellung der gesamten Physik stark von der üblichen Gliederung in Teilgebiete abweicht. 82