Statistische Physik Barbara Drossel, Technische Universität Darmstadt Sommersemester 2011 Inhaltsverzeichnis 1 Wahrscheinlichkeiten 1.1 Einführung . . . . . . . . . . . . . . . . . . . . 1.2 Hintergründe . . . . . . . . . . . . . . . . . . . 1.3 Interpretationen von Wahrscheinlichkeiten . . . 1.4 Mathematische Formulierung . . . . . . . . . . 1.5 Einige wichtige Wahrscheinlichkeitsverteilungen 1.5.1 Die Binomialverteilung . . . . . . . . . . 1.5.2 Gauß-Verteilung . . . . . . . . . . . . . 1.5.3 Poissonverteilung . . . . . . . . . . . . . 1.6 Zentraler Grenzwertsatz . . . . . . . . . . . . . 1.7 Information . . . . . . . . . . . . . . . . . . . . 1.8 Das Prinzip der maximalen Ignoranz . . . . . . 1.9 Zusammenhang mit dem Entropiesatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 4 5 6 7 8 8 10 12 13 15 16 18 2 Von 2.1 2.2 2.3 2.4 2.5 2.6 der klassischen Mechanik zur statistischen Mechanik Die Aufgabe . . . . . . . . . . . . . . . . . . . . . . . . . . . . Die Liouville-Gleichung . . . . . . . . . . . . . . . . . . . . . Langzeitverhalten und Ergodizität . . . . . . . . . . . . . . . Irreversibilität . . . . . . . . . . . . . . . . . . . . . . . . . . . Die Boltzmann-Gleichung . . . . . . . . . . . . . . . . . . . . Wo die klassische Mechanik außerdem noch an Grenzen stößt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 21 21 23 24 26 28 3 Von 3.1 3.2 3.3 3.4 der Quantenmechanik zur statistischen Mechanik Schrödingergleichung für N Teilchen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Fermionen und Bosonen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Beschreibung eines Gases als isoliertes quantenmechanisches N -Teilchensystem . . . . . . Beschreibung eines Gases als mit der Umgebung über ein Potenzial wechselwirkendes quantenmechanisches N -Teilchensystem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Beschreibung durch den Dichteoperator . . . . . . . . . . . . . . . . . . . . . . . . . . . . Explizite Modellierung des Wärmebads: Das Phänomen der Dekohärenz . . . . . . . . . . 3.6.1 Ein einfaches Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.6.2 Diskussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Schlussbemerkungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5 3.6 3.7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Gleichgewichtsensembles 4.1 Das mikrokanonische Ensemble . . . . . . . . . . . . . . . . . . . . 4.2 Das kanonische Ensemble . . . . . . . . . . . . . . . . . . . . . . . 4.2.1 Systeme in thermischem Kontakt . . . . . . . . . . . . . . . 4.2.2 Die kanonische Zustandssumme und der Boltzmann-Faktor 4.2.3 Bezug zur Thermodynamik . . . . . . . . . . . . . . . . . . 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 32 33 35 35 37 39 41 41 42 45 45 46 46 47 49 4.2.4 4.3 4.4 Äquipartitionstheorem, Energiefluktuationen und Äquivalenz der statistischen sembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.5 Vom Nutzen der Zustandssumme . . . . . . . . . . . . . . . . . . . . . . . . . Das großkanonische Ensemble . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.1 Systeme mit Teilchenaustausch . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.2 Bezug zur Thermodynamik . . . . . . . . . . . . . . . . . . . . . . . . . . . . Der Druck . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.1 Systeme, die miteinander Arbeit austauschen können . . . . . . . . . . . . . . 4.4.2 Gibbs-Duhem-Relation in homogenen Systemen . . . . . . . . . . . . . . . . . 5 Ideale Quantengase 5.1 Fermi-Dirac und Bose-Einstein-Verteilung . . . 5.1.1 Fermi-Dirac-Verteilung . . . . . . . . . . 5.1.2 Bose-Einstein-Verteilung . . . . . . . . . 5.1.3 Klassischer Grenzfall . . . . . . . . . . . 5.2 Fermi-Gas bei tiefen Temperaturen . . . . . . . 5.3 Bose-Einstein-Kondensation . . . . . . . . . . . 5.4 Photonengas und Planck-Verteilung . . . . . . 5.5 Debye-Gesetz und Phononen in Festkörpern . . 5.5.1 Phononen als harmonische Oszillatoren 5.5.2 Die Debye-Näherung . . . . . . . . . . . 5.5.3 Thermodynamische Größen . . . . . . . En. . . . . . . . . . . . . . . . . . . . . . . . 50 51 52 52 54 55 55 57 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 59 59 60 61 62 64 66 68 68 69 69 6 Reale Gase, Flüssigkeiten und Lösungen 6.1 Virialentwicklung und van der Waals-Gas . . . . . . . . . 6.2 Verdünnte Lösungen . . . . . . . . . . . . . . . . . . . . . 6.2.1 Zustandssumme, Druck und chemisches Potenzial . 6.2.2 Der osmotische Druck . . . . . . . . . . . . . . . . 6.2.3 Gefrierpunktserniedrigung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 72 75 75 77 77 7 Phasenübergänge 7.1 Phasengleichgewichte . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.1.1 Extremalbedingungen . . . . . . . . . . . . . . . . . . . . . . 7.1.2 Phasengrenzkurven . . . . . . . . . . . . . . . . . . . . . . . . 7.1.3 Clausius-Clapeyron-Gleichung . . . . . . . . . . . . . . . . . . 7.1.4 Gibbs-Phasenregel und Phasengleichgewicht . . . . . . . . . . 7.2 Einführung in Phasenübergänge . . . . . . . . . . . . . . . . . . . . . 7.3 Mean-Field-Theorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.3.1 Landau-Theorie für Phasenübergänge . . . . . . . . . . . . . 7.3.2 Kritische Exponenten . . . . . . . . . . . . . . . . . . . . . . 7.4 Das eindimensionale Ising-Modell und die Transfer-Matrix-Methode 7.5 Das zweidimensionale Isingmodell und die Ortsraumrenormierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 80 80 80 81 82 84 86 87 89 90 93 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Quellenangaben und Danksagung Die folgenden Lehrbücher wurden bei der Erstellung des Skripts zu Rate gezogen: • C. Kittel, Thermal Physics • F. Schwabl, Statistische Mechanik • F. Reif, Statistical and Thermal Physics • L. Reichl, A Modern Course in Statistical Physics • M. Kardar, Statistical Physics of Particles Weitere Anregungen kamen aus den hilfreichen Vorlesungsskripten von Heinz Horner (www.tphys.uniheidelberg.de/∼horner/Stat.Mech.pdf) und Friederike Schmid (www.physik.uni-bielefeld.de/∼schmid/Lehre/Thermo WS03/script.html). Ein herzlicher Dank geht an alle, die Korrekturen zum Skript vorgeschlagen haben: Eva Gehrmann, Michael Harrach, Lotta Heckmann, Timm Plefka, Sebastian Plitzko, Simon Quittek, Yixian Song, Felix Wissel. Einführung Statistische Physik befasst sich mit Systemen, die aus sehr vielen Teil(ch)en bestehen. Beispiele sind Gase, Flüssigkeiten, Magnete, Sandhaufen, Pudding, Zivilisationen, Verkehr, die Wirtschaft, etc. Das Ziel der statistischen Physik ist es, die makroskopischen Eigenschaften des Systems aus den Eigenschaften seiner Teile und ihrer Wechselwirkungen abzuleiten. Diese mikroskopischen Eigenschaften einzelner Teilchen sind oft recht einfach und im Prinzip verstanden. Die Bewegungen von Atomen und Molekülen und ihre Wechselwirkungen untereinander werden durch die Quantenmechanik beschrieben. Daraus die Eigenschaften eines Gases (Druck, Temperatur, Kondensation zu einer Flüssigkeit) abzuleiten, ist jedoch eine höchst nichttriviale Aufgabe. Dies liegt zum einen daran, dass die Teilchenzahl so groß ist, dass man selbst mit dem modernsten Computer unmöglich die Bewegungsgleichungen für das gesamte System auswerten kann. Zum anderen liegt es daran, dass auf der makroskopischen Ebene qualitativ neue Eigenschaften zu Tage treten, die selbst bei genauer Kenntnis der Wechselwirkungen der einzelnen Teilchen nur schwer zu verstehen sind. Beispiele sind Phasenübergänge, die elektrische Leitfähigkeit eines Materials, die viskoelastischen Eigenschaften gewisser Kunststoffe, das Auftreten eines Verkehrsstaus oder eines Börsenkrachs. Systeme, die nicht im thermodynamischen Gleichgewicht sind, hängen außerdem oft empfindlich von ihren Randbedingungen ab. Das Verhalten solcher Systeme wird also nicht nur durch ihre Bestandteile bestimmt, sondern zusätzlich auch durch ihre Umgebung. Diese Vorlesung befasst sich aber hauptsächlich mit Gleichgewichtssystemen. In der statistischen Physik spielen Wahrscheinlichkeiten eine zentrale Rolle. Dies liegt an der Unvorhersagbarkeit der detaillierten zeitlichen Entwicklung eines Systems aus vielen Teilchen. Wir beginnen deshalb die Vorlesung mit einer Behandlung von Wahrscheinlichkeiten, Wahrscheinlichkeitsverteilungen und Information. Da die durch die statistische Physik beschriebenen Systeme sich auf mikroskopischer Ebene im Prinzip durch die klassische Mechanik oder die Quantenmechanik beschreiben lassen, befassen wir uns als nächstes mit der Frage, wie die statistische Physik mit diesen beiden anderen Gebieten zusammenhängt. Wir werden sehen, dass sie nicht vollständig aus ihnen ableitbar ist. Um die statistische Physik zu begründen, ist eine neue Grundannahme nötig, nämlich dass alle Zustände gleicher Energie im Gleichgewicht gleich wahrscheinlich sind. Die statistische Physik hat ihre eigene Naturkonstante, nämlich die Boltzmann-Konstante kB . Auch dies weist darauf hin, dass sich die statistische Physik nicht vollständig auf die klassische Mechanik oder die Quantenmechanik reduzieren lässt. Nach diesem grundlegenden Teil kommen wir zu verschiedenen Anwendungen der Statistischen Physik. Dies ist zunächst die statistische Physik von Gleichgewichtssystemen, im Rahmen derer die aus der Thermodynamik bekannten Größen und Beziehungen abgeleitet werden. Dann werden Quantengase behandelt, und wir werden die spezifische Wärme von Metallen und Festkörpern, die Bose-Einstein-Kondensation und das Plancksche Strahlungsgesetz herleiten. Das van-der-Waals-Gas und die Theorie von Lösungen sind das Thema des nächsten Kapitels. Am Schluss des Semesters gibt es eine Einführung in Phasengleichgewichte und Phasenübergänge. 3 Kapitel 1 Wahrscheinlichkeiten 1.1 Einführung In der Praxis arbeitet man in der Physik immer dann mit Wahrscheinlichkeiten, wenn man Ereignisse nicht mit Sicherheit vorhersagen kann, aber trotzdem quantitative Aussagen treffen will. Als Erstes muss man den Raum der möglichen Ereignisse festlegen, um die es geht. Beim Münzwurf sind dies “Kopf” und “Zahl”, beim Würfeln die Zahlen 1 bis 6, beim Fußball “Gewinnen”, “Verlieren” und “Unentschieden” (oder das genaue Torverhältnis), bei der Klausur am Ende dieses Semesters die Noten 1.0, 1.3, 1.7, etc. Es gibt mehrere Möglichkeiten, diesen Wahrscheinlichkeiten Werte zuzuweisen. 1. Wenn man die Prozesse, die zum Ergebnis führen, oder die Prinzipien, die hinter den Wahrscheinlichkeiten stecken (wie z.B. Symmetrien und Invarianzen) genügend gut versteht, kann man aufgrund dieser Kenntnis Wahrscheinlichkeiten zuweisen. Bei einem Würfel sind alle sechs Seiten gleichberechtigt (wenn der Würfel gut hergestellt ist), und deshalb weiß man, dass die Wahrscheinlichkeit für jede Zahl 1/6 beträgt. Bei der Messung der z-Komponente des Spins eines Spin-1/2-Teilchens, das man vorher in x-Richtung polarisiert hat, weiß man aus den Gesetzen der Quantenmechanik, dass jedes der beiden Ergebnisse die Wahrscheinlichkeit 1/2 hat. 2. Wenn man eine genügend gute Statistik hat, kann man aus dieser Statistik Wahrscheinlichkeiten ableiten, indem man die gemessenen Häufigkeiten mit den zugrunde liegenden Wahrscheinlichkeiten identifiziert. Davon leben die Versicherungen. Sie wissen nicht, wessen Haus als nächstes Feuer fängt, aber sie wissen, wie häufig im Durchschnitt Brände auftreten und können auf dieser Basis die Versicherungsprämie berechnen. Um aus Statistiken Wahrscheinlichkeiten abzuleiten, müssen zwei Voraussetzungen erfüllt sein. Zum ersten muss das Ensemble, für das die Statistik erhoben wird, klar definiert werden. So ist zum Beispiel die Häufigkeit von Krebserkrankungen verschieden für Raucher und Nichtraucher, für Personen unter und über 50 Jahren, für Personen, die Sport treiben und für Couchpotatoes. Entsprechend gelten die aus der Statistik abgeleiteten Wahrscheinlichkeitsaussagen unter der Voraussetzung, dass man über die Person, deren Krebsrisiko man angeben will, nicht mehr Information berücksichtigt als die Zugehörigkeit zum gewählten Ensemble. Zweitens muss die aus der Statistik resultierende Häufigkeitsverteilung immer genauer werden, je größer man die Stichprobe wählt. Nur dann sind die aus der Häufigkeitsverteilung abgeleiteten Wahrscheinlichkeiten zuverlässig. Deshalb schließen übrigens Versicherungen die ganz seltenen katastrophalen Ereignisse wie Krieg, Erdbeben, etc. als Versicherungsfälle aus, da diese die Häufigkeitsverteilung von einem Moment auf den anderen total verändern. 3. Für theoretische und mathematische Überlegungen werden die Wahrscheinlichkeiten oft einfach postuliert. Man schafft ein fiktives oder modellhaftes Szenario, für das man dann seine Überlegungen anstellt. Ein Beispiel hierfür sind mathematische Modelle für biologische Evolution, in denen Wahrscheinlichkeiten für Mutationen oder für das Überleben eine wichtige Rolle spielen. Diese 4 Wahrscheinlichkeiten sind variable Modellparameter, und man untersucht das Verhalten des Modells in Abhängigkeit von den Werten dieser Parameter, wobei man für die tatsächlichen Werte dieser Parameter nur grobe Anhaltspunkte hat. 4. Bei einmaligen Zufallsereignissen kann man deren Wahrscheinlichkeit nur schätzen. Solche Wahrscheinlichkeiten sind subjektiv und hängen sehr von der Erfahrung und dem Wissen, aber auch von Vorurteilen oder Wunschdenken ab. Beispiele hierfür sind die Wahrscheinlichkeit, dass die Renovierung des großen Physikhörsaals tatsächlich zum WS 2011 abgeschlossen sein wird, oder die Wahrscheinlichkeit, dass Borussia Dortmund dieses Jahr Deutscher Meister werden wird. Um mit Wahrscheinlichkeiten naturwissenschaftlich zu arbeiten, benötigt man Wahrscheinlichkeiten der ersten drei dieser vier Sorten. Nur mit den ersten beiden lassen sich zusätzlich quantitative Aussagen über die Realität machen. Allerdings versuchen auch Wissenschaftler manchmal, Wahrscheinlichkeitsaussagen ohne diese Voraussetzungen zu machen. Ich möchte hier zwei Beispiele nennen. Das erste ist die Feinabstimmung der physikalischen Konstanten. Wenn ihre Werte nur minimal anders wären, könnten sich keine Sterne und Planeten formen, keine schweren Elemente und kein Leben bilden. Aus dieser Beobachtung wird oft gefolgert, dass es sehr unwahrscheinlich ist, dass ein Universum genau diese Werte der Naturkonstanten besitzt. Also, meinen manche, ist unser Universum nur eines von vielen, ist Teil eines “Multiversums”. Jedes dieser vielen Universen habe einen zufällig gewählten Satz von physikalischen Konstanten, und folglich gibt es auch irgendwann ein Universum, dass die für Leben richtigen Voraussetzungen erfüllt. Derartige Aussagen haben keine solide Grundlage. Wir kennen weder die Prozesse, durch die einem Universum bei seiner Entstehung die Werte der Naturkonstanten zugewiesen werden, noch verfügen wir über eine gute Statistik über die Häufigkeitsverteilung dieser Konstanten in den Universen. Die unausgesprochene Annahme hinter diesen Überlegungen ist, dass einem Universum bei seiner Entstehung die Werte der Naturkonstanten aus einem größeren Intervall möglicher Werte zufällig zugewiesen werden. Dies ist aber reine Spekulation. Das zweite Beispiel ist die Entstehung des Lebens. Hier ist die Situation zur Zeit noch ähnlich wie bei der Feinabstimmung der Naturkonstanten. Es fehlen bisher wichtige Informationen, die nötig wären, um die Wahrscheinlichkeit für die Entstehung von Leben auf der Erde abzuschätzen. Wir haben weder eine gute Statistik auf der Basis vieler erdähnlicher Planeten, noch verstehen wir bisher die Prozesse, die die ersten Zellen hervorgebracht haben. 1.2 Hintergründe Wenn wir ein Ereignis nicht vorhersagen können und deshalb mit Wahrscheinlichkeiten operieren müssen, gibt es zwei mögliche Erklärungen dafür: Entweder wissen wir einfach nicht genügend über die Ursachen des Ereignisses oder über die Faktoren, die bei seinem Zustandekommen mitwirken. In diesem Fall liegt im Prinzip der Ausgang des Ereignisses aufgrund der Naturgesetze im Voraus schon fest, aber wir kennen ihn aufgrund unserer mangelnden Einsicht nicht. Oder der Ausgang des Ereignisses liegt tatsächlich vorher nicht fest. In diesem Fall hilft selbst eine vollständige Kenntnis der Ausgangssituation nicht, da sie das Ereignis nicht eindeutig festlegt. In diesem Fall ist die Zukunft nicht vollständig in der Gegenwart enthalten. In einer deterministischen Weltsicht liegt grundsätzlich immer die erste Situation vor. Diese Sichtweise führt allerdings auf eine Reihe von Problemen, da dann immer die Ausgangssituation verbunden mit den Naturgesetzen vollständig die zeitliche Entwicklung eines Systems bestimmen würde. Dies würde zum Beispiel bedeuten, dass der Zustand des Universums kurz nach dem Urknall alle Information darüber enthalten hätte, was sich später im Universum ereignet hat, einschließlich der Tatsache, dass Sie jetzt gerade diese Zeilen lesen.... Wir diskutieren das Zusammenwirken von deterministischen und nicht deterministischen Faktoren am Beispiel eines Münzwurfs. Sobald die Münze die Hand verlassen hat, wirken die Gesetze der Mechanik: Die Münze hat eine bestimmte Geschwindigkeit und Richtung, sie dreht sich mit einer bestimmten Rotationsgeschwindigkeit, und sie spürt den Luftwiderstand und die Schwerkraft. Wenn man die Flug- und 5 Rotationsgeschwindigkeit schnell und genau genug messen könnte, könnte man im Prinzip ausrechnen, wie die Münze am Boden aufkommt und ob Kopf oder Zahl das Ergebnis sein wird. – Ist das wirklich so? Was ist, wenn die Münze mit ihrem Rand auf dem Boden aufkommt und dann eine leichte Vibration des Bodens durch den draußen vorbeifahrenden Verkehr oder kaum wahrnehmbare kleine Luftbewegungen entscheidet, wie die Münze endgültig landet? Was ist, wenn ich die Flug- und Rotationsgeschwindigkeit nur auf 6 Stellen hinter dem Komma genau bestimmen kann, aber bei manchen Münzwürfen erst die siebte Stelle hinter dem Komma entscheidet, wie die Münze endgültig landen wird? Immer dann, wenn eine winzige Änderung der Anfangbedingungen oder eine winzige äußere Störung den Ausgang des Münzwurfs ändern kann, ist dieser Ausgang nicht mehr mit Sicherheit aus der Kenntnis der Anfangsbedingungen vorhersagbar. Die Aussage, dass sich der Ausgang eines Münzwurfs “im Prinzip” berechnen lässt, müssen wir daher vorsichtiger formulieren: Viele Münzwürfe sind so, dass sich ihr Ausgang im Prinzip mit Sicherheit vorhersagen lässt (weil eine kleine Störung am Ausgang nichts ändern würde), der Ausgang anderer Münzwürfe lässt sich zwar nicht sicher, aber mit großer Wahrscheinlichkeit vorhersagen (wenn es eine kleine Störung gerade so schaffen könnte, die Münze beim Aufkommen in die andere Richtung zu kippen), und bei manchen Münzwürfen ist der Ausgang ganz unsicher, so dass die Wahrscheinlichkeit für Kopf oder Zahl jeweils ungefähr 50 Prozent beträgt. Dieses Beispiel zeigt, dass eine genauere Kenntnis der Anfangssituation und der Naturgesetze die Unvorhersagbarkeit reduzieren kann, doch sie kann sie im Allgemeinen nicht auf Null reduzieren. Wo die Grenzen der Vorhersagbarkeit liegen, werden wir in den nächsten beiden Kapiteln diskutieren. Bisher haben wir noch nicht gefragt, was passiert, bevor die Münze die Hand verlässt. Wovon hängt es ab, welche Anfangsgeschwindigkeit etc. die Münze hat? Das Gehirn, die Nerven und die Muskeln des Werfenden sind am Werfen der Münze beteiligt. Nur wenn man den Anfangszustand des Werfenden vor dem Wurf genügend genau beschreiben und daraus das Auslösen des Münzwurfs vorherberechnen könnte, könnte man auch schon vor dem Wurf sagen, wie die Münze landen wird. Dies ist aber bisher völlig unmöglich, und es gibt gute Gründe anzunehmen, dass dies prinzipiell unmöglich ist. 1.3 Interpretationen von Wahrscheinlichkeiten 1. Wahrscheinlichkeiten als Tendenzen: Die Interpretation von Wahrscheinlichkeiten als Tendenzen wurde zum Beispiel von Karl Popper vertreten. In dieser Sichtweise hat das betrachtete System eine Tendenz (englisch “propensity”) zu jedem der möglichen Resultate, quantifiziert durch die Wahrscheinlichkeiten dieser Resultate. Quantenmechanische Wahrscheinlichkeiten sind ein gutes Beispiel für solche Tendenzen. Diese Interpretation setzt voraus, dass der Ausgang des betrachteten Prozesses nicht im Voraus festliegt. Bei einer exakten Wiederholung der Ausgangssituation würden dann die möglichen Ergebnisse mit den entsprechenden Wahrscheinlichkeiten auftreten. Durch häufiges Wiederholen derselben Situation kann man diese Wahrscheinlichkeiten in Form von Häufigkeiten messen. 2. Wahrscheinlichkeiten als Häufigkeiten: In dieser Interpretation sind Wahrscheinlichkeiten der Grenzwert, dem die Häufigkeiten zustreben, wenn man die Zahl der Wiederholungen derselben Ausgangssituation oder die Stichprobengröße gegen unendlich streben lässt. Vertreter dieser Interpretation nennt man “Frequentisten”. Diese Interpretation ist eine pragmatische, da sie im Wesentlichen eine Messvorschrift für Wahrscheinlichkeiten angibt, ohne Aussagen über die Hintergründe zu machen. 3. Wahrscheinlichkeiten aufgrund von fehlendem Wissen: Wer eine deterministische Weltsicht vertritt, betrachtet alle Wahrscheinlichkeiten als subjektiv: Nur weil der Betrachter keine vollständige Information über die Ausgangssituation oder die Abläufe hat, kann er das Ergebnis nicht mit Sicherheit vorhersagen. Die Wahrscheinlichkeit, die der Beobachter einem Ereignis zuweist, ist dann ein Maß für seine Überzeugung, dass dieses Ereignis eintreten wird. Über sinnvolle und konsistente Vorgehensweisen, derartige Wahrscheinlichkeiten (auch “Bayessche Wahrscheinlichkeiten” genannt) zu ermitteln, wurde viel nachgedacht. Der Physiker Edwin Thompson Jaynes hat mit seinem Buch 6 “Probability Theory” die beste Abhandlung über die Ermittlung von Bayesschen Wahrscheinlichkeiten verfasst. 1.4 Mathematische Formulierung Der russische Mathematiker Andrey Kolmogorov baute die Wahrscheinlichkeitstheorie ausgehend von Axiomen auf. Im folgenden werden einige wichtige Eigenschaften von Wahrscheinlichkeiten und einige wichtige Definitionen aufgezählt. Sei x eine Zufallsvariable, die die möglichen Werte S ≡ {x1 , x2 , . . .} annehmen kann. Die Werte können diskret sein, so wie beim Würfeln, S = {1, 2, 3, 4, 5, 6}, oder kontinuierlich, wie z.B. die Geschwindigkeiten der Moleküle in einem Gas, S = {−∞ < vx , vy , vz < ∞}. In dem letzten Beispiel ist die Zufallsvariable ein Vektor aus drei Komponenten. Ein Ereignis ist eine Teilmenge E ⊂ S, und ihr wird eine Wahrscheinlichkeit p(E) zugewiesen. Beim Würfeln ist z.B. p({2, 5}) = 1/3. Wahrscheinlichkeiten erfüllen die folgenden Bedingungen und Rechenregeln: 1. Positivität: p(E) ≥ 0 2. Normierung: p(S) = 1 3. Wahrscheinlichkeit für A oder B: p(A ∪ B) = p(A) + p(B) − p(A ∩ B) 4. Bedingte Wahrscheinlichkeit für A, wenn man weiß, dass B eintritt: p(A|B) = p(A∩B) p(B) Für kontinuierliche Zufallsvariablen benötigt man die Wahrscheinlichkeitsdichte P (x). Wenn die Werte von x reelle Zahlen sind, dann ist P (x)dx = prob(E ⊂ [x, x + dx]) (1.1) Ein Beispiel aus der Quantenmechanik für eine Wahrscheinlichkeitsdichte ist das Betragsquadrat der Wellenfunktion |ψ(x)|2 , das die Wahrscheinlichkeitsdichte dafür angibt, bei einer Ortsmessung das Teilchen an der Position x zu finden. Wir werden im Folgenden Wahrscheinlichkeitsdichten mit dem großen Buchstaben P und Wahrscheinlichkeiten mit dem kleinen Buchstaben p notieren. Integriert man P (x) über ein Intervall [a, b], erhält man die Wahrscheinlichkeit dafür, dass die Zufallsvariable in diesem Intervall liegt. Man kann auch für diskrete Zufallsvariablen eine Wahrscheinlichkeitsdichte formulieren. Wenn die Werte xi der Zufallsvariablen reell sind, ist X p(xi )δ(x − xi ) . (1.2) P (x) = i Wir bleiben zunächst bei reellen Zufallsvariablen und definieren bzw. wiederholen einige viel verwendete Größen: 1. Kumulative Verteilungsfunktion: Sie ist die Wahrscheinlichkeit dafür, dass die Zufallsvariable y nicht größer als ein Wert x ist: Z x F (x) = P (y)dy (1.3) −∞ 2. Erwartungswert einer Funktion f (x) der Zufallsvariable: Z ∞ f (x)P (x)dx hf (x)i = (1.4) −∞ 3. Momente hxn i der Wahrscheinlichkeitsverteilung P (x): Z hxn i = xn P (x)dx 7 (1.5) 4. Varianz der Zufallsvariable x: σx2 = h(x − hxi)2 i = hx2 i − hxi2 (1.6) 5. Charakteristische Funktion: Sie ist die Fouriertransformierte der Wahrscheinlichkeitsdichte: Z X (−ik)n χ(k) = dxe−ikx P (x) = he−ikx i = hxn i n! n Umgekehrt ist P (x) = dk ikx e χ(k) . 2π Z (1.7) (1.8) Für mehrdimensionale Verteilungen gelten analoge Beziehungen. Ein Beispiel ist die Geschwindigkeitsverteilung P (~v ) = P (vx , vy , vz ) der Moleküle eines Gases. Mehrdimensionale Verteilungen faktorisieren nur dann, wenn die verschiedenen Variablen voneinander unabhängig sind. Dies ist normalerweise für das Beispiel der Geschwindigkeitsverteilung der Fall, so dass gilt P (vx , vy , vz ) = P1 (vx )P2 (vy )P3 (vz ). Außerdem gilt Z Z P1 (vx ) = dydzP (vx , vy , vz ) . (1.9) Für mehrdimensionale Verteilungen werden noch zwei wichtige Größen definiert, die wir hier für zwei Zufallsvariablen x und y formulieren: Die Kovarianz von x und y ist Cov(x, y) = h(x − hxi)(y − hyi)i = hxyi − hxihyi ; (1.10) Wenn man die Kovarianz durch die beiden Standardabweichungen teilt, bekommt man die Korrelationsfunktion h(x − hxi)(y − hyi)i Cov(x, y) = . (1.11) Cor(x, y) = σx σy σx σy Sie gibt an, inwieweit x und y voneinander abhängig sind und liegt zwischen −1 und 1. 1.5 1.5.1 Einige wichtige Wahrscheinlichkeitsverteilungen Die Binomialverteilung Beginnen wir mit einem Beispiel: N verschiedene Elementarmagnete, nummeriert mit dem Index i, sind an N festen Positionen längs einer Linie angeordnet. Jeder Elementarmagnet hat ein magnetisches Moment mi vom Betrag 1, das nur nach oben oder unten zeigen kann. Wenn es nach oben zeigt, habe es den Wert +1, wenn es nach unten zeigt, den Wert −1. (Siehe Abb. 1.1) i=1 2 3 4 5 6 7 Abbildung 1.1: Das Modellsystem aus magnetischen Momenten. Dieses System hat insgesamt 2N verschiedene mikroskopische Zustände. Ein makroskopischer Zustand ist durch den Wert des gesamten magnetischen Momentes M= N X i=1 8 mi mit mi = ±1 gegeben. Wir gehen davon aus, dass die Elementarmagnete voneinander unabhängig sind und fragen, wieviele mikroskopische Zustände es gibt, die dem selben makroskopischen Zustand entsprechen. Die möglichen Werte von M sind M = N, (N − 2), (N − 4), . . . , −N. Wenn das gesamte magnetische Moment M ist, zeigen N +M magnetische Momente nach oben und N −M 2 2 magnetische Momente nach unten. Es gibt also N! N Ω(N, M ) = N +M = N +M N −M (1.12) ! ! 2 2 2 verschiedene mikroskopische Konfigurationen, die ein Gesamtmoment M haben. Das Maximum von Ω(N, M ) ist bei M = 0. Da zeigen je die Hälfte der magnetischen Momente nach oben und nach unten. Als Nächstes wollen wir Wahrscheinlichkeiten für die verschiedenen Werte des Gesamtmoments bestimmen. Dazu müssen wir wissen, mit welchen Wahrscheinlichkeiten die verschiedenen Werte der einzelnen Momente auftreten. Wir betrachten den Fall, dass die einzelnen Momente voneinander unabhängig sind und dass sie alle dasselbe Magnetfeld und dieselbe Temperatur sehen. Also hat jedes magnetische Moment unabhängig von den anderen Momenten mit der Wahrscheinlichkeit w den Wert +1 und mit der Wahrscheinlichkeit q = 1 − w den Wert −1. (Wie w vom Magnetfeld und der Temperatur abhängt, interessiert uns an dieser Stelle nicht.) Die Wahrscheinlichkeit, dass das Gesamtmoment den Wert M hat, ist folglich N +M N −M N p(M ) = N +M w 2 q 2 . 2 Dies ist eine Binomialverteilung B( N +M 2 , N ). Eine Binomialverteilung ist allgemein durch die Formel N B(n, N ) = wn (1 − w)N −n (1.13) n definiert. Sie tritt immer dann auf, wenn jedes von N unabhängigen Elementen einen von zwei möglichen Werten annehmen kann. Sie gibt die Wahrscheinlichkeit dafür an, dass genau n Elemente den einen Wert und N − n Elemente den anderen Wert haben. Ein anderes Beispiel ist das Werfen einer Münze, wobei die Elemente die einzelnen Würfe sind und die beiden Werte “Kopf” und “Zahl”. Ein weiteres Beispiel ist ein Zufallsweg, bei dem jeder Schritt unabhängig vom vorhergehenden Schritt mit Wahrscheinlichkeit w nach rechts und mit Wahrscheinlichkeit 1 − w nach links geht. Für w = q = 12 vereinfacht sich die Binomialverteilung zu 1 N B(n, N ) = N . (1.14) 2 n Der Mittelwert und die Standardabweichung des Gesamtmoments lassen sich aufgrund der Unabhängigkeit der einzelnen magnetischen Momente durch eine einfache Berechnung bestimmen, ohne auf die Binomialverteilung zurückzugreifen. Der Mittelwert des Gesamtmoments ist durch + *N X X mi hM i = p(M )M = i=1 M gegeben. Da die einzelnen magnetischen Momente voneinander unabhängig sind, ist dies identisch mit hM i = N X i=1 hmi i = N (w − q) = N (2w − 1). 9 (1.15) Die Varianz des Gesamtmoments ist + !2 + * * N X X 2 (mi − hmi i)(mj − hmj i) (mi − hmi i) = = (M − hM i) i,j i=1 = X i,j = h(mi − hmi i)(mj − hmj i)i = 2 N X (mi − hmi i)2 i=1 N w[1 − (2w − 1)] + q[−1 − (2w − 1)]2 = 4N wq. (1.16) Hierbei haben wir wieder die Unabhängigkeit der einzelnen Momente berücksichtigt, also hmi mj i = hmi i hmj i für i 6= j. Damit ergibt sich für die Standardabweichung des Gesamtmoments q p ∆M = hM 2 i − hM i2 = 4N wq . Wir haben damit gezeigt, dass der Mittelwert und die Varianz des Gesamtmoments wegen der Unabhängigkeit der Einzelmomente mit der Summe der Mittelwerte und der Varianzen der Einzelmomente identisch sind. Da die Einzelmomente identischen Bedingungen ausgesetzt sind (also dasselbe w haben), sind alle Mittelwerte und alle Varianzen jeweils gleich. Also ist der Mittelwert des Gesamtmoments N mal der einzelne Mittelwert und die Varianz des Gesamtmoments N mal die einzelne Varianz. Das Verhältnis zwischen Standardabweichung und Mittelwert ist (für w 6= q) s 4wq ∆M . = hM i N (w − q)2 Für diejenige Sorte von Systemen, um die es in dieser Vorlesung meistens geht, sind typische Werte von N von der Größenordnung 1023 , so dass dieses Verhältnis von der Größenordnung 10−11 , also winzig ist. Aus diesem Grund kann man in vielen Fällen eine Größe durch ihren Mittelwert ersetzen, was wir im Laufe der Vorlesung öfters tun werden. Schließlich wollen wir noch die Energie des Systems in einem äußeren Magnetfeld ~h angeben, da wir sie später benötigen. Wenn das Feld nach oben gerichtet ist, ergibt sich E=− N X i=1 hmi = −M h . (1.17) Jedem Wert von M entspricht also ein Wert von E, den man durch Multiplikation mit −h erhält. 1.5.2 Gauß-Verteilung Die Gauß-Verteilung ist eine kontinuierliche Wahrscheinlichkeitsverteilung. Aufgrund des zentralen Grenzwertsatzes (siehe 1.5) tritt sie immer dann auf, wenn die betrachtete Zufallsvariable die Summe vieler voneinander unabhängiger und identisch verteilter Zufallsvariablen ist. So ergibt sie sich auch aus der Binomialverteilung im Grenzfall großer Teilchenzahlen N . Im folgenden zeigen wir explizit, wie die GaußVerteilung aus der Binomialverteilung abgeleitet werden kann. Wir können die Ausdrücke für Ω(N, M ) und p(M ) mit Hilfe der Stirling-Formel √ N ! ≃ N N e−N 2πN für große N und N − |M | vereinfachen. Für Ω(N, M ) ergibt sich Ω(N, M ) = N +M 2 N! N −M ! ! 2 10 s NN 2N N −M N +M N +M π(N − M )(N + M ) 2 2 ( N −M ( ) ) 2 2 r 1 2 q = 2N 2 πN (1 − M ) N −M M N +M 2 2 1− M (1 + ) N N N2 r M 2 (1 − 2 M 2 N N) q ≃ 2 N 2 πN (1 − M ) 2 1 − M 2 ≃ N2 N2 r 2 N2 M22 − M 2M M 22 e N e 2 N e 2N πN r 2 − M2 ≃ 2N e 2N . πN ≃ 2N (1.18) Hier haben wir angenommen, dass M N klein ist (weil Ω eine schmale, um Null zentrierte Verteilung ist) und in führender Ordnung in dieser Größe entwickelt. Wir haben also eine Gaußverteilung mit dem Mittelwert √ Null und der Breite N erhalten. Für große N ist das Maximum dieser Verteilung sehr scharf verglichen mit der Gesamtbreite der möglichen M -Werte. Zur näherungsweisen Berechnung von p(M ) verwenden wir ebenfalls die Stirling-Formel. Im Anschluss M daran entwickeln wir aber nicht in M N , da der Bereich kleiner N viel weniger interessant ist als die Umgebung des Mittelwertes hM i = N (2w − 1). (Nur für w = q = 21 ist der Mittelwert bei M = 0 und kann die obige Rechnung übernommen werden.) Wir schreiben δM = M − hM i und entwickeln in δM N , wobei wir am Schluss nur den ersten nichtverschwindenden Term in der Exponenzialfunktion behalten, nämlich den Term proportional zu (δM )2 /N . Wir erhalten also (indem wir mit der dritten Zeile von δM δM und y = 2wN benützen) (1.18) beginnen und die Abkürzung x = 2qN p(M ) = ≃ N +M = 2N = r ≃ ≃ N −M Ω(N, M ) w 2 q 2 ! N −M r 2 q 2 N 2 πN 1 − M N r r 2 πN 1 2πN wq wq 2 1− M N2 ! N2 w 1+ M N w(1 − M N) M q(1 + N ) 1 1 − x + y − xy 2 2 1 x−y+ x +y 2 e 2πN wq r (δM )2 1 e− 8wqN . 2πN wq ! N +M 2 N 2 N2+1 e ! M2 1 q 1− 1 q 1− M2 1−x 1+y M2 N2 M2 N2 2 2 M −x−y+ y −x 2 2 Dies ist eine Gauß-Verteilung um den Mittelwert hM i = N (2w − 1) mit der Breite ∆M = ist (wie es für eine Wahrscheinlichkeit sein muss) auf 1 normiert: Z X 1 1X p(M )δM ≃ p(M )dM = 1 . p(M ) = 2 2 M (1.19) √ 4N wq. Sie (1.20) M Der Faktor 21 kommt daher, dass der Abstand zwischen zwei aufeinander folgenden M -Werten δM = 2 beträgt. Die Näherung der Summe durch ein Integral wird im Limes N → ∞ exakt. Abbildung 1.2 auf der nächsten Seite zeigt den exakten und genäherten Ausdruck für Ω(N, M ) für N = 30. 11 8 2×10 8 10 Ω(30,Μ) 6 10 8 1×10 4 10 2 10 0 10 -30 -20 -10 0 M 10 20 30 0 -30 -20 -10 0 M 10 20 30 Abbildung 1.2: Der exakte Ausdruck für Ω(N, M ) (durchgezogene Linie) und der genäherte Ausdruck (gestrichelte Linie) für N = 30, einmal mit logarithmischer und einmal mit linearer Achsenskalierung. 1.5.3 Poissonverteilung Die Poissonverteilung ist ein Grenzfall der Binomialverteilung, wenn die Gesamtzahl der Ereignisse, N , sehr groß ist, aber die Zahl der ”Treffer”, k (sie wurde vorher mit n bezeichnet), relativ klein. Hier sind ein paar Beispiele: • Es hat angefangen zu regnen, und man betrachtet die Regentropfenflecken auf den Fliesen der Veranda. Sei N die Gesamtzahl der Regentropfen, die bisher in der Umgebung des Hauses gefallen sind, und k die Zahl der Tropfen auf einer bestimmten Fliese. Wenn wir davon ausgehen dürfen, dass jeder Tropfen mit derselben Wahrscheinlichkeit auf jedem Flächenelement von der Größe einer Fliese landet, ist die Wahrscheinlichkeitsverteilung für k eine Poisson-Verteilung. • Wenn eine menschliche Zelle sich teilt, müssen 6 Milliarden DNA-Buchstaben kopiert werden. Bei jedem dieser Buchstaben werde in einer gewissen Zellkultur mit einer Wahrscheinlichkeit 10−9 ein Kopierfehler gemacht. Die Zahl der daraus resultierenden Punktmutationen k in einer Zelle ist Poisson-verteilt. • In Deutschland sterben jedes Jahr 60000 Personen am Herzinfarkt, das ist einer von 1300. Die Zahl der Personen, die in einem Ort mit 5000 Einwohnern in einem Jahr an einem Herzinfarkt sterben, ist Poisson-verteilt. (Wenn wir davon ausgehen dürfen, dass das Risiko unabhängig vom Wohnort ist.) • Gegeben seien N Atome eines radioaktiven Materials, z.B. Uran-238. Die Halbwertszeit dieser Atome beträgt 4,5 Milliarden Jahre. Die Zahl der Atome, die in einer Probe aus 1018 Atomen in einer Sekunde zerfallen, ist durchschnittlich 5 (wenn ich mich nicht verrechnet habe), und sie folgt einer Poissonverteilung. Ein wichtiger Parameter der Poisson-Verteilung ist der Mittelwert k̄ von k. Er hängt mit der Trefferwahrscheinlichkeit p (wurde vorher w genannt) zusammen über p = k̄/N . Damit beträgt die Wahrscheinlichkeit, genau k Treffer zu haben N k pk̄ (k) = p (1 − p)N −k k N −k N (N − 1)(N − 2) . . . (N − k + 1) k̄ k k̄ k̄ = 1− 1− k! Nk N N 12 −k k̄ 1− N −k N (N − 1)(N − 2) . . . (N − k + 1) k̄ 1− Nk N N (N − 1)(N − 2) . . . (N − k + 1) Nk = ≃ k̄ k k! N k̄ 1− N k̄ k −k̄ e k! k̄ k −k̄ e k! ≃ (1.21) N k̄ = e−k̄ verwendet, und im letzten Schritt haben Im vorletzten Schritt haben wir wieder limN →∞ 1 − N wir die ersten beiden Faktoren durch ihren Grenzwert 1 ersetzt, den sie im Limes N → ∞ annehmen. Abbildung 1.3 zeigt eine Poissonverteilung für k̄ = 7. 0 0,15 10 -3 10 P(k) 0,10 -6 10 0,05 -9 10 -12 10 0 5 10 15 20 k 25 0,00 30 0 10 k 5 15 20 Abbildung 1.3: Poissonverteilung P (k) für k̄ = 7. Der Mittelwert von k beträgt hki = X kpk̄ (k) = k̄ ∞ X k̄ k−1 −k̄ e = k̄ (k − 1)! k=1 k und der Mittelwert von k 2 ist hk 2 i = = X k 2 pk̄ (k) = k k̄ 2 X k k(k − 1)pk̄ (k) + ∞ X k̄ k−2 −k̄ e + k̄ = k̄ 2 + k̄ . (k − 2)! X kpk̄ (k) k k=2 Damit beträgt die Varianz von k hk 2 i − hki2 = k̄ , √ und die Standardabweichung ist k̄. Für große k̄ lässt sich pk̄ (k) so wie in der Rechnung (1.18) durch eine Gauß-Funktion nähern: 2 pk̄ (k) ≃ 1.6 e−(k−k̄) /2k̄ √ 2π k̄ Zentraler Grenzwertsatz Das Ergebnis (1.19) für p(M ) des vorletzten Teilkapitels ist ein Beispiel des zentralen Grenzwertsatzes. Er lautet in seiner für diese Vorlesung relevanten Form folgendermaßen: Gegeben seien N voneinander 13 unabhängige, identisch verteilte Zufallsvariablen xi (i = 1, . . . , N ), von denen jede den Mittelwert hxi Pund die Standardabweichung σx > 0 hat. Dann ist die Wahrscheinlichkeit, dass sich die Summe X = i xi im Intervall [X, X + dX] befindet, gegeben durch 2 hxi) 1 − (X−N 2 2N σx P (X)dX = p e dX . 2πN σx2 P (X) ist eine Wahrscheinlichkeitsdichte. Im Beispiel mit den Elementarmagneten ist die Zufallsgröße das einzelne magnetische Moment, und die Größe X das gesamte magnetische Moment. Für den Beweis führen wir die Variable X √ (xi − hxi)/ N (1.22) Z= i ein und notieren die Wahrscheinlichkeitsdichten für die einzelnen Zufallsvariablen xi mit P1 (xi ). Die Wahrscheinlichkeitsdichte für Z ergibt sich dann zu Z x1 + . . . + xN √ √ + N hxi PZ (Z) = dx1 . . . dxN P1 (x1 ) . . . P1 (xN )δ Z − N Z Z √ −ik(x1 +...xN ) dk ikZ √ +ik N hxi N e dx1 . . . dxN P1 (x1 ) . . . P1 (xN )e = 2π N Z k dk ikZ+ik√Nhxi χ √ e = 2π N Z dk ikZ+ik√Nhxi+N ln χ(k/√N ) , (1.23) = e 2π √ wobei χ(q) √die charakteristische Funktion zu P1 (x) ist. Wenn wir im Exponenten die Funktion ln χ(k/ N ) in q = k/ N Taylor-entwickeln, werden in Verbindung mit dem Faktor N davor alle Terme jenseits des quadratischen Terms in Limes N → ∞ gegen Null gehen. Die Koeffizienten, die in dieser Taylorentwicklung auftreten, nennt man die Kumulanten Cn , also ln χ(q) = ∞ X (−iq)n Cn n! n=1 (1.24) Die Kumulanten hängen eng mit den Momenten zusammen, und durch Einsetzen der Momentenentwicklung aus (1.7) auf der linken Seite von (1.24) erhalten wir die folgenden Ausdrücke für die ersten drei Kumulanten: C1 = C2 C3 = = So erhalten wir schließlich hxi hx2 i − hxi2 = σx2 hx3 i − 3hx2 ihxi + 2hxi3 (1.25) dk ikZ− 1 k2 σx2 +iC3 k3 /6√N+... 2 . (1.26) e 2π Im Limes N → ∞ bleiben nur die ersten beiden Terme im Exponenten übrig, und Ausführen des Integrals ergibt 2 1 −Z (1.27) PZ (Z) = p e 2σx2 . 2πσx2 PZ (Z) = Z Wenn wir von der Variable Z zur Variable X wechseln und dabei berücksichtigen, dass PZ (Z)dZ = P (X)dX sein muss, erhalten wir 2 hxi) 1 − (X−N 2N 2σx P (X) = p . e 2πN σx2 14 (1.28) Dies ist der√zentrale Grenzwertsatz. Das Gleichheitszeichen in der letzten Gleichung gilt für festes Z = (X − hXi)/√ N im Limes N → ∞. Es gilt darüber hinaus aber auch für Abstände (X − hXi), die mit N stärker als N anwachsen, solange der größte vernachlässigte Term immer noch gegen 0 geht. Um seine Größenordnung abzuschätzen, formen wir den vernachlässigten Faktor um, √ √ 3 eiC3 k /6 N ≃ 1 + iC3 k 3 /6 N , (1.29) und wir berücksichtigen, dass der Hauptbeitrag zu dem Integral (1.23) von k-Werten der Größenordnung 2iZ/σx2 kommt (weil dort der Exponent Null wird). Also wird der vernachlässigte Faktor zu 1+ 4C3 (X − hXi)3 4Z 3 C3 √ =1+ . 3N 2 σx6 3σx6 N Dieser Faktor darf in der Tat vernachlässigt werden, wenn |X − hXi| sich in einem Intervall befindet, das mit wachsendem N langsamer als N 2/3 ansteigt. Im Grenzfall N → ∞ geht dieser Faktor dann gegen 1/3 Null. Für Werte |X − hXi|, die die Größenordnung N 2/3 σx2 /C3 übersteigen, gilt also die Gaußsche Näherung nicht mehr, und diese Abweichung im Schwanz der Verteilung sieht man sehr schön in Abb.1.2. Dort ist N nur 30, und 302/3 ≃ 10. Also werden die Abweichungen sichtbar, wenn M die Größenordnung 10 erreicht. (Da bei dieser Überlegung konstante Faktoren weggelassen wurden, ist es überhaupt kein Problem, dass die Abweichung erst jenseits von 15 gesehen werden kann.) Als weiteres Anwendungsbeispiel des Zentralen Grenzwertsatzes betrachten wir noch einmal das System aus unabhängigen Elementarmagneten und fragen nach der Wahrscheinlichkeit dafür, dass der Anteil γ aller Elementarmagnete den Wert +1 hat. Wir nennen N+ = γN die Zahl der Magnete, die den Wert +1 haben. Also ist p(γ) = B(N+ , N ). Dies ist ein Beispiel, für das der zentrale Grenzwertsatz vewendet werden kann: Jeder Elementarmagnet trägt mit Wahrscheinlichkeit w mit einem Summanden 1 zu N+ bei und mit Wahrscheinlichkeit 1 − w mit dem Summanden 0. Also trägt jeder Elementarmagnet im Durchschnitt einen Summanden w zu N+ bei. Die Varianz jedes Einzelbeitrags ist w(1 − w)2 + qw2 = w(1 − w) = wq. Also gilt nach dem zentralen Grenzwertsatz P (N+ ) = √ (N+ −wN )2 1 e− 2wqN = p(N+ ) . 2πN wq (1.30) Weil der Abstand zweier benachbarter N+ -Werte 1 ist, tritt beim Wechsel von P zu p kein weiterer Faktor auf. Für P (γ) ergibt sich s P (γ) = 2 N − (γ−w) e 2wq/N . 2πwq Dieses letzte Ergebnis kann man auf zwei Arten begründen: Erstens dadurch, dass jeder Elementarmagnet wq w im Durchschnitt einen Summanden N zu γ und einen Summanden N 2 zu seiner Varianz beiträgt, und zweitens dadurch, dass man in (1.30) einen Variablenwechsel N+ = N γ macht und dafür sorgt, dass die neue Verteilung wieder richtig normiert ist. (Es muss gelten P (γ)dγ = P (N+ )dN+ .) 1.7 Information Der in der Thermodynamik eingeführte und in späteren Kapiteln wichtige Begriff der Entropie hängt eng mit dem Begriff der Information zusammen. Entropie ist ein Maß für unsere Unkenntnis des genauen mikroskopischen Zustands, in dem das System sich befindet, wenn wir nur die makroskopischen Variablen kennen. Information ist ein Maß für unseren Kenntnisgewinn, wenn wir erfahren, in welchem mikroskopischen Zustand sich das System befindet. Dieser entspricht natürlich dem Ausmaß der Unkenntnis, die wir vorher hatten. Allerdings ist “Information” ein Konzept, das viel breiter angewandt wird als nur in der statistischen Mechanik. Allgemein ist Information ein Maß für unseren durchschnittlichen Kenntnisgewinn, wenn wir erfahren, welches Ereignis aus einer Menge von möglichen Ereignissen tatsächlich eingetreten ist. Sei x 15 eine Zufallsvariable, die die Werte xi jeweils mit der Wahrscheinlichkeit pi annimmt, wobei Die mit dieser Wahrscheinlichkeitsverteilung verbundene Information ist X pi log2 pi . I({pi }) = − P i pi = 1. (1.31) i Um diese Definition zu verstehen, betrachten wir zunächst den Fall dass die pi = 2−n sind. Dann ist I({pi }) = n. Das ist die Zahl von Ja/Nein-Fragen, die man benötigt, um herauszufinden, welches Ereignis eingetreten ist. Anders formuliert ist es die Zahl von Bits, die man benötigt, um das Ereignis eindeutig zu spezifizieren. Wenn die Ereignisse verschiedene Wahrscheinlichkeiten haben, ist der Informationsgewinn niedrig, wenn ein Ereignis eintritt, dessen Wahrscheinlichkeit hoch ist, und hoch, wenn ein Ereignis eintritt, dessen Wahrscheinlichkeit niedrig ist. Wenn ein Ereignis eintritt, das die Wahrscheinlichkeit pi hat, ist unser Informationsgewinn − log2 pi , unabhängig davon, wie sich der Rest der Wahrscheinlichkeit auf die übrigen Ereignisse aufteilt. Wenn wir diesen Informationsgewinn über alle Ereignisse mitteln (dabei müssen sie jeweils mit ihrer Wahrscheinlichkeit gewichtet werden), erhalten wir die Definition (1.31). Ursprünglich wurde das Konzept der Information von Shannon im Zusammenhang mit der Datenübertragung eingeführt. Wir betrachten einen Datensatz, der aus den Zeichen {xi } aufgebaut ist, die jeweils die Häufigkeit pi haben. Dieser Datensatz soll binär kodiert werden. Die kürzeste Kodierung bekommt man, wenn man für häufige Zeichen wenig Bits und für seltene Zeichen mehr Bits verwendet, also für ein Zeichen der Häufigkeit pi eine AnzahlPvon − log2 pi Bits. Um eine Botschaft aus N Zeichen zu kodieren, benötigt man also mindestens −N i pi log2 pi Bits. Dies ist der Informationsgehalt der Botschaft. Wie oben erwähnt, hängen Entropie und Information eng miteinander zusammen. Die beiden Formeln sind proportional zueinander. In der Formel für die Entropie steht statt dem log2 ein kB ln, wobei kB die Boltzmann-Konstante ist. 1.8 Das Prinzip der maximalen Ignoranz In der statistischen Physik ist es oft nicht möglich, die Wahrscheinlichkeiten der verschiedenen mikroskopischen Zustände dadurch zu bestimmen, dass man die Häufigkeit ihres Auftretens misst. Also müssen die Werte für diese Wahrscheinlichkeiten zunächst postuliert werden. Anschließend kann man testen, ob die aus diesen postulierten Werten resultierenden Eigenschaften des Systems mit der Beobachtung übereinstimmen. Wenn sie es nicht tun, hat man bei den Überlegungen eine wichtige Eigenschaft der Systeme nicht berücksichtigt. Die Regel für das Postulieren der Werte der Wahrscheinlichkeiten ist folgende: man geht davon aus, dass es zusätzlich zu dem, was man schon weiß, nichts gibt, was sich auf die Werte der Wahrscheinlichkeiten auswirkt. Diese Art von Zugang zur statistischen Physik wurde sehr schön von E.T. Jaynes im Jahr 1957 ausgearbeitet (Phys. Rev. 106, 620-630 und Phys. Rev. 108, 171-190). Wir betrachten 3 Fälle, die später bei der Behandlung der statistischen Ensembles wichtig werden. Wenn wir keinen Grund wissen, einen Zustand gegenüber einem anderen zu bevorzugen, postulieren wir gleiche Wahrscheinlichkeiten pi = 1/N für alle Zustände. Dies können wir aus dem Prinzip der maximalen Ignoranz formal herleiten. Dieses Prinzip besagt, dass die “Ignoranz”, also die für die Spezifizierung eines Mikrozustandes benötigte Information I({pi }) maximal sein soll, unter Verwendung der NebenbeP dingung i pi = 1 und eventuell weiterer bekannter Nebenbedingungen. In dem hier betrachteten Fall gibt es keine weiteren Nebenbedingungen. Formal wird eine Maximierung mit Nebenbedingungen mit Hilfe von Lagrange-Multiplikatoren durchgeführt. Es ist also der Ausdruck ! X X pi − 1 pi log2 pi − λ − i i zu maximieren bezüglich der Wahl der pi und von λ, d.h. die Ableitung dieses Ausdrucks nach all diesen Größen muss verschwinden. Damit gewährleisten wir gleichzeitig, dass die Nebenbedingung erfüllt ist und 16 dass I({pi }) den größten mit der Nebenbedingung verträglichen Wert annimmt. Ableitung nach pi gibt die Bedingung −1 − ln pi − λ ln 2 = 0 oder pi = e−1−λ ln 2 . Alle pi sind also gleich, und ihr Wert (bzw. der von λ) ist durch die Normierungsbedingung festgelegt. Wir betrachten als nächstes die Situation, dass sich die Mikrozustände des Systems in den Werten einer Variable x unterscheiden können. Sie nimmt im Zustand Nummer i (mit i = 1, . . . N ) den Wert xi an. Es sei der Mittelwert hxi der Variable gegeben, was eine zweite Nebenbedingung an die pi ist. Dann benötigt man zwei Lagrange-Parameter, und es ist der Ausdruck ! ! X X X pi xi − hxi pi − 1 − µ pi log2 pi − λ − i i i zu maximieren bezüglich der Wahl der pi und von λ und µ. Ableitung nach pi gibt die Bedingung −1 − ln pi − λ ln 2 − xi µ ln 2 ≡ −1 − ln pi − λ̃ − µ̃xi = 0 oder pi = e−1−λ̃−µ̃xi . Die Werte von λ und µ sind so zu wählen, dass die beiden Nebenbedingungen erfüllt sind. Der Wert von λ wird durch die Normierung der Wahrscheinlichkeiten festgelegt. Mit der Umformung e1+λ̃ = Z erhalten wir e−µ̃xi pi = (1.32) Z woraus X (1.33) e−µ̃xi Z= i folgt. Der Wert von µ ist so festzulegen, dass der Mittelwert von x den vorgegebenen Wert hxi hat. Der Zusammenhang zwischen µ und hxi ist d ln Z . (1.34) hxi = − dµ̃ Wenn es zwei Zufallsvariablen x und y gibt, die im Zustand Nummer i die Werte xi bzw. yi annehmen, und wenn die Mittelwerte von beiden vorgegeben sind, ist der Ausdruck ! ! ! X X X X pi yi − hyi pi xi − hxi − ν pi − 1 − µ pi log2 pi − λ − i i i i zu maximieren. Der Index i zählt jetzt alle möglichen Kombinationen der Werte von x und y durch, und xi bzw. yi bezeichnen den Wert von x und y im Zustand i. Es ergibt sich pi = mit Z= e−µ̃xi −ν̃yi Z X e−µ̃xi −ν̃yi (1.35) (1.36) i und ν̃ = ν ln 2. Der Wert von µ ergibt sich aus der Bedingung hxi = − d ln Z , dµ̃ (1.37) d ln Z . dν̃ (1.38) und der Wert von ν ergibt sich aus der Bedingung hyi = − 17 1.9 Zusammenhang mit dem Entropiesatz Aus dem Prinzip der maximalen Ignoranz folgt der Entropiesatz. Das Prinzip der maximalen Ignoranz besagt, dass in einem abgeschlossenen System alle durch die Dynamik erreichbaren Zustände gleich wahrscheinlich sind. Wir können die verschiedenen Zustände des Systems in Gruppen zusammenfassen, die jeweils mit denselben makroskopischen Eigenschaften einhergehen. Für unser Beispiel mit den Elementarmagneten ist diese makroskopische Eigenschaft das gesamte magnetische Moment. Es gibt also zu jedem “Makrozustand” viele “Mikrozustände”. Aus dem Prinzip der maximalen Ignoranz folgt, dass die Wahrscheinlichkeit, im System einen bestimmten Makrozustand zu beobachten, gleich dem Anteil der Mikrozustände ist, die zu diesem Wert der makroskopischen Beobachtungsgröße gehören. In Systemen aus ca. 1023 Teilchen unterscheiden sich diese Wahrscheinlichkeiten normalerweise so krass, dass fast alle Mikrozustände in einem schmalen Bereich um den wahrscheinlichsten Wert der Beobachtungsgröße liegen. Die Zahl der Mikrozustände, die zu anderen Werten der Beobachtungsgröße gehören, ist deutlich geringer. Im Gleichgewicht wird also derjenige Makrozustand angenommen, der die meisten Mikrozustände hat, also die größte Entropie. Wenn das System in einem anderen Makrozustand initialisiert wird, wird die Entropie also zunehmen, bis sie ihren Maximalwert erreicht, also bis die Beobachtungsgröße ihren wahrscheinlichsten Wert annimmt. Die Wahrscheinlichkeit, dass ein System den Mikrozustand Nummer i annimmt, sei pi . Die Entropie ist dann definiert als X pi ln pi (1.39) S = −kB i −23 mit der Boltzmannkonstanten kB = 1, 38 × 10 J/K. Wenn alle pi identisch sind, vereinfacht sich diese Formel zu S = kB ln Ω , (1.40) wobei Ω = 1/pi die Zahl der Mikrozustände ist. Wir konkretisieren die obige Überlegungzum Entropiesatz am Beispiel des Systems aus Elementarmagneten. In unserem Modellsystem aus magnetischen Momenten (Abschnitt 1.4.1.) sind die Mikrozustände die verschiedenen Kombinationen von Spineinstellungen. Wir betrachten die Situation, dass kein Magnetfeld angelegt wurde. Dann haben alle 2N Konfigurationen dieselbe Energie. Das Prinzip der maximalen Ignoranz besagt nun, dass wir keinen Grund haben, einen dieser Mikrozustände zu bevorzugen, und dass deshalb alle Mikrozustände gleich wahrscheinlich sind. Wir können nun fragen, welchen Wert der Gesamtmagnetisierung wir beobachten werden. Es gibt Ω(N, M ) Mikrozustände mit derselben Gesamtmagnetisierung M/N . Die Wahrscheinlichkeit, die Magnetisierung M/N zu beobachten, beträgt für große N r 2 − M2 N e 2N . Ω(N, M )/2 ≃ (1.41) πN Dies ist eine sehr √ scharf um Null zentrierte Gaußverteilung. Die Standardabweichung ∆M/N ist proportional zu 1/ N . Für einen makroskopischen Festkörper ist N von der Größenordnung 1023 und die Standardabweichung der Magnetisierung ist daher von der Größenordnung 10−11 , also winzig. Nun ordnen wir den Zuständen mit der verschiedenen Magnetisierung eine Entropie zu. Sie beträgt S(M, N ) = kB ln Ω(N, M ) . (1.42) Sie hat also ihr Maximum dort, wo Ω(N, M ) sein Maximum hat, und das ist bei M = 0. Wenn wir am Anfang unser System so präparieren, dass alle Elementarmagneten in dieselbe Richtung zeigen, haben wir einen Anfangszustand mit Entropie S = 0. Durch die Dynamik in dem System werden nun alle Spins hinund herflippen, so dass über längere Zeit alle Spinkonfigurationen gleich häufig sind. M wird abnehmen und schließlich den Wert Null erreichen. Wir betrachten noch ein zweites Beispiel, das für die Überlegungen der nächsten beiden Kapitel wichtig ist. In einer Kammer seien N Atome eines idealen Gases. Diese Atome können sich nicht durchdringen und führen miteinander elastische Stöße aus. Es gibt sonst keine Wechselwirkung zwischen den Atomen. In einem abgeschlossenen System ist dann die Gesamtenergie durch die gesamte kinetische Energie der 18 Atome gegeben. Das Prinzip der maximalen Ignoranz besagt nun wieder, dass alle Zustände zur gleichen Energie gleich wahrscheinlich sind. Da die Position eines Atoms keinen Einfluss auf seine Energie hat, sind also auch alle Positionen eines Atoms gleich wahrscheinlich (wir gehen davon aus, dass die Atome nur einen sehr kleinen Anteil des Gesamtvolumens einnehmen, so dass ein Überlapp unwahrscheinlich ist, wenn wir die Positionen zufällig wählen). Wir unterteilen das Volumen in n gleich große Teilvolumina, und unsere Beobachtungsgröße, also unser Makrozustand, sei die Atomdichte in diesen Teilvolumina. Jedes Atom ist mit gleicher Wahrscheinlichkeit in jedem dieser Teilvolumina. Die mittlere Anteil von Atomen in einem Teilvolumen ist 1/n, und die Varianz dieses Anteils ist ungefähr 1/N n. Diese Varianz berechnet man folgendermaßen: Wir verteilen die Atome zufällig auf die Teilvolumina, indem wir jedes Atom mit derselben Wahrscheinlichkeit in jedes der n Teilvolumina setzen. Wir betrachten ein bestimmtes Teilvolumen. Die Wahrscheinlichkeit, dass ein gegebenes Atom in diesem Teilvolumen landet, beträgt 1/n. Wenn es dort landet, macht es einen Beitrag 1/N zu unserer Messgröße (Anteil der Atome in diesem Teilvolumen), im anderen Fall macht es den Beitrag Null. Die Varianz dieses Beitrags ist 1 n 1 1 − N nN 2 2 1 1 1 + 1− ≃ . n nN nN 2 Im letzten Schritt haben wir angenommen, dass n viel größer als 1 ist. Nach dem zentralen Grenzwertsatz ist die gesamte Varianz N mal die Varianz eines Teilchens, also 1/nN . Wenn N von der Größenordnung 1023 ist, ist die Schwankung um die mittlere Dichte extrem klein. Im Gleichgewicht ist also die Atomdichte in jedem Teil des Volumens gleich. Wenn wir das System mit einer ungleichen Verteilung starten, wird die Entropie solange zunehmen, bis die gleichmäßige Verteilung erreicht ist. Übungsaufgaben zu Kapitel 1 1. In einem Gefängnis sitzen drei zum Tode verurteilte Gefangene: Anton, Brigitte und Clemens. Genau einer von ihnen soll begnadigt werden. Dazu wird ein Los gezogen, das allen die gleiche Chance gibt, begnadigt zu werden. Der Gefangene Anton, der also eine Überlebenswahrscheinlichkeit von 1/3 hat, bittet den Wärter, der das Ergebnis des Losentscheids kennt, ihm einen seiner Leidensgenossen Brigitte oder Clemens zu nennen, der oder die sterben muss. Der Wärter antwortet “Brigitte”. Wie hoch ist nun Antons Überlebenswahrscheinlichkeit? Wie hoch ist nun die Überlebenswahrscheinlichkeit von Clemens? (Lösung auf http://de.wikipedia.org/wiki/Gefangenenparadoxon) 2. Im Folgenden ist ein Argument von Gegnern der Evolutionstheorie wiedergegeben. Finden Sie dieses Wahrscheinlichkeitsargument überzeugend? Consider the alpha chain of human hemoglobin - a key component of blood which serves as a transfer agent for oxygen. The alpha hemoglobin molecule is a protein chain based on a sequence of 141 amino acids, and the hemoglobin of virtually every human has the same sequence. There are 20 different amino acids common in living systems. Thus the number of different chains (141 amino acids long) is 20141 , or roughly 10183 . If 5 billion years ago, as many as 1040 amino-acid molecule generators, each producing a different randomly chosen 141 amino-acid sequence one billion times per second, began generating sequences, then at the present point in time only about 1066 sequences would have been generated. Thus the probability that human alpha hemoglobin would have been produced is about 1066 /10183 = 10−117 , a fantastically small number. Thus no conventional theory of molecular evolution can account for the origin of human alpha hemoglobin. 3. Random Walk: Ein Besoffener hat völlig die Orientierung verloren und überlegt nach jedem Schritt neu, in welcher Richtung der nächste Schritt gehen soll. Er entscheidet sich jedes Mal mit Wahrscheinlichkeit 1/2 für einen Schritt nach rechts und mit Wahrscheinlichkeit 1/2 für einen Schritt nach links. Wenn die Schrittgröße einen Meter beträgt, was ist dann die Abstandverteilung vom Ausgangsort nach N Schritten? Was ergibt sich nach dem zentralen Grenzwertsatz für große N ? Mit welcher Potenz von N wächst demnach die mittlere Entfernung vom Ausgangsort? 19 4. Punktmutationen, die beim Duplizieren der DNA entstehen, werden durch ausgeklügelte Korrekturmechanismen so gut korrigiert, dass pro Generation nur eine Punktmutation in 50 Millionen Basenpaaren entsteht. Das Chromosom Nummer 10 des Menschen hat 135 Millionen Basenpaare. Was sind die Wahrscheinlichkeiten dafür, dass ein Chromosom 10 des Kindes keine, eine, zwei Punktmutationen gegenüber dem elterlichen Chromosom 10 bekommt? 5. Auf einer Single-Party sind 64 Männer und 128 Frauen. Am Ende der Party ist jeder Mann mit einer der Frauen befreundet. Das ist die einzige Information, die ich bis jetzt von der Party habe. Was ist mein Informationsgewinn (in Bit), wenn ich erfahre, dass Silke seit der Party mit Erwin befreundet ist? Was ist mein Informationsgewinn (in Bit), wenn ich nur erfahre, dass Silke auf der Party einen Freund gefunden hat? 6. Von einer Zufallsvariable x ist nur bekannt, dass ihr Mittelwert x̄ ist und die Varianz σ 2 . Leiten Sie mit Hilfe des Prinzips der maximalen Ignoranz die Wahrscheinlichkeitsverteilung p(xi ) ab. Berechnen Sie explizit die Werte der Lagrange-Parameter für den Fall, dass die möglichen Werte von x äquidistant den Bereich von −∞ bis ∞ abdecken. Nehmen Sie dabei an, dass der Abstand benachbarter xi -Werte sehr viel kleiner als σ ist, so dass Sie die auftretenden Summen durch Integrale ersetzen können. 20 Kapitel 2 Von der klassischen Mechanik zur statistischen Mechanik 2.1 Die Aufgabe Bevor es die Quantenmechanik gab, versuchte man, die statistische Mechanik auf die klassische Mechanik zurückzuführen. Man stellte sich zum Beispiel ein ideales Gas als viele kleine harte Kügelchen vor, die den Newtonschen Gesetzen folgen und miteinander und mit den Wänden elastische Stöße ausführen. Da jeder dieser Stöße reversibel ist und auch die Bewegung zwischen den Stößen reversibel ist, stellt sich die Frage, woher die Irreversibilität der Thermodynamik kommt, die sich zum Beispiel im Entropiesatz manifestiert. Da die klassische Mechanik deterministisch ist, stellt sich weiterhin die Frage, wo der Zufall ins Spiel kommt, der in der statistischen Mechanik eine so wichtige Rolle spielt. Um diesen Fragen nachzugehen, beschreiben wir zunächst die Dynamik des “Gases” aus harten Kugeln durch die Hamiltonschen Bewegungsgleichungen und gehen in den Phasenraum. Wir werden dann überlegen, wie ein Ensemble von anfangs sehr ähnlichen Systemen sich mit der Zeit entwickelt. 2.2 Die Liouville-Gleichung Wir betrachten ein “Gas” aus N Teilchen, das in eine Kammer eingesperrt ist. Der Bewegungszustand jedes der N Teilchen wird durch drei Ortskoordinaten und drei Impulskomponenten festgelegt. Wir nummerieren die 3N Ortskoordinaten qi und die 3N Impulskoordinaten pi entsprechend von 1 bis 3N . Sie genügen den Hamiltonschen Bewegungsgleichungen ∂H ∂qi ∂H , ∂pi ṗi = − q̇i = (2.1) wobei H die Hamiltonfunktion ist. Die Dynamik des gesamten Teilchengases lässt sich also durch die Trajektorie eines Punktes im 6N -dimensionalen Phasenraum darstellen. Wir schreiben ~x = (p1 , . . . , p3N , q1 , . . . , q3N ) . (2.2) Die Bewegungsgleichungen (2.1) lassen sich also zusammenfassen als ẋi = fi (~x) mit der durch die rechte Seite von (2.1) gegebenen Funktion f~. 21 (2.3) Um die Brücke zwischen der klassischen Mechanik und der statistischen Mechanik zu bauen, betrachtet man nun nicht ein einzelnes System, sondern ein ganzes Ensemble von solchen Systemen. Da man die Anfangsbedingung sowieso nicht mit beliebiger Genauigkeit angeben kann, betrachtet man das Ensemble von Systemen, deren Anfangszustand im Rahmen einer gewählten Genauigkeit übereinstimmt. Im Phasenraum füllen all diese Anfangszustände des Ensembles ein kleines endliches Volumen aus. Wir wählen das Ensemble so, dass die Dichte der Systeme in diesem kleinen Volumen einen konstanten Wert ̺0 hat und außerhalb verschwindet. Nun betrachtet man die zeitliche Entwicklung all dieser Systeme gleichzeitig im Phasenraum. Jeder Punkt des anfänglich gewählten Volumenelements bewegt sich gemäß Gleichung (2.3). Das Volumenelement bewegt sich also und deformiert sich dabei. Wir zeigen zunächst, dass sich das Gesamtvolumen dabei nicht ändert. Hierzu machen wir den Ansatz V = l1 l2 . . . l6N (mit infinitesimalen li ), wir gehen also davon aus, dass das Volumenelement ein 6N -dimensionaler “Quader” (i) (i) ist, dessen Kanten sich in jeder der 6N Dimensionen von xa bis xe erstrecken. Durch Taylorentwicklung (1) (1) erhalten wir l˙1 = ẋe − ẋa ≃ l1 ∂f1 /∂x(1) . Damit folgt V̇ = l˙1 l2 . . . l6N + l˙2 l1 l3 . . . l6N + . . . ∂f1 ∂f2 = l1 l2 . . . l6N + (2) l2 l1 l3 . . . l6N + . . . (1) ∂x ∂x X ∂fi = l1 l2 . . . l6N ∂x(i) i ~ · f~ . = V∇ (2.4) Die Divergenz der Funktion f~ entscheidet also, wie sich das Phasenraumvolumen unter der Dynamik ändert. Für unsere Hamiltonschen Bewegungsgleichungen gilt ~ · f~ = ∇ 3N X ∂ ∂H ∂ ∂H − = 0. + ∂pi ∂qi ∂qi ∂pi i=1 (2.5) Das Phasenraumvolumen ändert sich also nicht, sondern deformiert sich nur. Wir bezeichnen mit ̺(~x, t) die Dichte der Zustände unseres Ensembles im Phasenraum. Sie ist am Anfang ̺0 innerhalb des gewählten Volumenelements, und außerhalb ist sie 0. Wir haben eben gezeigt, dass sich das Phasenraumvolumenelement unter der Hamiltonschen Dynamik deformiert, aber dass es nicht sein Volumen ändert. Also gibt es auch zu späteren Zeiten nur Bereiche mit Dichte ̺0 und 0, die aber immer feiner verwoben werden. Die Bewegungsgleichung, der die Dichte ̺(~x, t) genügt, nennt man Liouville-Gleichung. Sie gilt natürlich nicht nur für den von uns betrachteten Fall, dass alle Dichtewerte ̺0 oder 0 sind, sondern auch für allgemeine Dichtewerte. Wir betrachten im Folgenden daher allgemeine Funktionen ̺(~x, t). Wir leiten die Liouville-Gleichung aus den Hamiltonschen Gleichungen her, indem wir mit der Kontinuitätsgleichung starten und die rechte Seite mit Hilfe der Hamiltonschen Gleichungen umformen: ∂̺ ~ ̺~x˙ = −∇ ∂t X ∂ ∂H ∂ ∂H ̺ − ̺ = ∂pi ∂qi ∂qi ∂pi i X ∂H ∂ ∂H ∂ = ̺ − ∂qi ∂pi ∂pi ∂qi i ∂̺ ∂t = {H, ̺} . (2.6) Die geschweifte Klammer in der letzten Zeile ist eine verkürzte Notation des Ausdrucks in der Zeile darüber. Man nennt ihn die Poisson-Klammer. Die Liouville-Gleichung besagt also, dass die zeitliche Änderung der Phasenraumdichte ̺ durch die Poisson-Klammer der Hamiltonfunktion mit ̺ gegeben ist. 22 2.3 Langzeitverhalten und Ergodizität Die Liouville-Gleichung beschreibt die zeitliche Änderung der Phasenraumdichte. Wir können uns die Phasenraumdichte zur Zeit t dadurch veranschaulichen, dass wir ein Ensemble von sehr vielen (eigentlich unendlich vielen) Systemen vorstellen, von denen der Anteil ̺(~x, t)d6N x sich in dem Phasenraumvolumenelement der Größe d6N x am Phasenraumpunkt ~x befindet. Da jedes dieser Systeme sich gemäß der Hamiltonschen Bewegungsgleichungen entwickelt, ändern sich die Anteile der Systeme in den verschiedenen Phasenraumvolumenelementen, und damit ändert sich die Funktion ̺(~x, t). Nun gilt für jedes System dieses Ensembles die Energieerhaltung. Die Phasenraumtrajektorie eines Systems der Energie E bewegt sich daher auf einer Energieschale im Phasenraum, also in demjenigen Unterraum, der die Energie E hat. Das gesamte Phasenraumvolumen, das zum Energieintervall [E, E + dE] gehört, bezeichen wir mit Σ(E)dE. Das Phasenraumvolumen, das zu allen Energiewerten ≤ E gehört, bezeichnen wir mit Ω̄kl (E). Es gilt Z Z dΩ̄kl dAE Σ(E) = dSE . (2.7) ≡ = ~ H=E dE SE SE |∇H| Das Integral wird über alle Punkte der Energie E des Phasenraumvolumens genommen. dAE ist das ~ H=E ist die Dicke der Energieschale. Die Ener(6N −1)-dimensionale Hyperflächenelement, und dE/|∇H| ~ H=E klein gieschale ist dicker, wenn sich die Energie in Normalenrichtung wenig ändert (also wenn |∇H| ist). dSE ist das infinitesimale Energieschalenelement, das an verschiedenen Stellen verschieden dick sein kann. Man stellt sich vor, dass ein anfänglich kompaktes Phasenraumvolumenelement sich aufgrund der Dynamik dieses N -Teilchensystems wie ein immer länger und dünner werdender Faden über alle Bereiche der Energieschale erstreckt und so im Laufe der Zeit jedem beliebigen Punkt der Energieschale beliebig nahe kommt. Wie ein Milchtröpfchen, das man in Kaffee gibt, verteilt sich das anfänglich scharf lokalisierte Phasenraumvolumen über die gesamte Energieschale. Man nennt ein derartiges Verhalten in Anlehnung an die Analogie mit einem Flüssigkeitströpfchen mischendes Verhalten. Dies ist nicht identisch mit chaotischem Verhalten. Zu chaotischem Verhalten gehört ein exponenziell schnelles Auseinanderlaufen benachbarter Trajektorien, was für mischendes Verhalten nicht zwingend nötig ist. Umgekehrt kann es bei chaotischem Verhalten reguläre “Inseln” im Phasenraum geben, die nicht von einer chaotischen Trajektorie besucht werden können. Bisher konnte man erst für wenige Modellsysteme mischendes Verhalten explizit theoretisch nachweisen. Allerdings ist mischendes Verhalten für Vielteilchensysteme mit chaotischer Dynamik sehr plausibel und ist eine wichtige Grundannahme der statistischen Physik. Die aus dieser Annahme abgeleiteten Eigenschaften passen exzellent mit dem empirischen Befund zusammen. Eine wichtige Voraussetzung für mischendes Verhalten ist, dass es außer der Energie keine weitere Erhaltungsgröße gibt, denn das würde die Trajektorien innerhalb der Energieschale auf einen Unterraum einschränken, in dem diese Erhaltungsgröße einen konstanten Wert hat. Mischende Systeme sind ergodisch. Man findet in der Literatur verschiedene Definitionen für Ergodizität, die für mischende Systeme äquivalent sind: • Ein ergodisches System hat (zu gegebener Energie) eine einzige stationäre Lösung der LiouvilleGleichung, und diese ist eine Konstante über der Energieschale. Dass eine konstante Funktion die Gleichung ̺˙ = 0 löst, kann man direkt aus der Liouville-Gleichung (2.6) ablesen. Für ergodische Systeme ist die Konstante die einzige stationäre Lösung. • Eine “typische” Trajektorie im Phasenraum kommt im Laufe der Zeit jedem Punkt auf der Energieschale beliebig nahe. “Typische” Trajektorien sind alle Trajektorien bis auf einige wenige spezielle Trajektorien, die zu Anfangswerten gehören, die das Maß Null in der Energieschale haben. Solche speziellen Trajektorien sind zum Beispiel instabile periodische Bahnen. • Das Langzeitmittel einer Funktion f (~x) ist identisch mit dem Mittel über die Energieschale, 1 T →∞ T hf (~x(t))iT = lim Z 0 T f (~x(t))dt = hf (~x)iS = 23 1 Σ(E) Z SE f (~x)dSE , (2.8) wobei das infinitesimale Energieschalenelement dSE in Gl. (2.7) definiert wurde. Diese Bedingung nennt man oft kurz “Zeitmittel = Scharmittel”. Statt die Funktion f in einem System über lange Zeit zu mitteln, kann man diesen Mittelwert alternativ dadurch berechnen, dass man den Mittelwert nur zu einer Zeit, aber über eine “Schar”, also ein Ensemble von Systemen nimmt, die alle dieselbe Energie haben und die gleichmäßig über die Energieschale verteilt sind. 2.4 Irreversibilität Nach all diesen Vorüberlegungen kommen wir zur Kernfrage: wie kann man die Irreversibilität der statistischen Mechanik erklären angesichts der Reversibilität der Newtonschen Bewegungsgleichungen, die dem harte-Kugel-Gas zugrunde liegen? Bisher haben wir darüber geredet, dass in mischenden Systemen ein anfänglich kompaktes Phasenraumvolumenelement sich mit der Zeit über die gesamte Energieschale ausbreitet, so dass jedes kleine Phasenraumvolumenelement auf der Energieschale nach genügend langer Zeit einen Teil des anfänglichen Volumens enthält. Wenn wir zum Beispiel einen Anfangszustand wählen, bei dem alle Teilchen des Gases in einer Ecke des Raums sind (das entspricht einer speziellen Position des anfänglichen Phasenraumvolumenelements), dann wird die überwältigende Mehrheit der Systeme unseres Ensembles nach gewisser Zeit ein gleichmäßig über den Raum verteiltes Gas enthalten, denn der allergrößte Teil der Energieschale im Phasenraum entspricht Zuständen, bei denen das Gas gleichmäßig verteilt ist (weil das die mit Abstand wahrscheinlichste Aufteilung der Gasteilchen auf den Raum ist). Diese Überlegung lässt sich in der Zeit umkehren. In den Newtonschen Bewegungsgleichung bedeutet eine Zeitumkehr die Umkehr aller Geschwindigkeiten. Wenn man also nach langer Zeit die Geschwindigkeit aller Gasteilchen umkehrt, läuft der gesamte Prozess rückwärts ab, da die Bewegungsgleichungen der klassischen Mechanik und folglich auch die Liouville-Gleichung reversibel sind. Das verteilte Tröpfchen zieht sich immer mehr zusammen, bis es wieder die ursprüngliche Form hat. Wenn man die Zeit danach noch weiter rückwärts laufen lässt, streckt es sich wieder aus und kommt in jeden Teil der Energieschale. Manche meinen nun, dass die in der Natur beobachtete Irreversibilität nur scheinbar ist, hervorgerufen durch ganz spezielle Anfangszustände. Wenn man nur genügend lange warten würde, würde das Gas auch irgendwann wieder einen Zustand erreichen, bei dem alle Kügelchen in demselben kleinen Volumenelement sind. Dies ist in der Ergodizität enthalten, da ja das System jedem beliebigen Punkt im Phasenraumvolumen beliebig nahe kommt. In einem Gas aus 1023 Teilchen ist diese Wiederkehrzeit aber so lang, dass selbst die Lebensdauer des Universums bei weitem nicht ausreicht, eine solche Wiederkehr zu beobachten. Wenn dieses Argument stimmt, dann ist die mit dem Entropiesatz verbundene Irreversibilität nur eine Illusion, hervorgerufen durch spezielle Anfangsbedingungen und unsere Unfähigkeit, aus speziellen Anfangsbedingungen resultierende Zustände als besondere Zustände zu erkennen, da sie wie (fast) jeder beliebige andere Zustand der Energieschale aussehen. Dieses Argument ist meines Erachtens aus mehreren Gründen nicht stichhaltig. • Erstens (und jetzt kommt ein philosophisches Argument) steht es im Gegensatz zu unserer fundamentalen Erfahrung, dass es eine eindeutige Zeitrichtung gibt. Fast alle Prozesse in der Natur sind irreversibel. Wenn man eine Filmaufnahme von ihnen machen würde und den Film rückwärts laufen lassen würde, würde der Film ganz anders, und zwar total unrealistisch aussehen. Irreversibilität und der damit verbundene Zeitpfeil scheint also eine fundamentale Eigenschaft der Natur zu sein. Sie als Illusion abzutun, wird diesem Sachverhalt nicht gerecht. • Zweitens macht dieses Argument eine unausgesprochene Annahme, die nicht Teil der klassischen Mechanik ist: Man nimmt zwar wie gesagt an, dass die Anfangszustände speziell sind (zum Beispiel dass alle Teilchen des Gases in einer Ecke sind), aber gleichzeitig nimmt man auch an, dass sie in anderer Hinsicht nicht speziell sind. Man postuliert nämlich, dass alle mit den Anfangsbedingungen verträglichen zukünftigen Zeitentwicklungen gleich wahrscheinlich sind. In anderen Worten: die zukünftige Zeitentwicklung ist eine “typische” Trajektorie aus all den Trajektorien, die in dem durch die Anfangsbedingungen gegebenen kleinen Phasenraumvolumenelement starten. Und weil 24 die “typischen” Trajektorien im Laufe der Zeit zu Zuständen laufen, die einem gleichmäßig über das Volumen verteilten Gas entsprechen, beobachtet man immer ein solches Verhalten. Dies ist uns durch die Erfahrung so selbstverständlich, dass wir uns nicht bewusst machen, dass dies eine unbewiesene Annahme ist. Die Trajektorie, die wir durch die oben erwähnte Umkehr aller Geschwindigkeiten bekommen, ist zum Beispiel nicht eine “typische” Trajektorie. Sie ist eine Trajektorie, die die Information über den Anfangszustand enthält, und nach Umkehr der Geschwindigkeiten wird diese zu einer Information über den Zielzustand. Die Newtonsche Mechanik würde nicht in Widerspruch stehen mit einer zielgerichteten Zeitentwicklung, die auf ganz spezielle Endzustände läuft, denn jedes kleine Anfangsvolumen im Phasenraum enthält Anfangswerte von Trajektorien, die nach relativ kurzer Zeit auf einen vorgegebenen Zielzustand laufen können (nämlich nach der Zeit, die das Anfangsvolumen braucht, um jeden Bereich der Energieschale mit der gewünschten Genauigkeit zu erreichen). • Das anfängliche Phasenraumvolumen verteilt sich nicht wirklich gleichmäßig über die Energieschale. Man hat also keine wirkliche Irreversibilität, da das über die gesamte Energieschale gestreckte Anfangsvolumen immer noch alle Information über den Anfangszustand enthält und genauso einmalig und speziell ist wie der Ausgangszustand. Nur bei einer grobkörnigen Betrachtung des Phasenraums entsteht der Eindruck von Irreversibilität und einer gleichförmigen Verteilung über den Phasenraum. Wenn man den Phasenraum mit einem Gitter von einer bestimmten Maschengröße überzieht, hat jede Zelle dieses Gitters nach genügend langer Zeit einen Teil des anfänglichen Phaseraumvolumenelements. Aber wenn man genauer hineinzoomt, sieht man, dass es nach wie vor Bereiche gibt, in denen ̺ den konstanten Anfangswert ̺0 hat und solche, in denen ̺ = 0 ist. Dies ist nicht die stationäre Verteilung, die durch eine echt irreversible Zeitentwicklung hin zum Gleichgewicht impliziert ist. Man macht also die (oft unausgesprochene) Annahme, dass die Information, die man nur beim Zoomen noch wahrnehmen kann, eigentlich irrelevant ist und dass eine grobkörnige Betrachtung des Phasenraums ausreicht. Man kann also die Irreversibilität aus der klassischen Mechanik nicht ohne Zusatzannahmen erklären. In den obigen Überlegungen wurde deutlich, dass man zwei Annahmen machen muss, die eng miteinander verwandt sind: • Alle mit den Anfangsbedingungen verträglichen zukünftigen Zeitentwicklungen sind gleich wahrscheinlich. • Eine grobkörnige Betrachtung des Phasenraums enthält alle relevanten Informationen. Beide Annahmen bedeuten im Grunde, dass ein Punkt im Phasenraum nur mit begrenzter Genauigkeit definierbar ist. Die klassische Mechanik, bei der die Position und Geschwindigkeit eines Objekts im Prinzip mit beliebiger Genauigkeit definiert sind, stößt hier an ihre Grenzen. Es macht einfach keinen Sinn, eine im Prinzip unendliche Genauigkeit zu postulieren, da diese grundsätzlich nicht nachgeprüft werden kann und da die Annahme einer begrenzten Genauigkeit notwendig ist, um zur statistischen Physik zu gelangen. Eine unendliche Genauigkeit würde außerdem zur Folge haben, dass der Anfangszustand, verbunden mit den Bewegungsgleichungen der Physik, die Zeitentwicklung für alle Zukunft beinhaltet. Ich habe im vorigen Kapitel schon angedeutet, dass dies letztendlich zu absurden Schlussfolgerungen führen würde wie derjenigen, dass im Zustand des Universums kurz nach dem Urknall schon alles, was wir heute tun, enthalten war. Die Unschärferelation der Quantenmechanik besagt genau dies, dass Punkte im Phasenraum nicht beliebig genau definierbar sind. Wenn man die Energieniveaus quantenmechanischer Teilchen im Potenzialtopf berechnet, stellt man ebenfalls fest, dass es in einem endlichen Phasenraumvolumen tatsächlich nur endlich viele verschiedene Zustände gibt, nämlich einen pro Phasenraumvolumen h3N , wobei h das Plancksche Wirkungsquantum ist. Herleitung: Dieses Ergebnis erhält man am schnellsten für ein Teilchen in einem eindimensionalen Potenzialtopf der Länge L. Die Wellenzahlen in einem solchen Potenzialtopf sind kn = 2πn/L (periodische Randbedingungen, damit man ebene Wellen als Lösung erhält). Der Abstand zweier aufeinanderfolgender Impulswerte ist also ~2π/L = h/L. Der Ort des Teilchens ist völlig unscharf und ist mit gleicher Wahrscheinlichkeit an jeder Position 25 zwischen 0 und L. Also haben wir einen Zustand pro Phasenraumvolumen h. Für N Teilchen in einem dreidimensionalen Potenzialtopf erhalten wir für jeden der 3N Freiheitsgrade einen solchen Faktor h. Dass es nur endlich viele verschiedene Zustände in einem endlichen Phasenraumvolumenelement geben kann, wird auch durch der Existenz der Zustandsgröße Entropie nahegelegt. Sie ist ja proportional zur Zahl der Zustände bzw. zur Information, die nötig ist, den Zustand des Systems eindeutig festzulegen. Wenn ein Zustand erst durch die Angabe von unendlich vielen Nachkommastellen fürt Ort und Impuls jedes Teilchens spezifiziert wäre, wäre das Konzept der Entropie nicht sinnvoll, da jeder Zustand unendlich viel Information enthalten würde. Die Konsequenzen aus diesen Überlegungen sind gewaltig, werden aber selten deutlich ausgesprochen: Sie bedeuten, dass selbst in einem abgeschlossenen System (nur solche betrachten wir bei diesen Überlegungen) die Gegenwart nicht die zukünftige Zeitentwicklung über einen gewissen Zeithorizont hinaus enthält. Dieser Zeithorizont ist durch diejenige Zeit gegeben, die ein Phasenraumvolumenelement h3N benötigt, um durch die mischende Dynamik des Systems jede “Gitterzelle” des Volumens h3N in der Energieschale zu erreichen. Nach dieser Zeit ist natürlich dann auch jede Information über den Anfangszustand verlorengegangen, und eine Umkehr aller Geschwindigkeiten würde auch nicht mehr zum ursprünglichen Anfangszustand zurückführen. Kehren wir noch einmal zur Liouville-Gleichung zurück. Ein anfänglich kompaktes Phasenraumvolumenelement wird sich im Lauf der Zeit zwar immer feiner über die Energieschale verteilen, wird aber nie die stationäre Verteilung ̺ = ̺eq ∝ 1/Σ(E)dE erreichen (wenn wir alles vergessen, was wir über die Grobkörnigkeit des Phasenraums gesagt haben). Es gibt interessante theoretische Ansätze, anhand von Modellsystemen zu zeigen, dass man im Rahmen der Liouville-Gleichung auch qualitativ ganz andere Zeitentwicklungen haben kann (z.B. in dem Lehrbuch von L. Reichl). Es gibt nämlich Funktionen ̺λ (~x, t), die der Eigenwertgleichung − {H, ̺λ } = λ̺λ (2.9) genügen, was bedeutet, dass ̺λ exponenziell zerfällt, ̺λ (~x, t) = ̺λ (~x, 0)e−λt . (2.10) Diese Eigenfunktionen ̺λ (~x, t) sind für einen Teil der ~x-Werte negativ und können daher nicht als Dichte im Phasenraum interpretiert werden. Aber man kann eine Linearkombination dieser Eigenfunktionen zur stationären Dichte addieren, so dass die Summe überall positiv ist. Die Zeitentwicklung einer solchen Dichte wäre dann X ̺(~x, t) = ̺eq + (2.11) cν e−λν ̺λν (~x, 0) , ν und sie würde mit der Zeit gegen die stationäre Dichte gehen. Wenn man also die Anfangsdichte ̺ im Rahmen der durch die Grobkörnigkeit des Phasenraums gegebenen Genauigkeit durch eine Linearkombination solcher exponentiell zerfallenden Eigenfunktionen ausdrücken könnte, würde man sich sogar im Rahmen des Formalismus der klassischen Mechanik im Laufe der Zeit der stationären gleichförmigen Verteilung annähern. Für ein System aus vielen Teilchen kann man freilich derartige Rechnungen bisher nicht explizit durchführen. Auch in diesem Ansatz zur Herleitung der Irreversibilität aus der klassischen Mechanik stecken natürlich Annahmen, die nicht Teil der klassischen Mechanik sind. Man muss nämlich annehmen, dass von allen mit der Anfangsverteilung ̺(~x, 0) im Rahmen der Messgenauigkeit verträglichen Zerlegungen mit qualitativ verschiedener Zeitentwicklung eine Zerlegung der Form (2.11) die physikalisch gültige ist. 2.5 Die Boltzmann-Gleichung Die Boltzmann-Gleichung ist eine Gleichung für die zeitliche Entwicklung eines Teilchengases, die die Irreversibilität schon enthält. Da diese Gleichung extrem plausibel ist, kann man auf den ersten Blick übersehen, dass beim Aufstellen dieser Gleichung Annahmen gemacht werden müssen, die ähnlich sind 26 wie die im vorigen Teilkapitel erwähnten Annahmen. Man kann die Bolzmanngleichung aus den Hamiltonschen Bewegungsgleichungen mit Hilfe einiger Vereinfachungen herleiten. Wir wollen diesen Weg hier nicht gehen, sondern schreiben diese Gleichung direkt hin und diskutieren ihre Bedeutung und die aus ihr resultierenden Konsequenzen. Die zentrale Größe in der Boltzmann-Gleichung ist die Verteilungdichte f (~ p, ~q, t) der Teilchen im 6-dimensionalen Phasenraum. Im Gegensatz zur Liouville-Gleichung, die die Zeitentwicklung einer Wahrscheinlichkeitsverteilung im Phasenraum des gesamten N -Teilchensystems beschreibt, beschreibt die Boltzmann-Gleichung die Zeitentwicklung der Dichte von Teilchen im EinteilchenPhasenraum. Diese Zeitentwicklung wird durch die paarweisen Stöße zwischen den Teilchen und durch eine freie Bewegung zwischen den Stößen bestimmt. Wir nehmen also an, dass es kein äußeres Potenzial gibt. Die Boltzmann-Gleichung lautet für diesen Fall Z Z Z ∂f (~ p, ~q, t) ˙ ∂f (~ p, ~ q , t) 3 3 +~q· = d p2 d p3 d3 p4 W (~ p, ~p2 ; ~p3 , ~p4 ) [f (~ p3 , ~q, t)f (~ p4 , ~q, t) − f (~ p, ~q, t)f (~ p2 , ~q, t)] . ∂t ∂~q (2.12) Wenn keine Stöße stattfinden würden, wäre die rechte Seite Null, und man hätte die Kontinuitätsgleichung für f (~ p, ~ q , t). Der Term auf der rechten Seite kommt also durch die Stöße. Hier bedeutet W (~ p, p~2 ; p~3 , p~4 )d3 p3 d3 p4 die Wahrscheinlichkeit pro Zeiteinheit und Einheitsvolumen, dass ein bestimmtes Teilchen mit Impuls p~2 und ein bestimmtes Teilchen mit Impuls ~p, die sich beide in diesem Einheitsvolumen befinden, zusammenstoßen und nach dem Stoß die Impulswerte p~3 und p~4 (jeweils mit der Genauigkeit d3 p3 bzw. d3 p4 ) haben. Die Zahl der Teilchenpaare mit den beiden Impulsen ~p und ~p2 (jeweils mit der Genauigkeit d3 p bzw. d3 p2 ) ist dann durch das Produkt f (~ p, ~q, t)f (~ p2 , ~q, t) gegeben. Diese Überlegung erklärt den zweiten (den negativen) Summanden auf der rechten Seite. Der positive Summand auf der rechten Seite beinhaltet die Stöße, bei denen zwei Teilchen mit Impulsen ~p3 und ~p4 zusammenstoßen und dabei einen Impuls ~ p erzeugen. Da diese beiden Prozesse durch Zeitumkehr ineinander übergehen und da die Newtonsche Mechanik invariant unter Zeitumkehr ist, haben beide Summanden denselben Gewichtsfaktor W (~ p, p~2 ; p~3 , p~4 ). Man kann W (~ p, ~ p2 ; p ~3 , ~p4 ) durch den Wirkungsquerschnitt von Teilchenstößen ausdrücken und z.B. die für harte Kugeln korrekte Form des Wirkungsquerschnitts wählen. Aber für unsere Zwecke reicht die hier gegebene allgemeine Formulierung. Dass dies keine exakte Gleichung für die Zeitentwicklung des Teilchengases sein kann, erkennt man z.B. daran, dass Korrelationen zwischen Geschwindigkeiten ignoriert werden. Die Boltzmann-Gleichung geht davon aus, dass die Wahrscheinlichkeit dafür, dass in einem kleinen Volumenelement gleichzeitig ein Teilchen des Impulses ~p und ein Teilchen des Impulses p~2 ist, als Produkt der Einteilchenwahrscheinlichkeiten geschrieben werden kann. Diese Annahme hat eine gewisse Verwandtschaft mit den Annahmen, die wir im letzten Teilkapitel erwähnt haben. Wenn man Korrelationen vernachlässigt, geht man nämlich davon aus, dass es nicht nötig ist, eine detaillierte Erinnerung an die Vergangenheit einzubeziehen. Wir werden gleich sehen, dass dieser Ansatz dazu führt, dass die Boltzmanngleichung nicht invariant unter Zeitumkehr ist. Wir betrachten dazu die zeitliche Änderung der Eta-Funktion Z Z H(t) = d3 p d3 qf (~ p, ~q, t) ln f (~ p, ~q, t) , (2.13) die gegeben ist durch ∂H = ∂t Z d3 p Z d3 q ∂f (ln f + 1) . ∂t (2.14) Wenn wir auf der rechten Seite die Zeitableitung von f durch die Boltzmann-Gleichung (2.12) ausdrücken, bekommen wir zwei Beiträge, die wir nacheinander betrachten. Der eine Beitrag ist Z Z Z Z ~ ∂f ln f ∂f 3 p 3 3 ˙ =− d p . d3 q − d p d q~ q · (ln f + 1) ∂~q m ∂~q Das Integral über den Ortsraum können wir mit Hilfe des Gaußschen Satzes in ein Oberflächenintegral umwandeln, und dieses ergibt Null. (Da wir kein Wandpotenzial eingeführt haben, sollten wir hier periodische Randbedingungen verwenden. Der Integrand ist dann auf gegenüberliegenden Wänden identisch, 27 aber die Flächennormale hat die umgekehrte Richtung, so dass die Oberflächenintegrale über gegenüberliegende Wände sich jeweils aufheben.) Es bleibt also Z Z Z Z Z ∂H 3 3 3 3 = d q d p d p2 d p3 d3 p4 ∂t W (~ p, p~2 ; ~ p3 , ~ p4 ) [f (~ p3 , ~ q , t)f (~ p4 , ~q, t) − f (~ p, ~q, t)f (~ p2 , ~q, t)] (ln f (~ p, ~q, t) + 1) Z Z Z Z Z 1 d3 q d3 p d3 p2 d3 p3 d3 p4 = 4 f (~ p, ~q, t)f (~ p2 , ~q, t) W (~ p, p~2 ; ~ p3 , ~ p4 ) [f (~ p3 , ~ q , t)f (~ p4 , ~q, t) − f (~ p, ~q, t)f (~ p2 , ~q, t)] ln f (~ p3 , ~q, t)f (~ p4 , ~q, t) ≤ 0. (2.15) Beim Schritt von der ersten zur zweiten Zeile haben wir ausgenützt, dass W sich nicht ändert, wenn man p~ mit ~p2 vertauscht oder das Paar (~ p, ~ p2 ) mit dem Paar (~ p3 , ~p4 ). Die Ungleichung im letzten Schritt folgt daraus, dass eine Funktion der Form (y − x) ln x/y nie positiv ist. Wir haben also eine Größe H gefunden, die mit der Zeit immer kleiner wird, bis sie irgendwann ihren kleinstmöglichen Wert erreicht hat. Dies zeigt, dass die Boltzmann-Gleichung nicht invariant unter Zeitumkehr ist. Außerdem erkennt man die Verwandtschaft der Funktion H mit einer Entropie. Wir können die Teilchendichte f als die Wahrscheinlichkeitsdichte dafür interpretieren, dass wir ein bestimmtes Teilchen am Punkt (~ p, ~q) im Phasenraum finden. Dann ist −H proportional zum Informationsgewinn, den wir erzielen, wenn wir erfahren, wo ein bestimmtes Teilchen ist. Dass H nach langer Zeit, also im Gleichgewicht, sein Minimum annimmt, bedeutet, dass im Gleichgewicht das Prinzip der maximalen Ignoranz erfüllt ist. Das Minimum von H ist dann erreicht, wenn die Ungleichung zur Gleichung wird, also wenn f (~ p, ~ q , t)f (~ p2 , ~q, t) = f (~ p3 , ~q, t)f (~ p4 , ~q, t) für alle Stöße ist. Dies bedeutet, dass Stöße zu gegebenen Impulsen p~, p~2 , p~3 , ~p4 in beiden Richtungen gleich oft ablaufen. Man nennt diese Art von Gleichgewicht detailliertes Gleichgewicht, und eine Filmaufnahme des Gases stoßender Teilchen würde im Gleichgewicht vorwärts und rückwärts gleich realistisch aussehen. Da die Gleichgewichtsbedingung nicht explizit vom Ort ~q abhängt, ist f im Gleichgewicht nur noch von p~ abhängig. Wir können aus diesem Wissen die Wahrscheinlichkeitsverteilung der Impulse bestimmen. Hierzu benötigen wir nur die Information, dass der mittlere Impuls Null sein soll (das Gefäß, in dem das Gas ist, ruht also) und dass die Gesamtenergie und damit hp2 i gegeben ist. Das Prinzip der maximalen Ignoranz ergibt für diesen Fall 2 feq (~ p) ∝ e−a~p mit einer Konstanten a. Die aus der Boltzmanngleichung abgeleiteten Eigenschaften von Gasen stimmen sehr gut mit der Beobachtung überein. Dies bedeutet, dass die Vernachlässigung der Korrelationen und damit des Gedächtnisses an vergangene Stöße eine sehr gute Näherung ist. 2.6 Wo die klassische Mechanik außerdem noch an Grenzen stößt Wir haben gesehen, dass die klassische Mechanik Gültigkeitsgrenzen hat. Die Annahme, dass man Punkte im Phasenraum mit beliebiger Genauigkeit festlegen kann, steht im Widerspruch zur Grobkörnigkeit des Phasenraums, die in den Grundannahmen der statistischen Physik steckt. Folgerichtig hat die Quantenmechanik dann gezeigt, dass es in einer Energieschale im Phasenraum nur endlich viele verschiedene Zustände geben kann. Die statistische Physik weist noch auf weitere Grenzen der klassischen Mechanik hin. Hierzu betrachten wir die Entropie eines idealen Gases. In der Thermodynamik haben wir gelernt, dass die Entropie eine extensive Größe ist. Wenn wir zwei gleich große Kammern, die mit derselben Menge desselben Gases 28 gefüllt sind, miteinander verbinden, ist die Gesamtentropie folglich die Summe der beiden Einzelentropien, also das Doppelte der Entropie einer Kammer. Wir versuchen nun, dies mit mikroskopischen Überlegungen über den Informationsgehalt des Systems in Verbindung zu bringen. Bevor wir die Trennwand zwischen den beiden Kammern entfernen, wissen wir, dass Teilchen 1 bis N/2 sich in der linken Kammer befinden und Teilchen N/2 + 1 bis N in der rechten Kammer. Nach Entfernen der Trennwand ist diese Information verlorengegangen. Der Informationsverlust beträgt ein Bit pro Teilchen, also N Bit insgesamt. Dies entspricht einer Entropiezunahme um N kB ln 2. Dies ist aber in Konflikt zur vorher gemachten Annahme, dass die Gesamtentropie sich beim Verbinden der beiden Kammern nicht ändert. Wir können diesen Konflikt auflösen, indem wir sagen, dass für praktische Zwecke nur die Information relevant ist, wieviele Teilchen auf welcher Seite sind, aber nicht die Information, welche Teilchen auf welcher Seite sind. Dann gibt es keine Änderung der Information, wenn man die beiden Kammern verbindet. Es stellt sich nun ähnlich wie bei der durch die Mechanik postulierten unendlichen Genauigkeit von Phasenraumpunkten auch hier die Frage, ob man an etwas festhalten soll, was man grundsätzlich nicht nachweisen kann und das für alle beobachtbaren Effekte keine Rolle spielt. Es geht jetzt um die Unterscheidbarkeit identischer Teilchen. Auch hier hat die Quantenmechanik den Wissenschaftlern nachgeholfen. Sie hat zu der Erkenntnis geführt, dass identische Teilchen tatsächlich und grundsätzlich nicht unterschieden werden können, mit allen Implikationen, die dies für die Statistik mit sich bringt. Das bedeutet, dass wir den Zustand, bei dem Teilchen 1 bis N/2 links und Teilchen N/2 + 1 bis N rechts sind und Zustände, bei denen eine andere Auswahl von N/2 Teilchen links und der Rest rechts ist, nicht als verschiedene Zustände zählen dürfen. Eine weitere Aufgabe aus der statistischen Physik, bei der die klassische Physik (hier ist es mehr die Elektrodynamik als die Mechanik) an ihre Grenzen stößt, ist die Schwarzkörperstrahlung oder Hohlraumstrahlung. Hier geht es darum zu berechnen, wie sich die in dem Hohlraum enthaltene Energie auf die verschiedenen elektromagnetischen Schwingungsmoden verteilt. Diese Schwingungsmoden sind stehende Wellen im Hohlraum. Wenn der Hohlraum ein Würfel der Kantenlänge L ist, haben diese Schwinπ gungsmoden die Wellenvektoren ~k = L (nx , ny , nz ) mit natürlichen Zahlen nx , ny , nz . Die Anzahl der Schwingungsmoden im Intervall [|~k|, |~k| + dk] ist folglich proportional zu k 2 dk. Das Prinzip der maximalen Ignoranz würde nun nahelegen, dass in jeder Schwingungsmode gleich viel Energie steckt, da dies die gleichförmigste Energieverteilung auf die Moden ist, also diejenige mit der größten Entropie. Dies würde bedeuten, dass in den Moden mit größerem |~k| mehr Energie steckt als in den Moden mit niedrigerem |~k|, da erstere viel zahlreicher sind. Dies bringt zum einen das Problem mit sich, dass sich die Verteilung der Energie auf die Moden nicht normieren lässt, da es unendlich viele Moden gibt, zum anderen ist dies auch im Gegensatz zum experimentellen Befund, dass die Energie, die in den Schwingungsmoden im Intervall [|~k|, |~k| + dk] steckt, proportional zu k 3 /(eak − 1) ist, mit einer von der Temperatur abhängigen Konstanten a. Max Planck konnte die gemessene Kurve durch eine theoretische Rechnung reproduzieren, indem er von der Annahme ausging, dass die Energie in einer Mode der Frequenz ω = c|~k| nur in Paketen der Größe ~ω vorliegen kann. Es ist sofort anschaulich klar, dass das Prinzip der maximalen Ignoranz dann zu einer Bevorzugung der Moden mit kleineren k führt, da die Energie dort in kleinere Pakete aufgeteilt werden kann und es dort somit mehr Aufteilungsmöglichkeiten gibt. Wir werden im Folgenden zeigen, dass die Plancksche Annahme, dass die Energie nur in Paketen ~ω in Moden der Frequenz ω gegeben werden kann, in der Tat auf die experimentell beobachtete Energieverteilung auf Intervalle von Moden führt. Wie vorher besagt das Prinzip der maximalen Ignoranz auch in diesem Fall, dass jede Aufteilung der Energie auf die Moden gleich wahrscheinlich ist. Unsere Aufgabe besteht nun darin herauszufinden, was dies für die Aufteilung der Energie auf kleine Energieintervalle bedeutet, von denen jedes sehr viele Moden enthält. Denn die experimentelle “makroskopische” Messgröße ist die Verteilung der Energie auf Energieintervalle. Wir werden diejenige Verteilung beobachten, die die meisten (mikroskopischen) Realisierungsmöglichkeiten hat. Davon deutlich abweichende Verteilungen haben soviel weniger Realisierungsmöglichkeiten, dass sie so selten sind, dass nie beobachtet werden. Wir suchen deshalb diejenige Aufteilung der Gesamtenergie auf die Intervalle von Moden, [|~k|, |~k|+dk], die am meisten Realisierungsmöglichkeiten bietet. Wir nummerieren die Intervalle mit dem Index i durch. Wir notieren die Zahl der Pakete (Quanten) im Intervall i mit qi , und die Zahl der Moden in diesem 29 Intervall mit ni . Es ist ni ∝ ki2 . Die Zahl der Möglichkeiten, qi Quanten auf ni Moden zu verteilen, beträgt ni + qi − 1 mi = . ni − 1 Dies ist die Zahl der Möglichkeiten, ni − 1 Trennwände zwischen qi Quanten zu setzen und damit ni Schubladen (die Moden) mit insgesamt qi ununterscheidbaren Quanten zu füllen. (Noch anders formuliert: Dies ist die Zahl der Möglichkeiten, ni − 1 Trennwände und qi Quanten auf ni − 1 + qi Positionen zu verteilen.) Um diejenige Aufteilung der Quanten auf die Energieintervalle zu Q finden, die Pdie größte Zahl m = an Realisierungsmöglichkeiten, also die größte Entropie hat, müssen wir ln i i ln mi mit der i P Nebenbedingung i qi ki = const maximieren. Die Nebenbedingung legt die Gesamtenergie fest. (Wir nehmen den Logarithmus nur aus pragmatischen Gründen, weil man dann besser mit den auftretenden großen Zahlen umgehen kann.) Wir gehen davon aus, dass die Intervalle dk so groß sind, dass sehr viele Moden und sehr viele Quanten darin sind. Dann können wir die Stirling-Formel anwenden und ln mi nähern durch ln mi ≃ (ni + qi − 1) ln(ni + qi − 1) − (ni − 1) ln(ni − 1) − qi ln qi . (2.16) P P Maximierung von ln mi − λ( i qi ki − C) bzgl. der Wahl der qi gibt dann ln(ni + qi − 1) − ln qi − λki = 0 (2.17) und schließlich ni ni − 1 ≃ λki . (2.18) eλki − 1 e −1 Die Zahl der Quanten in einem Intervall ist also die Zahl der Moden in diesem Intervall, geteilt durch (eλki − 1). Der Langrange-Parameter λ legt die Energie des Systems fest. Wenn wir nun ni ∝ ki2 einsetzen und die Größe der Energiepakete ∝ ki , erhalten wir das Ergebnis, dass im Intervall i eine Energie proportional zu ki3 /(eλki − 1) steckt, in Übereinstimmung mit dem experimentellen Befund. Die Überlegungen dieses Kapitels haben gezeigt, dass alle Annahmen, die von der klassischen Mechanik abweichen und die zur Begründung der Statistischen Physik nötig sind (Grobkörnigkeit des Phasenraums, Ununterscheidbarkeit identischer Teilchen, endliche Portionierung von Energiepaketen) in der Quantenmechanik korrekt enthalten sind. Bedeutet dies, dass die Statistische Mechanik ohne Schwierigkeiten aus der Quantenmechanik abgeleitet werden kann? Dieser Frage wenden wir uns im nächsten Kapitel zu. qi = Übungsaufgaben zu Kapitel 2 1. (Diese Aufgabe ist ähnlich wie Beispiel 6.1. auf Seite 292 aus Reichl. Sie dient der Wiederholung der klassischen Mechanik und hat die Lösung der Liouville-Gleichung für ein einfaches Beispiel zum Ziel.) Ein Teilchen hüpft unter dem Einfluss der Gravitationskraft senkrecht nach oben und unten und wird am Boden jeweils elastisch reflektiert. (a) Schreiben Sie die Hamiltonschen Bewegungsgleichungen auf. (b) Zur Zeit t = 0 sei das Teilchen am Boden (Position z = 0) und habe einen nach oben gerichteten Impuls p = p0 . Bestimmen Sie die Lösung der Hamiltonschen Bewegungsgleichung für diese Anfangsbedingung. (c) Stellen Sie die Liouville-Gleichung für das System auf. (d) Gehen Sie von den Variablen z und p zu Wirkungs- und Winkelvariablen J und θ über und ermitteln Sie die Hamiltonfunktion, die Bewegungsgleichungen und die Liouville-Gleichung in diesen Variablen. (e) Lösen Sie die Liouville-Gleichung, indem Sie ̺(J, θ, t), indem Sie eine Fourierreihe ansetzen und die Gleichung für jede Fouriermode separat lösen. 2. (Der erste Teil dieser Aufgabe ist ähnlich wie Beispiel 6.3. auf Seite 299 aus Reichl.) Gegeben ist ein Gas aus N nicht miteinander wechselwirkenden Teilchen, die in einem Volumen V eingesperrt sind. 30 (a) Berechnen Sie das Phasenraumvolumen Ω̄kl (E), das zu allen Energiewerten ≤ E gehört. (b) Berechnen Sie daraus die Zahl Ω̄(E) der verschiedenen Zustände, die das System insgesamt für Energien ≤ E hat. (Hierzu ist die Ununterscheidbarkeit der Teilchen zu berücksichtigen und dass es pro Phasenraumvolumen h3N nur einen Zustand geben kann.) 3. In einer Kammer befinden sich N Heliumatome, in einer gleich großen zweiten Kammer befinden sich N Neonatome mit derselben Gesamtenergie. Um wieviel ändert sich die Entropie des gesamten, aus beiden Kammern bestehenden Systems, wenn man die Trennwand zwischen den beiden Kammern entfernt? 31 Kapitel 3 Von der Quantenmechanik zur statistischen Mechanik 3.1 Schrödingergleichung für N Teilchen Im Kontext der klassischen Mechanik hatten wir uns ein ideales Gas als ein System aus N harten Kügelchen vorgestellt, die elastisch miteinander und mit den Wänden zusammenstoßen. Im Rahmen der Quantenmechanik wird ein solches System durch eine N -Teilchen-Schrödingergleichung beschrieben, ebenso wie jedes andere nichtrelativistische System aus N (stabilen) Teilchen. Zur Wiederholung zählen wir zunächst die wesentlichen Elemente der nichtrelativistischen Quantenmechanik auf (wie z.B. im Lehrbuch von Schwabl aufgelistet): 1. Der Zustand eines Systems wird beschrieben durch einen Zustandsvektor |Ψi. 2. Die Observablen werden durch hermitesche Operatoren  dargestellt, wobei Funktionen von Observablen durch die entsprechenden Funktionen der Operatoren dargestellt werden. 3. Die Mittelwerte der Observablen sind gegeben durch hAi = hΨ|Â|Ψi. 4. Die Zeitentwicklung wird durch die Schrödingergleichung bestimmt i~ ∂ |Ψ, ti = Ĥ|Ψ, ti . ∂t (3.1) 5. Bei Messung von  geht das System über in einen Eigenzustand |ni von Â. Der gemessene Wert ist der zugehörige Eigenwert an . Befindet sich ein System im Zustand X |Ψi = cn |ni mit cn = hn|Ψi , (3.2) n so beträgt die Wahrscheinlichkeit, an zu messen, |cn |2 . Für stationäre Zustände |n, ti = e−iEn t/~ |ni (3.3) Ĥ|ni = En |ni . (3.4) ergibt sich die die zeitunabhängige Schrödingergleichung Wenn der Zustand zur Zeit t = 0 durch |Ψi gegeben ist, so ist er zur Zeit t > 0 X |Ψ, ti = e−iĤt/~ |Ψ, 0i = hn|Ψie−iEn t/~ |ni . n 32 (3.5) Dies ist eine deterministische Zeitentwicklung. Wenn man den Zustand |Ψ, t0 i zu einem Anfangszeitpunkt kennt, liegt damit |Ψ, ti für alle anderen Zeiten fest. Wenn man in der Schrödingergleichung die Zeitrichtung umkehrt (also t durch −t ersetzt), wird sie durch die komplex konjugierte Wellenfunktion gelöst. Die Observablen ändern sich dadurch nicht, da sie nicht auf die Phase der Wellenfunktion ansprechen. Für Systeme aus vielen Teilchen enthält der Hamiltonoperator die kinetische Energie aller Teilchen, ein äußeres Potenzial U und ein Wechselwirkungspotenzial V für die paarweisen Wechselwirkungen zwischen den Teilchen, 2 X ˆ X pα ~ 1X Ĥ = + U (~xα ) + V (~xα , ~xβ ) . (3.6) 2mα 2 α α α6=β Außerdem kann es noch Beiträge geben, die vom Spin abhängen. 3.2 Fermionen und Bosonen Weil identische Teilchen ununterscheidbar sind, müssen alle Erwartungswerte unverändert bleiben, wenn man Teilchen vertauscht. Dies bedeutet, dass die Wellenfunktion abgesehen von der Phase unverändert bleibt, wenn man Teilchen vertauscht. Auch der Hamilton-Operator Ĥ ist invariant, wenn man Teilchen vertauscht. Wir schreiben für den Hamiltonoperator (3.6) eines Systems aus N identischen Teilchen abgekürzt Ĥ = Ĥ(1, 2, . . . , N ) , und für die Wellenfunktion ψ(1, 2, . . . , N ) , wobei die Ziffer 1 für die Koordinaten und (falls vorhanden) den Spin des ersten Teilchens steht, etc. Für identische Teilchen sind natürlich alle Massen mα in (3.6) gleich. Die zeitunabhängige Schrödingergleichung für das N -Teilchensystem lässt sich im allgemeinen nicht explizit lösen. Ein wichtiger Spezialfall ist die Situation V (~xα , ~xβ ) = 0, in der die Teilchen nicht miteinander wechselwirken. Dann hat die Eigenwertgleichung ! X ˆp~2 α Ĥψ(1, 2, . . . , N ) ≡ + U (~xα ) ψ(1, 2, . . . , N ) = Eψ(1, 2, . . . , N ) (3.7) 2m α die Lösungen ψ(1, 2, . . . , N ) = Y α |iiα , wobei die |iiα die Eigenzustände der Einteilchengleichung ! ˆp~2 α + U (~xα ) |iiα = ǫiα |iiα 2m (3.8) (3.9) P sind. Die Energie ist die Summe der Einteilchenenergien, E = α ǫiα . Die {|ii} bilden also ein vollständiges Orthonormalsystem für ein Teilchen. Damit bilden die Produktzustände {|i1 i1 |i2 i2 . . . |iN iN } ein vollständiges Orthonormalsystem für das N -Teilchensystem. Wir notieren vereinfacht {|i1 , i2 , . . . , iN i}. Wenn eine Wechselwirkung zwischen den Teilchen dazu kommt, sind die Produktzustände zwar nicht mehr Eigenfunktionen des Hamiltonoperators, aber sie bilden weiterhin ein vollständiges Orthonormalsystem, bezüglich dessen die Eigenzustände des Hamiltonoperators entwickelt werden können. Wenn die N Teilchen ununterscheidbar sind, müssen allerdings die Wellenfunktionen invariant sein (bis auf die Phase), wenn man zwei Teilchen miteinander vertauscht. Produkte von Einteilchenzuständen sind aber nicht invariant, wenn Teilchen miteinander vertauscht werden (außer wenn alle Teilchen in demselben Zustand sind). Um identische Teilchen zu beschreiben, müssen wir also die Produktzustände 33 miteinander so linear kombinieren, dass die gewünschte Invarianz resultiert. Zu diesem Zweck führen wir den Permutationsoperator ein. Der Permutationsoperator P̂αβ vertauscht die beiden Teilchen α und β: P̂αβ ψ(. . . , α, . . . , β, . . .) = ψ(. . . , β, . . . , α, . . .) . (3.10) Er hat die Eigenschaft 2 P̂αβ = 1, und folglich hat er die beiden Eigenwerte ±1. Wenn man mehrere paarweise Vertauschungen hintereinander ausführt, erhält man eine allgemeine Permutation der N Teilchen. Im Folgenden schreiben wir P̂ (ohne Indizes) für einen allgemeinen Permutationsoperator. Man unterscheidet zwischen geraden und ungeraden Permutationen, die einer geraden bzw. ungeraden Anzahl von paarweisen Vertauschungen entsprechen. Der Operator P̂ hat folgende Eigenschaften: • [P̂ , Ĥ] = 0, d.h. die Symmetrie des Systems unter Permutationen ist zeitlich erhalten. • hP̂ ϕ|P̂ ψi = hϕ|ψi. Dies zeigt man, indem man das Skalarprodukt durch ein Integral über die Teilchenkoordinaten ausdrückt und die Integrationsvariablen vertauscht. Es folgt P̂ † P̂ = P̂ P̂ † = 1 . • Sei Ô eine Observable. Da sie sich nicht ändert, wenn Teilchen vertauscht werden, ist hψ|Ô|ψi = hP̂ ψ|Ô|P̂ ψi = hψ|P̂ † ÔP̂ |ψi . Es folgt P̂ † Ô P̂ = Ô bzw. P̂ Ô = ÔP̂ bzw. [Ô, P̂ ] = 0 . (3.11) Die Wellenfunktionen von Fermionen und Bosonen unterscheiden sich durch ihre Symmetrie. Die Wellenfunktion eines Systems aus Bosonen ist völlig symmetrisch unter paarweiser Vertauschung von Teilchen, d.h. P̂ ψB = ψB für alle P̂ . Außerdem haben Bosonen einen ganzzahligen Spin S = 0, 1, . . .. Die Wellenfunktion eines Systems aus Fermionen ist völlig antisymmetrisch unter paarweiser Vertauschung von Teilchen, d.h. P̂ ψF = (−1)P ψF , wobei (−1)P = 1 für gerade Permutationen und (−1)P = −1 für ungerade Permutationen. Außerdem haben Fermionen einen halbzahligen Spin, S = 1/2, 3/2, . . .. Aus der Antisymmetrie der Wellenfunktion folgt sofort, dass keine zwei Teilchen in demselben Zustand sein können. Vertauscht man zwei Teilchen, die in demselben Zustand sind, ändert sich die Wellenfunktion nicht. Aber gleichzeitig muss sich ihr Vorzeichen ändern, weil sie ja antisymmetrisch sein muss. Die einzige Lösung dieses Widerspruchs besteht darin, dass die Wellenfunktion verschwindet, wenn zwei Teilchen in demselben Zustand sind. Daraus resultiert das Pauli-Prinzip, dass keine zwei Fermionen sich in demselben quantenmechanischen Zustand befinden dürfen. Ein vollständiges Orthonormalsystem für Fermionen sind die antisymmetrisierten und normierten Produktzustände |i1 i1 |i1 i2 · · · |i1 iN X 1 1 .. .. √ (−1)P P̂ |i1 , i2 , . . . , iN i = √ ... . . N! P N! |iN i1 |iN i2 · · · |iN iN Ein vollständiges Orthonormalsystem für Bosonen sind die symmetrisierten und normierten Produktzustände X 1 √ P̂ |i1 , i2 , . . . , iN i , N !n1 !n2 ! . . . P 34 wobei ni die Zahl der Teilchen im Zustand i bezeichnet. Wenn man nur über tatsächlich verschiedene Permutationen summiert, erhält man r X n1 !n2 ! . . . P̂ |i1 , i2 , . . . , iN i . N! P versch. Wie sich dies auf die Statistik mehrerer Teilchen auswirkt, studieren wir in den Übungen. 3.3 Beschreibung eines Gases als isoliertes quantenmechanisches N -Teilchensystem Wir wollen nun der Frage nachgehen, inwiefern sich die statistische Physik aus der Quantenmechanik ergibt. Hierzu betrachten wir zunächst ein Gas als ein System aus N Teilchen, die in einem unendlich hohen Potenzialtopf eingesperrt sind. Dieses System wird durch den Hamiltonoperator (3.6) beschrieben, wobei das Wechselwirkungspotenzial eine kurzreichweitige abstoßende Wechselwirkung zwischen den Teilchen macht und das äußere Potenzial U im inneren des Potenzialtopfes verschwindet und außerhalb unendlich ist. Wir präparieren das N -Teilchen System in einem Anfangszustand ψ(1, 2, . . . , N ), der symmetrisch oder antisymmetrisch ist, je nachdem, ob das Gas aus Fermionen oder Bosonen besteht. Die zeitliche Entwicklung dieses Zustands ist dann durch die Schrödingergleichung gegeben. Doch hier stellt sich wieder das uns inzwischen schon vertraute Problem: Genau wie die klassische Mechanik ist auch die durch die Schrödingergleichung beschriebene Physik deterministisch und invariant unter Zeitumkehr. Aber ähnlich wie in der klassischen Mechanik können wir zumindest argumentieren, dass auch bei einer deterministischen Zeitentwicklung sich die Teilchen über das gesamte Volumen verteilen. Wir betrachten zu diesem Zweck einen Anfangszustand, bei dem alle N Teilchen innerhalb eines kleinen Volumens lokalisiert sind, also ist die N -Teilchen-Wellenfunktion ψ(1, 2, . . . , N ) anfangs nur dann von Null verschieden, wenn alle Ortsvektoren (~x1 , . . . ~xN ) in dem betrachteten Volumenelement liegen. Man erwartet, dass eine solche Wellenfunktion auseinanderläuft und dass nach einer Weile in jedem Volumenelement Teilchen zu finden sind. Die Theorie des Quantenchaos befasst sich mit derartigen Fragen, denn sie untersucht das quantenmechanische Verhalten von Systemen, die in der klassischen Physik chaotisch sind. Man hat für spezielle Systeme explizit gezeigt, dass die Wellenfunktion chaotischer Systeme nach genügend langer Zeit wie eine Zufallsfunktion aussieht. Doch dies bedeutet keineswegs, dass wir damit einen echten Gleichgewichtszustand erreicht haben. Wir haben zwar einen Zustand erreicht, bei dem die Teilchen gleichmäßig über das Volumen verteilt sind, aber die zugehörige Wellenfunktion hat eine extrem feine und komplizierte Struktur, die im Prinzip alle Information über den Anfangszustand enthält. Ähnlich wie in der klassischen Mechanik können wir aber jetzt argumentieren, dass ein Zustand nicht unendlich viel Information enthalten kann und dass die Genauigkeit, mit der eine Wellenfunktion festgelegt werden kann, irgendwo ihre Grenze haben muss. Doch damit gehen wir über die Beschreibung der Welt durch eine Schrödingergleichung hinaus.... 3.4 Beschreibung eines Gases als mit der Umgebung über ein Potenzial wechselwirkendes quantenmechanisches N -Teilchensystem Als nächstes versuchen wir eine realistischere Beschreibung des Gases. Wir berücksichtigen die Wechselwirkung des N -Teilchensystems mit seiner Umgebung. Eine perfekte Isolation vom Rest der Welt ist unmöglich, den es gibt immer eine gewisse Wechselwirkung mit der Umgebung über die Wände und über das Strahlungsfeld. Diese Wechselwirkungen sorgen dafür, dass das N -Teilchensystem grundsätzlich nicht in einem Eigenzustand seines Hamiltonoperators bleiben kann, sondern alle möglichen Zustände 35 durchläuft, deren Energie innerhalb eines kleinen Intervalls [E, E + dE] liegt. Dieses Intervall soll klein sein, da wir davon ausgehen, dass das System im Prinzip abgeschlossen ist und durch die Wechselwirkung mit der Umgebung nur sehr kleine Energiefluktuationen erfährt. Wir betrachten das einfachste Modell, das diesen Sachverhalt erfasst. Es geht auf Felix Bloch zurück. Die Wechselwirkung mit den Wandatomen wird hierbei durch ein Wechselwirkungspotenzial V beschrieben. Wir bezeichnen den internen Hamiltonoperator des N -Teilchensystems mit Ĥ0 , und seine Eigenzustände mit {|ni}. Der insgesamt auf den N -Teilchenzustand wirkende Hamiltonoperator ist Ĥ = Ĥ0 + V . Wir beginnen mit einem AnfangsP zustand |Ψ, 0i = n cn |ni. Zu jeder späteren Zeit lässt sich der Zustand ebenfalls als Linearkombination der Eigenzustände von Ĥ0 darstellen, X |Ψ, ti = cn (t)e−iEn t/~ |ni (3.12) n Wir gehen davon aus, dass die Wechselwirkung mit der Wand die Energie des Systems (fast) nicht ändert, so dass alle Energieeigenwerte En innerhalb eines sehr kleinen Intervalls liegen. Die Zeitentwicklung der cn erhält man über die Schrödingergleichung, i~ X ∂|Ψi = (Ĥ0 + V )|Ψi = (En + V )cn e−iEn t/~ |ni . ∂t n (3.13) Wenn man auf der linken Seite ebenfalls den Ausdruck (3.12) einsetzt und nach der Zeit ableitet, kürzt sich auf beiden Seiten der Summand proportional zu En , und es bleibt die Gleichung i~ X ∂cn n ∂t e−iEn t/~ |ni = X n V cn e−iEn t/~ |ni . (3.14) Multipikation beider Seiten von links mit hm| ergibt i~ ∂cm X = Vmn (t)cn (t) ∂t n (3.15) mit Vnm (t) = hm|V |ni e−i(En −Em )t/~ . (3.16) P Diese Gleichung beschreibt die zeitliche Änderung des Vektors ~c. Da er auf 1 normiert ist ( n |cn |2 = 1), wandert die Spitze dieses Vektors auf der Einheitskugel entlang. Wenn dieses quantenmechanische System in einem geeigneten Sinn ergodisch ist, kommt die Spitze im Lauf der Zeit jedem Punkt auf der Einheitskugel beliebig nahe. Wenn wir nun wie in der klassischen Mechanik ein ganzes Ensemble von solchen Systemen betrachten, können wir als Ausgangssituation ein kleines Flächenelement auf der Einheitskugel betrachten. Wenn das System mischend ist, wird sich dieses Flächenelement mit der Zeit deformieren und immer feiner über die Oberfläche der Einheitskugel verteilen. Aufgrund der unitären Zeitentwicklung enthält das Flächenelement aber für alle Zeiten die Information über die Anfangsverteilung. Wir können nun genau wie in der klassischen Mechanik eine grobkörnige Betrachtung der Kugeloberfläche wählen. Der Vektor ~c(t) eines einzelnen Systems des Ensembles wird dann im Laufe der Zeit jede Zelle der Kugeloberfläche gleich oft besuchen, und dies bedeutet, dass im Langzeitmittel alle h|cn |2 it gleich groß sind. Wenn wir das ganze Ensemble betrachten, verteilt sich das betrachtete Oberflächenelement gleichmäßig über alle Zellen. Nach genügend langer Zeit ist also derselbe Teil des Ensembles in jeder Zelle zu finden. Dies bedeutet, dass wir die Relaxation eines quantenmechanischen Vielteilchensystems ins Gleichgewicht nur unter der Annahme bekommen, dass eine Wellenfunktion nicht beliebig scharf definiert ist, sondern dass eine grobkörnige Beschreibung des Raums, in dem die ~c liegen, die Physik des Systems vollständig erfasst. Wir kommen also wieder an denselben Punkt wie im vorigen Abschnitt. 36 3.5 Beschreibung durch den Dichteoperator Im vorigen Kapitel haben wir nicht nur ein einzelnes System betrachtet, sondern ein ganzes Ensemble von Systemen, das durch eine Phasenraumdichte ̺ beschrieben wird. Solche Ensembles beschreibt man in der Quantenmechanik durch den Dichteoperator. Man nennt ihn auch die Dichtematrix oder den statistischen Operator. Er ist definiert als X ρ= pn |Ψn ihΨn | (3.17) n wobei pn der Anteil der Systeme des Ensembles im Zustand |Ψn i ist. Ein einzelnes System ist durch einen “reinen” Zustand |Ψi gegeben. Eine Observable A hat in diesem Zustand den Mittelwert hÂi = hΨ|Â|Ψi . (3.18) Mit Hilfe der Dichtematrix ̺ = |ΨihΨ| (3.19) hÂi = Sp(̺Â) . (3.20) X (3.21) lässt sich dieser Mittelwert auch schreiben als Die Spur (Sp) ist definiert als SpX = n hn|X|ni , wobei {|ni} ein beliebiges Orthonormalsystem ist. Wie wir aus der linearen Algebra wissen, ist die Spur unabhängig von der Wahl der Basis. Man überprüft leicht folgende weitere Eigenschaften von ̺ für reine Zustände: Sp ̺ = 1 , (3.22) ̺2 = ̺ , † ̺ = ̺. (3.23) (3.24) In der statistischen Physik arbeiten wir mit gemischten Ensembles. Gemischte Ensembles treten auch beim Messprozess auf. Wenn wir Aussagen über den Ausgang einer Messung am Zustand |Ψi machen wollen, können wir uns ein ganzes Ensemble von (unendlich vielen) Systemen denken, die vor der Messung alle im Zustand |Ψi sind. Wenn {|ni} die Eigenfunktionen des Operators  sind und {an } die zugehörigen Eigenwerte, dann ist die Wahrscheinlichkeit, bei einer Messung von  den Eigenwert an zu erhalten, gegeben durch |cn |2 = |hn|Ψi|2 . In dem Ensemble werden wir also im Anteil |cn |2 der Systeme das Messergebnis an bekommen. Das vor dem Messprozess vorliegende reine Ensemble im Zustand |Ψi wird nach der Messung von  ein gemischtes Ensemble, in dem der Zustand |ni mit der Häufigkeit pn = |cn |2 auftritt. In den folgenden Kapiteln betrachten wir eine Reihe weiterer Ensembles, bei denen verschiedene Systeme in veschiedenen Zuständen sein können. Dann ist pn der Anteil der Systeme im Zustand |Ψn i. (Im Allgemeinen müssen die |Ψn i kein Orthonormalsystem bilden. Es können beliebige Zustände sein.) Der Mittelwert von  in einem gemischten Ensemble ist X hÂi = pn hΨn |Â|Ψn i = Sp ̺ . (3.25) n Im gemischten Ensemble gelten weiterhin die folgenden Beziehungen: Sp ̺ = 1 , 37 (3.26) Sp ̺2 < 1 , † ̺ = ̺. (3.27) (3.28) Der Unterschied zwischen reinen und gemischten Ensembles wird am anschaulichsten, wenn wir ̺ diagonalisieren. Ein reines Ensemble hat dann nur ein von Null verschiedenes Element auf der Diagonalen, ein gemischtes Ensemble hat mindestens zwei von Null verschiedene Elemente auf der Diagonalen. Die zeitliche Entwicklung der Dichtematrix ist durch die quantenmechanische Liouville-Gleichung gegeben ∂ρ X = pn (|ĤΨn ihΨn | − |Ψn ihĤΨn |) = [Ĥ, ̺] , (3.29) i~ ∂t n wobei die eckigen Klammern den Kommutator bedeuten. Man kann leicht nachprüfen, dass ein reiner Zustand unter der Zeitentwicklung ein reiner Zustand bleibt, und dass ein gemischtes Ensemble ein gemischtes Ensemble bleibt. Wir überlegen nun, wie der Dichteoperator im thermischen Gleichgewicht aussieht: Aus der Grundannahme der statistischen Physik folgt, dass in einem abgeschlossenen System im Gleichgewicht alle Zustände gleicher Energie gleich wahrscheinlich sind. Also ist der die Dichtematrix im Gleichgewicht diagonal, mit lauter identischen Einträgen auf der Diagonalen. Nun vergleichen wir dies mit den Ergebnissen der vorigen beiden Unterkapitel: Wenn wir ein Gas als isoliertes quantenmechanisches System beschreiben, ist es in einem reinen Zustand und bleibt für alle Zeiten in einem reinen Zustand. Die entsprechende Dichtematrix ist also nicht die GleichgewichtsDiagonalmatrix. Wenn wir das Gas als über ein Potenzial mit der Umgebung wechselwirkendes System beschreiben und ein ganzes Ensemble betrachten, so wie im vorigen Teilkapitel beschrieben, wird dieses Ensemble durch ein Oberflächenelement auf der durch die Eigenvektoren des Hamiltonoperators aufgespannten Einheitskugel beschrieben und verteilt sich mit der Zeit immer feiner über die Kugeloberfläche. Und nun folgt eine ganz wichtige Überlegung: die Dichtematrix enthält weniger Information als ein genügend fein verteiltes Oberflächenelement! Sie ist nämlich durch weniger als Ω̄2 relle Zahlen festgelegt (wobei Ω̄ die Zahl der Eigenzustände des Systems und damit der Zeilen und Spalten der Matrix ist), während die zur Beschreibung des Oberflächenelements benötigte Verteilungsfunktion mit der Zeit beliebig fein wird. Wir werden in den Übungen für ein einfaches Beispiel explizit zeigen, dass es viele verschiedene Ensembles gibt, die alle durch dieselbe Dichtematrix beschrieben werden. Wenn das betrachtete Ensemble in einem geeigneten Sinn ergodisch ist, können wir annehmen, dass die Außerdiagonalelemente der Dichtematrix tatsächlich im Laufe der Zeit immer kleiner werden. (Um dies explizit zu zeigen, müssten wir ein konkretes Modell durchrechnen oder ermitteln, welche Eigenschaften der Hamiltonoperator und die Kopplung erfüllen müssen. Weiter unten werden wir eine ähnliche Rechnung für ein System machen, das an ein quantenmechanisch modelliertes Wärmebad gekoppelt ist.) Wir wir im weiteren Verlauf der Vorlesung sehen werden, ist die Dichtematrix die einzige Systeminformation, die wir benötigen, um alle bekannten physikalischen Eigenschaften thermodynamischer Systeme herzuleiten. Wir folgern also hieraus, dass alle über die Dichtematrix hinausgehende Information irrelevant oder nichtexistent ist. Zum Abschluss dieses Teilkapitels betrachten wir noch eine Situation, die für die späteren Überlegungen wichtig wird. Das System möge aus zwei Teilsystemen 1, 2 bestehen, mit orthonormalen Zuständen {|1ni} und {|2mi}. Ein reiner Zustand lässt sich schreiben als X |Ψi = cnm |1ni|2mi (3.30) n,m mit der dazugehörigen Dichtematrix ̺ = |ΨihΨ| = X X n,m n′ ,m′ cnm c∗n′ m′ |1ni|2mih1n′ |h2m′ | . (3.31) Wenn wir eine Observable messen, die nur das System 1 betrifft, wenn also der Operator  nur auf die Zustände |1ni wirkt, dann ist h i (3.32) hÂi = Sp1 Sp2 ̺ = Sp1 Sp2 ̺ . 38 Hier bedeutet Spi die Spurbildung über das Teilsystem i. Für die Berechnung des Erwartungswertes eines Operators, der nur auf das System 1 wirkt, ist also die über das System 2 gemittelte Dichtematrix XXX ̺ˆ = Sp2 ̺ = cnm c∗n′ m |1nih1n′ | (3.33) n n′ m maßgeblich. Sie ist nur dann die Dichtematrix eines reinen Zustandes, wenn wir schreiben können X cnm c∗n′ m = bn b∗n′ m mit n |bn |2 = 1. Dies ist genau dann der Fall, wenn cnm sich als Produkt bn am schreiben lässt, also wenn |Ψi ein direktes Produkt aus zwei reinen Zuständen der Unterräume 1 und 2 ist. Ansonsten haben wir die Dichtematrix eines gemischten Zustandes erhalten. Als einfachen Spezialfall betrachten wir die Situation, dass im Ausdruck für |Ψi zu jedem m nur ein P einziges n auftritt, also |Ψi = n cn,m(n) |1ni|2mi. Dann ist P ̺ˆ = X n |cn,m(n) |2 |1nih1n| , (3.34) d.h. wir haben eine diagonale Dichtematrix, und im Ensemble treten die Zustände |1ni jeweils mit Wahrscheinlichkeit |cn,m(n) |2 auf. Wenn mehr als ein Diagonalelement von Null verschieden ist, sieht dieses System für einen Betrachter, der nur das Teilsystem 1 wahrnimmt, wie ein gemischter Zustand aus, obwohl sich das Gesamtsystem in einem reinen Zustand befindet. 3.6 Explizite Modellierung des Wärmebads: Das Phänomen der Dekohärenz Neben den beiden schon beschriebenen Methoden, ein Gas auf Basis der Schrödingergleichung zu modellieren (isoliertes System; über ein Potenzial mit der Umgebung wechselwirkendes System), gibt es auch die Möglichkeit, die Umgebung, mit der das Gas im thermischen Kontakt ist, explizit als Wärmebad mit vielen Freiheitsgraden zu modellieren. Weil die Modellierung eines Gases aus vielen Teilchen und eines Wärmebads aus noch mehr Teilchen schnell unübersichtlich wird, behandeln wir im folgenden ein anderes System, das zwar auch ein Wärmebad aus vielen Freiheitsgraden hat, das aber nur an wenige Freiheitsgrade koppelt. Dieses System ist der Messprozess der Quantenmechanik. Der hat nämlich genau wie die statistische Mechanik die Eigenschaft, dass er irreversibel und stochastisch ist. Es passiert ein “Kollaps der Wellenfunktion” auf einen Eigenzustand der gemessenen Observable. Genau wie in der statistischen Mechanik hängt diese Irreversibilität und Stochastizität damit zusammen, dass wir es mit makroskopisch vielen Freiheitsgraden zu tun haben. Das Messgerät ist nämlich ein makroskopisches Objekt, das viele innere Freiheitsgrade hat, die wir nicht explizit beobachten können. Wir wählen zur Illustration die Messung der z-Komponente des Spins eines Spin-1/2-Teilchens. Das Teilchen sei vor der Messung im Zustand |Φi i = α| ↑i + β| ↓i . Die Dichtematrix ist also |Φi ihΦi | = |α|2 α∗ β αβ ∗ |β|2 (3.35) (3.36) Nach der Messung ist das Teilchen mit Wahrscheinlichkeit |α|2 im Zustand | ↑i und mit Wahrscheinlichkeit |β|2 im Zustand | ↓i. Die Dichtematrix eines Ensembles von solchen Teilchen ist dann |α|2 0 (3.37) 0 |β|2 39 Es hat also ein Übergang von einem reinen in einen gemischten Zustand stattgefunden, der sich nicht aus einer unitären Zeitentwicklung, die aus der Schrödingergleichung resultiert, ergeben kann. Allerdings haben wir bei dieser Betrachtung versäumt, das Messgerät mit in die Rechnung einzubeziehen. Wir denken uns ein Messgerät, das einen Zeiger enthält, der vor der Messung auf 0 steht und nach der Messung auf +1 oder −1, je nach Messergebnis. Die diesen drei Einstellungen des Messgeräts entsprechenden Zustände bezeichnen wir mit |0i, |+i und |−i. Betrachten wir nun das kombinierte System aus Spin-1/2-Teilchen und Messgerät. Vor der Messung haben wir den Gesamtzustand |Φi i = (α| ↑i + β| ↓i)|0i , (3.38) der unter der Zeitentwicklung der Schrödingergleichung übergeht zu |Φc i = α| ↑i|+i + β| ↓i|−i . (3.39) Der erste Summand ist der Zustand, der sich ergibt, wenn der Anfangszustand | ↑i|0i ist, und der zweite Summand ist der Zustand, der sich ergibt, wenn der Anfangszustand | ↓i|0i ist. Da die Schrödingergleichung linear ist, entwickelt sich eine Linearkombination der beiden Anfangszustände in eine Linearkombination der beiden Endzustände. Dies ist immer noch ein reiner Zustand, und seine Dichtematrix ist ρc = |α|2 | ↑ih↑ ||+ih+| + αβ ∗ | ↑ih↓ ||+ih−| +α∗ β| ↓ih↑ ||−ih+| + |β|2 | ↓ih↓ ||−ih−| . (3.40) Das Teilchen und der Detektor sind miteinander verschränkt. Was wir aber tatsächlich beobachten, ist ein gemischter Zustand, bei dem die beiden mittleren Terme (die Außerdiagonalterme der Dichtematrix) nicht mehr vorhanden sind. Es bleibt also immer noch der Übergang von einem reinen in einen gemischten Zustand zu erklären. Deshalb berücksichtigen wir nun, dass der Detektor ja ein makroskopisches Objekt mit vielen inneren Freiheitsgraden ist. Der quantenmechanische Zustand des Detektors ist durch die Zeigerstellung allein gar nicht richtig beschrieben, sondern wir müssen alle anderen Freiheitsgrade mit berücksichtigen. Wir nennen diese anderen Freiheitsgrade die “Umgebung”, |Ei. Die richtige Beschreibung des Zustands, bevor das Teilchen den Messapparat trifft, ist also |Φi i = (α| ↑i + β| ↓i)|0i|E 0 i , (3.41) und nach dem Durchgang durch den Messaparat ist der Zustand dann |Φc i = α| ↑i|+i|E + i + β| ↓i|−i|E − i , (3.42) wobei |E + i und |E − i die Zustände der Umgebung sind, die bei dem Messergebnis |+i bzw. bei dem Messergebnis |−i auftreten. Auch dies ist natürlich wieder ein reiner Zustand. Aber nun kommt der entscheidende Schritt: Die Größe, die wir betrachten, ist der Zeigerausschlag, und die inneren Freiheitsgrade des Messgeräts nehmen wir gar nicht wahr. Die Dichtematrix, die für unsere Observablen relevant ist, ist also diejenige, die wir erhalten, wenn wir die Spur über die inneren Freiheitsgrade bilden. Nun können wir die Ergebnisse des Schlussteils des letzten Teilkapitels verwenden. Wie wir gleich argumentieren werden, stehen die zu positiver Zeigerstellung gehörenden Zustände |E + i orthogonal auf die zu negativer Zeigerstellung gehörenden Zustände |E − i. Dann führt die Spurbildung über die inneren Freiheitsgrade auf die reduzierte Dichtematrix ̺ˆc = |α|2 | ↑ih↑ ||+ih+| + |β|2 | ↓ih↓ ||−ih−| . (3.43) Dies ist nun ein gemischter Zustand, in Übereinstimmung mit dem, was wir beobachten. Die Dekohärenz besteht darin, dass Zustände der Umgebung, die verschiedenen Messergebnissen entsprechen, zueinander orthogonal werden. Hierbei ist wichtig, dass die Umgebung sehr viele Freiheitsgrade enthält. Dann liegen nämlich die Energieniveaus der Umgebung sehr eng beieinander. Die genaue Energie, die an die Umgebung abgegeben wird, hängt dann davon ab, in welcher Richtung sich der Zeiger bewegt, da kein Messgerät bis in jedes mikroskopische Details hinein symmetrisch ist. Daher entsprechen die verschiedenen Messausgänge verschiedenen Endenergien der Umgebung. Zustände verschiedener Energie sind aber zueinander orthogonal. 40 3.6.1 Ein einfaches Beispiel Um explizit zu sehen, wie die reduzierte Dichtematrix diagonal werden kann, betrachten wir ein einfaches Beispiel für ein System aus vielen Freiheitsgraden, die an den Spin eines Teilchens koppeln. Das System bestehe aus lauter “Atomen”, die zwei innere Zustände haben, |+ik und |−ik , wobei der Index k die “Atome” durchzählt. Der Spin des Teilchens sei unsere zu messende Observable, und die vielen “Atome” seien das Messgerät mit seinen inneren Freiheitsgraden. Die Energie der Atome und des Spins sei jeweils 0, solange keine Wechselwirkung zwischen ihnen stattfindet. Wenn der Spin auf das Messgerät trifft, wechselwirkt er mit den Atomen, und der Hamiltonoperator sei dann X Ĥint = −~ gk σz σzk (3.44) k mit Kopplungskonstanten gk . In dieser Notation ist σz eine Pauli-Spinmatrix mit dem Eigenwert +1 für den Spinzustand | ↑i und dem Eigenwert −1 für den Spinzustand | ↓i. Der Operator σzk wirkt auf das k-te Atom und hat den Eigenwert +1 für den Zustand |+ik und den Eigenwert −1 für den Zustand |−ik . Wir beginnen mit dem Anfangszustand zur Zeit t = 0 |Ψ, 0i = (α| ↑i + β| ↓i) N Y (ak |+ik + bk |−ik ) . (3.45) k=1 Wenn der Hamiltonoperator Ĥint eine Zeit t eingewirkt hat, ist der Zustand des Systems Y |Ψ, ti = e−iĤint t/~ |Ψ, 0i = α| ↑i (ak eigk t |+ik + bk e−igk t |−ik ) k Y +β| ↓i (ak e−igk t |+ik + bk e+igk t |−ik ) . (3.46) k Wenn wir in der Dichtematrix ̺ = |Ψ, tihΨ, t| die Spur über die Zustände der Atome bilden, erhalten wir ̺ˆ = |α|2 | ↑ih↑ | + |β|2 | ↓ih↓ | + z(t)αβ ∗ | ↑ih↓ | + z ∗ (t)α∗ β| ↓ih↑ | mit z(t) = Y cos(2gk t) + i(|ak |2 − |bk |2 ) sin(2gk t) . (3.47) (3.48) k Der Wert von z(t) bestimmt, wie groß die nichtdiagonalen Elemente der Dichtematrix sind. Wir machen nun die realistische Annahme, dass die ak und bk statistisch zufällig sind, so dass ihr Produkt für die meisten Atome von Null verschieden ist. Außerdem seien die Kopplungen gk verschieden, so dass nur wenige Faktoren des Produkts für Zeiten größer als Null gleichzeitig 1 werden. Dann sind außer zur Zeit t = 0 fast alle Faktoren des Produkts betragsmäßig kleiner als 1. Solch ein Produkt aus sehr vielen Faktoren, die kleiner als 1 sind, ist aber sehr klein, wenn N groß ist. |z(t)| nimmt also exponentiell ab mit zunehmendem N . Entsprechend nimmt die Zeitdauer, bis |z(t)| einen vorgegebenen kleinen Wert erreicht hat, exponentiell ab mit zunehmendem N . Wenn N nur groß genug ist, werden die Außerdiagonalelemente der Dichtematrix sehr schnell so klein, dass sie vernachlässigbar sind, und die Dekohärenz hat stattgefunden. 3.6.2 Diskussion Wir fassen zunächst das bisher Gesagte zusammen: Wir haben ein Teilchen betrachtet, dessen zu messende Größe (zum Beispiel der Spin) an ein makroskopisches Messgerät koppelt, so dass an diesem Messgerät ein Zeigerausschlag zu beobachten ist, der Auskunft über das Messergebnis gibt. Außerdem hat das Messgerät natürlich sehr viele weitere Freiheitsgrade, die aber nicht von uns beobachtet werden, so dass wir in der Dichtematrix die Spur über diese Freiheitsgrade bilden. Die zu verschiedenen Messergebnissen gehörenden Zustände der inneren Freiheitsgrade werden sehr schnell zueinander orthogonal. Die verbleibende reduzierte Dichtematrix ist daher diagonal. 41 Wir wollen nun die Frage diskutieren, ob hiermit der Messprozess eine Erklärung gefunden hat. Die Meinungen hierzu sind verschieden, und im Folgenden wird argumentiert, dass der Weg von der Dekohärenz zu einem wirklichen Verstehen des Messprozesses noch weit ist. 1. Zunächst stellen wir die Frage, inwiefern eine einem gemischten Ensemble entsprechende diagonale Dichtematrix den Endzustand einer Messung beschreibt. Wenn wir ein ganzes Ensemble von Systemen betrachten, die zu Beginn alle in exakt demselben Zustand sind, haben wir nach der Messung in der Tat ein Ensemble, das durch eine diagonale Dichtematrix mit einem Eintrag pro möglichem Messergebnis beschrieben wird. Aber wenn wir die Messung nur einmal machen, haben wir kein Ensemble, sondern wir haben ein System, das nur eines der möglichen Messergebnisse geliefert hat. Mit dem Verschwinden der Nichtdiagonalelemente der Dichtematrix haben wir noch keine Erklärung für den eindeutigen, aber im Einzelfall unvorhersagbaren Ausgang einer Einzelmessung erhalten! Dabei ist doch die Zeitentwicklung eines Einzelsystems das, was durch die Schrödingergleichung beschrieben werden soll - oder? Es gibt Wissenschaftler, die an dieser Stelle sagen, dass die Quantenmechanik doch nicht als Beschreibung einzelner Systeme zu verstehen ist, sondern als eine statistische Theorie, aus der man für ein Einzelereignis nur Wahrscheinlichkeitsaussagen bekommt. Wieder andere Wissenschaftler suchen einen Ausweg in der “Viele-Welten-Theorie”. Diese Theorie besagt, dass bei jeder Messung das Universum sich in mehrere Universen verzweigt, zu jedem Messergebnis eines. Unser Bewusstsein folgt aber nur einem dieser Zweige. Dies ist nicht gerade eine sparsame Erklärung... 2. Ein weiteres Problem in der Theorie der Dekohärenz besteht darin, dass die diagonale Dichtematrix um den Preis erkauft wurde, dass wir die vielen inneren Freiheitsgrade des Messgeräts nicht betrachten. Die beobachtete Irreversibilität der Vorgänge beim Messprozess ist also nur auf unsere Ignoranz der mikroskopischen Details des Messapparats zurückzuführen - ansonsten würden wir eine unitäre, reversible Zeitentwicklung sehen, bei der eine Vorzugsrichtung der Zeit höchstens noch dadurch gegeben ist, dass der Anfangszustand nicht verschränkt war. Wenn wir alle mikroskopischen Details einbeziehen würden in die Charakterisierung des Gesamtsystems nach der Messung, wären die Nichtdiagonalelemente da, und das Teilchen wäre mit den inneren Freiheitsgraden des Messapparats verschränkt. Schlimmer noch: mit jedem weiteren Messprozess (also mit jeder weiteren Wechselwirkung eines quantenmechanischen Teilchens mit einem makroskopischen Objekt) passieren weitere Verschränkungen. In den inneren Freiheitsgraden makroskopischer Objekte wäre also im Prinzip die gesamte Information über die Vergangenheit enthalten, und wir hätten ein riesiges Ausmaß an Verschränkungen im Universum auch zwischen jetzt weit voneinander entfernten Systemen. Dies ist eine schwer zu glaubende Annahme, die zudem prinzipiell nicht überprüfbar ist. Wenn wir die Ergebnisse dieses Unterkapitels nun auf das Gas übertragen, das mit sein Wänden des Behälters im thermischen Gleichgewicht ist, folgern wir, dass die Dichtematrix des Gases, wenn wir die Spur über die Freiheitsgrade des Wärmebads bilden, innerhalb kurzer Zeit diagonal wird. Wenn wir das Gesamtsystem durch eine Vielteilchenschrödingergleichung beschreiben, erhalten wir ein Gas, das mit dem Wärmebad verschränkt ist, mit einer Wellenfunktion, die sehr kompliziert ist und im Prinzip die vollständige Erinnerung an den Ausgangszustand enthält. Das vollständige System ist in dieser Darstellung also die ganze Zeit in einem reinen Zustand. Im Gegensatz dazu ist die Beschreibung des Systems im Rahmen der statistischen Physik sehr viel sparsamer. Sie beinhaltet nur die Dichtematrix des Systems, und diese ist die eines gemischten Zustands und wird mit dem Prinzip der maximalen Ignoranz ermittelt. 3.7 Schlussbemerkungen Wir haben in den letzten beiden Kapiteln gesehen, dass die klassische Mechanik und die Quantenmechanik nicht als alleinige Grundlage für die statistische Physik dienen können. Die Newtonschen Gesetze der klassischen Mechanik und die Schrödingergleichung der Quantenmechanik sind deterministisch und invariant unter Zeitumkehr. Die statistische Physik ist probabilistisch und ist nicht invariant unter Zeitumkehr, und 42 sie weist damit darauf hin, dass die klassische Mechanik und die Quantenmechanik Gültigkeitsgrenzen haben. Die Grenze der klassischen Mechanik besteht darin, dass der Phasenraum eigentlich “grobkörnig” ist, also dass ein Phasenraumpunkt aufgrund der Unschärferelation nicht beliebig scharf definiert werden darf. Die Grenze der Quantenmechanik ist analog dazu und besteht darin, dass eine Wellenfunktion für makroskopisch viele Teilchen, die zudem noch mit ihrer Umgebung wechselwirken, keine beliebig gute Beschreibung des Systems liefert. Genau wie die klassische Mechanik und die Quantenmechanik ihre Grundgleichungen haben, aus denen alles Weitere abgeleitet werden kann, so hat auch die statistische Physik ihre Grundannahme. Diese Grundannahme lautet: Alle Zustände gleicher Energie sind in einem abgeschlossenen System im Gleichgewicht gleich wahrscheinlich. Wir haben im ersten Kapitel gesehen, dass aus dieser Grundannahme der Entropiesatz und das Plancksche Strahlungsgesetz abgeleitet werden können. Diese Grundannahme ist äquivalent zum Prinzip maximaler Ignoranz, das wir im ersten Kapitel eingeführt haben. Die statistische Physik berücksichtigt, dass die Welt im Kern probabilistisch ist, und dass abgeschlossene makroskopische Vielteilchensysteme nach genügend langer Zeit ihre Anfangskonfiguration vergessen und ins Gleichgewicht übergehen, wenn ihre Dynamik mischend ist. Alles, was in den folgenden Kapiteln kommt, lässt sich aus der Grundannahme der statistischen Physik ableiten. Übungsaufgaben zu Kapitel 3 1. In einem Stern-Gerlach Experiment spaltet sich ein Strom von Spin 1 Teilchen in die Zustände |1 >, |0 > und | − 1 > . Die Zustände | − 1 > werden durch einen Absorber herausgefiltert. Durch welche Dichtematrix ̺ werden die Teilchen danach beschrieben? 2. Drücken Sie die Dichtematrix eines s = 1/2 Spin Systems durch die Spinoperatoren und die Erwartungswerte der Spinkomponenten aus. 3. Eine Apparatur zur Messung der z-Komponente an einem s = 1/2 Spin ist räumlich schlecht justiert und ist um die x -Achse um einen unbekannten Winkel α verdreht (|α| ≤ αmax ). Eine Messung des Spins mit dem Messapparat ergibt den Wert ~/2. Man bestimme die Dichtematrix ̺ und die Erwartungswerte hsx i , hsy i und hsz i nach der Messung. Was ergibt sich für die Streuungen? 4. Zeigen Sie, dass alle Eigenwerte r der Dichtematrix die Bedingung 0 ≤ r ≤ 1 erfüllen und dass Sp ρ = 1 und Sp ρ2 ≤ 1 gilt. Was folgt, falls Sp ρ2 = 1 gilt ? 5. Gegeben sei die folgende Dichtematrix eines Spin-1/2-Systems: 2/3 1/10 1/10 1/3 Geben Sie mindestens zwei verschiedene Ensembles an, die diese Dichtematrix haben. 6. Die Entropie S einer beliebigen Dichtematrix ̺ ist durch S = −khln ̺i ≡ −k Sp (̺ ln ̺) gegeben, wobei der Logarithmus über seine Potenzreihenentwicklung definiert ist. a) Was ergibt sich für S, falls ein reiner Zustand vorliegt? b) Diskutieren Sie die Entropie grafisch, falls ̺ nur zwei von Null verschiedene Eigenwerte r1 und r2 hat. c) Diskutiere Sie die Entropie grafisch, falls ̺ drei von Null verschiedene Eigenwerte r1 , r2 und r3 hat. 7. Ein System habe 4 Einteilchenzustände mit derselben Energie, und keine weiteren Zustände. Wir geben in dieses System 4 Teilchen hinein, die nicht miteinander wechselwirken. Nach dem Prinzip der maximalen Ignoranz ist jede Möglichkeit, die 4 Teilchen auf die 4 Zustände zu verteilen gleich 43 wahrscheinlich. Was ist die Wahrscheinlichkeit, dass jedes dieser Teilchen in einem anderen Zustand ist, wenn (a) die Teilchen unterscheidbar sind (b) die Teilchen Bosonen sind (c) die Teilchen Fermionen sind? 8. Ein System habe 2 Einteilchenzustände mit derselben Energie. Wir geben 20 Teilchen in dieses System. Was ist die Wahrscheinlichkeit, dass alle Teilchen in demselben Zustand sind (a) wenn sie unterscheidbar sind (b) wenn sie Bosonen sind? Warum gibt es hier keine Frage (c)? 44 Kapitel 4 Gleichgewichtsensembles In diesem und den folgenden Kapiteln bauen wir auf der Grundannahme der statistischen Physik auf, die besagt, dass alle Zustände, die ein isoliertes System annehmen kann, im Gleichgewicht gleich wahrscheinlich sind. Bei den Überlegungen der letzten beiden Kapitel haben wir daher meist isolierte Systeme betrachtet. Man spricht auch von abgeschlossenen Systemen. In vielen wichtigen physikalischen Situationen haben wir es aber nicht mit isolierten Systemen zu tun, sondern mit Systemen, die mit ihrer Umwelt Wärme oder Teilchen oder Arbeit austauschen. Um eine statistische Physik derartiger Systeme zu entwickeln, betrachtet man das System samt seiner Umgebung als ein großes isoliertes System. Dann lässt sich wieder die Grundannahme der Statistischen Physik anwenden. Wir werden im folgenden alle diese Arten von Systemen betrachten. Wie schon in den vorigen Kapiteln erweist es sich als praktisch, nicht einzelne Systeme, sondern ganze Ensembles von gleichartigen Systemen zu betrachten. Boltzmann und Gibbs führten den Begriff des Ensembles ein, um physikalische Größen eleganter zu berechnen. Statt dass der zeitliche Mittelwert über ein bestimmtes System berechnet wird, wird der Mittelwert zu einer festen Zeit über viele gleichwertige Systeme genommen. Dieses Ensemble ist eine gedankliche Hilfskonstruktion. Jedes System des Ensembles ist eine Realisierung des betrachteten Systems zu einem anderen Zeitpunkt. Das erste dieser Ensembles ist das mikrokanonische Ensemble, das isolierte Systeme beschreibt. Systeme, die mit ihrer Umgebung Wärme austauschen, werden durch das kanonische Ensemble beschrieben. Systeme, die Wärme und Teilchen mit ihrer Umgebung austauschen, bilden ein großkanonisches Ensemble. Systeme, die mit ihrer Umgebung Arbeit austauschen, haben keinen eigenen Namen. 4.1 Das mikrokanonische Ensemble Ein isoliertes System hat eine feste Energie E, ein festes Volumen V und eine feste Teilchenzahl N . Die Zahl der mikroskopischen Zustände, die das System annehmen kann, bezeichnen wir mit Ω(E, V, N ), wobei wir nicht immer alle drei Argumente aufführen und nicht immer dieselbe Reihenfolge der Argumente verwenden. Man nennt Ω die Zustandssumme im mikrokanonischen Ensemble. Wir gehen im Folgenden immer von einer quantenmechanischen Betrachtung des Systems aus. Dann sind die Zustände diskret und lassen sich mit einem Index n durchnummerieren. Die mikrokanonische Zustandssumme ist dann identisch mit der Zahl der Zustände in der betrachteten Energieschale. Wir haben in Kapitel 1 die Zahl der Zustände Ω(N, M ) für ein System aus unabhängigen Elementarmagneten berechnet. Wenn wir an dieses System ein Magnetfeld anlegen, gibt es einen direkten Zusammenhang zwischen M und E, denn E = −HM , und wir können dann die Zahl der Zustände zu einer bestimmten Energie angeben, Ω(N, E). Als weiteres Beispiel hatten wir in den Übungen die Zahl der Zustände für N nicht miteinander wechselwirkende Teilchen in einer Kammer (ideales Gas) bestimmt, die in der Energieschale [E, E + dE] 45 liegen, Ω(E, V, N ) = V N N 4πmE 3h2 N 3N 2 e 5N 2 √ 3 √ dE . 8πE (4.1) (Wir gehen davon aus, dass das Volumen bzw. die Energie hoch genug sind, so dass es sehr unwahrscheinlich ist, dass zwei Teilchen exakt denselben quantenmechanischen Zustand haben. Sonst Q wäre der Faktor N !, der aufgrund der Ununterscheidbarkeit der Teilchen eingeführt wurde, durch N !/ i n~ni ! zu ersetzen, wobei der Index i die Zustände durchzählt). Die Entropie eines Systems im mikrokanonischen Ensemble beträgt S = kB ln Ω(E, N, V ) . (4.2) Sie ist proportional zum natürlichen Logarithmus der Zahl der Mikrozustände, die einem gegebenen Makrozustand der Energie E entsprechen. kB ist die Boltzmann-Konstante kB = 1, 38 × 10−23 J/K. Die Formel (4.2) geht auf Boltzmann zurück und steht sogar (in anderer Notation) auf seinem Grabstein. Die Entropie ist additiv: Das bedeutet, dass die Gesamtentropie zweier unabhängiger Systeme die Summe der Einzelentropien ist: S(1, 2) = kB ln(Ω1 Ω2 ) = kB ln Ω1 + kB ln Ω2 = S1 + S2 . Dies bedeutet auch, dass die Entropie proportional zur Systemgröße ist, wenn das Verhältnis E/V festgehalten wird. Sie ist also eine extensive Größe. Für das ideale Gas ergibt sich aus (4.1) die sogenannte Sackur-Tetrode-Gleichung " 3 # V 4πmE 2 5 S = N kB ln (4.3) e2 . N 3N h2 √ √ Wir haben hier den additiven Term kB ln 3dE/ 8πE weggelassen, da er nur logarithmisch in der Teilchenzahl ist und gegenüber dem extensiven Term verschwindend klein wird. 4.2 4.2.1 Das kanonische Ensemble Systeme in thermischem Kontakt Das kanonische Ensemble beschreibt Systeme, die mit ihrer Umgebung Wärme austauschen können. Aus der Thermodynamik wissen wir, dass zwei Systeme, die miteinander in thermischem Kontakt sind, ihre Temperatur angleichen. Dies können wir aus der Grundannahme der statistischen Physik ableiten. Wir betrachten die in der folgenden Abbildung dargestellte Situation: Die beiden Systeme können z.B. über eine dünne Wand Energie austauschen, aber sie können keine Teilchen austauschen. Das Volumen beider Systeme sei fixiert, und sie seien vom Rest der Welt isoliert. Zusammen bilden sie also ein abgeschlossenes System der Gesamtenergie E. Die Gesamtzahl der Zustände des gekoppelten Systems ist X Ω(N, E) = Ω1 (N1 , E1 )Ω2 (N2 , E − E1 ) . E1 Die Wahrscheinlichkeit, dass das erste System die Energie E1 und das zweite System die Energie E − E1 hat, ist folglich Ω1 (N1 , E1 )Ω2 (N2 , E − E1 ) . Ω(N, E) 46 1111111111111111111111111111 0000000000000000000000000000 0000000000000000000000000000 1111111111111111111111111111 0000000000000000000000000000 1111111111111111111111111111 0000000000000000000000000000 1111111111111111111111111111 0000000000000000000000000000 1111111111111111111111111111 0000000000000000000000000000 1111111111111111111111111111 N2 0000000000000000000000000000 1111111111111111111111111111 N1 0000000000000000000000000000 1111111111111111111111111111 V 0000000000000000000000000000 1111111111111111111111111111 1 V2 0000000000000000000000000000 1111111111111111111111111111 0000000000000000000000000000 1111111111111111111111111111 0000000000000000000000000000 1111111111111111111111111111 0000000000000000000000000000 1111111111111111111111111111 0000000000000000000000000000 1111111111111111111111111111 0000000000000000000000000000 1111111111111111111111111111 0000000000000000000000000000 1111111111111111111111111111 0000000000000000000000000000 1111111111111111111111111111 Abbildung 4.1: Zwei Systeme mit den Volumina V1 und V2 und den Teilchenzahlen N1 und N2 in thermischem Kontakt. Durch die Wand kann Energie ausgetauscht werden, aber keine Teilchen. Das Gesamtsystem ist nach außen isoliert. Wie wir gesehen haben, haben Wahrscheinlichkeitsverteilungen von Gleichgewichtssystemen aus vielen Teilchen ein sehr scharfes Maximum, so dass wir erwarten können, dass E1 sehr nah an seinem wahrscheinlichsten Wert ist. Diesen Wert erhalten wir durch Differenziation nach E1 : ∂(Ω1 (N1 , E1 )Ω2 (N2 , E − E1 )) ∂E1 ∂Ω1 (N1 , E1 ) Ω2 (N2 , E − E1 ) ∂E1 ∂ ln Ω1 (N1 , E1 ) ∂E1 = 0; ∂Ω2 (N2 , E2 ) ; ∂E2 E2 =E−E1 ∂ ln Ω2 (N2 , E2 ) = ∂E2 E2 =E−E1 = Ω1 (N1 , E1 ) (4.4) Für zwei Systeme in thermischem Kontakt gibt es also eine Größe, die im Gleichgewicht in beiden Systemen gleich ist. Dies ist die Temperatur. Sie ist definiert durch die Beziehung T = ∂E ∂E = . ∂kB ln Ω(N, E) ∂S (4.5) Wir haben damit eine aus der Thermodynamik bekannte Beziehung mit Hilfe der statistischen Physik hergeleitet. Während sich die Temperatur der beiden Systeme angleicht, wächst die Gesamtentropie, denn die Energie verteilt sich so auf die beiden Systeme, dass die Zahl der Mikrozustände, die der Energieaufteilung (E1 , E2 ) entspricht, maximiert wird. 4.2.2 Die kanonische Zustandssumme und der Boltzmann-Faktor Wir betrachten nun ein kleines System, das in Kontakt mit einem sehr großen System (“Wärmebad”) ist, siehe Abb. 4.2 auf der nächsten Seite. Wenn das kleine System nur aus wenigen Teilchen besteht, hat seine Energie große Fluktuationen, und wir berechnen zunächst die Wahrscheinlichkeit dafür, dass es die Energie E1 hat. Die Zahl der Zustände des Gesamtsystems ist X Ω(N, E) = Ω1 (N1 , E1 )Ω2 (N2 , E − E1 ) E1 und die Wahrscheinlichkeit, dass das kleine System die Energie E1 hat, ist somit p1 (E1 ) = Ω1 (N1 , E1 )Ω2 (N2 , E − E1 ) Ω(N, E) 47 1111111111111111111111111111 0000000000000000000000000000 0000000000000000000000000000 1111111111111111111111111111 0000000000000000000000000000 1111111111111111111111111111 0000000000000000000000000000 1111111111111111111111111111 0000000000000000000000000000 1111111111111111111111111111 N2 V2 0000000000000000000000000000 1111111111111111111111111111 0000000000000000000000000000 1111111111111111111111111111 0000000000000000000000000000 1111111111111111111111111111 0000000000000000000000000000 1111111111111111111111111111 0000000000000000000000000000 1111111111111111111111111111 0000000000000000000000000000 1111111111111111111111111111 N1 V1 0000000000000000000000000000 1111111111111111111111111111 0000000000000000000000000000 1111111111111111111111111111 0000000000000000000000000000 1111111111111111111111111111 0000000000000000000000000000 1111111111111111111111111111 0000000000000000000000000000 1111111111111111111111111111 0000000000000000000000000000 1111111111111111111111111111 Abbildung 4.2: Kleines System (N1 , V1 ) im Wärmebad (großes System, N2 , V2 ). Über die Wand wird Energie ausgetauscht. Das Gesamtsystem ist nach außen hin isoliert. = ≃ = = ≡ Ω1 (N1 , E1 ) exp{ln Ω2 (N2 , E − E1 )} Ω(N, E) Ω1 (N1 , E1 ) ∂ ln Ω2 (N2 , E) exp ln Ω2 (N2 , E) − E1 Ω(N, E) ∂E Ω1 (N1 , E1 ) E1 exp ln Ω2 (N2 , E) − Ω(N, E) kB T E Ω2 (N2 , E) − 1 Ω1 (N1 , E1 ) e kB T Ω(N, E) E 1 − 1 Ω1 (N1 , E1 ) e kB T . Z1 (4.6) Z1 ist die kanonische Zustandsumme für das System 1 und tritt als Normierungsfaktor im Nenner bei der Berechnung der Wahrscheinlichkeit für das Auftreten der Energie E1 auf. Man kann den Ausdruck für die kanonische Zustandssumme eines Systems noch umschreiben via X − E Z = Ω(N, E) e kB T E = X e − kEnT = B n X n = Sp e − k ĤT hn|e − k ĤT B |ni , B (4.7) wobei n die Quantenzustände des Systems durchzählt und Ĥ der Hamiltonoperator des Systems ist. Außer der Wahrscheinlichkeit dafür, dass ein System, das im thermischen Kontakt mit einem Wärmebad ist, die Energie E hat, kann man auch die Wahrscheinlichkeit dafür angeben, dass das System im Quantenzustand |ni ist. Da für jeden Quantenzustand der Energie E im thermischen Gleichgewicht die Wahrscheinlichkeit gleich ist, beträgt sie − En e kB T pn = . (4.8) Z − En Den Faktor e kB T nennt man auch den Boltzmann-Faktor. Der Dichteoperator des kanonischen Ensembles ist somit ̺K = Z −1 X n e − kEnT B |nihn| = Z −1 e 48 − k ĤT B . (4.9) Ein Ensemble aus äquivalenten Systemen, von denen jedes in Kontakt mit einem Wärmebad derselben Temperatur ist, nennt man ein kanonisches Ensemble. Die Wahrscheinlichkeit, dass ein System die Energie E hat, hängt (neben den Eigenschaften des Systems selbst) nur von der Temperatur des Wärmebads ab, aber nicht von den anderen Eigenschaften des Wärmebads. Wir können daher jede genügend große Umgebung eines Systems, mit der sich das System im thermischen Gleichgewicht befindet, als Wärmebad betrachten. Den Ausdruck (4.8) für die Wahrscheinlichkeit, dass das System im Zustand n ist, kann man alternativ aus dem Prinzip der maximalen Ignoranz ableiten. Er hat genau dieselbe Form wie (1.32), wobei die Zufallsvariable nun En ist. Das Ergebnis (4.8) bedeutet also, dass ein System im Wärmebad diejenige Energieverteilung annimmt, die die Entropie bei vorgegebener mittlerer Energie maximiert. Die Festsetzung einer Temperatur entspricht also der Festsetzung einer mittleren Energie. 4.2.3 Bezug zur Thermodynamik Wir zeigen im Folgenden, dass die aus der Thermodynamik bekannten Beziehungen und Größen für ein System mit Wärmeaustausch aus den obigen Berechnungen resultieren. Wenn man dem System etwas Wärme zuführt (zum Beispiel durch eine leichte Temperaturerhöhung des Bades), ändert sich die Energie um einen Betrag dE, der gegeben ist durch X X dhEi = En dpn = (−kB T ln Z − kB T ln pn )dpn n n = −kB T ln Z = −kB T X n X n dpn − kB T X ln pn dpn = −kB T X = −kB T d( pn ln pn ) . ln pn dpn n X d(pn ln pn ) n (4.10) n P Hier haben wir im Schritt von der zweiten zur dritten Zeile verwendet, dass wegen n pn = 1 auch P n dpn = 0 gilt. Vergleich von (4.10) mit der aus der Thermodynamik bekannten Beziehung dE = T dS (bei festem N und V ) gibt (bis auf eine Konstante) X S = −kB pn ln pn (4.11) n Dies entspricht der Definition der Entropie aus dem ersten Kapitel. Somit ist gezeigt, dass die mikroskopische Definition der Entropie mit derjenigen aus der Thermodynamik übereinstimmt. Der Ausdruck (4.11) geht auf Gibbs zurück. Wir führen ab jetzt die häufig verwendete Bezeichnung β = 1/kB T ein. Einsetzen von pn = Z1 e−βEn in (4.11) gibt S = −kB X n pn (−βEn − ln Z) = hEi + kB ln Z . T (4.12) Dies können wir umstellen zu hEi − T S = −kB T ln Z . (4.13) Somit haben wir die aus der Thermodynamik bekannte Freie Energie F = E − T S mit den Wahrscheinlichkeiten {pn } in Verbindung gebracht, denn es gilt F = −kB T ln Z . (4.14) Bei dieser Schlussfolgerung haben wir den Mittelwert der Energie durch die Energie selbst ersetzt. Dies dürfen wir machen, wenn die Fluktuationen der Energie vernachlässigbar sind. Wir werden im folgenden Abschnitt zeigen, dass dies immer dann der Fall ist, wenn die Zahl der Teilchen makroskopisch groß ist. 49 4.2.4 Äquipartitionstheorem, Energiefluktuationen und Äquivalenz der statistischen Ensembles Wir gehen nun der Frage nach, wie sich bei fester Temperatur die Energie auf die verschiedenen Freiheitsgrade des Systems verteilt, und wie groß die Energieschwankungen sind. Wenn sich die Energie E des Systems aus unabhängigen Einzelbeiträgen zusammensetzt, können wir schreiben X ǫ(i) . (4.15) E= i In einem idealen Gas sind diese Einzelbeiträge die Terme 12 m(v i )2 , wobei der Index i die drei Raumkoordinaten aller Teilchen durchzählt. In dem System aus unabhängigen Elementarmagneten ist E die Summe der Energien, die die einzelnen Magnete im Magnetfeld haben. Jeder Freiheitsgrad ergibt einen Beitrag zur Gesamtenergie des Systems. Wir berechnen im Folgenden die Wahrscheinlichkeit dafür, dass der i-te Freiheitsgrad die Energie (i) ǫni hat. Der Index ni zählt hierbei die möglichen Energiewerte des i-ten Freiheitsgrads durch. Ohne Beschränkung der Allgemeinheit wählen wir i = 1. Es ist p(ǫ(1) n1 ) =P P n2 ,n3 ,... e (1) n1 e−ǫn1 /kB T P − P i (i) ǫn /kB T i n2 ,n3 ,... e − P (1) (i) i ǫni /kB T = P e−ǫn1 /kB T (4.16) (1) n1 e−ǫn1 /kB T (i) Die Wahrscheinlichkeit, dass im Freiheitsgrad Nummer i bei der Temperatur T die Energie ǫni steckt, ist also völlig unabhängig von den anderen Energiebeiträgen und ist durch einen normierten Boltzmannfaktor gegeben. Der i-te Freiheitsgrad kann formal genauso behandelt werden, als sei er das kleine System, das in Verbindung mit einen Wärmebad der Temperatur T steht. Dies geht zunächst gegen die Intuition, da man diesem Freiheitsgrad eventuell kein Volumen und keine Teilchenzahl zuordnen kann, aber es ist ein sehr nützliches Ergebnis, mit dem man sich viele Rechnungen vereinfachen kann. Wir benützen dieses Ergebnis nun, um die mittlere Energie zu berechnen, die in der x-Komponente der Geschwindigkeit eines Teilchens steckt. In einem idealen einatomigen Gas ist dies einer von 3N gleichberechtigten Freiheitsgraden, und wir erhalten am Ende die mittlere Energie des Gesamtsystems, indem wir das Ergebnis mit 3N multiplizieren. Da die Geschwindigkeit eine kontinuierliche Variable ist, müssen wir für diese Berechnung die Summen durch Integrale ersetzen. Es ist R 1 R 2 −x2 2 2 − 21 mvx /kB T dvx x e dx 1 2 mvx e (4.17) = kB T R −x2 = kB T . hǫvx i = R − 1 mv2 /k T 2 e dx e 2 x B dvx In jedem Freiheitsgrad steckt also die Energie 21 kB T . Dies ist das sogenannte Äquipartitionstheorem. Es besagt allgemeiner, dass in jedem Freiheitsgrad, der quadratisch in die Energie eingeht und eine kontinuierliche Variable ist, die Energie 21 kB T steckt. Wenn die Temperatur hoch genug ist, gilt dies also auch für die beiden Rotationsfreiheitsgrade eines zweiatomigen Moleküls (da die Energie quadratisch im Drehimpuls ist und da die Energieniveaus bei hohen Temperaturen quasi als Kontinuum betrachtet werden können). In den Übungen werden wir berechnen, dass sich für einen harmonischen Oszillator bei hohen Temperaturen der Energiebeitrag kB T ergibt. Da die Energie des harmonischen Oszillators als Summe der kinetischen und der potentiellen Energie geschrieben werden kann, die quadratisch im Ort bzw. im Impuls sind, haben wir hier also zwei Freiheitsgrade, die jeweils mit 12 kB T beitragen. Als nächstes schätzen wir ab, wie groß die Energiefluktuation in einem System aus N identischen Teilchen ist. Wenn die Teilchen unabhängig voneinander sind, sind die Wahrscheinlichkeitsverteilungen ihrer Energien ebenfalls unabhängig. Der Zentrale Grenzwertsatz besagt dann, dass die Varianz der Gesamtenergie N mal die √ Varianz der einzelnen Energien ist. Also ist die Standardabweichung ∆E√ der Energie proportional zu N , und die relative Standardardabweichung ∆E/E ist proportional zu 1/ N . Für eine makrosopisch große Teilchenzahl (∼ 1023 ) ist dies verschwindend gering. Für Systeme aus makroskopisch 50 vielen Teilchen, die in Kontakt mit einem Wärmebad sind, ist also die Energie so scharf, dass ihre Fluktuationen vernachlässigt werden können. Wir können also den Mittelwert der Energie durch die Energie selbst ersetzen und erhalten dann, wie oben gezeigt, die aus der Thermodynamik bekannte Beziehung E −T S = F . Es ist also für makroskopische Systeme völlig gleichgültig, ob man einen thermodynamischen Erwartungswert im mikrokanonischen oder im kanonischen Ensemble berechnet. Es gibt noch eine elegantere Abschätzung der Größe der Energiefluktuationen in einem makroskopischen System, die auch dann gilt, wenn die verschiedenen Teilchen nicht unabhängig voneinander sind. Wir besorgen uns zunächst ein paar nützliche Beziehungen für den Mittelwert und die Varianz der Energie. Wir notieren wieder β = 1/kB T und erhalten P −βEn ∂ ln Z n En e hEi = P =− . (4.18) −βE n e ∂β n Durch nochmaliges Ableiten nach −β erhalten wir (∆E)2 = hE 2 i − hEi2 = ∂ 2 ln Z . ∂β 2 (4.19) Nun benötigen wir das aus der Thermodynamik bekannte Konzept extensiver und intensiver Größen. ln Z ist proportional zur Freien Energie und ist somit eine extensive Größe. Extensive Größen sind proportional zur Ausdehnung des Systems, also zu N und V , wenn man das System unter Beibehaltung aller Eigenschaften vergrößert. Die Temperatur und damit β ist eine intensive Größe. Sie ändert sich nicht, wenn wir das System vergrößern durch Hinzufügen gleicher Einheiten. Die Ableitung von einer extensiven Größe nach einer intensiven Größe ist wieder eine extensive Größe. Daraus folgt, dass sowohl hEi als auch√(∆E)2 extensive Größen sind. Insbesondere sind sie proportional zu N . Daraus folgt wieder ∆E/hEi ∝ N . Wenn wir ein System unter Beibehaltung aller Eigenschaften immer weiter vergrößern √ durch Hinzufügen identischer Teilsysteme, ist die relative Energiefluktuation proportional zu 1/ N . 4.2.5 Vom Nutzen der Zustandssumme Die Zustandssumme enthält alle wichtigen Informationen über das makroskopische Verhalten des Systems. Wenn man sie berechnet hat, kann man alles andere daraus ableiten. Denn aus der Zustandssumme erhält man die Freie Energie (über die Beziehung F = −kB T ln Z), und aus dem totalen Differenzial der Freien Energie (dF = −SdT − pdV + µdN ) die nicht in der Zustandssumme explizit enthaltenen Größen S, p und µ als Funktion der drei natürlichen Variablen der Freien Energie. Wir demonstrieren dies am Beispiel des idealen Gases. Wir haben für das ideale Gas weiter vorne die mikrokanonische Zustandssumme Ω ausgewertet, indem wir über den Phasenraum integriert haben. Man könnte ganz analog nun auch die kanonische Zustandssumme ausrechnen. Aber es gibt einen schnelleren Weg, die kanonische Zustandssumme zu ermitteln, indem wir von Anfang an das System als quantemechanisches System betrachten. Das Gas sei in einer würfelförmigen Kammer der Kantenlänge L und des Volumens V = L3 eingesperrt. Die Wellenvektoren ~k der Gasteilchen können also nur diskrete Werte annehmen. Wir verwenden die bei Theoretikern besonders beliebten periodischen Randbedingungen. Wir tun also so, als hätten wir unendlich viele dieser Kammern periodisch angeordnet, und wir verlangen, dass die Wellenfunktion in jeder Kammer gleich aussieht. Dies bedeutet, dass der Wellenvektor ~k in jeder Komponente ein ganzzahliges Vielfaches von 2π/L sein muss, ki = 2πni /L. Der Vorteil der periodischen Randbedingungen ist, dass die Wellenfuktionen ebene Wellen sind, mit denen man leicht rechnen kann, und nicht der unhandlichere Sinus, den man im unendlich hohen Potentialtopf bekommt. Die Zahl der quantenmechanischen Zustände, die es bei jeder Energie gibt, ist in beiden Modellen dieselbe, so dass die Ergebnisse am Ende gleich P sind. Unser System aus N Teilchen hat 3N unabhängige Freiheitsgrade, so dass wir wieder E = i ǫ(i) schreiben können. Die möglichen Werte von ǫ(i) bezeichnen wir mit ǫni = ~2 kn2 i /2m mit kni = 2πni /L. Wir ignorieren zunächst die Ununterscheidbarkeit der Teilchen und 51 erhalten dann für die Zustandssumme aus N Teilchen das Ergebnis ZN = X n e−βEn = X e−β P i ǫn i = Y X i {ni } e−βǫni ni ! 3N ≡ Z1/3 ≡ Z1N . (4.20) Die Zustandssumme eines Systems aus unabhängigen Freiheitsgraden ist das Produkt der Zustandssummen der einzelnen Freiheitsgrade. Wir brauchen also nur die Zustandssumme Z1/3 eines Freiheitsgrads zu berechnen: Z 2 X Lp L − (2πn~) Z1/3 = e−ǫn /kB T ≃ dne L2 2mkB T = 2πmkB T ≡ (4.21) h λ n √ mit der sogenannten thermischen Wellenlänge λ = h/ 2πmkB T . Wenn wir daraus Z berechnen, müssen wir berücksichtigen, dass wir bei N Teilchen in unserer Rechnung jeden Zustand N ! mal gezählt haben. Wegen der Ununterscheidbarkeit der Teilchen sind Zustände, bei denen Teilchen 1 den Wellenvektor ~k1 und Teilchen 2 den Wellenvektor ~k2 hat und Zustände, bei denen dies umgekehrt ist, identisch. Wir benötigen also noch einen Faktor 1/N !. (Wir gehen davon aus, dass das Volumen bzw. die Temperatur hoch genug sind, so dass es sehr unwahrscheinlich ist, dass zwei Teilchen exakt denselben Wellenvektor Q haben. Sonst wäre der Faktor N ! durch N !/ i n~ni ! zu ersetzen). Wir erhalten also ZN 1 = N! V λ3 N . (4.22) Wir berechnen daraus zunächst die Energie: E=− 3 ∂ ln λ2 3 ∂ ln Z =− N = N kB T . ∂β 2 ∂β 2 (4.23) Dies ist die kalorische Zustandsgleichung, die wir auch schon durch direkte Auswertung der Energie pro Freiheitsgrad erhalten hatten. Den Druck bekommen wir so: P =− ∂ ln Z ∂F = kB T = N kB T /V . ∂V ∂V (4.24) Dies ist die bekannte Beziehung P V = N kB T . Weitere Grössen lassen sich auf analoge Weise berechnen. 4.3 4.3.1 Das großkanonische Ensemble Systeme mit Teilchenaustausch Im vorigen Abschnitt haben wir Systeme betrachtet, die miteinander in thermischem Kontakt sind. Nun betrachten wir Systeme, die zusätzlich auch Teilchen austauschen können. Wir können uns das zum Beispiel so vorstellen, dass die Wand in Abbildung 4.1 auf Seite 47 Löcher hat. Die Gesamtteilchenzahl N ist fest, aber die Verteilung der Teilchen auf die beiden Teilsysteme ist nicht fixiert. Die Gesamtzahl der Zustände des gekoppelten Systems ist nun X Ω(N, E) = Ω1 (N1 , E1 )Ω2 (N − N1 , E − E1 ) . N1 ,E1 Die Wahrscheinlichkeit, dass das erste System die Energie E1 und die Teilchenzahl N1 und das zweite System die Energie E2 = E − E1 und die Teilchenzahl N2 = N − N1 hat, ist folglich Ω1 (N1 , E1 )Ω2 (N2 , E2 ) . Ω(N, E) 52 Wir können nun die Überlegungen und Rechnungen des vorigen Abschnittes direkt vom Energieaustausch auf den Teilchenaustausch ausweiten. Die wahrscheinlichste Verteilung der Teilchen auf die beiden Teilsysteme ergibt sich aus der Bedingung ∂(Ω1 (N1 , E1 )Ω2 (N − N1 , E2 )) = ∂N1 ∂Ω1 (N1 , E1 ) Ω2 (N2 , E2 ) = ∂N1 ∂ ln Ω1 (N1 , E1 ) ∂N1 0; ∂Ω2 (N2 , E2 ) Ω1 (N1 , E1 ) ; ∂N2 N2 =N −N1 ∂ ln Ω2 (N2 , E2 ) ∂N2 N2 =N −N1 = (4.25) Für zwei Systeme in thermischem und diffusem Kontakt gibt es also neben der Temperatur eine weitere Größe, die in beiden Systemen gleich ist. Dies ist das chemische Potenzial µ. Es ist definiert durch die Beziehung ∂ ln Ω(N, E) ∂S µ = −kB T (4.26) = −T ∂N ∂N E,V Wir betrachten nun ein kleines System in thermischem und diffusem Kontakt mit einem sehr großen Reservoir (Wärme- und Teilchenbad). Die Wahrscheinlichkeit, dass das kleine System die Teilchenzahl N1 und die Energie E1 hat, ist somit p1 (N1 , E1 ) = = ≃ = = ≡ Ω1 (N1 , E1 )Ω2 (N − N1 , E − E1 ) Ω(N, E) Ω1 (N1 , E1 ) exp{ln Ω2 (N − N1 , E − E1 )} Ω(N, E) Ω1 (N1 , E1 ) ∂ ln Ω2 (N, E) ∂ ln Ω2 (N, E) exp ln Ω2 (N, E) − E1 − N1 Ω(N, E) ∂E ∂N Ω1 (N1 , E1 ) E1 µN1 exp ln Ω2 (N, E) − + Ω(N, E) kB T kB T E1 −µN1 Ω2 (N, E) − Ω1 (N1 , E1 ) e kB T Ω(N, E) E −µN1 1 − 1 Ω1 (N1 , E1 ) e kB T . Z1 (4.27) Z1 ist die großkanonische Zustandsumme für das System 1 und tritt als Normierungsfaktor im Nenner bei der Berechnung der Wahrscheinlichkeit für das simultane Auftreten der Energie E1 und Teilchenzahl N1 auf. Man kann den Ausdruck für die großkanonische Zustandssumme eines Systems noch umschreiben via X µN Z = ZN e kB T N = X Ω(N, E) e − E−µN k T B N,E = X e − En −µN N kB T = N,nN N,nN = Sp e X N̂ − Ĥ−µ k T B hnN |e , − Ĥ−µN k T B |nN i (4.28) wobei nN die Quantenzustände des Systems für die Teilchenzahl N durchzählt und Ĥ der Hamilton− E−µN operator und N̂ der Teilchenzahloperator des Systems ist. Den Faktor e kB T nennt man auch den Gibbs-Faktor. Die Dichtematrix eines großkanonischen Ensembles ist ρG = Z−1 e − k ĤT + kµN̂T 53 B B . (4.29) Ein Ensemble aus äquivalenten Systemen, von denen jedes in Kontakt mit einem Reservoir mit derselben Temperatur und demselben chemischen Potenzial ist, nennt man ein großkanonisches Ensemble. Die Wahrscheinlichkeit dafür, dass das System N Teilchen enthält und im Quantenzustand nN ist, beträgt also e − En −µN N kB T . (4.30) Z Man kann sie alternativ aus dem Prinzip der maximalen Ignoranz ableiten. Sie hat genau dieselbe Form wie (1.35), wobei die Zufallsvariablen nun N und EnN sind. Das Ergebnis (4.30) bedeutet also, dass ein System im Wärme- und Teilchenbad diejenige Energie- und Teilchenzahlverteilung annimmt, die die Entropie bei vorgegebener mittlerer Energie und mittlerer Teilchenzahl maximiert. Die Festsetzung eines chemischen Potenzials entspricht also der Festsetzung einer mittleren Teilchenzahl. pN,nN = 4.3.2 Bezug zur Thermodynamik Genau wie im kanonischen Ensemble können wir auch im großkanonischen Ensemble einige aus der Thermodynamik bekannte Beziehungen herleiten. Die Entropie im großkanonischen Ensemble ist X S = −kB pN,nN ln pN,nN N,nN = = −kB X e− N,nN En −µN N kB T Z En µN − N + − ln Z kB T kB T hEi µhN i − + kB ln Z . T T (4.31) In einem makroskopischen System sind die Energie und die Teilchenzahl sehr scharf, so dass wir die eckigen Klammern weglassen können, und wir erhalten −kB T ln Z = E − T S − µN . (4.32) Dies ist ein thermodynamisches Potenzial, so wie E und F . Man bezeichnet es oft mit Φ und nennt es das großkanonische Potenzial. Es ergibt sich aus der großkanonischen Zustandssumme durch die Beziehung Φ = −kB T ln Z . (4.33) Man erhält es in der Thermodynamik, wenn man von der Energie eine Legendre-Transformation bezüglich der Variablen S und N macht. Seine natürlichen Variablen sind T, V, µ, und sein totales Differenzial ist dΦ = −SdT − P dV − N dµ . (4.34) Folglich ist S=− ∂Φ ∂T P =− ∂Φ ∂V , N =− ∂Φ ∂µ . , V,µ T,µ T,V Zum Abschluss besorgen wir uns aus der großkanonischen Zustandssumme noch einen Ausdruck für die mittlere Energie und die mittlere Teilchenzahl. Die mittlere Teilchenzahl eines großkanonischen Ensembles ist En −µN P − kN T B ∂ ln Z N,nN N e hN i = = kB T , (4.35) Z ∂µ 54 was mit der vorigen Gleichung übereinstimmt. Die mittlere Energie ist hEi = P N,nN EnN e − En −µN N kB T =− Z ∂ ln Z + µhN i . ∂β (4.36) Als Anwendung betrachten wir wieder das ideale Gas. Aus der ersten Zeile von (4.27) bekommen wir unter Verwendung von (4.22) µN Z= X ZN e µN kB T N = X V N e kB T N λ3N N ! = exp eµ/kB T V λ3 (4.37) Das großkanonische Potenzial für das ideale Gas ist somit Φ = −kB T ln Z = − kB T V µ/kB T e . λ3 (4.38) Aus P = −∂Φ/∂V erhalten wir sofort den aus der Thermodynamik (Gibbs-Duhem-Beziehung) bekannten Ausdruck Φ = −P V , und aus N = −∂Φ/∂µ erhalten wir N= V µ/kB T e . λ3 (4.39) Ein Vergleich mit der Beziehung für den Druck P ergibt wieder die Zustandsgleichung des idealen Gases, P V = N kB T . 4.4 4.4.1 Der Druck Systeme, die miteinander Arbeit austauschen können Schließlich betrachten wir noch den Fall, dass zwei Systeme aneinander Arbeit verrichten können. Diese Situation erhält man, wenn man die Trennwand in Abb. 4.1 auf Seite 47 beweglich macht. Die Trenwand wird sich dann so einstellen, dass die Zahl der Zustände des Gesamtsystems maximiert wird. Dies führt auf die Beziehung ∂ ln Ω1 (E1 , V1 ) ∂ ln Ω2 (E2 , V2 ) = . ∂V1 ∂V2 V2 =V −V1 Diese Beziehung wird genauso hergeleitet wie (4.25), wobei die Teilchenzahl durch das Volumen zu ersetzen ist. Einsetzen der Entropie ergibt ∂S2 ∂S1 = . (4.40) ∂V1 ∂V2 V2 =V −V1 Aus der Thermodynamik wissen wir, dass P = T ∂S ∂V E,N ist. Die Größe, die in den beiden Teilsystemen gleich wird, ist also der Druck. 55 (4.41) Anwendung: Gummielastizität Wir modellieren ein Gummiband als ein Polymer in 1 Dimension. Das Polymer besteht aus N Segmenten der Länge a, die entweder in positiver oder negativer Richtung orientiert sind. Die Orientierung verschiedener Segmente sei unabhängig voneinander. Das eine Ende des Polymers ist an der Position x = 0 festgehalten. Das andere Ende befindet sich dann an der Position x = (N+ − N− )a, wobei N+ und N− die Anzahl der in positiver bzw. negativer Richtung orientierten Segmente ist. Wenn das Band vollständig gestreckt ist, befindet sich das Ende an der Position L = N a. Wir bezeichnen den End-zu-Endabstand (N+ − N− )a mit l und schreiben n = N+ − N− = 2N+ − N , so dass l = na ist. Nun lassen wir am Ende des Gummibands eine Kraft Fext wirken, die es in positiver x-Richtung dehnt. Die Umgebung habe die Temperatur T . Wir wollen berechnen, wie die Länge l von der Kraft und der Temperatur abhängt. Wir nehmen dabei an, dass N sehr groß ist, so dass die Fluktuationen in l vernachlässigbar sind. Für diese eindimensionale Aufgabe müssen wir den üblichen Ausdruck P dV für die Arbeit durch den Ausdruck F dl ersetzen, wobei F die vom Gummiband ausgeübte Kraft ist. Sie beträgt F = −Fext , da sie mit der externen Kraft im Gleichgewicht ist. Die Beziehung (4.41) wird für unser Gummiband zu F dS = . (4.42) T dl Um die Länge l zu bestimmen, müssen wir die Entropie S als Funktion von l berechnen und können dann die Beziehung (4.42) nach l auflösen. Wir erhalten S = ≃ = = = ≡ N! N+ !N− ! kB (N ln N − N+ ln N+ − N− ln N− ) N+ N− kB N ln N − ln N+ − ln N− N N N+ + N− N+ N− kB N ln N − ln N+ − ln N− N N N N− N− N+ N+ ln − ln −kB N N N N N −kB N (x ln x + (1 − x) ln(1 − x)) kB ln Ω = kB ln Die letzte Zeile besagt, dass die Entropie des Gummis die Summe der Entropien seiner einzelnen Segmente ist, von denen jedes mit Wahrscheinlichkeit x eine positive Orientierung und mit Wahrscheinlichkeit 1 − x eine negative Orientierung hat. Der Zusammenhang zwischen x und l ist l = (2x − 1)L. Wir erhalten also dS dl dS dx dS 1 N kB = =− (1 + ln x − 1 − ln(1 − x)) dx dl dx 2L 2L N kB L + l F N kB N+ =− ln ln = . = − 2L N− 2L L−l T = (4.43) Auflösen nach l ergibt schließlich e2LFext /N kB T − 1 LFext l = 2LF /N k T . = tanh ext B L N kB T e +1 (4.44) Für T → 0 erhalten wir l → L. Für hohe T erhalten wir in erster Ordnung Taylorentwicklung l ∝ Fext , also das Hookesche Gesetz. Für T → ∞ ergibt sich l/L → 0. (Wir haben hier vernachlässigt, dass die Segmente ein gewisses Volumen haben und dass die Kette eine gewisse Steifheit hat. In einem echten Gummi wird der End-zu-End-Abstand nicht Null.) Das Gummi wird kürzer, wenn die Temperatur erhöht wird, da dann seine Entropie größer ist. 56 4.4.2 Gibbs-Duhem-Relation in homogenen Systemen Wir haben gesehen, dass wir für Systeme, die mit ihrer Umgebung Wärme oder Wärme und Teilchen austauschen, jeweils eine Zustandssumme und ein thermodynamisches Potenzial (F bzw. Φ) bekommen. Man kann nun fragen, warum man dies nicht auch für Systeme macht, die mit ihrer Umgebung Wärme, Teilchen und Arbeit austauschen. Das entsprechende thermodynamische Potenzial würde man aus E durch eine Legendretransformation bzgl. S, V und N bekommen, es wäre also E − T S + P V − µN . Seine natürlichen Variablen wären T , µ und P . Wir zeigen im Folgenden, dass es ein solches Potenzial nicht gibt, da es identisch mit Null ist. Hierzu wiederholen wir zunächst das Konzept extensiver und intensiver Größen. Ein thermodynamisches System heißt homogen, wenn es in allen Raumbereichen die gleichen Eigenschaften hat. Inhomogen sind zum Beispiel Systeme in einem ortsabhängigen Potenzial oder Systeme, die aus mehreren Phasen bestehen. In homogenen Systemen sind die Energie, die Entropie und die Teilchenzahl proportional zum Volumen. Größen, die in homogenen Systemen proportional zum Volumen sind, nennt man extensiv. Die thermodynamischen Potenziale sind alle extensiv, und das Volumen ist es trivialer Weise auch. T , p und µ heißen dagegen intensiv, da sie nicht vom Volumen abhängen. Für homogene Systeme lässt sich ein expliziter Ausdruck für die Energie angeben. Um ihn herzuleiten, benützen wir die Extensivität der Entropie und ändern das Volumen des Systems um einen Faktor α: S(αE, αV, αN ) = αS(E, V, N ) . Differenzieren nach α gibt (4.45) ∂S ∂S ∂S E+ V + N =S ∂αE ∂αV ∂αN oder (mit α = 1) PV Nµ E + − = 0. T T T Aufgelöst nach E gibt dies die Gibbs-Duhem-Relation −S + E = T S − P V + µN . (4.46) Zusammen mit dE = T dS − P dV + µdN folgt daraus die differenzielle Gibbs-Duhem-Relation SdT − V dP + N dµ = 0 . (4.47) In einem homogenen System können also T , P und µ nicht unabhängig voneinander variiert werden. Nur zwei dieser drei Variablen sind also voneinander unabhängig. Dies ist eigentlich auch ohne Rechnung plausibel: in der Thermodynamik genügen drei Variablen, um den Zustand des Systems eindeutig festzulegen. Nun ist eine wichtige Information über den Zustand die, wie groß das System überhaupt ist. Diese Information steckt aber in keiner der intensiven Varialen, sondern in den extensiven Variablen. Also muss mindestens eine der drei Variablen extensiv sein. Aus der Gibbs-Duhem-Relation folgt G(T, P, N ) = µ(T, P )N und Φ(T, V, µ) = −P (T, µ)V . Übungsaufgaben zu Kapitel 4 1. Wie ändert sich der Ausdruck (4.3) für die Entropie eines idealen Gases, wenn jeweils die Hälfte der Teilchen eine andere Atomsorte sind? Verwenden Sie das Ergebnis, um einen zweiten Lösungsweg für Aufgabe 3 aus Kapitel 2 zu ermitteln. 57 2. Betrachten Sie ein System, das nur drei Zustände hat. Ihre Energien seien E1 = −1eV , E2 = 0eV , und E3 = 1eV . Die Temperatur des Wärmebads sei kB T = 1eV . Was ist die Wahrscheinlichkeit dafür, dass das System im Zustand der Energie E1 ist? Was ist die Entropie des Systems? 3. Zeigen Sie, dass die mittlere Energie eines harmonischen Oszillators, der an ein Wärmebad der Temperatur T gekoppelt ist, den Wert ! 1 1 (4.48) + hEi = ~ω 2 e k~ω BT − 1 hat. Zur Erinnerung: Die Energieniveaus des harmonischen Oszillators sind En = ~ω(n + 21 ) mit n = 0, 1, 2, . . .. Zeigen Sie, dass daraus folgt, dass die mittlere Zahl der Energiequanten hni den Wert 1 (4.49) hni = ~ω e kB T − 1 hat. Gegen welchen Grenzwert strebt diese Energie für T → 0? Wie ist die Temperaturabhängigkeit für hohe Temperaturen? Bringen Sie das Ergebnis in Verbindung mit dem Äquipartitionstheorem. P 4. Zeigen Sie, dass die Gibbs-Entropie −kB i pi ln pi additiv ist, d.h. dass die Gesamtentropie zweier unabhängiger Systeme gleich der Summe ihrer Entropien ist. 5. Zeigen Sie, dass (∆N )2 ≡ hN 2 i − hN i2 = (kB T )2 ∂ 2 ln Z ∂hN i = kB T ∂µ2 ∂µ (4.50) 6. Gehen Sie aus von der großkanonischen Zustandssumme (4.37) für das ideale Gas und berechnen Sie hN i und hN 2 i. Zeigen Sie daraus, dass P V = hN ikB T ist und dass 1 h(∆N )2 i = . hN i2 hN i 7. Leiten Sie aus der großkanonischen Zustandssumme (4.37) des idealen Gases die kalorische Zustandsgleichung E = 23 hN ikB T her. 58 Kapitel 5 Ideale Quantengase 5.1 Fermi-Dirac und Bose-Einstein-Verteilung In diesem Kapitel verwenden wir das großkanonische Ensemble, um die Eigenschaften von Fermi-, Bose-, Phononen- und Photonengasen zu berechnen. Wir betrachten die idealisierte Situation, dass diese Teilchen nicht miteinander wechselwirken, so dass die Gesamtenergie als die Summe der Energien der einzelnen Teilchen geschrieben werden kann. Im Gegensatz zu den Berechnungen für das klassische ideale Gas, die wir im vorigen Kapitel durchgeführt haben, können wir jetzt nicht mehr die Beziehung ZN = Z1N /N ! benützen, da wir jetzt auch den Fall hoher Dichten und niedriger Temperaturen einschließen möchten. Hier zeigen sich neben der Ununterscheidbarkeit der Teilchen noch das Pauli-Prinzip (für Fermionen) bzw. die durch Mehrfachbesetzung desselben Zustands veränderte Statistik von Bosonen. Wir nummerieren die Energieeigenwerte für ein Teilchen mit dem Index i. Also ist ni die Zahl der Teilchen im Zustand i, und ǫi die Energie dieses Zustands. Für Bosonen kann ni jeden ganzzahligen Wert ≥ 0 einnehmen, für Fermionen ist ni = 0 oder ni = 1. Wir berechnen die großkanonische Zustandssumme und die mittlere Besetzungszahl des i-ten Zustands als Funktion der Temperatur und des chemischen Potenzials. Da die Teilchen nicht miteinander wechselwirken, ist die Zustandssumme das Produkt der Zustandssummen der einzelnen Zustände. 5.1.1 Fermi-Dirac-Verteilung Die großkanonische Zustandssumme für nicht miteinander wechselwirkende Fermionen ist ! Y Y X X P −βni (ǫi −µ) −β i ni (ǫi −µ) 1 + e−β(ǫi −µ) . e = = e Z= {ni } i ni =0,1 (5.1) i Das großkanonische Potenzial ist folglich (siehe (4.33)) X ln 1 + e−β(ǫi −µ) . Φ = −kB T (5.2) i Die mittlere Teilchenzahl ist deshalb N =− ∂Φ ∂µ mit hni i = = T X i 1 eβ(ǫi −µ) 59 +1 hni i . (5.3) Man nennt die Funktion (5.3) die Fermi-Dirac-Verteilung. Man kann sie auch schneller herleiten, indem man von Anfang an nur den Zustand i betrachtet. Seine Zustandssumme ist zi = 1 + e−β(ǫi −µ) und seine mittlere Besetzungszahl 0· e0 e−β(ǫi −µ) +1· , zi zi was mit (5.3) identisch ist. Bei T = 0 ist hni i = 1 für ǫ < µ und hni i = 0 für ǫ > µ. Außerdem wissen wir, das alle Zustände bis zur Fermi-Energie ǫF besetzt sind (das ist die Definition der Fermi-Energie). Folglich ist µ(T = 0) = ǫF . Mit zunehmender Temperatur muss µ immer weiter sinken. Dies können wir aus (5.3) ablesen: wenn β kleiner wird, wird das Energieintervall größer, für das hni i oberhalb einer Schwelle (sagen wir 0.1) liegt. Wenn das System eine vorgegebene mittlere Teilchenzahl haben soll, dürfen in diesem Energieintervall mit zunehmendem T nicht immer mehr Zustände liegen. Dies geht nur, wenn µ mit zunehmendem T immer mehr abnimmt und weit unter den niedrigsten Wert ǫi sinkt. Für große T ist hni i ≃ 1/2 für alle Energien, die von µ weniger als einen kleinen Teil von kB T (z.B. 0.1kB T ) entfernt sind. In diesem Abstand von µ darf es daher nicht mehr als 2N Zustände geben, weil es insgesamt nur N Teilchen im System gibt. Das geht aber nur, wenn µ mit wachsendem kB T immer weiter unter den niedrigsten Wert von ǫi sinkt. Die mittlere Energie ist X X ǫi ǫi hni i = E= . (5.4) β(ǫ −µ) i e +1 i i 5.1.2 Bose-Einstein-Verteilung Die großkanonische Zustandssumme für Bosonen ist Z= X e −β P i ni (ǫi −µ) = ∞ X Y ni =0 i {ni } e −βni (ǫi −µ) ! = Y i 1 1 − e−β(ǫi −µ) . (5.5) Das großkanonische Potenzial ist folglich Φ = kB T X i ln 1 − e−β(ǫi −µ) . (5.6) Die mittlere Teilchenzahl ist deshalb N =− mit hni i = ∂Φ ∂µ T = X i hni i 1 . eβ(ǫi −µ) − 1 (5.7) Man nennt die Funktion (5.7) die Bose-Einstein-Verteilung. Man kann sie auch schneller herleiten, indem man von Anfang an nur den Zustand i betrachtet. Seine Zustandssumme ist zi = 1 1 − e−β(ǫi −µ) und seine mittlere Besetzungszahl X e−βn(ǫi −µ) n , zi n 60 was mit (5.7) identisch ist. Damit alle hni i ≥ 0 sind, muss µ kleiner als die kleinste Energie sein. Die mittlere Energie ist X X ǫi ǫi hni i = . E= β(ǫi −µ) − 1 e i i 5.1.3 (5.8) Klassischer Grenzfall Bei hohen Temperaturen, wenn die Besetzungszahlen der meisten Zustände sehr klein sind, also wenn e−β(ǫi −µ) sehr klein ist, verschwindet der Unterschied zwischen Bosonen und Fermionen, und das großkanonische Potenzial ist für Fermionen und Bosonen gleich, nämlich X X (5.9) e−βǫi . e−β(ǫi −µ) = −kB T eβµ Φ ≃ −kB T i i Wenn wir freie Teilchen betrachten, die in einem Volumen V eingesperrt sind, können wir dies weiter auswerten. Wie wir es früher für das ideale Gas gemacht haben, ersetzen wir die Summe durch ein Integral. Da wir dies noch öfters machen werden, ist es zweckmäßig, an dieser Stelle die Zustandsdichte D(ǫ) zu definieren. Die Zahl der Zustände mit einer Energie zwischen ǫ und ǫ + dǫ ist dann D(ǫ)dǫ . Für freie Teilchen mit Spin S, die im Volumen V eingesperrt sind, berechnen wir zunächst das Integral der Zustandsdichte und differenzieren am Schluss: Z ǫ Z V D(ǫ′ )dǫ′ = (2S + 1) 3 d3 p h 2 0 p /2m≤ǫ Z √2mǫ 4πV 4πV (2mǫ)3/2 . (5.10) = (2S + 1) 3 p2 dp = (2S + 1) 3 h h 3 0 Für ǫ = ǫF ist das Integral der Zustandsdichte die Gesamtteilchenzahl (da bei T = 0 alle Zustände bis ǫF besetzt sind). Also ist 32 h2 3N ǫF = . (5.11) 2m (2S + 1)4πV Differenzieren von (5.10) ergibt D(ǫ) = (2S + 1) 2πV (2m)3/2 ǫ1/2 . h3 (5.12) Wir erhalten also für Teilchen mit S = 0 Φ ≃ = = = = −kB T eβµ Z ∞ D(ǫ)e−βǫ dǫ Z ∞ √ −βǫ 3/2 βµ 2πV (2m) −kB T e ǫe dǫ 3 h 0 Z ∞ √ −x 2πV −kB T eβµ 3 (2mkB T )3/2 xe dx h 0 3 2πmkB T 2 −kB T eβµ V h2 µ/kB T e V ≡ −kB T ln Z . −kB T ln exp λ3 0 (5.13) h Wir haben wie früher die Notation λ = √2πmk eingeführt. Die großkanonische Zustandssumme, die in BT den eckigen Klammern steht, ist identisch mit der des idealen Gases, Gleichung (4.37). Wenn der Spin der Teilchen von Null verschieden ist, gibt es noch einen zusätzlichen Faktor (2S + 1). 61 5.2 Fermi-Gas bei tiefen Temperaturen Elektronen in Metallen und einige andere fermionische Systeme haben bei Raumtemperatur eine FermiDirac-Verteilung, die nur wenig von derjenigen für T = 0 abweicht, weil ihre Fermitemperatur TF ≡ ǫF /k ungefähr bei 50000K liegt. (Abbildung 5.1.) Aus diesem Grund, und weil der Unterschied zwischen der Fermi-Dirac- und der Bose-Einstein-Verteilung bei tiefen Temperaturen am größten ist, untersuchen wir im Folgenden das Fermi-Gas bei tiefen Temperaturen. Das wichtigste Ergebnis, das wir herleiten werden, ist, dass die spezifische Wärme eines Fermi-Gases bei tiefen Temperaturen proportional zu T ist. Abbildung 5.1: Fermi-Dirac-Verteilungsfunktion für ein Elektronengas in Metallen, für 6 verschiedene Werte der Temperatur. Bei Zimmertemperatur weicht die Verteilung nur wenig von einer Stufenfunktion ab. (Aus: Kittel, Thermal Physics.) Wir beginnen mit dem Fall T = 0, in dem alle Zustände unterhalb der Fermi-Energie ǫF besetzt sind und alle anderen leer. Für die Teilchenzahl gilt dann Z ∞ Z ǫF D(ǫ)dǫ N= D(ǫ)n(ǫ)dǫ = 0 0 und für die Energie E= Z 0 ∞ D(ǫ)ǫn(ǫ)dǫ = Z ǫF ǫD(ǫ)dǫ . 0 Wir haben oben schon erwähnt, dass µ(T = 0) = ǫF ist, und dass µ mit zunehmender Temperatur sinkt. Um die spezifische Wärme bei tiefen Temperaturen zu erhalten, berechnen wir zunächst die Energie und differenzieren dann nach T . Es ist lehrreich, statt der Energie die Differenz der Energie zur Grundzustandsenergie zu berechnen: Z ǫF Z ∞ D(ǫ)ǫ dǫ D(ǫ)n(ǫ)ǫ dǫ − ∆E = E(T ) − E(0) = 0 0 Z ǫF Z ∞ D(ǫ)(ǫ − ǫF )dǫ D(ǫ)n(ǫ)(ǫ − ǫF )dǫ − = 0 0 Z ǫF Z ∞ D(ǫ)(ǫF − ǫ)(1 − n(ǫ))dǫ . (5.14) D(ǫ)n(ǫ)(ǫ − ǫF )dǫ + = 0 ǫF Beide Terme sind klein bei niedrigen Temperaturen, da die Fermi-Dirac-Verteilung für ǫ < ǫF nur in der Nähe von ǫF von 1 abweicht, und für ǫ > ǫF nur in der Nähe von ǫF von 0 abweicht. Die Breite dieses Bereich ist von der Größenordnung kB T . 62 Zur Berechnung der Wärmekapazität differenzieren wir die vorletzte Zeile von (5.14) nach T und bekommen Z ∞ dE dn(ǫ) Cel = = D(ǫ) (ǫ − ǫF )dǫ dT dT 0 Z ∞ dn(ǫ) (ǫ − ǫF )dǫ ≃ D(ǫF ) dT 0 Z ∞ d 1 = D(ǫF ) (ǫ − ǫF ) dǫ (ǫ−ǫ F )/kB T dT 1 + e 0 Z ∞ (ǫ − ǫF )2 e(ǫ−ǫF )/kB T = D(ǫF ) 2 dǫ 2 kB T 0 1 + e(ǫ−ǫF )/kB T Z ∞ ex 2 dx x2 = kB T D(ǫF ) (1 + ex )2 −ǫF /kB T Z ∞ ex 2 ≃ kB T D(ǫF ) dx x2 (1 + ex )2 −∞ = π2 2 D(ǫF )kB T. 3 (5.15) Für ein freies Elektronengas erhält man aus (5.10) D(ǫF ) = und damit Cel = 3N 3N ≡ 2ǫF 2kB TF 1 2 kB T 1 T = π 2 N kB . π N kB 2 ǫF 2 TF (5.16) Die Wärmekapazität wächst also für tiefe Temperaturen linear mit der Temperatur an. Für hohe Temperaturen erreicht sie den konstanten Wert 32 N kB des idealen Gases. Das lineare Anwachsen der Wärmekapazität lässt sich auch durch ein einfaches Argument herleiten. Wir schätzen dazu ab, wie viele Elektronen bei der Temperatur T über die Fermienergie angeregt werden. Dies sind diejenigen Elektronen, die in einem Abstand von der Größenordnung kB T von der Fermienergie sitzen, also größenordnungsmäßig N kǫBFT Elektronen. Ihre Energieerhöhung beträgt insgesamt ∆E ≃ N (kB T )2 , ǫF und die Wärmekapazität ist somit von der Größenordnung Cel = 2 N kB T d∆E . ≃ dT ǫF 2 Bis auf den nichttrivialen Faktor π2 erhalten wir durch diese einfache Abschätzung also das richtige Ergebnis. Experimente zeigen, dass die Wärmekapazität vieler Metalle die Form CV = γT + AT 3 mit zwei materialspezifischen Konstanten γ und A hat. Der zweite Term kommt, wie wir später sehen werden, von den Gitterschwingungen (Phononen) des Metalls. Das Verhalten der anderen Zustandsgrößen bei tiefen Temperaturen lässt sich auch berechen. Wir berechnen im Folgenden noch das Verhalten des chemischen Potenzials bei tiefen Temperaturen bei fester Teilchenzahl N . Zu diesem Zweck formen wir den Ausdruck für N so lange um, bis er µ in einer einfachen 63 Form enthält, so dass wir die resultierende Gleichung nach µ auflösen können. Dazu machen wir einige Näherungen, die für genügend tiefe Temperaturen beliebig genau werden. Z ∞ Z µ Z ∞ N = n(ǫ)D(ǫ)dǫ = D(ǫ)dǫ + [n(ǫ) − θ(µ − ǫ)] D(ǫ)dǫ 0 0 0 Z ∞ Z µ [n(ǫ) − θ(µ − ǫ)] dǫ D(ǫ)dǫ + D(µ) ≃ 0 0 Z ∞ +D′ (µ) [n(ǫ) − θ(µ − ǫ)] (ǫ − µ)dǫ 0 Z µ Z ∞ 1 = D(ǫ)dǫ + D(µ)kB T − θ(−x) dx 1 + ex 0 − k µT B Z ∞ 1 ′ 2 +D (µ)(kB T ) − θ(−x) xdx 1 + ex − k µT B Z µ Z ∞ 1 − θ(−x) dx ≃ D(ǫ)dǫ + D(µ)kB T 1 + ex 0 −∞ Z ∞ 1 +D′ (µ)(kB T )2 − θ(−x) xdx 1 + ex −∞ Z µ Z ∞ 1 ′ 2 = D(ǫ)dǫ + D (µ)(kB T ) − θ(−x) xdx 1 + ex 0 −∞ Z µ A π2 π2 2A 3 D(ǫ)dǫ + D′ (µ)(kB T )2 = = µ 2 + (kB T )2 √ 6 3 µ 12 0 (5.17) 3/2 mit A = (2S + 1) 2πV , da wir wieder ein freies Gas betrachten. Mit dem Ansatz µ = ǫF (1 + δ) h3 (2m) mit einem kleinen δ, in dem wir entwickeln, erhalten wir schließlich δ ≃ − (kBǫ2T ) F µ ≃ ǫF − (kB T )2 π 2 . ǫF 12 2 π2 12 und (5.18) Neben Metallen werden auch einige andere Systeme recht gut durch ein freies Fermigas bei tiefen Temperaturen beschrieben. Dazu gehören Atomkerne, die ja aus Protonen und Neutronen bestehen, und weiße Zwerge, deren Dichte so hoch ist, dass die Elektronen sich von den Kernen lösen. 5.3 Bose-Einstein-Kondensation In einem Gas aus nicht wechselwirkenden Bosonen ist unterhalb einer bestimmten Temperatur der Grundzustand mit einem endlichen Teil aller Teilchen besetzt. Dies ist im Prinzip zu erwarten, da bei T = 0 ja alle Teilchen im Grundzustand sind. Eine makroskopische Besetzung des Grundzustands ist verantwortlich für die Superfluidität von He4 und die Supraleitung. Für ein freies Bosegas wurde die Kondensation in den Grundzustand schon von Einstein berechnet. Das überraschende Ergebnis dabei ist, dass sie bei Werten von kB T auftritt, die viel größer sind als der Energieabstand der niedrigsten Zustände. Der Grund hierfür ist die Ununterscheidbarkeit der Teilchen. Wie wir in den Übungen gesehen haben, ist die Wahrscheinlichkeit dafür, dass alle Teilchen in demselben Zustand sind, für ununterscheidbare Teilchen viel größer als für unterscheidbare Teilchen (wenn die Teilchenzahl groß wird). Wir berechnen zunächst das chemische Potenzial bei tiefen Temperaturen. Wir wählen die Energieskala der Zustände so, dass der Grundzustand bei ǫ = 0 ist. Damit wissen wir, dass das chemische Potenzial negativ ist. Bei T = 0 sind alle Teilchen im Grundzustand, woraus N = lim T →0 1 e − k µT B 64 −1 ≃− kB T µ folgt. Also ist µ 1 1 kB T − µ und e kB T ≃ 1 + bzw. e kB T ≃ 1 − . N N N Das chemische Potenzial ist also sehr nahe bei Null und wird in der folgenden Rechnung an einer geeigneten Stelle gleich Null gesetzt. Die Zahl der Teilchen im Grundzustand ist µ≃− 1 N0 (T ) = e − k µT B −1 und die Zahl der Teilchen in allen anderen Zuständen ist Z ∞ 1 Ne (T ) ≃ dǫD(ǫ) ǫ−µ k T 0 e B −1 √ Z ∞ ǫ 2πV 3/2 = (2m) dǫ ǫ−µ 3 h 0 e kB T − 1 √ Z ∞ ǫ 2πV 3/2 ≃ (2m) dǫ ǫ kB T h3 e −1 0 √ Z ∞ x 2πV 3/2 (2mkB T ) dx x = h3 e − 1 0 3/2 2πmkB T V ≃ 2.612V ≡ 2.612 . 2 h VQ (5.19) Die Bose-Einstein-Kondensation geschieht bei derjenigen Temperatur TC , bei der dieses Ergebnis unter die Gesamtteilchenzahl N sinkt. Also ist 2/3 h2 N . (5.20) TC = 2.612V 2mπkB Der Anteil der angeregten Teilchen ist somit Ne = N T TC 3/2 , und die Zahl der Teilchen im Grundzustand beträgt " N0 = N − Ne = N 1 − T TC 3/2 # . Das Ergebnis für die kritische Temperatur TC ist demjenigen für die Fermi-Temperatur TF ≡ ǫf /kB erstaunlich ähnlich: 23 h2 3N TF = , (5.11) 2mkB (2S + 1)4πV was bis auf ein paar numerische Faktoren mit (5.20) identisch ist. Bei gleicher Teilchenmasse haben die Fermi-Temperatur und die kritische Temperatur der Bose-Einstein-Kondensation dieselbe Größenordnung. Für He4 berechnet sich die Temperatur der Bose-Einstein-Kondensation bei der am LambdaPunkt vorliegenden Dichte zu 3.14K. Da die Atome aber miteinander wechselwirken, kann man sie nicht als ideales Bose-Gas betrachten, und die Übergangstemperatur für die Superfluidität ist bei 2.18K. Diese Wechselwirkung ist auch dafür verantwortlich, dass die spezifische Wärme von He4 ganz anders aussieht als die eines idealen Bose-Gases. Abbildung 5.2 auf der nächsten Seite zeigt beide. Die Anregungen der niedrigsten Energie in He4 haben einen endlichen Energieunterschied zum Grundzustand, während es im idealen Bosegas keine solche Energielücke gibt. 65 Abbildung 5.2: Der Verlauf der spezifischen Wärme eines idealen Bose-Gases (links) und von He4 (rechts). Die spezifischen Wärme eines idealen Bose-Gases hat eine Spitze, während die von He4 eine Divergenz hat (“λ-Anomalie”). (Aus Kittel, Thermal Physics.) Der Verlauf der Wärmekapazität im idealen Bosegas unterhalb der Kondensationstemperatur lässt sich leicht berechnen: Die Gesamtenergie ist Z Z 2πV (2m)3/2 (kB T )5/2 ∞ D(ǫ) x3/2 ≃ E = dǫǫ ǫ−µ . dx h3 ex − 1 0 e kB T − 1 Differenzieren nach T gibt 5πV (2m)3/2 (kB T )3/2 C ≃ kB h3 Z 0 ∞ dx x3/2 ∝ T 3/2 . ex − 1 (5.21) Die Bose-Einstein-Kondensation wurde 70 Jahre nach ihrer Berechnung endlich experimentell nachgewiesen. Die experimentelle Schwierigkeit besteht darin, bei niedrigen Temperaturen einen gasförmigen Zustand hinreichender Dichte für genügend lange Zeit zu halten. Die Entwicklung der Technik zur Laserkühlung von Atomen war hierbei ein wichtiger Schritt. 1995 gelang es der Arbeitsgruppe von Eric Cornell und Carl Wieman in Boulder mit Rubidiumatomen, und der Arbeitsgruppe von Wolfgang Ketterle am MIT mit Natriumatomen, die Bose-Einsteinkondensation zu beobachten. Diese drei Wissenschaftler bekamen dafür im Jahr 2001 den Nobelpreis für Physik. 5.4 Photonengas und Planck-Verteilung Als nächstes betrachten wir ein ideales Gas aus Photonen. Unser Hauptziel ist es, die Plancksche Formel für den schwarzen Strahler, die wir im zweiten Kapitel direkt aus dem Prinzip der maximalen Ignoranz ermittelt haben, nun auf konventionellem Weg und mit allen Vorfaktoren herzuleiten. Planck befasste sich mit der Wärmestrahlung, also mit elektromagnetischen Wellen im thermischen Gleichgewicht mit den Wänden eines Hohlraums. Gesucht war eine Formel für die Verteilung der Strahlungsenergie auf die verschiedenen Frequenzen. Die möglichen Frequenzen sind solche, die stehenden Wellen in dem Hohlraum entsprechen. Photonen haben den Spin 1, sind also Bosonen. Da sie aber keine Masse haben und sich mit Lichtgeschwindigkeit bewegen, kann ihr Spin nur zwei Werte haben, die rechts und links zirkular polarisierten Wellen entsprechen. Um die Bose-Einstein-Verteilung auf Photonen anzuwenden, müssen wir zunächst das chemische Potenzial bestimmen. Da die Zahl der Photonen in dem Hohlraum nicht festgehalten werden kann, stellt sie sich nach den Gesetzen der Thermodynamik auf demjenigen Wert ein, der die freie Energie minimiert, also der die Beziehung ∂F =0 ∂N T,V 66 erfüllt, woraus folgt, dass µ = 0 ist. Also ist die mittlere Zahl der Photonen in einer Mode der Energie ǫi = ~ωi durch 1 hni i = βǫi (5.22) e −1 gegeben. Dieses Ergebnis ist identisch mit demjenigen für die mittlere Zahl der Energiequanten in einem harmonischen Oszillator (4.49). In der Tat wird in der Quantenelektrodynamik das Strahlungsfeld durch harmonische Oszillatoren modelliert. Die mittlere Energie einer Mode der Kreisfrequenz ω ergibt sich aus (5.22) zu ǫi hni i, d.h. es fehlt im Vergleich zu (4.48) die Nullpunktsenergie. Für alle Berechnungen in diesem Abschnitt ist sie aber irrelevant, da wir thermodynamische Größen auswerten, also die Energie bzw. die freie Energie nach den Parametern des Systems (V , T , N ) ableiten, und diese Größen sind von der Nullpunktsenergie unabhängig. Gleichung (5.22) ist die sogenannte Planck-Verteilung. Für die weiteren Berechnungen benötigen wir die Zustandsdichte D(ǫ) der Schwingungsmoden des Hohlraums. Im Gegensatz zu den klassischen Gasen und den Quantengasen, die wir bisher betrachtet haben, haben wir es nun mit relativistischen Teilchen zu tun, für die die Beziehung zwischen der Energie und dem Impuls ǫ = pc ist. Statt (5.10) haben wir also Z Z ǫ V d3 p D(ǫ′ )dǫ′ = 2 3 h p≤ǫ/c 0 Z ǫ/c 8πV ǫ3 4πV , (5.23) p2 dp = = 2 3 h 3c3 h3 0 und statt (5.12) 8πV ǫ2 . (5.24) c3 h 3 Das Plancksche Strahlungsgesetz ist ein Ausdruck für die spektrale Energiedichte u(ω). Wenn man sie mit dω multipliziert, gibt sie die Energie an, die in dem Frequenzintervall [ω, ω + dω] steckt, D(ǫ) = ~ω u(ω)dω = e ~ω kB T −1 ω3 V~ dω . ~ω π 2 c3 e kB T − 1 D(~ω)d(~ω) = Die gesamte Energie im Hohlraum ist folglich Z ∞ Z V (kB T )4 ∞ V (kB T )4 π 2 x3 E= u(ω)dω = ∝ T4 . = dx π 2 ~3 c3 0 ex − 1 15~3 c3 0 (5.25) (5.26) Dies ist das sogenannte Stefan-Boltzmann-Strahlungsgesetz. Die Wärmekapazität ist somit 4 2 ∂E 4V kB π 3 = T . ∂T 15c3 ~3 ∂S erhält man daraus Unter Benutzung der Beziehung CV = T ∂T V CV = S= 4 2 4V kB π 3 T . 45c3 ~3 Der Druck des Photonengases ist P =− ∂(E − T S) ∂V = T (kB T )4 π 2 . 45c3 ~3 Es ist also E = 3P V . 67 (5.27) 5.5 5.5.1 Debye-Gesetz und Phononen in Festkörpern Phononen als harmonische Oszillatoren Wir betrachten in diesem Abschnitt Phononen, also Schwingungsmoden der Atome, in einem Kristall. In einem Kristall sind die Atome periodisch angeordnet. Um zu veranschaulichen, wie aus einer periodischen Anordnung für kleine Auslenkungen harmonische Schwingungsmoden resultieren, betrachten wir zunächst ein eindimensionales System, also eine Kette aus N Atomen der Masse m, die alle voneinander in der Ruhelage den Abstand a haben. Wir haben in der Quantenmechanik gesehen, dass die Bindungskräfte zwischen Atomen für kleine Auslenkungen aus der Gleichgewichtslage eine Rückstellkraft proportional zur Auslenkung hervorrufen. Dies können wir durch elastische Federn zwischen benachbarten Atomen veranschaulichen, die alle dieselbe Federkonstante f haben. Wir bezeichnen mit un die Auslenkung des Teilchens n aus seiner Gleichgewichtslage und erhalten die Hamilton-Funktion für eine solche Kette aus N Atomen: Xm f (5.28) u̇2n + (un − un−1 )2 . H = W0 + 2 2 n W0 ist die potenzielle Energie der Kette in der Gleichgewichtslage. Durch die Transformation r m X −ikan 1 X ikan e Qk , mu̇n = un = √ e Pk N Nm k k wird H in eine Summe von ungekoppelten harmonischen Oszillatoren verwandelt H = W0 + X1 k 2 (Pk P−k + ωk2 Qk Q−k ) , (5.29) wobei die Frequenzen mit der Wellenzahl k über ωk = 2 r ka f sin m 2 zusammenhängen. Für kleine Wellenzahlen ist diese Beziehung linear, r f ω≃ ka , m woraus sich die Ausbreitungsgeschwindigkeit ω c= = k r f a m (5.30) ergibt. Man bezeichnet Qk als Normalkoordinaten und die Pk als Normalimpulse. In der quantenmechanischen Beschreibung des Systems ist [un , mu̇l ] = i~δnl [un , ul ] = [mu̇n , mu̇l ] = 0 woraus [Qk , Pl ] = i~δkl folgt, während die übrigen Kommutatoren verschwinden. Gleichung (5.29) ist also in der quantenmechanischen Beschreibung der Hamiltonoperator einer Summe vonq harmonischen Oszillatoren und lässt sich q mit den Substitutionen Qk = Form ~ 2ωk (âk + â+ −k ) und Pk = −i Ĥ = W0 + X k ~ωk 2 (â−k 1 ~ωk n̂k + 2 68 + − â+ k ) und n̂k = âk âk auf die bringen, wobei der Besetzungszahloperator n̂k ganzzahlige Eigenwerte 0, 1, 2, . . . hat (wegen der Vertau′ schungsrelation [ak , a+ k′ ] = δkk ). Wir verallgemeinern dieses Ergebnis nun auf drei Dimensionen. Wir gehen weiterhin davon aus, dass jede Einheitszelle nur ein Atom hat. Zu gegebenem Wellenvektor ~k gibt es nun drei mögliche Polarisationsrichtungen, zwei transversale und eine longitudinale, die wir mit dem Index λ durchnummerieren. Also ist der Hamiltonoperator in drei Dimensionen X 1 . Ĥ = W0 (V ) + ~ω~k,λ n̂~k,λ + 2 ~ k,λ 5.5.2 Die Debye-Näherung Die Debye-Näherung besteht darin, die lineare Dispersionsrelation (5.30), die für longitudinale und transversale Phononen bei kleiner Frequenz gilt, auf den gesamten Frequenzbereich auszudehnen, um die Rechnungen zu vereinfachen. Bei tiefen Temperaturen sind bevorzugt Phononen mit niedriger Frequenz angeregt, und dort ist diese Näherung gut. Für die weiteren Rechnungen benötigen wir die Zustandsdichte der Phononen. Ganz analog zu den Photonen finden wir 1 4πV ǫ2 2 , (5.31) + D(ǫ) = h3 c3t c3l wobei ct die Geschwindigkeit der transversalen Phononen und cl die der longitudinalen Phononen ist. (Für die longitudinalen Phononen gab es bei den Photonen kein Äquivalent.) Man kann die beiden Geschwindigkeiten über die Definition 2 1 3 + 3 = 3 3 ct cl cef f zu einer effektiven Geschwindigkeit zusammenfassen. Die Gesamtzahl der Phononen muss genauso groß sein wie die Zahl der Freiheitsgrade des Systems. Wenn es aus N Atomen besteht, hat es 3N Freiheitsgrade, so dass wir eine maximal mögliche Frequenz ωD einführen müssen, für die gilt Z ~ωD V 3 D(ǫ)dǫ = ωD . 3N = 2 c3 2π 0 ef f ωD ist die sogenannte Debye-Frequenz, ωD = 5.5.3 6π 2 N c3ef f V ! 13 . (5.32) Thermodynamische Größen Nun können wir die verschiedenen thermodynamischen Größen berechnen. Die mittlere Besetzungszahl eines Schwingungszustandes ~k, λ ist diejenige eines harmonischen Oszillators, hn~k,λ i = 1 e ~ω~k,λ /kB T −1 (4.49) und hängt nur vom Wert der Energie ab. Wir erhalten damit für die Energie des Systems E= Z 0 ∞ 9N (kB T )4 dǫǫD(ǫ)hn(ǫ)i = (~ωD )3 Z 0 ~ωD /kB T dx 3π 4 N kB T 4 x3 . ≃ ex − 1 5θ3 (5.33) Im letzen Schritt haben wir die obere Integrationsgrenze nach Unendlich geschoben (weil wir uns für tiefe Temperaturen interessieren) und die Debye-Temperatur θ = ~ωD /kB eingeführt. Die Energie wächst also 69 für tiefe Temperaturen mit der vierten Potenz der Temperatur, und folglich wächst die Wärmekapazität mit der dritten Potenz der Temperatur, 3 12π 4 N kB T . CV = 5 θ Dies ist das sogenannte Debyesche Gesetz. Für hohe Temperaturen ergibt sich Z ∞ Z E= dǫǫD(ǫ)hn(ǫ)i ≃ 0 ∞ dǫǫD(ǫ) 0 kB T = kB T ǫ Z dǫD(ǫ) = 3N kB T , (5.34) was man auch aus dem Äquipartitionstheorem erhält. Also ist die Wärmekapazität konstant, CV ≃ 3N kB . Dies ist das sogenannte Dulong-Petit-Gesetz. Das Debye-Gesetz beschreibt zum Beispiel die Wärmekapazität eines Isolators bei tiefen Temperaturen. Ein Metall hat zusätzlich zum Beitrag der Phononen noch den Beitrag der Elektronen, von dem wir gezeigt haben, dass er linear mit T anwächst. Übungsaufgaben zu Kapitel 5 1. Betrachten Sie ein ideales Fermi- oder Bose-Gas, bei dem die Quantenzustände diejenigen eines freien Teilchens im Volumen V sind. Zeigen Sie, dass P V = −Φ = 2 E 3 ist, genau wie im klassischen idealen Gas. Hinweis: Drücken Sie sowohl die mittlere Energie als auch Φ durch ein Integral über den Impuls aus. Ohne das Integral auszuführen, wechseln Sie die Variable vom Impuls zur Einteilchenenergie. Durch eine partielle Integration im Ausdruck für Φ entsteht ein Integral, das identisch ist mit dem Integral im Ausdruck für E. 2. Bestimmen Sie die Entropie S als Funktion der mittleren Besetzungszahlen hni i für das ideale Fermi- und für das ideale Bose-Gas. Diskutieren Sie den klassischen Grenzfall und den Fall T → 0. 3. N freie Elektronen befinden sich bei der Temperatur T = 0 K in einem Volumen V unter dem Einfluss eines schwachen Magnetfeldes B, so dass der Hamiltonoperator durch X p2 2 i H= − µB BSi 2m ~ i gegeben ist (µB ist das Bohrsche Magneton). Das chemische Potential muss auch bei Anwesenheit des Feldes für alle Elektronen gleich sein. Benutzen Sie diese Tatsache, um den Erwartungswert der P Magnetisierung ~2 µB i Si zu bestimmen. 4. Drücken Sie für Fermionen und für Bosonen (∆N )2 ≡ hN 2 i − hN i2 durch die mittleren Besetzungszahlen hni i aus. Diskutieren Sie die N –Abhängigkeit der relative Schwankung ∆N/N für den klassischen Grenzfall und für den Fall T → 0. 5. Behandeln Sie das freie Photonengas als kanonisches Ensemble und berechnen Sie die Zustandssumme. Berechnen Sie aus der Zustandssumme die freie Energie, und aus der freien Energie die Entropie, die Wärmekapazität und den Druck. Benützen Sie die Beziehung Z ∞ π4 x3 = . dx x e −1 15 0 70 6. Gehen Sie von der Beziehung (5.27) für einen elektromagnetischen Strahlungshohlraum aus. (a) Leiten Sie die Beziehung ∂E ∂V +P =T T ∂P ∂T V her und zeigen Sie damit, dass für die Energiedichte u(T ) = Strahlungsgesetz u(T ) = a T 4 gilt. E(T,V ) V das Stefan-Boltzmann- (b) Berechnen und diskutieren Sie für einen Festkörper die Entropie S als Funktion der Temperatur T im Rahmen der Debyeschen Näherung. 71 Kapitel 6 Reale Gase, Flüssigkeiten und Lösungen 6.1 Virialentwicklung und van der Waals-Gas Wir haben in dieser Vorlesung an mehreren Stellen das ideale Gas erwähnt. In einem idealen Gas haben die Teilchen nur kinetische Energie und haben keine Wechselwirkung untereinander. In einem realen Gas gibt es natürlich eine anziehende Kraft zwischen den Atomen, die bei genügend niedrigen Temperaturen zur Kondensation führt. Es ist unser Ziel, die Kondensation eines Gases aufgrund der anziehenden Wechselwirkung zwischen den Atomen herzuleiten. Da sich die Zustandssumme für diese kompliziertere Situation nicht exakt berechnen lässt, müssen wir Näherungen einführen. Wir machen im Folgenden eine Näherung, die dann gut ist, wenn die Wechselwirkung zwischen den Teilchen schwach ist verglichen mit ihrer kinetischen Energie, also wenn die Dichte gering oder die Temperatur hoch ist. Wir beginnen mit der großkanonischen Zustandssumme (4.28) und zerlegen sie in ihre Beiträge für 0,1,2,. . . Teilchen: X µ 2µ µN (6.1) Z= ZN e kB T = 1 + Z1 e kB T + Z2 e kB T + . . . . N µ Für nicht wechselwirkende Teilchen ist ZN = N1 ! Z1N , so dass Z = exp{Z1 e kB T } ist, und das großkaµ nonische Potenzial durch Φ = −kB T ln Z = −kB T Z1 e kB T gegeben ist. Für wechselwirkende Teilchen erhält man unter Verwendung der Taylor-Reihe für den Logarithmus den folgenden Ausdruck für das großkanonische Potenzial: 2µ µ Z2 (6.2) Φ = −kB T ln Z = −kB T Z1 e kB T + Z2 − 1 e kB T + . . . . 2 Differenzieren nach µ gibt die mittlere Teilchenzahl 2µ µ ∂Φ Z2 hN i = − = Z1 e kB T + 2 Z2 − 1 e kB T + . . . . ∂µ T,V 2 Damit lässt sich das großkanonische Potenzial auch durch hN i ausdrücken: 2µ Z12 kB T e + ... Φ = −kB T hN i − Z2 − 2 hN i2 Z12 + ... . = −kB T hN i − Z2 − 2 Z12 72 (6.3) (6.4) h ), d.h. dass Z1 proportional zum Volumen ist. Gleichung Aus (4.22) folgt Z1 = λV3 (mit λ = √2πmk BT (6.4) stellt also die ersten Terme einer Entwicklung in der Dichte ρ = hN i/V dar, die sogenannte Virialentwicklung. Durch Anwendung der Gibbs-Duhem-Relation Φ = −P V gelangt man daraus auf die Zustandsgleichung P = kB T ρ 1 + B(T )ρ + C(T )ρ2 + . . . . (6.5) Der Koeffizient von ρn in der eckigen Klammer heißt (n + 1)-ter Virialkoeffizient. Die führende Korrektur zur Zustandsgleichung des idealen Gases wird durch den zweiten Virialkoeffizienten 1 2 V B = − Z2 − Z1 2 Z12 bestimmt. Ihn wollen wir nun für ein Gas aus miteinander wechselwirkenden Teilchen ausrechnen. Unser Ziel ist es, die van-der-Waals-Gleichung zu erhalten. Wenn wir die Zweiteilchenwechselwirkung mit w(~x1 − ~x2 ) notieren, ist Z2 = = = = 2 2 Z p1 +p2 x1 −~ x2 ) −β 1 2m +w(~ 3 3 3 3 d x1 d x2 d p1 d p2 e 2h6 Z Z p2 +p2 1 3 3 −β( 12m 2 ) d p d p e d3 x1 d3 x2 e−βw(~x1 −~x2 ) 1 2 2h6 Z 1 d3 x1 d3 x2 e−βw(~x1 −~x2 ) 2λ6 Z V d3 ye−βw(~y) . 2λ6 (6.6) Also ist der zweite Virialkoeffizient B(T ) = − 1 2 Z d3 y e−βw(~y) − 1 . (6.7) Für die weitere Rechnung benötigen wir einen Ausdruck für das Zweiteilchenpotenzial w(~y ). Da die Atome sich nicht durchdringen können, machen wir den Ansatz w(~y ) = ∞ für y < σ. Außerdem nehmen wir an, dass für y > σ die Anziehungskraft zwischen den Atomen schwach ist, also |βw(~y )| ≪ 1. Damit wird (6.7) zu Z ∞ 1 4π a B(T ) ≃ − − σ 3 + 4π drr2 (−βw(r)) ≡ b − . (6.8) 2 3 kB T σ Damit wird die Zustandgleichung (6.5) zu aρ P = kB T ρ 1 + bρ − kB T oder (mit der Notation v = 1/ρ für das Volumen pro Teilchen) P v 2 = kB T v + kB T b − a , woraus sich durch Umformung die van-der-Waals-Gleichung ergibt: P+ a v2 = = ≃ kB T (v + b) v2 b kB T 1+ v v kB T kB T = . v(1 − b/v) v−b 73 (6.9) In der letzten Zeile haben wir wie vorher berücksichtigt, dass die Dichte klein ist und damit auch b/v. Die anschauliche Bedeutung der van der Waals-Gleichung ist die folgende: Gegenüber der idealen Gasgleichung ist das für die Teilchen verfügbare Volumen reduziert um das durch die Undurchdringlichkeit der Atome verbotene Volumen. Der Druck ist gegenüber der idealen Gasgleichung aufgrund der Anziehungskraft zwischen den Teilchen reduziert um a/v 2 . Van der Waals hat diese Gleichung 1873 durch gute Intuition hergeleitet. Wir haben sie hier formal aus der Virialentwicklung hergeleitet. (Bemerkung: Die letzte Umformung in Gleichung (6.9) hat aus der Virialentwicklung, die wir nur bis zur Ordung ρ2 durchgeführt haben, eine Beziehung gemacht, die auch einen ρ3 -Term enthält (siehe die nächste Gleichung). Dieser Term ist essenziell, um eine auch für größere Dichten qualitativ richtige Beziehung zwischen P und ρ zu bekommen. Eine Virialentwicklung bis zur Ordnung ρ3 wäre da noch besser.) Im Folgenden untersuchen wir die Eigenschaften der van der Waals-Gleichung in der Nähe des kritischen Punktes. Ausgedrückt durch die Dichte hat sie die Form ρ2 ρ(kB T + bP ) P + − = 0. (6.10) b ab ab Dies ist eine Gleichung dritter Ordnung, die je nach den Werten von Druck und Temperatur eine oder drei Lösungen für die Dichte hat. Die Lösung dieser Gleichung in der P -ρ-Ebene ist für verschiedene Temperaturen in Abbildung 6.1 gezeigt. Der Bereich negativer Kompressibilität ist unphysikalisch, und ρ3 − T=TC T>TC T<TC p ρ Abbildung 6.1: Lösung der Gleichung (6.10) für vier verschiedene Temperaturen. Die gepunktete Linie in den unteren beiden Kurven ist die Maxwell-Konstruktion. man ersetzt die Kurven in diesem Bereich durch einen waagrechten Abschnitt, wie durch die punktierten Linien angedeutet. Das ist die sog. Maxwellkonstruktion. Ihre physikalische Interpretation ist die folgende: in dem waagrechten Bereich liegt eine Koexistenz der beiden Phasen flüssig und gasförmig vor, so dass man bei konstantem Druck die Gesamtdichte erhöhen kann, indem man Gas verflüssigt. Die vertikale Position der waagrechten Linie wird durch die Bedingung bestimmt, dass die freie Energie minimiert wird. Dies ist genau dann der Fall, wenn das Integral über die durchgezogene und die gestrichelte Kurve im P −V -Diagramm (nicht im hier gezeigten p−̺-Diagramm) identisch ist. Die resultierende freie Energie ist niedriger als die zu der unphysikalischen Lösung gehörende. Am kritischen Punkt Pc , Tc fallen die drei Lösungen der Gleichung (6.10) zusammen. Sie muss also die folgende Form haben: (ρ − ρc )3 = 0 . Durch Vergleich mit Gleichung (6.10) erhält man daraus die kritischen Werte ρc = 1/3b, Pc = a/27b2 , kB Tc = 8a/27b. In den dimensionslosen Variablen p̂ = (P − Pc )/Pc , t = (T − Tc )/Tc , ρ̂ = (ρ − ρc )/ρc wird Gleichung (6.10) zu 3ρ̂3 + p̂ρ̂ − 2p̂ + 8(ρ̂ + 1)t = 0. 74 (6.11) Diese Gleichung hängt nicht von den Werten der mikroskopischen Parameter a und b ab. Wir bestimmen zunächst die Koexistenzkurve p̂(t), längs derer die beiden Phasen zusammen existieren. Wir lösen Gleichung (6.11) nach p̂ auf und entwickeln in ρ̂. Dies gibt p̂ = 3 3 3 ρ̂ + 4t( ρ̂ + 1) + O(ρ̂4 , tρ̂2 ) . 2 2 Die Funktion p̂(ρ̂) (für festes t) ist punktsymmetrisch um (ρ̂ = 0, p̂ = 4t), und deshalb liegt der aus der Maxwellkonstruktion resultierende flache Kurvenabschnitt√bei p̂ = 4t (für negatives p̂ und t). Die beiden Dichtewerte auf der Koexistenzkurve p̂ = 4t sind ρ̂ = ±2 −t. Die Differenz der beiden Dichten ist der sogenannte Ordnungsparameter, der oberhalb des kritischen Punktes verschwindet und unterhalb dem Potenzgesetz ∆ρ = 4ρc (−t)β genügt. β hat den Wert 1/2 und ist ein sogenannter kritischer Exponent. Die Kompressibilität berechnet sich aus ∂P ∂ p̂ 9 2 −1 (κT ) = ρ ≃ Pc ≃ Pc ρ̂ + 6t . ∂ρ T ∂ ρ̂ t 2 Für t > 0 und ρ̂ = 0 ist (κT )−1 ≃ 6tPc . Für t < 0 ist (κT )−1 ≃ 12|t|Pc . Wir haben also ein weiteres Potenzgesetz κT ∝ |t|−γ mit γ = 1 gefunden, wobei der Vorfaktor der Divergenz für T < Tc halb so groß ist wie für T > Tc . Der Zusammenhang zwischen p̂ und ρ̂ für t = 0 ist ebenfalls ein Potenzgesetz mit dem Exponenten δ = 3. Zum Schluss wollen wir die freie Energie und die spezifische Wärme berechnen. Mit den Beziehungen F = Φ + µN und (6.3) ergibt sich nach Entwicklung in ρ aρ + kB N T ln(ρλ3 ) . F = kB T N −1 + bρ − kB T Die Wärmekapazität ist folglich CV = −T ∂2F ∂T 2 V = 3 N kB . 2 Im Allgemeinen folgt die Wärmekapazität in der Nähe eines kritischen Punktes einem Potenzgesetz der Form CV ∝ |T − Tc |−α . Im van der Waals Gas ist also α = 0. Für T < Tc haben wir eine Koexistenz der beiden Phasen. Die Rechnung für diesen Fall findet sich z.B. in dem Buch von F. Schwabl. Es ergibt sich CV = 6N kB . Die Wärmekapazität macht also einen Sprung bei Tc . Die kritischen Exponenten, die wir hier im Rahmen der van der Waals-Theorie hergeleitet haben, sind von den exakten Exponenten verschieden. Der Grund hierfür liegt darin, dass wir angenommen haben, dass jedes Teilchen dieselbe Anziehung von den anderen Teilchen erfährt. Fluktuationen in der Dichte sind also vernachlässigt. Diese Fluktuationen sind aber dafür verantwortlich, dass die wahren kritischen Exponenten von den hier hergeleiteten verschieden sind. 6.2 Verdünnte Lösungen Zum Abschluss dieses Kapitels betrachten wir Lösungen, z.B. von Salz in Wasser. Wir werden zunächst einen Ausdruck für die Änderung des Drucks und des chemischen Potenzials des Lösungsmittels aufgrund der gelösten Substanz herleiten. Dann werden wir zwei Anwendungen, den osmotischen Druck und die Gefrierpunktserniedrigung daraus ableiten. 6.2.1 Zustandssumme, Druck und chemisches Potenzial Wir gehen davon aus, dass die Konzentration der gelösten Substanz sehr gering ist. Dann gibt es keine Wechselwirkung zwischen den gelösten Teilchen, und wir können uns ähnlich wie bei der Virialentwicklung auf die führenden Terme in der Dichte der gelösten Substanz beschränken. 75 Die großkanonische Zustandssumme ist Z = Z0 (T, V, µ) + e µ′ /kB T Z1 (T, V, µ) + ... . Z1 (T, V, µ) + . . . = Z0 (T, V, µ) 1 + e Z0 (T, V, µ) µ′ /kB T (6.12) Hier ist µ das chemische Potenzial der Lösungsmittelteilchen und µ′ das chemische Potenzial der gelösten Teilchen. ZN ′ (T, V, µ) ist die Zustandssumme bei festgehaltener Teilchenzahl N ′ der gelösten Substanz. ′ Wenn die gelöste Substanz eine geringe Konzentration hat, ist eµ /kB T klein, und die Entwicklung kann nach den oben angegebenen ersten beiden Termen abgebrochen werden. Das großkanonische Potenzial ist somit Φ ′ = −kB T ln Z = −kB T ln Z0 (T, V, µ) − kB T eµ /kB T ≡ V φ0 (T, µ) + V eµ /kB T φ1 (T, µ) = Z1 (T, V, µ) + ... Z0 (T, V, µ) ′ −P V . (6.13) Das Potenzial φ0 (T, µ) ist das großkanonischen Potenzial ohne gelöste Teilchen, geteilt durch das Volumen des Systems. Die mittlere Zahl von Lösungsmittelteilchen N und die mittlere Zahl von gelösten Teilchen N ′ hängen mit diesen Potenzialen zusammen über die Beziehungen ′ ∂Φ ∂φ0 (T, µ) = −V + O(eµ /kB T ) ∂µ ∂µ (6.14) ′ V µ′ /kB T e φ1 (T, µ) + O(e2µ /kB T ) . kB T (6.15) N =− und N′ = − Wir berechnen als nächstes einen Ausdruck für den Druck: Aus (6.13) folgt ′ −P = φ0 (T, µ) + eµ /kB T φ1 (T, µ) = −P0 − N′ kB T + . . . , V wobei P0 (T, µ) der Druck des reinen Lösungsmittels (bei der Temperatur T und dem chemischen Potenzial ′ V µ) ist. Wenn wir noch die Konzentration c = N N der gelösten Teilchen und das spezifischen Volumen v = N des Lösungsmittels einführen, erhalten wir den Ausdruck c P = P0 (T, µ) + kB T + O(c2 ) . v (6.16) Dieses Ergebnis formen wir nun um in einen Ausdruck für das chemische Potenzial, wobei wir das chemische Potenzial in Abwesenheit der gelösten Substanz µ0 nennen (bei demselben Druck P ): P c = P0 (T, µ0 + (µ − µ0 (T, P )) + kB T + . . . v ∂P0 c = P0 (T, µ0 ) + (µ − µ0 (T, P )) + kB T + . . . ∂µ µ0 ,T v ∂P0 c = P + (µ − µ0 (T, P )) + kB T + . . . ∂µ µ0 ,T v c 1 = P + (µ − µ0 (T, P )) + kB T + . . . . v v (6.17) Den letzten Schritt kann man mit der Gibbs-Duhem Beziehung in der Form −V dP0 + SdT + N dµ0 = 0 ausführen. Aus (6.17) folgt schließlich µ = µ0 − kB T c . (6.18) 76 6.2.2 Der osmotische Druck Zwei Lösungen aus denselben Substanzen (z.B. Salz in Wasser) seien durch eine semipermeable Wand getrennt. Ein Beispiel hierfür ist die Zellwand. Die semipermeable Wand sei nur für das Lösungsmittel durchlässig. Im Gleichgewicht sind die chemischen Potenziale des Lösungsmittels auf beiden Seiten der Wand gleich, aber nicht die der gelösten Substanz. Da der Druck gemäß (6.17) mit der Konzentration der gelösten Substanz zusammenhängt, beträgt die Druckdifferenz ∆P = P1 − P2 = c1 − c2 kB T . v Wenn auf der einen Seite das reine Lösungsmittel vorliegt und auf der anderen Seite N ′ Moleküle im Volumen V gelöst sind, wird dies zu ∆P = c N′ kB T = kB T . v V (6.19) Dies ist die sogenannte van’t Hoff-Formel, die der Zustandgleichung des idealen Gases sehr ähnlich ist. Die gelösten Teilchen machen einen Beitrag zum Druck, der mit dem eines idealen Gases derselben Teilchenzahl identisch ist. Dies ist nicht verwunderlich, da wir sowohl bei der Herleitung der Zustandsgleichung des idealen Gases als auch bei der Herleitung in diesem Kapitel angenommen haben, dass die Teilchen nicht miteinander wechselwirken. 6.2.3 Gefrierpunktserniedrigung Zum Abschluss dieses Kapitels leiten wir noch die Gefrierpunktserniedrigung her. Anschaulich lässt sie sich folgender Maßen begründen: Wenn eine Substanz zu einem Lösungsmittel hinzugefügt wird, erhöht sich die Entropie, da ja die gelösten Teilchen ebenfalls einen Beitrag zur Entropie leisten. Damit erniedrigt sich die freie Enthalpie G = E − T S + P V . Aus der Thermodynamik weiß man, dass bei festem Druck und fester Temperatur die freie Enthalpie minimiert wird. Also wird das System diejenige Phase wählen, die die niedrigere freie Enthalpie hat. Dass die Freie Enthalpie minimiert wird, zeigt man ausgehend vom zweiten Hauptsatz dS ≥ δQ = T1 (dE + P dV ) . T Man betrachtet ein System, in dem der Druck und die Temperatur vorgegeben sind, und ersetzt dE durch d(G + T S − P V ) = dG + T dS + SdT − P dV − V dP , mit dem Ergebnis dG ≤ −SdT + V dP . Daraus folgt, dass in einem System mit fester Temperatur und festem Druck die freie Enthalpie abnimmt, bis sie im Gleichgewicht ihr Minimum erreicht. Wenn die flüssige Phase nun durch die gelöste Substanz eine erniedrigte freie Enthalpie hat, wird sie über einen größeren Temperaturbereich als vorher eine niedrigere Enthalpie als die feste oder gasförmige Phase haben. Also erniedrigt sich der Gefrierpunkt und erhöht sich der Siedepunkt. (Dieses Argument gilt, wenn in der festen und gasförmigen Phase die gelöste Substanz nicht oder nur in geringerer Konzentration als in der Flüssigkeit vorliegt.) Wir beginnen mit Gleichung (6.18), angewandt auf die flüssige und die feste Phase: µfl = µfl0 (P, T ) − kB T cfl und µfest = µfest 0 (P, T ) − kB T cfest . Im Gleichgewicht müssen die beiden chemischen Potenziale gleich sein, woraus folgt µfl0 (P, T ) − kB T cfl = µfest 0 (P, T ) − kB T cfest . (6.20) Für das reine Lösungsmittel erhält man den Zusammenhang von Schmelzdruck P0 und Schmelztemperatur T0 aus µfl0 (P0 , T0 ) = µfest 0 (P0 , T0 ) . 77 Durch die gelöste Substanz sind P0 und T0 um einen kleinen Wert ∆P und ∆T verschoben. Entwickeln von Gleichung (6.20) in ∆P und ∆T ergibt fl fest fest fl ∂µ0 ∂µ0 ∂µ0 ∂µ0 ∆P + ∆T −kB T cfl = ∆P + ∆T −kB T cfest . (6.21) ∂P P0 ,T0 ∂T P0 ,T0 ∂P ∂T P0 ,T0 P0 ,T0 Aus dG = −SdT + V dP + µdN und G = µN folgt ∂G ∂µ S=− =− N ∂T P,N ∂T P und V = ∂G ∂P = T,N ∂µ ∂P (6.22) N. (6.23) T Aus Gleichung (6.22) folgt ∂µ ∂T P,N =− S ≡ −s N und aus (6.23) ∂µ ∂P = T,N V ≡ v. N Damit wird Gleichung (6.21) zu −(sfest − sfl )∆T + (vfest − vfl )∆P = (cfest − cfl )kB T . Ausgedrückt durch die Schmelzwärme q = T (sfl − sfest ) wird dies zu q ∆T + (vfest − vfl )∆P = (cfest − cfl )kB T . T Die Änderung der Übergangstemperatur bei vorgegebenem Druck erhalten wir, indem wir ∆P = 0 setzen: ∆T = kB T 2 kB T 2 (cfest − cfl ) ≃ − cfl < 0 . q q (6.24) Im letzten Schritt sind wir davon ausgegangen, dass cfest ≪ cfl ist, also dass die feste Phase praktisch keine gelösten Teilchen enthält. Da beim Schmelzen Wärme aufgenommen wird, ist q > 0, und damit ist ∆T < 0. Der Schmelzpunkt der Flüssigkeit wird durch das Lösen einer Substanz in ihr erniedrigt. Übungsaufgaben zu Kapitel 6 ∂ F 1. Zeigen Sie, dass allgemein die Beziehung E = −T 2 ∂T T V,N gilt und berechnen Sie mit Hilfe dieser Beziehung einen Ausdruck für die Energie des van der Waals-Gases. Berechnen Sie die Entropie des van der Waals-Gases. 2. N Teilchen, die sich in einer Dimension bewegen können und einer internen Wechselwirkung W unterliegen, befinden sich in einem Kasten“ der Länge L. Die Hamiltonfunktion des Systems lautet: ” N X p2 1X α H= + U (xα ) + W (|xα − xβ |), 2m 2 α=1 α6=β U (x) = U0 : 0 < x < L , ∞ : sonst W (x) = ∞ 0 : x<b : sonst Berechnen Sie den Druck als Funktion von (T, N, L) in klassischer Näherung. 78 3. In Rahmen der Molekularfeld- Näherung für reale Gase ersetzt man die Wechselwirkung zwischen den Teilchen durch ein effektives gemitteltes Potential U= n∞ −aN/V : in einem Teilvolumen bN : sonst . ( a, b positive Konstanten). Berechnen Sie in klassischer Näherung (d.h. nur mit dem Faktor 1/N ! für die Ununterscheidbarkeit der Teilchen) mit diesem Ansatz die freie Energie F und daraus den Druck P (T, V, N ). 79 Kapitel 7 Phasenübergänge 7.1 7.1.1 Phasengleichgewichte Extremalbedingungen Der zweite Hauptsatz besagt, dass in einem isolierten System die Entropie im Gleichgewicht maximal ist. Wir leiten nun daraus Extremaleigenschaften der thermodynamischen Potenziale her. Aus diesen kann man dann Gleichgewichtsbedingungen für multikomponentige Systeme in verschiedenen Phasen herleiten. Wir betrachten in diesem Abschnitt Systeme aus mehreren Teilchensorten und Systeme aus mehreren Phasen, wie zum Beispiel Wasser und Dampf. Wir setzen voraus, dass kein Teilchenaustausch mit der Umgebung stattfindet, aber wir lassen Teilchenaustausch zwischen den verschiedenen Phasen zu. Wir nehmen an, dass im System der Druck und die Temperatur wohl definiert sind, aber dass die Teilchenkonzentrationen oder die Anteile der verschiedenen Phasen anfangs nicht im Gleichgewicht sind. Wir beginnen mit dem zweiten Hauptsatz 1 δQ = (dE + P dV ) . (7.1) T T Für festes E und V (also ein isoliertes System) strebt S also einem Maximum zu. Das Gleichheitszeichen gilt nur im Gleichgewicht, für das wir ja die Beziehung dE = T dS − P dV hergeleitet haben. Solange das System nicht im Gleichgewicht ist, kann die Entropieänderung größer sein als (dE + P dV )/T . Nun betrachten wir ein System in thermischem Kontakt mit einem Bad. Wir ersetzen dE in (7.1) durch d(F + T S) = dF + T dS + SdT und erhalten dS ≥ dF ≤ −SdT − P dV . (7.2) Für festes T und V ist die Änderung der freien Energie also ≤ 0. Die freie Energie nimmt folglich ab, bis sie ihr Minimum erreicht hat. Im Gleichgewicht ist die freie Energie eines Systems in thermischem Kontakt mit einem Bad daher minimal. In der Chemie sind oft Druck und Temperatur vorgegeben. Daher betrachten wir noch die freie Enthalpie G = E − T S + P V . Ganz analog zur vorigen Rechnung erhalten wir dG ≤ −SdT + V dP (7.3) und schließen daraus, dass in einem System mit fester Temperatur und festem Druck die freie Enthalpie abnimmt, bis sie im Gleichgewicht ihr Minimum erreicht. 7.1.2 Phasengrenzkurven Die verschiedenen chemischen Substanzen eines Systems nennt man Komponenten. Bei einer einheitlichen chemischen Substanz spricht man demgemäß von einem einkomponentigen System oder einem Einstoffsystem. Die Komponenten eines Systems können in verschiedenen physikalischen Erscheinungsformen, die 80 man als Phasen bezeichnet, auftreten. Dies sind die feste, die flüssige und die gasförmige Phase. Die feste und die flüssige Phase können noch in weitere Phasen mit unterschiedlichen physikalischen Eigenschaften aufspalten. Wenn zwei Phasen nebeneinander im Gleichgewicht vorliegen, müssen T , P und µ gleich sein. Seien µ1 (P, T ) und µ2 (P, T ) die chemischen Potenziale der ersten und zweiten Phase. Aus µ1 (P, T ) = µ2 (P, T ) ergibt sich durch Auflösen nach P die Phasengrenzkurve P = P0 (T ) . Die Koexistenz zweier Phasen ist also längs einer Linie im P -T -Diagramm möglich. Beispiele für Phasengrenzkurven sind die Schmelzkurve (flüssig-fest), die Dampfdruckkurve (flüssig-gasförmig) und die Sublimationskurve (fest-gasförmig). Abbildung 7.1 zeigt ein für die meisten einfachen Substanzen typisches Phasendiagramm. Der Punkt, an dem die drei Linien sich treffen, heißt der Tripelpunkt. Die P flüssig fest gasförmig T Abbildung 7.1: Phasen einer einfachen Substanz im P -T -Diagramm. Phasengrenze zwischen der flüssigen und gasförmigen Phase endet im sogenannten kritischen Punkt. Die Schmelzkurve kann sowohl nach rechts als auch nach links geneigt sein, je nachdem, ob sich die Substanz beim Schmelzen ausdehnt oder zusammenzieht. Abbildung 7.2 auf der nächsten Seite zeigt die flüssige und gasförmige Phase und den Koexistenzbereich im V -T -Diagramm. Die gepunktete Linie ist ein Weg, den das System nimmt, wenn man bei festem Druck die Flüssigkeit erhitzt. Wenn die zu diesem Druck gehörende Temperatur auf der Dampfdruckkurve erreicht ist, fängt die Flüssigkeit an zu verdampfen, wobei das Volumen sich weiter erhöht. Während des Verdampfens bleibt die Temperatur konstant, da alle zugeführte Wärme zum Umwandeln von Flüssigkeit in Gas verwendet wird. Wenn alle Füssigkeit verdampft ist, haben wir ein Gas, das sich bei Erwärmen weiter ausdehnt. 7.1.3 Clausius-Clapeyron-Gleichung Beim Übergang von einer Phase in die andere ändert sich die Entropie und das Volumen. Diese beiden Änderungen stehen in einer Beziehung zur Dampfdruckkurve, die wir im Folgenden herleiten. Wir beginnen mit µ1 (P0 (T ), T ) = µ2 (P0 (T ), T ) und differenzieren nach T , wobei wir verlangen, dass das System auf der Dampfdruckkurve P0 (T ) bleibt: ∂µ1 dP0 dP0 ∂µ2 ∂µ1 ∂µ2 = . (7.4) + + ∂P T dT ∂T P ∂P T dT ∂T P 81 T Tc flüssig gasförmig flüssig und gasförmig V Abbildung 7.2: Die flüssige und gasförmige Phase und der Koexistenzbereich im V -T -Diagramm. In jeder der beiden Phasen gilt außerdem dG = −SdT + V dP + µdN und G = µN und damit ∂G ∂µ S=− =− N ∂T P,N ∂T P und V = ∂G ∂P = T,N ∂µ ∂P N. (7.5) (7.6) T Eingesetzt in (7.4) führt das mit der Notation vi = Vi /Ni und si = Si /Ni auf v1 dP0 dP0 − s1 = v2 − s2 , dT dT oder (mit ∆s = s2 − s1 und ∆v = v2 − v1 ) dP0 ∆s QL = ≡ dT ∆v T ∆v (7.7) Dies ist die Clausius-Clapeyron-Gleichung. Sie drückt die Steigung der Phasengrenzkurve durch das Verhältnis der Entropie- und Volumenänderung beim Phasenübergang aus. QL = T ∆s ist die Wärmemenge, die pro Teilchen benötigt wird, um die Substanz aus der Phase 1 in die Phase 2 überzuführen. 7.1.4 Gibbs-Phasenregel und Phasengleichgewicht Wir betrachten nun Systeme, die mehrere Komponenten enthalten. Ein solches System kann in mehr Phasen vorliegen als ein einkomponentiges System, da die verschiedenen Phasen verschiedene Komponenten enthalten können. Innerhalb einer Phase haben wir eine homogene Mischung der Komponenten. Wir verallgemeinern zunächst die thermodynamischen Potenziale auf solche homogenen Gemische von n Komponenten. Die Teilchenzahl N muss durch n verschiedene Teilchenzahlen Ni , i = 1, . . . , n ersetzt werden. Folglich gibt es n verschiedene chemische Potenziale ∂S . µi = −T ∂Ni E,V,Nk6=i Der erste Hauptsatz lautet dann dE = T dS − P dV + 82 n X i=1 µi dNi , (7.8) und die Gibbs-Duhem-Beziehung wird zu E = TS − PV + n X µi N i , (7.9) i=1 und auch die Verallgemeinerung der anderen Beziehungen enthält jeweils die Summe über alle i. Nun betrachten wir verschiedene Phasen dieser n Komponenten. Im Gleichgewicht müssen in allen Phasen die Temperatur, der Druck und alle n chemischen Potenziale übereinstimmen. Wir wollen berechnen, wieviele verschiedene Phasen koexistieren können. Die Zahl der Phasen sei r. Wir zählen nun ab, wieviele Variablen das System hat, und wieviele durch die Gleichgewichtsbedingung voneinander abhängig sind. Die verbleibende Zahl unabhängiger Variablen ist die Zahl der Freiheitsgrade, f . Wir haben T , P und µ1 . . . µn als Variablen, also 2 + n Variablen. Innerhalb jeder Phase gilt außerdem die Gibbs-Duhem-Beziehung. Wie wir gezeigt haben, folgt aus der Gibbs-Duhem-Beziehung, dass T , P , und die µi nicht unabhängig voneinander sind. (Viele Lehrbücher erwähnen statt der Gibbs-Duhem Beziehung P N (ν) die Bedingung, dass die Summe aller Teilchenkonzentrationen i Ni(ν) in Phase ν Eins sein muss.) Also bleiben f =2+n−r (7.10) Freiheitsgrade. Beziehung (7.10) ist die Gibbssche Phasenregel. Betrachten wir ein paar Beispiele. • Einkomponentiges System: n = 1, f = 3 − r. Es ist r = 1, 2, oder 3 möglich. Für r = 1 ist f = 2, und wir können T und P frei wählen. Im T -P -Diagramm (z.B. Abb 7.1 auf Seite 81) belegt jede Phase folglich eine Fläche. Für r = 2 ist f = 1, und P und T können nicht unabhängig variiert werden. Zwei Phasen können folglich längs einer Linie im P -T -Diagramm koexistieren. Für r = 3 ist f = 0, und wir haben keine Wahlmöglichkeit für die Variablen. Die Koexistenz von drei Phasen ist nur an einem Punkt möglich. • Zweikomponentiges System: Mischung von Salmiak und Wasser, NH4 Cl+H2 O. Es gibt vier mögliche Phasen: Wasserdampf, eine flüssige Mischung, Eis (mit nur wenig Salz) und Salz (mit etwas Wasser). Wenn beide Komponenten vertreten sind, gibt es vier mögliche Kombinationen von Phasen: – r = 1: eine flüssige Phase mit f = 3: Druck, Temperatur und das Mischungsverhältnis sind unabhängige Freiheitsgrade. – r = 2: eine flüssige Phase zusammen mit Wasserdampf, f = 2. Wenn P und T festgelegt sind, gibt es keine Wahlmöglichkeit für die Konzentration. – r = 3 Flüssige Phase + Wasserdampf + eine der beiden festen Phasen, f = 1: Nur eine Variable, z.B. die Temperatur, ist frei wählbar. – r = 4 Flüssige Phase + Wasserdampf + Eis + Salz: f = 0, also ist dies nur an einem Punkt, dem sogenannten eutektischen Punkt möglich. Abbildung 7.3 auf der nächsten Seite zeigt das Phasendiagramm der flüssigen und festen Phasen. Wenn wir die Existenz einer Wasserdampfphase fordern oder in Abwesenheit von Dampf den Druck festlegen, bleiben zwei Variablen, nämlich die Salmiakkonzentration c und die Temperatur. Bei c = 0 ist der Schmelzpunkt von reinem Eis zu sehen, und bei c = 1 der von reinem Salz. Man sieht, dass die Lösung einen niedrigeren Gefrierpunkt hat als die reinen Flüssigkeiten. Das werden wir später in der Vorlesung noch begründen. Wenn die Konzentration des NH4 Cl im Eis höher wird als im Phasendiagramm erlaubt, wird Salz (bei niedriger Temperatur) oder Flüssigkeit (bei höherer Temperatur) abgeschieden. Wenn die Konzentration des NH4 Cl in der Flüssigkeit höher wird als im Phasendiagramm erlaubt, wird ebenfalls Salz abgeschieden. Wenn sie zu niedrig wird, wird Eis abgeschieden. Eutektische Mischungen treten immer dann auf, wenn zwischen den beiden festen Phasen eine Mischbarkeitslücke besteht und die freie Energie der Flüssigkeitsmischung niedriger ist als die der beiden festen Phasen. 83 T Flüssigkeit Salz und Fl. Eis und Eis Flüssigkeit Salz Eis und Salz 1c 0 Abbildung 7.3: Phasendiagramm eines Gemisches aus Salmiak und Wasser. Kältemischungen nützen die speziellen Eigenschaften eutektischer Systeme aus. Die eutektische Temperatur von NaCl und Wasser ist bei -21o C, also weit unterhalb des Gefrierpunktes von Wasser. Wenn man NaCl und Eis bei einer Temperatur von 0o C zusammenbringt, sind sie nicht im Gleichgewicht. Es wird Eis schmelzen, und in dem Eis löst sich Salz. Die Konzentration ist allerdings viel zu hoch, um mit dem Eis im Gleichgewicht zu sein, und es schmilzt noch mehr Eis. Dabei wird Wärme verbraucht, und die Temperatur erniedrigt sich. Dieser Prozess setzt sich so lange fort, bis die Temperatur des eutektischen Punkts erreicht ist. Dann sind Eis, hydriertes Salz und die Flüssigkeit im Gleichgewicht. Diese Kältemischung bleibt selbst bei Wärmezufuhr konstant auf -21oC, da die Wärmezufuhr zu dem Schmelzen von weiterem Eis führt. 7.2 Einführung in Phasenübergänge An einem Phasenübergang hat die freie Energie oder eine ihrer Ableitungen eine Singularität. Die Singularität kann ein Sprung sein, ein Knick, oder eine Divergenz ins Unendliche. Man beobachtet dort meist einen scharfen Übergang in den Eigenschaften einer Substanz. Ein Beispiel ist der Flüssig-Gas-Übergang, der in Abbildung 7.4 im Phasendiagramm des Wassers zu sehen ist. Längs der Grenzlinien findet ein Abbildung 7.4: Phasendiagramm des Wassers, schematisch. Phasenübergang erster Ordnung statt, d.h. ein Phasenübergang, bei dem eine erste Ableitung der freien 84 Energie unstetig ist. In unserem Beispiel hat die Entropie ∂G S=− ∂T P einen Sprung, und folglich wird bei der Kondensation oder beim Frieren die latente Wärme ∆Q = T ∆S frei. Das Hauptinteresse dieses Kapitels gilt dem kritischen Punkt, an dem der Flüssig-Gas-Phasenübergang verschwindet. An diesem Punkt findet ein kontinuierlicher Phasenübergang (d.h. ein Phasenübergang zweiter oder höherer Ordnung) statt, und jenseits dieses Punktes gibt es nur noch eine Phase, die man als sehr dichtes Gas oder eine sehr energiehaltige Flüssigkeit verstehen kann. Ein weiteres bekanntes Beispiel für einen Phasenübergang ist der Ferromagnet. Sein Phasendiagramm ist in Abbildung 7.5 gezeigt. Die beiden Phasen, zwischen denen der Phasenübergang erster Ordnung stattfindet, sind diejenigen mit positiver und mit negativer Magnetisierung. Oberhalb der kritischen Temperatur (der Curie-Temperatur) gibt es diesen Phasenübergang nicht mehr. Abbildung 7.5: Phasendiagramm eines einfachen Ferromagneten. Weitere Beispiele für Phasenübergänge sind der Übergang zwischen Normalleiter und Supraleiter, der Übergang zum Antiferromagneten, die Entmischung von binären Flüssigkeiten, Ordnungs-Unordnungsübergänge in Kristallen, die Phasenübergänge von Flüssigkristallen und von Lipidmolekülen in Wasser und die Mikrophasenseparation von Diblock-Copolymeren. Die Abbildungen 7.6 bis 7.9 illustrieren einige dieser Beispiele. Im Allgemeinen wächst der Grad der Ordnung unterhalb des kritischen Punktes. Die Ursache hierfür ist die Konkurrenz zwischen der Entropie und der Energie. Meist bedeutet mehr Ordnung niedrigere Entropie und niedrigere Energie. Aus der Beziehung F = E − T S erkennt man, dass bei tieferen Temperaturen die freie Energie weniger stark von der Entropie abhängt, so dass die geordnete Phase mit der niedrigeren Energie auch die niedrigere freie Energie hat. Der Übergang zu höherer Ordnung bedeutet das Brechen einer Symmetrie. Beim Ferromagneten ist dies die Symmetrie zwischen den verschiedenen Orientierungen der Magnetisierung. Phasenübergänge haben gewöhnlich einen Ordnungsparameter, der unterhalb der kritischen Temperatur von Null verschieden ist und oberhalb verschwindet. Für den Flüssig-Gas-Übergang ist dies die Dichtedifferenz zwischen den beiden Phasen, und für den Ferromagneten ist dies die Magnetisierung. Oft gibt es ein “Feld”, das einen Übergang zwischen den verschiedenen möglichen Tieftemperaturphasen veranlasst. Im Ferromagneten ist dies das Magnetfeld, im Flüssig-Gas-System der Druck. Oberhalb der kritischen Temperatur ruft das Feld ebenfalls eine Symmetriebrechung hervor (sofern der Phasenübergang mit einer Symmetriebrechung verbunden ist). In vielen Systemen kann man das “Feld” theoretisch definieren, aber oft lässt es sich nicht auf einfache Weise experimentell realisieren. Man denke z.B. an den Ordnungsübergang in β-Messing, wo das “Feld” die Zinkatome auf das eine Untergitter und die Kupferatome auf das andere Untergitter ziehen müsste. 85 Zn Cu Abbildung 7.6: Links: Die beiden möglichen Orientierungen des NH+ 4 -Tetraeders in Ammoniumchlorid (NH4 Cl). Die Chloratome auf dem kubischen Gitter sind durch leere Kreise dargestellt, der Stickstoff und Wasserstoff durch größere und kleinere schwarze Punkte. Unterhalb der kritischen Temperatur bevorzugen die Tetraeder, die im Zentrum der Chlorwürfel sitzen, eine gleiche Orientierung aller Tetraeder. Rechts: β-Messing unterhalb (oben) und oberhalb (unten) von Tc = 738 K. Die Atome sitzen auf den Plätzen zweier einander durchdringender kubischer Gitter. Unterhalb von Tc bevorzugen die Zinnatome das eine Untergitter und die Kupferatome das andere Untergitter. Oberhalb von Tc verteilen sich die beiden Atomsorten gleichmäßig auf die beiden Untergitter. Abbildung 7.7: Schematische Anordnung der Flüssigkristallmoleküle in den verschiedenen Phasen eines Flüssigkristalls. 7.3 Mean-Field-Theorie Eine Mean-Field-Theorie, auf Deutsch auch oft Molekularfeldtheorie genannt, ist i.A. die einfachste Theorie, die man zu Phasenübergängen machen kann. Die grundlegende Annahme hierbei ist, dass jedes Teilchen nur einen gemittelten Effekt der anderen Teilchen spürt, so dass räumliche Fluktuationen ignoriert werden können. Dies ist eine Näherung, die meist nicht zu exakten Ergebnissen führt, aber oft die Phänomenologie des Phasenübergangs richtig erfasst. Bekannte Beispiele sind die van-der-Waals-Theorie für Gase und die Weiss’sche Theorie für Magnetismus. Die van-der-Waals-Theorie wurde im vorigen Kapitel ausführlich diskutiert. In diesem Teilkapitel werden wir die Landau-Theorie für Phasenübergänge behandeln, die die “Normalform” für einen Phasenübergang mit symmetrischem Ordnungsparameter darstellt. Bis ca 1960 waren Mean-Field-Theorien (MFT) die vorherrschenden Theorien für Phasenübergänge. Da die experimentell bestimmten Werte der kritischen Exponenten von denen der MFT abwichen, wurden im folgenden Jahrzehnt weitergehende Theorien etwickelt und auch Computersimulationen durchgeführt. Diese Theorien beruhten zum einen auf störungstheoretischen Berechnungen, bei denen in einer kleinen Größe systematisch entwickelt wurde, zum anderen wurden Skalentheorien eingeführt, die die Idee, dass ein kritisches System selbstähnlich ist, implementierten. Diese Entwicklungen gipfelten in der Renormierungsgruppentheorie, die 1971 von K.G. Wilson vorgestellt wurde, und für die er 1982 den Nobelpreis erhielt. 86 Abbildung 7.8: Schematische Darstellung der Struktur von in Wasser gelösten Lipidmolekülen. Von links oben nach rechts unten wächst die Molekülkonzentration. 7.3.1 Landau-Theorie für Phasenübergänge Eine einfache und elegante phänomenologische Theorie für die Umgebung des kritischen Punktes wurde 1937 von Landau vorgestellt. Er nahm an, dass die freie Energie sich in der Nähe des Phasenübergangs allein als Funktion des Ordnungsparameters m schreiben lässt, wobei die Koeffizienten von den Kontrollparametern des Systems abhängen. Wir betrachten den Fall, dass der Ordnungsparameter eine skalare Größe ist, und dass eine Symmetrie bzgl. des Vorzeichens des Ordnungsparameters vorliegt. Eine solche Situation ist z.B. für einen Ferromagneten mit einer Vorzugsachse gegeben, oder für den Flüssig-GasÜbergang. In der Nähe des kritischen Punktes ist der Ordnungsparameter klein, und eine Entwicklung in m ergibt als erste Terme F = f0 + rm2 + um4 . (7.11) kB T N Die ungeraden Potenzen treten nicht auf, da die freie Energie nicht vom Vorzeichen von m abhängt. Damit die freie Energie nach unten beschränkt ist, muss u > 0 sein. Die freie Energie hat also die in Abbildung 7.10 gezeigte Form. In einem System mit festem Volumen und fester Teilchenzahl, das auf konstanter Temperatur gehalten wird, nimmt die Freie Energie im thermischen Gleichgewicht ihr Minimum an. Man erkennt sofort, dass für r > 0 die freie Energie ihr Minimum bei m = 0 hat, so dass wir dort in der Hochtemperaturphase sind. Es ist also r = a(T − Tc ) mit einem konstanten Koeffizienten a und der kritischen Temperatur Tc . Für r < 0 gibt es die beiden Lösungen r −r . m=± 2u Wir sehen also, dass der Ordnungsparameter in der Nähe des kritischen Punktes mit der Temperatur über ein Potenzgesetz der Form m ∝ |T − Tc |β (7.12) verbunden ist, wobei der Wert des Exponenten β = 1/2 ist. Als nächstes führen wir ein Feld h ein und addieren den Term −mh zu (7.11), F = f0 + rm2 + um4 − mh . kB T N 87 (7.13) Abbildung 7.9: Das Phasendiagramm für Diblock-Copolymere. Auf der x-Achse ist das Mischungsverhältnis aufgetragen, auf der y-Achse die Stärke der für die Entmischung verantwortlichen Wechselwirkung. Minimieren der Freien Energie ergibt jetzt 2rm + 4um3 − h = 0 . Für T = Tc (also r = 0) finden wir h ∝ mδ (7.14) mit δ = 3. Wir haben also ein weiteres Potenzgesetz gefunden. Für die Suszeptibilität erhalten wir 1 1 ∂m 2r für r > 0 = = 1 2 ∂h T 2r + 12um 4|r| für r < 0 Es gilt also χ ∝ |T − Tc |−γ (7.15) mit γ = 1. Schließlich berechnen wir noch die Wärmekapazität, die ja ebenfalls als zweite Ableitung der freien Energie geschrieben werden kann. Wir erhalten sie, wenn wir in (7.11) den Wert des Ordnungsparameters am Minimum einsetzen (also m = 0 oder m2 = −r/2u) und −T ∂ 2 F /∂T 2 berechnen. Zum Einen gibt es den Beitrag, der aus f0 resultiert, und den wir im Folgenden ignorieren, da er bei Tc regulär ist. Der zweite Beitrag resultiert aus den vom Ordnungsparameter abhängigen Termen. Für T > Tc ist er 0, und für T < Tc ist er a2 N kB T [T + 2(T − Tc )]. 2u Damit liegt ein Sprung in der Wärmekapazität vor. Wenn wir einen Exponenten für das Verhalten von CH bei Annäherung an Tc von links oder rechts einführen wollten, so hätte dieser den Wert α = 0. 88 r=0 r<0 r>0 F(m) m Abbildung 7.10: Die freie Energie als Funktion des Ordnungsparameters in der Landau-Theorie für verschiedene r. Die Kurven für r < 0 haben zwei Minima. 7.3.2 Kritische Exponenten Wir haben am Beispiel der Landau-Theorie gesehen, dass sich in der Nähe des kritischen Punktes eine Reihe von kritischen Exponenten definieren lassen. Dies gilt nicht nur in Mean-Field-Theorie, sondern allgemein, wobei die Werte der Exponenten i.A. allerdings von denen der Mean-Field-Theorie abweichen. Der Grund für all diese Potenzgesetze ist, dass es am kritischen Punkt große, langlebige Fluktuationen des Ordnungsparameters gibt. Eine Flüssigkeit am kritischen Punkt sieht milchig aus, weil die Dichtefluktuationen sogar auf Längenskalen so groß wie die Lichtwellenlänge auftreten. Diese Länge beträgt ungefähr 4000 Å, also das 4000fache des Teilchenabstands! Da in diesen Potenzgesetzen oft der Abstand von der kritischen Temperatur als Parameter auftritt, definiert man die dimensionslose Größe t= T − Tc . Tc (7.16) Die folgende Tabelle listet einige Potenzgesetze für den kritischen Punkt des Flüssig-Gas-Übergangs und des einfachen Ferromagneten auf. Größe Ordungsparameter Wärmekapazität Suszeptibilität Feld Korrelationslänge Korrelationsfunktion G(~x − ~x1 ) Gas ρf l − ρgas ∼ (−t)β CV ∼ |t|−α κT ∼ |t|−γ |p − pc | ∼ |ρf l − ρgas |δ ξ ∼ |t|−ν hρ(~x)ρ(~x1 )i − hρ(~x)i2 ∼ |~x − ~x1 |−d+2−η Magnet M ∼ (−t)β CH ∼ |t|−α χT ∼ |t|−γ |H| ∼ |M |δ ξ ∼ |t|−ν hm(~x)m(~x1 )i − hm(~x)i2 ∼ |~x − ~x1 |−d+2−η Die Korrelationslänge ist ein Maß für die Ausdehnung der größten Fluktuationen. Auf genügend großen Längen fällt die Korrelationsfunktion exponentiell mit der Entfernung ab, G(~x − ~x1 ) ≃ Ce−|~x−~x1 |/ξ . Das Zeichen ∼ liest man “skaliert wie”. Ein Ausdruck der Form F (t) ∼ |t|λ bedeutet λ = lim t→0 ln |F (t)| . ln |t| 89 (7.17) Die Beziehung (7.17) steht also nicht nur für einfache Potenzgesetze F = A|t|λ , sondern auch für kompliziertere Ausdrücke der Form F (t) = A|t|λ (1 + btλ1 + . . .) mit einem positiven λ1 . Genügend nah an t = 0 dominiert der führende Term, aber weiter entfernt gibt es i.A. Korrekturen zu dem einfachen Potenzgesetz. In Experimenten zeigte sich, dass total verschiedene Systeme dieselben kritischen Exponenten haben. So haben z.B. der Ferromagnet YFeO3 (hat eine Vorzugsachse), die Flüssigkeiten CO2 und Xe, der Antiferromagnet FeF2 , der Ordnungs-Unordnungsübergang in β-Messing und in NH4 Cl und das dreidimensionale Isingmodell dieselben Werte der Exponenten, α ≃ 0.11, β ≃ 0.33, γ ≃ 1.24, δ ≃ 4.8, ν ≃ 0.63, η ≃ 0.03. Man sagt daher, dass diese Systeme zu derselben Universaltitätsklasse gehören. Eine weitere Universalitätsklasse beinhaltet das superfluide Helium, magnetische Systeme mit einer Vorzugsebene und den nematisch-smektischA-Übergang in Flüssigkristallen. Dort haben die Exponenten die Werte α ≃ −0.008, β ≃ 0.35, γ ≃ 1.32, δ ≃ 4.8, ν ≃ 0.67, η ≃ 0.03. Experimente zeigen auch, dass die kritischen Exponenten bei Annäherung von unten und oben an Tc denselben Wert haben. Die Werte der kritischen Exponenten sind nicht alle unabhängig, sondern es gelten die Skalenrelationen γ = −β(1 − δ), α = 2 − 2β − γ, γ = ν(2 − η) und 2 − α = dν. Diese und andere Eigenschaften kritischer Systeme kann man aus einer “Renormierungsrechnung” herleiten. Eine entscheidende Annahme hierbei ist, dass für das kritische Verhalten mikroskopische Details des Systems unwichtig sind, und dass nur diejenigen Eigenschaften des Systems relevant sind, die sich auch noch auf großen Längenskalen auswirken. Anders lässt sich auch die Universalität der kritischen Exponenten nicht erklären. Ihre Werte hängen von folgenden Eigenschaften des Systems ab: • Die räumliche Dimension • Die Zahl der Komponenten und die Symmetrie des Ordnungsparameters • Die An- oder Abwesenheit von langreichweitigen Wechselwirkungen • Die Erhaltungsgrößen, an die der Ordungsparameter koppelt Der letzte Punkt ist für die dynamischen kritischen Eigenschaften relevant, die aber hier nicht behandelt werden. Der wichtigste Effekt der räumlichen Dimension ist, dass in höheren Dimensionen Fluktuationen um die Mittelwerte weniger wichtig sind. Wir werden das später explizit zeigen. Daraus folgt, dass es i.A. eine untere kritische Dimension gibt, unterhalb derer der Phasenübergang überhaupt nicht mehr auftreten kann, weil die Tieftemperaturphase selbst bei sehr niedrigen Temperaturen durch Fluktuationen zerstört wird. Für das Isingmodell ist dies die Dimension 1. Außerdem gibt es eine obere kritische Dimension, oberhalb derer die Fluktuationen nur kleine Störungen sind, so dass die in der Mean-Field-Theorie berechneten Exponenten gültig sind. 7.4 Das eindimensionale Ising-Modell und die Transfer-MatrixMethode Die Transfer-Matrix-Methode ist nützlich zur Lösung eindimensionaler klassischer Spinmodelle. Die Zustandssumme wird durch eine Matrix ausgedrückt, und die thermodynamischen Eigenschaften des Systems lassen sich aus den Eigenwerten der Matrix berechnen. Wir werden diese Methode am eindimensionalen Isingmodell demonstrieren. Die Spins sind in diesem Modell angeordnet wie in unserem Beispielsystem aus Kapitel 1, Abb. 1.1. Jeder Spin kann zwei Einstellungen haben. Im Gegesatz zu der Situation, die wir in Kapitel 1 betrachtet haben, gibt es jetzt eine Wechselwirkung zwischen benachbarten Spins. In zwei und drei Dimensionen sitzen die Spins auf den Plätzen eines quadratischen bzw kubischen Gitters. Onsager benützte die Transfer-Matrix-Methode in den 40er Jahren, um das zweidimensionale Isingmodell zu lösen und seine kritischen Exponenten zu berechnen. 90 Die Ergebnisse unserer Rechnung werden zeigen, dass das Ising-Modell in einer Dimension für alle T > 0 paramagnetisch ist, und dass seine Korrelationslänge bei T = 0 divergiert. Wir beginnen mit der Hamiltonfunktion N −1 N −1 X X σi , σi σi+1 − H HN = −J i=0 i=0 mit den Spins σi = ±1 und mit periodischen Randbedingungen σN ≡ σ0 . Die Wahl der Randbedingungen ist im thermodynamischen Limes N → ∞ irrelevant. Die Zustandssumme beträgt X eJ(σ0 σ1 +σ1 σ2 +...+σN −1 σ0 )/kB T +H(σ0 +σ1 +...+σN −1 )/kB T , ZN = {σi } wobei die Summe über alle Einstellungen aller Spins zu nehmen ist. Die Exponenzialfunktion lässt sich als Produkt von Termen schreiben, die alle nur von Spinpaaren abhängen X eJσ0 σ1 /kB T +H(σ0 +σ1 )/2kB T . . . eJσN −1 σ0 /kB T +H(σN −1 +σ0 )/2kB T ZN = {σi } ≡ X {σi } T0,1 T1,2 · . . . · TN −1,0 , wobei Ti,i+1 = eJσi σi+1 /kB T +H(σi +σi+1 )/2kB T die Elemente einer Matrix T sind, deren Zeilen sich durch den Wert von σi unterscheiden, und die Spalten durch den Wert von σi+1 . Also (J+H)/k T B e e−J/kB T T= e−J/kB T e(J−H)/kB T Die Spurbildung (d.h. heißt die Summation über die Werte der Spins) bedeutet nun einfach ein Multiplizieren der Matrizen, so dass wir ZN = Sp TN erhalten, wobei nur noch die Spurbildung über den letzten Spin σ0 übrig geblieben ist, die durch Summation der Diagonalelemente ausgeführt wird. Diese Summe lässt sich durch die Eigenwerte von T ausdrücken: X λN ZN = i . i (Im eindimensionalen Isingmodell gibt es nur zwei Eigenwerte, aber im Allgemeinen kann die Transfermatrix natürlich mehr als zwei Zeilen und Spalten haben.) Wir nummerieren die Eigenwerte in der Reihenfolge ihrer Größe: λ0 > λ1 > . . .. Die freie Energie pro Spin ist im thermodynamischen Limes !# " X λi N 1 N F/N = −kB T lim ln λ0 1 + N →∞ N λ0 i = −kB T ln λ0 . Sie wird also allein durch den größten Eigenwert der Transfermatrix bestimmt, der sich i.A. leichter berechnen lässt als das gesamte Spektrum von Eigenwerten. Für das Isingmodell erhalten wir q λ0 = eJ/kB T cosh H/kB T + e2J/kB T sinh2 H/kB T + e−2J/kB T . Als nächstes werten wir die Korrelationsfunktion aus, G(R) = hσ0 σR i − hσ0 ihσR i . 91 Wir berechnen zuerst hσ0 σR iN = 1 X σ0 σR e−HN /kB T ZN {σi } = 1 X σ0 T0,1 . . . TR−1,R σR TR,R+1 . . . TN −1,0 ZN {σi } = 1 X σ0 (TR )0,R σR (TN −R )R,0 ZN σ σ 0 = = = R 1 Sp S0 TR SR TN −R ZN 1 X −R h~uj |S0 |~ui iλR ui |SR |~uj iλN i h~ j ZN i,j N −R R P λ h~ui |SR |~uj i λ0j uj |S0 |~ui i λλ0i i,j h~ P N k λk λ0 Wir haben die Matrix Si eingeführt, die in der Diagonalen die möglichen Werte von σi hat (also 1 und −1 für das Isingmodell) und sonst lauter Nullen. Außerdem haben wir die mit den Eigenvektoren {~ui } der Transfermatrix gebildete Identität X |~ui ih~ui | 1= i eingefügt. Im thermodynamischen Limes N → ∞ überleben nur die Beiträge mit j = 0 und k = 0, und wir erhalten X λi R hσ0 σR i = h~u0 |S0 |~ui ih~ui |SR |~u0 i λ0 i X λi R h~u0 |S0 |~ui ih~ui |SR |~u0 i = hσ0 ihσR i + λ0 i6=0 Im letzten Schritt haben wir hσi i = h~u0 |Si |~u0 i benutzt, was sich mit einer Rechnung analog zu der hier für hσ0 σR i ausgeführten zeigen lässt. Die Korrelationslänge berechnet sich wegen G(R) ∼ e−R/ξ zu 1 ξ −1 = lim − ln |hσ0 σR i − hσ0 ihσR i| R→∞ R ( ) R 1 λ1 = lim − ln h~u0 |S0 |~u1 ih~u1 |SR |~u0 i R→∞ R λ0 = − ln(λ1 /λ0 ) . Die Korrelationslänge wird also durch die beiden größten Eigenwerte der Transfermatrix bestimmt. Für das Isingmodell beträgt sie q eJ/kB T cosh H/kB T − e2J/kB T sinh2 H/kB T + e−2J/kB T q ξ −1 = − ln . J/kB T e cosh H/kB T + e2J/kB T sinh2 H/kB T + e−2J/kB T 92 Wenn das Magnetfeld H verschwindet, vereinfacht sich dies zu ξ = 1/ ln tanh(J/kB T ) . Wenn die Temperatur gegen Null geht, divergiert die Korrelationslänge. Die Korrelationslänge ist proportional zur typischen Ausdehnung von Blöcken parallel ausgerichteter Spins. Mit sinkender Temperatur werden diese Blöcke immer größer, aber die Magnetisierung des Systems bleibt Null, da im thermodynamischen Limes N → ∞ der Anteil der nach oben und unten orientierten Spins gleich ist. Wenn das Feld H nicht verschwindet, ist der Anteil der Spins, die parallel zum Feld orientiert sind, größer als der Anteil, der in der entgegengesetzte Richtung orientiert ist. Der Mittelwert hσi i ist also von Null verschieden. Wenn man jetzt die Temperatur gegen Null gehen lässt, geht auch die Korrelationslänge gegen Null, da die Größe derjenigen Blöcke gegen Null geht, die von der Orientierung in Richtung Feld abweichen. 7.5 Das zweidimensionale Isingmodell und die Ortsraumrenormierung Eine sehr leistungsfähige Methode in der Analyse kritischer Systeme ist die Renormierung. Sie beruht auf der Annahme, dass kritische Systeme skaleninvariant sind, dass sie also auf verschiedenen Längenskalen gleich aussehen. Für diese Annahme gibt es eine Reihe von Hinweisen: • In der Umgebung des kritischen Punktes gelten Potenzgesetze, die erst jenseits der Korrelationslänge zusammenbrechen. Potenzgesetze bedeuten aber Skaleninvarianz. • Die Werte der kritischen Exponenten werden durch makroskopische Eigenschaften des Systems bestimmt und hängen nicht von mikroskopischen Details ab. Das bedeutet, dass auf verschiedenen Längenskalen dieselben Mechanismen für die kritischen Eigenschaften des Systems verantwortlich sind. Bei der Renormierungsmethode, die in diesem Abschnitt vorgestellt wird, der Ortsraumrenormierung, wird die Längenskala des Systems geändert. Skaleninvarianz bedeutet, dass das daraus resultierende System im Wesentlichen identisch mit dem ursprünglichen ist. Diese Bedingung liefert Fixpunkte der Renormierungstransformation, die kritische Punkte sind oder ganz homogene Systeme. Wir werden dies nun am Beispiel des zweidimensionalen Isingmodells vorführen. Wir beginnen mit dem in Abbildung 7.11 gezeigten quadratischen Gitter. Die Zustandssumme ist P P X X e(J/kB T ) <ij> σi σj ≡ eK <ij> σi σj , e−H/kB T = Z≡ {σi } {σi } wobei die Summe in der Exponentialfunktion über nächste-Nachbar-Paare < ij > genommen wird. Wir ändern die Längenskala des Systems, indem wir die Spur über die Spins auf den hell gezeichneten Gitterplätzen nehmen. Es entsteht eine Zustandssumme mit einer neuen Hamiltonfunktion, die nur noch von den √ verbleibenden Spins abhängt. Das verbleibende Gitter hat eine Gitterkonstante, die um den Faktor 2 größer ist. Skaleninvarianz bedeutet, dass nach wiederholter Anwendung dieser Transformation (nachdem die mikroskopischen Details eliminiert sind) die im Exponenten von Z stehende Hamiltonfunktion sich nicht weiter ändert. Wir greifen einen Spin, σ0 , heraus und untersuchen explizit, welche Terme durch seine Elimination entstehen: Der Beitrag zu Z, der σ0 enthält, ist der Faktor eKσ0 (σ1 +σ2 +σ3 +σ4 ) . Spurbildung über die beiden Einstellungen dieses Spins liefert A ≡ eK(σ1 +σ2 +σ3 +σ4 ) + e−K(σ1 +σ2 +σ3 +σ4 ) = 2 cosh(K(σ1 + σ2 + σ3 + σ4 )) . 93 σ2 σ1 σ3 σ0 σ4 Abbildung 7.11: Dezimierung auf dem Quadratgitter. Über die Spins auf den hell gezeichneten Plätzen √ wird die Spur gebildet. Das neue, gestrichelte Gitter hat eine Gitterkonstante, die um den Faktor 2 größer ist als die des alten Gitters. Dieser Ausdruck kann nur drei verschiedene Werte annehmen: (i) A1 ≡ e4K + e−4K = 2 cosh 4K , wenn alle vier Spins dasselbe Vorzeichen haben; (ii) A2 ≡ e2K + e−2K = 2 cosh 2K , wenn drei Spins dasselbe Vorzeichen haben und der vierte Spin das andere; (iii) A3 ≡ 2 , wenn zwei Spins das eine Vorzeichen haben und zwei das andere. Wir wollen A nun so umschreiben, dass man die Beiträge zur neuen Hamiltonfunktion ablesen kann, also dass es die Form B = ea+b(σ1 σ2 +σ1 σ3 +σ1 σ4 +σ2 σ3 +σ2 σ4 +σ3 σ4 )+cσ1 σ2 σ3 σ4 hat. Die im Exponenten auftretenden Beiträge sind unter allen möglichen diejenigen, die mit den bestehenden Symmetrien in A vereinbar sind. A ist invariant, wenn alle Spins geflippt werden oder wenn zwei Spins vertauscht werden, und dasselbe muss folglich für B gelten. Die drei Gleichungen zur Bestimmung von a, b und c sind die folgenden: A1 = ea+6b+c , A2 = ea−c , A3 = ea−2b+c . Die Division A1 /A3 liefert b= A1 A33 A2−4 liefert c= 1 ln cosh 4K . 8 1 (ln cosh 4K − 4 ln cosh 2K) . 8 94 A1 A33 A42 liefert 1 (ln cosh 4K + 4 ln cosh 2K + ln 128) . 8 Elimination der Spins auf den hell gezeichneten Gitterplätzen erzeugt also nicht nur Kopplungen zwischen nächsten Nachbarn (wie σ1 und σ2 auf dem neuen Gitter, sondern auch zwischen übernächsten Nachbarn (wie σ1 und σ3 ), und Vierspinprodukte. Man kann sich vorstellen, dass beim nächsten Eliminationsschritt noch mehr neue Kopplungen und noch höhere Spinprodukte erzeugt werden. In einer exakten Rechnung müssten all diese Kopplungen berücksichtigt werden. An dieser Stelle wird nun eine Näherung gemacht. Im Folgenden beschränken wir uns auf die Zweispinkopplungen zwischen nächsten und übernächsten Nachbarn und vernachlässigen alle höheren Kopplungen. In unserem Beispiel kann man nachrechnen, dass der erzeugte Beitrag c zur Vierspinkopplung am kritischen Punkt viel kleiner ist als die Zweispinkopplung b, so dass ihre Vernachlässigung gerechtfertigt werden kann. Durch diese Näherung erhalten wir auch nur genäherte Werte für den kritischen Punkt und die kritischen Exponenten. Wir schreiben also X X H/kB T = −K σi σj − L σi σj a= NN uN N für die Hamiltonfunktion vor dem Eliminierungsschritt und X X H′ /kB T = −K ′ σi σj − L′ σi σj NN uN N für die Hamiltonfunktion nach dem Eliminierungsschritt. N N steht für nächste-Nachbar-Paare auf dem betrachteten Gitter, und uN N für übernächste-Nachbar-Paare. Im Prinzip müssen wir nun die obige Rechnung unter Berücksichtigung der Kopplung L wiederholen und nach der Elimination sämtlicher Spins auf den hellen Gitterplätzen den Wert von K ′ und L′ ablesen. Aber auch diese Rechnung ist noch recht kompliziert, und wir machen zwei weitere Vereinfachungen: Erstens entwickeln wir in K, so dass in führender Ordnung b = K 2 ist. Zweitens lesen wir direkt aus Abbildung 7.11 ab, welches die wichtigsten Beiträge zu K ′ und L′ sind: Jede Kopplung K ′ bekommt zweimal einen Beitrag b, da ja auf beiden Seiten ein Nachbar eliminiert wird. Außerdem gibt es noch einen Beitrag L, da die übernächste-NachbarKopplung nach der Elimination zur nächsten-Nachbar-Kopplung geworden ist. Also ist K′ L′ ≃ 2K 2 + L ≃ K2 . (7.18) Diese Transformation hat drei Fixpunkte (K ∗ , L∗ ): 1. K ∗ = L∗ = 0: Dieser Fixpunkt beschreibt ein System aus ungekoppelten Spins. Solch ein System liegt bei unendlicher Temperatur vor. 2. K ∗ = L∗ = ∞: Dies bedeutet T = 0. Die Kopplungen sind so stark, dass alle Spins parallel sind. 3. K ∗ ≡ Kc∗ = 1/3, L∗ ≡ L∗c = 1/9: Dies ist der kritische Punkt. In Abbildung 7.12 ist das aus (7.18) resultierende Flussdiagramm dargestellt. Ein Pfeil verbindet einen Punkt (K, L) mit dem sich nach zwei Iterationen ergebenden Punkt. (Punkte nach jeder Iteration zu zeichnen, würde das Diagramm unübersichtlich machen, da aufgrund eines negativen Eigenwertes (s.u.) Oszillationen auftreten.) Man kann in diesem Diagramm alle drei Fixpunkte erkennen. Man sieht auch, dass die beiden trivialen Fixpunkte attraktiv sind, d.h. dass die Iteration die Kopplungen immer näher zu diesem Fixpunkten bringt. Der kritische Punkt ist instabil, denn selbst wenn die Kopplungen anfangs in seiner Nähe sind, laufen sie irgendwann weg von ihm. Dieses Ergebnis macht Sinn: Je mehr Iterationen wir machen, auf desto größeren Längenskalen betrachten wir das System. Wenn das System nicht genau am kritischen Punkt ist, hat es eine endliche Korrelationslänge, und auf genügend großen Skalen ist das System nicht mehr kritisch. Befindet man sich in der Hochtemperaturphase, sind auf genügend großen 95 Abbildung 7.12: Das aus (7.18) resultierende Flussdiagramm. Abständen die Spinorientierungen unabhängig voneinander, und man ist folglich am Hochtemperaturfixpunkt K = L = 0. Befindet man sich in der Tieftemperaturphase, sind auch auf großen Abständen die Spinorientierungen gekoppelt. Dass die Kopplungsstärke unter der Iteration (7.18) gegen Unendlich geht bedeutet, dass Abweichungen von der Vorzugsspinorientierung nur auf kurzen Skalen (in Form von kleinen “Tröpfchen” der falschen Orientierung) auftreten und man sie folglich auf genügend großen Skalen nicht mehr sieht. Um die kritischen Exponenten zu erhalten, linearisieren wir die Rekursionsrelationen (7.18) in der Umgebung des kritischen Punktes, K = Kc∗ + δK, L = L∗c + δL, und erhalten δK ′ 4Kc∗ 1 δK 4/3 1 δK = = δL′ 2Kc∗ 0 δL 2/3 0 δL Die Eigenwerte der Transformationsmatrix sind λ1 = √ 1 (2 + 10) ≃ 1.7208 3 und √ 1 λ2 = (2 − 10) ≃ −0.3874 , 3 √ √ und die Eigenvektoren sind ~v1 = (1, ( 10 − 2)/3) und ~v2 = (1, (− 10 − 2)/3). Da |λ2 | < 1 ist, wird nach einigen Iterationen der Vektor (δK, δL) parallel zu ~v1 . Wir haben dann (δK ′ , δL′ ) = λ1 (δK, δL) . Den Exponenten √ √ ν erhalten wir, wenn wir uns bewusst machen, dass eine Iteration die Korrelationslänge ξ auf ξ ′ = ξ/ 2 verkürzt, und dass δK ≃ −J(T − Tc )/kB Tc2 ist. Also ist (δK ′ )−ν = (δK)−ν / 2, und ν = ln 2/2 ln λ1 ≃ 0.638 . Zum Vergleich: der exakte Wert von ν ist 1. 96 Betrachten wir noch P den Effekt eines endlichen Magnetfeldes auf die Ortsraumrenormierung, und addieren einen Term −h i σi zu H/kB T . Eine genäherte Rekursionsrelation kann wieder intuitiv aufgestellt werden. Auf die verbleibenden Spins wirkt direkt das Feld h und durch die orientierende Wirkung des Feldes auf die eliminierten Nachbarspins ein Zusatzfeld Kh, also insgesamt h′ = h + Kh . Die Fixpunktwerte dieser Rekursionsrelation sind h∗ = 0 und und h∗ = ∞. In der Umgebung des kritischen Punktes ergibt sich 4 h′ = (1 + Kc∗ )h = h . 3 Wir haben also einen weiteren Eigenwert λh = 4/3 der linearisierten Rekursionsrelationen. Da λh > 1 ist, wächst ein anfänglich kleines Feld an unter Renormierung, ebenso wie das mit |T − Tc | passiert. Auch wenn man auf kleinen Längenskalen ein schwaches Magnetfeld kaum wahrnimmt, sieht man auf größeren Skalen, dass die Spins eine Vorzugsrichtung haben. Aus λ1 und λh kann man durch allgemeine Überlegungen die kritischen Exponenten und die Skalenrelationen zwischen ihnen bestimmen kann. Die in diesem Abschnitt vorgerechnete Ortsraumrenormierung ist nur eine von vielen möglichen. Andere Ortsraumrenormierungen führen Blockspins ein, d.h. sie fassen eine Gruppe von Spins zusammen und ersetzen sie durch einen neuen Spin, der die Orientierung der Mehrzahl der Spins in der Gruppe hat. Die neuen Kopplungen zwischen den neuen Spins werden näherungsweise berechnet. Wieder andere Renormierungen vermeiden das Erzeugen der höheren Kopplungen, indem sie zuerst Verbindungen zwischen Spins parallel verschieben so dass jeder zu eliminierende Spin nur noch zwei Nachbarn hat, und dann die Spur über die zu eliminierenden Spins bilden. Alle diese Renormierungsverfahren sind um so besser, je kleiner die Terme sind, die von ihnen vernachlässigt werden. Da aber in vielen Fällen die Größe der vernachlässigten Terme schwer abzuschätzen ist, ist die Ortsraumrenormierung oft unkontrolliert. Eine alternative Methode, die Impulsraumrenormierung, wird daher meist bevorzugt. Übungsaufgaben zu Kapitel 7 1. Betrachten Sie Abb. 7.1 auf Seite 81. Zieht sich die dieser Abbildung zugrunde liegende Substanz beim Schmelzen zusammen oder dehnt sie sich aus? Verwende zur Beantwortung die ClausiusClapeyron-Gleichung. 2. Für ein Gemisch von k idealen Gasen gilt: E= k X Ni ciV T i=1 S= k X Ni (ciV ln T + R ln i=1 V ) Ni Berechnen Sie die chemischen Potentiale µi (T, V, N1 , . . . , Nk ). 3. Proteine können gleichzeitig mehrere kleinere Moleküle (Liganden) an sich binden. Gegeben sei ein Protein, an das sich bis zu n dieser Moleküle an verschiedenen Bindungsplätzen anlagern können. Ein Protein lässt sich also durch die Konfiguration {α}= (ein Vektor aus n Elementen 1 und 0) charakterisieren, wobei eine 1 an der i-ten Stelle bedeutet, dass am i-ten Bindungsplatz ein Ligand gebunden ist, während eine Null bedeutet, dass dort kein Ligand gebunden ist. Die Gesamtzahl der Einsen, also der an das Protein gebundenen Liganden sei ν. Betrachte nun dieses Protein und den Liganden in einer wässrigen Lösung. Sei µ1 das chemische Potenzial der Liganden, und µ{α} das chemische Potenzial der Proteine, die im Zustand {α} sind. Die Zahl der nicht gebundenen 97 Liganden sei N1 und die der Proteine im Zustand {α} sei N{α} . Zeigen Sie durch Minimieren der freien Enthalpie, dass im Gleichgewicht für alle Paare {α′ }, {α} die Bedingung µ{α′ } − ν ′ µ1 = µ{α} − νµ1 gilt. 4. Was ist der Ordnungsparameter für die in der Vorlesung erwähnten Ordnungs-Unordnungsübergänge? Für einen Antiferromagneten? Für Supraleiter? 98