EXPERIMENTELLE PHYSIK IV Statistik-ThermodynamikFestkörperphysik Skriptum zur Vorlesung von Hrn. Prof. Pfeiler Sebastian Stefanitsch, Manuel Bahr Skript großteils übernommen von SS07, Georg Kopsky Inhaltsverzeichnis 1 Statistische Physik 1.1 Elementare Statistik und Wahrscheinlichkeitsverteilung . . . . . . . . . . . . . . 1.1.1 Grundgriffe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.2 Die eindimensionale Zufallsbewegung (random walk → Diffusion) . . . 1.1.3 Mittelwertbildung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.4 Die Gauß’sche Wahrscheinlichkeitsverteilung . . . . . . . . . . . . . . . 1.2 Statistik von Vielteilchensystemen . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.1 Mikroskopische Beschreibung des Systemzustandes, Zustandsraum . . . 1.2.2 statistisches Ensemble und Makrozustände . . . . . . . . . . . . . . . . . 1.2.3 Das grundlegende Postulat . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.4 Mikrokanonische Zustandssumme und Berechnung der Wahrscheinlichkeit makroskopischer Parameter . . . . . . . . . . . . . . . . . . . . . . . 1.2.5 Teilchen im 3-dimensionalen Kasten . . . . . . . . . . . . . . . . . . . . 1.3 Thermische Wechselwirkung und repräsentative Ensembles physikalischer Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.1 Thermische Wechselwirkung zwischen makroskopischen Systemen . . . 1.3.2 Thermisches Gleichgewicht und Temperatur . . . . . . . . . . . . . . . . 1.3.3 statistische Physik und Thermodynamik . . . . . . . . . . . . . . . . . . 1.3.4 Systeme in Kontakt mit einem Wärmereservoir, kanonische Zustandssumme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 2 2 2 5 9 13 17 17 21 22 22 25 27 27 31 33 36 1 Statistische Physik Nun wir haben uns im letzten Semester mit Systemen aus wenigen Teilchen beschäftigt (Atome, Systeme Nukleonen, Elementarteilchen) Statistische Physik beschäftigt sich aus Systemen mit vielen Teilchen (Gase, Flüssigkeiten, Photonensysteme) Wir unterscheiden zwischen mikroskopischen und makroskopischen Systeme: • mikroskopisches Systeme: Dimension ≤ 1µ m (Atomare Dimension) • makroskopisches Systeme: sichtbar im Licht Mikroskop (≥ µm);ein System das aus vielen Atomen und Molekülen besteht – makroskopische Parametern: Volumen, Temperatur, Druck, Magnetisierung Ereignis: Ergebnis einer Messung (des Zustands eines Systems) Beispiel: Energie eines Gasmolekühls (Energie in gew. ∆E, Druckmessung, Wurf eines Würfels) Ereignis ist zufällig wenn es unter gewissen Bedingungen eintritt oder nicht eintritt. Eine Größe (Variable) ist dann zufällig, wenn sie unter bestimmten Bedingungen nur vom Zufall abhängig ist. Zufällige Größen charakterisieren wir durch die Wahrscheinlichkeiten (W) mit der ihre Werte auftreten. Die statistische Methode untersucht welche Regelmäßigkeiten fallen bei solchen Vorgängen aus vielen zufälligen Einzelereignissen auf. 1.1 Elementare Statistik und Wahrscheinlichkeitsverteilung 1.1.1 Grundgriffe Für die statistische Beschreibung werden im allgemeinen sogenannte Ensembles verwendet: • Ensemble ist die Gesamtheit (= statistisches Kollektiv = Schar) einer großen Zahl N von gleichen präperierten (= gleichen Randbedingungen unterworfen) Systemen Frage: Mit welcher W tritt ein bestimmtes Ereignis auf? Entweder: • je eine Messung an N gleichartigen Systemen → Enseblemittel = Scharmittel oder • N Messungen am selben System → Zeitmittel Wenn der Systemzustand zeitunabhängig ist, dann folgt das beide Methoden gleichwertig sind. Ein System ist genau dann im Gleichgewicht (GG), wenn das zugehörige Ensemble zeitunabhängig ist. 2 M . . . Anzahl der Möglichkeiten einander ausschließender Ergebnisse N . . . Gesamtzahl der Messungen Nj . . . Anzahl der Messungen die das Ergebnis j liefern (j = 1, 2, . . . , M ) Definieren: • die relative Häufigkeit (für das Ergebnis j): hj = Nj N ≤1 Nj N →∞ N • statistische Wahrscheinlichkeit (für das Ergebnis j): Wj = lim hj (N ) = lim N →∞ M ≤1 N Es gilt: ∑ Nj = N ⇐⇒ jede Messung muss ein Ergebnis aus M liefern ⇒ ∑ hj = 1 j=1 j=1 Additions und Multiplikation von Wahrscheinlichkeiten Die Wahrscheinlichkeit für das Auftreten irgendeines von zwei einander ausschließenden Ereignissen i und j: Ni oder j = Ni + Nj ⇒ Wi oder j = Wi + Wj . . . Additionssatz (1.1) Wahrscheinlichkeit für das gleichzeitige oder hintereinander in Serie auftretender zweier Ereignisse i, j die voneinander unabhängig sind: Wi und j = Wi ⋅ Wj . . . Multiplikationssatz (1.2) Wenn wir keine weiteren Annahmen machen können, können wir auch keine Vorhersagen über das Auftreten der M Ereignisse machen. Wenn wir aber die Annahme machen, das gleiche Wahrscheinlichkeit für das Auftreten der M Ergebnisse (gleiche a priori ..von vornherein Wahrscheinlichkeit der Elementarereignisse) ⇒ Wj wird unabhängig von j: Wj = 1 M 1 = Anzahl der möglichen Ereignisse 3 Beispiel 1: Würfel: Anzahl der Ereignisse M = 6 = 1,2,3,4,5,6 Experiment: Machen 100 Würfe → 17 mal 6 ⇒ W6 = 48 Würfe mit Augenzahl ≤ 3 W≤3 = 48 100 17 100 = 0.17 = 0.48 Beispiel 2: 10 Kugeln in einer Schachtel: 5 Rote, 3 Grüne, 2 Blaue Fragen uns wie groß ist die Wahrscheinlichkeit dass beim wahllosen hineingreifen die grüne Kugel gezogen wird?: Annahme: Wahrscheinlichkeit ist für jede Kugel gleich groß → Additionssatz: Wgrün = 1 10 1 1 + 10 + 10 = 0.3 Wie groß ist die Wahrscheinlichkeit dass die Grüne oder Blaue erwischt wird?: Additionssatz: Wgrün = 0.3, Wblau = 0.2 → Wgrün + Wblau = 0.5 Wie groß ist die Wahrscheinlichkeit zuerst grün, dann blau? Wgr dann bl = Wgrün ⋅ Wblau = 0.3 ⋅ 0.2 = 0.06 − wenn grün zurück gelegt wird! Wenn grüne Kugel draussen: W → 1 9 ⇒ Wgr dann bl 4 = Wgrün ⋅ Wblau = 0.3 ⋅ 2 9 = 0.067 1.1.2 Die eindimensionale Zufallsbewegung (random walk → Diffusion) Wir haben ein Teilchen welches eine Verschiebung vom Ursprung (auf x-Achse) erfährt Nach N Verschiebungen der Länge l befindet sich das Teilchen dann an der Stelle x = m ⋅ l (m ganz, −N ≤ m ≤ N , −N wenn nur Linkssprünge, N wenn nur Rechtssprünge) Frage: Wahrscheinlichkeit PN (m), dass Teilchen nach N Verschiebungen an bestimmter Stelle x = m ⋅ l ist? n1 Verschiebung nach rechts n2 Verschiebung nach links N = n1 + n2 resultierende Verschiebung (in Einheiten von l): m = n1 − n2 ⇒ resultierende Verschiebung vom Ursprung: m = n1 − n2 = n1 − (N − n1 ) = 2n1 − N (1.3) Aus (1.3) folgt natürlich sofort, dass m (un)gerade ist ⇔ N (un)gerade ist. Unter der Annahme, dass aufeinanderfolgende Sprünge statistisch unabhängig sind und kein Einfluss der Vorgeschichte besteht, definieren wir uns p als die Wahrscheinlichkeit für einen Sprung nach rechts und q = 1 − p für dasselbe nach links. Für die Frage nach der Wahrscheinlichkeit einer bestimmten Abfolge von Sprüngen benötigen wir nach dem vorigen Abschnitt das Produkt der Wahrscheinlichkeiten: p ⋅ p⋯p ⋅ q ⋅ q⋯q = pn1 ⋅ q n2 ´¹¹ ¹ ¹ ¸ ¹ ¹ ¹ ¹ ¶ ´¹¹ ¹ ¹ ¸¹ ¹ ¹ ¹¶ n1 n2 (1.4) (Produktsatz kommt ins Spiel Abfolge von Rechtssprünge n1 & Linkssprünge n2 ) Jetzt kommt die Kombinatorik ins Spiel. Die Kombination von n Elementen zu je m Teilen ohne Berücksichtigung der Anordnung ist ja bekanntlich gegeben durch: n! n ( )= m m!(n − m)! (1.5) Frage: Wieviele Möglichkeiten gibt es, die Sprünge so auszuführen dass n1 nach rechts und n2 nach links? N! N! N ( )= = n1 n1 !(N − n1 )! n1 !n2 ! 5 (1.6) Die Wahrscheinlichkeit, also das Objekt nach insgesamt N Sprüngen an einer bestimmten Stelle zu finden ergibt sich durch das Produkt aus Anzahl der Möglichkeiten und Wahrscheinlichkeit der Abfolge: PN (m) = WN (n1 ) = N! n1 n2 n1 !n2 ! p q N = ( ) pn1 (1 − p)N −n1 n1 (1.7) Das ist die altbekannte Binomialverteilung. Durch n1 = 12 (N +m) und n2 = N −n1 = N − 21 N − 12 m = 12 (N −m) lässt sich (1.7) anschreiben als: PN (m) = N! ( N +m )! ( N −m )! 2 2 p N +m 2 (1 − p) N −m 2 (1.8) Ein Spezialfall, nämlich die Gleichverteilung folgt aus p = q = 12 : PN (m) = N! 1 N ( ) ( N +m )! ( N −m )! 2 2 2 6 (1.9) Näherungen: √ N! ≅ 2πN ( N! ≅ ( N N ) e √ N! ≅ 2πN ( Beispiel: N=3 zunächst Abfolgen der Sprünge: N N ) e . . . Sterling Näherung . . . für große N 1 N N ) ⋅ e 12N e (1.10) . . . für kleine N N! n1 !n2 ! 1. alle 3 nach rechts: 3! n1 = 3 ⇒ 3!0! =1 2. 2 nach rechts 1 nach links: 3! n1 = 2 ⇒ 2!1! = 6/2 = 3 3. 1 nach rechts 2 nach links: 3! n1 = 1 ⇒ 1!2! =3 4. Analog zu 1 jetzt: Wahrscheinlichkeit das Teilchen nach 3 Sprüngen x = ml, p = q = n1 = 0, 1, 2, 3 ⇒ m = 2n1 − N = −3, −1, 1, 3 1 3 3 1 ⇒ P3 (m) = W3 (n1 ) = , , , 8 8 8 8 P3 (−3) = 3! 1 3 1 ⋅ ( ) = 8 0! ( 62 )! 2 ´¹¹ ¹ ¹ ¸¹ ¹ ¹ ¹ ¶ =1 7 1 2 (1.11) (1.12) Die Wahrscheinlichkeit das es an der Stelle 0 ist, ist nach mehreren Sprüngen höher, für die gleiche Wahrscheinlichkeit von Rechts- und Linkssprüngen. Abbildung 1: Binomiale Wahrscheinichkeitsverteilung für p = 0.6 und q = 0.4, wenn N = 20. Der Graph zeigt wieder die Wahrscheinlichkeit W (n1 ) für n1 Rechsverschiebungen bzw. die Wahrscheinlichkeit P (m) für die resultierende Verschiebung von m Einheiten nach rechts. Die Mittelwerte m und (∆m)2 sind ebenfalls gegeben. 8 Abbildung 2: Die Binomialverteilung für p = q = 1/2 und N = 20. Das Diagramm zeigt die Wahrscheinlichkeit WN (n1 ) für n1 Rechtsverschiebungen bzw. die Wahrscheinlichkeit PN (m) für eine resultierende Verschiebung um m Einheiten nach rechts. 1.1.3 Mittelwertbildung Wir betrachten die Variable u, M diskrete Werte: u1 , u2 , u3 , . . . , uM und die zugehörigen Wahrscheinlichkeiten: P (u1 ), P (u2 ), P (u3 ), . . . P (uM ) Definition Mittelwert: u= ∑M i=1 P (ui )ui ∑M i=1 P (ui ) (1.13) ∑M i=1 P (ui )f (ui ) ∑M i=1 P (ui ) (1.14) Allgemein für eine Funktion f (u): f (u) = 9 Im Allgemeinen ist die Wahrscheinlichkeit normiert im Intevall [0, 1], sodass: M ∑ P (ui ) = 1 (1.15) i=1 wodurch der Nenner bei Gleichung (1.13) und (1.14) wegfällt. Für die Mittelwerte gilt: • f (u) + g(u) = f (u) + g(u) • cf (u) = cf (u), c ∈ R Der Mittelwert u ist das Maß für den zentralen Wert von u. Die ui sind um u gestreut. Sehen wir uns noch die Abweichung vom Mittelwert ∆u = u−u an, so ergibt sich für normierte: M M M ∆u = (u − u) = ∑ P (ui )(u − u) = ∑ P (ui )ui − u ∑ P (ui ) = u − u = 0 i=1 i=1 (1.16) i=1 ´¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¸¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¶ ´¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¸ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹¶ u 1 Daher benötigen wir eine Größe für die Abweichung. ⇒ Schwankungsquadrat (= Streuung = Varianz): M (∆u)2 = ∑ P (ui ) (ui − u)2 ≥ 0 ⇔ ui = u ´¹¹ ¹ ¸¹ ¹ ¹ ¶ i=1 ´¹¹ ¸¹¹ ¹ ¶ ´¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¸¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¶ ≥0 ≥0 ∀ui ≥0 = (u − u)2 = u2 − 2uu + (u)2 = u2 − 2ūū +(u)2 ° 2(u)2 = u2 − (u)2 Ô⇒ u2 ≥ (u)2 (1.17) Daraus folgt nun die Definition der Standardabweichung: ∆∗ u = ∆u = √ (∆u)2 mittlere quadratische Abweichung Man beachte, dass im Allgemeinen u2 ≥ (u)2 ist (siehe (1.17)). 10 (1.18) Anwendung der Mittelwertbildung auf die Zufallsbewegung: Zuerst verifizieren wir die Normierungsbedingung der Wahrscheinlichkeitsverteilung W (n1 ): N N! pn1 q n1 −N = binomischer Lehrsatz = (1 − p + p)N = 1 n !(N − n )! 1 1 n1 =0 ∑ (1.19) Nun betrachten wir die mittlere Zahl der Sprünge nach rechts n1 : N N N! pn1 q n1 −N n1 = pN n !(N − n )! 1 n1 =0 1 n1 = ∑ W (n1 )n1 = ∑ n1 (1.20) Analog gilt das für n2 = N q Schwankungsquadrat von n1 : (∆n1 )2 = n21 − (n1 )2 Ð→ n1 = N p ⇒ (n1 )2 = N 2 p2 N n21 = ∑ W (n1 ) n21 = (n1 )2 + N pq n1 =0 ⇒ (∆n1 )2 = N pq = N p(1 − p) Schwankungsquadrat (1.21) Daraus folgt n1 + n2 = N und für die mittlere Gesamtverschiebung: m = n1 − n2 = N (p − q). √ √ Die Standardabweichung, also ∆n1 ist hier (∆n1 )2 = N pq. Sie ist ein Maß für die Breite der Verteilung. Jetzt bilden wir noch die relative Breite der Verteilung WN (n1 ): √ √ √ q ∆n1 N qp q 1 N →∞ √ = = =√ Ð→ 0 n1 Np p N Np (1.22) Hier fließt das Gesetz der großen Zahlen“ ein. Man erkennt sofort, dass im Falle der Gleich” verteilung, also p = q = 21 für die relative Breite ∆n1 1 ∝√ n1 N gilt. 11 (1.23) Für resultierende Gesamtverschiebung m: (∆m)2 = 4(∆n1 )2 = 4N pq = 2N p(1 − p) 1 (∆m)2 = N . . . für p = q = 2 12 (1.24) 1.1.4 Die Gauß’sche Wahrscheinlichkeitsverteilung Die Binomialverteilung ist für große Zahlen aufgrund der Faktoriellen nur schwer handhabbar, daher wollen wir uns nun um die Entwicklung einer neuen Verteilung kümmern, die sozusagen große Zahlen erlaubt. Dies wird spätestens dann notwendig sein, wenn wir Systeme betrachten, die vielleicht 1024 Teilchen beinhalten. Wie in Abbildung 2 zu erkennen ist, hat W (n1 ) ein ausgeprägtes Maximum bei W (nmax ). Daraus ergeben sich zwei Dinge: 1. W (n1 ) ist unbedeutend für ein n1 , das weit weg ist von nmax , daher studieren wir in der Folge W (n1 ) nur in der Umgebung von nmax . 2. Es ergibt sich, dass weder n1 = 0, noch n1 = N , wenn nicht p ≈ 0 und oder q ≈ 0. D.h.: Wenn N groß ist, dann liegt n1 im Bereich von nmax . Damit dies gilt, muss ∣W (n1 + 1) − W (n1 )∣ << W (n1 ) sein. Anders ausgedrückt, variiert W sehr langsam in einer kleinen Umgebung von nmax . Wir betrachten aus diesen Gründen W als stetige Funktion von n1 Was uns jetzt zugute kommt, ist der Umstand, dass ln W sehr viel langsamer variiert als W selbst, weswegen wir eine gute Näherung für ln W (n1 ) im Bereich n1 ≈ nmax suchen. Setzen wir also den Logarithmus in die Binomialverteilung ein und setzen die Ableitung = 0 x! und verwenden die (gute!) Näherung d ln dx ≈ ln x. So ergibt sich das Maximum bei n1 = N p = n1 (1.25) Jetzt untersuchen wir das Verhalten von ln W in der Gegend des Maximums, also führen wir eine Taylorreihenentwicklung um n durch: ln W (n1 ) = ln W (n1 ) + d ln W 1 d2 ln W ∣ (n1 − n1 ) + ∣ (n1 − n1 )2 + . . . dn1 n1 2! dn21 n1 ´¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹¸ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¶ =0 13 (1.26) Man erkennt (oder auch nicht), dass d2 ln W N =− 2 n1 (N − n1 ) dn1 (1.27) und an der Stelle n1 = n1 gilt n1 = N p, sodass sich schreiben lässt: ln W (n1 ) = ln W (n1 ) − (n1 − n1 )2 2N pq (1.28) Bringt man schlußendlich noch den ln (mithilfe der Exponentialfunktion) weg, ergibt sich die bekannte GAUSS- oder Normalverteilung: ̃⋅e W (n1 ) = W − (n1 −n1 )2 2N pq ̃ = const ...W (1.29) Diese Verteilung geht natürlich gegen 0 für große (n1 − n1 ). ̃ zu berechnen. Wie so oft erhält man diese Machen wir uns nun noch daran, die Konstante W aus einer Normierungsbedingung, wie in diesem Falle N ∑ WN (n1 ) = 1 (1.30) ni =0 Wie wir bereits gesehen (oder besser gehofft) haben, ändert sich WN (n1 ) kaum, wenn n1 um 1 erhöht wird, d.h. wir können die Summe getrost durch ein Integral ersetzen. ∞ ∞ ̃e− ∫ WN (n1 ) dn1 = ∫ W −∞ (n1 −n1 )2 2N pq −∞ ∞ y2 ̃ ∫ e− 2N pq dy = 1 dn1 = W (1.31) √π ist. Somit folgt −∞ Dabei handelt es sich um ein Gauss’sches Integral, dessen Lösung einfach für die Konstante: ̃= √ 1 W 2πN pq a (1.32) Wenn Schrittlänge l klein gegen kleinste Länge L des physikalischen Problems (Beispiel: Sprunglänge im Festkörper ≙ Gitterkonstante) beobachtbare Länge L ≈ µm ⇒ P (m) als konstante Funktion der Variablen x, x wird konstante Variable im mirkoskopischen Maßstab. also: dx ist mikroskopisch groß, aber makroskopisch klein m = 2n1 − N m nimmt ganzahlige Werte im Abstand ∆m = 2 ⇒ in jeden Intervall dx liegen dx 2l Werte 14 Man kann die Gaussverteilung auch über die Mittelwerte formulieren, was zur sogenannten Standardform führt. Dabei schreibt man die Verteilung unter Verwendung der Mittelwerte an und fragt nach PN (m), wobei m die effektive Verschiebung ist. Danach fragt man sich nach der Wahrscheinlichkeit, das Objekt nach insgesamt N Sprüngen im Intervall [x, x + dx] zu finden. Das führt nach kurzer Überlegung auf P (x)dx = PN (m) dx 2l und das zur gewünschten Standardform der Gaussverteilung: −[m−N (p−q)]2 1 8N pq PN (m) = √ ⋅e 2πN pq ⇒ P (x)dx = (1.33) −[m−N (p−q)]2 dx 1 1 8N pq PN (m) = √ dx ⋅e 2l 2l 2πN pq (x−x)2 1 =√ ⋅ e− 2σ2 dx 2πσ 2 hier ist σ = ∆n1 (1.34) √ ∞ mit σ = 2l N pq und x = ∫−∞ P (x)xdx P (x) ist Wahrscheinlichkeitsdichte = Vertreilungsdichte Die Verteilung ist Maximal bei x = x. Die Schärfe des Maximums wird durch σ bestimmt. σ 2 = (x − x)2 . . . Schwankungsquadrat = Varianz σ . . . Standardabweichung xh . . . Funktionswert wenn P(x) auf die Hälfte gefallen es gilt: √ ∆xh = 2(xh − x) = 2 2ln2 ⋅ σ = 2.3548 σ √ √ 1 2 ln2 P (x) ⋅ ∆xh = √ 2 2ln2 σ = √ = const. π σ 2π ⇒ kleine Halbwärtsbreite ⇒ hohes Maximum und umgekehrt Für p << 1 ⇒ q ≈ 1 ⇒ Näherung für n << N , in diesem Fall ist sie die Poisson-Verteilung: WN (n1 ) = λn1 −λ e n1 ! 15 . . . λ = n1 = N p (1.35) λ bestimmt allein die Form der Verteilung! 16 1.2 Statistik von Vielteilchensystemen Wie schon der Titel sagt, wollen wir in diesem Kapitel Systeme beschreiben, die aus vielen Teilchen bestehen. Wir wollen thermodynamische Gesetze aus statistischer Beschreibung gewinnen. Insbesondere werden wir folgende Punkte eingehender behandeln: • Eine Beschreibung des Systemzustandes • Von statistischen Ensembles zu Wahrscheinlichkeitsaussagen • Das grundlegende Postulat der statistischen Physik und • Die dazu notwendige Wahrscheinlichkeitsrechnung 1.2.1 Mikroskopische Beschreibung des Systemzustandes, Zustandsraum Die hier betrachteten Systeme sind z.B. gekoppelte Oszillatoren, Gase, Fluide, Festkörper, u.v.m. Daraus folgt, dass die hier zu behandelnden Teilchen z.B. e− , Atome, Moleküle, . . . , sind. In der Quantenmechanik werden wir den Teilchen Wellenfunktionen zuordnen müssen, d.h. ein System wird durch einen Satz von Quantenzahlen charakterisiert. Ein spezieller Mikrozustand ist dann gegeben durch r = (n1 , n2 , . . . , nf ) (nf sind QZ des Systems), wobei f die Zahl der Freiheitsgrade des Systems ist. Mikrozustand eines Systems ist festgelegt durch Angabe seines Quantenzustands (QZ, die seinen Zustand festlegt). 17 Beispiele: 1. Ein ortsfestes Teilchen mit s = 1/2. Der Zustand ist also durch eine Quantenzahl gegeben, das entspricht einem Freiheitsgrad mit den zwei möglichen Werten ↑ bzw. ↓. (z.B.: im B-Feld hat es zwei Einstellmöglichkeiten) 2. N Teilchen mit festem Ort und s = 1/2. Hier wird der Systemzustand durch N Quantenzahlen festgelegt. ⇒ N QZ: m1 , . . . , mN 3. Der ortsfeste dreidimensionale harmonische Oszillator: ̵ Der Zustand wird durch die Energie festgelegt: En = hω(n + 1/2). Das bedeutet, er hat einen Freiheitsgrad, gegeben durch n = 0, 1, . . . 4. N (schwach) gekoppelte Oszillatoren: Hier gibt es N Quantenzahlen, die den Systemzustand beschreiben. Gesamtenergie E = En1 + En2 + ⋅ ⋅ ⋅ + EnN 5. Ein Teilchen ohne Spin, kräftefrei in 3 dim. Potential Topf mit eindimensionaler Breite L ̵ 2 π2 2 h → En = 2mL 2 n , n = 1, 2, 3, . . . jetzt 3-Dim: 0 ≤ x, y, z ≤ Lx , Ly , Lz E= ̵ 2 π 2 n2 n2y n2 h ( x+ + z) 2m L2x L2y L2z (1.36) 6. N nicht wechselwirkende (WW) Teilchen im Volumen V = L3 Gesamtenergie E = E1 + ⋅ ⋅ ⋅ + EN ⇒ Zustand festgelegt durch 3N QZ (n1x , n1y , n1z , . . . , nN x , nN y , nN z ) 18 (1.37) Klassische Beschreibung des Systemzustandes Wir betrachten ein einzelnes Teilchen in einer Dimension. Die vollständige Beschreibung gelingt durch die Ortskoordinaten q und die zugehörigen Impulse p. Wird bilden Zellen gleichen Volumens (hier gleiche Fläche), dies ergibt einen 2-dimensionalen Phasenraum des Systems. Der Punkt (q(t), p(t)) (p und q sind kontinuierliche Größen) ist der repräsentative Punkt, der sich im Phasenraum bewegt. Abbildung 3: Phasenraum in Zellen gleicher Flächen dp ⋅ dq = h0 geteilt. h0 hat die Dimension eines Drehimpulses, also einer Wirkung (hat Einheit [Js] und ist ein Skalar, kein Vektor) h0 = δpδq = F δtδq = F δq δt = Eδt ± (F = δp ) δt (1.38) E Der Systemzustand liegt im Intervall [q, q + dq] und [p, p + dp], d.h. der repräsentative Punkt befindet sich in einer Zelle des Phasenraums (In Abbildung 3 eine Fläche). Klassisch kann h0 beliebig klein gewählt werden, in der Quantenmechanik gilt aber die Hei” ̵ senberg’sche Unschärferelation“ dp ⋅ dq ≥ h2 . Jetzt betrachten wir ein Vielteilchensystem: Hier gibt es f Ortskoordinaten q1 , q2 , . . . , qf und f dazugehörige Impulse p1 , p2 , . . . , pf , sodass es insgesamt 2f Parameter für f Freiheitsgrade. 19 Beispiel: Sei ein System von N Massenpunkten: Dieses hat 3 Ortskoordinaten pro Teilchen, also f = 3N und daher insgesamt 6N Parameter für die Beschreibung des Systemzustandes. (z.B.: ideales Gas (keine WW)) Die mikroskopischen Orts- und Impulskoordinaten sind Koordinaten eines i.A. hochdimensionalen (nämlich 2f ) Phasenraum. Dieser Phasenraum wird auch Zustandsraum“, Gibb’scher Phasenraum“ oder Γ-Raum“ ” ” ” (Γ = Gamma) genannt. Γ = q1 , . . . , q f , p 1 , . . . , p f Einem Mikrozustand wird also ein Punkt im Phasenraum zugeordnet. Erinnern wir uns an die vorhin besprochene Zelle des Phasenraums, so besteht hier durchaus ein klassisches Analogon zu Quantenzuständen, bei denen alle möglichen Zustände durch die Quantenzahlen durchnumeriert werden. Zelleinteilung: ̵ f δq1 ⋯δqf ⋅ δp1 ⋯δpf = hf0 ≥ (2π h) (1.39) r(q1 , . . . , qf , p1 , . . . , pf (1.40) klassischer Mikrozustand: Beschreibung ähnlich zur QM: Eine Zelle r im Phasenraum Γ ist klassisches Analogon zum Quantenzustand r“ ” 20 1.2.2 statistisches Ensemble und Makrozustände Der Makrozustand“ eines Systems wird durch äußere Parameter, wie z.B. Energie, Volumen ” usw. festgelegt. Zu jedem Makrozustand gehören sehr viele Mikrozustände, nämlich all jene, die gleiche äußere Parameter besitzen. Nehmen wir viele gleiche Systeme her. Diese seien im selben Makrozustand. Die Mikrozustände sind i.A. verschieden. Jetzt bilden wir das sogenannte statistische Ensemble, durch das genau ein Makrozustand repräsentiert wird. Das statistische Ensemble ist also die Menge der repräsentativen Punkte im Phasenraum. Anders ausgedrückt: Nehmen wir an, wir haben ein ideales Gas, bestehend aus 2 Atomen. Es gibt genau 2 Punkte auf einer Geraden, wo sie sich befinden können. In einem Fall wird das erste links und das zweite rechts sitzen, im zweiten Fall umgekehrt. In beiden Fällen hat das Gas denselben Druck, die selbe Temperatur, etc.. Es gibt also zwei Mikrozustände, die zum selben Makrozustand führen. Wir benötigen noch den Begriff der zugänglichen“ Zustände des Systems. Das sind Mikro” zustände, die mit den äußeren Parametern verträglich sind. D.h. Ein Makrozustand ist charakterisiert durch die Wahrscheinlichkeit Pr für das Auftreten eines gewissen Mikrozustandes r. Pr = (P1 , P2 , . . . ) Frage: Wie groß ist das Pr ? Früher: Wahrscheinlichkeit für das Auftreten eines Ereignisses j aus N Messungen (Versuchen): Wj = lim N →∞ Nj Nj ≈ N N (1.41) Jetzt: M gleichartige Systeme In Mikrozustand r seien Mr der M Systeme Pr = lim M →∞ Mr M r ≈ M M . . . wenn M hinreichend groß (1.42) Makrozustand: nur durch Wahrscheinlichkeit seiner zugänglichen Mikrozuständen gegeben, also mit den Wahrscheinlichkeiten mit denen der Systemzustand mit einem der zugänglichen Mirkozustände übereinstimmt. 21 1.2.3 Das grundlegende Postulat Wir betrachten ein isoliert abgeschlossenes System. Dieses tauscht ja bekanntlich keine Energie mit seiner Umgebung aus, d.h. dtEgesamt = 0. Man kann dieses System also durch seine Energie E, bzw. durch ein Energieintervall [E, E + dE] charakterisieren. Daraus folgt, dass alle dem System zugänglichen Mikrozustände diese Energie haben müssen. Weiters findet man bei der Betrachtung eines isolierten Systems im Gleichgewicht, dass die Wahrscheinlichkeit, das System in einem gewissen Mikrozustand zu finden, zeitunabhängig ist, sowie auch die makroskopischen Parameter zeitunabhängig sind. Wir wissen jetzt, dass das System in einem seiner zugänglichen Zustände, vereinbar mit Er ist. Postulat: E IN ISOLIERTES S YSTEM IM G LEICHGEWICHT IST GLEICHWAHRSCHEINLICH IN JEDEM SEINER ZUG ÄNGLICHEN M IKROZUST ÄNDE Dieses grundlegende Postulat der gleichen a-priori-Wahrscheinlichkeiten1 erlaubt es uns, eine Verbindung herzustellen zwischen mikroskopischen Strukturen und makroskopischen Größen. 1.2.4 Mikrokanonische Zustandssumme und Berechnung der Wahrscheinlichkeit makroskopischer Parameter System im Gleichgewicht → Gesamtenergie erhalten ⇒ alle zugänglich Mikrozustände mit Gesamteenergie vereinbar. Energie ist nur mit endlicher Genauigkeit bestimmbar. Da die Energie nur mit endlicher Genauigkeit messbar ist und das liegt, wie wir wissen, nicht nur an der Geschicklichkeit eines Experimentators, definieren wir uns die mikrokanonische Zustandssumme als die Menge aller Mikrozustände, die für ein System mit E = E − δE, E zugänglich sind. Ω(E) = 1 ∑ r∶ E−δE≤Er ≤E 1 . . . mikrokanonische Zustandssumme lateinisch a von . . . her“ und lateinisch prior der vordere; also von vornherein“ ” ” ’ 22 (1.43) Ω(E): Zustände zwischen E − δE und E, abhängig von δE wählen δE: • mikroskopisch groß (z.B E-Differenzen des E-Niveaus) • makroskopisch klein (Gesamt-E) für große Teilchenzahlen Ω(E) konstante Funktion. ⇒ Entwicklung nach Potenzen von δE δE klein ⇒ nur linearer Term ⇒ Ω(E) ∝ δE Ω(E) = ρ(E)δ(E) (ρ(E) Zustandsdichte“ unabhängig von δE) ” Das grundlegende Postulat sagt uns ja, dass alle Mikrozustände Ω(E) gleichwahrscheinlich sind. Das führt uns auf: ⎧ 1 ⎪ ⎪ Pr = ⎨ Ω(E) ⎪ ⎪ ⎩0 . . . E − δE ≤ Er ≤ E . . . mikrokanonische Verteilung . . . sonst (1.44) Da ein Makrozustand ja gegeben ist durch Pr = (P1 , P2 , . . . ), liegt es auf der Hand, dass ein Makrozustand umso wahrscheinlicher ist, je mehr Mikrozustände er zulässt. Machen wir uns also jetzt daran, die Wahrscheinlichkeit für das Auftreten makroskopischer Parameter im Ensemble zu berechnen. Sei y ein beliebiger äußerer Parameter (z.B. Druck oder magnetisches Moment,. . . ). Dieser Parameter kann die Werte y ∶ y1 , y2 , . . . , yn annehmen. Insgesamt gibt es Ω Mikrozustände im betrachteten System. Ωi davon führt darauf, dass y den Wert yi annimmt. Wir brauchen jetzt die Wahrscheinlichkeit, dass sich das System in einem der Zustände Ωi befindet. Nach dem grundlegenden Postulat hat jeder Zustand Ωi die Wahrscheinlichkeit 1/Ω. D.h. wir bilden ∑ Ωi 1 1 = Ωi ⋅ Ω Ω (1.45) Daraus folgt für die Wahrscheinlichkeit für das Auftreten einer messbaren Größe yi : Pr (yi ) = Ωi Ωi (E, yi ) = Ω Ω(E) (1.46) Makrozustand charakterisieren ist realisierbar durch gewisse Anzahl gleicherwahrscheinlicher 23 Mikrozustände ⇒ jener häufiger, der durch mehr Mikrozustände realisierbar ist ⇒ Makrozustand ist umso wahrscheinlicher je mehr Mikrozustände er zulässt Aus der Definition des Mittelwertes folgt hier: n y = ∑ Pr (yi ) ⋅ yi = i=1 1 n ∑ Ωi yi Ω i=1 (1.47) und für das Schwankungsquadrat: n (∆y)2 = ∑ Pr (yi )(yi − yi )2 = i=1 1 n 2 ∑ Ωi (yi − yi ) Ω i=1 (1.48) Beispiel: Gegeben seien 3 ortsfeste Spin 21 -Teilchen. Die z-Achse eines Magnetfeldes sei vorgegeben. Die potentielle Energie ist durch das magnetische Dipolmoment −µB = Epot gegeben. Nehmen wir an, µ weise in/gegen die z-Richtung für m = ± 12 Wählen Gesamt-E: −µB ⇒ System ist Gleichwahrscheinlich: (+ + −), (+ − +), (− + +) • Die Wahrscheinlichkeit dafür, dass der Spin des 1. Teilchens nach oben weist? Ωi = 2, Ω = 3 Daraus folgt für P1 (+) = 23 • µz in positive z-Richtung vom 1.Teilchen? Ω = 3, y = µz , daher 2 Werte: y1 = +µ und y2 = −µ Die Anzahl der Zustände mit y1 ist also Ω1 = 2 und mit y2 ist Ω2 = 1. y = µz = 1 1 (2µ + 1(−µ)) = µ 3 3 24 1.2.5 Teilchen im 3-dimensionalen Kasten Teilchen im Kastenpotential: Bilden wir einen 3D Kasten mit den Kanten: Lx = Ly = Lz = L, so ist die Energie eines Teilchens darin durch die QM gegeben durch: E= ̵ 2π2 h L2 2 2 2 2 2 2 2 (n + n + n ) ⇒ n + n + n = x y z x y z ̵ 2 2mE = R 2mL2 π2h Wir bilden den Zustandsraum (aus den QZ) mit Achsen: nx , ny , nz Das gesuchte der Zustandssumme liegt zwischen E − δE und E 25 (1.49) Formel (1.49) ist der Radius einer Kugel im nx − ny − nz −Raum. Für eine gegebene Energie befinden sich die Werte nx , ny , nz auf einer Kugeloberfläche mit Radius R. Der gleich auftauchende Faktor 1/8 rührt daher, dass nur positive Werte von ni physikalisch sind und wir daher nur einen Kugeloktanten brauchen. Betrachten wir erst nur Zustände mit Φ(E) ≤ E, so folgt für sie: Φ(E) = 3 1 4 3 π L 3 ( πR ) = ( ̵ ) (2mE) 2 8 3 6 πh (1.50) Φ(E) = Gesamtzahl der Zustände mit Energie ≤ E Wie wir vorhin gesehen haben, gilt Ω(E) = Φ(E) − Φ(E − δE) (Wählen δE mikroskopisch groß, aber makroskopisch klein ⇒ Ω(E) stetige, kontinuierliche Funktion), und damit dΩ Φ(E) − Φ(E − δE) = dE δE (1.51) Daraus folgt nach der Durchführung des Limes: Ω= dΦ δE dE (1.52) wobei wir den Differentialquotienten definieren als ρ(E) und als Zustandsdichte bezeichnen. Für die mikrokanonische Gesamtheit folgt dann insgesamt (mit V = L3 ): Ω(E) = 1 3 1 3π L 3 V ( ̵ ) (2mE) 2 2mδE = 2 ̵ 3 (2m) 2 E 2 δE 2 6 πh 4π h 26 (1.53) √ Interessant ist in diesem Zusammenhang, dass ρ(E) ∝ 1.3 E ist. Thermische Wechselwirkung und repräsentative Ensembles physikalischer Systeme ⇒ Energieniveus sind auch von x = (x1 , . . . , xn ) abhängig. → Er = Er (x1 , . . . , xn ) Mikrozustand: r = (n1 , . . . , nf ), für x = (x1 , . . . , xn ). Makrozustand: Satz von Wahrscheinlichkeiten Pr = (P1 , . . . , Pn ), für x = (x1 , . . . , xn ). ⇒ Durch Änderung der äußeren Parameter ändern sich auch die Mikro- und Makrozustände. 1.3.1 Thermische Wechselwirkung zwischen makroskopischen Systemen Wir betrachten 2 Systeme A1 und A2 mit der Energie E1 und E2 , die in Einheiten von δE skaliert ist. Die zugänglichen Zustände seien: A1 → Ω(E1 ), E1 − δE ≤ E1r ≤ E1 A2 → Ω(E2 ), E2 − δE ≤ E2r ≤ E2 Es seien zwar die äußeren Parameter xi fest, aber die Systeme NICHT voneinander isoliert, d.h. ein Energieaustausch zwischen A1 und A2 ist möglich. Aus diesem Grund betrachten wir ein zusammengesetztes System A∗ ≡ A1 + A2 mit E ∗ = E1 + E2 = const. Wenn E1 also von A1 gegeben ist, folgt daraus E2 = E ∗ − E1 . Treffen wir die Annahme, dass A1 mit A2 im Gleichgewicht ist, so ist zwingend auch A∗ im Gleichgewicht und daher ist das grundlegende Postulat anwendbar auf A∗ . Frage: Was ist Wahrscheinlichkeit P (E), dass A1 den Wert E1 hat, wodurch A2 den Wert E2 = E ∗ − E1 hätte? Laut Voraussetzung sind alle zugänglichen Zustände von A∗ gleichwahrscheinlich, was einer Zustandssumme Ω∗total entspricht. Unsere Frage muss daher lauten: Wieviele Mikrozustände Ω∗ (E1 ) erlauben, dass A1 den Wert E1 hat? Dies können wir bereits beantworten: P (E1 ) = Ω∗ (E1 ) = c ⋅ Ω∗ (E1 ) Ω∗total 27 mit c = 1 Ω∗total (1.54) Bleibt nur noch nach Ω∗ (E1 ) zu fragen. Bei gleichzeitigem Auftreten hat A1 . . . E1 zugängliche Zustände Ω1 (E1 ) und A2 . . . E2 = E ∗ − E1 zugängliche Zustände Ω2 (E ∗ − E1 ) Jeder zugängliche Zustand von A1 und A2 trägt zu den zugänglichen Zuständen von A∗ bei. Zugänglicher Zustand von A∗ bedeutet gleichzeitige Auftreten eines Zustands vonA1 und A2 ⇒ Multiplikationssatz. woraus folgt, dass Ω∗ (E1 ) = Ω1 (E1 ) ⋅ Ω2 (E ∗ − E1 ) und somit P (E1 ) = c ⋅ Ω1 (E1 ) ⋅ Ω2 (E ∗ − E1 ) (1.55) Frage: Wie sieht es nun aus mit P (E1 ) als Funktion f (E1 )? A1 , A2 sind makroskopische Systeme ⇒ sehr viele Freiheitsgrade. ⇒ Ω1 (E1 ), Ω2 (E) wachsen sehr schnell mit E1 und E2 (Kugelvolumen). Wenn E1 wächst, steigt Ω1 (E1 ) sehr stark und Ω1 (E2 ) fällt sehr stark. ⇒ P (E1 ) steigt für große Systeme → scharfes Maximum. 28 Ω1 (E1 ) und Ω2 (E2 ) wachsen ja enorm mit E1 . Bei konstantem E ∗ steigt Ω1 (E1 ) mit E1 und fällt Ω2 (E ∗ − E). Daraus folgt, dass P (E) ein ausgeprägtes Maximum bei, sagen wir Ê mit Breite ∆E << E1 hat. Begeben wir uns auf die Suche nach diesem Maximum. Zugute kommt uns hierbei, dass ln(P (E)) viel schwächer variiert, als P (E), so kommen wir auf: ln P (E1 ) = ln(c) + ln(Ω1 (E1 )) + ln(Ω2 (E2 )) (1.56) Wobei wir uns nochmal in Erinnerung rufen, dass Ê1 , Ê2 die Energiewerte von A1 , A2 für P (E) = max sind. Es gilt also: β1 (Ê1 ) = β2 (Ê2 ) mit β1 (E1 ) = . . . Bedingungsgleichung ∂ ln Ω1 1 ∂Ω1 = ∂E1 Ω1 ∂E1 29 (1.57) (1.58) β hat die Dimension einer reziproken Energie und veranlasst uns, einen neuen Parameter T so einzuführen, dass T11 ≡ kT1 gilt. k hat die Dimension einer Energie und sei vorerst noch beliebig. Später werden wir finden, dass es sich hierbei um die Boltzmannkonstante handelt. ln Ω1 , dann können wir T11 anschreiben als: Sei also β1 = kT1 1 = ∂∂E 1 1 k ∂ ln Ω1 ∂S1 = = T1 ∂E1 ∂E1 (1.59) und schon haben wir eine bekannte Größe gefunden, die Entropie: S1 = k ⋅ ln Ω1 . . . Boltzmann’sche Entropiegleichung (1.60) Wie man in Gleichung (1.60) sieht, ist sie das logarithmische Maß für die Anzahl der zugänglichen Zustände des Systems. Frage: Was hat das nun für Konsequenzen für unser Pmax (E1 )? Wir müssen logarithmieren: ln P (E1 ) = ln(c) + ln Ω1 (E1 ) + ln Ω2 (E2 ) ´¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¸¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¶ ´¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¸¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¶ S1 k Daraus folgt, dass: (1.61) S2 k P (E1 ) = max ⇔ S ∗ = S1 + S2 = max Nebenbei sei bemerkt, dass ja dann wie oben bereits gezeigt auch β1 (Ê1 ) = β2 (Ê2 ) gilt und damit kT1 1 = kT1 2 woraus folgt: T1 = T2 Also: A1 hat genau die Energie, bei der S ∗ von A∗ maximal ist. Nur dann ist das Gesamtsystem A∗ so gleichmäßig wie möglich über alle zugänglichen Mikrozustände verteilt. Damit gibt es eine Größe, welche die Unordnung beschreibt. Diese Größe ist eben die Entropie. Sie ist ein Maß für die Unordnung eines makroskopischen Systems. Durch Gleichung (1.60) wird eine Verbindung hergestellt zwischen mikroskopischer Struktur (Ω1 ) und den makroskopischen Messgrößen S1 und T1 . Sie ist eine der zentralen Gleichungen der statistischen Physik und wurde 1877 von Ludwig Boltzmann aufgestellt. heißt: ⇒ System über größtmögliche Zahl von Mikrozustandes verteilt ⇒ gleichmäßigste“ Verteilung der makroskopischen Systems auf seine zugängliche Mikro” zustände ⇒ Mikrozustand maximal unbestimmt ⇒ System im Zustand maximaler Unrodnung“ ” ⇒ Die Entropie ist ein Maß für die Unordnung eines Makroskopischen Systems 30 1.3.2 Thermisches Gleichgewicht und Temperatur Wahrscheinlichkeit P (E1 ) soll scharfes Maxima bei E1 = Ẽ1 haben. Systeme in Kontakt: Gleichgewicht mit großer Wahrscheinlichkeit A1 ∶ E1 = Ẽ1 A2 ∶ E2 = E ∗ − Ẽ1 Zeitpunkt t = 0 Systeme in Kontakt: 0 A1 , Ē1 0 A2 , Ē2 i.A.: Ē1 , Ē2 unwahrscheinlich Energien für A∗ 0 0 Wartezeit t = t∞ ∞ Ē1 = Ẽ1 , . . . , sodass P (E1 ) max. ∞ ∞ ⇒ β1∞ = β1 (Ē1 ) = β2∞ = Ē1 und daraus folgt: T1∞ = T2∞ (1.62) P (E1 ) ist max heißt: S ∗ ist max ⇒ Anstreben“ von T1 = T2 heißt: ” Entropieaustausch erfolgt so, dass Gesamtentropie maximal wird. ∞ bzw. ∞ ∞ 0 0 S1 (E 1 ) + S2 (E 2 ) ≥ S1 (E 1 ) + S2 (E 2 ) ∞ 0 0 S1 (E 1 ) − S1 (E 1 ) + S2 (E 2 ) − S2 (E 2 ) = ∆S1 + ∆S2 ≥ 0 Die Entropie eines abgeschlossenen Systems nimmt beim Anstreben des GG-Wertes immer zu. 2. HS der THermodynamik aus statistischen Prinzipien abgeleitet Der Index ∞ soll die unendlichlange Wartezeit andeuten, bis sich die Systeme im Gleichgewicht befinden. Zwei Dinge sind zum Parameter β zu sagen: 1. Wenn zwei Systeme für sich im Gleichgewicht sind, aber β für beide denselben Wert hat, dann ist bereits ein Gleichgewicht erreicht und somit bei Kontakt auch kein Energieaustausch mehr im Gange. 2. Wenn der Wert von β aber nicht der gleiche ist, dann bleiben die Systeme solange nicht im Gleichgewicht, bis Gleichung (1.62) ereicht ist. 31 Die folgende Bemerkung wird auch als 0-ter Hauptsatz der Thermodynamik“ bezeichnet: ” Für drei Systeme A, B und C gilt: • A ist in Kontakt und Gleichgewicht mit C ⇒ βA = βC • B ist in Kontakt und Gleichgewicht mit C ⇒ βB = βC Daraus folgt: A und C sind im Gleichgewicht Wenden wir uns noch kurz dem Parameter T zu, so wissen wir • Boyle-Mariotte: für festes T gilt: pV = const (. . . isotherm) • Gay-Lussac: V T = const (. . . isobar) • ideale Gasgleichung: pV = cT • Ausdehnungskoeffzient: α = • kin. Gastheorie: p̄ = 1 V 1N ⟨v 2 ⟩ 3V m ( ∂V ) ∂T p = 1 c V p = 1 T =C ⋅T Frage: Wie können wir eine Temparaturskala entwickeln? Aus der kinetischen Gastheorie wissen wir, dass der Druck als Impulsübertragung anzusehen ⟨v 2 ⟩, und damit p̄V = 32 N ⋅ 12 m ⟨v 2 ⟩. ist, also p̄ = 31 N V m ´¹¹ ¹ ¹ ¹ ¹ ¸¹ ¹ ¹ ¹ ¹ ¹ ¶ Ekin 3 2 kT Setzen wir Ekin = (=kalorische Zustandsgleichung), so ist die Gesamtenergie Ē = 32 N kT . Wenn wir jetzt noch verlangen, dass T = 0 für Ē = 0 und in die ideale Gasgleichung p̄V = N kT (=thermische Zustandsgleichung), dann müssen wir uns nur noch entscheiden, ob wir T oder k festlegen. Wir halten uns an die Geschichte und legen k fest. Zwei Punkte der T -Skala liegen bereits fest, nämlich T = 0 und der Tripelpunkt von H2 O bei 273, 16K. Sehen wir nochmal die ideale Gasgleichung an, nur diesmal mit Mol: p̄ = νRT , wobei ν die J Molzahl ist und R = 8, 31451 mol⋅K . J Damit ist R ≡ NA k und damit k = (138066 ± 0, 00006) ⋅ 10−23 K wenn wir NA = (6, 0221367 ± 0, 0000036) ⋅ 1023 Moleküle als Loschmidt-Zahl identifizieren. mol 32 1.3.3 statistische Physik und Thermodynamik Gehen von mikroskopischen Struktur aus, den Mikrozuständen. Frage: Wie kommen wir zu thermodynamischen Größen? Entscheidende Verbindung zwischen mikroskopischen Struktur eines Systems und der Thermodynamik, also makroskopischen Größen und ihren Beziehungen, stellt die Boltzmann’sche Entropiegleichung (S = k ⋅ ln Ω) dar 1 2 3 4 H(x) → Er (x) → Ω(E, x) → S(E, x) → T, X(E, x) 1. Die äußeren Parameter seien x = (x1 , . . . , xn ). QM: Wir bestimmen die Energieeigenwerte Er des Hamilton-Operators Ĥ(x). Das legt die Mikrozustände fest. klassisch: Funktion der Orts und Impulskoordinaten → Hamilton-Funktion 2. Berechnung der Zustandsumme aller Zustände r, die mit E −δE ≤ Er (x) ≤ E verträglich sind. Ω(E, x) = ∑ 1 r Summe r: Summen von f Termen über die QZ ni r = (n1 , . . . , ni ) f . . . Freiheitsgrade f ≈ 1024 klassisch: Summe → Integral über Volumen im Phasenraum 3. Annahme: System isoliert und im Gleichgewicht: → Grundlegendes Postulat. ⎧ 1 ⎪ ⎪ Ω(E,x) Pr = ⎨ ⎪ ⎪ ⎩0 E − δE ≤ Er (x) ≤ E sonst ⇒ S = k ⋅ ln Ω 4. Wir benötigen den Begriff der Verallgemeinerten Kraft“. Wenn ” 1 ∂S(E, x) = T ∂E die treibende Kraft für den Wärmeaustausch ist, dann ist Xi = T ∂S(E, x) ∂Ω(E, x) = kT ∂xi ∂xi Xi . . . verallgemeinerte Kraft zum äußeren Parameter 33 die verallgemeinerte Kraft für einen xi -Austausch. z.B. hat Xi die Dimension einer Kraft, wenn xi die Dimnension einer Länge hat. Wenn Gleichgewicht herrscht, dann gilt also für den • Wärmeaustausch: gleiches T • Volumenaustausch: gleiches P • Teilchenaustausch: gleiches µ (chemisches Potential) • xi -Austausch: gleiches Xi 34 Beispiel: ideales, einatomiges Gas äußere Parameter: V = L3 , N 1. Mikrozustände r mit Energie Er : QM: r = (n1 , . . . , n3 N ) Er (N, V ) = ̵ 2 π 2 3N h 2 ∑n 2mL2 i=1 i (1.63) → ni : QZ des i-ten Freiheitsgrad gleiche QZ für mehrere Teilchen zugelassen ⇒ klassische Näherung klassisch: E = Ekin = m N ∑ 2 i=1 3 2 ∑ vij (1.64) i=1 ² 3 Raumrichtungen 2. Auswertung der Zustandssumme: E V 3N ln ( ) + N ln ( ) + N ln c 2 N N 5 3 2π ln c = ln ĉ + + ln ( ) 2 2 3 ln Ω(E, V, N ) = (1.65) (1.66) 3. ⇒ Entropie: 3 E V S(E, V, N ) = k ln Ω = N k ln ( ) + N k ln ( ) + N k ln c 2 N N bilden 1 ∂S 3 1 = = Nk T ∂E 2 E 3 → E = N kT 2 Xi ∂S = T ∂xi → P V = N kT . . . klassische Zustandsgleichung“ ” und (1.67) P ∂S 1 = = Nk T ∂V V . . . thermische Zustandsgleichung“ ” 35 (1.68) 1.3.4 Systeme in Kontakt mit einem Wärmereservoir, kanonische Zustandssumme Frage: Wie groß ist Wahrscheinlichkeit Pr , dass klassische System A in Kontakt mit groß A′ in einem bestimmten Mikrozustand r mit Energie Er ist? So teilen wir die Energieskalen in passend kleine Intervalle δE Ω′ (E ′ ) ist die Anzahl der zugänglichen Mikrozustände für A′ , wenn seine Energie zwischen E ′ − δE und E ′ liegt. Zusammengesetzte Systeme A∗ = A + A′ ist isoliert ⇒ E ∗ = const E liegt zwischen E ∗ − δE, E ∗ Annahme: A sei in einem seiner zugänglichen Mikrozustände r mit Er ⇒ E ∗ = E ′ + Er , E ′ = E ∗ − Er Wenn A in einem seiner Mikrozustände ist, dann Anzahl der für A∗ zugänglichen Zustände nur mehr durch zugänglichen Zustände von A′ bestimmt, wenn seine Energie im Intervall E ′ − δE = E ∗ − Er − δE und E ′ = E ∗ − Er ! 36 Die zugänglichen Zustände von A∗ sind: Ω∗ = Ω′ (E ∗ − Er ) Grundlegendes Postulat: A∗ gleichwahrscheinlich in jedem seiner zugänglichen Mikrozustände ⇒ Wahrscheinlichkeit: A im Zustand r zu finden ist proportional zur Anzahl der Zustände von A∗ wenn A in Zustand r: Pr = C ′ Ω∗ = C ′ Ω′ (E ∗ − Er ) (1.69) ′ C → aus Normierungsbedingung: ∑r Pr = 1 Wir brauchen Ω′ ! Annahme: A′ ist Wärmebad = Energie Reservoir ⇒ sehr, sehr viele Freiheitsgrade Er << E ′ ⇒ Er << E ∗ also: E ′ = E ∗ − Er ≅ E ∗ rechnen aus: vorzügliche Näherung für Ω′ (E ′ ) durch Entwicklung der schwach variierende Funktion ln Ω′ (E ′ ) Taylorentwicklung: lnΩ′ (E ∗ − Er ) = lnΩ′ (E ∗ ) − ∂lnΩ′ ∣ ⋅Er ∂E ′ E ′ ≅E ∗ ´¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹¸ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¶ (1.70) ∂lnΩ′ ∂lnΩ′ ∂E ′ = ∂E ′ ⋅ ∂E ∗ ∂E ∗ ∂lnΩ′ 1 ∣ = β′ = ∂E ′ E ′ ≅E ∗ kT (1.71) ⇒ β von Er unabhängige Konstante. sagen β ′ = β (lassen ′ weg): konstanter Temperaturparameter des Wärmebades A′ bedeutet physikalisch: T des Wärmebades A′ ändert sich nicht beim Austausch kleiner Energieportionen mit A. ⇒ ln Ω′ (E ∗ − Er ) = ln Ω′ (E ∗ ) − βEr Ω′ (E ∗ −Er ) = Ω′ (E∗)exp(−βEr ) Ω′ (E∗) → const., hängt nicht von r ab Ô⇒ Pr = C ′ Ω′ (E ∗ − Er ) = Ce−βEr = Ce− kT Er 37 . . . Boltzmann-Verteilung (1.72) −βEr =1 ⇒ C= ∑ Pr = C ∑ e r r e−βEr e− kT Pr = = E ∑r e−βEr ∑r e− kTr 1 ∑r e−βEr Er exp(−βEr ) = exp (− Z(T ) = ∑ exp (− r Er ) kT Er ) kT . . . kanonische Verteilung (canonical distribution) . . . Boltzmann-Faktor . . . kanonische Zustandssumme (canonical partition function) zugehöriges Ensemble: kanonisches Ensemble = Gibbs Ensemble kanonisches System A: ist in genau einen seiner zugänglichen Mikrozustände kanonisches System A′ = Wärmebad: ist in irgendeinem seiner sehr vielen zugänglichen Zustände Ω′ (E ∗ − Er ) Ω′ (E ′ ) wächst sehr stark mit E ′ : β = ∂ ln Ω ∂E >0 ⇒ je größer Er desto kleiner E ′ ⇒ damit sinkt stark die Zahl der zugänglichen Zustände für Ω′ ⇒ es sinkt Wahrscheinlichkeit im Ensemble für Systeme mit hoher Energie Er sinkt entsprechend. 38 39 Berechnung vom Mittelwerten y sei eine messbare Größe, im Mikrozustand r von A: yr ∑r e− kT ⋅ yr Er y = ∑ P r yr = r −E kT = ∑r e r ∑r e− kT ⋅ Er Er 1 ∑ yr e kT Z(T ) r Er E = ∑ Pr Er = r r −E kT = ∑r e−βEr ⋅ Er ∑r e−βEr ∑r e ∂ ∑ e−βEr ⋅ Er = r = − lnZ(T ) Z(T ) ∂β 40 (1.73)