Vorgelegt an der Universität Bielefeld Fakultät für Physik Bachelorarbeit: Untersuchung des zweidimensionalen Ising-Spinsystems auf Phasenübergänge Condensed Matter Group Prof. Jürgen Schnack von Daniel Meier Bielefeld 9. April 2009 Inhaltsverzeichnis 1 Einleitung 3 2 Statistische Physik 2.1 Statistische Eigenschaften . . . . . . . . . . . . . 2.2 Thermodynamische Observable . . . . . . . . . . 2.2.1 Innere Energie . . . . . . . . . . . . . . . . 2.2.2 Freie Energie . . . . . . . . . . . . . . . . 2.2.3 Enthalpie und Gibb’sche (freie) Enthalpie 2.2.4 Magnetisierung . . . . . . . . . . . . . . . 2.2.5 Spezifische Wärme . . . . . . . . . . . . . 2.2.6 Magnetische Suszeptibilität . . . . . . . . 2.3 Phasenübergänge . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 4 5 6 6 7 7 8 8 9 . . . . . 10 10 10 11 12 13 Ising-Modell Allgemeines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Analytische Lösung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Implementierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 15 16 16 3 Monte-Carlo-Simulation 3.1 Grundlagen der Simulation . 3.1.1 Importance Sampling 3.1.2 Markov-Kette . . . . 3.1.3 Akzeptanzraten . . . 3.2 Metropolis Algorithmus . . 4 Das 4.1 4.2 4.3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 Simulationen zum zweidimensionalen Ising-Modell 5.1 Gittergröße . . . . . . . . . . . . . . . . . . . . 5.2 Periodische Randbedingungen . . . . . . . . . . 5.3 Startkonfiguration . . . . . . . . . . . . . . . . . 5.4 Monte-Carlo-Steps . . . . . . . . . . . . . . . . 5.5 Simulationsergebnisse . . . . . . . . . . . . . . . 5.5.1 Magnetisierung . . . . . . . . . . . . . . 5.5.2 Spezifische Wärmekapazität . . . . . . . 5.5.3 Magnetische Suszeptibilität . . . . . . . 5.6 Ising-Spinkette im äußeren Magnetfeld . . . . . 5.6.1 Theoretische Vorhersage . . . . . . . . . 5.6.2 Ergebnisse . . . . . . . . . . . . . . . . . 6 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 20 20 21 22 22 23 25 26 27 27 28 30 Fakultät Physik Universität Bielefeld 1 Einleitung Computersimulationen sind ein technisches Mittel, dessen sich die theoretische Physik bedient um analytisch unlösbare oder sehr schwer lösbare Probleme numerisch lösen zu können. Man erhält durch eine Computersimulation Simulationsergebnisse, die ähnlich wie Messergebnisse eines physikalischen Experiments ausgewertet werden können und eine Bestimmung physikalischer Observabler eines Systems zulassen. Theoretische Physiker, die mit Computersimulationen arbeiten, bilden somit eine Zwischenstufe zwischen der theoretischen Beschreibung physikalischer Systeme und deren experimenteller Untersuchung. Es hat sich im Laufe der Jahre in der Entwicklung des Computerzeitalters gezeigt, dass sich mithilfe des Computers bestimmte Systeme der Natur näherungsweise genau beschreiben lassen. Diese ganz bestimmten Systeme werden in idealisierten Modellen beschrieben. Ein solches Modell ist das Ising-Modell, um das es in dieser Arbeit geht. Es beschreibt in idealisierter Weise ein bestimmtes physikalisches System und lässt eine Simulation mit dem Computer zu, so dass man empirisch bestätigte Simulationsergebnisse bekommt, mit denen eine physikalische Interpretation des Systems möglich ist. Diese Arbeit beschäftigt sich mit Phasenübergängen und den Änderungen die durch Aufteten eines äußeren Parameters, wie z.B. eines externen Magnetfeldes, auftreten können. Ähnlich wie Phasenübergänge eines Stoffes zwischen fest, flüssig und gasförmig, gibt es in einem Festkörper Phasenübergänge in der Magnetisierung, wie dem Übergang zwischen Ferro- und Paramagnetismus. Da die Magnetisierung auf die Spinzustände der einzelnen Atome zurückzuführen ist, werden diese mit dem Ising-Modell beschrieben und, da die analytische Berechnung größerer Systeme schwierig ist, durch die MonteCarlo-Methode simuliert. Dadurch wird die Anwendbarkeit der Computersimulation an einem einfachen, idealisierten Modell demonstriert, sowie Probleme, die bei dieser Methode berücksichtigt werden müssen, erklärt. Es wird dazu ausführlich gezeigt, wie die theoretische und physikalische Beschreibung und die daraus gewonnenen Formeln in ein ausführbares Computerprogramm umgesetzt werden. Im Vordergrund stehen dabei selbstverständlich die damit gewonnenen Ergebnisse und ihre physikalische Interpretation. 3 Fakultät Physik Universität Bielefeld 2 Statistische Physik Es werden mikroskopische Systeme betrachtet, die aus einer Vielzahl von Teilchen bestehen, daher bedient man sich der Formeln und Observablen der statistischen Physik, mit derer sich das System beschreiben lässt. Es werden also nachfolgend Grundprinzipien und Observable eingeführt, die für die weitere Arbeit notwendig sind (vgl. [3],[4]). 2.1 Statistische Eigenschaften Es werden mikroskopische Systeme betrachtet, die aus einer Vielzahl von Teilchen bestehen, die miteinander unter gewissen Bedingungen in Wechselwirkung treten und gewisse Eigenschaften besitzen, so dass sie zu einer bestimmten Zustandsenergie En im Zustand n beitragen, die das System besitzt. Ein Zustand des Systems bezeichnet eine bestimmte Konfiguration, in der jedem Teilchen ein fester Ort und Impuls zugeordnet werden kann, oder in einem System von Spins eine feste Anordnung der Spinausrichtungen. Zudem wird in der Thermodynamik ein Zustand durch feste Zustandsgrößen wie Druck, Volumen, Temperatur und Teilchenzahl bestimmt, die das System charakterisieren. Dieses System ist an ein Wärmereservoir gekoppelt, mit dem es zusammen nach einer bestimmten Zeit in ein thermisches Gleichgewicht kommt, wobei sich der Zustand n des Systems und damit die Zustandsenergie En ändert. Die Zustandsenergie ist über die Hamiltonfunktion H(n) definiert, die abhängig vom Zustand des Systems ist, woraus En = H(n) folgt. Die Hamiltonfunktion vernachlässigt dabei die Wechselwirkung zwischen dem System und dem gekoppelten Wärmereservoir. Ein System, welches mit seiner Umgebung ausschließlich Energie austauscht bezeichnet man als geschlossenes System, oder kanonisches Ensemble. Ändert sich die Temperatur des Systems, ändert sich die Zustandsenergie als Folge eines Übergangs des Systems in einen anderen Zustand. Wn→m bezeichnet die Übergangsrate, dass das System vom Zustand n in den Zustand m übergegangen ist und Pn (t) definiert die Wahrscheinlichkeit das System zur Zeit t im Zustand n vorzufinden. Mit diesen beiden Größen lässt sich die zeitliche Entwicklung des gesamten Systems beschreiben durch dPm (t) X = [Pn (t)Wn→m − Pm (t)Wm→n ] dt n6=m (2.1) wobei der erste Term der Summe die Rate ist, mit der das System vom Zustand n nach m wechselt und der zweite Term die Rate für den Wechsel vom Zustand m nach n. Die zeitliche Änderung der Wahrscheinlichkeit des Zustands m ist also die Differenz aus dem Verlassen des Zustandes m und dem Übergang in den Zustand m aus jedem anderen möglichen Zustand. 4 Fakultät Physik Universität Bielefeld 2.2 Thermodynamische Observable Da sich das System zu jeder Zeit in irgendeinem Zustand befinden muss gilt die Bedingung X Pm (t) = 1 (2.2) m Eine weitere wichtige Voraussetzung ist, dass sich das System im Equilibrium befindet. Das bedeutet, dass sich die Wahrscheinlichkeiten Pm (t) mit der Zeit nicht ändern und die beiden Terme in der Summe von Gleichung (2.1) gleich sind Pn (t)Wn→m = Pm (t)Wm→n (2.3) was man als detailed balance bezeichnet. Es wird nun ein System betrachtet, das sich im Grenzfall nach einer unendlich langen Zeit im Equilibrium befindet. Für die Besetzungswahrscheinlichkeit das System in einem Zustand im Gleichgewicht zu finden erhält man pn = lim Pn (t) t→∞ (2.4) Die Besetzungswahrscheinlichkeiten, für ein System im thermischen Gleichgewicht, sind die Boltzmann-Faktoren (vgl. [2]) und gegeben durch 1 −En /kB T e (2.5) Z mit der Boltzmann-Konstante kB , der Temperatur T in Kelvin (im Folgenden abgekürzt durch β = 1/kB T ) und einer Normierung Z, die man Zustandssumme nennt und sich folgendermaßen berechnen lässt X Z = Sp(e−βH ) = e−βEn (2.6) pn = n Aus der Funktion der Zustandssumme lassen sich viele thermodynamische Observablen herleiten, wie z.B. die innere Energie, die freie Energie, oder die Entropie. 2.2 Thermodynamische Observable Wie oben erwähnt lassen sich aus der Zustandssumme diverse Observable aus der Thermodynamik herleiten. Im folgenden werden einige dieser Observablen für ein System im thermodynamischen Gleichgewicht, also mit konstanter Temperatur, zudem konstanter Teilchenzahl und konstantem Volumen berechnet. Zuvor soll der Begriff des Erwartungswertes erläutert werden. Darunter versteht man jenen Wert, der sich bei mehrmaligem Wiederholen eines Experimentes als Mittelwert der beobachteten Größe ergibt. Das bedeutet, in einem System mit n Zuständen, 5 Fakultät Physik Universität Bielefeld 2.2 Thermodynamische Observable in denen jeder Zustand mit der Wahrscheinlichkeit Pn (t) auftritt, berechnet sich der Erwartungswert einer Größe X zu hXi = X Xn Pn (t) = n 1X Xn e−βEn Z n (2.7) wobei im letzten Schritt Gleichung (2.5) ausgenutzt wurde. 2.2.1 Innere Energie Als innere Energie U bezeichnet man in der Thermodynamik die mittlere Energie hEi eines Systems, die sich nach (2.7) folgendermaßen ergibt U = hEi = 1X En e−βEn Z n (2.8) in Abhängigkeit von der Zustandssumme lässt sich die innere Energie auch schreiben als 1 ∂Z ∂ ln Z U =− =− (2.9) Z ∂β ∂β 2.2.2 Freie Energie Die freie Energie F setzt sich zusammen aus der inneren Energie U und der Entropie S zu F = U − TS (2.10) um sie auch in Abhängigkeit der Zustandssumme zu schreiben kann man U durch (2.9) ersetzen, nun muss nur noch die Entropie ersetzt werden, dazu benutzt man die Definitionen für die spezifische Wärme C C= ∂U ∂U ∂ 2 ln Z = −kB β 2 = −kB β 2 ∂T ∂β ∂β 2 und C=T ∂S ∂S =β ∂T ∂β (2.11) (2.12) wonach man durch Gleichsetzen und Integrieren S = −kB β ∂ ln Z + kB ln Z ∂β (2.13) erhält. Setzt man dies auch in (2.10) ein so erhält man für die freie Energie F = −kB T lnZ (2.14) 6 Fakultät Physik Universität Bielefeld 2.2 Thermodynamische Observable 2.2.3 Enthalpie und Gibb’sche (freie) Enthalpie Dies soll kurz die zwei Energieformen Enthalpie H und Gibb’sche Enthalpie G auflisten.1 Es handelt sich dabei, wie auch bei der innere Energie U und die freie Energie F um thermodynamische Potentiale. Je nach Erfordernis kann man sich auch noch weitere thermodynamische Potentiale zusammenstellen, die für bestimmte Problemstellungen sinnvoller erscheinen. Die hier beschriebenen sind allerdings die in der Physik und der Chemie üblichen Potentiale. Für die spätere Beschreibung der Phasenübergänge ist die Gibb’sche Enthalpie notwendig. Es lassen sich neue thermodynamische Potentiale mittels einer Legendre-Transformation erzeugen, so dass man für die Enthalpie H = H(S, p) = U + pV (2.15) und für die Gibb’sche Enthalpie G = G(T, p) = U − T S + pV (2.16) erhält. Die unterschiedlichen thermodynamischen Potentiale bieten den großen Vorteil, dass sich durch direktes Ableiten die abhängigen Variablen ergeben. So folgt für die Entropie S ∂G (2.17) S=− ∂T p und für das Volumen V V = ∂G ∂p (2.18) T 2.2.4 Magnetisierung Die Magnetisierung ist die charakterisierende Größe für den magnetischen Zustand eines Materials, die sich als magnetisches Moment µ ~ pro Volumeneinheit V berechnen lässt, also ~ = d~µ M (2.19) dV Hergeleitet wird dies aus der potentiellen Energie des magnetischen Moments µ ~ in ~ einem externen Feld µ ~ · B. Da im folgenden immer ein Magnetfeld auschließlich mit ~ = B0 e~z angenommen wird, erhält man für die einer Komponente in z-Richtung, also B Magnetisierung eines Systems im Zustand n Mn = − 1 ∂En ∂Bz (2.20) Die freie Energie F hätte ebenso in diesen Unterabschnitt gepasst, alledings sollte an ihr gezeigt werden, wie wichtig die Zustandssumme Z für die Herleitung aller angegebenen thermodynamischen Observablen ist. 7 Fakultät Physik Universität Bielefeld 2.2 Thermodynamische Observable Die mittlere Magnetisierung hM i lässt sich wieder mit Gleichung (2.7) berechnen zu 1X Mn e−βEn (2.21) hM i = Z n 2.2.5 Spezifische Wärme Die spezifische Wärme wurde schon zur Herleitung der freien Energie verwendet. Sie wird auch spezifische Wärmekapazität genannt und beschreibt die Wärmemenge, die einem Stoff zugefügt werden muss, um die Temperatur um einen Kelvin zu erhöhen. Sie ist damit ein Maß für die Änderung der inneren Energie U und lässt sich auch als Varianz von hEi beschreiben mit " 2 # 2 2 ∂ 1 ∂Z 1∂ Z 1 ∂Z ∂ ln Z = kB β 2 (2.22) C = kB β 2 = kB β 2 − 2 2 2 ∂β ∂β Z ∂β Z ∂β Z ∂β dabei beschreibt der letzte Term in den eckigen Klammern die Varianz hE 2 i − hEi2 in E. Berechnet man 2 1 ∂ 2Z 1 2 −βEn = (2.23) E = En e Z Z ∂β 2 wird C als die Varianz der mittleren Energie verifiziert, also C = kB β 2 E 2 − hEi2 (2.24) 2.2.6 Magnetische Suszeptibilität Die magnetische Suszeptibilität χ beschreibt die Änderung der Magnetisierung in Abhängigkeit eines äußeren Magnetfeldes, mit χ= ∂M ∂B (2.25) dies lässt sich mit Gleichung (2.20) und einer ähnlichen Umformung wie für die spezifische Wärme zu einer Gleichung verwandeln, die die Varianz der Magnetisierung enthält. Man erhält 2 1 ∂ 2 hHi = β( M − hM i2 ) (2.26) χ=− 2 β ∂B Bei der Betrachtung dieser thermodynamischen Observablen sieht man deutlich, wie wichtig die Zustandssumme des beobachteten Systems ist. Um die Zustandssumme berechnen zu können ist allerdings die genaue Kenntnis jedes einzelnen Zustandes und damit die Kenntnis aller Eigenwerte der Hamiltonfunktion nötig. Dies ist bei größeren Systemen natürlich nicht mehr so einfach möglich, oder bedarf zeitintensiver Rechnungen, nicht selten mit einem Hochleistungsrechner. In dieser Arbeit versucht man dies mit Hilfe der Monte-Carlo-Methode zu umgehen, die in Abschnitt 3 beschrieben wird. 8 2.3 Phasenübergänge Fakultät Physik Universität Bielefeld 2.3 Phasenübergänge In diesem Abschnitt geht es um den Begriff des Phasenübergangs, der in dieser Arbeit eine zentrale Rolle spielt, da solche Übergänge zwischen zwei Phasen ein und des selben Materials, z.B. an dem Ising-Spinsystem untersucht werden. Ein Material kann durch äußere Einflüsse (Temperatur-, Druck, Volumenänderung) eine Zustandsänderung erfahren, die sich durch die Änderung bestimmter sichtbarer, oder messbarer Eigenschaften manifestiert. Da es eine vielzahl verschiedener Phasenübergänge gibt versucht man diese zu klassifizieren. Eine solche nützliche Klassifikation geht auf Ehrenfest zurück (vgl. [1]). In dieser Klassifikation wird zwischen Phasenübergängen erster und zweiter Ordnung unterschieden.1 Bei Phasenübergängen erster Ordnung spielen sogenannte latente Wärmen eine große Rolle, die für einen Übergang in eine neue Phase sorgen. Ein Beispiel hierfür ist der Übergang von Wasser in Wasserdampf. Führt man dem System Wärme zu, ändert sich selbstverständlich die Temperatur, doch im sogenannten Zwei-Phasen-Gebiet wird diese Wärme dazu benötigt um Wasser in Wasserdampf umzuwandeln. Da dieser Vorgang isotherm verläuft, spricht man von einer latenten Wärme, die dem System zugeführt wird. Eine Folge davon ist, dass die ersten Ableitungen der in Gleichung (2.16) angegebenen Gibb’schen Enthalpie G unstetig sind, wenn der Phasenübergang eintritt. Es liegt nun nahe zu vermuten, dass bei einem Phasenübergang zweiter Ordnung die zweiten Ableitungen von G unstetig sind. Dazu zählt z.B. die spezifische Wärmekapazität C, bei der man an Gleichung (2.22) sehen kann, dass es sich dabei um eine zweite Ableitung nach der Temperatur T handelt. Damit lässt sich nun auch erklären, warum Phasenübergänge höherer Ordnungen wenig sinnvoll sind, da höheren Ableitungen keine sinnvollen thermodynamischen Observablen zugeordnet werden können und diese auch so gut wie nicht mehr sichtbar oder messbar sind, so dass eine wirkliche Zustandsänderung des Materials nach einem solchen Phasenübergang nicht erkennbar ist. Diese Arbeit beschäftigt sich mit dem Phasenübergang zweiter Ordnung, mit dem dafür bekanntesten Beispiel des Weiß’schen Ferromagneten. Der französische Physiker Pierre-Ernest Weiß entdeckte schon 1907, dass in einem Festkörper ein inneres Magnetfeld, das sogenannte Molekularfeld, eine spontane Magnetisierung erzeugen kann [2]. Wie später im Kapitel 4 noch näher erklärt wird, tritt diese spontane Magnetisierung nur unterhalb einer bestimmten Temperatur auf und nimmt einen konstanten Wert an, über dieser Temperatur verschwindet sie. Die Magnetisierung sinkt kontinuierlich auf Null, daher spricht man auch von einem kontinuierlichen Phasenübergang. Die Magnetisierung nimmt hierbei die Aufgabe eines Ordnungsparameters ein. 1 Theoretisch gibt es auch noch Phasenübergänge n-ter Ordnug (n > 2), jedoch spielen sie in dieser Arbeit keine und in der Natur, bzw. für das physikalische Interesse kaum eine Rolle. 9 Fakultät Physik Universität Bielefeld 3 Monte-Carlo-Simulation Im Mittelpunkt einer Monte-Carlo-Simulation steht das Zufallsexperiment. Mit Hilfe des Computers können Zufallszahlen generiert werden, die den Ausgang eines stochastischen Simulationsalgorithmus bestimmen, welcher in großer Anzahl mehrfach durchlaufen wird. Dieser Algorithmus versucht die Abläufe in der Natur näherungsweise zu kopieren, indem, durch physikalische Gesetze vorgegeben, mehrere Ausgänge möglich sind, die mit einer bestimmten Wahrscheinlichkeit gewichtet werden. Im Folgenden wird gezeigt wie ein solcher Algorithmus aussieht, der auch für die gesamte Arbeit benutzt wird und wie sich die Wahrscheinlichkeiten ergeben, mit denen die möglichen Ausgänge der Zufallsexperimente gewichtet werden. 3.1 Grundlagen der Simulation In Kapitel 2 wurde gezeigt, dass zur Bestimmung physikalischer Observablen, oder ihrer Erwartungswerte alle möglichen Zustände des Systems bekannt sein müssen. Betrachtet man ein Gitter aus 100x100 Spins, die jeweils zwei mögliche Ausrichtungen einnehmen können (Spin-up und Spin-down) so gibt es 2100·100 ≈ 2 · 103010 mögliche Zustandskonfigurationen. Man würde eine unvorstellbare Zeit benötigen, um die Zustandssumme zur vollständigen Beschreibung des Systems berechnen zu können. Selbst für mehrere Supercomputer, die man miteinander koppeln würde, wäre dieses Problem immer noch sehr zeitaufwendig und würde auch relativ hohe Kosten verursachen, die bei der Benutzung in einem Rechenzentrum aufkommen. Eine günstige und zeitsparende Lösung bietet das Importance Sampling. 3.1.1 Importance Sampling Wie beim simple sampling betrachtet man nicht alle möglichen Konfigurationen des Systems, sondern nimmt lediglich eine Auswahl der möglichen Zustände in seine Berechnungen auf, die repräsentativ für das gesamte System sind und es näherungsweise genau beschreiben sollen. So wird der Erwartungswert einer Observablen X nicht aus allen möglichen Werten erstellt, sondern ausschließlich über eine geringere, endliche Auswahl von M Zuständen berechnet mit PM −1 −βEni i=1 Xni pni e (3.1) XM = P M −1 −βEnj j=1 pnj e Diese Formel erinnernt an Gleichung (2.7) und wenn M der gesamten Anzahl an möglichen Zuständen entspricht folgt auch XM = hXi. Doch der wesentliche Unterschied ist, dass in Gleichung (3.1) jeder zufällig gewählte Zustand mit einem Wahrscheinlichkeitsfaktor gewichtet werden muss. Die Importance Sampling Methode bevorzugt nun solche Zustände, die einen großen Wahrscheinlichkeitsfaktor besitzen und somit am häufigsten auftreten und das System am meisten beeinflussen. Dieses Vorgehen wird dadurch gerechtfertigt, dass innerhalb einer Messung nicht alle möglichen 10 Fakultät Physik Universität Bielefeld 3.1 Grundlagen der Simulation Zustände durchlaufen werden. Der Erwartungswert wird letztlich nur von den wichtigsten, den important states bestimmt. Die Zustände werden mit ihrer zugehörigen Boltzmann-Wahrscheinlichkeit generiert, so dass sie mit ihrem Boltzmann-Gewicht pn = 1 −βEn e Z (3.2) auftreten und Gleichung (3.1) sich zu XM M 1 X Xni = M i=1 (3.3) vereinfacht, in der die Boltzmann-Gewichte überhaupt nicht mehr vorkommen. Es sei nun darauf hingewiesen, dass sich Gleichung (3.2) am besten für Systeme anwenden lässt, die sich die meiste Zeit in den Zuständen befinden, die nach der BoltzmannVerteilung am häufigsten auftreten. Nun folgt die Generierung dieser Zustände. 3.1.2 Markov-Kette Die Zustände des Systems sollen nun der Boltzmann-Verteilung entsprechen und werden mit Hilfe einer Markovkette generiert. Während eines einzelnen Schrittes wechselt das System von einem Zustand n in einen Zustand m mit der Übergangswahrscheinlichkeit P (n → m). Wird dieser Vorgang mehrmals wiederholt entsteht eine Markov-Kette, ein stochastischer Prozess der bestimmten Kriterien genügt. Während der gesamten Messung bleiben die Übergangswahrscheinlichkeiten zeitlich konstant und sind ausschließlich von n und m, dem Anfangs- und dem Endzustand abhängig und es muss die Bedingung X P (n → m) = 1 (3.4) m erfüllt sein, da der Prozess immer einen Zustand generieren muss. Dies kann auch der alte Zustand sein. Für die Monte-Carlo Simulation soll für das System zudem Ergodizität herrschen. Das bedeutet, dass aus jedem beliebigen Zustand n der Zustand m erreicht werden kann, selbst wenn dies nur über beliebig viele Zwischenschritte erfolgt. Außerdem soll die in 2.1 beschriebene detailed-balance Bedingung herrschen, damit das System auch der Boltzmann-Verteilung unterliegt. Für ein System im Equilibrium sind die Wahrscheinlichkeiten für das Verlassen eines Zustandes und den Übergang in diesen Zustand identisch: X X pn P (n → m) = pm P (m → n) (3.5) m m Nach Gleichung (3.4) gilt aber pn = X pm P (m → n) (3.6) m 11 3.1 Grundlagen der Simulation Fakultät Physik Universität Bielefeld Dies ist leider noch keine ausreichende Bedingung dafür, dass sich die Wahrscheinlichkeitsverteilung aus jedem Zustand heraus bilden kann. So kann es zu einem dynamischen Equilibrium kommen, in dem sich die Wahrscheinlichkeitsverteilung verändern kann. Daher wird Gleichung (2.3) verwendet, die wir in diesem Kapitel ändern in pn P (n → m) = pm P (m → n) (3.7) der detailed-balance Bedingung, die ebenfalls Gleichung (3.5) erfüllt. Formt man Gleichung (3.7) um und benutzt für die Boltzmann-Gewichte (3.2) so folgt P (n → m) pm = = e−β(Em −En ) P (m → n) pn (3.8) und die Markov-Kette produziert Zustände, die der Boltzmann-Verteilung entsprechen. 3.1.3 Akzeptanzraten Um eine Markov-Kette zu definieren, die Zustände gemäß der Boltzmann-Verteilung erzeugt, muss ein entsprechender Satz von Übergangswahrscheinlichkeiten P (n → m) gegeben sein. Nach Gleichung (3.8) lassen diese allerdings einen hohen Grad an Freiheiten zu, so dass jeder beliebige Algorithmus zur Realisierung der Markov-Kette verwendet werden kann. Da in Gleichung (3.8) nur der Quotient der Übergangswahrscheinlichkeiten eine Rolle spielt, können diese folgendermaßen aufgeteilt werden: P (n → m) = g(n → m)A(n → m) (3.9) mit der Wahrscheinlichkeit g(n → m), dass der Algorithmus aus dem Zustand n den Zustand m generiert und der Akzeptanzrate A(n → m), dass der neue Zustand übernommen oder verworfen wird. Die Akzeptanzrate wird frei zwischen Null und Eins gewählt und gibt somit an, dass ein generierter Zustand nur nach bestimmten Kriterien angenommen wird. Demnach gilt g(n → m)A(n → m) P (n → m) = P (m → n) g(m → n)A(m → n) (3.10) Gleichung (3.10) erfüllt alle Forderungen einer Markov-Kette. Es wird immer ein Zustand generiert und falls ein Zustand verworfen wird verharrt das System im alten P Zustand, so dass die Bedingung m P (n → m) = 1 nicht verletzt wird. Sie sind weiterhin nur von den Zuständen n und m abhängig und sie werden zeitlich nicht verändert. Nun wird nach einem Algorithmus gesucht, der neue Zustände mit der Wahrscheinlichkeit g(n → m) generiert und diese mit der Akzeptanzrate A(n → m) annimmt oder verwirft. Dabei sollte beachtet werden, dass die Akzeptanzrate so groß wie möglich gewählt wird, damit das System nach kurzer Zeit den Zustand wechselt und nicht zu lange im gleichen Zustand verbleibt. Ein dafür geläufiger Algorithmus wir im nächsten Abschnitt beschrieben. 12 Fakultät Physik Universität Bielefeld 3.2 Metropolis Algorithmus 3.2 Metropolis Algorithmus Der 1953 von Nicolas Metropolis publizierte Metropolis Algorithmus [6] entspricht einer Monte-Carlo Methode, die Zustände eines Systems entspechend der BoltzmannVerteilung erzeugt. Der Algorithmus entspricht dabei allen Kriterien einer MarkovKette. Das besondere am Metropolis Algorithmus ist, dass zum einen die Wahrscheinlichkeiten g(n → m) für einen erlaubten Übergang von n nach m alle gleich gewählt und festgelegt werden, für unerlaubte Übergänge die Wahrscheinlichkeit Null beträgt und zum anderen die Akzeptanzraten A(n → m) maximal gewählt werden und Gleichung (3.8) erfüllen. Dabei gilt für die Akzeptanzraten 0< A(n → m) <1 A(m → n) (3.11) Als ersten Schritt bei der Implementierung des Metropolis Algorithmus müssen die Auswahlwahrscheinlichkeiten g(n → m) festgelegt werden. Man geht dabei von der single-spin-flip-dynamic aus, wobei bei jedem neuen generierten Zustand lediglich ein einziger Spin die Chance bekommt sich neu auszurichten oder seine bisherige Ausrichtung zu behalten. Da sich o.B.d.A. N Spins im System befinden, wird die Wahrscheinlichkeit mit 1 (3.12) g(n → m) = N festgelegt, womit sich Gleichung (3.10) unter Berücksichtigung von (3.8) zu P (n → m) A(n → m) = = e−β(Em −En ) P (m → n) A(m → n) (3.13) umformulieren lässt. Somit ist das Verhältnis der Übergangsraten ausschließlich von den Akzeptanzraten abhängig. Nun müssen die Akzeptanzraten so groß wie möglich gewählt werden, damit der Algorithmus eine effiziente Anzahl von Zustandsänderungen herbeiführt. Damit dies geschieht setzte Metropolis die größere der beiden Akzeptanzraten aus Gleichung (3.13) auf Eins. Nun muss die zweite so gewählt werden, dass Gleichung (3.13) immer noch erfüllt wird. Dafür seien n und m zwei Zustände, für die o.B.d.A. En < Em gilt, womit A(m → n) die größere der beiden Akzeptanzraten wäre und auf Eins gesetzt wird. Setzt man dies in Gleichung (3.13) ein folgt unmittelbar A(n → m) = e−β(Em −En ) und der Algorithmus bekommt folgendes Auswahlkriterium: ( e−β(Em −En ) falls Em − En > 0 A(n → m) = (3.14) 1 sonst Es wird also immer vom Zustand n in den Zustand m gewechselt, falls dieser energetisch niedriger ist, also falls En > Em gilt, ansonsten wird der neue Zustand, wenn er energetisch höher liegt nur mit der Wahrscheinlichkeit e−β(Em −En ) angenommen. Man beachte, dass die Wahrscheinlichkeit umso stärker abnimmt, je größer die Energiedifferenz ist. 13 3.2 Metropolis Algorithmus Fakultät Physik Universität Bielefeld Für die Simulationen dieser Arbeit wurde ein Metropolis Algorithmus implementiert, der nach folgendem Rezept aufgebaut ist: 1. Wähle einen Anfangszustand 2. Wähle zufällig einen Spin aus 3. Berechne die Energiedifferenz ∆E zu dem Zustand, wenn sich der Spin ändert 4. Generiere eine Zufallszahl r mit 0 < r < 1 5. Wenn r < e−∆E/kB T drehe den Spin 6. Wiederhole 2 Im nächsten Abschnitt wird nun das Ising-Modell vorgestellt, bei dem dieser Algorithmus in dieser Arbeit seine Anwendung findet. 14 Fakultät Physik Universität Bielefeld 4 Das Ising-Modell 4.1 Allgemeines 1922 bis 1924 beschäftigte sich Ernst Ising in seiner Doktorarbeit mit dem von seinem Doktorvater Wilhelm Lenz aufgestellten Modell zur Beschreibung des Ferromagnetismus [7] und versuchte dieses mathematisch auszuarbeiten [8]. Dabei fand er eine analytische Lösung für das eindimensionale Modell, wobei er feststellte, dass in dieser Form der Ferromagnetismus unzureichend beschrieben werden konnte und keinerlei Phasenübergänge bei endlicher Temperatur auftauchten. Erst 1944 berechnete Lars Onsager eine analytische Lösung für das zweidimensionale Modell und fand heraus, dass hier ein Phasenübergang auftritt [9]. Das Ising-Modell ist ein einfacher Weg ein ferromagnetisches Material zu beschreiben. Es versucht weniger einen bestimmten Ferromagneten genau zu beschreiben, als qualitative Aussagen z.B. über Magnetisierung und Phasenübergänge zu machen. Im Ising-Modell besteht ein Material aus einem quadratischen Gitter1 , an dessen Gitterplätze sich magnetische Spinmomente Si befinden. Die möglichen Werte dieser Spinmomente sind Si ∈ {−1, +1}, also wie aus der Quantenmechanik bekannt ’Spin up’ und ’Spin down’, allerdings wird der einfachheithalber die Spinlänge auf 1 gesetzt und die Ausrichtung nur auf eine Richtung beschränkt, die o.B.d.A als die z-Richtung gewählt wird, wenn sich die Gitterplätze auf der x-y-Ebene befinden. Sind alle Spinmomente auf dem gesamten Gitter gegeben spricht man von einer Spin~ = S1 , S2 , ..., SN mit der Energie konfiguration S X X H = −J Si Sj − B Si (4.1) (i,j)nn i Man beachte, dass der Summationsindex des ersten Terms nur über direkte Nachbarn geht (nn = nearest neighbors). J ist dabei die Stärke für die Wechselwirkung der nächsten Nachbarn untereinander 2 und B ist ein externes Magnetfeld, das senkrecht zum Gitter angelegt ist. In dieser Arbeit wird ein zweidimensionales Spingitter untersucht, in dem jeder Spin mit genau vier direkten Nachbarn wechselwirkt. In der eindimensionalen Form des Ising-Modells sind die Spins in einem festen Abstand auf einer Kette angeordnet und haben daher nur zwei direkte Nachbarn, mit denen sie in Wechselwirkung treten. Für diese beiden Formen gibt es schon wie oben erwähnt seit langer Zeit eine analytische Lösung, allerdings ohne Wirken eines externen Magnetfeldes (also für B = 0). Diese Arbeit will in ihrem Hauptschwerpunkt die physikalischen Eigenschaften des IsingModells unter dem Einfluss eines externen Magnetfeldes untersuchen, daher muss auf 1 2 in der zweidimensionalen Variante des Ising-Modells J ist in dieser Arbeit positiv, da nur ferromagnetische Wechselwirkungen betrachtet werden, für einen Antiferromagneten ist J negativ. 15 Fakultät Physik Universität Bielefeld 4.2 Analytische Lösung ein numerisches Verfahren wie der Monte-Carlo-Methode zurückgegriffen werden. Da aber für B = 0 die analytische Lösung existiert, kann für diesen Fall zuerst einmal ein Vergleich mit der numerischen Lösung die Verwendung der Monte-Carlo-Methode gerechtfertigt werden. 4.2 Analytische Lösung In [2] findet man eine ausführliche Herleitung für die analytische Lösung des zweidimensionalen Ising-Modells nach Lars Onsager. Es wird ein Phasenübergang zweiter Ordnung beschrieben, für den für die kritische Temperatur die Forderung √ 1 J = ln(1 + 2) = 0.4407 kB TC 2 (4.2) angegeben wird. Formt man dies um erhält man TC = J J 2 √ = 2.2692 kB ln(1 + 2) kB (4.3) Dies wird oft auch als Curie-Temperatur bezeichnet, da es sich hierbei um einen Phasenübergang handelt, bei dem ein Stoff seine ferro- bzw. ferrimagnetischen Eigenschaften verliert, sobald er mit einer Temperatur über TC erhitzt wird. Oberhalb der CurieTemperatur zeigt das Material nur noch ein paramagnetisches Verhalten und kann daher durch ein externes Magnetfeld immer noch schwach magnetisiert werden. Wie sich die Magnetisierung explizit nach der Temperatur ändert wird in [2] angegeben mit der Vorschrift ( 1/8 1 − sinh−4 (2βJ) T < TC M (T ) = (4.4) 0 T > TC 4.3 Implementierung Nun soll das zweidimensionale Ising-Modell umgesetzt werden in ein Computerprogramm, welches zusammen mit dem Metropolis Algorithmus ein Material simuliert, das seine ferromagnetischen Eigenschaften durch Temperaturänderung verändert. Es soll zeigen, dass es ohne externes Magnetfeld einen Phasenübergang wie in 4.2 beschrieben gibt und es soll zeigen, wie es sich bei Einschalten eines externen Magnetfeldes verhält. Bevor es dazu kommt soll in diesem Abschnitt die Realisierung dieses Programms erläutert werden. Als Werkzeug für die Implementierung des Ising-Modells wird das Programmpaket Mathematica verwendet. Es bietet eine Programmiersprache zur Umsetzung des Metropolis Algorithmus, ein Visualisierungstool zur graphischen Darstellung der Spinkonfigurationen und der Graphen für den Verlauf der physikalischen Observablen, sowie eine Numerik-Software zur Auswertung von Gleichungen. 16 4.3 Implementierung Fakultät Physik Universität Bielefeld Es wird nun das Grundgerüst des Quellcodes beschrieben, mit dem die Simulation unter Mathematica läuft: s = Table[(2*Random[Integer]) - 1, {100}, {100}]; MatrixPlot[s, ColorRules -> {1 -> GrayLevel[0], -1 -> GrayLevel[1]}] Zuerst wird wie im Rezept für den Metropolis Algorithmus angegeben eine Startkonfiguration der Spins generiert. Mathematica erzeugt eine 100x100 Tabelle mit Einträgen von −1 und 1. Der Befehl MatrixPlot stellt diese Tabelle graphisch dar, indem jedem Wert ein Pixel in einem 100x100 Quadrat zugeordnet wird und jeder Pixel mit 1 schwarz und jeder mit −1 weiß dargestellt wird. Dies entspricht spin up und spin down. k = 1; j = 1; temp = 2; bfeld = 0; Hier werden die Konstanten aus den Gleichungen (3.14) und (4.1) festgelegt. k die Boltzmann-Konstante kB , j die Stärke für die Wechselwirkung der benachbarten Spins, temp die Temperatur des Systems und bf eld die Stärke des externen Magnetfeldes. For[i = 0, i < 1000000, i++, x = Random[Integer, {1, 100}]; y = Random[Integer, {1, 100}]; Nun beginnt die Schleife der Simulation, in der eine Million mal nacheinander zufällig ein Spin ausgewählt wird, indem zwei Zufallszahlen im Bereich der Breite und Länge des Gitters gewählt werden, die als Koordinaten für den Gitterplatz eines Spins dienen. Mit For[i = 0 < 100, i++, For[x = 1,x<=100,x++, For[y = 1,<=100,y++, ] ] ] kann alternativ das gesamte Gitter der Reihe nach Spin für Spin durchlaufen werden. Dies geschieht 100 mal in Folge, wobei ein Durchgang als Monte-Carlo-Step bezeichnet wird (siehe Abschnitt 5.4). 17 Fakultät Physik Universität Bielefeld 4.3 Implementierung If[x If[x If[y If[y == == == == 1, a 100, 1, c 100, = b = d 101, = 0, 101, = 0, a b c d = = = = x]; x]; y]; y]; Mit diesen Zeilen werden die periodischen Randbedingungen eingefügt. Mit diesem Problem setzt sich Kapitel 5.2 näher auseinander. ediff = 2*s[[x, y]]* ( s[[b + 1, y]]*j s[[a - 1, y]]*j s[[x, d + 1]]*j s[[x, c - 1]]*j + + + + bfeld ); Hier wird die Energiedifferenz ∆E zwischen der aktuellen Spinkonfiguration und der Konfiguration mit gedrehtem Spin ausgerechnet. Die Energiedifferenz wird hier mit der Formel X ∆E = 2Sin J Sjn + B (4.5) (i,j)nn berechnet. Die Korrektheit dieser Formel wird weiter unten hergeleitet. If[ediff <= 0, s[[x, y]] = -s[[x, y]], Die möglichen Werte für ediff sind ±4, ±2, ±1 und 0. Für die negativen Werte wird der Spin immer gedreht. Für alle anderen Werte folgt die If -Abfrage der nächsten Anweisung. If[Random[] < Exp[-ediff/(k s[[x, y]] = -s[[x, y]], temp)], s[[x, y]] = s[[x, y]] ] ] ]; Diese Anweisung ist wiederum eine If -Abfrage. Ist die Energiedifferenz positiv, wird eine Zufallszahl erzeugt und es wird gefragt, ob diese kleiner als die Boltzmann-Verteilung für die Energiedifferenz nach Gleichung (3.14) ist. Ist dies der Fall, wird der Spin ebenfalls gedreht, ansonsten verbleibt er in seiner aktuellen Haltung. MatrixPlot[s, ColorRules -> {1 -> GrayLevel[0], -1 -> GrayLevel[1]}] 18 Fakultät Physik Universität Bielefeld 4.3 Implementierung Zuletzt wird die neue Spinkonfiguration ausgegeben, von der angenommen wird, dass sie sich nach 1000000 Schritten im thermischen Gleichgewicht mit der angegebenen Temperatur befindet.1 Nun wird an dieser Stelle Gleichung (4.5) hergeleitet, dazu wird Gleichung (4.1) und der Zusammenhang En = H(n) ausgenutzt. Daraus lässt sich für die Energiedifferenz zwischen zwei Spinkonfiguration folgern ∆E = Em − En X X X X = −J Sim Sjm − B Sim + J Sin Sjn + B Sin i (i,j)nn = −J X X Sim Sjm − (i,j)nn = −J ! Sin Sjn + B X Sin − i (i,j)nn X (4.7) i (i,j)nn (4.6) X Sim (4.8) i ! Sjn (Sim − Sin ) − B X (Sim − Sin ) (4.9) i (i,j)nn Um Gleichung (4.9) weiter vereinfachen zu können, betrachtet man die Klammer (Sim − Sin ) und sucht die möglichen Werte, die diese annehmen kann. Für den Spin Sin in der Anfangskonfiguration sind die beiden Werte +1 und −1 möglich, wodurch der Spin Sim festgelegt ist: Sin = +1 → Sim = −1 → Sim − Sin = −2 (4.10) Sin = −1 → Sim = +1 → Sim − Sin = +2 (4.11) Sim − Sin = −2Sin (4.12) Daher gilt allgemeiner Gleichung (4.12) in (4.9) eingesetzt gibt X X ∆E = 2J Sjn Sin + 2B Sin (i,j)nn = 2 X i (4.13) i Sin J X Sjn + B (4.14) (i,j)nn Hier sei noch einmal darauf hingewiesen, dass der Ausdruck (i, j)nn in der zweiten Summe die direkten Nachbarn j des i-ten Spins meint. Da bei jeder Zustandsänderung jeweils nur maximal ein Spin geändert wird, fällt die erste Summe für die Berechnung der Energiedifferenz in der Computersimulation weg und Gleichung (4.5) wurde bewiesen. 1 Es wird erst später die Frage gestellt, ob sich das System nach einer Million Schritten wirklich schon im thermischen Gleichgewicht befindet. 19 Fakultät Physik Universität Bielefeld 5 Simulationen zum zweidimensionalen Ising-Modell In diesem Kapitel wird nun der in Abschnitt 4.3 vorgestellte Quelltext mit dem Programmpaket Mathematica ausgeführt und das Ising-System simuliert. Um zu fundierten Ergebnissen kommen zu können müssen vorher noch einige Punkte, die mit dem Ablauf der Computersimulation zusammenhängen, diskutiert werden. Darunter fallen die Fragen nach der Größe des Systems, periodische Randbedingungen und der Startkonfiguration. 5.1 Gittergröße Zuerst einmal wird darauf hingewiesen, dass in dieser Arbeit ein zweidimensionales Ising-System untersucht wird. Ernst Isings analytische Rechungen zur eindimensionalen Kette zeigten, dass diese keine Phasenübergänge enthält. Das dreidimensionale Modell hingegen konnte bisher noch nicht analytisch gelöst werden, allerdings konnten durch Approximationen die Existenz von Phasenübergängen bestätigt werden. Das zweidimensionale Modell wurde zum einen analytisch exakt gelöst, wie in Kapitel 4.2 erwähnt, und enthält einen Phasenübergang. Daher soll in dieser Arbeit der Phasenübergang mittels der Monte-Carlo-Methode gezeigt und durch die analytische Lösung bestätigt werden. Um diesen Phasenübergang befriedigend darstellen zu können, ist die Frage nach der Größe des zweidimensionalen Gitters entscheidend. Wählt man es zu klein (z.B. 10x10), dann ist der Phasenübergang “verschmiert” und nicht gut erkennbar. Wählt man das Gitter zu groß (z.B. 1000x1000), dann benötigt die Simulation eine enorme Rechenzeit um ein thermisches Gleichgewicht zu bekommen (die Simulationszeit wird später erörtert). Die Gittergröße ist also ein Kompromiss, zwischen kurzer Rechenzeit und zufriedenstellender Ergebnisse. In dieser Arbeit fiel die Wahl auf ein 100x100 Gitter, welches sich auf einem Heimcomputer in annehmbarer Rechenzeit simulieren lässt und zudem Ergebnisse produziert, die einen Phasenübergang erkennen lassen, zudem kann durch die Größe des Gitters visuell gezeigt werden, wie sich die einzelnen Spinmomente nach der Zeit umorientieren. 5.2 Periodische Randbedingungen Die analytische Lösung für das zweidimensionale Ising-Modell, wie sie in Kapitel 4.2 angegeben ist, gilt für ein unendlich großes Gitter. Selbstverständlich kann in einer Computersimulation kein unendliches Gitter erzeugt werden. Produziert man allerdings nur ein endliches Gitter, in diesem Fall mit 100x100 Gitterplätzen ein relativ kleines, so verursachen die Ränder Fluktuationen, die die Entwicklung des Systems in ungewisser Weise beeinträchtigen können, so dass evtl. sogar kein Phasenübergang entstehen könnte. Um diesem Problem entgegen zu kommen behilft man sich durch den Einbau periodischer Randbedingungen. In dieser Arbeit werden Born-von Karman Randbedingungen eingefügt, die Gitterplätze am Ende einer Reihe mit dem Gitterplatz am Anfang der Reihe verbinden und jene am Ende einer Spalte mit dem Gitterplatz am Anfang 20 5.3 Startkonfiguration Fakultät Physik Universität Bielefeld der Spalte, womit aus einem zweidimensionalem Gitter die Oberfläche eines dreidimensionalen Torus erzeugt wird. Mit diesen Randbedingungen ist nun gewährleistet, dass jeder Gitterplatz vier Nachbarn besitzt, mit denen er wechselwirken kann und sich somit das System verhält, wie es das Ising-Modell verlangt. 5.3 Startkonfiguration Bevor man eine Computersimulation starten kann, stellt sich die Frage nach der Startkonfiguration. In welcher Konfiguration befindet sich das System in der Ausgangssituation? In Kapitel 4.3 wird eine zufällige Spinkonfiguration erzeugt, wie sie Abb. 1 zeigt. Abbildung 1: Zufällige Spinkonfiguration Jeder Gitterplatz wird durch ein schwarzes oder ein weißes Pixel dargestellt. Dabei stellt ein schwarzes Pixel ein Spinmoment von s = +1 und ein weißes ein Spinmoment von s = −1 dar. Beide können mit gleicher Wahrscheinlichkeit (p = 21 ) auftreten, wodurch eine Konfiguration mit zufällig auftretenden Spins generiert wird. Eine solche Konfiguration entspricht im Ising-Modell einem Zustand in dem für die Temperatur T −→ ∞ gilt, da sich in einer zufälligen Konfiguration alle magnetischen Momente der Spins in der Summe aufheben und quasi keine, bzw. sehr geringe Magnetisierung auftritt. Dies tritt ja bei sehr hohen Temperaturen auf, bei der die Magnetisierung des Systems verschwinden soll. Daher ist diese Startkonfiguration sinnvoll, wenn man ein Abkühlen eines solchen Spinsystems simulieren möchte, wodurch sich nach geraumer Zeit eine spontane Magnetisierung einstellen sollte. Anders bei einer Erwärmung eines bereits magnetisierten Systems. Hier wählt man eine Startkonfiguration, bei der bereits alle Spins parallel ausgerichtet sind (Abb. 1 würde nun komplett schwarz oder ausschließlich weiß aussehen). Solche Startkonfigurationen werden bei den entsprechenden Fällen auch in dieser Arbeit verwendet, allerdings ist darauf zu achten, dass die Simulationen ständig wiederholt und auch mit unterschiedlicher Startkonfiguration ausprobiert werden, um zu untersuchen, ob der Ausgang abhängig von der gewählten Startkonfiguration ist und ob auch bei gleich bleibender Startkonfiguration der selbe Ausgang zu beobachten ist. 21 5.4 Monte-Carlo-Steps Fakultät Physik Universität Bielefeld 5.4 Monte-Carlo-Steps Als letztes muss noch die Entwicklung des zu simulierenden Systems diskutiert werden, bevor die Computersimulation gestartet werden kann. Dieser Punkt beschäftigt sich mit der Frage, nach der Zeit in der Monte-Carlo Simulation. Es wurden in Kapitel 4.3 zwei Varianten vorgestellt, wie die Auswahl der Spins, wie sie nach Punkt 2 des Rezepts für den Metropolis Algorithmus in Kapitel 3.2 verlangt wird, durchgeführt werden kann. Zum einen kann das gesamte Gitter der Reihe nach durchlaufen werden, in dem zuerst der Spin an Position 1 ausgewählt und die Chance eingeräumt wird seine Orientierung zu wechseln, danach wird der Spin an Position 2 ausgewählt, danach jener an Position 3, usw., bis alle Spins einmal ausgewählt wurden. Einen solchen Durchlauf, in dem alle Spins einmal ausgewählt wurden, bezeichnet man als Monte-Carlo-Step (MCS). Ein einziger MCS ist selbstverständlich nicht ausreichend, so dass sich bei einer gegebenen Temperatur ein thermisches Gleichgewicht einstellen kann. Auch bei einem realen Experiment würde es eine gewisse Zeit dauern, bis sich ein thermisches Gleichgewicht einstellt. Doch welcher realen Zeit entspricht einem MCS? Einem MCS kann leider keine reale Zeitspanne zugeordnet werden, denn hierbei handelt es sich nur um eine Art Pseudo-Zeit. Es kann also kein Zusammenhang zwischen der Zeit, in der sich in einem realen Experiment ein thermisches Gleichgewicht einstellt und der Anzahl der MCS, in der es in einer Computersimulation geschieht, hergestellt werden. Man kann durch den fehlenden Zusammenhang also nicht die minimal nötige Anzahl der MCS bestimmen, die man durch die Erfahrung aus realen Experimenten erhält. Es muss also durch mehrmaliges Simulieren eine entsprechend notwendige Anzahl MCS ermittelt werden. Dies ist wiederum wieder ein Kompromiss, da zum einen ein zufriedenstellender Phasenübergang erzeugt werden, die Simulationszeit hingehen auch angemessen gering bleiben soll. Daneben gibt es noch eine weitere Variante eines MCS, in der wie nach Punkt 2 des Rezepts für den Metropolis Algorithmus ein Spin zufällig ausgewählt wird. Besteht das Gitter aus N Gitterplätzen so entspricht ein MCS der Auswahl von N zufälligen Spins. Welche dieser beiden Varianten mehr Vorteile bietet, oder bei welcher ein genauerer Phasenübergang erzeugt wird, muss durch mehrmaliges Simulieren herausgefunden werden. In dieser Arbeit wurde die erste Variante gewählt. 5.5 Simulationsergebnisse Werden all die vorangegangenen Faktoren beachtet, können die ersten Simulationen durchgeführt und ausgewertet werden. Begonnen wird mit einer Startkonfiguration, in der alle Spins parallel ausgerichtet sind. Dies würde dem Zustand T −→ 0 entsprechen und folgt nach dem Ising-Modell einer vollständigen Magnetisierung des Systems. Im nächsten Schritt wird das System, gekoppelt an ein äußeres Wärmereservoir, erwärmt, indem das Programm aus Kapitel 4.3 mit einer festgesetzten Temperatur durchlaufen wird. Die Temperatur wird von 22 5.5 Simulationsergebnisse Fakultät Physik Universität Bielefeld 1 bis 4 Grad in einem Abstand von 0.1 durchlaufen und nach Gleichung (2.21) die Magnetisierung aufgenommen. Dabei werden die magnetischen Momente jedes einzelnen Spins addiert und durch die Gesamtspinanzahl dividiert. Dies kann dann über der Temperatur aufgezeichnet werden, in derem Verlauf ein Phasenübergang erkennbar sein müsste. Für den Verlauf der spezifischen Wärmekapazität und der magnetischen Suszeptibilität wurde die Simulation über einen Temepraturbereich von über 10 Grad weiter durchlaufen. 5.5.1 Magnetisierung Die Simulation wird mit 100 MCS durchlaufen, wonach im Anschluss die Magnetisierung ausgerechnet und über der Temperatur aufgetragen wird. Es entsteht beim Erwärmen einer Spinkonfiguration, in der alle Spins parallel ausgerichtet sind, ein Verlauf, der in Abb. 2Pzu sehen ist. Für die Skalierung gilt kBJTC = 2.2692 und für die Magnetisierung N1 i Si . Abbildung 2: Magnetisierung aufgetragen über der Temperatur ohne äußerem Magnetfeld Es zeigt sich, dass das System bei niedrigen Temperaturen eine volle Magnetisierung bestitzt, welche bei größer werdenden Temperaturen kontinuierlich, aber schnell abnimmt und bei höheren Temperaturen verschwindet, bzw. nur noch einen sehr kleinen Beitrag liefert. Es zeigt sich, dass die plötzliche Abnahme der Magnetisierung in einem Bereich um den analytischen Wert von 2.2692 Grad aus Kapitel 4.2 liegt. Wie sich das System explizit entwickelt kann man auf den Teilbildern von Abb. 3 sehen. 23 Fakultät Physik Universität Bielefeld 5.5 Simulationsergebnisse 1 20 40 60 80 100 1 20 40 60 80 100 1 20 40 60 80 100 1 1 1 1 1 1 20 20 20 20 20 20 40 40 40 40 40 40 60 60 60 60 60 60 80 80 80 80 80 80 100 100 100 100 100 1 20 1 20 40 60 80 100 1 20 100 1 20 (a) 1.1 Grad 40 60 80 40 60 80 100 100 1 20 100 1 20 (b) 1.4 Grad 40 60 80 40 60 80 100 (c) 1.7 Grad 40 60 80 100 1 1 1 1 1 1 20 20 20 20 20 20 40 40 40 40 40 40 60 60 60 60 60 60 80 80 80 80 80 80 100 100 100 100 100 1 20 1 20 40 60 80 100 1 20 100 1 20 (d) 2.0 Grad 40 60 80 40 60 80 100 100 1 20 100 1 20 (e) 2.3 Grad 40 60 80 40 60 80 100 (f) 2.6 Grad 40 60 80 100 1 1 1 1 1 1 20 20 20 20 20 20 40 40 40 40 40 40 60 60 60 60 60 60 80 80 80 80 80 80 100 100 100 100 100 1 20 40 60 80 (g) 2.9 Grad 100 1 20 40 60 80 (h) 3.2 Grad 100 100 1 20 40 60 80 100 (i) 3.5 Grad Abbildung 3: Entwicklung des zweidimensionalen Ising-Spinsystems bei steigender Temperatur Da ein 100x100 Gitter für die Simulation gewählt wurde, kann man nun die Entwicklung des Systems in den Teilbildern (a) bis (i) in Abb. 3 gut nachvollziehen. In den Bildern (a) bis (d) besitzt das System eine hohe bis fast vollständige Magnetisierung, bei der bis auf einzelne wenige Spins alle parallel ausgerichtet sind. Nach der analytischen Lösung findet ein Phasenübergang bei 2.2692 Grad statt, welcher im Bild (e) bei 2.3 Grad zu erkennen ist. Es kommt zu einer stärkeren Domänenbildung, in der sich größere Bereiche mit parallelgerichtetem Spin ausbilden, die aber entgegengesetzt zur Spinrichtung der Startkonfiguration ist. In den Bildern (f) bis (i) entwickelt sich das System so, dass die Spins gleichverteilt in beide Spinrichtungen wechseln und sich die Magnetisierung damit fast vollständig aufhebt. Durch die höhere thermische Energie entkoppeln die Spins von ihren direkten Nachbarn und die Austauschwechselwirkung unter ihnen beginnt keine Rolle mehr zu spielen, damit kommt es zu einer zufälligen 24 5.5 Simulationsergebnisse Fakultät Physik Universität Bielefeld Verteilung der Spinrichtungen und die Magnetisierung der einzelnen magnetischen Momente heben sich untereinander auf. Die Magnetisierung nimmt hier also den Platz eines Ordungsparameters ein (wie schon in Kapitel 2.3 erwähnt). Das System besitzt in den Teilbildern (a) bis (d) eine gewisse Ordnung, nämlich die gleichausgerichteten Spins. Diese Ordnung geht durch den Phasenübergang ab Teilbild (e) verloren. Das Verschwinden des Ordnungsparameters ist eine erste Aussage über das Erscheinen eines Phasenübergangs. Da es sich aber um einen kontinuierlichen Phasenübergang handelt, tauchen Diskontinuitäten erst in Observablen auf, die sich aus späteren Ableitungen bilden. Dies sind die spezifische Wärmekapazität und die magnetische Suszeptibilität. Es konnte hergeleitet werden, dass sich beide Obersvablen über die Varianz zweier Observablen berechnet werden können, die sich leichter aus dem System der Simulation extrahieren lassen. Nach Gleichung (2.24) lässt sich die spezifische Wärme aus der Varianz der Energie und nach Gleichung (2.26) die magnetische Suszeptibilität aus der Varianz der Magnetisierung berechnen. Diese sollen als nächstes graphisch dargestellt werden. 5.5.2 Spezifische Wärmekapazität Nach Gleichung (2.24) wird aus der Varianz der Energie, welche sich aus Gleichung (4.1) ergibt, die spezifische Wärmekapazität berechnet und über der Temperatur aufgetragen. Die Ergebnisse sind in Abb. 4 eingezeichnet. Abbildung 4: Spezifische Wärmekapazität aufgetragen über der Temperatur ohne äußerem Magnetfeld 25 5.5 Simulationsergebnisse Fakultät Physik Universität Bielefeld Die spezifische Wärme steigt mit steigender Temperatur an, bis sie ein Maximum erlangt, welches sich bei der kritischen Temperatur befindet. Danach fällt die spezifische Wärme wieder stark ab. Da die spezifische Wärme die Wärmeenergie misst, die man benötigt, um die Temperatur um einen Kelvin zu erhöhen, erkennt man, dass während des Phasenübergangs viel mehr Wärme erforderlich ist, um dies zu ermöglichen. Nach dem Phasenübergang sinkt diese erforderliche Wärmemenge wieder, da sich das Material dann in seiner zweiten Phase befindet und keine zusätzliche Energie mehr für das Erreichen dieser Phase aufgewendet werden muss. 5.5.3 Magnetische Suszeptibilität Die magnetische Suszeptibilität wurde über die Varianz der Magnetisierung berechnet und in Abb. 5 über der Temperatur aufgetragen Abbildung 5: Magnetische Suszeptibilität aufgetragen über der Temperatur ohne äußerem Magnetfeld Die Suszeptibilität zeigt ein ähnliches Muster wie die spezifische Wärme. Bei kleinen Temperaturen bleibt die Suszeptibilität sehr klein, da die Magnetisierung durch die parallel ausgerichteten Spins sehr hoch und die Varianz, in der sich die einzelnen Spins vom Mittelwert unterscheiden, gering ist. Nachdem bei steigender Temperatur die Wahrscheinlichkeit für einen Spin, seine Richtung zu ändern, immer größer wird, steigt auch die Varianz und daher kommt es zu einem raschen Anstieg der Suszeptibilität. 26 5.6 Ising-Spinkette im äußeren Magnetfeld Fakultät Physik Universität Bielefeld 5.6 Ising-Spinkette im äußeren Magnetfeld Nun wird die Ising-Spinkette mit einem angelegten äußeren Magnetfeld untersucht, dabei wird wie im vorangegangenen Abschnitt die Magnetisierung über der Temperatur aufgetragen. Außerdem werden die spezifische Wärmekapazität und die magnetische Suszeptibilität mit den Werten ohne äußerem Magnetfeld verglichen. Das äußere Magnetfeld aus Gleichung (4.1) wird auf B = 1 gesetzt1 und die Variable bfeld aus der Implementierung der Computersimulation dementsprechend geändert. Der Temperaturbereich wird bis auf 30 Grad ausgeweitet, allerdings mit einem Abstand von 0.3 Grad um die Rechenzeit zu kompensieren. Bevor jedoch die Simulationsergebnisse präsentiert werden, soll der Ausgang vorher theoretisch bestimmt werden. 5.6.1 Theoretische Vorhersage Die analytische Rechnung, für das Verhalten eines Spins in einem äußeren Magnetfeld, sieht für die Magnetisierung wie folgt aus 1 h+|Si e−β Ĥ |+i + h−| − Si e−β Ĥ |−i Z 1 −βB = − e − eβB Z βB e − e−βB = βB e + e−βB = tanh (βB) hM i = − (5.15) (5.16) (5.17) (5.18) Der Spin kann in dieser Rechnung nur zwei Zustände annehmen, nämlich parallel oder antiparallel zum äußeren Magnetfeld, Si = {1, −1} in z-Richtung falls o.B.d.A. ~ = B0 e~z gilt. Der Hamiltonoperator bekommt die Form Ĥ = −~µ · B, ~ das bedeutet, B dass der Spin nur mit dem äußeren Magnetfeld koppelt und keinerlei Wechselwirkung mit anderen Spins besteht2 . Überführt man diese Rechnung auf ein System mit N Spins, muss über alle Si summiert werden. Da die Terme sowohl im Zähler als auch im Nenner von Gleichung (5.17) N mal vorkommen, kann die Formel für das zweidimensionale Spinsystem übernommen werden. Allerdings muss beachtet werden, dass die Spins nach dieser Rechnung keinerlei Wechselwirkung untereinander zeigen. Für sehr hohe Temperaturen gilt tanh (βB) ≈ βB = kBBT ∼ T1 , was auch als das Curie Gesetz bekannt ist [10]. 1 2 in Einheiten von µ̂, dem magnetischen Moment des in dieser Arbeit verwendeten Ising-Spins reduziert sich auf H = −B, da B · µ̂ = B für µ̂ = 1 (mag. Moment des Ising-Spins) 27 5.6 Ising-Spinkette im äußeren Magnetfeld Fakultät Physik Universität Bielefeld 5.6.2 Ergebnisse Die Magnetisierung des Spinsystems im äußeren Magnetfeld ist in Abb. 6 über der Temperatur aufgetragen. Für die Skalierung der Temperatur gilt wieder kBJTC = 2.2692 P und für das angelegte B-Feld Bµ̂ = 1, die Magnetisierung wurde wieder durch N1 i Si berechnet. Abbildung 6: Magnetisierung aufgetragen über der Temperatur mit äußerem Magnetfeld (blau gepunktet); tanh(1/T) (rote Kurve) Die rote Kurve in Abb. 6 zeigt den Verlauf des Curie-Gesetzes. Die durch die Computersimulation gemessenen Punkte liegen eindeutig über dieser Kurve, da die Spins im Ising-Modell miteinander wechselwirken. Die Nachbar-Nachbar-Wechselwirkung verursacht also einen langsameren Abstieg der Magnetisierung bei steigender Temperatur. In Abb. 7 wurden die spezifische Wärmekapazität und die magnetische Suszeptibilität jeweils mit und ohne äußerem Magnetfeld übereinander aufgetragen. Es zeigt sich bei der Wärmekapazität, dass der charakteristische Peak bei der Kurve mit äußerem Magnetfeld (blau) nur halb so hoch ist wie der Peak ohne äußerem Magnetfeld (rot). Auch bei der Suszeptibilität zeigt sich, dass bei einem äußeren Magnetfeld die Kurve (blau) deutlich unterhalb der Kurve für den Verlauf ohne äußerem Magnetfeld (rot) bleibt. Die Spins versuchen sich überwiegend am externen Magnetfeld auszurichten (vgl. Gleichung (4.5)), daher kommt es zu einem langsameren Abfallen der Magnetisie- 28 5.6 Ising-Spinkette im äußeren Magnetfeld Fakultät Physik Universität Bielefeld (a) Spezifische Wärmekapazität (b) Magnetische Suszeptibilität Abbildung 7: Wärmekapazität und Suszeptibilität aufgetragen über der Temperatur; Rot B=0, Blau B=1 29 Fakultät Physik Universität Bielefeld rung bei steigender Temperatur. Durch das langsamere Fallen der Magnetisierung ist auch ihre Varianz und die Varianz der Energie geringer und es kommt zu kleineren Wärmekapazitäten und Suszeptibilitäten nach Gleichungen (2.24) und (2.26). 6 Zusammenfassung Anhand des Ising-Modells konnte in dieser Arbeit gezeigt werden, wie man mit Hilfe von Computersimulationen zu theoretisch vorhergesagten Ergebnissen kommen kann. Die verwendete Monte-Carlo-Methode simulierte ein zweidimensionales Ising-System, bestehend aus 100x100 Gitterplätzen, an denen sich jeweils Spins mit einem magnetischen Moment befinden, deren direkte Nachbarn untereinander in Wechselwirkung treten. Es zeigte sich sowohl in der Theorie, als auch in der Simulation, dass es bei einer Temperatur von TC = 2.2692 kJB zu einem Phasenübergang kommt, indem der Ordnungsparameter des Systems, die Magnetisierung, von einem konstanten Wert auf Null abfällt. Somit kann bestätigt werden, dass Computersimulationen in der Physik ihre Berechtigung finden. In folgenden Arbeiten könnte nun die Monte-Carlo-Methode auf das dreidimensionale Ising-System angewendet werden, für das es noch keine exakte mathematische Lösung gibt.1 Aber auch in vielen anderen Bereichen der Physik kann die Computersimulation zum Einsatz kommen, wie z.B. in der Elementarteilchenphysik. Es hat sich gezeigt, dass bei der Simulation des Ising-Modells mehrere Faktoren beachtet werden müssen, wie z.B. die Gittergröße, die sowohl die Güte des Phasenübergangs, als auch die Simulationszeit beeinflusst, oder die Verwendung von periodischen Randbedingungen, die auch Einfluss auf eine Simulation ohne ungewollte Fluktuationen an den Rändern nehmen. Mit Hilfe der graphischen Darstellung des 100x100 Gitters, konnte die Domänenbildung gezeigt werden, die so auch in einem realen Ferromagneten auftritt und sich Bereiche mit gleicher Magnetisierung ausbilden. Das Ising-Modell ist ein sehr gutes Beispiel gewesen für die Anwendung der MonteCarlo-Methode, da es sehr gute Ergebnisse erzielt und daher in der Physik große Anerkennung findet. Es ist ebenfalls ein sehr gutes Beispiel für den Einstieg in die Verwendung von Computersimulationen in der Physik und ließ einen Einstieg in das dafür verwendete Programmpaket Mathematica zu. Des weiteren wurde der verwendete Metropolis-Algorithmus vorgestellt und in dieser Arbeit kennengelernt, der nur eine Möglichkeit darstellt, das Ising-Modell zu simulieren. 1 in der Tat ist dies schon gemacht worden 30 Literatur Fakultät Physik Universität Bielefeld Literatur [1] Wolfgang Nolting, Grundkurs Theoretische Physik 4 - Spezielle Relativitätstheorie, Thermodynamik, Springer-Verlag Berlin Heidelberg, 2002 [2] Wolfgang Nolting, Grundkurs Theoretische Physik 6 - Statistische Physik, Springer-Verlag Berlin Heidelberg, 2002 [3] Stefan Torbrügge, Anwendung der Monte-Carlo-Methode auf klassische Spinsysteme, Universität Osnabrück, Bachelorarbeit, 2003 [4] Katrin Jahns, Monte-Carlo-Simulationen an Fe30 -Schichtsystemen, Universität Osnabrück, Bachelorarbeit, 2006 [5] David P. Landau & Kurt Binder, A Guide to Monte Carlo Simulations in Statistical Physics, Cambridge University Press 2000 [6] N. Metropolis, Aw. Rosenbluth, Mn. Rosenbluth, Ah. Teller, E. Teller, Equation of state calculations by fast computing machines. Journal of Chemical Physics 21, 1087-1092, 1953 [7] Wilhelm Lenz, Physikalische Zeitschrift 21, 613, 1920 [8] Ernst Ising, Zeitschrift für Physiker 31, 253, 1925 [9] Lars Onsager, Phys. Rev. 65, 117, 1944 [10] Diu/Guthmann/Lederer/Roulet, Grundlagen der statistischen Physik, de Gruyter 1994 31