Untersuchung des zweidimensionalen Ising

Werbung
Vorgelegt an der Universität Bielefeld
Fakultät für Physik
Bachelorarbeit:
Untersuchung des zweidimensionalen Ising-Spinsystems auf
Phasenübergänge
Condensed Matter Group
Prof. Jürgen Schnack
von
Daniel Meier
Bielefeld
9. April 2009
Inhaltsverzeichnis
1 Einleitung
3
2 Statistische Physik
2.1 Statistische Eigenschaften . . . . . . . . . . . . .
2.2 Thermodynamische Observable . . . . . . . . . .
2.2.1 Innere Energie . . . . . . . . . . . . . . . .
2.2.2 Freie Energie . . . . . . . . . . . . . . . .
2.2.3 Enthalpie und Gibb’sche (freie) Enthalpie
2.2.4 Magnetisierung . . . . . . . . . . . . . . .
2.2.5 Spezifische Wärme . . . . . . . . . . . . .
2.2.6 Magnetische Suszeptibilität . . . . . . . .
2.3 Phasenübergänge . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
4
4
5
6
6
7
7
8
8
9
.
.
.
.
.
10
10
10
11
12
13
Ising-Modell
Allgemeines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Analytische Lösung . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Implementierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
15
15
16
16
3 Monte-Carlo-Simulation
3.1 Grundlagen der Simulation .
3.1.1 Importance Sampling
3.1.2 Markov-Kette . . . .
3.1.3 Akzeptanzraten . . .
3.2 Metropolis Algorithmus . .
4 Das
4.1
4.2
4.3
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5 Simulationen zum zweidimensionalen Ising-Modell
5.1 Gittergröße . . . . . . . . . . . . . . . . . . . .
5.2 Periodische Randbedingungen . . . . . . . . . .
5.3 Startkonfiguration . . . . . . . . . . . . . . . . .
5.4 Monte-Carlo-Steps . . . . . . . . . . . . . . . .
5.5 Simulationsergebnisse . . . . . . . . . . . . . . .
5.5.1 Magnetisierung . . . . . . . . . . . . . .
5.5.2 Spezifische Wärmekapazität . . . . . . .
5.5.3 Magnetische Suszeptibilität . . . . . . .
5.6 Ising-Spinkette im äußeren Magnetfeld . . . . .
5.6.1 Theoretische Vorhersage . . . . . . . . .
5.6.2 Ergebnisse . . . . . . . . . . . . . . . . .
6 Zusammenfassung
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
20
20
20
21
22
22
23
25
26
27
27
28
30
Fakultät Physik
Universität Bielefeld
1 Einleitung
Computersimulationen sind ein technisches Mittel, dessen sich die theoretische Physik
bedient um analytisch unlösbare oder sehr schwer lösbare Probleme numerisch lösen zu
können. Man erhält durch eine Computersimulation Simulationsergebnisse, die ähnlich
wie Messergebnisse eines physikalischen Experiments ausgewertet werden können und
eine Bestimmung physikalischer Observabler eines Systems zulassen. Theoretische Physiker, die mit Computersimulationen arbeiten, bilden somit eine Zwischenstufe zwischen
der theoretischen Beschreibung physikalischer Systeme und deren experimenteller Untersuchung. Es hat sich im Laufe der Jahre in der Entwicklung des Computerzeitalters
gezeigt, dass sich mithilfe des Computers bestimmte Systeme der Natur näherungsweise
genau beschreiben lassen. Diese ganz bestimmten Systeme werden in idealisierten Modellen beschrieben. Ein solches Modell ist das Ising-Modell, um das es in dieser Arbeit
geht. Es beschreibt in idealisierter Weise ein bestimmtes physikalisches System und
lässt eine Simulation mit dem Computer zu, so dass man empirisch bestätigte Simulationsergebnisse bekommt, mit denen eine physikalische Interpretation des Systems
möglich ist.
Diese Arbeit beschäftigt sich mit Phasenübergängen und den Änderungen die durch
Aufteten eines äußeren Parameters, wie z.B. eines externen Magnetfeldes, auftreten
können. Ähnlich wie Phasenübergänge eines Stoffes zwischen fest, flüssig und gasförmig,
gibt es in einem Festkörper Phasenübergänge in der Magnetisierung, wie dem Übergang
zwischen Ferro- und Paramagnetismus. Da die Magnetisierung auf die Spinzustände der
einzelnen Atome zurückzuführen ist, werden diese mit dem Ising-Modell beschrieben
und, da die analytische Berechnung größerer Systeme schwierig ist, durch die MonteCarlo-Methode simuliert. Dadurch wird die Anwendbarkeit der Computersimulation
an einem einfachen, idealisierten Modell demonstriert, sowie Probleme, die bei dieser
Methode berücksichtigt werden müssen, erklärt. Es wird dazu ausführlich gezeigt, wie
die theoretische und physikalische Beschreibung und die daraus gewonnenen Formeln in
ein ausführbares Computerprogramm umgesetzt werden. Im Vordergrund stehen dabei
selbstverständlich die damit gewonnenen Ergebnisse und ihre physikalische Interpretation.
3
Fakultät Physik
Universität Bielefeld
2 Statistische Physik
Es werden mikroskopische Systeme betrachtet, die aus einer Vielzahl von Teilchen bestehen, daher bedient man sich der Formeln und Observablen der statistischen Physik,
mit derer sich das System beschreiben lässt. Es werden also nachfolgend Grundprinzipien und Observable eingeführt, die für die weitere Arbeit notwendig sind (vgl. [3],[4]).
2.1 Statistische Eigenschaften
Es werden mikroskopische Systeme betrachtet, die aus einer Vielzahl von Teilchen bestehen, die miteinander unter gewissen Bedingungen in Wechselwirkung treten und
gewisse Eigenschaften besitzen, so dass sie zu einer bestimmten Zustandsenergie En im
Zustand n beitragen, die das System besitzt. Ein Zustand des Systems bezeichnet eine
bestimmte Konfiguration, in der jedem Teilchen ein fester Ort und Impuls zugeordnet
werden kann, oder in einem System von Spins eine feste Anordnung der Spinausrichtungen. Zudem wird in der Thermodynamik ein Zustand durch feste Zustandsgrößen
wie Druck, Volumen, Temperatur und Teilchenzahl bestimmt, die das System charakterisieren. Dieses System ist an ein Wärmereservoir gekoppelt, mit dem es zusammen
nach einer bestimmten Zeit in ein thermisches Gleichgewicht kommt, wobei sich der
Zustand n des Systems und damit die Zustandsenergie En ändert. Die Zustandsenergie
ist über die Hamiltonfunktion H(n) definiert, die abhängig vom Zustand des Systems
ist, woraus En = H(n) folgt. Die Hamiltonfunktion vernachlässigt dabei die Wechselwirkung zwischen dem System und dem gekoppelten Wärmereservoir. Ein System,
welches mit seiner Umgebung ausschließlich Energie austauscht bezeichnet man als geschlossenes System, oder kanonisches Ensemble.
Ändert sich die Temperatur des Systems, ändert sich die Zustandsenergie als Folge eines Übergangs des Systems in einen anderen Zustand. Wn→m bezeichnet die
Übergangsrate, dass das System vom Zustand n in den Zustand m übergegangen ist und
Pn (t) definiert die Wahrscheinlichkeit das System zur Zeit t im Zustand n vorzufinden.
Mit diesen beiden Größen lässt sich die zeitliche Entwicklung des gesamten Systems
beschreiben durch
dPm (t) X
=
[Pn (t)Wn→m − Pm (t)Wm→n ]
dt
n6=m
(2.1)
wobei der erste Term der Summe die Rate ist, mit der das System vom Zustand n nach
m wechselt und der zweite Term die Rate für den Wechsel vom Zustand m nach n.
Die zeitliche Änderung der Wahrscheinlichkeit des Zustands m ist also die Differenz
aus dem Verlassen des Zustandes m und dem Übergang in den Zustand m aus jedem
anderen möglichen Zustand.
4
Fakultät Physik
Universität Bielefeld
2.2 Thermodynamische Observable
Da sich das System zu jeder Zeit in irgendeinem Zustand befinden muss gilt die
Bedingung
X
Pm (t) = 1
(2.2)
m
Eine weitere wichtige Voraussetzung ist, dass sich das System im Equilibrium befindet.
Das bedeutet, dass sich die Wahrscheinlichkeiten Pm (t) mit der Zeit nicht ändern und
die beiden Terme in der Summe von Gleichung (2.1) gleich sind
Pn (t)Wn→m = Pm (t)Wm→n
(2.3)
was man als detailed balance bezeichnet.
Es wird nun ein System betrachtet, das sich im Grenzfall nach einer unendlich langen Zeit im Equilibrium befindet. Für die Besetzungswahrscheinlichkeit das System in
einem Zustand im Gleichgewicht zu finden erhält man
pn = lim Pn (t)
t→∞
(2.4)
Die Besetzungswahrscheinlichkeiten, für ein System im thermischen Gleichgewicht,
sind die Boltzmann-Faktoren (vgl. [2]) und gegeben durch
1 −En /kB T
e
(2.5)
Z
mit der Boltzmann-Konstante kB , der Temperatur T in Kelvin (im Folgenden abgekürzt durch β = 1/kB T ) und einer Normierung Z, die man Zustandssumme nennt
und sich folgendermaßen berechnen lässt
X
Z = Sp(e−βH ) =
e−βEn
(2.6)
pn =
n
Aus der Funktion der Zustandssumme lassen sich viele thermodynamische Observablen
herleiten, wie z.B. die innere Energie, die freie Energie, oder die Entropie.
2.2 Thermodynamische Observable
Wie oben erwähnt lassen sich aus der Zustandssumme diverse Observable aus der Thermodynamik herleiten. Im folgenden werden einige dieser Observablen für ein System
im thermodynamischen Gleichgewicht, also mit konstanter Temperatur, zudem konstanter Teilchenzahl und konstantem Volumen berechnet.
Zuvor soll der Begriff des Erwartungswertes erläutert werden. Darunter versteht
man jenen Wert, der sich bei mehrmaligem Wiederholen eines Experimentes als Mittelwert der beobachteten Größe ergibt. Das bedeutet, in einem System mit n Zuständen,
5
Fakultät Physik
Universität Bielefeld
2.2 Thermodynamische Observable
in denen jeder Zustand mit der Wahrscheinlichkeit Pn (t) auftritt, berechnet sich der
Erwartungswert einer Größe X zu
hXi =
X
Xn Pn (t) =
n
1X
Xn e−βEn
Z n
(2.7)
wobei im letzten Schritt Gleichung (2.5) ausgenutzt wurde.
2.2.1 Innere Energie
Als innere Energie U bezeichnet man in der Thermodynamik die mittlere Energie hEi
eines Systems, die sich nach (2.7) folgendermaßen ergibt
U = hEi =
1X
En e−βEn
Z n
(2.8)
in Abhängigkeit von der Zustandssumme lässt sich die innere Energie auch schreiben
als
1 ∂Z
∂ ln Z
U =−
=−
(2.9)
Z ∂β
∂β
2.2.2 Freie Energie
Die freie Energie F setzt sich zusammen aus der inneren Energie U und der Entropie
S zu
F = U − TS
(2.10)
um sie auch in Abhängigkeit der Zustandssumme zu schreiben kann man U durch
(2.9) ersetzen, nun muss nur noch die Entropie ersetzt werden, dazu benutzt man die
Definitionen für die spezifische Wärme C
C=
∂U
∂U
∂ 2 ln Z
= −kB β 2
= −kB β 2
∂T
∂β
∂β 2
und
C=T
∂S
∂S
=β
∂T
∂β
(2.11)
(2.12)
wonach man durch Gleichsetzen und Integrieren
S = −kB β
∂ ln Z
+ kB ln Z
∂β
(2.13)
erhält. Setzt man dies auch in (2.10) ein so erhält man für die freie Energie
F = −kB T lnZ
(2.14)
6
Fakultät Physik
Universität Bielefeld
2.2 Thermodynamische Observable
2.2.3 Enthalpie und Gibb’sche (freie) Enthalpie
Dies soll kurz die zwei Energieformen Enthalpie H und Gibb’sche Enthalpie G auflisten.1 Es handelt sich dabei, wie auch bei der innere Energie U und die freie Energie F
um thermodynamische Potentiale. Je nach Erfordernis kann man sich auch noch weitere
thermodynamische Potentiale zusammenstellen, die für bestimmte Problemstellungen
sinnvoller erscheinen. Die hier beschriebenen sind allerdings die in der Physik und der
Chemie üblichen Potentiale. Für die spätere Beschreibung der Phasenübergänge ist die
Gibb’sche Enthalpie notwendig.
Es lassen sich neue thermodynamische Potentiale mittels einer Legendre-Transformation
erzeugen, so dass man für die Enthalpie
H = H(S, p) = U + pV
(2.15)
und für die Gibb’sche Enthalpie
G = G(T, p) = U − T S + pV
(2.16)
erhält. Die unterschiedlichen thermodynamischen Potentiale bieten den großen Vorteil,
dass sich durch direktes Ableiten die abhängigen Variablen ergeben. So folgt für die
Entropie S
∂G
(2.17)
S=−
∂T p
und für das Volumen V
V =
∂G
∂p
(2.18)
T
2.2.4 Magnetisierung
Die Magnetisierung ist die charakterisierende Größe für den magnetischen Zustand
eines Materials, die sich als magnetisches Moment µ
~ pro Volumeneinheit V berechnen
lässt, also
~ = d~µ
M
(2.19)
dV
Hergeleitet wird dies aus der potentiellen Energie des magnetischen Moments µ
~ in
~
einem externen Feld µ
~ · B. Da im folgenden immer ein Magnetfeld auschließlich mit
~ = B0 e~z angenommen wird, erhält man für die
einer Komponente in z-Richtung, also B
Magnetisierung eines Systems im Zustand n
Mn = −
1
∂En
∂Bz
(2.20)
Die freie Energie F hätte ebenso in diesen Unterabschnitt gepasst, alledings sollte an ihr gezeigt werden, wie wichtig die Zustandssumme Z für die Herleitung aller angegebenen thermodynamischen
Observablen ist.
7
Fakultät Physik
Universität Bielefeld
2.2 Thermodynamische Observable
Die mittlere Magnetisierung hM i lässt sich wieder mit Gleichung (2.7) berechnen zu
1X
Mn e−βEn
(2.21)
hM i =
Z n
2.2.5 Spezifische Wärme
Die spezifische Wärme wurde schon zur Herleitung der freien Energie verwendet. Sie
wird auch spezifische Wärmekapazität genannt und beschreibt die Wärmemenge, die
einem Stoff zugefügt werden muss, um die Temperatur um einen Kelvin zu erhöhen.
Sie ist damit ein Maß für die Änderung der inneren Energie U und lässt sich auch als
Varianz von hEi beschreiben mit
"
2 #
2
2
∂
1 ∂Z
1∂ Z
1 ∂Z
∂ ln Z
= kB β 2
(2.22)
C = kB β 2
= kB β 2
− 2
2
2
∂β
∂β Z ∂β
Z ∂β
Z
∂β
dabei beschreibt der letzte Term in den eckigen Klammern die Varianz hE 2 i − hEi2 in
E. Berechnet man
2
1 ∂ 2Z
1 2 −βEn
=
(2.23)
E = En e
Z
Z ∂β 2
wird C als die Varianz der mittleren Energie verifiziert, also
C = kB β 2 E 2 − hEi2
(2.24)
2.2.6 Magnetische Suszeptibilität
Die magnetische Suszeptibilität χ beschreibt die Änderung der Magnetisierung in
Abhängigkeit eines äußeren Magnetfeldes, mit
χ=
∂M
∂B
(2.25)
dies lässt sich mit Gleichung (2.20) und einer ähnlichen Umformung wie für die spezifische Wärme zu einer Gleichung verwandeln, die die Varianz der Magnetisierung
enthält. Man erhält
2
1 ∂ 2 hHi
=
β(
M − hM i2 )
(2.26)
χ=−
2
β ∂B
Bei der Betrachtung dieser thermodynamischen Observablen sieht man deutlich, wie
wichtig die Zustandssumme des beobachteten Systems ist. Um die Zustandssumme berechnen zu können ist allerdings die genaue Kenntnis jedes einzelnen Zustandes und
damit die Kenntnis aller Eigenwerte der Hamiltonfunktion nötig. Dies ist bei größeren
Systemen natürlich nicht mehr so einfach möglich, oder bedarf zeitintensiver Rechnungen, nicht selten mit einem Hochleistungsrechner. In dieser Arbeit versucht man dies
mit Hilfe der Monte-Carlo-Methode zu umgehen, die in Abschnitt 3 beschrieben wird.
8
2.3 Phasenübergänge
Fakultät Physik
Universität Bielefeld
2.3 Phasenübergänge
In diesem Abschnitt geht es um den Begriff des Phasenübergangs, der in dieser Arbeit
eine zentrale Rolle spielt, da solche Übergänge zwischen zwei Phasen ein und des selben
Materials, z.B. an dem Ising-Spinsystem untersucht werden.
Ein Material kann durch äußere Einflüsse (Temperatur-, Druck, Volumenänderung) eine Zustandsänderung erfahren, die sich durch die Änderung bestimmter sichtbarer,
oder messbarer Eigenschaften manifestiert. Da es eine vielzahl verschiedener Phasenübergänge gibt versucht man diese zu klassifizieren. Eine solche nützliche Klassifikation geht auf Ehrenfest zurück (vgl. [1]). In dieser Klassifikation wird zwischen
Phasenübergängen erster und zweiter Ordnung unterschieden.1 Bei Phasenübergängen
erster Ordnung spielen sogenannte latente Wärmen eine große Rolle, die für einen
Übergang in eine neue Phase sorgen. Ein Beispiel hierfür ist der Übergang von Wasser
in Wasserdampf. Führt man dem System Wärme zu, ändert sich selbstverständlich
die Temperatur, doch im sogenannten Zwei-Phasen-Gebiet wird diese Wärme dazu benötigt um Wasser in Wasserdampf umzuwandeln. Da dieser Vorgang isotherm
verläuft, spricht man von einer latenten Wärme, die dem System zugeführt wird. Eine Folge davon ist, dass die ersten Ableitungen der in Gleichung (2.16) angegebenen
Gibb’schen Enthalpie G unstetig sind, wenn der Phasenübergang eintritt. Es liegt nun
nahe zu vermuten, dass bei einem Phasenübergang zweiter Ordnung die zweiten Ableitungen von G unstetig sind. Dazu zählt z.B. die spezifische Wärmekapazität C,
bei der man an Gleichung (2.22) sehen kann, dass es sich dabei um eine zweite Ableitung nach der Temperatur T handelt. Damit lässt sich nun auch erklären, warum
Phasenübergänge höherer Ordnungen wenig sinnvoll sind, da höheren Ableitungen keine sinnvollen thermodynamischen Observablen zugeordnet werden können und diese
auch so gut wie nicht mehr sichtbar oder messbar sind, so dass eine wirkliche Zustandsänderung des Materials nach einem solchen Phasenübergang nicht erkennbar ist.
Diese Arbeit beschäftigt sich mit dem Phasenübergang zweiter Ordnung, mit dem
dafür bekanntesten Beispiel des Weiß’schen Ferromagneten. Der französische Physiker
Pierre-Ernest Weiß entdeckte schon 1907, dass in einem Festkörper ein inneres Magnetfeld, das sogenannte Molekularfeld, eine spontane Magnetisierung erzeugen kann
[2]. Wie später im Kapitel 4 noch näher erklärt wird, tritt diese spontane Magnetisierung nur unterhalb einer bestimmten Temperatur auf und nimmt einen konstanten
Wert an, über dieser Temperatur verschwindet sie. Die Magnetisierung sinkt kontinuierlich auf Null, daher spricht man auch von einem kontinuierlichen Phasenübergang.
Die Magnetisierung nimmt hierbei die Aufgabe eines Ordnungsparameters ein.
1
Theoretisch gibt es auch noch Phasenübergänge n-ter Ordnug (n > 2), jedoch spielen sie in dieser
Arbeit keine und in der Natur, bzw. für das physikalische Interesse kaum eine Rolle.
9
Fakultät Physik
Universität Bielefeld
3 Monte-Carlo-Simulation
Im Mittelpunkt einer Monte-Carlo-Simulation steht das Zufallsexperiment. Mit Hilfe
des Computers können Zufallszahlen generiert werden, die den Ausgang eines stochastischen Simulationsalgorithmus bestimmen, welcher in großer Anzahl mehrfach durchlaufen wird. Dieser Algorithmus versucht die Abläufe in der Natur näherungsweise zu
kopieren, indem, durch physikalische Gesetze vorgegeben, mehrere Ausgänge möglich
sind, die mit einer bestimmten Wahrscheinlichkeit gewichtet werden.
Im Folgenden wird gezeigt wie ein solcher Algorithmus aussieht, der auch für die gesamte Arbeit benutzt wird und wie sich die Wahrscheinlichkeiten ergeben, mit denen
die möglichen Ausgänge der Zufallsexperimente gewichtet werden.
3.1 Grundlagen der Simulation
In Kapitel 2 wurde gezeigt, dass zur Bestimmung physikalischer Observablen, oder ihrer
Erwartungswerte alle möglichen Zustände des Systems bekannt sein müssen. Betrachtet
man ein Gitter aus 100x100 Spins, die jeweils zwei mögliche Ausrichtungen einnehmen
können (Spin-up und Spin-down) so gibt es 2100·100 ≈ 2 · 103010 mögliche Zustandskonfigurationen. Man würde eine unvorstellbare Zeit benötigen, um die Zustandssumme
zur vollständigen Beschreibung des Systems berechnen zu können. Selbst für mehrere
Supercomputer, die man miteinander koppeln würde, wäre dieses Problem immer noch
sehr zeitaufwendig und würde auch relativ hohe Kosten verursachen, die bei der Benutzung in einem Rechenzentrum aufkommen. Eine günstige und zeitsparende Lösung
bietet das Importance Sampling.
3.1.1 Importance Sampling
Wie beim simple sampling betrachtet man nicht alle möglichen Konfigurationen des
Systems, sondern nimmt lediglich eine Auswahl der möglichen Zustände in seine Berechnungen auf, die repräsentativ für das gesamte System sind und es näherungsweise
genau beschreiben sollen. So wird der Erwartungswert einer Observablen X nicht aus
allen möglichen Werten erstellt, sondern ausschließlich über eine geringere, endliche
Auswahl von M Zuständen berechnet mit
PM
−1 −βEni
i=1 Xni pni e
(3.1)
XM = P
M
−1 −βEnj
j=1 pnj e
Diese Formel erinnernt an Gleichung (2.7) und wenn M der gesamten Anzahl an
möglichen Zuständen entspricht folgt auch XM = hXi. Doch der wesentliche Unterschied ist, dass in Gleichung (3.1) jeder zufällig gewählte Zustand mit einem Wahrscheinlichkeitsfaktor gewichtet werden muss. Die Importance Sampling Methode bevorzugt nun solche Zustände, die einen großen Wahrscheinlichkeitsfaktor besitzen und
somit am häufigsten auftreten und das System am meisten beeinflussen. Dieses Vorgehen wird dadurch gerechtfertigt, dass innerhalb einer Messung nicht alle möglichen
10
Fakultät Physik
Universität Bielefeld
3.1 Grundlagen der Simulation
Zustände durchlaufen werden. Der Erwartungswert wird letztlich nur von den wichtigsten, den important states bestimmt. Die Zustände werden mit ihrer zugehörigen
Boltzmann-Wahrscheinlichkeit generiert, so dass sie mit ihrem Boltzmann-Gewicht
pn =
1 −βEn
e
Z
(3.2)
auftreten und Gleichung (3.1) sich zu
XM
M
1 X
Xni
=
M i=1
(3.3)
vereinfacht, in der die Boltzmann-Gewichte überhaupt nicht mehr vorkommen.
Es sei nun darauf hingewiesen, dass sich Gleichung (3.2) am besten für Systeme anwenden lässt, die sich die meiste Zeit in den Zuständen befinden, die nach der BoltzmannVerteilung am häufigsten auftreten. Nun folgt die Generierung dieser Zustände.
3.1.2 Markov-Kette
Die Zustände des Systems sollen nun der Boltzmann-Verteilung entsprechen und werden mit Hilfe einer Markovkette generiert. Während eines einzelnen Schrittes wechselt
das System von einem Zustand n in einen Zustand m mit der Übergangswahrscheinlichkeit P (n → m). Wird dieser Vorgang mehrmals wiederholt entsteht eine Markov-Kette,
ein stochastischer Prozess der bestimmten Kriterien genügt. Während der gesamten
Messung bleiben die Übergangswahrscheinlichkeiten zeitlich konstant und sind ausschließlich von n und m, dem Anfangs- und dem Endzustand abhängig und es muss
die Bedingung
X
P (n → m) = 1
(3.4)
m
erfüllt sein, da der Prozess immer einen Zustand generieren muss. Dies kann auch der
alte Zustand sein.
Für die Monte-Carlo Simulation soll für das System zudem Ergodizität herrschen. Das
bedeutet, dass aus jedem beliebigen Zustand n der Zustand m erreicht werden kann,
selbst wenn dies nur über beliebig viele Zwischenschritte erfolgt. Außerdem soll die
in 2.1 beschriebene detailed-balance Bedingung herrschen, damit das System auch der
Boltzmann-Verteilung unterliegt. Für ein System im Equilibrium sind die Wahrscheinlichkeiten für das Verlassen eines Zustandes und den Übergang in diesen Zustand identisch:
X
X
pn P (n → m) =
pm P (m → n)
(3.5)
m
m
Nach Gleichung (3.4) gilt aber
pn =
X
pm P (m → n)
(3.6)
m
11
3.1 Grundlagen der Simulation
Fakultät Physik
Universität Bielefeld
Dies ist leider noch keine ausreichende Bedingung dafür, dass sich die Wahrscheinlichkeitsverteilung aus jedem Zustand heraus bilden kann. So kann es zu einem dynamischen Equilibrium kommen, in dem sich die Wahrscheinlichkeitsverteilung verändern
kann. Daher wird Gleichung (2.3) verwendet, die wir in diesem Kapitel ändern in
pn P (n → m) = pm P (m → n)
(3.7)
der detailed-balance Bedingung, die ebenfalls Gleichung (3.5) erfüllt.
Formt man Gleichung (3.7) um und benutzt für die Boltzmann-Gewichte (3.2) so folgt
P (n → m)
pm
=
= e−β(Em −En )
P (m → n)
pn
(3.8)
und die Markov-Kette produziert Zustände, die der Boltzmann-Verteilung entsprechen.
3.1.3 Akzeptanzraten
Um eine Markov-Kette zu definieren, die Zustände gemäß der Boltzmann-Verteilung erzeugt, muss ein entsprechender Satz von Übergangswahrscheinlichkeiten P (n → m) gegeben sein. Nach Gleichung (3.8) lassen diese allerdings einen hohen Grad an Freiheiten
zu, so dass jeder beliebige Algorithmus zur Realisierung der Markov-Kette verwendet
werden kann. Da in Gleichung (3.8) nur der Quotient der Übergangswahrscheinlichkeiten eine Rolle spielt, können diese folgendermaßen aufgeteilt werden:
P (n → m) = g(n → m)A(n → m)
(3.9)
mit der Wahrscheinlichkeit g(n → m), dass der Algorithmus aus dem Zustand n
den Zustand m generiert und der Akzeptanzrate A(n → m), dass der neue Zustand
übernommen oder verworfen wird. Die Akzeptanzrate wird frei zwischen Null und
Eins gewählt und gibt somit an, dass ein generierter Zustand nur nach bestimmten
Kriterien angenommen wird. Demnach gilt
g(n → m)A(n → m)
P (n → m)
=
P (m → n)
g(m → n)A(m → n)
(3.10)
Gleichung (3.10) erfüllt alle Forderungen einer Markov-Kette. Es wird immer ein Zustand generiert und falls ein Zustand
verworfen wird verharrt das System im alten
P
Zustand, so dass die Bedingung m P (n → m) = 1 nicht verletzt wird. Sie sind weiterhin nur von den Zuständen n und m abhängig und sie werden zeitlich nicht verändert.
Nun wird nach einem Algorithmus gesucht, der neue Zustände mit der Wahrscheinlichkeit g(n → m) generiert und diese mit der Akzeptanzrate A(n → m) annimmt oder
verwirft. Dabei sollte beachtet werden, dass die Akzeptanzrate so groß wie möglich
gewählt wird, damit das System nach kurzer Zeit den Zustand wechselt und nicht zu
lange im gleichen Zustand verbleibt. Ein dafür geläufiger Algorithmus wir im nächsten
Abschnitt beschrieben.
12
Fakultät Physik
Universität Bielefeld
3.2 Metropolis Algorithmus
3.2 Metropolis Algorithmus
Der 1953 von Nicolas Metropolis publizierte Metropolis Algorithmus [6] entspricht einer Monte-Carlo Methode, die Zustände eines Systems entspechend der BoltzmannVerteilung erzeugt. Der Algorithmus entspricht dabei allen Kriterien einer MarkovKette. Das besondere am Metropolis Algorithmus ist, dass zum einen die Wahrscheinlichkeiten g(n → m) für einen erlaubten Übergang von n nach m alle gleich gewählt und
festgelegt werden, für unerlaubte Übergänge die Wahrscheinlichkeit Null beträgt und
zum anderen die Akzeptanzraten A(n → m) maximal gewählt werden und Gleichung
(3.8) erfüllen. Dabei gilt für die Akzeptanzraten
0<
A(n → m)
<1
A(m → n)
(3.11)
Als ersten Schritt bei der Implementierung des Metropolis Algorithmus müssen die
Auswahlwahrscheinlichkeiten g(n → m) festgelegt werden. Man geht dabei von der
single-spin-flip-dynamic aus, wobei bei jedem neuen generierten Zustand lediglich ein
einziger Spin die Chance bekommt sich neu auszurichten oder seine bisherige Ausrichtung zu behalten. Da sich o.B.d.A. N Spins im System befinden, wird die Wahrscheinlichkeit mit
1
(3.12)
g(n → m) =
N
festgelegt, womit sich Gleichung (3.10) unter Berücksichtigung von (3.8) zu
P (n → m)
A(n → m)
=
= e−β(Em −En )
P (m → n)
A(m → n)
(3.13)
umformulieren lässt. Somit ist das Verhältnis der Übergangsraten ausschließlich von
den Akzeptanzraten abhängig.
Nun müssen die Akzeptanzraten so groß wie möglich gewählt werden, damit der Algorithmus eine effiziente Anzahl von Zustandsänderungen herbeiführt. Damit dies geschieht setzte Metropolis die größere der beiden Akzeptanzraten aus Gleichung (3.13)
auf Eins. Nun muss die zweite so gewählt werden, dass Gleichung (3.13) immer noch
erfüllt wird. Dafür seien n und m zwei Zustände, für die o.B.d.A. En < Em gilt, womit
A(m → n) die größere der beiden Akzeptanzraten wäre und auf Eins gesetzt wird.
Setzt man dies in Gleichung (3.13) ein folgt unmittelbar A(n → m) = e−β(Em −En ) und
der Algorithmus bekommt folgendes Auswahlkriterium:
(
e−β(Em −En ) falls Em − En > 0
A(n → m) =
(3.14)
1
sonst
Es wird also immer vom Zustand n in den Zustand m gewechselt, falls dieser energetisch niedriger ist, also falls En > Em gilt, ansonsten wird der neue Zustand, wenn er
energetisch höher liegt nur mit der Wahrscheinlichkeit e−β(Em −En ) angenommen. Man
beachte, dass die Wahrscheinlichkeit umso stärker abnimmt, je größer die Energiedifferenz ist.
13
3.2 Metropolis Algorithmus
Fakultät Physik
Universität Bielefeld
Für die Simulationen dieser Arbeit wurde ein Metropolis Algorithmus implementiert,
der nach folgendem Rezept aufgebaut ist:
1. Wähle einen Anfangszustand
2. Wähle zufällig einen Spin aus
3. Berechne die Energiedifferenz ∆E zu dem Zustand, wenn sich der Spin ändert
4. Generiere eine Zufallszahl r mit 0 < r < 1
5. Wenn r < e−∆E/kB T drehe den Spin
6. Wiederhole 2
Im nächsten Abschnitt wird nun das Ising-Modell vorgestellt, bei dem dieser Algorithmus in dieser Arbeit seine Anwendung findet.
14
Fakultät Physik
Universität Bielefeld
4 Das Ising-Modell
4.1 Allgemeines
1922 bis 1924 beschäftigte sich Ernst Ising in seiner Doktorarbeit mit dem von seinem
Doktorvater Wilhelm Lenz aufgestellten Modell zur Beschreibung des Ferromagnetismus [7] und versuchte dieses mathematisch auszuarbeiten [8]. Dabei fand er eine
analytische Lösung für das eindimensionale Modell, wobei er feststellte, dass in dieser Form der Ferromagnetismus unzureichend beschrieben werden konnte und keinerlei
Phasenübergänge bei endlicher Temperatur auftauchten. Erst 1944 berechnete Lars
Onsager eine analytische Lösung für das zweidimensionale Modell und fand heraus,
dass hier ein Phasenübergang auftritt [9].
Das Ising-Modell ist ein einfacher Weg ein ferromagnetisches Material zu beschreiben. Es versucht weniger einen bestimmten Ferromagneten genau zu beschreiben, als
qualitative Aussagen z.B. über Magnetisierung und Phasenübergänge zu machen. Im
Ising-Modell besteht ein Material aus einem quadratischen Gitter1 , an dessen Gitterplätze sich magnetische Spinmomente Si befinden. Die möglichen Werte dieser Spinmomente sind Si ∈ {−1, +1}, also wie aus der Quantenmechanik bekannt ’Spin up’ und
’Spin down’, allerdings wird der einfachheithalber die Spinlänge auf 1 gesetzt und die
Ausrichtung nur auf eine Richtung beschränkt, die o.B.d.A als die z-Richtung gewählt
wird, wenn sich die Gitterplätze auf der x-y-Ebene befinden.
Sind alle Spinmomente auf dem gesamten Gitter gegeben spricht man von einer Spin~ = S1 , S2 , ..., SN mit der Energie
konfiguration S
X
X
H = −J
Si Sj − B
Si
(4.1)
(i,j)nn
i
Man beachte, dass der Summationsindex des ersten Terms nur über direkte Nachbarn geht (nn = nearest neighbors). J ist dabei die Stärke für die Wechselwirkung der
nächsten Nachbarn untereinander 2 und B ist ein externes Magnetfeld, das senkrecht
zum Gitter angelegt ist.
In dieser Arbeit wird ein zweidimensionales Spingitter untersucht, in dem jeder Spin
mit genau vier direkten Nachbarn wechselwirkt. In der eindimensionalen Form des
Ising-Modells sind die Spins in einem festen Abstand auf einer Kette angeordnet und
haben daher nur zwei direkte Nachbarn, mit denen sie in Wechselwirkung treten. Für
diese beiden Formen gibt es schon wie oben erwähnt seit langer Zeit eine analytische
Lösung, allerdings ohne Wirken eines externen Magnetfeldes (also für B = 0). Diese
Arbeit will in ihrem Hauptschwerpunkt die physikalischen Eigenschaften des IsingModells unter dem Einfluss eines externen Magnetfeldes untersuchen, daher muss auf
1
2
in der zweidimensionalen Variante des Ising-Modells
J ist in dieser Arbeit positiv, da nur ferromagnetische Wechselwirkungen betrachtet werden, für
einen Antiferromagneten ist J negativ.
15
Fakultät Physik
Universität Bielefeld
4.2 Analytische Lösung
ein numerisches Verfahren wie der Monte-Carlo-Methode zurückgegriffen werden. Da
aber für B = 0 die analytische Lösung existiert, kann für diesen Fall zuerst einmal
ein Vergleich mit der numerischen Lösung die Verwendung der Monte-Carlo-Methode
gerechtfertigt werden.
4.2 Analytische Lösung
In [2] findet man eine ausführliche Herleitung für die analytische Lösung des zweidimensionalen Ising-Modells nach Lars Onsager. Es wird ein Phasenübergang zweiter
Ordnung beschrieben, für den für die kritische Temperatur die Forderung
√
1
J
= ln(1 + 2) = 0.4407
kB TC
2
(4.2)
angegeben wird. Formt man dies um erhält man
TC =
J
J
2
√
= 2.2692
kB
ln(1 + 2) kB
(4.3)
Dies wird oft auch als Curie-Temperatur bezeichnet, da es sich hierbei um einen Phasenübergang handelt, bei dem ein Stoff seine ferro- bzw. ferrimagnetischen Eigenschaften verliert, sobald er mit einer Temperatur über TC erhitzt wird. Oberhalb der CurieTemperatur zeigt das Material nur noch ein paramagnetisches Verhalten und kann
daher durch ein externes Magnetfeld immer noch schwach magnetisiert werden. Wie
sich die Magnetisierung explizit nach der Temperatur ändert wird in [2] angegeben mit
der Vorschrift
(
1/8
1 − sinh−4 (2βJ)
T < TC
M (T ) =
(4.4)
0
T > TC
4.3 Implementierung
Nun soll das zweidimensionale Ising-Modell umgesetzt werden in ein Computerprogramm, welches zusammen mit dem Metropolis Algorithmus ein Material simuliert,
das seine ferromagnetischen Eigenschaften durch Temperaturänderung verändert. Es
soll zeigen, dass es ohne externes Magnetfeld einen Phasenübergang wie in 4.2 beschrieben gibt und es soll zeigen, wie es sich bei Einschalten eines externen Magnetfeldes
verhält. Bevor es dazu kommt soll in diesem Abschnitt die Realisierung dieses Programms erläutert werden.
Als Werkzeug für die Implementierung des Ising-Modells wird das Programmpaket Mathematica verwendet. Es bietet eine Programmiersprache zur Umsetzung des
Metropolis Algorithmus, ein Visualisierungstool zur graphischen Darstellung der Spinkonfigurationen und der Graphen für den Verlauf der physikalischen Observablen, sowie
eine Numerik-Software zur Auswertung von Gleichungen.
16
4.3 Implementierung
Fakultät Physik
Universität Bielefeld
Es wird nun das Grundgerüst des Quellcodes beschrieben, mit dem die Simulation
unter Mathematica läuft:
s = Table[(2*Random[Integer]) - 1, {100}, {100}];
MatrixPlot[s, ColorRules -> {1 -> GrayLevel[0], -1 -> GrayLevel[1]}]
Zuerst wird wie im Rezept für den Metropolis Algorithmus angegeben eine Startkonfiguration der Spins generiert. Mathematica erzeugt eine 100x100 Tabelle mit Einträgen
von −1 und 1. Der Befehl MatrixPlot stellt diese Tabelle graphisch dar, indem jedem Wert ein Pixel in einem 100x100 Quadrat zugeordnet wird und jeder Pixel mit 1
schwarz und jeder mit −1 weiß dargestellt wird. Dies entspricht spin up und spin down.
k = 1;
j = 1;
temp = 2;
bfeld = 0;
Hier werden die Konstanten aus den Gleichungen (3.14) und (4.1) festgelegt. k die
Boltzmann-Konstante kB , j die Stärke für die Wechselwirkung der benachbarten Spins,
temp die Temperatur des Systems und bf eld die Stärke des externen Magnetfeldes.
For[i = 0, i < 1000000, i++,
x = Random[Integer, {1, 100}];
y = Random[Integer, {1, 100}];
Nun beginnt die Schleife der Simulation, in der eine Million mal nacheinander zufällig
ein Spin ausgewählt wird, indem zwei Zufallszahlen im Bereich der Breite und Länge
des Gitters gewählt werden, die als Koordinaten für den Gitterplatz eines Spins dienen.
Mit
For[i = 0 < 100, i++,
For[x = 1,x<=100,x++,
For[y = 1,<=100,y++,
]
]
]
kann alternativ das gesamte Gitter der Reihe nach Spin für Spin durchlaufen werden.
Dies geschieht 100 mal in Folge, wobei ein Durchgang als Monte-Carlo-Step bezeichnet
wird (siehe Abschnitt 5.4).
17
Fakultät Physik
Universität Bielefeld
4.3 Implementierung
If[x
If[x
If[y
If[y
==
==
==
==
1, a
100,
1, c
100,
=
b
=
d
101,
= 0,
101,
= 0,
a
b
c
d
=
=
=
=
x];
x];
y];
y];
Mit diesen Zeilen werden die periodischen Randbedingungen eingefügt. Mit diesem
Problem setzt sich Kapitel 5.2 näher auseinander.
ediff = 2*s[[x, y]]*
( s[[b + 1, y]]*j
s[[a - 1, y]]*j
s[[x, d + 1]]*j
s[[x, c - 1]]*j
+
+
+
+ bfeld );
Hier wird die Energiedifferenz ∆E zwischen der aktuellen Spinkonfiguration und der
Konfiguration mit gedrehtem Spin ausgerechnet. Die Energiedifferenz wird hier mit der
Formel


X
∆E = 2Sin J
Sjn + B 
(4.5)
(i,j)nn
berechnet. Die Korrektheit dieser Formel wird weiter unten hergeleitet.
If[ediff <= 0,
s[[x, y]] = -s[[x, y]],
Die möglichen Werte für ediff sind ±4, ±2, ±1 und 0. Für die negativen Werte wird
der Spin immer gedreht. Für alle anderen Werte folgt die If -Abfrage der nächsten
Anweisung.
If[Random[] < Exp[-ediff/(k
s[[x, y]] = -s[[x, y]],
temp)],
s[[x, y]] = s[[x, y]]
]
]
];
Diese Anweisung ist wiederum eine If -Abfrage. Ist die Energiedifferenz positiv, wird eine Zufallszahl erzeugt und es wird gefragt, ob diese kleiner als die Boltzmann-Verteilung
für die Energiedifferenz nach Gleichung (3.14) ist. Ist dies der Fall, wird der Spin ebenfalls gedreht, ansonsten verbleibt er in seiner aktuellen Haltung.
MatrixPlot[s, ColorRules -> {1 -> GrayLevel[0], -1 -> GrayLevel[1]}]
18
Fakultät Physik
Universität Bielefeld
4.3 Implementierung
Zuletzt wird die neue Spinkonfiguration ausgegeben, von der angenommen wird, dass
sie sich nach 1000000 Schritten im thermischen Gleichgewicht mit der angegebenen
Temperatur befindet.1
Nun wird an dieser Stelle Gleichung (4.5) hergeleitet, dazu wird Gleichung (4.1) und
der Zusammenhang En = H(n) ausgenutzt. Daraus lässt sich für die Energiedifferenz
zwischen zwei Spinkonfiguration folgern
∆E = Em − En
X
X
X
X
= −J
Sim Sjm − B
Sim + J
Sin Sjn + B
Sin
i
(i,j)nn
= −J 

X
X
Sim Sjm −
(i,j)nn
= −J 
!
Sin Sjn  + B
X
Sin −
i
(i,j)nn


X
(4.7)
i
(i,j)nn

(4.6)
X
Sim
(4.8)
i
!
Sjn (Sim − Sin ) − B
X
(Sim − Sin )
(4.9)
i
(i,j)nn
Um Gleichung (4.9) weiter vereinfachen zu können, betrachtet man die Klammer
(Sim − Sin ) und sucht die möglichen Werte, die diese annehmen kann. Für den Spin Sin
in der Anfangskonfiguration sind die beiden Werte +1 und −1 möglich, wodurch der
Spin Sim festgelegt ist:
Sin = +1 → Sim = −1 → Sim − Sin = −2
(4.10)
Sin = −1 → Sim = +1 → Sim − Sin = +2
(4.11)
Sim − Sin = −2Sin
(4.12)
Daher gilt allgemeiner
Gleichung (4.12) in (4.9) eingesetzt gibt
X
X
∆E = 2J
Sjn Sin + 2B
Sin
(i,j)nn


= 2
X
i
(4.13)
i
Sin J
X
Sjn + B 
(4.14)
(i,j)nn
Hier sei noch einmal darauf hingewiesen, dass der Ausdruck (i, j)nn in der zweiten
Summe die direkten Nachbarn j des i-ten Spins meint. Da bei jeder Zustandsänderung
jeweils nur maximal ein Spin geändert wird, fällt die erste Summe für die Berechnung der Energiedifferenz in der Computersimulation weg und Gleichung (4.5) wurde
bewiesen.
1
Es wird erst später die Frage gestellt, ob sich das System nach einer Million Schritten wirklich schon
im thermischen Gleichgewicht befindet.
19
Fakultät Physik
Universität Bielefeld
5 Simulationen zum zweidimensionalen Ising-Modell
In diesem Kapitel wird nun der in Abschnitt 4.3 vorgestellte Quelltext mit dem Programmpaket Mathematica ausgeführt und das Ising-System simuliert. Um zu fundierten Ergebnissen kommen zu können müssen vorher noch einige Punkte, die mit dem
Ablauf der Computersimulation zusammenhängen, diskutiert werden. Darunter fallen
die Fragen nach der Größe des Systems, periodische Randbedingungen und der Startkonfiguration.
5.1 Gittergröße
Zuerst einmal wird darauf hingewiesen, dass in dieser Arbeit ein zweidimensionales
Ising-System untersucht wird. Ernst Isings analytische Rechungen zur eindimensionalen
Kette zeigten, dass diese keine Phasenübergänge enthält. Das dreidimensionale Modell
hingegen konnte bisher noch nicht analytisch gelöst werden, allerdings konnten durch
Approximationen die Existenz von Phasenübergängen bestätigt werden. Das zweidimensionale Modell wurde zum einen analytisch exakt gelöst, wie in Kapitel 4.2 erwähnt,
und enthält einen Phasenübergang. Daher soll in dieser Arbeit der Phasenübergang
mittels der Monte-Carlo-Methode gezeigt und durch die analytische Lösung bestätigt
werden. Um diesen Phasenübergang befriedigend darstellen zu können, ist die Frage
nach der Größe des zweidimensionalen Gitters entscheidend. Wählt man es zu klein
(z.B. 10x10), dann ist der Phasenübergang “verschmiert” und nicht gut erkennbar.
Wählt man das Gitter zu groß (z.B. 1000x1000), dann benötigt die Simulation eine
enorme Rechenzeit um ein thermisches Gleichgewicht zu bekommen (die Simulationszeit wird später erörtert). Die Gittergröße ist also ein Kompromiss, zwischen kurzer
Rechenzeit und zufriedenstellender Ergebnisse. In dieser Arbeit fiel die Wahl auf ein
100x100 Gitter, welches sich auf einem Heimcomputer in annehmbarer Rechenzeit simulieren lässt und zudem Ergebnisse produziert, die einen Phasenübergang erkennen
lassen, zudem kann durch die Größe des Gitters visuell gezeigt werden, wie sich die
einzelnen Spinmomente nach der Zeit umorientieren.
5.2 Periodische Randbedingungen
Die analytische Lösung für das zweidimensionale Ising-Modell, wie sie in Kapitel 4.2
angegeben ist, gilt für ein unendlich großes Gitter. Selbstverständlich kann in einer
Computersimulation kein unendliches Gitter erzeugt werden. Produziert man allerdings
nur ein endliches Gitter, in diesem Fall mit 100x100 Gitterplätzen ein relativ kleines,
so verursachen die Ränder Fluktuationen, die die Entwicklung des Systems in ungewisser Weise beeinträchtigen können, so dass evtl. sogar kein Phasenübergang entstehen
könnte. Um diesem Problem entgegen zu kommen behilft man sich durch den Einbau
periodischer Randbedingungen. In dieser Arbeit werden Born-von Karman Randbedingungen eingefügt, die Gitterplätze am Ende einer Reihe mit dem Gitterplatz am Anfang
der Reihe verbinden und jene am Ende einer Spalte mit dem Gitterplatz am Anfang
20
5.3 Startkonfiguration
Fakultät Physik
Universität Bielefeld
der Spalte, womit aus einem zweidimensionalem Gitter die Oberfläche eines dreidimensionalen Torus erzeugt wird. Mit diesen Randbedingungen ist nun gewährleistet,
dass jeder Gitterplatz vier Nachbarn besitzt, mit denen er wechselwirken kann und sich
somit das System verhält, wie es das Ising-Modell verlangt.
5.3 Startkonfiguration
Bevor man eine Computersimulation starten kann, stellt sich die Frage nach der Startkonfiguration. In welcher Konfiguration befindet sich das System in der Ausgangssituation? In Kapitel 4.3 wird eine zufällige Spinkonfiguration erzeugt, wie sie Abb. 1
zeigt.
Abbildung 1: Zufällige Spinkonfiguration
Jeder Gitterplatz wird durch ein schwarzes oder ein weißes Pixel dargestellt. Dabei
stellt ein schwarzes Pixel ein Spinmoment von s = +1 und ein weißes ein Spinmoment
von s = −1 dar. Beide können mit gleicher Wahrscheinlichkeit (p = 21 ) auftreten, wodurch eine Konfiguration mit zufällig auftretenden Spins generiert wird. Eine solche
Konfiguration entspricht im Ising-Modell einem Zustand in dem für die Temperatur
T −→ ∞ gilt, da sich in einer zufälligen Konfiguration alle magnetischen Momente
der Spins in der Summe aufheben und quasi keine, bzw. sehr geringe Magnetisierung
auftritt. Dies tritt ja bei sehr hohen Temperaturen auf, bei der die Magnetisierung des
Systems verschwinden soll. Daher ist diese Startkonfiguration sinnvoll, wenn man ein
Abkühlen eines solchen Spinsystems simulieren möchte, wodurch sich nach geraumer
Zeit eine spontane Magnetisierung einstellen sollte. Anders bei einer Erwärmung eines
bereits magnetisierten Systems. Hier wählt man eine Startkonfiguration, bei der bereits alle Spins parallel ausgerichtet sind (Abb. 1 würde nun komplett schwarz oder
ausschließlich weiß aussehen). Solche Startkonfigurationen werden bei den entsprechenden Fällen auch in dieser Arbeit verwendet, allerdings ist darauf zu achten, dass
die Simulationen ständig wiederholt und auch mit unterschiedlicher Startkonfiguration
ausprobiert werden, um zu untersuchen, ob der Ausgang abhängig von der gewählten
Startkonfiguration ist und ob auch bei gleich bleibender Startkonfiguration der selbe
Ausgang zu beobachten ist.
21
5.4 Monte-Carlo-Steps
Fakultät Physik
Universität Bielefeld
5.4 Monte-Carlo-Steps
Als letztes muss noch die Entwicklung des zu simulierenden Systems diskutiert werden, bevor die Computersimulation gestartet werden kann. Dieser Punkt beschäftigt
sich mit der Frage, nach der Zeit in der Monte-Carlo Simulation.
Es wurden in Kapitel 4.3 zwei Varianten vorgestellt, wie die Auswahl der Spins, wie
sie nach Punkt 2 des Rezepts für den Metropolis Algorithmus in Kapitel 3.2 verlangt
wird, durchgeführt werden kann. Zum einen kann das gesamte Gitter der Reihe nach
durchlaufen werden, in dem zuerst der Spin an Position 1 ausgewählt und die Chance
eingeräumt wird seine Orientierung zu wechseln, danach wird der Spin an Position 2
ausgewählt, danach jener an Position 3, usw., bis alle Spins einmal ausgewählt wurden. Einen solchen Durchlauf, in dem alle Spins einmal ausgewählt wurden, bezeichnet
man als Monte-Carlo-Step (MCS). Ein einziger MCS ist selbstverständlich nicht ausreichend, so dass sich bei einer gegebenen Temperatur ein thermisches Gleichgewicht
einstellen kann. Auch bei einem realen Experiment würde es eine gewisse Zeit dauern,
bis sich ein thermisches Gleichgewicht einstellt. Doch welcher realen Zeit entspricht
einem MCS?
Einem MCS kann leider keine reale Zeitspanne zugeordnet werden, denn hierbei handelt es sich nur um eine Art Pseudo-Zeit. Es kann also kein Zusammenhang zwischen
der Zeit, in der sich in einem realen Experiment ein thermisches Gleichgewicht einstellt
und der Anzahl der MCS, in der es in einer Computersimulation geschieht, hergestellt
werden. Man kann durch den fehlenden Zusammenhang also nicht die minimal nötige
Anzahl der MCS bestimmen, die man durch die Erfahrung aus realen Experimenten
erhält. Es muss also durch mehrmaliges Simulieren eine entsprechend notwendige Anzahl MCS ermittelt werden. Dies ist wiederum wieder ein Kompromiss, da zum einen
ein zufriedenstellender Phasenübergang erzeugt werden, die Simulationszeit hingehen
auch angemessen gering bleiben soll.
Daneben gibt es noch eine weitere Variante eines MCS, in der wie nach Punkt 2 des
Rezepts für den Metropolis Algorithmus ein Spin zufällig ausgewählt wird. Besteht das
Gitter aus N Gitterplätzen so entspricht ein MCS der Auswahl von N zufälligen Spins.
Welche dieser beiden Varianten mehr Vorteile bietet, oder bei welcher ein genauerer Phasenübergang erzeugt wird, muss durch mehrmaliges Simulieren herausgefunden
werden. In dieser Arbeit wurde die erste Variante gewählt.
5.5 Simulationsergebnisse
Werden all die vorangegangenen Faktoren beachtet, können die ersten Simulationen
durchgeführt und ausgewertet werden.
Begonnen wird mit einer Startkonfiguration, in der alle Spins parallel ausgerichtet sind.
Dies würde dem Zustand T −→ 0 entsprechen und folgt nach dem Ising-Modell einer
vollständigen Magnetisierung des Systems. Im nächsten Schritt wird das System, gekoppelt an ein äußeres Wärmereservoir, erwärmt, indem das Programm aus Kapitel
4.3 mit einer festgesetzten Temperatur durchlaufen wird. Die Temperatur wird von
22
5.5 Simulationsergebnisse
Fakultät Physik
Universität Bielefeld
1 bis 4 Grad in einem Abstand von 0.1 durchlaufen und nach Gleichung (2.21) die
Magnetisierung aufgenommen. Dabei werden die magnetischen Momente jedes einzelnen Spins addiert und durch die Gesamtspinanzahl dividiert. Dies kann dann über der
Temperatur aufgezeichnet werden, in derem Verlauf ein Phasenübergang erkennbar
sein müsste. Für den Verlauf der spezifischen Wärmekapazität und der magnetischen
Suszeptibilität wurde die Simulation über einen Temepraturbereich von über 10 Grad
weiter durchlaufen.
5.5.1 Magnetisierung
Die Simulation wird mit 100 MCS durchlaufen, wonach im Anschluss die Magnetisierung ausgerechnet und über der Temperatur aufgetragen wird. Es entsteht beim
Erwärmen einer Spinkonfiguration, in der alle Spins parallel ausgerichtet sind, ein Verlauf, der in Abb. 2Pzu sehen ist. Für die Skalierung gilt kBJTC = 2.2692 und für die
Magnetisierung N1 i Si .
Abbildung 2: Magnetisierung aufgetragen über der Temperatur ohne äußerem Magnetfeld
Es zeigt sich, dass das System bei niedrigen Temperaturen eine volle Magnetisierung
bestitzt, welche bei größer werdenden Temperaturen kontinuierlich, aber schnell abnimmt und bei höheren Temperaturen verschwindet, bzw. nur noch einen sehr kleinen
Beitrag liefert. Es zeigt sich, dass die plötzliche Abnahme der Magnetisierung in einem
Bereich um den analytischen Wert von 2.2692 Grad aus Kapitel 4.2 liegt. Wie sich das
System explizit entwickelt kann man auf den Teilbildern von Abb. 3 sehen.
23
Fakultät Physik
Universität Bielefeld
5.5 Simulationsergebnisse
1
20
40
60
80
100
1
20
40
60
80
100
1
20
40
60
80
100
1
1
1
1
1
1
20
20
20
20
20
20
40
40
40
40
40
40
60
60
60
60
60
60
80
80
80
80
80
80
100
100
100
100
100
1
20
1
20
40
60
80
100
1
20
100
1
20
(a) 1.1 Grad
40
60
80
40
60
80
100
100
1
20
100
1
20
(b) 1.4 Grad
40
60
80
40
60
80
100
(c) 1.7 Grad
40
60
80
100
1
1
1
1
1
1
20
20
20
20
20
20
40
40
40
40
40
40
60
60
60
60
60
60
80
80
80
80
80
80
100
100
100
100
100
1
20
1
20
40
60
80
100
1
20
100
1
20
(d) 2.0 Grad
40
60
80
40
60
80
100
100
1
20
100
1
20
(e) 2.3 Grad
40
60
80
40
60
80
100
(f) 2.6 Grad
40
60
80
100
1
1
1
1
1
1
20
20
20
20
20
20
40
40
40
40
40
40
60
60
60
60
60
60
80
80
80
80
80
80
100
100
100
100
100
1
20
40
60
80
(g) 2.9 Grad
100
1
20
40
60
80
(h) 3.2 Grad
100
100
1
20
40
60
80
100
(i) 3.5 Grad
Abbildung 3: Entwicklung des zweidimensionalen Ising-Spinsystems bei steigender
Temperatur
Da ein 100x100 Gitter für die Simulation gewählt wurde, kann man nun die Entwicklung des Systems in den Teilbildern (a) bis (i) in Abb. 3 gut nachvollziehen. In den
Bildern (a) bis (d) besitzt das System eine hohe bis fast vollständige Magnetisierung,
bei der bis auf einzelne wenige Spins alle parallel ausgerichtet sind. Nach der analytischen Lösung findet ein Phasenübergang bei 2.2692 Grad statt, welcher im Bild (e) bei
2.3 Grad zu erkennen ist. Es kommt zu einer stärkeren Domänenbildung, in der sich
größere Bereiche mit parallelgerichtetem Spin ausbilden, die aber entgegengesetzt zur
Spinrichtung der Startkonfiguration ist. In den Bildern (f) bis (i) entwickelt sich das
System so, dass die Spins gleichverteilt in beide Spinrichtungen wechseln und sich die
Magnetisierung damit fast vollständig aufhebt. Durch die höhere thermische Energie
entkoppeln die Spins von ihren direkten Nachbarn und die Austauschwechselwirkung
unter ihnen beginnt keine Rolle mehr zu spielen, damit kommt es zu einer zufälligen
24
5.5 Simulationsergebnisse
Fakultät Physik
Universität Bielefeld
Verteilung der Spinrichtungen und die Magnetisierung der einzelnen magnetischen Momente heben sich untereinander auf. Die Magnetisierung nimmt hier also den Platz
eines Ordungsparameters ein (wie schon in Kapitel 2.3 erwähnt). Das System besitzt
in den Teilbildern (a) bis (d) eine gewisse Ordnung, nämlich die gleichausgerichteten
Spins. Diese Ordnung geht durch den Phasenübergang ab Teilbild (e) verloren.
Das Verschwinden des Ordnungsparameters ist eine erste Aussage über das Erscheinen eines Phasenübergangs. Da es sich aber um einen kontinuierlichen Phasenübergang
handelt, tauchen Diskontinuitäten erst in Observablen auf, die sich aus späteren Ableitungen bilden. Dies sind die spezifische Wärmekapazität und die magnetische Suszeptibilität. Es konnte hergeleitet werden, dass sich beide Obersvablen über die Varianz
zweier Observablen berechnet werden können, die sich leichter aus dem System der
Simulation extrahieren lassen. Nach Gleichung (2.24) lässt sich die spezifische Wärme
aus der Varianz der Energie und nach Gleichung (2.26) die magnetische Suszeptibilität
aus der Varianz der Magnetisierung berechnen. Diese sollen als nächstes graphisch
dargestellt werden.
5.5.2 Spezifische Wärmekapazität
Nach Gleichung (2.24) wird aus der Varianz der Energie, welche sich aus Gleichung
(4.1) ergibt, die spezifische Wärmekapazität berechnet und über der Temperatur aufgetragen. Die Ergebnisse sind in Abb. 4 eingezeichnet.
Abbildung 4: Spezifische Wärmekapazität aufgetragen über der Temperatur ohne
äußerem Magnetfeld
25
5.5 Simulationsergebnisse
Fakultät Physik
Universität Bielefeld
Die spezifische Wärme steigt mit steigender Temperatur an, bis sie ein Maximum erlangt, welches sich bei der kritischen Temperatur befindet. Danach fällt die spezifische
Wärme wieder stark ab. Da die spezifische Wärme die Wärmeenergie misst, die man
benötigt, um die Temperatur um einen Kelvin zu erhöhen, erkennt man, dass während
des Phasenübergangs viel mehr Wärme erforderlich ist, um dies zu ermöglichen. Nach
dem Phasenübergang sinkt diese erforderliche Wärmemenge wieder, da sich das Material dann in seiner zweiten Phase befindet und keine zusätzliche Energie mehr für das
Erreichen dieser Phase aufgewendet werden muss.
5.5.3 Magnetische Suszeptibilität
Die magnetische Suszeptibilität wurde über die Varianz der Magnetisierung berechnet
und in Abb. 5 über der Temperatur aufgetragen
Abbildung 5: Magnetische Suszeptibilität aufgetragen über der Temperatur ohne
äußerem Magnetfeld
Die Suszeptibilität zeigt ein ähnliches Muster wie die spezifische Wärme. Bei kleinen Temperaturen bleibt die Suszeptibilität sehr klein, da die Magnetisierung durch
die parallel ausgerichteten Spins sehr hoch und die Varianz, in der sich die einzelnen
Spins vom Mittelwert unterscheiden, gering ist. Nachdem bei steigender Temperatur die
Wahrscheinlichkeit für einen Spin, seine Richtung zu ändern, immer größer wird, steigt
auch die Varianz und daher kommt es zu einem raschen Anstieg der Suszeptibilität.
26
5.6 Ising-Spinkette im äußeren Magnetfeld
Fakultät Physik
Universität Bielefeld
5.6 Ising-Spinkette im äußeren Magnetfeld
Nun wird die Ising-Spinkette mit einem angelegten äußeren Magnetfeld untersucht,
dabei wird wie im vorangegangenen Abschnitt die Magnetisierung über der Temperatur aufgetragen. Außerdem werden die spezifische Wärmekapazität und die magnetische Suszeptibilität mit den Werten ohne äußerem Magnetfeld verglichen. Das äußere
Magnetfeld aus Gleichung (4.1) wird auf B = 1 gesetzt1 und die Variable bfeld aus
der Implementierung der Computersimulation dementsprechend geändert. Der Temperaturbereich wird bis auf 30 Grad ausgeweitet, allerdings mit einem Abstand von
0.3 Grad um die Rechenzeit zu kompensieren. Bevor jedoch die Simulationsergebnisse
präsentiert werden, soll der Ausgang vorher theoretisch bestimmt werden.
5.6.1 Theoretische Vorhersage
Die analytische Rechnung, für das Verhalten eines Spins in einem äußeren Magnetfeld,
sieht für die Magnetisierung wie folgt aus
1
h+|Si e−β Ĥ |+i + h−| − Si e−β Ĥ |−i
Z
1 −βB
= −
e
− eβB
Z
βB
e − e−βB
= βB
e + e−βB
= tanh (βB)
hM i = −
(5.15)
(5.16)
(5.17)
(5.18)
Der Spin kann in dieser Rechnung nur zwei Zustände annehmen, nämlich parallel
oder antiparallel zum äußeren Magnetfeld, Si = {1, −1} in z-Richtung falls o.B.d.A.
~ = B0 e~z gilt. Der Hamiltonoperator bekommt die Form Ĥ = −~µ · B,
~ das bedeutet,
B
dass der Spin nur mit dem äußeren Magnetfeld koppelt und keinerlei Wechselwirkung
mit anderen Spins besteht2 . Überführt man diese Rechnung auf ein System mit N Spins,
muss über alle Si summiert werden. Da die Terme sowohl im Zähler als auch im Nenner
von Gleichung (5.17) N mal vorkommen, kann die Formel für das zweidimensionale
Spinsystem übernommen werden. Allerdings muss beachtet werden, dass die Spins
nach dieser Rechnung keinerlei Wechselwirkung untereinander zeigen. Für sehr hohe
Temperaturen gilt tanh (βB) ≈ βB = kBBT ∼ T1 , was auch als das Curie Gesetz bekannt
ist [10].
1
2
in Einheiten von µ̂, dem magnetischen Moment des in dieser Arbeit verwendeten Ising-Spins
reduziert sich auf H = −B, da B · µ̂ = B für µ̂ = 1 (mag. Moment des Ising-Spins)
27
5.6 Ising-Spinkette im äußeren Magnetfeld
Fakultät Physik
Universität Bielefeld
5.6.2 Ergebnisse
Die Magnetisierung des Spinsystems im äußeren Magnetfeld ist in Abb. 6 über der
Temperatur aufgetragen. Für die Skalierung der Temperatur gilt wieder kBJTC = 2.2692
P
und für das angelegte B-Feld Bµ̂ = 1, die Magnetisierung wurde wieder durch N1 i Si
berechnet.
Abbildung 6: Magnetisierung aufgetragen über der Temperatur mit äußerem Magnetfeld (blau gepunktet); tanh(1/T) (rote Kurve)
Die rote Kurve in Abb. 6 zeigt den Verlauf des Curie-Gesetzes. Die durch die Computersimulation gemessenen Punkte liegen eindeutig über dieser Kurve, da die Spins im
Ising-Modell miteinander wechselwirken. Die Nachbar-Nachbar-Wechselwirkung verursacht also einen langsameren Abstieg der Magnetisierung bei steigender Temperatur.
In Abb. 7 wurden die spezifische Wärmekapazität und die magnetische Suszeptibilität jeweils mit und ohne äußerem Magnetfeld übereinander aufgetragen. Es zeigt sich
bei der Wärmekapazität, dass der charakteristische Peak bei der Kurve mit äußerem
Magnetfeld (blau) nur halb so hoch ist wie der Peak ohne äußerem Magnetfeld (rot).
Auch bei der Suszeptibilität zeigt sich, dass bei einem äußeren Magnetfeld die Kurve
(blau) deutlich unterhalb der Kurve für den Verlauf ohne äußerem Magnetfeld (rot)
bleibt.
Die Spins versuchen sich überwiegend am externen Magnetfeld auszurichten (vgl.
Gleichung (4.5)), daher kommt es zu einem langsameren Abfallen der Magnetisie-
28
5.6 Ising-Spinkette im äußeren Magnetfeld
Fakultät Physik
Universität Bielefeld
(a) Spezifische Wärmekapazität
(b) Magnetische Suszeptibilität
Abbildung 7: Wärmekapazität und Suszeptibilität aufgetragen über der Temperatur;
Rot B=0, Blau B=1
29
Fakultät Physik
Universität Bielefeld
rung bei steigender Temperatur. Durch das langsamere Fallen der Magnetisierung ist
auch ihre Varianz und die Varianz der Energie geringer und es kommt zu kleineren
Wärmekapazitäten und Suszeptibilitäten nach Gleichungen (2.24) und (2.26).
6 Zusammenfassung
Anhand des Ising-Modells konnte in dieser Arbeit gezeigt werden, wie man mit Hilfe
von Computersimulationen zu theoretisch vorhergesagten Ergebnissen kommen kann.
Die verwendete Monte-Carlo-Methode simulierte ein zweidimensionales Ising-System,
bestehend aus 100x100 Gitterplätzen, an denen sich jeweils Spins mit einem magnetischen Moment befinden, deren direkte Nachbarn untereinander in Wechselwirkung
treten. Es zeigte sich sowohl in der Theorie, als auch in der Simulation, dass es bei
einer Temperatur von TC = 2.2692 kJB zu einem Phasenübergang kommt, indem der
Ordnungsparameter des Systems, die Magnetisierung, von einem konstanten Wert auf
Null abfällt. Somit kann bestätigt werden, dass Computersimulationen in der Physik
ihre Berechtigung finden. In folgenden Arbeiten könnte nun die Monte-Carlo-Methode
auf das dreidimensionale Ising-System angewendet werden, für das es noch keine exakte
mathematische Lösung gibt.1 Aber auch in vielen anderen Bereichen der Physik kann
die Computersimulation zum Einsatz kommen, wie z.B. in der Elementarteilchenphysik.
Es hat sich gezeigt, dass bei der Simulation des Ising-Modells mehrere Faktoren beachtet werden müssen, wie z.B. die Gittergröße, die sowohl die Güte des Phasenübergangs,
als auch die Simulationszeit beeinflusst, oder die Verwendung von periodischen Randbedingungen, die auch Einfluss auf eine Simulation ohne ungewollte Fluktuationen
an den Rändern nehmen. Mit Hilfe der graphischen Darstellung des 100x100 Gitters,
konnte die Domänenbildung gezeigt werden, die so auch in einem realen Ferromagneten
auftritt und sich Bereiche mit gleicher Magnetisierung ausbilden.
Das Ising-Modell ist ein sehr gutes Beispiel gewesen für die Anwendung der MonteCarlo-Methode, da es sehr gute Ergebnisse erzielt und daher in der Physik große
Anerkennung findet. Es ist ebenfalls ein sehr gutes Beispiel für den Einstieg in die
Verwendung von Computersimulationen in der Physik und ließ einen Einstieg in das
dafür verwendete Programmpaket Mathematica zu. Des weiteren wurde der verwendete Metropolis-Algorithmus vorgestellt und in dieser Arbeit kennengelernt, der nur eine
Möglichkeit darstellt, das Ising-Modell zu simulieren.
1
in der Tat ist dies schon gemacht worden
30
Literatur
Fakultät Physik
Universität Bielefeld
Literatur
[1] Wolfgang Nolting, Grundkurs Theoretische Physik 4 - Spezielle Relativitätstheorie, Thermodynamik, Springer-Verlag Berlin Heidelberg, 2002
[2] Wolfgang Nolting, Grundkurs Theoretische Physik 6 - Statistische Physik,
Springer-Verlag Berlin Heidelberg, 2002
[3] Stefan Torbrügge, Anwendung der Monte-Carlo-Methode auf klassische
Spinsysteme, Universität Osnabrück, Bachelorarbeit, 2003
[4] Katrin Jahns, Monte-Carlo-Simulationen an Fe30 -Schichtsystemen, Universität
Osnabrück, Bachelorarbeit, 2006
[5] David P. Landau & Kurt Binder, A Guide to Monte Carlo Simulations in
Statistical Physics, Cambridge University Press 2000
[6] N. Metropolis, Aw. Rosenbluth, Mn. Rosenbluth, Ah. Teller, E.
Teller, Equation of state calculations by fast computing machines. Journal of
Chemical Physics 21, 1087-1092, 1953
[7] Wilhelm Lenz, Physikalische Zeitschrift 21, 613, 1920
[8] Ernst Ising, Zeitschrift für Physiker 31, 253, 1925
[9] Lars Onsager, Phys. Rev. 65, 117, 1944
[10] Diu/Guthmann/Lederer/Roulet, Grundlagen der statistischen Physik, de
Gruyter 1994
31
Herunterladen